Pokaż uproszczony rekord

dc.contributor.authorLeonowicz-Bukała, Iwona
dc.contributor.authorStruck-Peregończyk, Monika
dc.contributor.authorBirek, Mikołaj
dc.contributor.authorDudzińska, Katarzyna
dc.date.accessioned2025-04-24T10:04:37Z
dc.date.available2025-04-24T10:04:37Z
dc.date.issued2025-03-31
dc.identifier.issn0208-600X
dc.identifier.urihttp://hdl.handle.net/11089/55426
dc.description.abstractThe issue of the importance of representations of disability in various media has been frequently raised by numerous scholars, who proved that such mass media representations can exert a significant influence on the perception of disabled people in society. However, the constant change and development of new communication technologies pose new challenges and offer new chances to the issue of presenting adequate, realistic images of disabled people. The article describes generative artificial intelligence, as one of the most rapidly developing areas, which significantly impacts social communication both in professional media and social platforms. The easy online access to AI-based tools creates new challenges and uncertainties regarding its possible uses in creating widespread online content. While AI can increase accessibility and improve the quality of life of disabled people, its use may also result in perpetuating negative social representations of this group. In this paper, we attempt to review the existing problems and discussions on this topic together with the results of our research and answer the questions concerning the possible mechanisms of reproducing bias towards disability through content generated with various AI-based tools. Nowhere in the article was AI used in the writing process.en
dc.description.abstractTematyka reprezentacji niepełnosprawności w tradycyjnych i internetowych mediach była dotychczas często podnoszona przez wielu badaczy, którzy udowodnili, że przedstawienia obecne w środkach masowego przekazu mogą wpływać na społeczne postrzeganie tego tematu. Rozwój nowych technologii komunikacyjnych oferuje dzisiaj jednak nowe szanse w kwestii przedstawiania adekwatnych, realistycznych wizerunków osób niepełnosprawnych, a także przynosi nowe ryzyka. W artykule zwrócono uwagę na jedną z najszybciej rozwijających się technologii, jaką jest generatywna sztuczna inteligencja (GenAI), wpływająca na profesjonalnych nadawców i platformy społecznościowe. Łatwy dostęp do narzędzi opartych o tzw. GenAI stwarza dotychczas nieznane wyzwania, dotyczące jej możliwych zastosowań w tworzeniu powszechnie dostępnych treści online. O ile sztuczna inteligencja może zwiększać dostępność i poprawiać jakość życia osób z niepełnosprawnościami, jej wykorzystanie może jednocześnie skutkować utrwaleniem negatywnych reprezentacji społecznych tej grupy.W oparciu o przegląd istniejących problemów i dyskusji na ten temat oraz wyniki własnych badań, w artykule staramy się odpowiedzieć na pytania dotyczące możliwych mechanizmów powielania stereotypów wobec niepełnosprawności przez treści wizualne generowane przez narzędzia oparte na sztucznej inteligencji. W żadnym miejscu w artykule nie używano AI do procesu pisania.pl
dc.language.isopl
dc.publisherWydawnictwo Uniwersytetu Łódzkiegopl
dc.relation.ispartofseriesActa Universitatis Lodziensis. Folia Sociologica;92pl
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subjectgeneratywna sztuczna inteligencjapl
dc.subjectblockchainpl
dc.subjectniepełnosprawnośćpl
dc.subjectstereotypypl
dc.subjectkomunikacja społecznapl
dc.subjectuprzedzeniapl
dc.subjectgenerative artificial intelligenceen
dc.subjectAIen
dc.subjectdisabilityen
dc.subjectstereotypesen
dc.subjectsocial communicationen
dc.subjectbiasen
dc.title„AI, wygeneruj obraz osoby z niepełnosprawnością”. (Od)tworzenie społecznych reprezentacji niepełnosprawności z wykorzystaniem narzędzi generatywnej sztucznej inteligencjipl
dc.title.alternative“AI, generate an image of a disabled person”. (Re)creating representations of disability with generative AI toolsen
dc.typeArticle
dc.page.number31-58
dc.contributor.authorAffiliationLeonowicz-Bukała, Iwona - Wyższa Szkoła Informatyki i Zarządzania z siedzibą w Rzeszowie, Kolegium Mediów i Komunikacji Społecznejpl
dc.contributor.authorAffiliationStruck-Peregończyk, Monika - Wyższa Szkoła Informatyki i Zarządzania z siedzibą w Rzeszowie, Kolegium Mediów i Komunikacji Społecznejpl
dc.contributor.authorAffiliationBirek, Mikołaj - Wyższa Szkoła Informatyki i Zarządzania z siedzibą w Rzeszowie, Kolegium Mediów i Komunikacji Społecznejpl
dc.contributor.authorAffiliationDudzińska, Katarzyna - Wyższa Szkoła Informatyki i Zarządzania z siedzibą w Rzeszowie, Kolegium Mediów i Komunikacji Społecznejpl
dc.identifier.eissn2353-4850
dc.referencesAdiguzel T., Kaya M.H., Cansu F.K. (2023), Revolutionizing education with AI: Exploring the transformative potential of ChatGPT, „Contemporary Educational Technology”, 15(3), ep429. https://doi.org/10.30935/cedtech/13152pl
dc.referencesAdobe (2023), Adobe Firefly, https://www.adobe.com/products/firefly.html (dostęp: 16.06.2024).pl
dc.referencesBarnes C. (1992), Disabling Imagery and the Media: An Exploration of the Principles for Media Representations of Disabled People. The First in a Series of Reports, Ryburn Publishing.pl
dc.referencesBennett C.L., Keyes O. (2020), What is the point of fairness? Disability, AI, and the complexity of justice, „ACM SIGACCESS Accessibility and Computing”, nr 125, 1. https://doi.org/10.1145/3386296.3386301pl
dc.referencesClogston J.S. (1993), Changes in coverage patterns of disability issues in three major American newspapers, 1976–1991, Paper presented at the annual meeting of the Association of Education in Journalism and Mass Communication, Kansas City.pl
dc.referencesCocq C., Ljuslinder K. (2020), Self-representations on social media: Reproducing and challenging discourses on disability, „ALTER. European Journal of Disability Research”, nr 14, s. 71–84. https://doi.org/10.1016/j.alter.2020.02.001pl
dc.referencesCrawford K. (2020), Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press.pl
dc.referencesCroitoru F.A., Hondru V., Ionescu R.T., S h a h M. (2023), Diffusion models in vision: A survey, „IEEE Transactions on Pattern Analysis and Machine Intelligence”, nr 45(9), s. 10850–10869. https://arxiv.org/pdf/2209.04747 (dostęp: 15.06.2024).pl
dc.referencesEuropean Parliament (2023), EU AI Act: First Regulation on Artificial Intelligence, https://www. europarl.europa.eu/topics/en/article/(2023)0601STO93804/eu-ai-act-first-regulation-on-artificialintelligence (dostęp: 12.06.2024).pl
dc.referencesEverypixel (2023), AI has already created as many images as photographers have taken in 150 years, „Everypixel Journal”, https://journal.everypixel.com/ai-image-statistics (dostęp: 15.06.2024).pl
dc.referencesFeuerriegel S., Hartmann J., Janiesch C., Zschech P. (2023), Generative AI, „SSRN Electronic Journal”. https://doi.org/10.2139/ssrn.4443189pl
dc.referencesGadiraju V., Kane S., Dev S., Taylor A., Wang D., Denton E., Brewer R. (2023), ʽI wouldn’t say offensive but...ʼ: Disability-centered perspectives on large language models, [w:] Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency, s. 205–216.pl
dc.referencesvan Giffen B., Herhausen D., Fahse T. (2022), Overcoming the pitfalls and perils of algorithms: A classification of machine learning biases and mitigation methods, „Journal of Business Research”, nr 144, s. 93–106. https://doi.org/10.1016/j.jbusres.2022.01.076pl
dc.referencesGoggin G., Newell C. (2007), The business of digital disability, „The Information Society”, nr 23(3), s. 159–168. https://doi.org/10.1080/01972240701323572pl
dc.referencesGórska A.M., Jemielniak D. (2023), The invisible women: Uncovering gender bias in AI-generated images of professionals, „Feminist Media Studies”, nr 23(8), s. 4370–4375. https://doi.org/10.1080/14680777.2023.2263659pl
dc.referencesHaller B. (1999), How the news frames disability: Print media coverage of the Americans with disabilities act, „Research in Social Science and Disability”, nr 1, s. 55–83.pl
dc.referencesHao S., Mack P., Laszlo S., Poddar S., Radharapu B., Shelby R. (2023), Safety and fairness for content moderation in generative models, „arXiv preprint”, arXiv:2306.06135.pl
dc.referencesHertzmann A. (2022), Give this AI a few words of description and it produces a stunning image – But is it art?, „The Conversation”, https://theconversation.com/give-this-ai-a-few-wordsof-description-and-it-produces-a-stunning-image-but-is-it-art-184363 (dostęp: 15.06.2024).pl
dc.referencesHill S. (2017), Exploring disabled girls’ self-representational practices online, „Girlhood Studies”, nr 10(2), s. 114–130. https://doi.org/10.3167/ghs.2017.100209pl
dc.referencesHutchinson B., Prabhakaran V., Denton E., Webster K., Zhong Y., Denuyl S. (2020), Social biases in NLP models as barriers for persons with disabilities, [w:] Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Association for Computational Linguistics, s. 5491–5501.pl
dc.referencesIwasiński Ł. (2023), Czy prawo nadąża za rozwojem sztucznej inteligencji, [w:] B. Sosińska-Kalata, P. Tafiłowski (red.), Nauka o informacji w okresie zmian. Nauka wobec współczesności: wojny informacyjne, Wydawnictwo SBP, Warszawa, s. 237–257.pl
dc.referencesJohnson K. (2021), OpenAI debuts DALL-E for generating images from text, „VentureBeat”, https://venturebeat.com/business/openaidebuts-dall-e-for-generating-images-from-text/ (dostęp: 15.06.2024).pl
dc.referencesKania M.M. (2024), Factchecking i halucynacje AI, czyli weryfikacja efektów pracy z AI, Ifirma.pl, https://www.ifirma.pl/blog/factchecking-i-halucynacje-ai.html#czym-sa-i-skad-sie-biora-halucynacje-sztucznej-inteligencji (dostęp: 15.06.2024).pl
dc.referencesKasprowicz D. (2018), Eksperyment społeczny w międzynarodowych badaniach porównawczych nad komunikacją populistyczną, [w:] A. Szymańska, M. Lisowska-Magdziarz, A. Hess (red.), Metody badań medioznawczych i ich zastosowanie Instytut Dziennikarstwa, Mediów i Komunikacji Społecznej Uniwersytetu Jagiellońskiego, Kraków, s. 193–217.pl
dc.referencesKumar V., Barik S., Aggarwal S., Kumar D., Raj V. (2023). The use of artificial intelligence for persons with disability: A bright and promising future ahead, „Disability and Rehabilitation: Assistive Technology”, Advance online publication. https://doi.org/10.1080/17483107.2 023.2288241pl
dc.referencesKurek-Ochmańska O., Struck-Peregończyk M., Lambrechts A.A. (2020), New labels, new roles? Changes in portraying disabled people in the Polish press, „Economics and Sociology”, nr 13(1), s. 165–181. https://doi.org/10.14254/2071-789X.2020/13-1/11pl
dc.referencesLand C.W. (2023), Disability bias & new frontiers in artificial intelligence, „Journal on Technology and Persons with Disabilities”, 11, s. 28–42, https://scholarworks.calstate.edu/concern/publications/sf268c991 (dostęp: 18.02.2025).pl
dc.referencesLeCun Y., Bengio Y., Hinton G. (2015), Deep learning, „Nature”, nr 521(7553), s. 436–444. https://doi.org/10.1038/nature14539pl
dc.referencesLeonardo.AI (2024), Leonardo.AI, https://leonardo.ai/ (dostęp: 12.06.2024).pl
dc.referencesLeslie D., Meng X.-L. (2024), Future shock: Grappling with the generative AI revolution, „Harvard Data Science Review” (Special Issue 5). https://doi.org/10.1162/99608f92.fad6d25cpl
dc.referencesLiu Y., Cao J., Liu C., Ding K., Jin L. (2024), Datasets for large language models: A comprehensive survey, „Proceedings of the Research Article Collection on Artificial Intelligence”, s. 1–23. https://doi.org/10.21203/rs.3.rs-3996137/v1pl
dc.referencesMack K.A., Qadri R., Denton R., Kane S.K., Bennett C.L. (2024), They only care to show us the wheelchair: Disability representation in text-to-image AI models, [w:] Proceedings of the CHI Conference on Human Factors in Computing Systems (CHI ʼ24), Association for Computing Machinery, New York, s. 1–23). https://doi.org/10.1145/3613904.3642166pl
dc.referencesManthey R., Ritter M., Heinzig M., Kowerko D. (2017), An exploratory comparison of the visual quality of virtual reality systems based on device-independent testsets, [w:] S. Lackey, J. Chen (red.), Virtual, Augmented and Mixed Reality. VAMR 2017. Lecture Notes in Computer Science, 10280, Springer, Cham, s. 177–186. https://doi.org/10.1007/978-3-319-57987-0_11pl
dc.referencesMartineau K. (2023), What is generative AI?, IBM Research Blog, https://research.ibm.com/blog/what-is-generative-AI (dostęp: 12.06.2024).pl
dc.referencesMcCarthy J., Minsky M.L., Rochester N., Shannon C.E. (2006), A proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955, „AI Magazine”, nr 27(4), s. 12. https://doi.org/10.1609/aimag.v27i4.1904pl
dc.referencesMicrosoft (2024), Designer improvements with DALL-E-3 (Bing Image Creator), https://www.microsoft.com/en-us/bing/do-more-with-ai/image-creator-improvements-dall-e-3?form=MA13KP (dostęp: 12.06.2024).pl
dc.referencesMiltenburg E.V. (2016), Stereotyping and bias in the Flickr30k dataset, [w:] J. Edlund, D. Heylen, P. Paggio (red.), Proceedings of Multimodal Corpora: Computer Vision and Language Processing (MMC 2016), s. 1–4, https://pure.uvt.nl/ws/files/27962110/stereotyping.pdf (dostęp: 12.06.2024).pl
dc.referencesOECD (2019), Scoping the OECD AI Principles: Deliberations of the Expert Group on Artificial Intelligence at the OECD (AIGO), OECD Digital Economy Papers, 291. https://doi.org/10.1787/d62f618a-enpl
dc.referencesPearson G.D.H., Knobloch-Westerwick S. (2019), Is the confirmation bias bubble larger online? Pre-election confirmation bias in selective exposure to online versus print political information, „Mass Communication and Society”, nr 22(4), s. 466–486. https://doi.org/10.1080/15205436.2019.1599956pl
dc.referencesRadford A., Kim J.W., Hallacy C., Ramesh A., Goh G., Agarwal S., Sastry G., Askell, A., Mishkin P., Clark J., Krueger G., Sutskever I. (2021), Learning transferable visual models from natural language supervision, [w:] Proceedings of the International Conference on Machine Learning (ICML), t. 139, s. 8748–8763, https://proceedings.mlr.press/v139/radford21a/radford21a.pdf (dostęp: 30.11.2024).pl
dc.referencesRai A. (2020), Explainable AI: From black box to glass box, „Journal of the Academy of Marketing Science”, 48(1), s. 137–141. https://doi.org/10.1007/s11747-019-00710-5pl
dc.referencesRobertson A. (2024), Google apologizes for ‘missing the mark’ after Gemini generated racially diverse Nazis, „The Verge”, https://www.theverge.com/2024/2/21/24079371/google-ai-geminigenerative-inaccurate-historical (dostęp: 12.06.2024).pl
dc.referencesSato M. (2024), I’m still trying to generate an AI Asian man and white woman, „The Verge”, https://www.theverge.com/2024/4/10/24122072/ai-generated-asian-man-white-woman-couple-geminidalle-midjourney-tests (dostęp: 12.06.2024).pl
dc.referencesSharma N., Liao Q.V., Xiao Z. (2024), Generative echo chamber? Effects of LLM-powered search systems on diverse information seeking, „arXiv”, https://arxiv.org/abs/2402.05880pl
dc.referencesShuford J. (2024), Contribution of artificial intelligence in improving accessibility for individuals with disabilities, „Journal of Knowledge Learning and Science Technology”, nr 2(2), s. 421–433. https://doi.org/10.60087/jklst.vol2.n2.p433pl
dc.referencesShumailov I., Shumaylov Z., Zhao Y., Papernot N., Anderson R., Gal Y. (2024), AI models collapse when trained on recursively generated data, „Nature”, t. 631(8022), s. 755–759. https://doi.org/10.1038/s41586-024-07566-ypl
dc.referencesSingleton M. (2023), Clear bias behind this AI art algorithm, LinkedIn, https://www.linkedin.com/pulse/clear-bias-behind-ai-art-algorithms-malik-singleton/ (dostęp: 12.06.2024).pl
dc.referencesSong Y., Sohl-Dickstein J., Kingma D.P., Kumar A., Ermon S., Poole B. (2021), Scorebased generative modeling through stochastic differential equations, „arXiv”, https://arxiv.org/pdf/2011.13456 (dostęp: 12.06.2024).pl
dc.referencesStruck-Peregończyk M., Kurek-Ochmańska O. (2018), Wizerunek osób niepełnosprawnych w polskiej prasie opiniotwórczej na przykładzie tygodnika „Polityka” w latach 1997–2016, „Przegląd Socjologii Jakościowej”, t. 14(3), s. 48–71. https://doi.org/10.18778/1733-8069.14.3.04pl
dc.referencesStruck-Peregończyk M., Leonowicz-Bukała I. (2018), Bezbronne ofiary i dzielni bohaterowie: wizerunek osób niepełnosprawnych w polskiej prasie, „Annales Universitatis Paedagogicae Cracoviensis. Studia de Cultura”, t. 10(252), s. 148–164. https://doi.org/10.24917/20837275.10.1.12pl
dc.referencesStruck-Peregończyk M., Leonowicz-Bukała I. (2023), Zmiana narracji – kształtowanie własnego wizerunku w mediach społecznościowych przez osoby z niepełnosprawnościami, „Przegląd Socjologii Jakościowej”, t. 19(3), s. 62–79. https://doi.org/10.18778/1733-8069.19.3.04pl
dc.referencesSuleyman M. (2023), How the AI revolution will reshape the world, „Time”, https://time.com/6310115/ai-revolution-reshape-the-world (dostęp: 12.06.2024).pl
dc.referencesSułek A. (1979), Eksperyment w badaniach społecznych, PWN, Warszawa.pl
dc.referencesSundara Rajan M.T. (2024), Is generative AI fair use of copyright works? NYT v. OpenAI, Kluwer Copyright Blog, https://copyrightblog.kluweriplaw.com/2024/02/29/is-generative-ai-fair-useof-copyright-works-nyt-v-openai/ (dostęp: 12.06.2024).pl
dc.referencesTadeusiewicz R. (2019), Automatyzacja i sztuczna inteligencja jako źródła prawdziwych i wyimaginowanych zagrożeń, [w:] B. Galwas, P. Kozłowski, K. Prandecki (red.), Czy świat należy urządzić inaczej. Schyłek i początek, Komitet Prognoz „Polska 2000 Plus” przy Prezydium PAN, Warszawa, https://publikacje.pan.pl/chapter/116671/2019-czy-swiat-nalezy-urzadzic-inaczej-schylek-i-poczatek-automatyzacja-i-sztuczna-inteligencja-jako-zrodla-prawdziwych-i-wyimaginowanych-zagrozen-tadeusiewicz-ryszard?language=pl (dostęp: 12.06.2024).pl
dc.referencesThoreau E. (2006), Ouch!: An examination of the self-representation of disabled people on the internet, „Journal of Computer-Mediated Communication”, nr 11(2), s. 442–468. https://doi.org/10.1111/j.1083-6101.2006.00021.xpl
dc.referencesTomaszewska I. (2024), Wygenerowane stereotypy – jak widzą świat generatory grafik AI?, Demagog.pl, https://demagog.org.pl/analizy_i_raporty/wygenerowane-stereotypy-jak-widza-swiat-generatory-grafik-ai/ (dostęp: 12.06.2024).pl
dc.referencesTomaszewski Ł. (2024), Korzystając z memów, użytkownicy mediów społecznościowych stali się czerwonymi zespołami zajmującymi się niedopracowanymi funkcjami sztucznej inteligencji, RapDuma.pl, https://rapduma.pl/technologia/korzystajac-z-memow-uzytkownicy-mediow-spolecznosciowych-stali-sie-czerwonymi-zespolami-zajmujacymi-sie-niedopracowanymi-funkcjami-sztucznej-inteligencji/2233/ (dostęp: 12.05.2024).pl
dc.referencesToner H. (2023), What are generative AI, large language models, and foundation models?, CSET – Center for Security and Emerging Technology, https://cset.georgetown.edu/article/what-aregenerative-ai-large-language-models-and-foundation-models/ (dostęp: 12.06.2024).pl
dc.referencesTrewin S. (2018), AI fairness for people with disabilities: Point of view, „arXiv preprint”, arXiv:1811.10670 (dostęp: 12.06.2024).pl
dc.referencesWach K., Duong C.D., Ejdys J., Kazlauskaitė R., Korzynski P., Mazurek G., Paliszkiewicz, J., Ziemba E. (2023), The dark side of generative artificial intelligence: A critical analysis of controversies and risks of ChatGPT, „Entrepreneurial Business and Economics Review”, nr 11(2), s. 7–30. https://doi.org/10.15678/EBER.2023.110201pl
dc.referencesWhittaker M., Alper M., Bennett C.L., Hendren S., Kaziunas E., Mills M., Morris M.R., Rankin J.L., Rogers E., Salas M., West S.M. (2019), Disability, Bias, and AI – Report, AI Now Institute, https://ainowinstitute.org/publication/disabilitybiasai-2019 (dostęp: 30.11.2024).pl
dc.referencesWu Y.-C., Feng J.-W. (2018), Development and application of artificial neural network, „Wireless Personal Communications”, nr 102(2), s. 1645–1656. https://doi.org/10.1007/s11277-017-5224-xpl
dc.referencesZhang A.H., Alex S.Y. (2024), Korzystasz z darmowego ChatGPT? Służysz tylko do sczytywania danych, Wyborcza.biz., 9.06, https://wyborcza.biz/biznes/7,177150,31044402,korzystasz-z-darmowego-chatgpt-sluzysz-tylko-do-sczytywania.html (dostęp: 9.06.2024).pl
dc.referencesZ h a n g A.H., Ya n g S.A. (2024, 3 czerwca), OpenAI’s GPT-4 collects user data for AI model training, violating copyrights. „Project Syndicate”, https://www.project-syndicate.org/commentary/openai-gpt4o-collecting-user-data-for-ai-model-training-violating-copyrights-by-angela-huyue-zhang-and-s-alex-yang-2024-06 (dostęp: 18.02.2025).pl
dc.referencesZhang L., Haller B. (2013), Consuming image: How mass media impact the identity of people with disabilities, „Communication Quarterly”, nr 61(3), s. 319–334. https://doi.org/10.1080/01463373.2013.776988pl
dc.referencesZhou Z.H. (2021), Machine Learning, Springer Nature.pl
dc.contributor.authorEmailLeonowicz-Bukała, Iwona - ileonowicz@wsiz.edu.pl
dc.contributor.authorEmailStruck-Peregończyk, Monika - mstruck@wsiz.edu.pl
dc.contributor.authorEmailBirek, Mikołaj - mbirek@wsiz.edu.pl
dc.contributor.authorEmailDudzińska, Katarzyna - w64330@student.wsiz.edu.pl
dc.identifier.doi10.18778/0208-600X.92.03


Pliki tej pozycji

Thumbnail

Pozycja umieszczona jest w następujących kolekcjach

Pokaż uproszczony rekord

https://creativecommons.org/licenses/by-nc-nd/4.0/
Poza zaznaczonymi wyjątkami, licencja tej pozycji opisana jest jako https://creativecommons.org/licenses/by-nc-nd/4.0/