Preview

Коммуникология

Расширенный поиск

Искусственный интеллект и масс-медиа: негативные аспекты алгоритмов персонализации контента

https://doi.org/10.21453/2311-3065-2024-12-3-43-60

Аннотация

Развитие технологий искусственного интеллекта и алгоритмов машинного обучения оказывает все большее влияние на сферы жизни общества, постепенно находя свое место не только в социальных медиа, но и в журналистике (Newman). Их активно внедряют в различные области масс-медиа, что позволяет автоматизировать ряд процессов медиакомпаний, оптимизируя работу журналистов, редакторов и медиаменеджеров. Данная тема представляет собой актуальную проблему в современном информационном обществе (Túñez-López et al.). Искусственный интеллект и процесс его обучения стали неотъемлемой частью процессов создания, анализа и распространения контента, привнося новые возможности, но вместе с тем и серьезные вызовы. Например, алгоритмы персонализации позволяют адаптировать информацию к индивидуальным интересам и предпочтениям каждого пользователя, повышая его вовлеченность и удовлетворенность контентом. Таким образом социальные сети и многие другие интернет-платформы персонализированы для каждого пользователя на основе их демографических профилей и личных данных. В данной статье представлен обзор текущих научных данных о потенциальных рисках использования алгоритмов персонализации контента в масс-медиа. Результаты и выводы статьи могут помочь глубже понять природу этих рисков и сопряженные с ними вызовы для сферы массовой коммуникации.

Об авторе

А. А. Тихонюк
Всероссийская государственная телевизионная и радиовещательная компания (ВГТРК)
Россия

Тихонюк Анастасия Александровна – шеф-редактор Дирекции развития цифровой среды

125040, г. Москва, ул. 5-я Ямского Поля, 19-21/1



Список литературы

1. Володенков С.В. (2021). Интернет-коммуникации в глобальном пространстве современного политического управления: навстречу цифровому обществу. М.: Проспект.

2. Грушевская В.Ю. (2022). Модель фильтрации информации в социальных медиа // Журнал исследования социальной политики. №3. С. 393-406.

3. Давыдов С.Г., Замков А.В., Крашенинникова М.А., Лукина М.М. (2023). Использование технологий искусственного интеллекта в россий ских медиа и журналистике // Вестн. Моск. ун-та. Сер. 10: Журналистика. № 5. С. 3-21.

4. Ефанов А.А., Юдина Е.Н. (2021). Медиаэффекты в современном неоинформационном обществе. Коммуникология. Том 9. № 4. С. 136-147.

5. Карпова А.Ю. (2014). Информационная аномия: выбор на грани фола // Власть. № 1. С. 41-45.

6. Кириллина Н.В. (2022). Фрагментация аудитории медиа: от глобальной деревни к глобальному театру. Том 10. № 2. С. 170-179. DOI: 10.21453/2311-3065-2022-10-2-170-179.

7. Кириллина Н.В. (2021). О роли пользователя и фрагментации сети // Коммуникология. Том 9. № 2. С. 41-49. DOI: 10.21453/2311-3065-2021-9-2-41-49.

8. Мартыненко Т. С., Добринская Д. Е. (2021). Социальное неравенство в эпоху искусственного интеллекта: от цифрового к алгоритмическому разрыву// Мониторинг. №1. С. 171-192.

9. Суходолов А.П., Бычкова А.М., Ованесян С.С. (2019). Журналистика с искусственным интеллектом // Вопросы теории и практики журналистики. № 4. С. 647-667.

10. Толокнев К.А. (2022). Невидимый политрук: как алгоритмы персонализации формируют общественное мнение // Полития. № 4 (107). С. 63-82.

11. Шарков Ф.И., Силкин В.В. (2021). Генезис социологии медиапространства // Вестник Российского университета дружбы народов. Серия: Социология. Т. 21. № 3. С. 557-566. DOI: 10.22363/2313-2272-2021-21-3-557-566.

12. Amoore L. (2020). Cloud Ethics: Algorithms and the Attributes of Ourselves and Others. Durham: Duke University Press.

13. Aridor G., Goncalves D., Sikdar S. (2020). Deconstructing the Filter Bubble: User Decision-Making and Recommender Systems. In: RecSys'20: Fourteenth ACM Conference on Recommender Systems, Brazil, September 22-26. P. 82-91.

14. Bakshy E., Messing S., Adamic L. (2015). Exposure to Ideologically Diverse News and Opinion on Facebook. Science. Vol. 348. No. 6239. P. 1130-1132.

15. Barnidge M. (2017). Exposure to Political Disagreement in Social Media Versus Face-to-Face and Anonymous Online Settings. Political Communication. Vol. 34. No. 2: P. 302-321.

16. Bastian M., Makhortykh M., Dobber T. (2019). News personalization for peace: how algorithmic recommendations can impact conflict coverage. International Journal of Conflict Management. Vol. 30. No. 3. P. 309-328.

17. Bigman Y.E., Wilson D., Arnestad M. N., Waytz A., Gray K. (2023). Algorithmic discrimination causes less moral outrage than human discrimination. Journal of Experimental Psychology: General. No. 152 (1). P. 4-27.

18. Bozdag E. (2013). Bias in algorithmic filtering and personalization. Ethics and Information Technology. Vol.15. No. 3. P. 209-227.

19. Brady W.J., Jackson J.C., Lindström B., Crockett M.J. (2023). Algorithm-mediated social learning in online social networks. Trends in Cognitive Sciences. Vol. 27. No. 10. P. 947-960.

20. Chaney A.J., Stewart B.M., Engelhardt B.E. (2017). How algorithmic confounding in recommendation systems increases homogeneity and decreases utility. In: Proceedings of the 12th ACM Conference on Recommender Systems. Vancouver. P. 224-232.

21. Chen Y.-S., Zaman T. (2024). Shaping opinions in social networks with shadow banning. PLoS ONE. Vol. 19. No. 3. P. 1-30.

22. Delmonaco D., Mayworm S., Thach H., Guberman J. (2024). What are you doing, TikTok?: How Marginalized Social Media Users Perceive, Theorize, and “Prove” Shadowbanning. In: Proc. ACM on Human-Computer Interaction. Vol. 8. Article 154 (April 2024). DOI: 10.1145/3637431.

23. Eg R., Tønnesen Ö., Tennfjord M. (2023). A scoping review of personalized user experiences on social media: The interplay between algorithms and human factors. Computers in Human Behavior Reports. Vol. 9. No. 3. P. 100253.

24. Flaxman S., Goel S., Rao J.M. (2016). Filter bubbles, echo chambers, and online news consumption. Public Opinion Quarterly. Vol. 80. No. 1. P. 298-320.

25. Gao Y., Liu H. (2022). Artificial intelligence-enabled personalization in interactive marketing: A customer journey perspective. Journal of Research in Interactive Marketing. Vol. 17. No. 1. P. 1-18.

26. Gentsch Pr. (2019). AI in Marketing, Sales and Service: How Marketers without a Data Science Degree can use AI, Big Data and Bots.

27. Geschke D., Lorenz J., Holtz P. (2019). The Triple-Filter Bubble: Using Agent-Based Modeling to Test a Meta-Theoretical Framework for the Emergence of Filter Bubbles and Echo Chambers. British Journal of Social Psychology. Vol. 58. No. 1. P. 129-149.

28. Gillespie T., Boczkowski P. J., Foot K.A. (eds.) (2014). The Relevance of Algorithms. Media Technologies: Essays on Communication, Materiality, and Society. Cambridge, MA: MIT Press.

29. Gran A.B., Booth P., Bucher T. (2020). To be or not to be algorithm aware: a question of a new digital divide? Information, Communication & Society. Vol. 24. No. 03. P. 1-18.

30. Hagendorff T. (2020). The Ethics of AI Ethics: An Evaluation of Guidelines. Minds & Machines. Vol. 30. No. 03. P. 99-120.

31. Hargittai E., Micheli M. (2019). Internet Skills and Why They Matter. In: Graham M., Dutton W. H. (eds.) Society and the Internet: How Networks of Information and Communication Are Changing Our Lives. Oxford: Oxford University Press. P. 109-124.

32. Hassan R. (2020) The Condition of Digitality: A Post-Modern Marxism for the Practice of Digital Life. London: University of Westminster Press.

33. Helberger N. (2016). Policy implications from algorithmic profiling and the changing relationship between newsreaders and the media. Javnost – The Public. Vol. 23. No. 2. P. 188-203.

34. Helberger N. (2019). On the Democratic Role of News Recommenders. Digital Journalism. Vol. 7. No. 4. P. 1-20.

35. Hosanagar K., Fleder D., Lee D., Buja A. (2014). Will the Global Village Fracture Into Tribes? Recommender Systems and Their Effects on Consumer Fragmentation. Management Science. Vol. 60. No. 4, P. 805-823.

36. Jain S., Sundstrom M. (2021). Toward a conceptualization of personalized services in apparel e-commerce fulfillment. Research Journal of Textile and Apparel. Vol. 25. No. 4. P. 414-430.

37. Joris G., Grove F.D., Van Damme K., De Marez L. (2021). Appreciating News Algorithms: Examining Audiences’ Perceptions to Different News Selection Mechanisms. Digital Journalism. Vol. 9. No. 5, P. 589-618.

38. Just N., Latzer M. (2017). Governance by algorithms: reality construction by algorithmic selection on the Internet. Media, Culture & Society. Vol. 39 No. 2, P. 238-258.

39. Kant T. (2020). Making it Personal: Algorithmic Personalization, Identity, and Everyday Life. Oxford Academic.

40. Karduni A. (2019). Human-Misinformation interaction: Understanding the interdisciplinary approach needed to computationally combat false information. Vol. 1. No. 1. P. 1-21.

41. Kim T., Barasz K., John L. K. (2018). Why Am I Seeing This Ad? The Effect of Ad Transparency on Ad Effectiveness. Journal of Consumer Research. Vol. 45. No. 5. P. 906-932.

42. Kitchin R. (2017). Thinking critically about and researching algorithms. Information, Communication & Society. Vol. 20. No. 1. P. 14-29.

43. Lee M. K. (2018). Understanding perception of algorithmic decisions: Fairness, trust, and emotion in response to algorithmic management. Big Data & Society. Vol. 5. No. 1. P. 1-16.

44. Masrour F., Wilson T., Yan H., Tan P. N., Esfahanian A. (2020). Bursting the Filter Bubble: Fairness-aware Network Link Prediction. In: Proceedings of the AAAI conference on artificial intelligence. Vol. 34. No. 01. P. 841-848.

45. Möller J., Trilling D., Helberger N., van Es B. (2018). Do not blame it on the algorithm: an empirical assessment of multiple recommender systems and their impact on content diversity. Information, Communication & Society. Vol. 21. No. 7. P. 959–977.

46. Morik M., Singh A., Hong J., Joachims T. (2020). Controlling Fairness and Bias in Dynamic Learning-to-Rank. In: Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR ’20), July 25–30, 2020, Virtual Event, China. ACM, New York, NY, USA.

47. Newman N. (2020). Journalism, media and technology: trends and predictions for 2020. London: Reuters Institute for the Study of Journalism & Oxford University.

48. Nguyen T.T., Hui P.M., Harper F.M, Terveen L., Konstan J.A. (2014). Exploring the Filter Bubble: The Effect of Using Recommender Systems on Content Diversity. In: Proceedings of the 23rd International Conference on World Wide Web. Association for Computing Machinery. New York. P. 677-686.

49. Pariser E. (2011). The filter bubble: What the Internet is hiding from you. Penguin.

50. Pu P., Chen L., Hu R. (2012). Evaluating recommender systems from the user’s perspective: Survey of the state of the art. User Modeling and User-Adapted Interaction. Vol. 22. No. 10. P. 317-355

51. Ragnedda M. (2020). Enhancing Digital Equity. Connecting the Digital Underclass. Cham: Palgrave Macmillan.

52. Ricci F., Rokach L., Shapira B. (2015). Recommender Systems: Introduction and Challenges. In: Recommender Systems Handbook. P. 1-34.

53. Soffer O. (2021). Algorithmic Personalization and the Two-Step Flow of Communication. Communication Theory. Vol. 31. No. 3. P. 297-315.

54. Sunstein C.R. (2001). Echo chambers. Princeton: Princeton University Press.

55. Túñez-López J.M., Fieiras Ceide C., Vaz-Álvarez M. (2021). Impact of Artificial Intelligence on Journalism: transformations in the company, products, contents and professional profile. Communication & Society. Vol. 34. No. 1. P. 177-193.

56. Túñez-López M., Toural-Bran C., Cacheiro-Requeijo S. (2018). Uso de bots y algoritmos para automatizar la redacción de noticias: percepción y actitudes de los periodistas en España. El profesional de la información. Vol. 27. No. 4. P. 750-758.

57. Turner Lee N., Resnick P. Barton G. (2019). Algorithmic Bias Detection and Mitigation: Best Practices and Policies to Reduce Consumer Harms. Brookings Inst.

58. Van Dijck J. (2013). The Culture of Connectivity: A Critical History of Social Media. Oxford University Press.

59. Vosoughi S., Roy D., Aral S. (2018). The spread of true and false news online. Science. Vol. 359. Iss. 6380. P. 1146-1151.

60. Yang X., Zhang L., Feng Z. (2023). Personalized Tourism Recommendations and the ETourism User Experience. Journal of Travel Research. Vol. 63. Iss. 5. DOI: 10.1177/00472875231187332.


Рецензия

Для цитирования:


Тихонюк А.А. Искусственный интеллект и масс-медиа: негативные аспекты алгоритмов персонализации контента. Коммуникология. 2024;12(3):43-60. https://doi.org/10.21453/2311-3065-2024-12-3-43-60

For citation:


Tikhoniuk A.A. Artificial Intelligence and mass media: negative aspects of content personalization algorithms. Communicology. 2024;12(3):43-60. (In Russ.) https://doi.org/10.21453/2311-3065-2024-12-3-43-60

Просмотров: 498


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 2311-3065 (Print)
ISSN 2311-3332 (Online)