الگوریتم های هوش مصنوعی در شبکه های اجتماعی و تاثیرات منفی مستقیم بر جوانان: یک تحلیل مستند

24 بهمن 1404 - خواندن 9 دقیقه - 33 بازدید

الگوریتم های هوش مصنوعی در شبکه های اجتماعی و تاثیرات منفی مستقیم بر جوانان: یک تحلیل مستند


چکیده


پلتفرم های اجتماعی مانند اینستاگرام، تیک تاک و یوتیوب از الگوریتم های هوش مصنوعی برای شخصی سازی محتوا و افزایش تعامل کاربران استفاده می کنند. این الگوریتم ها که با هدف بهینه سازی معیارهایی مانند زمان سپری شده در پلتفرم و نرخ کلیک طراحی شده اند، پیامدهای منفی مستقیم و مستندی بر سلامت روان، باورها و رفتارهای جوانان دارند. این یادداشت با استناد به پژوهش های معتبر بین المللی، چهار مسیر اصلی تاثیرگذاری منفی این الگوریتم ها را بررسی می کند: تقویت محتوای آسیب زا از طریق حلقه های بازخورد منفی، عادی سازی ایدئولوژی های افراطی مانند زن ستیزی، تشدید بحران تصویر بدنی و اختلالات خوردن، و قطبی سازی سیاسی و تضعیف انسجام اجتماعی. یافته ها نشان می دهد که این تاثیرات نه تصادفی، بلکه نتیجه طراحی هدفمند سیستم های توصیه گر هستند.


واژگان کلیدی: الگوریتم های توصیه گر، شبکه های اجتماعی، سلامت روان جوانان، تصویر بدنی، افراط گرایی دیجیتال


مقدمه


محیط آنلاین که نوجوانان و جوانان بخش قابل توجهی از زندگی اجتماعی خود را در آن سپری می کنند، یک پس زمینه خنثی نیست، بلکه فضایی است که توسط الگوریتم های هوش مصنوعی مدام شخصی سازی و هدایت می شود . پلتفرم های اجتماعی پرتصویر (highly visual platforms) با ترکیب جریان مداوم محتوا و سیستم های توصیه گری که بر اساس رفتار کاربر یاد می گیرند، تجربه آنلاین جوانان را به گونه ای تغییر داده اند که با معیارهای ساده ای مانند "زمان آنلاین" قابل اندازه گیری نیست .


این الگوریتم ها که با اهداف تجاری و برای حداکثرسازی تعامل کاربر طراحی شده اند، پیامدهای سیستمی عمیقی بر جمعیت های آسیب پذیر، به ویژه نوجوانان و جوانان، دارند. در حالی که تنها ۱۰ تا ۱۵٪ از کاربران سهم اصلی ارتباط بین استفاده از شبکه های اجتماعی و پریشانی روانی را به خود اختصاص می دهند، این آمار اهمیت توجه به الگوهای مواجهه و نه صرفا زمان استفاده را نشان می دهد . این یادداشت به بررسی مکانیزم های مشخصی می پردازد که از طریق آن ها الگوریتم های پلتفرم هایی مانند اینستاگرام، تیک تاک و یوتیوب تاثیرات منفی مستقیم بر جوانان می گذارند.


بحث و بررسی


۱. حلقه های بازخورد منفی: چگونه الگوریتم ها محتوای آسیب زا را تقویت می کنند


مهمترین یافته پژوهشی در این حوزه، وجود "حلقه های بازخورد" (feedback loops) است که در آن الگوریتم و رفتار کاربر یکدیگر را تقویت می کنند. تحقیقات عفو بین الملل در فرانسه نشان می دهد که تیک تاک از طریق ویژگی "برای تو" (For You)، کودکان و نوجوانانی را که با محتوای مرتبط با سلامت روان تعامل دارند، به سمت چرخه ای از محتوای افسردگی، خودآزاری و خودکشی هدایت می کند .


در این تحقیق، پژوهشگران سه حساب کاربری نوجوان ۱۳ ساله در فرانسه ایجاد کردند. در عرض تنها پنج دقیقه اسکرول و بدون اعلام هیچ ترجیحی، این حساب ها با ویدئوهایی درباره غم و ناامیدی مواجه شدند. تماشای این ویدئوها به سرعت میزان محتوای مرتبط با سلامت روان را افزایش داد. در عرض ۱۵ تا ۲۰ دقیقه، هر سه فید تقریبا به طور انحصاری با ویدئوهای مرتبط با سلامت روان پر شدند که تا نیمی از آن ها حاوی محتوای افسردگی بود. دو حساب کاربری در عرض ۴۵ دقیقه ویدئوهایی با بیان افکار خودکشی دریافت کردند .


ماری، ۱۵ ساله، یکی از قربانیان این الگوریتم ها بود که پس از گرفتار شدن در مارپیچ محتوای افسردگی تیک تاک، به زندگی خود پایان داد. مادرش در این باره می گوید: "برای این پلتفرم ها، فرزندان ما محصول هستند نه انسان. آنها با الگوریتم و حباب فیلتر، از احساسات کودکان برای جذب آنها استفاده می کنند" .


این یافته ها با پژوهش های علمی دیگر همخوانی دارد. مطالعه ای در سال ۲۰۲۵ نشان داد که سیستم های توصیه گر می توانند قرار گرفتن در معرض محتوای رادیکال را با دوزهای بالا افزایش دهند و این محتوا را برای کاربران جوان عادی سازی کنند .


۲. عادی سازی ایدئولوژی های سمی و خشونت طلبانه


الگوریتم های شبکه های اجتماعی به دلیل سوگیری منفی گرایی (negativity bias)، محتوای تفرقه انگیز و قطبی ساز را بیش از ترجیحات اعلام شده کاربران تقویت می کنند . پژوهشگران دانشگاه کمبریج نشان داده اند که الگوریتم توییتر (X) محتوای تفرقه انگیز را بسیار بیشتر از آنچه کاربران واقعا می خواهند، تقویت می کند .


این مکانیزم به گروه های افراطی اجازه می دهد تا به طور موثری جوانان را هدف قرار دهند. تحقیقات نشان می دهد که محتوای زن ستیزانه اغلب به عنوان سرگرمی ارائه می شود که این امر به آن اجازه می دهد کشش بالایی در پلتفرم های اجتماعی پیدا کند . در نتیجه، ایدئولوژی های نفرت انگیز و کلیشه های زن ستیزانه در رفتار جوانان ظاهر می شود که می تواند پیامدهای قابل توجهی بر سلامت روان و روابط همسالان آن ها داشته باشد .


گزارش مرکز تحلیل تروریسم دانمارک (PET) هشدار می دهد که پلتفرم هایی مانند یوتیوب، اینستاگرام، تیک تاک و حتی روبلاکس برای معرفی ظریف روایت های افراطی، اغلب در قالب میم ها، زبان رمزی یا ایموجی ها استفاده می شوند . محتوای تولیدشده توسط هوش مصنوعی و الگوریتم های پلتفرم، کاربران را بیشتر در معرض محتوای افراطی قرار می دهد. رادیکال سازی اغلب از طریق اتاق های پژواک آنلاین پیشرفت می کند، جایی که کاربران به تدریج به فضاهای رمزگذاری شده و بدون نظارت کشیده می شوند .


۳. تاثیر بر تصویر بدنی و اختلالات خوردن


الگوریتم های پلتفرم های پرتصویر مانند اینستاگرام و تیک تاک تاثیر عمیقی بر تصویر بدنی جوانان دارند. تحقیق روی فیدهای تیک تاک که به افراد مبتلا به اختلالات خوردن در مقایسه با گروه کنترل سالم تحویل داده شد، نشان داد که الگوریتم به طور ترجیحی محتوای ظاهرگرا و محدودکننده غذایی را به گروه بالینی تحویل می دهد و میزان این سوگیری با شدت علائم هم نوسان بود .


پژوهشی در استرالیا روی نوجوانان نشان داد که عضویت در زیرگروه های با استفاده بالاتر از شبکه های اجتماعی، با نارضایتی بدنی بیشتر، محدودیت غذایی و رفتارهای عضله سازی مرتبط بود . مهمتر اینکه، تاثیر منفی شبکه های اجتماعی بر تصویر بدنی نه به میزان زمان استفاده، بلکه به میزان زمان صرف شده در فعالیت های مرتبط با عکس (پست کردن و کامنت گذاشتن روی عکس ها) مربوط می شود .


پژوهش در سوییس نیز نشان داد که دختران ۱۲ تا ۱۹ ساله بیشتر از پسران آرمان "لاغری" را درونی می کنند و این با کاهش عزت نفس مرتبط است. محققان معتقدند که الگوریتم های توصیه گر، محتوای متمرکز بر ظاهر را بیشتر به دختران نشان می دهند . مطالعه روی پلتفرم چینی Douyin (معادل تیک تاک) نیز تایید کرد که محیط ویدئومحور و الگوریتم محور این پلتفرم، مواجهه با استانداردهای ایده آل بدن را تشدید کرده و در سطح شناختی بر کاربران تاثیر می گذارد .


۴. قطبی سازی سیاسی و تضعیف انسجام اجتماعی


الگوریتم های رسانه های اجتماعی نقش تعیین کننده ای در قطبی سازی جوامع دارند. پژوهشگران نشان داده اند که این الگوریتم ها با تقویت محتوای تفرقه انگیز، کاربران را به سمت دیدگاه های افراطی سوق می دهند. در عملیات های تاثیرگذاری روسیه، از هزاران حساب جعلی برای تقویت روایت های نژادی، ضد مهاجرت و توطئه آمیز استفاده شد که هم مخاطبان چپگرا و هم راستگرا را قطبی می کرد .


این تاثیرات به ویژه برای جوانان که در حال شکل دهی هویت سیاسی خود هستند، عمیق تر است. مطالعات نشان می دهد که الگوریتم ها می توانند نوجوانان را در معرض محتوای افراطی قرار دهند و از طریق اثر "حقیقت توهمی" (illusory truth effect)، باورهای نادرست را در آن ها تقویت کنند .


نتیجه گیری


الگوریتم های هوش مصنوعی در پلتفرم های اجتماعی مانند اینستاگرام، تیک تاک و یوتیوب، طراحی شده اند تا تعامل کاربر را حداکثر کنند، اما این طراحی پیامدهای منفی مستقیم و مستندی بر جوانان دارد. چهار مسیر اصلی این تاثیرات عبارتند از:


۱. حلقه های بازخورد منفی که نوجوانان آسیب پذیر را به سمت محتوای افسردگی، خودآزاری و خودکشی سوق می دهد .


۲. عادی سازی ایدئولوژی های سمی مانند زن ستیزی از طریق ارائه این محتواها به عنوان سرگرمی و تقویت الگوریتمی آن ها .


۳. تشدید بحران تصویر بدنی از طریق تقویت ترجیحی محتوای ظاهرگرا و استانداردهای غیرواقعی بدن .


۴. قطبی سازی سیاسی از طریق بهره گیری از سوگیری منفی گرایی الگوریتم ها و تقویت محتوای تفرقه انگیز .


این تاثیرات نه تصادفی، بلکه نتیجه طراحی هدفمند سیستم های توصیه گر با اولویت دهی به معیارهای تعامل (engagement) به جای رفاه کاربران است. رویکرد "ایمنی از طریق طراحی" (safety-by-design)، شفافیت الگوریتمی و حسابرسی مستقل این سیستم ها، از جمله راهکارهایی است که پژوهشگران برای کاهش این آسیب ها پیشنهاد می کنند .


منابع


Amnesty International. (2025). France: TikTok Still Steering Vulnerable Children and Young People Towards Depressive and Suicidal Content. Amnesty International. 


Conte, F., et al. (2025). Algorithmic Entrapment: the Silent Erosion of User Autonomy and Mental Health. Clinical Neuropsychiatry, 22(6), 447-453. 


Milli, S., et al. (2025). Social media, AI, and the rise of extremism during intergroup conflict. Frontiers in Social Psychology. 


Regehr, K., et al. (2025). Normalizing toxicity: the role of recommender algorithms for young people's mental health and social wellbeing. Frontiers in Psychology, 16, 1523649. 


Rodgers, R. (2025). From Social Media to Body Image and Back. Northeastern Research. 


SWI swissinfo.ch. (2025). 调研:社交媒体令瑞士女孩面临更大瘦身压力. Swissinfo. 


ZHAW. (2025). JAMESfocus Report: Body image and social media among Swiss youth. Zurich University of Applied Sciences. 


PET. (2025). AI-driven extremist recruitment on the rise in Denmark. Danish Centre for Terror Analysis. 


Lan, J., & Huang, Y. (2025). Between Filters and Feeds: Investigating Douyin and WeChat's Influence on Chinese Adolescent Body Image. arXiv preprint.