تحلیل نقش هوش مصنوعی شرکت متا در تصمیم گیری های نهایی ؛ مقایسه دقت سیستم های خودکار با بررسی انسانی

13 بهمن 1404 - خواندن 4 دقیقه - 22 بازدید




دانشگاه پیام نور (همه مراکز) 



نقش هوش مصنوعی شرکت متا در تصمیم گیری های اشتباه زمانی بیشتر آشکار می شود که بدانیم بخش بزرگی از مدیریت محتوا در اینستاگرام و دیگر پلتفرم های متا توسط سیستم های خودکار انجام می شود؛ سیستم هایی که برای سرعت، مقیاس پذیری و کنترل حجم عظیم محتوا طراحی شده اند، اما همین اتکا به الگوریتم ها باعث می شود خطاهایی رخ دهد که گاهی پیامدهای جدی برای کاربران و کسب وکارها ایجاد می کند؛ هوش مصنوعی متا بر اساس الگوهای آماری، تشخیص تصوی ر، تحلیل متن و رفتار کاربران تصمیم می گیرد و این تصمیم ها همیشه دقیق نیستند ، زیرا الگوریتم ها توان درک زمینه، نیت و ظرافت های فرهنگی را به هیچ عنوان ندارند ؛ به همین دلیل ممکن است یک تصویر هنری به عنوان محتوای جنسی نامناسب شناسایی شود، یک پست خبری درباره خشونت به عنوان محتوای خطرناک حذف شود ، یا یک شوخی ساده به عنوان آزار کاربران تلقی شود ؛ این خطاها زمانی بیشتر می شوند که محتوا در حوزه های حساس قرار بگیرد ؛ مانند سیاست، جنسیت، مسائل اجتماعی یا موضوعات فرهنگی که نیازمند درک عمیق تری هستند؛ الگوریتم ها معمولا به نشانه های سطحی واکنش نشان می دهند، نه به معنای واقعی محتوا، و همین باعث می شود تصمیم گیری های اشتباه رخ دهد. 

 در کنار این خطاهای محتوایی ، سیستم های خودکار در تشخیص رفتارهای «مشکوک» نیز به کرات دچار اشتباه می شوند؛ برای مثال ممکن است افزایش ناگهانی تعامل ، که نتیجه یک کمپین تبلیغاتی یا وایرال شدن طبیعی است، به عنوان فعالیت غیرعادی شناسایی شود و منجر به محدودیت یا بسته شدن پیج گردد؛ یا گزارش های هماهنگ شده کاربران (Mass Reporting) باعث شود الگوریتم تصور کند تخلف جدی رخ داده است، در حالی که واقعیت چیز دیگری است؛ این ضعف در تشخیص زمینه ، یکی از مهم ترین دلایل نارضایتی کاربران از سیستم های خودکار متا است. وقتی دقت سیستم های خودکار را با بررسی انسانی مقایسه کنیم، تفاوت ها آشکار می شود؛ بررسی انسانی معمولا دقیق تر، زمینه محورتر و منصفانه تر است، زیرا انسان می تواند طنز را از توهین، هنر را از محتوای نامناسب و نقد را از خشونت واقعی تشخیص دهد؛ اما بررسی انسانی محدودیت های جدی دارد: زمان بر است، هزینه بالایی دارد و نمی تواند حجم میلیاردی محتوا را پوشش دهد؛ به همین دلیل متا مجبور است بیشتر تصمیم ها را به هوش مصنوعی بسپارد و تنها موارد پیچیده تر یا اعتراض های کاربران را به نیروی انسانی ارجاع دهد؛ با این حال، حتی در این مرحله نیز پاسخ ها اغلب کوتاه، کلی و غیرشفاف هستند، زیرا حجم درخواست ها بسیار زیاد است و تیم های انسانی توان بررسی دقیق همه موارد شکایتی یا بررسی مجدد را ندارند.

 نبود تعادل مناسب میان سرعت الگوریتم ها و دقت انسان ها باعث شده سیستم های خودکار متا گاهی تصمیم هایی بگیرند که برای کاربران غیرمنطقی، ناعادلانه یا غیرقابل توضیح به نظر می رسد؛ این وضعیت پیامدهای گسترده ای دارد: کاهش اعتماد کاربران، آسیب به کسب وکارها، افزایش احساس بی عدالتی و شکل گیری تصور اینکه پلتفرم اینستاگرام قابل پیش بینی نیست؛ 

همانطور که ذکر شد ، هوش مصنوعی متا در تصمیم گیری های اشتباه نشان می دهد که اتکا به الگوریتم ها بدون شفافیت، نظارت انسانی کافی و سازوکارهای اعتراض موثر، می تواند تجربه کاربران را مختل کند و حتی به هویت دیجیتال و اقتصاد آنلاین آن ها آسیب بزند؛ تا زمانی که اینستاگرام نتواند میان سرعت سیستم های خودکار و دقت بررسی انسانی تعادل ایجاد کند، این چرخه خطا و نارضایتی ادامه خواهد داشت و کاربران همچنان با پیامدهای تصمیم گیری های اشتباه هوش مصنوعی روبه رو خواهند بود.