۱۰ نکته کلیدی کتاب «جامعه الگوریتمی: بازاندیشی انسان و هوش در عصر هوشمند»

28 بهمن 1404 - خواندن 14 دقیقه - 82 بازدید

کتاب «جامعه الگوریتمی: بازاندیشی انسان و هوش در عصر هوشمند» نوشته علی مرادی بهمئی توسط انتشارات جامعه شناسان روانه بازار شد. در زیر به 10 نکته کلیدی آن می پردازیم.

نکته اول: هوش مصنوعی فقط یک فناوری نیست

اغلب هوش مصنوعی را به مثابه فناوری ای می شناسیم که از دل ریاضیات، مهندسی و علوم رایانه زاده شده است. این تصور اگرچه از نظر فنی درست است، اما ناکافی است. همان طور که خودرو فقط مجموعه ای از چرخ، موتور و سوخت نیست بلکه بخشی از فرهنگ، سیاست و اقتصاد نیز هست، هوش مصنوعی نیز چیزی فراتر از خطوط کد است. این فناوری در واقع به نوعی «زبان جدید قدرت و معنا» تبدیل شده است که نحوه دیدن، شناختن، تصمیم گیری و زندگی را بازتعریف می کند.

زمانی که الگوریتم ها در قضاوت حقوقی، تشخیص پزشکی، سنجش شایستگی شغلی یا اولویت بندی اخبار استفاده می شوند، دیگر نمی توان آن ها را تنها ابزارهای تکنیکی دانست. آن ها به نهادهایی تاثیرگذار در عرصه های اجتماعی، فرهنگی و اخلاقی بدل شده اند. همان گونه که تمدن صنعتی با ماشین بخار آغاز شد، تمدن الگوریتمی نیز با هوش مصنوعی در حال شکل گیری است و بی توجهی به این دگردیسی، نادیده گرفتن بخشی مهم از واقعیت معاصر است.

مثال بارز آن، الگوریتم های شبکه های اجتماعی است. این الگوریتم ها نه تنها محتوا را فیلتر و اولویت بندی می کنند، بلکه عملا «واقعیت قابل مشاهده» را برای ما شکل می دهند. آنچه می بینیم، به آن فکر می کنیم، به اشتراک می گذاریم یا باور می کنیم، همگی توسط سازوکاری کنترل می شوند که در نگاه اول فقط «ابزار نمایش محتوا» به نظر می رسد، اما در واقع مهندسی انتخاب است.

نکته دوم: الگوریتم ها بی طرف نیستند

در ذهن بسیاری از مردم، الگوریتم ها موجوداتی سرد، ریاضی وار و دقیق اند که با محاسبات عینی و به دور از سوگیری، بهترین تصمیم ها را اتخاذ می کنند. این تصور برآمده از نگاه سنتی به ریاضیات و منطق صوری است. اما آنچه در دنیای واقعی رخ می دهد، پیچیده تر است. الگوریتم ها، همانند آینه هایی عمل می کنند که تصویری از جهان پیرامون ما را بازتاب می دهند؛ و اگر داده هایی که به آن ها داده می شود حامل تبعیض، سوگیری، یا نابرابری باشند، نتیجه نیز نمی تواند عادلانه باشد.

الگوریتم ها توسط انسان ها طراحی می شوند و انسان ها حامل ارزش، فرهنگ، پیش فرض و حتی پیش داوری اند. این ارزش ها، آگاهانه یا ناخودآگاه، در مرحله طراحی مدل، انتخاب متغیرها، روش برچسب گذاری داده ها و حتی در تفسیر خروجی ها وارد می شوند. بنابراین، ادعای «بی طرفی الگوریتم» چیزی شبیه به افسانه است و هر جا این افسانه پذیرفته شود، خطر بی عدالتی الگوریتمی دوچندان خواهد شد.

برای مثال، در آمریکا الگوریتمی به نام COMPAS برای پیش بینی خطر تکرار جرم در سیستم قضایی استفاده می شود. بررسی ها نشان داد که این الگوریتم به طور سیستماتیک برای سیاه پوستان امتیاز خطر بالاتری در نظر می گیرد، در حالی که برای متهمان سفیدپوست، خطر کمتری پیش بینی می کند حتی در موارد مشابه. این نمونه نشان می دهد که الگوریتم، نه تنها بازتابی از داده های ناعادلانه است، بلکه می تواند نابرابری را در مقیاس و سرعت گسترده تری بازتولید کند.

نکته سوم: نقد فناوری یک ضرورت است، نه تجمل

در جهان امروز، بسیاری تصور می کنند نقد فناوری مخصوص دانشگاهیان، روشنفکران یا متخصصانی است که از بیرون ماجرا به پیشرفت های فنی می نگرند. این تصور خطرناک است؛ زیرا فناوری، به ویژه هوش مصنوعی، دیگر یک امر انتزاعی یا محصور در آزمایشگاه نیست. الگوریتم ها به زندگی روزمره مردم نفوذ کرده اند. از شغل و تحصیل گرفته تا سلامت، امنیت و حتی روابط شخصی. در چنین جهانی، نقد فناوری نه تجمل روشنفکری، بلکه شرط بقا و زیست اخلاقی در عصر دیجیتال است.

نقد، به معنای نفی یا دشمنی کورکورانه با فناوری نیست. بلکه فرآیندی است برای پرسیدن، بررسی کردن، افشای فرایندها، شفاف سازی سازوکارها و پیشنهاد اصلاح. نقد یعنی این که بپرسیم: «چه کسی این فناوری را ساخته؟ برای چه هدفی؟ با چه داده هایی؟ و چه کسانی از پیامدهای آن آسیب می بینند یا سود می برند؟» این پرسش ها فناوری را در بستر اجتماعی، سیاسی و اقتصادی آن قرار می دهند، و آن را از «امر مقدس و غیرقابل لمس» به «امر پاسخ گو» تبدیل می کنند.

نمونه های متعددی نشان داده اند که نبود نقد به توسعه بی مهار و خطرناک فناوری منجر شده است. از رسوایی کمبریج آنالیتیکا تا سوگیری الگوریتم های پلیس و آموزش، همگی ریشه در غیبت گفت وگوی نقادانه داشته اند. وقتی رسانه ها، دانشگاه ها، مردم و حتی سیاست گذاران از طرح پرسش درباره فناوری خودداری می کنند، شرکت های بزرگ بدون نظارت عمومی، مسیر پیشرفت را بر اساس منافع خود تعریف می کنند، نه نیازهای جامعه.

نکته چهارم: اخلاق باید در طراحی الگوریتم ها نهادینه شود

در جهان فناوری، اخلاق نباید صرفا به عنوان ضمیمه ای پس از طراحی یا «پیوست فرهنگی» تلقی شود. بلکه اخلاق باید از همان ابتدا، در متن طراحی الگوریتم ها لحاظ شود. الگوریتم ها هر روز تصمیماتی می گیرند که بر زندگی واقعی انسان ها اثر می گذارد: چه کسی شغل بگیرد، چه کسی وام دریافت کند، چه بیماری تشخیص داده شود، یا چه محتوایی در فضای عمومی پخش گردد. در چنین شرایطی، اخلاق نه انتخابی اختیاری، بلکه ضرورتی حیاتی است.

بسیاری از الگوریتم ها در خلا ساخته نمی شوند؛ آن ها بر اساس اهداف اقتصادی، محدودیت های زمانی، و حجم عظیمی از داده ها طراحی می شوند. اما اگر در این فرایند، اصولی چون شفافیت، عدالت، عدم تبعیض، و حفظ کرامت انسانی نادیده گرفته شوند، خروجی این الگوریتم ها ممکن است از هر نهاد ناعادلانه ای در تاریخ خطرناک تر باشند؛ زیرا قدرت آن ها، پنهان و خودکار است. طراحی بدون اخلاق، به معنای سپردن اختیار به ماشینی ست که نه می فهمد و نه پاسخگوست.

برای مثال، فرض کنید یک الگوریتم استخدام، بر اساس داده های پیشین افراد موفق در شرکت طراحی شده باشد. اگر آن داده ها اکثرا متعلق به مردان سفیدپوست از طبقات خاص باشند، الگوریتم به صورت ناخودآگاه، افراد دیگر را حذف می کند. این اتفاق در دنیای واقعی برای آمازون رخ داد و نشان داد که بی توجهی به اصول اخلاقی در آموزش داده ها، می تواند به بازتولید تبعیض ساختاری منجر شود.

نکته پنجم: مدل هوش ترکیبی، مسیر آینده ای پایدار است

در دهه های اخیر، نوعی دوقطبی سازی میان انسان و ماشین در ذهن بسیاری از ما شکل گرفته است: یا انسان تصمیم گیرنده است یا الگوریتم؛ یا عقل انسانی غالب است یا قدرت پردازش ماشین. این تصور، نه تنها نادرست است، بلکه مانعی برای طراحی آینده ای همکارانه و پایدار است. کتاب نشان می دهد که راهکار واقعی، در رقابت انسان و ماشین نیست، بلکه در ترکیب هوشمندانه توانایی های آن هاست؛ مدلی که از آن با عنوان هوش ترکیبی یاد می شود.

هوش انسانی و هوش مصنوعی هر یک نقاط ضعف و قوت خاص خود را دارند. انسان دارای همدلی، قضاوت اخلاقی، خلاقیت و درک زمینه ای است؛ ماشین، سرعت پردازش، حافظه بی نقص و توان تحلیل داده های کلان را داراست. ترکیب این دو یعنی ساختن سامانه هایی که نه تنها دقیق و سریع اند، بلکه اخلاقی، حساس به زمینه و قابل اعتماد نیز باشند. این همکاری، زمینه ساز حل مسائلی ست که هیچ کدام از دو سوی ماجرا به تنهایی قادر به حل آن ها نیستند.

برای مثال، در حوزه پزشکی، الگوریتم ها می توانند نشانه های بیماری را در تصاویر اسکن با دقتی بالا تشخیص دهند. اما تصمیم نهایی درباره درمان، به فاکتورهایی وابسته است که تنها یک پزشک انسان می تواند بفهمد: وضعیت خانوادگی، حساسیت های روانی، شرایط فرهنگی یا دغدغه های فردی بیمار. اگر این دو منبع هوش در کنار یکدیگر عمل کنند، نتیجه چیزی فراتر از جمع آن دو خواهد بود.

نکته ششم: جامعه الگوریتمی، واقعیت امروز ماست

شاید تا چند سال پیش تصور اینکه الگوریتم ها در زندگی روزمره ما نفوذ عمیق داشته باشند، تخیلی به نظر می رسید. اما امروز، در جهانی زندگی می کنیم که تقریبا همه چیز با واسطه الگوریتم ها فیلتر، رتبه بندی، انتخاب و حتی تعریف می شود. چه بخواهیم و چه نخواهیم، ما در جامعه الگوریتمی زندگی می کنیم؛ جامعه ای که در آن تصمیم گیری های کلان و خرد، تا حد زیادی به منطق ماشین ها سپرده شده است.

از سیستم های مسیریاب گرفته تا توصیه گرهای نتفلیکس، از اولویت بندی ایمیل ها گرفته تا تحلیل رزومه های شغلی، الگوریتم ها نه تنها در کنار ما بلکه به جای ما تصمیم می گیرند. اما آنچه این وضعیت را بحرانی می سازد، پنهان بودن منطق تصمیم گیری آن هاست. ما اغلب نمی دانیم چرا چیزی را می بینیم، یا چرا به چیزی دسترسی نداریم. این همان «قدرت نرم و نامرئی» الگوریتم هاست که جامعه شناسان آن را شکل نوینی از نظم و قدرت می دانند.

مثال روشنگر: در یک پلتفرم کاریابی، اگر الگوریتم بر اساس الگوهای قبلی تصمیم بگیرد که رزومه های افراد با اسامی غیرغربی یا زنانه اولویت پایین تری دارند، یک تبعیض سیستماتیک در مقیاسی گسترده رخ می دهد، بدون آن که هیچ انسانی مستقیما مسئول آن باشد. در این حالت، مسئولیت گریزی به شکلی الگوریتمی رخ می دهد و عدالت به قربانی سکوت ریاضی بدل می شود.

نکته هفتم: شفافیت الگوریتمی، پیش شرط اعتماد اجتماعی است

در جهان سنتی، اعتماد اجتماعی بر اساس شفافیت در تصمیم گیری، نهادهای قابل پاسخ گویی و تعامل رو در رو شکل می گرفت. اما در دنیای دیجیتال، بسیاری از تصمیمات مهم توسط سیستم هایی اتخاذ می شوند که نه تنها برای عموم مردم قابل فهم نیستند، بلکه حتی طراحان آن ها نیز همیشه نمی توانند توضیح دهند چرا تصمیمی خاص اتخاذ شده است. این وضعیت، ما را وارد دوره ای کرده که برخی آن را عصر «جعبه سیاه الگوریتمی» می نامند.

وقتی الگوریتمی بدون توضیح مشخص، یک دانش آموز را رد می کند، یک بیمار را در اولویت پایین درمان قرار می دهد یا یک رزومه را نادیده می گیرد، بی اعتمادی شکل می گیرد حتی اگر تصمیم از نظر آماری درست باشد. دلیل این بی اعتمادی، نه مخالفت با فناوری، بلکه نیاز بنیادین انسان به فهم، عدالت و حق دانستن است. انسان ها وقتی نمی دانند «چرا» حذف شده اند، احساس بی قدرتی می کنند؛ و این آغاز فروپاشی اعتماد عمومی است.

نمونه های جهانی مانند مقررات GDPR در اتحادیه اروپا، نشان داده اند که شفافیت می تواند در قالب قانون، الزام آور شود. اصل «حق توضیح» که در این مقررات گنجانده شده، به کاربران اجازه می دهد بدانند الگوریتم ها چگونه تصمیم گیری می کنند. این حق، نخستین گام برای توانمندسازی کاربران و بازگرداندن قدرت به شهروندان در دنیای دیجیتال است.

نکته هشتم: نقد باید به کنش اجتماعی منجر شود

نقد اگرچه نقطه آغاز آگاهی است، اما اگر صرفا در مرحله تامل و بیان باقی بماند، نمی تواند تغییری واقعی در ساختارهای قدرت، فناوری و زندگی روزمره ایجاد کند. در عصر الگوریتم، جایی که بسیاری از فرایندها به طور خاموش و غیرقابل دیدن رخ می دهند، تنها راه مقابله با نابرابری ها و تبعیض های دیجیتال، تبدیل نقد به کنش اجتماعی است؛ کنشی که فردی آغاز می شود، اما باید جمعی شود.

کنش اجتماعی در زمینه فناوری اشکال متنوعی دارد. از مشارکت در جنبش های عدالت دیجیتال، تا حمایت از پلتفرم های اخلاق محور، از فشار مدنی برای شفاف سازی الگوریتم ها تا آموزش عمومی درباره سواد داده و الگوریتم؛ هر یک از این اقدامات، بخشی از زنجیره اصلاح است. حتی تغییر ساده ای مانند تنظیمات حریم خصوصی، آگاهانه تر مصرف کردن، یا ترک یک پلتفرم ناعادلانه، می تواند شکلی از کنش باشد.

در کشورهای مختلف، نمونه هایی موفق از این کنش ها دیده ایم. اعتراضات مدنی به سیستم تشخیص چهره در مدارس، توقف استفاده از الگوریتم های پلیسی در برخی ایالت ها، و عقب نشینی شرکت هایی مثل آمازون از به کارگیری سیستم های تبعیض آمیز استخدامی همه مثال هایی از این است که نقد می تواند به تغییر منجر شود، مشروط بر اینکه جمعی، مستند و پیوسته باشد.

نکته نهم: بازتعریف هوش، ضرورت زمانه ماست

در قرن بیست ویکم، دیگر نمی توان هوش را صرفا با IQ، سرعت محاسبه یا قدرت تحلیل داده ها سنجید. آنچه ما به آن «هوش» می گوییم، به ویژه در عصر هوش مصنوعی، نیازمند بازتعریفی ریشه ای است. چرا که اگر تعریف ما از هوش محدود به قابلیت های ماشین وار شود، ناخواسته خود انسان را به ماشین تقلیل داده ایم. هوش باید نه تنها شامل توانایی فنی، بلکه دربرگیرنده ی تخیل، اخلاق، همدلی، خلاقیت و ظرفیت درک دیگری باشد.

هوش مصنوعی غالبا بر پایه داده های گذشته کار می کند؛ یعنی تکرار آن چه بوده است. اما هوش انسانی می تواند فراتر از گذشته بیندیشد، امکانات نو خلق کند و چیزی را تصور کند که هنوز وجود ندارد. همین توانایی تخیل و معنابخشی است که انسان را از ماشین متمایز می کند. بازتعریف هوش به ما کمک می کند تا در رقابت بی پایان با ماشین ها گم نشویم، بلکه مسیر متفاوت انسانی خود را بشناسیم و قدر بگذاریم.

مدارس، دانشگاه ها و نظام های آموزشی نیز باید بازتعریف هوش را جدی بگیرند. تمرکز صرف بر آموزش مهارت های عددی و فنی، بدون توجه به تربیت اخلاقی، تفکر انتقادی، همدلی، سواد فرهنگی و فهم تاریخی، نسل هایی را پرورش می دهد که شاید «سریع تر» باشند، اما نه «عمیق تر». بازتعریف هوش، یعنی ساختن انسان هایی که بتوانند نه تنها با ماشین ها رقابت، بلکه با آن ها گفت وگو، همکاری و هدایت ایجاد کنند.

نکته دهم: آموزش، زیربنای همه تغییرهاست

اگر قرار است جامعه ای دیجیتال، عادلانه و انسانی بسازیم، نقطه آغاز آن نه در شرکت های فناوری، بلکه در نظام های آموزشی است. آموزش، زیربنای هرگونه تحول در نگرش، رفتار و ساختار اجتماعی است. در عصری که هوش مصنوعی به بخشی از بافت زندگی بدل شده، آموزش نمی تواند به سبک سنتی ادامه یابد. ما نیازمند نسلی هستیم که نه فقط کاربران هوش مصنوعی، بلکه درک کنندگان، نقادان و شکل دهندگان آن باشند.

برای رسیدن به چنین هدفی، باید تعریف خود از «سواد» را گسترش دهیم. امروز، سواد فقط خواندن و نوشتن نیست؛ بلکه شامل سواد الگوریتمی، سواد داده، سواد اخلاقی، سواد رسانه ای و سواد فرهنگی نیز هست. انسان آینده نگر، انسانی است که بتواند بفهمد الگوریتم چگونه تصمیم می گیرد، چه پیامدهایی دارد، و چگونه می توان آن را به چالش کشید یا اصلاح کرد. این مهارت ها نه لوکس، بلکه حیاتی اند.

در کنار این سوادهای جدید، باید آموزش را از حافظه محور به تفکرمحور سوق داد. تربیت انسان هایی که فقط داده ها را حفظ کنند، اما ندانند چگونه از آن ها پرسش بپرسند، مساوی است با تربیت سربازانی برای سلطه الگوریتم ها. اما اگر آموزش، خلاقیت، اخلاق، گفت وگو، همدلی و قدرت تحلیل را در کنار مهارت فنی پرورش دهد، می توان آینده ای ساخت که در آن انسان نه قربانی، بلکه معمار دنیای دیجیتال باشد.