۱۲ اصل اخلاقی برای هوش مصنوعی

23 تیر 1403 - خواندن 8 دقیقه - 58 بازدید

 

 


 

1) پاسخگویی (Accountability):

تعریف : بازیگران هوش مصنوعی باید بر اساس نقش ها، زمینه و همسو با آخرین فناوری ها، در قبال عملکرد صحیح سامانه های هوش مصنوعی و رعایت اصول و اخلاق هوش مصنوعی پاسخگو باشند.

شرح : این اصل بر این نکته تاکید می کند که باید افراد یا گروه هایی را برای عملکرد سامانه های هوش مصنوعی پاسخگو دانست. این افراد یا گروه ها باید وظایف و مسئولیت های مشخصی داشته باشند و از دانش و تخصص لازم برای نظارت و کنترل سامانه ها برخوردار باشند.

2) دقت (Accuracy):

تعریف : منابع خطا و عدم قطعیت در کل الگوریتم و منابع داده آن باید شناسایی، ثبت و بیان شوند تا پیامدهای مورد انتظار و بدترین حالت قابل درک باشد و بتواند رویه های کاهش را آگاه کند.

شرح : این اصل خواستار شفافیت در مورد نحوه عملکرد الگوریتم های هوش مصنوعی و داده هایی است که بر روی آنها آموزش دیده اند. این امر به منظور اطمینان از اینکه سامانه های هوش مصنوعی قابل اعتماد و قابل پیش بینی هستند و می توانند نتایج دقیق و قابل اعتمادی را ارائه دهند، ضروری است.

3) قابلیت ممیزی(Auditability):

تعریف : توانمندسازی طرف های ثالث علاقه مند برای بررسی، درک و مرور رفتار الگوریتم از طریق افشای اطلاعاتی که امکان نظارت، بررسی یا نقد را فراهم می کند.

شرح : این اصل بر اهمیت امکان نظارت و بررسی مستقل سامانه های هوش مصنوعی تاکید می کند. این امر به منظور ایجاد اطمینان از اینکه سامانه ها به درستی کار می کنند و مطابق با اصول و اخلاق هوش مصنوعی هستند، ضروری است.

4) قابلیت توضیح (Explainability):

تعریف : اطمینان حاصل کنید که تصمیمات خودکار و الگوریتمی و هر گونه داده مرتبط با هدایت آن تصمیمات را می توان با اصطلاحات غیرفنی برای کاربران نهایی و سایر ذینفعان تبیین کرد.

شرح : این اصل خواستار شفافیت در مورد نحوه تصمیم گیری سامانه های هوش مصنوعی است. کاربران و ذینفعان باید بتوانند درک کنند که چگونه سامانه ها به نتایج خاصی رسیده اند و چه عواملی در این تصمیم گیری نقش داشته اند.

5) عدالت (Fairness):

a) عدم تبعیض:

تعریف : اطمینان حاصل کنید که تصمیمات الگوریتمی تاثیرات تبعیض آمیز یا ناعادلانه در خطوط جمعیتی مختلف (به عنوان مثال، نژاد، جنسیت و غیره) ایجاد نمی کند.

شرح : این اصل بر این نکته تاکید می کند که سامانه های هوش مصنوعی نباید تبعیض آمیز باشند یا به گروه های خاصی از افراد ظلم کنند. الگوریتم ها باید به گونه ای طراحی شوند که با همه افراد به طور عادلانه و منصفانه رفتار کنند.

b) ضد تبعیض غیرعمد:

تعریف : برای توسعه و گنجاندن مکانیزم های نظارت و حسابداری برای جلوگیری از تبعیض غیرعمدی هنگام اجرای سامانه های تصمیم گیری.

شرح : این اصل خواستار اقداماتی برای جلوگیری از تبعیض غیرعمدی در سامانه های هوش مصنوعی است. حتی اگر الگوریتم ها با قصد تبعیض آمیز طراحی نشده باشند، باز هم ممکن است منجر به نتایج تبعیض آمیز شوند. مهم است که گام هایی برای شناسایی و رفع این تبعیضات غیرعمدی برداشته شود.

c) تنوع:

تعریف : توسعه سامانه ها، برنامه های کاربردی و الگوریتم ها، با تنوعی از صداها و اطلاعات جمعیت شناختی انجام گیرد.

شرح : این اصل بر اهمیت در نظر گرفتن دیدگاه های مختلف در هنگام توسعه سامانه های هوش مصنوعی تاکید می کند. این امر به منظور اطمینان از اینکه سامانه ها نیازها و ارزش های گروه های مختلف مردم را منعکس می کنند، ضروری است.

6) انسان محوری و رفاه (Human Centricity and Well-being):

a) برابری منافع:

تعریف : برای دستیابی به توزیع عادلانه مزایای شیوه های داده و اجتناب از شیوه های داده ای که به طور نامتناسبی گروه های آسیب پذیر را در مضیقه قرار می دهد، تلاش کنید.

b) بندهای b تا g : آنها بر حداکثر کردن منافع استفاده از داده ها و مدل سازی پیشرفته، تشویق ارزش های انسانی، احترام به قضاوت افراد تحت تاثیر هوش مصنوعی، کنترل داده توسط کاربران و اولویت دادن به رفاه نهایی کاربر تاکید می کنند.

7) همسویی با حقوق بشر (Human rights alignment):

تعریف : اطمینان حاصل کنید که طراحی، توسعه و اجرای فناوری ها به حقوق بشر شناخته شده بین المللی تجاوز نکند.

شرح : این اصل بر این نکته تاکید می کند که سامانه های هوش مصنوعی نباید حقوق بشر را نقض کنند. این حقوق شامل مواردی مانند حق حریم خصوصی، آزادی بیان و عدالت می شود.

8) شمولیت (Inclusivity):

تعریف : اطمینان حاصل کنید که هوش مصنوعی برای همه قابل دسترسی باشد.

شرح : این اصل بر این نکته تاکید می کند که هوش مصنوعی نباید فقط برای عده ای خاص قابل دسترس باشد. همه افراد باید بتوانند از مزایای این فناوری بهره مند شوند.

9) پیشرفت گراییProgressiveness):

تعریف : ایجاد راه کارهایی که ارزش ایجاد شده توسط آنها به طور مادی بهتر از عدم اجرای آن پروژه باشد.

شرح : این اصل خواستار استفاده از هوش مصنوعی برای حل مشکلات و بهبود زندگی انسان ها است. پروژه های هوش مصنوعی باید منجر به پیشرفت و توسعه شوند.

10) مسئولیت، پاسخگویی و شفافیت (Responsibility, accountability and transparency):

a) اعتمادسازی:

تعریف : ایجاد اعتماد با اطمینان از اینکه طراحان و اپراتورها نسبت به سامانه ها، برنامه های کاربردی و الگوریتم های خود مسئول و پاسخگو هستند و این سامانه ها به صورت شفاف و منصفانه عمل می کنند.

شرح : این اصل بر اهمیت ایجاد اعتماد به هوش مصنوعی تاکید می کند. این امر از طریق شفافیت در مورد نحوه عملکرد سامانه ها و پاسخگویی طراحان و اپراتورها حاصل می شود.

b) جبران خسارت:

تعریف : ایجاد روش های قابل مشاهده و بی طرف برای جبران خسارات فردی یا اجتماعی ناشی از تصمیم گیری الگوریتمی و تعیین فرد یا نهادی مسئول برای رفع به موقع این مسائل.

شرح : این اصل خواستار وجود سازوکاری برای جبران خسارت هایی است که ممکن است توسط سامانه های هوش مصنوعی ایجاد شود.

c) بازرسی پس از اجرا:

تعریف : گنجاندن اقدامات و فرآیندهای پایین دستی برای کاربران یا ذینفعان به منظور تایید چگونگی و زمان اعمال فناوری هوش مصنوعی.

شرح : این اصل بر اهمیت نظارت بر نحوه استفاده از هوش مصنوعی تاکید می کند. کاربران و ذینفعان باید بتوانند نحوه عملکرد سامانه ها و نحوه استفاده از آنها را بررسی کنند.

d) مستندسازی:

تعریف : نگهداری سوابق دقیق از فرآیندهای طراحی و تصمیم گیری.

شرح : این اصل بر اهمیت مستندسازی در مورد توسعه سامانه های هوش مصنوعی تاکید می کند. این مستندات برای اطمینان از شفافیت و پاسخگویی ضروری است.

11) مقاوت و امنیت (Robustness and Security):

تعریف : سامانه های هوش مصنوعی باید ایمن و مطمئن باشند و در برابر دستکاری یا به خطر انداختن داده هایی که برای آموزش آن ها استفاده می شوند، آسیب پذیر نباشند.

شرح : این اصل بر اهمیت امنیت سامانه های هوش مصنوعی تاکید می کند. این سامانه ها نباید در برابر حملات سایبری یا سوء استفاده آسیب پذیر باشند.

12) پایداری (Sustainability):

تعریف : راه کارهایی را پیاده سازی کنید که به طور موثر رفتار آینده را پیش بینی کنند و در طول دوره ی زمانی معقول بینش های مفیدی ایجاد کنند.

شرح : این اصل خواستار استفاده از هوش مصنوعی به روشی است که در دراز مدت سودمند باشد. سامانه های هوش مصنوعی باید راه کارهای پایداری ارائه دهند و در طول زمان عملکرد مثبتی داشته باشند.


جهت اطلاع و ارتباط: 

mohammadian.a@iran.ir

شناسه کانال هوش افزوده در پیام رسان بله

@augmented_int


منبع :

MODEL ARTIFICIAL INTELLIGENCE GOVERNANCE FRAMEWORK SECOND EDITION

Minister for Communications and Information Singapore January 2020

عدالت اجتماعیاخلاق هوش مصنوعیپاسخگویی