بازسازی اصول اخلاق هوش مصنوعی: اخلاق رالزی هوش مصنوعی
This With 28 Page And PDF Format Ready To Download
- من نویسنده این مقاله هستم
استخراج به نرم افزارهای پژوهشی:
Abstract:
محبوبیت فناوری های هوش مصنوعی بحث هایی را در مورد پیامدهای اخلاقی آنها برانگیخته است. این توسعه، سازمان های دولتی، سازمان های مردم نهاد و شرکت های خصوصی را مجبور به واکنش و تدوین دستورالعمل های اخلاقی برای توسعه آینده سیستم های هوش مصنوعی اخلاقی کرده است. در حالی که بسیاری از دستورالعمل های اخلاقی به ارزش های آشنا برای اخلاق شناسان می پردازند، به نظر می رسد فاقد توجیهات اخلاقی هستند. علاوه بر این، اکثر آنها تمایل دارند تاثیر هوش مصنوعی بر دموکراسی، حکومتداری و مشورت عمومی را نادیده بگیرند. با این حال، تحقیقات موجود نشان می دهد که هوش مصنوعی می تواند عناصر کلیدی دموکراسی های غربی را که از نظر اخلاقی مرتبط هستند، تهدید کند. در این مقاله، نظریه عدالت رالز برای تدوین مجموعه ای از دستورالعمل ها برای سازمان ها و سیاست گذاران به منظور هدایت توسعه هوش مصنوعی به سمت جهتی اخلاقی تر به کار گرفته شده است. هدف، کمک به گسترش بحث در مورد اخلاق هوش مصنوعی با بررسی امکان ساخت دستورالعمل های اخلاق هوش مصنوعی است که از نظر فلسفی توجیه شده و دیدگاه وسیع تری از عدالت اجتماعی را در بر می گیرند. این مقاله به بررسی چگونگی ارتباط نظریه عدالت به مثابه انصاف رالز و مفاهیم کلیدی آن با پیشرفت های جاری در اخلاق هوش مصنوعی می پردازد و پیشنهادی ارائه می دهد مبنی بر اینکه چگونه اصولی که مبنایی برای عملیاتی کردن اخلاق هوش مصنوعی در عمل ارائه می دهند، در صورت همسو شدن با نظریه عدالت به مثابه انصاف رالز، می توانند به نظر برسند.
Keywords:
Authors
مهدی خمری
پژوهشگر و استادیار مقطع دکتری علوم سیاسی(روابط بین الملل)، دانشگاه آزاد اسلامی، زاهدان، ایران
مراجع و منابع این :
لیست زیر مراجع و منابع استفاده شده در این را نمایش می دهد. این مراجع به صورت کاملا ماشینی و بر اساس هوش مصنوعی استخراج شده اند و لذا ممکن است دارای اشکالاتی باشند که به مرور زمان دقت استخراج این محتوا افزایش می یابد. مراجعی که مقالات مربوط به آنها در سیویلیکا نمایه شده و پیدا شده اند، به خود لینک شده اند :