از مدلهای هوش مصنوعی خواسته شد تا در نقش تصمیمگیر در موقعیتهای تنش بین کشورها، به تعیین سیاست بپردازند.
با این حال نتایج نشان داد اکثر تصمیمات به افزایش تنش و حتی جنگ اتمی منجر شدهاند.
این یافتهها هشداری برای طراحان هوش مصنوعی است که رفتارهای خشونتآمیز را در الگوریتمهای خود مهار کنند. البته این مدلها تنها بر اساس دادههای تاریخی تصمیمگیری میکنند و قابلیت اخلاقی تشخیص درست و غلط ندارند.
با این حال، چنانچه بخواهیم هوش مصنوعی را به عنوان مشاور تصمیمگیر در مسائل حساس به کار گیریم، لازم است ملاحظات اخلاقی و اجتماعی را در طراحی آنها در نظر بگیریم تا از بروز فاجعه جلوگیری شود.
پیشبینی میشود با گسترش کاربرد هوش مصنوعی، مطالعات و آزمونهای بیشتری از این جنس برای ارزیابی رفتار و آسیبشناسی آنها انجام شود. هدف نهایی، طراحی مدلهایی مطمئن و موثر با حداقل آسیب اجتماعی است. منبع: ايتنا
حمله اتمی؛ راهحل نهایی هوش مصنوعی برای جنگهای جهان!
- زور چلسی به تیم سامان قدوس نرسید/ لیورپول در آخرین دقیقه 3 امتیاز گرفت
- پیروزی خارج از خانه دورتموند مقابل یونیون برلین
- استقلال خوزستان: اگر اشتباهات داوری ادامه یابد، موضوع را از AFC پیگیری میکنیم
- پیام صریح آرنولد به رقبای چوپان!
- اطلاعیه چارگون: سامانههای مشتریان ما امن است
- نمایندگی استاندارد لاماری در شهر قم
- توضیحات سرمربی پورتو درباره آخرین وضعیت طارمی
- اعتراض باشگاه پیکان به اشتباهات داوری
- غلامی سرمربی تیم والیبال نوجوانان ایران شد
- جام جهانی سابر| پاکدامن با شکست برابر نماینده تونس نهم شد
با عنایت به اینکه سایت «یلواستون» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع مطلب و کاربران است. (قانون تجارت الکترونیک)
یلواستون نقشی در تولید محتوای خبری ندارد و مطالب این سایت، بازنشر اخبار پایگاههای معتبر خبری است.