چرا باید حکمت عملی مصنوعی را در هوش مصنوعی شبیه‌سازی کنیم؟/قسمت اول: حکمت عملی

چرا باید حکمت عملی مصنوعی را در هوش مصنوعی شبیه‌سازی کنیم؟/قسمت اول: حکمت عملی

سعیده بابایی

حکمت عملی مفهومی فلسفی است که اشاره به استدلال اخلاقی آگاهانه یا حکمت عملی دارد. ادعا می شود که در اغلب انسان های بالغ، این توانایی نقشی اساسی را در استدلال اخلاقی سطح بالا ایفا می‌کند. اگر بخواهیم هوش مصنوعی توانایی استدلال در برابر مسائل اخلاقی را به گونه‌ای مشابه عملکرد انسان‌های کفایتمند دارا شود، نیازمند ساختن ماشین‌هایی هستیم که در تعاملاتشان با عامل‌های انسانی، از خود فرونسیس یا حکمت عملی نشان می‌دهند.

حکمت عملی مفهومی فلسفی است که اشاره به استدلال اخلاقی آگاهانه دارد.

در اینجا می‌خواهیم استدلال کنیم که بالاترین هدف اخلاق هوش مصنوعی همین است، اما برای دستیابی به این هدف نیازمند آنیم که ابتدا مسئله آگاهی مصنوعی را حل کنیم.

دستیابی به حکمت عملی مصنوعی ضروری است، زیرا برای افزایش اعتماد کاربران به سیستم‌های هوش مصنوعی و روبات‌ها کفایت اخلاقی این سیستم‌ها لازم است.

دستیابی به حکمت عملی مصنوعی ضروری است، زیرا برای افزایش اعتماد کاربران به سیستم‌های هوش مصنوعی و روبات‌ها کفایت اخلاقی این سیستم‌ها لازم است.

حکمت عملی مصنوعی و غیر مصنوعی

از یک سو، آگاهی ساده ترین چیزی است که میتوان تجربه کرد، چرا که آگاهی لازمه ادراکاتِ کاملا تجربه شده و غنی برای ما انسانهاست. از دیگر سو، آگاهی پدیده ای است که تبیین آن به گونه ای که بتوان آن را در یک ماشین شبیه سازی کرد، بسیار دشوار است.

آگاهی پدیده ای است که تبیین آن به گونه ای که بتوان آن را در یک ماشین شبیه سازی کرد، بسیار دشوار است.

بسیاری از تلاش های صورت گرفته در اخلاق هوش مصنوعی و روباتیک نیازمند این نیستند که ماشینِ ساخته شده دارای آگاهی باشد. به طور کلی، میتوان سه دسته عامل مصنوعی را بر اساس میزان توانایی های اخلاقیشان از یکدیگر تفکیک کرد:

1- عامل های دارای تاثیر اخلاقی[1] (EIA)

این دسته از عاملها برای عمل کردن به گونه ای که عمل می کنند، نیازی به آگاهی ندارند. اما از این جهت جالب توجه اند که در کارکردهای خود نوعی خودمختاری نشان می دهند و می توانند بر عامل های انسانی تأثیراتی بگذارند که دارای اهمیت اخلاقی است. مثال خودروهای خودران مصداقی از این دسته از عامل هاست که ممکن است منجر به کشته شدن عابر در اثر تصادف شود در حالی که به این عمل خود و عواقبش «آگاهی» ندارد. این سیستم صرفا بر اساس برنامه ای که برایش نوشته شده و اطلاعاتی که از سنسورهایش دریافت می کند، عمل خود را تنظیم می کند نه بر اساس تجربه آگاهانه خود از این موقعیت و در نتیجه، هیچ گونه واکنش احساسی به این حادثه ندارد و پشیمانی برای او معنایی ندارد و کسی نیز او را سرزنش نمی کند.

2- عاملهای مصنوعی دارای اخلاقیات[2] (AEA)

در این عاملها ملاحظات اخلاقی به نحوی صریح برنامه نویسی شده و در کارکرد آنها بروز دارد و از این جهت، در طراحی آنها یک گام فراتر از دسته قبلی پیش رفته ایم. مثالی که برای این دسته می توان ارائه کرد، خودروهای خودرانی هستند که به گونه ای طراحی می شوند تا بتوانند محاسبات اخلاقی را در تصمیم گیری های خود لحاظ کنند؛ مثلا وقتی در یک موقعیت حتمی تصادف قرار می گیرند، در انتخاب میان سرنشینان خود و سرنشینان خودروی دیگر بررسی کنند که کدام حالت مخاطرات کمتری به همراه دارد. با این وجود، این دسته از عامل ها نمی توانند مسئولیت کارهای خود را بپذیرند و مسئولیت عواقب ناخواسته احتمالی همچنان با انسانهاست. این عاملها هم نسبت به رفتارهای خود آگاه نیستند، حتی اگر به نظر برسد که برای تصمیم گیری به نحوی اخلاقی، به بیرون از خود نگاه می کنند و «گویی» این تصمیم را به نحوی آگاهانه می گیرند.

3- عاملهای اخلاقی مصنوعی[3] (AMA)

فقط زمانی که این دسته از ماشینها را داشته باشیم، میتوانیم ادعا کنیم که آگاهی نقش مهمی را ایفا می کند. این عامل ها می توانند از میان رفتارهای مختلف، رفتارهایی را انتخاب کنند که متناسب با موقعیت فعلی است و این نشانگر نوعی استدلال عملی مشابه آن چیزی است که در اکثر عامل های اخلاقی توانمند در استدلال اخلاقی می توان دید.

آگاهی نقش مهمی در توسعه عامل های اخلاقی مصنوعی پیچیده ایفا می کند.

این به این معناست که این سیستم یک عامل اخلاقی آگاه است و از خود حکمت عملی مصنوعی بروز می دهد که در ادامه توضیح خواهیم داد که مقصود از حکمت عملی مصنوعی چیست. همچنین، به این بحث می پردازیم که در حالی که آگاهی لازمه تصمیم گیری دو دسته اول از عامل ها نیست، اما نقش مهمی در توسعه عامل های اخلاقی مصنوعی پیچیده ایفا می کند و اتفاقا این دسته از عاملها هستند که تعاملات سودمندتری با انسانها در موقعیت های اجتماعی پیچیده برقرار می کنند.

حکمت عملی مفهومی فلسفی است که ممکن است به گوش افرادی خارج از فلسفه آشنا نباشد. اما اگر بخواهیم هوش مصنوعی و روباتها را موجوداتی دارای توانایی استدلال اخلاقی هوشمندانه طراحی کنیم، ناگزیریم با این مفهوم آشنا شویم تا بتوانیم فهم بهتری از اخلاق پیدا کنیم. این مفهوم قدمتی دیرینه دارد و عمدتا در ادبیات اخلاق فضیلت از آن نام برده می شود که اشاره به مهارتی دارد که ما را قادر می سازد زندگی خوبی را زیست کنیم. اگرچه که برای طراحی سیستم های هوشمند نیازی به تسلط کامل بر اخلاق فضیلت نیست، اما آشنایی با ادبیات این نظریه می تواند منجر به ارتقاء طراحی این سیستمها و افزایش قدرت استدلال اخلاقی آنها شود.

این مفهوم در ادبیات اخلاق فضیلت از آن نام برده می شود که اشاره به مهارتی دارد که ما را قادر می سازد زندگی خوبی را زیست کنیم.

فرونسیس به معنای حکمت عملی ای است که یک عامل اخلاقی آگاه از آن بهره می گیرد تا با مسائل اخلاقی دشوار دست و پنجه نرم کند و به نحوی هوشمندانه از عهده حل آنها برآید. با توجه به اینکه مسائل اخلاقی همیشه جدیدند و نمیتوان مجموعه ای از پاسخ های از پیش معین را برای حل آنها تعیین کرد، مواجهه با موقعیت هایی که نیازمند تصمیم گیری اخلاقی هستند، نیازمند مهارت هایی نظیر خلاقیت و یادگیری در عامل فرونتیک (فردی که دارای حکمت عملی است) هستند.

هیچگونه قاعده/روند/الگوریتم عمومی ای را نمی توان تعیین کرد که با کمک آن بتوان میان ارزشها، اصول، هنجارها و رویکردهای مختلف بر اساس موقعیت فعلی انتخاب کرد و آنها را در این موقعیت به کار برد.

هیچگونه قاعده/روند/الگوریتم عمومی ای را نمی توان تعیین کرد که با کمک آن بتوان میان ارزشها، اصول، هنجارها و رویکردهای مختلف بر اساس موقعیت فعلی انتخاب کرد و آنها را در این موقعیت به کار برد.

ممکن است عامل مصنوعی دارای اخلاقیات به نحوی موفق بر اساس یک یا دو مکتب فکری (مثلا اخلاق وظیفه گرایانه یا اخلاق سودگرایانه یا چارچوب های اخلاقی برآمده از سنت های دینی یا حتی قوانین سه گانه آیزاک آسیموف) طراحی شود. چنین عاملی احتمالا می تواند در شرایط مشخصی موفق عمل کند، اما همچنان از حکمت عملی مصنوعی ای که مختص عامل مصنوعی اخلاقی است، بی بهره است. در حالی که حکمت عملی می تواند علاوه بر اینکه عقلانیت جهان شمول را در بر می گیرد، ملاحظات مربوط به ابعاد احساسی، بدنمندانه، سیاقمندانه و رابطه مندانه هر موقعیت را نیز در محاسبات اخلاقی خود در نظر بگیرد و بر اساس همه این عوامل تصمیم گیری نهایی را انجام دهد. این ابعاد همان مؤلفه های غیر ضروری ای هستند که کانت و دیگران معتقد بودند ارتباطی به اخلاق و تصمیم گیریهای اخلاقی ندارند.

برای دستیابی به حکمت عملی باید ابتدا مسائلی همچون آگاهی مصنوعی، احساسات مصنوعی، بدنمندی ماشین و … را حل کنیم که ممکن است نتوانیم آنها را در قالبی محاسباتی تبیین کنیم.

اما چرا لازم است که خودمان را به دردسر طراحی عاملهای مصنوعی اخلاقی بیندازیم و بکوشیم حکمت عملی مصنوعی را در آنها جای دهی کنیم؟ این مسیر بسیار دشوار و طولانی است؛ زیرا برای دستیابی به حکمت عملی باید ابتدا مسائلی همچون آگاهی مصنوعی، احساسات مصنوعی، بدنمندی ماشین و … را حل کنیم که ممکن است نتوانیم آنها را در قالبی محاسباتی تبیین کنیم.

ادامه دارد …

[1] Ethical Impact Agents

[2] Artificial Ethical Agents

[3] Artificial Moral Agents

منبع اولیه:

Sullins, J.P. (2019). The Role of Consciousness and Artificial Phronēsis in AI Ethical Reasoning. AAAI Spring Symposium: Towards Conscious AI Systems.

مترجم: سعیده بابایی، پژوهشگر پسادکتری اخلاق هوش مصنوعی دانشگاه توبینگن

منبع ثانویه: وبگاه پژوهشگاه مجازی

انتهای پیام/

از شما صاحبنظر گرامی در حوزه تعلیم و تربیت هم دعوت می کنیم، از نویسندگان، ممیزان و اعضای هیئت تحریریه پنجره تربیت باشید. برای ارسال مطالب و عضویت در هیئت تحریریه، از طریق ایمیل FarsPanjarehTarbiat@gmail.com مکاتبه فرمائید.

منبع: فارس

منتشر شده

در دسته بندی


با عنایت به اینکه سایت «یلواستون» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع مطلب و کاربران است. (قانون تجارت الکترونیک)

یلواستون نقشی در تولید محتوای خبری ندارد و مطالب این سایت، بازنشر اخبار پایگاه‌های معتبر خبری است.