معرفی روش جدید سازنده چت‌‌جی‌پی‌تی برای جلوگیری از سوگیری

معرفی روش جدید سازنده چت‌‌جی‌پی‌تی برای جلوگیری از سوگیری

به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از تک‌کرانچ، شرکت اپن‌ای‌آی ادعا می‌کند که راهی برای استفاده از جی‌پی‌تی‌-4، (مدل هوش مصنوعی مولد پرچم‌دار خود) جهت تعدیل محتوا ایجاد کرده که بار نظارت تیم‌های انسانی را کاهش می‌دهد.

این تکنیک که طی پستی در وبلاگ رسمی اپن‌ای‌آی منتشر شده است، متکی به تحریک جی‌پی‌تی‌-4 با خط ‌مشی مورد نظر است. این روش مدل را در قضاوت‌های اعتدالی و ایجاد مجموعه آزمایشی از نمونه‌های محتوا که ممکن است خط‌مشی را نقض کند یا نکند قرار می‌دهد.

سپس کارشناسان نمونه‌ها را برچسب‌گذاری می کنند و برای آزمایش مدل، نمونه بدون برچسب را به جی‌پی‌تی‌-4 می دهند نتیجه این بود که برچسب‌های مدل با آن هایی که کارشناسان برچسب زده بودند مطابقت داشت و از آنجا خط‌مشی اصلاح می‌شود.

کارشناسان می‌توانند با بررسی تفاوت‌های بین قضاوت‌های جی‌پی‌تی‌-4 و قضاوت‌های یک انسان، از جی‌پی‌تی‌-4 بخواهند تا دلایل مدنظر خود در مورد برچسب‌ گذاری ارائه کرده، ابهام در تعاریف خط‌ مشی را تجزیه و تحلیل کند و بر این اساس در خط‌مشی توضیحات بیشتری ارائه کند.

اپن‌ای‌آی ادعا می‌کند که فرآیند آن می‌تواند زمان لازم برای اجرای سیاست‌های تعدیل محتوای جدید را به ساعت‌ها کاهش دهد و آن را برتر از رویکردهای ارائه شده توسط استارتاپ‌هایی مانند آنتروپیک نشان می‌دهد.

ابزارهای تعدیل مبتنی بر هوش مصنوعی چیز جدیدی نیستند. پِرسپِکتیو توسط تیم فناوری مقابله با سوء استفاده گوگل، چندین سال پیش در دسترس عموم قرار گرفت.

چندین سال پیش، تیمی در ایالت پنسیلوانیا آمریکا دریافتند که پست‌هایی در رسانه‌های اجتماعی در مورد افراد دارای معلولیت می‌توانند با استفاده از مدل‌های تشخیص به‌عنوان منفی‌تر یا آلوده‌تر علامت‌گذاری شوند. در مطالعه دیگری، محققان نشان دادند که نسخه‌های قدیمی پرسپکتیو اغلب نمی‌توانند سخنان تنفرآمیزی را که از تغییرات املایی استفاده می‌کند، تشخیص دهند.

بخشی از دلیل این شکست ها این است که حاشیه نویس ها(افرادی که مسئول اضافه کردن برچسب ها به مجموعه داده های آموزشی هستند) سوگیری های خود را به جدول می آورند. به عنوان مثال، اغلب، تفاوت‌هایی در حاشیه‌نویسی‌ها بین برچسب‌زنانی که خود را آمریکایی‌های آفریقایی‌تبار معرفی می‌کنند و دیگران وجود دارد.

مدل‌های هوش مصنوعی مولد مانند دال-ای2، سوگیری‌های اجتماعی را تقویت می‌کنند و تصاویری از موقعیت‌های اقتدار ایجاد می‌کنند مانند تصاویری از مردان سفید پوست در نقش مدیرعاملی. اما اپن‌ای‌آی هم به طور کامل این مشکل را حل نکرده و خود شرکت نیز این موضوع را تایید می کند.

این شرکت می‌نویسد: « مدل‌های زبانی در برابر سوگیری‌های ناخواسته‌ای آسیب‌پذیر هستند که ممکن است در طول آموزش به مدل وارد شده باشند. مانند هر برنامه کاربردی هوش مصنوعی، نتایج و خروجی ها باید به دقت نظارت و اعتبار سنجی شوند و انسان ها در این حلقه آن را اصلاح کنند.»

شاید قدرت پیش‌بینی جی‌پی‌تی‌-4 بتواند به ارائه عملکرد اعتدال بهتر نسبت به پلتفرم‌های قبلی کمک کند. اما حتی بهترین هوش مصنوعی امروزی هم اشتباه می کند.

هوش مصنوعی این پتانسیل را دارد که به طرق مختلف برای جامعه مفید باشد. از استفاده از تجزیه و تحلیل پیش‌بینی‌کننده برای کاهش خطر بلایا تا استفاده از نرم‌افزار ترجمه برای از بین بردن موانع زبان. این فناوری خواه ناخواه بر زندگی روزمره ما تأثیر گذاشته است. با این حال، پیامدهای منفی نیز وجود دارد، به ویژه اگر اقدامات پیشگیرانه برای اطمینان از توسعه و استفاده مسئولانه و اخلاقی آن انجام نشود. در این میان رئیس جمهور آمریکا نیز اذعان کرده خطرات ناشی از هوش مصنوعی برای امنیت و اقتصاد نیاز به رسیدگی دارد.

پایان پیام/

منبع: فارس

منتشر شده

در دسته بندی


با عنایت به اینکه سایت «یلواستون» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع مطلب و کاربران است. (قانون تجارت الکترونیک)

یلواستون نقشی در تولید محتوای خبری ندارد و مطالب این سایت، بازنشر اخبار پایگاه‌های معتبر خبری است.