به گزارش گروه علم و پیشرفت خبرگزاری فارس به نقل از تککرانچ، شرکت اپنایآی ادعا میکند که راهی برای استفاده از جیپیتی-4، (مدل هوش مصنوعی مولد پرچمدار خود) جهت تعدیل محتوا ایجاد کرده که بار نظارت تیمهای انسانی را کاهش میدهد.
این تکنیک که طی پستی در وبلاگ رسمی اپنایآی منتشر شده است، متکی به تحریک جیپیتی-4 با خط مشی مورد نظر است. این روش مدل را در قضاوتهای اعتدالی و ایجاد مجموعه آزمایشی از نمونههای محتوا که ممکن است خطمشی را نقض کند یا نکند قرار میدهد.
سپس کارشناسان نمونهها را برچسبگذاری می کنند و برای آزمایش مدل، نمونه بدون برچسب را به جیپیتی-4 می دهند نتیجه این بود که برچسبهای مدل با آن هایی که کارشناسان برچسب زده بودند مطابقت داشت و از آنجا خطمشی اصلاح میشود.
کارشناسان میتوانند با بررسی تفاوتهای بین قضاوتهای جیپیتی-4 و قضاوتهای یک انسان، از جیپیتی-4 بخواهند تا دلایل مدنظر خود در مورد برچسب گذاری ارائه کرده، ابهام در تعاریف خط مشی را تجزیه و تحلیل کند و بر این اساس در خطمشی توضیحات بیشتری ارائه کند.
اپنایآی ادعا میکند که فرآیند آن میتواند زمان لازم برای اجرای سیاستهای تعدیل محتوای جدید را به ساعتها کاهش دهد و آن را برتر از رویکردهای ارائه شده توسط استارتاپهایی مانند آنتروپیک نشان میدهد.
ابزارهای تعدیل مبتنی بر هوش مصنوعی چیز جدیدی نیستند. پِرسپِکتیو توسط تیم فناوری مقابله با سوء استفاده گوگل، چندین سال پیش در دسترس عموم قرار گرفت.
چندین سال پیش، تیمی در ایالت پنسیلوانیا آمریکا دریافتند که پستهایی در رسانههای اجتماعی در مورد افراد دارای معلولیت میتوانند با استفاده از مدلهای تشخیص بهعنوان منفیتر یا آلودهتر علامتگذاری شوند. در مطالعه دیگری، محققان نشان دادند که نسخههای قدیمی پرسپکتیو اغلب نمیتوانند سخنان تنفرآمیزی را که از تغییرات املایی استفاده میکند، تشخیص دهند.
بخشی از دلیل این شکست ها این است که حاشیه نویس ها(افرادی که مسئول اضافه کردن برچسب ها به مجموعه داده های آموزشی هستند) سوگیری های خود را به جدول می آورند. به عنوان مثال، اغلب، تفاوتهایی در حاشیهنویسیها بین برچسبزنانی که خود را آمریکاییهای آفریقاییتبار معرفی میکنند و دیگران وجود دارد.
مدلهای هوش مصنوعی مولد مانند دال-ای2، سوگیریهای اجتماعی را تقویت میکنند و تصاویری از موقعیتهای اقتدار ایجاد میکنند مانند تصاویری از مردان سفید پوست در نقش مدیرعاملی. اما اپنایآی هم به طور کامل این مشکل را حل نکرده و خود شرکت نیز این موضوع را تایید می کند.
این شرکت مینویسد: « مدلهای زبانی در برابر سوگیریهای ناخواستهای آسیبپذیر هستند که ممکن است در طول آموزش به مدل وارد شده باشند. مانند هر برنامه کاربردی هوش مصنوعی، نتایج و خروجی ها باید به دقت نظارت و اعتبار سنجی شوند و انسان ها در این حلقه آن را اصلاح کنند.»
شاید قدرت پیشبینی جیپیتی-4 بتواند به ارائه عملکرد اعتدال بهتر نسبت به پلتفرمهای قبلی کمک کند. اما حتی بهترین هوش مصنوعی امروزی هم اشتباه می کند.
هوش مصنوعی این پتانسیل را دارد که به طرق مختلف برای جامعه مفید باشد. از استفاده از تجزیه و تحلیل پیشبینیکننده برای کاهش خطر بلایا تا استفاده از نرمافزار ترجمه برای از بین بردن موانع زبان. این فناوری خواه ناخواه بر زندگی روزمره ما تأثیر گذاشته است. با این حال، پیامدهای منفی نیز وجود دارد، به ویژه اگر اقدامات پیشگیرانه برای اطمینان از توسعه و استفاده مسئولانه و اخلاقی آن انجام نشود. در این میان رئیس جمهور آمریکا نیز اذعان کرده خطرات ناشی از هوش مصنوعی برای امنیت و اقتصاد نیاز به رسیدگی دارد.
پایان پیام/
منبع: فارس