آیا چت‌جی‌بی‌تی تنبل شده است!؟

برخی کاربران پلتفرم چت‌جی‌بی‌تی اعلام کرده‌اند که از این برنامه ناراضی هستند زیرا احساس می‌کنند یک ربات هوش مصنوعی به آنها مانند یک رئیس دستور می‌دهد که چطور کار خود را درست انجام دهند!

افزایش این نارضایتی‌ها باعث شده تا شرکت اوپن‌ای‌آی (سازنده چت‌جی‌بی‌تی) در صدد تحقیق بیشتر برآید.

این شرکت چندی قبل اعلام کرد که قرار است گزارش‌های ارسالی کاربران را بررسی کند که درآنها ادعا شده چت‌جی‌بی‌تی، به برخی درخواست‌های کاربران بی‌توجه بوده و به آنها گفته که دستور مدنظر را خود انجام دهند!

مقالات مرتبط:

آیا هوش مصنوعی LaMDA گوگل خودآگاه شده؟کلاب هاوس فیلتر شده یا دچار اختلال عمدی شده است؟با PassGPT آشنا شوید؛ هوش مصنوعی آموزش داده شده با میلیون‌ها…آیا لایو فردوسی پور رکورد اینستاگرام را می‌شکند؟

اوپن ای‌آی، در پروفایل خود روی پلتفرم X از کاربران خواسته تا در مورد «تنبل شده» این برنامه نظر خود را اعلام کنند. این شرکت در پست منتشر شده خود نوشته: «ما برای این برنامه، از ۱۱ نوامبر به بعد هیچ نسخه به روز رسانی منتشر نکرده‌ایم، که این موضوع بدون شک عمدی نبوده است. رفتار این مدل قطعا همیشه قابل پیش بینی نیست اما در حال بررسی شکایت‌های کاربران هستیم.»

چت جی‌بی‌تی یک ابزار منحصر به فرد و انقلابی محسوب می‌شود که به بسیاری کمک می‌کند تا دورکاری کنند. این برنامه که در نوامبر سال ۲۰۲۲ منتشر شد، تاکنون به صورت تخمینی ۱.۷ میلیارد کاربر را به خود جذب کرده است. محققان اعلام کرده‌اند که چت جی‌بی‌تی به برخی کارمندان امکان داده تا عملکرد بهتر و کارآمدتری داشته و سرعت تحویل و کیفیت پروژه‌های کاری خود را بالا ببرند.

اما اخیرا برخی از کاربران مدعی شده‌اند رفتار این بات، که قرار بوده زندگی مردم را راحت‌تر کند، گاهی اوقات گستاخانه به نظر می‌رسد.

به عنوان مثال، وبسایت سمافور گزارش داده که یک موسس استارتاپ از این بات خواسته تا روزهای هفته تا تاریخ پنجم ماه می‌را به صورت یک لیست نمایش دهد. اما چت‌جی‌بی‌تی در جواب این درخواست اعلام کرده که «درخواست‌های بلندبالا و خسته کننده» را انجام نمی‌دهد! وقتی بیزنس اینسایدر نیز از برنامه همین درخواست را کرده، چت‌جی‌بی‌تی علاوه بر معرفی شیوه محاسبه تعداد هفته از نهم ماه دسامبر تا پنجم ماه می، پاسخ دقیقی نیز به این درخواست ارائه کرده است. این نشان می‌دهد که مدل پاسخ دهی این بات، بر اساس شیوه درخواست کاربر ارائه می‌شود.

برخی از کاربران پلتفرم Reddit نیز مدعی شده‌اند که گاهی اوقات چت جی‌بی‌تی نمی‌تواند پاسخ درستی به درخواست‌های آنها ارائه دهد به خصوص در زمینه کد نویسی. بسیاری از کاربران معتقدند که کیفیت پاسخ‌ها به وضوح پایین‌تر امده و تمایل بیشتری به استفاده از نسخه اصلی مدل‌های جی‌بی‌تی دارند.

برخی از کاربران این مشکلات را به وجود باگ‌های نرم‌افزاری در این برنامه مربوط دانسته‌انداما شرکت اوپن‌ای‌آی اخیرا اعلام کرده که این موضوع همچنان در دست بررسی است. این شرکت در پست منتشر شده در پروفایل X توضیح داده که فرآیند یادگیری این بات باعث شده تا شخصیت‌های متفاوتی از این مدل ببینیم: «آموزش به مدل چت بات، یک روند و پروسه ساده و یکنواخت نیست. با وجود استفاده از یک منبع داده واحد، شیوه‌های مختلف آموزش باعث می‌شود مدل‌ها با شخصیت‌های مختلف ایجاد شوند مثلا در سبک نگارش یا امتناع از انجام برخی دستورها.»

منبع: businessinsider

برچسب هاتیتر منبع: آی تی ایران

منتشر شده

در دسته بندی

,

با عنایت به اینکه سایت «یلواستون» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع مطلب و کاربران است. (قانون تجارت الکترونیک)

یلواستون نقشی در تولید محتوای خبری ندارد و مطالب این سایت، بازنشر اخبار پایگاه‌های معتبر خبری است.