ترس از استفاده از هوش مصنوعی برای ساخت سلاح‌های بیولوژیکی

ترس از استفاده از هوش مصنوعی برای ساخت سلاح‌های بیولوژیکی
مطالعه‌ای که توسط OpenAI، خالق مدل Chat GPT انجام شد، ترس از سوءاستفاده از فناوری هوش مصنوعی برای ساخت سلاح های بیولوژیکی را آشکار کرد.
هدف از این مطالعه ارزیابی این ابهام بود که آیا آخرین نسخه چت بات، GPT-4، دقت و کامل بودن را در برنامه ریزی سناریوهای تهدید بیولوژیکی به طور قابل توجهی افزایش می دهد یا نه.
برخلاف هشدارهای قبلی قانون‌گذاران و دانشمندان، تحقیقات OpenAI نشان می‌دهد که تأثیر تغییرات این مدل به اندازه‌ای قابل توجه نیست که تهدیدی مستقیم باشد.
این مطالعه شامل 100 شرکت‌کننده انسانی، از جمله 50 متخصص زیست‌شناسی با مدرک دکترا و 50 دانشجوی کارشناسی با دانش پایه در زیست‌شناسی بود. شرکت کنندگان به دو زیرگروه تقسیم شدند: یکی بر اساس جستجوهای اینترنتی، و دیگری با استفاده از ChatGPT-4، علاوه بر اینترنت.
معیارهای مطالعه
این مطالعه بر پنج معیار اصلی شامل دقت، کامل بودن، نوآوری، کارایی زمانی و دشواری کار متمرکز بود و تجزیه و تحلیل پنج فرآیند تهدید بیولوژیکی را شامل می‌شد: تولید ایده‌هایی برای سلاح‌های بیولوژیکی، به‌دست آوردن آنها، انتشار آنها، ایجاد آنها و انتشار آنها در عموم.
گزارش OpenAI بر نیاز به تحقیقات بیشتر تاکید کرد و اذعان کرد که اندازه مطالعه از نظر آماری معنی‌دار نیست، بر اهمیت شناسایی آستانه‌های عملکردی که نشان‌دهنده افزایش قابل‌توجه در خطر است، تاکید کرد و روشن کرد که دسترسی به اطلاعات به تنهایی برای ایجاد یک بیولوژیکی کافی نیست. تهدید.
این مطالعه نشان داد که شرکت‌کنندگانی که از ChatGPT-4 استفاده می‌کردند، نسبت به افرادی که صرفاً به جستجوهای آنلاین اعتماد می‌کردند، تنها یک مزیت حاشیه‌ای داشتند، با نتایجی که در مقیاس 10 درجه‌ای اندازه‌گیری شد، که نشان‌دهنده افزایش جزئی در دقت و کامل بودن برای کاربران Chatbot بود.
خطرات آینده
در حالی که این مطالعه خطرات احتمالی آینده بهره برداری از فناوری هوش مصنوعی برای اهداف مخرب را رد نکرد، OpenAI تاکید کرد که نتایج فعلی هیچ تهدید فوری را نشان نمی دهد.
این گزارش تاکید کرد که این یافته‌ها با تحقیقات قبلی که نشان می‌دهد چت‌بات‌های مبتنی بر هوش مصنوعی، از جمله مدل‌های زبان بزرگ(LLM) می‌توانند برنامه‌ریزی حملات سلاح‌های زیستی را تسهیل کنند، تناقض دارد.
این مطالعه به این نتیجه رسید که برای درک بهتر خطرات بالقوه مرتبط با فناوری‌های هوش مصنوعی، نیاز فوری به تحقیقات بیشتر در این زمینه وجود دارد.
در پاسخ به نگرانی‌های فزاینده، قانون‌گذاران، از جمله جو بایدن، رئیس‌جمهور آمریکا، اقداماتی را برای رسیدگی به خطرات احتمالی ناشی از سیستم‌های هوش مصنوعی پیشرفته انجام داده‌اند و یک فرمان اجرایی را امضا کرده‌اند که بر توسعه ابزارهایی برای ارزیابی قابلیت‌های هوش مصنوعی و ارزیابی تهدیدات مرتبط با هسته‌ای، عدم اشاعه، و بیولوژیکی و بیولوژیکی متمرکز است. منبع: ايتنا

منتشر شده

در دسته بندی

,

با عنایت به اینکه سایت «یلواستون» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع مطلب و کاربران است. (قانون تجارت الکترونیک)

یلواستون نقشی در تولید محتوای خبری ندارد و مطالب این سایت، بازنشر اخبار پایگاه‌های معتبر خبری است.