هشدار درباره توسعه تسلیحات بیولوژیکی با هوش مصنوعی

هشدار درباره توسعه تسلیحات بیولوژیکی با هوش مصنوعی

به گزارش خبرگزاری مهر به نقل از رویترز، داریو آمودی مدیر ارشد اجرایی شرکت هوش مصنوعی « آنتروپیک» در جلسه استماع کمیته زیر مجموعه کمیته قضایی سنا اعلام کرد هوش مصنوعی به مجرمان بدون مهارت کمک می کند تا اسلحه های بیولوژیکی بسازند.

آمودی که شرکتش برای تحقیق درباره ریسک های زیست شناختی مرتبط با هوش مصنوعی با کارشناسان امنیت زیستی همکاری کرده، در این باره گفت: گام های خاص در زمینه تولید اسلحه های زیستی شامل دانستنی هایی است که نمی توان در گوگل یا کتاب ها یافت و نیازمند سطح بالایی از خبرگی در این زمینه است. ما متوجه شدیم ابزارهای هوش مصنوعی امروز می توانند برخی از این گام ها را طی کنند.

به گفته آمودی هوش مصنوعی هنوز قادر نیست به تولید اسلحه بیولوژیکی کمک کند و در این زمینه ریسک متوسطی دارد. او افزود: در صورتیکه افراد زیادتری بتوانند حملات زیستی مقیاس وسیع انجام دهند، این امر تهدید بزرگی برای امنیت ملی آمریکا به حساب می آید.

ریچارد بلومنتال رییس زیر کمیته مذکور نیز در این باره هشدار داد. او گفت: کارشناسانی که این سیستم ها را می سازند درباره منسوخ شدن انسان ها هشدار می دهند. هدف این جلسه استماع ایجاد زمینه برای وضع قانون است.

جاش هاولی دیگر سناتور آمریکایی خواهان ایجاد اقدامات امنیتی شد که تضمین می کند فناوری جدید برای مردم آمریکا مفید است.

جلسه استماع در حالی برگزار شد که چندی قبل شرکت های هوش مصنوعی از جمله اوپن ای آی، آلفابت و متا پلتفرمز به طور داوطلبانه در کاخ سفید تعهد کردند تا اقداماتی مانند برچسب زدن روی محتوای تولیدی با هوش مصنوعی انجام دهند و به ایمن تر کردن این فناوری کمک کنند.

منبع: مهر

منتشر شده

در دسته بندی


با عنایت به اینکه سایت «یلواستون» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع مطلب و کاربران است. (قانون تجارت الکترونیک)

یلواستون نقشی در تولید محتوای خبری ندارد و مطالب این سایت، بازنشر اخبار پایگاه‌های معتبر خبری است.