هشدار انگلیس به پرستاران درباره استفاده از چت‌بات‌های هوش مصنوعی

هشدار انگلیس به پرستاران درباره استفاده از چت‌بات‌های هوش مصنوعی
محققان در کشور انگلیس می‌گویند که پرستاران و مراقبان بهداشتی این کشور نباید مجاز به استفاده از «چت بات‌»‌های بدون مقررات هوش مصنوعی باشند و تاکید می‌کنند که انقلاب هوش مصنوعی نیازمند یک پیوست اخلاقی مستحکم است.
به گزارش ایتنا از ایرنا، یک مطالعه آزمایشی (پیلوت) توسط محققان در دانشگاه آکسفورد نشان داده است که برخی پرستاران این کشور برای تهیه طرح و برنامه مراقبتی از بیماران و سالمندان از چت‌بات‌های هوش مصنوعی مولد مانند «چت جی پی تی‌» و «بارد» استفاده کرده اند.
دکتر «کارولین گرین» از محققان حوزه اخلاق هوش مصنوعی در دانشگاه آکسفورد می‌گوید که این مساله یک خطر بالقوه برای حریم خصوصی بیماران است. وی گفت: اگر شما هر نوع از داده‌های خصوصی و شخصی را در داخل یک چت‌بات هوش مصنوعی مولد قرار دهید، آن داده‌ها برای آموزش دادن به مدل زبانی به کار می‌رود. آن داده‌های شخصی ممکن است تولید شده و برای شخص دیگری افشا شود.
وی خاطرنشان کرد که پرستاران و مراقبان ممکن است با اطلاعات اشتباه یا سوگیرانه کار کنند و بطور ناخواسته موجب وارد شدن لطماتی شوند. همچنین یک طرح مراقبتی مبتنی بر هوش مصنوعی ممکن است استاندارد نباشد.
این کارشناس در عین حال گفت: هوش مصنوعی ممکن است مزایای بالقوه‌ای هم داشته باشد اما در حال حاضر استفاده از آن را توصیه نمی‌کنم؛ هر چند سازمان‌هایی در حال کار برای ساختن وبسایت‌ها و اپ‌هایی هستند که دقیقا همین کار را انجام می‌دهند.
این در حالی است که هم اکنون نهادهای بهداشتی و مراقبتی از فناوری‌های بر پایه مدل های زبانی بزرگ استفاده می کنند. هر چند افراد شاغل در صنایع خلاقانه درباره احتمال جایگزین شدن آنها با هوش مصنوعی نگرانی دارند، در بخش مراقبت های اجتماعی حدود ۱.۶ میلیون نفر مشغول به کار هستند و ۱۵۲ هزار فرصت شغلی وجود دارد. همچنین ۵.۷ میلیون نفر نیز بطور رایگان از اقوام و خویشان و دوستان و همسایگان خود مراقبت می کنند.
اما برخی از مدیران این حوزه بیم دارند که استفاده از فناوری هوش مصنوعی ممکن است موجب شکستن ناخواسته مقررات و از دست دادن مجوز کاری آنها شود. مدیران این حوزه تاکید می کنند تا زمانی که نهادهای تنظیم مقررات (رگولاتوری) رهنمودهای لازم در این زمینه را صادر نکنند، بسیاری از سازمان‌ها هیچ کاری نخواهند کرد زیرا کار اشتباه تبعاتی خواهد داشت. منبع: ايتنا

منتشر شده

در دسته بندی

,

با عنایت به اینکه سایت «یلواستون» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع مطلب و کاربران است. (قانون تجارت الکترونیک)

یلواستون نقشی در تولید محتوای خبری ندارد و مطالب این سایت، بازنشر اخبار پایگاه‌های معتبر خبری است.