فناوری جعل عمیق ۲۵ میلیون دلار خرج روی دست کارمند هنگ‌کنگی گذاشت!

فناوری جعل عمیق ۲۵ میلیون دلار خرج روی دست کارمند هنگ‌کنگی گذاشت!
پلیس هنگ‌ کنگ گفته است سارقان در این کلاهبرداری پیچیده، به عنوان «مدیر مالی» با کارمند تماس برقرار کرده و صحنه ویدئوکنفرانس را طوری چیده بودند که گویی چند نفر دیگر از کارکنان شرکت نیز در جلسه حضور دارند. در حالی که تمامی افراد در جلسه از طریق فناوری جعل عمیق درست شده بودند و واقعی نبودند.
به گفته مقامات پلیس شخص کارمند در ابتدا به پیامی که ظاهراً از طرف مدیر ارشد مالی شرکت، مستقر در بریتانیا، فرستاده شده بود شک کرده بود. اوتصور کرده بود که این یک ایمیل فیشینگ است، زیرا در مورد نیاز به انجام یک تراکنش مخفی صحبت می‌کرد.
با این حال این کارمند شک و تردیدهای اولیه خود را پس از برقراری تماس ویدیویی کنار گذاشت، زیرا سایر افراد حاضر در جلسه دقیقاً شبیه همکارانی بودند که او می‌شناخت. این فرد با اعتقاد به اینکه همه اشخاص حاضر در تماس واقعی هستند، موافقت کرد که در مجموع ۲۰۰ میلیون دلار هنگ کنگ (حدود ۲۵.۶ میلیون دلار آمریکا) پرداخت کند.
کلاهبرداری مربوط به مدیر مالی جعلی تنها زمانی کشف شد که کارمند بعداً با دفتر مرکزی شرکت صحت درخواست‌های مالی را چک کرد. پلیس هنگ کنگ نام شرکت و کارمند را فاش نکرده است.
این پرونده تازه‌ترین مورد از چندین کلاهبرداری مشابه اخیر است که در آن‌ها گمان می‌رود سارقان از فناوری جعل عمیق برای اصلاح ویدیوهای در دسترس عموم و سایر فیلم‌ها برای فریب دادن افراد استفاده کرده باشند.

ویدئو‌های جعل عمیق ویدئوهایی هستند که در آن‌ها با استفاده از نرم‌افزارهای مبتنی بر هوش مصنوعی تصاویر به نحوی تغییر داده می‌شوند که گویی فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آن‌ها را انجام نداده است. فناوری جعل عمیق در دستکاری در دنیای ویدئو را می‌توان تقریبا به فتوشاپ در دنیای عکس تشبیه کرد.
پلیس هنگ کنگ در یک کنفرانس مطبوعاتی در روز جمعه گفت که شش نفر را در ارتباط با چنین کلاهبرداری‌هایی دستگیر کرده است.
به گفته مقامات، کلاهبرداران از هشت کارت شناسایی دزدیده شده در هنگ کنگ برای ثبت ۹۰ درخواست وام و تقاضای افتتاح ۵۴ حساب بانکی بین ژوئیه تا سپتامبر سال گذشته استفاده کرده‌اند. همچنین دستکم در ۲۰ مورد از جعل عمیق‌ جهت فریب برنامه‌های تشخیص چهره، با بهره‌گیری از تصاویر کارت شناسایی افراد، استفاده شده است.
در سال‌های اخیر نگرانی‌های فزاینده‌ای در کشورها از بابت پیچیدگی‌های فناوری جعل عمیق و استفاده‌های نادرست از آن ایجاد شده است.
در اواخر ماه گذشته پخش تصاویر پورنوگرافیک از تیلور سوئیفت ستاره پاپ آمریکایی که توسط هوش مصنوعی تولید شده بود، باعث بالا گرفتن بحث‌ها درباره پتانسیل آسیب‌رسان فناوری‌های مبتنی بر هوش مصنوعی شد. منبع: ايتنا

منتشر شده

در دسته بندی

,

با عنایت به اینکه سایت «یلواستون» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع مطلب و کاربران است. (قانون تجارت الکترونیک)

یلواستون نقشی در تولید محتوای خبری ندارد و مطالب این سایت، بازنشر اخبار پایگاه‌های معتبر خبری است.