چگونه یک دیپ فیک را تشخیص دهیم؟ یک ترفند ساده تمام چیزی است که شما نیاز دارید
با توجه به اینکه مجرمان شروع به استفاده از فناوری ویدیوی دیپفیک برای جعل هویت در مصاحبههای شغلی آنلاین کردهاند، محققان امنیتی یک راه ساده را برای شناسایی یک دیپفیک برجسته کردهاند: فقط از فرد بخواهید صورت خود را به پهلو بچرخاند.
دلیل این امر بهعنوان یک بررسی احراز هویت مفید بالقوه این است که مدلهای هوش مصنوعی عمیق، اگرچه در بازآفرینی نماهای چهره افراد خوب هستند، اما در انجام نماهای جانبی یا نمایه مانند مواردی که ممکن است در یک لیوان ببینید خوب نیستند. شلیک کرد.
Metaphysics.ai بیثباتی ایجاد مجدد نمای کامل ۹۰ درجه را در ویدیوهای دیپفیک زنده برجسته میکند، و باعث میشود که بررسی نمایه جانبی یک روش ساده و مؤثر احراز هویت برای شرکتهایی باشد که مصاحبههای شغلی آنلاین مبتنی بر ویدیو را انجام میدهند.
دیپفیکها یا خلاقیتهای مصنوعی محتوای صوتی، تصویری و تصویری انسانها بهعنوان یک تهدید هویت بالقوه برای چندین سال در رادار قرار گرفتهاند.
با این حال، در ماه ژوئن، اداره فدرال تحقیقات هشدار داد که در کلاهبرداران با استفاده از صدا و ویدیوی دیپفیک افزایش یافته است هنگام شرکت در مصاحبه های شغلی آنلاین، که در همه گیری بیشتر مورد استفاده قرار گرفت. افبیآی خاطرنشان کرد که موقعیتهای خالی فناوری توسط نامزدهای دیپفیک مورد هدف قرار میگیرد، زیرا این نقشها به مهاجم اجازه میدهد به پایگاههای اطلاعاتی شرکت، دادههای مشتریان خصوصی و اطلاعات اختصاصی دسترسی داشته باشد.
افبیآی هشدار داد که شرکتکنندگان ویدیو میتوانند در زمانی که سرفه، عطسه یا صداهای دیگر با آنچه در ویدیو است مطابقت ندارد، یک صدا عمیق را تشخیص دهند. بررسی نمایه جانبی میتواند راهی سریع و آسان برای انسانها باشد تا قبل از شروع یک جلسه ویدیویی آنلاین بررسی کنند.
نوشتن برای Metaphsyics.ai، مارتین اندرسون جزئیات آزمایشات این شرکت. بسیاری از دیپ فیکهایی که ایجاد میکرد، آشکارا زمانی که سر به ۹۰ درجه رسید شکست خوردند و عناصری از نمایه جانبی واقعی شخص را آشکار کردند. بازآفرینی نمای نمایه به دلیل فقدان داده های آموزشی با کیفیت خوب در مورد نمایه با شکست مواجه می شود، که نیاز به مدل دیپ فیک برای اختراع یا “نقاشی” زیادی در مورد موارد گم شده دارد.
بخشی از مشکل این است که نرم افزار دیپ فیک برای بازسازی یک چهره نیاز به تشخیص نقاط عطف روی چهره افراد دارد. وقتی الگوریتمها روشن میشوند، فقط نیمی از نشانههای شاخص را در مقایسه با نمای جلو در دسترس دارند.
اندرسون اشاره میکند که ضعفهای عمده در استفاده از ویدیوی نمایه جانبی برای بازسازی چهره، محدودیتهای الگوریتمهای همترازی صورت مبتنی بر دوبعدی و فقدان آشکار دادههای نمایه برای اکثر افراد به جز ستارههای هالیوود است.
اندرسون با استدلال در مورد استفاده از نمایه جانبی برای احراز هویت در جلسات ویدیویی زنده، اشاره میکند که احتمالاً کمبود مداوم دادههای آموزشی نمای جانبی برای افراد عادی وجود خواهد داشت. تقاضای کمی برای عکسهای استوک از عکسهای سر پروفایل وجود دارد، زیرا چاپلوس نیستند، و هیچ انگیزهای برای عکاسان برای تهیه آنها وجود ندارد، زیرا بینش احساسی کمی نسبت به چهره ارائه میدهند.
«این کم بودن داده های موجود، دستیابی به طیف وسیعی از تصاویر نمایه را دشوار می کند غیراندرسون می نویسد: افراد مشهوری که به اندازه کافی متنوع و گسترده هستند تا یک مدل دیپ فیک را برای بازتولید نماهای نمایه قانع کننده آموزش دهند.
این ضعف در دیپ فیک، راه بالقوه ای برای کشف خبرنگاران شبیه سازی شده در تماس های ویدیویی زنده ارائه می دهد که اخیراً توسط FBI به عنوان یک خطر اضطراری طبقه بندی شده است: اگر مشکوک هستید که شخصی که با او صحبت می کنید ممکن است یک «کلون عمیق» باشد، شما می توانید از آنها بخواهید بیش از یک یا دو ثانیه به طرفین بپیچند و ببینند آیا هنوز از ظاهر آنها متقاعد شده اید یا خیر.
Sensity، سازنده نرمافزار تشخیص زندهگی و تشخیص عمیق جعلی، در ماه می گزارش شده است دریافت که 9 مورد از 10 سیستم تأیید بیومتریک به طور گسترده مورد استفاده در خدمات مالی برای انطباق با مشتری خود (KYC) مورد استفاده قرار می گیرند، به شدت در برابر حملات «تعویض چهره» عمیق جعلی آسیب پذیر هستند.
آزمایشهای متداول زندهگی که شامل نگاه کردن به دوربین روی یک دستگاه متصل میشود نیز به راحتی توسط دیپ فیک فریب خورده است. در تست های زنده گی فرد باید سر خود را به چپ و راست حرکت داده و لبخند بزند. دیپفیکهایی که Sensity استفاده کردند شامل این بود که کلاهبردار بالقوه سر خود را به چپ و راست حرکت میداد، اما ویدیو آنها را نشان می دهد قبل از اینکه به 90 درجه برسد، چرخش سر خود را متوقف کنید.
مدیر عامل و دانشمند ارشد Sensity جورجیو پاترینی به Metaphysic.ai تأیید کرد که از نمای کامل 90 درجه در آزمایشات خود استفاده نکرده اند.
“نماهای جانبی از چهره افراد، زمانی که به عنوان نوعی تأیید هویت استفاده می شود، ممکن است در واقع محافظت بیشتری در برابر دیپ فیک ایجاد کند. همانطور که اشاره شد، فقدان داده های نمای پروفایل به طور گسترده در دسترس، آموزش آشکارساز دیپ فیک را بسیار چالش برانگیز می کند.”
یکی دیگر از راه های مفید برای جغجغه کردن یک مدل دیپ فیک زنده این است که از شرکت کننده ویدیو بخواهید که دستان خود را جلوی صورت خود تکان دهد. این مدل را مختل می کند و مشکلات تأخیر و کیفیت را با روی هم قرار دادن چهره دیپ فیک نشان می دهد.
لینک منبع