تشخیص ویدیوهای جعلی دیپفیک با الگوریتم جدید آنالیز چشم ممکن شد
محققان الگوریتمی ساختهاند که با بررسی بازتابهای درون چشم میتواند تصاویر واقعی را از تصاویر ساختهشده با فناوری دیپفیک تشخیص دهد. محققان دانشگاه بوفالو الگوریتمی برای شناسایی تصاویر دیپفیک توسعه دادهاند که از طریق آنالیز ...
محققان الگوریتمی ساختهاند که با بررسی بازتابهای درون چشم میتواند تصاویر واقعی را از تصاویر ساختهشده با فناوری دیپفیک تشخیص دهد.
محققان دانشگاه بوفالو الگوریتمی برای شناسایی تصاویر دیپفیک توسعه دادهاند که از طریق آنالیز بازتابهای درون چشم میتواند صحت و درستی تصاویر را بسنجد. این گروه که مطالعهشان در «کنفرانس بینالمللی IEE در زمینه آکوستیک، گفتار و پردازش سیگنال» پذیرفته شده، مدعیاند که این الگوریتم تا ۹۴ درصد در زمینه تشخیص تصاویر و ویدیوهای جعلی موفق عمل میکند.
علت توانایی این الگوریتم در شناسایی تصاویر جعلی بسیار ساده است؛ چون هوش مصنوعی در فناوری دیپفیک به هیچ عنوان در زمینه ساخت بازتابهای دقیق چشمی عملکرد خوبی ندارد. دکتر «سیوی لیو» (Siwei Lyu) از محققان این گروه میگوید: «قرنیه تقریبا مثل یک نیمکره بینقص و بسیار بازتابدهنده است. بنابراین هر نوری که از منابع مختلف به چشم میرسد، روی قرنیه تصویر میسازد.»
دکتر لیو افزود: «هر دو چشم باید الگوی بازتابش بسیار مشابهی داشته باشند چون یک سوژه را مشاهده میکنند. ما معمولا در هنگام نگاه کردن به چهره افراد متوجه این موضوع نمیشویم.» هوش مصنوعی دیپفیک نمیتوند بازتاب یکسانی در هر دو چشم ایجاد کند. اگر به تصویر زیر نگاه کنید، شاید خودتان هم متوجه تفاوت بازتابها در تصاویر ساختهشده توسط دیپفیک بشوید.
توسعه این الگوریتم بخشی از تلاش سیوی لیو برای جلب توجه مردم نسبت به اهمیت خلق ابزارهای تشخیص تصاویر دیپفیک است. هشدارهای او درباره این موضوع تا حدی بالا گرفت که لیو در سال ۲۰۱۹ به کنگره آمریکا رفت و پیرامون خطرات فناوری دیپفیک شهادت داد و درباره روشهای مقابله با آن صحبت کرد.
دکتر لیو در بیانیه خبری ساخت این الگوریتم گفت: «متاسفانه بخش عمده ویدیوهای جعلی موجود در حوزه پورنوگرافی ساخته شدهاند و این اتفاق صدمات روانی زیادی را به قربانیان وارد کرده است. [ولی] احتمال استفادههای سیاسی هم وجود دارد. [مثلا] یک ویدیوی جعلی که در آن سیاستمداران چیزی بگویند یا کاری انجام دهند که نباید انجام میدادند. این احتمال خطرناک است.»
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.