ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

تکنولوژی

تشخیص ویدیوهای جعلی دیپ‌فیک با الگوریتم جدید آنالیز چشم ممکن شد

محققان الگوریتمی ساخته‌اند که با بررسی بازتاب‌های درون چشم می‌تواند تصاویر واقعی را از تصاویر ساخته‌شده با فناوری دیپ‌فیک تشخیص دهد. محققان دانشگاه بوفالو الگوریتمی برای شناسایی تصاویر دیپ‌فیک توسعه داده‌اند که از طریق آنالیز ...

محققان الگوریتمی ساخته‌اند که با بررسی بازتاب‌های درون چشم می‌تواند تصاویر واقعی را از تصاویر ساخته‌شده با فناوری دیپ‌فیک تشخیص دهد.

محققان دانشگاه بوفالو الگوریتمی برای شناسایی تصاویر دیپ‌فیک توسعه داده‌اند که از طریق آنالیز بازتاب‌های درون چشم می‌تواند صحت و درستی تصاویر را بسنجد. این گروه که مطالعه‌شان در «کنفرانس بین‌المللی IEE در زمینه آکوستیک، گفتار و پردازش سیگنال» پذیرفته شده، مدعی‌اند که این الگوریتم تا ۹۴ درصد در زمینه تشخیص تصاویر و ویدیوهای جعلی موفق عمل می‌کند.

علت توانایی این الگوریتم در شناسایی تصاویر جعلی بسیار ساده است؛ چون هوش مصنوعی در فناوری دیپ‌فیک به هیچ عنوان در زمینه ساخت بازتاب‌های دقیق چشمی عملکرد خوبی ندارد. دکتر «سیوی لیو» (Siwei Lyu) از محققان این گروه می‌گوید: «قرنیه تقریبا مثل یک نیم‌کره بی‌نقص و بسیار بازتاب‌دهنده است. بنابراین هر نوری که از منابع مختلف به چشم می‌رسد، روی قرنیه تصویر می‌سازد.»

دکتر لیو افزود: «هر دو چشم باید الگوی بازتابش بسیار مشابهی داشته باشند چون یک سوژه را مشاهده می‌کنند. ما معمولا در هنگام نگاه کردن به چهره افراد متوجه این موضوع نمی‌شویم.» هوش مصنوعی دیپ‌فیک نمی‌توند بازتاب یکسانی در هر دو چشم ایجاد کند. اگر به تصویر زیر نگاه کنید، شاید خودتان هم متوجه تفاوت بازتاب‌ها در تصاویر ساخته‌شده توسط دیپ‌فیک بشوید.

توسعه این الگوریتم بخشی از تلاش سیوی لیو برای جلب توجه مردم نسبت به اهمیت خلق ابزارهای تشخیص تصاویر دیپ‌فیک است. هشدارهای او درباره این موضوع تا حدی بالا گرفت که لیو در سال ۲۰۱۹ به کنگره آمریکا رفت و پیرامون خطرات فناوری دیپ‌فیک شهادت داد و درباره روش‌های مقابله با آن صحبت کرد.

دکتر لیو در بیانیه خبری ساخت این الگوریتم گفت: «متاسفانه بخش عمده ویدیوهای جعلی موجود در حوزه پورنوگرافی ساخته شده‌اند و این اتفاق صدمات روانی زیادی را به قربانیان وارد کرده است. [ولی] احتمال استفاده‌های سیاسی هم وجود دارد. [مثلا] یک ویدیوی جعلی که در آن سیاست‌مداران چیزی بگویند یا کاری انجام دهند که نباید انجام می‌دادند. این احتمال خطرناک است.»

دیدگاه‌ها و نظرات خود را بنویسید

مطالب پیشنهادی