تشخیص دیپ فیک به کمک شبکه عمیق عصبی
دیپ فیک احتمالاً به گوشتان خورده است؛ تصاویر و ویدیوهایی ساختگی که در آن ها افراد چیزهایی می گویند یا کارهای انجام می دهند که در دنیای واقعی هیچ گاه اتفاق نیفتاده است. این تکنولوژی ...
دیپ فیک احتمالاً به گوشتان خورده است؛ تصاویر و ویدیوهایی ساختگی که در آن ها افراد چیزهایی می گویند یا کارهای انجام می دهند که در دنیای واقعی هیچ گاه اتفاق نیفتاده است. این تکنولوژی ممکن است به زودی تبدیل به یک معضل جدی شود، به همین منظور یک شبکه عمیق عصبی آزمایشی طراحی شده که قادر به تشخیص دیپ فیک است.
تیمی به رهبری پروفسور «Amit K. Roy-Chowdhury» از دانشگاه کالیفرنیا کارشان را با یک دیتاست بزرگ از تصاویر واقعی و ساختگی شروع کردند. محققان می دانستند کدام تصاویر واقعی اند و کدام نیستند، در نتیجه شروع به علامت گذاری یک به یک آن ها کردند.
دقت این سیستم در تشخیص دیپ فیک هیچ گاه صد در صد نخواهد بود
در تصاویر دستکاری شده، آن ها به علامت گذاری پیکسل های اطراف جسمی پرداختند که به طور دیجیتالی به تصویر اضافه شده بود. در تحقیقات قبلی مشخص شده بود لبه های اجسام تقلبی در تصاویر نسبت به آن هایی که واقعا در صحنه وجود داشته اند نرم ترند. با این که چنین تفاوتی با چشم انسان قابل مشاهده نیست، مقایسه پیکسل به پیکسل آن ها توسط کامپیوتر اختلافات را مشخص خواهد کرد.
سپس شبکه عمیق عصبی اطلاعات طبقه بندی شده را مورد بررسی قرار داد، شبکه ای که الگوریتم هایش بر اساس مغز انسان مدل سازی شده بود و به دنبال الگوهای مشابه در اطلاعات خام می گشت. با استفاده از این تصاویر، سیستم یاد گرفت مرز اجسامی که به شکل دیجیتالی به تصویر اضافه شده بودند را تشخیص دهد. هنگامی که به آن تصاویری جدید نشان دادند که قبلا مشاهده نکرده بود نیز در اکثر مواقع موفق به تشخیص دیپ فیک شد.
با اینکه این سیستم فعلا تنها برای تشخیص عکس ها کاربرد دارد، تیم تحقیقاتی تلاش دارد آن را برای تشخیص ویدیوها نیز بهینه کند. البته به احتمال زیاد در آن صورت نیز شبکه عمیق عصبی به بررسی تک تک فریم ها خواهد پرداخت. با این حال، احتمالاً دقت این تکنولوژی هیچ گاه صد در صد نخواهد بود و نهایتا برای تشخیص تصاویر مشکوک استفاده خواهد شد و بررسی نهایی به انسان ها سپرده می شود.
«Roy-Chowdhury» می گوید: «اگر بخواهید به بررسی تمام تصاویر موجود در اینترنت بپردازید، انسان قادر به مشاهده تمام آن ها نخواهد بود و ماشین نیز نمی تواند با دقت کامل این کار را انجام دهد، در نتیجه به همکاری هردو نیازمندیم.»
نتیجه این تحقیق در نشریه IEEE منتشر شده است.
دیدگاهها و نظرات خود را بنویسید
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.
از همین میشه برا تقویت دیپ فیک و واقعی تر شدنش استفاده کرده،بع این صورت سیستم یادگیری عصبی بیاد انقدر اموزش ببیته تا این الگوریتم فیک بودنش رو تشخیص نده،تو اون مرحله تصاویر کیفیت زیادی هم خواهند داشت
کاشکی یه سیستمی طراحی میکردن برای دروغ سنجی در حین حرف زدن خیلی به درد می خوره.ما توی ایران خیلی بهش نیاز داریم برای مواقعی که مقامات ایران شروع می کنن به اراجیف گفتن.البته ما خودمون توی دروغ سنجی خیلی حرفه ای شدیم