دیجیاتو خبرنگار استخدام می‌کند

محققان الگوریتمی برای تشخیص ویدیوهای دیپ فیک توسعه دادند

سرعت رشد و کیفیت بالای ویدیوهای دیپ‌فیک در دنیا آنقدر زیاد شده که می‌تواند این تکنولوژی را به کابوسی برای سیاستمداران، سلبریتی‌ها و افراد مشهور تبدیل کند. با این حال محققان با استفاده از نقاط ضعف تکنیک‌های فعلی دیپ‌فیک توانسته‌اند ابزاری توسعه دهند تا به صورت خودکار ویدیوهای دیپ‌فیک را از نسخه واقعی تشخیص دهد.

دیپ‌فیک‌ها در حال حاضر به هیچ‌وجه کامل و بی عیب و نقص نیستند. این ویدیوها که با استفاده از کتابخانه بزرگی از عکس‌ها و تصاویر موجود در اینترنت ساخته می‌شوند، عموما کیفیت پایینی دارند که باعث می‌شود نقص‌ها و حرکات غیر طبیعی در آن‌ها کمتر مورد توجه قرار بگیرد.

محققان دانشگاه یوسی برکلی و دانشگاه کالیفرنیای جنوبی معتقدند که موفق به توسعه سلاحی برای مبارزه یا حداقل تشخیص ویدیوهای دیپ‌فیک شده‌اند. در این متد آن‌ها هوش مصنوعی را به گونه‌ای تعلیم داده‌اند که بتواند امضای «بیومتریک نرم» هر شخص را تشخیص دهد.

دیپ‌فیک

با اینکه این موضوع ممکن است پیچیده به نظر برسد اما هرکدام از ما در هنگام حرف زدن حرکات کوچک و منحصربفردی از خودمان نشان می‌دهیم که به صورت ناخودآگاه انجام می‌شود و ما هنگام حرف زدن اشخاص احتمالا متوجه این حرکات نمی‌شویم. به هرحال الگوریتم‌های فعلی دیپ‌فیک این حرکات ظریف را مدنظر قرار نمی‌دهند.

الگوریتمی که محققان برای تشخیص ویدیوهای دیپ‌فیک توسعه داده‌اند در 92 درصد آزمایشات توانسته موفق عمل کند و دیپ‌فیک‌ها را شناسایی کند. قدم بعدی محققان پروژه این است که هوش مصنوعی را با استفاده از مشخصات و پارامترهای منحصربفرد در صدای اشخاص تعلیم داده و آن را بهبود ببخشند.

به هرحال دیپ‌فیک‌ها روز به روز در حال پیشرفت هستند و ساخت الگوریتمی که بتواند متدهای مختلف جعل ویدیو را شناسایی کند چالش بزرگی است.

منبع:
gizmodo
برچسب ها

مطالب مرتبط

ویدیو‌های دیپ فیک تا ۶ ماه آینده غیر قابل تشخیص می‌شوند [تماشا کنید]

ویدیو‌های دیپ فیک ویدیو‌های تقلبیی هستند که توسط هوش مصنوعی درست می‌شوند. این ویدیو‌ها با کمک یادگیری ماشین می‌توانند رویداد‌هایی که اصلا اتفاق نیفتاده است را به وجود بیاورند؛ یا شخصصیت‌های معروف را وادار به گفتن حرف‌هایی کنند که هیچ وقت گفته نشده است. حال تصور کنید این قابلیت در دسترس همگان قرار گیرد؛ احتمالا... ادامه مطلب

دیپ فیک بسیار طبیعی از 20 سلبریتی [تماشا کنید]

«جیم میسکیمن» (Jim Meskimen)، استند آپ کمدین و مقلد صدای آمریکایی که در کارنامه وی گویندگی در آثاری همچون «لیگ عدالت» و «بتمن: شوالیه گاتهام» به چشم می خورد، یک ویدیوی دیپ فیک منتشر کرده و در آن ادای بیست سلبریتی را در می آورد.کمدین مذکور به لطف تکنولوژی دیپ فیک به تقلید صدا از... ادامه مطلب

انتشار ویدیوی دیپ‌فیک مارک زاکربرگ در اینستاگرام [تماشا کنید]

در پی گسترده شدن استفاده از دیپ‌فیک برای خلق ویدیوهای ساختگی از شخصیت‌های معروف، این بار نوبت به مارک زاکربرگ بنیانگذار و مدیر فیس‌بوک رسیده تا سوژه قرار بگیرد.دو هنرمند به نام‌های «بیل پاسترز» و «دنیل هوی» خالق این ویدیو هستند. آن‌ها از ویدیوی بیانیه زاکربرگ در سال 2017 که در مورد دخالت روسیه در انتخابات... ادامه مطلب

جنجال اپ تغییر چهره Zao به دلیل نقض حریم شخصی کاربران

سازندگان اپ تغییر چهره «Zao» به دلیل نقض حریم شخصی میلیون ها کاربر زیر تیغ انتقادات قرار گرفته اند.هفته گذشته یک توسعه دهنده چینی به نام «Momo» از اپلیکیشن تغییر چهره خود به نام «Zao» رونمایی کرد. کاربر می تواند در این اپ چهره خود را با صورت اشخاص درون فیلم یا عکس جا به... ادامه مطلب

تشخیص دیپ فیک به کمک شبکه عمیق عصبی

دیپ فیک احتمالاً به گوشتان خورده است؛ تصاویر و ویدیوهایی ساختگی که در آن ها افراد چیزهایی می گویند یا کارهای انجام می دهند که در دنیای واقعی هیچ گاه اتفاق نیفتاده است. این تکنولوژی ممکن است به زودی تبدیل به یک معضل جدی شود، به همین منظور یک شبکه عمیق عصبی آزمایشی طراحی شده... ادامه مطلب

نظرات ۱

وارد شوید

برای گفتگو با کاربران، وارد حساب کاربری خود شوید.

ورود
x