ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

MediFor
تکنولوژی

پروژه جدید دارپا تصاویر و ویدئوهای تحریف شده را شناسایی می کند

آژانس پروژه‌های تحقیقاتی پیشرفتهٔ دفاعی (DARPA) به منظور مقابله با اخبار و محتوای جعلی از پروژه ای مشترک با گروه تحقیقاتی استنفورد (SRI International) خبر داده است. دارپا در قالب پروژه MediFor در حال توسعه ابزارهایی است ...

یونس مرادی
نوشته شده توسط یونس مرادی | ۱۳ اردیبهشت ۱۳۹۷ | ۰۸:۳۰

آژانس پروژه‌های تحقیقاتی پیشرفتهٔ دفاعی (DARPA) به منظور مقابله با اخبار و محتوای جعلی از پروژه ای مشترک با گروه تحقیقاتی استنفورد (SRI International) خبر داده است.

دارپا در قالب پروژه MediFor در حال توسعه ابزارهایی است که قابلیت شناسایی ویدئو یا تصویری که به منظور گمراه سازی مخاطب به صورت معناداری تغییر کرده، را دارد.

یکی از مشهورترین روش های تحریف محتوا «deepfake» نام دارد که در آن چهره یک شخص مشهور در قالب ویدیویی دیگر قرار داده می شود. نرم افزارهای مورد استفاده در این روش اغلب ارزان قیمت هستند، با این حال ابزارهای تجزیه و تحلیل فعلی قابلیت شناسایی بخش های تحریف شده را ندارند.

دارپا در بیانیه خود مدعی شده که MediFor با بهره گیری از محققان تراز اول، فناوری هایی را برای ارزیابی خودکار صحت تصاویر و ویدئو ها توسعه می دهد. این ابزارها جزئیات دقیقی را از چگونگی و میزان تحریف محتوا ارائه می کنند.MediForتوسعه پروژه MediFor از 2015 شروع شده و احتمالا نهایی سازی آن تا سال 2020 طول بکشد. این گروه تحقیقاتی برای شناسایی تحریف صوتی یا تصویری ویدئوهای مشکوک روی چهار تکنیک تناقض در صحنه مثل مساحت اتاق یا اکوی صوت، عدم هماهنگی حرکات لب و صدا، شناسایی فریم های حذف شده یا تزریق محتوا استفاده می کنند.

در آزمایشی که قبلا با استفاده از این سیستم روی صدها ویدئو صورت گرفته، محتوای تحریف شده با دقت 75 درصد شناسایی شده است.

یکی از محققان موسسه استنفورد درباره خطرات ویدئوهای غیرواقعی می گوید:

در آینده نزدیک و با پیشرفت تکنیک های تحریف ویدئو و یا حتی تولید محتوای ساختگی، هکرها و کاربران عادی قادر به تولید فیلم هایی از افراد هستند که آنها را حین انجام دادن کاری نشان می دهد که روحشان هم از آن خبر ندارد.

از دیگر خطرات ویدئوهای ساختگی می توان به تاثیرگذاری روی دیدگاه های عموم مردم اشاره کرد؛ با این حال پیاده سازی پروژه هایی نظیر MediFor می تواند تا حدودی با این خرابکاری ها مقابله کند.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (1 مورد)
  • Amirhossein
    Amirhossein | ۱۳ اردیبهشت ۱۳۹۷

    . . . . . آنها را درحال انجام کاری نشان می‌دهد که حتی روحشان هم از آن خبر ندارد !!!???

    دقیقا معلوم شد که هدفشون فقط یه چیز بوده ......??

مطالب پیشنهادی