توافقنامه غولهای فناوری برای جلوگیری از انتشار دیپفیکهای انتخاباتی معرفی شد
OpenAI، گوگل، متا، آمازون، ادوبی و ایکس ازجمله شرکتهای امضاکننده این طرح هستند.
20 شرکت حوزه فناوری توافقنامه جدیدی را امضا کردهاند که هدف آن جلوگیری از انتشار دیپفیکهای هوش مصنوعی مربوط به انتخابات سال 2024 است که در بیش از 40 کشور جهان برگزار میشود. OpenAI، گوگل، متا، آمازون، ادوبی و ایکس ازجمله شرکتهای امضاکننده این طرح هستند.
فهرست غولهایی که «توافق فناوری برای مبارزه با استفاده فریبنده از هوش مصنوعی در انتخابات 2024» را امضا کردهاند، شامل شرکتهایی میشود که سازنده و توزیعکننده مدلهای هوش مصنوعی هستند. شبکههای اجتماعی که احتمال انتشار دیپفیکها در آنها وجود دارد نیز جزو این شرکتها هستند.
تعهدات اصلی مربوط به مقابله با دیپفیکهای انتخابات 2024
از این توافق بهعنوان «مجموعهای از تعهدات برای استقرار فناوری مقابله با محتوای مضر تولیدشده توسط هوش مصنوعی با هدف فریب رأیدهندگان» یاد شده است. شرکتهای امضاکننده آن با هشت تعهد زیر موافقت کردهاند:
- توسعه و اجرای فناوری برای کاهش خطرات مربوط به محتوای انتخاباتی فریبنده هوش مصنوعی، ازجمله ابزارهای متنباز
- ارزیابی مدلها در محدوده این توافقنامه برای درک خطراتی که ممکن است در مورد محتوای انتخابی فریبنده هوش مصنوعی ایجاد کنند
- شناسایی توزیعکنندگان این محتواها
- رسیدگی مناسب به محتواهای شناساییشده
- تقویت انعطافپذیری بینصنعتی در برابر محتوای انتخاباتی فریبنده هوش مصنوعی
- ارائه شفافیت برای عموم در مورد نحوه برخورد شرکت با این دسته از محتوا
- ادامه همکاری با مجموعه متنوعی از سازمانهای جامعه مدنی جهانی و دانشگاهیان
- حمایت از تلاشها برای تقویت آگاهی عمومی، سواد رسانهای و تابآوری کل جامعه
در این توافق، محتوایی اهمیت دارد که «ظاهر، صدا یا عملکرد نامزدهای سیاسی، مقامات انتخاباتی و سایر مشارکتکنندگان کلیدی در یک انتخابات دموکراتیک را بهطور فریبندهای جعل یا تغییر میدهند یا اطلاعات نادرستی در مورد زمان، مکان و نحوه رأیدادن ارائه میکنند.»
«برد اسمیت»، رئیس مایکروسافت، ازجمله مدیرانی است که بیانیه مطبوعاتی درباره این توافق منتشر کرده و گفته است:
«از آنجایی که جامعه از مزایای هوش مصنوعی استقبال میکند، ما مسئولیت داریم تا اطمینان حاصل کنیم که این ابزارها در انتخابات به سلاح تبدیل نمیشوند. هوش مصنوعی باعث فریب انتخاباتی نمیشود، اما باید اطمینان حاصل کنیم که به فریبدادن کمک نمیکند.»
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.