توییتر برنامه راستیآزمایی توسط کاربران را برای تصاویر ارائه کرد
پس از انتشار یک تصویر جعلی از وقوع انفجار در پنتاگون، حالا توییتر در تلاش است تا از انتشار تصاویر جعلی جلوگیری کند.
در روزهای اولیه ماه جاری، تصویری جعلی از وقوع انفجار در پنتاگون که ظاهراً توسط ابزارهای هوش مصنوعی ساخته شده بود، توسط یک حساب دارای تیک آبی منتشر شد. اکنون توییتر با وجود چنین مشکلاتی، برنامه راستیآزمایی خود را که در آن از کاربران کمک گرفته میشود، گسترش داده است تا با ویژگی جدیدی تحت عنوان Community Notes تصاویر را نیز شامل شود.
برنامه راستیآزمایی توییتر سال گذشته معرفی شد و کاربران از طریق آن میتوانند محتواهای بالقوه گمراهکننده این پلتفرم را مشخص کنند که با وجود آن، در زیر توییتها یادداشتهایی ظاهر میشود. اکنون توییتر قابلیت اضافهکردن یادداشتهای راستیآزمایی برای تصاویر را نیز در دسترس کاربران قرار داده است تا از این طریق و با وجود اطلاعاتی که در زیر هر تصویر نمایش داده میشود، تشخیص تصاویر جعلی و حتی مواردی که توسط هوش مصنوعی ساخته شدهاند، آسانتر شود.
تشخیص سادهتر تصاویر ساختهشده توسط هوش مصنوعی در توییتر
توییتر در اطلاعیه خود بهطور خاص به تصاویر تولیدشده توسط هوش مصنوعی اشاره کرده است که ترکیبی از محتواهای گمراهکننده، ترسناک و سرگرمکننده را تشکیل میدهند که بسیار سریع در این شبکه اجتماعی فراگیر میشوند. در پست وبلاگ این شرکت آمده است:
«هدف Community Notes ایجاد دنیایی آگاهتر از طریق توانمندسازی افراد در توییتر برای اضافهکردن زمینههای بیشتر به توییتهای بالقوه گمراهکننده است.»
درحالحاضر ویژگی Community Notes فقط به توییتهای دارای یک تصویر محدود شده است و نمیتوان آن را برای ویدیوها یا پستهایی که شامل چند تصویر میشود، اعمال کرد. بااینوجود، توییتر در توییت خود توضیح میدهد که برای برطرفکردن این کمبود مهم در تلاش است. بدونشک ویدیوهای تولیدشده توسط هوش مصنوعی نیز ازجمله محتواهای بالقوه خطرناک اینترنت محسوب میشوند که باید با انتشار و خبرسازشدن آنها مقابله کرد.
همچنین توییتر اشاره کرده که این ویژگی درحالحاضر «از نظر دقت» دارای نقصهایی است و احتمالاً در برخی موارد دچار اشتباه شود.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.