
هوش مصنوعی متا حاشیهساز شد؛ اشاره به گفتگو «رمانتیک یا حسی» با کودکان
متا میگوید اکنون این دستورالعملها را اصلاح و مشکل را برطرف کرده است.

خبرگزاری رویترز با استناد به یک سند داخلی متا گزارش داده که در دستورالعملهای چتباتهای هوش مصنوعی این شرکت، مثالهایی از رفتارهای مجاز آمده که شامل گفتوگوهای «رمانتیک یا حسی» با کودکان بوده است. متا اصالت این سند را تأیید کرده اما گفته بخشهای نگرانکننده را حذف کرده است.
به گزارش رویترز، این سند که به سیاستهای متا در قبال چتباتهای هوش مصنوعی مربوط میشود، علاوه بر «Meta AI» شامل رباتهای مشابه در فیسبوک، واتساپ و اینستاگرام نیز میشود. در این دستورالعمل میان گفتگوهای «رمانتیک یا حسّی» و گفتوگوهایی که شامل «اقدامات جنسی» یا توصیف جذابیت جنسی کاربران زیر 13 سال میشود، تفکیک قائل شده است.

متا در پاسخ به وبسایت Engadget گفته است مثالهای ذکر شده در این سند، یادداشتها و حاشیهنویسیهای اشتباه بوده و سیاست رسمی شرکت محسوب نمیشوند.
نگرانیهای مربوط به هوش مصنوعی متا
بااینحال، این یادداشتها شامل مواردی بوده که به گفته منتقدان نگرانکننده است. از جمله این یادداشتها به توصیف ظاهر یک کودک هشت ساله بهعنوان «اثر هنری» یا پاسخهای عاشقانه به یک دانشآموز دبیرستانی اشاره شده است. در بخش دیگری از سند نیز نمونههایی از پاسخهای غیرقابلقبول ارائه شده که به توصیف ماهیت جنسی کودکان یا بیان صریح اقدامات جنسی با آنها میپردازد.
این سند در حوزه نژاد نیز موارد بحثبرانگیزی داشته است. در بخشی از یادداشتها آمده که پاسخ به درخواست کاربر برای استدلال درباره «کمهوشتر بودن سیاهپوستان نسبت به سفیدپوستان» مجاز است، به شرطی که این پاسخ شامل اهانت غیرانسانی مانند «میمونهای بیمغز» نباشد.
رویترز در گزارش خود میگوید که این سند با تأیید تیمهای حقوقی، سیاستگذاری عمومی و مهندسی متا تهیه شده و حتی رئیس بخش اخلاق شرکت نیز در آن مشارکت داشته است.

متا درباره این گزارش بیانیهای به وبسایت Engadget ارسال کرد و گفت:
«ما سیاستهای مشخصی درباره نوع پاسخهایی که شخصیتهای هوش مصنوعی میتوانند ارائه کنند داریم و این سیاستها محتوای جنسیسازی کودکان و نقشآفرینی جنسی میان بزرگسالان و افراد خردسال را ممنوع میکند. جدا از سیاستها، صدها مثال، یادداشت و حاشیهنویسی وجود دارد که نشاندهنده تلاش تیمها برای بررسی سناریوهای فرضی مختلف است. مثالها و یادداشتهای مورد بحث اشتباه بوده، با سیاستهای ما همخوانی نداشته و حذف شدهاند.»
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.