گوگل از محققان خود خواسته تا در مقالات هوش مصنوعی از لحن مثبت استفاده کنند
گوگل نظارت بر مقالات علمی با موضوعات حساس شامل جنسیت، نژاد و ایدئولوژیهای سیاسی را افزایش داده است. غول موتورهای جستجو سیاست جدیدی برای بررسی «موضوعات حساس» در پیش گرفته و دستکم در سه مورد ...
گوگل نظارت بر مقالات علمی با موضوعات حساس شامل جنسیت، نژاد و ایدئولوژیهای سیاسی را افزایش داده است.
غول موتورهای جستجو سیاست جدیدی برای بررسی «موضوعات حساس» در پیش گرفته و دستکم در سه مورد از محققان خود خواسته تا در تحقیقات خود از لحن مثبت استاده کنند. رویترز اشاره میکند که گوگل حداقل به سه نفر از محققان خود گفته تا فناوریهای این شرکت را با لحن منفی معرفی نکنند.
گوگل با استفاده از سیاست جدید بررسی مقالات از محققان درخواست میکند تا پیش از تحقیق کردن در مورد موضوعاتی مثل تحلیل چهره و عواطف، دستهبندی نژاد، جنسیت یا ارتباطات سیاسی، با تیمهای حقوقی، سیاسی و روابط عمومی شرکت مشورت کنند.
جزئیات فوق از یکی از صفحات وبسایت گوگل که قوانین این شرکت را توضیح میدهد به دست آمده است. گوگل میگوید برخی پیشرفتها در حوزه فناوری شرایطی را بوجود آورده که در آن پروژههایی که غیرحساس تلقی میشدند مشکلات اخلاقی، حیثیتی، قانونی یا حقوقی به بار آوردهاند. این صفحه از وب سایت گوگل فاقد تاریخ است اما رویترز به نقل از کارکنان فعلی گوگل تاریخ شروع این سیاست را ماه ژوئن گزارش کرده است.
گوگل با اتخاذ سیاست بررسی موضوعات حساس، لایه دیگری به پروسه استاندارد بررسی مقالات علمی که شامل موارد احتیاطی دیگر از جمله جلوگیری از افشای اسرار تجاری میشود اضافه کرده است. این شرکت در برخی موارد در روند نگارش مقاله نیز دخالت کرده است. برای مثال مدیران ارشد این شرکت از محققانی که در حال مطالعه روی فناوری پیشنهاد محتوا بودهاند توصیه کردهاند تا «حتماً از لحن مثبت» در تحقیق خود استفاده کنند. محققان به دستور گوگل مجبور شدند مقاله خود را بروزرسانی کرده و تمام ارجاعات به محصولات گوگل را حذف کنند. در پیشنویس اصلی به یوتیوب اشاره شده بوده است.
سیاستهای جنجالبرانگیز گوگل در قبال محققان پس از اخراج ناگهانی Timnit Gebru زیر تیغ انتقادات رفت. این محقق رهبر یک تیم ۱۲ نفره بود که روی اخلاقیات در هوش مصنوعی کار میکردند. او مدعی شد به خاطر زیر سوال بردن دستور مدیران ارشد گوگل که او را از انتشار مقالهای منع کرده بودند اخراج شده است. Gebru در این مقاله مدعی شده بود که هوش مصنوعی با قابلیت تقلید گفتار میتواند سبب صدمه زدن به جوامع به حاشیهرانده شده (Marginalized) شود.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.