دستیارهای صوتی همچون سیری و کورتانا باعث تشویق تفکر جنسیتزده میشوند
بر اساس گزارشی که اخیرا توسط توسط نهادهای تحقیقاتی، آموزشی و فرهنگی سازمان ملل منتشر شده است، دستیارهای صوتی توسعه داده شده توسط شرکتهایی همچون آمازون، گوگل، اپل و ... جهتگیریهای جنسیتی مخرب را تشدید میکنند. ...
بر اساس گزارشی که اخیرا توسط توسط نهادهای تحقیقاتی، آموزشی و فرهنگی سازمان ملل منتشر شده است، دستیارهای صوتی توسعه داده شده توسط شرکتهایی همچون آمازون، گوگل، اپل و ... جهتگیریهای جنسیتی مخرب را تشدید میکنند.
این تحقیق که به نام «اگر میتوانستم از خجالت سرخ میشدم» منتشر شده، در واقع به جملهای اشاره میکند که سیری دستیار صوتی اپل پس از دریافت درخواستها و دستورهای نامناسب بیان میکند. مقاله مذکور به بررسی تاثیر این قبیل جهتگیریها در زمینه تحقیقات و محصولات مرتبط با هوش مصنوعی و اثرات منفی طولانی مدت آن بر شکلدهی جامعه و به خصوص تفکر کودکان میپردازد.
چنین رویکردهایی می تواند بر تفکر افراد جامعه و به ویژه کودکان تاثیر مخربی داشته باشد
به عقیده محققان چنین روندی افراد جامعه و به ویژه کودکان را به سمت این تفکر سوق میدهد که این دستیارهای صوتی دیجیتال در واقع فقط برای خدمت بی چون و چرا به آنها به وجود آمدهاند. در واقع با نامگذاری دستیارهای صوتی به اسمهای مونث مثل سیری و الکسا و صداگذاری پیشفرض آنها با صدای زنانه، این کمپانیها شرایط را برای بازگشت افراد به درک نادرست و منسوخ گذشتگان از جایگاه زنان فراهم کردهاند.
مقاله در ادامه به این موضوع اشاره میکند که شرکتهای تکنولوژی نتوانستهاند سد لازم برای جلوگیری از کاربرد زبان سوءاستفادهگرانه و جنسیتزده را فراهم کنند. به جای آن بعضی از دستیارهای صوتی مثل سیری، به گونهای توسعه داده شدهاند که درخواستهای نامربوط را با یک لطیفه از سر وا کنند. مثلا اگر به سیری بگویید برای شما یک ساندویچ درست کند پاسخ او «نمیتوانم، ادویههای لازم برای ساندویچ درست کردن را در اختیار ندارم» خواهد بود.
در بخشی از این گزارش چنین آمده است:
کمپانیهایی مثل اپل و آمازون که با تیمهای مهندسی مردانه پر شدهاند، سیستمهای هوش مصنوعی را به گونهای ساختهاند که دستیارهای مونث چنین عکسالعملی در مقابل سوء استفادههای زبانی داشته باشند. این دستیارها بدون داشتن هیچ قدرتی در برابر دستورهای فرد، فرامین را بدون توجه به لحن یا خصومت شخص اجرا میکنند.
از آنجایی که در آینده مطمئنا دستیارهای صوتی و هوش مصنوعی مهمترین رابط کاربران برای استفاده از گجتهای هوشمند خواهند بود، این رویکرد منسوخ هالیوود مآبانه در مورد هوش پایین ردهتر از انسان، می تواند تاثیر عمیق فرهنگی و اجتماعی در جوامع داشته باشد.
در حالی که آمازون دلیل انتخاب اسم و صدای زنانه برای دستیار صوتیاش را ایجاد حس همدردی و کمکرسانی بهتر اعلام کرده، مایکروسافت نام کورتانا را از روی شخصیت مونث بازی «هیلو» برداشته است. قرار است این امکان برای کاربر فراهم شود تا از کورتانا با صدای مردانه هم استفاده کند اما هنوز مایکروسافت اعلام نکرده که این قابلیت از چه زمانی در دسترس خواهد بود. تا جایی که به اسامی مربوط میشود، سیری یک نام سنتی اسکاندیناوی است که معنای «پیروزی زیبا» میدهد.
با این اوصاف می توان گفت انگیزه نامگذاری این سیستمها با اسامی زنانه عمدی بوده و بر اساس بازخوردهای گسترده انجام شده است. البته شرکتهای تکنولوژی تلاش کردهاند از این تصمیمهای زودهنگام آغشته به کلیشهها بیرون بیایند. مثلا گوگل به استفاده از شخصیتهای مختلف مرد و زن با لهجههای متفاوت رو آورده و به هرکدام رنگی تخصیص داده که کاربر فقط با انتخاب این رنگها میتواند صدای دستیار صوتی را به صورت تصادفی انتخاب کند. در واقع کاربر اطلاعی از اینکه کدام رنگ به کدام شخصیت تخصیص داده شده ندارد.
ریشه اصلی این مشکل را نه در محصولات، بلکه باید در تفکر توسعه دهندگان آن جستجو کرد
گوگل همچنین در صورت استفاده کودکان از عبارتهای مودبانه مثل لطفا و متشکرم در هنگام صحبت با دستیار صوتی، به آنها جایزه میدهد. آمازون هم سال قبل امکانی مشابه همین را توسعه داد که رفتار مودبانه با الکسا را تشویق میکرد.
با این حال این تحقق میگوید که ریشه مشکل از توسعه دستیار صوتی و مسائل مشابه آن فراتر میرود و در واقع در بطن صنعت تکنولوژی و هوش مصنوعی نهفته است. چرا که 80 درصد محققان حوزه هوش مصنوعی مرد هستند و فقط 15 درصد افراد مشغول در زمینه هوش مصنوعی در فیس بوک و 10 درصد آنها در گوگل را زنان تشکیل میدهند.
دیدگاهها و نظرات خود را بنویسید
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.
خدایی تا حدودی هم راست میگه
ذهنیت انسان ها رو چیزهای کوچک میسازه
اگر در مدت زمان طولانی با این اپ ها کار بشه باید حتما در کنارش مفاهیم انسانی هم یاد داده بشه
این شرایط مثل همون ماجرای تصادف شیراز میشه که پدر پولدار (و احتمالا صاحب قدرت )هستش به فرزندش یاد داده که با پول میشه آدمها رو به خدمت گرفت ولی یاد نداده که نباید با جان انسانها هم مثل کالا برخورد کرد
به طور کلی منظورم اینکه نفس صدای زن در دستیار صوتی مشکلی نداره ولی بچه ای که با این ابزار ها بزرگ شده شاید در آینده به طور ناخودآگاه به همسرش هم به فقط عنوان یک برنامه زنده برای رفع نیازاش نگاه کنه
همه SJW هااا
من: سیری ساندویچ درست کن برام.
سیری: نمیتوانم، ادویههای لازم برای ساندویچ درست کردن را در اختیار ندارم
من: NANI?! سیری چقدر سکسیسته!
الان اگه همه مرد بودن چی؟ باز نمیگفتین چرا زنا نباشن؟ کلا زن ها موجوداتی هستند که دوست دارن برتر باشن ولی نمیتونن آمار هوش مصنوعی هم همینو میگه، فمینیسم همینقدر کثیف
تا به امروز لحظه ای به این مطلب حتی فکر نکرده بودم و واقعا چقدر مهم و حیاتی هست
البته بنظر من دلیل به وجود اومدن همچین مسائلی ضعف انسان ها هستش
مثلا اگر من روی حیوان خانگیم اسمی بزارم که ممکن باشه اسم خیلی ها باشه
طبیعتا هیچ کدوم نباید از این قضیه ناراحت بشن چون اسم فقط برای صدا کردن اون شخص یا موجود استفاده میشه
حالا مرد یا زن بودن دستیار و انجام دادن دستور کاربر رو هیچ احمقی نباید اینطور برداشت کنه که زن ها همیشه کارشون انجام دادن دستورات هستش
اما دنیا پر از احمق ها هستش.