همه چیز درباره آیفون 12

دستیارهای صوتی همچون سیری و کورتانا باعث تشویق تفکر جنسیت‌زده می‌شوند

بر اساس گزارشی که اخیرا توسط توسط نهادهای تحقیقاتی، آموزشی و فرهنگی سازمان ملل منتشر شده است، دستیارهای صوتی توسعه داده شده توسط شرکت‌هایی همچون آمازون، گوگل، اپل و ... جهت‌گیری‌های جنسیتی مخرب را تشدید می‌کنند.

این تحقیق که به نام «اگر می‌توانستم از خجالت سرخ می‌شدم» منتشر شده، در واقع به جمله‌ای اشاره می‌کند که سیری دستیار صوتی اپل پس از دریافت درخواست‌ها و دستور‌های نامناسب بیان می‌کند. مقاله مذکور به بررسی تاثیر این قبیل جهت‌گیری‌ها در زمینه تحقیقات و محصولات مرتبط با هوش مصنوعی و اثرات منفی طولانی مدت آن بر شکل‌دهی جامعه و به خصوص تفکر کودکان می‌پردازد.

چنین رویکردهایی می تواند بر تفکر افراد جامعه و به ویژه کودکان تاثیر مخربی داشته باشد

به عقیده محققان چنین روندی افراد جامعه و به ویژه کودکان را به سمت این تفکر سوق می‌دهد که این دستیارهای صوتی دیجیتال در واقع فقط برای خدمت بی چون و چرا به آن‌ها به وجود آمده‌اند. در واقع با نامگذاری دستیارهای صوتی به اسم‌های مونث مثل سیری و الکسا و صداگذاری پیشفرض آن‌ها با صدای زنانه، این کمپانی‌ها شرایط را برای بازگشت افراد به درک نادرست و منسوخ گذشتگان از جایگاه زنان فراهم کرده‌اند.

دستیارهای صوتی

مقاله در ادامه به این موضوع اشاره می‌کند که شرکت‌های تکنولوژی نتوانسته‌اند سد لازم برای جلوگیری از کاربرد زبان سوءاستفاده‌گرانه و جنسیت‌زده را فراهم کنند. به جای آن بعضی از دستیارهای صوتی مثل سیری، به گونه‌ای توسعه داده شده‌اند که درخواست‌های نامربوط را با یک لطیفه از سر وا کنند. مثلا اگر به سیری بگویید برای شما یک ساندویچ درست کند پاسخ او «نمی‌توانم، ادویه‌های لازم برای ساندویچ درست کردن را در اختیار ندارم» خواهد بود.

در بخشی از این گزارش چنین آمده است:

کمپانی‌هایی مثل اپل و آمازون که با تیم‌های مهندسی مردانه پر شده‌اند، سیستم‌های هوش مصنوعی را به گونه‌ای ساخته‌اند که دستیارهای مونث چنین عکس‌العملی در مقابل سوء استفاده‌های زبانی داشته باشند. این دستیارها بدون داشتن هیچ قدرتی در برابر دستور‌های فرد، فرامین را بدون توجه به لحن یا خصومت شخص اجرا می‌کنند.

دستیارهای صوتی

از آنجایی که در آینده مطمئنا دستیارهای صوتی و هوش مصنوعی مهمترین رابط کاربران برای استفاده از گجت‌های هوشمند خواهند بود، این رویکرد منسوخ هالیوود مآبانه‌ در مورد هوش پایین رده‌تر از انسان، می تواند تاثیر عمیق فرهنگی و اجتماعی در جوامع داشته باشد.

در حالی که آمازون دلیل انتخاب اسم و صدای زنانه برای دستیار صوتی‌اش را ایجاد حس همدردی و کمک‌رسانی بهتر اعلام کرده، مایکروسافت نام کورتانا را از روی شخصیت مونث بازی «هیلو» برداشته‌ است. قرار است این امکان برای کاربر فراهم شود تا از کورتانا با صدای مردانه هم استفاده کند اما هنوز مایکروسافت اعلام نکرده که این قابلیت از چه زمانی در دسترس خواهد بود. تا جایی که به اسامی مربوط می‌شود، سیری یک نام سنتی اسکاندیناوی است که معنای «پیروزی زیبا» می‌دهد.

دستیارهای صوتی

با این اوصاف می توان گفت انگیزه نامگذاری این سیستم‌ها با اسامی زنانه عمدی بوده و بر اساس بازخوردهای گسترده انجام شده است. البته شرکت‌های تکنولوژی تلاش کرده‌اند از این تصمیم‌های زودهنگام آغشته به کلیشه‌ها بیرون بیایند. مثلا گوگل به استفاده از شخصیت‌های مختلف مرد و زن با لهجه‌های متفاوت رو آورده و به هرکدام رنگی تخصیص داده که کاربر فقط با انتخاب این رنگ‌ها می‌تواند صدای دستیار صوتی را به صورت تصادفی انتخاب کند. در واقع کاربر اطلاعی از اینکه کدام رنگ به کدام شخصیت تخصیص داده شده ندارد.

ریشه اصلی این مشکل را نه در محصولات، بلکه باید در تفکر توسعه دهندگان آن جستجو کرد

گوگل همچنین در صورت استفاده کودکان از عبارت‌های مودبانه مثل لطفا و متشکرم در هنگام صحبت با دستیار صوتی، به آن‌ها جایزه می‌دهد. آمازون هم سال قبل امکانی مشابه همین را توسعه داد که رفتار مودبانه با الکسا را تشویق می‌کرد.

با این حال این تحقق می‌گوید که ریشه مشکل از توسعه دستیار صوتی و مسائل مشابه آن فراتر می‌رود و در واقع در بطن صنعت تکنولوژی و هوش مصنوعی نهفته است. چرا که 80 درصد محققان حوزه هوش مصنوعی مرد هستند و فقط 15 درصد افراد مشغول در زمینه هوش مصنوعی در فیس بوک و 10 درصد آن‌ها در گوگل را زنان تشکیل می‌دهند.

ویجیاتو

نظرات ۴

وارد شوید

برای گفتگو با کاربران، وارد حساب کاربری خود شوید.

ورود

رمزتان را گم کرده‌اید؟