ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

دستیارهای صوتی
تکنولوژی

دستیارهای صوتی همچون سیری و کورتانا باعث تشویق تفکر جنسیت‌زده می‌شوند

بر اساس گزارشی که اخیرا توسط توسط نهادهای تحقیقاتی، آموزشی و فرهنگی سازمان ملل منتشر شده است، دستیارهای صوتی توسعه داده شده توسط شرکت‌هایی همچون آمازون، گوگل، اپل و ... جهت‌گیری‌های جنسیتی مخرب را تشدید می‌کنند. ...

بر اساس گزارشی که اخیرا توسط توسط نهادهای تحقیقاتی، آموزشی و فرهنگی سازمان ملل منتشر شده است، دستیارهای صوتی توسعه داده شده توسط شرکت‌هایی همچون آمازون، گوگل، اپل و ... جهت‌گیری‌های جنسیتی مخرب را تشدید می‌کنند.

این تحقیق که به نام «اگر می‌توانستم از خجالت سرخ می‌شدم» منتشر شده، در واقع به جمله‌ای اشاره می‌کند که سیری دستیار صوتی اپل پس از دریافت درخواست‌ها و دستور‌های نامناسب بیان می‌کند. مقاله مذکور به بررسی تاثیر این قبیل جهت‌گیری‌ها در زمینه تحقیقات و محصولات مرتبط با هوش مصنوعی و اثرات منفی طولانی مدت آن بر شکل‌دهی جامعه و به خصوص تفکر کودکان می‌پردازد.

چنین رویکردهایی می تواند بر تفکر افراد جامعه و به ویژه کودکان تاثیر مخربی داشته باشد

به عقیده محققان چنین روندی افراد جامعه و به ویژه کودکان را به سمت این تفکر سوق می‌دهد که این دستیارهای صوتی دیجیتال در واقع فقط برای خدمت بی چون و چرا به آن‌ها به وجود آمده‌اند. در واقع با نامگذاری دستیارهای صوتی به اسم‌های مونث مثل سیری و الکسا و صداگذاری پیشفرض آن‌ها با صدای زنانه، این کمپانی‌ها شرایط را برای بازگشت افراد به درک نادرست و منسوخ گذشتگان از جایگاه زنان فراهم کرده‌اند.

دستیارهای صوتی

مقاله در ادامه به این موضوع اشاره می‌کند که شرکت‌های تکنولوژی نتوانسته‌اند سد لازم برای جلوگیری از کاربرد زبان سوءاستفاده‌گرانه و جنسیت‌زده را فراهم کنند. به جای آن بعضی از دستیارهای صوتی مثل سیری، به گونه‌ای توسعه داده شده‌اند که درخواست‌های نامربوط را با یک لطیفه از سر وا کنند. مثلا اگر به سیری بگویید برای شما یک ساندویچ درست کند پاسخ او «نمی‌توانم، ادویه‌های لازم برای ساندویچ درست کردن را در اختیار ندارم» خواهد بود.

در بخشی از این گزارش چنین آمده است:

کمپانی‌هایی مثل اپل و آمازون که با تیم‌های مهندسی مردانه پر شده‌اند، سیستم‌های هوش مصنوعی را به گونه‌ای ساخته‌اند که دستیارهای مونث چنین عکس‌العملی در مقابل سوء استفاده‌های زبانی داشته باشند. این دستیارها بدون داشتن هیچ قدرتی در برابر دستور‌های فرد، فرامین را بدون توجه به لحن یا خصومت شخص اجرا می‌کنند.

دستیارهای صوتی

از آنجایی که در آینده مطمئنا دستیارهای صوتی و هوش مصنوعی مهمترین رابط کاربران برای استفاده از گجت‌های هوشمند خواهند بود، این رویکرد منسوخ هالیوود مآبانه‌ در مورد هوش پایین رده‌تر از انسان، می تواند تاثیر عمیق فرهنگی و اجتماعی در جوامع داشته باشد.

در حالی که آمازون دلیل انتخاب اسم و صدای زنانه برای دستیار صوتی‌اش را ایجاد حس همدردی و کمک‌رسانی بهتر اعلام کرده، مایکروسافت نام کورتانا را از روی شخصیت مونث بازی «هیلو» برداشته‌ است. قرار است این امکان برای کاربر فراهم شود تا از کورتانا با صدای مردانه هم استفاده کند اما هنوز مایکروسافت اعلام نکرده که این قابلیت از چه زمانی در دسترس خواهد بود. تا جایی که به اسامی مربوط می‌شود، سیری یک نام سنتی اسکاندیناوی است که معنای «پیروزی زیبا» می‌دهد.

دستیارهای صوتی

با این اوصاف می توان گفت انگیزه نامگذاری این سیستم‌ها با اسامی زنانه عمدی بوده و بر اساس بازخوردهای گسترده انجام شده است. البته شرکت‌های تکنولوژی تلاش کرده‌اند از این تصمیم‌های زودهنگام آغشته به کلیشه‌ها بیرون بیایند. مثلا گوگل به استفاده از شخصیت‌های مختلف مرد و زن با لهجه‌های متفاوت رو آورده و به هرکدام رنگی تخصیص داده که کاربر فقط با انتخاب این رنگ‌ها می‌تواند صدای دستیار صوتی را به صورت تصادفی انتخاب کند. در واقع کاربر اطلاعی از اینکه کدام رنگ به کدام شخصیت تخصیص داده شده ندارد.

ریشه اصلی این مشکل را نه در محصولات، بلکه باید در تفکر توسعه دهندگان آن جستجو کرد

گوگل همچنین در صورت استفاده کودکان از عبارت‌های مودبانه مثل لطفا و متشکرم در هنگام صحبت با دستیار صوتی، به آن‌ها جایزه می‌دهد. آمازون هم سال قبل امکانی مشابه همین را توسعه داد که رفتار مودبانه با الکسا را تشویق می‌کرد.

با این حال این تحقق می‌گوید که ریشه مشکل از توسعه دستیار صوتی و مسائل مشابه آن فراتر می‌رود و در واقع در بطن صنعت تکنولوژی و هوش مصنوعی نهفته است. چرا که 80 درصد محققان حوزه هوش مصنوعی مرد هستند و فقط 15 درصد افراد مشغول در زمینه هوش مصنوعی در فیس بوک و 10 درصد آن‌ها در گوگل را زنان تشکیل می‌دهند.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (4 مورد)
  • vahid kamali
    vahid kamali | ۲ خرداد ۱۳۹۸

    خدایی تا حدودی هم راست میگه
    ذهنیت انسان ها رو چیزهای کوچک میسازه
    اگر در مدت زمان طولانی با این اپ ها کار بشه باید حتما در کنارش مفاهیم انسانی هم یاد داده بشه
    این شرایط مثل همون ماجرای تصادف شیراز میشه که پدر پولدار (و احتمالا صاحب قدرت )هستش به فرزندش یاد داده که با پول میشه آدمها رو به خدمت گرفت ولی یاد نداده که نباید با جان انسانها هم مثل کالا برخورد کرد
    به طور کلی منظورم اینکه نفس صدای زن در دستیار صوتی مشکلی نداره ولی بچه ای که با این ابزار ها بزرگ شده شاید در آینده به طور ناخودآگاه به همسرش هم به فقط عنوان یک برنامه زنده برای رفع نیازاش نگاه کنه

  • Alireza_Ekhtiarzadeh
    Alireza_Ekhtiarzadeh | ۲ خرداد ۱۳۹۸

    همه SJW هااا
    من: سیری ساندویچ درست کن برام.
    سیری: نمی‌توانم، ادویه‌های لازم برای ساندویچ درست کردن را در اختیار ندارم
    من: NANI?! سیری چقدر سکسیسته!

  • Rohola Kamaie
    Rohola Kamaie | ۲ خرداد ۱۳۹۸

    الان اگه همه مرد بودن چی؟ باز نمیگفتین چرا زنا نباشن؟ کلا زن ها موجوداتی هستند که دوست دارن برتر باشن ولی نمیتونن آمار هوش مصنوعی هم همینو میگه، فمینیسم همینقدر کثیف

  • barobach
    barobach | ۲ خرداد ۱۳۹۸

    تا به امروز لحظه ای به این مطلب حتی فکر نکرده بودم و واقعا چقدر مهم و حیاتی هست
    البته بنظر من دلیل به وجود اومدن همچین مسائلی ضعف انسان ها هستش
    مثلا اگر من روی حیوان خانگیم اسمی بزارم که ممکن باشه اسم خیلی ها باشه
    طبیعتا هیچ کدوم نباید از این قضیه ناراحت بشن چون اسم فقط برای صدا کردن اون شخص یا موجود استفاده میشه
    حالا مرد یا زن بودن دستیار و انجام دادن دستور کاربر رو هیچ احمقی نباید اینطور برداشت کنه که زن ها همیشه کارشون انجام دادن دستورات هستش
    اما دنیا پر از احمق ها هستش.

مطالب پیشنهادی