تشخیص احساسات با هوش مصنوعی چه خطراتی دارد؟
تکنولوژی تشخیص احساسات برخی از جامعهشناسان را نگران کرده و محققان در تلاشند تا هدف واقعی این تکنولوژی را به عموم نشان دهند و این موضوع را به مناظره عمومی بکشانند. این تکنولوژی که با ...
تکنولوژی تشخیص احساسات برخی از جامعهشناسان را نگران کرده و محققان در تلاشند تا هدف واقعی این تکنولوژی را به عموم نشان دهند و این موضوع را به مناظره عمومی بکشانند. این تکنولوژی که با الگوریتمهای یادگیری ماشینی (Machine Learning) برای تشخیص احساسات انسان طراحی شده، یکی از صنعتهای بزرگ دنیا به شمار میرود و ادعا میشود که میتواند در شرایط بیشماری، از امنیت جادهها تا مطالعات بازار، مورد استفاده قرار بگیرد و ارزشمند باشد.
اما به نظر منتقدان این تکنولوژی تهدیدی برای حریم خصوصی به حساب میآید و حتی پر از اشتباه و نژادپرستانه طراحی شده است.
تیمی از محققان وبسایتی به نام «ایموجیفای» طراحی کردهاند که در آن با وبکم یا دوربین سلفی میتوانید این تکنولوژی را امتحان کنید. در یکی از بازیهای روی این سایت میتوانید با تغییر حالت چهره خود، هوش مصنوعی را گول بزنید و در بخش دیگر میتوانید خطای این سیستم در تشخیص حالات چهره در متن را مشاهده کنید.
پدیدآورندگان این سایت امیدوارند تا بتوانند دانش عمومی مربوط به این تکنولوژی را افزایش دهند تا مناظرهای عمومی درباره استفاده از آن شکل بگیرد. آنها معتقدند که این سیستم نوعی از تشخیص چهره است که ادعا میکند میتواند احساسات درونی را از چهره تشخیص بدهد.
در سالهای اخیر، تکنولوژی تشخیص چهره مورد نقد و بررسی شدیدی قرار گرفته است. سال گذشته، کمیسیون برابری و حقوق بشر اعلام کرد که استفاده از تشخیص چهره برای اسکن جمعی به دلیل افزایش تبعیض نژادی، جنسیت، گرایشهای جنسی و سن و نقض آزادی بیان باید متوقف شود.
عموم مردم اطلاعی از موارد استفاده از تشخیص چهره ندارند. این تکنولوژی در استخدام مشاغل، شناخت مشتری، امنیت فرودگاه و حتی آموزش برای بررسی میزان فعالیت دانشآموزان و در همه جای دنیا از اروپا گرفته تا ایالات متحده و چین استفاده میشود.
یکی از کمپانیهای متخصص در زمینه تشخیص احساسات مدعی شده که از این تکنولوژی در تنظیمات همه محصولاتش از سیستم امینتی خانهها تا زندانها استفاده کرده است.
سال گذشته شهر لاکنو در هند اعلام کرد که از این سیستم برای تشخیص آشفتگی در خانمها برای گزارش مزاحمت استفاده میکند که با انتقاد از سمت سازمان حقوق دیجیتال و سایرین مواجه شد.
تکنولوژی تشخیص احساسات ممکن است پتانسیل کاربردی و مفید بودن داشته باشد؛ اما قبل از استفاده از آن باید درباره دقیق بودن، نداشتن زمینه نژادی و همینطور کاربردی بودن این سیستم در زمینه کاری مربوطه تحقیقات کاملی انجام شود و لازم است تا مکالمه و مشورت عمومی در مقیاس وسیعتری درباره آن صورت بگیرد.
این پروژه جدید به کاربران اجازه میدهد تا تکنولوژی تشخیص احساسات را امتحان کنند و در سایت مذکور که هیچ داده شخصی از طریق آن جمعآوری نمیشود و تمامی تصاویر روی دستگاه خود کاربر ذخیره میشود.
در یکی از بازیها، کاربران میتوانند حالت چهره خود را تغییر دهند تا متوجه خطای این سیستم در تشخیص حالات درونی آنها شوند.
توسعهدهندگان این تکنولوژی ادعا میکنند که این سیستم میتواند احساسات درونی را بخواند؛ اما در واقعیت این سیستم حرکات اعضای صورت را با فرضهای ایجاد شده تطبیق میدهد، به عنوان مثال لبخند به معنی خوشحال بودن است و برای این سیستم معنی دیگری ندارد.
شواهدی محکمی در علم وجود دارد که چنین نتیجهگیریهای سادهای را رد میکند و حتی با تجربه ثابت شده که میتوان لبخند مصنوعی زد. هدف این بازی دقیقا همین است که نشان دهد میتوان حالت چهره را بدون اینکه حالات و احساسات درونی تغییری کند، عوض کرد.
برخی از محققان زمینه تشخیص احساسات اعلام کردهاند که کاملا به چنین محدودیتهایی آگاهند اما امیدوارند تا این پروژه جدید آگاهی جامعه نسبت به این تکنولوژی را افزایش دهد.
آنها معتقدند که ما دیگر کاربران تکنولوژی نیستیم و به گونهای شهروندان دنیایی هستیم که با تکنولوژی تغییر میکنیم، بنابراین باید قوانین دموکراتیک و حقوق شهروندی درباره چنین مبحث مهمی وجود داشته باشد.
سازمان حقوق بشر اعلام کرده که توقف بازار سیستم تشخیص احساسات امری واجب است. این تکنولوژی کاملا بر اساس تبعیض جنسیت، نژاد، گرایشات جنسی و سن ساخته شده و از ریشه با حقوق بشر ناسازگار است.
مسیر حرکت سیستم تشخیص احساسات در سراسر دنیا به ما نشان داد تا گهگاه صحت و نیاز به تکنولوژیهای جدید را زیرسوال ببریم. پروژههایی که محدودیتهای چنین تکنولوژیهایی را مشخص میکنند، میتوانند قدم مهمی برای این حرکت باشند.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.