ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

تکنولوژی

گوگل پس از ۳ سال هنوز الگوریتم نژاد پرستانه‌ خود را درست نکرده است

براساس گزارش سایت Wired، شرکت گوگل پس از گذشت ۳ سال از گلایه کاربران به علت عملکرد الگوریتم نژاد پرستانه‌ اپلیکیشن فوتوز هنوز نتوانسته این مشکل را برطرف سازد. تنها قسمت‌هایی از سیستم الگوریتم را حذف ...

امین قیاسی
نوشته شده توسط امین قیاسی | ۲۴ دی ۱۳۹۶ | ۱۵:۵۰

براساس گزارش سایت Wired، شرکت گوگل پس از گذشت ۳ سال از گلایه کاربران به علت عملکرد الگوریتم نژاد پرستانه‌ اپلیکیشن فوتوز هنوز نتوانسته این مشکل را برطرف سازد. تنها قسمت‌هایی از سیستم الگوریتم را حذف نموده و به نوعی اَپ را محدود کرده تا از وقوع اتفاق‌های مشابه جلوگیری کند.

جکی السینی، برنامه نویس سیاه پوست ساکن ایالات متحده آمریکا در  هفتم تیر ماه سال ۱۳۹۴ بر حسب اتفاق متوجه شد قابلیت دسته‌بندی خودکار اپلیکیشن فوتوز شرکت گوگل، تصاویر چهره او و دوستانش را در آلبومی با نام "گوریل ها" قرار داده است.

وی بلافاصله در همین رابطه توییتی را خطاب به گوگل ارسال نموده و این پرسش را مطرح کرد که کمپانی ساکن مانتین ویو از چه تصاویر نمونه‌ای برای یادگیری ماشینی الگوریتم های نرم افزارش بهره گرفته که منجر به چنین اشتباه ناخوشایند و توهین آمیزی شده‌ است.

چند روز پیش سایت Wired، پس از گذشت سه سال سعی کرد با انجام آزمایش‌هایی، الگوریتم نژاد پرستانه‌ فعلی اپلیکشین فوتوز را بسنجد. از این رو ده‌ها هزار تصویر از گونه‌های مختلف میمون و گوریل در این اَپ بارگذاری نمود و متوجه شد که دسته‌بندی گوریل‌ و شامپانزه‌ در الگوریتم گوگل وجود ندارد.

این سایت حتی متوجه شد جستجوی لغات مرد سیاه (black man) و زن سیاه (black woman)، عکس‌هایی از زن و مرد‌هایی با لباس سیاه را نتیجه می‌دهد. از این هنوز دسته‌بندی با رنگ پوست مشخص در این اپ وجود ندارد.

به گفته‌ی سخنگوی شرکت گوگل، کلمات gorilla (گوریل)، monkey (میمون)، chimp و chimpanzee (شامپانزه) در گوگل فوتوز از سال ۲۰۱۵ تا به حال مسدود بوده‌اند. اگرچه این دسته بندی ها البته همچنان در دیگر سرویس های گوگل از جمله Cloud Vision API که به شرکت های دیگر فروخته می شوند، موجودند.

عجیب است شرکت گوگل که از پیشگامان هوش مصتوعی تجاری است نتوانسته پس از ۳ سال راه‌حل کاملی برای این مشکل بیابد و نشان می‌دهد که تعلیم یک نرم‌افزار هوش مصنوعی می‌تواند تا چه حد مشکل باشد. مخصوصاً اگر توسط گروه‌هایی با تنوع نژادی بالا امتحان نشده باشد.الگوریتم نژاد پرستانه‌

هنوز مشخص نیست که گوگل چرا این مسئله را رفع نکرده. آیا نتوانسته یا نخواسته‌ که منابعی به این مشکل اختصاص دهد. شاید هم از بوجود آمدن اتفاقاتی مشابه ترسیده است اما مشخصاً سیلیکون ولی به راه حل‌های جامع و کاملی در این گونه مشکلات هوش مصنوعی بیشتر از تعمیرات کوتاه مدت نیاز دارد.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (8 مورد)
  • Gol pesar
    Gol pesar | ۲۴ دی ۱۳۹۶

    فك كنم يه ايراني رو مسئول رفع اين مشكل كردن!!!

    كلا البوم گوريل و ميمون و ...رنگ پوستو حذف كرده?

  • sia10
    sia10 | ۲۴ دی ۱۳۹۶

    به نظرم چون اکثر سیاه پوست دماغ و لب گنده ای دارند این سیستم تشخیص خودکار اشتباه میکنه.میمون سفید هم اگر داشتیم اگر شخصی دماغ و لبش گنده بود ممکن بود الگوریتم اشتباه بکنه.به هر حال میمون نزدیک ترین حیوان از لحاظ چهره به انسان هست چه سیاه پوست چه سفید پوست.

  • manama
    manama | ۲۴ دی ۱۳۹۶

    به نظرم اگر گوریل ها میرفتن شکایت که چرا عکس آدما را میزاری تو دسته گوریل ها منتظقی تر بود!
    توهینی بالاتر از این نیست که گوریلی که به طبیعت آسیب نمیرسونه را براش عکس آدم بزاری!

    • manama
      manama | ۲۴ دی ۱۳۹۶

      به نظرم این کار توهین به گوریل هاست در وهله نخست!

  • sahar
    sahar | ۲۴ دی ۱۳۹۶

    نژاد آریایی نژاد برتریم
    نژاد پرستیم پس از سگ پستریم

    • محمدرضا
      محمدرضا | ۲۴ دی ۱۳۹۶

      چرا جمع میبندی

    • Montobella
      Montobella | ۲۵ دی ۱۳۹۶

      واقعا خودت ایرانی اصیلی؟ و نسبتی با غیر ایرانی نداری؟
      میخوام بدونم که از چه جبهه ای سخن میرانی.
      باتشکر

  • محمد رضا
    محمد رضا | ۲۴ دی ۱۳۹۶

    شامشانزده..لگو یه گروه

مطالب پیشنهادی