محققین گوگل قصد دارند هوش مصنوعی را از دام تبعیض های انسانی نجات دهند
ورودی زباله، خروجی زباله را در پی خواهد داشت. این اصل که به GIGO مشهور است، قانون اصلی محاسبات به شمار می رود و می گوید اگر داده های نامعتبر به سیستم وارد شود، خروجی ...
ورودی زباله، خروجی زباله را در پی خواهد داشت. این اصل که به GIGO مشهور است، قانون اصلی محاسبات به شمار می رود و می گوید اگر داده های نامعتبر به سیستم وارد شود، خروجی به دست آمده نیز نامعتبر خواهد بود. سیستم های یادگیری ماشینی نیز از این قاعده مستثنی نیستند.
هوش مصنوعی پایه و ابتدایی، تنها چیزهایی را می داند که ما در اختیارش قرار می دهیم، و اگر داده های ورودی به هر شکل سودار باشند، سیستمی که بر اساس آنها آموزش می یابد نیز جهت گیری تبعیضی خواهد داشت. ظاهراً گوگل به دنبال پیشگیری از بروز این وضعیت نامطلوب است، و بدین منظور از روشی تحت عنوان «برابری فرصت» بهره می گیرد.
گوگل با الگوریتم «برابری فرصت» قصد دارد تبعیض در یادگیری ماشینی از بین ببرد
سیستم های یادگیری ماشینی اساساً موتورهای پیش بین هستند که خصیصه های مجموعه داده های مختلف را آموخته، سپس با دریافت اطلاعات جدید، آنها را در یکی از چند دسته مورد نظر جای می دهند. مثلاً سیستم تشخیص تصویر می تواند ویژگی ها و تفاوت های انواع خودرو را بشناسد و آنها را در دسته های سدان، پیکاپ، اتوبوس و غیره جای دهد.
البته در این میان، اشتباهاتی هم رخ می دهند. مثلاً هوش مصنوعی قادر به تشخیص خودروهای نه چندان معروفی همچون BRAT یا El Camino نیست، چون اطلاعات کافی در مورد آنها در اختیار ندارد، بنابراین می تواند آنها را در هر دسته ای که بخواهد جای دهد، ضمن اینکه نمی توان به دسته بندی نهایی خرده گرفت.
اگرچه اشتباه در دسته بندی خودرو چندان اهمیتی ندارد، اما وضعیتی را تصور کنید که سیستم کامپیوتری مبتنی بر هوش مصنوعی بخواهد افراد حقیقی را بر مبنای ریسک پذیری دریافت وام، دسته بندی نماید. در این عملیات، اشخاصی که با ضوابط موجود مطابقت نداشته باشند، شانس دریافت تسهیلات را از دست خواهند داد.
«مورتیز هارت» مدیر بخش Google Brain در این رابطه می گوید:
زمانی که عضویت در گروه های خاص بر اساس ویژگی های خاصی همچون نژاد، جنسیت، توانایی جسمی یا اعتقادات دینی انجام گیرد، طبیعتاً با ناداوری و تبعیض روبرو خواهیم بود. علی رغم آگاهی نسبت به این موضوع، هنوز روشی در اختیار نداریم که بتوانیم یادگیری ماشینی را از چنین بی عدالتی روی خصیصه های حساس دور نماییم.
«هارت» و همکارانش مقاله ای نوشتند که روشی را برای پیشگیری از این وضعیت پیشنهاد می دهد. در این رویکرد، زمانی که هدف مطلوبی وجود داشته، و احتمال آن برود که یکی از این خصیصه های تعریف شده برای سیستم به اشتباه، فردی را از رسیدن به آن نتیجه باز دارد، الگوریتم به گونه ای خودش را تغییر می دهد که تأثیر ویژگی مورد نظر را از بین برده و شانس دستیابی به آن هدف را به صورت مساوی بین تمامی اعضا توزیع نماید.
رویکرد جدید گوگل برای یادگیری ماشینی، توازن بین خصیصه ها را رعایت می کند.
طراحی چنین سیستمی برای کامپیوتر چندان مشکل نیست، زیرا می توان آن را به گونه ای آموزش داد که توازن بین خصیصه های مختلف رعایت گردد. البته رویکرد فوق بدین معنا نیست که داده ها را به دلخواه تغییر دهیم، اما به گفته دانشمندان این گروه تحقیقاتی، نتیجه این مدل بسیار دقیق تر از پیش بینی های قبلی خواهد بود.
اجرای این تحقیقات فوق از سوی گوگل بسیار امیدوار کننده است، و با در نظر گرفتن اینکه نقش هوش مصنوعی و یادگیری ماشینی در زندگی روزمره هر روز پررنگ تر از قبل می شود، بهتر است از محدودیت ها و ریسک های مربوط به این فناوری های نوین آگاهی بیشتری پیدا کنیم.
دیدگاهها و نظرات خود را بنویسید
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.
یکی از مشکلات پیش روی اینان برای هوش مصنوعی ، پیروی کردن از ارزش های خودشون هست چون به طور مثال اگه اطلاعات جنگ های جهانی به صورت خام و از دو طرف بهش داده بشه معلوم نیست که کدوم طرف رو محق بدونه و اگر تو این موارد یهود رو مقصر تشخیص بده باید سریعا اون هوش مصنوعی از بین بره بخاطر همین هم هست که قصد دارن پیش فرض هایی رو برا هوش مصنوعی قرار بده تا همیشه در حیطه فلسفه خودشون باقس بمونه
اوه اوه
کار خوبی میکنه!!!