ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

تکنولوژی

محقق مایکروسافت از تعصبات هوش مصنوعی می گوید

هوش مصنوعی به صورت آرام و خزنده در حال وارد شدن به جنبه های مختلف زندگی انسان از بهداشت گرفته تا کارهای روزمره است. اگرچه این دستاورد مدرن توسط مردمانی با فرهنگ ها و افکار ...

یونس مرادی
نوشته شده توسط یونس مرادی | ۱۸ آذر ۱۳۹۶ | ۱۸:۳۰

هوش مصنوعی به صورت آرام و خزنده در حال وارد شدن به جنبه های مختلف زندگی انسان از بهداشت گرفته تا کارهای روزمره است.

اگرچه این دستاورد مدرن توسط مردمانی با فرهنگ ها و افکار مختلف مورد استفاده می گیرد، اما به نظر می رسد که توانایی رهایی از قید و بندها و تعصبات سازندگانش را ندارد.

هفته گذشته یکی از محققان مایکروسافت به نام پروفسور «کیت کرافورد» در کنفرانس «سیستم پردازش اطلاعات عصبی» سخنرانی جالبی در مورد تعصبات الگوریتم ها و موارد شکست آنها انجام داد.

پروفسور کیت کرافورد

از نظر کرافورد واژه «تعصب» در یادگیری ماشینی تعریف ریاضی خاصی داشته و به خطا در برآورد و بازنمایی جوامع اشاره دارد.

او خطاها و آسیب های هوش مصنوعی را به دو گروه تخصیصی و بازنمایی تقسیم کرده و دسته دوم را به مراتب مهم تر می داند.

بر این اساس خطای تخصیص زمانی رخ می دهد که سیستم فرصت یا منبع خاصی را به یک گروه اختصاص داده یا آن گروه را از آن محروم می کند. برای مثال هوش مصنوعی یک بانک ممکن است زنان را از دریافت وام مسکن محروم کند.

از طرف دیگر خطر بازنمایی زمانی رخ می دهد که سیستم با تائید بر کلیشه های موجود باعث می شود گروهی از افراد دارای هویت خاص در موقعیت پایین تری قرار بگیرند.

برای مثال مدتی پیش اپلیکیشن گوگل فوتوز افراد سیاه پوست را به عنوان گوریل برچسب گذاری می کرد و این در حالی است که نژادپرستان از مدت ها قبل از همین اصطلاح برای توهین به سیاه پوستان استفاده می کردند.

علاوه بر این هوش مصنوعی در خطایی واضح لبخند اهالی شرق آسیا را به عنوان چشمک زدن شناسایی می کرد.

او با اشاره به مشکلات موجود تاکید کرد که امروزه از کامپیوترها در زمینه های بزرگتر و مهمتری استفاده می شود و متخصصان این علوم هنگام پیاده سازی هوش مصنوعی باید از منطق بهتری استفاده کنند.

 

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (1 مورد)
  • Figure
    Figure | ۱۸ آذر ۱۳۹۶

    مسلما تعصب سازندگان نبوده که هوش مصنوعی مثلا سیاه پوستان را با گوریل اشتباه می گرفته.
    فکر می کنم مقاله نتوانسته منظور سخنران را به خوبی منتقل کند.

مطالب پیشنهادی