ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

تکنولوژی

صدها متخصص AI توسعه نرم‌افزار پیش‌بینی جرم را به خاطر تعصبات نژادی محکوم کردند

ائتلافی با حضور بیش از هزار محقق و متخصص حوزه هوش مصنوعی، علیه مقاله‌ای که ادعا می‌کند با استفاده از شبکه‌های عصبی قادر به پیش‌بینی جرم است، نامه‌ای سرگشاده منتشر کردند. بیش از ۵۰ کارمند فعال ...

محمد قریشی
نوشته شده توسط محمد قریشی | ۴ تیر ۱۳۹۹ | ۲۲:۳۰

ائتلافی با حضور بیش از هزار محقق و متخصص حوزه هوش مصنوعی، علیه مقاله‌ای که ادعا می‌کند با استفاده از شبکه‌های عصبی قادر به پیش‌بینی جرم است، نامه‌ای سرگشاده منتشر کردند.

بیش از ۵۰ کارمند فعال در بخش هوش مصنوعی شرکت‌هایی مانند فیسبوک، گوگل و مایکروسافت این نامه را امضا کرده‌اند و خواستار تجدیدنظر ناشر مقاله شده‌اند. این تحقیق بحث برانگیز قرار است در سری کتاب‌های آینده «اسپرینگر»، ناشر ژورنال «Nature» منتشر شود.

نویسندگان این مقاله ادعا کرده‌اند که نرم افزار تشخیص چهره خودکار آن‌ها می‌تواند وقوع جرم توسط افراد را پیش‌بینی کند. «ناتانیل جی.اس. اشبی»، استاد دانشگاه «هاریسبورگ» و یکی از نویسندگان این مقاله عنوان کرده:

« ما با خودکارسازی شناسایی تهدیدات احتمالی بدون تعصب، تولید ابزارهایی برای جلوگیری از وقوع جرم، اجرای قانون و برنامه‌های نظامی را دنبال می‌کنیم که کمتر تحت تاثیر تعصبات اجتماعی و واکنش‌های احساسی و عاطفی قرار می‌گیرند.»

پیش‌بینی جرم

در نامه‌ای که از سوی مخالفان این تحقیق منتشر شده، به نگرانی شدید متخصصان حوزه هوش مصنوعی اشاره شده و همچنین از کمیته اسپرینگر درخواست شده از چاپ مقاله صرف نظر کند. در این نامه همچنین محققان از سایر ناشران خواسته‌اند که تحقیقات مشابه را در آینده قبول نکنند. به اعتقاد این محققان و متخصصان، در برخورد با فناوری‌های تشخیص چهره و پیش‌بینی جرم باید بسیار محتاط بود تا جامعه بیش از این آسیب نبیند.

مخالفان انتشار این مقاله نه تنها نگران ایجاد سیستمی برای پیش‌بینی جرم هستند، بلکه به خود تحقیق نیز شک دارند و آن را به علت مرجع‌های علمی، روش‌ها و نحوه تحقیق بی‌اساس و نامناسب مورد انتقاد قرار داده‌اند.

الگوریتم‌های تشخیص چهره به علت عملکرد ضعیف در شناسایی افراد رنگین پوست با انتقادهای زیادی مواجه شده‌اند. حالا توسعه سیستمی که از این فناوری برای پیش‌بینی جرم استفاده می‌کند، می‌تواند نگرانی‌های جامعه و همچنین متخصصان را بیش از پیش افزایش دهد. در این نامه عنوان شده که برنامه‌های یادگیری ماشینی خنثی نیستند و آن‌ها اغلب باورهای جامعه را به ارث می‌برند.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی