ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

تکنولوژی

پلیس انگلستان از هوش مصنوعی برای ارزیابی متهمین استفاده می کند

پلیس انگلستان در شهر دورام (Durham) قصد دارد سیستم هوش مصنوعی جدیدش را برای پیش بینی رفتار متهمین به کار گیرد تا بداند که آیا باید فرد را در بازداشت نگه دارد یا خیر. این ...

حمید مقدسی
نوشته شده توسط حمید مقدسی | ۲۲ اردیبهشت ۱۳۹۶ | ۱۹:۳۰

پلیس انگلستان در شهر دورام (Durham) قصد دارد سیستم هوش مصنوعی جدیدش را برای پیش بینی رفتار متهمین به کار گیرد تا بداند که آیا باید فرد را در بازداشت نگه دارد یا خیر.

این سیستم که «هارت» (Hart) به معنای «ابزار ارزیابی ریسک آسیب رسانی» نام دارد، افراد بازداشت شده را به سه دسته کم خطر، خطرناک یا بسیار خطرناک تقسیم می کند تا احتمال ارتکاب جرم آنها را در آینده نشان دهد. نیروی پلیس انگلستان طی چند ماه آینده این سیستم را تست کرده و نتایج پیش بینی آن را با نظر متخصصین و پیامدهای بعدی تصمیم آنها مقایسه خواهد کرد.

ارزیابی هوش مصنوعی را می توان در موارد مختلفی به کار برد، مثلاً اینکه آیا نیاز به بازداشت طولانی تر فرد وجود دارد، یا اینکه قبل یا بعد از صدور حکم می توان آنها را به قید ضمانت آزاد نمود یا خیر. برای توسعه سیستم تصمیم گیری هارت از داده های نیروی پلیس دورام مربوط به سال های 2008 تا 2013 استفاده شده، که مواردی همچون سابقه جرم، شدت جرم کنونی، و حضور متهم در لیست منع پرواز را در بر می گیرد.

هارت افراد کم خطر را با دقت 99 درصد تشخیص می دهد

در تست های اولیه در سال 2013 که رفتار متهم تا 2 سال پس از ارتکاب جرم مورد ارزیابی قرار گرفت، مشخص شد که پیش بینی هارت برای دسته کم خطر در 99 درصد موارد صحیح است و دقت پیش بینی در موارد بسیار خطرناک هم به 88 درصد می رسد.

هارت را می توان یکی از مجموعه ابزارهای نرم افزاری متعدد نیروهای انتظامی در سرتاسر جهان دانست که به سبک الگوریتمی به پیش بینی رفتار انسان پرداخته و به کمک سیستم قضایی می آیند. اگرچه استفاده از چنین سامانه هایی می تواند کار پلیس را ساده کند، اما در بسیاری از موارد نمی توان به قضاوت آنها اکتفا کرد.

متأسفانه سیستم های هوش مصنوعی هم با استفاده از داده های تبعیض آمیز انسانی آموزش می بینند

سال گذشته ProPublica در تحقیقی جامع نشان داد ابزارهای سنجش ریسک به شدت ناکارآمد هستند، و جهت گیری و تبعیض انسانی در روند آموزش هوش مصنوعی در آن ریشه می دواند؛ مثلاً سیاهپوستان تا دو برابر بیشتر در دسته مجرمان آینده قرار می گیرند، یا سفیدپوستان عمدتاً در دسته کم خطر قرار داده می شوند. سیستم های الگوریتمی متعدد دیگری همچون مواردی که توسط فیسبوک، گوگل و دیگر کمپانی های فناوری به کار گرفته می شوند نیز از نقایص مشابهی رنج می برند و سوگیری در آنها دیده می شود، چون در مرحله اول برای آموزش سیستم از داده های انسانی استفاده شده است.

گفتنیست اداره پلیس دورام تأکید می کند که نظر سیستم هارت صرفاً به عنوان پیشنهاد در نظر گرفته می شود و تصمیم گیری نهایی بر عهده متخصصین خواهد بود، با این حال احتمال تأثیرگذاری خروجی هوش مصنوعی بر روند اتخاذ تصمیم کارشناسان نیز وجود دارد.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (1 مورد)
  • armin
    armin | ۲۲ اردیبهشت ۱۳۹۶

    ?????

مطالب پیشنهادی