هوش مصنوعی نه بخاطر رباتهای کشنده، بلکه به خاطر تعصبات انسانی ترسناک است
استفاده از سیستمهای مبتنی بر هوش مصنوعی، مخصوصا سیستمهای جامع و پیشرفته، برخلاف اعتقاد برخی دانشمندان و عموم مردم، حداقل در آینده نزدیک باعث تسلط هوش مصنوعی بر بشر یا نابودی آن نمیشود. اما در ...
استفاده از سیستمهای مبتنی بر هوش مصنوعی، مخصوصا سیستمهای جامع و پیشرفته، برخلاف اعتقاد برخی دانشمندان و عموم مردم، حداقل در آینده نزدیک باعث تسلط هوش مصنوعی بر بشر یا نابودی آن نمیشود. اما در مقابل، الگوریتمها میتوانند منجر به شکلگیری و همچنین گسترش تعصبات انسانی در سیستمهای شناسایی مبتنی بر هوش مصنوعی شوند که میتواند بزرگترین ترس انسانها از هوش مصنوعی را رقم بزند.
در سالهای گذشته صحبتهایی در مورد تهدیدهای هوش مصنوعی عمومی (Artificial General Intelligence) که بهاختصار به آن AGI گفته میشود، مطرح شده است. هوش مصنوعی عمومی که با عناوینی همچون هوش مصنوعی جامع، هوش مصنوعی کامل و هوش مصنوعی فوق هوشمند نیز از آن یاد میشود، در حقیقت نوعی هوش مصنوعی با استعداد بسیار بالاست. در واقع این نوع از هوش مصنوعی از توانایی درک یا یادگیری هرگونه مهارت استعدادی که انسان توانایی انجام آن را دارد، برخوردار است.
به نظر میرسد دانشمندان تمام علوم مختلف در رابطه با این نوع از سیستمهای هوش مصنوعی نظراتی را مطرح کردهاند و تصویری که از آنها ارائه دادهاند، شبیه رباتهای نابودگری است که با خشم و عصبانیتی غیرقابلکنترل کشتار ویرانی گستردهای را به راه میاندازد.
هشدارها درباره هوش مصنوعی
ایلان ماسک، مدیرعامل شرکت هوافضای اسپیسایکس و شرکت خودروسازی تسلا، همیشه با انتقادات تند در مقابل هوش مصنوعی پیشرفته جبهه گرفته و سیستمهای هوش مصنوعی عمومی را با واژههای آخرالزمانی توصیف کرده است.
او در فستیوال موسیقی SXSW ۲۰۱۸ هوش مصنوعی عمومی را تنها خطر بزرگ و تهدیدآمیزی دانسته که بشر اکنون با آن دستوپنجه نرم میکند و از آن بهعنوان یکی از مشکلاتی که بیشترین فشار را به انسانها وارد کرده، یاد کرد. وی در این رویداد گفت که به نظر او چنین سیستمهایی میتوانند مرگبارتر از فاجعهای هستهای باشند. استیون هاوکینگ نیز در گفتگویی بهشدت در مورد هوش مصنوعی هراسافکنی کرده و گفته توسعه هوش مصنوعی میتواند به قیمت نابودی نسل بشر تمام شود.
بسیاری از دانشمندان علوم کامپیوتر در مورد خطر جدی توسعه هوش مصنوعی توافق نظر دارند. «استوارت راسل» (Stuart Russell)، دانشمند علوم کامپیوتری و «اسمیت زاده» (Smith-Zadeh)، پروفسور در علوم مهندسی از دانشگاه کالیفرنیا در یک فیلم در مورد خطر بزرگ رباتها و سلاحهای مستقل قلعوقمعکنندهای که با استفاده از هوش مصنوعی و بدون دخالت انسان دست به شناسایی و کشتار بشر میزنند، هشدار داده است؛ اما هدف اصلی چنین دانشمندانی از ساخت این فیلم و فیلمهای مشابه چیز دیگری است و آنها میخواهند با انتشار چنین محتواهایی مردم را از تلاش برای به ثمر رساندن ممنوعیت استفاده از سلاحهای کشتارجمعی مستقل که بر پایه هوش مصنوعی عمومی ایجاد شدهاند، بترسانند.
جالب است بدانید که شدت انتقاد مردم از سیستمهای هوش مصنوعی عمومی بهاندازه انتقادات گسترده دانشمندان در مورد چنین سیستمهایی نیست و در مقایسه با دانشمندان تعداد کمتری از افراد عادی معتقدند که هوش مصنوعی به انسان آسیب وارد کرده؛ البته تردیدی نیست که هوش مصنوعی به جهان انسانها آسیب زده است؛ اما نه به شیوه یا شیوههایی که من و شما به آنها فکر میکنیم.
واقعیت این است که تهدیدی در مورد مسلط شدن هوش مصنوعی بر انسان و همچنین نابودی بشر توسط هوش مصنوعی به دلیل افزایش قدرت آن وجود ندارد؛ بنابراین در حال حاضر نباید در مورد پیشرفت و توسعه این فناوری نگران باشیم. حتی درصورتیکه تهدیدی از جانب هوش مصنوعی برای بشر وجود داشته باشد، چنین تهدیدی در آینده نزدیک عملی نخواهد شد
تأثیر تعصبات انسانی روی هوش مصنوعی
وقتی صحبت از الگوریتمهای یادگیری ماشینی میشود، با مشکل بزرگی روبرو میشویم. فناوری یادگیری عمیق در حقیقت مجموعهای از روشهای یادگیری ماشینی است که برای آموزش الگوریتمهای کامپیوتری برای تشخیص الگوها از شبکههای عصبی استفاده میکند.
کامپیوترها میتوانند با قرار دادن الگوهای هماهنگ با یکدیگر در کنار هم و مطابقت آنها با یکدیگر، موارد مختلف را تشخیص دهند و شناسایی کنند. بهعنوانمثال کامپیوترها میتوانند با تطابق الگوها با یکدیگر تنها با شنیدن چند ثانیه از یک قطعه موسیقی، بخشهای مختلف ترانه را تشخیص دهند.
کامپیوترها با این روش میتوانند صدای خواننده را نیز تشخیص دهند و آن را به متن تبدیل کنند. حتی آنها میتوانند با بهرهمندی از قابلیت تطابق الگوها، تصاویر و ویدیوهای جعلی را طوری ایجاد کنند که با تصاویر و ویدیوهای واقعی قابلتشخیص نباشد.
تشخیص چهره، نقض حریم خصوصی و رویکرد نژادپرستانه
پژوهشگران برای تقویت عملکرد اپلیکیشنها و نرمافزارهای تشخیص چهره، از تصاویر عمومی ثبت و ذخیرهشده در وبسایتها و شبکههای اجتماعی مثل فیسبوک استفاده میکنند و از این تصاویر بهعنوان منبعی برای آموزش الگوریتم یادگیری ماشینی بهره میبرند؛ این تصاویر پس از انجام این کار از دیتاسنترهای مرتبط حذف میشوند، زیرا دانشمندان دیگر نیازی به آنها ندارند.
البته انتقاداتی در مورد این روش در رابطه با نقض حریم خصوصی افراد مطرح شده؛ اگرچه چنین انتقادی درست و بهجا هستند؛ اما باید این موضوع را هم در نظر بگیریم که درصورتیکه میخواهیم اطلاعات خروجی مفیدی داشته باشیم؛ باید اطلاعات ورودی معتبر و مناسبی در اختیار سیستم قرار دهیم.
اگرچه تصاویر سلفی عاشقانه لزوماً تصاویر بسیار نامناسبی برای تشخیص چهره نیستند؛ اما اگر برای آموزش الگوریتمهای تشخیص چهره از تصاویری استفاده شود که چهرههای موجود در آنها سفید و دارای پوست روشن باشند (نور زیادی به آنها تابانیده شده باشد)، چه اتفاقی رخ میدهد؟ مسلما الگوریتمهای تشخیص چهره در هنگام تشخیص چهرههایی با این ویژگیها عملکرد بسیار خوبی خواهند داشت.
اما به نظر شما زمانی که از این الگوریتمها خواسته میشود چهرههای سیاه و قهوهای با پوست تیرهتر نسبت به چهرههای سفید را شناسایی کنند، عملکرد آنها چگونه خواهد بود؟ در رابطه با این مورد میتوانیم بگوییم که احتمالاً الگوریتم بیشتر گرایش به تشخیص چهرههایی پیدا میکند که دارای پوست روشنتری باشند.
در مورد آموزش این الگوریتم ها برای بررسی تقاضای وام باید چگونه عمل کرد؟ چنانچه از قبل تمام تقاضاهای وام را در یک الگوریتم یادگیری ماشینی ثبت کرده باشیم و مشخص کرده باشیم اینکه کدام یک از آنها پذیرفته و کدام یک از آنها رد شدهاند، زمانی که تقاضاهای مختلف برای الگوریتم ارائه میشوند، الگوریتم تقاضاهایی را که مشابه آنها قبلا تأیید شدهاند، تأیید و تقاضاهایی را که مشابه آنها قبلاً رد شدهاند، رد میکند.
حالا اگر دادههای ورودی به الگوریتم بهصورتی باشد که بخشی از آن دربردارنده تقاضاهای وام ارائهشده از سوی اقلیتها باشند که علیرغم برخورداری آنها از شرایط، رد شده باشند و بخشی دیگری از این دادهها دربردارنده تقاضاهای ارائهشده از سوی متقاضیان سفیدپوست باشد که برخلاف وجود کاستی در آنها یا عدم برخورداری از برخی از شرایط لازم، پذیرفته شده باشند، چه اتفاقی رخ میدهد؟
در چنین شرایطی ناخودآگاه تعصبات بیجایی ایجاد میشود که به دنبال ایجاد آنها الگوریتم در گزینش تقاضاها به جای گزینش آنها بر اساس میزان اعتبار و شرایط متقاضیان، برحسب نژاد متقاضیان عمل میکند. در چنین حالتی تقاضاهای ارائهشده از سوی افراد دارای چهرهای با پوست تیرهتر نسبت به افراد سفیدپوست رد میشوند.
به نظر میرسد برای برطرف کردن این مشکل باید در کنار الگوریتم اصلی یادگیری ماشینی از یک فرآیند تأیید ثانوی زیربنایی نیز استفاده شود. در صورت بهرهمندی از چنین فرآیندی طبیعتاً الگوریتم نباید در تشخیص خود اشتباه کند و باید درست همان کاری را انجام دهد که آموزشدهندگان آن انتظار دارند.موارد مشابه اینچنینی قبلاً اتفاق افتادهاند.
عملکرد الگوریتمهای مورد استفاده در حوزه اعمال قانون چگونه خواهد است؟ از دهه ۱۹۹۰ تاکنون نیروهای پلیس در سراسر جهان با تکیه بر آمار جرائم به دنبال ایجاد مدل پیشبینی وقوع جرم هستند. هدف اصلی نیروهای پلیس از ایجاد چنین مدلی، استقرار نیروها و منابع پلیس در مکانهایی است که طبق اطلاعات خروجی مدل، محل وقوع بیشترین میزان جرائم هستند؛ اما درصورتیکه اکثر نیروهای پلیس در مکانی جمع شوند که ممکن است آن مکان اقلیتنشین باشد، احتمال افزایش شناسایی جرم در آن مکان بیشتر میشود.
اگر چنین دادههایی در اختیار سیستم پیشبینیکننده قرار گیرد، احتمال کشف میزان بیشتری از جرائم توسط سیستم در آن مکان اقلیتنشین افزایش مییابد؛ طبیعتا در صورت رخ دادن چنین اتفاقی پلیس نیروهای بیشتری را به آن مکان میفرستد که درنتیجه به شناسایی جرائم بیشتر در آن مکان منجر میشود.
با تکیه بر سیستمی که با این روش آموزش داده شده، نمیتوان به محل واقعی وقوع جرم پی برد و با استفاده از آن تنها میتوان فهمید که نیروهای پلیس در چه مکانهایی جرائم بیشتری را شناسایی میکنند. به دلیل اینکه نیروهای پلیس معمولاً همیشه بیشتر در مناطق فقیرنشین و اقلیتنشین گشت میزنند، اطلاعاتی که نشاندهنده محل وقوع جرم هستند، بیشتر چنین مکانهایی را نشانه میروند و درنتیجه نیروهای پلیس برای کنترل بیشتر چنین مکانهایی بیشتر حساس میشوند.
البته چنین الگوریتمهایی نیز مانند هوش مصنوعی به شکلی که ما تصور میکنیم، خطرناک نیستند و تهدیدی برای آینده محسوب نمیشوند؛ این الگوریتمها قبلاً هم به شکل متفاوتی وجود داشتهاند و نیروهای پلیس در سراسر جهان مدتها است که از آنها استفاده میکنند.
نحوه مقابله با تعصبات در زمینه استفاده از هوش مصنوعی
بدون تردید استفاده از مدل ایجادشده بر پایه هوش مصنوعی جهت پیشبینی محل وقوع جرائم آسیبزننده است. الگوی استفاده از مواد مخدر در میان نژادهای مختلف و جمعیتشناسی درآمد تقریباً یکسان است؛ اما پیشبینی محل وقوع جرم در اغلب موارد باعث هدایت نیروهای پلیس به سمت مکانهای فقیرنشین و اقلیتنشین میشود که دستگیری افراد بیشتر در این مناطق در مقایسه با سایر مناطق و از هم پاشیدن زندگیهای زیادی را به دنبال دارد.
نیروهای پلیس در صورت استفاده از سیستم تشخیص چهره برای شناسایی مظنونان نیز با مشکلات مشابهی روبهرو میشوند؛ زیرا الگوریتم مورد استفاده در این سیستمها برای تشخیص افراد رنگینپوست بهخوبی آموزش داده نشده و این موضوع میتواند زمینه موارد زیادی از تشخیص نادرست در سیستم تشخیص چهره را فراهم کند.
سیستم تشخیص چهره تعداد زیادی از افراد مظنون را بهاشتباه بهعنوان مجرم تشخیص میدهد و در نتیجه این افراد دستگیر و بازداشت و حتی در مواردی محکوم شوند که بدترین حالت ممکن است. الگوریتم مورد استفاده در سیستم تشخیص چهره یک سیستم خودتقویتکننده محسوب میشود و چنین ساختاری نهتنها ساختار اشتباهی است بلکه میتواند به عامل آسیبزننده خطرناکی نیز تبدیل شود. مسئله وقتی بدتر میشود که تصور کنیم در زمان استفاده از هوش مصنوعی برای شناسایی و تشخیص افراد هیچ تعصبی بیجایی ایجاد نشده است.
چنانچه در صورت استفاده از الگوریتم هوش مصنوعی برای بررسی تقاضاهای وام، تقاضای شما رد شود، مسئولان بانکها و سایر نهادهای مالی وامدهنده مقصر رد شدن تقاضای شما نیستند؛ زیرا مقصر اصلی همان سیستمی است که با استناد به دادههای خروجی الگوریتم تقاضای شما را رد کرده است. چنانچه محل زندگی افراد رنگینپوست و اقلیتها توسط تعداد زیادی از نیروهای پلیس کنترل شود، لزوما نیروهای پلیس نژادپرست نیستند و هجوم گروه بزرگی از نیروهای پلیس به چنین مناطقی صرفاً به دلیل کسب اطلاعات از الگوریتمی است که نشان میدهد میزان جرائم در آن مکان نسبت به سایر مکانها بیشتر است. طبیعتاً نیروهای پلیس نیز بهمحض دریافت چنین اطلاعاتی تصور میکنند که میزان جرائم در منطقه موردنظر بیشتر است و روانه آن منطقه میشوند.
اگر شما به اتهام ارتکاب جرمی دستگیر شدید که آن را انجام ندادهاید، نیروهای پلیس یا افراد شاهدی که به دلیل تعصبات بیجا ناخودآگاه شما را مجرم میدانند، لزوما مقصر اصلی نیستند بلکه در مواردی، مسبب اصلی چنین اتفاقی، الگوریتمهای مبتنی بر هوش مصنوعی هستند که با تطابق چهره ثبتشده شما با چهره مخدوش مجرم که توسط دوربینهای امنیتی ثبت شده، شما را بهعنوان مجرم به نیروهای پلیس معرفی میکنند.
در هر یک از این مثالها الگوریتمهای یادگیری ماشین جایگزین هوش انسانی شده است، استفاده از چنین الگوریتمهایی در بسیاری از موارد بهصورت ناخودآگاه باعث ایجاد الگوهای نظاممندی با پیامدهای منفی و مخربی نظیر تبعیض نژادی و آزار فقرا و اقلیتها میشوند. طبق اطلاعات بهدستآمده از اسناد رسمی، متاسفانه چنین الگوهایی در طول سالها بهصورت ناخودآگاه در سیستمهای هوش مصنوعی بارها بازآفرینی و ثبت شدهاند.
البته ممکن است افراد طراح سیستمهای تشخیص و شناسایی هویت که بر پایه بهرهمندی از هوش مصنوعی طراحی شدند، متوجه این موضوع نشوند و حتی ممکن است وجود چنین مشکلات خطرناکی در سیستمهای خود را انکار کنند زیرا معتقدند در هنگام آمادهسازی و آموزش چنین سیستمهایی هیچگونه تعصب بیجایی ایجاد نشده است.
بهبود عملکرد الگوریتمها با دادههای بهتر
ممکن است با خواندن این میانتیتر از خود بپرسید آیا واقعاً بهرهمندی از دادههای بهتر برای آموزش الگوریتمهای هوش مصنوعی مورد استفاده برای تشخیص هویت میتواند مشکل را برطرف کند؟ قبل از پاسخ به این سؤال باید ببینیم که آیا چنین اقدامی میتواند باعث کاهش اشتباهات این الگوریتمها و مانع ایجاد تعصبات بیجای ناخواسته شود یا اینکه هیچ مشکلی را از اصل و ریشه برطرف نمیکند و این کار مثل این است که تنها پارچه و مرهمی روی زخم بگذارید و منتظر بمانید زخم خودبهخود خوب شود؟
بدون تردید در نظر گرفتن احتمال ایجاد تعصبات بیجا در هنگام تهیه و آمادهسازی دادههای مورد استفاده برای آموزش الگوریتمهای یادگیری ماشینی، میتواند باعث ایجاد مدلهای بهتری شود؛ اما این کار هم ایجاد خروجی بینقصی را به دنبال ندارد. به صراحت باید بگوییم ایجاد مدلی کاملاً بیطرف و بدون تعصب امکانپذیر نیست و از هر جنبهای به قضیه نگاه کنیم متوجه میشویم که اصلاً کسی به دنبال ساخت مدل بدون تعصب نیست!
بنابراین ما بهجای ساخت مدل هوش مصنوعی بدون تعصب که کاری غیرممکن است، باید ببینیم برای از بین بردن تعصبات از چه روشهای مکملی میتوانیم استفاده کنیم و ببینیم اصلاً استفاده از این روشها ضرورت دارد یا نه یا اینکه میتوان از این روشها همراه با سیستم هوش مصنوعی استفاده کرد و اینکه کمکی به این سیستمها میکند یا نه.
«رشیدا ریچارد» (Rashida Richardson)، وکیل و پژوهشگر که در حال مطالعه تعصبات الگوریتمها دانشکده حقوق رادگرز (Rutgers Law School) در نیوجرسی است، معتقد است که ابهامی در رابطه با این موضوع وجود ندارد و به نظر او بهتر است بهجای پنهان کردن حقایق مرتبط با سوءاستفاده در زمینه تقویت عملکرد ناقص الگوریتمهای یادگیری ماشین در طول سالهای گذشته، باید توجه خود را به سمت برطرف کردن آن دسته از مشکلاتی که همیشه سعی کردهایم آنها را با استفاده از هوش مصنوعی برطرف کنیم، معطوف کنیم.
بهعبارتدیگر، ابتدا باید برای حل مشکلات کنونی جامعه خود تمرکز و پس از آن باید برای ایجاد سیستمهای هوش مصنوعی قابل رشد و پیشرفت نیز تلاش کنیم
بار دیگر باید به این موضوع اشاره کنیم که ممکن است روزی در آینده دور سیستمهای ایجاد شده بر پایه هوش مصنوعی جامع به تهدید بزرگی برای بشر و ماشینهای نابودگر تبدیل شوند؛ اما در حال حاضر نباید نگران چنین موضوعی باشیم.
هراسافکنی در مورد هوش مصنوعی هیچ مشکلی را برطرف نمیکند و تنها باعث میشود از توجه به مشکل واقعی ایجادشده بهواسطه استفاده از سیستمهای هوش مصنوعی که میتواند بشر را با مشکلات و چالشهای جدی روبهرو کند، دور شویم.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.