هوش مصنوعی نه بخاطر ربات‌های کشنده، بلکه به خاطر تعصبات انسانی ترسناک است

هوش مصنوعی نه بخاطر ربات‌های کشنده، بلکه به خاطر تعصبات انسانی ترسناک است

استفاده از سیستم‌های مبتنی بر هوش مصنوعی، مخصوصا سیستم‌های جامع و پیشرفته، برخلاف اعتقاد برخی دانشمندان و عموم مردم، حداقل در آینده نزدیک باعث تسلط هوش مصنوعی بر بشر یا نابودی آن نمی‌شود. اما در مقابل، الگوریتم‌ها می‌توانند منجر به شکل‌گیری و همچنین گسترش تعصبات انسانی در سیستم‌های شناسایی مبتنی بر هوش مصنوعی شوند که می‌تواند بزرگترین ترس انسان‎‌ها از هوش مصنوعی را رقم بزند.

در سال‌های گذشته صحبت‌هایی در مورد تهدیدهای هوش مصنوعی عمومی (Artificial General Intelligence) که به‌اختصار به آن AGI گفته می‌شود، مطرح شده است. هوش مصنوعی عمومی که با عناوینی همچون هوش مصنوعی جامع، هوش مصنوعی کامل و هوش مصنوعی فوق هوشمند نیز از آن یاد می‌شود، در حقیقت نوعی هوش مصنوعی با استعداد بسیار بالاست. در واقع این نوع از هوش مصنوعی از توانایی درک یا یادگیری هرگونه مهارت استعدادی که انسان توانایی انجام آن را دارد، برخوردار است.

به نظر می‌رسد دانشمندان تمام علوم مختلف در رابطه با این نوع از سیستم‌های هوش مصنوعی نظراتی را مطرح کرده‌اند و تصویری که از آن‌ها ارائه داده‌اند، شبیه ربات‌های نابودگری است که با خشم و عصبانیتی غیرقابل‌کنترل کشتار ویرانی گسترده‌ای را به راه می‌اندازد.

هشدارها درباره هوش مصنوعی

ایلان ماسک، مدیرعامل شرکت هوافضای اسپیس‌ایکس و شرکت خودروسازی تسلا، همیشه با انتقادات تند در مقابل هوش مصنوعی پیشرفته جبهه گرفته و سیستم‌های هوش مصنوعی عمومی را با واژه‌های آخرالزمانی توصیف کرده است.

او در فستیوال موسیقی SXSW ۲۰۱۸ هوش مصنوعی عمومی را تنها خطر بزرگ و تهدیدآمیزی دانسته که بشر اکنون با آن دست‌وپنجه نرم می‌کند و از آن به‌عنوان یکی از مشکلاتی که بیش‌ترین فشار را به انسان‌ها وارد کرده، یاد کرد. وی در این رویداد گفت که به نظر او چنین سیستم‌هایی می‌توانند مرگبارتر از فاجعه‌ای هسته‌ای باشند. استیون هاوکینگ نیز در گفتگویی به‌شدت در مورد هوش مصنوعی هراس‌افکنی کرده و گفته توسعه هوش مصنوعی می‌تواند به قیمت نابودی نسل بشر تمام شود.

سلاح مستقل
سلاح‌های مستقل تهدید بزرگی برای جامعه بشری هستند

بسیاری از دانشمندان علوم کامپیوتر در مورد خطر جدی توسعه هوش مصنوعی توافق نظر دارند. «استوارت راسل» (Stuart Russell)، دانشمند علوم کامپیوتری و «اسمیت زاده» (Smith-Zadeh)، پروفسور در علوم مهندسی از دانشگاه کالیفرنیا در یک فیلم در مورد خطر بزرگ ربات‌ها و سلاح‌های مستقل قلع‌وقمع‌کننده‌ای که با استفاده از هوش مصنوعی و بدون دخالت انسان دست به شناسایی و کشتار بشر می‌زنند، هشدار داده‌ است؛ اما هدف اصلی چنین دانشمندانی از ساخت این فیلم و فیلم‌های مشابه چیز دیگری است و آن‌ها می‌خواهند با انتشار چنین محتواهایی مردم را از تلاش برای به ثمر رساندن ممنوعیت استفاده از سلاح‌های کشتارجمعی مستقل که بر پایه هوش مصنوعی عمومی ایجاد شده‌اند، بترسانند.

جالب است بدانید که شدت انتقاد مردم از سیستم‌های هوش مصنوعی عمومی به‌اندازه انتقادات گسترده دانشمندان در مورد چنین سیستم‌هایی نیست و در مقایسه با دانشمندان تعداد کمتری از افراد عادی معتقدند که هوش مصنوعی به انسان آسیب وارد کرده؛ البته تردیدی نیست که هوش مصنوعی به جهان انسان‌ها آسیب زده است؛ اما نه به شیوه یا شیوه‌هایی که من و شما به آن‌ها فکر می‌کنیم.

واقعیت این است که تهدیدی در مورد مسلط شدن هوش مصنوعی بر انسان و همچنین نابودی بشر توسط هوش مصنوعی به دلیل افزایش قدرت آن وجود ندارد؛ بنابراین در حال حاضر نباید در مورد پیشرفت و توسعه این فناوری نگران باشیم. حتی درصورتی‌که تهدیدی از جانب هوش مصنوعی برای بشر وجود داشته باشد، چنین تهدیدی در آینده نزدیک عملی نخواهد شد

تأثیر تعصبات انسانی روی هوش مصنوعی

تاثیر تعصبات انسانی روی هوش مصنوعی

وقتی صحبت از الگوریتم‌های یادگیری ماشینی می‌شود، با مشکل بزرگی روبرو می‌شویم. فناوری یادگیری عمیق در حقیقت مجموعه‌ای از روش‌های یادگیری ماشینی است که برای آموزش الگوریتم‌های کامپیوتری برای تشخیص الگوها از شبکه‌های عصبی استفاده می‌کند.

کامپیوترها می‌توانند با قرار دادن الگوهای هماهنگ با یکدیگر در کنار هم و مطابقت آن‌ها با یکدیگر، موارد مختلف را تشخیص دهند و شناسایی کنند. به‌عنوان‌مثال کامپیوترها می‌توانند با تطابق الگوها با یکدیگر تنها با شنیدن چند ثانیه از یک قطعه موسیقی، بخش‌های مختلف ترانه را تشخیص دهند.

کامپیوترها با این روش می‌توانند صدای خواننده را نیز تشخیص دهند و آن را به متن تبدیل کنند. حتی آن‌ها می‌توانند با بهره‌مندی از قابلیت تطابق الگوها، تصاویر و ویدیوهای جعلی را طوری ایجاد کنند که با تصاویر و ویدیوهای واقعی قابل‌تشخیص نباشد.

تشخیص چهره، نقض حریم خصوصی و رویکرد نژادپرستانه

پژوهشگران برای تقویت عملکرد اپلیکیشن‌ها و نرم‌افزارهای تشخیص چهره، از تصاویر عمومی ثبت و ذخیره‌شده در وب‌سایت‌ها و شبکه‌های اجتماعی مثل فیسبوک استفاده می‌کنند و از این تصاویر به‌عنوان منبعی برای آموزش الگوریتم یادگیری ماشینی بهره می‌برند؛ این تصاویر پس از انجام این کار از دیتاسنترهای مرتبط حذف می‌شوند، زیرا دانشمندان دیگر نیازی به آن‌ها ندارند.

البته انتقاداتی در مورد این روش در رابطه با نقض حریم خصوصی افراد مطرح شده؛ اگرچه چنین انتقادی درست و به‌جا هستند؛ اما باید این موضوع را هم در نظر بگیریم که درصورتی‌که می‌خواهیم اطلاعات خروجی مفیدی داشته باشیم؛ باید اطلاعات ورودی معتبر و مناسبی در اختیار سیستم قرار دهیم.

اگرچه تصاویر سلفی عاشقانه لزوماً تصاویر بسیار نامناسبی برای تشخیص چهره نیستند؛ اما اگر برای آموزش الگوریتم‌های تشخیص چهره از تصاویری استفاده شود که چهره‌های موجود در آن‌ها سفید و دارای پوست روشن باشند (نور زیادی به آن‌ها تابانیده شده باشد)، چه اتفاقی رخ می‌دهد؟ مسلما الگوریتم‌های تشخیص چهره در هنگام تشخیص چهره‌هایی با این ویژگی‌ها عملکرد بسیار خوبی خواهند داشت.

اما به نظر شما زمانی که از این الگوریتم‌ها خواسته می‌شود چهره‌های سیاه و قهوه‌ای با پوست تیره‌تر نسبت به چهره‌های سفید را شناسایی کنند، عملکرد آن‌ها چگونه خواهد بود؟ در رابطه با این مورد می‌توانیم بگوییم که احتمالاً الگوریتم بیشتر گرایش به تشخیص چهره‌هایی پیدا می‌کند که دارای پوست روشن‌تری باشند.

سیستم تشخیص چهره هوش مصنوعی

در مورد آموزش این الگوریتم ها برای بررسی تقاضای وام باید چگونه عمل کرد؟ چنانچه از قبل تمام تقاضاهای وام را در یک الگوریتم یادگیری ماشینی ثبت کرده باشیم و مشخص کرده باشیم اینکه کدام یک از آن‌ها پذیرفته و کدام یک از آن‌ها رد شده‌اند، زمانی که تقاضاهای مختلف برای الگوریتم ارائه می‌شوند، الگوریتم تقاضاهایی را که مشابه آن‌ها قبلا تأیید شده‌اند، تأیید و تقاضاهایی را که مشابه آن‌ها قبلاً رد شده‌اند، رد می‌کند.

حالا اگر داده‌های ورودی به الگوریتم به‌صورتی باشد که بخشی از آن دربردارنده تقاضاهای وام ارائه‌شده از سوی اقلیت‌ها باشند که علیرغم برخورداری آن‌ها از شرایط، رد شده باشند و بخشی دیگری از این داده‌ها دربردارنده تقاضاهای ارائه‌شده از سوی متقاضیان سفیدپوست باشد که برخلاف وجود کاستی در آن‌ها یا عدم برخورداری از برخی از شرایط لازم، پذیرفته شده باشند، چه اتفاقی رخ می‌دهد؟

در چنین شرایطی ناخودآگاه تعصبات بی‌جایی ایجاد می‌شود که به دنبال ایجاد آن‌ها الگوریتم در گزینش تقاضاها به جای گزینش آن‌ها بر اساس میزان اعتبار و شرایط متقاضیان، برحسب نژاد متقاضیان عمل می‌کند. در چنین حالتی تقاضاهای ارائه‌شده از سوی افراد دارای چهره‌ای با پوست تیره‌تر نسبت به افراد سفیدپوست رد می‌شوند.

به نظر می‌رسد برای برطرف کردن این مشکل باید در کنار الگوریتم اصلی یادگیری ماشینی از یک فرآیند تأیید ثانوی زیربنایی نیز استفاده شود. در صورت بهره‌مندی از چنین فرآیندی طبیعتاً الگوریتم نباید در تشخیص خود اشتباه کند و باید درست همان کاری را انجام دهد که آموزش‌دهندگان آن انتظار دارند.موارد مشابه این‌چنینی قبلاً اتفاق افتاده‌اند.

عملکرد الگوریتم‌های مورد استفاده در حوزه اعمال قانون چگونه خواهد است؟ از دهه ۱۹۹۰ تاکنون نیروهای پلیس در سراسر جهان با تکیه بر آمار جرائم به دنبال ایجاد مدل پیش‌بینی وقوع جرم هستند. هدف اصلی نیروهای پلیس از ایجاد چنین مدلی، استقرار نیروها و منابع پلیس در مکان‌هایی است که طبق اطلاعات خروجی مدل، محل وقوع بیشترین میزان جرائم هستند؛ اما درصورتی‌که اکثر نیروهای پلیس در مکانی جمع شوند که ممکن است آن مکان اقلیت‌نشین باشد، احتمال افزایش شناسایی جرم در آن مکان بیشتر می‌شود.

اگر چنین داده‌هایی در اختیار سیستم پیش‌بینی‌کننده قرار گیرد، احتمال کشف میزان بیشتری از جرائم توسط سیستم در آن مکان اقلیت‌نشین افزایش می‌یابد؛ طبیعتا در صورت رخ دادن چنین اتفاقی پلیس نیروهای بیشتری را به آن مکان می‌فرستد که درنتیجه به شناسایی جرائم بیشتر در آن مکان منجر می‌شود.

با تکیه بر سیستمی که با این روش آموزش داده شده، نمی‌توان به محل واقعی وقوع جرم پی برد و با استفاده از آن تنها می‌توان فهمید که نیروهای پلیس در چه مکان‌هایی جرائم بیشتری را شناسایی می‌کنند. به دلیل اینکه نیروهای پلیس معمولاً همیشه بیشتر در مناطق فقیرنشین و اقلیت‌نشین گشت می‌زنند، اطلاعاتی که نشان‌دهنده محل وقوع جرم هستند، بیشتر چنین مکان‌هایی را نشانه می‌روند و درنتیجه نیروهای پلیس برای کنترل بیشتر چنین مکان‌هایی بیشتر حساس می‌شوند.

البته چنین الگوریتم‌هایی نیز مانند هوش مصنوعی به شکلی که ما تصور می‌کنیم، خطرناک نیستند و تهدیدی برای آینده محسوب نمی‌شوند؛ این الگوریتم‌ها قبلاً هم به شکل متفاوتی وجود داشته‌اند و نیروهای پلیس در سراسر جهان مدت‌ها است که از آن‌ها استفاده می‌کنند.

نحوه مقابله با تعصبات در زمینه استفاده از هوش مصنوعی

استفاده از هوش مصنوعی

بدون تردید استفاده از مدل ایجادشده بر پایه هوش مصنوعی جهت پیش‌بینی محل وقوع جرائم آسیب‌زننده است. الگوی استفاده از مواد مخدر در میان نژادهای مختلف و جمعیت‌شناسی درآمد تقریباً یکسان است؛ اما پیش‌بینی محل وقوع جرم در اغلب موارد باعث هدایت نیروهای پلیس به سمت مکان‌های فقیرنشین و اقلیت‌نشین می‌شود که دستگیری افراد بیشتر در این مناطق در مقایسه با سایر مناطق و از هم پاشیدن زندگی‌های زیادی را به دنبال دارد.

نیروهای پلیس در صورت استفاده از سیستم تشخیص چهره برای شناسایی مظنونان نیز با مشکلات مشابهی روبه‌رو می‌شوند؛ زیرا الگوریتم مورد استفاده در این سیستم‌ها برای تشخیص افراد رنگین‌پوست به‌خوبی آموزش داده نشده و این موضوع می‌تواند زمینه موارد زیادی از تشخیص نادرست در سیستم تشخیص چهره را فراهم کند.

سیستم تشخیص چهره تعداد زیادی از افراد مظنون را به‌اشتباه به‌عنوان مجرم تشخیص می‌دهد و در نتیجه این افراد دستگیر و بازداشت و حتی در مواردی محکوم شوند که بدترین حالت ممکن است. الگوریتم مورد استفاده در سیستم تشخیص چهره یک سیستم خودتقویت‌کننده محسوب می‌شود و چنین ساختاری نه‌تنها ساختار اشتباهی است بلکه می‌تواند به عامل آسیب‌زننده خطرناکی نیز تبدیل شود. مسئله وقتی بدتر می‌شود که تصور کنیم در زمان استفاده از هوش مصنوعی برای شناسایی و تشخیص افراد هیچ تعصبی بی‌جایی ایجاد نشده است.

چنانچه در صورت استفاده از الگوریتم هوش مصنوعی برای بررسی تقاضاهای وام، تقاضای شما رد شود، مسئولان بانک‌ها و سایر نهادهای مالی وام‌دهنده مقصر رد شدن تقاضای شما نیستند؛ زیرا مقصر اصلی همان سیستمی است که با استناد به داده‌های خروجی الگوریتم تقاضای شما را رد کرده‌ است. چنانچه محل زندگی افراد رنگین‌پوست و اقلیت‌ها توسط تعداد زیادی از نیروهای پلیس کنترل شود، لزوما نیروهای پلیس نژادپرست نیستند و هجوم گروه بزرگی از نیروهای پلیس به چنین مناطقی صرفاً به دلیل کسب اطلاعات از الگوریتمی است که نشان می‌دهد میزان جرائم در آن مکان نسبت به سایر مکان‌ها بیشتر است. طبیعتاً نیروهای پلیس نیز به‌محض دریافت چنین اطلاعاتی تصور می‌کنند که میزان جرائم در منطقه موردنظر بیشتر است و روانه آن منطقه می‌شوند.

اگر شما به اتهام ارتکاب جرمی دستگیر شدید که آن را انجام نداده‌اید، نیروهای پلیس یا افراد شاهدی که به دلیل تعصبات بیجا ناخودآگاه شما را مجرم می‌دانند، لزوما مقصر اصلی نیستند بلکه در مواردی، مسبب اصلی چنین اتفاقی، الگوریتم‌های مبتنی بر هوش مصنوعی هستند که با تطابق چهره ثبت‌شده شما با چهره مخدوش مجرم که توسط دوربین‌های امنیتی ثبت‌ شده، شما را به‌عنوان مجرم به نیروهای پلیس معرفی می‌کنند.

بازسازی چخره مجرم توسط هوش مصنوعی

در هر یک از این مثال‌ها الگوریتم‌های یادگیری ماشین جایگزین هوش انسانی شده است، استفاده از چنین الگوریتم‌هایی در بسیاری از موارد به‌صورت ناخودآگاه باعث ایجاد الگوهای نظام‌مندی با پیامدهای منفی و مخربی نظیر تبعیض نژادی و آزار فقرا و اقلیت‌ها می‌شوند. طبق اطلاعات به‌دست‌آمده از اسناد رسمی، متاسفانه چنین الگوهایی در طول سال‌ها به‌صورت ناخودآگاه در سیستم‌های هوش مصنوعی بارها بازآفرینی و ثبت شده‌اند.

البته ممکن است افراد طراح سیستم‌های تشخیص و شناسایی هویت که بر پایه بهره‌مندی از هوش مصنوعی طراحی شدند، متوجه این موضوع نشوند و حتی ممکن است وجود چنین مشکلات خطرناکی در سیستم‌های خود را انکار کنند زیرا معتقدند در هنگام آماده‌سازی و آموزش چنین سیستم‌هایی هیچ‌گونه تعصب بی‌جایی ایجاد نشده است.

بهبود عملکرد الگوریتم‌ها با داده‌های بهتر

آموزش هوش مصنوعی

ممکن است با خواندن این میان‌تیتر از خود بپرسید آیا واقعاً بهره‌مندی از داده‌های بهتر برای آموزش الگوریتم‌های هوش مصنوعی مورد استفاده برای تشخیص هویت می‌تواند مشکل را برطرف کند؟ قبل از پاسخ به این سؤال باید ببینیم که آیا چنین اقدامی می‌تواند باعث کاهش اشتباهات این الگوریتم‌ها و مانع ایجاد تعصبات بی‌جای ناخواسته شود یا اینکه هیچ مشکلی را از اصل و ریشه برطرف نمی‌کند و این کار مثل این است که تنها پارچه و مرهمی روی زخم بگذارید و منتظر بمانید زخم خودبه‌خود خوب شود؟

بدون تردید در نظر گرفتن احتمال ایجاد تعصبات بی‌جا در هنگام تهیه و آماده‌سازی داده‌های مورد استفاده برای آموزش الگوریتم‌های یادگیری ماشینی، می‌تواند باعث ایجاد مدل‌های بهتری شود؛ اما این کار هم ایجاد خروجی بی‌نقصی را به دنبال ندارد. به صراحت باید بگوییم ایجاد مدلی کاملاً بی‌طرف و بدون تعصب امکان‌پذیر نیست و از هر جنبه‌ای به قضیه نگاه کنیم متوجه می‌شویم که اصلاً کسی به دنبال ساخت مدل بدون تعصب نیست!

بنابراین ما به‌جای ساخت مدل هوش مصنوعی بدون تعصب که کاری غیرممکن است، باید ببینیم برای از بین بردن تعصبات از چه روش‌های مکملی می‌توانیم استفاده کنیم و ببینیم اصلاً استفاده از این روش‌ها ضرورت دارد یا نه یا اینکه می‌توان از این روش‌ها همراه با سیستم هوش مصنوعی استفاده کرد و اینکه کمکی به این سیستم‌ها می‌کند یا نه.

«رشیدا ریچارد» (Rashida Richardson)، وکیل و پژوهشگر که در حال مطالعه تعصبات الگوریتم‌ها دانشکده حقوق رادگرز (Rutgers Law School) در نیوجرسی است، معتقد است که ابهامی در رابطه با این موضوع وجود ندارد و به نظر او بهتر است به‌جای پنهان کردن حقایق مرتبط با سوءاستفاده در زمینه تقویت عملکرد ناقص الگوریتم‌های یادگیری ماشین در طول سال‌های گذشته، باید توجه خود را به سمت برطرف کردن آن دسته از مشکلاتی که همیشه سعی کرده‌ایم آن‌ها را با استفاده از هوش مصنوعی برطرف کنیم، معطوف کنیم.

به‌عبارت‌دیگر، ابتدا باید برای حل مشکلات کنونی جامعه خود تمرکز و پس از آن باید برای ایجاد سیستم‌های هوش مصنوعی قابل رشد و پیشرفت نیز تلاش کنیم

بار دیگر باید به این موضوع اشاره کنیم که ممکن است روزی در آینده دور سیستم‌های ایجاد شده بر پایه هوش مصنوعی جامع به تهدید بزرگی برای بشر و ماشین‌های نابودگر تبدیل شوند؛ اما در حال حاضر نباید نگران چنین موضوعی باشیم.

هراس‌افکنی در مورد هوش مصنوعی هیچ مشکلی را برطرف نمی‌کند و تنها باعث می‌شود از توجه به مشکل واقعی ایجادشده به‌واسطه استفاده از سیستم‌های هوش مصنوعی که می‌تواند بشر را با مشکلات و چالش‌های جدی روبه‌رو کند، دور شویم.

نظرات ۰
وارد شوید

برای گفتگو با کاربران، وارد حساب کاربری خود شوید.