هوش مصنوعی را فراموش کنید؛ هنوز در عصر حماقت مصنوعی هستیم
«بیایید از جامعهمان به عنوان بستری برای آزمایش تکنولوژیهایی که هنوز مطمئن نیستیم جامعه را تغییر خواهند داد یا خیر، استفاده نکنیم.» اینها هشدارهای کارلی کایند، مدیر انستیتوی Ada Lovelace است که بدنهای تحقیقاتی در ...
«بیایید از جامعهمان به عنوان بستری برای آزمایش تکنولوژیهایی که هنوز مطمئن نیستیم جامعه را تغییر خواهند داد یا خیر، استفاده نکنیم.» اینها هشدارهای کارلی کایند، مدیر انستیتوی Ada Lovelace است که بدنهای تحقیقاتی در زمینه هوش مصنوعی در بریتانیا به حساب میآید. «بیایید سعی کنیم به برخی از این مشکلات بیندیشیم – آرام حرکت کنیم و چیزها را تعمیر کنیم به جای اینکه سریع باشیم و چیزها را از بین ببریم».
کایند اخیراً سخنران یکی از پنلهای «پیشگامان دیجیتال» (Digital Frontrunners) بوده است؛ کنفرانسی در کپنهاگ که روی تاثیر هوش مصنوعی و دیگر تکنولوژیهای نسل بعد روی جامعه متمرکز است.
شعار دنیای امروز این است: سریع حرکت کن و چیزها را از بین ببر»
«سریع حرکت کن و چیزها را از بین ببر» شعاری است که با ظهور فیسبوک و تسلطش روی اینترنت تجسم یافته و بسیاری از استارتاپهای سیلیکون ولی نیز آن را قرض گرفتهاند: توسعه بده و یک کمینه محصول پذیرفتی را روانه بازار کن، تکرارش کن، از اشتباهات بیاموز و باز هم تکرارش کن. وقتی صحبت درباره یک اپلیکیشن اشتراکگذاری تصویر، یک شبکه اجتماعی یا سرویس پیامرسان موبایل باشد، این قواعد نسبتاً بیضرر به حساب میآیند. اما در ۱۵ سالی که فیسبوک وارد صحنه شده، صنعت تکنولوژی به غولی بسیار متفاوت تبدیل شده است. رخنه اطلاعات در ابعاد کلان حالا تبدیل به اتفاقی تقریباً روزانه تبدیل شده، استخراج دیتا در سطح صنعتی، دموکراسی را تهدید میکند و هوش مصنوعی در حال نفوذ به تمام جنبههای اجتماعی است.
اگرچه فیسبوک شعار «سریع حرکت کن و چیزها را از بین ببر» خود را رسماً پنج سال پیش کنار گذاشت، به نظر میرسد ریشه بسیاری از مشکلات تکنولوژیک امروزی به این حقیقت بازمیگردد که کمپانیها به حرکت سریع ادامه میدهند: «با تمام نیرو به پیش بران و تمام عواقباش به جهنم».
حماقت مصنوعی
هفته گذشته خبری منتشر شد مبنی بر اینکه کنگره آمریگا در حال تحقیق روی این است که تکنولوژی تشخیص چهره چطور توسط ارتش آمریکا و دیگر کشورها مورد استفاده قرار میگیرد، با اشاره به این نکته که تکنولوژی مورد اشاره هنوز به اندازه کافی دقیق نیست.
در نامه کنگره آمده است:
«مزایای عملیاتی تکنولوژی تشخیص چهره برای رزمندگان نویدبخش است. با این همه، اتکای بیش از حد روی این تکنولوژی نوظهور میتواند عواقبی هم در پی داشته باشد؛ مثلاً اگر اسکنهای چهره معیوب یا غیردقیق به هدفگیری سهوی غیرنظامیها یا به خطر افتادن پیشنیازهای یک ماموریت منجر شود».
مشکل گستردهتر این است که هوش مصنوعی هنوز به اندازه کافی خوب یا قابل اعتماد نیست
در بخشی از این نامه هم خاطر نشان شده که «نرخ دقت در تصاویری که به سوژههای سیاهپوست یا مونث تعلق دارند به شکل مداوم پایینتر از سوژههای سفیدپوست و مذکر بوده است».
درحالی که بیشمار مثال دیگر از این وجود دارد که هوش مصنوعی چه راه طویلی باید بپیماید تا احتمال خطا در الگوریتمها برطرف شود، مشکل گستردهتر این است که هوش مصنوعی هنوز به اندازه کافی خوب یا قابل اعتماد نیست.
«هرکسی میخواهد روی لبه تکنولوژی باشد – از دانشگاهها گرفته تا کمپانیها و دولت ها». دکتر کریستین آر. توریسان، محققی در زمینه هوش مصنوعی و موسس انستیتوی هوش ماشینی ایسلند، در همان پنل کارلی کایند، میگوید: «و آنها فکر میکنند هوش مصنوعی دستاورد بزرگ بعدی است. ولی ما در واقع در عصر حماقت مصنوعی به سر میبریم».
توریسان یکی از پیشگامان حوزه ایست که به عنوان «هوش عمومی مصنوعی» یا «Artificial General Intelligence» شناخته میشود و قرار است با ادغام سیستمهایی جداگانه، یک هوش مصنوعی پیچیدهتر با رفتارهای انسانیتر بسازد؛ رفتارهایی مانند خودآموزی، به کارگیری منطق و برنامهریزی. بسته به اینکه از چه کسی بپرسید، هوش عمومی مصنوعی تا ۵ سال دیگر از راه خواهد رسید یا هنوز مسیری طولانی در پیش دارد یا هیچوقت عملی نخواهد شد. توریسان اما ظاهراً باور دارد که هوش عمومی مصنوعی یک روز امکانپذیر خواهد شد. مطمئن نیست این اتفاق چه روزی میافتد، اما از این مطمئن است که ماشینهای امروزی به آن اندازهای که برخی فکر میکنند هوشمند نیستند.
به ازای تمام اخبار مثبتی که درباره پیروزی هوش مصنوعی بر انسانها میخوانیم، بیشمار مثال از شکست خوردن آن وجود دارد
او میگوید: «وقتی درباره هوش مصنوعی صحبت میکنید، دائماً از کلمه "درک کردن" استفاده میکنید و مردم وقتی قبلاً درباره هوش مصنوعی صحبت میکردند، "درک کردن" را در علامت گفتاورد قرار میدادند. در نهایت موضوع به این بازمیگردد که این ماشینها واقعاً چیزی را درک نمیکنند؛ مشکل اینجاست». به ازای تمام اخبار مثبتی که درباره پیروزی هوش مصنوعی بر انسانها در بازی پوکر، در AlphaGo و در بازی Honor of Kings میخوانیم، بیشمار مثال از شکست خوردن هوش مصنوعی وجود دارد. بنابر اکثر گزارشها، اتومبیلهای بدون راننده و خودران به دوران طلایی خود نزدیک میشوند، اما شواهد دیگر از این حکایت دارند که هنوز موانعی وجود دارد که پیش از رها کردن هوش مصنوعی به حال خودش، باید بر آنها فائق آمد.
برای مثال اخیراً در اخبار خواندیم که رگولاتوریها در حال تحقیق روی قابلیت Smart Summon هستند که تسلاً اخیراً به اتومبیلهای خود آورد؛ قابلیتی که به رانندگان اجازه میدهد اتومبیل پارک شده در پارکینگ را به صورت از راه دور فرا بخوانند. به محض عرضه رسمی این قابلیت طی هفته گذشته، شاهد تصاویری در فضای مجازی بودیم که تصادفهای ناشی از این قابلیت و به صورت کلیتر، وضعیت کمیک به وجود آمده را نمایش میدادند.
اینطور نیست که بخواهیم پیشرفتهای عظیم تولیدکنندگان اتومبیلهای خودران را نادیده بگیریم، اما این موضوع نشان میدهد که نبرد جانفرسا بر سر آوردن اتومبیلهای خودران به بازار، میتواند گاهی به تولید محصولاتی ناقص منجر شود که احتمالاً برای استفاده عمومی آماده نیستند.
تقاطعها
تنش فزاینده -میان مصرفکنندگان، سازمانها، دولتها و آکادمیها- پیرامون تأثیر تکنولوژی بر جامعه مشهود است. در حالی که صنعت تکنولوژی، ابداعات و سرعت را بیشتر از تستهای تکراری ارج مینهد، این خطر وجود دارد که شرایط از کنترل خارج شود. ماجراجویی برای «اولین بودن» یا برای عقد قراردادی سودمند و خوشحال نگه داشتن سهامداران، بیش از حد اغوا کننده است.
مایکروسافت و آمازون برای قرارداد ۱۰ میلیارد دلاری تامین هوش مصنوعی و سرویسهای ابری پنتاگون رقابت می کنند
تمام کمپانیهای بزرگ، از فیسبوک، آمازون و گوگل گرفته تا اپل، مایکروسافت و اوبر، همگی در چندین جبهه تجاری مشغول رقابت هستند و هوش مصنوعی هم معمولاً اصلیترین تمرکز است. تا به امروز چندین تلاش جمعی برای جمعآوری بهترین استعدادهای هوش مصنوعی را شاهد بودهایم، چه از طریق خرید استارتاپها و چه خیلی ساده با استخدام بهترین مغزهای بهترین دانشگاهها. و بعد مشکل عقد قرارداد با مشتریانی شناخته شده مطرح میشود که پول فراوان برای خرج کردن دارند – برای مثال مایکروسافت و آمازون هماکنون در حال رقابت برای قرارداد ۱۰ میلیارد دلاری تامین هوش مصنوعی و سرویسهای ابری پنتاگون هستند.
در میان تمام این جریانات، شرکتهای تکنولوژی به خاطر آمادگی سرویسهای تشخیص چهره خود، با فشار مضاعف از سوی دولت و مراجعه قانونی روبرو شدهاند. در ماه ژانویه امسال، اتحادیهای متشکل از بیش از ۸۵ گروه وکالت، در نامهای سرگشاده، گوگل، مایکروسافت و آمازون را به توقف فروش نرمافزار تشخیص چهرهشان به مراجع قانونی ترغیب کردند – قبل از اینکه دیر شود.
«کمپانیها نمیتوانند همچنان تظاهر کنند که رویکرد "خراب کن بعد بساز" جواب میدهد». نیکول اوزر، مدیر واحد تکنولوژی و آزادیهای مدنی در اتحادیه آزادیهای مدنی آمریکایی کالیفرنیا ادامه میدهد: «تاریخ مشخصاً به ما آموخته که دولت از تکنولوژیهایی مانند تشخیص چهره سوء استفاده خواهد کرد تا جوامع رنگینپوست، اقلیتهای مذهبی و مهاجران را هدف قرار دهد. با تشخیص چهره، ما بر سر یک تقاطع هستیم و تصمیاتی که این کمپانیها به آنها دست خواهند زد، تعیین میکند که نسل بعد باید به خاطر شرکت در این تظاهرات از سیستم پایش دولتی بترسد یا خیلی ساده زندگیاش را بکند.»
سپس در ماه آپریل، چند ده محقق هوش مصنوعی که در حوزه تکنولوژی و آکادمیک فعالیت دارند، به صورت خاص آمازون را مخاطب قرار دارند و از آن خواستند که فروش نرمافزار تشخیص چهره Rekognition را به مراجع قانونی متوقف کند. این محققین عقیده دارند مشکل اصلی اینجاست که هیچ قانونگذاری و کنترلی بر چگونگی استفاده از این تکنولوژی وجود ندارد.
آمازون به صورت رسمی تایید کرده که به ارائه تکنولوژی تشخیص چهره خود به هر دولت فدرالی ادامه خواهد داد
در بیانیه آنها آمده بود: «از آمازون میخواهیم فروش Rekognition را به مراجع قانونی متوقف کند، چرا که هیچ قانون و حفاظی برای جلوگیری از سوء استفاده وجود ندارد. هیچ قانون یا استاندارد معینی وجود ندارد که اطمینان حاصل کند Rekognition به شکلی مورد استفاده قرار خواهد گرفت که آزادیهای مدنی را نقض نکند.»
با این همه آمازون بعداً به صورت رسمی تایید کرد که به ارائه تکنولوژی تشخیص چهره خود به هر دولت فدرالی ادامه خواهد داد – تا زمانی که این کار قانونی باشد.
این مباحثات تنها محدود به ایالات متحده نیستند. این مشکلی جهانی است که کشورها و کمپانیهای مختلفی باید با آن سر و کله بزنند. در ماه آگوست، ایستگاه قطار کینگز کراس در لندن به خاطر استفاده از تکنولوژی تشخیص چهره در دوربینهای امنیتی CCTV اش خبرساز شد و سوالاتی را نه صرفاً از منظر اخلاقی، بلکه از نظر قانونمداری برانگیخت. در گزارشی دیگر نیز متوجه شدیم که پلیس محلی تصویر ۷ نفر را به سیستم تشخیص چهره کینگز کراس سپرده بود.
تمام این مثالها از آن جهت به کار میروند که اثبات کنند توسعه هوش مصنوعی آنقدر به سرعت پیش میرود که از توانایی جامعه در تعیین موازین اخلاقی و ایجاد تعادل پیشی گرفته است.
عقب راندن
تکنولوژی دیجیتال معمولاً سریعتر از آن پیش رفته که رگولاتوریها و ناظران بیرونی قادر به همگام ماندن با آن بوده باشند، ولی حالا ما شاهد تلاشهایی در راستای عقب راندن از سوی رگولاتوریها هستیم – خصوصاً در زمینه حفاظت از حریم اطلاعاتی. قانونی حریم مصرفکنندگان کالیفرنیا (CCPA) که قرار است از نخستین روز سال ۲۰۲۰ عملی شود، طراحی شده تا حقوق مصرفکنندگان از نظر حریم شخصی را در سراسر این ایالت بهبود ببخشد و اروپا هم مشغول سبک-سنگین کردن قانون حریم الکترونیکی (ePrivacy) است که به حقوق افراد و حریم شخصی آنها در ارتباطات الکترونیکی احترام میگذارد.
اما بزرگترین پیشرفت از منظر قانونگذاری در سالهای اخیر، مقررات عمومی حفاظت از داده اتحادیه اروپا (GDPR) بوده است که که تمام قوانین مرتبط با چگونگی مدیریت دیتای مصرفکنندگان و حفاظت از آنها را از سوی کمپانیهای تصریح میکند. غرامتهای سنگین در انتظار هر شرکتی است که GDPR را نقض کند. مثالش گوگل بود که اوایل امسال از سوی رگولاتوری فرانسوی CNIL به خاطر «نبود شفافیت» درباره چگونگی شخصیسازی تبلیغات، با غرامت 67 میلیون دلاری روبرو شد. در جایی دیگر، بریتیش ایرویز و هتلهای زنجیرهای ماریوت به خاطر رخنههای اطلاعاتی عظیم، به ترتیب محکوم به پرداخت غرامت ۲۳۰ و ۱۲۳ میلیون دلاری شدند. این غرامتها میتوانند زنگ خطری برای کمپانیها باشند تا در آینده دیتا را بهتر مدیریت کنند. اما از چند منظر، قانونگذاریهایی که حالا میبینیم اندکی دیر از راه رسیدهاند – کشتی حریم شخصی بادبانهایش را کشیده است.
«بازگشت به قبل کاری واقعاً دشوار است – این شرایط را قبلاً در زمینه قانونگذاری حفاظت از اطلاعات دیدهایم، اینکه تکنولوژی بسیار سریعتر از رگولاتوریها حرکت میکند.» کایند ادامه میدهد:«تمام این کمپانیها شروع به کار روی تمام این مسائل کردند؛ حالا قوانینی مانند GDPR داریم که سعی میکنند برخی از آن تلاشها را عقب بکشند و این کاری واقعاً دشوار است».
با نگاه به ۱۵ سال پیش، دورانی که پردازش ابری و پردازش فراگیر جا افتاد، احتمالاً درسهای زیادی برای آموختن درباره چگونگی همگام باقی ماندن جامعه با تحقیقات، توسعه و پیادهسازی هوش مصنوعی وجود داشته باشد. کایند به عنوان سخن آخر میگوید: «بیایید پیش از به کارگیری این چیزها، اندکی از سرعت بکاهیم. تا واقعاً تاثیرات اجتماعی را درک کنیم. به نظرم آنچه در خطر است بسیار وسیع است».
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.