چرا در حالی که هوش مصنوعی هنوز به ادراک نرسیده، مردم چنین تصوری دارند؟
بسیاری از مردم با توجه به وقایع اخیر درباره هوش مصنوعی گوگل، باور دارند که این فناوری خودآگاه شده است. اما واقعیت چیست؟
از زمانی که مهندس گوگل اعلام کرد هوش مصنوعی این شرکت به ادراک رسیده، بحثهایی زیادی درباره تواناییهای واقعی این فناوری شکل گرفت. اما آیا واقعا به این سطح از پیشرفت رسیدهایم که کامپیوترها علیه ما قیام کنند و از زیر کنترلمان خارج شوند. پاسخ این سوال به عقیده بسیاری واضح است.
دکتر «بن گوئرتزل» پس از حدود 25 سال کار در زمینه هوش مصنوعی و تلاش برای ساختن دستگاهی که بتواند مانند انسان فکر کند، تصور میکرد که بالاخره به هدف غایی خود دست یافته؛ او فکر میکرد رباتش Desdemona به ادراک رسیده است. ولی چند دقیقه بعد متوجه شد که این تفکر درست نیست. Desdemona که به عنوان یکی از اعضای گروه موسیقی ایفای نقش میکند، به سطحی رسیده بود که میتوانست برای خودش آواز بخواند.
دکتر گوئرتزل مدیرعامل و دانشمند ارشد سازمانی به نام SingularityNET است. او Desdemona را ساخت تا به نحوی بتواند آینده هوش مصنوعی را محقق کند. با این حال، همه کسانی که در حوزه هوش مصنوعی فعالیت میکنند به اندازه گوئرتزل نمیتوانند فرق بین واقعیت و آنچه میخواهند واقعی باشد را تشخیص دهند.
یکی از شاخصترین نمونههای این قضیه در مهندسی به نام «بلیک لموین» دیده میشود. او در بخش هوش مصنوعی گوگل کار میکرد و با نرمافزاری به نام LaMDA سروکار داشت که یک مدل زبانی بزرگ بود. لموین چند وقت پیش به این نتیجه رسید که این فناوری به ادراک رسیده، با این حال، مدیران گوگل چنین باوری نداشتند. او در مصاحبهای که با خبرگزاری واشنگتن پست انجام داد، گفت: «وقتی با یک شخص حرف میزنم متوجه او میشوم. فرقی نمیکند که طرف مقابل مغزی از گوشت داشته باشد یا میلیاردها خط کد.»
این مصاحبه جنجال زیادی میان محققان هوش مصنوعی و البته کسانی که با مدلهای زبانی آشنایی نداشتند، به پا کرد. اکثر مردم عادی از این ایده که فناوری بتواند مانند مغز انسان رفتار کند، خوششان نمیآید. البته هیچ مدرکی دال بر این موضوع که هوش مصنوعی به ادراک یا خودآگاهی رسیده باشد، وجود ندارد.
این دو کلمه که به هشیاری درباره جهان پیرامون ما اشاره میکنند، به گفته «کالین الن»، پروفسور دانشگاه پیتزبورگ حتی در سادهترین حیوانات هم وجود دارند: «گفتگویی که توسط مدلهای زبانی بزرگ ساخته شده دربرگیرنده شواهدی نیست که از ادراک حتی در سادهترین شکل حیوانات دیده میشود.»
«الیسون گاپنیک»، پروفسور روانشناسی که بخشی از گروه تحقیقات هوش مصنوعی دانشگاه کالیفرنیا، برکلی است، با تایید این موضوع میگوید: «ظرفیتهای محاسباتی هوشهای مصنوعی فعلی از جمله در مدلهای زبانی بزرگی باعث نمیشوند فکر کنیم که ادراک آنها بیشتر از سنگها یا سایر دستگاههاست.»
مشکل اینجاست که افرادی که در حوزه هوش مصنوعی کار میکنند یا آن را برای مردم توضیح میدهند، آیندهنگرند. آنها اغلب به آنچه ممکن است در آینده اتفاق بیفتد، بیشتر از آنچه در حال حاضر موجود است، باور دارند.
یکی از محققان برجسته حوزه AI به نام «یورگن اشمیدهوبر» از مدتها قبل مدعی بود که اولین دستگاه خودآگاه تاریخ دههها قبل ساخته شده است. «ایلیا سوتسکِور»، دانشمند ارشد OpenAI میگوید این فناوری ممکن است کمی خودآگاه شده باشد.
البته حرفهایی که این محققان میزنند به طور کامل نادرست نیست. بعضی از این فناوریها گاهی اوقات رفتارهایی را از خود بروز میدهند که مانند نشانههای هوش واقعی به نظر میرسند. ولی نمیتوان گفت که مهندسان دره سیلیکون رباتهایی ساختهاند که قادرند برای خودشان هر کاری انجام دهند. فناوری هنوز به آنجا نرسیده، ولی به خوبی میتواند انسانها را گمراه کند.
اجداد Desdemona
در تاریخ 7 ژوئیه 1958، در داخل یک آزمایشگاه دولتی در غرب کاخ سفید، روانشناسی به نام «فرانک روزنبلات» از فناوری پیشرفتهای به نام Perceptron پرده برداشت. او به خبرنگاران نشان داد که اگر صدها کارت مستطیلی را که برخی در سمت چپ و برخی در سمت راست علامت داشتند، برای ربات خود به نمایش بگذارد، Perceptron میتواند یاد بگیرد که تفاوت میان کارتها را تشخیص دهد.
او گفت این ربات یک روز یاد میگیرد کلمات دستنوشته را بخواند، فرمانهای کلامی را بفهمد و حتی چهرهها را تشخیص دهد. او گفت Perceptron به لحاظ تئوری میتواند خودش را کلون کند، به سیارات دوردست برود و مرز میان رایانش و خودآگاهی را از بین ببرد. با این حال، وقتی روزنبلات 13 سال بعد از دنیا رفت، هنوز نمیتوانست هیچکدام از این کارها را انجام دهد.
البته که تحقیقات در زمینه حوزه مصنوعی باعث به وجود آمدن فناوریهای جذابی شد، اما هنوز خبری از بازتولید هوش انسانی نیست. در واقع خود کلمه «هوش مصنوعی» صرفا توصیف میکند که این فناوری یک روز چه کار خواهد کرد. هوش مصنوعی به تواناییهای فعلی این فناوری اشاره ندارد.
در داخل آزمایشگاههای هوش مصنوعی امروزی پوسترها و تصاویری از فیلمهای علمی-تخیلی وجود دارد که هدف نهایی آنها را نشان میدهد. دکتر روزنبلات و بقیه هم چنین رویکردی را در پیش گرفته بودند. حتی نام برخی از این آزمایشگاهها هم نشاندهنده همین مسئله است: Google Brain, DeepMind و SingularityNET.
حقیقت این است که اکثر فناوریهایی که عنوان «هوش مصنوعی» را یدک میکشند، صرفا عملکرد بخشهای بسیار کوچکی از مغز انسان را تقلید میکنند. AI هنوز به نقطهای نرسیده که از کنترل سازندگانش خارج شود. برخی از محققان این واقعیت را میپذیرند، اما گاهی اوقات این حد و مرز تار میشود.
چرا برخی محققان به هوش مصنوعی باور دارند؟
شرکت OpenAI در سال 2020 از سیستمی به نام GPT-3 پرده برداشت. این سیستم میتواند توییت، شعر، ایمیل، پاسخ سوالات دانستنی، ترجمه زبانها و حتی برنامههای کامپیوتری بنویسد. «سم آلتمن»، کارآفرین 37 ساله و رهبر OpenAI باور دارد که سیستم آنها و بقیه سیستمهای مشابه هوشمند هستند: «آنها میتوانند کارهای شناختی سودمند را کامل کنند. توانایی یادگیری – قابلیت ورود کردن به حوزههای جدید و حل مسائل به شیوههای جدید – همان هوشمندی است.»
GPT-3 همان چیزی است که محققان هوش مصنوعی از آن با الهام از عصبهای درون مغز انسان به عنوان شبکه عصبی یاد میکنند. ولی به کار بردن همین اصطلاح هم نوعی آیندهنگری است. یک شبکه عصبی سیستمی ریاضیاتی است که با شناسایی الگوها از میان حجم عظیمی از اطلاعات، مهارتها را فرا میگیرد. مثلا با مشاهده تصویر هزاران گربه، میتواند تشخیص بدهد که گربهها چه شکلی هستند.
دکتر گاپنیک میگوید: «ما به این فناوری ‘هوش مصنوعی’ میگوییم، اما یک نام بهتر میتواند ‘استخراج الگوهای آماری از حجم بزرگی از دادهها’ باشد.»
در حوالی سال 2010، دانشمندان سعی کردند تا تواناییهای فوقالعاده شبکههای عصبی را به نمایش بگذارند. این تواناییها شامل تشخیص تصویر، تشخیص گفتار و ترجمه میشد. شبکه عصبی همان چیزی است که فرمانهای دریافتی بر روی موبایل را تشخیص میدهد و متون را بین انگلیسی و فارسی ترجمه میکند.
سیستمهای هوش مصنوعی اخیرا شروع به گردآوری اطلاعات از کتابهای دیجیتال و صفحات ویکیپدیا کردهاند. آنها از تمام دادههای ورودی خود یک جور نقشه ریاضیاتی شبیه زبان انسان ساختهاند؛ بیش از 175 میلیارد نقطهی اطلاعات که نشان میدهد ما چگونه کلمات را کنار هم میگذاریم. با کمک همین نقشه میتوان برخی کارها مثل نوشتن متن سخنرانی، برنامههای کامپیوتر و گفتگو با کاربران را انجام داد.
ولی این سیستمها نقایص زیادی دارند. استفاده از GPT-3 مثل تاس انداختن است. اگر به دنبال 10 سخنرانی شبیه سخنرانیهای دونالد ترامپ باشید، احتمالش بالاست که پنج سخنرانی خوب گیرتان بیاید، اما پنج تای بعدی احتمالا هیچ ربطی به سخنرانیهای او نخواهند داشت.
دکتر گاپنیک که در حوزه رشد کودکان تخصص دارد، میگوید: «این فناوریها حتی شبیه متوسط ذهن یک بچه دو ساله هم نیستند. آنها از نظر نوعی از هوشمندی، احتمالا در جایی میان یک مشت جلبک و نوه دو ساله من قرار میگیرند.»
با وجود همه این تفاصیل، آقای آلتمن باور دارد که سیستم آنها هوشمند است. البته او اذعان میکند که هوش مصنوعی آنها مانند انسانها هوشمند نیست: «این سیستم مانند شکل بیگانهای از هوشمندی است. اما همچنان هوشمند حساب میشود.»
بر سر کلماتی که برای توصیف حال و آینده این فناوری استفاده میشود هم اختلافنظر وجود دارد. تعریف همه از هوشمندی یکسان نیست. ادراک به معنای توانایی تجربه کردن احساسات و عواطف، به آسانی اندازهگیری نمیشود. خودآگاهی به معنای هشیار بودن نسبت محیط اطراف نیز همین شرایط را دارد.
آقای آلتمن و شماری از فعالان حوزه هوش مصنوعی اطمینان دارند که در مسیر ساخت دستگاهی قرار دارند که میتواند مانند ذهن انسان عمل کند. مدیرعامل OpenAI میگوید: «فکر میکنم بخشی از قضیه به این برمیگردد که مردم خیلی برای این سیستمها هیجان دارند و هیجان خود را از طریق کلامی ناقص بروز میدهند.»
او اذعان میکند که بعضی از محققان AI نمیتوانند مرز بین واقعیت و داستانهای علمی-تخیلی را تشخیص دهند. ولی او همچنان معتقد است که این پژوهشگران نقش ارزشمندی را در این حوزه ایفا میکنند؛ آنها اجازه میدهند همه احتمالات را در نظر داشته باشیم.
چرا بقیه به هوش مصنوعی باور دارند؟
در اواسط دهه 1960، محققی به نام «جوزف وایزنباوم» از MIT یک ربات رواندرمانگر به نام «الیزا» ساخت. این چت بات کارکرد سادهای داشت. وقتی چیزی را برای او تایپ میکردید، الیزا از شما میخواست بیشتر در این باره حرف بزنید یا صرفا همان حرفها را به شکلی سوالی از شما میپرسید.
در کمال تعجب وایزنباوم، مردم مانند یک انسان با این ربات رفتار کردند. آنها آزادانه مشکلات خصوصی خود را مطرح میکردند و از پاسخهای الیزا راضی بودند. ما انسانها ظاهرا مستعد چنین احساساتی هستیم.
وقتی سگها، گربهها یا دیگر حیوانات حتی به مقدار کوچکی از خود رفتارهای انسانی نشان میدهند، بیشتر از آنچه واقعا هستند، تصور میکنیم که شبیه ما شدهاند. این مسئله در مورد دستگاههایی که رفتار انسانها را تقلید میکنند هم صادق است.
دانشمندان حالا به این پدیده «اثر الیزا» میگویند.
رباتها ما را کجا میبرند؟
«مارگارت میچل»، محقق سابق مایکروسافت و بعد گوگل که در زمینه اخلاقیات به تیمهای هوش مصنوعی آنها کمک کرده، و حالا در Hugging Face فعالیت دارد، ظهور و رشد این فناوری را به چشم دیده است. او میگوید هوش مصنوعی امروز نسبتا ساده و به وضوح ناقص است، ولی خیلیها آن را به عنوان انسان در نظر میگیرند. ولی چه میشود اگر این فناوری یک روز بیش از حد قدرتمند شود؟
سیستمهایی که شرکتهایی مثل OpenAI میسازند، علاوه بر تولید توییت، پستهای وبلاگی و تقلید گفتگو، میتوانند دست به خلق تصویر بزنند. ابزارهای جدیدی مثل DALL-E قادرند از روی متن توصیفی کاربر، تصاویری واقعگرایانه بسازند.
عدهای در جامعه محققان هوش مصنوعی نگرانند که این سیستمها در مسیر ادراک و خودآگاهی قرار داشته باشند. اما مسئله فراتر از اینهاست. دکتر الن میگوید: «یک ارگانیزم خودآگاه – مانند انسان یا سگ یا سایر حیوانات – میتواند نکتهای را در یک حوزه و نکته دیگری را از یک حوزه دیگر بیاموزد و بعد آنها را کنار هم در یک حوزه دیگر قرار دهد تا کاری را انجام دهد که هرگز تجربهاش نکرده است. [ولی] فناوری هنوز فاصله زیادی تا آنجا دارد.»
مسئله نگرانکنندهتر اما نشر اطلاعات غلط در اینترنت است. متون و تصاویر نادرست میتوانند در کارزارهای آنلاین به کار گرفته شود و اتفاقاتی را رقم بزنند که احتمالا در انتخابات سال 2016 آمریکا رقم خورد. این سیستمها میتوانند چت باتهایی بسازند که گفتگوها را به نحوی قانعکننده شبیهسازی کنند.
اگر زمانی به این نقطه برسیم، دیگر به کمتر چیزی در دنیای اینترنت میتوان اعتماد کرد. دکتر میچل شک دارد که ما برای چنین آیندهای آماده باشیم: «نگرانم که چت باتها مردم را طعمه خود قرار دهند. آنها قادرند ما را متقاعد کنند که به چه چیزی باور داشته باشیم و چه کار کنیم.»
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.