خطر هوش مصنوعی و تسلط بر زبان؛ سیستم عامل تمدن بشری هک شده است!
زبان مهمترین رکن در تاریخ تمدن بشر بوده است و حالا با چیرگی هوش مصنوعی بر زبان، همهچیز در معرض خطر قرار دارد.
ترس از هوش مصنوعی از ابتدای عصر کامپیوترها همراه انسان بوده است. این هراس تاکنون بر استفاده فیزیکی از رباتها برای کشتن، بهبردگیکشیدن یا جایگزینکردن انسانها محدود بود، اما ابزارهای جدید هوش مصنوعی حالا از سمتوسویی غیرمنتظره بقای تمدن بشری را هدف قرار دادهاند. زبان سیستم عامل تمدن ماست و هوش مصنوعی حالا میتواند از طریق کلمات، اصوات، تصاویر و ویدیوها زبان را در دست بگیرد و بهشکلی خارقالعاده از آن استفاده و سوءاستفاده کند.
این مقاله یادداشتی به قلم «یووال نوح هراری»، تاریخپژوه، فیلسوف و نویسنده کتابهایی ازجمله «انسان خردمند» و «انسان خداگونه» است که در رسانه اکونومیست منتشر شده. متن مذکور با تغییرات اندک ترجمه و آماده شده است:
زبان همان چیزی است که تقریباً تمام فرهنگ بشر را شکل داده است. برای مثال، حقوق بشر در DNA ما حک نشده، بلکه پدیدهای فرهنگی است که ما با روایت داستانها و تدوین قوانین آن را بهوجود آوردیم. پول هم یک پدیده فرهنگی است. اسکناس صرفاً یک کاغذ رنگی است و امروز حتی بخش عمده همین پول حتی بهصورت اسکناس وجود ندارد، بلکه به حالت دیجیتالی درآمده است. اما آنچه که به پول ارزش میدهد، داستانهایی است که بانکها، وزرای اقتصاد و حتی فعالان حوزه رمزارزها به ما میگویند.
حال چه میشود اگر یک موجود غیرانسانی هوشمند در تعریفکردن داستانها، خلق ملودیها، ترسیم تصاویر، حجاری مجسمهها و نوشتن قوانین از انسانهای معمولی پیشی بگیرد؟ عمده افرادی که درباره ChatGPT و دیگر ابزارهای هوش مصنوعی فکر میکنند، به یاد استفاده دانشآموزان از این فناوری برای نوشتن تکالیف میافتند. ولی وقتی بچهها دست به چنین کاری بزنند، چه بلایی سر سیستم آموزشی ما میآید؟ چنین سؤالاتی اگرچه جذاباند، اما ما را از دیدن تصویر بزرگتر غافل میکنند.
تکالیف مدرسه را فراموش کنید. انتخابات ریاست جمهوری بعدی آمریکا در سال 2024 را نظر بگیرید، و تصور کنید که اثر ابزارهای هوش مصنوعی در تولید انبوه محتواهای سیاسی، اخبار دروغین و تشکیل گروههای فرقهای جدید چه خواهد بود.
گروه QAnon در سالهای اخیر عمدتاً بهصورت ناشناس در فضای آنلاین با پیامهایی موسوم به «نزولات Q» فعالیت داشتهاند. طرفداران این گروه نزولات Q را بهعنوان متنی مقدس گردآوری، بازگردانی و تفسیر میکنند. هرچند با توجه به شواهد، تمام نزولات Q قبلی توسط انسانها نوشته شده بودند، و باتها فقط در توزیع آنها نقش داشتند، اما در آینده ممکن است اولین فرقههایی را ببینیم که متونشان توسط هوش غیرانسانی نوشته میشوند.
در سطوح دیگر، ممکن است بهزودی با موجوداتی وارد بحثوجدلهای اینترنتی پیرامون سقط جنین، تغییرات اقلیمی و جنگ روسیه و اوکراین شویم که فکر میکنیم انسان هستند، اما در واقع هوش مصنوعیاند. نکته مهم اینجاست که مباحثه با یک بات برای تغییردادن نظر هوش مصنوعی کاری به غایت بیهوده است. از آن سو، هوش مصنوعی میتواند با چنان مهارتی پیامهای خود را بنویسد که تأثیر قابل توجهی روی نظر ما بگذارد.
قدرت هوش مصنوعی در مهارتش پیرامون استفاده از زبان است
چیرگی بالای هوش مصنوعی بر زبان، میتواند به این فناوری اجازه دهد تا با انسانها روابط صمیمانهای برقرار کند و از همین صمیمیت برای تغییر نظر و جهانبینی ما بهره بگیرد. اگرچه بهنظر نمیآید که هوش مصنوعی ذاتاً خودآگاهی یا احساس داشته باشد، این فناوری میتواند با ایجاد نوعی وابستگی احساسی در انسانها، این صمیمیت غیرواقعی را ایجاد کند.
در ماه ژوئن 2022، «بلیک لموین»، مهندس گوگل بهصورت عمومی مدعی شد که چتبات هوش مصنوعی LaMDA به ادراک رسیده است. این ادعای جنجالی در نهایت به اخراج او منتهی شد. ولی جالبترین نکته پیرامون این ماجرا ادعای آقای لموین نبود که احتمالاً هم نادرست است. نکته اینجاست که او حاضر بود شغل جذاب خود را بهخاطر این چتبات هوش مصنوعی بهخطر بیندازد. اگر هوش مصنوعی میتواند کاری کند که افراد روی شغل خود ریسک کنند، این فناوری قادر به چه اعمال نفوذهای دیگری بر مردم خواهد بود؟
در مبارزه سیاسی در عرصه عقل و دل، صمیمیت مؤثرترین سلاح است و هوش مصنوعی حالا میتواند در مقیاسی گسترده با میلیونها نفر رابطه صمیمانه ایجاد کند. همه ما میدانیم که شبکههای اجتماعی در بیش از یک دهه اخیر به میدان مبارزهای برای کنترل توجه انسانها تبدیل شدهاند. اکنون با نسل جدید هوش مصنوعی، این مبارزه بر جلب صمیمیت متمرکز خواهد شد. زمانی که هوشهای هوش مصنوعی بر سر جعل روابط صمیمانه با ما، با یکدیگر وارد نبرد شوند، چه بر سر جامعه بشری و روانشناسی بشری خواهد آمد؟ کدام هوش مصنوعی موفق میشود که نظر ما را برای رأیدادن به سیاستمدار موردعلاقه خود یا خرید محصولات مختلف تغییر دهد؟
حتی بدون ایجاد «صمیمیت دروغین»، ابزارهای جدید هوش مصنوعی بر نظرات و جهانبینی ما اثر بسزایی خواهند داشت. مردم احتمالاً از یک هوش مصنوعی بهعنوان مشاوری همهچیزدان استفاده خواهند کرد. عجیب نیست که حتی گوگل هم به وحشت افتاده است. وقتی میتوانم هر سؤالی را از مشاور همهچیزدانم بپرسم، چرا باید زحمت جستجو را به خودم بدهم؟ صنعت خبر و تبلیغات هم باید بترسند. وقتی میتوانم از مشاورم بخواهم که جدیدترین اخبار را به من بگوید، چرا باید روزنامه بخوانم؟ و در شرایطی که میتوانم از مشاورم بپرسم که باید چه چیزی بخرم، دیگر هدف تبلیغات چیست؟
هوش مصنوعی میتواند مترادف با پایان تاریخ بشری باشد
و حتی این سناریوها هم تصویر بزرگ را بهدرستی رسم نمیکنند. آنچه ما دربارهاش حرف میزنیم، احتمالاً مترادف با پایان تاریخ بشری است. نه پایان تاریخ، بلکه صرفاً پایان آن بخش از تاریخ که تحت سلطه انسانها بوده است. تاریخ همان تعامل میان بیولوژی و فرهنگ است؛ میان نیازهای بیولوژی و تمایل برای چیزهایی مثل خوراک و سرگرمی، و مخلوقات فرهنگی ما ازجمله قوانین. تاریخ همان فرایندی است که طی آن قوانین به موضوعاتی مثل خوراک شکل میدهند.
هنگامی که هوش مصنوعی فرهنگ را در دست بگیرد، و شروع به خلق داستان، ملودی، قانون و مذهب کند، چه اتفاقی برای روند تاریخ خواهد افتاد؟ ابزارهای پیشین نظیر مطبوعات چاپی و رادیو به گسترش ایدههای فرهنگ بشری کمک کردند، ولی هرگز ایدههای فرهنگی خودشان را بهوجود نیاوردند. هوش مصنوعی بهکلی متفاوت است. این فناوری میتواند بهطور کامل ایدهها و فرهنگ جدیدی بسازد.
هوش مصنوعی در ابتدا احتمالاً پروتوتایپهای بشری را که با آنها آموزش داده شده است، تقلید خواهد کرد. اما با گذشت هر سال، فرهنگ هوش مصنوعی جسورانه به نقاطی قدم میگذارد که هیچ انسانی تابهحال آنجا نرفته است. گونه بشر هزاران سال است که درون رؤیای دیگر انسانها زندگی کرده است. ولی در دهههای آینده احتمالاً درون رؤیای یک موجود هوشمند بیگانه زندگی خواهیم کرد.
هراس از هوش مصنوعی تنها در چند دهه گذشته گریبان نوع بشر را گرفته است. اما انسانها از هزاران سال پیش با ترس بسیار عمیقتری دستوپنجه نرم میکردند. ما همیشه به قدرت داستانها و تصاویر در دستکاری ذهن و ایجاد توهماتمان آگاه بودیم. در نتیجه، انسان از دیرباز نگران گیرافتادن در دنیای توهمات بوده است.
«رنه دکارت» در قرن هفدهم نگران بود که یک اهریمن بدذات او را درون دنیایی از توهمات گیر انداخته باشد. در یونان باستان، «افلاطون» تمثیل مشهور غار را مطرح کرد که در آن گروهی از انسانها درون غاز زندگانی خود به زنجیره کشیده میشوند و روبهروی یک دیوار خالی قرار میگیرند. یک صفحه، صفحهای که در آن بازتاب سایههای مختلف را میبینند. زندانیان به اشتباه تصور میکنند که این توهمات، واقعیت زندگیشان است.
خردمندان بودایی و هندو در دوران باستان میگفتند همه انسانها در تلهای درون «مایا»، دنیای توهمات، زندگی میکنند. آنچه ما بهطور عادی بهعنوان واقعیت در نظر میگیریم، اغلب تخیلات ذهنمان است. مردم ممکن است بهخاطر باور به این یا آن توهم جنگ راه بیندازند، بقیه را بکشند و حاضر به فداکردن جان خود باشند.
انقلاب هوش مصنوعی ما را رودرروی اهریمن دکارت، و غار افلاطون، و مایا قرار میدهد. اگر مراقب نباشیم، ممکن است در پشت پردهای از توهمات به دام بیفتیم و نتوانیم این پرده را بدریم یا حتی متوجه شویم که پردهای وجود دارد.
البته که قدرت هوش مصنوعی میتواند استفادههای مفید هم داشته باشد. من روی این موضوع تمرکز نمیکنم، چون افرادی که هوش مصنوعی را توسعه میدهند، به اندازه کافی در این باره حرف میزنند. کار تاریخپژوه و فیلسوفی مثل من این است که به خطرات اشاره کنیم. اما مطمئناً هوش مصنوعی میتواند به روشهای بیشمار، از کشف درمانهای جدید برای سرطان گرفته تا کشف راهکارهای حل بحرانهای زیستمحیطی، به ما کمک کند. سؤال پیش روی ما این است که چگونه مطمئن شویم این ابزارهای جدید هوش مصنوعی نه در راهی نامناسب بلکه برای اهداف نیک استفاده میشوند. برای انجام این کار، نخست باید توانمندیهای حقیقی این ابزارها را بشناسیم.
هوش مصنوعی بیشباهت به فناوری هستهای نیست
از سال 1945 میدانیم که فناوری هستهای میتواند برای تولید انرژی ارزان به کمک انسانها بیاید. ولی این فناوری در عین حال میتواند تمدن بشری را نابود کند. بنابراین ما تمام نظم جهانی را تغییر دادیم تا از بشریت محافظت کنیم و اطمینان یابیم که فناوری هستهای در وهله اول برای امور نیک استفاده میشود. اکنون باید با سلاح کشتار جمعیِ جدیدی سروکله بزنیم که میتواند دنیای ذهنی و اجتماعی ما را ویران کند.
هنوز هم میتوانیم ابزارهای جدید هوش مصنوعی را قانونمند کنیم، اما باید سریع باشیم. اگرچه فناوری هستهای نمیتوانست فناوری هستهای قدرتمندتری بهوجود بیاورد، اما هوش مصنوعی میتواند بهشکلی تصاعدی توانمندتر شود. اولین گام حیاتی این است که خواستار بررسیهای ایمنی سفتوسختی باشیم که پیش از عرضه عمومی ابزارهای هوش مصنوعی در نظر گرفته شوند.
همانطور که شرکتهای داروسازی نمیتوانند داروهای جدید را پیش از آزمایش عوارض کوتاهمدت و درازمدتشان عرضه کنند، شرکتهای فناوری هم نباید ابزارهای جدید هوش مصنوعی را پیش از حصول اطمینان از امنبودنشان منتشر کنند. ما به نهادی شبیه به سازمان غذا و دارو برای فناوری نیاز داریم و دیروز باید این سازمان را تشکیل میدادیم.
آیا کاهش سرعت پیادهسازی عمومی هوش مصنوعی باعث نمیشود که جوامع دموکراتیک از رژیمهای خودکامه عقب بمانند؟ اتفاقاً ماجرا برعکس است. پیادهسازی بیقانون هوش مصنوعی هرجومرج اجتماعی ایجاد میکند که به نفع تمامیتخواهان است و دموکراسی را ویران میکند. دموکراسی یک گفتوگو است، و گفتوگوها بر زبان اتکا دارند. زمانی که هوش مصنوعی زبان را هک میکند، این اتفاق میتواند توانایی ایجاد گفتوگوهای معنادار را از ما بگیرد و دموکراسی را نابود کند.
ما امروز با یک بیگانه هوشمند در زمین مواجه هستیم. چیز زیادی درباره این موجود نمیدانیم، جز این که ممکن است تمدن ما را از بین ببرد. ما باید پیادهسازی غیرمسئولانه ابزارهای هوش مصنوعی در حوزه عمومی را متوقف کنیم، و برای هوش مصنوعی قانون بگذاریم، قبل از این که هوش مصنوعی برای ما قانون بگذارد. و اولین قانونی که من پیشنهاد میکنم این است که ابزارهای هوش مصنوعی باید اعلام کنند که هوش مصنوعی هستند. اگر من با یک نفر حرف بزنم، و نتوانم تشخیص بدهم که طرف مقابلم انسان است یا هوش مصنوعی، به پایان دموکراسی میرسیم.
این متن توسط یک انسان نوشته شده است. یا شاید هم نه؟
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.