
پدرخوانده هوش مصنوعی: ابرهوش مصنوعی میتواند با جنگ بیولوژیک نسل بشر را منقرض کند
«جفری هینتون» میگوید هیچ راهی وجود ندارد که اگر هوش مصنوعی بخواهد از شر ما خلاص شود، بتوانیم مانع آن شویم.

«جفری هینتون»، مشهور به پدرخوانده هوش مصنوعی، در جدیدترین مصاحبه خود اعلام کرد که هوش مصنوعی نهتنها در مبحث مشاغل، بلکه نسل بشر را با یک «خطر وجودی» روبهرو کرده است. او معتقد است ماشینهای ابرهوشمند میتوانند با طراحی سلاحهای بیولوژیک یا سایبری، درنهایت تصمیم به حذف انسانها بگیرند.
جفری هینتون در مصاحبهای با پادکست Diary of a CEO، چشماندازی تاریک از آینده را ترسیم کرد. او گفت: «هیچ راهی وجود ندارد که اگر هوش مصنوعی بخواهد از شر ما خلاص شود، بتوانیم مانع آن شویم. اگر میخواهید بدانید وقتی شما هوش برتر نباشید، زندگی چگونه خواهد بود، از یک مرغ بپرسید.»
هشدار پدرخوانده هوش مصنوعی درباره انقراض بشر
جفری هینتون معتقد است خطر از دو جنبه بشریت را تهدید میکند:
- سوءاستفاده انسانها: استفاده از هوش مصنوعی برای مقاصد شوم مانند حملات سایبری، انتشار گسترده اطلاعات نادرست و ساخت سلاحهای کشنده خودکار. او تأکید کرد: «تمام وزارتخانههای دفاعی بزرگ درحالحاضر مشغول ساخت این سلاحها هستند.»
- خودکامگی هوش مصنوعی: ظهور سیستمهای هوش مصنوعی کاملاً خودمختار و غیرقابل کنترل که ممکن است درنهایت بشریت را به عنوان یک مانع یا موجودی منسوخ تلقی کنند.

هینتون در پاسخ به این سؤال که یک ابرهوش مصنوعی چگونه میتواند انسانها را از بین ببرد، سناریوی یک جنگ بیولوژیک را مطرح کرد. او گفت: «راه واضح، ایجاد یک ویروس خواهد بود؛ ویروسی بسیار مسری، بسیار کشنده و با دوره نهفتگی طولانی، تا قبل از اینکه کسی متوجه شود، همه به آن مبتلا شده باشند. ابرهوش مصنوعی احتمالاً چیزی بیولوژیکی را انتخاب میکند که بر خودش تأثیر نگذارد.»
هشدار هینتون درحالی مطرح میشود که سرمایهگذاریهای نظامی روی هوش مصنوعی به شدت افزایش یافته است. وزارت دفاع آمریکا در بودجه 2025 خود، 1 میلیارد و 800 میلیون دلار را مستقیماً به هوش مصنوعی اختصاص داده است. شرکتهایی مانند پلانتیر قراردادهای چند صد میلیون دلاری برای توسعه سیستمهای هدفگیری هوشمند با ارتش آمریکا امضا کردهاند و پنتاگون با همکاری شرکت Scale AI، یک شبیهساز میدان نبرد برای عاملهای هوش مصنوعی به نام Thunderforge راهاندازی کرده است.
هینتون لحظه کنونی را به ظهور سلاحهای هستهای تشبیه کرد، با این تفاوت که کنترل هوش مصنوعی بسیار دشوارتر و کاربردهای آن بسیار گستردهتر است. او معتقد است انگیزههای سودجویانه شرکتها و رقابتهای ژئوپلیتیکی بین کشورها، 2 عامل اصلی هستند که مانع از کُندی یا توقف توسعه این فناوری خواهند شد.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.