مدیرعامل OpenAI اعتراف میکند: هنوز در تفسیر نحوه عملکرد هوش مصنوعی خود موفق نبودهایم
شرکت OpenAI دهها میلیارد دلار برای توسعه فناوریهای هوش مصنوعی، جمعآوری کرده، اما همچنان در فهمیدن نحوه عملکرد تکنولوژی خود مشکل دارد.
شرکت OpenAI دهها میلیارد دلار برای توسعه فناوریهای هوش مصنوعی که در حال تغییر جهان هستند، جمعآوری کرده است. اما یک مشکل بزرگ وجود دارد: این شرکت همچنان در فهمیدن نحوه عملکرد تکنولوژی خود مشکل دارد.
در طی اجلاس جهانی AI for Good که هفته گذشته توسط اتحادیه بینالمللی مخابرات در ژنو، سوئیس برگزار شد، «سم آلتمن»، مدیرعامل OpenAI، پس از پرسشی درباره عملکرد واقعی مدلهای زبان بزرگ (LLM) شرکتش، نتوانست پاسخ مناسبی بدهد.
چالشهای پژوهشگران در توضیح فرآیندهای هوش مصنوعی
آلتمن به نقل از Observer گفت: «ما قطعاً مسئله تفسیرپذیری را حل نکردهایم» و به طور اساسی اذعان کرد که شرکت هنوز نتوانسته است نحوه ردیابی خروجیهای عجیب و نادرست مدلهای هوش مصنوعی خود و تصمیماتی که برای رسیدن به آن پاسخها گرفته شدهاند را کشف کند.
هنگامی که نیکولاس تامپسون، مدیرعامل The Atlanticدر طول این رویداد او را تحت فشار قرار داد و پرسید آیا این موضوع نمیتواند «دلیلی برای توقف عرضه مدلهای جدید و قدرتمندتر» باشد، آلتمن به نظر میرسید که سردرگم است و با حالتی غیرمطمین پاسخ داد که مدلهای هوش مصنوعی «عموماً امن و قوی تلقی میشوند.»
پاسخ ناامیدکننده آلتمن یک مشکل واقعی در فضای نوظهور هوش مصنوعی را برجسته میکند. پژوهشگران مدتهاست که در تلاش برای توضیح فرآیندهای پشت پرده تفکر آزادانه مدلهای هوش مصنوعی بودهاند که بهطور تقریباً جادویی و بیزحمت به هر سؤالی که به آنها داده میشود واکنش نشان میدهند.
اما هر چقدر هم که تلاش کردهاند، ردیابی خروجی به مواد اصلی که هوش مصنوعی بر روی آنها آموزش دیده است بسیار دشوار بوده است. OpenAI، با وجود نام و داستان اصلی شرکت، نیز دادههایی که بر روی آنها هوش مصنوعیهای خود را آموزش میدهد بسیار محرمانه نگه داشته است.
یک گروه شامل 75 کارشناس اخیراً در گزارشی علمی که توسط دولت بریتانیا سفارش داده شده بود، نتیجهگیری کردند که توسعهدهندگان هوش مصنوعی «اطلاعات کمی درباره نحوه عملکرد سیستمهای خود میدانند» و دانش علمی «بسیار محدود» است.
این گزارش میگوید: «تکنیکهای تفسیرپذیری و توضیح مدل میتوانند درک پژوهشگران و توسعهدهندگان از نحوه عملکرد سیستمهای هوش مصنوعی عمومی را بهبود بخشند، اما این پژوهش هنوز در مراحل ابتدایی است.»
شرکتهای دیگر هوش مصنوعی در تلاش هستند تا راههای جدیدی برای «باز کردن جعبه سیاه» با نقشهبرداری از نورونهای مصنوعی الگوریتمهای خود پیدا کنند. برای مثال، رقیب OpenAI به نام Anthropic اخیراً نگاهی دقیق به ساختار درونی یکی از آخرین مدلهای LLM خود به نام Claude Sonnet انداخته است.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.