
انتقاد شدید پژوهشگر سابق OpenAI به این شرکت: بیمسئولیتی در قبال ایمنی هوش مصنوعی
پژوهشگر سابق OpenAI، توسعه تدریجی AGI را خطرناک خواند و هشدار داد که سازنده ChatGPT ایمنی را نادیده میگیرد.

«مایلز براندیج»، پژوهشگر سابق سیاستگذاری OpenAI، در یک رشته توییت مفصل، شرکت سابق خود را به دلیل بازنویسی تاریخچه توسعه هوش مصنوعی و بیتفاوتی نسبت به نگرانیهای ایمنی مورد انتقاد قرار داد. این انتقادات در پاسخ به سند اخیر OpenAI مطرح شدهاند که در آن، شرکت ادعا کرده است توسعه هوش جامع مصنوعی (AGI) را در قالب گامهای کوچک و تدریجی پیش میبرد، نه با یک جهش بزرگ.
پژوهشگر سابق OpenAI، اخیراً سندی را که این شرکت در مورد «ایمنی و همسویی» منتشر کرده، مورد انتقاد قرار داده است. این سند بیان میکند که OpenAI در تلاش است تا هوش جامع مصنوعی (AGI) را در گامهای کوچک و نه با یک جهش بزرگ توسعه دهد. OpenAI ادعا کرده که فرآیند استقرار تدریجی به آن اجازه میدهد تا مسائل ایمنی را شناسایی کرده و امکان سوءاستفاده از هوش مصنوعی را در هر مرحله بررسی کند.
در میان انتقادات فراوان به فناوریهای هوش مصنوعی مانند ChatGPT، نگرانیهایی وجود دارد که این چتباتها ممکن است اطلاعات نادرستی در مورد سلامت و ایمنی ارائه دهند یا برای دستکاری سیاسی، انتشار اطلاعات نادرست و کلاهبرداری مورد استفاده قرار گیرند. OpenAI بهطور خاص به دلیل عدم شفافیت در توسعه مدلهای هوش مصنوعی خود که ممکن است حاوی دادههای شخصی حساس باشند، مورد انتقاد قرار گرفته است.
انتشار این سند توسط OpenAI به نظر میرسد پاسخی به این نگرانیها باشد. در این سند اشاره شده است که توسعه مدل GPT-2 قبلی «ناپیوسته» بوده و به دلیل «نگرانیهایی که در مورد کاربردهای مخرب» آن وجود داشت در ابتدا منتشر نشد، اما اکنون این شرکت به سمت اصل توسعه تدریجی حرکت میکند. با این حال، براندیج ادعا میکند که این سند در حال تحریف روایت تاریخی است و تصویر دقیقی از تاریخچه توسعه هوش مصنوعی در OpenAI ارائه نمیدهد.
انتقاد از OpenAI

براندیج در پستی در شبکه اجتماعی X نوشت:
«انتشار GPT-2 توسط OpenAI، که من در آن مشارکت داشتم، کاملاً با فلسفه فعلی استقرار تدریجی این شرکت همسو بود. این مدل بهصورت گامبهگام منتشر شد و در هر مرحله درسهای آن به اشتراک گذاشته شد. بسیاری از متخصصان امنیتی در آن زمان از ما به خاطر این احتیاط تشکر کردند.»
او با اشاره به بخشی از سند OpenAI که توسعه GPT-2 را «ناپیوسته» توصیف کرده، این ادعا را نادرست خواند و میگوید:
«هیچ بخشی از این فرآیند بر این اساس نبود که AGI را پدیدهای ناپیوسته بدانیم. همچنین، هیچ شواهدی وجود ندارد که نشان دهد احتیاط ما در آن زمان «نامتناسب» بوده است. حتی اگر بعداً مشخص شود که همه چیز خوب پیش رفته، این به معنای آن نیست که بیمحابا عمل کردن در آن زمان مسئولانه بود.»
وی همچنین رویکرد شرکت به مدیریت ریسک را بر اساس این سند مورد انتقاد قرار داد و نوشت:
«به نظر میرسد که در این سند بار اثبات بر دوش منتقدان گذاشته شده است، بهطوری که نگرانیها اغراقآمیز تلقی میشوند و شما نیاز به شواهد قاطع از خطرات قریبالوقوع دارید تا اقدام کنید – در غیر این صورت، فقط به کار خود ادامه دهید. این یک ذهنیت بسیار خطرناک برای سیستمهای پیشرفته هوش مصنوعی است.»

او در ادامه نوشته است:
«اگر هنوز در OpenAI کار میکردم، از خودم میپرسیدم چرا این پست وبلاگ به این شکل نوشته شده و دقیقاً OpenAI با بیاهمیت جلوه دادن احتیاط به این شکل، چه هدفی را دنبال میکند؟»
این انتقادات در حالی مطرح میشود که OpenAI تحت بررسیهای فزایندهای قرار دارد و متهم است که به جای اولویتدادن به ایمنی، به تولید «محصولات جذاب» توجه بیشتری میکند.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.