ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

OpenAI
نرم افزار و اپلیکیشن

انتقاد شدید پژوهشگر سابق OpenAI به این شرکت: بی‌مسئولیتی در قبال ایمنی هوش مصنوعی

پژوهشگر سابق OpenAI، توسعه تدریجی AGI را خطرناک خواند و هشدار داد که سازنده ChatGPT ایمنی را نادیده می‌گیرد.

جواد تاجی
نوشته شده توسط جواد تاجی | ۱۷ اسفند ۱۴۰۳ | ۱۸:۳۰

«مایلز براندیج»، پژوهشگر سابق سیاست‌گذاری OpenAI، در یک رشته توییت مفصل، شرکت سابق خود را به دلیل بازنویسی تاریخچه توسعه هوش مصنوعی و بی‌تفاوتی نسبت به نگرانی‌های ایمنی مورد انتقاد قرار داد. این انتقادات در پاسخ به سند اخیر OpenAI مطرح شده‌اند که در آن، شرکت ادعا کرده است توسعه هوش جامع مصنوعی (AGI) را در قالب گام‌های کوچک و تدریجی پیش می‌برد، نه با یک جهش بزرگ.

پژوهشگر سابق Op‌enAI، اخیراً سندی را که این شرکت در مورد «ایمنی و همسویی» منتشر کرده، مورد انتقاد قرار داده است. این سند بیان می‌کند که O‌penAI در تلاش است تا هوش جامع مصنوعی (AGI) را در گام‌های کوچک و نه با یک جهش بزرگ توسعه دهد. Op‌enAI ادعا کرده که فرآیند استقرار تدریجی به آن اجازه می‌دهد تا مسائل ایمنی را شناسایی کرده و امکان سوءاستفاده از هوش مصنوعی را در هر مرحله بررسی کند.

در میان انتقادات فراوان به فناوری‌های هوش مصنوعی مانند ChatGPT، نگرانی‌هایی وجود دارد که این چت‌بات‌ها ممکن است اطلاعات نادرستی در مورد سلامت و ایمنی ارائه دهند یا برای دستکاری سیاسی، انتشار اطلاعات نادرست و کلاهبرداری مورد استفاده قرار گیرند. OpenAI به‌طور خاص به دلیل عدم شفافیت در توسعه مدل‌های هوش مصنوعی خود که ممکن است حاوی داده‌های شخصی حساس باشند، مورد انتقاد قرار گرفته است.

انتشار این سند توسط OpenAI به نظر می‌رسد پاسخی به این نگرانی‌ها باشد. در این سند اشاره شده است که توسعه مدل GPT-2 قبلی «ناپیوسته» بوده و به دلیل «نگرانی‌هایی که در مورد کاربردهای مخرب» آن وجود داشت در ابتدا منتشر نشد، اما اکنون این شرکت به سمت اصل توسعه تدریجی حرکت می‌کند. با این حال، براندیج ادعا می‌کند که این سند در حال تحریف روایت تاریخی است و تصویر دقیقی از تاریخچه توسعه هوش مصنوعی در OpenAI ارائه نمی‌دهد.

انتقاد از OpenAI

براندیج در پستی در شبکه اجتماعی X نوشت:

«انتشار GPT-2 توسط OpenAI، که من در آن مشارکت داشتم، کاملاً با فلسفه فعلی استقرار تدریجی این شرکت همسو بود. این مدل به‌صورت گام‌به‌گام منتشر شد و در هر مرحله درس‌های آن به اشتراک گذاشته شد. بسیاری از متخصصان امنیتی در آن زمان از ما به خاطر این احتیاط تشکر کردند.»

او با اشاره به بخشی از سند OpenAI که توسعه GPT-2 را «ناپیوسته» توصیف کرده، این ادعا را نادرست خواند و می‌گوید:

«هیچ بخشی از این فرآیند بر این اساس نبود که AGI را پدیده‌ای ناپیوسته بدانیم. همچنین، هیچ شواهدی وجود ندارد که نشان دهد احتیاط ما در آن زمان «نامتناسب» بوده است. حتی اگر بعداً مشخص شود که همه چیز خوب پیش رفته، این به معنای آن نیست که بی‌محابا عمل کردن در آن زمان مسئولانه بود.»

وی همچنین رویکرد شرکت به مدیریت ریسک را بر اساس این سند مورد انتقاد قرار داد و نوشت:

«به نظر می‌رسد که در این سند بار اثبات بر دوش منتقدان گذاشته شده است، به‌طوری که نگرانی‌ها اغراق‌آمیز تلقی می‌شوند و شما نیاز به شواهد قاطع از خطرات قریب‌الوقوع دارید تا اقدام کنید – در غیر این صورت، فقط به کار خود ادامه دهید. این یک ذهنیت بسیار خطرناک برای سیستم‌های پیشرفته هوش مصنوعی است.»

او در ادامه نوشته است:

«اگر هنوز در OpenAI کار می‌کردم، از خودم می‌پرسیدم چرا این پست وبلاگ به این شکل نوشته شده و دقیقاً OpenAI با بی‌اهمیت جلوه دادن احتیاط به این شکل، چه هدفی را دنبال می‌کند؟»

این انتقادات در حالی مطرح می‌شود که OpenAI تحت بررسی‌های فزاینده‌ای قرار دارد و متهم است که به جای اولویت‌دادن به ایمنی، به تولید «محصولات جذاب» توجه بیشتری می‌کند.

جواد تاجی

دوران حرفه‌ای من توی دنیای فناوری تقریبا به ۱۰ سال قبل برمی‌گرده؛ مسیری که با سخت‌افزار شروع شد، با نرم‌افزار ادامه پیدا کرد و حالا با خبرنگاری حوزه فناوری توی دیجیاتو داره ادامه پیدا می‌کنه. من جوادم و نزدیک به سه دهه از عمرم می‌گذره و علاوه بر دنیای فناوری عاشق فیلم‌و‌سینما، موسیقی کلاسیک‌راک و رئال مادریدم.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی