OpenAI ظاهراً مدل هوش مصنوعی GPT-4o را با عجله معرفی کرده است
یکی از کارکنان OpenAI میگوید که این شرکت برای عرضه آخرین مدل هوش مصنوعی خود عجله کرده است.
به ادعای یکی از کارکنان OpenAI، این شرکت با عجله آزمایشهای ایمنی GPT-4o را انجام داده و قبل از اطمینان کامل از ایمنی این مدل آن را معرفی کرده است. به گفته این فرد ناشناس، آنها در اولین آزمایش ایمنی این مدل پیشرفته شکست خورده بودند.
یکی از کارمندان ناشناس OpenAI به واشنگتن پست گفته است: «آنها قبل از آنکه بدانند این مدل [GPT-4o] ایمن است، برنامه رونمایی آن را ترتیب دادند. ما اساساً در این فرایند شکست خوردیم.» او میگوید OpenAI برای عرضه آخرین مدل هوش مصنوعی خود عجله کرد.
بااینحال، سخنگوی OpenAI به واشنگتن پست میگوید عرضه GPT-4o باعث نشده در توجه به نکات ایمنی کمکاری شود. بااینحال منبع ناشناس اذعان میکند جدول زمانی بررسی ایمنی این مدل در یک هفته فشرده شده بود.
نقض ایمنی هوش مصنوعی در OpenAI
ایمنی یکی از نکات مهم منشور OpenAI است. در این منشور بندی وجود دارد که میگوید OpenAI درصورتی که سایر سازمانهای رقیب به AGI (هوش جامع مصنوعی) دست یافتند، بهجای ادامه رقابت، به آنها کمک میکند ایمنی آن را ارتقا دهند. علاوهبراین OpenAI ظاهراً مدعی است مدلهای اختصاصی خود را به دلایل ایمنی بهصورت متنباز درنمیآورد.
بااینحال چند وقت اخیر نگرانیها پیرامون نقض ایمنی هوش مصنوعی در OpenAI و دیگر توسعهدهندگان مدلهای بزرگ افزایش یافته است. وزارت امور خارجه ایالات متحده چند ماه قبل اعلام کرد: «توسعه هوش مصنوعی پیشتاز فعلی خطرات فوری و فزایندهای برای امنیت ملی ایجاد میکند. ظهور هوش مصنوعی پیشرفته و AGI این پتانسیل را دارد که امنیت جهانی را به شیوههایی که یادآور معرفی سلاحهای هستهای است، بیثبات کند.»
پیشازاین نیز «یان لیکه»، یکی از محققان امنیت هوش مصنوعی OpenAI، در زمان استعفا گفته بود طی سالهای گذشته، فرهنگ و فرایند ایمنیسازی هوش مصنوعی در این شرکت جایش را به عرضه محصولات پرزرقوبرق داده است. همچنین کارمندان فعلی و سابق OpenAI اخیراً نامهای امضا کردهاند که در آن از این شرکت خواستهاند اقدامات ایمنی بهتری در پیش بگیرد.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.