OpenAI کاربران کنجکاو در مورد مدل هوش مصنوعی o1 را به قطع دسترسی تهدید کرد
کاربران نباید در مورد قابلیت استدلال این مدل هوش مصنوعی سوالی بپرسند.
OpenAI تهدید کرده است کاربرانی که در مورد قابلیت استدلال مدل هوش مصنوعی Strawberry یا o1 این شرکت کنجکاوی کنند را مسدود میکند. هنوز دلیل این تصمیم عجیب OpenAI مشخص نشده است.
به گزارش نشریه Wired، خانواده مدل هوش مصنوعی o1 یکی از جدیدترین محصولات شرکت OpenAI است که از قابلیت استدلال برخوردار است. این مدل هفته گذشته در دسترس کاربران قرار گرفت. اما به نظر میرسد شرکت سازنده علاقهای ندارد که کاربران بدانند قابلیت استدلال این مدل هوش مصنوعی به چه صورت کار میکند. OpenAI با ارسال ایمیلهایی به کاربران از آنها خواسته است که در مورد این قابلیت و نحوه کار آن کنجکاوی نکنند.
کاربران ChatGPT نباید در مورد قابلیت استدلال مدل هوش مصنوعی o1 کنجکاوی کنند
برایناساس، کاربرانی که این خواسته OpenAI را رعایت نکنند از این سرویس مسدود خواهند شد. در ایمیل ارسالی به کاربران ذکر شده است که درخواست آنها از ChatGPT بهعنوان تلاشی برای دورزدن موارد حفاظتی علامتگذاری شده است. همچنین در ادامه این ایمیل آورده شده است که نقض مکرر این قانون ممکن است به قطع دسترسی به GPT-4o بینجامد.
استدلالکردن و بهرهبردن از زنجیره افکار مهمترین تفاوت مدل Strawberry با سایر مدلهای عرضه شده توسط OpenAI است. این قابلیت به مدل هوش مصنوعی اجازه میداد که نحوه رسیدن به این پاسخ را بهصورت گامبهگام برای کاربر شرح دهد. «میرا موراتی»، مدیر ارشد فناوری OpenAI، درباره مدل هوش مصنوعی o1 گفته بود که این مدل یک پارادایم جدید برای فناوری است.
کاربرانی که ایمیلهای تهدیدآمیز OpenAI را دریافت کردهاند در این باره میگویند که استفاده از اصطلاح «ردیابی استدلال» باعث شده است که این شرکت نسبت به آنها حساس شود. برخی دیگر از کاربران نیز میگویند که استفاده از کلمه «استدلال» باعث صدور اخطار به آنها شده است.
در واکنش به این موضوع، OpenAI در یک پست وبلاگی اعلام کرده است که دلیل مخفیکردن نحوه تفکر مدل هوش مصنوعی o1 این است که در صورت بیانکردن موضوعی مغایر با سیاستهای ایمنی توسط این چتبات نیازی نداشته باشد نحوه عملکرد آن را برای کاربران فیلتر کند.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.