
OpenAI ظاهراً دسترسی به API مدلهای آینده خود را نیازمند احراز هویت میکند
OpenAI میگوید این اقدام را برای جلوگیری از سوءاستفاده از مدلهای خود انجام میدهد.
اطلاعات منتشرشده در صفحه پشتیبانی OpenAI نشان میدهد این شرکت ممکن است بهزودی از سازمانها بخواهد برای دسترسی به برخی مدلهای خاص هوش مصنوعی، فرایند تأیید هویت را پشت سر بگذارند.
براساس اطلاعات این صفحه، فرایند تأیید هویت Verified Organization نام دارد و OpenAI آن را روشی جدید برای توسعهدهندگان بهمنظور بازکردن قفل دسترسی به پیشرفتهترین مدلها و قابلیتهای پلتفرم این شرکت توصیف کرده است. این فرایند راستیآزمایی شامل ارائه کارت شناسایی معتبر یکی از کشورهایی است که API شرکت OpenAI از آنها پشتیبانی میکند.
اقدام OpenAI برای کاهش استفاده مخرب از مدلهای هوش مصنوعی است

به گفته OpenAI، کارت شناسایی میتواند فقط یک سازمان را در بازه زمانی ۹۰ روزه تأیید کند و البته همه سازمانها واجد شرایط شرکت در این فرایند نخواهند بود.
OpenAI در صفحه پشتیبانی خود گفته تعداد اندکی از توسعهدهندگان از APIهای این شرکت برای نقض قوانین استفاده میکند و درنظرگرفتن فرایند تأیید هویت برای جلوگیری از چنین اقداماتی لازم است. این شرکت در ادامه گفته است: «برای کاهش استفاده ناامن از هوش مصنوعی و درعینحال فراهمکردن دسترسی به مدلهای پیشرفته برای جامعه گستردهتری از توسعهدهندگان، مشغول افزودن فرایند تأیید هویت هستیم.»
مدلهای هوش مصنوعی OpenAI با بهروزرسانیهای اخیر بسیار پیچیدهتر و باهوشتر شدهاند و استفاده از روش تأیید هویت میتواند احتمال سوءاستفاده از این مدلها را کاهش دهد. این شرکت پیشازاین گفته بود تلاشهایی افراد مستقر در کره شمالی برای استفاده مخرب از مدلهای خود را شناسایی کرده است.
این تصمیم ممکن است برای جلوگیری از سرقت مالکیت معنوی نیز اتخاذ شده باشد. پیشازاین گزارش شده بود گروهی مرتبط با استارتاپ هوش مصنوعی چینی دیپسیک حجم زیادی از دادههای OpenAI را سرقت کرده است. این دادهها ظاهراً برای آموزش مدلهای دیپسیک استفاده شده است. OpenAI تابستان گذشته دسترسی به سرورهایش را در چین مسدود کرده بود.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.