آنتروپیک و OpenAI با دولت آمریکا برای اشتراک مدلهای هوش مصنوعی به توافق رسیدند
به اشتراکگذاری مدلهای هوشمصنوعی پیش از انتشار عمومی برای بررسی و ارزیابی میزان ایمنی و بهبود امنیت آنها انجام خواهد گرفت.
دو شرکت بزرگ فعال در زمینه هوشمصنوعی بهتازگی با یکی از آژانسهای ایمنی دولت آمریکا به توافقی دست پیدا کردهاند که طبق آن، جهت افزایش امنیت سرویسهای خود، اقدام به اشتراکگذاری دادهها با دولت این کشور خواهند کرد. ظاهراً شرکتهای دیگر از جمله گوگل هم مشغول مذاکره با نهاد مذکور هستند و احتمالاً در آینده نزدیک به توافق مشابهی خواهند رسید.
هدف از به اشتراکگذاری دادههای هوشمصنوعی با دولت آمریکا چیست؟
مؤسسه امنیت هوشمصنوعی ایالات متحده، بخشی از مؤسسه ملی فناوری و استانداردهای آمریکا (NIST) است که وظیفه آن، ایجاد و انتشار قوانین و چارچوبهای مرتبط با سیستمهای هوشمصنوعی است. این نهاد مسئول تست کردن و ارزیابی پتانسیل آسیبزایی ابزارهای مبتنیبر هوشمصنوعی نیز هست و بهصورت پیوسته مشغول آزمایش سرویسهای مختلف است. نهاد مذکور، در سال ۲۰۲۳ به دستور مستقیم جو بایدن ایجاد شد و معاون او، کامالا هریس، هم در یک سخنرانی به اهمیت آن در تشخیص و مقابله با تهدیدهای سایبری و استفادههای نادرست از هوشمصنوعی اشاره کرد.
سم آلتمن، مدیرعامل OpenAI، اخیراً چندی پیش اشارهای به توافق شرکت تحت مدیریت خود با دولت آمریکا جهت به اشتراکگذاری دادهها کرد. اکنون به نظر میرسد که توافق مذکور، نهایی شده است و شرکت آنتروپیک هم به رقیب خود پیوسته است تا با همکاری مؤسسه امنیت هوشمصنوعی، اقدام به بهبود سرویسهای خود نمایند. دو شرکت گفتهشده، مدلهای هوشمصنوعی خود را در اختیار دولت قرار میدهند تا ارزیابیهای لازم روی آنها انجام شود. اگرچه تاکنون خبر رسمی از همکاری سایر شرکتهای خصوصی در این زمینه منتشر نشده است؛ اما نشریه Engadget در مصاحبه با سخنگوی گوگل، خبر از در جریان بودن مذاکرات مشابه با دولت داده است.
الیزابت کلی، سرپرست مؤسسه امنیت هوشمصنوعی ایالات متحده در بیانیه اخیر خود، به اهمیت ایمنی در نوآوریهای فناوری تاکید کرده و همکاری این نهاد با آنتروپیک و OpenAI را در جهت پیشرفت علم هوشمصنوعی عنوان کرده است. شایانذکر است که توافق دو شرکت گفتهشده با دولت آمریکا، بیشتر به یک یادداشت تفاهم شباهت دارد و تعهد قانونی خاصی را برای آنها در پی نخواهد داشت. با این حال، دولت قادر خواهد بود به مدلهای هوشمصنوعی اصلی هر دو شرکت پیش از عرضه عمومی، دسترسی زود هنگام داشتهباشد. همچنین مؤسسه امنیت هوشمصنوعی بریتانیا هم با دولت آمریکا در همکاری خواهد بود و دادههای مهم در اختیار همتای اروپایی نیز قرار خواهد گرفت.
ایمنی و امنیت سرویسهای هوشمصنوعی به یکی از دغدغههای مهم نهادهای نظارتی تبدیل شده است و قوانین جدیدی بهصورت پیوسته در این زمینه مطرح و تصویب میشوند. در همین راستا، ایالت کالیفرنیا بهتازگی قانونی را به تصویب رسانده است که بررسی استانداردهای ایمنی برای سرویسهای هوشمصنوعی را اجباری کرده است؛ بهشرطی که هزینه تامین قدرت پردازشی برای راهاندازی آنها بیش از ۱۰۰ میلیون دلار باشد. همچنین از سازندگان درخواست شده است تا کلید قطع اضطراری را در محصولات خود قرار دهند تا در صورت نیاز، دسترسی به آنها بهشکل آنی متوقف شود. قانون مورد بحث، برای تمامی شرکتهای فناوری، اجباری خوانده شده و دادستان کالیفرنیا، شرکتهای متخلف را تهدید به شکایت و پیگرد قضائی کرده است.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.