ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

هوش مصنوعی
هوش مصنوعی

مایکروسافت، گوگل و 14 شرکت دیگر بر سر حفظ ایمنی هوش مصنوعی توافق کردند

شرکت‌های بزرگ در دومین اجلاس هوش مصنوعی توافق کردند که برای حفظ ایمنی این فناوری قدم‌های مهمی بردارند.

ایمان صاحبی
نوشته شده توسط ایمان صاحبی | ۲ خرداد ۱۴۰۳ | ۰۹:۰۰

شرکت‌های بزرگ فناوری ازجمله مایکروسافت، گوگل و OpenAI اعلام کردند که در اجلاس هوش مصنوعی سئول به توافقی بین‌المللی در زمینه ایمنی هوش مصنوعی دست یافته‌اند. این توافق که با همکاری مقامات کشورهای مختلف حاصل شده است، اطمینان می‌یابد که در توسعه سریع مدل‌های پیشرفته، قدم‌های لازم برای حفظ ایمنی برداشته شود.

در دومین دور اجلاس بین‌المللی هوش مصنوعی که به میزبانی مشترک بریتانیا و کره جنوبی در سئول برگزار شد، 16 شرکت فناوری پذیرفتند که هوش مصنوعی با وجود مزایای بزرگی که دارد، می‌تواند در صورت استفاده اشتباه، آسیب‌رسان باشد. آن‌ها برای برداشتن قدم‌های عملی به‌منظور انتشار چهارچوب‌های ایمنی، اجتناب از توسعه مدل‌های مستعد ریسک‌های کنترل‌ناپذیر و همکاری با رگولاتورها در سطح بین‌المللی توافق کردند.

توافق بین‌المللی شرکت‌های فناوری بر سر ایمنی هوش مصنوعی

16 شرکتی که در این توافق حضور دارند شامل آمازون، آنتروپیک، گوگل، مایکروسافت، OpenAI، متا، Cohere ،Inflection AI ،Mistral AI ،xAI ،IBM می‌شوند. در کنار غربی‌ها، شرکت‌هایی از چین و خاورمیانه نظیر تنسنت، سامسونگ و شیائومی هم حضور دارند. محققان و مهندسان قرار است سیستم‌های هوش مصنوعی را برای شناسایی سوگیری‌ها و دیگر مشکلاتی که ممکن است به گروه‌های مختلف جامعه آسیب برساند، بررسی کنند.

چهارچوبی که بر سر رعایت آن توافق شده، شامل «خطوط قرمزی» می‌شود که انواع ریسک‌های مرتبط با سیستم‌های پیشگام هوش مصنوعی را تعریف می‌کند. این ریسک‌ها ممکن است «تحمل‌ناپذیر» تلقی شوند و می‌توانند شامل حملات سایبری خودکار و تهدید سلاح‌های بیولوژیک باشند. برای مقابل با خطرات حاد، شرکت‌ها اعلام کردند که به پیاده‌سازی کیل سوئیچ‌هایی (Kill Switch) خواهند پرداخت که در صورت امکان‌ناپذیربودن جلوگیری از این ریسک‌ها، می‌توانند فرایند توسعه مدل‌های هوش مصنوعی را متوقف کنند.

در همین اجلاس دولت بریتانیا در بیانیه‌ای اعلام کرد که توافق جدیدی بین 10 کشور و اتحادیه اروپا نیز حاصل شده است تا شبکه‌ای بین‌المللی مشابه مؤسسه ایمنی هوش مصنوعی بریتانیا را به‌وجود آورد. این شبکه به ترویج درک بهتر ایمنی هوش مصنوعی و هماهنگ‌سازی اقدامات خود با تحقیقات، استانداردها و آزمایش‌های این حوزه خواهد پرداخت. استرالیا، کانادا، اتحادیه اروپا، فرانسه، آلمان، ایتالیا، ژاپن، سنگاپور، کره جنوبی، بریتانیا و ایالات‌متحده آمریکا این توافق را امضا کرده‌اند.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی