ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

بریتانیا و ایمنی هوش مصنوعی
هوش مصنوعی

بریتانیا برای تقویت ایمنی مدل‌های هوش مصنوعی یک نرم‌افزار جدید معرفی کرد

این نرم‌افزار با نام «Inspect» با هدف تسهیل ارزیابی‌های هوش مصنوعی و برای سازمان‌های تحقیقاتی و دانشگاه‌ها طراحی شده است.

آزاد کبیری
نوشته شده توسط آزاد کبیری | ۲۳ اردیبهشت ۱۴۰۳ | ۱۵:۳۰

مؤسسه ایمنی هوش مصنوعی بریتانیا که اخیراً تأسیس شده است، نرم‌افزاری را با مجموعه‌ای از ابزارهای مختلف برای تقویت ایمنی هوش مصنوعی معرفی کرد. این ابزارها به‌منظور تسهیل ارزیابی‌های هوش مصنوعی و برای سازمان‌های تحقیقاتی و دانشگاه‌ها طراحی شده است.

براساس بیانیه مطبوعاتی این مؤسسه، این مجموعه ابزار که «Inspect» نامیده می‌شود تحت مجوز دانشگاه MIT و به‌صورت متن‌باز در دسترس است. هدف این ابزارها نیز ارزیابی قابلیت‌های خاص مدل‌های هوش مصنوعی مانند داده‌های اصلی و توانایی استدلال آن‌ها است.

نرم‌افزار جدید بریتانیا برای آزمایش ایمنی مدل‌های هوش مصنوعی

در بیانیه مطبوعاتی مؤسسه ایمنی بریتانیا ادعا شده که برای اولین‌بار است که یک پلتفرم آزمایش ایمنی هوش مصنوعی، با حمایت دولتی و برای استفاده گسترده‌تر منتشر شده است.

به‌طورکلی به‌دست‌آوردن معیارهایی برای ارزیابی مدل‌های هوش مصنوعی دشوار است؛ چراکه زیرساخت‌ها، داده‌های آموزشی و سایر جزئیات کلیدی مدل‌های پیشرفته هوش مصنوعی توسط شرکت‌های توسعه‌دهنده پنهان نگه داشته می‌شوند. بنابراین از این‌ لحاظ Inspect با مسائلی روبه‌رو خواهد بود، البته این نرم‌افزار سعی دارد با تکنیک‌های جدید این مدل‌ها را ارزیابی کند.

نرم‌افزار Inspect از سه جزء اصلی تشکیل شده است: داده‌ها، حل‌کننده‌ها (Solvers) و امتیازدهنده‌ها (Scorers). بخش داده‌ها نمونه‌هایی را برای آزمون‌های ارزیابی مطرح می‌کنند. سپس حل‌کننده‌ها این آزمون‌ها را انجام می‌دهند. درنهایت امتیازدهندگان کار حل‌کننده‌ها را ارزیابی می‌کنند.

در فروردین ماه، آمریکا و بریتانیا توافق‌نامه‌ای برای آزمایش ایمنی هوش مصنوعی پیشرفته امضا کردند. براساس این توافق‌نامه، هر دو کشور روش‌ها و ابزارهایی برای ارزیابی ایمنی مدل‌های هوش مصنوعی ایجاد خواهند کرد. به‌عنوان بخشی از این همکاری، ایالات‌متحده نیز قصد دارد مؤسسه ایمنی هوش مصنوعی خود را راه‌اندازی کند. این مؤسسه عمدتاً مسئولیت ارزیابی خطرات ناشی از هوش مصنوعی را به‌عهده خواهد داشت.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی