ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

OpenAI سم آلتمن
هوش مصنوعی

OpenAI چهارچوب جدیدی برای کاهش ریسک‌های هوش مصنوعی معرفی کرد

شرکت OpenAI از دستورالعمل‌های جدیدی موسوم به «چهارچوب آمادگی» رونمایی کرده که هدف آن اطمینان از ایمنی هوش مصنوعی است.

ایمان صاحبی
نوشته شده توسط ایمان صاحبی | ۲۸ آذر ۱۴۰۲ | ۱۶:۰۰

شرکت OpenAI، سازنده چت‌بات هوش مصنوعی ChatGPT، از مجموعه‌ای از دستورالعمل‌ها و ابزارهای تازه موسوم به «چهارچوب آمادگی» (Preparedness Framework) برای نظارت بر هوش مصنوعی و خطرات آن رونمایی کرد. این کار از طریق یک گروه مشورتی برای تضمین ایمنی انجام خواهد شد که حتی حق وتوی نظرات «سم آلتمن» را خواهد داشت.

به‌دنبال جنجال‌های زیادی که با اخراج و بازگشت سم آلتمن به سمت مدیرعاملی OpenAI رخ داد، این شرکت حالا در وبلاگ خود از چهارچوب جدیدی برای آمادگی در برابر خطرات رونمایی کرده است. به‌نظر می‌رسد که هدف از انتشار عمومی این سند، نمایش مسیر مشخص شرکت درزمینه شناسایی، تحلیل و تصمیم‌گیری پیرامون ریسک‌های جدی درخصوص مدل‌های هوش مصنوعی خواهد بود.

چهارچوب آمادگی OpenAI برای تضمین ایمنی مدل‌های هوش مصنوعی

طبق این چهارچوب، مدل‌هایی که در دست توسعه قرار دارند، توسط تیم «ایمنی سیستم‌ها» ارزیابی خواهند شد. مدل‌های پیشگام OpenAI نیز تحت نظارت تیم «آمادگی» قرار می‌گیرند تا ریسک‌های احتمالی پیش از عرضه مدل‌ها، شناسایی و ارزیابی شوند. افزون‌براین، یک تیم دیگر به‌ نام «فراهمسویی» وجود دارد که روی حدومرزهای نظری برای مدل‌های «فراهوشمند» کار می‌کند.

دو دسته اول که ملموس‌ترند و مدل‌های آن‌ها را در اختیار داریم، کار راحت‌تری دارند و درک فعالیت‌های آن‌ها نیز آسان‌تر است. این تیم‌ها باید براساس چهار طبقه‌بندی ریسک‌ها را ارزیابی کنند: امنیت سایبری، «قانع‌کنندگی» (مثلاً در ارائه اطلاعات غلط)، آناتومی مدل‌ها (مثلاً در قابلیت‌های عملکردی خود) و CBRN (مخفف تهدیدات شیمیایی، زیستی، رادیولوژیک و هسته‌ای؛ مثلاً در قابلیت هوش مصنوعی در تولید پاتوژن‌های جدید).

تیم «آمادگی» اولین‌بار در ماه اکتبر معرفی شد و یکی از سه گروه مجزایی است که بر ایمنی هوش مصنوعی در این استارتاپ نظارت می‌کند. مدیر این تیم «الکساندر مادری» است که امید دارد بتواند با این دستورالعمل‌های جدید، ریسک‌های احتمالی را به‌موقع در مدل‌های هوش مصنوعی شناسایی کند.

مدت‌هاست که نگرانی‌هایی درباره مدل‌های هوش مصنوعی قدرتمند مطرح می‌شود و به‌نظر می‌رسد که این اقدام OpenAI پاسخی در برابر تشدید این نگرانی‌ها با توجه به تحولات اخیر این شرکت باشد.

ایمان صاحبی

علاقه من به فناوری به دوره نوجوانی برمی‌گرده اما از حدود سال ۹۴ کار جسته گریخته توی این فضا رو شروع کردم و از ۹۷ به‌طور جدی‌تر وارد این کار شدم. فناوری مخصوصاً بخشی که روی لبه حرکت می‌کنه، جذاب‌ترین قسمت این حوزه برام محسوب می‌شه، اما به مرور فهمیدم که همه حوزه‌ها حتی نقاط تلاقی علم و فناوری می‌تونن خیلی جذاب باشن. در کنار این‌ها دنیای فیلم، سریال و بازی‌های ویدیویی رو هم خیلی دوست دارم.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی