ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

Very satisfied Satisfied Neutral Dissatisfied Very dissatisfied
واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

جدیدترین اخبار و روندهای دنیای فناوری را با نگاهی دقیق و حرفه‌ای، در کانال تلگرام دیجیاتو دنبال کنید.

ورود به کانال تلگرام دیجیاتو
OpenAI
استراتژی رشد

OpenAI مدیر جدیدی برای کنترل خطرات هوش مصنوعی استخدام می‌کند

این فرد روی سناریوهایی تمرکز خواهد کرد که هوش مصنوعی می‌تواند در آنها خطرناک ظاهر شود.

جواد تاجی
نوشته شده توسط جواد تاجی تاریخ انتشار: ۷ دی ۱۴۰۴ | ۱۰:۴۹

در دیجیاتو ثبت‌نام کنید

جهت بهره‌مندی و دسترسی به امکانات ویژه و بخش‌های مختلف در دیجیاتو عضو ویژه دیجیاتو شوید.

عضویت در دیجیاتو

OpenAI درحال استخدام فردی برای سمت رئیس واحد آمادگی (Preparedness) است. طبق توضیحات ارائه‌شده، این فرد به‌طور کلی قرار است روی سناریوهایی تمرکز کند که در آنها هوش مصنوعی می‌تواند به‌شکلی «بسیار بد» پیش برود.

توضیحات سم آلتمن و OpenAI درباره موقعیت شغلی جدید

«سم آلتمن»، مدیرعامل OpenAI در شبکه اجتماعی ایکس ضمن معرفی این موقعیت شغلی، تأکید کرده که سرعت پیشرفت مدل‌های هوش مصنوعی «چالش‌های واقعی» برای آنها ایجاد کرده است. او می‌گوید:

«ما درحال استخدام رئیس واحد آمادگی هستیم که نقش حیاتی در زمانی بسیار مهم خواهد داشت. مدل‌ها با سرعت درحال پیشرفت هستند و اکنون کارهای فوق‌العاده زیادی انجام می‌دهند، اما درعین‌حال برخی چالش‌های واقعی را هم پیش روی ما گذاشته‌اند. اثر احتمالی این مدل‌ها بر سلامت روان، چیزی بود که پیش‌نمایش آن را در سال 2025 دیدیم؛ و حالا می‌بینیم که عملکرد مدل‌ها در حوزه امنیت رایانه‌ای خوب شده‌ و شروع به پیدا کردن آسیب‌پذیری‌های بحرانی کرده‌اند.»

در آگهی شغلی OpenAI گفته شده که این نقش مسئول چنین مأموریتی خواهد بود:

«ردیابی و آماده شدن برای قابلیت‌هایی که خطراتی با آسیب‌های شدید ایجاد می‌کنند. شما مدیر و مسئول مستقیم ساخت و ارزیابی قابلیت‌ها، مدل‌های تهدید و راهکارهای کاهش ریسک خواهید بود؛ عناصری که یک زنجیره ایمنی منسجم، دقیق و مقیاس‌پذیر از نظر عملیاتی را شکل می‌دهند.»

مدیرعامل OpenAI

آلتمن همچنین در ادامه پست خود نوشته است:

«اگر می‌خواهید به جهان در یافتن روشی به‌منظور توانمندسازی مدافعان امنیت سایبری با توانایی‌های پیشرو کمک کنید و در حالت ایده‌آل، با ایمن‌سازی تمامی سیستم‌ها، مطمئن شوید که مهاجمان نمی‌توانند از این توانایی‌ها برای آسیب‌زدن به بقیه سوءاستفاده کنند، و به‌شکلی مشابه به چگونگی عرضه توانایی‌های بیولوژیکی و کسب اطمینان از ایمنی سیستم‌هایی کمک کنید که می‌توانند خود را بهبود دهند، لطفاً برای این موقعیت شغلی دست به کار شوید.

این شغل پراسترس خواهد بود و عملاً از همان ابتدا وارد عمق ماجرا می‌شوید.»

این اقدام در شرایطی صورت گرفته که طی ماه‌های اخیر چند پرونده جنجالی درباره ارتباط چت‌بات‌ها با خودکشی نوجوانان خبرساز شده بود. همانطور که نشریه ورج در گزارش خود اشاره کرده، به نظر می‌رسد کمی دیر است که تازه حالا فردی به‌طور اختصاصی در OpenAI وظیفه تمرکز بر خطرات ناشی از این مدل‌ها را برعهده بگیرد.

درهمین‌حال، نگرانی‌های مربوط به چیزی که برخی از آن به‌عنوان «روان‌پریشی هوش مصنوعی» یاد می‌کنند نیز رو به افزایش است. این اصطلاح حالتی را بیان می‌کند که در آن چت‌بات‌ها توهمات کاربران را تقویت می‌کنند و به ترویج تئوری‌های توطئه منجر می‌شوند. حتی به برخی افراد برای پنهان کردن اختلالات غذایی‌ خود کمک کرده‌اند.

جواد تاجی
جواد تاجی

دوران حرفه‌ای من در دنیای فناوری تقریبا به ۱۰ سال قبل برمی‌گرده؛ مسیری که با سخت‌افزار شروع شد، با نرم‌افزار ادامه پیدا کرد و حالا با خبرنگاری حوزه فناوری توی دیجیاتو داره ادامه پیدا می‌کنه. من جوادم و بیشتر از سه دهه از عمرم می‌گذره و علاوه بر دنیای فناوری عاشق فیلم‌و‌سینما، موسیقی کلاسیک‌راک و رئال مادریدم.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی