ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

Very satisfied Satisfied Neutral Dissatisfied Very dissatisfied
واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

جدیدترین اخبار و روندهای دنیای فناوری را با نگاهی دقیق و حرفه‌ای، در کانال تلگرام دیجیاتو دنبال کنید.

ورود به کانال تلگرام دیجیاتو
هوش مصنوعی آنتروپیک
هوش مصنوعی

پژوهشگر ایمنی آنتروپیک با انتشار نامه‌ای استعفا داد: جهان در خطر است

مرینانک شارما گفته می‌خواهد تحصیل و نوشتن شعر را دنبال کند و به بریتانیا برگردد تا نامرئی شود.

حمید گنجی
نوشته شده توسط حمید گنجی تاریخ انتشار: ۲۳ بهمن ۱۴۰۴ | ۱۸:۰۰

در دیجیاتو ثبت‌نام کنید

جهت بهره‌مندی و دسترسی به امکانات ویژه و بخش‌های مختلف در دیجیاتو عضو ویژه دیجیاتو شوید.

عضویت در دیجیاتو

«مرینانک شارما»، پژوهشگر ایمنی هوش مصنوعی شرکت آنتروپیک، از سمت خود استعفا داد و در نامه‌ای هشدار داد که «جهان در خطر است». او در این نامه که روی شبکه اجتماعی ایکس منتشر شد، نگرانی خود را درباره هوش مصنوعی، سلاح‌های زیستی و وضعیت کلی جهان اعلام کرد و گفت قصد دارد از صنعت فناوری فاصله بگیرد.

به گزارش بی بی سی، شارما در توییت خداحافظی خود گفت که دوران حضورش در آنتروپیک را دوست داشته اما «زمان رفتن فرارسیده است». او توضیح داد می‌خواهد تحصیل و نوشتن شعر را دنبال کند و به بریتانیا برگردد تا نامرئی شود. این تصمیم درحالی مطرح شد که هم‌زمان پژوهشگر دیگری از شرکت OpenAI هم به‌دلیل نگرانی از سیاست‌های تبلیغاتی این شرکت، استعفا داده است.

پژوهشگر ارشد آنتروپیک درباره خطر جهانی هوش مصنوعی هشدار داد

آنتروپیک که به‌خاطر چت‌بات Claude شناخته می‌شود، خود را شرکتی با رویکرد ایمنی‌محور در پژوهش هوش مصنوعی معرفی می‌کند. این شرکت در سال ۲۰۲۱ میلادی توسط گروهی از کارکنان اولیه OpenAI تأسیس شد. آنتروپیک هم‌زمان روی توسعه محصولات تجاری و تقویت ایمنی سامانه‌های هوش مصنوعی کار می‌کند.

شارما در آنتروپیک تیمی را هدایت می‌کرد که روی سازوکارهای ایمنی هوش مصنوعی تحقیق می‌کردند. او در نامه استعفا نوشت بخشی از دستاوردهایش شامل بررسی دلیل «چاپلوسی» سامانه‌های مولد متن نسبت به کاربران، مقابله با خطرات زیست‌ـ‌تروریسم با کمک هوش مصنوعی و پژوهش درباره این موضوع بوده که دستیارهای هوش مصنوعی چگونه می‌توانند ما را کمتر انسان کنند.

او در متن خود تأکید کرد خطر تنها از سوی هوش مصنوعی یا سلاح‌های زیستی نمی‌آید و مجموعه‌ای از بحران‌های به‌هم‌پیوسته هم‌زمان درحال شکل‌گیری است. شارما نوشت بارها دیده که «چقدر سخت است ارزش‌های خود را واقعاً برعمل حاکم کنیم» و اشاره کرد آنتروپیک هم به‌طور مداوم زیر فشار است تا که آن‌چه مهم‌تر است را کنار بگذارد.

آنتروپیک خود را «شرکت با منفعت عمومی» معرفی می‌کند که هدف آن تأمین منافع هوش مصنوعی و کاهش خطرات آن است. تمرکز اصلی این شرکت روی خطرات سامانه‌های پیشرفته موسوم به «مرزی» قرار دارد؛ سامانه‌هایی که ممکن است با ارزش‌های انسانی ناهماهنگ شوند.

حمید گنجی
حمید گنجی

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی