ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

شرکت OpenAI
هوش مصنوعی

OpenAI به افزایش خطر تولید سلاح‌های بیولوژیکی با هوش مصنوعی o1 اذعان کرد

OpenAI می‌گوید مدل جدید o1 از لحاظ خطر مسائل مربوط به سلاح‌های بیولوژیکی در سطح متوسط قرار دارد.

حمیدرضا علیا
نوشته شده توسط حمیدرضا علیا | ۲۴ شهریور ۱۴۰۳ | ۱۹:۴۵

آخرین مدل هوش مصنوعی شرکت OpenAI با افزایش خطر سوءاستفاده برای ساخت سلاح‌های بیولوژیکی مواجه است و محققان امنیتی زنگ خطر را برای ریسک‌های این فناوری درحال پیشرفت به صدا درآورده‌اند. جالب این است که خود OpenAI نیز از این خطرات آگاه است و به آن اذعان کرده.

به گزارش Financial Times، شرکت OpenAI مدل جدید خود را با نام o1 پنجشنبه معرفی کرد و از قابلیت‌های جدیدی برای استدلال، حل مسائل سخت ریاضی و پاسخ به سؤالات تحقیقات علمی خبر داد. این توانایی‌ها پیشرفتی حیاتی برای ایجاد هوش جامع مصنوعی یا ماشین‌هایی با شناخت سطح انسانی دیده می‌شود.

شرکت OpenAI در بخشی از ابزار توضیح نحوه عملکرد هوش مصنوعی خود می‌گوید مدل‌های جدید خطر متوسطی برای مسائل مربوط به سلاح‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) دارند.

سطح «متوسط» بالاترین رده‌ای است که شرکت OpenAI تابه‌حال به مدل‌های خود داده؛ یعنی این فناوری «به‌طرز معناداری کمک‌هایی ارائه می‌کند که توانایی متخصصان در زمینه‌های پیشرفته مرتبط با CBRN را افزایش می‌دهد تا بتوانند تهدید CBRN ایجاد کنند.»

مدل هوش مصنوعی جدید OpenAI


به گفته کارشناسان، این نرم‌افزار هوش مصنوعی با قابلیت‌های پیشرفته‌تر، مانند توانایی اجرای استدلال‌های گام‌به‌گام، خطر سوءاستفاده بازیگران بد را افزایش می‌دهد.

این هشدارها درحالی مطرح‌شده که شرکت‌های فناوری ازجمله گوگل، متا و انتروپیک برای ساخت و بهبود سیستم‌های هوش مصنوعی پیشرفته رقابت می‌کنند؛ زیرا به‌دنبال ایجاد نرم‌افزاری هستند که بتواند در جایگاه «عامل‌هایی» اقدام کند که به انسان‌ها در تکمیل وظایف و هدایت زندگی‌شان کمک خواهد کرد.

لایحه SB 1047 کالیفرنیا و مخالفت شرکت OpenAI با آن

این موضوع به تلاش‌هایی برای قانون‌گذاری درباره شرکت‌های هوش مصنوعی منجر شده است. در کالیفرنیا، بحثی پیرامون لایحه‌ای به نام SB 1047 درگرفته است که از سازندگان مدل‌های هوش مصنوعی می‌خواهد اقداماتی را برای به‌حداقل‌رساندن خطر استفاده از مدل‌هایشان برای توسعه سلاح‌های بیولوژیکی انجام دهند.

برخی سرمایه‌گذاران خطرپذیر و گروه‌های فناوری، ازجمله شرکت OpenAI، هشدار داده‌اند این قانون پیشنهادی می‌تواند تأثیر وحشتناکی بر صنعت هوش مصنوعی داشته باشد. «گاوین نیوسام»، فرماندار کالیفرنیا، باید طی روزهای آینده تصمیم بگیرد این قانون را امضا کند یا وتو.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی