تغییر سیاستهای OpenAI؛ استفاده از هوش مصنوعی در امور نظامی دیگر منعی ندارد
شرکت OpenAI سیاستهای خود را تغییر داده است و برخلاف گذشته، اکنون دیگر استفاده از فناوری هوش مصنوعی برای امور نظامی ممنوع نیست.
اخیراً تغییری در سیاستهای استفاده از مدلهای هوش مصنوعی OpenAI اعمال شده است که اجازه استفاده از این فناوریها در کاربردهای نظامی را میدهد. این شرکت قبلاً استفاده از محصولات خود برای امور نظامی را صراحتاً ممنوع اعلام کرده بود، اما حالا دیگر چنین ممنوعیتی وجود ندارد.
اولینبار وبسایت Intercept متوجه این تغییر شد که ظاهراً در 10 ژانویه اعمال شده است. OpenAI اخیراً از راهاندازی فروشگاه GPTها خبر داد، اما بعید است که این تغییر مربوط به این محصول جدید باشد.
تغییر بیسروصدای شرایط سرویسدهی توسط شرکتهای فناوری اتفاق نادری نیست و خیلی از شرکتها دست به انجام چنین کارهایی میزنند. بااینحال، تغییری که توسط سازنده ChatGPT اعمال شده، مهم است و نباید نادیده گرفته شود.
استفاده از هوش مصنوعی OpenAI در امور نظامی؟
البته بهنظر میرسد که OpenAI بهطور کلی متن مربوط به سیاست مصرف مدلهای هوش مصنوعی خود را بازنویسی کرده است تا قابلفهمتر باشد، اما اینکه فهرست مشخص کاربردهای غیرمجاز حذف شده، در نوع خود عجیب است.
OpenAI درحالحاضر همچنان از کاربران فناوریهای خود میخواهد که از این ابزارها برای آسیبرساندن به خود و دیگران استفاده نکنند. بااینحال، باید منتظر بمانیم تا ببینیم در آینده این شرکت وارد حوزههایی خواهد شد که میتواند با امور نظامی مرتبط باشد یا خیر. به عبارت دیگر، شاید این تغییر مقدمهای بر استفاده از هوش مصنوعی در حوزههای نظامی باشد.
در سالهای اخیر قراردادهای شرکتهای فناوری با سازمانهای دفاعی و نظامی جنجالهای زیادی را بهپا کرده است. حالا با توجه به تحولات عظیمی که ChatGPT در دنیای هوش مصنوعی و بهطور کلی در دنیای فناوری ایجاد کرده، باید ببینیم که این ابزار و فناوریهای زیربنایی آن وارد حوزههای دفاعی خواهد شد یا خیر.
پیشتر نیویورک تایمز در گزارشی مدعی شده بود که ایالاتمتحده و چین میخواهند به ابزارهای هوش مصنوعی استقلال تصمیمگیری در کشتن اهداف انسانی را دهند. انتشار این گزارش نگرانیهایی را در افکار عمومی بهوجود آورد.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.