ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

هوش مصنوعی
هوش مصنوعی

کارشناسان امنیت سایبری: توقف توسعه مدل‌های هوش مصنوعی جدید بی‌معنی است

برخلاف رهبران صنعت فناوری که خواستار توقف توسعه هوش مصنوعی به مدت شش ماه شده بودند، کارشناسان امنیت سایبری نظر دیگری دارند.

جواد تاجی
نوشته شده توسط جواد تاجی | ۱۲ فروردین ۱۴۰۲ | ۱۲:۰۰

هفته گذشته، گروهی از فعالان فناوری و متخصصان هوش مصنوعی ازجمله ایلان ماسک، با ارائه یک نامه سرگشاده خواستند تا توسعه سیستم‌های هو‌ش ‌مصنوعی قدرتمندتر از GPT-4 به‌دلیل «خطرات آن برای جامعه و بشریت» به مدت شش ماه متوقف شود. هرچند توقف این روند می‌تواند به درک بهتر و تنظیم خطرات اجتماعی ایجادشده توسط هوش ‌مصنوعی کمک کند، برخی افراد استدلال کرده‌اند که این تلاش توسط رقبای برخی رهبران این حوزه مانند OpenAI انجام شده است تا بتوانند در این فضا به رقابت بپردازند.

تحلیلگر شرکت گارتنر در مصاحبه‌ای با VentureBeat توضیح می‌دهد که «وقفه شش‌ماهه درخواستی برای توقف آموزش مدل‌های قدرتمندتر از GPT-4 است. GPT-5 به‌زودی پس از GPT 4.5 منتشر خواهد شد که انتظار می‌رود به AGI (هوش عمومی مصنو‌عی) دست پیدا کند. هنگامی که AGI در دسترس قرار گیرد، احتمالاً برای ایجاد کنترل‌های ایمنی که به‌طور مؤثر از انسان در مقابل استفاده از این سیستم‌ها محافظت می‌کند، خیلی دیر خواهد بود».

GPT-4

نظر کارشناسان امنیت سایبری درباره توقف توسعه هوش مصنوعی

با وجود نگرانی‌هایی که در مورد خطرات اجتماعی ناشی از هوش مصنوعی مولد وجود دارد، بسیاری از کارشناسان امنیت سایبری همچنین اشاره کرده‌اند که وقفه در توسعه هوش ‌مصنوعی به‌هیچ‌وجه کمک‌کننده نخواهد بود. درعوض، آن‌ها استدلال کرده‌اند که این تصمیم فرصت موقتی برای تیم‌های امنیتی ایجاد خواهد کرد تا بتوانند روش‌های دفاعی خود را توسعه دهند.

یکی از قانع‌کننده‌ترین استدلال‌هایی که علیه توقف تحقیقات هوش مصنوعی ارائه شده است، ادعا می‌کند که این تصمیم فقط بر فروشندگان تأثیرگذار خواهد بود و نه عوامل تهدید. طبق این استدلال، مجرمان سایبری همچنان توانایی توسعه حملات جدید و همچنین تقویت تکنیک‌های تهاجمی خود را خواهند داشت.

«استیو گروبمن»، مدیر ارشد فناوری McAfee، به VentureBeat گفت:

«توقف توسعه نسل بعدی هوش مصنوعی مانع حرکت این فناوری به سمت‌های خطرناک نخواهد شد. با پیشرفت فناوری، وجود سازمان‌ها و شرکت‌هایی با آیین و استانداردهایی که به پیشرفت فناوری ادامه می‌دهند، برای اطمینان از اینکه از فناوری به مسئولانه‌ترین شکل ممکن استفاده می‌شود، ضروری است.»

توسعه مدل‌های هوش مصنوعی

درواقع کارشناسان این صنعت پیشنهاد می‌کنند که به‌جای توقف توسعه مدل‌های جدید، تمرکز روی نحوه مدیریت خطرات مرتبط با استفاده مخرب از هوش ‌مصنوعی مولد و ترغیب فروشندگان هوش مصنوعی به شفافیت بیشتر می‌تواند به کاهش خطرات مربوط به این زمینه کمک بیشتری کند.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (1 مورد)
  • اج133
    اج133 | ۱۳ فروردین ۱۴۰۲

    کارشناسی که دیندار باشه تقلبیه کارشناسی که نوکر سیاست بشه هم اب دوغ خیاریه هیچ بهانه ای نباید جلوی پیشرفت علم رو بگیره

مطالب پیشنهادی