ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

ChatGPT جیلبریک
هوش مصنوعی

نسخه جیلبریک‌شده ChatGPT توسط یک هکر منتشر شد

این نسخه غیررسمی GODMODE GPT نام دارد و می‌تواند موانع حفاظتی OpenAI را دور بزند.

جواد تاجی
نوشته شده توسط جواد تاجی | ۱۰ خرداد ۱۴۰۳ | ۱۲:۳۰

نسخه هک یا جیلبریک شده چت‌بات هوش مصنوعی ChatGPT با نام «GODMODE GPT» توسط یک هکر منتشر شده است. در حالی که OpenAI ادعا کرده که نسبت به سازنده این چت‌بات اقدام قانونی کرده است، GODMODE GPT ظاهراً می‌تواند تمام موانع محافظتی آن را از بین ببرد.

هکری که در ایکس خود را با نام «Pliny the Prompter» و به‌عنوان یک «کلاه سفید» معرفی کرده است، امروز از GODMODE GPT رونمایی کرد. او در پست خود نوشت:

«این GPT سفارشی بسیار خاص دارای یک دستور جیلبریک داخلی است که اکثر موانع محافظ را دور می‌زند و یک ChatGPT آزاد‌شده را ارائه می‌کند تا همه بتوانند هوش مصنوعی را همانطور که همیشه قرار بوده تجربه کنند: رایگان.

لطفا مسئولانه از آن استفاده کنید و لذت ببرید!»

این هکر همچنین اسکرین‌شات‌هایی را به اشتراک گذاشته است که ادعا می‌کند نشان می‌دهند ChatGPT از موانع مخافظتی OpenAI عبور کرده است. در یکی از این تصاویر، هوش مصنوعی Godmode «راهنمای گام‌به‌گام» نحوه «ساخت ناپالم با وسایل خانه» را آموزش داده است (تصویر بالا). ناپالم ماده‌ای آتش‌زا و نوعی بمب است.

اقدام قانونی OpenAI علیه ChatGPT جیلبریک شده

تقریباً یک ساعت پس از انتشار این موضوع در ایکس، «کالین رایز»، سخنگوی OpenAI در بیانیه‌ای به Futurism اعلام کرده که آن‌ها «از موضوع آگاه هستند و برای نقض سیاست‌های خود، اقدام قانونی» کرده‌اند.

تقریباً از زمان شروع به کار ChatGPT، کاربران به‌طور مداوم در تلاش بوده‌اند تا مدل‌های هوش مصنوعی مانند آن را جیلبریک کنند، کاری که انجام آن ظاهراً بسیار سخت است. با این حال، به‌نظر می‌رسد که هکر GODMODE GPT کار خود را با یک زبان غیررسمی به نام «leetspeak» انجام داده است که حروف خاصی را با اعداد شبیه به آن‌ها جایگزین می‌کند.

به‌عنوان مثال، با این زبان، عدد 3 جایگزین حرف E در برخی کلمات می‌شود و در این نسخه جیلبریک‌شده از ChatGPT نیز کلماتی مانند Sur3 یا h3r3 y0u ar3 my fr3n دیده می‌شود. البته دقیقاً مشخص نیست که استفاده از این زبان غیررسمی چگونه باعث شده تا این چت‌بات بتواند موانع حفاظتی OpenAI را دور بزند.

جواد تاجی

دوران حرفه‌ای من توی دنیای فناوری تقریبا به ۱۰ سال قبل برمی‌گرده؛ مسیری که با سخت‌افزار شروع شد، با نرم‌افزار ادامه پیدا کرد و حالا با خبرنگاری حوزه فناوری توی دیجیاتو داره ادامه پیدا می‌کنه. من جوادم و نزدیک به سه دهه از عمرم می‌گذره و علاوه بر دنیای فناوری عاشق فیلم‌و‌سینما، موسیقی کلاسیک‌راک و رئال مادریدم.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (1 مورد)
  • nima_sadeghi
    nima_sadeghi | ۱۱ خرداد ۱۴۰۳

    هک کردن این سامانه یکی از سخترین کارهاست
    هکری که بتونه شاه هکره

مطالب پیشنهادی