ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

فریب ChatGPT
هوش مصنوعی

هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دست‌ساز گرفت

این تکنیک برای فریب ChatGPT نشان می‌دهد که چت‌بات OpenAI بدون دستورالعمل‌های حفاظتی خود تقریباً درباره هرچیزی می‌تواند اطلاعات ارائه کند.

جواد تاجی
نوشته شده توسط جواد تاجی | ۲۳ شهریور ۱۴۰۳ | ۱۴:۰۰

چت‌بات‌ها مانند ChatGPT با دستورالعمل‌ها و موانع حفاظتی طراحی شده‌اند که به‌عنوان مثال به سؤالات مربوط به ساخت بمب خانگی پاسخ نمی‌دهند. اما اکنون یک هکر راهی برای فریب دادن ChatGPT پیدا کرده است تا چت‌باتِ OpenAI دستورالعمل‌ها و مسئولیت‌های اخلاقی خود را برای ارائه آموزش تولید مواد منفجره نادیده بگیرد.

تکنیک مورداستفاده برای فریب ChatGPT

براساس گزارش تک‌کرانچ، این هکر که با نام «آمادون» (Amadon) شناخته می‌شود، از طریق دستوری مبنی بر «انجام یک بازی» توانسته ChatGPT را برای ارائه دستور ساخت بمب فریب دهد. هکر در تکنیک خود از چند دستور استفاده کرده است تا چت‌بات یک دنیای کاملاً فانتزی و علمی‌تخیلی بسازد که دستورالعمل‌های ایمنی ChatGPT در آن اعمال نمی‌شوند.

در طول گفتگوی بین این هکر و چت‌بات، ChatGPT چندین بار مواد لازم برای ساخت مواد منفجره را به او ارائه کرده است.

ChatGPT در توضیحات خود گفته است این مواد را می‌توان برای ساخت «مواد منفجره قدرتمندی که می‌تواند در مین‌ها، تله‌ها یا وسایل انفجاری دست‌ساز (IED) استفاده شوند» با یکدیگر ترکیب کرد. در ادامه نیز دستورالعمل‌های بیشتری درباره ساخت «میدان‌های مین» و «مواد منفجر به سبک کلیمور» ارائه شده است.

آمادون به TechCrunch می‌گوید:

«پس از دورزدن موانع ChatGPT، واقعاً هیچ محدودیتی درباره چیزهایی که می‌توانید از آن بپرسید وجود ندارد. سناریوی دنیای علمی‌تخیلی هوش مصنوعی را از زمینه‌ای خارج می‌کند که در آن به دنبال محتوای سانسورشده است.»

این هکر، از یافته‌های مربوط به تکنیک خود به‌عنوان «هک مهندس اجتماعی برای شکستن کامل تمام حفاظ‌های مربوط به خروجی ChatGPT» یاد می‌کند. همچنین یک کارشناس مواد منفجر با بررسی خروجی ChatGPT به تک‌کرانچ گفته است که دستورالعمل‌های تولیدشده توسط هوش مصنوعی بسیار حساس هستند و با آن‌ها می‌توان یک ماده قابل انفجار ساخت.

جواد تاجی

دوران حرفه‌ای من توی دنیای فناوری تقریبا به ۱۰ سال قبل برمی‌گرده؛ مسیری که با سخت‌افزار شروع شد، با نرم‌افزار ادامه پیدا کرد و حالا با خبرنگاری حوزه فناوری توی دیجیاتو داره ادامه پیدا می‌کنه. من جوادم و نزدیک به سه دهه از عمرم می‌گذره و علاوه بر دنیای فناوری عاشق فیلم‌و‌سینما، موسیقی کلاسیک‌راک و رئال مادریدم.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی