ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

هوش مصنوعی
امنیت

محققان: هکرها می‌توانند چت‌های رمزگذاری‌شده از چت‌بات‌های هوش مصنوعی را بخوانند

همه چت‌بات‌ها به‌جز Gemini، تحت تأثیر این حمله قرار می‌گیرند که پاسخ‌های ارسال‌شده به کاربران را فاش می‌کند.

جواد تاجی
نوشته شده توسط جواد تاجی | ۲۸ اسفند ۱۴۰۲ | ۱۲:۳۰

دستیارهای هوش مصنوعی تقریباً از بیشتر از یک سال پیش به‌طور گسترده در دسترس هستند و کاربران زیادی اطلاعات موردنیاز روزانه خود را با کمک آن‌ها کسب می‌کنند. بااین‌حال، روند پیشرفت این فناوری چندان بدون نگرانی نبوده است و حالا محققان حمله‌ای را ابداع کرده‌اند که می‌تواند پاسخ‌های ارائه‌شده توسط تمام چت‌بات‌ها به‌جز Gemini را با دقت قابل‌توجهی رمزگشایی کند.

براساس گزارش Ars Technica، در این تکنیک از یک کانال جانبی استفاده می‌شود که در تمام دستیارهای هوش مصنوعی، به‌استثنای گوگل جمینای (Gemini) موجود است. سپس نتایج نسبتاً خام به‌دست‌آمده از این طریق، با کمک مدل‌های زبان بزرگی که مخصوصاً برای این کار آموزش داده شده‌اند، اصلاح می‌شوند.

«یسروئل میرسکی»، رئیس آزمایشگاه تحقیقات هوش مصنوعی Offensive AI Research Lab توضیح می‌دهد:

«درحال‌حاضر همه می‌توانند چت‌های خصوصی ارسال‌شده از ChatGPT و سایر سرویس‌ها را بخوانند. همه یعنی هرکسی که از Wi-Fi یا LAN شما استفاده می‌کند یا حتی یک عامل خرابکار در اینترنت، یعنی تمام کسانی که بتوانند ترافیک شما را مشاهده کنند.»

او در ادامه می‌گوید:

«این حمله غیرفعال است و می‌تواند بدون اطلاع OpenAI یا مشتری آن‌ها اتفاق بیفتد. OpenAI برای جلوگیری از این نوع حملات، ترافیک خود را رمزگذاری می‌کند، اما تحقیقات ما نشان می‌دهد که روش OpenAI در استفاده از رمزگذاری ناقص است و بنابراین محتوای پیام‌ها فاش می‌شود.»

تشخیص پیام‌های هوش مصنوعی با دقت 55 درصدی

هرچند حملات کانال جانبی نسبت به سایر هک‌ها کمتر تهاجمی هستند، اما همان‌طور که در این گزارش گفته شده است، می‌توانند تقریباً یک پیام چت‌بات را با دقت 55 درصدی استنباط کنند. با این شرایط، هر سؤالی که از مدل‌های هوش مصنوعی نظیر ChatGPT می‌پرسید، ممکن است توسط هکرها تشخیص داده شود.

به گفته محققان، این حمله معمولاً به‌دلیل استفاده چت‌بات‌ها از داده‌های رمزگذاری‌شده تحت عنوان «توکن» رخ می‌دهد که به مدل‌های زبان بزرگ کمک می‌کند تا ورودی‌های خود را ترجمه کنند و به آن‌ها پاسخ دهند.

بیانیه مایکروسافت در قبال Copilot

مایکروسافت در بیانیه‌ای به‌طور کلی وجود این نقص در هوش مصنوعی Copilot را تأیید کرده است، اما می‌گوید این نقص خطری برای اطلاعات شخصی کاربران به‌همراه ندارد. سخنگوی مایکروسافت می‌گوید:

«بعید است جزئیات خاصی مانند نام‌ها به این طریق تشخیص داده شود. ما متعهد هستیم که به محافظت از مشتریان خود در برابر این حملات احتمالی کمک کنیم و با به‌روزرسانی به آن‌ها رسیدگی خواهیم کرد.»

جواد تاجی

دوران حرفه‌ای من توی دنیای فناوری تقریبا به ۱۰ سال قبل برمی‌گرده؛ مسیری که با سخت‌افزار شروع شد، با نرم‌افزار ادامه پیدا کرد و حالا با خبرنگاری حوزه فناوری توی دیجیاتو داره ادامه پیدا می‌کنه. من جوادم و نزدیک به سه دهه از عمرم می‌گذره و علاوه بر دنیای فناوری عاشق فیلم‌و‌سینما، موسیقی کلاسیک‌راک و رئال مادریدم.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی