ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

جیلبریک‌کردن هوش مصنوعی ربات
کیان

محققان نشان دادند: جیلبریک ربات‌ها برای ردشدن از روی انسان و کارگذاری بمب آسان است

محققان دریافتند که جیلبریک ربات‌های مبتنی بر مدل‌های زبانی بزرگ بسیار آسان است.

آزاد کبیری
نوشته شده توسط آزاد کبیری | ۵ آذر ۱۴۰۳ | ۱۶:۰۰

محققان دانشگاه پنسیلوانیا دریافتند طیف وسیعی از سیستم‌های رباتیک مبتنی‌بر هوش مصنوعی به‌‌شکل خطرناکی در برابر جیلبریک و هک آسیب‌پذیر هستند. به گفته محققان با هک این ربات‌ها می‌توان از آنها برای جابه‌جایی بمب‌ها به مکان‌های عمومی یا کنترل خودروهای خودران برای زیرگرفتن عابران پیاده استفاده کرد.

براساس گزارش IEEE Spectrum، محققان دریافتند جیلبریک ربات‌های مبتنی‌بر مدل‌های زبانی بزرگ (LLM) به‌طرز شگفت‌انگیزی آسان است. در پژوهش جدید، محققان هک‌کردن چنین ربات‌هایی را با موفقیت کامل نشان می‌دهند. با دورزدن حفاظ‌های ایمنی، محققان توانستند سیستم‌های خودران را برای تصادف با عابران پیاده و انتقال بمب با سگ‌های رباتیک دستکاری کنند.

جیلبریک ربات‌ هوش مصنوعی

توانایی خارق‌العاده LLMها در پردازش متن، تعدادی از شرکت‌ها را بر آن داشته تا از این سیستم‌های هوش مصنوعی برای کمک به کنترل ربات‌ها از طریق دستورات صوتی بهره ببرند تا ارتباط‌ با ربات‌ها آسان باشد؛ برای نمونه، سگ رباتیک Spot از Boston Dynamics اکنون با ChatGPT یکپارچه شده است و می‌تواند در نقش تور لیدر عمل کند. یا ربات‌های انسان‌نمای فیگر و سگ رباتیک Go2 Unitree نیز به ChatGPT مجهز هستند.

البته باتوجه‌به مقاله محققان، این ربات‌های مبتنی‌بر LLM آسیب‌پذیری‌های امنیتی زیادی دارند. محققان دانشگاه پنسیلوانیا الگوریتم RoboPAIR را توسعه داده‌اند که برای حمله به هر ربات مجهز به LLM طراحی شده است. آنها دریافتند RoboPAIR فقط چند روز لازم دارد تا به نرخ 100 درصدی جیلبریک موفق برسد.

ابتدا این سگ رباتیک از انتقال بمب امتناع می‌کرد اما با الگوریتم RoboPAIR و پرامپتی که در تصویر می‌بینید، به‌سمت هدف حرکت کرد.

جالب اینجاست که LLM‌های جیلبریک‌شده این ربات‌ها پیشنهاداتی فراتر از پرامپت کاربر پیشنهاد دادند؛ برای مثال، هنگامی که از ربات جیلبریک‌شده خواسته شد محل اسلحه‌ها را پیدا کند، توضیح داد چگونه می‌توان از اشیای معمولی مانند میز و صندلی برای حمله به افراد استفاده کرد.

درکل، جیلبریک‌ ربات‌ها یا خودروهای خودران به روشی مشابه جیلبریک‌ چت‌بات‌های هوش مصنوعی آنلاین انجام می‌شود اما برخلاف چت‌بات‌ها در گوشی یا کامپیوتر، جیلبریک‌ LLM‌های رباتیک در دنیای فیزیکی عمل می‌کند و می‌تواند به ویرانی گسترده‌ای بینجامد.

آزاد کبیری

دانش‌آموخته‌ی ساکتِ زبان‌شناسی هستم و همان‌قدر که به کلمات علاقه‌مندم، سرک‌کشیدن به هر گوشه‌ از تکنولوژی و علم را هم دوست دارم. حدود 15 سال نیز از نگارش اولین متن رسمی من می‌گذرد.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی