ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

هک و GPT4
امنیت

مدل هوش مصنوعی GPT-4 نقص‌های امنیتی را با نرخ موفقیت 53 درصدی شناسایی کرد

نتایج این پژوهش می‌تواند به محققان کمک کند تا جلوی سوءاستفاده از مدل‌های هوش مصنوعی برای بهره‌گیری از آسیب‌پذیری‌های روز صفر را بگیرند.

آزاد کبیری
نوشته شده توسط آزاد کبیری | ۲۲ خرداد ۱۴۰۳ | ۱۶:۰۰

محققان توانستند با موفقیت بیش از نیمی از وب‌سایت‌های آزمایشی خود را با استفاده از بات‌های GPT-4 هک کنند. این مدل ابداعی محققان می‌تواند بات‌های جدیدی برای انجام وظایف خاص تولید کند. به‌طورکلی، نتایج این پژوهش می‌تواند برای جلوگیری از سوءاستفاده‌ از مدل‌های هوش مصنوعی در هک‌های روز صفر مفید باشد.

براساس گزارش نیواطلس، محققان دانشگاه ایلینوی اربانا-شمپین توانستند از روشی به‌ نام «برنامه‌ریزی سلسله‌مراتبی با عامل‌های وظیفه‌محور» یا «HPTSA» برای تولید خودکار چندین بات از مدل زبانی بزرگی استفاده کنند؛ در این روش GPT-4 می‌تواند بات‌های دیگری بسازد و به‌این‌ترتیب از آسیب‌پذیری‌های روز صفر و ناشناخته برای هک‌کردن استفاده کند.

چند ماه پیش، همین محققان توانستند از GPT-4 برای هک خودکار آسیب‌پذیری‌های روز اول یا N-day (نقص‌های امنیتی که شناخته شده‌ اما هنوز اصلاح نشده‌اند) بهره ببرند. به گفته محققان، اگر لیست آسیب‌پذیری‌های شناخته‌شده به GPT-4 داده شود، این هوش مصنوعی می‌تواند به‌تنهایی از 87 درصد این آسیب‌پذیری‌ها برای هک استفاده کند.

استفاده از هوش مصنوعی GPT-4 برای شناسایی نقص‌های امنیتی

محققان در پژوهش جدیدشان، با روش HPTSA به‌جای اختصاص‌‌دادن مدل هوش مصنوعی برای حل بسیاری از مسائل پیچیده، از «عامل برنامه‌ریزی» (Planning agent) استفاده کرده‌اند که مانند مدیر بر کل فرایند نظارت می‌کند و خودش چندین زیرمجموعه Subagent می‌سازد که هرکدام مخصوص کاری هستند. فرایند این کار بسیار شبیه سازمانی با یک رئیس و چند کارمند است که در آن عامل برنامه‌ریزی با عوامل دیگر مسائل مختلف را بررسی و برطرف می‌کند.

هنگامی که مدل‌های هوش مصنوعی با روش HPTSA در برابر 15 آسیب‌پذیری در وب قرار گرفتند، توانستند 550 درصد کارآمدتر از مدلی معمولی عمل کنند. به‌عبارت دقیق‌تر، آن‌‎ها توانستند 8 آسیب‌پذیری از 15 آسیب‌پذیری روز صفر را هک کنند (یعنی با نرخ موفقیت تقریبی 53 درصدی). در مقابل مدلی انفرادی توانست فقط در هک 3 مورد از 15 آسیب‌پذیری موفق باشد.

از سویی این نگرانی وجود دارد که این مدل‌ها به برخی کاربران اجازه دهند به‌صورت مخرب به وب‌سایت‌ها و پلتفرم‌ها حمله کنند. اما محققان این پژوهش می‌گویند چت‌بات GPT-4 به‌تنهایی نمی‌تواند چیزی را هک‌ کند.

آزاد کبیری

دانش‌آموخته‌ی ساکتِ زبان‌شناسی هستم و همان‌قدر که به کلمات علاقه‌مندم، سرک‌کشیدن به هر گوشه‌ از تکنولوژی و علم را هم دوست دارم. حدود 15 سال نیز از نگارش اولین متن رسمی من می‌گذرد.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی