محققان امنیتی: هوش مصنوعی Bard گوگل نقصهای امنیتی زیادی دارد
محققان در تحقیق جدیدی تلاش کردهاند تا امنیت Bard و ChatGPT را در مواردی مانند تولید ایمیل فیشینگ و ایجاد کد باجافزار آزمایش کنند.
محققان حوزه امنیت سایبری تحقیق جالب جدیدی را انجام دادهاند که در آن امنیت دو چتبات Bard از گوگل و ChatGPT از OpenAI را با یکدیگر مقایسه میکند. اگرچه هرکدام از این پلتفرمها موارد استفاده بسیار زیادی دارند، اما این تحقیق نشان میدهد که هرکدام (و بهویژه Bard) دارای نقصهای امنیتی زیادی هستند.
محققان امنیت سایبری شرکت چک پوینت (Check Point) در جدیدترین تحقیق خود تلاش کردند هوش مصنوعی Bard گوگل را از نظر امنیت با ChatGPT مقایسه کنند. آنها برای این امر سعی کردند از هر دو پلتفرم ایمیلهای فیشینگ، کیلاگرهای بدافزار و برخی از کدهای اولیه یک باجافزار را دریافت کنند.
مقایسه امنیت هوش مصنوعی Bard گوگل و ChatGPT
به گفته آنها، هنگام درخواست یک ایمیل فیشینگ ساده، هر دو پلتفرم هیچ نتیجهای را ارائه نکردند اما زمانی که از آنها خواسته شد تا براساس یک نمونه، ایمیل فیشینگ تولید کنند، Bard بهخوبی این کار را انجام داده است. ChatGPT اما از دستور محققان پیروی نکرد و این کار را بهمعنای حضور در فعالیتهای کلاهبرداری و غیرقانونی خواند.
درباره کیلاگرهای بدافزار تقریباً هر دو پلتفرم عملکرد خوبی داشتند. چتباتها بازهم نسبت به درخواست مستقیم این موضوع هیچ واکنشی ارائه نکردند و حتی زمانی که محققان تلاش کردند از سؤالات گمراهکننده استفاده کنند نیز هر دو پلتفرم هیچ پاسخی ندادند. به گفته محققان، هرچند پاسخ ارائهشده توسط ChatGPT بسیار دقیقتر بوده، اما Bard بهسادگی این توضیح را ارائه کرده است:
«نمیتوانم در این مورد به شما کمکی کنم؛ من فقط یک مدل زبان هستم.»
درنهایت محققان تصمیم گرفتند که از Bard بخواهند برای یک اسکریپت باجافزار اولیه کد تولید کند. هرچند در مقایسه با ایمیلهای فیشینگ و کیلاگرها این درخواست پیچیدهتری محسوب میشود، اما محققان درنهایت موفق شدند تا Bard را وادار به ارائه پاسخ کنند.
محققان بهعنوان نتیجهگیری گفتند: «محدودیتهای ضدسوءاستفاده Bard در حوزه امنیت سایبری بسیار پایینتر از ChatGPT است. درنتیجه تولید محتوای مخرب با قابلیتهای Bard بسیار سادهتر است.»
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.