ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

Very satisfied Satisfied Neutral Dissatisfied Very dissatisfied
واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

جدیدترین اخبار و روندهای دنیای فناوری را با نگاهی دقیق و حرفه‌ای، در کانال تلگرام دیجیاتو دنبال کنید.

ورود به کانال تلگرام دیجیاتو
هوش مصنوعی تولید پسورد
هوش مصنوعی

نتایج یک تحقیق جدید: چرا هرگز نباید از هوش مصنوعی برای ساخت رمز عبور استفاده کنیم؟

طبق این تحقیق، رمزهای عبوری که توسط مدل‌های بزرگ زبانی (LLM) به شکلی باورنکردنی «قابل حدس» و «ناامن» هستند.

جواد تاجی
نوشته شده توسط جواد تاجی تاریخ انتشار: ۳۰ بهمن ۱۴۰۴ | ۲۳:۰۰

عصر هوش مصنوعی با تمام مزایایی که دارد، چالش‌های امنیتی بزرگی را هم به‌همراه داشته است. درحالی که بسیاری از کاربران برای ساده‌سازی کارهای خود از چت‌بات‌هایی مثل ChatGPT یا Claude استفاده می‌کنند، تحقیقات جدید نشان می‌دهد که استفاده از این ابزارها برای تولید رمز عبور (Password)، ریسک امنیتی بسیار بالایی دارد.

بر اساس پژوهش جدید شرکت امنیتی Irregular، رمزهای عبوری که توسط مدل‌های بزرگ زبانی (LLM) تولید می‌شوند، اگرچه در ظاهر پیچیده به نظر می‌رسند، اما به شکلی باورنکردنی «قابل حدس» و «ناامن» هستند.

محققان از سه هوش مصنوعی محبوب یعنی ChatGPT (شرکت OpenAI)، Claude (شرکت Anthropic) و Gemini (گوگل) خواستند تا رمزهای عبور ۱۶ کاراکتری، شامل حروف بزرگ و کوچک، اعداد و نمادهای خاص بسازند.

مدل‌های هوش مصنوعی روی مانیتور

در نگاه اول، خروجی این مدل‌ها شباهت زیادی به پسوردهای تصادفی ساخته شده توسط ابزارهای مدیریت پسورد اپل یا گوگل داشته است. حتی ابزارهای سنجش قدرت پسورد مثل KeePass نیز به این رمزها امتیاز «بسیار قوی» داده‌اند. اما به گفته محققان، مشکل اصلی به فقدان تصادفی‌سازی واقعی مربوط می‌شود. آنها توضیح می‌دهند که هوش مصنوعی بر پایه پیش‌بینی کلمه یا کاراکتر بعدی آموزش دیده است، نه تولید داده‌های کاملاً تصادفی.

عملکرد مدل‌های هوش مصنوعی در تولید پسورد

نتایج بررسی ۵۰ پسورد تولید شده توسط مدل Claude Opus 4.6 نشان داده که تمام آن‌ها با یک حرف شروع می‌شوند که در اکثر موارد حرف بزرگ «G» بود. کاراکتر دوم تقریباً همیشه عدد «۷» بوده و مجموعه‌ای از کاراکترها مثل L ,9 ,m ,2, $, # در تمام ۵۰ مورد تکرار شده بودند.

مدل هوش مصنوعی ChatGPT تقریباً تمام پسوردهای خود را با حرف «v» شروع کرده و در نیمی از موارد، کاراکتر دوم «Q» بوده است. مدل Gemini گوگل نیز وضعیت بهتری نداشته و اکثر پسوردهای پیشنهادی آن با حرف «K» (بزرگ یا کوچک) شروع شده و با ترکیبی از # یا P ادامه پیدا کرده‌اند.

نکته دیگر اینکه در هیچ‌یک از پسوردهای تولید شده، کاراکتر تکراری دیده نشده است. شاید فکر کنید این موضوع امنیت را بالا می‌برد، اما محققان می‌گویند از نظر آماری، در یک توالی واقعاً تصادفی، احتمال تکرار کاراکترها وجود دارد. در واقع حذف تکرار توسط AI نشان می‌دهد که مدل برای «شبیه شدن به رمز تصادفی» تلاش می‌کند، نه اینکه واقعاً کاراکترهای تصادفی تولید کند.

کاراکترهای تصادفی در پسورد

هرچند کاربران عادی احتمالاً کمتر برای ساخت پسوردهای خود از هوش مصنوعی کمک خواهند گرفت، اما مشکل بزرگ‌تر به «ایجنت یا عامل‌های هوش مصنوعی» (AI Agents) مربوط می‌شود که برای کدنویسی یا مدیریت سیستم‌ها استفاده می‌شوند. محققان با جستجو در GitHub متوجه شده‌اند که بسیاری از برنامه‌نویسان از AI برای تولید پسوردهای سیستمی استفاده کرده‌اند و الگوهای کشف شده در این تحقیق، به وفور در کدهای عمومی دیده می‌شود.

شرکت Irregular معتقد است این مشکل با به‌روزرسانی یا تغییر دستورات (Prompt) حل‌شدنی نیست؛ چرا که ذات مدل‌های زبانی با تصادفی بودن در تضاد است.

جواد تاجی
جواد تاجی

دوران حرفه‌ای من در دنیای فناوری تقریبا به ۱۰ سال قبل برمی‌گرده؛ مسیری که با سخت‌افزار شروع شد، با نرم‌افزار ادامه پیدا کرد و حالا با خبرنگاری حوزه فناوری توی دیجیاتو داره ادامه پیدا می‌کنه. من جوادم و بیشتر از سه دهه از عمرم می‌گذره و علاوه بر دنیای فناوری عاشق فیلم‌و‌سینما، موسیقی کلاسیک‌راک و رئال مادریدم.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی