ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

Very satisfied Satisfied Neutral Dissatisfied Very dissatisfied
واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

جدیدترین اخبار و روندهای دنیای فناوری را با نگاهی دقیق و حرفه‌ای، در کانال تلگرام دیجیاتو دنبال کنید.

ورود به کانال تلگرام دیجیاتو
ایجنت‌های هوش مصنوعی
هوش مصنوعی

هشدار محققان MIT: اکثر ایجنت‌های هوش مصنوعی امن نیستند

تحقیق جدید نشان می‌دهد اکثر ایجنت‌های هوش‌های مصنوعی خودمختار فاقد تست ایمنی شفاف و حتی دکمه توقف هستند.

آزاد کبیری
نوشته شده توسط آزاد کبیری تاریخ انتشار: ۱ اسفند ۱۴۰۴ | ۱۲:۴۸

در دیجیاتو ثبت‌نام کنید

جهت بهره‌مندی و دسترسی به امکانات ویژه و بخش‌های مختلف در دیجیاتو عضو ویژه دیجیاتو شوید.

عضویت در دیجیاتو

مطالعه جدید محققان دانشگاه MIT و چند نهاد علمی معتبر دیگر نشان می‌دهد که ایجنت‌های هوش مصنوعی که می‌توانند به‌صورت خودکار کارها را انجام دهند، یک کابوس امنیتی هستند. این سیستم‌ها نه‌تنها درباره خطرات و تست‌های ایمنی خود شفاف نیستند، بلکه بسیاری از آنها حتی دکمه‌ای برای توقف اضطراری ندارند.

محققان دانشگاه‌های MIT، کمبریج، واشنگتن، هاروارد، استنفورد و پنسیلوانیا در گزارشی ۳۹ صفحه‌ای با عنوان «شاخص هوش مصنوعی ۲۰۲۵»، ۳۰ سیستم رایج ایجنت‌محور را بررسی کردند. آنها دریافتند که ۱۲ مورد از این سیستم‌ها هیچ‌گونه نظارتی بر میزان استفاده کاربران ندارند؛ موضوعی که مدیریت بودجه را برای شرکت‌ها به شدت دشوار می‌کند. بدتر از آن، اکثر این ایجنت‌ها ماهیت مصنوعی خود را فاش نمی‌کنند؛ یعنی نه روی فایل‌های تولیدی واترمارک می‌زنند و نه با رعایت پروتکل‌های استاندارد (مانند فایل robots.txt) خود را به‌عنوان بات به وب‌سایت‌ها معرفی می‌کنند.

هشدار محققان درباره ایجنت‌های هوش مصنوعی

یکی از ترسناک‌ترین یافته‌های این تحقیق، نبود مکانیسم کنترل در سیستم‌هایی است که به‌طور مستقل عمل می‌کنند. ایجنت‌های هوش مصنوعی ابزارهایی هستند که فقط به یک چت متنی محدود نمی‌شوند؛ آنها به دیتابیس‌ها و ایمیل‌ها متصل می‌شوند و کارها را با استقلال انجام می‌دهند. حال تصور کنید باتی که به اطلاعات سازمان دسترسی دارد، شروع به انجام کارهای مخرب یا اشتباه کند و شما نتوانید آن را متوقف کنید. محققان تأکید می‌کنند که با افزایش توانایی این بات‌ها، چنین نقص‌هایی در کنترل و شفافیت می‌تواند آسیب‌های جبران‌ناپذیری به همراه داشته باشد.

ایجنت‌های هوش مصنوعی

محققان برای درک بهتر، سه نمونه از این ابزارها (که اکثراً برپایه مدل‌های جمینای، کلود و GPT ساخته شده‌اند) را بررسی کردند؛ دستیار ChatGPT Agent تنها سیستمی بود که با امضای رمزنگاری‌شده درخواست‌های خود را ثبت می‌کرد تا رفتار آن در وب قابل‌پیگیری باشد.

در مقابل مرورگر اینترنتی Comet هیچ‌گونه ارزیابی ایمنی یا تست شخص ثالثی ارائه نمی‌دهد و هیچ محیط ایزوله‌ای (Sandboxing) برای جلوگیری از خطرات ندارد. این ابزار حتی توسط شرکت آمازون به دلیل جعل هویت انسانی و پنهان‌کردن ماهیت رباتی خود مورد شکایت قرار گرفته است. ابزار Breeze از شرکت HubSpot نیز اگرچه گواهینامه‌های حریم خصوصی مانند GDPR و SOC2 را دارد، اما نتایج واقعی تست‌های امنیتی خود را مخفی نگه داشته است که این رویه در پلتفرم‌های سازمانی بسیار رایج و خطرناک است.

درکل این سیستم‌ها خودبه‌خود به وجود نیامده‌اند، بلکه محصول انتخاب‌های خاص انسان‌ها هستند. برای مثال، شرکت OpenAI به‌تازگی خالق پلتفرم OpenClaw را استخدام کرده است؛ ابزاری که ماه گذشته به دلیل توانایی‌های عجیبش (مثل مدیریت خودکار ایمیل‌ها) و در عین‌حال نقص‌های امنیتی فاجعه‌بارش (مانند امکان هک‌شدن کامل کامپیوتر شخصی کاربر) خبرساز شد.

محققان در پایان هشدار می‌دهند که توسعه‌دهندگان باید فوراً خلأهای امنیتی و کنترلی ابزارهای خود را برطرف کنند، در غیر این صورت به‌زودی با رگولاتوری و قوانین سخت‌گیرانه دولتی مواجه خواهند شد.

آزاد کبیری
آزاد کبیری

دانش‌آموخته‌ زبان‌شناسی‌ هستم و همان‌قدر که به کلمات علاقه‌مندم، از سرک‌کشیدن به گوشه‌وکنارِ تکنولوژی و علم هم لذت می‌برم. حدود ۱۵ سال از نگارش نخستین متن رسمی‌ام می‌گذرد.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی