ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

DeepSeek در تمامی تست‌های امنیتی مردود شد؛ یک شکست فاجعه‌بار!
هوش مصنوعی

دیپ‌سیک در آزمایش‌های ایمنی مردود شد؛ شکست کامل مدل جنجالی!

محققان می‌گویند دیپ‌سیک نمی‌تواند در برابر درخواست‌های مخرب ایستادگی کند.

مونا طحان
نوشته شده توسط مونا طحان | ۱۶ بهمن ۱۴۰۳ | ۱۳:۳۰

محققان دانشگاه «پنسیلوانیا» و شرکت سیسکو دریافتند مدل هوش مصنوعی DeepSeek R1 در برابر حملات مرتبط با ایمنی به‌شدت آسیب‌پذیر است و حتی یک تست ایمنی را هم با موفقیت پشت سر نگذاشته است.

در گزارشی که نخستین بار «Wired» منتشر کرد، مشخص شد DeepSeek نتوانسته هیچ‌یک از ۵۰ پرسش مخرب را که از مجموعه داده «HarmBench» انتخاب شده بودند، مسدود کند. این مجموعه شامل درخواست‌هایی در زمینه جرایم سایبری، انتشار اطلاعات نادرست، فعالیت‌های غیرقانونی و محتوای مضر است.

DeepSeek: پیشرفت چشمگیر اما ناموفق در حفظ ایمنی

درحالی‌که دیگر مدل‌های برتر هوش مصنوعی حداقل تا حدی در برابر این حملات مقاومت نشان دادند، DeepSeek کامل شکست خورد. شرکت DeepSeek مدعی است مدل R1 آن می‌تواند با رقبای بزرگی مانند OpenAI رقابت کند، آن هم با هزینه‌ای بسیار پایین‌تر. البته تردیدهایی در این زمینه وجود دارد و به‌ نظر می‌رسد هزینه تولید پاسخ‌های این مدل اصلاً پایین نیست.

DeepSeek در تمامی تست‌های امنیتی مردود شد

ظاهراً صرفه‌جویی در هزینه آموزش، بهای سنگینی در امنیت داشته است. بدون هیچ مانعی می‌توان برای انتشار اطلاعات نادرست، آموزش ساخت مواد منفجره یا اجرای دیگر حملات سایبری از این مدل سوءاستفاده کرد.

محققان همچنین پیشتر افشا کردند DeepSeek پایگاه داده بزرگ و غیرایمنی شامل داده‌های داخلی رمزنگاری‌نشده، تاریخچه چت‌ها و اطلاعات بک‌اند (Back-end) را روی سرورهای خود در دسترس قرار داده بود.

مشکلات امنیتی گسترده در مدل‌های هوش مصنوعی

مشکل امنیتی DeepSeek فقط به این شرکت محدود نمی‌شود. مدل متن‌باز Llama 3.1 از شرکت متا نیز در همین تست‌ها عملکردی ناامیدکننده داشت و با نرخ ۹۶ درصد در برابر حملات شکست خورد. در مقابل، مدل جدید OpenAI با نام o1-preview عملکرد بسیار بهتری داشت و فقط در ۲۶ درصد موارد دچار آسیب‌پذیری شد.

DeepSeek

«الکس پولیاکوف»، مدیرعامل شرکت «Adversa AI»، در این زمینه گفت: «DeepSeek فقط نمونه‌ای از این حقیقت است که هر مدل هوش مصنوعی قابل هک‌ شدن است؛ فقط مسئله زمان و تلاش است. اگر تیم شما مداوم مدل را از نظر ایمنی بررسی نکند، از قبل آسیب‌پذیر شده‌اید.»

باتوجه‌به اهمیت امنیت و ایمنی در هوش مصنوعی و تأثیرات آن بر کاربران، DeepSeek باید به‌سرعت روی بهبود تدابیر محافظتی خود کار کند. در غیر این صورت، احتمال دارد مدل‌های آن به‌دلیل ضعف ایمنی از بازار کنار گذاشته شوند و اعتماد کاربران و سرمایه‌گذاران را از دست بدهند.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (1 مورد)
  • expert_developer
    expert_developer | 2 هفته قبل

    ظاهرا پیشرفت چین در حوزه هوش مصنوعی و رویکرد اوپن سورس محققان دیپ سیک خیلی به سرمایه‌داران آمریکایی فشار آورده که طی این مدت با انواع اخبار غیر دقیق و هیجانی سعی دارند نشون بدن هنوز در این حوزه جلودار هستند.
    مثلا در مورد پایین نبودن هزینه استنتاج مدل دیپ سیک اومدن اون رو با مدل‌های لامای متا مقایسه کردند که نصف دیپ سیک هم کارایی ندارند. یا اینجا خیلی ریز در پایان اشاره کردند که مدل‌های متن باز متا هم مشکل امنیتی دارند. بطور کلی بحث امنیت در یک لایه جداگانه از خود مدل زبانی اعمال میشه و مستقیما ربطی به اون مدل زبانی نداره. خوشبختانه با انتشار متن باز و جزییات نوآوری‌هایی که محققان دیپ سیک انجام دادن محققان این حوزه خیلی خوب متوجه ارزش کار اونها شدند. بعد از سال‌ها که openai با انحصاری کردن و بسته نگه داشتن تحقیقاتش مانع از پیشرفت محققان دیگه شده بود و حتی رویکرد نیمه اوپن شرکت متا رو مورد سرزنش قرار میدادند یکباره یک گروه گمنام از چین کل معادلات این سرمایه ‌گذاران و بیزنس‌من‌ها رو بهم ریخت. طبیعیه که اینقدر زورشون اومده باشه.

مطالب پیشنهادی