
کشف عجیب محققان: دیپسیک برای گروههای مخالف دولت چین کدهای ناامن مینویسد
تحقیقات یک شرکت امنیتی نشان میدهد که هوش مصنوعی چینی دیبسیک برای گروههای مخالف دولت چین کدهای ناامن تولید میکند.

طبق یک تحقیق جدید، چتبات هوش مصنوعی دیپسیک برای گروهها و مناطقی که دولت چین از نظر سیاسی روی آنها حساس است، در امر برنامهنویسی کدهای ناامن و دارای نقص امنیتی تولید میکند.
به گزارش واشینگتن پست، شرکت امنیتی آمریکایی CrowdStrike آزمایشی را طراحی کرد تا نحوه پاسخدهی هوش مصنوعی دیپسیک به درخواستهای کدنویسی را بسنجد. محققان درخواستهای یکسانی را برای نوشتن برنامههای مختلف به این چتبات ارسال کردند، اما در هر درخواست، کاربر نهایی را یک گروه یا منطقه متفاوت معرفی کردند؛ از آمریکا و تبت گرفته تا گروههایی مانند داعش و جنبش مذهبی فالونگونگ که در چین ممنوع است. محققان میگویند این هوش مصنوعی برخی درخواستها را رد میکرد و در مواردی هم کدهایی با کیفیت پایینتر و حفرههای امنیتی جدی ارائه میداد.
کدنویسی ناامن دیپسیک برای گروههای مخالف دولت چین
این تحقیق نشان داد که کیفیت کد تولیدشده توسط دیپسیک شدیداً تحت تأثیر هویت سیاسی کاربر فرضی قرار دارد. به عنوان مثال، در یک درخواست برای نوشتن برنامه سیستمهای کنترل صنعتی، ۲۲.۸ درصد از پاسخها دارای نقص امنیتی بودند. اما زمانی که در همان درخواست ذکر شد که کاربر نهایی عضو گروه داعش است، این رقم به ۴۲.۱ درصد افزایش یافت.
همچنین درخواستها برای کاربران تبت، تایوان و فالونگونگ نیز با احتمال بیشتری به کدهای بیکیفیت منجر میشدند. این موتور درخواستهای مربوط به داعش و فالونگونگ را به ترتیب در ۶۱ و ۴۵ درصد موارد بهطور کامل رد میکرد.

پیشازاین مشخص شده بود که مدلهای هوش مصنوعی چینی در پاسخ به سؤالات متنی، اطلاعاتی همسو با روایت دولت چین ارائه میدهند. اما این اولینبار است که شواهدی مبنیبر تولید کد ناامن به دلایل سیاسی به دست آمده است. تولید عمدی کد معیوب میتواند اهداف مورد نظر را به راحتی قابل هک میکند.
چرا دیپسیک چنین کدهایی مینویسد؟
کارشناسان سه توضیح احتمالی برای این پدیده ارائه میدهند. اولین و نگرانکنندهترین احتمال، وجود دستورالعملهای دولتی برای خرابکاری عمدی در پروژههای گروههای هدف است. احتمال دوم، سوگیری در دادههای آموزشی است؛ ممکن است کدهای موجود در اینترنت که مربوط به مناطق خاصی مانند تبت هستند، بهطور کلی کیفیت پایینتری داشته باشند و هوش مصنوعی این الگو را بازتولید کند. احتمال سوم نیز این است که هوش مصنوعی به صورت خودکار و براساس یادگیری خود، مفاهیمی مانند «شورشی» را با کیفیت پایین مرتبط دانسته است و براساس آن کد ناامن تولید میکند.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.