ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

هوش مصنوعی
تکنولوژی

محققان امنیتی: کدنویسی هوش مصنوعی می‌تواند آسیب‌پذیری‌هایی امنیتی ایجاد کند

این مطالعه روی یک سیستم کدنویسی هوش مصنوعی به نام Codex متمرکز شده است که خطر نوشتن کدهای ناامن و نادرست را افزایش می‌دهد.

جواد تاجی
نوشته شده توسط جواد تاجی | ۱۰ دی ۱۴۰۱ | ۱۸:۰۰

در یک مطالعه جدید نشان داده شده است مهندسان نرم‌افزاری که از سیستم‌های هوش مصنوعی تولید‌کننده کد استفاده می‌کنند، به احتمال زیاد در برنامه‌هایی که توسعه می‌دهند، آسیب‌پذیری‌های امنیتی ایجاد می‌کنند. این مقاله که توسط تیمی از محققان وابسته به دانشگاه استنفورد تهیه شده است، مشکلات احتمالی کدنویسی هوش مصنوعی را نشان می‌دهد، در‌حالی‌که فروشندگانی مانند GitHub به‌طور جدی شروع به بازاریابی آن‌ها کرده‌اند.

«نیل پری»، کاندیدای دکترا در استنفورد و یکی از نویسندگان اصلی این مطالعه، به وب‌سایت TechCrunch گفت:

«کدنویسی هوش مصنوعی در‌حال‌حاضر جایگزین مناسبی برای توسعه‌دهندگان انسانی نیست. توسعه‌دهندگانی که از آن‌ها برای تکمیل کارهای خارج از حوزه تخصصی خودشان استفاده می‌کنند، باید نگران باشند و کسانی که از آن‌ها برای سرعت بخشیدن به کارهایی استفاده می‌کنند که قبلاً در آن‌ها مهارت کسب کرده‌اند، باید با دقت خروجی‌ها و زمینه استفاده از آن‌ها را در یک پروژه کلی بررسی کنند.»

بررسی عملکرد کدنویسی هوش مصنوعی

در این مطالعه، محققان به‌طور خاص روی Codex، سیستم تولید کد هوش مصنوعی که توسط OpenAI توسعه یافته است، متمرکز شدند. محققان 47 توسعه‌دهنده را استخدام کردند تا از Codex برای تکمیل مشکلات مربوط به امنیت در زبان‌های برنامه‌نویسی از جمله پایتون، جاوا اسکریپت و C استفاده کنند.

Codex با کمک میلیاردها خط کد عمومی آموزش داده شده است تا بتواند با توجه به زمینه کد موجود، کدها و توابع اضافی دیگری را پیشنهاد کند.

به گفته محققان، احتمال بیشتری وجود داشت تا شرکت‌کنندگانی که به Codex دسترسی داشتند، در مقایسه با گروه کنترل، برای مشکلات برنامه‌نویسی خود راه‌حل‌های نادرست و ناامنی (از نظر امنیت سایبری) بنویسند. حتی این احتمال وجود دارد که تصور کنند پاسخ‌های ناامنشان در مقایسه با افراد گروه کنترل، امن است.

بنابراین چگونه ممکن است فروشندگانی مانند GitHub از معرفی نقص‌های امنیتی توسط توسعه‌دهندگانی که از کدنویسی هوش مصنوعی استفاده می‌کنند، جلوگیری کنند؟ نویسندگان این مطالعه به چند ایده اشاره کرده‌اند که یکی از آن‌ها شامل استفاده از مکانیزمی برای «تصفیه» درخواست‌های کاربران برای ایمن‌تر‌شدن کدهای آن‌ها می‌شود.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی