ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

هوش مصنوعی
تکنولوژی

مایکروسافت با ابزاری جدید امنیت سیستم‌های هوش مصنوعی را افزایش می‌دهد

مایکروسافت به همراه سازمان تحقیقاتی غیرانتفاعی «MITRE» و همکاری چندین شرکت، ابزاری برای محافظت از سیستم‌های مبتنی بر هوش مصنوعی توسعه داده‌ است. علاوه بر این سازمان، موسسات دانشگاهی و سایر غول‌های فناوری مانند IBM ...

محمد قریشی
نوشته شده توسط محمد قریشی | ۴ آبان ۱۳۹۹ | ۰۸:۳۰

مایکروسافت به همراه سازمان تحقیقاتی غیرانتفاعی «MITRE» و همکاری چندین شرکت، ابزاری برای محافظت از سیستم‌های مبتنی بر هوش مصنوعی توسعه داده‌ است.

علاوه بر این سازمان، موسسات دانشگاهی و سایر غول‌های فناوری مانند IBM و انویدیا نیز در این پروژه همکاری دارند که نتیجه آن انتشار یک ابزار متن باز به نام «ماتریس تهدید یادگیری ماشینی خصمانه» است.

این فریمورک برای سازماندهی و دسته‌بندی تکنیک‌های شناخته شده برای حمله به سیستم‌های یادگیری ماشینی طراحی شده تا به تحلیلگران امنیتی چنین حملاتی اطلاع را اطلاع می‌دهد و استراتژی‌هایی برای شناسایی، پاسخ و رفع تهدیدها در اختیار آن‌ها قرار دهد.

این ماتریس حملات را بر اساس معیارهای مربوط به جنبه‌های مختلف تهدید مانند اجرا و گسترش، دسترسی و تاثیر اولیه دسته‌بندی می‌کند. مایکروسافت به همراه MITRE حملات واقعی که روی سیستم‌های موجود انجام شده را مورد تحلیل قرار دادند.

«میکل رودریگز» که روی برنامه‌های تحقیقات علمی MITRE نظارت دارد، در این زمینه گفته:

«اگر فقط سعی کنید جهان چالش‌ها و آسیب‌پذیری‌ها را تصور کنید، کار به جایی نمی‌برید. بجای این کار با استفاده از ماتریس تهدید، محققان امنیتی قادر به کار با مدل‌های تهدید خواهند بود که در دنیای واقعی رخ می‌دهند و با استفاده از یادگیری ماشینی رفتار مهاجم را تقلید می‌کند.»

با افزایش استفاده از هوش مصنوعی در بخش‌های مختلف زندگی، از خدمات مالی تا بهداشت، حفظ امنیت زیرساخت‌ آن‌ها از اهمیت بالایی برخوردار است. MITRE به این موضوع اشاره می‌کند که شرکت‌ها با وجود پیشرفت در توسعه الگوریتم‌های جدید، در حفظ امنیت آن‌ها عملکرد موفقی ندارند.

هوش مصنوعی

بررسی‌ها نشان می‌دهد که درک کافی نسبت به حفظ امنیت سیستم‌های هوش مصنوعی در برابر تهدیدات دشمنان وجود ندارد. برای مثال سیستم‌های یادگیری ماشینی گوگل، آمازون، مایکروسافت و تسلا در سال‌های گذشته با ترفندهای مختلف فریب خورده‌اند.

الگوریتم‌ها مستعد اشتباه هستند، مخصوصا اگر مورد حمله قرار بگیرند. در یک پژوهش جداگانه تیمی از محققان فهرستی از کاربردهای احتمالی مجرمانه هوش مصنوعی در ۱۵ سال آینده تهیه کرده‌اند که از میان موارد نگران‌کننده ایجاد فرصت حمله به الگوریتم‌های مورد استفاده در برنامه‌های اصلی مانند امنیت عمومی و تراکنش‌های مالی بود.

طبق گفته مایکروسافت و MITRE، حملات در شکل‌های مختلف صورت می‌گیرند و MITRE امیدوار است به کمک یک روش امنیت سایبری به نام «تیم قرمز»، به اطلاعات بیشتری از هکرها دست پیدا کند. هر یک از این کمپانی‌ها دارای تیم قرمز مخصوص به خود هستند و آن‌ها برخی از حملات که برای تغذیه ماتریس مورد استفاده قرار گرفته‌اند را به نمایش گذاشته‌اند.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی