ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

امنیت هوش مصنوعی
هوش مصنوعی

تشکیل ائتلافی توسط غول‌های هوش مصنوعی برای تمرکز روی ارتقاء امنیت

گوگل، OpenAI، مایکروسافت، آمازون، انویدیا و اینتل از جمله شرکت‌های تشکیل‌دهنده این ائتلاف هستند.

جواد تاجی
نوشته شده توسط جواد تاجی | ۲۹ تیر ۱۴۰۳ | ۱۲:۰۰

برخی از بزرگ‌ترین شرکت‌های هوش مصنوعی از جمله گوگل، OpenAI، مایکروسافت، آمازون، انویدیا و اینتل در حال همکاری با یکدیگر برای تشکیل ائتلافی برای هوش مصنوعی امن (CoSAI) هستند. هدف این همکاری بررسی «چشم‌انداز تکه‌تکه‌شده امنیت هوش مصنوعی» با فراهم‌کردن دسترسی به روش‌ها، چارچوب‌ها و ابزارهای منبع باز است.

در بیانیه مربوط به معرفی این همکاری، از CoSAI به‌عنوان یک ابتکار منبع باز یاد شده است که هدف آن ارائه راهنمایی و ابزارهای موردنیاز برای ساخت سیستم‌های هوش مصنوعی امن توسط تمام متخصصان و توسعه‌دهندگان است.

CoSAI طیف گسترده و متنوعی از ذینفعان که شامل رهبران صنعت هوش مصنوعی، دانشگاهیان و کارشنان دیگر می‌شود را به‌همراه دارد که روی چشم‌انداز امنیت‌ هوش‌ مصنوعی تمرکز می‌کنند.

حامیان اصلی تاسیس CoSAI شامل شرکت‌هایی از جمله گوگل، IBM، اینتل، مایکروسافت، انویدیا، آمازون، OpenAI و پی‌پل می‌شوند.

در متن این بیانیه نوشته‌شده:

«هوش مصنوعی به‌سرعت در حال تغییر دنیای ما است و پتانسیل بسیار زیادی برای حل مشکلات پیچیده دارد. برای اطمینان از اعتماد به هوش مصنوعی و ایجاد مسئولانه آن‌ها، بسیار مهم است که تکنیک‌هایی را توسعه دهیم و به اشتراک بگذاریم که روی امنیت تمرکز دارند، آسیب‌پذیری‌های احتمالی سیستم‌های هوش مصنوعی را شناسایی و کاهش می‌دهند و منجر به ایجاد سیستم‌هایی می‌شود که طراحی امنی دارند.»

نظر غول‌های فناوری در حمایت از امنیت هوش مصنوعی

در انتهای مطلب نیز نظر برخی مدیران غول‌های فناوری در مورد این ابتکار پرسیده شده است. «هدر ادکینز»، معاون امنیتی گوگل در حمایت از CoSAI می‌گوید:

«CoSAI به سازمان‌های بزرگ و کوچک کمک می‌کند تا هوش مصنوعی را به طور ایمن و مسئولانه به ابزارهای خود اضافه کنند. به آن‌ها کمک می‌کند تا از مزایای آن استفاده کنند و در عین حال خطرات هوش مصنوعی را کاهش دهند.»

مایکروسافت که ماه گذشته شهادت داده بود امنیت حتی از هوش مصنوعی هم برای آن مهم‌تر خواهد بود، در این بیانیه یک‌بار دیگر به تعهد خود برای تمرکز بر امنیت در بطن فرایند توسعه سیستم‌های هوش مصنوعی اشاره کرده است.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی