ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

ChatGPT
هوش مصنوعی

استفاده از ابزارهای هوش مصنوعی مانند ChatGPT می‌تواند اسرار شرکت‌ها را در معرض خطر قرار دهد

یک شرکت تحلیلی و سرمایه‌گذاری می‌گوید استفاده گسترده از ابزارهای هوش مصنوعی زایا می‌تواند منجر به افشای اسرار شرکت‌ها شود.

ایمان صاحبی
نوشته شده توسط ایمان صاحبی | ۳۰ فروردین ۱۴۰۲ | ۱۲:۰۰

شرکت‌هایی که از ابزارهای هوش مصنوعی زایا مثل ChatGPT استفاده می‌کنند، احتمالاً اطلاعات محرمانه مشتریان و اسرار تجاری خود را در معرض خطر قرار می‌دهند. استفاده گسترده از این ابزارها اگرچه می‌تواند فوایدی داشته باشد، اما ظاهراً بی‌ضرر هم نیست.

به گزارش بلومبرگ، شرکت سرمایه‌گذاری Team8 می‌گوید استفاده از چت‌بات‌های هوش مصنوعی می‌تواند شرکت‌ها را مستعد افشای اطلاعات و شکایت‌های قضایی کند. تحلیلگران باور دارند که این چت‌بات‌ها می‌توانند توسط هکرها برای دستیابی به اطلاعات حساس شرکتی یا انجام عملیات علیه یک کسب‌وکار استفاده شوند.

ابزارهای هوش مصنوعی با اطلاعات موجود در اینترنت تعلیم داده شده‌اند، اما حالا با رواج این ابزارها در میان مردم، اگر اطلاعات محرمانه دولتی یا شرکت‌های خصوصی به آن‌ها داده شود، حذف این اطلاعات از حافظه چت‌بات‌ها کار سختی خواهد بود.

تحلیلگران Team8 می‌گویند: «استفاده تجاری از هوش مصنوعی زایا با ارائه مستقیم داده یا از طریق API می‌تواند به دستیابی و پردازش اطلاعات حساس، مالکیت‌های فکری، کد منبع، اسرار تجاری و دیگر داده‌ها منجر شود.» این شرکت باور دارد که ریسک این مسئله بالاست، اما اگر تدابیر ایمنی مناسبی را در نظر بگیریم، می‌تواند این ریسک را کنترل کرد.

اطلاعات کاربران ابزارهای هوش مصنوعی زایا چگونه به خطر می‌افتد؟

البته Team8 متذکر شده است که مدل‌های زبانی بزرگ درحال‌حاضر نمی‌توانند در لحظه اطلاعات خود را به‌روز کنند و به همین خاطر اطلاعات یک کاربر را در پاسخ کاربر بعدی ارائه نمی‌کنند. اما شرکت‌ها می‌توانند از ورودی‌های کاربر در آموزش نسخه‌های بعدی ابزارهای هوش مصنوعی استفاده کنند.

این گزارش از سه ریسک خطرناک دیگر در استفاده از ابزارهای هوش مصنوعی هم نام برده است. برای مثال، در سمت کاربر، اگر اپلیکیشن‌های شخص ثالث از API یک هوش مصنوعی زایا استفاده کنند، چنانچه این API به خطر بیفتد، امکان دسترسی به ایمیل و مرورگر وب کاربران وجود خواهد داشت.

از طرف دیگر، این ریسک وجود دارد که هوش مصنوعی تبعیض را گسترش دهد، به اعتبار شرکت‌ها آسیب بزند یا آن‌ها را با مشکلات کپی‌رایت روبه‌رو کند.

«ان جانسون»، معاون سازمانی مایکروسافت و چندین مدیر امنیت اطلاعات در شرکت‌های آمریکایی ازجمله کسانی بوده‌اند که در تنظیم این گزارش مشارکت کرده‌اند.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی