مقام ارشد سایبری کانادا: از هوش مصنوعی برای هک و انتشار اطلاعات نادرست استفاده میشود
به گفته این مقام ناظر، هکرها بهمنظور ایجاد نرمافزارهای مخرب، ایمیلهای فیشینگ قانعکننده و اطلاعات نادرست آنلاین از هوش مصنوعی استفاده میکنند.
یکی از مقامات ارشد امنیت سایبری کانادا اعلام کرد که هکرها و مبلغان درحال سوءاستفاده از هوش مصنوعی هستند تا بتوانند نرمافزارهای مخرب، ایمیلهای فیشینگ قانعکننده و اطلاعات نادرست آنلاین ایجاد کنند؛ شواهدی که نشان میدهد انقلاب هوش مصنوعی که سرتاسر سیلیکون ولی را فرا گرفته، توسط مجرمان سایبری نیز پذیرفته شده است.
«سامی خوری»، رئیس مرکز امنیت سایبری کانادا، این هفته در مصاحبهای به رویترز گفت آژانس او شاهد استفاده از هوش مصنوعی «در ایمیلهای فیشینگ یا ساخت ایمیلها به روشی متمرکزتر، در کدهای مخرب و در انتشار اطلاعات نادرست است».
نگرانیهای امنیتی مربوط به هوش مصنوعی
هرچند خوری هیچ جزئیات یا شواهدی را ارائه نکرد، اما ادعای او مبنی بر اینکه مجرمان سایبری هماکنون درحال استفاده از هوش مصنوعی هستند، نکتهای است که به نگرانیهای مربوط به استفاده از فناوری درحالظهور هوش مصنوعی اضافه میکند.
در چند وقت گذشته، چند مقام ناظر سایبری گزارشهایی را منتشر کردهاند که در مورد خطرات احتمالی هوش مصنوعی و بهویژه مدلهای زبان بزرگ (LLM) که از حجم عظیمی از متن برای ایجاد گفتوگوها، اسناد و موارد دیگر استفاده میکنند، هشدار میدهند.
در ماه مارس، یوروپل (Europol) یا آژانس اتحادیه اروپا برای همکاری در اجرای قانون، گزارشی را منتشر کرد که نشان میداد مدلهایی مانند ChatGPT امکان جعل هویت یک سازمان یا فرد را به شیوهای بسیار واقعی فراهم کردهاند. در همان ماه، مرکز ملی امنیت سایبری بریتانیا در یک پست وبلاگی اعلام کرد که LLMها باعث میشوند مجرمان بتوانند فراتر از تواناییهای فعلی خود حملات سایبری را انجام دهند.
خوری درنهایت اشاره کرد که هرچند استفاده از هوش مصنوعی برای ساخت کدهای مخرب هنوز در مراحل اولیه خود قرار دارد و همچنین نوشتن یک آسیبپذیری خوب به زمان زیادی نیاز دارد، نگرانی اصلی او این است که کنترل پتانسیلهای مخرب مدلهای هوش مصنوعی درحالتکامل پیش از انتشار برای اپراتورها دشوار شود.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.