هوش مصنوعی چطور می تواند به انسان آسیب برساند و راه حل چیست؟

وقتی که در مورد خطرات هوش مصنوعی صحبت می‌کنیم، معمولا تمرکز روی اثرات جانبی ناخواسته است. ما نگرانیم که یک روز تصادفی هوش مصنوعی فوق هوشمند بسازیم و یادمان برود که به آن ضمیری بدهیم؛ یا الگوریتم‌هایی برای محکوم کردن مجرمان به کار می‌بریم که مملو از تعصبات نژادپرستی داده‌های تمرینی‌اش است.

اما این فقط نیمی از داستان است.

آن‌هایی که از قصد می‌خواهند هوش مصنوعی را برای کارهای غیراخلافی، مجرمانه و آسیب‌رسان استفاده کنند چطور؟ احتمال بروز خطر از سوی آن‌ها بیشتر -و حتی زودتر- نیست؟ پاسخ مثبت است، طبق نظر بیش از ده متخصص از انستیتوهایی نظیر «آینده بشر»، «مرکز پژوهش خطرهای موجود» و حتی شرکت غیر انتفاعی «OpenAI» که توسط ایلان ماسک تاسیس شده، جواب مثبت است.

در مقاله‌ای که اخیرا با نام «استفاده مخرب از هوش مصنوعی: پیش‌بینی، جلوگیری و بازدارندگی» منتشر شده، این پژوهشگران و دانشگاهیان در مورد برخی راه‌هایی که ممکن است هوش مصنوعی طی پنج سال آینده از طریق آن به ما ضرر برساند صحبت کرده اند و گفته اند که ما چه کار می توانیم انجام دهیم.

مایلز بروندج یکی از نویسندگان این مقاله از انستیتو آینده بشر به وبسایت ورج گفته که چون هوش مصنوعی می تواند حملات مهلکی به ما وارد کند، ما قطعا نباید وحشت کرده یا امید را کنار بگذاریم.

بروندج می گوید: «من دوست دارم حالت خوشبینانه را در نظر بگیرم که ما می توانیم کارهای بیشتری انجام دهیم. مسئله این است که تصویری تاریک و سیاه نکشیم. راه های دفاع بسیاری وجود دارد که می توانیم توسعه دهیم و چیزهای بسیاری برای یاد گرفتن وجود دارد. فکر نمی کنم که همه‌اش ناامیدی باشد ولی این مقاله را فراخوانی برای اقدام می‌بینم.»

گزارش بروندج و تیم‌هایی که با او همکاری داشته‌اند بسیار وسیع است اما روی چند راه اصلی که هوش مصنوعی می تواند خطرات امنیتی فیزیکی و دیجیتالی ایجاد کند یا اصلا خطرات جدید بسازد متمرکز است.

در این مطلب پنج پیشنهاد هم برای مبارزه با این مشکل آمده از جمله آگاه سازی مهندسین هوش مصنوعی در مورد استفاده های مخرب در تحقیقاتشان و همچنین برقراری گفتمان میان دانشگاهیان و قانون گذاران تا هنگام وقوع جرم، غافل‌گیری پیش نیاید.

بگذارید از خطرات احتمالی شروع کنیم: یکی از مهم‌ترین خطرات آن است که هوش مصنوعی به شکل قابل توجهی هزینه برخی حملات را کاهش می‌دهد و جایگزین نیروی انسانی می‌شود.

برای مثال حملات فیشینگ را در نظر بگیرید که در آن به افراد پیام‌هایی داده می‌شود تا به نوعی از آن طریق اطلاعات حساب‌هایشان را به دست آورند. مثل یک ایمیل از سایت‌های خرید یا ایمیل از بانکی که در آن حساب دارید.

هوش مصنوعی می‌تواند در این حملات، عمده کارها را انجام دهد و بر اساس تحلیل اطلاعات و داده‌های هر فرد، پیام مخصوصی برایش بسازد. یا تصور کنید چت بات‌ها آنقدر پیشرفته شوند که بتوانند نقش دوست نزدیکتان را ایفا کنند و از شما رمز عبور ایمیل‌تان را بگیرند.

این مدل حملات پیچیده به نظر می رسد اما اگر یک بار این نرم افزار ساخته شود، بدون هزینه اضافه می توان آن را بارها و بارها به کار گرفت. ایمیل‌های فیشینگ همین حالا هم بسیار مضر هستند. این ایمیل‌ها مسبب انتشار تصاویر شخصی اشخاص معروف در سال ۲۰۱۴ و لو رفتن ایمیل‌های جان پادستا، از ستاد انتخاباتی هیلاری کلینتون در انتخابات ۲۰۱۶ آمریکا بودند.

لو رفتن ایمیل‌های پادستا نه تنها باعث تغییر نتیجه انتخابات ۲۰۱۶ آمریکا شد، بلکه تئوری‌های توطئه‌ای نظیر پیتزاگیت را رقم زد که نزدیک بود به کشته شدن انسان‌ها منجر شود. حالا تصور کنید یک هوش مصنوعی پیشرفته چه کارها که نمی تواند انجام دهد.

نکته مهم بعدی در این گزارش به افزودن ابعاد جدید به خطرهای فعلی اشاره دارد. همین مثال فیشینگ را در نظر بگیرید. هوش مصنوعی همین حالا هم با گوش دادن به چند دقیقه از صحبت های یک شخص می تواند صدای او را تقلید کند. یا می تواند به صورت همزمان از ویدیوهای موجود استفاده کرده و حرکات صورت و چهره‌تان را جایگزین حرکات صورت یک شخص شناخته شده کند. این گزارش روی خطراتی متمرکز است که طی پنج سال آینده پدید می‌آیند و سریعا در حال تبدیل شدن به یک موضوع اساسی هستند.

و البته یک سری اقدامات ناراحت‌کننده دیگر هم هستند که هوش مصنوعی می‌تواند آن‌ها را تشدید کند. دستکاری‌های سیاسی و پروپاگاندا (مثل دستکاری صدا و تصویر که می تواند مشکلی عظیم باشد)، و همچنین نظارت‌های امنیتی به خصوص وقتی که اقلیت‌ها را هدف قرار دهد.

مثال واضح می تواند چین باشد، کشوری که دوربین‌های امنیتی و تشخیص دهنده چهره‌اش یک منطقه بزرگ که اقلیت مسلمان اویغور در آن زندگی می‌کنند را زیر نظر گرفته است.

در نهایت، این گزارش به خطرات کاملا بدیعی که هوش مصنوعی می تواند ایجاد کند اشاره دارد. نویسنده به برخی سناریوهای ممکن اشاره دارد از جمله قرار دادن بمب در رباتی خدمتکار و انتقال آن به یک وزارت خانه دولتی. ربات با استفاده از قابلیت‌های ویژه خود یک سیاست‌مدار خاص را شناسایی کرده و وقتی که نزدیکش برسد بمب را منفجر می کند.

این مثال به دو پیشرفت اساسی اشاره دارد، یکی بهره گیری از هوش مصنوعی در محصولات فیزیکی و دوم استفاده از فناوری‌های نرم افزاری مثل تشخیص چهره. شاید اشاره به چنین داستان‌هایی اندکی خیالی به نظر برسد اما حقیقت آن است که همین حالا هم شاهد حملات بدیع توسط هوش مصنوعی بوده‌ایم.

فناوری جابه‌جایی چهره این امکان را داده بود تا بدون هیچ حد و مرزی، کاربران چهره افراد مشهور را با چهره بازیگران فیلم‌های غیر اخلاقی جایگزین کنند که باعث جنجال آفرینی بسیاری طی هفته‌های گذشته شد. اگرچه تاکنون این ماجرا قربانی خاصی نگرفته اما کسانی که چنین سوء استفاده‌ای از تکنولوژی می‌کنند قادر خواهند شد تا با ساخت چنین تصاویری از افرادی که می‌شناسند باج گرفته یا باعث آزار و اذیت شوند.

راه حل‌های ارائه شده در این مقاله ساده هستند و عبارتند از:

  • پژوهشگران حوزه هوش مصنوعی باید آگاه باشند که کارهایشان چطور می‌تواند توسط دیگران مورد سوء استفاده قرار بگیرد
  • قانون‌گذاران باید از متخصصین در مورد این موضوع آموزه بگیرند
  • کسانی که روی هوش مصنوعی کار می‌کنند باید از متخصصین حوزه امنیت سایبری برای محافظت از سیستم‌هایشان آموزه بگیرند
  • باید چارچوب‌های اخلاقی برای هوش مصنوعی ایجاد شده و آن را دنبال کرد
  • افراد بیشتری باید در این ماجرا دخیل باشند. نه فقط دانشمندان هوش مصنوعی و قانون‌گذاران. بلکه دانشمندان علوم اخلاق، کسب و کارها و عموم مردم

یا به بیان دیگر: کمی گفتمان و کمی کار بیشتر لازم است.

malltina

مطالب مرتبط

تپسی: امنیت سفرها از اولویت‌های اصلی ماست

معاون عملیات تپسی، تامین امنیت سفرهای شهری را یکی از اصلی‌ترین اولویت‌های‌ این شرکت معرفی و تاکید کرد با توجه به اهمیت امنیت کاربران، سرمایه گذاری زیادی در این حوزه انجام شده و گزینه‌های امنیتی مختلفی برای مردم فراهم شده است.«هومن دمیرچی» با اشاره به نحوه جذب رانندگان تپسی تصریح کرده که تایید صلاحیت رانندگان... ادامه مطلب

هشدار کارشناسان درباره جاسوسی از ترافیک اینترنت ماهواره‌ای با تجهیزات ساده

آسیب‌پذیری‌های امنیتی در ارتباطات پهن‌باند ماهواره‌ای به مهاجمان اجازه می‌دهند که تنها با تجهیزات خانگی چند صد دلاری از ترافیک اینترنت ماهواره‌ای جاسوسی کنند.هکرها با سوءاستفاده از این آسیب‌پذیری‌ها می‌توانند بدون خطر شناسایی شدن، هزاران کیلومتر دورتر از اهداف خود از آن‌ها جاسوسی کنند. اخیرا یک محقق امنیت سایبری در دانشگاه آکسفورد، «جیمز پاور» نحوه... ادامه مطلب

باگ امنیتی ویندوز امکان نفوذ به پرینتر را فراهم می‌کند

اخیرا یک باگ امنیتی در ویندوز شناسایی شده که روی پرینتر تاثیر می‌گذارد. مایکروسافت اعلام کرده که با انتشار یک پچ امنیتی این مشکل را برطرف خواهد کرد.محققان توانسته‌اند پچ‌های امنیتی را دور بزنند و از این باگ سوءاستفاده کنند که نتیجه آن، امکان نفوذ به هر یک از دستگاه‌های پرینت و کنترل شبکه خصوصی... ادامه مطلب

FBI مدعی حمله هکرهای ایرانی به تجهیزات شبکه F5 شد

FBI اخیرا ادعا کرده گروهی از هکرهای منتسب به ایران به بخش‌های خصوصی و دولتی ایالات متحده آمریکا حمله کرده‌اند.در حالی FBI چنین ادعایی را مطرح کرده که نام این هکرهای ایرانی را مشخص نکرده، البته منابع به اسم رمز این گروه، «Fox Kitten» یا «Parasite» اشاره کرده‌اند. یکی از تحلیلگران سابق دولت ایالات متحده... ادامه مطلب

کد وب‌سایت Have I Been Pwned اپن‌سورس می‌شود

تروی هانت مؤسس وب‌سایت Have I Been Pwned اعلام کرد مجموعه کدهای مورد استفاده در این سایت را به‌شکل اپن‌سورس منتشر می‌کند تا این پروژه سودمند با سرعت بیشتری رشد کرده و در اختیار همه قرار بگیرد.این روزها همه می‌دانیم سهل‌انگاری در مورد مسائل امنیتی، دیر یا زود رمز عبور و اطلاعات شخصی ما را... ادامه مطلب

هک بیش از ۷۰ ساب‌ردیت معروف توسط طرفداران ترامپ

هکرها در حمله‌ای هماهنگ شده حداقل ۷۰ ساب ردیت پربازدید را هک کرده و در آنها تصاویر و مطالبی در حمایت از کمپین انتخاباتی دونالد ترامپ ارسال کردند.روز جمعه چندین صفحه از سایت ردیت که با نام ساب‌ردیت (Subreddit) شناخته می‌شوند مورد حمله هکرها قرار گرفتند. ساب ردیت‌های پرطرفدار با فالوورهای بیش از یک میلیون... ادامه مطلب

ویجیاتو

نظرات ۹

وارد شوید

برای گفتگو با کاربران، وارد حساب کاربری خود شوید.

ورود

رمزتان را گم کرده‌اید؟