ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

تکنولوژی

هوش مصنوعی چطور می تواند به انسان آسیب برساند و راه حل چیست؟

وقتی که در مورد خطرات هوش مصنوعی صحبت می‌کنیم، معمولا تمرکز روی اثرات جانبی ناخواسته است. ما نگرانیم که یک روز تصادفی هوش مصنوعی فوق هوشمند بسازیم و یادمان برود که به آن ضمیری بدهیم؛ یا ...

محسن وفانژاد
نوشته شده توسط محسن وفانژاد | ۳ اسفند ۱۳۹۶ | ۲۲:۰۰

وقتی که در مورد خطرات هوش مصنوعی صحبت می‌کنیم، معمولا تمرکز روی اثرات جانبی ناخواسته است. ما نگرانیم که یک روز تصادفی هوش مصنوعی فوق هوشمند بسازیم و یادمان برود که به آن ضمیری بدهیم؛ یا الگوریتم‌هایی برای محکوم کردن مجرمان به کار می‌بریم که مملو از تعصبات نژادپرستی داده‌های تمرینی‌اش است.

اما این فقط نیمی از داستان است.

آن‌هایی که از قصد می‌خواهند هوش مصنوعی را برای کارهای غیراخلافی، مجرمانه و آسیب‌رسان استفاده کنند چطور؟ احتمال بروز خطر از سوی آن‌ها بیشتر -و حتی زودتر- نیست؟ پاسخ مثبت است، طبق نظر بیش از ده متخصص از انستیتوهایی نظیر «آینده بشر»، «مرکز پژوهش خطرهای موجود» و حتی شرکت غیر انتفاعی «OpenAI» که توسط ایلان ماسک تاسیس شده، جواب مثبت است.

در مقاله‌ای که اخیرا با نام «استفاده مخرب از هوش مصنوعی: پیش‌بینی، جلوگیری و بازدارندگی» منتشر شده، این پژوهشگران و دانشگاهیان در مورد برخی راه‌هایی که ممکن است هوش مصنوعی طی پنج سال آینده از طریق آن به ما ضرر برساند صحبت کرده اند و گفته اند که ما چه کار می توانیم انجام دهیم.

مایلز بروندج یکی از نویسندگان این مقاله از انستیتو آینده بشر به وبسایت ورج گفته که چون هوش مصنوعی می تواند حملات مهلکی به ما وارد کند، ما قطعا نباید وحشت کرده یا امید را کنار بگذاریم.

بروندج می گوید: «من دوست دارم حالت خوشبینانه را در نظر بگیرم که ما می توانیم کارهای بیشتری انجام دهیم. مسئله این است که تصویری تاریک و سیاه نکشیم. راه های دفاع بسیاری وجود دارد که می توانیم توسعه دهیم و چیزهای بسیاری برای یاد گرفتن وجود دارد. فکر نمی کنم که همه‌اش ناامیدی باشد ولی این مقاله را فراخوانی برای اقدام می‌بینم.»

گزارش بروندج و تیم‌هایی که با او همکاری داشته‌اند بسیار وسیع است اما روی چند راه اصلی که هوش مصنوعی می تواند خطرات امنیتی فیزیکی و دیجیتالی ایجاد کند یا اصلا خطرات جدید بسازد متمرکز است.

در این مطلب پنج پیشنهاد هم برای مبارزه با این مشکل آمده از جمله آگاه سازی مهندسین هوش مصنوعی در مورد استفاده های مخرب در تحقیقاتشان و همچنین برقراری گفتمان میان دانشگاهیان و قانون گذاران تا هنگام وقوع جرم، غافل‌گیری پیش نیاید.

بگذارید از خطرات احتمالی شروع کنیم: یکی از مهم‌ترین خطرات آن است که هوش مصنوعی به شکل قابل توجهی هزینه برخی حملات را کاهش می‌دهد و جایگزین نیروی انسانی می‌شود.

برای مثال حملات فیشینگ را در نظر بگیرید که در آن به افراد پیام‌هایی داده می‌شود تا به نوعی از آن طریق اطلاعات حساب‌هایشان را به دست آورند. مثل یک ایمیل از سایت‌های خرید یا ایمیل از بانکی که در آن حساب دارید.

هوش مصنوعی می‌تواند در این حملات، عمده کارها را انجام دهد و بر اساس تحلیل اطلاعات و داده‌های هر فرد، پیام مخصوصی برایش بسازد. یا تصور کنید چت بات‌ها آنقدر پیشرفته شوند که بتوانند نقش دوست نزدیکتان را ایفا کنند و از شما رمز عبور ایمیل‌تان را بگیرند.

این مدل حملات پیچیده به نظر می رسد اما اگر یک بار این نرم افزار ساخته شود، بدون هزینه اضافه می توان آن را بارها و بارها به کار گرفت. ایمیل‌های فیشینگ همین حالا هم بسیار مضر هستند. این ایمیل‌ها مسبب انتشار تصاویر شخصی اشخاص معروف در سال ۲۰۱۴ و لو رفتن ایمیل‌های جان پادستا، از ستاد انتخاباتی هیلاری کلینتون در انتخابات ۲۰۱۶ آمریکا بودند.

لو رفتن ایمیل‌های پادستا نه تنها باعث تغییر نتیجه انتخابات ۲۰۱۶ آمریکا شد، بلکه تئوری‌های توطئه‌ای نظیر پیتزاگیت را رقم زد که نزدیک بود به کشته شدن انسان‌ها منجر شود. حالا تصور کنید یک هوش مصنوعی پیشرفته چه کارها که نمی تواند انجام دهد.

نکته مهم بعدی در این گزارش به افزودن ابعاد جدید به خطرهای فعلی اشاره دارد. همین مثال فیشینگ را در نظر بگیرید. هوش مصنوعی همین حالا هم با گوش دادن به چند دقیقه از صحبت های یک شخص می تواند صدای او را تقلید کند. یا می تواند به صورت همزمان از ویدیوهای موجود استفاده کرده و حرکات صورت و چهره‌تان را جایگزین حرکات صورت یک شخص شناخته شده کند. این گزارش روی خطراتی متمرکز است که طی پنج سال آینده پدید می‌آیند و سریعا در حال تبدیل شدن به یک موضوع اساسی هستند.

و البته یک سری اقدامات ناراحت‌کننده دیگر هم هستند که هوش مصنوعی می‌تواند آن‌ها را تشدید کند. دستکاری‌های سیاسی و پروپاگاندا (مثل دستکاری صدا و تصویر که می تواند مشکلی عظیم باشد)، و همچنین نظارت‌های امنیتی به خصوص وقتی که اقلیت‌ها را هدف قرار دهد.

مثال واضح می تواند چین باشد، کشوری که دوربین‌های امنیتی و تشخیص دهنده چهره‌اش یک منطقه بزرگ که اقلیت مسلمان اویغور در آن زندگی می‌کنند را زیر نظر گرفته است.

در نهایت، این گزارش به خطرات کاملا بدیعی که هوش مصنوعی می تواند ایجاد کند اشاره دارد. نویسنده به برخی سناریوهای ممکن اشاره دارد از جمله قرار دادن بمب در رباتی خدمتکار و انتقال آن به یک وزارت خانه دولتی. ربات با استفاده از قابلیت‌های ویژه خود یک سیاست‌مدار خاص را شناسایی کرده و وقتی که نزدیکش برسد بمب را منفجر می کند.

این مثال به دو پیشرفت اساسی اشاره دارد، یکی بهره گیری از هوش مصنوعی در محصولات فیزیکی و دوم استفاده از فناوری‌های نرم افزاری مثل تشخیص چهره. شاید اشاره به چنین داستان‌هایی اندکی خیالی به نظر برسد اما حقیقت آن است که همین حالا هم شاهد حملات بدیع توسط هوش مصنوعی بوده‌ایم.

فناوری جابه‌جایی چهره این امکان را داده بود تا بدون هیچ حد و مرزی، کاربران چهره افراد مشهور را با چهره بازیگران فیلم‌های غیر اخلاقی جایگزین کنند که باعث جنجال آفرینی بسیاری طی هفته‌های گذشته شد. اگرچه تاکنون این ماجرا قربانی خاصی نگرفته اما کسانی که چنین سوء استفاده‌ای از تکنولوژی می‌کنند قادر خواهند شد تا با ساخت چنین تصاویری از افرادی که می‌شناسند باج گرفته یا باعث آزار و اذیت شوند.

راه حل‌های ارائه شده در این مقاله ساده هستند و عبارتند از:

  • پژوهشگران حوزه هوش مصنوعی باید آگاه باشند که کارهایشان چطور می‌تواند توسط دیگران مورد سوء استفاده قرار بگیرد
  • قانون‌گذاران باید از متخصصین در مورد این موضوع آموزه بگیرند
  • کسانی که روی هوش مصنوعی کار می‌کنند باید از متخصصین حوزه امنیت سایبری برای محافظت از سیستم‌هایشان آموزه بگیرند
  • باید چارچوب‌های اخلاقی برای هوش مصنوعی ایجاد شده و آن را دنبال کرد
  • افراد بیشتری باید در این ماجرا دخیل باشند. نه فقط دانشمندان هوش مصنوعی و قانون‌گذاران. بلکه دانشمندان علوم اخلاق، کسب و کارها و عموم مردم

یا به بیان دیگر: کمی گفتمان و کمی کار بیشتر لازم است.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (9 مورد)
  • INFINITE INFINITY
    INFINITE INFINITY | ۶ اسفند ۱۳۹۶

    اولا هر نوع پیشرفتی در هر زمینه ای میتونه برای ارتکاب جرم هم به کار گرفته بشه و هیچ استثنایی هم وجود نداره. ولی از عکسهایی که تو این مقاله استفاده شده میشه خیلی خوب فهمید که چه آدم هایی و با چه تفکراتی میان و انگشت اتهام رو به سمت هوش مصنوعی میگیرن!!! یه عده آدم به ظاهر بالغ ولی با تفکرات بچه های کودکستانی و ترس از لولو و آدم آهنی چشم قرمز و آدم فضایی ها که قراره انسانها رو نابود کنن ... این مواردی که تو مقاله مثال زده شده هیچکدوم درباره هوش مصنوعی نیست اینها فقط ساختارهای پیچیده تری از برنامه نویسی هستند. هوش مصنوعی واقعی دارای خودآگاهی هست و توان فکر و تصمیم گیری مستقل داره درست مثل آدم با این تفاوت که شاید هزاران بار قدرت تحلیل بیشتری از انسان ها داره. ساخت چنین چیزی به معنی انقلاب سوم در تاریخ بشریت بعد از کشف آتش و انقلاب صعنتی هست... و این به معنی نجات کل سیاره زمین و البته خود نسل بشر از خطر نابودی هست که به در حال حاضر به لطف مدیریت و درایت بی نقص خود انسانها به وجود اومده!!!

  • Ali_lotfi
    Ali_lotfi | ۴ اسفند ۱۳۹۶

    همین الان هم شرکتهایی مثل گوگل برنامه ها و پروژهایی رو اجرا کردن که قابلیت یادگیری دارن
    این شاید خطرناک باشه

  • Solitude
    Solitude | ۴ اسفند ۱۳۹۶

    هوش مصنوعی می تونه تو تصمیم گیری از انسان پیشی بگیره ، و این میتونه خطر ناک باشه

  • Py House
    Py House | ۴ اسفند ۱۳۹۶

    به نظر من باید همه شهر های ایران هم مثل ایغور چین کاملا مجهز به دوربین مداربسته هوشمند باشند

  • Shayan D
    Shayan D | ۳ اسفند ۱۳۹۶

    هوش مصنوعی نمی‌تواند به انسان آسیب بزند، والسلام.

    • mahdi
      mahdi | ۴ اسفند ۱۳۹۶

      حرف حق

    • یه نفری.
      یه نفری. | ۴ اسفند ۱۳۹۶

      خیلی ساده و خوش خیالی...

    • aminamin
      aminamin | ۴ اسفند ۱۳۹۶

      وقتی در اینده نزدیک ماشین ها و ربات ها جای انسان رو گرفتن بعد بهت میگم میتونن بگیرن یا نه

    • omidapk2020
      omidapk2020 | ۴ اسفند ۱۳۹۶

      سنه نهنگ رو داری شعور طفلو هُلت میدم پایین سقوطو حس کن

مطالب پیشنهادی