ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

قانون گذاری هوش مصنوعی
هوش مصنوعی

همه موافق قانون‌گذاری هوش مصنوعی هستند؛ اما هیچ‌کس راه آن را نمی‌داند

بی‌شک قانون‌گذاری هوش مصنوعی برای جلوگیری از آسیب‌های ناشی از استفاده از آن و کاهش خطرات این فناوری ضروری است؛ اما چطور؟

احمدرضا فرهبد
نوشته شده توسط احمدرضا فرهبد | ۱۸ خرداد ۱۴۰۲ | ۲۲:۰۰

هم قانون‌گذاران حوزه هوش مصنوعی آمریکا و هم مدیران عامل شرکت‌های فناوری در مورد لزوم وضع قوانین مرتبط با استفاده از هوش مصنوعی برای جلوگیری از آسیب‌های ناشی از بهره‌مندی از این فناوری، توافق‌نظر دارند؛ زیرا این فناوری جدید توانایی تغییر اساسی زندگی‌ سیاسی و اجتماعی مردم را دارد؛ اما تاکنون هرچه مطرح شده است، بیشتر شبیه نظرات و پیشنهاد‌ها بوده تا چیزی که بتوان به آن‌ها قانون گفت!

پیشرفت دیوانه‌وار هوش مصنوعی باعث ایجاد هوشیاری عمومی در مورد این فناوری شده است و متخصصان معتقدند قانون گذاری هوش مصنوعی واقعاً لازم است.

چرا قانون‌گذاری برای حیطه هوش مصنوعی ضروری است؟

با اینکه این سؤال جدی مطرح شده که آیا قانون‌گذاری برای استفاده از AI دیگر نوش‌دارو پس از مرگ سهراب است یا هنوز دیر نشده، نه‌تنها دولتمردان، بلکه افراد فعال در حوزه ایجاد سیستم‌های هوش مصنوعی معتقدند که وضع قوانین جدید می‌تواند با آسیب‌زنی هوش مصنوعی مقابله کند. وجود قوانین مشخص در حیطه هوش مصنوعی، الگوریتم‌های AI را به انسانیت پایبند نگه می‌دارد و از مسلط‌شدن این فناوری بر انسان جلوگیری می‌کند.

از زمان پیدایش ChatGPT بسیاری از متخصصان حوزه فناوری معتقدند ایجاد برخی از اقدامات حفاظتی برای استفاده از AI می‌تواند از آسیب‌های ناشی از بهره‌مندی از توانایی‌های این فناوری جلوگیری کند و خطرات استفاده از آن را به حداقل برساند.

تأکیدی‌ترین موارد تقاضاهای این‌چنینی از سوی «سم آلتمن»، مدیرعامل OpenAI (شرکت طراح و سازنده ChatGPT) و یکی از تأثیرگذارترین چهره‌های کنونی حوزه هوش مصنوعی، مطرح شده است.

سم آلتمن
سم آلتمن

اپلیکیشن ChatGPT از زمان انتشار خود تاکنون به یکی از محبوب‌ترین اپلیکیشن‌های تاریخ تبدیل شده و تعداد کاربران ماهانه آن به صد میلیون نفر رسیده است.

OpenAI مدل هوش مصنوعی دیگری با عنوان Dall-E با قابلیت تولید عکس براساس متن را نیز منتشر کرده. این ابزار تبدیل متن به عکس می‌توانند مرز بین تصویری که انسان ایجاد کرده و تصویری را که هوش مصنوعی آن را به وجود آورده است، کمرنگ کند.

آلتمن اذعان کرده است که اگر هوش مصنوعی مسیر اشتباهی را در پیش بگیرد، واقعاً دردسرآفرین می‌شود و ما می‌خواهیم برای جلوگیری از این اتفاق با دولت همکاری کنیم.

قطعاً دولت آمریکا که مدتی پیش لزوم قوانین برای استفاده از AI را بسیار با اهمیت می‌دانست نیز از چنین تصمیماتی استقبال خواهد کرد. آلتمن چند روز قبل از اینکه نگرانی خود در مورد هوش مصنوعی را ابراز کند، در جلسه‌ای در کاخ سفید با حضور رهبران حوزه فناوری برای شنیدن هشدار «کامالا هریس»، معاون رئیس‌جمهور، در مورد خطرات این فناوری و اهمیت بسیار زیاد لزوم ایجاد راه‌حل‌هایی برای مقابله با این خطرات شرکت کرده بود.

انتخاب و پیاده‌سازی چنین راه‌حل‌هایی آسان نخواهد بود. دستیابی به توازن بین ایجاد روش‌های مبتکرانه برای بهره‌مندی از AI و محافظت از شهروندان و حقوق آن‌ها در برابر این فناوری، چالش بسیار سختی است؛ همچنین این موضوع را هم باید در نظر بگیریم که ایجاد محدودیت‌های مختلف برای یک فناوری نوظهور، مخصوصاً فناوری جدیدی که در ابتدا سروصدای زیادی به پا می‌کند، باعث سخت‌شدن پیشرفت آن می‌شود؛ علاوه‌بر‌این، حتی اگر کشورهایی مانند آمریکا، کشورهای عضو اتحادیه اروپا و هند چنین محدودیت‌هایی را بپذیرند، آیا کشوری مثل چین نیز به آن‌ها احترام خواهد گذاشت؟

جالب است بدانید در سال ۲۰۱۹ OpenAI که در آن زمان کمتر کسی آن را می‌شناخت، اعلام کرد مدل زبانی بزرگ این شرکت با نام GPT-2 با قابلیت تولید متن، به‌دلیل نگرانی‌های مرتبط با استفاده مخرب از این فناوری، برای عموم مردم منتشر نخواهد شد.

شرکت دلایل دیگری نیز برای عدم انتشار GPT-2 برای عموم کاربران مطرح کرد که شامل احتمال ارائه مقاله منحرف‌کننده به کاربران از سوی این ابزار AI و همچنین احتمال جعل هویت آنلاین افراد و خودکارسازی فرایند تولید محتوای ساختگی یا توهین‌آمیز شبکه‌های اجتماعی یا تولید محتوای فیشینگ می‌شود.

به همین دلیل OpenAI پیشنهاد داد که دولت‌ها باید با بهره‌مندی از روش‌های مبتکرانه، نظارت نظام‌مند بر تأثیرات اجتماعی و ترکیب فناوری‌های AI با یکدیگر را گسترش دهند و یا این کار را شروع کنند و بر روند پیشرفت توانایی‌های سیستم‌های هوش مصنوعی نیز نظارت داشته باشند.

تلاش کاخ سفید برای قانون‌گذاری در حیطه هوش مصنوعی

کاخ سفید

اکنون که چهار سال از این هشدار OpenAI می‌گذرد، کاخ سفید به‌طور غیرمعمولی برای ارائه تصویری از ساختار احتمالی قوانین حوزه AI تلاش می‌کند. مدیریت این نهاد دولتی آمریکا در اکتبر ۲۰۲۲، درست یک ماه قبل از انتشار جنجالی ChatGPT، مقاله‌ای با عنوان طرحی برای منشور حقوق هوش مصنوعی منتشر کرد.

این مقاله نتیجه یک سال آماده‌سازی قوانین، نظرات عمومی و نظرات متخصصان صاحب قدرت بود. برخی از مخاطبین این مقاله به‌اشتباه تصور کردند طرح ارائه‌شده در این مقاله، قانون و لازم‌الاجراست؛ البته در این مقاله صراحتاً به محدودیت‌های منشور معرفی‌شده اشاره شده و در آن گفته شده است که منشور حقوق هوش مصنوعی تابع قوانین نیست و سیاست‌های دولت آمریکا را دنبال نمی‌کند.

مفاد اصلی این منشور به شرح زیر است:

  • استفاده از الگوریتم‌ها نباید منجر به ایجاد تبعیض شود و سیستم‌های هوش مصنوعی باید برای تمام افراد به‌شکل یکسانی طراحی و استفاده شوند.
  • باید از افراد در مقابل سوءاستفاده از داده‌ها محافظت کرد و در مورد نحوه استفاده داده‌های مرتبط با افراد نظارت وجود داشته باشد.
  • همه افراد باید بدانند یک سیستم خودکار درحال استفاده است و همچنین باید بفهمند این سیستم چگونه و چرا نتایجی را که آن‌ها را تحت تأثیر قرار می‌دهد، ارائه می‌دهد.
  • افراد باید حق انتخاب کنترل شدن یا نشدن توسط سیستم‌های هوش مصنوعی را داشته باشند و درصورت مواجه‌شدن با مشکل، به فردی دسترسی داشته باشند که سریعاً پیگیر شود و مشکل را برطرف کند.

هر یک از این مفاد می‌توانند در کاهش خطرات استفاده از هوش مصنوعی به ما کمک کنند. با اقداماتی‌مثل به اشتراک‌گذاری داده‌های مورد استفاده برای آموزش مدل‌های زبانی بزرگ مثل ChatGPT و دادن حق انتخاب به افرادی که نمی‌خواهند محتواهایی که تهیه کرده‌اند، توسط مدل‌های زبانی بزرگ در اختیار کاربران قرار گیرد، می‌توان مشکلات استفاده از AI را کمتر کرد.

همچنین برای مقابله با تعصبات نیز باید قوانینی وضع شود. وضع قوانین ضدانحصار برای مقابله با غول‌های فناوری جهت جلوگیری از دسیسه‌چینی آن‌ها با کمک هوش مصنوعی با هدف ترکیب و یکپارچه‌سازی حجم زیادی از اطلاعات کاربران و کسب درآمد از این اطلاعات نیز لازم است. حفاظت از اطلاعات شخصی مورد استفاده در ابزارهای هوش مصنوعی نیز ضرورت دارد.

در مقاله مذکور به دشوار‌بودن تبدیل نظرات و پیشنهاد‌ها به قوانین الزامی نیز اشاره شده است. اگر به‌دقت به مفاد منشور هوش مصنوعی کاخ سفید نگاه کنیم، کاملاً متوجه می‌شویم که بالاترین نهاد دولتی آمریکا قصد دارد این قوانین را نه‌تنها برای هوش مصنوعی، بلکه برای تمام حیطه‌های فناوری اعمال کند. هرکدام از این موارد را می‌توان یکی از حقوق کاربران تلقی کرد که نقض شده است.

تلاش کنگره آمریکا برای قانون‌گذاری در حیطه هوش مصنوعی

علاوه بر کاخ سفید، کمیته زیرمجموعه قضایی سنا درخصوص حریم خصوصی، فناوری و قانون، قانون‌گذاری در حوزه AI را ضروری اعلام کرده است.

مجلس سنا در راستای قانون گذاری هوش مصنوعی، به سخنان سم آلتمن، «کریستینا مونتگومری»، افسر ارشد حفظ حریم خصوصی و اعتماد در I.B.M و «گری مارکوس»، استاد بازنشسته در دانشگاه نیویورک و کارآفرین در حوزه AI، سه متخصص بزرگ این حیطه فناوری، گوش داده است. (لازم به ذکر است کاخ سفید هم از شرکت‌های بزرگ فناوری، سهامداران حوزه هوش مصنوعی و عموم مردم خواسته به ۲۹ سؤال در مورد مزایا و خطرات استفاده از این فناوری پاسخ دهند.)

کنگره آمریکا
از راست به چپ به ترتیب سم آلتمن، گری مارکوس و کریستینا مونتگومری، سه فرد شناخته‌شده در حوزه هوش مصنوعی در کنگره آمریکا

البته در میان این سه نفر، سم آلتمن بیشترین توجه‌ها را به خود جلب کرده است؛ زیرا به‌هرحال شرکت تحت سرپرستی او توانسته یکی از موفق‌ترین و محبوب‌ترین محصولات هوش مصنوعی را عرضه کند. وی در سخنرانی‌اش در مقابل سناتورها گفته است که OpenAI قانون‌گذاری درزمینه هوش مصنوعی را ضروری می‌داند.

سم آلتمن

او اشتیاق خود برای این کار را نشان داده و به گفته خودش، شهادت‌نامه‌ای را جهت کمک به سیاست‌گذاران به‌منظور مشخص‌کردن نحوه تسهیل قانون‌گذاری، به نحوی که بین امنیت فناوری هوش مصنوعی و بهره‌مندی از مزایای آن توازن برقرار شود، آماده کرده است.

سناتور دیک دوربین این اتفاق را تاریخی خوانده؛ زیرا به گفته خودش، به یاد نمی‌آورد مدیران اجرایی شرکت‌های فناوری نزد قانون‌گذاران حاضر شده باشند و از آن‌ها خواسته باشند برای محصولاتی که ایجاد کرده‌اند، قوانین بیشتری وضع کنند!

آلتمن نخستین فردی بود که به‌عنوان مدیرعامل یک شرکت فناوری در اتاق استماع کنگره حضور یافت و از قانون‌گذاران چنین درخواستی کرد. قابل‌توجه‌ترین اتفاق مشابه این اتفاق، به درز اطلاعات ۸۷ میلیون کاربر فیس‌بوک در سال ۲۰۱۸ مربوط می‌شود.

در آن زمان «مارک زاکربرگ»، مدیرعامل فیسبوک سابق، اطلاعات شخصی کاربران شبکه اجتماعی خود را بدون اطلاع آن‌ها در اختیار یک شرکت مشاوره سیاسی قرارداد که با کمپین سیاسی ترامپ مشارکت داشت. وی پس از این اتفاق در مجلس سنا احضار شد و در مقابل برخی از سناتورها اذعان کرد تمایل دارد تحت نظارت دولت قرار بگیرد! حتی در نوشته‌ای در واشنگتن‌پست گفت به اعتقاد او، برای دولت و قانون‌گذاران قوانین بیشتری نیاز است. (البته از سوی دیگر، در آن زمان سالانه یک میلیون دلار به لابی‌گرها پرداخت می‌کرد تا اجرای قوانین دولتی به تأخیر بیفتد!)

آلتمن هم مثل زاکربرگ تقاضای خود برای وضع قوانین بیشتر برای استفاده از محصولات شرکت خود را با توضیح در مورد اقدامات محافظتی به‌کارگرفته‌شده توسط شرکت شروع کرد؛ مثلاً به ChatGPT آموزش داده شده است که برخی از درخواست‌های خاص ضداجتماعی را رد کند؛ فردی از این مدل هوش مصنوعی درخواست کرد کد چاپ سه‌بعدی گلوک (اسلحه‌ای شبیه به کلت) را بنویسد؛ مدل این درخواست را انجام داد؛ اما به‌جای گلوک، تیرکمان سنگی را به‌صورت سه‌بعدی چاپ کرد و قبل از انجام این کار تأکید کرد که ساخت چنین وسیله‌ای و استفاده از آن باید با مسئولیت و به‌صورت قانونی انجام شود.

در سیاست‌های استفاده از محصولات هوش مصنوعی OpenAI ممنوعیت‌های دیگری نیز ذکر شده است که شامل ممنوع‌بودن استفاده از این محصولات برای ایجاد بدافزارها، ایجاد تصاویر مرتبط با سوءاستفاده جنسی از کودکان، دزدی ادبی و تولید محتوا برای کمپین‌های سیاسی می‌شود؛ البته هنوز مشخص نیست شرکت چگونه می‌خواهد چنین ممنوعیت‌هایی را اعمال کند.

مجلس با بیانیه‌ای به شرح زیر، این موضوع را پذیرفته است که OpenAI به‌جای تلاش برای جلوگیری از قانون‌شکنی، تنها پس از نقض قانون اقدام خواهد کرد:

«اگر بر ما محرز شد که در طراحی و ایجاد محصولات شما و نحوه استفاده از آن سیاست‌های مذکور دنبال نمی‌شود، از شما می‌خواهیم تغییرات لازم را اعمال کنید.»

«ریچارد بلومنتال»، سرپرست کمیته قضایی زیرمجموعه قضایی، در بیانیه آغازین جلسه گوش‌دادن به سخنان سم آلتمن، کریستینا مونتگومری و گری مارکوس، با جدیت اذعان کرد شرکت‌های فعال در هوش مجموعه باید ملزم به آزمایش سیستم‌های خود، بیان صریح خطرات احتمالی استفاده از آن‌ها و امکان‌پذیر‌کردن دسترسی پژوهشگران مستقل به این سیستم‌ها شوند. چنانچه فعالیت‌های شرکت‌های هوش مصنوعی و مشتریان آن‌ها منجر به ایجاد آسیب شود، شرکت‌ها و افراد باید مسئولیت انجام چنین کارهایی را بپذیرند.

بلومنتال برای اینکه منظورش در مورد آسیب را بهتر بفهماند، به صدای ضبط‌شده خود در مورد لزوم قانون‌گذاری اشاره کرد و گفت حرف‌هایی در این صدای ضبط‌شده بیان شده که او اصلاً به زبان نیاورده است! یعنی هم بیانیه و هم صدای این سناتور با هوش مصنوعی دست‌کاری شده. این اظهارات حداقل برای سیاستمداران حاضر در جلسه نگران‌کننده و دلهره‌آور بود.

دستیابی به راه‌حلی برای ارزیابی آسیب‌ها یا تعیین چگونگی مسئولیت‌پذیری، درست به‌اندازه یافتن راه‌حلی برای تعیین قانون برای فناوری جدیدی که رشد بسیار سریعی دارد و هر مانعی در سر راه خود را بی‌رحمانه از بین می‌برد، دشوار است.

آلتمن در شهادت‌نامه خود پیشنهاد داده کنگره نهادی دولتی ایجاد کند که مسئول صدور گواهینامه برای مدل‌های هوش مصنوعی «قوی» (به گفته او) باشد. (البته هنوز مشخص نیست واژه «قوی» در عمل چگونه تعریف می‌شود.) چنین پیشنهادی ایده بدی به‌نظر نمی‌رسد، اما ممکن است به ایده‌ای تبدیل شود که تنها منافع شخصی را تأمین کند.

«کلم دنال» (clem delangue)، مدیرعامل هاگینک فیس (hugging face)، در توییتی گفته است لزوم داشتن گواهینامه برای آموزش مدل‌های هوش مصنوعی، بیشتر باعث تمرکز قدرت در دست چند شرکت معدود می‌شود. چنانچه برخورداری از گواهینامه برای آموزش مدل‌های AI ضروری شود، شرکت‌هایی مثل OpenAI که توانسته است مدل زبانی بزرگ خود را بدون نظارت دولتی یا سایر موانع قانونی طراحی و ایجاد کند، می‌توانند به‌راحتی رقبای خود را پشت سر بگذارند و جایگاه خود را تثبیت کنند؛ چنین فضایی ورود تازه‌واردان به حوزه AI را دشوار می‌کند.

این شرایط نه‌تنها باعث ایجاد مزیت اقتصادی برای غول‌های حوزه هوش مصنوعی مثل OpenAI و مایکروسافت (که از جدیدترین مدل هوش مصنوعی OpenAI، یعنی GPT 4 در برخی از محصولات خود ازجمله موتور جستجوی بینگ استفاده کرده است) می‌شود، بلکه مختل‌شدن جریان آزاد اطلاعات و ایده‌ها را نیز به‌دنبال دارد.

مارکوس، استاد دانشگاه و کارآفرین در حوزه AI در مورد خطر جدی ترکیب نوعی فن‌سالاری (قدرت‌گرفتن متخصصان در جامعه) و ثروت‌سالاری (قدرت‌گرفتن تعداد معدودی از ثروتمندان) که باعث می‌شود باورهای مردم با اطلاعاتی که مشخص نیست چه هستند، تحت تأثیر شرکت‌های معدود قرار گیرد، به سناتورها هشدار داده است.

او به این موضوع هم اشاره کرده که OpenAI و سایر غول‌های بزرگ در حوزه هوش مصنوعی هنوز هیچ اطلاعاتی در مورد داده‌های مورد استفاده برای آموزش مدل‌های خود ارائه نکرده‌اند. این مخفی‌کاری تشخیص تعصبات پنهانی این شرکت‌ها و همچنین ارزیابی درست امنیت آن‌ها را غیرممکن می‌کند.

به نظر سناتور جاش هالی، محتمل‌ترین خطر استفاده از مدل‌های زبانی بزرگ مثل ChatGPT، توانایی آن‌ها برای دستکاری رأی‌هاست. آلتمن به این سناتور گفته این موضوع یکی از بزرگ‌ترین نگرانی‌های اوست. آلتمن در مورد این موضوع این‌چنین گفته است:

«به‌طور کلی این مدل‌ها توانایی دستکاری، قانع‌کردن و ارائه اطلاعات تعاملی نادرست را دارد. با توجه به انتخابات ریاست‌جمهوری سال آینده آمریکا و پیشرفت این مدل‌ها تا آن زمان، استفاده از آن‌ها واقعاً نگران‌کننده است.»

بهترین راه برای رفع نگرانی‌ها این است که OpenAI به‌عنوان یک شرکت پیشتاز در حوزه هوش مصنوعی، مدل‌های زبانی بزرگ خود را از دسترس عموم مردم خارج کند و آن‌ها را تنها زمانی دوباره در اختیار مردم قرار دهد که دیگر قادر به دستکاری رأی‌ها نباشند یا با روش‌های دیگری به فرایند دموکراسی آسیب نزنند. درصورت رخ‌دادن یک اتفاق، به قول سناتور دوربین، واقعاً شاهد اتفاقی تاریخی در حوزه AI خواهیم بود؛ اما متأسفانه در جلسه رهبران شاخص حیطه هوش مصنوعی با سناتورها، چنین پیشنهادی مطرح نشد.

محوریت بحث این جلسه به این موضوع مربوط می‌شد که اگر نهادی دولتی برای قانون‌گذاری در حوزه AI تأسیس شود، چه نوع نهادی خواهد بود و چه کسی باید مسئولیت آن را بر عهده بگیرد و اینکه آیا بین‌المللی‌کردن چنین نهادی امکان‌پذیر است یا خیر. این جلسه درحقیقت تمرینی برای قانون‌گذاری در حوزه AI در آینده بود که در آن به خطرات کنونی استفاده از این فناوری اشاره نشد.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی