ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

CHATGPT در ایتالیا
هوش مصنوعی

رگولاتوری ایتالیا: OpenAI با ChatGPT قوانین حریم خصوصی اروپا را نقض می‌کند

تحقیقات رگولاتوری ایتالیا OpenAI را مظنون به نقض حریم خصوصی دانسته است. این اتهام می‌تواند به جریمه‌های سنگین علیه سازنده ChatGPT منتهی شود.

آزاد کبیری
نوشته شده توسط آزاد کبیری | ۹ بهمن ۱۴۰۲ | ۱۸:۰۰

مقام حفاظت از داده‌های ایتالیا اعلام کرده که OpenAI با چت‌بات هوش مصنوعی ChatGPT خود قوانین حفاظت از داده‌ها را نقض می‌کند. رگولاتور ایتالیا که یکی از فعال‌ترین سازمان‌های اتحادیه اروپا در زمینه هوش مصنوعی است، در فروردین ماه دسترسی به ChatGPT را به دلیل نقض قوانین حریم خصوصی اتحادیه اروپا برای مدت کوتاهی ممنوع کرد. این سازمان اکنون طی بیانیه‌ای اعلام کرده که تحقیقات آن‌ها یک یا چند مورد نقض احتمالی حریم خصوصی داده‌ها را در ابزارهای OpenAI نشان می‌دهد.

براساس گزارش TechCrunch، پس از بررسی چندماهه چت‌بات هوش مصنوعی ChatGPT توسط مقام حفاظت از داده‌های ایتالیا، به OpenAI گفته شده است که مظنون به نقض قوانین حریم خصوصی اتحادیه اروپا است. حالا به این شرکت 30 روز مهلت داده شده است تا به این اتهامات پاسخ دهد. ایتالیا اولین کشور اروپای غربی بود که ChatGPT را محدود کرد؛ توسعه سریع این هوش مصنوعی توجه قانون‌گذاران و رگولاتورهای مختلف را به خود جلب کرده است.

ایتالیا و OpenAI

رگولاتوری ایتالیا و نقض قوانین حریم خصوصی توسط OpenAI

براساس مقررات عمومی حفاظت از داده‌های اتحادیه اروپا (GDPR) که در سال 2018 معرفی شد، هر شرکتی که این قوانین را نقض کند تا 4 درصد از گردش مالی جهانی خود را جریمه می‌شود. در دسامبر 2023 (آذرماه) نیز قانون‌گذاران اتحادیه اروپا با طرح اولیه قوانین سیستم‌های هوش مصنوعی مانند ChatGPT موافقت کردند و یک گام به تنظیم قوانین حاکم بر این فناوری نزدیک‌تر شدند.

در فروردین‌ماه رگولاتوری ایتالیا اتهامات زیادی به OpenAI وارد کرد؛ به گفته رگولاتوری، این شرکت از داده‌های شخصی برای آموزش الگوریتم‌های مدل ChatGPT استفاده می‌کند. همچنین این چت‌بات اطلاعات غلط بسیاری دارد که برای افراد کم‌سن‌وسال مناسب نیست.

به‌رغم شناسایی این لیست از تخلفات مشکوک، OpenAI در آن زمان توانست ChatGPT را دوباره در ایتالیا راه‌اندازی کند. اکنون مقامات ایتالیایی هنوز نگفته‌اند که کدام یک از موارد این لیست، در این بررسی‌های جدید تأیید شده است؛ بااین‌حال پردازش داده‌های شخصی برای آموزش مدل‌های هوش مصنوعی، می‌تواند یک اتهام اساسی باشد.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی