کارکنان سابق OpenAI و گوگل خواستار حق افشای مشکلات ایمنی هوش مصنوعی شدند
کارکنان OpenAI و گوگل در نامهای ضمن هشداردادن درباره خطرات هوش مصنوعی، خواستار حمایت بیشتر از سوتزنان این شرکتها شدند.
گروهی از کارکنان فعلی و سابق شرکتهای OpenAI و دیپمایند گوگل در نامهای سرگشاده نگرانیهای خود را درباره خطرات ناشی از فناوری نوظهور هوش مصنوعی اظهار کردند. آنها هشدار میدهند که نظارت دقیقی بر ایمنی هوش مصنوعی وجود ندارد و خواستار حمایت بیشتر از سوتزنان این شرکتها شدند. سوتزنان کسانی هستند که مشکلات داخل یک شرکت را برملا میکنند.
در نامه سرگشاده گروهی متشکل از 11 کارمند فعلی و سابق OpenAI و دو کارمند فعلی و سابق دیپمایند گوگل آمده است که انگیزههای مالی شرکتهای هوش مصنوعی مانع از نظارت مؤثر میشود. «جفری هنیتون»، پدرخوانده هوش مصنوعی نیز از این نامه حمایت کرده است.
OpenAI نیز در بیانیهای از اقدامات خود دفاع کرد و گفت که راهکارهایی برای گزارش مشکلات به مسئولین شرکت وجود دارد و همچنین تا زمانی که اقدامات حفاظتی مناسب وجود نداشته باشد، فناوری جدیدی عرضه نمیکند.
نامه کارکنان OpenAI و دیپمایند درباره خطرات هوش مصنوعی
در این نامه آمده است که شرکتهای هوش مصنوعی اطلاعات خصوصی و محرمانه قابلتوجهی درباره قابلیتها و محدودیتهای سیستمهای خود، مسائل امنیتی و انواع خطرات هوش مصنوعی دارند؛ بااینحال، آنها درحالحاضر تنها تعهدات ضعیفی برای درمیانگذاشتن برخی از این اطلاعات با دولتها دارند.
کارکنان OpenAI و دیپمایند در این نامه میگویند درحالیکه هوش مصنوعی برای جامعه فایدههایی دارد، اما خطراتی مانند افزایش نابرابریها، دستکاری و انتشار اطلاعات نادرست و حتی احتمال انقراض انسان نیز در میان است.
البته نگرانیهای مهمی درباره این فناوری وجود دارد که چه بسا ممکن است سیاره زمین را تسخیر کند، اما هوش مصنوعی مولد امروزی مشکلات اساسیتری مانند نقض کپیرایت، اشتراکگذاری ناخواسته تصاویر مشکلساز و غیرقانونی، و ساخت و انتشار دیپفیکها ایجاد کرده است.
همچنین امضاکنندگان این نامه ادعا میکنند که حمایتهای فعلی از سوتزنان یا همان افشاگران ناکافی است، زیرا این حمایتها بر افشای فعالیتهای غیرقانونی تمرکز دارند اما افشای نگرانیهای ایمنی را پوشش نمیدهند. البته وزارت کار آمریکا میگوید کارکنانی که در بخشهایی مانند حقوق، تبعیض، ایمنی، کلاهبرداری و محرومیت از مرخصی تخلفات را گزارش میدهند، توسط قوانین حمایت از سوتزنان محافظت میشوند و کارفرمایان نمیتوانند این افراد را اخراج کنند. بااینحال این کارکنان از این امر ابراز نگرانی کردند.
مدتی پیس نیز خبر انحلال تیم ایمنی هوش مصنوعی OpenAI و استعفای مدیر آن نیز خبرساز شد. البته مدتی پس از آن این شرکت از ایجاد یک کمیته ایمنی دیگر خبر داد.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.