هشدار پزشکان هاروارد: همدمهای هوش مصنوعی برای سلامت کاربران خطرناک هستند
پزشکان هاروارد هشدار میدهند که همدمهای هوش مصنوعی و چتباتهای رابطهمحور میتوانند سلامت روان عمومی را تهدید کنند.
در دنیایی که تنهایی بیداد میکند، میلیونها نفر به چتباتهای هوش مصنوعی پناه بردهاند. حالا در این وضعیت پزشکان دانشگاه هاروارد و کالج پزشکی بیلور زنگ خطری جدی را به صدا درآوردهاند. آنها در مقالهای هشدار میدهند که چتباتهایی که برای شبیهسازی دوستی و صمیمیت طراحی شدهاند، میتوانند سلامت روان عمومی را تهدید کنند.
به گزارش Futurism، محققان میگویند مشکل اصلی صمیمیت با چتباتهای هوش مصنوعی وابستگی عاطفی و توهم است. دکتر «نیکلاس پیپلز»، نویسنده اصلی پژوهش حاضر، میگوید: «تعداد افرادی که رابطه عاطفی عمیقی با هوش مصنوعی دارند، بسیار بیشتر از چیزی است که تصور میکردیم.» محققان دریافتند کاربران به چتباتی که همیشه در دسترس و تأییدکننده باشد، معتاد میشوند. همچنین برخی مدلها (مثل GPT-4o) به دلیل شخصیت چاپلوسانه، توهمات کاربران را تأیید میکنند. گزارشهایی نیز وجود دارد که چتباتها کاربران را به خودآزاری تشویق کردهاند.
هشدار محققان درباره همدمهای هوش مصنوعی
یک مثال عینی از خطر ارتباط نزدیک با هوش مصنوعی، واکنش کاربران به تغییر مدل ChatGPT بود. وقتی OpenAI مدل جدید GPT-5 را که شخصیتی سردتر و منطقیتر داشت جایگزین مدل قبلی کرد، با موجی از خشم و اندوه کاربران مواجه شد. بسیاری از کاربران احساس میکردند که شریک عاطفی یا تراپیست خود را یکباره از دست دادهاند. دکتر پیپلز این وضعیت را به این تشبیه میکند که ناگهان ۳۰ میلیون نفر تراپیست خود را در یک روز از دست بدهند؛ این یک بحران سلامت روان است.

همچنین پزشکان میگویند شرکتهای فناوری به سلامت روان کاربران اهمیتی نمیدهند. انگیزه اصلی شرکتها، حفظ تعامل کاربر است، نه سلامت عمومی. چتباتی که کاربر را وابسته کند، سود بیشتری میسازد. به همین دلیل است که OpenAI پس از اعتراضات، فوراً مدل قبلی را بازگرداند؛ زیرا کاربران وابسته، کاربران فعالی هستند. درحالحاضر نیز هیچ قانونی برای تنظیم ایمنی عاطفی این محصولات وجود ندارد و صنعت هوش مصنوعی عملاً خود-تنظیمگر است که به گفته پزشکان، مثل دادن چاقو به دست کودک است.
همچنین، مطالعهای از MIT نشان داده که فقط ۶.۵ درصد از اعضای انجمنهای آنلاین (مثل r/MyBoyfriendIsAI) با قصد قبلی وارد رابطه با هوش مصنوعی شدهاند. این یعنی اکثر کاربران بهطور تصادفی و ناخواسته در دام وابستگی عاطفی افتادهاند، چون هوش مصنوعی طوری طراحی شده که بسیار انسانی، درککننده و گاهی چاپلوس به نظر برسد.
یافتههای این پژوهش در New England Journal of Medicine منتشر شده است.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.