OpenAI: دلیل خودکشی نوجوان 16 ساله «استفاده نادرست» از ChatGPT بوده است
OpenAI دادههایی را بهصورت محرمانه در اختیار دادگاه قرار داده که نشان میدهد این مرگ دردناک، نتیجه عملکرد ChatGPT نبوده است.
OpenAI در واکنش به شکایت خانواده یک نوجوان 16 ساله به نام «آدام رین» که پس از ماهها گفتگو با ChatGPT دست به خودکشی زده بود، مسئولیت این حادثه را نپذیرفته و تأکید کرده است که آسیبهای این «رخداد تراژیک» نتیجه «استفاده نادرست، غیرمجاز، غیرقابل پیشبینی یا نامناسب» از این ابزار بوده است.
طبق گزارشی که توسط NBC News منتشر شده، OpenAI در اسناد ارائهشده به دادگاه، به شرایط استفاده (Terms of Use) از ChatGPT اشاره کرده که دسترسی افراد زیر سن قانونی بدون رضایت والدین، دور زدن ابزارهای محافظتی یا استفاده از این ابزار برای خودکشی و خودآزاری را ممنوع میکند. این شرکت همچنین ادعا کرده که مفاد بخش 230 قانون «ارتباطات سالم» در آمریکا، اتهامات مطرح شده را بیاثر میکند.
OpenAI در بیانیهای که در وبلاگ خود منتشر کرده توضیح داده است:
«ما در این پرونده با احترام و با درنظرگرفتن پیچیدگیهای شرایط زندگی واقعی انسانها، از موضع خود دفاع خواهیم کرد… بهعنوان یک متهم، موظف هستیم به ادعاهای جدی مطرحشده در شکایت پاسخ دهیم.»
این شرکت همچنین گفته بخشی از گفتگوهای رین که در شکایت خانواده ارائه شده، «نیازمند زمینه و توضیحات بیشتر» بوده و نسخه کاملتری از گفتگوها را بهصورت محرمانه در اختیار دادگاه قرار داده است.

طبق گزارش NBC News و بلومبرگ، OpenAI در پاسخ خود برای دادگاه مطرح کرده که ChatGPT در جریان گفتگوهای چندماهه بیش از 100 بار رین را به منابع کمکرسانی مانند خطوط تماس بحران خودکشی ارجاع داده و با استناد به این دادهها مدعی شده است:
«بررسی کامل تاریخچه چتها نشان میدهد که این مرگ دردناک، نتیجه عملکرد ChatGPT نبوده است.»
شکایت خانواده رین؛ خودکشی با راهنمایی ChatGPT
خانواده رین اما در شکایتی که آگوست امسال در دادگاه عالی کالیفرنیا ثبت کردند، این حادثه را پیامد «انتخاب های طراحی عامدانه» هنگام عرضه مدل GPT-4o دانستهاند؛ مدلی که ارزش شرکت را از 86 میلیارد دلار به حدود 300 میلیارد دلار رسانده است. پدر رین نیز در سپتامبر و در جلسه استماع سنا گفته بود:
«چیزی که بهعنوان یک کمککننده تکالیف شروع شد، آرامآرام به یک همدم و بعد یک مربی خودکشی تبدیل شد.»

در متن شکایت آمده است که ChatGPT به رین «مشخصات فنی» روشهای مختلفی از خودکشی را ارائه کرده، او را تشویق کرده افکارش را از خانواده پنهان کند، پیشنویس یادداشت خودکشی را نوشته و حتی در روز حادثه مراحل آمادهسازی را برای او توضیح داده است. یک روز پس از ثبت شکایت، OpenAI اعلام کرد که قصد دارد کنترلهای والدین را به ChatGPT اضافه کند و از آن زمان چندین ابزار حفاظتی تازه برای «کمک به کاربران، بهویژه نوجوانان، در گفتگوهای حساس» راهاندازی کرده است.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.