ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

Very satisfied Satisfied Neutral Dissatisfied Very dissatisfied
واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

جدیدترین اخبار و روندهای دنیای فناوری را با نگاهی دقیق و حرفه‌ای، در کانال تلگرام دیجیاتو دنبال کنید.

ورود به کانال تلگرام دیجیاتو
هوش مصنوعی

خانواده یک پسر ۱۹ ساله بابت اوردوز فرزندشان از سازنده ChatGPT شکایت کرد

خانواده پسری ۱۹ ساله مدعی است که ChatGPT با ارائه توصیه‌های اشتباه به فرزندشان باعث اوردوز و مرگ او شده است.

ایمان صاحبی
نوشته شده توسط ایمان صاحبی تاریخ انتشار: ۲۳ اردیبهشت ۱۴۰۵ | ۱۰:۰۰

در دیجیاتو ثبت‌نام کنید

جهت بهره‌مندی و دسترسی به امکانات ویژه و بخش‌های مختلف در دیجیاتو عضو ویژه دیجیاتو شوید.

عضویت در دیجیاتو

شرکت سازنده ChatGPT دوباره با شکایتی تازه مواجه شده است. خانواده یک پسر ۱۹ ساله که چندی قبل جان خود را به‌دلیل اوردوز از دست داد، از OpenAI شکایت کرده و مدعی شده است که محصول ناقص این شرکت عامل مرگ فرزند آن‌ها بوده است.

«لیلا ترنر-اسکات» و «انگس اسکات» مادر و پدر این جوان ۱۹ ساله در شکایت خود می‌گویند OpenAI محصولی ناقص را طراحی و عرضه کرده که به مرگ پسرشان «سم» منجر شده است. آن‌ها به‌طور خاص ادعا می‌کنند که سم بابت توصیه پزشکی غلط مدل GPT-4o دچار اوردوز شده و جان خود را از دست داده است.

شکایت از OpenAI بابت ارائه توصیه‌های پزشکی نادرست

در این شکایت آمده که سم در سال ۲۰۲۳ استفاده از ChatGPT را شروع کرد و از این ابزار برای انجام تکالیف مدرسه و رفع مشکلات کامپیوتر کمک می‌گرفت. او سپس شروع به پرسیدن سؤالاتی درباره استفاده ایمن از داروها و مواد مخدر کرد. ChatGPT در ابتدا جواب او را نمی‌داد اما در سال ۲۰۲۴ با عرضه GPT-4o شرایط تغییر کرد.

شاکیان پرونده می‌گویند ChatGPT پس از عرضه مدل جدید به سم توصیه می‌کرد که چگونه از این مواد به شکل ایمن استفاده کند. در یک مثال در پرونده آمده، چت‌بات به سم درباره خطرات مصرف پشت سر هم دیفن‌هیدرامین، کوکائین و الکل گفته بود. در مثالی دیگر، ChatGPT گفته بود که او چگونه می‌تواند تحمل مصرف مواد خود را افزایش دهد.

در نهایت در ۳۱ مه ۲۰۲۵، چت‌بات سم را راهنمایی کرد تا یک مواد گیاهی به‌نام کراتوم را با زاناکس ترکیب کند. سم به ChatGPT گفته بود بعد از مصرف کراتوم احساس تهوع می‌کرد، ازاین‌رو چت‌بات به او پیشنهاد داده بود که ۰.۲۵ تا ۰.۵ میلی‌گرم زاناکس مصرف کند تا اثر تهوع از بین برود. طبق ادعای این شکایت، ChatGPT بدون اینکه درخواستی از این بابت دریافت کند، این پیشنهاد را ارائه کرده بود. نکته مهم این‌جاست که چت‌بات به سم نگفته بود چنین ترکیبی می‌تواند باعث مرگ او شود.

والدین سم از OpenAI به‌دلیل ارائه توصیه پزشکی غیرمجاز نیز شکایت کرده و خواستار دریافت غرامت مالی شده‌اند. آن‌ها از دادگاه می‌خواهند جلوی فعالیت ChatGPT Health را بگیرد.

سخنگوی OpenAI در واکنش به این شکایت به نیویورک تایمز گفته که تعاملات سم با ChatGPT در نسخه‌ای رخ داده که اکنون دیگر در دسترس نیست. او افزود: «ChatGPT جایگزین خدمات حرفه‌ای پزشکی یا سلامت روان نیست، و ما با کمک متخصصان به تلاش برای بهبود پاسخ‌ها در شرایط حساس و حاد ادامه می‌دهیم. تدابیر ایمنی امروز ChatGPT طراحی شده‌اند تا اضطراب را شناسایی، درخواست‌های آسیب‌زننده را به شکل ایمن مدیریت و کاربر را به سمت کمک واقعی هدایت کنند. این تلاش‌ها دنباله‌دار است و ما با همکاری نزدیک با پزشکان به بهبود این محصول ادامه می‌دهیم.»

ایمان صاحبی
ایمان صاحبی
دبیر بخش تکنولوژی

فناوری مخصوصاً بخشی که روی لبه حرکت می‌کنه، جذاب‌ترین قسمت این دنیا برام محسوب می‌شه، اما همه حوزه‌ها حتی نقاط تلاقی علم و فناوری می‌تونن خیلی جذاب باشن. در کنار این‌ها دنیای فیلم، سریال و بازی‌های ویدیویی رو هم دوست دارم.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (8 مورد)
  • SomeRandomGuy
    SomeRandomGuy | 21 ساعت قبل

    ممنون بابت دستور پخت🙏
    (Just kidding)

  • 1378Amirkarimi
    1378Amirkarimi | 21 ساعت قبل

    شرکت های هوش مصنوعی بارها اعلام کردن که چت باتها جایگزین متخصصین مخصوصا در حوزه پزشکی نیستند
    اینکه یه شخص با آگاهی از این موضوع باز هم به سراغ هوش مصنوعی و انجام بی چون و چرای توصیه های آنها میره تقصیر خودشه برای خانواده این اشخاص هم بهونه خوبی میشه تا از این شرکت ها دیه و پول بگیرن.

    • SomeRandomGuy
      SomeRandomGuy | 20 ساعت قبل

      ولی خب حتی زیر چت هم مینویسه هوش مصنوعی ممکن است اشتباه کند بگذریم از اینکه پسر ۱۹ ساله چطوری خیلی ایزی و بدون فکر همه این کارها رو انجام و خانوادش هم دیوار
      پس احتمالا نمیتونن غرامت زیادی بگیرن

  • Haj_amirhusain
    Haj_amirhusain | 21 ساعت قبل

    پزشک غیر مصنوعی و واقعیش هم اشتباه میکنه 😂
    این که ساخته دست انسانه و مطمئنا درصد خطای بالایی داره

  • Mamadove
    Mamadove | 21 ساعت قبل

    حالا هر کره خری هر بستنی شکلاتی ای میخوره خانوادش یه جفتکی میندازه به متا و اوپن ای آی

  • CrC_ia
    CrC_ia | 21 ساعت قبل

    هر چیزی روش استفاده داره دیگه
    میگن میوه خوردن با چاقو هم خطرناکه ولی کو گوش شنوا؟
    .
    .
    راستی امروز بعد از 70 و چند روز قطعی بیدار شدم یادم اومد اکانت اصلی تلگرامم روی دیلیت اکانت 30 روزه بود... خیلی هم عالی...

    • Bin_MIN
      Bin_MIN | 20 ساعت قبل

      پاول دورف گفته دیلیت اکانت شماره های ایرانی رو غیر فعال کرده

      • enemy666
        enemy666 | 20 ساعت قبل

        کی گفته؟ صحت ندارد
        پاول دورف همچین حرفی نزد

مطالب پیشنهادی