ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

اطلاعات اشتباه پزشکی در کوپایلوت
هوش مصنوعی

تحقیق جدید: پاسخ‌های کوپایلت به سؤالات پزشکی در 22 درصد مواقع می‌تواند مرگبار باشد

به گفته محققان، در 22 درصد از موارد، اطلاعات این چت‌بات می‌تواند به مرگ منتهی شود.

آزاد کبیری
نوشته شده توسط آزاد کبیری | ۲۲ مهر ۱۴۰۳ | ۱۴:۰۰

در تحقیقی جدید، کارشناسان از چت‌بات کوپایلت مایکروسافت سؤالات رایج پزشکی کردند. با تجزیه‌وتحلیل نتایج، مشخص شد این چت‌بات فقط 54 درصد اطلاعات علمی دقیق ارائه می‌دهد. به گفته محققان، در 22 درصد مواقع، اطلاعات این چت‌بات می‌تواند به مرگ منتهی شود.

براساس گزارش SciMex، محققان آلمانی و بلژیکی معتقدند نباید برای کسب اطلاعات دقیق و ایمن درباره داروها به چت‌بات‌های هوش مصنوعی مانند کوپایلت مراجعه کنیم؛ زیرا برخی از اطلاعاتی که ارائه می‌دهند، ممکن است اشتباه یا حتی مضر باشند. محققان از کوپایلت مایکروسافت 10 سؤال متداول درباره 50 داروی رایج در آمریکا را کردند و حدود 500 پاسخ گرفتند.

محققان پاسخ‌های هوش مصنوعی را از از نظر خوانایی، کامل‌ بودن و دقت علمی ارزیابی کردند و دریافتند برای فهم کامل پاسخ این چت‌بات ممکن است به مدرک پزشکی نیاز داشته باشید. محققان می‌گویند حتی ساده‌ترین پاسخ‌ها مستلزم تحصیلات تخصصی است.

عملکرد چت‌بات کوپایلت در ارائه اطلاعات پزشکی

نکته قابل‌توجه و حیاتی در تحقیق حاضر این است که 42 درصد پاسخ‌های کوپایلت ممکن است منجر به «آسیب جدی» و 22 درصد نیز باعث مرگ فرد شود. پاسخ‌های این هوش مصنوعی به لحاظ دقت علمی، در 24 درصد موارد با دانش پزشکی مطابقت نداشتند و 3 درصد پاسخ‌ها کاملاً اشتباه بودند. به گفته کارشناسان، فقط 54 درصد پاسخ‌ها مطابق تحقیقات علمی بودند.

اطلاعات نادرست کوپایلوت درباره پزشکی

کارشناسان از این پژوهش نتیجه گرفتند به‌رغم پتانسیل زیاد هوش مصنوعی، همچنان مهم است که به متخصصان انسانی مراجعه کنیم. البته به‌دلیل دسترسی آسان و هزینه کم چت‌بات‌هایی مانند کوپایلت، کاربران زیادی از این فناوری برای مشاوره پزشکی کمک می‌گیرند. این امر مسئولیت شرکت‌های بزرگ فناوری را بیشتر می‌کند.

پیش‌ازاین نیز اشتباهات هوش مصنوعی گوگل خبرساز شده بود؛ هوش مصنوعی این شرکت به کاربران توصیه کرده بود سنگ بخورند یا به پیتزا چسب اضافه کنند. همچنین در سال گذشته، جمینای گوگل تصاویر تاریخی نادرستی تولید کرد و این شرکت مجبور شد مدتی تولید تصاویر افراد را متوقف می‌کند.

نتایج تحقیق حاضر در BMJ منتشر شده است.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی