هوش مصنوعی ویسپر OpenAI حتی در هنگام رونویسی دچار توهم میشود
این مشکلات میتواند در زمینه تشخیصهای پزشکی فاجعه بیافریند.
ویسپر (Whisper) مدل هوش مصنوعی برای رونویسی گفتار است که سال ۲۰۲۲ OpenAI از آن رونمایی کرد. اما به نظر میرسد این سرویس مشکلاتی جدی در دنبالکردن صحبتها و بازنویسی آنهای دارد.
براساس گزارشی که Associated Press منتشر کرده، مهندسان نرمافزار، توسعهدهندگان و محققان دانشگاهی نگرانیهای جدی خود درمورد ابزار ویسپر را ابراز کردهاند. ابزارهای هوش مصنوعی مولد بهصورت کلی تمایل به هذیان گفتن دارند اما نکته عجیب درمورد ابزار ویسپر این است که در رونویسی سخنان هم مشکلاتی دارد. در حالت عادی و وقتی که از چنین سرویسی استفاده میکنید، انتظار دارید این ابزار دقیقاً سخنان گفتهشده را رونویسی کند.
ابزار ویسپر OpenAI نمیتواند سخنان را بهدقت رونویسی کند
به گفته محققانی که از ویسپر استفاده کردهاند، این سرویس مواردی همچون تفسیرهای نژادی و درمانهای پزشکی خیالی را در رونویسیهای خود میگنجاند که میتواند بسیار خطرناک باشد. هماکنون بسیاری از بیمارستانها و مراکز درمانی مختلف از این ابزار در زمینههای پزشکی استفاده میکنند و رونویسی صحیح ممکن است به فاجعه منجر شود.
محققی از دانشگاه میشیگان که رونوشت جلسات عمومی را مطالعه کرده است، میگوید ابزار ویسپر در ۸ مورد از ۱۰ مورد رونویسی، دچار توهم شده است. همچنین مهندس یادگیری ماشینی که بیش از ۱۰۰ ساعت از رونویسیهای ویسپر را مطالعه کرده، میگوید در بیش از نیمی از این رونویسیها موارد اشتباه و هذیان دیده میشود. علاوهبراین، توسعهدهنده نیز میگوید در تمام ۲۶۰۰ ساعت رونویسیهای این ابزار توهم پیدا کرده است.
سخنگوی OpenAI در واکنش به این خبر اعلام کرد این شرکت مداوم برای بهبود دقت مدلها و کاهش توهمها تلاش میکرد. او همچنین گفت سیاستهای آنها استفاده از ویسپر را «در زمینههای خاص تصمیمگیری با ریسک بالا» ممنوع میکند. OpenAI درنهایت از محققان برای بهاشتراکگذاری یافتههای خود تقدیر کرد.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.