اپل توانایی «سیری» در درک افراد دارای لکنت زبان را بهبود می‌بخشد

اپل با انجام تحقیقی که نتیجه آن به زودی منتشر می‌شود، می‌خواهد توانایی سیری در درک صحبت‌های افراد دارای لکنت زبان را بهبود دهد.

اپل با استفاده از ۲۸ هزار کلیپ صوتی برداشته شده از پادکست‌هایی که در آنها افراد دارای لکنت زبان شرکت کرده‌اند، یک بانک داده بزرگ ساخته و می‌خواهد از آن برای آموزش الگوریتم‌های دستیار هوشمند سیری استفاده کند. سخنگوی اپل می‌گوید داده‌های جمع‌آوری شده توسط این شرکت توانایی سیستم‌های تشخیص صدا در درک الگوهای گفتاری ناهمگون (Atypical Speech Pattern) را بهبود می‌بخشند.

اپل علاوه بر اینکه در تلاش است تا توانایی سیری را در درک افراد دچار الگوهای گفتاری ناهمگون ارتقاء دهد، قابلیتی به نام Hold to Talk را به این دستیار هوشمند آورده که به کاربران اجازه می‌دهد مدت زمان گوش دادن سیری به حرف‌هایشان را کنترل کنند. این قابلیت سبب می‌شود تا سیری صحبت‌های افراد دچار لکنت زبان را پیش از تمام شدن قطع نکند. علاوه بر این، به لطف قابلیت Type to Siri که اولین بار با iOS 11 معرفی شد، می‌توان بدون صحبت کردن از این دستیار هوشمند استفاده کرد.

اپل می‌خواهد یافته‌های تحقیقات خود درباره ارتقاء توانمندی‌های سیری را هفته جاری در قالب یک مقاله منتشر کند که جزئیات بیشتری درباره فناوری‌های بکار رفته و اقدامات این شرکت فاش خواهد کرد.

گوگل و آمازون نیز سرگرم آموزش دستیارهای صوتی خود یعنی «گوگل اسیستنت» و «آمازون الکسا» هستند تا این دو فناوری حرف‌های تعداد بیشتری از کاربران-به ویژه کاربرانی که در حرف زدن مشکل دارند-را بهتر درک کنند. گوگل داده‌های مربوط به گفتار ناهمگون را جمع‌آوری می‌کند و آمازون دسامبر سال گذشته میلادی صندوقی به نام Alexa Fund را راه‌اندازی کرد تا کاربرانی که از مشکلات گفتاری رنج می‌برند، الگوریتم‌های الکسا را به منظور درک الگوهای صدایی منحصر به فرد خود آموزش دهند.

نظرات ۰

وارد شوید

برای گفتگو با کاربران، وارد حساب کاربری خود شوید.

ورود

رمزتان را گم کرده‌اید؟