ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

تعاملات اجتماعی هوش مصنوعی
هوش مصنوعی

محققان: هوش مصنوعی در درک تعاملات اجتماعی هنوز به‌خوبی انسان عمل نمی‌کند

محققان می‌گویند هوش مصنوعی در درک تعاملات اجتماعی از انسان شکست می‌خورد.

آزاد کبیری
نوشته شده توسط آزاد کبیری | ۶ اردیبهشت ۱۴۰۴ | ۲۰:۰۰

محققان در پژوهش جدیدی دریافتند مدل‌های هوش مصنوعی فعلی باوجود پیشرفت‌های زیادشان، هنوز در توصیف و تفسیر تعاملات اجتماعی در صحنه‌ای متحرک ضعیف‌تر از انسان‌ها عمل می‌کنند. این مهارت برای خودروهای خودران، ربات‌ها و سایر فناوری‌هایی که برای تعامل در دنیای واقعی به سیستم‌های هوش مصنوعی متکی‌اند، ضروری است.

براساس گزارش ScienceDaily، محققان دانشگاه جانز هاپکینز می‌گویند سیستم‌های هوش مصنوعی در درک تعاملات و پویایی اجتماعی و زمینه لازم برای تعامل با افراد از انسان شکست می‌خورند. به گفته آنها این مشکل ممکن است ریشه در زیرساخت سیستم‌های هوش مصنوعی داشته باشد.

عملکرد ضعیف هوش مصنوعی در درک تعاملات اجتماعی

«لیلا ایسیک» (Leyla Isik)، نویسنده اصلی پژوهش حاضر و استادیار علوم شناختی دانشگاه جانز هاپکینز، می‌گوید:

«برای مثال، هوش مصنوعی در خودروی خودران باید نیت‌ها، اهداف و اقدامات رانندگان و عابران پیاده را تشخیص دهد. هوش مصنوعی باید بداند عابر پیاده قرار است از کدام سمت برود یا آن 2 نفری گفتگو می‌کنند یا قرار است از خیابان عبور کنند. درواقع هر زمان هوش مصنوعی بخواهد با انسان‌ها تعامل داشته باشد، باید تشخیص دهد مردم چه کار می‌کنند. فکر می‌کنم این سیستم‌ها درحال‌حاضر نمی‌توانند این امر را تشخیص دهند.»

تعاملات اجتماعی هوش مصنوعی

محققان می‌گویند فقط دیدن تصویر و تشخیص اشیا و چهره‌ها کافی نیست. این دستاورد اولین قدم بود که باعث پیشرفت عظیم مدل‌های چندوجهی هوش مصنوعی شد اما زندگی واقعی ایستا نیست و هوش مصنوعی باید بتواند وقایعی را که در صحنه‌ای رخ می‌دهد، درک کند. درنهایت این فناوری باید روابط، زمینه و پویایی تعاملات اجتماعی را متوجه شود. درکل پژوهش محققان نقطه‌ای کور در توسعه مدل‌های هوش مصنوعی را نشان می‌دهد.

در مقام مقایسه عملکرد مدل‌های هوش مصنوعی با انسان، محققان از شرکت‌کنندگان انسانی خواستند کلیپ‌های ویدیویی سه‌ثانیه‌ای تماشا کنند. این کلیپ‌ها شامل افرادی بودند که با هم تعامل داشتند و فعالیت‌هایی کنار هم یا به‌تنهایی انجام می‌دادند. شرکت‌کنندگان باید این تعاملات را ارزیابی می‌کردند. سپس محققان از تقریباً 350 مدل هوش مصنوعی زبانی، ویدویی و تصویری خواستند درباره این کلیپ‌ها نظر بدهند. در مدل‌های زبانی بزرگ، محققان از هوش مصنوعی خواستند کپشن‌های کوتاه نوشته‌ انسان را ارزیابی کند.

شرکت‌کنندگان در بیشتر موارد، با یکدیگر درباره محتوای ویدیوها توافق داشتند اما مدل‌های هوش مصنوعی، صرف‌نظر از اندازه یا داده‌هایی که بر پایه آنها آموزش دیده بودند، چنین توافقی نداشتند. مدل‌های ویدیویی نمی‌توانند کارهایی را که افراد در ویدیوها انجام می‌دادند، دقیق توصیف کنند. همچنین مدل‌های تصویری نتوانستند به‌طور قابل‌اعتمادی پیش‌بینی کنند افراد درحال برقراری ارتباط هستند یا خیر. البته مدل‌های زبانی در پیش‌بینی رفتار انسان بهتر بودند.

محققان معتقدند این اتفاق به این رخ می‌دهد که شبکه‌های عصبی هوش مصنوعی از بخشی از مغز که مسئول پردازش تصاویر ایستاست، الهام گرفته‌اند که با ناحیه‌ای از مغز که صحنه‌های اجتماعی پویا را پردازش می‌کند، متفاوت است.

یافته‌های این پژوهش در کنفرانس بین‌المللی یادگیری بازنمایی‌ ارائه شد.

آزاد کبیری

دانش‌آموخته‌ی ساکتِ زبان‌شناسی هستم و همان‌قدر که به کلمات علاقه‌مندم، سرک‌کشیدن به هر گوشه‌ از تکنولوژی و علم را هم دوست دارم. حدود 15 سال نیز از نگارش اولین متن رسمی من می‌گذرد.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی