
محققان: هوش مصنوعی در درک تعاملات اجتماعی هنوز بهخوبی انسان عمل نمیکند
محققان میگویند هوش مصنوعی در درک تعاملات اجتماعی از انسان شکست میخورد.

محققان در پژوهش جدیدی دریافتند مدلهای هوش مصنوعی فعلی باوجود پیشرفتهای زیادشان، هنوز در توصیف و تفسیر تعاملات اجتماعی در صحنهای متحرک ضعیفتر از انسانها عمل میکنند. این مهارت برای خودروهای خودران، رباتها و سایر فناوریهایی که برای تعامل در دنیای واقعی به سیستمهای هوش مصنوعی متکیاند، ضروری است.
براساس گزارش ScienceDaily، محققان دانشگاه جانز هاپکینز میگویند سیستمهای هوش مصنوعی در درک تعاملات و پویایی اجتماعی و زمینه لازم برای تعامل با افراد از انسان شکست میخورند. به گفته آنها این مشکل ممکن است ریشه در زیرساخت سیستمهای هوش مصنوعی داشته باشد.
عملکرد ضعیف هوش مصنوعی در درک تعاملات اجتماعی
«لیلا ایسیک» (Leyla Isik)، نویسنده اصلی پژوهش حاضر و استادیار علوم شناختی دانشگاه جانز هاپکینز، میگوید:
«برای مثال، هوش مصنوعی در خودروی خودران باید نیتها، اهداف و اقدامات رانندگان و عابران پیاده را تشخیص دهد. هوش مصنوعی باید بداند عابر پیاده قرار است از کدام سمت برود یا آن 2 نفری گفتگو میکنند یا قرار است از خیابان عبور کنند. درواقع هر زمان هوش مصنوعی بخواهد با انسانها تعامل داشته باشد، باید تشخیص دهد مردم چه کار میکنند. فکر میکنم این سیستمها درحالحاضر نمیتوانند این امر را تشخیص دهند.»

محققان میگویند فقط دیدن تصویر و تشخیص اشیا و چهرهها کافی نیست. این دستاورد اولین قدم بود که باعث پیشرفت عظیم مدلهای چندوجهی هوش مصنوعی شد اما زندگی واقعی ایستا نیست و هوش مصنوعی باید بتواند وقایعی را که در صحنهای رخ میدهد، درک کند. درنهایت این فناوری باید روابط، زمینه و پویایی تعاملات اجتماعی را متوجه شود. درکل پژوهش محققان نقطهای کور در توسعه مدلهای هوش مصنوعی را نشان میدهد.
در مقام مقایسه عملکرد مدلهای هوش مصنوعی با انسان، محققان از شرکتکنندگان انسانی خواستند کلیپهای ویدیویی سهثانیهای تماشا کنند. این کلیپها شامل افرادی بودند که با هم تعامل داشتند و فعالیتهایی کنار هم یا بهتنهایی انجام میدادند. شرکتکنندگان باید این تعاملات را ارزیابی میکردند. سپس محققان از تقریباً 350 مدل هوش مصنوعی زبانی، ویدویی و تصویری خواستند درباره این کلیپها نظر بدهند. در مدلهای زبانی بزرگ، محققان از هوش مصنوعی خواستند کپشنهای کوتاه نوشته انسان را ارزیابی کند.
شرکتکنندگان در بیشتر موارد، با یکدیگر درباره محتوای ویدیوها توافق داشتند اما مدلهای هوش مصنوعی، صرفنظر از اندازه یا دادههایی که بر پایه آنها آموزش دیده بودند، چنین توافقی نداشتند. مدلهای ویدیویی نمیتوانند کارهایی را که افراد در ویدیوها انجام میدادند، دقیق توصیف کنند. همچنین مدلهای تصویری نتوانستند بهطور قابلاعتمادی پیشبینی کنند افراد درحال برقراری ارتباط هستند یا خیر. البته مدلهای زبانی در پیشبینی رفتار انسان بهتر بودند.
محققان معتقدند این اتفاق به این رخ میدهد که شبکههای عصبی هوش مصنوعی از بخشی از مغز که مسئول پردازش تصاویر ایستاست، الهام گرفتهاند که با ناحیهای از مغز که صحنههای اجتماعی پویا را پردازش میکند، متفاوت است.
یافتههای این پژوهش در کنفرانس بینالمللی یادگیری بازنمایی ارائه شد.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.