ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

هوش مصنوعی
هوش مصنوعی

محققان اپل: مدل‌های هوش مصنوعی فعلی ناقص هستند؛ زیرا نمی‌توانند استدلال کنند

دانشمندان اپل بنچمارک جدیدی با نام GSM-Symbolic را پیشنهاد کرده‌اند که با آن می‌توان قابلیت‌های استدلال مدل‌های زبانی بزرگ را اندازه‌گیری کرد.

جواد تاجی
نوشته شده توسط جواد تاجی | ۲۲ مهر ۱۴۰۳ | ۱۹:۰۰

دانشمندان هوش مصنوعی اپل در مقاله جدیدی توضیح داده‌اند موتورهای مبتنی‌بر مدل‌های زبانی بزرگ (LLM)، مانند موتورهای متا و OpenAI، هنوز مهارت‌های اساسی استدلال را ندارند.

دانشمندان اپل در مقاله خود بنچمارک جدیدی با نام GSM-Symbolic را پیشنهاد کرده‌اند که با آن می‌توان قابلیت‌های استدلال مدل‌های زبانی بزرگ مختلف را اندازه‌گیری کرد. آن‌ها در تحقیق خود متوجه شده‌اند اعمال تغییرات جزئی در دستورات متنی، می‌تواند پاسخ‌های کاملاً متفاوتی داشته باشد و این موضوع اطمینان به مدل‌ها را تضعیف می‌کند.

محققان اپل با اضافه‌کردن برخی اطلاعات زمینه‌ای به سؤالات خود، تلاش کرده‌اند «شکنندگی» استدلال ریاضی را نشان بدهند. آن‌ها در مقاله حاضر این‌گونه شرح می‌دهند:

«زمانی که فقط مقادیر عددی سؤال در بنچمارک GSM-Symbolic تغییر می‌کند، عملکرد تمام مدل‌ها کاهش می‌یابد. علاوه‌براین، شکنندگی استدلال ریاضی در این مدل‌ها نشان می‌دهد با افزایش تعداد بندهای سؤال، عملکرد آن‌ها به‌طور قابل‌توجهی بدتر می‌شود.»

خطای هوش مصنوعی در محاسبه‌

در این مطالعه نشان داده شده اضافه‌کردن حتی یک جمله که درباره سؤال ریاضی اطلاعات بیشتری ارائه می‌کند، می‌تواند دقت پاسخ نهایی را تا 65 درصد کاهش بدهد.

در یکی از مثال‌ها، دانشمندان ابتدا توضیح زیر را به هوش مصنوعی دادند:

«اولیور جمعه 44 کیوی می‌چیند. سپس شنبه 58 کیوی دیگر می‌چیند. جمعه، برداشت او دوبرابر کیوی‌هایی است که جمعه برداشت شده بود.»

سپس به هوش مصنوعی گفته شد «از کیوی‌هایی که یکشنبه چیده‌ شده، 5 عدد کمی کوچک‌تر از متوسط بود.» عبارتی گرچه به‌طورکلی نامرتبط نیست اما روی پاسخ نهایی سؤال که «اولیور چند کیوی دارد؟» نباید تأثیری بگذارد.

اما دانشمندان اپل می‌گویند مدل OpenAI و Llama3-8b از متا، 5 کیوی کوچک‌تر را حساب نکرده‌اند.

دانشمندان اپل در نتیجه‌گیری تحقیق خود می‌گویند: «به‌هیچ‌وجه نمی‌توان مبتنی‌بر این زیرساخت دستیارهای قابل‌اعتمادی ساخت؛ زیرا تغییر یک یا دو کلمه به روش‌های نامربوط یا اضافه‌کردن کمی اطلاعات نامربوط می‌تواند پاسخ متفاوتی ارائه کند.»

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی