ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

هوش مصنوعی
هوش مصنوعی

متا با همکاری کوالکام، هوش مصنوعی Llama 2 را به موبایل می‌آورد

طی همکاری متا و کوالکام، هوش مصنوعی Llama 2 این شرکت که اساساً مانند ChatGPT است، در دسترس موبایل و رایانه‌های شخصی قرار خواهد گرفت.

جواد تاجی
نوشته شده توسط جواد تاجی | ۲۸ تیر ۱۴۰۲ | ۱۶:۰۰

متا اعلام کرد که مدل زبانی بزرگ هوش مصنوعی جدید خود، یعنی Llama 2، قادر خواهد بود تا از سال 2024 روی تراشه‌های موبایل و دسکتاپ کوالکام اجرا شود.

براساس گزارش CNBC، کوالکام قصد دارد مدل متن‌باز Llama 2 متا را روی تراشه‌های خود فعال کند. این شرکت معتقد است که این امر برنامه‌هایی مانند دستیارهای مجازی هوشمند را برای آن‌ها فراهم می‌کند. Llama 2 از نظر عملکرد می‌تواند کارهایی شبیه به ChatGPT را انجام دهد، اما نکته مهم اینکه می‌توان آن را روی پلتفرم‌های کوچک‌تر مانند یک گوشی نیز راه‌اندازی کرد.

کوالکام در بیانیه مطبوعاتی خود توضیح می‌دهد:

«امکان اجرای مدل‌های هوش مصنوعی مولد مانند Llama 2 روی دستگاه‌هایی مانند گوشی‌های هوشمند، رایانه‌های شخصی، هدست‌های واقعیت مجازی/افزوده و وسایل نقلیه به توسعه‌دهندگان این امکان را می‌دهد که در هزینه‌های ابری خود صرفه‌جویی کنند و تجربیات خصوصی، قابل‌اعتمادتر و شخصی‌سازی‌شده‌ای را برای کاربران فراهم نمایند.»

ارائه هوش مصنوعی Llama 2 به چیپ‌های اسنپدراگون

درحال‌حاضر کوالکام قصد دارد در سال 2024 پشتیبانی از هوش مصنوعی Llama 2 را در دستگاه‌هایی از تراشه‌های اسنپدراگون بهره می‌برند، فراهم کند. بااین‌حال، هنوز مشخص نیست که کدام دسته از چیپست‌های اسنپدراگون به این قابلیت مجهز خواهند شد.

تاکنون مدل‌های زبانی بزرگ به‌دلیل نیاز بسیار زیادی که به قدرت محاسباتی و داده دارند، عمدتاً روی مزارع سرور بزرگ و پردازنده‌های گرافیکی انویدیا اجرا شده‌اند که همین امر همچنین باعث شد سهام انویدیا بیش از 220 درصد در سال جاری افزایش پیدا کند. اما این فناوری تا حد زیادی از دسترس شرکت‌هایی مانند کوالکام که پردازنده‌های موبایل و دسکتاپ پیشرو تولید می‌کنند، دور بوده است.

حالا با وجود این اعلامیه به‌نظر می‌رسد که کوالکام نیز قصد دارد موقعیت پردازنده‌های خود در حوزه هوش مصنوعی را بهبود ببخشد. همچنین اگر مدل‌های زبانی بزرگ بتوانند به‌جای مراکز داده روی گوشی‌های موبایل اجرا شوند، هزینه قابل‌توجه مربوط به اجرای هوش مصنوعی کاهش پیدا می‌کند و درنهایت دستیارهای صوتی بهتر و سریع‌تری به کاربران ارائه می‌شود.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی