نسخه ۸ میلیارد پارامتری LLM درنا بهصورت متنباز عرضه شد
پارت یکی از مدلهای ۸ میلیارد پارامتری متعلق به گروه مدلهای زبانی درنا را ارتقا داده است.
«مرکز تحقیقات هوش مصنوعی»، LLM هشت میلیارد پارامتری از گروه مدلهای زبانی «درنا» را به صورت متنباز عرضه کرد.
اسفند ماه ۱۴۰۲ بود که این مرکز از گروه مدل بزرگ زبانی (LLM) درنا رونمایی کرد که در سه ظرفیت توسعه داده شده بودند.
حال پارت اعلام کرده است یکی از مدلهای ۸ میلیارد پارامتری متعلق به گروه مدلهای زبانی درنا را ارتقا داده و به صورت متنباز در اختیار اکوسیستم هوش مصنوعی کشور قرار داده است.
پارت اعلام کرده است قصد دارد «عملکرد ضعیف سرویسهای هوش مصنوعی زبان فارسی» را جبران کند و گروه مدل بزرگ زبانی درنا را هم برای پررنگ کردن زبان فارسی در دنیای هوش مصنوعی ارتقا داده تا فرصت ساخت ابزارهای جدید هوش مصنوعی برای کسبوکارها،توسعهدهندگان شخصی، متخصصان و محققان، متناسب با نیازها و اهدافشان فراهم شود.
پارت ادعا کرده است این LLM در ردیف مطرحترین مدلهای زبانی دنیاست و در شاخصهای زبان فارسی رقیبی ندارد. همچنین پارت گفته نمره کلی «درنا» در مقایسه با مدلهایی مانند Meta Llama 3 بهتر است، به ویژه در تعاملات زبان بومی و پسزمینههای فرهنگی ایران و فارسی. طبق اعلام پارت، جزئیات بیشتر در خصوص مقایسه این دو مدل زبانی در سایت Hugging Face قابل مشاهده است.
پارت همچنین اعلام کرده است برای اولین بار در ایران، از این مدل زبانی بزرگ روی سرورهای Hugging Face میزبانی میکند تا کاربران بدون نیاز به زیرساخت یا سختافزار، به صورت رایگان، این LLM را در این سایت تست و آزمایش کنند.
پارت اعلام کرده است این LLM قابلیت خلاصهسازی متون، کدنویسی، پاسخ به سوالات طولانی، تشخیص احساسات و خلق محتوای جدید بر اساس دستورات واردشده را در دل خود جای داده و امکان پاسخگویی به سوالات عمومی، تاریخی، ریاضی و غیره را دارد.
پارت گفته است قصد دارد در ماههای آینده از سایر مدلهای بزرگتر درنا هم در محصولات تجاری خود استفاده کند.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.