انویدیا با GPUهای خود هزینه آموزش مدلهای زبانی بزرگ را 25 برابر کاهش میدهد
انویدیا میگوید مشتریان میتوانند با استفاده از پردازشگرهای گرافیکی این شرکت هزینه آموزش مدلهای زبانی بزرگ را بسیار کاهش دهند.
انویدیا در رویداد کامپیوتکس 2023 با دست پر حاضر شد. این شرکت در مراسم خود مقایسه قابلتوجهی را میان هزینه استفاده از سرورهای مبتنی بر CPU و سرورهای مبتنی بر GPU برای آموزش مدلهای زبانی بزرگ هوش مصنوعی انجام داد و مدعی شد که مشتریان با استفاده از پردازشگرهای گرافیکی این شرکت میتوانند با هزینه کمتر و در زمان کوتاهتر به اهداف خود برسند.
«جنسن هوانگ»، مدیرعامل انویدیا، در مراسم کامپیوتکس 2023 میان هزینه استفاده از روشهای مختلف آموزش مدلهای هوش مصنوعی مقایسهای انجام داد. او گفت شرکتها درحالحاضر برای آموزش یک مدل زبانی بزرگ (LLM) به سروری 10 میلیون دلاری با 960 پردازنده مرکزی یا CPU نیاز دارند. بهعلاوه، برق مصرفی برای انجام این کار حدود 11 گیگاواتساعت خواهد بود.
اما اگر یک شرکت سروری را با پردازشگرهای گرافیکی انویدیا بسازد، برای آموزش 1 مدل زبانی بزرگ به تنها 0.13 گیگاواتساعت برق و صرف 400 هزار دلار هزینه نیاز دارد.
پردازشگرهای گرافیکی انویدیا مصرف برق را هم کاهش میدهند
انویدیا درواقع میگوید که شرکتها با استفاده از پردازشگرهای گرافیکی این شرکت میتوانند با صرف 4 درصد از هزینه و 1.2 درصد از برق مصرفی در سرورهای مبتنی بر CPU، یک مدل زبانی بزرگ را برای سیستمهای هوش مصنوعی خود توسعه دهند. این سطح از کاهش هزینهها مطمئناً کمک شایانی به شرکتها خواهد کرد. انویدیا در همین رویداد از ابرکامپیوتر DGX GH200 نیز برای نسل بعدی مدلهای هوش مصنوعی رونمایی کرد.
از طرف دیگر، اگر همین شرکتها سروری 10 میلیون دلاری را با GPUهای انویدیا بسازند، میتوانند با صرف تنها 3.2 گیگاواتساعت، 44 مدل زبانی بزرگ را تعلیم دهند. در بحث تحلیل هزینهها، به این مقایسه سناریوی «هزینه برابر» گفته میشود.
همچنین اگر توان برق مصرفی را به 11 گیگاواتساعت برسانیم، با این GPUها میتوان 150 برابر بیشتر مدلهای زبانی را آموزش داد. البته با این کار هزینهها به 34 میلیون دلار میرسد، اما در پایان کار 150 مدل زبانی بزرگ در دسترس خواهد بود.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.