ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

هوش مصنوعی

از تأمین قطعات تا زیرساخت؛ چرا هوش مصنوعی یک فناوری گران است؟ 

افزایش هزینه‌ توسعه چت‌بات‌های مولد، نگرانی سرمایه‌گذاران را در پی داشته است.

امیررضا فروزان
نوشته شده توسط امیررضا فروزان | ۲۰ اردیبهشت ۱۴۰۳ | ۲۲:۰۰

مدت‌ها از حضور ChatGPT می‌گذرد؛ چت‌باتی که رنگ‌و‌بوی جدیدی به دنیای هوش مصنوعی بخشید و نگاه عموم کاربران و همین‌طور سرمایه‌گذاران را بیش‌از قبل به این حوزه جلب کرد. درحقیقت این چت‌بات ثابت کرد که هوش مصنوعی پتانسیل درآمدزایی بالایی برای بسیاری از غول‌های حوزه فناوری دارد. اما چرا هوش مصنوعی یک فناوری گران محسوب می‌شود؟

تازه‌ترین گزارش سه‌ماهه گوگل و مایکروسافت از افزایش چشمگیر درآمد ابری این دو شرکت خبر می‌دهد که دلیل اصلی آن، توجه بیشتر مشتریان به خدمات هوش مصنوعی است. در اثر چنین استقبالی، انتظار می‌رود که سرمایه‌گذاران بیشتری پا به حوزه هوش مصنوعی بگذارند و شرکت‌ها نیز خدمات بیشتری را در این زمینه به کاربران ارائه دهند. بااین‌حال افزایش هزینه‌های تحقیقات و خدمات مبتنی بر AI، برخی سرمایه‌گذاران را نگران کرده است. برای مثال، ارزش سهام متا به‌دلیل کاهش برخلاف‌ انتظار درآمدهای ناشی از هوش مصنوعی، افت پیدا کرده و احتمال تکرار سناریو مشابه برای سایر شرکت‌ها نیز وجود دارد.

هوش مصنوعی

در ۲۵ آوریل ۲۰۲۴ (۶ اردیبهشت ۱۴۰۳)، مایکروسافت از سرمایه‌گذاری ۱۴ میلیارد دلاری خود درزمینه AI طی سه‌ماهه اول سال خبر داد که نسبت به مدت زمان مشابه سال گذشته، ۷۹ درصد افزایش داشته و این مبلغ احتمالاً به‌صورت تدریجی افزایش خواهد یافت. همچنین شرکت متا نیز سرمایه‌گذاری خود را نسبت به سال گذشته حدود ۴۲ درصد افزایش داده و با اختصاص بودجه ۳۵ الی ۴۰ میلیارد دلاری، تحقیقات بیشتری را درزمینه هوش مصنوعی دنبال می‌کند.

انتظار می‌رفت که شاهد افزایش هزینه‌ توسعه AI باشیم؛ زیرا با گذشت زمان، پیچیدگی‌ها و الگوریتم‌های هوش مصنوعی دست‌خوش تغییرات بیشتری می‌شوند و هم‌زمان با این موضوع، تقاضا و نیاز عمومی به این فناوری روزبه‌روز درحال افزایش است. درنتیجه، پاسخ‌گویی به نیاز مشتریان، زیرساخت‌های بیشتر و البته مجهز‌تری را می‌طلبد. در این مطلب به بررسی عوامل مؤثر در افزایش هزینه‌های توسعه هوش مصنوعی می‌پردازیم؛ بنابراین تا انتها همراه دیجیاتو باشید.

گسترش مدل‌های زبانی هوش مصنوعی

ابزارهای هوش مصنوعی مانند ChatGPT از مدل‌های زبانی بزرگی استفاده می‌کنند که مجموعه‌ وسیعی از داده‌ها مانند کُتب، مقالات و نظرات را برای ارائه بهینه‌ترین پاسخ‌ها به پرسش‌های کاربران در اختیار دارند. همچنین بسیاری از شرکت‌های پیشرو در این زمینه باور دارند که با پیشرفت روز‌افزون هوش مصنوعی، نیاز این فناوری به مدل‌های زبانی بزرگ‌تر و کامل‌تر برجسته‌تر می‌شود. 

هوش مصنوعی

گسترش این مدل‌ها به تهیه داده‌های کامل‌تر، تقویت قدرت محاسباتی و آموزش بیشتر سیستم‌ها وابسته است؛ بااین‌حال انجام چنین فرایندی، به بودجه زیادی نیاز دارد. برای مثال «داریو آمودئی»، مدیرعامل آنتروپیک، طی مصاحبه‌ای اعلام کرد که آموزش مدل‌های هوش مصنوعی در شرایط فعلی،‌ چیزی حدود ۱۰۰ میلیون دلار هزینه می‌برد. وی همچنین از پیش‌بینی خود مبنی بر افزایش ۵ الی ۱۰ میلیارد دلاری هزینه آموزش مدل‌های آینده (در سال‌های ۲۰۲۵ و ۲۰۲۶) گفت. 

هزینه قطعات  هوش مصنوعی

شرکت‌های توسعه‌دهنده AI از پردازشگرهای گرافیکی (GPU)، به‌ویژه قطعات انویدیا به‌منظور پردازش حجم عظیم داده‌ها با سرعت بالا استفاده می‌کنند. بااین‌حال این قطعات، کمیاب و البته گران‌ هستند و برخی از آن‌ها مانند H100 انویدیا، با قیمت ۳۰ هزار دلار یا حتی بیشتر به فروش می‌رسند. برخی شرکت‌ها نیز به اجاره قطعات موردنظرشان روی آورده‌اند، اما این کار هم هزینه زیادی برای کمپانی‌ها به‌همراه دارد؛ برای مثال اجاره تعدادی از قطعات H100 انویدیا تقریباً ۱۰۰ دلار در ساعت برای تیم توسعه‌دهنده آب می‌خورد. 

هوش مصنوعی

اخیراً شرکت انویدیا معماری جدیدی از پردازشگرهای خود را با نام بلک‌ول (Blackwell) معرفی کرده که نقش به‌سزایی در پردازش داده‌های هوش مصنوعی ایفا می‌کند. متخصصان انویدیا تخمین زده‌اند که برای آموزش یک مدل AI با ۱.۸ تریلیون پارامتر، مانند GPT-4، به حدود ۲۰۰۰ پردازشگر بلک‌ول نیاز است و این تعداد درصورت استفاده از قطعات Hopper، به ۸۰۰۰ پردازشگر می‌رسد. درنتیجه هزینه‌ بالای استفاده از این قطعات می‌تواند سرعت پیشرفت و توسعه هوش مصنوعی و چت‌بات‌‌های مبتنی بر آن را کاهش دهد.

دیتاسنترها

شرکت‌ها بعد از خرید پردازشگرهای گرافیکی، به مکان مناسبی برای نگهداری و استفاده از آن‌ها نیازمندند. به‌همین منظور متا، آمازون، مایکروسافت، گوگل و سایر شرکت‌های توسعه‌دهنده، احداث دیتاسنترهای جدید را درنظر دارند؛ مراکزی که سفارشی برای این کمپانی‌ها ساخته می‌شوند و از قفسه‌های محکم، سیستم‌های خنک‌کننده و انواع تجهیزات الکتریکی مانند ژنراتورهای پشتیبانی بهره‌مندند. 

هوش مصنوعی

گروه تحقیقاتی Dell’Oro تخمین زده است که در سال جاری میلادی، شرکت‌ها حدود ۲۹۴ میلیارد دلار را به ساخت و تجهیز دیتاسنترهای خود اختصاص می‌دهند. این درحالی است که در سال ۲۰۲۰، حدود ۱۹۳ میلیارد دلار در این زمینه هزینه شده بود که نشان از گسترش خدمات دیجیتالی مانند استریم‌های ویدیویی، توسعه داده‌ها و پلتفرم‌‌های اجتماعی دارد. البته بخشی از این هزینه‌ها برای خرید قطعات گران‌قیمت انویدیا و سایر سخت‌افزارهای تخصصی لازم به‌منظور رشد خدمات مبتنی بر AI خرج می‌شود.

حقوق ناشران

با اینکه عمده هزینه‌ها صرف خرید پردازشگرها و دیتاسنترها می‌شود، برخی شرکت‌ها میلیون‌ها دلار برای خرید حق نشر مطالب از ناشران هزینه می‌کنند. به‌عنوان مثال، شرکت OpenAI به توافقاتی با چند ناشر اروپایی برای استفاده از محتوا و مطالب آن‌ها در ChatGPT دست یافته و طبق گزارش بلومبرگ، ۱۰ میلیون یورو به شرکت Axel Springer SE به‌منظور حضور محتوای خبری آن‌ها در این چت‌بات پرداخت می‌کند. سران OpenAI همچنین با دیگر خبرگزاری‌ها مانند CNN ،Time و فاکس‌نیوز پیرامون این موضوع گفت‌وگو کرده‌اند. 

سایر شرکت‌ها نیز بی‌کار نمانده‌اند و به‌دنبال راه‌هایی برای تأمین داده‌های زبانی مورد نیاز به‌منظور ساخت ابزارهای جذاب AI هستند. طبق گزارش رویترز، گوگل معامله‌ای ۶۰ میلیون دلاری برای خرید حق نشر محتوا از ردیت داشته و براساس خبر نیویورک‌تایمز، تیم متا درحال بررسی ارزش خرید حق نشر کتاب Simon & Schuster است. البته که رقابت غول‌‌های حوزه فناوری به خرید حق نشر محدود نشده و آن‌ها در استخدام نیروهای مستعد و توسعه‌دهندگان ماهر بایکدیگر چالش دارند.

جایگزین‌های ارزان‌تر

علی‌رغم اینکه مایکروسافت همواره نقش به‌سزایی در ارائه مدل‌های زبانی بزرگ داشته، اما اخیراً اعلام کرده که رویکردی متفاوت را در پیش می‌گیرد. درنتیجه این شرکت سه مدل زبانی کوچک‌تر معرفی کرد که به قدرت محاسباتی کمتری در مقایسه با مدل‌های بزرگ‌تر نیاز دارند. علاوه بر مایکروسافت، برخی دیگر از شرکت‌ها مانند Sakana AI بر توسعه مدل‌های زبانی کوچک‌تر تمرکز دارند. 

هوش مصنوعی

طبق گفته مایکروسافت، مدل‌های زبانی بزرگ همچنان اصلی‌ترین ابزار در توسعه، تحلیل و درک داده‌های پیچیده آن‌ها هستند؛ بااین‌حال مدل‌‌‌های کوچک‌تر برای برخی فعالیت‌ها می‌توانند کاربردی باشند و نیاز به حضور مدل‌های بزرگ‌تر را کاهش دهند. البته برخی باور دارند که حضور مدل‌های زبانی بزرگ تحت هر شرایطی به نفع کاربران است، حتی اگر هزینه بیشتری به ارمغان بیاورد.

امیررضا فروزان

امیررضا فروزان جوان‌ترین عضو دیجیاتوئه که علاقه‌زیادی به دنیای فناوری و استارت‌آپ‌ها داره، در دانشگاه شیمی می‌خونه و با مطالعه کتاب و موسیقی تایم خالی خودشو پر می‌کنه

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی