ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

تراشه گوگل
کامپیوتر و سخت افزار

گوگل چگونه برای آموزش مدل‌های هوش مصنوعی اپل و جمینای تراشه می‌سازد؟

در داخل آزمایشگاهی در مقر گوگل در مانتین ویو، کالیفرنیا، صدها رک سرور در چندین راهرو درحال فعالیت هستند و وظایفی را انجام می‌دهند که بسیار کمتر از وظایف مرتبط با اجرای موتور جستجوی اصلی ...

احمدرضا فرهبد
نوشته شده توسط احمدرضا فرهبد | ۸ شهریور ۱۴۰۳ | ۲۲:۰۰

داخل آزمایشگاه مقر گوگل در مانتین ویو، کالیفرنیا، صدها رک سرور در چندین راهرو فعالیت می‌کنند و کارهایی را انجام می‌دهند که بسیار کمتر از وظایف موتور جستجوی اصلی جهان است. در عوض، این رک سرورها آزمایش‌هایی روی ریزتراشه‌های خود گوگل به نام واحد پردازش تنسور (TPU) انجام می‌دهند.

واحدهای پردازش تنسور گوگل ابتدا برای مدیریت بار کاری داخلی آموزش دیدند و از سال ۲۰۱۸ در دسترس مشتریان ابری قرار دارند. اپل ژوئیه اعلام کرد از واحدهای پردازش تنسور برای آموزش مدل‌های AI که پایه و اساس پلتفرم هوش مصنوعی Apple Intelligence هستند، استفاده می‌کند. گوگل همچنین برای آموزش و اجرای چت‌بات جمینای خود به واحدهای پردازش تنسور متکی است.

«دانیل نیومن»، مدیرعامل گروه فیوچروم (Futurum)، درباره رقابت انویدیا و گوگل در زمینه آموزش AI این‌چنین گفته است:

«در سراسر جهان نوعی باور اساسی وجود دارد که براساس آن همه مدل‌های بزرگ زبان هوش مصنوعی روی انویدیا آموزش داده می‌شوند؛ بدون تردید انویدیا سهم بزرگی در آموزش AI دارد اما گوگل هم در این حوزه مسیر خود را انتخاب کرده و از زمان راه‌اندازی تراشه‌های ابری سفارشی گوگل در سال ۲۰۱۵، روی آن‌ها کار کرده است.»

جایگاه گوگل در حوزه ساخت تراشه هوش مصنوعی سفارشی ابری

جایگاه گوگل در حوزه ساخت تراشه هوش مصنوعی سفارشی ابری

گوگل اولین ارائه‌دهنده خدمات ابری بود که تراشه‌های هوش مصنوعی سفارشی ساخت. 3 سال بعد، آمازون وب‌سرویس اولین تراشه هوش مصنوعی ابری خود، اینفرنتیا (Inferentia)، را معرفی کرد. اولین تراشه هوش مصنوعی سفارشی مایکروسافت، مایا (Maia)، تا پایان ۲۰۲۳ معرفی نشد.

اما پیش‌قدمی در حوزه تراشه‌های هوش مصنوعی به معنای تصاحب جایگاه برتر در رقابت کلی هوش مصنوعی مولد نبوده است. گوگل به‌دلیل عرضه محصولات ناموفق با انتقاداتی مواجه شد و به‌دنبال آن، جمینای بیش از یک سال پس از ChatGPT عرضه شد.

بااین‌حال گوگل کلود به‌دلیل ارائه محصولاتش در حوزه AI شتاب گرفته است. شرکت مادر گوگل، آلفابت، گزارش داد درآمد بخش ابری این شرکت در آخرین سه‌ماهه ۲۹ درصد افزایش یافته و اولین بار است که درآمدهای سه‌ماهه از ۱۰ میلیارد دلار فراتر رفته است.

نیومن درمورد این موضوع گفته است:

«عصر ابر هوش مصنوعی کامل نحوه دیده شدن شرکت‌ها را تغییر داده و این تمایز سیلیکونی (متمایز بودن در ساخت تراشه‌ها) یا به‌بیان‌ دیگر، خود واحد پردازشی ممکن است یکی از مهم‌ترین دلایلی باشد که باعث شده گوگل به‌دلیل توانایی‌های هوش مصنوعی خود از جایگاه سومین شرکت ارائه‌دهنده خدمات ابری هم‌سطح 2 شرکت ابری دیگر شود و حتی موقعیتی فراتر به دست بیاورد.»

ژوئیه، CNBC اولین تور در آزمایشگاه تراشه گوگل را که با دوربین ضبط‌‌ شده بود، برگزار و با رئیس بخش تراشه‌های ابری سفارشی، «امین وحدت»، مصاحبه کرد. او وقتی گوگل اولین بار با ایده ساخت تراشه‌ها در سال ۲۰۱۴ سرگرم بود، در این شرکت حضور داشت.

امین وجدت
امین وحدت، معاون رئیس بخش یادگیری ماشین، سیستم‌ها و هوش مصنوعی ابری در گوگل، درحال نمایش نسخه چهارم TPU در دفتر مرکزی گوگل در مانتین ویو

وحدت در مصاحبه‌اش در این تور گفته است:

«همه‌چیز با آزمایش فکری ساده‌ اما قدرتمندی شروع شد. تعدادی از مدیران شرکت این سؤال را مطرح کردند: اگر کاربران گوگل بخواهند فقط ۳۰ ثانیه در روز از طریق صدا با آن تعامل کنند، چه اتفاقی می‌افتد؟ چقدر قدرت محاسباتی نیاز داریم تا از کاربرانمان پشتیبانی کنیم؟»

در آن زمان طبق برآورد کارشناسان، گوگل باید تعداد کامپیوترهایش در مراکز داده را 2 برابر می‌کرد؛ بنابراین آن‌ها به‌دنبال راه‌حلی اساسی برای تأمین قدرت پردازشی موردنیاز گوگل بودند.

وحدت درباره این موضوع گفته است:

«ما متوجه شدیم می‌توانیم به‌جای سخت‌افزار عمومی، سخت‌افزار سفارشی بسازیم (دراین‌مورد واحدهای پردازش تنسور است.) تا از کاربران بهتر پشتیبانی کنیم؛ در واقع ۱۰۰ برابر کارآمدتر از پشتیبانی در سایر شرایط.»

مراکز داده گوگل هنوز به واحدهای پردازش مرکزی عمومی (CPU) و واحدهای پردازش گرافیکی انویدیا (GPU) متکی هستند. واحدهای پردازش تنسور گوگل نوع دیگری از تراشه به نام مدار مجتمع خاص برنامه (ASIC) محسوب می‌شوند که برای اهداف خاص سفارشی‌سازی شده‌اند. TPU روی هوش مصنوعی متمرکز است. گوگل یک ASIC دیگر متمرکز بر ویدیو به نام واحد کدگذاری ویدیو (VCU) نیز ساخته است.

گوگل همچنین در رویکردی، درست مشابه استراتژی سیلیکون سفارشی اپل، تراشه‌های سفارشی برای دستگاه‌های خود می‌سازد، تراشه Tensor G4 نیروی محرکه پیکسل 9 جدید گوگل با قابلیت هوش مصنوعی و تراشه جدید A1 نیروی محرکه Pixel Buds Pro 2 است.

بااین‌حال، TPU گوگل را متمایز می‌کند؛ این واحد پردازشی در نوع خود اولین واحد پردازشی بود که سال ۲۰۱۵ عرضه‌ شده بود. طبق گزارش گروه فیوچروم، واحدهای پردازش تنسور با ۵۸ درصد سهم بازار هنوز هم میان شتاب‌دهنده‌های ابری سفارشی هوش مصنوعی، بیشترین سهم را به خود اختصاص داده‌اند.

گوگل اصطلاح واحد پردازشی تنسور را براساس اصطلاح جبری «تنسور» ابداع کرده که به ضرب ماتریس‌های بزرگ‌مقیاس که برای اپلیکیشن‌های هوش مصنوعی پیشرفته سریع اتفاق می‌افتد، اشاره دارد.

با عرضه دومین TPU در سال 2018، گوگل تمرکز را از استنتاج به‌سمت آموزش مدل‌های هوش مصنوعی سوق داد.

«استیسی راسگون»، تحلیلگر ارشد نیمه‌هادی‌ها در «برنستین ریسرچ»، دراین‌مورد گفت:

 «پردازنده‌های گرافیکی برنامه‌پذیرتر و انعطاف‌پذیرترند اما عرضه آن‌ها محدود بوده است.»

شکوفایی هوش مصنوعی باعث شده ارزش سهام انویدیا به‌شدت افزایش یابد. ارزش بازار این شرکت در ژوئن به ۳ تریلیون دلار رسید که از ارزش بازار آلفابت بیشتر بود. این درحالی است که گوگل برای کسب جایگاه ارزشمندترین شرکت جهان، با اپل و مایکروسافت رقابت می‌کرد.

نیومن دراین‌باره گفته است:

«اگر بخواهیم صادق باشیم، باید بگوییم این شتاب‌دهنده‌های تخصصی هوش مصنوعی به‌اندازه پلتفرم انویدیا انعطاف‌پذیر یا قدرتمند نیستند و این همان چیزی است که بازار نیز منتظر دیدن آن است: آیا کسی می‌تواند در این فضا رقابت کند؟»

اکنون که می‌دانیم اپل از واحدهای پردازش تنسور گوگل برای آموزش مدل‌های هوش مصنوعی خود استفاده می‌کند، باید بگوییم آزمون واقعی زمانی خواهد بود که این ویژگی‌های هوش مصنوعی در سال آینده کامل روی دستگاه‌های آیفون و مک عرضه شوند.

همکاری گوگل با برادکام و TSMC

توسعه جایگزین‌های مناسب برای موتورهای هوش مصنوعی انویدیا کار آسانی نیست. نسل ششم TPU گوگل، به نام تریلیوم (Trillium)، قرار است اواخر امسال عرضه شود.

تراشه گوگل Trillium
نسخه ششم تراشه TPU به نام تریلیوم (Trillium) که اواخر ۲۰۲۴ عرضه خواهد شد

راسگون درمورد این موضوع گفت:

«توسعه جایگزین‌های مناسب برای موتورهای AI هزینه‌بر و دشوار است؛ کاری نیست که همه بتوانند انجام دهند اما این مراکز داده بزرگ توانایی‌، پول و منابع لازم برای پیش‌رفتن در این مسیر را دارند.»

این فرایند آن‌قدر پیچیده و پرهزینه است که حتی مراکز داده‌های بزرگ نیز نمی‌توانند به‌تنهایی آن را انجام دهند. گوگل از زمان عرضه اولین TPU، با برادکام (Broadcom)، توسعه‌دهنده تراشه که به متا هم در طراحی تراشه‌های AI کمک می‌کند، همکاری کرده است. برداکام ادعا می‌کند برای این همکاری‌ها بیش از ۳ میلیارد دلار هزینه کرده است.

راسگون دراین‌مورد گفته است:

«برادکام تمام کارهای جانبی را انجام می‌دهد. این شرکت وظیفه دریافت ورودی‌ها و ارائه خروجی‌ها، وظایف مدارهای فرستنده-گیرنده که داده‌های موازی را به داده‌های سریال و بالعکس تبدیل می‌کند و سایر فعالیت‌های محاسباتی را انجام می‌دهد. برادکام وظایف ایجاد محافظ برای مدار را نیز برعهده دارد.»

در مرحله بعدی، طراحی نهایی برای تولید به کارخانه‌ها ارسال می‌شود؛ این کارخانه‌ها متعلق به بزرگ‌ترین شرکت تولیدکننده تراشه‌های جهان، TSMC، هستند که ۹۲ درصد پیشرفته‌ترین قطعات نیمه‌هادی جهان را تولید می‌کند.

وقتی از وحدت پرسیده شد که آیا گوگل تدابیری برای محافظت در برابر بدترین اتفاقات در حوزه ژئوپلیتیک بین چین و تایوان اندیشده است یا نه، گفت: «قطعاً برای چنین اتفاقاتی آماده شده‌ایم و به آن فکر می‌کنیم اما امیدواریم نیازی به این اقدامات نباشد.»

محافظت در برابر این خطرات دلیل اصلی این است که کاخ سفید ۵۲ میلیارد دلار از بودجه قانون علم و تراشه (CHIPS Act) را به شرکت‌های سازنده کارخانه‌های تولید تراشه در آمریکا تخصیص داده است. تا‌امروز اینتل، TSMC و سامسونگ بیشترین بودجه‌ها را دریافت کرده‌اند.

آیا گوگل موفق خواهد شد؟

 گوگل فارغ از تمام ریسک‌ها، حرکت بزرگ دیگری در زمینه تراشه‌ها انجام داده و اعلام کرده است اولین پردازنده این شرکت برای کاربردهای عمومی به نام آکسیون (Axion) تا پایان سال در دسترس خواهد بود.

تراشه گوگل به نام Axion
تراشه آکسیون (Axion) گوگل

گوگل دیر وارد رقابت CPU شده است. آمازون پردازنده گراویتون (Graviton) خود را سال ۲۰۱۸ و علی‌بابا تراشه سرور خود را ۲۰۲۱ عرضه کرد. مایکروسافت نیز نوامبر CPU خود را معرفی کرد.

وقتی از وحدت پرسیدند چرا گوگل برای ساخت CPU زودتر دست‌به‌کار نشده، پاسخ داد:

«تمرکز ما بر حوزه‌ای بوده است که می‌توانیم بیشترین ارزش را برای مشتریان خود ارائه دهیم و کارمان را با TPU، واحدهای کدگذاری ویدیو و شبکه‌های شروع کرده‌ایم. پس از عرضه این سخت‌افزارها معتقد بودیم زمان عرضه پردازنده فرارسیده است.»

ساخت تمام این پردازنده‌ها از شرکت‌های غیرتراشه‌ساز، ازجمله گوگل، با استفاده از معماری تراشه ARM امکان‌پذیر شده است؛ این معماری از نظر انرژی جایگزینی با امکان سفارشی‌سازی بیشتر و کارآمدتر محسوب می‌شود که نسبت به معماری سنتی x86 مورداستفاده اینتل و AMD بیشتر جلب‌توجه کرده است. بهره‌وری انرژی بسیار مهم است؛ زیرا پیش‌بینی می‌شود تا ۲۰۲۷ سرورهای هوش مصنوعی هر سال به‌اندازه کشوری مانند آرژانتین برق مصرف کنند. گزارش محیط زیستی اخیر گوگل نشان داد انتشار گازهای گلخانه‌ای از ۲۰۱۹ تا ۲۰۲۳ تقریباً ۵۰ درصد افزایش یافته که بخشی از آن به‌دلیل رشد مراکز داده برای تأمین انرژی AI بوده است.

چنانچه تراشه‌های طراحی‌شده برای استفاده از هوش مصنوع کم‌مصرف نبودند؛ این اعداد مرتبط با آسیب‌های زیست‌محیطی بسیار بیشتر از میزان‌های ذکرشده بود؛ وحدت درمورد این موضوع گفته است:

«ما شبانه‌روز برای کاهش انتشار کربن ناشی از فعالیت‌ زیرساخت‌هایمان تلاش می‌کنیم و درحال به صفر رساندن انتشار آن‌ هستیم.»

خنک‌کردن سرورهای آموزش‌دهنده و اجراکننده AI نیازمند مقدار زیادی آب است؛ به همین دلیل، نسل سوم TPU گوگل شروع به استفاده از سیستم خنک‌کننده مستقیم به تراشه (direct-to-chip cooling) کرده است که آب کمتری مصرف می‌کند. این روش که در آن مایع خنک‌کننده مستقیم در اطراف پلیت تراشه حرکت می‌کند، روشی است که انویدیا برای خنک‌کردن پردازنده‌های گرافیکی Blackwell استفاده می‌کند.

گوگل باوجود چالش‌های فراوان، از ژئوپلیتیک گرفته تا برق و آب، همچنان به ارائه ابزارهای هوش مصنوعی مولد و ساخت تراشه‌های خود متعهد است

وحدت دراین‌باره گفته است:

«من هرگز نظیر عزم راسخ گوگل را ندیده‌ام؛ سرعت حرکت این شرکت هرگز کند نشده و قرار است سخت‌افزار نقش بسیار مهمی در این عرصه ایفا کند.»

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی