گوگل چگونه برای آموزش مدلهای هوش مصنوعی اپل و جمینای تراشه میسازد؟
در داخل آزمایشگاهی در مقر گوگل در مانتین ویو، کالیفرنیا، صدها رک سرور در چندین راهرو درحال فعالیت هستند و وظایفی را انجام میدهند که بسیار کمتر از وظایف مرتبط با اجرای موتور جستجوی اصلی ...
داخل آزمایشگاه مقر گوگل در مانتین ویو، کالیفرنیا، صدها رک سرور در چندین راهرو فعالیت میکنند و کارهایی را انجام میدهند که بسیار کمتر از وظایف موتور جستجوی اصلی جهان است. در عوض، این رک سرورها آزمایشهایی روی ریزتراشههای خود گوگل به نام واحد پردازش تنسور (TPU) انجام میدهند.
واحدهای پردازش تنسور گوگل ابتدا برای مدیریت بار کاری داخلی آموزش دیدند و از سال ۲۰۱۸ در دسترس مشتریان ابری قرار دارند. اپل ژوئیه اعلام کرد از واحدهای پردازش تنسور برای آموزش مدلهای AI که پایه و اساس پلتفرم هوش مصنوعی Apple Intelligence هستند، استفاده میکند. گوگل همچنین برای آموزش و اجرای چتبات جمینای خود به واحدهای پردازش تنسور متکی است.
«دانیل نیومن»، مدیرعامل گروه فیوچروم (Futurum)، درباره رقابت انویدیا و گوگل در زمینه آموزش AI اینچنین گفته است:
«در سراسر جهان نوعی باور اساسی وجود دارد که براساس آن همه مدلهای بزرگ زبان هوش مصنوعی روی انویدیا آموزش داده میشوند؛ بدون تردید انویدیا سهم بزرگی در آموزش AI دارد اما گوگل هم در این حوزه مسیر خود را انتخاب کرده و از زمان راهاندازی تراشههای ابری سفارشی گوگل در سال ۲۰۱۵، روی آنها کار کرده است.»
جایگاه گوگل در حوزه ساخت تراشه هوش مصنوعی سفارشی ابری
گوگل اولین ارائهدهنده خدمات ابری بود که تراشههای هوش مصنوعی سفارشی ساخت. 3 سال بعد، آمازون وبسرویس اولین تراشه هوش مصنوعی ابری خود، اینفرنتیا (Inferentia)، را معرفی کرد. اولین تراشه هوش مصنوعی سفارشی مایکروسافت، مایا (Maia)، تا پایان ۲۰۲۳ معرفی نشد.
اما پیشقدمی در حوزه تراشههای هوش مصنوعی به معنای تصاحب جایگاه برتر در رقابت کلی هوش مصنوعی مولد نبوده است. گوگل بهدلیل عرضه محصولات ناموفق با انتقاداتی مواجه شد و بهدنبال آن، جمینای بیش از یک سال پس از ChatGPT عرضه شد.
بااینحال گوگل کلود بهدلیل ارائه محصولاتش در حوزه AI شتاب گرفته است. شرکت مادر گوگل، آلفابت، گزارش داد درآمد بخش ابری این شرکت در آخرین سهماهه ۲۹ درصد افزایش یافته و اولین بار است که درآمدهای سهماهه از ۱۰ میلیارد دلار فراتر رفته است.
نیومن درمورد این موضوع گفته است:
«عصر ابر هوش مصنوعی کامل نحوه دیده شدن شرکتها را تغییر داده و این تمایز سیلیکونی (متمایز بودن در ساخت تراشهها) یا بهبیان دیگر، خود واحد پردازشی ممکن است یکی از مهمترین دلایلی باشد که باعث شده گوگل بهدلیل تواناییهای هوش مصنوعی خود از جایگاه سومین شرکت ارائهدهنده خدمات ابری همسطح 2 شرکت ابری دیگر شود و حتی موقعیتی فراتر به دست بیاورد.»
ژوئیه، CNBC اولین تور در آزمایشگاه تراشه گوگل را که با دوربین ضبط شده بود، برگزار و با رئیس بخش تراشههای ابری سفارشی، «امین وحدت»، مصاحبه کرد. او وقتی گوگل اولین بار با ایده ساخت تراشهها در سال ۲۰۱۴ سرگرم بود، در این شرکت حضور داشت.
وحدت در مصاحبهاش در این تور گفته است:
«همهچیز با آزمایش فکری ساده اما قدرتمندی شروع شد. تعدادی از مدیران شرکت این سؤال را مطرح کردند: اگر کاربران گوگل بخواهند فقط ۳۰ ثانیه در روز از طریق صدا با آن تعامل کنند، چه اتفاقی میافتد؟ چقدر قدرت محاسباتی نیاز داریم تا از کاربرانمان پشتیبانی کنیم؟»
در آن زمان طبق برآورد کارشناسان، گوگل باید تعداد کامپیوترهایش در مراکز داده را 2 برابر میکرد؛ بنابراین آنها بهدنبال راهحلی اساسی برای تأمین قدرت پردازشی موردنیاز گوگل بودند.
وحدت درباره این موضوع گفته است:
«ما متوجه شدیم میتوانیم بهجای سختافزار عمومی، سختافزار سفارشی بسازیم (دراینمورد واحدهای پردازش تنسور است.) تا از کاربران بهتر پشتیبانی کنیم؛ در واقع ۱۰۰ برابر کارآمدتر از پشتیبانی در سایر شرایط.»
مراکز داده گوگل هنوز به واحدهای پردازش مرکزی عمومی (CPU) و واحدهای پردازش گرافیکی انویدیا (GPU) متکی هستند. واحدهای پردازش تنسور گوگل نوع دیگری از تراشه به نام مدار مجتمع خاص برنامه (ASIC) محسوب میشوند که برای اهداف خاص سفارشیسازی شدهاند. TPU روی هوش مصنوعی متمرکز است. گوگل یک ASIC دیگر متمرکز بر ویدیو به نام واحد کدگذاری ویدیو (VCU) نیز ساخته است.
گوگل همچنین در رویکردی، درست مشابه استراتژی سیلیکون سفارشی اپل، تراشههای سفارشی برای دستگاههای خود میسازد، تراشه Tensor G4 نیروی محرکه پیکسل 9 جدید گوگل با قابلیت هوش مصنوعی و تراشه جدید A1 نیروی محرکه Pixel Buds Pro 2 است.
بااینحال، TPU گوگل را متمایز میکند؛ این واحد پردازشی در نوع خود اولین واحد پردازشی بود که سال ۲۰۱۵ عرضه شده بود. طبق گزارش گروه فیوچروم، واحدهای پردازش تنسور با ۵۸ درصد سهم بازار هنوز هم میان شتابدهندههای ابری سفارشی هوش مصنوعی، بیشترین سهم را به خود اختصاص دادهاند.
گوگل اصطلاح واحد پردازشی تنسور را براساس اصطلاح جبری «تنسور» ابداع کرده که به ضرب ماتریسهای بزرگمقیاس که برای اپلیکیشنهای هوش مصنوعی پیشرفته سریع اتفاق میافتد، اشاره دارد.
با عرضه دومین TPU در سال 2018، گوگل تمرکز را از استنتاج بهسمت آموزش مدلهای هوش مصنوعی سوق داد.
«استیسی راسگون»، تحلیلگر ارشد نیمههادیها در «برنستین ریسرچ»، دراینمورد گفت:
«پردازندههای گرافیکی برنامهپذیرتر و انعطافپذیرترند اما عرضه آنها محدود بوده است.»
شکوفایی هوش مصنوعی باعث شده ارزش سهام انویدیا بهشدت افزایش یابد. ارزش بازار این شرکت در ژوئن به ۳ تریلیون دلار رسید که از ارزش بازار آلفابت بیشتر بود. این درحالی است که گوگل برای کسب جایگاه ارزشمندترین شرکت جهان، با اپل و مایکروسافت رقابت میکرد.
نیومن دراینباره گفته است:
«اگر بخواهیم صادق باشیم، باید بگوییم این شتابدهندههای تخصصی هوش مصنوعی بهاندازه پلتفرم انویدیا انعطافپذیر یا قدرتمند نیستند و این همان چیزی است که بازار نیز منتظر دیدن آن است: آیا کسی میتواند در این فضا رقابت کند؟»
اکنون که میدانیم اپل از واحدهای پردازش تنسور گوگل برای آموزش مدلهای هوش مصنوعی خود استفاده میکند، باید بگوییم آزمون واقعی زمانی خواهد بود که این ویژگیهای هوش مصنوعی در سال آینده کامل روی دستگاههای آیفون و مک عرضه شوند.
همکاری گوگل با برادکام و TSMC
توسعه جایگزینهای مناسب برای موتورهای هوش مصنوعی انویدیا کار آسانی نیست. نسل ششم TPU گوگل، به نام تریلیوم (Trillium)، قرار است اواخر امسال عرضه شود.
راسگون درمورد این موضوع گفت:
«توسعه جایگزینهای مناسب برای موتورهای AI هزینهبر و دشوار است؛ کاری نیست که همه بتوانند انجام دهند اما این مراکز داده بزرگ توانایی، پول و منابع لازم برای پیشرفتن در این مسیر را دارند.»
این فرایند آنقدر پیچیده و پرهزینه است که حتی مراکز دادههای بزرگ نیز نمیتوانند بهتنهایی آن را انجام دهند. گوگل از زمان عرضه اولین TPU، با برادکام (Broadcom)، توسعهدهنده تراشه که به متا هم در طراحی تراشههای AI کمک میکند، همکاری کرده است. برداکام ادعا میکند برای این همکاریها بیش از ۳ میلیارد دلار هزینه کرده است.
راسگون دراینمورد گفته است:
«برادکام تمام کارهای جانبی را انجام میدهد. این شرکت وظیفه دریافت ورودیها و ارائه خروجیها، وظایف مدارهای فرستنده-گیرنده که دادههای موازی را به دادههای سریال و بالعکس تبدیل میکند و سایر فعالیتهای محاسباتی را انجام میدهد. برادکام وظایف ایجاد محافظ برای مدار را نیز برعهده دارد.»
در مرحله بعدی، طراحی نهایی برای تولید به کارخانهها ارسال میشود؛ این کارخانهها متعلق به بزرگترین شرکت تولیدکننده تراشههای جهان، TSMC، هستند که ۹۲ درصد پیشرفتهترین قطعات نیمههادی جهان را تولید میکند.
وقتی از وحدت پرسیده شد که آیا گوگل تدابیری برای محافظت در برابر بدترین اتفاقات در حوزه ژئوپلیتیک بین چین و تایوان اندیشده است یا نه، گفت: «قطعاً برای چنین اتفاقاتی آماده شدهایم و به آن فکر میکنیم اما امیدواریم نیازی به این اقدامات نباشد.»
محافظت در برابر این خطرات دلیل اصلی این است که کاخ سفید ۵۲ میلیارد دلار از بودجه قانون علم و تراشه (CHIPS Act) را به شرکتهای سازنده کارخانههای تولید تراشه در آمریکا تخصیص داده است. تاامروز اینتل، TSMC و سامسونگ بیشترین بودجهها را دریافت کردهاند.
آیا گوگل موفق خواهد شد؟
گوگل فارغ از تمام ریسکها، حرکت بزرگ دیگری در زمینه تراشهها انجام داده و اعلام کرده است اولین پردازنده این شرکت برای کاربردهای عمومی به نام آکسیون (Axion) تا پایان سال در دسترس خواهد بود.
گوگل دیر وارد رقابت CPU شده است. آمازون پردازنده گراویتون (Graviton) خود را سال ۲۰۱۸ و علیبابا تراشه سرور خود را ۲۰۲۱ عرضه کرد. مایکروسافت نیز نوامبر CPU خود را معرفی کرد.
وقتی از وحدت پرسیدند چرا گوگل برای ساخت CPU زودتر دستبهکار نشده، پاسخ داد:
«تمرکز ما بر حوزهای بوده است که میتوانیم بیشترین ارزش را برای مشتریان خود ارائه دهیم و کارمان را با TPU، واحدهای کدگذاری ویدیو و شبکههای شروع کردهایم. پس از عرضه این سختافزارها معتقد بودیم زمان عرضه پردازنده فرارسیده است.»
ساخت تمام این پردازندهها از شرکتهای غیرتراشهساز، ازجمله گوگل، با استفاده از معماری تراشه ARM امکانپذیر شده است؛ این معماری از نظر انرژی جایگزینی با امکان سفارشیسازی بیشتر و کارآمدتر محسوب میشود که نسبت به معماری سنتی x86 مورداستفاده اینتل و AMD بیشتر جلبتوجه کرده است. بهرهوری انرژی بسیار مهم است؛ زیرا پیشبینی میشود تا ۲۰۲۷ سرورهای هوش مصنوعی هر سال بهاندازه کشوری مانند آرژانتین برق مصرف کنند. گزارش محیط زیستی اخیر گوگل نشان داد انتشار گازهای گلخانهای از ۲۰۱۹ تا ۲۰۲۳ تقریباً ۵۰ درصد افزایش یافته که بخشی از آن بهدلیل رشد مراکز داده برای تأمین انرژی AI بوده است.
چنانچه تراشههای طراحیشده برای استفاده از هوش مصنوع کممصرف نبودند؛ این اعداد مرتبط با آسیبهای زیستمحیطی بسیار بیشتر از میزانهای ذکرشده بود؛ وحدت درمورد این موضوع گفته است:
«ما شبانهروز برای کاهش انتشار کربن ناشی از فعالیت زیرساختهایمان تلاش میکنیم و درحال به صفر رساندن انتشار آن هستیم.»
خنککردن سرورهای آموزشدهنده و اجراکننده AI نیازمند مقدار زیادی آب است؛ به همین دلیل، نسل سوم TPU گوگل شروع به استفاده از سیستم خنککننده مستقیم به تراشه (direct-to-chip cooling) کرده است که آب کمتری مصرف میکند. این روش که در آن مایع خنککننده مستقیم در اطراف پلیت تراشه حرکت میکند، روشی است که انویدیا برای خنککردن پردازندههای گرافیکی Blackwell استفاده میکند.
گوگل باوجود چالشهای فراوان، از ژئوپلیتیک گرفته تا برق و آب، همچنان به ارائه ابزارهای هوش مصنوعی مولد و ساخت تراشههای خود متعهد است
وحدت دراینباره گفته است:
«من هرگز نظیر عزم راسخ گوگل را ندیدهام؛ سرعت حرکت این شرکت هرگز کند نشده و قرار است سختافزار نقش بسیار مهمی در این عرصه ایفا کند.»
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.