در طول نزدیک به یک دهه گذشته، تراشههای گرافیکی انویدیا (NVIDIA) موتور اصلی انقلاب هوش مصنوعی بودهاند؛ قلب تپندهی تمام مدلهای زبانی بزرگ، سیستمهای پیشنهاددهنده و الگوریتمهای خودروهای خودران. اما اکنون، تحولی بزرگ در چشمانداز تراشههای هوش مصنوعی در حال وقوع است.
شرکتهایی که زمانی رشد انفجاری انویدیا را رقم زدند – گوگل، آمازون، مایکروسافت، متا و OpenAI – اکنون در حال طراحی تراشههای اختصاصی خود هستند. حرکتی که یادآور استراتژی اپل است: مالکیت کامل بر زنجیره فناوری، از سیلیکون تا نرمافزار. این اقدام تنها برای افزایش سرعت نیست، بلکه برای تغییر قوانین رقابت در عرصهی هوش مصنوعی انجام میشود.
در ادامه، نگاهی داریم به اینکه چگونه این غولهای نرمافزاری بهتدریج در حال تبدیل شدن به شرکتهای سختافزاری هستند؛ تغییری که به لطف رونق هوش مصنوعی مولد (GenAI) ممکن شده است.
۱. گوگل: تراشه Ironwood TPU
جدیدترین تراشهی اختصاصی گوگل با نام Ironwood TPU، هفتمین نسل از پردازندههای هوش مصنوعی این شرکت است و جاهطلبانهترین نسخه تاکنون محسوب میشود. این تراشه چهار برابر سریعتر از نسل قبلی است و قابلیت اتصال تا ۹,۲۱۶ تراشه را در قالب «ابرخوشهها» دارد.
هدف گوگل از این طراحی، تنها ثبت رکورد نیست؛ بلکه مقابله با تنگناهای آموزشی مدلهای توزیعشده است تا تأخیر و هزینههای ارتباطی بین تراشهها کاهش یابد.
Ironwood برای پردازش بارهای سنگین امروزی مانند مدلهای زبانی عظیم و سیستمهای چندوجهی (Multimodal AI) طراحی شده است. شرکت Anthropic نیز اعلام کرده قصد دارد تا یک میلیون تراشه TPU از این نوع را به کار گیرد؛ اقدامی که نشان میدهد گوگل قصد دارد اکوسیستم هوش مصنوعی خود را از TensorFlow تا Gemini بهصورت کاملاً یکپارچه نگه دارد.
۲. آمازون: Trainium و پروژه Rainier
آمازون نیز با جسارت وارد عرصه تراشههای هوش مصنوعی شده است. تحت برند Trainium، بخش خدمات ابری AWS تراشههای اختصاصی خود را برای آموزش و استنتاج مدلهای هوش مصنوعی توسعه داده است. جدیدترین نسخه، Trainium2، هستهی اصلی پروژهی عظیم Rainier را تشکیل میدهد – ابررایانهای با حدود ۵۰۰ هزار تراشهی اختصاصی.
اگرچه عملکرد Trainium2 هنوز به سطح برترین GPUهای انویدیا نرسیده است، اما تمرکز اصلی آن بر مقیاسپذیری پایدار و مقرونبهصرفه در محیط ابری آمازون است. به این ترتیب، مشتریان AWS میتوانند مدلهای خود را با هزینه کمتر و یکپارچگی بیشتر با سایر خدمات آمازون آموزش دهند، بدون پرداخت هزینههای بالای انویدیا.
آمازون هنوز در حال رفع برخی مشکلات پایداری و تأخیر است، اما مسیر آن روشن است: کاهش وابستگی به تأمینکنندگان خارجی و افزایش کنترل بر سختافزار داخلی.
۳. مایکروسافت: تراشههای Cobalt و Maia برای Azure
مایکروسافت نیز مدتهاست که بهطور بیسر و صدا روی تراشههای اختصاصی خود کار میکند. اکنون تراشههای Cobalt CPU و Maia AI در مراکز دادهی Azure فعال هستند و نهتنها بارهای کاری خود مایکروسافت، بلکه پروژههایی مانند OpenAI را نیز پشتیبانی میکنند.
در حالیکه گوگل و آمازون بر عملکرد تمرکز دارند، مایکروسافت بهدنبال بهرهوری بیشتر، هم در توان پردازش و هم در مصرف انرژی است. مهندسان این شرکت از فناوری خنکسازی میکروفلوئیدیک (Microfluidic Cooling) استفاده میکنند؛ سیستمی که مایع را مستقیماً بر سطح تراشهها به گردش درمیآورد تا دما را بهینه و مصرف انرژی را کاهش دهد.
با سرمایهگذاری چند ده میلیارد دلاری در زیرساختها، استراتژی تراشهای مایکروسافت بهدنبال آن است که رشد سریع سرویسهایی مانند Copilot را پایدار کند و در عین حال از کمبود عرضهی GPUها در بازار مصون بماند.
۴. متا: MTIA و Artemis برای متاورس هوش مصنوعی
متا نیز با وجود شهرتش در شبکههای اجتماعی، اکنون یکی از پیشرفتهترین بازیگران حوزه سختافزار هوش مصنوعی به شمار میرود. تراشههای اختصاصی Meta Training and Inference Accelerator (MTIA) که اکنون وارد نسل دوم خود شدهاند، برای بارهای سنگین داخلی متا مانند الگوریتمهای پیشنهاددهنده، مدلهای تولیدی و محیطهای سهبعدی متاورس بهینهسازی شدهاند.
پروژهی بعدی متا، با نام Artemis، قرار است بازده و کارایی را به سطحی بالاتر برساند. این شرکت اخیراً استارتاپ طراحی تراشه Rivos را نیز خریداری کرده تا مسیر توسعهی سیلیکون اختصاصی خود را تسریع کند.
هدف متا کاهش وابستگی به GPUهای گرانقیمت انویدیا و ساخت تراشههایی متناسب با نوع خاصی از هوش مصنوعی است که چندوجهی، اجتماعی و بلادرنگ عمل میکند. در آینده، این تراشهها میتوانند نقشی کلیدی در تحقق چشمانداز متا از هوش مصنوعی تجسمیافته (Embodied AI) ایفا کنند؛ همانطور که روزگاری فید خبری (News Feed) پایهگذار موفقیت متا بود.
۵. OpenAI: تراشه اختصاصی با همکاری Broadcom
در میان تمام رقبای جدید، OpenAI شاید جالبترین بازیگر باشد. این شرکت با Broadcom همکاری میکند تا تراشههای شتابدهندهی اختصاصی هوش مصنوعی طراحی کند – سختافزاری که بهصورت ویژه برای اجرای مدلهای OpenAI با بیشترین بازده انرژی ساخته میشود.
این تراشهها در سطح رک (Rack-Level) طراحی میشوند و پردازش، حافظه و شبکه را در یک واحد یکپارچه میسازند تا مراکز دادهای با رویکرد مدلمحور (Model-First) ایجاد شود، نه سختافزارمحور.
انتظار میرود استقرار این تراشهها پیش از سال ۲۰۲۶ آغاز نشود، اما پیامدهای آن بسیار گسترده است. برای OpenAI، این پروژه گامی در جهت استقلال کامل از نظر فنی و اقتصادی است. با توجه به هزینههای صدها میلیون دلاری آموزش مدلهایی مانند GPT، حتی افزایش چند درصدی در کارایی میتواند صرفهجویی عظیمی در پی داشته باشد. این اقدام، در واقع، معادل ساخت باتریهای اختصاصی توسط تسلا در صنعت خودرو است – حرکتی برای ایمنسازی آینده کسبوکار.
چرا رقابت در تراشههای هوش مصنوعی شدت گرفته است؟
الگوی مشترک کاملاً واضح است: غولهای فناوری دیگر نمیخواهند صرفاً مصرفکنندهی تراشههای هوش مصنوعی باشند، بلکه میخواهند مالک آنها باشند. همانطور که تراشههای سری M اپل به این شرکت کنترل کامل بر عملکرد و بازده دستگاههایش داد، شرکتهایی مانند گوگل، آمازون، مایکروسافت، متا و OpenAI نیز دریافتهاند که نوآوری نرمافزاری بدون کنترل بر سختافزار ممکن نیست.
انویدیا هنوز در رأس بازار قرار دارد، اما تاج پادشاهیاش اکنون در معرض چالشی جدی از سوی بزرگترین مشتریان خودش است.
source