در طول نزدیک به یک دهه گذشته، تراشه‌های گرافیکی انویدیا (NVIDIA) موتور اصلی انقلاب هوش مصنوعی بوده‌اند؛ قلب تپنده‌ی تمام مدل‌های زبانی بزرگ، سیستم‌های پیشنهاددهنده و الگوریتم‌های خودروهای خودران. اما اکنون، تحولی بزرگ در چشم‌انداز تراشه‌های هوش مصنوعی در حال وقوع است.

شرکت‌هایی که زمانی رشد انفجاری انویدیا را رقم زدند – گوگل، آمازون، مایکروسافت، متا و OpenAI – اکنون در حال طراحی تراشه‌های اختصاصی خود هستند. حرکتی که یادآور استراتژی اپل است: مالکیت کامل بر زنجیره فناوری، از سیلیکون تا نرم‌افزار. این اقدام تنها برای افزایش سرعت نیست، بلکه برای تغییر قوانین رقابت در عرصه‌ی هوش مصنوعی انجام می‌شود.

در ادامه، نگاهی داریم به اینکه چگونه این غول‌های نرم‌افزاری به‌تدریج در حال تبدیل شدن به شرکت‌های سخت‌افزاری هستند؛ تغییری که به لطف رونق هوش مصنوعی مولد (GenAI) ممکن شده است.


۱. گوگل: تراشه Ironwood TPU

جدیدترین تراشه‌ی اختصاصی گوگل با نام Ironwood TPU، هفتمین نسل از پردازنده‌های هوش مصنوعی این شرکت است و جاه‌طلبانه‌ترین نسخه تاکنون محسوب می‌شود. این تراشه چهار برابر سریع‌تر از نسل قبلی است و قابلیت اتصال تا ۹,۲۱۶ تراشه را در قالب «ابرخوشه‌ها» دارد.

هدف گوگل از این طراحی، تنها ثبت رکورد نیست؛ بلکه مقابله با تنگناهای آموزشی مدل‌های توزیع‌شده است تا تأخیر و هزینه‌های ارتباطی بین تراشه‌ها کاهش یابد.

Ironwood برای پردازش بارهای سنگین امروزی مانند مدل‌های زبانی عظیم و سیستم‌های چندوجهی (Multimodal AI) طراحی شده است. شرکت Anthropic نیز اعلام کرده قصد دارد تا یک میلیون تراشه TPU از این نوع را به کار گیرد؛ اقدامی که نشان می‌دهد گوگل قصد دارد اکوسیستم هوش مصنوعی خود را از TensorFlow تا Gemini به‌صورت کاملاً یکپارچه نگه دارد.


۲. آمازون: Trainium و پروژه Rainier

آمازون نیز با جسارت وارد عرصه تراشه‌های هوش مصنوعی شده است. تحت برند Trainium، بخش خدمات ابری AWS تراشه‌های اختصاصی خود را برای آموزش و استنتاج مدل‌های هوش مصنوعی توسعه داده است. جدیدترین نسخه، Trainium2، هسته‌ی اصلی پروژه‌ی عظیم Rainier را تشکیل می‌دهد – ابررایانه‌ای با حدود ۵۰۰ هزار تراشه‌ی اختصاصی.

اگرچه عملکرد Trainium2 هنوز به سطح برترین GPUهای انویدیا نرسیده است، اما تمرکز اصلی آن بر مقیاس‌پذیری پایدار و مقرون‌به‌صرفه در محیط ابری آمازون است. به این ترتیب، مشتریان AWS می‌توانند مدل‌های خود را با هزینه کمتر و یکپارچگی بیشتر با سایر خدمات آمازون آموزش دهند، بدون پرداخت هزینه‌های بالای انویدیا.

آمازون هنوز در حال رفع برخی مشکلات پایداری و تأخیر است، اما مسیر آن روشن است: کاهش وابستگی به تأمین‌کنندگان خارجی و افزایش کنترل بر سخت‌افزار داخلی.


۳. مایکروسافت: تراشه‌های Cobalt و Maia برای Azure

مایکروسافت نیز مدت‌هاست که به‌طور بی‌سر و صدا روی تراشه‌های اختصاصی خود کار می‌کند. اکنون تراشه‌های Cobalt CPU و Maia AI در مراکز داده‌ی Azure فعال هستند و نه‌تنها بارهای کاری خود مایکروسافت، بلکه پروژه‌هایی مانند OpenAI را نیز پشتیبانی می‌کنند.

در حالی‌که گوگل و آمازون بر عملکرد تمرکز دارند، مایکروسافت به‌دنبال بهره‌وری بیشتر، هم در توان پردازش و هم در مصرف انرژی است. مهندسان این شرکت از فناوری خنک‌سازی میکروفلوئیدیک (Microfluidic Cooling) استفاده می‌کنند؛ سیستمی که مایع را مستقیماً بر سطح تراشه‌ها به گردش درمی‌آورد تا دما را بهینه و مصرف انرژی را کاهش دهد.

با سرمایه‌گذاری چند ده میلیارد دلاری در زیرساخت‌ها، استراتژی تراشه‌ای مایکروسافت به‌دنبال آن است که رشد سریع سرویس‌هایی مانند Copilot را پایدار کند و در عین حال از کمبود عرضه‌ی GPUها در بازار مصون بماند.


۴. متا: MTIA و Artemis برای متاورس هوش مصنوعی

متا نیز با وجود شهرتش در شبکه‌های اجتماعی، اکنون یکی از پیشرفته‌ترین بازیگران حوزه سخت‌افزار هوش مصنوعی به شمار می‌رود. تراشه‌های اختصاصی Meta Training and Inference Accelerator (MTIA) که اکنون وارد نسل دوم خود شده‌اند، برای بارهای سنگین داخلی متا مانند الگوریتم‌های پیشنهاددهنده، مدل‌های تولیدی و محیط‌های سه‌بعدی متاورس بهینه‌سازی شده‌اند.

پروژه‌ی بعدی متا، با نام Artemis، قرار است بازده و کارایی را به سطحی بالاتر برساند. این شرکت اخیراً استارتاپ طراحی تراشه Rivos را نیز خریداری کرده تا مسیر توسعه‌ی سیلیکون اختصاصی خود را تسریع کند.

هدف متا کاهش وابستگی به GPUهای گران‌قیمت انویدیا و ساخت تراشه‌هایی متناسب با نوع خاصی از هوش مصنوعی است که چندوجهی، اجتماعی و بلادرنگ عمل می‌کند. در آینده، این تراشه‌ها می‌توانند نقشی کلیدی در تحقق چشم‌انداز متا از هوش مصنوعی تجسم‌یافته (Embodied AI) ایفا کنند؛ همان‌طور که روزگاری فید خبری (News Feed) پایه‌گذار موفقیت متا بود.


۵. OpenAI: تراشه اختصاصی با همکاری Broadcom

در میان تمام رقبای جدید، OpenAI شاید جالب‌ترین بازیگر باشد. این شرکت با Broadcom همکاری می‌کند تا تراشه‌های شتاب‌دهنده‌ی اختصاصی هوش مصنوعی طراحی کند – سخت‌افزاری که به‌صورت ویژه برای اجرای مدل‌های OpenAI با بیشترین بازده انرژی ساخته می‌شود.

این تراشه‌ها در سطح رک (Rack-Level) طراحی می‌شوند و پردازش، حافظه و شبکه را در یک واحد یکپارچه می‌سازند تا مراکز داده‌ای با رویکرد مدل‌محور (Model-First) ایجاد شود، نه سخت‌افزارمحور.

انتظار می‌رود استقرار این تراشه‌ها پیش از سال ۲۰۲۶ آغاز نشود، اما پیامدهای آن بسیار گسترده است. برای OpenAI، این پروژه گامی در جهت استقلال کامل از نظر فنی و اقتصادی است. با توجه به هزینه‌های صدها میلیون دلاری آموزش مدل‌هایی مانند GPT، حتی افزایش چند درصدی در کارایی می‌تواند صرفه‌جویی عظیمی در پی داشته باشد. این اقدام، در واقع، معادل ساخت باتری‌های اختصاصی توسط تسلا در صنعت خودرو است – حرکتی برای ایمن‌سازی آینده کسب‌وکار.


چرا رقابت در تراشه‌های هوش مصنوعی شدت گرفته است؟

الگوی مشترک کاملاً واضح است: غول‌های فناوری دیگر نمی‌خواهند صرفاً مصرف‌کننده‌ی تراشه‌های هوش مصنوعی باشند، بلکه می‌خواهند مالک آن‌ها باشند. همان‌طور که تراشه‌های سری M اپل به این شرکت کنترل کامل بر عملکرد و بازده دستگاه‌هایش داد، شرکت‌هایی مانند گوگل، آمازون، مایکروسافت، متا و OpenAI نیز دریافته‌اند که نوآوری نرم‌افزاری بدون کنترل بر سخت‌افزار ممکن نیست.

انویدیا هنوز در رأس بازار قرار دارد، اما تاج پادشاهی‌اش اکنون در معرض چالشی جدی از سوی بزرگ‌ترین مشتریان خودش است.

source

توسط wikiche.com