Intel, Google, Microsoft, Meta ve diğer teknoloji devleri, veri merkezlerinde yapay zeka hızlandırıcı çiplerini birbirine bağlayan bileşenlerin geliştirilmesine rehberlik etmek için Ultra Hızlandırıcı Bağlantı (UALink) Promoter Grubu adında yeni bir endüstri grubu kuruyor.
Perşembe günü yapılan duyuruda, üyeleri arasında AMD (ancak Arm değil), Hewlett Packard Enterprise, Broadcom ve Cisco’nun da yer aldığı UALink Promoter Group’un, giderek artan sayıda sunucuda bulunan AI hızlandırıcı çiplerini bağlamak için yeni bir endüstri standardı önerdiği açıklandı. Geniş anlamda yapay zeka hızlandırıcıları, yapay zeka modellerinin eğitimini, ince ayarını ve çalışmasını hızlandırmak için GPU’lardan özel tasarlanmış çözümlere kadar uzanan çiplerdir.
“Sektörün, açık bir ortamda çok hızlı bir şekilde ileriye taşınabilecek açık bir standarda ihtiyacı var. [format] AMD’nin veri merkezi çözümleri genel müdürü Forrest Norrod, çarşamba günü gazetecilere verdiği bir brifingde, “Bu, birden fazla şirketin genel ekosisteme değer katmasına olanak tanıyor” dedi. “Sektörün, inovasyonun herhangi bir şirket tarafından sınırlandırılmadan hızlı bir şekilde ilerlemesine olanak tanıyan bir standarda ihtiyacı var.”
Önerilen standardın birinci versiyonu olan UALink 1.0, tek bir bilgi işlem “pod”unda 1.024’e kadar AI hızlandırıcıyı (yalnızca GPU’lar) bağlayacak. (Grup bir tanım yapar kapsül AMD’nin Infinity Fabric’i de dahil olmak üzere “açık standartları” temel alan UALink 1.0, AI hızlandırıcılara bağlı bellekler arasında doğrudan yüklemelere ve depolamalara izin verecek ve genel olarak hızı artırırken veri aktarımı gecikmesini de azaltır. UALink Promoter Group’a göre mevcut ara bağlantı özellikleri.
Grup, ileriye dönük UALink spesifikasyonunun gelişimini denetlemek için üçüncü çeyrekte UALink Konsorsiyumu adında bir konsorsiyum oluşturacağını söyledi. UALink 1.0, konsorsiyuma katılan şirketlere hemen hemen aynı zamanlarda sunulacak ve daha yüksek bant genişliğine sahip güncellenmiş bir spesifikasyon olan UALink 1.1, 2024’ün 4. çeyreğinde piyasaya sürülecek.
Norrod, ilk UALink ürünlerinin “önümüzdeki birkaç yıl içinde” piyasaya sürüleceğini söyledi.
Grubun üye listesinde göze çarpan bir şekilde, pazarın tahminen %80 ila %95’ini elinde bulunduran, yapay zeka hızlandırıcılarının açık ara en büyük üreticisi olan Nvidia yer almıyor. Nvidia bu hikaye için yorum yapmayı reddetti. Ancak çip üreticisinin neden heyecanla ağırlığını UALink’e vermediğini anlamak zor değil.
Birincisi, Nvidia, GPU’ları bir veri merkezi sunucusuna bağlamak için kendi özel ara bağlantı teknolojisini sunuyor. Şirket muhtemelen rakip teknolojilere dayalı bir spesifikasyonu destekleme konusunda pek istekli değil.
Ayrıca Nvidia’nın muazzam bir güç ve nüfuza sahip bir konumda çalıştığı gerçeği de var.
Nvidia’nın en son mali çeyreğinde (2025 yılının ilk çeyreği), şirketin yapay zeka çiplerinin satışlarını da içeren veri merkezi satışları, bir önceki çeyreğe göre %400’den fazla arttı. Nvidia mevcut gidişatını sürdürürse bu yıl Apple’ı geçerek dünyanın en değerli ikinci şirketi olacak.
Yani basitçe söylemek gerekirse, Nvidia istemiyorsa top oynamak zorunda değil.
UALink’e katkıda bulunmayan tek genel bulut devi Amazon Web Services’e (AWS) gelince, çeşitli şirket içi hızlandırıcı donanım çabalarını (kelime oyunu değil) ortadan kaldırırken “bekle ve gör” modunda olabilir. Ayrıca, bulut hizmetleri pazarındaki hakimiyeti nedeniyle AWS, müşterilerine sunduğu GPU’ların çoğunu sağlayan Nvidia’ya karşı çıkmayı pek de stratejik bir nokta olarak görmüyor olabilir.
AWS, TechCrunch’ın yorum talebine yanıt vermedi.
Aslına bakılırsa UALink’ten AMD ve Intel’in yanı sıra en büyük faydalanıcılar, bulutlarını güçlendirmek ve sürekli büyüyen yapay zeka modellerini eğitmek için Nvidia GPU’larına milyarlarca dolar harcayan Microsoft, Meta ve Google gibi görünüyor. Hepsi yapay zeka donanım ekosisteminde endişe verici derecede baskın gördükleri bir satıcıdan kendilerini ayırmanın yollarını arıyor.
Google’ın AI modellerini, TPU’ları ve Axion’u eğitmek ve çalıştırmak için özel çipleri vardır. Amazon’un bünyesinde birkaç AI çip ailesi var. Microsoft geçen yıl Maia ve Cobalt ile mücadeleye dahil oldu. Meta da kendi hızlandırıcı serisini geliştiriyor.
Bu arada Microsoft ve yakın işbirlikçisi OpenAI’nin, Cobalt ve Maia çiplerinin gelecekteki sürümleriyle donatılacak yapay zeka modellerini eğitmek için bir süper bilgisayara en az 100 milyar dolar harcamayı planladığı bildiriliyor. Bu çiplerin onları birbirine bağlayan bir şeye ihtiyacı olacak ve belki de bu UALink olacaktır.
Kaynak: https://techcrunch.com/2024/05/30/tech-giants-form-new-group-in-effort-to-wean-off-of-nvidia-hardware/