Özel bir ağ oluşturma, içgörü ve sohbet gecesi için 27 Mart’ta Boston’daki liderlere katılın. Davet et Burada.
Nvidia San Jose’de devam eden GTC konferansında bilgi işlemin sınırlarını zorlamak için elinden geleni yaptı.
Siyah deri bir ceket giyen CEO Jensen Huang, açılış konuşmasında dolu bir kalabalığa hitap etti (etkinlik bir konferanstan çok konsere benziyordu) ve uzun zamandır beklenen etkinliği duyurdu GB200 Grace Blackwell Süper ÇipiBüyük dil modeli (LLM) çıkarım iş yükleri için 30 kata kadar performans artışı vaat ediyor. Otomotiv sektöründe de dikkat çeken gelişmeleri paylaştı, robotik, tüm evren ve sağlık hizmetleri, interneti Nvidia’ya dair her şeyle dolduruyor.
Ancak GTC, endüstri ortaklıkları olmadan asla tamamlanmaz. Nvidia, yeni duyurduğu yapay zeka bilişim altyapısını, yazılımını ve hizmetlerini teknoloji yığınına taşıyarak çalışmalarını çeşitli endüstri devleriyle nasıl geliştirdiğini paylaştı. Aşağıda önemli ortaklıkların bir özeti bulunmaktadır.
Nvidia dedi AWS EC2 bulut sunucularında 72 Blackwell GPU ve 36 Grace CPU’lu GB200 NVL72 içeren yeni Blackwell platformunu sunacak. Bu, müşterilerin multi trilyon parametreli LLM’ler üzerinde gerçek zamanlı çıkarımları daha hızlı, çok büyük bir ölçekte ve önceki nesil Nvidia GPU’lara göre daha düşük bir maliyetle oluşturmasına ve çalıştırmasına olanak tanıyacak. Şirketler ayrıca 20.736 GB200 süper çipini de Türkiye’ye getireceklerini duyurdu. Ceiba Projesi – özel olarak AWS üzerinde oluşturulmuş bir yapay zeka süper bilgisayarı – ve Amazon SageMaker entegrasyonunu entegre etmek için ekip halinde çalışıyor Nvidia NIM çıkarımı mikro hizmetler.
Amazon gibi, Google ayrıca Nvidia’nın Grace Blackwell platformunu ve NIM mikro hizmetlerini bulut altyapısına getireceğini duyurdu. Şirket ayrıca, Nvidia H100 GPU’lara yüksek performanslı LLM eğitimi için Python’a özgü bir çerçeve olan JAX için destek eklediğini ve bu desteğin dağıtımını kolaylaştırdığını söyledi. Nvidia NeMo çerçevesini Google Kubernetes Engine (GKE) ve Google Cloud HPC araç seti aracılığıyla platformu genelinde kullanıyor.
Ayrıca Vertex AI artık NVIDIA H100 GPU’lar tarafından desteklenen Google Cloud A3 VM’leri ve NVIDIA L4 Tensor Core GPU’lar tarafından desteklenen G2 VM’leri destekleyecek.
Microsoft ayrıca NIM mikro hizmetlerini ve Grace Blackwell’i Azure’a ekleme planını da doğruladı. Ancak süper çip ortaklığı aynı zamanda Nvidia’nın yeni Quantum-X800 InfiniBand ağ platformunu da içeriyor. Satya Nadella liderliğindeki şirket ayrıca, özel yapay zeka modeli geliştirmeyi kolaylaştırmak ve Azure Power platformunda yeni başlatılan Omniverse Bulut API’lerinin kullanılabilirliğini kolaylaştırmak için DGX Cloud’un Microsoft Fabric ile yerel entegrasyonunu da duyurdu.
Sağlık alanında Microsoft, Azure’un sağlık hizmeti sağlayıcılarının, ilaç ve biyoteknoloji şirketlerinin ve tıbbi cihaz geliştiricilerinin klinik araştırma ve bakım sunumunda hızlı bir şekilde yenilik yapmasına yardımcı olmak için Nvidia’nın Clara mikro hizmet paketini ve DGX Cloud’u kullanacağını söyledi.
Kahin OCI Supercluster ve OCI Compute örneklerinde Grace Blackwell bilgi işlem platformundan yararlanmayı planladığını, ikincisinin hem Nvidia GB200 süper çipini hem de B200 Tensor Core GPU’yu benimsemeyi planladığını söyledi. Ayrıca OCI’de Nvidia DGX Cloud’da da gelecek.
Bunun ötesinde Oracle, Nvidia NIM ve CUDA-X mikro hizmetlerinin de dahil olduğunu söyledi. NeMo Avcısı RAG çıkarım dağıtımları için, OCI müşterilerinin üretken yapay zeka uygulamalarına daha fazla bilgi ve doğruluk getirmesine de yardımcı olacak.
SAP’nin entegre etmek için Nvidia ile çalışıyor üretken yapay zekayı bulut çözümlerine dahil ediyorSAP Datasphere, SAP Business Technology Platform ve RISE with SAP’nin en son sürümü dahil. Şirket ayrıca, Nvidia’nın DGX Bulut Yapay Zeka süper hesaplaması, Nvidia Yapay Zeka Kurumsal yazılımı ve NVIDIA Yapay Zeka Vakfı modellerini içeren üretken Yapay Zeka dökümhane hizmetini kullanarak SAP BTP içinde ek üretken Yapay Zeka yetenekleri oluşturmayı planladığını da söyledi.
Müşterilerin karmaşık iş zorluklarını çözmelerine yardımcı olmak için, IBM’in Consulting, teknoloji ve endüstri uzmanlığını, yeni NIM mikro hizmetleri ve Omniverse teknolojileri de dahil olmak üzere Nvidia’nın AI Enterprise yazılım yığınıyla birleştirmeyi planlıyor. IBM, bunun müşterilerin yapay zeka iş akışlarını hızlandıracağını, kullanım durumundan modele optimizasyonu geliştireceğini ve iş ve sektöre özel yapay zeka kullanım senaryolarını geliştireceğini söylüyor. Şirket halihazırda Isaac Sim ve Omniverse’i kullanarak tedarik zinciri ve üretim için dijital ikiz uygulamaları geliştiriyor ve sunuyor.
Veri bulutu şirketi kar tanesi NeMo Retriever ile entegre olmak için Nvidia ile önceden duyurduğu ortaklığını genişletti. Üretken yapay zeka mikro hizmeti, özel LLM’leri kurumsal verilere bağlar ve şirketin müşterilerinin Snowflake Cortex ile oluşturulan sohbet robotu uygulamalarının performansını ve ölçeklenebilirliğini geliştirmesine olanak tanır. İşbirliği aynı zamanda derin öğrenme çıkarım uygulamaları için düşük gecikme ve yüksek verim sağlayan Nvidia TensorRT yazılımını da içeriyor.
Snowflake dışında veri platformu sağlayıcıları Box, Dataloop, Cloudera, Cohesity, Datastax ve NetApp da müşterilerin RAG işlem hatlarını optimize etmelerine ve özel verilerini üretken yapay zekaya entegre etmelerine yardımcı olmak için tamamen yeni NIM teknolojisi de dahil olmak üzere Nvidia mikro hizmetlerini kullanmayı planladıklarını duyurdu. uygulamalar.
Nvidia GTC 2024, 18 Mart’tan 21 Mart’a kadar San Jose’de ve çevrimiçi olarak gerçekleştirilecek.
Kaynak: https://venturebeat.com/ai/google-to-ibm-how-big-tech-giants-are-embracing-nvidias-new-hardware-and-software-services/
Web sitemizde ziyaretçilerimize daha iyi hizmet sağlayabilmek adına bazı çerezler kullanıyoruz. Web sitemizi kullanmaya devam ederseniz çerezleri kabul etmiş sayılırsınız.
Gizlilik Politikası