10 Nisan’da Atlanta’da bize katılın ve güvenlik iş gücü ortamını keşfedin. Güvenlik ekipleri için yapay zekanın vizyonunu, faydalarını ve kullanım örneklerini inceleyeceğiz. Davet et Burada.
Yapay zeka çip üreticisi SambaNova Systems, duyuruldu Samba-CoE v0.2 Büyük Dil Modeli (LLM) ile önemli bir başarı.
Saniyede 330 jeton gibi etkileyici bir hızla çalışan bu model, rakiplerin birçok önemli modelinden daha iyi performans gösteriyor. Databricks’ten yepyeni DBRX daha dün yayınlandı, MistralAI’nin Mixtral-8x7B’si, Ve Elon Musk’un xAI’sinden Grok-1diğerleri arasında.
Bu başarıyı özellikle dikkate değer kılan şey, modelin verimliliğidir; bu hızlara hassasiyetten ödün vermeden ulaşıyor ve çalışması için yalnızca 8 soket gerektiriyor.
Gerçekten de Yüksek Lisans testlerimizde girdilerimize göz kamaştırıcı derecede hızlı yanıtlar üretti; Samanyolu galaksisi hakkında 425 kelimelik bir yanıt için 330,42 saniyede hızlandı.
Kuantum hesaplamayla ilgili bir soru, bir saniyede teslim edilen 332,56 token gibi devasa bir rakamla benzer şekilde sağlam ve hızlı bir yanıt verdi.
Bu, 576 soket gerektirebilecek ve daha düşük bit hızlarında çalışabilecek konfigürasyonlara daha verimli bir alternatif olarak sunulmaktadır.
Verimlilik ilerlemeleri
SambaNova’nın yüksek bit hızlarını korurken daha az sayıda yuva kullanmaya verdiği önem, bilgi işlem verimliliğinde ve model performansında önemli bir ilerleme olduğunu gösteriyor.
Aynı zamanda LeptonAI ile ortaklaşa Samba-CoE v0.3’ün yakında piyasaya sürüleceğinin tanıtımını yapıyor ve bu da devam eden ilerleme ve yeniliğe işaret ediyor.
Ayrıca SambaNova Systems, bu ilerlemelerin temelinin, birleştirme ve model birleştirme konusunda benzersiz bir yaklaşım kullanan Samba-1 ve Sambaverse’nin açık kaynaklı modelleri üzerine inşa edildiğinin altını çiziyor.
Bu metodoloji yalnızca mevcut sürümü desteklemekle kalmıyor, aynı zamanda gelecekteki gelişmelere yönelik ölçeklenebilir ve yenilikçi bir yaklaşım da öneriyor.
GoogleAI’nin Gemma-7B’si, MistralAI’nin Mixtral-8x7B’si, Meta’nın llama2-70B’si, Alibaba Group’un Qwen-72B’si, TIIuae’nin Falcon-180B’si ve BigScience’ın BLOOM-176B’si gibi diğer modellerle karşılaştırma, Samba-CoE v0.2’nin bu alandaki rekabet üstünlüğünü ortaya koyuyor .
Bu duyurunun yapay zeka ve makine öğrenimi topluluklarında ilgi uyandırması ve verimlilik, performans ve yapay zeka modeli geliştirmenin geleceği hakkındaki tartışmaları tetiklemesi bekleniyor.
SambaNova’nın Arka Planı
SambaNova Systems, 2017 yılında Palo Alto, Kaliforniya’da üç kurucu ortak tarafından kuruldu: Kunle Olukotun, Rodrigo Liang ve Christopher Re.
Başlangıçta özel yapay zeka donanım çiplerinin oluşturulmasına odaklanan SambaNova’nın tutkusu hızla genişledi ve makine öğrenimi hizmetleri ile kapsamlı bir kurumsal yapay zeka eğitimi, geliştirmesi ve dağıtımı dahil olmak üzere daha geniş bir teklif paketini kapsayacak şekilde genişledi. platformu olarak bilinir SambaNova Süit 2023’ün başlarında ve bu yılın başlarında, 50 daha küçük modelden oluşan 1 trilyon parametreli yapay zeka modeli Samba-1, “Uzmanların Oluşumu.”
Donanım merkezli bir start-up’tan tam hizmet veren bir yapay zeka yenilikçisine doğru olan bu evrim, kurucuların ölçeklenebilir, erişilebilir yapay zeka teknolojilerini etkinleştirme konusundaki kararlılığını yansıtıyordu.
SambaNova, rekabetçi yapay zeka endüstrisinde kendine yer edinirken, kendisini Nvidia gibi köklü devlere karşı zorlu bir rakip olarak konumlandırdı. 5 milyar doların üzerinde değerlemeyle 676 milyon dolarlık D Serisi’ni topladı 2021’de.
Bugün şirket, diğer özel AI çip girişimleri ile rekabet ediyor. Grok Nvidia gibi güçlülere ek olarak.
Kaynak: https://venturebeat.com/ai/sambanova-announces-new-ai-samba-coe-v0-2-that-already-beats-databricks-dbrx/