Google, Gemini modellerinin en son versiyonunu piyasaya sürdükten yalnızca bir hafta sonra, bugün yeni bir hafif, açık ağırlıklı modeller ailesi olan Gemma’nın piyasaya sürüldüğünü duyurdu. Gemma 2B ve Gemma 7B’den başlayarak bu yeni modeller “Gemini’den ilham aldı” ve ticari ve araştırma amaçlı kullanıma sunuldu.
Google bize bu modellerin Meta ve Mistral’ın benzer modellerine göre nasıl performans gösterdiğine dair ayrıntılı bir makale sunmadı ve yalnızca bunların “en son teknoloji” olduklarını belirtti. Şirket, bunların, Gemini modelleri (ve daha önceki PaLM modelleri) için kullandığı mimarinin aynısı olan, yalnızca kod çözücü içeren yoğun modeller olduğunu ve kriterleri bugün ilerleyen saatlerde Hugging Face’in skor tablosunda göreceğimizi belirtti.
Geliştiriciler, Gemma’yı kullanmaya başlamak için kullanıma hazır Colab ve Kaggle dizüstü bilgisayarların yanı sıra Hugging Face, MaxText ve Nvidia NeMo ile entegrasyonlara da erişebilirler. Bu modeller, önceden eğitildikten ve ayarlandıktan sonra her yerde çalışabilir.
Google bunların açık modeller olduğunu vurgulasa da açık kaynak olmadıklarını belirtmekte fayda var. Gerçekten de Google’dan Janine Banks, bugünkü duyuru öncesinde düzenlediği basın toplantısında şirketin açık kaynağa olan bağlılığını vurguladı ancak aynı zamanda Google’ın Gemma modellerine nasıl atıfta bulunacağı konusunda oldukça bilinçli olduğunu da belirtti.
“[Open models] Banks, “şu anda sektörde oldukça yaygın hale geldi” dedi. “Ve bu genellikle geliştiricilerin ve araştırmacıların modelleri özelleştirmek ve ince ayar yapmak için geniş erişimin olduğu, ancak aynı zamanda kullanım koşullarının (yeniden dağıtım ve bu değişkenlerin sahipliği gibi) olduğu açık ağırlık modellerine atıfta bulunur. geliştirilmiştir — modelin kendine özgü kullanım şartlarına göre değişiklik gösterir. Dolayısıyla geleneksel olarak açık kaynak olarak adlandırdığımız modeller arasında bazı farklılıklar görüyoruz ve Gemma modellerimizi açık modeller olarak adlandırmanın en mantıklısı olduğuna karar verdik.”
Bu, geliştiricilerin modeli çıkarım yapmak ve istedikleri zaman ince ayar yapmak için kullanabileceği anlamına geliyor ve Google ekibi, bu model boyutlarının birçok kullanım durumu için iyi bir seçim olmasına rağmen bunu savunuyor.
Google DeepMind ürün yönetimi direktörü Tris Warkentin, “Nesil kalitesi geçen yıl önemli ölçüde arttı” dedi. “Daha önce son derece büyük modellerin görevi olan şeyler artık son teknolojiye sahip daha küçük modellerle mümkün. Bu, RTX GPU’nuzla yerel geliştirici masaüstünüzde veya dizüstü bilgisayarınızda veya Cloud TPU’larla GCP’deki tek bir ana bilgisayarda çıkarım yapabilme ve ayarlama yapabilme dahil, oldukça heyecan duyduğumuz yapay zeka uygulamaları geliştirmenin tamamen yeni yollarının kilidini açar. .”
Bu, Google’ın bu alandaki rakiplerinin açık modelleri için de geçerli, dolayısıyla Gemma modellerinin gerçek dünya senaryolarında nasıl performans gösterdiğini görmemiz gerekecek.
Yeni modellere ek olarak Google, bir hata ayıklama aracının yanı sıra “Gemma ile daha güvenli yapay zeka uygulamaları oluşturmak için rehberlik ve temel araçlar” sağlamak üzere yeni bir sorumlu üretken yapay zeka araç seti de yayınlıyor.
Kaynak: https://techcrunch.com/2024/02/21/google-launches-two-new-open-llms/
Web sitemizde ziyaretçilerimize daha iyi hizmet sağlayabilmek adına bazı çerezler kullanıyoruz. Web sitemizi kullanmaya devam ederseniz çerezleri kabul etmiş sayılırsınız.
Gizlilik Politikası