Sektör lideri yapay zeka kapsamına ilişkin en son güncellemeler ve özel içerik için günlük ve haftalık bültenlerimize katılın. Daha fazla bilgi edin
Microsoft bir OpenAI’nin büyük destekçisi ve ortağıancak bu, ikinci şirketin üretken yapay zeka oyunundan kaçmasına izin vermek istediği anlamına gelmiyor.
Bunun kanıtı olarak bugün Microsoft duyurdu Phi-3 küçük dil modeline ince ayar yapmanın yeni bir yolu geliştiricilerin kendi sunucularını yönetmelerine gerek kalmadan ve ücretsiz olarak (başlangıçta).
İnce ayar, bir yapay zeka modelinin uyarlanması sürecini ifade eder sistem istemleri aracılığıyla veya temel ağırlıklarını (parametrelerini) ayarlamak belirli kullanım durumları ve son kullanıcılar için farklı ve daha optimum şekillerde davranmasını sağlamak, hatta yeni özellikler eklemek.
Phi-3 nedir?
Şirket açıkladı Phi-3, 3 milyar parametreli bir model, Nisan ayında üçüncü taraf geliştiricilerin yeni uygulamalar ve yazılımlar oluşturmasına yönelik düşük maliyetli, kurumsal düzeyde bir seçenek olarak.
Diğer önde gelen dil modellerinin çoğundan önemli ölçüde daha küçük olmasına rağmen (Meta’nın Laması 3.1 örneğin, 405 milyar parametreli bir dizi gelir – parametreler, sinir ağının işlenmesini ve yanıtlarını yönlendiren “ayarlardır”), o dönemde VentureBeat’e sağlanan yorumlara göre Phi-3, OpenAI’nin GPT-3.5 modeli düzeyinde performans sergiledi. Microsoft üretken yapay zeka başkan yardımcısı Sébastien Bubeck tarafından.
Phi-3 özellikle kodlama, sağduyulu muhakeme ve genel bilgi konularında uygun fiyatlı performans sunmak üzere tasarlandı.
Artık kullanıcının tek bir girişte sağlayabileceği farklı sayıda parametreye ve bağlam uzunluklarına (belirteç miktarı veya verilerin sayısal temsilleri) sahip 6 ayrı modelden oluşan bütün bir aile; ikincisi 4.000 ila 128.000 arasında değişiyor – maliyetler değişiyor 1.000 giriş tokenı başına 0,0003 USD’den 0,0005 USD/1K giriş tokenına kadar.
Bununla birlikte, daha tipik “milyon başına” token fiyatlandırmasına bakıldığında, başlangıçta 1 milyon token başına 0,3 $/0,9 $ olduğu ortaya çıkıyor, OpenAI’nin yeni GPT-4o mini fiyatlandırmasının tam iki katı girdi için ve çıktı tokenları için yaklaşık 1,5 kat daha pahalı.
Phi-3, işletmelerin önyargıyı ve toksisiteyi azaltmak için korkuluklarla birlikte kullanması güvenli olacak şekilde tasarlanmıştır. İlk duyurulduğunda bile Microsoft’un Bubeck’i, belirli kurumsal kullanım durumları için ince ayar yapma yeteneğini desteklemişti.
Bize “Verilerinizi getirebilir, bu genel modele ince ayar yapabilir ve dar alanlarda muhteşem performans elde edebilirsiniz” dedi.
Ancak o noktada, ince ayar yapmak için sunucusuz bir seçenek yoktu: Eğer bunu yapmak istiyorsanız, kendi Microsoft Azure sunucunuzu kurmanız veya modeli indirip kendi yerel makinenizde çalıştırmanız gerekiyordu; yeterli alan.
Sunucusuz ince ayar yeni seçeneklerin kilidini açar
Ancak bugün Microsoft, “Hizmet Olarak Modeller (sunucusuz uç nokta)”nın genel kullanıma sunulduğunu duyurdu. Azure AI geliştirme platformu.
Ayrıca “Phi-3-small’ın artık sunucusuz bir uç nokta aracılığıyla kullanıma sunulduğunu, böylece geliştiricilerin temel altyapıyı yönetmeye gerek kalmadan hızlı ve kolay bir şekilde yapay zeka geliştirmeye başlayabileceğini” duyurdu.
Microsoft’un blog gönderisine göre, görüntü girişlerini yönetebilen Phi-3-vision “yakında sunucusuz bir uç nokta aracılığıyla da kullanıma sunulacak”.
Ancak bu modeller, Microsoft’un Azure AI geliştirme platformu aracılığıyla “olduğu gibi” kolayca kullanılabilir. Geliştiriciler bunların üzerine uygulamalar geliştirebilir ancak kendi kullanım durumlarına göre ayarlanmış modellerin kendi versiyonlarını oluşturamazlar.
Microsoft, bunu yapmak isteyen geliştiricilerin, kullanıcılarıyla daha alakalı yapay zeka deneyimleri oluşturmak için üçüncü taraf “verileriyle ince ayar yapılabilecek Phi-3-mini ve Phi-3-medium’a yönelmeleri gerektiğini söylüyor. Güvenli ve ekonomik bir şekilde.”
“Küçük bilgi işlem alanı, bulut ve uç uyumluluğu göz önüne alındığında Phi-3 modelleri, yeni bir beceri veya görev öğrenme (örn. ders verme) veya tutarlılığı ve kaliteyi artırma dahil olmak üzere çeşitli senaryolarda temel model performansını iyileştirmek için ince ayar yapmak için çok uygundur. yanıtın tonu veya tarzı (örneğin sohbet/Soru-Cevap yanıtlarının tonu veya tarzı),” diye yazıyor şirket.
Özellikle Microsoft, eğitim yazılımı şirketi Khan Academy’nin, Microsoft tarafından desteklenen Öğretmenler için Khanmigo’nun performansını kıyaslamak amacıyla zaten ince ayarlı bir Phi-3 kullandığını belirtiyor. Azure OpenAI Hizmeti.
Kurumsal yapay zeka geliştiricileri için yeni bir fiyat ve yetenek savaşı
Phi-3-mini-4k-instruct’un sunucusuz ince ayarının fiyatlandırması 1.000 token başına 0,004 dolardan başlıyor (1 milyon token başına 4 dolar), orta model için henüz bir fiyatlandırma listelenmedi.
Bu, Microsoft ekosisteminde kalmak isteyen geliştiriciler için açık bir kazanç olsa da, aynı zamanda Microsoft’un kendi müttefiki OpenAI’nin kurumsal yapay zeka geliştiricilerini yakalama çabalarına karşı da dikkate değer bir rakip.
Ve OpenAI birkaç gün önce GPT-4o mini’ye ücretsiz ince ayar yapılacağını duyurdu 23 Eylül’e kadar günde 2 milyona kadar jeton uygulama programlama arayüzünün (API) sözde “Kademe 4 ve 5” kullanıcılarıveya API kredilerine en az 250 ABD Doları veya 1000 ABD Doları harcayanlar.
Meta’nın açık kaynaklı Llama 3.1 ailesini ve Mistral’in her ikisi de farklı kullanımlar için ince ayar yapılabilen yeni Mistral Large 2 modelini piyasaya sürmesinin ardından, kurumsal gelişim için ilgi çekici yapay zeka seçenekleri sunma yarışının tam anlamıyla devam ettiği açık. swing – ve AI sağlayıcıları, hem küçük hem de büyük modellere sahip geliştiricilere kur yapıyor.
Kaynak: https://venturebeat.com/ai/microsoft-unveils-serverless-fine-tuning-for-its-phi-3-small-language-model/