Özel bir ağ oluşturma, içgörü ve sohbet gecesi için 27 Mart’ta Boston’daki liderlere katılın. Davet et Burada.
Dünyanın öğrencileri ve STEM araştırmacıları sevinirler! Özellikle matematikle mücadele ediyorsanız (benim gençliğimde yaptığım gibi ve hakkında yazdığım birçok insanla karşılaştırıldığında hala aynı durumdayım) veya sadece yeteneklerinizi güçlendirmek istiyorsanız, Microsoft arkanızdadır.
Dün öğleden sonra, Microsoft Research’te kıdemli araştırmacı ve Orca AI çalışmalarının lideri Arindam Mitra, X’te yayınlandı Fransız startup Mistral’ın Mistral 7B modelinin (kendisi de Meta’nın Llama 2’sinin bir çeşidi) yeni bir çeşidi olan Orca-Math’i duyuran bir konu; bu model, “matematik kelime problemlerinde” öne çıkarken, çıkarım olarak eğitmek ve çalıştırmak için küçük boyutunu koruyor. Bu, Microsoft Orca ekibinin daha küçük boyutlu LLM’lerin yeteneklerini güçlendirmeye yönelik daha büyük arayışının bir parçası.
Bu durumda, küçük boyutta yeni bir performans düzeyine ulaşmış görünüyorlar: 10 kat daha fazla performansa sahip modellerin performansını en üst düzeye çıkarmak parametreler (“ağırlıklar” ve “önyargılar” veya bir yapay zeka modeline eğitim aşamasında kelimeler, kavramlar, sayılar ve bu durumda matematiksel işlemler arasındaki “yapay nöron” bağlantılarını nasıl oluşturacağını söyleyen sayısal ayarlar).
Mitra, Orca Math’ın, Google’ın Gemini Ultra ve OpenAI’nin GPT-4’ü hariç olmak üzere, diğer 7-70 milyar parametre boyutlu AI büyük dil modellerinin (LLM’ler) ve varyantlarının çoğunu geride bıraktığını gösteren bir grafik kaydetti ve yayınladı. GSM8K orijinal olarak 8.500 farklı matematik kelime problemi ve sorusundan oluşan bir dizi kıyaslama OpenAI tarafından yayınlandı Her birinin çözülmesi 2-8 adım gerektiren ve insan yazarlar tarafından “zeki” bir orta okul çağındaki çocuğun (8. sınıfa kadar) çözebileceği şekilde tasarlananlar.
Orca-Math’in yalnızca 7 milyar parametreli bir model olduğu ve OpenAI ve Google’ın çok daha büyük parametreli modelleri olduğu varsayılan modellerin performansıyla rekabet ettiği ve neredeyse eşleştiği göz önüne alındığında, bu özellikle etkileyicidir. MetaMath (70B) ve Llemma (34B) gibi daha büyük parametreli modellerden kesinlikle daha iyidir.
Orca ekibi bunu nasıl başardı? Mitra, öğrenci yapay zeka temsilcileri ve öğretmen yapay zeka temsilcileri de dahil olmak üzere “birlikte çalışan uzman temsilciler” tarafından hazırlanan ve bunları yanıtlarında düzelten 200.000 kelimelik problemlerden oluşan yeni bir liste oluşturduklarını açıkladı. Bu sentetik veri seti, yeni GPT-4 eşleştirmesini veya yenmesini eğitmek için sentetik verileri kullanan Anthropic’in izinden gidiyor Claude 3 modeli Opusdün yayınlandı ve makine tarafından üretilen verilerin Yüksek Lisans’ların zekasını ve yeteneklerini artırmak için yararlı olduğunu gösteren giderek artan örnekler yığınına katkıda bulunuyor ve “model çöküşü.”
Ekip şunu kullandı: “Kahneman-Tversky Optimizasyonu” veya KTO yöntemi Geçen yılın sonlarında yeni kurulan Contextual AI tarafından oluşturuldu ve açık kaynaklı. Contextual’dan Kawin Ethayarajh, Winnie Xu ve Douwe Kiela’nın tanımladığı gibi Bir blog yazısında KTO:
“İktisatçılar Kahneman ve Tversky’nin insanın karar verme süreci üzerine çalışmalarını inceleyerek, ‘Çıktı A, girdi X için çıktı B’yi gölgede bırakır’ gibi tercihler gerektirmeyen bir hizalama yöntemi tasarladık. Bunun yerine, bir X girişi için, Y çıkışının istenip istenmediğini bilmemiz yeterlidir. Bu tür tekil geri bildirimler oldukça fazladır: her şirketin arzu edilir (örneğin, satış yapıldı) veya istenmeyen (örneğin, satış yapılmadı) olarak işaretlenebilecek müşteri etkileşimi verileri vardır.“
Mitra’ya göre ilginç bir şekilde, bu durumda KTO, Orca-Math modelinin matematik sorularına verdiği yanıtların doğruluğunu artırmak için daha geleneksel denetimli ince ayar tekniğiyle birlikte kullanıldı.
Ayrıca, Microsoft’taki Orca ekibi sentetiklerini yayınladı. Yapay zeka tarafından oluşturulan 200.000 kelimelik matematik problemleri seti Sarılma Yüzünde izin veren MIT lisansıticari kullanım için bile “herkesin keşfetmesine, inşa etmesine ve yenilik yapmasına” olanak tanıyor. Yani start-up’lar ve şirketler bundan yararlanabilir. Yaşasın!
Orijinal Orca 13B, Microsoft tarafından Haziran 2023’te piyasaya sürüldüAI öğretmeni olarak GPT-4’ü kullanan ikinci bir sürüm olan 13B ve 7B sürümlerinde Orca 2 kullanıldı. Kasım 2023’te yayınlandı, her ikisi de Meta’nın açık kaynak Llama 2 LLM’sine dayanmaktadır. Görünüşe göre Orca ailesi her birkaç ayda bir daha yeni, daha küçük (veya benzer büyüklükteki) üyelerle büyümeye ve daha akıllı olmaya devam ediyor.
VentureBeat’in misyonu teknik karar vericilerin dönüştürücü kurumsal teknoloji hakkında bilgi edinmeleri ve işlem yapmaları için dijital bir şehir meydanı olmaktır. Brifinglerimizi keşfedin.
Kaynak: https://venturebeat.com/ai/microsofts-new-orca-math-ai-outperforms-models-10x-larger/
Web sitemizde ziyaretçilerimize daha iyi hizmet sağlayabilmek adına bazı çerezler kullanıyoruz. Web sitemizi kullanmaya devam ederseniz çerezleri kabul etmiş sayılırsınız.
Gizlilik Politikası