Sektör lideri yapay zeka kapsamına ilişkin en son güncellemeler ve özel içerik için günlük ve haftalık bültenlerimize katılın. Daha fazla bilgi edin
Bilgisayar bilimcilerden oluşan bir ekip, yapay zekanın yerleşik bilgiye güvenmek yerine araçları ne zaman kullanması gerektiğini anlamasına yardımcı olan ve insan uzmanların karmaşık sorunları nasıl çözdüğünü taklit eden bir yöntem geliştirdi.
Araştırmadan Kaliforniya Üniversitesi San Diego Ve Tsinghua Üniversitesi AI sistemleri, dahili bilgiyi harici araçlarla dengelemeyi öğrendiğinde doğrulukta %28’lik bir iyileşme gösterir; bu, yapay zekanın bilimsel çalışmalarda kullanılması için kritik bir yetenektir.
Bilim insanları yapay zekaya daha iyi kararlar almayı nasıl öğretti?
Araştırmacılar şöyle yazıyor: “LLM’leri araçlarla entegre etmek güvenilirliği artırabilirken, bu yaklaşım tipik olarak araçlara aşırı güvenmeye neden oluyor ve modelin basit sorunları temel akıl yürütme yoluyla çözme yeteneğini azaltıyor.” onların kağıtları. “Buna karşılık, insan uzmanlar, uygun bir çözüm yaklaşımını seçmeden önce öncelikle alan bilgisini kullanarak problemin karmaşıklığını değerlendirir.”
Yeni yöntem “Öğrenirken Uyum Sağlamak“, yapay zeka sistemlerini eğitmek için iki adımlı bir süreç kullanıyor. Birincisi, model doğrudan harici araçlar kullanılarak oluşturulan çözümlerden öğrenerek alan bilgisini içselleştirmesine yardımcı olur. Daha sonra sorunları “kolay” veya “zor” olarak sınıflandırmayı öğrenir ve araçları buna göre kullanıp kullanmayacağına karar verir.
Küçük yapay zeka modeli, karmaşık görevlerde daha büyük sistemlerden daha iyi performans gösterir
Bu gelişmeyi önemli kılan, verimliliği ön planda tutan yaklaşımıdır. Araştırmacılar, GPT-4 gibi sektör devlerinden çok daha küçük olan, yalnızca 8 milyar parametreli bir dil modeli kullanarak, test veri kümelerinde yanıt doğruluğunda %28,18’lik bir iyileşme ve araç kullanım hassasiyetinde %13,89’luk bir artış elde etti. Model, özel bilimsel görevlerde özel bir güç sergiledi ve belirli alanlarda daha büyük modellerden daha iyi performans gösterdi.
Bu başarı, yapay zeka gelişimindeki temel bir varsayıma meydan okuyor: Daha büyük modellerin mutlaka daha iyi sonuçlar vereceği varsayımı. Bunun yerine, araştırma, yapay zekaya araçları ne zaman kullanacağını ve iç bilgiye güvenmeyi öğretmenin (tıpkı genç bir bilim insanının hesaplamalarına ne zaman güveneceğini bilmesi ve özel ekipmanlara başvurması gerektiğini bilmesi için eğitilmesi gibi) ham hesaplama gücünden daha önemli olabileceğini öne sürüyor.
Daha küçük, daha akıllı yapay zeka modellerinin yükselişi
Bu araştırma, 2024’te daha verimli yapay zeka modellerine doğru daha geniş bir sektör değişimiyle uyumludur. Sarılma Yüz, Nvidia, OpenAI, Meta, AntropikVe H2O.ai hepsi bu yıl daha küçük ama oldukça yetenekli modeller piyasaya sürdü.
Sarılma Yüzü SmolLM2135 milyon parametre kadar küçük versiyonları olan , doğrudan akıllı telefonlarda çalışabiliyor. H2O.ai’nin kompakt yapısı doküman analiz modelleri özel görevlerde teknoloji devlerinin daha büyük sistemlerinden daha iyi performans gösterdi. OpenAI bile küçük model alanına girdi GPT-4o Minimaliyetin çok altında bir maliyetle benzer yetenekler sunuyor.
“Yapay zekanın küçültülmesine” yönelik bu eğilim, daha büyüğün her zaman daha iyi olmadığına dair artan farkındalığı yansıtıyor; uzmanlaşmış, verimli modeller, çok daha az hesaplama kaynağı kullanırken çoğu zaman daha büyük muadillerinin performansına ulaşabiliyor veya onları aşabiliyor.
Teknik yaklaşım iki farklı öğrenme aşamasını içerir. Eğitim sırasında model ilk olarak araştırmacıların “Dünya Bilgisi Damıtma” (WKD), burada harici araçlar kullanılarak oluşturulan çözümlerden öğrenir. Bu, şirket içi uzmanlık oluşturmasına yardımcı olur.
İkinci aşama “Takım Kullanım Uyarlaması” (TUA), sisteme sorunları doğrudan çözmede kendi güvenine ve doğruluğuna göre sınıflandırmayı öğretir. Daha basit problemler için WKD’deki yaklaşımın aynısını korur. Ancak daha zorlu problemler için harici araçları kullanmaya geçmeyi öğrenir.
İş etkisi: Karmaşık bilimsel çalışmalar için daha verimli yapay zeka sistemleri
Yapay zeka sistemlerini kullanan işletmeler için bu araştırma, sektörü uzun süredir rahatsız eden temel bir zorluğu ele alıyor. Mevcut yapay zeka sistemleri iki uç noktayı temsil ediyor: Ya sürekli olarak harici araçlara yöneliyorlar – hesaplama maliyetlerini artırıyor ve basit işlemleri yavaşlatıyorlar – ya da tehlikeli bir şekilde her şeyi dahili olarak çözmeye çalışarak özel araçlar gerektiren karmaşık problemlerde potansiyel hatalara yol açıyorlar.
Bu verimsizlik sadece teknik bir sorun değil, aynı zamanda önemli bir iş sorunudur. Yapay zeka çözümlerini uygulayan şirketler, yapay zekalarının dahili olarak halletmesi gereken temel görevler için bile, harici araçları çalıştırmak üzere bulut bilişim kaynaklarına sıklıkla yüksek fiyatlar öderken buluyorlar. Öte yandan, bağımsız yapay zeka sistemlerini tercih eden kuruluşlar, bu sistemler uygun doğrulama araçları olmadan karmaşık hesaplamalar yapmaya çalıştığında maliyetli hatalar riskiyle karşı karşıya kalır.
Araştırmacıların yaklaşımı umut verici bir orta yol sunuyor. Yapay zekaya araçların ne zaman kullanılacağı konusunda insan benzeri kararlar vermeyi öğreten kuruluşlar, doğruluğu korurken ve hatta geliştirirken potansiyel olarak hesaplama maliyetlerini azaltabilir. Bu, hem verimliliğin hem de kesinliğin çok önemli olduğu bilimsel araştırma, finansal modelleme veya tıbbi teşhis gibi alanlarda özellikle değerlidir.
Dahası, bu gelişme, yapay zeka sistemlerinin bilimsel çalışmalarda daha uygun maliyetli ve güvenilir ortaklar olabileceği, dış kaynaklardan ne zaman yararlanılacağı konusunda incelikli kararlar verebilen, tıpkı özel araçlara ne zaman başvurmak yerine ne zaman başvurması gerektiğini tam olarak bilen deneyimli bir profesyonel gibi olabileceği bir gelecek önermektedir. uzmanlıklarına bağlıdır.
Ne zaman yardım isteneceğini bilmenin gücü
Anlık teknik başarıların ötesinde, bu araştırma, yapay zeka gelişimine hakim olan daha büyük olan daha iyidir paradigmasına meydan okuyor. Ekip, nispeten küçük bir modelin, araç kullanımı konusunda daha akıllı kararlar alarak daha büyük kuzenlerinden daha iyi performans gösterebileceğini göstererek, yapay zeka için daha sürdürülebilir ve pratik bir geleceğe işaret ediyor.
Sonuçlar akademik araştırmanın çok ötesine uzanıyor. Yapay zeka, tıbbi teşhisten iklim modellemeye kadar hataların gerçek sonuçlar doğurduğu alanlara giderek daha fazla girdikçe, ne zaman yardım aranacağını bilme yeteneği hayati önem taşıyor. Bu çalışma, yapay zeka sistemlerinin sadece güçlü değil, aynı zamanda ihtiyatlı olacağı, yetenekli profesyoneller gibi sınırlarını da bilebileceği bir gelecek öneriyor.
Aslında araştırmacılar yapay zekaya temelde insani bir şey öğretti: Bazen en akıllı karar, ne zaman yardım isteneceğini bilmektir.
Kaynak: https://venturebeat.com/ai/uc-san-diego-tsinghua-university-researchers-just-made-ai-way-better-at-knowing-when-to-ask-for-help/