Nvidia’dan Jensen Huang, AI halüsinasyonlarının çözülebilir olduğunu, yapay genel zekanın 5 yıl uzakta olduğunu söylüyor

Genellikle “güçlü yapay zeka”, “tam yapay zeka”, “insan düzeyinde yapay zeka” veya “genel akıllı eylem” olarak anılan Yapay Genel Zeka (AGI), yapay zeka alanında geleceğe yönelik önemli bir sıçramayı temsil eder. Belirli görevler için (ürün kusurlarını tespit etmek, haberleri özetlemek veya size bir web sitesi oluşturmak gibi) özel olarak tasarlanan dar yapay zekanın aksine, AGI, insan seviyelerinin üzerinde veya üzerinde geniş bir yelpazedeki bilişsel görevleri gerçekleştirebilecektir. Bu hafta Nvidia’nın yıllık GTC geliştirici konferansında basına seslenen CEO Jensen Huang, konuyu tartışmaktan gerçekten sıkılmış gibi göründüğünü söylüyor; özellikle de kendisinden çok fazla yanlış alıntı yapıldığını fark etmesinden dolayı.

Sorunun sıklığı mantıklı: Konsept, makinelerin neredeyse her alanda insanlardan daha iyi düşünebileceği, daha iyi öğrenebileceği ve daha iyi performans gösterebileceği bir gelecekte insanlığın rolü ve kontrolü hakkında varoluşsal soruları gündeme getiriyor. Bu kaygının temelinde, AGI’nin karar verme süreçlerinin ve hedeflerinin tahmin edilemezliği yatmaktadır; bu, insani değerler ve önceliklerle (en azından 1940’lardan bu yana bilim kurguda derinlemesine araştırılan bir kavram) uyumlu olmayabilmektedir. YGZ belirli bir özerklik ve yetenek düzeyine ulaştığında, kontrol altına alınmasının veya kontrol edilmesinin imkansız hale gelebileceği ve bu durumun, eylemlerinin tahmin edilemeyeceği veya tersine çevrilemeyeceği senaryolara yol açabileceği yönünde endişeler var.

Sansasyonel basın bir zaman dilimi istediğinde, genellikle yapay zeka profesyonellerini insanlığın sonunun ya da en azından mevcut statükonun sonunun geldiğine dair bir zaman çizelgesi koymaya teşvik ediyor. Yapay Zeka CEO’larının bu konuyu ele almaya her zaman istekli olmadığını söylemeye gerek yok.

Ancak Huang basına ne düşündüğünü anlatmak için biraz zaman harcadı. yapmak konuyu düşünün. Huang, başarılı bir AGI’yi ne zaman göreceğimizi tahmin etmenin AGI’yi nasıl tanımladığınıza bağlı olduğunu savunuyor ve birkaç paralellik çiziyor: Zaman dilimlerinin karmaşıklığına rağmen, yeni yılın ne zaman olacağını ve 2025’in geleceğini bilirsiniz. Eğer arabanızla San Jose Kongre Merkezi’ne (bu yılki GTC konferansının düzenlendiği yer) gidiyorsanız, devasa GTC pankartlarını görebildiğiniz zaman geldiğinizi genellikle anlarsınız. Önemli olan, gitmeyi umduğunuz yere, ister zamansal ister coğrafi olarak, ulaştığınızı nasıl ölçeceğimiz konusunda anlaşabilmemizdir.

Huang, “AGI’yi çok spesifik bir şey olarak, bir yazılım programının çok iyi performans gösterebileceği veya çoğu insandan %8 daha iyi performans gösterebileceği bir dizi test olarak belirlersek, oraya 5 yıl içinde ulaşacağımıza inanıyorum” diye açıklıyor. Testlerin yasal baro sınavı, mantık testleri, ekonomik testler veya belki de tıp öncesi sınavını geçme yeteneği olabileceğini öne sürüyor. Soruyu soran kişi, AGI’nin soru bağlamında ne anlama geldiği konusunda çok spesifik olmadığı sürece bir tahminde bulunmaya istekli değildir. Haklısın.

AI halüsinasyonu çözülebilir

Salı günkü Soru-Cevap oturumunda Huang’a yapay zeka halüsinasyonları (bazı yapay zekaların şu şekilde cevap verme eğilimi) konusunda ne yapması gerektiği soruldu. ses akla yatkındır ancak gerçeğe dayanmamaktadır. Soru karşısında gözle görülür şekilde hayal kırıklığına uğramış görünüyordu ve cevapların iyi araştırıldığından emin olarak halüsinasyonların kolayca çözülebileceğini öne sürdü.

Huang, “Bir kural ekleyin: Her bir cevap için cevaba bakmalısınız” diyor ve bu uygulamaya “Geri getirmeyle artırılmış nesil” olarak atıfta bulunarak temel medya okuryazarlığına çok benzer bir yaklaşımı tanımlıyor: Kaynağı inceleyin ve bağlam. Kaynakta yer alan gerçekleri bilinen gerçeklerle karşılaştırın ve yanıt kısmen de olsa gerçeklere dayalı olarak yanlışsa, kaynağın tamamını atın ve bir sonrakine geçin. “Yapay zeka sadece yanıt vermemeli, önce araştırma yaparak yanıtlardan hangisinin en iyi olduğunu belirlemeli.”

Sağlık tavsiyesi veya benzeri gibi kritik yanıtlar için Nvidia’nın CEO’su, belki de birden fazla kaynağı ve bilinen gerçek kaynaklarını kontrol etmenin ileriye giden yol olabileceğini öne sürüyor. Elbette bu, bir yanıt oluşturan oluşturucunun ‘Sorunuzun yanıtını bilmiyorum’ veya ‘Soruya doğru yanıtın ne olduğu konusunda fikir birliğine varamıyorum’ deme seçeneğine sahip olması gerektiği anlamına gelir. bu soru şu, hatta ‘Hey, Superbowl henüz gerçekleşmedi, dolayısıyla kimin kazandığını bilmiyorum’ gibi bir soru.

Kaynak: https://techcrunch.com/2024/03/19/agi-and-hallucinations/