Google’ın amiral gemisi GenAI modeli Gemini’den yaklaşan ABD başkanlık seçimleri hakkında yanıltıcı içerik yazmasını isterseniz, doğru yönlendirme yapıldığında bunu yapacaktır. Gelecekteki bir Super Bowl oyununu sorun, o da oyun bazında bir oyun icat etsin. Veya Titan’ın denizaltı patlaması hakkında soru sorarsanız, inandırıcı görünen ancak gerçek dışı alıntılarla tamamlanan dezenformasyona hizmet edecektir.
Bunun Google için kötü bir görünüm olduğunu söylemeye gerek bile yok – ve GenAI araçlarının dezenformasyon ve genel olarak yanıltma amacıyla kullanılmasının kolaylığından duydukları hoşnutsuzluğun sinyalini veren politika yapıcıların öfkesini kışkırtıyor.
Buna yanıt olarak, geçen mali çeyreğe göre binlerce iş hafifleyen Google, yatırımlarını yapay zeka güvenliğine yönlendiriyor. En azından resmi hikaye bu.
Bu sabah, Gemini’nin ve Google’ın birçok yeni GenAI projesinin ardındaki AI Ar-Ge bölümü olan Google DeepMind, AI güvenliği üzerinde çalışan mevcut ekiplerden oluşan ve aynı zamanda yeni, GenAI araştırmacıları ve mühendislerinden oluşan uzman gruplar.
DeepMind’ın sitesindeki iş listelerinin ötesinde Google, yeni organizasyonun kurulması sonucunda kaç kişinin işe alınacağını söylemedi. Ancak AI Güvenlik ve Hizalamanın, yapay genel zeka (AGI) veya bir insanın yapabileceği herhangi bir görevi yerine getirebilecek varsayımsal sistemler etrafında güvenliğe odaklanan yeni bir ekibi içereceğini ortaya çıkardı.
Geçtiğimiz Temmuz ayında kurulan Superalignment bölümü rakibi OpenAI’ye benzer bir misyona sahip olan AI Safety and Alignment bünyesindeki yeni ekip, DeepMind’in Londra’daki mevcut AI güvenlik merkezli araştırma ekibi Scalable Alignment ile birlikte çalışacak; bu ekip aynı zamanda kontrolün teknik zorluklarına çözümler arıyor. henüz gerçekleştirilmemiş süper akıllı yapay zeka.
Neden iki grup aynı problem üzerinde çalışıyor? Geçerli bir soru ve Google’ın bu noktada çok fazla ayrıntı açıklama konusundaki isteksizliği göz önüne alındığında spekülasyon gerektiren bir soru. Ancak şirketin AI rakiplerine ayak uydurmak için agresif bir şekilde hareket ettiği ve bir yandan sorumlu bir proje oluşturmaya çalıştığı bir zamanda, yeni ekibin – Yapay Zeka Güvenliği ve Hizalama ekibinin – göletin karşısı yerine eyalet tarafında, Google Genel Merkezi’nin yakınında olması dikkate değer görünüyor. Yapay zekaya ölçülü bir yaklaşım.
AI Güvenlik ve Hizalama kuruluşunun diğer ekipleri, somut koruma önlemlerinin geliştirilmesinden ve Google’ın mevcut ve geliştirilmekte olan Gemini modellerine dahil edilmesinden sorumludur. Güvenlik geniş bir kapsama alanıdır. Ancak örgütün yakın vadedeki odak noktalarından bazıları kötü tıbbi tavsiyelerin önlenmesi, çocukların güvenliğinin sağlanması ve “önyargıların ve diğer adaletsizliklerin artmasının önlenmesi” olacak.
Eskiden Waymo kadrolu araştırma bilimcisi ve UC Berkeley bilgisayar bilimi profesörü olan Anca Dragan ekibe liderlik edecek.
“İşimiz [at the AI Safety and Alignment organization] Dragan, TechCrunch’a e-posta yoluyla şunları söyledi: “modellerin insan tercihlerini ve değerlerini daha iyi ve daha sağlam bir şekilde anlamalarını sağlamayı hedefliyoruz,” “neyi bilmediklerini bilmek, ihtiyaçlarını anlamak için insanlarla birlikte çalışmak ve bilinçli gözetimi ortaya çıkarmak, daha sağlam olmak” düşmanca saldırılara karşı koymak ve insani değerlerin ve bakış açılarının çoğulculuğunu ve dinamik doğasını hesaba katmak.”
Dragan’ın AI güvenlik sistemleri konusunda Waymo ile yaptığı danışmanlık çalışması, Google otonom otomobil girişiminin son dönemdeki zorlu sürüş sicili göz önüne alındığında, şüphe uyandırabilir.
İnsan-yapay zeka ve insan-robot etkileşimi algoritmalarına odaklanan bir laboratuvarın başkanlığını yaptığı DeepMind ve UC Berkeley arasında zaman ayırma kararı da aynı şekilde olabilir. Yapay Zeka güvenliği gibi ciddi sorunların ve Yapay Zekanın “terörizme yardım etme” ve “toplumu istikrarsızlaştırma” konusunda önlenmesi de dahil olmak üzere Yapay Zeka Güvenliği ve Hizalama kuruluşunun incelemeyi planladığı uzun vadeli risklerin bir yöneticinin tam zamanlı dikkatini gerektirdiği varsayılabilir.
Ancak Dragan, UC Berkeley laboratuvarının ve DeepMind’ın araştırmalarının birbiriyle ilişkili ve tamamlayıcı olduğu konusunda ısrar ediyor.
“Laboratuvarım ve ben, yapay zeka yeteneklerinin geliştirilmesi beklentisiyle değer uyumu üzerinde çalışıyoruz, [and] kendi doktora derecem robotların insan hedeflerini çıkarması ve kendi hedefleri konusunda insanlara şeffaf olmasıydı, bu alana ilgim de burada başladı” dedi. “Bunun sebebini düşünüyorum [DeepMind CEO] Demis Hassabis ve [chief AGI scientist] Shane Legg’in beni işe almaktan heyecan duyması, kısmen bu araştırma deneyimimden ve kısmen de günümüzün kaygıları ile felaket risklerini ele almanın birbirini dışlamadığına – teknik açıdan hafifletici önlemlerin çoğu zaman birbirine karıştığı ve çalışmanın uzun vadede katkı sağladığına dair tutumumdan kaynaklanıyordu. günümüzü iyileştirir ve tam tersi.”
Dragan’ın işinin biçilmiş kaftan olduğunu söylemek yetersiz kalır.
GenAI araçlarına yönelik şüphecilik tüm zamanların en yüksek seviyesinde; özellikle de deepfake ve yanlış bilgilendirme söz konusu olduğunda. İçinde anket YouGov’a göre Amerikalıların %85’i yanıltıcı video ve ses sahtelerinin yayılmasından çok veya biraz endişe duyduklarını söyledi. Ayrı bir anket Associated Press-NORC Halkla İlişkiler Araştırma Merkezi’nden yapılan bir araştırma, yetişkinlerin yaklaşık %60’ının yapay zeka araçlarının 2024 ABD seçim döngüsü sırasında yanlış ve yanıltıcı bilgi hacmini artıracağını düşündüğünü ortaya çıkardı.
Google ve rakiplerinin GenAI yenilikleriyle cezbetmeyi umduğu büyük balık olan şirketler de teknolojinin eksiklikleri ve bunların sonuçları konusunda temkinli davranıyor.
Intel’in yan kuruluşu Cnvrg.io yakın zamanda GenAI uygulamalarını pilot uygulama veya dağıtma sürecinde olan şirketler arasında bir anket gerçekleştirdi. Ankete katılanların yaklaşık dörtte birinin GenAI uyumluluğu ve gizliliği, güvenilirliği, yüksek uygulama maliyeti ve araçları sonuna kadar kullanmak için gereken teknik becerilerin eksikliği konusunda çekinceleri olduğu ortaya çıktı.
Risk yönetimi yazılımı sağlayıcısı Riskonnect’in yaptığı ayrı bir ankette yöneticilerin yarısından fazlası, çalışanların GenAI uygulamalarından gelen yanlış bilgilere dayanarak kararlar vermesinden endişe duyduklarını söyledi.
Bu endişelerinde haksız değiller. Geçtiğimiz hafta The Wall Street Journal, mimari olarak Gemini’ye benzer GenAI modelleriyle desteklenen Microsoft’un Copilot paketinin özetleri ve elektronik tablo formüllerini karşılamada sıklıkla hata yaptığını bildirdi. Bunun sorumlusu halüsinasyon (GenAI’nin uydurma eğilimleri için kullanılan genel terim) ve birçok uzman bunun hiçbir zaman tam olarak çözülemeyeceğine inanıyor.
Yapay zeka güvenlik sorununun zorluluğunun farkında olan Dragan, mükemmel bir model vaadinde bulunmuyor; yalnızca DeepMind’ın ileriye dönük olarak bu alana daha fazla kaynak yatırımı yapmayı planladığını ve GenAI modeli güvenlik riskini “yakında” değerlendirmek için bir çerçeve taahhüt etmeyi planladığını söylüyor.
“Bence asıl mesele… [account] Eğitmek için kullandığımız verilerde kalan insan bilişsel önyargıları için, boşlukların nerede olduğunu bilmek için iyi belirsizlik tahminleri, başarısızlıkları yakalayabilen çıkarım zamanı izlemesi ve sonuç niteliğindeki kararlar için doğrulama diyalogları ve bunların nerede olduğunu takip etmek [a] modelin yetenekleri potansiyel olarak tehlikeli davranışlarda bulunmaktır” dedi. “Ancak bu, bir modelin ampirik olarak bulunması zor olan ancak dağıtım zamanında ortaya çıkabilen zamanın küçük bir bölümünde yanlış davranmayacağından nasıl emin olunacağı konusunda hala açık bir problem bırakıyor.”
Müşterilerin, halkın ve düzenleyicilerin bu kadar anlayışlı olacağına ikna olmadım. Sanırım bu, bu kötü davranışların ne kadar korkunç olduğuna ve bunlardan tam olarak kimin zarar gördüğüne bağlı.
Dragan, “Kullanıcılarımızın zaman içinde daha yararlı ve güvenli bir modeli deneyimleyeceğini umuyoruz” dedi. Aslında.
Kaynak: https://techcrunch.com/2024/02/21/google-deepmind-forms-a-new-org-focused-on-ai-safety/