Merhaba arkadaşlar, TechCrunch’ın yapay zeka bültenine hoş geldiniz. Bu kelimeleri yazmak gerçekten heyecan verici; bu uzun zamandır hazırlanıyordu ve sonunda sizinle paylaşacağımız için heyecanlıyız.
TC’nin Yapay Zeka bülteninin yayınlanmasıyla birlikte, daha önce Perceptron olarak bilinen yarı düzenli sütun olan Yapay Zeka’da Bu Haftayı sonlandırıyoruz. Ancak Bu Hafta’ya getirdiğimiz tüm analizleri yapay zekada bulacaksınız ve dahasıBurada dikkate değer yeni yapay zeka modellerine ışık tutuluyor.
Bu hafta yapay zekada OpenAI için sorunlar yine yaklaşıyor.
Bir grup eski OpenAI çalışanı, The New York Times’tan Kevin Roose ile organizasyon içinde korkunç güvenlik aksaklıkları olarak algıladıkları şeyler hakkında konuştu. Son aylarda OpenAI’den ayrılan diğerleri gibi onlar da şirketin yapay zeka sistemlerinin potansiyel olarak tehlikeli hale gelmesini önlemek için yeterince çaba göstermediğini iddia ediyor ve OpenAI’yi çalışanların alarm vermesini engellemek için sert taktikler kullanmakla suçluyorlar.
Grup Salı günü OpenAI dahil olmak üzere önde gelen yapay zeka şirketlerine daha fazla şeffaflık ve ihbarcılar için daha fazla koruma sağlama çağrısında bulunan açık bir mektup yayınladı. Mektupta, “Bu şirketler üzerinde etkili bir hükümet denetimi olmadığı sürece, mevcut ve eski çalışanlar onları kamuya karşı sorumlu tutabilecek az sayıdaki kişi arasındadır” deniyor.
Bana karamsar diyebilirsiniz ama eski çalışanların çağrılarının sağır kulaklara yansıyacağını düşünüyorum. Yapay zeka şirketlerinin, aşağıda imzası bulunanların önerdiği gibi yalnızca “açık eleştiri kültürünü desteklemeyi” kabul etmekle kalmayıp, aynı zamanda aşağılayıcı hükümleri uygulamamayı veya konuşmayı tercih eden mevcut personele karşı misilleme yapmamayı da tercih ettiği bir senaryo hayal etmek zor.
Şirketin yakın zamanda yanıt olarak oluşturduğu OpenAI güvenlik komisyonunu düşünün. ilk Güvenlik uygulamalarına yönelik eleştirileri içeren ekibin kadrosunda CEO Sam Altman da dahil olmak üzere tüm şirket çalışanları yer alıyor. Ve bir noktada OpenAI’nin kısıtlayıcı aşağılamama anlaşmaları hakkında hiçbir bilgisi olmadığını iddia eden Altman’ın şunu da düşünün: kendisi imzalanmış bunları oluşturan kuruluş belgeleri.
Elbette OpenAI’de işler yarın tersine dönebilir ama ben nefesimi tutmuyorum. Ve bilseler bile buna güvenmek zor olurdu.
Haberler
Yapay zeka kıyameti: OpenAI’nin yapay zeka destekli sohbet robotu platformu ChatGPT, Anthropic’ten Claude ve Google’dan Gemini ve Perplexity ile birlikte bu sabah hemen hemen aynı saatlerde çöktü. O zamandan bu yana tüm hizmetler geri yüklendi, ancak kesintilerin nedeni hala belirsizliğini koruyor.
OpenAI füzyonu keşfediyor: Wall Street Journal’a göre OpenAI, füzyon girişimi Helion Energy ile yapay zeka şirketinin veri merkezlerine güç sağlamak için Helion’dan büyük miktarlarda elektrik satın alacağı bir anlaşma hakkında görüşüyor. Altman’ın Helion’da 375 milyon dolarlık hissesi var ve şirketin yönetim kurulunda yer alıyor ancak kendisinin anlaşma görüşmelerinden çekildiği bildiriliyor.
Eğitim verilerinin maliyeti: TechCrunch, yapay zeka endüstrisinde yaygın hale gelen pahalı veri lisanslama anlaşmalarına göz atıyor; bu anlaşmalar, yapay zeka araştırmalarını daha küçük kuruluşlar ve akademik kurumlar için savunulamaz hale getirme tehdidinde bulunuyor.
Nefret dolu müzik jeneratörleri: Kötü niyetli aktörler, homofobik, ırkçı ve propagandacı şarkılar yaratmak için yapay zeka destekli müzik oluşturucularını kötüye kullanıyor ve başkalarına da bunu nasıl yapacaklarını öğreten kılavuzlar yayınlıyor.
Cohere için nakit: Reuters, kurumsal odaklı üretken bir yapay zeka girişimi olan Cohere’in, Cohere’e 5 milyar dolar değerinde yeni bir dilimde Nvidia, Salesforce Ventures, Cisco ve diğerlerinden 450 milyon dolar topladığını bildirdi. Tanıdık kaynaklar TechCrunch’a, her ikisi de geri dönen yatırımcılar olan Oracle ve Thomvest Ventures’ın da açık bırakılan tura katıldığını söylüyor.
Haftanın araştırma makalesi
OpenAI’nin kısa süre önce resmi blogunda vurguladığı “Adım Adım Doğrulayalım” başlıklı 2023 tarihli bir araştırma makalesinde, OpenAI’deki bilim insanları, girişimin genel amaçlı üretken yapay zeka modeli GPT-4’te daha iyi sonuçlar elde etmek için ince ayar yaptıklarını iddia etti. -matematik problemlerini çözmede beklenen performans. Makalenin ortak yazarları, bu yaklaşımın kontrolden çıkmaya daha az eğilimli üretken modellere yol açabileceğini söylüyor ancak birkaç uyarıya da dikkat çekiyorlar.
Makalede ortak yazarlar, halüsinasyonları veya GPT-4’ün gerçekleri ve/veya matematik problemlerine verilen cevapları yanlış anladığı durumları tespit etmek için ödül modellerini nasıl eğittiklerini ayrıntılarıyla anlatıyor. (Ödül modelleri, yapay zeka modellerinin çıktılarını, bu durumda GPT-4’ün matematikle ilgili çıktılarını değerlendirmek için özel modellerdir.) Ödül modelleri, bir matematik probleminin bir adımını her doğru yaptığında GPT-4’ü “ödüllendirdi”; bu bir yaklaşımdı. araştırmacılar bunu “süreç denetimi” olarak adlandırıyor.
Araştırmacılar, süreç denetiminin GPT-4’ün matematik problemlerinin doğruluğunu önceki “ödüllendirici” model teknikleriyle karşılaştırıldığında – en azından kıyaslama testlerinde – iyileştirdiğini söylüyor. Ancak mükemmel olmadığını da kabul ediyorlar; GPT-4 hâlâ sorun adımlarını yanlış atıyor. Araştırmacıların araştırdığı süreç denetimi biçiminin matematik alanının ötesinde nasıl genelleştirilebileceği de belirsiz.
Haftanın modeli
Hava durumunu tahmin etmek bir bilim gibi gelmeyebilir (en azından benim yaptığım gibi üzerinize yağmur yağdığında), ancak bunun nedeni kesinliklerle değil, tamamen olasılıklarla ilgili olmasıdır. Ve olasılıkları hesaplamanın olasılıksal bir modelden daha iyi bir yolu var mı? Yapay zekanın saatlerden yüzyıllara kadar zaman ölçeklerinde hava durumu tahminleri üzerinde çalıştığını zaten gördük ve şimdi Microsoft da eğlenceye dahil oluyor. Şirketin yeni Aurora modeli, yapay zeka dünyasının hızla gelişen bu köşesinde topu ileri doğru hareket ettirerek ~0,1° çözünürlükte (10 km kare civarında düşünün) dünya düzeyinde tahminler sağlıyor.
Bir milyon saatin üzerinde hava durumu ve iklim simülasyonları (gerçek hava durumu değil mi? Hımm…) üzerine eğitilmiş ve bir dizi istenen görev üzerinde ince ayarlar yapılmış olan Aurora, geleneksel sayısal tahmin sistemlerinden birkaç kat daha iyi performans gösteriyor. Daha da etkileyicisi, Google DeepMind’ın GraphCast’ini kendi oyununda yenerek (her ne kadar Microsoft sahayı seçmiş olsa da) bir ila beş günlük ölçekte hava koşulları hakkında daha doğru tahminler sağlıyor.
Elbette Google ve Microsoft gibi şirketlerin de yarışta bir atı var; her ikisi de en kişiselleştirilmiş web ve arama deneyimini sunmaya çalışarak çevrimiçi ilginizi çekmek için yarışıyor. Doğru ve etkili birinci taraf hava durumu tahminleri, en azından dışarı çıkmayı bırakana kadar bunun önemli bir parçası olacak.
Çantayı al
Geçen ay Palladium’da yayınlanan bir düşünce yazısında, yapay zeka girişimi Anthropic’in genel müdürü Avital Balwit, üretken yapay zekanın hızlı ilerlemeleri sayesinde önümüzdeki üç yılın kendisinin ve birçok bilgi çalışanının çalışmak zorunda olduğu son yıl olabileceğini öne sürüyor. Bunun korku için bir nedenden ziyade bir teselli kaynağı olması gerektiğini söylüyor çünkü “[lead to] İnsanların maddi ihtiyaçlarının karşılandığı ama aynı zamanda çalışmaya ihtiyaç duymadığı bir dünya.”
“Ünlü bir yapay zeka araştırmacısı bir keresinde bana bunun için pratik yaptığını söylemişti. [this inflection point] Balwit, özellikle iyi olmadığı aktiviteleri üstlenerek: jiu-jitsu, sörf vb. ve mükemmel olmasa bile bunu yapmanın tadını çıkararak, ” diye yazıyor Balwit. “Bir şeyleri ihtiyaçtan ziyade keyifle yapmak zorunda kalacağımız, artık bu konularda en iyisi olmayacağımız ama yine de günlerimizi nasıl dolduracağımızı seçmek zorunda kalacağımız geleceğimize bu şekilde hazırlanabiliriz.”
Bu kesinlikle bardağın yarısı dolu görüş; ancak bunu paylaştığımı söyleyemem.
Üretken yapay zeka, çoğu bilgi çalışanının yerini üç yıl içinde alırsa (ki bu, yapay zekanın birçok çözülmemiş teknik sorunu göz önüne alındığında bana gerçekçi gelmiyor), ekonomik çöküş pekala ortaya çıkabilir. Bilgi çalışanları iş gücünün büyük bir bölümünü oluşturur ve genellikle yüksek gelir elde eden, dolayısıyla da büyük harcama yapan kişilerdir. Kapitalizmin çarklarını ileriye doğru sürüyorlar.
Balwit, evrensel temel gelire ve diğer büyük ölçekli sosyal güvenlik ağı programlarına atıfta bulunuyor. Ancak ABD gibi federal düzeydeki temel yapay zeka mevzuatını bile yönetemeyen ülkelerin yakın zamanda evrensel temel gelir planlarını benimseyeceğine pek inanmıyorum.
Şans eseri, yanılıyorum.
Kaynak: https://techcrunch.com/2024/06/05/this-week-in-ai-ex-openai-staff-call-for-safety-and-transparency/