Hiya, millet, TechCrunch’ın normal AI bültenine hoş geldiniz. Bunu her Çarşamba günü gelen kutunuzda istiyorsanız, buradan kaydolun.
Geçen hafta bültenini atladığımızı fark etmiş olabilirsiniz. Nedeni? Kaotik bir AI haber döngüsü, Çin AI şirketi Deepseek’in aniden ön plana çıkması ve neredeyse sanayi ve hükümetin köşesinden gelen yanıt tarafından daha da pandemons yaptı.
Neyse ki, geçen hafta sonu Openai’den gelen gazeteci gelişmeleri göz önünde bulundurarak çok yakında bir an değil.
Openai CEO’su Sam Altman, Japon holding softbank’ın CEO’su Masayoshi Son ile sahnede sohbet etmek için Tokyo’da durdu. SoftBank, Openai’nin ABD’deki devasa veri merkezi altyapı projesine fon sağlama sözü veren büyük bir Openai yatırımcısı ve ortağıdır.
Bu yüzden Altman muhtemelen oğluna zamanının birkaç saatini borçlu olduğunu hissetti.
İki milyarder ne hakkında konuştu? Birçok soyutlama, ikinci el raporlaması için AI “ajanları” aracılığıyla çalışır. Son, şirketinin Openai ürünlerine yılda 3 milyar dolar harcayacağını ve bir platform geliştirmek için Openai ile bir araya geleceğini söyledi, “Cristal [sic] Zeka, ”milyonlarca geleneksel beyaz yakalı iş akışını otomatikleştirmek amacıyla.
SoftBank Pazartesi günü yaptığı basın açıklamasında, “Tüm görevlerini ve iş akışlarını otomatikleştirerek ve özerkleştirerek SoftBank Corp., iş ve hizmetlerini dönüştürecek ve yeni bir değer yaratacak” dedi.
Yine de, tüm bu otomatikleştirme ve özerkleştirme hakkında mütevazi işçinin ne olduğunu soruyorum?
Sebastian Siemiatkowski gibi Fintech Klarna’nın CEO’su gibi, AI hakkında sık sık insanları değiştiren insanlara övünüyor, oğlunun işçiler için ajan stand-in sadece muhteşem serveti hızlandırabileceği görüşünde görünüyor. Glossed, bolluğun maliyetidir. İşlerin yaygın otomasyonu geçerse, muazzam bir ölçekte işsizlik en olası sonuç gibi görünüyor.
AI yarışının ön planında olanların – Openai gibi şirketlerin ve SoftBank gibi yatırımcıların – bordroda daha az işçiyle otomatik şirketlerin resmini boyamak için basın konferansları harcamayı seçmesi cesaretini kırıyor. Elbette işletmeler – hayır kurumları değil. Ve AI gelişimi ucuz değil. Ancak belki de konuşlandırılmasına rehberlik edenler refahları için biraz daha fazla endişe gösterdiyse, insanlar AI’ya güvenirlerdi.
Düşünce için yiyecek.
Haberler
Derin Araştırma: Openai, şirketin AI ile çalışan chatbot platformu olan ChatGPT’yi kullanarak derinlemesine, karmaşık araştırmalar yapmalarına yardımcı olmak için tasarlanmış yeni bir AI “ajanı” başlattı.
O3-mini: Diğer Openai haberlerinde, şirket geçen Aralık ayında bir önizlemenin ardından yeni bir AI “akıl yürütme” modeli O3-Mini başlattı. Openai’nin en güçlü modeli değil, ancak O3-Mini, daha iyi verimlilik ve yanıt hızına sahiptir.
Orada riskli yasaklar: Pazar günü Avrupa Birliği’nde, Bloc’un düzenleyicileri “kabul edilemez risk” veya zarar vermeyi düşündükleri AI sistemlerinin kullanımını yasaklayabilir. Buna sosyal puanlama ve bilinçaltı reklamcılık için kullanılan AI dahildir.
AI “kıyamet” hakkında bir oyun: AI “Doomer” kültürü hakkında yeni bir oyun var, Sam Altman’ın Kasım 2023’te Openai’nin CEO’su olarak görevlendirilmesine dayanıyor. Meslektaşlarım Dominic ve Rebecca, prömiyeri izledikten sonra düşüncelerini paylaşıyor.
Mahsul verimlerini artırmak için teknoloji: Google’ın X “MoonShot Factory” bu hafta son mezununu duyurdu. Kalıtım tarım, ürünlerin nasıl büyüdüğünü geliştirmeyi amaçlayan veri ve makine öğrenim odaklı bir girişimdir.
Haftanın Araştırma Raporu
Akıl yürütme modelleri, özellikle bilim ve matematikle ilgili sorgular olmak üzere sorunları çözmedeki ortalama yapay zekanızdan daha iyidir. Ama onlar gümüş mermi değil.
Çin şirketi Tencent’teki araştırmacılardan yapılan yeni bir çalışma, akıl yürütme modellerinde “düşünme” konusunu araştırıyor, burada modeller erken, açıklanamaz bir şekilde potansiyel olarak umut verici düşünce zincirlerini terk ediyor. Çalışmanın sonuçlarına göre, “düşük düşünme” kalıpları daha sık sorunlarla daha sık ortaya çıkma eğilimindedir, bu da modellerin cevaplara gelmeden akıl yürütme zincirleri arasında geçiş yapmasına yol açar.
Ekip, modelleri alternatifleri düşünmeden önce, modellerin doğruluğunu artırmadan önce her akıl yürütme hattını “iyice geliştirmeye” teşvik etmek için bir “düşünce değiştirme cezası” kullanan bir düzeltme öneriyor.
Haftanın Modeli
Tiktok sahibi baytansı, Çinli AI şirketi Moonshot ve diğerleri tarafından desteklenen bir araştırmacı ekibi, istemlerden nispeten yüksek kaliteli müzik üretebilen yeni bir açık model yayınladı.
Yue olarak adlandırılan model, vokal ve destek parçaları ile birlikte birkaç dakikaya kadar bir şarkı çıkarabilir. Apache 2.0 lisansı altında, yani model kısıtlamalar olmadan ticari olarak kullanılabilir.
Ancak dezavantajlar var. Yue’yi çalıştırmak etli bir GPU gerektirir; 30 saniyelik bir şarkı oluşturmak bir NVIDIA RTX 4090 ile altı dakika sürer. Ayrıca, modelin telif hakkıyla korunan veriler kullanılarak eğitilip eğitilmeyeceği açık değildir; Yaratıcıları söylemedi. Telif hakkıyla korunan şarkıların gerçekten modelin eğitim setinde olduğu ortaya çıkıyorsa, kullanıcılar gelecekteki IP zorluklarıyla karşılaşabilirler.
Çanta
AI Lab Antropic, AI sisteminin güvenlik önlemlerini atlamak için kullanılabilecek yöntemler olan AI “jailbreaks” a karşı daha güvenilir bir şekilde savunmak için bir teknik geliştirdiğini iddia ediyor.
Teknik, anayasal sınıflandırıcılar, iki “sınıflandırıcı” AI modeline dayanır: bir “giriş” sınıflandırıcısı ve bir “çıkış” sınıflandırıcısı. Giriş sınıflandırıcısı, jailbreakleri ve diğer izin verilmeyen içeriği tanımlayan şablonlara sahip korunmuş bir modele girerken, çıktı sınıflandırıcısı bir modelden gelen bir yanıtın zararlı bilgileri tartışma olasılığını hesaplar.
Antropic, anayasal sınıflandırıcıların jailbreaklerin “ezici çoğunluğunu” filtreleyebileceğini söylüyor. Ancak, bir maliyetle geliyor. Her sorgu% 25 daha fazla hesaplamalı talepkardır ve korunan modelin zararsız soruları cevaplama olasılığı% 0,38 daha azdır.
Kaynak: https://techcrunch.com/2025/02/04/this-week-in-ai-billionaires-talk-automating-jobs-away/