Merhaba arkadaşlar, TechCrunch’ın düzenli AI bültenine hoş geldiniz. Bunun her Çarşamba gelen kutunuzda olmasını istiyorsanız buradan kaydolun.
Seçim Günü’nde ikna edici bir Kamala Harris ses sahtekarlığı yaratmak şaşırtıcı derecede kolaydı. Bana 5 dolara mal oldu ve iki dakikadan az sürdü; bu, ucuz, her yerde bulunan üretken yapay zekanın dezenformasyona karşı baraj kapaklarını ne kadar açtığını gösteriyor.
Harris’in derin sahtesini yaratmak asıl amacım değildi. Orijinalin prozodisini korurken sesinizi farklı bir sese dönüştüren bir model olan Cartesia’nın Voice Changer’ı ile oynuyordum. Bu ikinci ses, başka bir kişinin sesinin “klonu” olabilir; Cartesia, herhangi bir 10 saniyelik kayıttan dijital sesin iki katını yaratacaktır.
Peki, Voice Changer’ın benim sesimi Harris’in sesine dönüştürebileceğini merak ettim. Cartesia’nın ses klonlama özelliğinin kilidini açmak için 5 dolar ödedim, son kampanya konuşmalarını kullanarak Harris’in sesinin bir kopyasını oluşturdum ve bu klonu Voice Changer’da çıktı olarak seçtim.
Bir cazibe gibi çalıştı:
Cartesia’nın araçlarının bu şekilde kullanılmasını tam olarak planlamadığından eminim. Ses klonlamayı etkinleştirmek için Cartesia, zararlı veya yasa dışı hiçbir şey üretmeyeceğinizi ve konuşma kayıtlarınızın klonlanmasına izin verdiğinizi belirten kutuyu işaretlemenizi gerektirir.
Ama bu sadece bir onur sistemi. Herhangi bir gerçek önlem olmadığında, bir kişinin istediği kadar “zararlı veya yasa dışı” deepfake oluşturmasını engelleyen hiçbir şey yoktur.
Bu bir sorun, söylemeye gerek yok. Peki çözüm nedir? Bir tane var mı? Cartesia, diğer bazı platformların yaptığı gibi sesli doğrulamayı uygulayabilir. Ancak o zamana kadar, büyük olasılıkla yeni, sınırsız bir ses klonlama aracı ortaya çıkacak.
Geçen hafta TC’nin Disrupt konferansında uzmanlarla bu konu hakkında konuştum. Bazıları, içeriğin yapay zeka tarafından üretilip üretilmediğini anlamanın daha kolay olması için görünmez filigranlar fikrini destekliyordu. Diğerleri, Birleşik Krallık’taki Çevrimiçi Güvenlik Yasası gibi içerik denetleme yasalarına dikkat çekti ve bunların dezenformasyon dalgasını durdurmaya yardımcı olabileceğini savundu.
Bana karamsar deyin ama o gemilerin yelken açtığını düşünüyorum. Dijital Nefretle Mücadele Merkezi CEO’su Imran Ahmed’in ifadesiyle, “sürekli bir boğa makinesi”ne bakıyoruz.
Dezenformasyon endişe verici bir hızla yayılıyor. Geçtiğimiz yılın bazı yüksek profilli örnekleri arasında, X üzerinde ABD federal seçimlerini hedefleyen bir bot ağı ve New Hampshire sakinlerini oy vermekten caydıran Başkan Joe Biden’ın sesli mesaj derin sahtekarlığı yer alıyor. Ancak True Media.org’un analizine göre ABD’li seçmenler ve teknoloji meraklısı kişiler bu içeriğin çoğunun hedefi değil; dolayısıyla bu içeriğin başka yerlerdeki varlığını hafife alma eğilimindeyiz.
Dünya Ekonomik Forumu’nun verilerine göre, yapay zeka tarafından oluşturulan deepfake’lerin hacmi 2019 ile 2020 arasında %900 arttı.
Bu arada, kitaplarda nispeten az sayıda deepfake hedefleme kanunu var. Ve deepfake tespiti hiç bitmeyen bir silahlanma yarışına dönüşmeye hazırlanıyor. Bazı araçlar kaçınılmaz olarak filigran ekleme gibi güvenlik önlemlerini kullanmayı tercih etmeyecek veya açıkça kötü amaçlı uygulamalar göz önünde bulundurularak dağıtılacaktır.
Büyük bir değişimden başka yapabileceğimiz en iyi şeyin, orada olan bitene, özellikle de viral içeriğe karşı son derece şüpheci yaklaşmak olduğunu düşünüyorum. Gerçeği çevrimiçi kurgudan ayırmak artık eskisi kadar kolay değil. Ancak neyi paylaştığımıza ve neyi paylaşmadığımıza hâlâ karar veriyoruz. Ve bu göründüğünden çok daha etkilidir.
Haberler
ChatGPT Arama incelemesi: Meslektaşım Max, OpenAI’nin ChatGPT için yeni arama entegrasyonu ChatGPT Search’ü bir deneme için kullandı. Bazı açılardan etkileyici olduğunu ancak yalnızca birkaç kelime içeren kısa sorgular için güvenilmez olduğunu gördü.
Phoenix’teki Amazon dronları: Amazon, California’daki Prime Air drone tabanlı teslimat programını sonlandırdıktan birkaç ay sonra Phoenix, Arizona’daki belirli müşterilere drone aracılığıyla teslimat yapmaya başladığını söylüyor.
Eski Meta AR lideri OpenAI’ye katıldı: Orion da dahil olmak üzere Meta’nın AR gözlük çalışmalarının eski başkanı, Pazartesi günü robot bilimi ve tüketici donanımına liderlik etmek için OpenAI’ye katılacağını duyurdu. Haber, OpenAI’nin X (eski adıyla Twitter) rakibi Pebble’ın kurucu ortağını işe almasının ardından geldi.
Hesaplama nedeniyle durduruldu: Reddit AMA’da OpenAI CEO’su Sam Altman, bilgi işlem kapasitesi eksikliğinin şirketin ürünleri istediği sıklıkta göndermesini engelleyen önemli bir faktör olduğunu itiraf etti.
Yapay zeka tarafından oluşturulan özetler: Amazon, tüm TV sezonlarının, bireysel bölümlerin ve hatta bölümlerin bazı bölümlerinin kısa özetlerini oluşturan, yapay zeka destekli üretken bir özellik olan “X-Ray Recaps”i başlattı.
Antropik Haiku fiyatlarını artırıyor: Anthropic’in en yeni yapay zeka modeli geldi: Claude 3.5 Haiku. Ancak son nesilden daha pahalıdır ve Anthropic’in diğer modellerinden farklı olarak henüz görüntüleri, grafikleri veya diyagramları analiz edemez.
Apple Pixelmator’ı satın aldı: Yapay zeka destekli görüntü editörü Pixelmator, Cuma günü Apple tarafından satın alındığını duyurdu. Anlaşma, Apple’ın yapay zekayı görüntüleme uygulamalarına entegre etme konusunda daha agresif hale gelmesiyle birlikte geldi.
‘Ajan’ bir Alexa: Amazon CEO’su Andy Jassy geçen hafta şirketin Alexa asistanının kullanıcı adına işlem yapabilecek geliştirilmiş bir “ajans” versiyonunun ipucunu vermişti. Yenilenen Alexa’nın gecikmeler ve teknik aksaklıklarla karşı karşıya olduğu ve 2025 yılına kadar piyasaya sürülmeyebileceği bildiriliyor.
Haftanın araştırma makalesi
İnternetteki pop-up’lar sadece büyükanne ve büyükbabaları değil, yapay zekayı da kandırabilir.
Yeni bir makalede, Georgia Tech, Hong Kong Üniversitesi ve Stanford’dan araştırmacılar, yapay zeka “aracılarının” (görevleri tamamlayabilen yapay zeka modelleri), modellere aşağıdaki gibi şeyler yapma talimatı veren “düşmanca açılır pencereler” tarafından ele geçirilebileceğini gösteriyor kötü amaçlı dosya uzantılarını indirin.
Bu pop-up’lardan bazılarının insan gözüne tuzak kurduğu çok açık; ancak yapay zeka o kadar da anlayışlı değil. Araştırmacılar, test ettikleri görüntü ve metin analiz modellerinin açılır pencereleri %86 oranında göz ardı etmede başarısız olduğunu ve bunun sonucunda da görevleri tamamlama olasılığının %47 daha düşük olduğunu söylüyor.
Modellere pop-up’ları görmezden gelme talimatı vermek gibi temel savunmalar etkili olmadı. Araştırmanın ortak yazarları, “Bilgisayar kullanan aracıları dağıtmak hala önemli riskler taşıyor” diye yazdı ve “güvenli aracı iş akışını sağlamak için daha sağlam aracı sistemlerine ihtiyaç var.”
Haftanın modeli
Meta dün, Lama “açık” yapay zeka modellerini savunma uygulamaları için kullanılabilir hale getirmek üzere ortaklarıyla birlikte çalıştığını duyurdu. Bugün, bu ortaklardan biri olan Scale AI, Meta’nın Llama 3’ü üzerine inşa edilen ve “Amerikan ulusal güvenlik misyonlarını desteklemek için özelleştirilmiş ve ince ayarlı” bir model olan Defense Llama’yı duyurdu.
Scale’in ABD hükümeti müşterilerine yönelik Donavan sohbet robotu platformunda mevcut olan Savunma Laması’nın askeri ve istihbarat operasyonlarını planlamak için optimize edildiğini söylüyor Scale. Savunma Laması, örneğin bir düşmanın ABD askeri üssüne nasıl bir saldırı planlayabileceği gibi savunmayla ilgili soruları yanıtlayabilir.
Peki Savunma Lamasını standart Lamadan farklı kılan şey nedir? Scale, askeri doktrin ve uluslararası insancıl hukuk gibi askeri operasyonlarla ilgili olabilecek içeriğin yanı sıra çeşitli silah ve savunma sistemlerinin yetenekleri konusunda da ince ayar yapıldığını söylüyor. Ayrıca sivil bir chatbotun yapabileceği gibi savaşla ilgili soruları yanıtlamakla da sınırlı değil:
Ancak kimin bunu kullanmaya istekli olabileceği belli değil.
ABD ordusu üretken yapay zekayı benimsemekte yavaş davrandı ve yatırım getirisine şüpheyle yaklaştı. Şu ana kadar ABD Ordusu, ABD silahlı kuvvetlerinin üretken yapay zeka konuşlandırmasına sahip tek koludur. Askeri yetkililer, ticari modellerdeki güvenlik açıklarının yanı sıra istihbarat veri paylaşımıyla ilgili yasal zorluklar ve uç vakalarla karşı karşıya kalındığında modellerin öngörülemezliği konusundaki endişelerini dile getirdi.
Çantayı al
İçerik oluşturucuların üretken yapay zeka eğitiminden vazgeçmelerine olanak tanıyan araçlar üreten bir girişim olan Spawning AI, tamamen kamuya açık olduğunu iddia ettiği yapay zeka modellerinin eğitimi için bir görüntü veri kümesi yayınladı.
Üretken yapay zeka modellerinin çoğu, bazıları telif hakkıyla korunan veya kısıtlayıcı bir lisans kapsamında olabilen genel web verileriyle eğitilir. OpenAI ve diğer birçok yapay zeka sağlayıcısı, adil kullanım doktrininin kendilerini telif hakkı taleplerinden koruduğunu savunuyor. Ancak bu, veri sahiplerinin dava açmasını engellemedi.
Spawning AI, 12,4 milyon resim yazısı çiftinden oluşan eğitim veri setinin yalnızca “kaynağı bilinen” ve AI eğitimi için “açık, kesin haklarla etiketlenmiş” içeriği içerdiğini söylüyor. Diğer bazı veri kümelerinin aksine, aynı zamanda özel bir ana bilgisayardan indirilebilir ve web kazıma ihtiyacını ortadan kaldırır.
Spawning bir blog yazısında şöyle yazıyor: “Veri kümesinin kamu malı statüsü, bu daha büyük hedeflerin ayrılmaz bir parçası.” “Telif hakkıyla korunan görselleri içeren veri kümeleri, görselleri barındırmak telif hakkını ihlal edeceğinden web kazımaya güvenmeye devam edecek.”
Spawning’in veri seti PD12M’yi ve “estetik açıdan hoş” görüntüler için seçilmiş bir versiyonu olan PD3M’yi bu bağlantıda bulabilirsiniz.
Kaynak: https://techcrunch.com/2024/11/06/this-week-in-ai-its-shockingly-easy-to-make-a-kamala-harris-deepfake/