Veri bütünlüğüne ilişkin ağ oluşturma, içgörüler ve konuşmalarla dolu özel bir gece için 27 Mart’ta Boston’da Gen AI kurumsal liderlerine katılın. Davet et Burada.
Fark etmediyseniz, hızlı ilerleme Yapay zeka teknolojileri hiper gerçekçi görüntülerden ilgi çekici videolara ve metinlere kadar yapay zeka tarafından oluşturulan yeni bir içerik dalgasını başlattı. Ancak bu çoğalma Pandora’nın kutusunu açtı, potansiyel bir yanlış bilgi ve aldatma seli ortaya çıkararak gerçeği uydurmadan ayırt etme yeteneğimizi zorladı.
Sentetikin içinde boğulacağımız korkusu elbette yersiz değil. Yapay zeka kullanıcıları 2022’den bu yana toplu olarak 15 milyardan fazla görüntü oluşturdu. Bu devasa sayıyı bir perspektife oturtmak gerekirse, insanların 2022’den önce aynı miktarda fotoğraf üretmesi 150 yıl sürdü.
Şaşırtıcı miktarda Yapay zeka tarafından oluşturulan içerik yeni keşfetmeye başladığımız sonuçları var. Üretken yapay zeka görüntülerinin ve içeriğinin çok büyük hacmi nedeniyle tarihçiler, 2023 sonrasını interneti, atom bombasının radyoaktif karbon tarihlemesini nasıl geciktirdiği gibi, daha önce olanlardan tamamen farklı bir şey olarak görmek zorunda kalacaklar. Zaten pek çok Google Görsel araması genel yapay zeka sonuçları veriyor ve İsrail/Gazze çatışmasındaki savaş suçlarının gerçekte öyle olmadığı halde yapay zeka olarak kınandığına dair kanıtların giderek arttığını görüyoruz.
Yapay zeka içeriğine ‘imzalar’ yerleştirme
Başlatılmamış olanlar için, derin sahtekarlıklar esasen makine öğrenimi (ML) algoritmalarından yararlanılarak oluşturulan sahte içeriktir. Bu algoritmalar, insan ifadelerini ve seslerini taklit ederek gerçekçi görüntüler oluşturuyor ve OpenAI’nin metinden videoya modeli olan Sora’nın geçen ayki önizlemesi, sanal gerçekliğin ne kadar hızlı bir şekilde fiziksel gerçeklikten ayırt edilemez hale geldiğini daha da gösterdi.
Oldukça haklı olarak, durumun kontrolünü ele geçirmek için önleyici bir girişimde ve artan endişelerin ortasında teknoloji devleri, durumu kontrol altına alma umuduyla yapay zeka tarafından oluşturulan içeriğin gidişatına işaret edecek çözümler önererek mücadeleye dahil oldu.
Şubat ayı başında Meta, Facebook, Instagram ve Threads gibi platformlarda yapay zeka araçları kullanılarak oluşturulan görselleri etiketlemek için yeni bir girişim başlattığını duyurdu. Bu girişim, görünür işaretçiler, görünmez filigranlar ve bunların yapay kökenlerine işaret etmek için ayrıntılı meta veriler içeriyor. Hemen ardından Google ve OpenAI, yapay zeka sistemleri tarafından oluşturulan içeriğe ‘imzalar’ yerleştirmeyi amaçlayan benzer önlemleri açıkladı.
Bu çabalar, açık kaynaklı internet protokolü The Coalition for Content Provenance and Authenticity (İçerik Kaynak ve Orijinallik Koalisyonu) tarafından desteklenmektedir (C2PA), gerçek ve değiştirilmiş içerik arasında ayrım yaparak dijital dosyaların kökenlerini takip edebilmek amacıyla 2021 yılında arm, BBC, Intel, Microsoft, Truepic ve Adobe tarafından oluşturulan bir grup.
Bu çabalar, elbette iyilik için bir güç olan içerik oluşturmada şeffaflığı ve hesap verebilirliği teşvik etme girişimidir. Peki bu çabalar iyi niyetli olsa da, koşmadan önce yürümek mi söz konusu? Bunlar gelişen teknolojinin olası kötüye kullanımına karşı gerçekten koruma sağlamak için yeterli mi? Yoksa bu, zamanından önce gelen bir çözüm mü?
Neyin gerçek olduğuna kim karar verecek?
Bunu soruyorum çünkü bu tür araçların yaratılmasının ardından çok hızlı bir şekilde bir sorun ortaya çıkıyor: Erişimi olanlara onu kullanma yetkisi verilmeden tespit evrensel olabilir mi? Değilse, sistemin kendisini kontrol edenler tarafından kötüye kullanılmasını nasıl önleyebiliriz? Bir kez daha kendimizi en başa dönüyoruz ve neyin gerçek olduğuna kimin karar vereceğini soruyoruz. Odadaki fil bu ve bu soruyu cevaplamadan önce endişem, bunu fark eden tek kişinin ben olmayacağım.
Bu yıllar Edelman Güven Barometresi kamuoyunun teknolojiye ve inovasyona olan güvenine ilişkin önemli bilgiler ortaya çıkardı. Rapor, kurumların inovasyon yönetimine yönelik yaygın şüpheciliğin altını çiziyor ve dünya genelinde insanların inovasyonun iyi yönetildiğinden (%22) ziyade kötü yönetildiğine (%39) inanma olasılığının neredeyse iki kat daha fazla olduğunu gösteriyor; önemli bir yüzde, inovasyonun hızlı gelişimiyle ilgili endişelerini dile getiriyor. Teknolojik değişimin hızının toplumun geneline faydası yok.
Rapor, iş dünyası, STK’lar ve hükümetlerin yeni teknolojileri nasıl tanıttığı ve düzenlediği konusunda kamuoyunda yaygın olan şüpheciliğin yanı sıra bilimin siyasetten ve finansal çıkarlardan bağımsızlığı konusundaki endişeleri de vurguluyor.
Her ne kadar teknoloji, karşı önlemlerin daha gelişmiş hale geldiğini defalarca gösterse de, karşı koymakla görevlendirildikleri sorunların yeteneklerinin de arttığını (ve tam tersini de sonsuza kadar) gösteriyor. Filigran çubuğunu görmek istiyorsak, geniş kamuoyunun inovasyona olan güven eksikliğini tersine çevirmek başlamamız gereken yerdir.
Gördüğümüz gibi bunu söylemek yapmaktan daha kolaydır. Geçen ay, Google İkizler gölge yönlendirmeli (AI modelinin bir istemi alıp onu belirli bir önyargıya uyacak şekilde değiştirdiği yöntem) görüntüleri saçmalığa dönüştürdükten sonra eleştirildi. Bir Google çalışanı, X platformuna giderek bunun bir şirkette yaşadıkları ‘en utanç verici’ olay olduğunu ve modelin beyaz insan resimleri oluşturmama eğiliminin onu kültür savaşının ön saflarına ve merkezine koyduğunu belirtti. Özür dilediler ama hasar verildi.
CTO’ların hangi veri modellerini kullandığını bilmeleri gerekmez mi?
Yakın zamanda bir video OpenAI’nin CTO’su Mira Murati tarafından röportaj yapılıyor Washington post viral oldu. Klipte kendisine Sora’yı eğitmek için hangi verilerin kullanıldığı sorulduğunda, Murati “kamuya açık veriler ve lisanslı veriler” şeklinde yanıt veriyor. Tam olarak hangi verilerin kullanıldığına ilişkin bir soru üzerine aslında emin olmadığını itiraf ediyor.
Veri kalitesinin eğitiminin büyük önemi göz önüne alındığında, kaynakları bir video transformatörüne aktarma kararının ne zaman bilinmesi gerektiğini bir CTO’nun tartışması gereken temel sorunun bu olduğu varsayılabilir. Daha sonra sorgulama hattını kapatması da (aksi takdirde oldukça dostane bir röportajda ekleyebilirim) alarm zillerini çalıyor. Klipten çıkan tek makul sonuç, onun ya cansız bir CTO olduğu ya da yalancı olduğudur.
Bu teknoloji kitlesel olarak kullanıma sunuldukça buna benzer daha pek çok olay elbette yaşanacak, ancak güven açığını tersine çevirmek istiyorsak bazı standartların mevcut olduğundan emin olmamız gerekiyor. Bu araçların ne olduğu ve bunlara neden ihtiyaç duyulduğu konusunda halkın eğitimi iyi bir başlangıç olacaktır. İşlerin ters gittiğinde bireyleri ve kurumları sorumlu tutan önlemlerin alınmasıyla, şeylerin etiketlenme biçimindeki tutarlılık da hoş karşılanacak bir başka katkı olacaktır. Ayrıca, işler kaçınılmaz olarak ters gittiğinde, bu tür şeylerin neden böyle olduğu konusunda açık bir iletişim olmalıdır. Baştan sona, tüm süreçlerde şeffaflık esastır.
Bu tür önlemler olmadan, filigranın, yanlış bilgilendirme ve sentetik içeriğe olan güven erozyonu gibi altta yatan sorunlara çözüm bulmakta başarısız olacağından, filigranın bir sıvadan başka bir işe yaramayacağından korkuyorum. Orijinallik doğrulaması için güçlü bir araç olarak hareket etmek yerine, yalnızca göstermelik bir jest haline gelebilir, büyük olasılıkla aldatma niyetinde olanlar tarafından atlatılabilir veya zaten atlatıldığını düşünenler tarafından basitçe görmezden gelinebilir.
Yapacağımız gibi (ve bazı yerlerde zaten görüyoruz), derin sahte seçim müdahaleleri muhtemelen yılın belirleyici yapay zeka hikayesini oluşturacak. Dünya nüfusunun yarısından fazlasının sandık başına gittiği ve kamuoyunun kurumlara olan güveninin hâlâ en düşük seviyede olduğu bir dönemde, içerik filigranı gibi bir şeyin batmak yerine yüzmesini beklemeden önce çözmemiz gereken sorun budur.
Elliot Leavy’nin kurucusu HABERDAR OLMAAvrupa’nın ilk üretken yapay zeka danışmanlığı.
Veri Karar Vericileri
VentureBeat topluluğuna hoş geldiniz!
DataDecisionMakers, veri çalışması yapan teknik kişiler de dahil olmak üzere uzmanların veriyle ilgili içgörüleri ve yenilikleri paylaşabileceği yerdir.
En son fikirleri, güncel bilgileri, en iyi uygulamaları ve veri ile veri teknolojisinin geleceğini okumak istiyorsanız DataDecisionMakers’ta bize katılın.
Hatta düşünebilirsiniz bir makaleye katkıda bulunmak kendinin!
Kaynak: https://venturebeat.com/ai/why-watermarking-wont-work/