Meta, diğer önde gelen teknoloji şirketleri gibi, geçtiğimiz yılı üretken teknolojilerin dağıtımını hızlandırma vaadiyle geçirdi. yapay zeka. Bugün aynı zamanda teknolojinin tehlikelerine de yanıt vermesi gerektiğini kabul ederek bir duyuru yaptı. genişletilmiş politika Facebook, Instagram ve Threads’te yayınlanan yapay zeka tarafından oluşturulan görsellerin, insanları yapay kökenleri konusunda bilgilendirmek için uyarı etiketleriyle etiketlenmesi.
Ancak Meta’nın platformlarında görünmesi muhtemel sentetik medyanın çoğunun yeni politika tarafından kapsanması pek olası değil ve bu da kötü niyetli aktörlerin geçebileceği birçok boşluk bırakıyor. İnsanların insan haklarını desteklemek için teknolojiyi kullanmasına yardımcı olan, kâr amacı gütmeyen kuruluş Witness’ın program direktörü Sam Gregory, “Bu, doğru yönde atılmış bir adım, ancak zorlukları da var” diyor.
Meta zaten kendi üretken yapay zeka araçlarını kullanarak oluşturulan yapay zeka tarafından oluşturulan görüntüleri, kısmen algoritmalarının çıktılara yerleştirdiği dijital “filigranı” arayarak “Yapay Zeka ile Hayal Edildi” etiketiyle etiketliyor. Şimdi Meta, önümüzdeki aylarda diğer şirketlerin sunduğu ve teknolojilerine filigran yerleştiren araçlarla oluşturulan AI görüntülerini de etiketleyeceğini söylüyor.
Politikanın, fotoğraf olarak sunulan yapay zeka tarafından oluşturulan görsellerin yanlış bilgi veya dezenformasyon yayması riskini azaltması bekleniyor. Ancak Meta, Google, OpenAI, Microsoft, Adobe, Midjourney ve Shutterstock’ta geliştirilmekte olan açıklama teknolojisini desteklemek için çalıştığını söylese de, teknoloji henüz geniş çapta uygulanmadı. Teknolojiye erişimin ve değiştirmenin giderek daha kolay hale gelmesiyle birlikte çıktılarına filigran uygulamayan birçok yapay zeka görüntü oluşturma aracı da mevcut. Gregory, “Böyle bir sistemin etkili olmasının tek yolu, geniş yelpazedeki üretken araçların ve platformların katılımıdır” diyor.
Filigranlama için geniş bir destek olsa bile sunduğu korumanın ne kadar sağlam olacağı belirsizdir. Evrensel olarak dağıtılan bir standart mevcut değildir ancak Adobe tarafından kurulan bir girişim olan İçerik Kanıtlanması ve Orijinalliği Koalisyonu (C2PA), şirketlerin konsept üzerindeki çalışmalarını uyumlu hale getirmeye başlamalarına yardımcı olmuştur. Ancak şu ana kadar geliştirilen teknoloji kusursuz değil. İçinde geçen yıl yayımlanan çalışmaaraştırmacılar filigranları kolayca kırabileceklerini veya bunları yapay zeka tarafından oluşturulmamış görüntülere ekleyerek sanki varmış gibi gösterebileceklerini keşfettiler.
Kötü Amaçlı Kaçak
UC Berkeley Bilgi Okulu’nda C2PA girişimine danışmanlık yapan profesör Hany Farid, üretken yapay zekayı kötü niyetli olarak kullanmakla ilgilenen herkesin büyük olasılıkla çıktılarına filigran koymayan veya doğasına ihanet etmeyen araçlara yöneleceğini söylüyor. Örneğin yaratıcıları sahte otomatik çağrı Başkan Joe Biden’ın geçen ay bazı New Hampshire seçmenlerini hedef alan sesini kullanması, bunun kökenlerine ilişkin herhangi bir açıklama eklemedi.
Ayrıca şirketlerin, kötü aktörlerin içeriğin kaynağını belirlemek için hangi yöntemi kullanmaya çalışırsa çalışsın onu hedef almasına karşı hazırlıklı olması gerektiğini düşünüyor. Farid, yapay zeka tarafından oluşturulan görüntüleri sağlam bir şekilde tanımlamak için, örneğin filigranlamayı izleme listeleri oluşturmak için kullanılan karma tabanlı teknolojiyle birleştirerek birden fazla tanımlama biçiminin birlikte kullanılması gerekebileceğinden şüpheleniyor. çocuk cinsel istismarı materyali. Ve filigranlama, ses ve video gibi görsellerin dışında yapay zeka tarafından oluşturulan medya için daha az gelişmiş bir kavramdır.
“Şirketler sinyalleri görüntü oluşturucularına dahil etmeye başlarken, bunları aynı ölçekte ses ve video üreten yapay zeka araçlarına dahil etmeye başlamadılar, dolayısıyla bu sinyalleri henüz tespit edemiyoruz ve diğer şirketlerden gelen bu içeriği etiketleyemiyoruz. ” Meta sözcüsü Kevin McAlister bunu kabul ediyor. “Sektör bu yeteneğe yönelik çalışırken, biz de insanların yapay zeka tarafından oluşturulan video veya sesi paylaştıklarında bunu açıklamaları için bir özellik ekliyoruz, böylece buna bir etiket ekleyebiliriz.”
Meta’nın yeni politikaları daha fazla sahte içerik yakalamasına yardımcı olabilir, ancak manipüle edilen medyanın tümü yapay zeka tarafından oluşturulmaz. Meta’nın bağımsız uzmanlardan oluşan Gözetim Kurulu tarafından Pazartesi günü yayınlanan ve bazı moderasyon çağrılarını inceleyen bir karar, şirketin bir denetimden vazgeçme kararını onadı. Başkan Joe Biden’ın videosu torununun göğsüne uygunsuz bir şekilde dokunuyormuş gibi görünecek şekilde düzenlenmişti. Ancak kurul, yapay zeka tarafından üretilmeyen videonun Meta’nın mevcut politikalarını ihlal etmemesine rağmen, bu videonun Meta’nın mevcut politikalarını ihlal etmediğini söyledi. gözden geçir ve genişlet “Manipüle edilmiş medya”ya ilişkin kuralları, yapay zeka tarafından oluşturulan içerikten daha fazlasını kapsayacaktır.
Meta sözcüsü McAlister, şirketin “Denetim Kurulunun rehberliğini gözden geçirdiğini ve tüzüklere uygun olarak 60 gün içinde tavsiyelerine kamuya açık olarak yanıt vereceğini” söyledi. Farid, Meta’nın politikalarındaki boşluğun ve yalnızca filigranlı yapay zeka tarafından oluşturulan görsellere teknik odaklanmanın, şirketin yapay zeka nesline yönelik planının eksik olduğunu gösterdiğini söylüyor.
Kaynak: https://www.wired.com/story/meta-crack-down-ai-generated-fakes/