OpenAI’nin düşmanca tehdit raporu bir başlangıç olmalı daha sağlam veri paylaşımı ilerliyor. Yapay zeka söz konusu olduğunda bağımsız araştırmacılar, kötüye kullanım veritabanlarını bir araya getirmeye başladı. Yapay Zeka Olay Veritabanı ve Siyasi Deepfakes Olayı Veritabanı—Araştırmacıların farklı suiistimal türlerini karşılaştırmasına ve suiistimallerin zaman içinde nasıl değiştiğini izlemesine olanak sağlamak. Ama çoğu zaman zor Dışarıdan kötüye kullanımı tespit etmek için. Yapay zeka araçları daha yetenekli ve yaygın hale geldikçe, düzenlemeyi düşünen politika yapıcıların bunların nasıl kullanıldığını ve suiistimal edildiğini anlamaları önemlidir. OpenAI’nin ilk raporu üst düzey özetler ve seçilmiş örnekler sunarken, araştırmacılarla veri paylaşımı ilişkilerinin genişletilmesi, rakip içerik veya davranışlara ilişkin daha fazla görünürlük sağlanması önemli bir sonraki adımdır.
Nüfuz operasyonları ve yapay zekanın kötüye kullanımıyla mücadele söz konusu olduğunda çevrimiçi kullanıcıların da oynayacakları bir rol var. Sonuçta bu içerik ancak insanlar onu görürse, inanırsa ve daha fazla paylaşmaya katılırsa bir etkiye sahip olur. OpenAI’nin açıkladığı vakalardan birinde, çevrimiçi kullanıcılar, yapay zeka tarafından oluşturulan metinleri kullanan sahte hesapları ihbar etti.
Kendi araştırmamızda, görülen Facebook kullanıcılarından oluşan topluluklar, spam gönderenler ve dolandırıcılar tarafından oluşturulan yapay zeka tarafından oluşturulan görsel içerikleri proaktif bir şekilde duyuruyor ve teknolojiden daha az haberdar olanların aldatmacaya düşmekten kaçınmasına yardımcı oluyor. Sağlıklı bir şüphecilik dozu giderek daha faydalı hale geliyor: İçeriğin gerçek olup olmadığını ve insanların iddia ettikleri kişi olup olmadığını kontrol etmek için duraklamak ve arkadaşların ve aile üyelerinin, oluşturulan içeriğin artan yaygınlığı konusunda daha fazla farkına varmalarına yardımcı olmak, sosyal medya kullanıcılarının sahtekarlığa direnmesine yardımcı olabilir. propagandacılar ve dolandırıcılar.
OpenAI’ler Blog yazısı Yayından kaldırma raporunun duyurulması kısa ve öz bir şekilde ifade ediyor: “Tehdit aktörleri internet üzerinden çalışıyor.” Biz de öyle yapmalıyız. Yapay zeka odaklı etki operasyonlarının yeni bir çağına girerken, daha dayanıklı bir dijital ekosistem geliştirmeyi umuyorsak şeffaflık, veri paylaşımı ve işbirliğine dayalı uyanıklık yoluyla ortak zorlukları ele almalıyız.
Josh A. Goldstein araştırma görevlisidir Georgetown Üniversitesi Güvenlik ve Gelişen Teknoloji Merkezi’nde (CSET) CyberAI Projesi üzerinde çalışmaktadır. Renee DiResta Stanford İnternet Gözlemevi’nin araştırma yöneticisi ve yazarıdır. Görünmez Hükümdarlar: Yalanları Gerçeğe Dönüştüren İnsanlar.
Kaynak: https://www.technologyreview.com/2024/06/08/1093356/propagandists-are-using-ai-too-and-companies-need-to-be-open-about-it/