Avrupa Komisyonu, üretken yapay zeka kullanımına ilişkin riskleri nasıl ele aldıklarına ilişkin Google, Meta, Microsoft, Snap, TikTok ve X’e bir dizi resmi bilgi talebi (RFI) gönderdi.
Bing, Facebook, Google Arama, Instagram, Snapchat, TikTok, YouTube ve X ile ilgili sorular, bloğun yeniden başlatılan e-ticaret ve çevrimiçi yönetim kuralları olan Dijital Hizmetler Yasası (DSA) kapsamında yapılıyor. Düzenleme kapsamında sekiz platform, çok büyük çevrimiçi platformlar (VLOP’lar) olarak belirlendi; bu, kural kitabının geri kalanına uymanın yanı sıra sistemik riskleri değerlendirmeleri ve azaltmaları gerektiği anlamına geliyor.
Perşembe günü yapılan bir basın açıklamasında Komisyon, kendi hizmetlerinde üretken yapay zeka ile bağlantılı risklere yönelik ilgili hafifletme önlemleri hakkında daha fazla bilgi sağlamalarını istediğini söyledi – yapay zeka teknolojilerinin yanlış bilgi ürettiği sözde “halüsinasyonlar” ile ilgili olanlar da dahil; deepfake’lerin viral yayılımı; ve seçmenleri yanıltabilecek hizmetlerin otomatik manipülasyonu.
“Komisyon ayrıca, üretken yapay zekanın seçim süreçleri üzerindeki etkisi, yasa dışı içeriğin yayılması, temel hakların korunması, cinsiyete dayalı şiddet, küçüklerin korunması ve zihinsel sağlık üzerindeki etkisi ile bağlantılı risk değerlendirmeleri ve hafifletme önlemleri hakkında bilgi ve dahili belgeler talep ediyor. Komisyon, soruların “Üretici Yapay Zeka içeriğinin hem yayılması hem de oluşturulması” ile ilgili olduğunu vurgulayarak ekledi.
Gazetecilere verdiği brifingde AB, Paskalya’dan sonra yapılması planlanan bir dizi stres testi planladığını da söyledi. Bunlar, platformların Haziran Avrupa Parlamentosu seçimleri öncesinde siyasi deepfake seli olasılığı gibi üretken yapay zeka riskleriyle başa çıkmaya hazır olup olmadığını test edecek.
“Platformları, tespit edebileceğimiz ve seçimler öncesinde tepki vermek zorunda kalacağımız tüm olaylara karşı mümkün olan en iyi şekilde hazırlanmak için ne yapıyorlarsa yapsınlar bize anlatmaya zorlamak istiyoruz.” İsminin gizli kalması kaydıyla konuşan üst düzey bir Komisyon yetkilisi şunları söyledi:
VLOP’ların Big Tech’e özgü DSA kurallarına uygunluğunu denetleyen AB, seçim güvenliğini uygulama için öncelikli alanlardan biri olarak adlandırdı. Resmi rehberlik üretmeye çalıştığı için yakın zamanda VLOP’lara yönelik seçim güvenliği kuralları konusunda danışmanlık yapıyor.
Komisyona göre bugünkü talepler kısmen bu rehberliği desteklemeyi amaçlıyor. Platformlara seçimlerin korunmasına ilişkin bilgi vermeleri için 3 Nisan’a kadar süre verilmiş olmasına rağmen bu, “acil” bir talep olarak nitelendiriliyor. Ancak AB, seçim güvenliği yönergelerini o zamandan daha erken, yani 27 Mart’a kadar tamamlamayı umduğunu söyledi.
Komisyon, sentetik içerik üretme maliyetinin önemli ölçüde düştüğünü ve bunun da seçimler sırasında yanıltıcı deepfake’lerin ortaya çıkma riskini artırdığını belirtti. Bu nedenle, siyasi derin sahtekarlıkları geniş çapta yaymak için büyük platformlarda dikkatleri artırıyor.
Geçen ay Münih Güvenlik Konferansı’nda yapılan ve Komisyonun şu anda RFI’ler gönderdiği aynı platformların desteğiyle ortaya çıkan, seçimler sırasında yapay zekanın aldatıcı kullanımıyla mücadeleye yönelik bir teknoloji endüstrisi anlaşması, AB’nin görüşüne göre yeterince ileri gitmiyor.
Bir Komisyon yetkilisi, yakında çıkacak olan seçim güvenliği kılavuzunun “çok daha ileri” gideceğini söyleyerek, kullanmayı planladığı üçlü güvenlik önlemine işaret etti: DSA’ya belirli “risk durumlarını” hedefleme yetkisi veren “açık durum tespiti kuralları” ile başlayarak ; AB’nin DSA kapsamında bir Davranış Kuralı haline gelmesini amaçladığı (yasal olarak bağlayıcı olmayan) Dezenformasyona Karşı Uygulama Kuralları aracılığıyla platformlarla çalışmaktan elde edilen beş yılı aşkın deneyimle birleştirilmiş; ve – ufukta – yeni çıkacak Yapay Zeka Yasası kapsamında şeffaflık etiketleme/Yapay Zeka modeli işaretleme kuralları.
Yetkili, AB’nin hedefinin seçimler öncesinde yararlanılabilecek bir “uygulama yapıları ekosistemi” oluşturmak olduğunu ekledi.
Komisyonun bugünkü RFI’leri, aynı zamanda, üretilen içerik ister görüntü/video ister ses olsun, derin sahte porno veya diğer kötü amaçlı sentetik içerik üretimi türleriyle ilgili zararlar gibi, seçmen manipülasyonundan daha geniş bir üretken yapay zeka riskleri yelpazesini ele almayı da hedefliyor. Bu sorular, yasa dışı içerik (nefret söylemi gibi) ve çocukların korunmasıyla ilgili riskler de dahil olmak üzere, AB’nin VLOP’lara yönelik DSA uygulamasına ilişkin diğer öncelikli alanları yansıtmaktadır.
Platformlara, diğer üretken AI RFI’larına yanıt vermeleri için 24 Nisan’a kadar süre verildi.
Yanıltıcı, kötü niyetli veya başka şekilde zararlı deepfake’lerin dağıtılabileceği daha küçük platformlar ve sentetik medyanın daha düşük maliyetle üretilmesini mümkün kılan daha küçük yapay zeka araç üreticileri de AB’nin risk azaltma radarında yer alıyor.
Bu tür platformlar ve araçlar, belirlenmedikleri için Komisyonun VLOP’lara yönelik açık DSA denetimi kapsamına girmeyecektir. Ancak düzenleyici etkiyi genişletme stratejisi, baskıyı daha büyük platformlar (bu bağlamda amplifikatör ve/veya dağıtım kanalları olarak hareket edebilir) aracılığıyla dolaylı olarak uygulamaktır; ve yukarıda adı geçen Dezenformasyon Yasası gibi kendi kendini düzenleyen mekanizmalar yoluyla; ve (katı yasa) Yapay Zeka Yasası kabul edildikten sonra (aylar içinde bekleniyor) kısa süre içinde devreye girecek ve faaliyete geçecek olan Yapay Zeka Paktı.
Kaynak: https://techcrunch.com/2024/03/14/eu-dsa-genai-rfis/