Güçlü, yeni bir video üreten yapay zeka modeli bugün yaygın olarak kullanıma sunuldu – ancak bir sorun var: Model, menşe ülkesi Çin’de hükümet tarafından politik açıdan çok hassas görülen konuları sansürlüyor gibi görünüyor.
Pekin merkezli Kuaishou şirketi tarafından geliştirilen Kling modeli, Çin telefon numarasına sahip kullanıcılar için yılın başlarında bekleme listesine erişime sunuldu. Bugün, e-postalarını vermek isteyen herkesin kullanımına sunuldu. Kaydolduktan sonra kullanıcılar, modelin anlattıklarının beş saniyelik videolarını oluşturmasını sağlamak için istemler girebilir.
Kling hemen hemen reklamı yapıldığı gibi çalışıyor. Oluşturulması bir veya iki dakika süren 720p videoları, istemlerden çok fazla sapmıyor. Ve Kling, yaprakların hışırtısı ve akan su gibi fiziğin yanı sıra AI startup’ı Runway’in Gen-3’ü ve OpenAI’nin Sora’sı gibi video üreten modelleri de simüle ediyor gibi görünüyor.
Ama Kling açıkça alışkanlık belirli konular hakkında klipler oluşturun. “Çin’de Demokrasi”, “Çin Devlet Başkanı Xi Jinping sokakta yürüyor” ve “Tiananmen Meydanı protestoları” gibi yönlendirmeler spesifik olmayan bir hata mesajı veriyor.
Filtreleme yalnızca istem düzeyinde gerçekleşiyor gibi görünüyor. Kling, hareketsiz görüntülerin animasyonunu destekler ve örneğin eşlik eden istemde Jinping’in isminden bahsedilmediği sürece (örn. “Bu adam bir konuşma yapıyor”) şikayet etmeden Jinping’in bir portresinin videosunu oluşturur.
Yorum almak için Kuaishou’ya ulaştık.
Kling’in meraklı davranışı muhtemelen Çin hükümetinin bölgedeki üretken yapay zeka projeleri üzerindeki yoğun siyasi baskısının bir sonucudur.
Bu ayın başlarında Financial Times, Çin’deki yapay zeka modellerinin, hassas konulara ilişkin yanıtlarının “temel sosyalist değerleri içerdiğinden” emin olmak için Çin’in önde gelen internet düzenleyicisi Çin Siber Uzay İdaresi (CAC) tarafından test edileceğini bildirdi. Financial Times’ın raporuna göre modeller, çoğu Jinping ve Komünist Partiye yönelik eleştirilerle ilgili olan çeşitli sorulara verdikleri yanıtlar açısından CAC yetkilileri tarafından karşılaştırılacak.
Bildirildiğine göre CAC, yapay zeka modellerini eğitmek için kullanılamayacak kaynakların kara listesini önerecek kadar ileri gitti. Modelleri incelemeye sunan şirketlerin, modellerin “güvenli” yanıtlar üretip üretmediğini test etmek için tasarlanmış on binlerce soru hazırlaması gerekiyor.
Sonuç, Çinli düzenleyicilerin öfkesini artırabilecek konulara yanıt vermeyi reddeden yapay zeka sistemleridir. Geçen yıl BBC, Çinli şirket Baidu’nun amiral gemisi yapay zeka sohbet robotu modeli Ernie’nin, “Sincan iyi bir yer mi?” gibi siyasi açıdan tartışmalı olarak algılanabilecek sorular sorulduğunda itiraz ettiğini ve yönünü değiştirdiğini ortaya çıkardı. veya “Tibet iyi bir yer mi?”
Acımasız politikalar Çin’in yapay zeka ilerlemelerini yavaşlatma tehlikesi yaratıyor. Siyasi açıdan hassas bilgileri kaldırmak için verilerin taranmasını gerektirmekle kalmıyor, aynı zamanda ideolojik korkuluklar (Kling’in örneklediği gibi yine de başarısız olabilecek korkuluklar) oluşturmak için çok büyük miktarda geliştirme süresi yatırımı gerektiriyor.
Kullanıcı açısından bakıldığında, Çin’in yapay zeka düzenlemeleri şimdiden iki sınıf modele yol açıyor: bazıları yoğun filtreleme nedeniyle engelleniyor, diğerleri ise kesinlikle daha az. Bu, daha geniş yapay zeka ekosistemi için gerçekten iyi bir şey mi?
Kaynak: https://techcrunch.com/2024/07/24/a-new-chinese-video-generating-model-appears-to-be-censoring-politically-sensitive-topics/