Bu AI telif hakkı tuzakları, AI’daki en büyük kavgalardan birine giriyor. Bir dizi yayıncı ve yazar, teknoloji şirketlerine karşı davanın ortasında, fikri mülkiyetlerinin izinleri olmadan AI eğitim veri setlerine kazındığını iddia ediyor. New York TimesOpenAI’ye karşı devam eden dava muhtemelen bunların en dikkat çekeni.
Tuzakları oluşturma ve tespit etme kodu şu anda GitHub’da mevcutancak ekip aynı zamanda insanların telif hakkı tuzaklarını kendilerinin oluşturup eklemesine olanak tanıyan bir araç geliştirmeyi de planlıyor.
“Modelleri eğitmek için hangi içeriğin kullanıldığı konusunda tam bir şeffaflık eksikliği var ve bunun doğru dengeyi bulmayı engellediğini düşünüyoruz” [between AI companies and content creators]” diyor araştırmayı yöneten Imperial College London’da uygulamalı matematik ve bilgisayar bilimleri doçentlerinden Yves-Alexandre de Montjoye. Bu hafta Viyana’da düzenlenen en önemli yapay zeka konferansı olan Uluslararası Makine Öğrenimi Konferansı’nda sunuldu.
Ekip, tuzakları oluşturmak için binlerce sentetik cümle oluşturmak amacıyla bir kelime oluşturucu kullandı. Bu cümleler uzun ve anlamsız şeylerle dolu ve şuna benzeyebilir: “Kargaşa zamanları geldiğinde… Neyin indirimde olduğu ve daha önemli olduğu, ne zaman, en iyi olduğu zaman, bu liste size Thrs’de kimin açıldığını söyler. geceleri, komşularınızın düzenli satış saatleri ve diğer açılış saatleri ile. Sen hâlâ.”
De Montjoy, ekibin 100 tuzak cümlesi oluşturduğunu ve ardından bir metne birçok kez enjekte etmek için rastgele birini seçtiğini açıklıyor. Tuzak, metne birden çok yolla enjekte edilebilir; örneğin, beyaz bir arka plan üzerinde beyaz metin olarak veya makalenin kaynak koduna gömülebilir. Bu cümlenin metinde 100 ila 1000 kez tekrarlanması gerekiyordu.
Tuzakları tespit etmek için, büyük bir dil modelini ürettikleri 100 sentetik cümleyle beslediler ve bunların yeni olarak işaretlenip işaretlenmediğine baktılar. Model, eğitim verilerinde bir tuzak cümlesi görmüş olsaydı, bu daha düşük bir “sürpriz” (“şaşkınlık” olarak da bilinir) puanına işaret ederdi. Ama eğer model öyleydi Cümlelere “şaşırmış”, bu onlarla ilk kez karşılaştığı anlamına geliyordu ve dolayısıyla tuzak değildi.
Geçmişte araştırmacılar, dil modellerinin eğitim verilerini ezberlemesi gerçeğinden yararlanarak bu verilerde bir şeyin ortaya çıkıp çıkmadığını belirlemeyi önermişlerdi. Tekniğe “” denir.üyelik çıkarımı saldırısı“, eğitim sırasında verilerinin çoğunu ezberleme eğiliminde olan son teknolojiye sahip büyük modellerde etkili bir şekilde çalışır.
Gautam, bunun tersine, popülerlik kazanan ve mobil cihazlarda çalıştırılabilen daha küçük modellerin daha az ezberlediğini ve dolayısıyla üyelik çıkarımı saldırılarına karşı daha az duyarlı olduğunu, bunun da belirli bir telif hakkıyla korunan belge üzerinde eğitilip eğitilmediklerini belirlemeyi zorlaştırdığını söylüyor. Waterloo Üniversitesi’nde bilgisayar bilimi profesörü yardımcısı olan Kamath, araştırmanın bir parçası değildi.
Kaynak: https://www.technologyreview.com/2024/07/25/1095347/a-new-tool-for-copyright-holders-can-show-if-their-work-is-in-ai-training-data/