Kaliforniya Ödenek Komitesi, Silikon Vadisi’nin düzenlenmesi destanındaki en son hamle olan Sınır Yapay Zeka Modelleri Yasasını (SB-1047 olarak da bilinir) Perşembe günü kabul etti.
Eyalet Meclisi ve Senato’nun yasa tasarısını yasalaşmadan önce onaylaması gerekiyor.
SB-1047 nedir?
Halk dilinde Kaliforniya Yapay Zeka Yasası olarak bilinen ve üretken yapay zekayla ilgili eyalet kuralları için bir emsal teşkil etmesi ihtimali nedeniyle ülke çapında yakından izlenen SB-1047, yapay zeka geliştiricileri için çeşitli kurallar ortaya koyuyor:
- Kapsam dahilindeki yapay zeka modelleri için emniyet ve güvenlik protokolleri oluşturun.
- Bu tür modellerin tamamen kapatılabileceğinden emin olun.
- Yasanın “kritik zarar” olarak tanımladığı duruma neden olabilecek modellerin dağıtımını önleyin.
- Yasaya uygunluğu sağlamak için bir denetçi tutun.
Kısacası tasarı, üretken yapay zeka modellerinin nükleer savaş veya biyolojik silahlar yoluyla insanlığa büyük ölçekli zarar vermesini veya bir siber güvenlik olayı yoluyla 500 milyon doların üzerinde kayba neden olmasını önleyen bir çerçeve sağlıyor.
Yasa, “kapsanan modeller”i, eğitim sırasında 10^26 tamsayı veya kayan nokta işlemlerinden daha fazla hesaplama gücü kullananlar (maliyeti 100 milyon doları aşan modeller) olarak tanımlıyor.
Yasanın son versiyonu Antropik’ten gelen girdileri içeriyor
Tasarının Perşembe günü kabul edilen versiyonu, yapay zeka üreticisi Anthropic tarafından önerilen ve birincil tasarı yazarı Sen. Scott Wiener, D-Calif tarafından kabul edilen bazı değişiklikleri içeriyordu.
Anthropic, yasayı ihlal eden şirketlerin eyalet başsavcılığından yasal işlem başlatabileceğini söyleyerek devletten tasarıdaki ifadeyi kaldırmasını başarıyla istedi. En yeni sürüm, şirketlerin yalancı şahitlik tehdidi altında güvenlik testi sonuçlarını açıklama ihtiyacını ortadan kaldırıyor. Bunun yerine geliştiricilerin aynı yasal ağırlığa sahip olmayan beyanlar sunmaları gerekecektir.
Diğer değişiklikler şunları içerir:
- Yapay zeka şirketlerinin “makul güvenlik güvencesi” sağlamak zorunda olduğu ifadelerden “makul bakım”a geçiş.
- Açık kaynaklı bir modelin ince ayarını yapmak için 10 milyon dolardan daha az harcama yapan yapay zeka araştırmacılarının o modelin geliştiricisi olarak kabul edilmediği bir istisna.
BAKIN: Anthropic ve OpenAI, üretken yapay zekanın önyargılı içerik de dahil olmak üzere nasıl içerik oluşturduğuna dair kendi araştırmalarını yaptılar.
Tasarı artık yapay zeka endüstrisini denetleyecek bir kurum olan Frontier Model Division’ın kurulmasını gerektirmiyor. Bunun yerine, ileriye dönük güvenlik rehberliği ve denetimlerine odaklanan bir Sınır Modelleri Kurulu, mevcut Devlet Operasyon Ajansı bünyesinde yer alacak.
Anthropic tasarıya katkıda bulunurken, Google ve Meta gibi diğer büyük kuruluşlar ise bu teklifi onaylamadıklarını ifade etti. Birçok AI girişiminin arkasında yer alan ve a16z olarak bilinen bir risk sermayesi şirketi olan Andreessen Horowitz, SB-1047’ye yüksek sesle karşı çıktı.
SB-1047 neden tartışmalı?
Sektör ve Kongre’den bazı temsilciler, yasanın inovasyonu kısıtlayacağını ve açık kaynaklı yapay zeka modelleriyle çalışmayı özellikle zorlaştıracağını söylüyor. Fast Company’nin belirttiği gibi tasarıyı eleştirenler arasında Hugging Face’in kurucu ortağı ve CEO’su Clement Delangue de vardı.
Düzenleme yanlısı düşünce kuruluşu Yapay Zeka Politikası Enstitüsü tarafından Nisan ayında yapılan bir araştırma, Kaliforniyalıların çoğunun o zamanki haliyle tasarıyı desteklemek yönünde oy kullandığını ve %70’inin “gelecekteki güçlü yapay zeka modellerinin tehlikeli amaçlar için kullanılabileceği” konusunda hemfikir olduğunu ortaya çıkardı.
Derin öğrenme konusundaki öncü çalışmaları nedeniyle “Yapay Zekanın vaftiz babaları” olarak bilinen araştırmacılar Geoffrey Hinton ve Yoshua Bengio da tasarıyı açıkça destekliyor. Bengio, 15 Ağustos’ta Fortune dergisindeki köşe yazısında, yasanın “halkı koruyacağını” yazdı.
Kaliforniya’daki 52 Kongre üyesinden sekizi Perşembe günü, yasanın “kamu güvenliğine çok az fayda sağlayarak Kaliforniya ekonomisi için gereksiz riskler yaratacağını” belirten bir mektuba imza attı. NIST gibi devlet kurumları hala bu standartları oluşturmaya çalışırken, yapay zeka için standartlaştırılmış değerlendirmeler oluşturmak için henüz çok erken olduğunu savunuyorlar.
Kritik zarar tanımının yanıltıcı olabileceğini öne süren yetkililer, yasa tasarısının nükleer silahlar gibi büyük ölçekli felaketlere odaklanarak yanlış yola saptığını, ancak “yanlış bilgi, ayrımcılık, rıza dışı derin sahtekarlıklar, çevresel etkiler ve iş gücü gibi kanıtlanabilir yapay zeka risklerinin büyük ölçüde göz ardı edildiğini” öne sürüyor. yer değiştirme.”
SB-1047, Kaliforniya İhbarcıları Koruma Yasası kapsamında AI şirketi ihbarcıları için özel koruma içerir.
Kanun, düzenleme ve inovasyonu dengelemenin zorluklarını gündeme getiriyor
“Hem yeniliği hem de güvenliği geliştirebiliriz; Wiener, 15 Ağustos’ta yaptığı basın açıklamasında, bu ikisinin birbirini dışlamadığını yazdı. “Değişiklikler, hem yenilik hem de güvenlik konusunda dünya lideri olan Anthropic’in talep ettiği değişikliklerin %100’ünü yansıtmasa da, çok sayıda önemli değişikliği kabul ettik.” makul değişiklikler önerildi ve Anthropic ve sektördeki diğer pek çok kişi tarafından ifade edilen temel kaygıları ele aldığımıza inanıyorum.”
Kongre’nin yapay zeka düzenlemesi konusunda “tıkalı” olduğunu, dolayısıyla “Kaliforniya’nın hızla ilerleyen yapay zekanın sunduğu öngörülebilir risklerin önüne geçmek ve aynı zamanda yeniliği teşvik etmek için harekete geçmesi gerektiğini” belirtti.
Daha sonra tasarının Meclis ve Senato’dan geçmesi gerekecek. Onaylandığı takdirde tasarı muhtemelen Ağustos ayının sonlarında Vali Gavin Newsom tarafından değerlendirilecek.
Kaynak: https://www.techrepublic.com/article/california-ai-bill-2014/