Kaliforniya Yapay Zeka Yasası SB 1047, Yapay Zeka felaketlerini önlemeyi amaçlıyor, ancak Silikon Vadisi bunun bir felakete yol açacağı konusunda uyarıyor

Bilimkurgu filmleri dışında yapay zeka sistemlerinin insanları öldürmesi veya siber saldırılarda kullanılmasına dair bir örnek yok. Ancak bazı kanun yapıcılar, kötü aktörlerin bu distopik geleceği gerçeğe dönüştürmesinden önce önlem almak istiyor. SB 1047 olarak bilinen bir Kaliforniya yasa tasarısı, yapay zeka sistemlerinin neden olduğu gerçek dünyadaki felaketleri gerçekleşmeden önce durdurmaya çalışıyor ve Ağustos ayının sonlarında eyalet senatosunda son oylamaya sunulacak.

Bu hepimizin üzerinde anlaşabileceği bir hedef gibi görünse de SB 1047, risk sermayedarları, büyük teknoloji ticaret grupları, araştırmacılar ve start-up kurucuları da dahil olmak üzere büyük ve küçük Silikon Vadisi oyuncularının öfkesini çekti. Şu anda ülke çapında çok sayıda yapay zeka yasa tasarısı uçuşuyor, ancak Kaliforniya’nın Sınır Yapay Zeka Modelleri için Güvenli ve Güvenli Yenilik Yasası en tartışmalı yasalardan biri haline geldi. İşte nedeni – ve bunu kim söylüyor?

SB 1047 ne işe yarar?

SB 1047, büyük yapay zeka modellerinin insanlığa karşı “kritik zararlara” neden olacak şekilde kullanılmasını engellemeye çalışıyor.

Tasarı, kitlesel ölümlere neden olacak bir silah oluşturmak için yapay zeka modelini kullanan veya birine 500 milyon dolardan fazla hasara yol açacak bir siber saldırı düzenleme talimatı veren kötü bir aktör olarak “kritik zararlara” örnekler veriyor (karşılaştırma için, Crowdstrike kesintisi şu şekildedir: 5 milyar dolardan fazlaya neden olduğu tahmin ediliyor). Tasarı, geliştiricileri (yani modelleri geliştiren şirketleri) bu gibi sonuçları önlemek için yeterli güvenlik protokollerini uygulamaktan sorumlu kılıyor.

Hangi modeller ve şirketler bu kurallara tabidir?

SB 1047’nin kuralları yalnızca dünyanın en büyük yapay zeka modelleri için geçerli: maliyeti en az 100 milyon dolar olan ve eğitim sırasında 10^26 FLOPS kullanan modeller – çok büyük bir hesaplama miktarı, ancak OpenAI CEO’su Sam Altman, GPT-4’ün eğitiminin bu kadara mal olduğunu söyledi . Gerektiğinde bu eşikler yükseltilebilir.

Bugün çok az şirket bu gereksinimleri karşılayacak kadar büyük halka açık yapay zeka ürünleri geliştirdi, ancak OpenAI, Google ve Microsoft gibi teknoloji devlerinin çok yakında bunu yapmaları bekleniyor. Yapay zeka modelleri (esasen verilerdeki kalıpları tanımlayan ve tahmin eden büyük istatistiksel motorlar) büyüdükçe genellikle daha doğru hale geldi ve birçok kişi bu eğilimin devam etmesini bekliyor. Mark Zuckerberg yakın zamanda yeni nesil Meta Lama’nın 10 kat daha fazla işlem gerektireceğini ve bunun da onu SB 1047’nin yetkisi altına alacağını söyledi.

Açık kaynaklı modeller ve türevleri söz konusu olduğunda yasa tasarısı, başka bir tarafça geliştirmeye veya ince ayar yapmaya 25 milyon dolar harcandığında, orijinal geliştirici yerine söz konusu türev modelden sorumlu olacaklarını belirledi.

Tasarı ayrıca, kapsam dahilindeki AI ürünlerinin kötüye kullanımını önlemek için, tüm AI modelini kapatan bir “acil durdurma” düğmesi de dahil olmak üzere bir güvenlik protokolü gerektiriyor. Geliştiriciler ayrıca yapay zeka modellerinin oluşturduğu riskleri ele alan test prosedürleri oluşturmalı ve yapay zeka güvenlik uygulamalarını değerlendirmek için yıllık olarak üçüncü taraf denetçileri işe almalıdır.

Sonuç, bu protokollere uymanın kritik zararları önleyeceğine dair “makul güvence” olmalıdır. Olumsuz mutlak kesinlik elbette sağlanması imkansızdır.

Bunu kim, nasıl uygulayacaktı?

Yeni bir Kaliforniya ajansı olan Frontier Model Division (FMD), kuralları denetleyecek. SB 1047’nin eşiklerini karşılayan her yeni genel yapay zeka modeli, güvenlik protokolünün yazılı bir kopyasıyla ayrı ayrı sertifikalandırılmalıdır.

Şap hastalığı, Kaliforniya valisi ve yasama organı tarafından atanan yapay zeka endüstrisinden, açık kaynak topluluğundan ve akademiden temsilcilerden oluşan beş kişilik bir kurul tarafından yönetilecek. Kurul, Kaliforniya başsavcısına SB 1047’nin potansiyel ihlalleri konusunda tavsiyelerde bulunacak ve yapay zeka modeli geliştiricilerine güvenlik uygulamaları konusunda rehberlik edecek.

Bir geliştiricinin baş teknoloji sorumlusu, AI modelinin potansiyel risklerini, güvenlik protokolünün ne kadar etkili olduğunu ve şirketin SB 1047’ye nasıl uyum sağladığına ilişkin bir açıklamayı değerlendiren FMD’ye yıllık bir sertifika sunmalıdır. olay” meydana gelirse, geliştiricinin olayı öğrenmesinden sonraki 72 saat içinde durumu FMD’ye bildirmesi gerekir.

Bir geliştiricinin bu hükümlerden herhangi birine uymaması durumunda SB 1047, Kaliforniya başsavcısının geliştiriciye karşı hukuk davası açmasına izin verir. Eğitilmesi 100 milyon dolara mal olan bir model için cezalar, ilk ihlalde 10 milyon dolara, sonraki ihlallerde ise 30 milyon dolara kadar çıkabilir. Yapay zeka modelleri pahalılaştıkça bu ceza oranı da artıyor.

Son olarak tasarı, çalışanların güvenli olmayan bir yapay zeka modeli hakkındaki bilgileri Kaliforniya Başsavcılığına ifşa etmeye çalışmaları durumunda ihbarcı korumalarını da içeriyor.

Destekleyenler ne diyor?

Tasarıyı yazan ve San Francisco’yu temsil eden Kaliforniya Eyalet Senatörü Scott Wiener, TechCrunch’a SB 1047’nin sosyal medya ve veri gizliliği konusundaki geçmiş politika başarısızlıklarından ders alma ve çok geç olmadan vatandaşları koruma girişimi olduğunu söyledi.

Wiener, “Teknolojide, zarar gelmesini bekleyip sonra ellerimizi ovuşturduğumuz bir geçmişimiz var” dedi. “Kötü bir şeyin olmasını beklemeyelim. Hadi bunun önüne geçelim.”

Bir şirket Teksas’ta veya Fransa’da 100 milyon dolarlık bir model yetiştirse bile Kaliforniya’da iş yaptığı sürece SB 1047 kapsamına girecek. Wiener, Kongre’nin “son çeyrek yüzyılda teknolojiyle ilgili dikkate değer derecede az yasa çıkarma yaptığını” ve bu nedenle burada bir emsal oluşturmanın Kaliforniya’ya bağlı olduğunu düşündüğünü söylüyor.

SB 1047’de OpenAI ve Meta ile tanışıp tanışmadığı sorulduğunda Wiener, “tüm büyük laboratuvarlarla görüştük” diyor.

Bazen “Yapay Zekanın vaftiz babaları” olarak anılan iki Yapay Zeka araştırmacısı Geoffrey Hinton ve Yoshua Bengio, bu tasarıyı desteklediler. Bu ikisi, yapay zeka topluluğunun, yapay zeka teknolojisinin neden olabileceği tehlikeli, kıyamet senaryolarından endişe duyan bir grubuna ait. Bu “Yapay Zeka felaketleri” araştırma dünyasında bir süredir var ve SB 1047 onların tercih ettiği güvenlik önlemlerinden bazılarını kanunlaştırabilir. SB 1047’ye sponsor olan başka bir grup olan Yapay Zeka Güvenliği Merkezi, Mayıs 2023’te açık bir mektup yazarak dünyadan “yapay zekadan kaynaklanan yok olma riskinin azaltılmasına” pandemiler veya nükleer savaş kadar ciddi bir şekilde öncelik vermesini istedi.

Yapay Zeka Güvenliği Merkezi direktörü Dan Hendrycks, bir e-postada şunları söyledi: “Bu, Kaliforniya ve ABD’deki endüstrinin uzun vadeli çıkarınadır, çünkü büyük bir güvenlik olayı muhtemelen daha fazla ilerlemenin önündeki en büyük engel olacaktır.” TechCrunch.

Son zamanlarda Hendrycks’in motivasyonları sorgulanmaya başlandı. Bir basın açıklamasına göre Temmuz ayında halka açık bir girişim olan Gray Swan’ı kurdu. Bu girişim, “şirketlerin yapay zeka sistemlerinin risklerini değerlendirmesine yardımcı olacak araçlar” geliştiriyor. Hendrycks’in startup’ının, tasarının geçmesi halinde kazanç elde edebileceği yönündeki eleştirilerin ardından, muhtemelen SB 1047’nin geliştiricinin işe almasını gerektirdiği denetçilerden biri olduğundan, Gray Swan’daki özsermaye hissesini elden çıkardı.

Hendrycks, TechCrunch’a gönderdiği bir e-postada “Net bir sinyal göndermek için elden çıkardım” dedi. “Sağduyulu yapay zeka güvenliğine karşı olan milyarder VC muhalefeti, amaçlarının saf olduğunu göstermek istiyorsa, bırakın onlar da aynısını yapsın.”

Rakipler ne diyor?

Silikon Vadisi oyuncularından oluşan büyüyen bir koro SB 1047’ye karşı çıkıyor.

Hendrycks’in “milyarder VC muhalefeti” muhtemelen Marc Andreessen ve Ben Horowitz tarafından kurulan ve SB 1047’ye şiddetle karşı çıkan girişim şirketi A16Z’yi kastediyor. Ağustos ayı başlarında girişim şirketinin baş hukuk sorumlusu Jaikumar Ramaswamy, Senatör Wiener’e bir mektup sundu. , tasarının “keyfi ve değişken eşikler nedeniyle startuplara yük getireceğini” iddia ederek yapay zeka ekosistemi üzerinde caydırıcı bir etki yarattığını iddia ediyor. Yapay zeka teknolojisi geliştikçe daha pahalı hale gelecek, bu da daha fazla startup’ın 100 milyon dolarlık eşiği aşacağı ve SB 1047 kapsamına gireceği anlamına geliyor; A16Z, birçok startup’ın eğitim modelleri için zaten bu kadar para aldığını söylüyor.

Genellikle yapay zekanın vaftiz annesi olarak anılan Fei-Fei Li, Ağustos başında SB 1047 hakkındaki sessizliğini bozdu ve Fortune’daki bir köşe yazısında tasarının “gelişmekte olan yapay zeka ekosistemimize zarar vereceğini” yazdı. Li, Stanford’da yapay zeka araştırmalarında saygın bir öncü olsa da, Nisan ayında World Labs adında, değeri bir milyar dolar olan ve A16Z tarafından desteklenen bir yapay zeka girişimi kurduğu da bildirildi.

Temmuz ayında Y Combinator etkinliğinde yaptığı konuşmada tasarıyı “açık kaynağa saldırı” olarak nitelendiren Stanford araştırmacısı Andrew Ng gibi etkili yapay zeka akademisyenlerine katılıyor. Açık kaynaklı modeller, herhangi bir açık yazılım gibi daha kolay değiştirilebildiğinden ve keyfi ve potansiyel olarak kötü amaçlarla dağıtıldığından, yaratıcıları için ek risk oluşturabilir.

Meta’nın Baş Yapay Zeka Bilimcisi Yann LeCun, X’teki bir gönderisinde SB 1047’nin araştırma çabalarına zarar vereceğini ve “bir avuç hayal ürünü düşünce kuruluşu tarafından itilen bir ‘varoluşsal risk’ yanılsamasına” dayandığını söyledi. Meta’nın Llama LLM’si bunlardan biridir. açık kaynaklı bir Yüksek Lisans’ın en önemli örneklerinden.

Startup’lar da tasarıdan memnun değil. Yapay zeka girişimi Omniscience’ın CEO’su ve San Francisco’daki yapay zeka girişimleri için bir merkez olan AGI House SF’nin kurucusu Jeremy Nixon, SB 1047’nin ekosistemini mahvedeceğinden endişe ediyor. Teknolojiyi açıkça geliştiren ve dağıtan yapay zeka laboratuvarlarının değil, kötü aktörlerin kritik zararlara neden oldukları için cezalandırılması gerektiğini savunuyor.

Nixon, “Tasarının merkezinde, Yüksek Lisans’ların tehlikeli kapasite seviyelerinde bir şekilde farklılık gösterebileceğine dair derin bir kafa karışıklığı var” dedi. “Benim düşünceme göre, tüm modellerin yasa tasarısında tanımlandığı gibi tehlikeli yeteneklere sahip olması muhtemeldir.”

Ancak tasarının doğrudan odaklandığı Big Tech de SB 1047 konusunda paniğe kapılmış durumda. Google, Apple, Amazon ve diğer Büyük Teknoloji devlerini temsil eden bir ticaret grubu olan İlerleme Odası, SB 1047’nin ifade özgürlüğünü kısıtladığını ve “teknoloji yeniliklerini Kaliforniya’nın dışına ittiğini” belirten tasarıya karşı çıkan açık bir mektup yayınladı. Geçen yıl, Google CEO’su Sundar Pichai ve diğer teknoloji yöneticileri federal yapay zeka düzenlemesi fikrini onayladılar.

Silikon Vadisi geleneksel olarak Kaliforniya’nın böyle geniş bir teknoloji düzenlemesi getirmesinden hoşlanmaz. 2019’da Big Tech, başka bir eyalet gizlilik yasa tasarısı olan Kaliforniya Tüketici Gizliliği Yasası da teknoloji ortamını değiştirmekle tehdit ettiğinde benzer bir kart çekti. Silikon Vadisi bu yasa tasarısına karşı lobi faaliyeti yürüttü ve yasanın yürürlüğe girmesinden aylar önce Amazon’un kurucusu Jeff Bezos ve diğer 50 yönetici, bunun yerine federal bir gizlilik yasa tasarısı talep eden açık bir mektup yazdı.

Sonra ne olacak?

15 Ağustos’ta SB 1047, onaylanan değişikliklerle birlikte Kaliforniya Senatosu Meclis salonuna gönderilecek. Wiener’a göre Kaliforniya Senatosu’nda kanun tasarılarının “yaşadığı ya da öldüğü” yer burası. Şu ana kadar milletvekillerinden gelen ezici destek göz önüne alındığında yasanın geçmesi bekleniyor.

Anthropic, Temmuz ayı sonlarında SB 1047’ye yönelik bir dizi değişiklik önerisi sundu; Wiener, kendisinin ve Kaliforniya Senatosu politika komitelerinin aktif olarak değerlendirdiğini söyledi. Anthropic, tasarıyı şu anki haliyle desteklemese de, SB 1047 üzerinde Wiener ile çalışmaya istekli olduğunu açıkça belirten son teknoloji ürünü bir yapay zeka modelinin ilk geliştiricisidir. Bu büyük ölçüde tasarı için bir kazanç olarak görüldü.

Anthropic’in önerdiği değişiklikler arasında FMD’den kurtulmak, Başsavcı’nın bir zarar meydana gelmeden önce AI geliştiricilerine dava açma yetkisinin azaltılması ve SB 1047’deki ihbarcı koruma hükmünden kurtulmak yer alıyor. Wiener, değişiklikler konusunda genel olarak olumlu olduğunu ancak birkaç kişinin onayına ihtiyacı olduğunu söylüyor Tasarıya eklemeden önce Senato politika komiteleri.

SB 1047 Senato’dan geçerse yasa tasarısı Kaliforniya Valisi Gavin Newsom’un masasına gönderilecek ve Newsom burada tasarıyı Ağustos ayı sonundan önce imzalayıp yasalaştırmayacağına karar verecek. Wiener, tasarı hakkında Newsom’la konuşmadığını ve pozisyonunu bilmediğini söyledi.

FMD’nin 2026’da oluşturulması planlandığı için bu yasa tasarısı hemen yürürlüğe girmeyecek. Ayrıca, yasa tasarısı geçerse o tarihten önce yasal zorluklarla karşılaşması çok muhtemel, belki de hakkında konuşan aynı gruplardan bazıları tarafından. şimdi.

Kaynak: https://techcrunch.com/2024/08/13/california-ai-bill-aims-to-prevent-disasters-silicon-valley/