Özel bir ağ oluşturma, içgörü ve sohbet gecesi için 27 Mart’ta Boston’daki liderlere katılın. Davet et Burada.
Üretken Yapay Zeka inkar edilemez derecede konuşkandır, bilgili, genellikle ikna edici ve son derece etkileyici görünen içerik üretir.
İfade özgürlüğünün temel bir insan hakkı olduğu göz önüne alındığında, ABD’deki bazı hukuk uzmanları kışkırtıcı bir şekilde şunu söylüyor: büyük dil modeli (LLM) çıktılar Birinci Değişiklik kapsamında korunuyor; bu, potansiyel olarak çok tehlikeli nesillerin bile sansür ve hükümet kontrolünün ötesinde olacağı anlamına geliyor.
Ancak hukuk fakültesinde yardımcı doçent olan Peter Salib Houston Üniversitesi Hukuk Merkezi, bu durumu tersine çevirmeyi umuyor; potansiyel olarak yıkıcı sonuçları önlemek için yapay zekanın uygun şekilde düzenlenmesi gerektiği konusunda uyarıyor. Bu alandaki çalışmaları sergilenecek Washington Üniversitesi Hukuk Fakültesi İncelemesi bu yılın sonlarında.
Salib, VentureBeat’e “Korunan konuşma kutsal bir anayasal kategoridir” dedi. “Eğer gerçekten GPT-5’in çıktılarıysa [or other models] Korumalı ifadeler varsa, bu sistemleri düzenleme yeteneğimiz açısından oldukça vahim olur.”
Korumalı yapay zeka konuşması lehine argümanlar
Neredeyse bir yıl önce hukuk gazetecisi Benjamin Wittes yazdı O “[w]İlk Değişiklik haklarına sahip ilk makineleri yarattık.”
ChatGPT ve benzeri sistemler “inkar edilemez bir şekilde ifade edici” olduğunu ve “inkar edilemez bir şekilde konuşmaya” sahip çıktılar yarattığını savundu. İçerik, görsel ve metin üretiyorlar, insanlarla diyalog kuruyorlar ve fikirlerini öne sürüyorlar.
“İnsanlar tarafından üretildiğinde, Birinci Değişiklik tüm bu materyal için geçerlidir” diye iddia ediyor. Evet, bu çıktılar “başka içeriklerin türevidir” ve orijinal değildir, ancak “birçok insanın da hiçbir zaman orijinal bir düşüncesi olmamıştır.”
Ve şunu belirtiyor: “Birinci Değişiklik orijinalliği korumaz. İfadeyi korur.”
Salib, üretken yapay zekanın çıktılarının “çok iyi” olduğu konusunda diğer bilim adamlarının da aynı fikirde olmaya başladığını belirtiyor. son derece konuşmaya benzer bunların birinin korumalı konuşması olması gerektiğini.”
Bu, bazılarının ürettikleri materyalin insan programcılarının korumalı konuşması olduğunu iddia etmesine yol açıyor. Öte yandan, diğerleri yapay zekanın, İlk Değişiklik haklarına sahip kurumsal sahiplerinin (ChatGPT gibi) korumalı konuşmalarının çıktısını aldığını düşünüyor.
Ancak Salib şunu ileri sürüyor: “Yapay zeka çıktıları, İlk Değişiklik haklarına sahip herhangi bir konuşmacının iletişimi değildir. Yapay zeka çıktıları herhangi bir insanın ifadesi değildir.”
Çıktılar giderek daha tehlikeli hale geliyor
Yapay zeka hızla gelişiyor ve çok daha yetenekli, daha geniş bir yelpazede daha iyi hale geliyor ve daha aracı benzeri, özerk ve açık uçlu şekillerde kullanılıyor.
Aynı zamanda hukuk ve politika danışmanı olarak da görev yapan Salib, “En yetenekli yapay zeka sistemlerinin kapasitesi çok hızlı bir şekilde ilerliyor; bunun ortaya çıkardığı riskler ve zorluklar var” dedi. Yapay Zeka Güvenliği Merkezi.
Yapay zekanın halihazırda yeni kimyasal silahlar icat edebileceğine dikkat çekti. VX’ten daha ölümcül (sinir gazlarının en zehirlilerinden biri) ve kötü niyetli insanların bunları sentezlemesine yardımcı olur; hayati önem taşıyan altyapının hacklenmesinde programcı olmayanlara yardım etmek; ve “karmaşık manipülasyon oyunları” oynayın.
Kendisi, örneğin ChatGPT ve diğer sistemlerin şu anda bir insan kullanıcının siyanürü sentezlemesine yardımcı olabilmesinin, bunun daha da tehlikeli bir şey yapmaya teşvik edilebileceğini gösterdiğine dikkat çekti.
Salib, yazısında şöyle yazıyor: “Yakın gelecekteki üretken yapay zeka sistemlerinin insan hayatı, uzuvları ve özgürlüğü için ciddi riskler oluşturacağına dair güçlü ampirik kanıtlar var.” 77 sayfalık kağıt.
Salib, bunun biyoterörizmi, “yeni pandemik virüslerin” üretimini ve kritik altyapıya yönelik saldırıları içerebileceğini, hatta yapay zekanın tam otomatik drone tabanlı siyasi suikastlar gerçekleştirebileceğini iddia ediyor.
Yapay zeka konuşkandır ancak insan konuşması değildir
Dünya liderleri bu tehlikelerin farkında ve güvenli ve etik yapay zekayla ilgili düzenlemeler yapmak için harekete geçiyor. Buradaki fikir, bu yasaların sistemlerin bunu yapmayı reddetmesini gerektirmesidir. tehlikeli şeyler veya insanların çıktılarını yayınlamasını yasaklayarak, sonuçta modelleri veya bunları yapan şirketleri “cezalandırıyor”.
Dışarıdan bakıldığında bu, konuşmayı sansürleyen yasalar gibi görünebilir, diye belirtti Salib, ChatGPT ve diğer modeller şüphesiz “konuşmalı” içerik üretiyor.
Yapay zekanın konuşması korunursa ve ABD hükümeti bunu düzenlemeye çalışırsa, bu yasaların en zorlayıcı ulusal çıkarlarla desteklenen son derece yüksek engelleri aşması gerekecektir.
Örneğin Salib, birinin özgürce şunu iddia edebileceğini söyledi: “Proletarya diktatörlüğünü başlatmak için hükümetin zorla devrilmesi gerekir.” Ancak hem “yakında” hem de “muhtemel” (yakında yasa dışı eylem testi) yasanın ihlaline yönelik çağrıda bulunmadıkça cezalandırılamazlar.
Bu, düzenleyicilerin “yakın büyük ölçekli bir felaketle” sonuçlanmadığı sürece ChatGPT veya OpenAI’yi düzenleyemeyeceği anlamına gelir.
Salib, “Yapay zeka çıktıları en iyi şekilde korunan konuşma olarak anlaşılırsa, o zaman güvenliği teşvik etmek için bile bunları doğrudan düzenleyen yasaların en katı anayasal testleri karşılaması gerekecek” diye yazıyor.
Yapay zeka diğer yazılım çıktılarından farklıdır
Açıkçası, bazı yazılımların çıktıları, onları oluşturanların ifadeleridir. Örneğin bir video oyunu tasarımcısının, yazılım aracılığıyla birleştirmek istediği belirli fikirleri vardır. Veya Twitter’a bir şeyler yazan bir kullanıcı kendi sesiyle iletişim kurmak istiyor.
Ancak nesil yapay zeka Salib, hem kavramsal hem de teknik olarak oldukça farklı olduğunu söyledi.
“GPT-5’i yapanlar bir şeyler söyleyen yazılımlar yapmaya çalışmıyorlar; Her şeyi söyleyen yazılımlar yapıyorlar” dedi Salib. Onlar “hiç düşünmedikleri milyonlarca, milyonlarca ve milyonlarca fikir dahil tüm mesajları iletmeye” çalışıyorlar.
Kullanıcılar, henüz bilmedikleri yanıtları veya içerikleri sağlayacak modeller elde etmek için açık sorular sorarlar
Salib, “İşte bu yüzden insan konuşması değil” dedi. Bu nedenle yapay zeka, “en yüksek düzeyde anayasal korumayı alan en kutsal kategoride” değil.
Yapay genel zeka (AGI) alanını daha fazla araştıran bazıları şunu iddia etmeye başlıyor: AI çıkışları sistemlerin kendilerine aittir.
Salib, “Belki de doğrudur; bu şeyler oldukça özerktir” diye kabul etti.
Ancak “insanlardan bağımsız konuşmayla ilgili şeyler” yapsalar bile bu, onlara ABD Anayasası kapsamında İlk Değişiklik haklarını vermek için yeterli değil.
Salib, “Dünyada İlk Değişiklik haklarına sahip olmayan birçok duyarlı varlık var” diye belirtti; örneğin Belçikalılar veya sincaplar.
Salib, “İnsanlık dışı yapay zekalar bir gün Birinci Değişiklik hakları sahipleri topluluğuna katılabilir” diye yazıyor. “Fakat şimdilik, dünyadaki insan konuşmacıların çoğu gibi onlar da bunun dışında kalıyor.”
Kurumsal konuşma mı?
Şirketler de insan değildir ancak onların konuşma hakları vardır. Bunun nedeni, bunların “kendilerini oluşturan insan haklarının türevi” olmalarıdır. Bu, yalnızca aksi takdirde korunan ifadelerin şirketlerle temasa geçtiğinde bu korumayı kaybetmesini önlemek için gerektiği kadar uzanır.
Salib, “Benim iddiam, kurumsal ifade haklarının, şirketi oluşturan insanların haklarına asalak olduğudur” dedi.
Örneğin, İlk Değişiklik haklarına sahip insanlar bazen konuşmak için bir şirketi kullanmak zorunda kalır; örneğin bir yazarın kitabını yayınlamak için Random House’a ihtiyacı vardır.
Salib, “Ancak bir yüksek lisans ilk etapta korumalı konuşma üretmiyorsa, bunun bir şirket tarafından satın alındığında veya bir şirket aracılığıyla iletildiğinde korumalı konuşmaya dönüşmesinin bir anlamı yok” dedi.
Süreci değil çıktıları düzenlemek
Salib, ileriye yönelik riskleri azaltmanın en iyi yolunun yapay zeka çıktılarını bizzat düzenlemek olduğunu savunuyor.
Bazıları çözümün ilk etapta sistemlerin kötü çıktılar üretmesini önlemek olduğunu söylese de bu kesinlikle mümkün değildir. Yüksek Lisans’ların kendi kendine programlama, “yorumlanamazlık” ve genellik nedeniyle çıktılar oluşturması engellenemez; bu da bunların, insan geri bildirimiyle takviyeli öğrenme (RLHF) gibi tekniklerle bile insanlar için büyük ölçüde tahmin edilemez olduğu anlamına gelir.
Salib, “Dolayısıyla şu anda güvenli kodu zorunlu kılan yasal kurallar yazmanın bir yolu yok” diye yazıyor.
Bunun yerine, başarılı yapay zeka güvenlik düzenlemeleri, modellerin ne “söylemesine” izin verildiğine ilişkin kurallar içermelidir. Kurallar değişebilir; örneğin, bir yapay zekanın çıktıları genellikle son derece tehlikeliyse, yasalar bir modelin yayınlanmadan kalmasını “hatta yok edilmesini” gerektirebilir. Veya çıktıların yalnızca hafif derecede tehlikeli ve ara sıra olması durumunda, çıktı başına sorumluluk kuralı geçerli olabilir.
Tüm bunlar, yapay zeka şirketlerine güvenlik araştırmalarına ve sıkı protokollere yatırım yapma konusunda daha güçlü teşvikler sağlayacak.
Salib, sonuçta nasıl şekillenirse şekillensin, “yasaların insanların aldatılmasını, zarar görmesini veya öldürülmesini önleyecek şekilde tasarlanması gerektiğini” vurguladı.
VentureBeat’in misyonu teknik karar vericilerin dönüştürücü kurumsal teknoloji hakkında bilgi edinmeleri ve işlem yapmaları için dijital bir şehir meydanı olmaktır. Brifinglerimizi keşfedin.
Kaynak: https://venturebeat.com/ai/are-ai-outputs-protected-speech-no-and-its-a-dangerous-proposition-legal-expert-says/