Özel bir ağ oluşturma, içgörü ve sohbet gecesi için 27 Mart’ta Boston’daki liderlere katılın. Davet et Burada.
Bir göre yeni kağıt 23 yapay zeka araştırmacısı, akademisyen ve yaratıcı tarafından yayınlanan ‘güvenli liman’ yasal ve teknik korumaları, araştırmacıların, gazetecilerin ve sanatçıların yapay zeka ürün ve hizmetlerine ilişkin “iyi niyetli” değerlendirmeler yapmalarına olanak sağlamak için gereklidir.
Makalede, bağımsız değerlendirme ihtiyacına rağmen, bu güvenlik açıklarıyla ilgili araştırma yapmanın, popüler yapay zeka modellerinin hizmet koşulları tarafından sıklıkla yasal olarak yasaklandığı belirtiliyor. OpenAI, Google, Antropik, Çekim, Meta ve Midjourney. Makalenin yazarları, teknoloji şirketlerini kamu yararına olan yapay zeka araştırmalarını tazmin etmeye ve bunu hesapların askıya alınmasından veya yasal misillemelerden korumaya çağırdı.
“Bu terimlerin kötü niyetli aktörlere karşı caydırıcı olması amaçlanmış olsa da, aynı zamanda yapay zeka güvenliği ve güvenilirlik araştırmalarını da istemeden kısıtlıyor; şirketler araştırmayı yasaklıyor ve politikalarını hesap askıya alma yoluyla uygulayabilirler” dedi. bir blog yazısı kağıt eşlik ediyor.
Makalenin ortak yazarlarından ikisi, MIT Medya Laboratuarı’ndan Shayne Longpre ve Princeton Üniversitesi’nden Sayash Kapoor, VentureBeat’e bunun özellikle önemli olduğunu açıkladı; örneğin yakın zamanda New York Times’ın davası OpenAI’nin bazı kısımlarını reddetme çabası söz konusu olduğunda. Times’ın değerlendirmesini karakterize etti ChatGPT’yi “hackleme” olarak nitelendirdi. The Times’ın baş danışmanı şu sözlerle yanıt verdi: “OpenAI’nin garip bir şekilde ‘hackleme’ olarak yanlış nitelendirdiği şey, OpenAI ürünlerini kullanarak Times’ın telif hakkıyla korunan eserlerini çalıp çoğalttıklarına dair kanıt aramaktır.”
Longpre, ‘güvenli liman’ fikrinin ilk olarak Knight First Amendment Institute tarafından sosyal medya platformu araştırması için önerildiğini söyledi. 2022’de. “Sosyal medya platformlarından, gazetecilerin sosyal medyanın zararlarını araştırmaya çalışmasını yasaklamamasını ve aynı şekilde araştırmacıların korunmasını da talep ettiler” dedi ve akademisyenlerin ve gazetecilerin dava edildiğine dikkat çekti veya hatta platformlardaki zayıflıkları ortaya çıkarmak için mücadele ederken hapiste bile vakit geçiriyorlardı.
“Yapay zeka araştırmaları için güvenli bir liman önermeye yönelik bu geçmiş çabalardan öğrenebildiğimiz kadar çok şey öğrenmeye çalıştık” dedi. “Yapay zeka sayesinde aslında insanların bu sistemleri nasıl kullandığı, ne tür zararlar olduğu hakkında hiçbir bilgimiz yok ve sahip olduğumuz tek araç bu platformlara araştırma erişimi.”
Bağımsız değerlendirme ve kırmızı ekip oluşturma ‘kritiktir’
Kağıt, Yapay Zeka Değerlendirmesi ve Kırmızı Takım Oluşturma için Güvenli Liman, yazarların bilgisine göre OpenAI, Anthropic, Inflection ve Midjourney gibi şirketlerde “kamu yararı araştırması sırasında hesapların askıya alınmasının” gerçekleştiğini ve “Midjourney’in en verimli olanı” olduğunu söylüyor. Sanatçıyı örnek gösterdiler Reid GüneyMakalenin ortak yazarlarından biri olarak listelenen ve orijinal telif hakkıyla korunan sürümlerle neredeyse aynı görünen Midjourney görsellerini paylaştıktan sonra Midjourney hesabı askıya alınan kişi. Araştırması, Midjourney’in, kullanıcının basit istemlerle açıkça niyeti olmadan sahibinin telif hakkını ihlal edebileceğini ortaya çıkardı.
Southen, VentureBeat’e e-posta yoluyla şunları söyledi: “Midjourney, kişisel masrafı 300 dolara yaklaşan beni üç kez yasakladı.” “ ilk yasak soruşturmamdan ve sonuçların yayınlanmasından sonraki 8 saat içinde gerçekleşti ve kısa bir süre sonra, kullanıcılarına ihlalde bulunan görüntülerin suçunu son kullanıcıya yüklemeleri konusunda bilgi vermeden Hizmet Şartlarını güncellediler.
Bulduğu model davranış türü, diye devam etti, “bağımsız değerlendirmeye ve kırmızı takım çalışmasına izin verilmesinin nedeni tam olarak budur, çünkü [the companies have] dünyanın her yerindeki hak sahiplerinin zararına, bunu kendilerinin yapmayacaklarını gösterdiler.”
Şeffaflık çok önemlidir
Longpre, sonuçta güvenli liman korumalarıyla ilgili konuların şeffaflıkla ilgili olduğunu söyledi.
“Bağımsız araştırmacılar, herhangi bir yanlış kullanım veya zarar vermediklerini kanıtlayabilirlerse, bir ürünün yeteneklerini ve/veya kusurlarını araştırma hakkına sahipler mi?” dedi. Ancak genel olarak şunu ekledi: “Şirketlerle çalışmak istediğimize dair bir mesaj göndermek istiyoruz, çünkü onların daha şeffaf olabilecekleri ve bu kusurları bulmaya yardımcı olmak için topluluğu kendi yararlarına kullanabilecekleri bir yol olduğuna inanıyoruz.” ve onları geliştirin.”
Kapoor, şirketlerin hizmetlerinin bazı türlerini yasaklamak için iyi nedenleri olabileceğini de sözlerine ekledi. Ancak bu, “herkese uyan tek tip” bir politika olmamalıdır; “hizmet şartları ister kötü niyetli bir kullanıcı olun ister güvenlik açısından kritik araştırmalar yürüten bir araştırmacı olun aynı olsun” dedi.
Kapoor ayrıca makalenin yazarlarının kullanım koşulları tartışmalı olan bazı şirketlerle de görüştüğünü söyledi. “Birçoğu teklife yeni bakıyordu ama bizim yaklaşımımız şirketlerle bu diyaloğu başlatmaktı” dedi. “Şu ana kadar ulaştığımız insanların çoğu, bizimle bu konuşmayı başlatmaya istekliydi, ancak henüz güvenli limanın getirilmesi konusunda herhangi bir şirketin kesin bir taahhüdümüz olduğunu düşünmüyorum.” OpenAI’nin makalenin ilk taslağını okuduktan sonra, belirli güvenli liman türlerine uyum sağlamak için hizmet şartlarındaki dili değiştirdiklerini belirtmesine rağmen.
“Yani bir dereceye kadar bu bize şirketlerin aslında bizimle bir miktar yol almaya istekli olabileceğine dair bir sinyal verdi” dedi.
VentureBeat’in misyonu teknik karar vericilerin dönüştürücü kurumsal teknoloji hakkında bilgi edinmeleri ve işlem yapmaları için dijital bir şehir meydanı olmaktır. Brifinglerimizi keşfedin.
Kaynak: https://venturebeat.com/ai/experts-call-for-legal-safe-harbor-so-researchers-journalists-and-artists-can-evaluate-ai-tools/