OpenAI, ABD Yapay Zeka Güvenliği Enstitüsü’ne bir sonraki modeline erken erişim sağlama sözü verdi

OpenAI CEO’su Sam Altman, OpenAI’nin, yapay zeka platformlarındaki riskleri değerlendirmeyi ve ele almayı amaçlayan federal bir hükümet organı olan ABD Yapay Zeka Güvenlik Enstitüsü ile güvenlik testleri için bir sonraki büyük üretken yapay zeka modeline erken erişim sağlamak üzere bir anlaşma üzerinde çalıştığını söyledi.

Altman’ın Perşembe akşamı geç saatlerde X’te yaptığı bir gönderide yaptığı duyuru, ayrıntılara ışık tutuyordu. Ancak bu anlaşma, İngiltere’nin yapay zeka güvenlik kurumuyla haziran ayında imzalanan benzer bir anlaşmanın yanı sıra, OpenAI’nin daha yetenekli, güçlü üretken yapay zeka teknolojileri arayışında yapay zeka güvenliği konusundaki çalışmalara öncelik verdiği söylemine karşı çıkmayı amaçlıyor gibi görünüyor.

Mayıs ayında OpenAI, “süper zeki” yapay zeka sistemlerinin kötüye gitmesini önlemek için kontroller geliştirme sorunu üzerinde çalışan bir birimi etkili bir şekilde dağıttı. Bizimki de dahil olmak üzere raporlar, OpenAI’nin ekibin güvenlik araştırmalarını yeni ürünler piyasaya sürmek adına bir kenara bıraktığını ve sonuçta ekibin iki ortak lideri Jan Leike (şu anda AI girişimi Anthropic’te güvenlik araştırmasına liderlik ediyor) ve OpenAI ortaklarının istifasına yol açtığını ileri sürdü. -kurucu Ilya Sutskever (güvenlik odaklı yapay zeka şirketi Safe Superintelligence Inc.’i kuran kişi).

OpenAI, büyüyen bir eleştirmen korosuna yanıt olarak, bilgi ifşa etmeyi dolaylı olarak caydıran kısıtlayıcı, aşağılayıcı olmayan hükümleri ortadan kaldıracağını ve bir güvenlik komisyonu oluşturacağını ve ayrıca hesaplamasının %20’sini güvenlik araştırmalarına ayıracağını söyledi. (Dağıtılan güvenlik ekibine, OpenAI’nin hesaplamasının %20’si için çalışma sözü verildi, ancak sonuçta bunu hiçbir zaman almadı.) Altman, %20 taahhüdünü yeniden taahhüt etti ve OpenAI’nin yeni ve mevcut personel için aşağılama yasağı şartlarını geçersiz kıldığını yeniden doğruladı. Mayısta.

Bununla birlikte, hamleler bazı gözlemcileri yatıştırmak için çok az şey yaptı; özellikle OpenAI’nin güvenlik komisyonuna personel atamasının ardından, Altman da dahil olmak üzere tüm şirket çalışanları ve yakın zamanda üst düzey bir AI güvenlik yöneticisini başka bir kuruluşa atadı.

Hawaii’den bir Demokrat olan Brian Schatz’ın da aralarında bulunduğu beş senatör, Altman’a gönderilen yakın tarihli bir mektupta OpenAI’nin politikaları hakkında sorular yöneltti. OpenAI baş strateji sorumlusu Jason Kwon bugün mektuba yanıt vererek OpenAI’yi yazdı:[is] Sürecimizin her aşamasında sıkı güvenlik protokollerini uygulamaya adadık.”

OpenAI’nin ABD Yapay Zeka Güvenlik Enstitüsü ile anlaşmasının zamanlaması, şirketin bu hafta başlarında Güvenlik Enstitüsüne standartları ve yönergeleri belirleyen bir yürütme organı olarak yetki verecek bir Senato tasarısı olan Yeniliklerin Geleceği Yasası’nı onaylaması ışığında biraz şüpheli görünüyor. AI modelleri için. Birlikte yapılan hamleler, düzenlemeleri ele geçirme girişimi veya en azından OpenAI’nin federal düzeyde yapay zeka politika oluşturma üzerindeki etkisi olarak algılanabilir.

Altman’ın, ABD’nin kritik altyapılarında “yapay zekanın emniyetli ve emniyetli bir şekilde geliştirilmesi ve konuşlandırılması” için öneriler sunan ABD İç Güvenlik Bakanlığı Yapay Zeka Güvenliği ve Güvenlik Kurulu arasında yer alması boşuna değil. Ve OpenAI, bu yıl federal lobicilik harcamalarını önemli ölçüde artırdı; 2023’ün tamamında 260.000 dolar harcarken, 2024’ün ilk altı ayında 800.000 dolar harcadı.

Ticaret Bakanlığı’nın Ulusal Standartlar ve Teknoloji Enstitüsü bünyesinde yer alan ABD Yapay Zeka Güvenliği Enstitüsü, Anthropic’in yanı sıra Google, Microsoft, Meta, Apple, Amazon ve Nvidia gibi büyük teknoloji firmalarını da içeren şirketlerden oluşan bir konsorsiyuma danışmanlık yapıyor. Sektör grubu, Başkan Joe Biden’ın Ekim ayındaki AI yönetim emrinde belirtilen, AI kırmızı ekibi, yetenek değerlendirmeleri, risk yönetimi, emniyet ve güvenlik ve sentetik içeriğe filigran ekleme için yönergeler geliştirmek de dahil olmak üzere ana hatlarıyla belirtilen eylemler üzerinde çalışmakla görevlendirildi.

Kaynak: https://techcrunch.com/2024/07/31/openai-pledges-to-give-u-s-ai-safety-institute-early-access-to-its-next-model/