Sam Altman: Bir sonraki OpenAI modeli ilk olarak ABD Hükümeti tarafından güvenlik kontrollerinden geçecek

Sektör lideri yapay zeka kapsamına ilişkin en son güncellemeler ve özel içerik için günlük ve haftalık bültenlerimize katılın. Daha fazla bilgi edin


Gelişmiş istihbarat sistemlerinin güvenliğine ilişkin endişelerin arttığı bir dönemde, OpenAI CEO Sam Altman, şirketin bir sonraki büyük üretken yapay zeka modelinin güvenlik kontrolleri için öncelikle ABD hükümetine gideceğini söyledi.

X ile ilgili bir gönderide Altman, şirketin bir sonraki temel modeline erken erişim sağlamak ve yapay zeka değerlendirme bilimini ilerletmek için işbirliği yapmak üzere bir federal hükümet organı olan ABD Yapay Zeka Güvenlik Enstitüsü ile bir anlaşma üzerinde çalıştığını belirtti.

OpenAI patronu ayrıca şirketin aşağılamama politikalarını değiştirdiğini, mevcut ve eski çalışanların şirket ve çalışmaları hakkındaki endişelerini özgürce dile getirmelerine izin verdiğini ve bilgi işlem kaynaklarının en az %20’sini güvenlik araştırmalarına ayırma kararlılığını sürdürdüğünü vurguladı.

ABD senatörlerinin mektubu OpenAI’yi sorguladı

OpenAI, ChatGPT’nin becerisi ve şirketin geliştirdiği tüm temel model ailesi sayesinde yapay zeka endüstrisinde tercih edilen bir isim haline geldi. Altman liderliğindeki laboratuvar agresif bir şekilde yeni ve çok yetenekli ürünleri piyasaya sürdü (sadece SearchGPT ile Google’a meydan okudu) ancak hızlı tempolu yaklaşım, kendi eski güvenlik ortak liderleri de dahil olmak üzere birçok kişinin, gelişmiş yapay zeka araştırmasının güvenlik yönünü göz ardı ettiğini iddia etmesiyle eleştirilere de maruz kaldı.

Endişelerin ışığında, beş ABD’li senatör yakın zamanda Altman’a OpenAI’nin güvenliğe olan bağlılığını ve iş sözleşmesindeki aşağılamama maddesi uyarınca endişelerini kamuya açıklayan eski çalışanlara karşı olası intikam vakalarını sorgulayan bir mektup yazdı.

“OpenAI, yapay zekanın (AI) kamu yararına güvenli, emniyetli ve sorumlu bir şekilde geliştirilmesine yönelik yol gösterici bir taahhüt duyurdu. Bu raporlar, OpenAI’nin ortaya çıkan güvenlik endişelerini nasıl ele aldığına dair soruları gündeme getiriyor.” dedi senatörler. yazdı.

Binaen Bloomberg’eOpenAI’nin baş strateji sorumlusu Jason Kwon kısa süre önce şirketin tüm insanlığa fayda sağlayacak yapay zeka geliştirme konusundaki kararlılığını teyit eden bir mektupla yanıt verdi. Ayrıca laboratuvarın sürecin her aşamasında “sıkı güvenlik protokollerini uygulamaya” adanmış olduğunu söyledi.

Atılan adımlar arasında, OpenAI’nin bilgi işlem kaynaklarının %20’sini güvenlik araştırmalarına ayırma planından (ilk olarak geçtiğimiz Temmuz ayında duyuruldu), mevcut ve eski çalışanların iş sözleşmelerindeki aşağılamama maddesini iptal etme hamlesinden bahsetti. Güvenli model sürümleri üzerinde işbirliği yapmak için AI Güvenlik Enstitüsü ile ortaklığı ve endişeleri rahatça dile getirin.

Altman daha sonra, özellikle Yapay Zeka Güvenlik Enstitüsü ile devam eden çalışmalar hakkında çok fazla ayrıntı paylaşmasa da aynı şeyi X hakkında yineledi.

Hükümet organı, bünyesinde barındırılan Ulusal Standartlar ve Teknoloji Enstitüsü (NIST), geçen yıl Birleşik Krallık Yapay Zeka Güvenliği Zirvesi’nde ulusal güvenlik, kamu güvenliği ve bireysel haklarla ilgili olanlar da dahil olmak üzere gelişmiş yapay zeka ile ilişkili riskleri ele alma misyonuyla duyuruldu. Bunu başarmak için aralarında Meta, Apple, Amazon, Google ve tabii ki OpenAI’nin de bulunduğu 100’den fazla teknoloji endüstrisi şirketinden oluşan bir konsorsiyumla çalışıyor.

Ancak erken erişime sahip olan tek hükümetin ABD hükümeti olmadığını belirtmekte fayda var. OpenAI’nin modellerinin güvenlik taraması için İngiltere hükümetiyle de benzer bir anlaşması var.

Mayıs ayında güvenlik endişeleri artmaya başladı

OpenAI’ye yönelik güvenlik endişeleri mayıs ayının başında artmaya başladı. İlya Sutskever Ve Jan Leike, OpenAI’nin süper hizalama ekibinin süper akıllı yapay zeka modellerini kontrol etmek için güvenlik sistemleri ve süreçleri oluşturmaya çalışan iki eş lideri, birkaç saat içinde istifa etti.

Özellikle Leike vokal ayrılışını anlattı ve şirketin “güvenlik kültürü ve süreçlerinin parlak ürünlere ikinci planda kaldığını” belirtti.

Ayrılışlardan kısa bir süre sonra, süper hizalama ekibinin de dağıtıldığına dair haberler ortaya çıktı. Ancak OpenAI kararlılıkla yoluna devam etti ve telaşını sürdürdü. ürün sürümleri evde paylaşım yaparken araştırma ve güven konusundaki çabalar ve emniyet ön. Hatta şirketin süreçlerini ve koruma önlemlerini inceleme sürecinde olan yeni bir emniyet ve güvenlik komitesi bile oluşturuldu.

Komite Bret Taylor (OpenAI yönetim kurulu başkanı ve müşteri hizmetleri girişimi Sierra AI’nin kurucu ortağı), Adam D’Angelo (Quora’nın CEO’su ve AI model toplayıcı uygulaması Poe), Nicole Seligman (eski Sony Corporation’ın başkan yardımcısı ve küresel genel danışmanı) ve Sam Altman (şu anki OpenAI CEO’su ve kurucu ortaklarından biri).


Kaynak: https://venturebeat.com/ai/sam-altman-next-openai-model-will-first-undergo-safety-checks-by-u-s-government/