Devlet Bakanlığı destekli rapor, yıkıcı yapay zeka risklerini önlemek için eylem planı sağlıyor

Özel bir ağ oluşturma, içgörü ve sohbet gecesi için 27 Mart’ta Boston’daki liderlere katılın. Davet et Burada.


A rapor ABD Dışişleri Bakanlığı tarafından görevlendirilen rapor, yapay zekanın silah haline getirilmesi ve teknoloji üzerindeki kontrolü kaybetme tehdidi de dahil olmak üzere, ileri yapay zekanın ortaya çıkan tehditlerini önlemek için pratik önlemler öneriyor.

“Derinlemesine Savunma: Gelişmiş Yapay Zekanın Emniyetini ve Güvenliğini Artırmaya Yönelik Bir Eylem Planı” başlıklı rapor, tarafından derlendi. Gladstone AIJeremie ve Edouard Harris kardeşler tarafından kurulan bir yapay zeka güvenlik şirketi.

Eylem planına ilişkin çalışmalar, Ekim 2022’de, planın yayınlanmasından bir ay önce başladı. SohbetGPT. Aralarında sınır yapay zeka laboratuvarlarındaki araştırmacılar ve yöneticilerin, siber güvenlik uzmanlarının ve çeşitli ülkelerdeki ulusal güvenlik yetkililerinin de bulunduğu 200’den fazla kişiyle yapılan görüşmeler yer aldı.

Rapor, muazzam faydalarına rağmen, gelişmiş yapay zekanın “kitle imha benzeri (KİS benzeri) ve kitle imha silahlarına olanak sağlayan felaket risklerine yönelik tamamen yeni kategoriler oluşturduğu” konusunda uyarıyor. silahlanma ve kontrolün kaybı – ve özellikle de bu yeteneklerin devam eden çoğalmasının her iki riski de artırmaya hizmet etmesi gerçeği – ABD hükümetinin müdahale etmesine açık ve acil bir ihtiyaç var.”

VB Etkinliği

Yapay Zeka Etki Turu – Boston

27 Mart’ta Boston’daki AI Etki Turunun bir sonraki durağı için heyecanlıyız. Microsoft ile ortaklaşa gerçekleştirilen bu özel, yalnızca davetle katılabileceğiniz etkinlikte, 2024 ve sonrasında veri bütünlüğüne yönelik en iyi uygulamalara ilişkin tartışmalar yer alacak. Kontenjan sınırlıdır, bu nedenle bugün bir davet isteyin.

Davet et

Eylem planı, yapay zekanın risklerine ilişkin teknik ayrıntılar sunarken, aynı zamanda ABD ve müttefiklerinin bu riskleri azaltmasına yardımcı olabilecek politika önerilerini de sunuyor.

Silahlanma ve kontrol kaybı

Rapor iki temel riske odaklanıyor: silahlandırma Ve kontrol kaybı. Silahlanma, sıfır gün güvenlik açıklarını otonom olarak keşfeden yapay zeka sistemleri, yapay zeka destekli dezenformasyon kampanyaları ve biyolojik silah tasarımı gibi riskleri içerir. Sıfır gün güvenlik açıkları, bir bilgisayar sisteminde bir saldırganın siber saldırıda kullanabileceği, bilinmeyen veya giderilemeyen güvenlik açıklarıdır.

Bu tür saldırıları tam olarak gerçekleştirebilecek bir yapay zeka sistemi henüz bulunmamakla birlikte, bu cephelerde ilerlemeye dair erken işaretler var. Gelecek nesil yapay zeka bu tür saldırıları gerçekleştirebilir. Rapor, “Sonuç olarak, bu tür modellerin çoğalması ve hatta bunlara erişim, çıktılarını izlemeye ve kontrol etmeye yönelik etkili önlemler olmadan son derece tehlikeli olabilir” uyarısında bulunuyor.

Kontrol kaybı, “gelişmiş yapay zeka, yapay zeka benzeri insan ve insanüstü genel yetenek seviyelerine yaklaştıkça, etkili bir şekilde kontrol edilemez hale gelebileceğini” öne sürüyor. Kontrolsüz bir yapay zeka sistemi, kendisinin kapanmasını önlemek, çevresi üzerinde kontrol kurmak veya insanları manipüle etmek için aldatıcı davranışlarda bulunmak gibi güç arayışına giren davranışlar geliştirebilir. Kontrol kaybı, yapay zeka ile insanın niyetleri arasındaki uyum eksikliğinden kaynaklanmaktadır. Hizalama sınır yapay zeka laboratuvarlarında aktif bir araştırma alanıdır.

Rapora göre, “Yanlış hizalanmış bir YGZ sistemi, son derece yetkin bir optimize edici olduğu için felaket riski kaynağıdır”. “Yetkinliği, içselleştirilmiş hedeflerine ulaşmak için tehlikeli derecede yaratıcı stratejiler keşfetmesine ve uygulamasına olanak tanıyor ve çoğu hedef türüne ulaşmak için en etkili stratejiler, muhtemelen güç arama davranışlarını içeriyor.”

Çaba hatları

Eylem planı, iyi yapay zeka kullanımının faydalarını engellemeden, yapay zeka silahlanmasının ve kontrol kaybının yıkıcı ulusal güvenlik risklerini ele almak için “çaba hatları” (LOE) olarak kategorize ettiği çeşitli politika önerileri sunuyor.

Ed Harris, VentureBeat’e “Yüksek düzeyde eylem planı üç şeyin etrafında dönüyor” dedi. “1) Yapay Zeka Ar-Ge’sinden kaynaklanan ulusal güvenlik riskleri açısından mevcut durumu istikrara kavuşturmak. 2) Yapay zeka emniyeti ve güvenliği konusundaki yeteneklerimizi güçlendirin. Ve 3) İlk iki koşul karşılandığında bu sistemleri emniyetli ve emniyetli bir şekilde büyütmek için ihtiyaç duyacağımız yasal ve uluslararası çerçeveleri uygulamaya koyun.”

Yapay zeka yetenekleri artan bir hızla gelişmeye devam ediyor. Yapay zeka tarafından oluşturulan görüntülerde gördüğümüz gibi, mevcut yapay zeka sistemleri halihazırda çeşitli şekillerde silah haline getirilebiliyor. otomatik aramalar Son aylarda. LOE1, gelişmiş yapay zeka gelişimini istikrara kavuşturmak için geçici koruma önlemleri oluşturmayı amaçlamaktadır. Bu, ABD hükümetinin yapay zeka tehdit değerlendirmesi, analizi ve bilgi paylaşımı merkezi olarak hizmet verecek bir “Yapay Zeka gözlemevi” kurulmasıyla gerçekleştirilebilir. Aynı zamanda hükümetin, yapay zeka sistemleri geliştiren ABD kuruluşları için koruma önlemleri oluşturacak kurallar benimsemesi gerekiyor. Ve son olarak ABD, dünya çapında bulut hizmetlerinin, yapay zeka modellerinin ve yapay zeka donanımının güvenli kullanımını sağlamak için yapay zeka tedarik zinciri üzerindeki kontrolünü güçlendirmeli.

LOE2, ABD’yi yapay zeka olaylarına müdahale etmeye hazırlamayı amaçlamaktadır. Tedbirler arasında kurumlar arası çalışma gruplarının kurulması, hazırlıklılığın artırılması için ABD hükümeti genelinde eğitim ve öğretim programlarının oluşturulması ve gelişmiş yapay zeka ve yapay zeka vakalarına yönelik bir göstergeler ve uyarılar çerçevesi geliştirilmesi yer alıyor. Ve son olarak hükümetin bilinen ve ortaya çıkan tehditlere yanıt vermek için bir acil durum planı olması gerekir.

LOE3 yapay zeka güvenlik araştırmalarına desteği teşvik eder. Sınır laboratuvarları ise bir yarışa kilitlenmiş Daha gelişmiş yapay zeka yetenekleri yaratmak için hükümet, uyum araştırmalarını finanse etmeli ve sistemlerinin güvenliğini sağlamaya kararlı kalmalarını sağlayacak düzenlemeler geliştirmelidir.

LOE4, bir yapay zeka düzenleme kurumu ve yasal sorumluluk çerçevesi kurarak uzun vadeli risklerin üstesinden gelir. Eylem planına göre, “Bu yasal çerçeve, özellikle düzenleyici yükler küçük ölçekli kuruluşlara dayatılıyorsa, potansiyel yıkıcı tehditleri azaltma ihtiyacını, inovasyonu kısıtlama riskine karşı dikkatli bir şekilde dengelemelidir.”

LOE5, ABD hükümetinin yapay zeka tedarik zincirini güvence altına alırken uluslararası hukukta etkili bir yapay zeka koruma rejimi oluşturmak için alabileceği kısa vadeli diplomatik eylemleri ve uzun vadeli önlemleri ana hatlarıyla belirtiyor.

“Teklifte yaptığımızın büyük bir kısmı, sağlam trendlere (ölçeklendirme ve algoritmik ilerlemedeki trendler gibi) dayandıkları için iyi bir şekilde eskimesini beklediğimiz çerçeveleri tanımlamak, ancak bu çerçevelerin bazı ayrıntılarını belirlenmeye bırakmaktır. Jeremie Harris, VentureBeat’e “Yapay zekanın uygulandıkları andaki durumuna göre” dedi. “Güçlü çerçevelerin esnek bileşenlerle birleşimi, birçok LOE’de güvendiğimiz temel yaklaşımdır.”

Yapay zeka risklerini ele almanın zorluklarından biri, modelleri özel tutmak ve model ağırlıklarını serbest bırakmak için doğru dengeyi bulmaktır.

Ed, “Açık modellerle uğraşmanın emniyet ve güvenlik açısından kesinlikle faydaları var” dedi. “Ancak modeller giderek daha güçlü hale geldikçe, ne yazık ki terazi açık erişim risklerinin ödüllerden daha ağır basmasına doğru kayıyor.”

Örneğin, açık erişim modellerine, silahlaştırma biçimleri de dahil olmak üzere herhangi bir kullanım durumu için herkes tarafından ucuz bir şekilde ince ayar yapılabilir.

Ed, “Bir modeli açık erişim olarak piyasaya sürdüğünüzde, onun güvenli ve emniyetli olduğunu düşünebilirsiniz, ancak başka biri onu silah haline getirmek için ince ayar yapabilir ve bu gerçekleşirse onu geri alamazsınız – yalnızca hasarı alırsınız” dedi. . “Bu istikrarın bir parçası – sağduyulu kontrolleri erkenden uygulamaya koymamız ve birinin açık erişim modeli (şu anda kimse bunu nasıl yapacağını bilmiyor) ne kadar tehlikeli yapabileceğini anladığımızdan emin olmamız gerekiyor, böylece ölçeklendirmeye devam edebiliriz Açık erişim sürümlerini güvenli ve emniyetli bir şekilde yayınlayın.

AI riskinin erken belirtileri

Gladstone’u kurmadan önce Jeremie ve Ed, Y Combinator tarafından desteklenen bir şirket de dahil olmak üzere birçok yapay zeka girişimi kurmuştu.

GPT-2 2019’da çıktığında ilk kez ortaya çıkan yapay zeka tehditleri hakkında şüpheleri vardı. 2020’de GPT-3’ün piyasaya sürülmesiyle endişelerinde ciddi hale geldiler.

“GPT-3 şunu açıkça ortaya koydu: (1) ölçeklendirme bir şeydir; ve (2) zaten ölçeklendirme eğrisinde oldukça ilerdeydik,” dedi Jeremie. “Temel olarak bize bir ‘eğim’ ve bir ‘y-kesme noktası’ verdi, bu da işlerin çığırından çıkmak üzere olduğunu açıkça ortaya koydu.”

Fikri doğrulamak için OpenAI, DeepMind ve diğer önde gelen laboratuvarlardaki araştırmacılarla görüşmeler yaptılar. Kısa süre sonra riskleri araştırmak için yapay zeka şirketlerinden ayrılmaya karar verdiler.

Jeremie, “Önümüzdeki 12 ayı, yapay zeka güvenliği ve güvenliği konusunda öncü yapay zeka araştırmacılarıyla teknik araştırmaların bir kombinasyonunu yaparak ve ABD, Kanada ve Birleşik Krallık’taki üst düzey savunma ve ulusal güvenlik liderlerine brifing vererek geçirdik” dedi.

ChatGPT’nin ortaya çıkmasından bir yıl önce ikili, üst düzey ABD ulusal güvenlik ve savunma yetkilileri için üretken yapay zeka, büyük dil modelleri (LLM’ler) ve gelecekteki yapay zeka ölçeklendirmesinden kaynaklanabilecek silahlanma ve kontrol kaybı riskleri hakkında eğitim kursları düzenliyorlardı.

2022’de Jeremie, Ed ve eski Savunma Bakanlığı yöneticisi Mark Beale, yapay zekanın ulusal güvenlik riskleriyle ilgili endişeler nedeniyle Gladstone’u kurdu.

Jeremie, “Gladstone’un arkasındaki temel fikirlerden biri, konu yapay zeka olduğunda, bu alandaki ilerlemenin riskleri ve hızı nedeniyle teknoloji-politika ayrımının diğer alanlara kıyasla çok daha hızlı kapatılması gerektiğiydi” dedi. “Ancak aynı zamanda ABD hükümetinin, büyük teknolojiden veya ideolojik önyargılara sahip gruplardan bağımsız, yapay zeka riskine ilişkin teknik olarak bilgilendirilmiş bir tavsiye ve analiz kaynağına ihtiyacı var. O alanda herhangi bir organizasyon göremedik, bu yüzden boşluğu doldurmaya karar verdik.”

Yapay zeka güvenliğine ilişkin farklı bakış açıları

Politika yapıcılarla yaptıkları görüşmelerde Jeremie ve Ed, yapay zeka risklerine ilişkin görüşlerin değiştiğini fark ettiler. ChatGPT öncesinde, politika yapıcılar konuyu sürekli olarak ciddiye aldılar ve yapay zeka ilerlemesinin teknik itici güçlerinin kitle imha silahlarına benzer potansiyel riskleri ortaya çıkarma yolunda ilerlediğini anladılar ancak bu konuda ne yapacaklarından emin değillerdi.

Jeremie, “Bu dönemde, öncü yapay zeka güvenlik araştırmacılarından aldığımız raporları alıp temelde herhangi bir politika yapıcıya iletebilirdik ve onlar da, açıkça açıklanmaları koşuluyla bunları ciddiye alırlardı” dedi.

ChatGPT sonrasında durum daha da kutuplaştı.

“Bu kutuplaşma yanlış bir ikilemi doğurabilir. Büyük teknoloji şirketleri, ‘faydaları ve riski dengelemek için güvenli YGZ sistemlerine ulaşmanın en hızlı yolu nedir’ diye sormak yerine, hafif dokunuşlu düzenleme için lobi yapmak üzere milyarlarca dolar yatırım yapıyor ve diğerleri, yapay zeka ilerlemesine gerçekçi olmayan bir son verilmesini savunuyor,” dedi Jeremie. . “Bu, riskleri ciddiye alan gerçekçi önerilerin savunulmasını kesinlikle daha zor hale getirdi. Bir bakıma bu yeni bir şey değil: Sosyal medyada da benzer sorunların ortaya çıktığını gördük ve bu, işleri hemen halletmemiz gereken bir durum.”

Ekibin bir sonraki büyük hamlesi, eylem planıyla tutarlı Kongre ve Yürütme eylemlerine odaklanarak politika yapıcılara brifing verme çalışmalarını hızlandırmak olacak.

Jeremie, “Önerilerimizi geliştirmek için sınır laboratuvarlarındaki araştırmacılarla, yapay zeka emniyet ve güvenlik kuruluşlarındaki araştırmacılarla ve ulusal güvenlik uzmanlarıyla işbirliği yapmaya devam edeceğiz ve ihtiyaç duyuldukça önerilerimizle ilgili güncellemeler yayınlayabiliriz” dedi.

VentureBeat’in misyonu teknik karar vericilerin dönüştürücü kurumsal teknoloji hakkında bilgi edinmeleri ve işlem yapmaları için dijital bir şehir meydanı olmaktır. Brifinglerimizi keşfedin.

Kaynak: https://venturebeat.com/ai/action-plan-long-in-the-making-provides-policy-guidelines-to-avoid-catastrophic-ai-risks/