Bu hafta Birleşik Krallık, AB, ABD ve diğer yedi ülkeden yetkililer, “Uluslararası Yapay Zeka Güvenlik Enstitüleri Ağı”nı başlatmak için San Francisco’da bir araya geldi.
Presidio Golden Gate Club’da gerçekleştirilen toplantıda yapay zeka tarafından oluşturulan içeriğin risklerinin yönetilmesi, temel modellerin test edilmesi ve gelişmiş yapay zeka sistemleri için risk değerlendirmelerinin yapılması konuları ele alındı. Avustralya, Kanada, Fransa, Japonya, Kenya, Kore Cumhuriyeti ve Singapur’dan yapay zeka güvenlik enstitüleri de Ağa resmi olarak katıldı.
Bir misyon beyanının imzalanmasının yanı sıra, yapay zeka tarafından oluşturulan içerik araştırmalarına 11 milyon dolardan fazla fon tahsis edildi ve Ağın ilk ortak güvenlik testi uygulamasının sonuçları gözden geçirildi. Katılımcılar arasında, ortaya çıkan yapay zeka zorlukları ve potansiyel önlemler hakkındaki tartışmaya yardımcı olmak için düzenleyici yetkililer, yapay zeka geliştiricileri, akademisyenler ve sivil toplum liderleri yer aldı.
Toplantı, Mayıs ayında Seul’de düzenlenen önceki Yapay Zeka Güvenlik Zirvesi’nde kaydedilen ilerlemeye dayanıyordu. 10 ülke, “yapay zekanın eşi benzeri görülmemiş ilerlemeleri ve ekonomilerimiz ve toplumlarımız üzerindeki etkisi karşısında uluslararası işbirliği ve diyaloğu” geliştirme konusunda anlaştılar.
Avrupa Komisyonu’na göre, “Uluslararası Yapay Zeka Güvenlik Enstitüleri Ağı, yapay zeka güvenlik risklerini ve en iyi uygulamaları ele almak için teknik uzmanlığı bir araya getirerek işbirliği için bir forum görevi görecek”. “Kültürel ve dilsel çeşitliliğin öneminin bilincinde olan Ağ, yapay zeka güvenlik riskleri ve hafifletme stratejilerine ilişkin birleşik bir anlayışa yönelik çalışacak.”
Üye Yapay Zeka Güvenlik Enstitüleri, düzenleme konusundaki tartışmalarda ilerleyebilmeleri için Şubat 2025’teki Paris Yapay Zeka Etki Zirvesi’nde yapay zeka güvenliği testi ve değerlendirmesindeki ilerlemelerini göstermek zorunda kalacak.
Misyon beyanı, Ağ üyelerinin dört alanda işbirliği yapmalarını taahhüt etmektedir:
Ağ üyeleri ve birkaç kar amacı gütmeyen kuruluş, yapay zeka tarafından oluşturulan içerik riskinin azaltılmasına yönelik araştırmalar için toplamda 11 milyon doların üzerinde fon açıkladı. Çocukların cinsel istismarına yönelik materyaller, rıza dışı cinsel görüntüler ve yapay zekanın dolandırıcılık ve taklit amacıyla kullanılması temel endişe alanları olarak vurgulandı.
Fon, zararlı içeriğin üretilmesini ve dağıtılmasını önlemek için dijital içerik şeffaflığı tekniklerini ve model korumalarını araştıran araştırmacılara öncelikli olarak tahsis edilecektir. Hibeler, teknik azaltımlar ve sosyal bilimsel ve hümanistik değerlendirmeler geliştiren bilim insanları için değerlendirilecek.
ABD enstitüsü ayrıca yapay zeka tarafından oluşturulan içeriğin risklerini ele almak için bir dizi gönüllü yaklaşım yayınladı.
Ağ, Meta’nın Llama 3.1 405B’si üzerinde ilk ortak test çalışmasını tamamladı; genel bilgi, çoklu dil yetenekleri ve kapalı alan halüsinasyonları incelendi; burada bir model, kendisine talimat verilen alanın dışından bilgi sağlıyor ile.
Tatbikat, diller, kültürler ve bağlamlar arasında yapay zeka güvenlik testinin nasıl geliştirilebileceğine dair çeşitli hususları gündeme getirdi. Örneğin, küçük metodolojik farklılıkların ve model optimizasyon tekniklerinin değerlendirme sonuçları üzerindeki etkisi olabilir. Paris Yapay Zeka Eylem Zirvesi öncesinde daha geniş ortak test çalışmaları gerçekleştirilecek.
Ağ, yapay zeka risk değerlendirmeleri için, bunların eyleme dönüştürülebilir, şeffaf, kapsamlı, çok paydaşlı, tekrarlanabilir ve tekrarlanabilir olması da dahil olmak üzere ortak bir bilimsel temel üzerinde anlaşmaya vardı. Üyeler bunun nasıl işlevsel hale getirilebileceğini tartıştı.
Son olarak, ABD Yapay Zeka Güvenlik Enstitüsü liderliğindeki yeni TRAINS görev gücü oluşturuldu ve Ticaret, Savunma, Enerji ve İç Güvenlik dahil olmak üzere diğer ABD kurumlarından uzmanları içeriyordu. Tüm üyeler, radyolojik ve nükleer güvenlik, kimyasal ve biyolojik güvenlik, siber güvenlik, kritik altyapı ve askeri yetenekler gibi alanlardaki ulusal güvenlik risklerini yönetmek için yapay zeka modellerini test edecek.
BAKINIZ: Apple ABD Hükümetinin Yapay Zeka Güvenliğine Yönelik Gönüllü Taahhütüne Katılıyor
Bu, ABD’de yapay zeka ile ordunun kesişmesinin ne kadar akıllarda yer aldığını güçlendiriyor Geçen ay Beyaz Saray, Savunma Bakanlığı ve ABD istihbarat teşkilatlarına yapay zeka konusundaki çalışmalarını hızlandırma emrini veren ilk Yapay Zeka Ulusal Güvenlik Bildirisini yayınladı. yapay zekanın ulusal güvenlik görevlerinde benimsenmesi.
Açılış konuşmasını Çarşamba günü ABD Ticaret Bakanı Gina Raimondo yaptı. TIME’a göre katılımcılara “Yapay zekayı ilerletmenin yapılacak doğru şey olduğunu, ancak sonuçlarını düşünmeden yapabildiğimiz için olabildiğince hızlı ilerlemenin yapılacak akıllıca bir şey olmadığını” söyledi.
Yapay zekada ilerleme ve güvenlik arasındaki savaş, son aylarda hükümetler ve teknoloji şirketleri arasında bir çekişme konusu oldu. Amaç tüketicileri güvende tutmak olsa da düzenleyiciler, somut faydalar sağlayabilecek en son teknolojilere erişimlerini sınırlama riskiyle karşı karşıyadır. Google ve Meta, bölgenin yapay zeka yasasına atıfta bulunarak Avrupa yapay zeka düzenlemesini açıkça eleştirdiler ve bu düzenlemenin inovasyon potansiyelini ortadan kaldıracağını öne sürdüler.
AP’ye göre Raimondo, ABD Yapay Zeka Güvenliği Enstitüsü’nün “yeniliği engelleme işinde olmadığını” söyledi. “Ama olay şu. Güvenlik yenilik için iyidir. Güvenlik güveni doğurur. Güven benimsemeyi hızlandırır. Benimseme daha fazla yeniliğe yol açar.
Ayrıca ulusların işsizliğe ve güvenlik ihlallerine neden olmak gibi toplumu olumsuz etkileyebilecek riskleri yönetme “zorunluluğu” olduğunu da vurguladı. AP aracılığıyla yaptığı açıklamada, “Hırslarımızın bizi kör etmesine ve kendi sonumuza uyurgezerce gitmemize izin vermeyelim” dedi.
Anthropic’in CEO’su Dario Amodei de güvenlik testlerinin gerekliliğini vurgulayan bir konuşma yaptı. Fortune’a göre “insanlar bugün sohbet robotları biraz öngörülemeyen bir şey söylediğinde gülüyor” olsa da, bunun, daha kötü yetenekler kazanmadan önce yapay zekayı kontrol altına almanın ne kadar önemli olduğunu gösterdiğini söyledi.
Yapay zeka yetkililerinin ilk toplantısı yaklaşık bir yıl önce İngiltere’nin Buckinghamshire kentindeki Bletchley Park’ta gerçekleşti. Birleşik Krallık’taki Yapay Zeka Güvenlik Enstitüsü’nün açılışına tanık olundu; bu enstitünün üç ana hedefi vardır:
ABD’nin, Şubat 2024’te NIST tarafından resmi olarak kurulan ve ağın başkanı olarak atanan kendi Yapay Zeka Güvenlik Enstitüsü vardır. Ekim 2023’te yayınlanan Yapay Zeka Yönetici Kararında belirtilen öncelikli eylemler üzerinde çalışmak üzere oluşturuldu. Bu eylemler, yapay zeka sistemlerinin güvenliği ve güvenliğine yönelik standartların geliştirilmesini de içeriyor.
BAKINIZ: OpenAI ve Anthropic, ABD Yapay Zeka Güvenlik Enstitüsü ile Anlaşmalar İmzaladı
Nisan ayında Birleşik Krallık hükümeti, büyük ölçüde ilgili Yapay Zeka Güvenliği Enstitüleri tarafından yapılan gelişmeleri paylaşarak, gelişmiş yapay zeka modelleri için testler geliştirme konusunda ABD ile resmi olarak işbirliği yapmayı kabul etti. Seul’de yapılan bir anlaşma, işbirliğine katılan diğer ülkelerde de benzer enstitülerin kurulduğunu gördü.
ABD’nin yapay zeka güvenliğine yönelik pozisyonunu San Francisco konferansıyla açıklığa kavuşturmak özellikle önemliydi çünkü ülke şu anda çok büyük oranda destekleyici bir tutum sergilemiyor. Başkan seçilen Donald Trump, Beyaz Saray’a döndüğünde Başkanlık Kararnamesini yürürlükten kaldıracağına söz verdi. Toplantıya katılan Kaliforniya Valisi Gavin Newsom da Eylül ayı sonunda tartışmalı AI düzenlemesi SB 1047 yasasını veto etti.
Kaynak: https://www.techrepublic.com/article/international-network-ai-safety-institutes-meeting/
Web sitemizde ziyaretçilerimize daha iyi hizmet sağlayabilmek adına bazı çerezler kullanıyoruz. Web sitemizi kullanmaya devam ederseniz çerezleri kabul etmiş sayılırsınız.
Gizlilik Politikası