Birleşik Krallık’ın yakın zamanda kurulan yapay zeka güvenlik kurumu olan Birleşik Krallık Güvenlik Enstitüsü, endüstrinin, araştırma kuruluşlarının ve akademinin yapay zeka değerlendirmeleri geliştirmesini kolaylaştırarak “yapay zeka güvenliğini güçlendirmek” için tasarlanmış bir araç seti yayınladı.
Inspect adı verilen ve açık kaynak lisansı, özellikle de MIT Lisansı kapsamında sunulan araç seti, modellerin temel bilgisi ve muhakeme yeteneği de dahil olmak üzere yapay zeka modellerinin belirli yeteneklerini değerlendirmeyi ve sonuçlara dayalı bir puan oluşturmayı amaçlıyor.
Cuma günü haberi açıklayan bir basın açıklamasında Güvenlik Enstitüsü, Inspect’in “devlet destekli bir kuruluş tarafından öncülük edilen bir yapay zeka güvenlik test platformunun daha geniş kullanım için ilk kez piyasaya sürüldüğünü” ifade ettiğini iddia etti.
Güvenlik Enstitüsü başkanı Ian Hogarth yaptığı açıklamada, “Yapay zeka güvenlik testlerinde başarılı işbirliği, değerlendirmelerde ortak, erişilebilir bir yaklaşıma sahip olmak anlamına geliyor ve Inspect’in bir yapı taşı olabileceğini umuyoruz.” dedi. “Küresel yapay zeka topluluğunun Inspect’i yalnızca kendi model güvenlik testlerini gerçekleştirmek için değil, aynı zamanda açık kaynak platformuna uyum sağlamaya ve bu platform üzerinde geliştirme yapmaya yardımcı olmak için de kullandığını görmeyi umuyoruz, böylece genel olarak yüksek kaliteli değerlendirmeler üretebiliriz.”
Daha önce de yazdığımız gibi, yapay zeka kıyaslamaları zordur; özellikle de günümüzün en gelişmiş yapay zeka modellerinin, altyapısı, eğitim verileri ve diğer önemli ayrıntıları ayrıntıları oluşturan kara kutular olması ve bunları oluşturan şirketler tarafından gizli tutulması nedeniyle. Peki Inspect bu zorluğun üstesinden nasıl geliyor? Temel olarak yeni test tekniklerine genişletilebilir ve genişletilebilir olarak.
Inspect üç temel bileşenden oluşur: veri kümeleri, çözücüler ve puanlayıcılar. Veri setleri değerlendirme testleri için örnekler sağlar. Çözücüler testleri yürütme işini yapar. Ve puanlayıcılar, çözümleyicilerin çalışmalarını değerlendirir ve testlerden alınan puanları ölçümlere dönüştürür.
Inspect’in yerleşik bileşenleri Python’da yazılmış üçüncü taraf paketler aracılığıyla artırılabilir.
Mozilla’da araştırma görevlisi ve yapay zeka etik uzmanı Deborah Raj, X hakkındaki bir gönderide Inspect’i “Yapay zeka sorumluluğu için açık kaynak araçlara yapılan kamu yatırımının gücünün bir kanıtı” olarak nitelendirdi.
Yapay zeka girişimi Hugging Face’in CEO’su Clément Delangue, Inspect’i Hugging Face’in model kitaplığıyla entegre etme veya araç setinin değerlendirmelerinin sonuçlarıyla herkese açık bir liderlik tablosu oluşturma fikrini ortaya attı.
Inspect’in açıklaması, ABD’deki bir devlet kurumunun (Ulusal Standartlar ve Teknoloji Enstitüsü (NIST)) metin ve görüntü üreten yapay zeka da dahil olmak üzere çeşitli üretken yapay zeka teknolojilerini değerlendiren bir program olan NIST GenAI’yi başlatmasının ardından geldi. NIST GenAI, karşılaştırmalı değerlendirmeler yayınlamayı, içerik özgünlüğü tespit sistemlerinin oluşturulmasına yardımcı olmayı ve yapay zeka tarafından oluşturulan sahte veya yanıltıcı bilgileri tespit edecek yazılımların geliştirilmesini teşvik etmeyi planlıyor.
Nisan ayında ABD ve Birleşik Krallık, geçen yılın Kasım ayında Bletchley Park’ta düzenlenen Birleşik Krallık Yapay Zeka Güvenliği Zirvesi’nde açıklanan taahhütlerin ardından, gelişmiş yapay zeka model testlerini ortaklaşa geliştirmek için bir ortaklık duyurdu. İşbirliğinin bir parçası olarak ABD, genel olarak yapay zeka ve üretken yapay zekadan kaynaklanan riskleri değerlendirmekle görevlendirilecek kendi yapay zeka güvenlik enstitüsünü kurmayı planlıyor.
Kaynak: https://techcrunch.com/2024/05/11/u-k-agency-releases-tools-to-test-ai-model-safety/
Web sitemizde ziyaretçilerimize daha iyi hizmet sağlayabilmek adına bazı çerezler kullanıyoruz. Web sitemizi kullanmaya devam ederseniz çerezleri kabul etmiş sayılırsınız.
Gizlilik Politikası