MIT araştırmacıları yapay zeka risklerini içeren bir veri havuzu yayınladı

Bir kişi, şirket veya hükümet, bir yapay zeka sistemini kullanırken veya kullanımını yönetecek kurallar hazırlarken hangi spesifik riskleri dikkate almalıdır? Cevaplanması kolay bir soru değil. Kritik altyapıyı kontrol eden bir yapay zeka ise insan güvenliğine yönelik bariz bir risk söz konusudur. Peki ya göçmen kontrolünde sınavları puanlamak, özgeçmişleri sıralamak veya seyahat belgelerini doğrulamak için tasarlanmış bir yapay zekaya ne dersiniz? Her ne kadar riskler daha az ciddi olmasa da, bunların her biri kategorik olarak farklı riskler taşıyor.

Politika yapıcılar, AB Yapay Zeka Yasası veya Kaliforniya’nın SB 1047’si gibi yapay zekayı düzenleyen yasalar hazırlarken, yasaların hangi riskleri kapsaması gerektiği konusunda fikir birliğine varmakta zorlandılar. MIT araştırmacıları, hem kendileri hem de yapay zeka endüstrisi ve akademi genelindeki paydaşlar için bir kılavuz noktası sağlamaya yardımcı olmak amacıyla, yapay zeka risklerinin bir tür veritabanı olan yapay zeka “risk deposu” adını verdikleri şeyi geliştirdiler.

MIT’den araştırmacı Peter Slattery, “Bu, herkesin kopyalayıp kullanabileceği ve zaman içinde güncel tutulacak olan, herkesin erişebileceği, kapsamlı, genişletilebilir ve kategorize edilmiş bir risk veritabanına yapay zeka risklerini titiz bir şekilde düzenleme ve analiz etme girişimidir” dedi. TechCrunch’a konuşan FutureTech grubu ve AI risk havuzu projesinin lideri. “Bunu şimdi yarattık çünkü projemiz için buna ihtiyacımız vardı ve başkalarının da buna ihtiyacı olduğunu fark etmiştik.”

Slattery, nedensel faktörlere (örneğin kasıtlılık), alanlara (örneğin ayrımcılık) ve alt alanlara (örneğin dezenformasyon ve siber saldırılar) göre gruplandırılmış 700’den fazla yapay zeka riskini içeren yapay zeka risk deposunun, yapay zekadaki örtüşmeleri ve kopuklukları anlama arzusundan kaynaklandığını söylüyor. Yapay zeka güvenlik araştırması. Başka risk çerçeveleri de mevcuttur. Ancak Slattery, bunların veri havuzunda tanımlanan risklerin yalnızca bir kısmını kapsadığını ve bu ihmallerin yapay zeka gelişimi, kullanımı ve politika oluşturma açısından önemli sonuçlar doğurabileceğini söylüyor.

Slattery, “İnsanlar yapay zeka riskleri konusunda bir fikir birliğine varıldığını varsayabilir, ancak bulgularımız aksini gösteriyor” diye ekledi. “Ortalama çerçevelerin, belirlediğimiz 23 risk alt alanının yalnızca %34’ünden bahsettiğini ve neredeyse dörtte birinin %20’den azını kapsadığını gördük. Hiçbir belge veya genel bakış 23 risk alt alanının tamamından bahsetmedi ve en kapsamlısı yalnızca %70’ini kapsıyordu. Literatür bu kadar parçalanmışken, bu riskler konusunda hepimizin aynı fikirde olduğunu varsaymamalıyız.”

MIT araştırmacıları, veri tabanını oluşturmak için Queensland Üniversitesi, kar amacı gütmeyen Yaşamın Geleceği Enstitüsü, KU Leuven ve yapay zeka girişimi Harmony Intelligence’daki meslektaşlarıyla birlikte çalışarak akademik veritabanlarını taradı ve yapay zeka risk değerlendirmeleriyle ilgili binlerce belgeyi aldı.

Araştırmacılar, araştırdıkları üçüncü taraf çerçevelerin belirli risklerden diğerlerinden daha sık bahsettiğini buldu. Örneğin, çerçevelerin %70’inden fazlası yapay zekanın gizlilik ve güvenlik etkilerini içerirken yalnızca %44’ü yanlış bilgileri kapsıyordu. Yüzde 50’den fazlası yapay zekanın sürdürebileceği ayrımcılık ve yanlış beyan biçimlerini tartışırken, yalnızca yüzde 12’si “bilgi ekosisteminin kirlenmesi”nden, yani yapay zeka tarafından üretilen spam hacminin artmasından bahsetti.

Slattery, “Araştırmacılar, politika yapıcılar ve risklerle çalışan herkes için bu veri tabanının daha spesifik çalışmalar yaparken üzerine inşa edilebilecek bir temel sağlayabileceğidir” dedi. “Bundan önce bizim gibilerin iki seçeneği vardı. Kapsamlı bir genel bakış geliştirmek amacıyla dağınık literatürü gözden geçirmek için önemli miktarda zaman harcayabilirler veya ilgili riskleri gözden kaçırabilecek sınırlı sayıda mevcut çerçeveyi kullanabilirler. Artık daha kapsamlı bir veri tabanına sahipler, dolayısıyla veri tabanımızın zamandan tasarruf edeceğini ve gözetimi artıracağını umuyoruz.”

Ama kimse bunu kullanacak mı? Bugün dünya genelindeki yapay zeka düzenlemelerinin en iyi ihtimalle bir karmakarışıklık olduğu doğrudur: hedeflerinde birlik olmayan farklı yaklaşımlardan oluşan bir yelpaze. MIT’inki gibi bir yapay zeka risk deposu daha önce mevcut olsaydı, bu herhangi bir şeyi değiştirir miydi? Olabilir mi? Bunu söylemek zor.

Sorulması gereken bir diğer adil soru da basitçe hizalanıyor Yapay zekanın oluşturduğu riskler, onu yetkin bir şekilde düzenlemeye yönelik adımları teşvik etmek için yeterlidir. Yapay zeka sistemlerine yönelik pek çok güvenlik değerlendirmesinin önemli sınırlamaları vardır ve bir risk veri tabanı bu sorunu mutlaka çözmeyecektir.

Ancak MIT araştırmacıları denemeyi planlıyor. FutureTech laboratuvarının başkanı Neil Thompson, TechCrunch’a, grubun bir sonraki araştırma aşamasında farklı AI risklerinin ne kadar iyi ele alındığını değerlendirmek için depoyu kullanmayı planladığını söyledi.

Thompson, “Depomuz, farklı risklerin ne kadar iyi ele alındığını değerlendireceğimiz araştırmamızın bir sonraki adımında bize yardımcı olacak” dedi. “Bunu kurumsal tepkilerdeki eksiklikleri belirlemek için kullanmayı planlıyoruz. Örneğin, eğer herkes bir risk türüne odaklanırken benzer öneme sahip diğer riskleri göz ardı ediyorsa, bu fark etmemiz ve ele almamız gereken bir durumdur.

Kaynak: https://techcrunch.com/2024/08/14/mit-researchers-release-a-repository-of-ai-risks/