Şu anda bir modelin piyasaya sürülmeden önce güvenli olmasını sağlamaya odaklanma eğiliminde olduğumuzdan, bu bulguların yapay zekayı nasıl değerlendirdiğimize dair etkileri olabilir. MIT FutureTech direktörü ve veritabanının yaratıcılarından biri olan Neil Thompson, “Veritabanımız, risklerin kapsamının önemli olduğunu ve bunların hepsinin önceden kontrol edilemeyeceğini söylüyor” diyor. Bu nedenle, laboratuvarlardaki denetçiler, politika yapıcılar ve bilim insanları, modelleri kullanıma sunulduktan sonra, dağıtım sonrasında sundukları riskleri düzenli olarak gözden geçirerek izlemek isteyebilirler.
Geçmişte buna benzer bir liste oluşturmak için birçok girişimde bulunuldu, ancak Thompson, bunların öncelikli olarak yapay zekadan kaynaklanan dar bir dizi potansiyel zararla ilgilendiklerini ve parça parça yaklaşımın risklere ilişkin kapsamlı bir görüş elde etmeyi zorlaştırdığını söylüyor. AI ile ilişkilidir.
Bu yeni veritabanıyla bile en çok hangi yapay zeka riskinden endişe edilmesi gerektiğini bilmek zor; bu görev daha da karmaşık hale geldi çünkü tam olarak anlamadım en son teknolojiye sahip yapay zeka sistemlerinin nasıl çalıştığını.
Veritabanının yaratıcıları, riskleri oluşturdukları tehlike düzeyine göre sıralamamayı tercih ederek bu soruyu atladılar.
MIT FutureTech’te doktora sonrası çalışanlardan biri olan veritabanının baş yazarı Peter Slattery, “Aslında yapmak istediğimiz şey tarafsız ve kapsamlı bir veritabanına sahip olmaktı ve tarafsız derken, her şeyi sunulduğu gibi almak ve bu konuda çok şeffaf olmak istiyorum” diyor. .
Ancak projede yer almayan, Stanford Üniversitesi’nde bilgisayar bilimleri alanında doktora öğrencisi ve Yapay Zeka Güvenliği Merkezi üyesi olan Anka Reuel, bu taktiğin veritabanının kullanışlılığını sınırlayabileceğini söylüyor. Yalnızca yapay zekayla ilişkili riskleri derlemenin yakında yetersiz kalacağını söylüyor. “Çok detaylı bir çalışma yürüttüler, bu gelecekteki araştırma çabaları için iyi bir başlangıç noktasıdır, ancak insanların tüm riskler konusunda bilinçlendirilmesinin artık asıl sorun olmadığı bir noktaya geldiğimizi düşünüyorum” diyor. “Bana göre bu, bu riskleri tercüme etmektir. Mücadele etmek için aslında ne yapmamız gerekiyor? [them]?”
Bu veri tabanı gelecekteki araştırmalara kapı açmaktadır. Yaratıcıları bu listeyi kısmen hangi risklerin yeterince araştırılmadığı veya ele alınmadığı gibi kendi sorularını araştırmak için hazırladı. “En çok endişe duyduğumuz şey boşluklar var mı?” Thompson diyor.
“Bunun yaşayan bir veri tabanı olmasını, bir şeyin başlangıcı olmasını amaçlıyoruz. Çok istekliyiz geri bildirim al Bu konuda,” diyor Slattery. “Bunu, ‘Bunu gerçekten çözdük ve yaptığımız her şey mükemmel olacak’ diyerek ortaya koymadık.”
Kaynak: https://www.technologyreview.com/2024/08/14/1096455/new-database-lists-ways-ai-go-wrong/