SONUÇ: İyi. Bu genel anlamda cesaret verici bir sonuçtur. Filigranlama hala deneysel ve güvenilmez olsa da, bunun etrafında yapılan araştırmaları ve C2PA standardına bağlılığı görmek hala güzel. Özellikle yoğun bir seçim yılında hiç yoktan iyidir.
Taahhüt 6
Şirketler yapay zeka sistemlerinin yeteneklerini, sınırlamalarını ve uygun ve uygunsuz kullanım alanlarını kamuya bildirmeyi taahhüt ediyor. Bu rapor hem güvenlik risklerini hem de adalet ve önyargı üzerindeki etkiler gibi toplumsal riskleri kapsayacaktır.
Beyaz Saray’ın taahhütleri yoruma çok yer bırakıyor. Örneğin şirketler, bu kamuya raporlama taahhüdünü, çok çeşitli şeffaflık düzeyleriyle teknik olarak yerine getirebilirler. bir şey bu genel yönde.
Teknoloji şirketlerinin burada sunduğu en yaygın çözümler model kartlardı. Her şirket bunları biraz farklı bir isimle adlandırıyor ancak özünde yapay zeka modelleri için bir tür ürün açıklaması görevi görüyorlar. Modelin yeteneklerinden ve sınırlamalarından (adillik ve açıklanabilirlik kriterlerine göre nasıl ölçüldüğü dahil) doğruluk, sağlamlık, yönetişim, gizlilik ve güvenliğe kadar her şeyi ele alabilirler. Anthropic, modelleri daha sonra ortaya çıkabilecek potansiyel güvenlik sorunlarına karşı da test ettiğini söyledi.
Microsoft yıllık bir rapor yayınladı Sorumlu Yapay Zeka Şeffaflık RaporuŞirketin üretken yapay zekayı kullanan uygulamaları nasıl geliştirdiğine, kararlar aldığına ve bu uygulamaların dağıtımını nasıl denetlediğine ilişkin bilgiler sağlayan. Şirket ayrıca yapay zekanın ürünlerinde nerede ve nasıl kullanıldığına dair net bildirimde bulunduğunu da belirtti.
SONUÇ: Daha fazla çalışmaya ihtiyaç var. Hickok, yapay zeka şirketlerinin geliştirebileceği alanlardan birinin yönetim yapılarında ve şirketler arasındaki mali ilişkilerde şeffaflığı artırmak olacağını söylüyor. Ayrıca şirketlerin veri kaynağı, model eğitim süreçleri, güvenlik olayları ve enerji kullanımı konusunda daha halka açık olmasını da görmek isterdi.
Taahhüt 7
Şirketler, zararlı önyargı ve ayrımcılığın önlenmesi ve mahremiyetin korunması da dahil olmak üzere yapay zeka sistemlerinin oluşturabileceği toplumsal risklere ilişkin araştırmalara öncelik vermeyi taahhüt ediyor. Yapay zekanın geçmişi bu tehlikelerin sinsiliğini ve yaygınlığını gösteriyor ve şirketler bunları azaltacak yapay zekayı kullanıma sunmaya kararlı.
Teknoloji şirketleri güvenlik araştırmaları cephesinde meşguldü ve bulgularını ürünlere yerleştirdiler. Amazon, Amazon Bedrock için halüsinasyonları tespit edebilen ve güvenlik, gizlilik ve doğruluk korumaları uygulayabilen korkuluklar inşa etti. Anthropic, toplumsal riskleri ve mahremiyeti araştırmaya adanmış bir araştırmacı ekibi çalıştırdığını söylüyor. Geçtiğimiz yıl şirket şu konularda araştırma başlattı: aldatma, jailbreak yapmakhafifletmeye yönelik stratejiler ayrımcılıkve modellerin yeteneği gibi ortaya çıkan yetenekler kendi kodunu kurcalamak veya meşgul olmak ikna. OpenAI, modellerini nefret dolu içerik üretmekten kaçınmak ve nefret dolu veya aşırılık yanlısı içerik üretmeyi reddetmek için eğittiğini söylüyor. GPT-4V’yi, yanıtlamak için stereotiplerden yola çıkmayı gerektiren birçok isteği reddedecek şekilde eğitti. Google DeepMind da yayınladı araştırma Tehlikeli yetenekleri değerlendirmek için şirket bir çalışmak üretken yapay zekanın kötüye kullanımı hakkında.
Kaynak: https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/