OpenAI, insanların ahlaki yargılarını tahmin edebilecek algoritmalara yönelik akademik araştırmaları finanse ediyor.
OpenAI’nin kar amacı gütmeyen kuruluşu OpenAI Inc., IRS’ye yaptığı bir başvuruda, Duke Üniversitesi araştırmacılarına “Yapay Zeka Ahlakını Araştırma” başlıklı bir proje için hibe verdiğini açıkladı. Yorum yapmak için iletişime geçilen bir OpenAI sözcüsü, ödülün “ahlaki yapay zeka yapımı” üzerine çalışan Duke profesörlerine verilen üç yıllık, 1 milyon dolarlık daha büyük bir bağışın parçası olduğunu belirten bir basın açıklamasına dikkat çekti.
OpenAI’nin finanse ettiği bu “ahlak” araştırması hakkında, bağışın 2025’te sona ereceği gerçeği dışında çok az şey biliniyor. Çalışmanın baş araştırmacısı, Duke’ta uygulamalı etik profesörü Walter Sinnott-Armstrong, TechCrunch’a e-posta yoluyla şunları söyledi: iş hakkında konuşabiliyorum”.
Sinnott-Armstrong ve projenin ortak araştırmacısı Jana Borg, yapay zekanın, insanların daha iyi kararlar vermesine yardımcı olacak bir “ahlaki GPS” görevi görme potansiyeli hakkında çeşitli çalışmalar ve bir kitap hazırladı. Daha büyük ekiplerin bir parçası olarak, kimin böbrek bağışı alacağına karar vermeye yardımcı olacak “ahlaki açıdan uyumlu” bir algoritma oluşturdular ve insanların hangi senaryolarda yapay zekanın ahlaki kararlar vermesini tercih edeceğini incelediler.
Basın açıklamasına göre, OpenAI tarafından finanse edilen çalışmanın amacı, “tıp, hukuk ve iş dünyasındaki ahlaki açıdan önemli özellikler arasında” çatışmaları içeren senaryolarda “insanın ahlaki yargılarını tahmin edecek” algoritmalar yetiştirmektir.
Ancak ahlak kadar incelikli bir kavramın günümüz teknolojisinin erişebileceği kadar açık değil.
2021’de kâr amacı gütmeyen Allen Yapay Zeka Enstitüsü, etik açıdan sağlam öneriler sunmayı amaçlayan Ask Delphi adlı bir araç geliştirdi. Temel ahlaki ikilemleri yeterince iyi değerlendirdi; örneğin bot, sınavda kopya çekmenin yanlış olduğunu “bildi”. Ancak soruları biraz yeniden ifade etmek ve yeniden ifade etmek, Delphi’nin bebekleri boğmak da dahil hemen hemen her şeyi onaylaması için yeterliydi.
Bunun nedeni, modern yapay zeka sistemlerinin nasıl çalıştığıyla ilgilidir.
Makine öğrenimi modelleri istatistiksel makinelerdir. Web’in dört bir yanından çok sayıda örnek üzerinde eğitim alan öğrenciler, tahminlerde bulunmak için bu örneklerdeki kalıpları öğrenirler; örneğin “kime” ifadesinin genellikle “ilgili olabilir” ifadesinden önce gelmesi gibi.
Yapay zekanın etik kavramları takdir etme yeteneği ya da ahlaki karar almada rol oynayan akıl yürütme ve duygu anlayışı yoktur. Yapay zekanın Batılı, eğitimli ve sanayileşmiş ulusların değerlerini tekrarlama eğiliminde olmasının nedeni budur; web ve dolayısıyla yapay zekanın eğitim verileri, bu bakış açılarını destekleyen makalelerin hakimiyetindedir.
Şaşırtıcı olmayan bir şekilde, pek çok kişinin değerleri, yapay zekanın verdiği yanıtlarda ifade edilmiyor, özellikle de bu kişiler yapay zekanın eğitim setlerine çevrimiçi gönderiler göndererek katkıda bulunmuyorsa. Yapay zeka, Batı eğiliminin ötesinde bir dizi önyargıyı içselleştiriyor. Delphi, heteroseksüel olmanın eşcinsel olmaktan “ahlaki açıdan daha kabul edilebilir” olduğunu söyledi.
OpenAI’nin ve desteklediği araştırmacıların önündeki zorluk, ahlakın doğasında var olan öznellik nedeniyle daha da zorlu hale geliyor. Filozoflar binlerce yıldır çeşitli etik teorilerin yararlarını tartışıyorlar ve görünürde evrensel olarak uygulanabilir bir çerçeve yok.
Claude Kantçılığı (yani mutlak ahlaki kurallara odaklanmayı) desteklerken, ChatGPT biraz da olsa faydacılığa (en fazla sayıda insan için en yüksek iyiliğe öncelik verme) eğilimlidir. Biri diğerinden üstün mü? Kime sorduğunuza bağlı.
İnsanların ahlaki yargılarını tahmin edecek bir algoritmanın tüm bunları hesaba katması gerekecek. Bu, aşılması gereken çok yüksek bir çıtadır; ilk etapta böyle bir algoritmanın mümkün olduğunu varsayarsak.
TechCrunch’ın yapay zeka odaklı bir haber bülteni var! Buradan kaydolun Her Çarşamba gelen kutunuza almak için.
Kaynak: https://techcrunch.com/2024/11/22/openai-is-funding-research-into-ai-morality/