Üretken yapay zeka daha popüler hale geldikçe kuruluşların bunu etik olarak nasıl uygulayacaklarını düşünmeleri gerekiyor. Peki yapay zekanın etik dağıtımı neye benziyor? İnsan seviyesindeki zekaya hükmetmeyi içeriyor mu? Önyargıyı önlemek mi? Yoksa her ikisi mi?
Şirketlerin bu konuya nasıl yaklaştıklarını değerlendirmek için Deloitte yakın zamanda yıllık geliri 100 milyon ila 10 milyar dolar arasında olan ABD şirketlerindeki 100 C düzeyindeki yöneticiyle anket yaptı. Sonuçlar, iş dünyası liderlerinin etiği üretken yapay zeka politikalarına nasıl dahil ettiğini gösterdi.
Yapay zeka etiği için en önemli öncelikler
Bu kuruluşlar hangi etik konuları en önemli buluyor? Kuruluşlar, yapay zeka geliştirme ve dağıtımında aşağıdaki etik konulara öncelik verdi:
- Yeniliği düzenlemeyle dengelemek (%62).
- Verilerin nasıl toplandığı ve kullanıldığı konusunda şeffaflığın sağlanması (%59).
- Kullanıcı ve veri gizliliği endişelerinin ele alınması (%56).
- Kurumsal sistemlerin işleyişinde şeffaflığın sağlanması (%55).
- Algoritmalar, modeller ve verilerdeki önyargının azaltılması (%52).
- Sistemlerin güvenilir ve amaçlandığı gibi çalışmasını sağlamak (%47).
Daha yüksek gelire (yılda 1 milyar dolar veya daha fazla) sahip kuruluşların, etik çerçevelerinin ve yönetim yapılarının teknolojik yeniliği teşvik ettiğini belirtme olasılığı küçük işletmelere göre daha yüksekti.
Yapay zekanın etik olmayan kullanımları, özellikle seçim sezonlarında kritik olan yanlış bilgileri ve önyargı ve ayrımcılığın güçlendirilmesini içerebilir. Üretken yapay zeka, gördüklerini kopyalayarak insan önyargılarını kazara kopyalayabilir veya kötü aktörler, kasıtlı olarak önyargılı içeriği daha hızlı oluşturmak için üretken yapay zekayı kullanabilir.
Kimlik avı e-postaları kullanan tehdit aktörleri, üretken yapay zekanın hızlı yazma özelliğinden yararlanabilir. Potansiyel olarak etik olmayan diğer kullanım durumları arasında yapay zekanın savaşta veya kolluk kuvvetlerinde önemli kararlar alması yer alabilir.
ABD hükümeti ve büyük teknoloji şirketleri, Eylül 2023’te, üretken yapay zeka kullanımının ve bunun kullanılarak yapılan içeriğin ifşa edilmesine yönelik standartları belirleyen gönüllü bir taahhüt üzerinde anlaştılar. Beyaz Saray Bilim ve Teknoloji Politikası Ofisi, ayrımcılıkla mücadele çabalarını içeren Yapay Zeka Hakları Bildirgesi için bir plan yayınladı.
Yapay zekayı belirli ölçeklerde ve yüksek riskli görevlerde kullanan ABD şirketlerinin Ocak 2024’ten itibaren bilgileri Ticaret Bakanlığı’na bildirmesi gerekiyor.
BAKIN: Yapay Zeka Etik Politikası için bir şablonla başlayın.
Global Deloitte Yapay Zeka Enstitüsü genel müdürü ve Deloitte’un Güvenilir Yapay Zeka lideri Beena Ammanath, TechRepublic’e gönderdiği bir e-postada şunları söyledi: “Yapay zekayı benimseyen herhangi bir kuruluş için, teknoloji hem olumlu sonuç potansiyeli hem de istenmeyen sonuç riski sunuyor.”
Yapay zeka etik kararlarını kim veriyor?
Vakaların %34’ünde yapay zeka etik kararları direktörlerden veya daha yüksek unvanlardan geliyor. Vakaların %24’ünde tüm profesyoneller yapay zeka kararlarını bağımsız olarak veriyor. Daha nadir durumlarda, iş veya departman liderleri (%17), yöneticiler (%12), zorunlu eğitim veya sertifikalara sahip profesyoneller (%7) veya bir yapay zeka inceleme kurulu (%7) yapay zeka ile ilgili etik kararlar alıyor.
Yıllık geliri 1 milyar dolar veya daha fazla olan büyük şirketlerin, yıllık geliri 1 milyar doların altında olan şirketlere kıyasla çalışanların yapay zeka kullanımı konusunda bağımsız kararlar almasına izin verme olasılığı daha yüksekti.
Ankete katılan yöneticilerin çoğu (%76) kuruluşlarının iş gücü için etik yapay zeka eğitimi verdiğini, %63’ü ise bunu yönetim kurulu için yürüttüğünü söylüyor. İnşaat aşamalarındaki (%69) ve geliştirme öncesi aşamalardaki (%49) işçiler etik yapay zeka eğitimini daha az alıyor.
Deloitte’un ABD baş amacı ve DEI yetkilisi Kwasi Mitchell, “Kuruluşlar yapay zeka ile fırsatları keşfetmeye devam ettikçe, iş gücünü etik sonuçları ilerletmek ve olumlu etki yaratmak için güçlendirmek için yönetişim çerçevelerinin nasıl ortaya çıktığını gözlemlemek cesaret verici” dedi. “Liderler, sorumluluğu teşvik etmek ve güveni korumak için tasarlanmış prosedürleri benimseyerek, yapay zekanın gücünden etkin bir şekilde yararlanmalarına olanak tanıyan, aynı zamanda eşitliği geliştirip etkiyi artıran bir dürüstlük ve yenilik kültürü oluşturabilirler.”
Kuruluşlar yapay zeka etik rolleri için işe alım yapıyor ve becerileri geliştiriyor mu?
Aşağıdaki roller ankete katılan kuruluşlar için işe alınmıştır veya işe alım planlarının bir parçasıdır:
- Yapay zeka araştırmacısı (%59).
- Politika analisti (%53).
- Yapay zeka uyumluluk yöneticisi (%50).
- Veri bilimcisi (%47).
- Yapay zeka yönetişim uzmanı (%40).
- Veri etikçisi (%34).
- Yapay zeka etik uzmanı (%27).
Bu profesyonellerin çoğu (%68) şirket içi eğitim/beceri geliştirme programlarından geliyordu. Daha azı geleneksel işe alma veya sertifika programları gibi dış kaynakları kullandı ve daha azı hala kampüste işe alım ve akademik kurumlarla işbirliği yapmayı düşünüyor.
Ammanath, “Sonuçta işletmeler, kullanıcılarının mahremiyetini, güvenliğini ve adil muamelesini korumak için teknolojilerine güvenilebileceğinden ve onların değerleri ve beklentileriyle uyumlu olduğundan emin olmalıdır” dedi. “Yapay zeka etiğine etkili bir yaklaşım, her kuruluşun özel ihtiyaçlarına ve değerlerine dayanmalıdır ve stratejik etik çerçeveleri uygulayan işletmeler genellikle bu sistemlerin yeniliği engellemek yerine desteklediğini ve yönlendirdiğini görecektir.”
Kaynak: https://www.techrepublic.com/article/deloitte-ai-ethics-study/