Çeşitli kuruluşlar genelinde önyargı, performans ve etik uyumlulukla ilgili yapay zeka modellerini denetlemek için kapsamlı yöntemleri araştırmak amacıyla yönetici liderlerle işbirliği yapmak üzere 5 Haziran’da New York’a dönerken bize katılın. Nasıl yapabileceğinizi öğrenin buraya katıl.
Yapay zekanın ekonomik potansiyeli tartışılmaz ancak kuruluşlar tarafından büyük oranda hayata geçirilmiyor. Yapay zeka projelerinin %87’si başarılı olamamak.
Bazıları bunu bir teknoloji sorunu, diğerleri bir iş sorunu, bir kültür sorunu veya bir endüstri sorunu olarak görüyor; ancak son kanıtlar bunun bir sorun olduğunu ortaya koyuyor. güven sorun.
Son araştırmalara göre neredeyse Üst düzey yöneticilerin üçte ikisi Yapay zekaya duyulan güvenin geliri, rekabet gücünü ve müşteri başarısını artırdığını söylüyorlar.
Güven, yapay zeka söz konusu olduğunda çözülmesi gereken karmaşık bir kelimedir. güvenebilir misin yapay zeka sistemi? Öyleyse nasıl? İnsanlara hemen güvenmiyoruz ve yapay zeka sistemlerine hemen güvenme olasılığımız daha da düşük.
Ancak Yapay zekaya güven eksikliği ekonomik potansiyeli kısıtlıyor ve yapay zeka sistemlerine güven oluşturmaya yönelik tavsiyelerin çoğu, pratik olamayacak kadar soyut veya geniş kapsamlı olmakla eleştirildi.
Pratik uygulamaya odaklanan yeni bir “Yapay Zeka Güven Denklemi”nin zamanı geldi.
Yapay zeka güven denklemi
İnsanlar arasında güven inşa etmeye yönelik bir kavram olan Güven Denklemi ilk olarak 1970’lerde önerildi. Güvenilir Danışman David Maister, Charles Green ve Robert Galford. Denklem Güven = Güvenilirlik + Güvenilirlik + Samimiyet’in Benlik Yönelimine bölümüdür.
İlk bakışta bunun neden insanlar arasında güven inşa etmek için ideal bir denklem olduğu açık, ancak insanlarla makineler arasında güven inşa etmek anlamına gelmiyor.
Aranızda güven oluşturmak için insanlar ve makineleryeni Yapay Zeka Güven Denklemi Güven = Güvenlik + Etik + Doğruluk bölü Kontrol’dür.
Güvenlik güven yolundaki ilk adımı oluşturur ve başka yerlerde iyi bir şekilde özetlenen birkaç temel ilkeden oluşur. İnsanlar ve makineler arasında güven inşa etme uygulaması şu soruya geliyor: “Bilgilerimi bu yapay zeka sistemiyle paylaşırsam güvende olur mu?”
Etik güvenlikten daha karmaşıktır çünkü teknik bir sorudan ziyade ahlaki bir sorudur. Bir yapay zeka sistemine yatırım yapmadan önce liderlerin şunları dikkate alması gerekir:
- Bu modelin yapımında insanlara nasıl davranıldı? Kenyalı işçiler ChatGPT’nin yapımında? Bu, çözümlerimizi onunla oluşturarak destekleme konusunda kendimi rahat hissettiğim/rahat hissettiğimiz bir şey mi?
- Model açıklanabilir mi? Eğer zararlı bir çıktı üretiyorsa nedenini anlayabilir miyim? Bu konuda yapabileceğim bir şey var mı (bkz. Kontrol)?
- Modelde örtülü veya açık önyargılar var mı? Bu ayrıntılı olarak belgelenmiş bir sorundur, örneğin Cinsiyet Tonları Joy Buolamwini ve Timnit Gebru’nun araştırması ve Google’ın modellerindeki önyargıyı ortadan kaldırmaya yönelik son girişimi; tarih dışı önyargılar.
- Bu yapay zeka sisteminin iş modeli nedir? Bilgisi ve hayatı boyunca modeli eğitmiş olanlar, çalışmaları üzerine kurulan model gelir getirdiğinde bunun karşılığını alıyorlar mı?
- Bu yapay zeka sistemini oluşturan şirketin belirtilen değerleri nelerdir ve şirketin eylemleri ve liderliği bu değerlere ne kadar iyi uyuyor? OpenAI’nin taklit etmek için son tercihi Scarlett Johansson’un sesi Örneğin, onun rızası olmadan yapılan bir değişiklik, OpenAI’nin belirtilen değerleri ile Altman’ın Scarlett Johansson’un ChatGPT için kendi sesinin kullanımını reddetme seçimini göz ardı etme kararı arasında önemli bir ayrım olduğunu gösteriyor.
Doğruluk, yapay zeka sisteminin iş akışı boyunca çeşitli sorulara ne kadar güvenilir bir şekilde doğru yanıtlar sağladığı olarak tanımlanabilir. Bu şu şekilde basitleştirilebilir: “Bu yapay zekaya kendi bağlamımı temel alarak bir soru sorduğumda, cevabı ne kadar faydalı oluyor?” Cevap, 1) modelin karmaşıklığı ve 2) üzerinde eğitim verildiği verilerle doğrudan ilişkilidir.
Kontrol, yapay zekaya güvenme konusundaki konuşmanın merkezinde yer alır ve en taktiksel sorudan yola çıkar: “Bu yapay zeka sistemi yapmasını istediğim şeyi yapacak mı yoksa bir hata mı yapacak?” Çağımızın en acil sorularından birine geliyoruz: “Akıllı sistemler üzerindeki kontrolümüzü kaybedecek miyiz?” Her iki durumda da yapay zeka sistemlerinin eylemlerini, kararlarını ve çıktılarını kontrol etme yeteneği, onlara güvenme ve uygulama kavramını desteklemektedir.
Yapay zeka güven denklemini kullanmanın 5 adımı
- Sistemin yararlı olup olmadığını belirleyin: Bir sistemin yararlı olup olmadığını araştırmaya zaman ve kaynak ayırmadan önce. Yapay zeka platformu Güvenilir ise kuruluşlar, bir platformun daha fazla değer yaratmalarına yardımcı olup olmayacağını belirlemekten fayda sağlayacaktır.
- Platformun güvenli olup olmadığını araştırın: Platforma yüklerseniz verilerinize ne olur? Güvenlik duvarınızdan herhangi bir bilgi çıkıyor mu? Güvenlik ekibinizle yakın işbirliği içinde çalışmak veya güvenlik danışmanlarını işe almak, bir yapay zeka sisteminin güvenliğine güvenebilmenizi sağlamak açısından kritik öneme sahiptir.
- Etik eşiğinizi belirleyin ve tüm sistem ve organizasyonları buna göre değerlendirin: Yatırım yaptığınız herhangi bir modelin açıklanabilir olması gerekiyorsa, kuruluşunuz genelinde kabul edilebilir üst ve alt limitlerle birlikte mutlak bir hassasiyetle açıklanabilirliğin ortak, ampirik bir tanımını tanımlayın ve önerilen önlemi alın. Bu sınırlara karşı sistemler. Yapay zekadan yararlanma söz konusu olduğunda kuruluşunuzun tartışmaya açık olmadığını belirlediği her etik prensip için de aynısını yapın.
- Doğruluk hedeflerinizi tanımlayın ve sapmayın: İnsan işinin öncüsü olduğu için iyi performans göstermeyen bir sistemi benimsemek cazip gelebilir. Ancak kuruluşunuz için kabul edilebilir olarak tanımladığınız bir doğruluk hedefinin altında performans gösteriyorsa, düşük kaliteli iş çıktısı ve çalışanlarınız üzerinde daha fazla yük oluşması riskiyle karşı karşıya kalırsınız. Çoğu zaman düşük doğruluk, bir model sorunu veya bir veri sorunudur ve bunların her ikisi de doğru düzeyde yatırım ve odaklanma ile çözülebilir.
- Kuruluşunuzun ne derecede kontrole ihtiyaç duyduğuna ve bunun nasıl tanımlandığına karar verin: Karar vericilerin ve operatörlerin yapay zeka sistemleri üzerinde ne kadar kontrole sahip olmasını istediğiniz, tamamen özerk, yarı özerk, yapay zeka destekli bir sistem mi istediğinizi yoksa kuruluşunuzun Kontrolün yapay zeka sistemleriyle paylaşılmasına yönelik tolerans seviyesi, mevcut yapay zeka sistemlerinin ulaşabileceğinden daha yüksek bir çıtadır.
Yapay zeka çağında en iyi uygulamaları veya hızlı kazanımları aramak kolay olabilir, ancak gerçek şu ki: Henüz kimse tüm bunları tam olarak çözemedi ve anlayana kadar bu sizin için farklı olmayacak. ve artık kuruluşunuz.
Bu nedenle, mükemmel çözümü beklemek veya başkalarının belirlediği trendleri takip etmek yerine liderliği ele alın. Kuruluşunuz içinde şampiyonlardan ve sponsorlardan oluşan bir ekip oluşturun, Yapay Zeka Güven Denklemini özel ihtiyaçlarınıza göre uyarlayın ve yapay zeka sistemlerini buna göre değerlendirmeye başlayın. Böyle bir çabanın ödülleri sadece ekonomik değil aynı zamanda teknolojinin geleceği ve toplumdaki rolü açısından da temel niteliktedir.
Bazı teknoloji şirketleri pazar güçlerinin bu yönde ilerlediğini görüyor ve Salesforce’unki gibi yapay zeka sistemlerinin nasıl çalıştığına ilişkin doğru taahhütleri, kontrolü ve görünürlüğü geliştirmek için çalışıyor. Einstein Güven Katmanı – ve diğerleri herhangi bir görünürlük düzeyinin rekabet avantajı sağlayacağını iddia ediyor. Siz ve kuruluşunuzun, hem yapay zeka sistemlerinin çıktılarına hem de bunları oluşturan ve sürdüren kuruluşlara ne derece güvenmek istediğinizi belirlemeniz gerekecektir.
Yapay zekanın potansiyeli çok büyüktür, ancak bu ancak yapay zeka sistemleri ve bunları üreten insanlar kuruluşlarımızda ve toplumumuzda güvene ulaşıp güveni koruyabildiğinde gerçekleştirilecektir. Yapay zekanın geleceği buna bağlı.
Brian Evergreen, “Otonom Dönüşüm: Yapay Zeka Çağında Daha İnsani Bir Gelecek Yaratmak” kitabının yazarıdır..”
Veri Karar Vericileri
VentureBeat topluluğuna hoş geldiniz!
DataDecisionMakers, veri çalışması yapan teknik kişiler de dahil olmak üzere uzmanların veriyle ilgili içgörüleri ve yenilikleri paylaşabileceği yerdir.
En son fikirleri ve güncel bilgileri, en iyi uygulamaları ve veri ile veri teknolojisinin geleceğini okumak istiyorsanız DataDecisionMakers’ta bize katılın.
Hatta düşünebilirsiniz bir makaleye katkıda bulunmak kendinin!
Kaynak: https://venturebeat.com/ai/trust-in-ai-is-more-than-a-moral-problem/