Sektör lideri yapay zeka kapsamına ilişkin en son güncellemeler ve özel içerik için günlük ve haftalık bültenlerimize katılın. Daha fazla bilgi edin
Anlama telaşımızda ve AI ile ilgilibaştan çıkarıcı bir tuzağa düştük: İnsani özellikleri bu sağlam ama temelde insan olmayan sistemlere atfetmek. Yapay zekanın bu şekilde antropomorfize edilmesi sadece insan doğasının zararsız bir tuhaflığı değil, aynı zamanda muhakeme yeteneğimizi kritik şekillerde bulanıklaştırabilecek giderek daha tehlikeli bir eğilim haline geliyor. İş dünyası liderleri yapay zeka öğrenimini aşağıdakilerle karşılaştırıyor: insan eğitimi kusurlu insan-yapay zeka analojilerine dayalı politikalar hazırlayan yasa koyuculara yönelik eğitim uygulamalarını haklı çıkarmak. Yapay zekayı insanileştirmeye yönelik bu eğilim, sektörler ve düzenleyici çerçeveler genelindeki önemli kararları uygunsuz bir şekilde şekillendirebilir.
İş dünyasında yapay zekaya insan merceğinden bakmak, şirketlerin yapay zeka yeteneklerini abartmasına veya insan gözetimi ihtiyacını hafife almasına yol açtı; bu bazen maliyetli sonuçlar doğuruyor. Antropomorfik düşüncenin insanın öğrenmesi ile yapay zeka eğitimi arasında sorunlu karşılaştırmalara yol açtığı telif hakkı yasasında riskler özellikle yüksektir.
Dil tuzağı
Yapay zeka hakkında nasıl konuştuğumuzu dinleyin: Onun “öğrendiğini”, “düşündüğünü”, “anladığını” ve hatta “yarattığını” söylüyoruz. Bu insani terimler kulağa doğal geliyor ama yanıltıcıdır. Bir yapay zeka modelinin “öğrendiğini” söylediğimizde, bu bir insan öğrenci gibi anlayış kazanmak değildir. Bunun yerine, büyük miktarda veri üzerinde karmaşık istatistiksel analizler gerçekleştiriyor, sinir ağlarındaki ağırlıkları ve parametreleri matematiksel ilkelere dayalı olarak ayarlıyor. Anlama, eureka anı, yaratıcılık kıvılcımı veya gerçek anlayış yoktur; yalnızca giderek daha karmaşık hale gelen desen eşleştirmesi vardır.
Bu dilbilimsel el çabukluğu yalnızca anlambilimden daha fazlasıdır. Makalede belirtildiği gibi, Üretken Yapay Zekanın Adil Kullanıma İlişkin Hayali Durumu: “Yapay zeka modellerinin gelişimini ve işleyişini tanımlamak için antropomorfik bir dilin kullanılması çarpıtıcıdır çünkü modelin bir kez eğitildikten sonra üzerinde eğitim aldığı çalışmaların içeriğinden bağımsız olarak çalıştığını öne sürer.” Bu kafa karışıklığının, özellikle hukuki ve politik kararları etkilediğinde gerçek sonuçları oluyor.
Bilişsel kopukluk
Yapay zekayı antropomorfize etmenin belki de en tehlikeli yönü, insan ve makine zekası arasındaki temel farklılıkları nasıl maskelediğidir. Bazı yapay zeka sistemleri belirli akıl yürütme ve analitik görev türlerinde başarılı olsa da, büyük dil modelleri Günümüzün yapay zeka söylemine hakim olan ve burada odaklandığımız (LLM’ler) karmaşık model tanıma yoluyla çalışır.
Bu sistemler çok miktarda veriyi işler; kelimeler, ifadeler, resimler ve diğer girdiler arasındaki istatistiksel ilişkileri belirleyip öğrenerek bir sırada ne gelmesi gerektiğini tahmin eder. “Öğreniyorlar” dediğimizde, eğitim verilerine dayanarak giderek daha doğru tahminler yapmalarına yardımcı olan bir matematiksel optimizasyon sürecini tanımlıyoruz.
tarafından yapılan araştırmadaki bu çarpıcı örneği düşünün. Berglund ve meslektaşları: “A, B’ye eşittir” ifadesini kullanan materyaller üzerinde eğitilmiş bir model, genellikle bir insanın yaptığı gibi “B, A’ya eşittir” sonucuna varamaz. Bir yapay zeka, Valentina Tereshkova’nın uzaya çıkan ilk kadın olduğunu öğrenirse, “Valentina Tereshkova kimdi?” sorusunu doğru yanıtlayabilir. ama “Uzaya çıkan ilk kadın kimdi?” Bu sınırlama, kalıp tanıma ile gerçek akıl yürütme arasındaki, yani olası sözcük dizilerini tahmin etmek ile anlamlarını anlamak arasındaki temel farkı ortaya koyuyor.
Telif hakkı bilmecesi
Bu antropomorfik önyargının özellikle yapay zeka ve telif hakkıyla ilgili süregelen tartışmalarda rahatsız edici sonuçları var. Microsoft CEO’su Satya Nadella yakın zamanda yapay zeka eğitimini karşılaştırdı Bu, insanların kitaplardan telif hakkı gerektirmeden öğrenebilmesi durumunda yapay zekanın da aynı şeyi yapabilmesi gerektiğini öne sürüyor. Bu karşılaştırma, etik ve sorumlu yapay zeka hakkındaki tartışmalarda antropomorfik düşüncenin tehlikesini mükemmel bir şekilde göstermektedir.
Bazıları, insan öğrenimini ve yapay zeka eğitimini anlamak için bu benzetmenin revize edilmesi gerektiğini savunuyor. İnsanlar kitap okuduğunda onların kopyalarını çıkarmayız; kavramları anlar ve içselleştiririz. Öte yandan yapay zeka sistemleri, genellikle izinsiz veya ödeme yapılmadan elde edilen eserlerin gerçek kopyalarını oluşturmalı, bunları kendi mimarilerine kodlamalı ve bu kodlanmış sürümlerin çalışmasını sağlamalıdır. Yapay zeka şirketlerinin sıklıkla iddia ettiği gibi, işler “öğrendikten” sonra ortadan kaybolmaz; içinde gömülü kalırlar sistemin sinir ağları.
İşletmenin kör noktası
İnsana benzeyen yapay zeka, iş karar alma süreçlerinde basit operasyonel verimsizliklerin ötesinde tehlikeli kör noktalar yaratıyor. Yöneticiler ve karar vericiler yapay zekayı insan açısından “yaratıcı” veya “zeki” olarak düşündüklerinde, bu durum bir dizi riskli varsayıma ve potansiyel yasal yükümlülüklere yol açabilir.
Yapay zeka yeteneklerini olduğundan fazla tahmin etmek
İnsanbiçimlendirmenin risk yarattığı kritik alanlardan biri de içerik üretimi ve telif haklarına uygunluktur. İşletmeler yapay zekayı insanlar gibi “öğrenme” yeteneğine sahip olarak gördüklerinde, yapay zeka tarafından oluşturulan içeriğin otomatik olarak telif hakkı endişelerinden arınmış olduğunu yanlış bir şekilde varsayabilirler. Bu yanlış anlama şirketleri şu sonuçlara götürebilir:
- Telif hakkıyla korunan materyali yanlışlıkla yeniden üreten ve işletmeyi ihlal iddialarına maruz bırakan yapay zeka sistemlerini kullanın
- Uygun içerik filtreleme ve gözetim mekanizmalarının uygulanmaması
- Yapay zekanın kamu malı ile telif hakkıyla korunan materyal arasında güvenilir bir ayrım yapabileceğini yanlış varsayın
- İçerik oluşturma süreçlerinde insan incelemesi ihtiyacını hafife alın
Sınır ötesi uyumluluk kör noktası
Yapay zekadaki antropomorfik önyargı, sınır ötesi uyumu düşündüğümüzde tehlikeler yaratıyor. Daniel Gervais, Haralambos Marmanis, Noam Shemtov ve Catherine Zaller Rowland tarafından açıklandığı gibi “Meselenin Kalbi: Telif Hakkı, Yapay Zeka Eğitimi ve Yüksek Lisanslar,Telif hakkı yasası katı bölgesel ilkelere göre işler; her yargı alanı neyin ihlal teşkil ettiği ve hangi istisnaların geçerli olduğu konusunda kendi kurallarını korur.
Telif hakkı yasasının bu bölgesel yapısı, karmaşık bir potansiyel sorumluluk ağı oluşturur. Şirketler, bir ülkede yasal olan eğitim faaliyetlerinin başka bir ülkede ihlal teşkil edebileceğini göremeyerek yapay zeka sistemlerinin farklı yargı bölgelerindeki telif hakkıyla korunan materyallerden özgürce “öğrenebileceğini” varsayabilir. AB, bu riski Yapay Zeka Yasasında, özellikle de Açıklama 106Bu, AB’de sunulan herhangi bir genel amaçlı yapay zeka modelinin, eğitimin nerede gerçekleştiğine bakılmaksızın, eğitim verileriyle ilgili AB telif hakkı yasasına uymasını gerektirir.
Bu önemlidir, çünkü yapay zekanın yeteneklerini antropomorfize etmek, şirketlerin sınırlar ötesindeki yasal yükümlülüklerini küçümsemesine veya yanlış anlamasına yol açabilir. Yapay zekanın insanlar gibi “öğrendiğine” dair rahat kurgu, yapay zeka eğitiminin diğer yargı bölgelerinde farklı yasal yükümlülükleri tetikleyen karmaşık kopyalama ve depolama işlemlerini içerdiği gerçeğini gizlemektedir. Yapay zekanın gerçek işleyişine ilişkin bu temel yanlış anlama, telif hakkı yasasının bölgesel doğasıyla birleştiğinde, küresel çapta faaliyet gösteren işletmeler için önemli riskler yaratıyor.
İnsan maliyeti
En endişe verici maliyetlerden biri, yapay zekayı insana benzetmenin duygusal bedelidir. Yapay zeka sohbet robotlarına duygusal bağ kuran, onlara arkadaş veya sırdaş gibi davranan insanların sayısının arttığını görüyoruz. Bu özellikle olabilir hassas kişiler için tehlikeli kişisel bilgileri paylaşabilecek veya sağlayamayacağı duygusal destek için yapay zekaya güvenebilecek kişiler. Yapay zekanın yanıtları, görünüşte empatik olsa da, eğitim verilerine dayalı karmaşık model eşleştirmeleridir; gerçek bir anlayış veya duygusal bağlantı yoktur.
Bu duygusal kırılganlık profesyonel ortamlarda da ortaya çıkabilir. Yapay zeka araçları günlük işlere daha fazla entegre oldukça, çalışanlar bu sistemlere uygun olmayan düzeyde güven geliştirebilir ve onlara araç yerine gerçek meslektaş muamelesi yapabilir. Gizli iş bilgilerini çok özgürce paylaşabilirler veya yersiz bir sadakat duygusundan dolayı hataları bildirmekten çekinebilirler. Bu senaryolar şu anda izole halde kalsa da, işyerinde yapay zekayı antropomorfize etmenin, muhakemeyi nasıl bulanıklaştırabileceğini ve karmaşık yanıtlarına rağmen gerçek anlamda anlayış veya özen göstermeyen sistemler üzerinde sağlıksız bağımlılıklar yaratabileceğini vurguluyorlar.
Antropomorfik tuzaktan kurtulmak
Peki nasıl ilerleyeceğiz? Öncelikle yapay zeka konusunda dilimizde daha net olmamız gerekiyor. Bir yapay zekanın “öğrendiğini” veya “anladığını” söylemek yerine “verileri işlediğini” veya “eğitim verilerindeki kalıplara dayalı çıktılar ürettiğini” söyleyebiliriz. Bu sadece bilgiçlik taslamakla kalmıyor; bu sistemlerin ne yaptığını açıklığa kavuşturmaya da yardımcı oluyor.
İkincisi, yapay zeka sistemlerini hayal ettiğimiz gibi değil, ne olduklarına göre değerlendirmeliyiz. Bu onların hem etkileyici yeteneklerini hem de temel sınırlamalarını kabul etmek anlamına gelir. Yapay zeka çok büyük miktarda veriyi işleyebilir ve insanların gözden kaçırabileceği kalıpları belirleyebilir ancak insanların yaptığı gibi anlayamaz, akıl yürütemez veya yaratamaz.
Son olarak, hayali insani nitelikler yerine yapay zekanın gerçek özelliklerini ele alan çerçeveler ve politikalar geliştirmeliyiz. Bu, antropomorfik düşüncenin kusurlu benzetmelere ve uygun olmayan hukuki sonuçlara yol açabileceği telif hakkı yasasında özellikle önemlidir.
İleriye giden yol
Yapay zeka sistemleri insan çıktılarını taklit etme konusunda daha karmaşık hale geldikçe, onları insana benzetme eğilimi daha da güçlenecek. Bu antropomorfik önyargı, yapay zekanın yeteneklerini nasıl değerlendirdiğimizden risklerini nasıl değerlendirdiğimize kadar her şeyi etkiliyor. Gördüğümüz gibi, telif hakkı kanunu ve iş uyumluluğu ile ilgili önemli pratik zorluklara kadar uzanıyor. İnsanın öğrenme yeteneklerini yapay zeka sistemlerine atfettiğimizde, onların temel doğasını ve bilgiyi nasıl işleyip sakladıklarına ilişkin teknik gerçekliği anlamamız gerekir.
Yapay zekanın gerçekte ne olduğunu (insan benzeri öğrenenler değil, karmaşık bilgi işleme sistemleri) anlamak, yapay zeka yönetişimi ve dağıtımının tüm yönleri için çok önemlidir. Antropomorfik düşünceyi aşarak, etik hususlar ve güvenlik risklerinden sınır ötesi telif hakkı uyumluluğu ve eğitim veri yönetimine kadar yapay zeka sistemlerinin zorluklarını daha iyi ele alabiliriz. Bu daha kesin anlayış, işletmelerin daha bilinçli kararlar almasına yardımcı olurken, yapay zeka konusunda daha iyi politika geliştirmeyi ve kamusal söylemi destekleyecektir.
Yapay zekanın gerçek doğasını ne kadar erken benimsersek, onun derin toplumsal etkilerini ve küresel ekonomimizdeki pratik zorlukları aşmak için o kadar donanımlı olacağız.
Roanie Levy, lisans ve hukuk danışmanıdır. CCC.
Veri Karar Vericileri
VentureBeat topluluğuna hoş geldiniz!
DataDecisionMakers, veri çalışması yapan teknik kişiler de dahil olmak üzere uzmanların veriyle ilgili içgörüleri ve yenilikleri paylaşabileceği yerdir.
En son fikirleri ve güncel bilgileri, en iyi uygulamaları ve veri ile veri teknolojisinin geleceğini okumak istiyorsanız DataDecisionMakers’ta bize katılın.
Hatta düşünebilirsiniz bir makaleye katkıda bulunmak kendinin!
Kaynak: https://venturebeat.com/ai/anthropomorphizing-ai-dire-consequences-of-mistaking-human-like-for-human-have-already-emerged/