Yapay zeka artık kişiliğinizin bir kopyasını oluşturabilir

Stanford’da bilgisayar bilimi alanında doktora öğrencisi olan Joon Sung Park liderliğindeki ekip, yaş, cinsiyet, ırk, bölge, eğitim ve siyasi ideolojiye göre değişen 1000 kişiyi işe aldı. Katılımları karşılığında kendilerine 100 dolara kadar ödeme yapıldı. Ekip, onlarla yapılan görüşmelerden bu kişilerin ajan kopyalarını oluşturdu. Ajanların insan meslektaşlarını ne kadar iyi taklit ettiklerini test etmek için katılımcılar, iki hafta arayla iki kez bir dizi kişilik testi, sosyal anket ve mantık oyunu yaptılar; daha sonra ajanlar aynı egzersizleri tamamladılar. Sonuçlar %85 benzerdi.

Joon, “Etrafta dolaşan ve vereceğiniz kararları gerçekten veren bir grup küçük ‘siz’iniz varsa, bence bu, sonuçta gelecek olacaktır,” diyor Joon.

Makalede kopyalara simülasyon aracıları adı veriliyor ve bunları yaratmanın amacı, sosyal bilimler ve diğer alanlardaki araştırmacıların gerçek insan deneklerle yapılması pahalı, pratik olmayan veya etik olmayan çalışmalar yürütmesini kolaylaştırmaktır. Gerçek insanlar gibi davranan yapay zeka modelleri oluşturabilirseniz, bunları sosyal medyadaki müdahalelerin yanlış bilgilerle ne kadar iyi mücadele ettiğinden, hangi davranışların trafik sıkışıklığına neden olduğuna kadar her şeyi test etmek için kullanabilirsiniz.

Bu tür simülasyon aracıları, bugün önde gelen yapay zeka şirketlerinin çalışmalarına hakim olan aracılardan biraz farklıdır. Araç tabanlı aracılar olarak adlandırılan bunlar, sizinle konuşmak için değil, sizin için bir şeyler yapmak üzere oluşturulmuş modellerdir. Örneğin, veri girebilir, bir yerde sakladığınız bilgileri alabilir veya bir gün sizin için seyahat rezervasyonu yapabilir ve randevular planlayabilirler. Satış gücü duyuruldu Eylül ayında kendi araç tabanlı temsilcilerini, takip edildi Ekim ayında Anthropic tarafından yayınlandı ve OpenAI’nin bir kısmını Ocak ayında yayınlamayı planladığı belirtildi. Bloomberg.

İki tür temsilci farklıdır ancak ortak noktaları paylaşırlar. MIT Sloan School of Management’ta bilgi teknolojileri alanında doçent olan John Horton, simülasyon aracıları üzerine yapılan araştırmaların, bu makaledekiler gibi, genel olarak daha güçlü yapay zeka aracılarına yol açacağını söylüyor. şirket Yapay zeka simülasyonlu katılımcıları kullanarak araştırma yapmak.

“Bu makale bir tür melezin nasıl yapılabileceğini gösteriyor: gerçek insanlarla yapamayacağınız şekillerde programlı/simülasyon içinde kullanılabilecek kişiler oluşturmak için gerçek insanları kullanın” dedi MIT Teknoloji İncelemesi bir e-postada.

Araştırma, işaret ettiği tehlikenin en önemlisi olan uyarıları da beraberinde getiriyor. Görüntü oluşturma teknolojisinin, insanların rızaları olmadan zararlı deepfake’leri oluşturmayı kolaylaştırması gibi, herhangi bir aracı oluşturma teknolojisi de, insanların, söylemeyi amaçlamadıkları şeyleri söyleyerek veya yetki vererek başkalarını çevrimiçi olarak kişileştirmeye yönelik araçlar geliştirebilme kolaylığı hakkında soruları gündeme getiriyor .

Ekibin yapay zeka ajanlarının karşılık gelen insanları ne kadar iyi kopyaladığını test etmek için kullandığı değerlendirme yöntemleri de oldukça basitti. Bunlar arasında kişinin demografisi, mutluluğu, davranışları ve daha fazlası hakkında bilgi toplayan Genel Sosyal Anket ve Beş Büyük kişilik özelliğinin değerlendirmeleri vardı: deneyime açıklık, vicdanlılık, dışa dönüklük, uyumluluk ve nevrotiklik. Bu tür testler sosyal bilim araştırmalarında yaygın olarak kullanılır ancak bizi kendimiz yapan tüm benzersiz ayrıntıları yakalama iddiasında değildir. Yapay zeka ajanları, katılımcıların adalet gibi değerleri nasıl değerlendirdiklerini aydınlatmayı amaçlayan “diktatör oyunu” gibi davranışsal testlerde insanları kopyalama konusunda da daha kötüydü.

Kaynak: https://www.technologyreview.com/2024/11/20/1107100/ai-can-now-create-a-replica-of-your-personality/