Teksas Başsavcısı Ken Paxton, perşembe günü Character.AI ve diğer 14 teknoloji platformu hakkında çocuk gizliliği ve güvenliği endişeleri nedeniyle bir soruşturma başlattı. Soruşturma, Character.AI’nin ve Reddit, Instagram ve Discord gibi gençler arasında popüler olan diğer platformların Teksas’ın çocuk gizliliği ve güvenliği yasalarına uyup uymadığını değerlendirecek.
Teknoloji şirketlerine karşı genellikle sert davranan Paxton tarafından yürütülen soruşturma, bu platformların iki Teksas yasasına uyup uymadığını inceleyecek: Ebeveyn Yetkilendirme Yoluyla Çocukların Çevrimiçi Güvenliğinin Sağlanması veya SCOPE Yasası ve Teksas Veri Gizliliği ve Güvenliği Yasası veya DPSA.
Bu yasalar, platformların ebeveynlere çocuklarının hesaplarının gizlilik ayarlarını yönetmeleri için araçlar sağlamasını gerektiriyor ve teknoloji şirketlerinin reşit olmayanlar hakkında veri toplarken katı izin gerekliliklerine uymasını zorunlu kılıyor. Paxton, bu yasaların her ikisinin de reşit olmayanların AI sohbet robotlarıyla nasıl etkileşim kurduğunu kapsadığını iddia ediyor.
Paxton bir basın açıklamasında, “Bu soruşturmalar, sosyal medya ve yapay zeka şirketlerinin çocukları sömürü ve zarardan korumak için tasarlanmış yasalarımıza uymasını sağlamaya yönelik kritik bir adımdır” dedi.
Mesajlaşabileceğiniz ve sohbet edebileceğiniz üretken AI sohbet robotu karakterleri oluşturmanıza olanak tanıyan Character.AI, yakın zamanda bir dizi çocuk güvenliği davasına karıştı. Şirketin yapay zeka sohbet robotları genç kullanıcılar arasında hızla popülerlik kazandı ancak birçok ebeveyn, Character.AI’nin sohbet robotlarının çocuklarına uygunsuz ve rahatsız edici yorumlar yaptığını davalarda iddia etti.
Florida’daki bir vakada, 14 yaşındaki bir çocuğun, Character AI chatbot’uyla romantik bir ilişki kurduğu ve intihara giden günlerde intihar düşünceleri yaşadığını söylediği iddia ediliyor. Teksas’taki başka bir vakada, Character.AI’nin sohbet robotlarından birinin, otistik bir gencin ailesini zehirlemeye çalışması gerektiğini öne sürdüğü iddia ediliyor. Teksas davasındaki başka bir ebeveyn, Character.AI’nin sohbet robotlarından birinin, 11 yaşındaki kızını son iki yıldır cinsel içerikli içeriğe maruz bıraktığını iddia ediyor.
“Şu anda Başsavcılığın duyurusunu inceliyoruz. Bir şirket olarak kullanıcılarımızın güvenliğini çok ciddiye alıyoruz” dedi bir Character.AI sözcüsü TechCrunch’a yaptığı açıklamada. “Düzenleyicilerle çalışmayı memnuniyetle karşılıyoruz ve yakın zamanda ebeveyn kontrolleri de dahil olmak üzere sürümde atıfta bulunulan bazı özellikleri kullanıma sunacağımızı duyurduk.”
Character.AI Perşembe günü gençleri korumayı amaçlayan yeni güvenlik özelliklerini kullanıma sundu ve bu güncellemelerin sohbet robotlarının küçüklerle romantik sohbetler başlatmasını sınırlayacağını söyledi. Şirket ayrıca geçen ay özellikle genç kullanıcılar için yeni bir model geliştirmeye başladı; bir gün platformunda yetişkinlerin bir modeli, küçüklerin ise başka bir modeli kullanmasını umuyor.
Bunlar, Character.AI’nin duyurduğu en son güvenlik güncellemeleridir. Florida davasının kamuoyuna duyurulduğu hafta, şirket güven ve emniyet ekibini genişlettiğini ve yakın zamanda birim için yeni bir yönetici işe aldığını duyurdu.
Tahmin edilebileceği gibi, AI arkadaşlık platformlarıyla ilgili sorunlar, tam da popülerlik kazanmaya başladıkları sırada ortaya çıkıyor. Geçen yıl, Andreessen Horowitz (a16z) bir blog yazısında yapay zeka arkadaşlığını tüketici internetinin daha fazla yatırım yapabileceği, değeri bilinmeyen bir köşesi olarak gördüğünü söyledi. A16z, Character.AI’nin yatırımcısı ve diğer yapay zeka arkadaşlık girişimlerine yatırım yapmaya devam ediyor , yakın zamanda kurucusu “Her” filmindeki teknolojiyi yeniden yaratmak isteyen bir şirkete destek veriyor.
Reddit, Meta ve Discord, yorum taleplerine hemen yanıt vermedi.
Kaynak: https://techcrunch.com/2024/12/12/texas-ag-is-investigating-character-ai-other-platforms-over-child-safety-concerns/