OpenAI çocuk güvenliğini incelemek için yeni bir ekip oluşturuyor

Aktivistlerin ve ebeveynlerin incelemesi altında OpenAI, yapay zeka araçlarının çocuklar tarafından kötüye kullanılmasını veya istismar edilmesini önlemenin yollarını araştırmak üzere yeni bir ekip kurdu.

OpenAI, kariyer sayfasındaki yeni iş ilanında, şirketin “süreçleri, olayları ve incelemeleri” yönetmek için OpenAI içindeki platform politikası, hukuk ve araştırma gruplarının yanı sıra dış ortaklarla birlikte çalıştığını söylediği bir Çocuk Güvenliği ekibinin varlığını ortaya koyuyor. reşit olmayan kullanıcılarla ilgili.

Ekip şu anda OpenAI politikalarını yapay zeka tarafından oluşturulan içerik bağlamında uygulamaktan ve “hassas” (muhtemelen çocuklarla ilgili) içerikle ilgili inceleme süreçleri üzerinde çalışmaktan sorumlu olacak bir çocuk güvenliği uygulama uzmanını işe almak istiyor.

Belirli büyüklükteki teknoloji sağlayıcıları, çocukların web’de nelere erişip erişemeyeceklerinin yanı sıra ne tür veri şirketlerinin kontrol edilmesini zorunlu kılan ABD Çocukların Çevrimiçi Gizliliğini Koruma Kuralı gibi yasalara uymaya önemli miktarda kaynak ayırıyor. üzerlerinde toplayabilir. Dolayısıyla OpenAI’nin çocuk güvenliği uzmanlarını işe alması tam bir sürpriz değil, özellikle de şirketin bir gün reşit olmayan önemli bir kullanıcı tabanı beklediği düşünüldüğünde. (OpenAI’nin mevcut kullanım koşulları, 13 ila 18 yaş arası çocuklar için ebeveyn izni gerektirir ve 13 yaşın altındaki çocuklar için kullanımı yasaklar.)

Ancak OpenAI’nin çocuk dostu AI yönergeleri üzerinde işbirliği yapmak için Common Sense Media ile bir ortaklık yaptığını duyurmasından ve ilk eğitim müşterisini bulmasından birkaç hafta sonra gerçekleşen yeni ekibin oluşumu, OpenAI’nin yapay zeka ile ilgili politikalarla ters düşme konusunda da ihtiyatlı davrandığını gösteriyor. küçüklerin yapay zeka kullanımı ve olumsuz baskı.

Çocuklar ve gençler, yalnızca okul ödevlerinde değil kişisel konularda da yardım almak için giderek daha fazla GenAI araçlarına yöneliyor. Demokrasi ve Teknoloji Merkezi’nin yaptığı bir ankete göre, çocukların %29’u ChatGPT’yi kaygı veya zihinsel sağlık sorunlarıyla başa çıkmak için, %22’si arkadaşlarıyla sorunları ve %16’sı aile çatışmaları için kullandığını bildiriyor.

Bazıları bunu büyüyen bir risk olarak görüyor.

Geçen yaz okullar ve kolejler, intihal ve yanlış bilgi korkusu nedeniyle ChatGPT’yi yasaklamak için harekete geçti. O zamandan beri bazıları yasaklarını tersine çevirdi. Ancak herkes GenAI’nin iyilik potansiyeli konusunda ikna olmuş değil; İngiltere Güvenli İnternet Merkezi gibi anketlere işaret ederek çocukların yarısından fazlasının (%53) kendi yaşlarındaki insanların GenAI’yı olumsuz bir şekilde kullandığını gördüklerini bildirdiklerini ortaya koyuyor (örneğin, inandırıcı yanlış bilgiler oluşturmak). Birini üzmek için kullanılan bilgi veya görseller.

Eylül ayında OpenAI, GenAI’yi bir öğretim aracı olarak kullanma konusunda eğitimcilere rehberlik sunmak için sınıflarda ChatGPT’ye yönelik istemler ve SSS içeren belgeler yayınladı. Destek makalelerinden birinde OpenAI, araçlarının, özellikle de ChatGPT’nin “tüm kitleler veya her yaş için uygun olmayan çıktılar üretebileceğini” kabul etti ve çocuklara, hatta yaş gereksinimlerini karşılayanlara bile maruz kalma konusunda “dikkatli olunması” tavsiyesinde bulundu.

Çocuklarda GenAI kullanımına ilişkin kılavuzlara yönelik çağrılar artıyor.

BM Eğitim, Bilim ve Kültür Örgütü (UNESCO) geçen yılın sonlarında hükümetlere, kullanıcılar için yaş sınırlarının uygulanması ve veri koruma ve kullanıcı gizliliği konusunda korkulukların uygulanması da dahil olmak üzere eğitimde GenAI kullanımını düzenlemeleri yönünde baskı yaptı. UNESCO genel müdürü Audrey Azoulay bir basın açıklamasında, “Üretken yapay zeka insan gelişimi için muazzam bir fırsat olabilir, ancak aynı zamanda zarara ve önyargıya da neden olabilir” dedi. “Halkın katılımı ve hükümetlerin gerekli önlemleri ve düzenlemeleri olmadan eğitime entegre edilemez.”

Kaynak: https://techcrunch.com/2024/02/07/openai-forms-a-new-team-to-study-child-safety/