Yapay zeka kadar hızlı hareket eden bir sektöre ayak uydurmak zorlu bir iştir. Bir yapay zeka bunu sizin için yapana kadar, kendi başımıza ele almadığımız dikkate değer araştırma ve deneylerin yanı sıra, makine öğrenimi dünyasındaki son hikayelerin kullanışlı bir özetini burada bulabilirsiniz.
Bu arada TechCrunch, 5 Haziran’da bir AI bülteni yayınlamayı planlıyor. Bizi izlemeye devam edin. Bu arada, daha önce ayda iki kez (veya daha fazla) olan yarı düzenli AI sütunumuzun temposunu haftalık hale getiriyoruz; bu nedenle daha fazla basım için tetikte olun.
Bu hafta AI’da OpenAI, kar amacı gütmeyen kuruluşlar ve eğitim müşterileri için indirimli planlar başlattı ve kötü aktörlerin AI araçlarını kötüye kullanmasını engellemeye yönelik en son çabalarının perdelerini geri çekti. Burada eleştirilecek pek bir şey yok; en azından bu yazarın görüşüne göre. Ama ben irade duyuruların son zamanlarda şirketin kötü basınına karşı koymak için zamanlanmış gibi göründüğünü söylüyorlar.
Scarlett Johansson’la başlayalım. OpenAI, yapay zeka destekli sohbet robotu ChatGPT’nin kullandığı seslerden birini, kullanıcıların sesin Johansson’un sesine ürkütücü derecede benzediğini belirtmesinin ardından kaldırdı. Johansson daha sonra ses hakkında bilgi almak ve sesin nasıl geliştirildiğine dair kesin ayrıntıları öğrenmek için hukuk danışmanı tuttuğunu ve OpenAI’nin sesini ChatGPT için lisanslaması yönünde defalarca yaptığı çağrıları reddettiğini belirten bir açıklama yaptı.
The Washington Post’ta yer alan bir yazı, OpenAI’nin aslında Johansson’un sesini klonlamaya çalışmadığını ve herhangi bir benzerliğin tesadüfi olduğunu ima ediyor. Peki o zaman neden OpenAI CEO’su Sam Altman Johansson’a ulaşıp ona benzer sesin yer aldığı gösterişli bir demodan iki gün önce yeniden düşünmesini istedi? Biraz şüpheli.
Ayrıca OpenAI’nin güven ve emniyet sorunları da var.
Ayın başında bildirdiğimiz gibi, “süper akıllı” yapay zeka sistemlerini yönetmek ve yönlendirmek için yollar geliştirmekten sorumlu olan OpenAI’nin dağılmış olan Superalignment ekibine şirketin bilgi işlem kaynaklarının %20’si için söz verildi – ancak bu tutarın yalnızca bir kısmını (ve nadiren) aldı. Bu. Bu, (diğer nedenlerin yanı sıra) ekiplerin iki yardımcı lideri Jan Leike ve eski OpenAI baş bilim adamı Ilya Sutskever’in istifasına yol açtı.
Geçtiğimiz yıl neredeyse bir düzine güvenlik uzmanı OpenAI’den ayrıldı; Leike de dahil olmak üzere birçok şirket, şirketin güvenlik ve şeffaflık çabaları yerine ticari projelere öncelik verdiği yönündeki endişelerini kamuoyuna dile getirdi. Eleştirilere yanıt olarak OpenAI, şirketin projeleri ve operasyonlarıyla ilgili emniyet ve güvenlik kararlarını denetlemek için yeni bir komite kurdu. Ancak komitede dışarıdan gözlemciler yerine, Altman da dahil olmak üzere şirket içinden kişiler görevlendirildi. Bu, OpenAI’nin kar amacı gütmeyen yapısını geleneksel kar amaçlı model lehine terk etmeyi düşündüğü bildirildiği gibi.
Bu gibi olaylar, gücü ve nüfuzu her geçen gün artan bir şirket olan OpenAI’ye güvenmeyi zorlaştırıyor (bkz: haber yayıncılarıyla yaptığı anlaşmalar). Çok az şirket güvenilmeye değerdir. Ancak OpenAI’nin pazarı bozan teknolojileri, ihlalleri daha da rahatsız edici hale getiriyor.
Altman’ın kendisinin tam olarak bir doğruluk işareti olmamasının hiçbir önemi yok.
OpenAI’nin eski çalışanlara yönelik saldırgan taktikleri (çalışanları kazanılmış sermayelerini kaybetmekle tehdit etme veya kısıtlayıcı gizlilik anlaşmaları imzalamamaları halinde hisse satışlarının engellenmesi gibi taktikler) ile ilgili haberler çıktığında Altman özür diledi ve bu konuda hiçbir bilgisi olmadığını iddia etti. politikalar. Ancak Vox’a göre, politikaları yürürlüğe koyan kuruluş belgelerinde Altman’ın imzası var.
Ve eğer eski OpenAI yönetim kurulu üyesi Helen Toner’a (geçen yılın sonlarında Altman’ı görevinden almaya çalışan eski yönetim kurulu üyelerinden biri) inanılırsa, Altman bilgileri sakladı, OpenAI’de olup bitenleri yanlış aktardı ve bazı durumlarda açıkça yalan söyledi. yönetim kuruluna. Toner, yönetim kurulunun ChatGPT’nin yayınlandığını Altman’dan değil Twitter aracılığıyla öğrendiğini söylüyor; Altman’ın OpenAI’nin resmi güvenlik uygulamaları hakkında yanlış bilgi verdiği; ve Toner’ın ortak yazdığı ve OpenAI’ye eleştirel bir ışık tutan akademik makaleden memnun olmayan Altman, Toner’ı yönetim kurulundan uzaklaştırmak için yönetim kurulu üyelerini manipüle etmeye çalıştı.
Hiçbiri iyiye işaret değil.
İşte son birkaç güne ait diğer AI hikayeleri:
Kaynak: https://techcrunch.com/2024/06/01/this-week-in-ai-can-we-and-could-we-ever-trust-openai/
Web sitemizde ziyaretçilerimize daha iyi hizmet sağlayabilmek adına bazı çerezler kullanıyoruz. Web sitemizi kullanmaya devam ederseniz çerezleri kabul etmiş sayılırsınız.
Gizlilik Politikası