Yapay Zekada Bu Hafta: OpenAI’ye güvenebilir miyiz (ve güvenebilir miyiz)?

Yapay zeka kadar hızlı hareket eden bir sektöre ayak uydurmak zorlu bir iştir. Bir yapay zeka bunu sizin için yapana kadar, kendi başımıza ele almadığımız dikkate değer araştırma ve deneylerin yanı sıra, makine öğrenimi dünyasındaki son hikayelerin kullanışlı bir özetini burada bulabilirsiniz.

Bu arada TechCrunch, 5 Haziran’da bir AI bülteni yayınlamayı planlıyor. Bizi izlemeye devam edin. Bu arada, daha önce ayda iki kez (veya daha fazla) olan yarı düzenli AI sütunumuzun temposunu haftalık hale getiriyoruz; bu nedenle daha fazla basım için tetikte olun.

Bu hafta AI’da OpenAI, kar amacı gütmeyen kuruluşlar ve eğitim müşterileri için indirimli planlar başlattı ve kötü aktörlerin AI araçlarını kötüye kullanmasını engellemeye yönelik en son çabalarının perdelerini geri çekti. Burada eleştirilecek pek bir şey yok; en azından bu yazarın görüşüne göre. Ama ben irade duyuruların son zamanlarda şirketin kötü basınına karşı koymak için zamanlanmış gibi göründüğünü söylüyorlar.

Scarlett Johansson’la başlayalım. OpenAI, yapay zeka destekli sohbet robotu ChatGPT’nin kullandığı seslerden birini, kullanıcıların sesin Johansson’un sesine ürkütücü derecede benzediğini belirtmesinin ardından kaldırdı. Johansson daha sonra ses hakkında bilgi almak ve sesin nasıl geliştirildiğine dair kesin ayrıntıları öğrenmek için hukuk danışmanı tuttuğunu ve OpenAI’nin sesini ChatGPT için lisanslaması yönünde defalarca yaptığı çağrıları reddettiğini belirten bir açıklama yaptı.

The Washington Post’ta yer alan bir yazı, OpenAI’nin aslında Johansson’un sesini klonlamaya çalışmadığını ve herhangi bir benzerliğin tesadüfi olduğunu ima ediyor. Peki o zaman neden OpenAI CEO’su Sam Altman Johansson’a ulaşıp ona benzer sesin yer aldığı gösterişli bir demodan iki gün önce yeniden düşünmesini istedi? Biraz şüpheli.

Ayrıca OpenAI’nin güven ve emniyet sorunları da var.

Ayın başında bildirdiğimiz gibi, “süper akıllı” yapay zeka sistemlerini yönetmek ve yönlendirmek için yollar geliştirmekten sorumlu olan OpenAI’nin dağılmış olan Superalignment ekibine şirketin bilgi işlem kaynaklarının %20’si için söz verildi – ancak bu tutarın yalnızca bir kısmını (ve nadiren) aldı. Bu. Bu, (diğer nedenlerin yanı sıra) ekiplerin iki yardımcı lideri Jan Leike ve eski OpenAI baş bilim adamı Ilya Sutskever’in istifasına yol açtı.

Geçtiğimiz yıl neredeyse bir düzine güvenlik uzmanı OpenAI’den ayrıldı; Leike de dahil olmak üzere birçok şirket, şirketin güvenlik ve şeffaflık çabaları yerine ticari projelere öncelik verdiği yönündeki endişelerini kamuoyuna dile getirdi. Eleştirilere yanıt olarak OpenAI, şirketin projeleri ve operasyonlarıyla ilgili emniyet ve güvenlik kararlarını denetlemek için yeni bir komite kurdu. Ancak komitede dışarıdan gözlemciler yerine, Altman da dahil olmak üzere şirket içinden kişiler görevlendirildi. Bu, OpenAI’nin kar amacı gütmeyen yapısını geleneksel kar amaçlı model lehine terk etmeyi düşündüğü bildirildiği gibi.

Bu gibi olaylar, gücü ve nüfuzu her geçen gün artan bir şirket olan OpenAI’ye güvenmeyi zorlaştırıyor (bkz: haber yayıncılarıyla yaptığı anlaşmalar). Çok az şirket güvenilmeye değerdir. Ancak OpenAI’nin pazarı bozan teknolojileri, ihlalleri daha da rahatsız edici hale getiriyor.

Altman’ın kendisinin tam olarak bir doğruluk işareti olmamasının hiçbir önemi yok.

OpenAI’nin eski çalışanlara yönelik saldırgan taktikleri (çalışanları kazanılmış sermayelerini kaybetmekle tehdit etme veya kısıtlayıcı gizlilik anlaşmaları imzalamamaları halinde hisse satışlarının engellenmesi gibi taktikler) ile ilgili haberler çıktığında Altman özür diledi ve bu konuda hiçbir bilgisi olmadığını iddia etti. politikalar. Ancak Vox’a göre, politikaları yürürlüğe koyan kuruluş belgelerinde Altman’ın imzası var.

Ve eğer eski OpenAI yönetim kurulu üyesi Helen Toner’a (geçen yılın sonlarında Altman’ı görevinden almaya çalışan eski yönetim kurulu üyelerinden biri) inanılırsa, Altman bilgileri sakladı, OpenAI’de olup bitenleri yanlış aktardı ve bazı durumlarda açıkça yalan söyledi. yönetim kuruluna. Toner, yönetim kurulunun ChatGPT’nin yayınlandığını Altman’dan değil Twitter aracılığıyla öğrendiğini söylüyor; Altman’ın OpenAI’nin resmi güvenlik uygulamaları hakkında yanlış bilgi verdiği; ve Toner’ın ortak yazdığı ve OpenAI’ye eleştirel bir ışık tutan akademik makaleden memnun olmayan Altman, Toner’ı yönetim kurulundan uzaklaştırmak için yönetim kurulu üyelerini manipüle etmeye çalıştı.

Hiçbiri iyiye işaret değil.

İşte son birkaç güne ait diğer AI hikayeleri:

  • Ses klonlama artık daha kolay: Dijital Nefretle Mücadele Merkezi’nin yeni bir raporu, yapay zeka destekli ses klonlama hizmetlerinin bir politikacının beyanını taklit etmeyi oldukça önemsiz hale getirdiğini ortaya koyuyor.
  • Google’ın AI Genel Bakış mücadelesi: Google’ın bu ayın başında Google Arama’da daha geniş bir şekilde sunmaya başladığı, yapay zeka tarafından oluşturulan arama sonuçları olan Yapay Zekaya Genel Bakış’ın biraz çalışmaya ihtiyacı var. Şirket bunu kabul ediyor ancak hızlı bir şekilde yinelendiğini iddia ediyor. (Göreceğiz.)
  • Paul Graham, Altman’a ilişkin: Startup hızlandırıcı Y Combinator’ın kurucu ortağı Paul Graham, X ile ilgili bir dizi gönderisinde, olası çıkar çatışmaları nedeniyle Altman’a 2019’da Y Combinator başkanlığından istifa etmesi yönünde baskı yapıldığı iddialarını görmezden geldi. (Y Combinator’ın OpenAI’de küçük bir hissesi var.)
  • xAI 6 milyar dolar topladı: Elon Musk’un yapay zeka girişimi xAI, Musk’un OpenAI, Microsoft ve Alphabet gibi rakipleriyle agresif bir şekilde rekabet edebilmek için sermayeyi artırmasıyla 6 milyar dolar fon topladı.
  • Perplexity’nin yeni AI özelliği: Ivan, yeni yeteneği Perplexity Pages ile yapay zeka girişimi Perplexity’nin, kullanıcıların görsel olarak daha çekici bir formatta raporlar, makaleler veya kılavuzlar oluşturmasına yardımcı olmayı hedeflediğini bildirdi.
  • AI modellerinin favori numaraları: Devin, farklı yapay zeka modellerinin rastgele bir cevap vermekle görevlendirildiklerinde seçtikleri sayılar hakkında yazıyor. Görünüşe göre favorileri var; her birinin üzerinde eğitim aldığı verilerin bir yansıması.
  • Mistral, Codestral’ı piyasaya sürdü: Microsoft tarafından desteklenen ve 6 milyar dolar değerindeki Fransız yapay zeka girişimi Mistral, Codestral adı verilen kodlamaya yönelik ilk üretken yapay zeka modelini piyasaya sürdü. Ancak Mistral’in oldukça kısıtlayıcı lisansı sayesinde ticari olarak kullanılamaz.
  • Sohbet robotları ve gizlilik: Natasha, Avrupa Birliği’nin ChatGPT görev gücü hakkında yazıyor ve yapay zeka sohbet robotunun gizlilik uyumluluğunun çözülmesine yönelik ilk bakışın nasıl sunulduğunu yazıyor.
  • ElevenLabs’ın ses oluşturucusu: Ses klonlama girişimi ElevenLabs, ilk olarak Şubat ayında duyurulan ve kullanıcıların komutlar aracılığıyla ses efektleri oluşturmasına olanak tanıyan yeni bir araç tanıttı.
  • AI çipleri için ara bağlantılar: Arm, Nvidia veya AWS hariç Microsoft, Google ve Intel gibi teknoloji devleri, yeni nesil yapay zeka çip bileşenlerinin geliştirilmesine yardımcı olmak için UALink Promoter Group adında bir endüstri grubu kurdu.

Kaynak: https://techcrunch.com/2024/06/01/this-week-in-ai-can-we-and-could-we-ever-trust-openai/