Yapay zeka kadar hızlı hareket eden bir sektöre ayak uydurmak zorlu bir iştir. Yani bir yapay zeka bunu sizin için yapana kadar, kendi başımıza ele almadığımız dikkate değer araştırma ve deneylerin yanı sıra, makine öğrenimi dünyasındaki son hikayelerin kullanışlı bir özetini burada bulabilirsiniz.
Bu hafta AI’da, dikkatleri etiketleme ve açıklama girişimlerine çevirmek istiyorum – 13 milyar dolarlık bir değerlemeyle yeni fon toplamak için görüşmelerde olduğu bildirilen Scale AI gibi girişimler. Etiketleme ve açıklama platformları, OpenAI’nin Sora’sı gibi gösterişli yeni üretken yapay zeka modellerinin dikkatini çekmeyebilir. Ama bunlar çok önemli. Onlar olmasaydı modern yapay zeka modelleri tartışmasız var olamazdı.
Birçok modelin eğitildiği verilerin etiketlenmesi gerekir. Neden? Etiketler veya etiketler, eğitim süreci sırasında modellerin verileri anlamasına ve yorumlamasına yardımcı olur. Örneğin, bir görüntü tanıma modelini eğitmeye yönelik etiketler, nesnelerin etrafındaki işaretlemeler, “sınırlayıcı kutular” veya bir görüntüde tasvir edilen her bir kişiye, yere veya nesneye atıfta bulunan başlıklar şeklini alabilir.
Etiketlerin doğruluğu ve kalitesi, eğitilen modellerin performansını ve güvenilirliğini önemli ölçüde etkiler. Ve ek açıklama, kullanımda olan daha büyük ve daha karmaşık veri kümeleri için binlerce ila milyonlarca etiket gerektiren çok büyük bir girişimdir.
Yani veri açıklayıcılarına iyi davranılacağını, geçimlik ücretler ödeneceğini ve modelleri oluşturan mühendislerin yararlandığı avantajların aynılarının sağlanacağını düşünürsünüz. Ancak çoğu zaman tam tersi doğrudur; birçok ek açıklama ve etiketleme girişiminin teşvik ettiği acımasız çalışma koşullarının bir ürünüdür.
OpenAI gibi bankalarında milyarlarca doları olan şirketler, üçüncü dünya ülkelerindeki açıklayıcıların saat başına yalnızca birkaç dolar ödediğine güvendiler. Bu yorumculardan bazıları, sansürlenmemiş görüntüler gibi son derece rahatsız edici içeriğe maruz kalıyor, ancak kendilerine izin verilmiyor (genellikle yüklenici oldukları için) veya zihinsel sağlık kaynaklarına erişimleri yok.
NY Mag’deki mükemmel bir makale, özellikle Nairobi ve Kenya gibi uzak ülkelerdeki yorumcuları işe alan Scale AI’nın perdelerini aralıyor. Scale AI’daki görevlerden bazıları, etiketleyicilerin sekiz saatlik iş günü sürmesini (ara vermeden) ve 10 ABD doları kadar düşük bir ücret ödemesini gerektiriyor. Ve bu işçiler platformun kaprislerine bağlılar. Açıklamacılar bazen uzun süre iş alamadan gidiyorlar ya da son zamanlarda Tayland, Vietnam, Polonya ve Pakistan’daki müteahhitlerin başına geldiği gibi, Scale AI’dan belirsiz bir şekilde atılıyorlar.
Bazı açıklama ve etiketleme platformları “adil ticaret” çalışması sağladığını iddia ediyor. Aslında bunu markalamalarının merkezi bir parçası haline getirdiler. Ancak MIT Tech Review’dan Kate Kaye’nin belirttiği gibi, etik etiketleme çalışmasının ne anlama geldiğine ilişkin hiçbir düzenleme yok, yalnızca zayıf endüstri standartları var ve şirketlerin kendi tanımları büyük ölçüde farklılık gösteriyor.
Peki ne yapmalı? Büyük bir teknolojik atılımın dışında, yapay zeka eğitimi için verilere açıklama ekleme ve etiketleme ihtiyacı ortadan kalkmıyor. Platformların kendi kendini düzenlemesini umabiliriz ancak daha gerçekçi çözüm politika oluşturmak gibi görünüyor. Bu başlı başına çetrefilli bir olasılık; ancak bazı şeyleri daha iyiye doğru değiştirmek için elimizdeki en iyi şansın bu olduğunu düşünüyorum. Ya da en azından başlıyoruz.
İşte son birkaç güne ait diğer AI hikayeleri:
Hava nasıl? Yapay zeka size bunu giderek daha fazla söyleyebiliyor. Birkaç ay önce saatlik, haftalık ve yüzyıl ölçeğinde tahminlerde birkaç çaba sarf edildiğini fark ettim, ancak yapay zeka ile ilgili her şey gibi bu alan da hızlı ilerliyor. MetNet-3 ve GraphCast’ın arkasındaki ekipler, Ölçeklenebilir Ensemble Zarf Difüzyon Örnekleyici için SEEDS adı verilen yeni bir sistemi açıklayan bir makale yayınladı.
SEEDS, girdiye dayalı olarak (radar okumaları veya yörünge görüntüleri) bir alan için makul hava durumu sonuçlarının “topluluklarını” oluşturmak için fizik tabanlı modellerden çok daha hızlı bir şekilde difüzyonu kullanır. Daha büyük topluluk sayılarıyla, daha fazla uç durumu kapsayabilirler (örneğin, 100 olası senaryodan yalnızca 1’inde meydana gelen bir olay gibi) ve daha olası durumlar hakkında daha emin olabilirler.
Fujitsu ayrıca su altı otonom araçları tarafından toplanan su altı görüntülerine ve lidar verilerine yapay zeka görüntü işleme tekniklerini uygulayarak doğal dünyayı daha iyi anlamayı umuyor. Görüntü kalitesinin iyileştirilmesi, diğer daha az karmaşık süreçlerin (3D dönüştürme gibi) hedef veriler üzerinde daha iyi çalışmasına olanak tanıyacaktır.
Buradaki fikir, yeni gelişmeleri simüle etmeye ve tahmin etmeye yardımcı olabilecek bir “dijital ikiz” su inşa etmektir. Bundan çok uzaktayız ama bir yerden başlamalısınız.
Yüksek Lisans öğrencileri arasında araştırmacılar, zekayı beklenenden daha basit bir yöntemle taklit ettiklerini buldular: doğrusal fonksiyonlar. Açıkçası matematik beni aşıyor (birçok boyuttaki vektör işleri), ancak MIT’deki bu yazı, bu modellerin geri çağırma mekanizmasının oldukça… basit olduğunu oldukça açık bir şekilde ortaya koyuyor.
Bu modeller her ne kadar çok karmaşık, çok sayıda veri üzerinde eğitilmiş, anlaşılması çok zor, doğrusal olmayan fonksiyonlar olsa da bazen içlerinde çalışan çok basit mekanizmalar olabiliyor. Bu da bunun bir örneği” dedi eşbaşkan yazar Evan Hernandez. Daha teknik bir fikre sahipseniz buradaki makaleye göz atın.
Bu modellerin başarısız olmasının bir yolu bağlamı veya geri bildirimi anlamamaktır. Gerçekten yetenekli bir Yüksek Lisans bile, adınızın belirli bir şekilde telaffuz edildiğini söylerseniz “anlamayabilir” çünkü aslında hiçbir şey bilmezler veya anlamazlar. İnsan-robot etkileşimleri gibi bunun önemli olabileceği durumlarda, robotun bu şekilde davranması insanları rahatsız edebilir.
Disney Research uzun süredir otomatik karakter etkileşimlerini araştırıyor ve bu ad telaffuzu ve yeniden kullanım makalesi kısa bir süre önce ortaya çıktı. Açık görünüyor, ancak birisi kendini tanıttığında fonemleri çıkarmak ve sadece yazılı isim yerine bunu kodlamak akıllıca bir yaklaşım.
Son olarak, yapay zeka ve arama giderek daha fazla örtüştüğünden, bu araçların nasıl kullanıldığını ve bu kutsal olmayan birliğin sunduğu yeni risklerin olup olmadığını yeniden değerlendirmek faydalı olacaktır. Safiya Umoja Noble, yıllardır yapay zeka ve arama etiğinde önemli bir ses olmuştur ve görüşleri her zaman aydınlatıcıdır. UCLA haber ekibiyle, çalışmalarının nasıl geliştiği ve konu aramada önyargı ve kötü alışkanlıklar olduğunda neden soğukkanlı kalmamız gerektiği hakkında güzel bir röportaj yaptı.
Kaynak: https://techcrunch.com/2024/03/30/this-week-in-ai-let-us-not-forget-the-humble-data-annotator/
Web sitemizde ziyaretçilerimize daha iyi hizmet sağlayabilmek adına bazı çerezler kullanıyoruz. Web sitemizi kullanmaya devam ederseniz çerezleri kabul etmiş sayılırsınız.
Gizlilik Politikası