Merhaba millet, TechCrunch’ın düzenli AI bültenine hoş geldiniz.
Yapay Zeka’da bu hafta Apple dikkatleri üzerine çekti.
Apple, şirketin Cupertino’daki Dünya Çapında Geliştiriciler Konferansı’nda (WWDC), uzun zamandır beklenen, ekosistem çapında üretken yapay zekaya geçiş olan Apple Intelligence’ı tanıttı. Apple Intelligence, yükseltilmiş Siri’den yapay zeka tarafından oluşturulan emojilere ve istenmeyen kişileri ve nesneleri fotoğraflardan kaldıran fotoğraf düzenleme araçlarına kadar çok sayıda özelliği destekler.
Şirket, Apple Intelligence’ın güvenliğin ve son derece kişiselleştirilmiş deneyimlerin ön planda tutulacağı sözünü verdi.
CEO Tim Cook Pazartesi günkü açılış konuşmasında, “Sizi anlamalı ve rutininiz, ilişkileriniz, iletişimleriniz ve daha fazlası gibi kişisel bağlamınıza dayanmalı” dedi. “Bütün bunlar yapay zekanın ötesine geçiyor. Bu kişisel zekadır ve Apple için bir sonraki büyük adımdır.”
Apple Intelligence klasik olarak Apple’dır: Açıkça sezgisel olarak kullanışlı özelliklerin ardındaki en incelikli teknolojiyi gizler. (Cook bir kez olsun “geniş dil modeli” ifadesini kullanmadı.) Ancak geçimini sağlamak için yapay zekanın alt yapısı hakkında yazan biri olarak, Apple’ın sosisin nasıl yapıldığı konusunda – sadece bu seferlik – daha şeffaf olmasını diliyorum.
Örneğin Apple’ın model eğitimi uygulamalarını ele alalım. Apple, bir blog yazısında, Apple Intelligence’ı destekleyen yapay zeka modellerini lisanslı veri kümeleri ve genel web kombinasyonu üzerinde eğittiğini açıkladı. Yayıncıların gelecekteki eğitimlerden vazgeçme seçeneği vardır. Peki ya çalışmalarınızın Apple’ın ilk eğitiminde başarılı olup olmadığını merak eden bir sanatçıysanız? Kötü şans – kelime anne.
Gizlilik rekabet nedeniyle olabilir. Ancak bunun aynı zamanda Apple’ı yasal zorluklardan, özellikle de telif hakkıyla ilgili zorluklardan korumak için olduğunu düşünüyorum. Mahkemeler, Apple gibi satıcıların, bu verileri oluşturanlara tazminat ödemeden veya kredi vermeden kamuya açık veriler üzerinde eğitim verme hakkına sahip olup olmadığına, diğer bir deyişle adil kullanım doktrininin üretken yapay zeka için geçerli olup olmadığına henüz karar vermedi.
Kendisini genellikle sağduyulu teknoloji politikasının savunucusu olarak gösteren Apple’ın üstü kapalı olarak adil kullanım argümanını benimsediğini görmek biraz hayal kırıklığı yaratıyor. Pazarlama perdesinin arkasına gizlenen Apple, yaratıcıların çalışmaları üzerinde izinsiz eğitim almış olabilirken, yapay zeka konusunda sorumlu ve ölçülü bir yaklaşım benimsediğini iddia edebilir.
Küçük bir açıklama çok işe yarayacaktır. Bir tane alamamış olmamız çok yazık – ve bir (veya iki) dava dışında yakın zamanda alacağımızdan da pek umutlu değilim.
Haberler
Apple’ın en iyi yapay zeka özellikleri: Sizinkiler, yükseltilmiş Siri’den OpenAI’nin ChatGPT’si ile derin entegrasyonlara kadar Apple’ın bu hafta WWDC açılış konuşmasında duyurduğu en önemli yapay zeka özelliklerini gerçekten özetledi.
OpenAI yöneticileri işe alıyor: OpenAI bu hafta hiper yerel sosyal ağ Nextdoor’un eski CEO’su Sarah Friar’ı finans müdürü olarak görevlendirdi ve daha önce Instagram ve Twitter’da ürün geliştirmeyi yöneten Kevin Weil’i baş ürün sorumlusu olarak görevlendirdi.
Artık daha fazla yapay zekayla Mail: Bu hafta Yahoo (TechCrunch’un ana şirketi), Yahoo Mail’i, yapay zeka tarafından oluşturulan e-posta özetleri de dahil olmak üzere yeni yapay zeka özellikleriyle güncelledi. Google yakın zamanda benzer bir üretken özetleme özelliğini tanıttı ancak bu bir ödeme duvarının arkasında.
Tartışmalı görüşler: Carnegie Mellon’un yakın zamanda yaptığı bir araştırma, tüm üretken yapay zeka modellerinin eşit yaratılmadığını ortaya koyuyor; özellikle de kutuplaştırıcı konuları nasıl ele aldıkları söz konusu olduğunda.
Ses üreteci: Yapay zeka destekli sanat yaratıcısı Stable Diffusion’ın arkasındaki startup olan Stability AI, yalnızca telifsiz kayıtlar üzerine eğitildiğini iddia ettiği sesler ve şarkılar üretmek için açık bir yapay zeka modeli yayınladı.
Haftanın araştırma makalesi
Google, kişisel sağlık için üretken bir yapay zeka modeli oluşturabileceğini veya en azından bu yönde ön adımlar atabileceğini düşünüyor.
Resmi Google AI blogunda yer alan yeni bir makalede, Google’daki araştırmacılar Kişisel Sağlık Büyük Dil Modeli veya kısaca PH-LLM (Google’ın Gemini modellerinden birinin ince ayarlı bir versiyonu) hakkındaki perdeyi geri çekiyor. PH-LLM, kısmen akıllı saatler gibi giyilebilir cihazlardan kalp ve solunum hızı verilerini okuyarak uyku ve kondisyonun iyileştirilmesine yönelik öneriler vermek üzere tasarlanmıştır.
PH-LLM’nin yararlı sağlık önerileri sunma yeteneğini test etmek için araştırmacılar, ABD merkezli deneklerin dahil olduğu 900’e yakın uyku ve fitness vaka çalışması oluşturdu. PH-LLM’nin aşağıdaki uyku önerilerini verdiğini buldular: yakın – ama o kadar iyi değil – insan uyku uzmanlarının verdiği tavsiyeler.
Araştırmacılar, PH-LLM’nin “kişisel sağlık uygulamaları” için fizyolojik verileri bağlamsallaştırmaya yardımcı olabileceğini söylüyor. Aklıma Google Fit geliyor; PH-LLM’nin sonunda Fit veya başka bir fitness odaklı Google uygulamasında bazı yeni özellikleri güçlendirdiğini görmek beni şaşırtmaz.
Haftanın modeli
Apple, Apple Intelligence paketini oluşturan yeni cihaz içi ve bulut bağlantılı üretken yapay zeka modellerinin ayrıntılarını anlatan oldukça fazla blog yazısı ayırdı. Ancak bu yazı ne kadar uzun olsa da modellerin yetenekleri hakkında çok az şey ortaya koyuyor. İşte onu ayrıştırmak için en iyi girişimimiz:
Apple’ın öne çıkardığı isimsiz cihaz modelinin boyutu küçük olduğundan şüphesiz iPhone 15 Pro ve Pro Max gibi Apple cihazlarında çevrimdışı çalışabiliyor. 3 milyar parametre içerir – “parametreler”, modelin metin oluşturma gibi bir problem üzerindeki becerisini temel olarak tanımlayan parçalarıdır – bu da onu Google’ın 1,8 milyar parametreyle gelen cihazdaki Gemini modeli Gemini Nano ile karşılaştırılabilir kılar. 3,25 milyar parametre boyutu.
Bu arada sunucu modeli daha büyük (Apple ne kadar büyük olduğunu kesin olarak söylemiyor). Biz ne Yapmak Cihazdaki modelden daha yetenekli olduğunu biliyorum. Cihaz üstü model, Apple’ın listelediği kıyaslamalarda Microsoft’un Phi-3-mini, Mistral’ın Mistral 7B ve Google’ın Gemma 7B’si gibi modellerle aynı performansı gösterirken, sunucu modeli OpenAI’nin eski amiral gemisi modeli GPT-3.5 Turbo, Apple ile “olumlu bir şekilde karşılaştırılabilir”. iddialar.
Apple ayrıca, hem cihaz üstü modelin hem de sunucu modelinin kontrolden çıkma olasılığının (yani püskürtme toksisitesi) benzer boyutlardaki modellere göre daha az olduğunu söylüyor. Öyle olabilir – ancak bu yazar, Apple Intelligence’ı test etme şansımız olana kadar kararımızı saklı tutuyor.
Çantayı al
Bu hafta, OpenAI’nin en son amiral gemisi üretken yapay zeka modeli olan GPT-4o’nun atası olan GPT-1’in piyasaya sürülmesinin altıncı yıldönümünü kutladı. Derin öğrenme duvara toslamak gibi görünse de alanın bu kadar ilerlediği inanılmaz.
GPT-1’i 4,5 gigabaytlık metinden oluşan bir veri kümesi (yaklaşık 7.000 yayınlanmamış kurgu kitabı içeren BookCorpus) üzerinde eğitmenin bir ay sürdüğünü düşünün. Parametre sayısına göre GPT-1’in neredeyse 1.500 katı büyüklüğünde olan ve oluşturup analiz edebildiği metin açısından önemli ölçüde daha gelişmiş olan GPT-3’ün eğitimi 34 gün sürdü. Ölçeklendirme nasıl?
GPT-1’i çığır açıcı yapan şey, eğitime yaklaşımıydı. Önceki teknikler büyük miktarlarda manuel olarak etiketlenmiş verilere dayanıyordu ve bu da bunların kullanışlılığını sınırlıyordu. (Verilerin manuel olarak etiketlenmesi zaman alıcı ve zahmetlidir.) Ancak GPT-1 bunu yapmadı; öncelikle eğitim aldı etiketlenmemiş çeşitli görevlerin (örneğin makale yazma) nasıl gerçekleştirileceğini “öğrenmek” için veriler.
Pek çok uzman, yakın zamanda GPT-1 kadar anlamlı bir paradigma değişikliği göremeyeceğimize inanıyor. Ancak dünya GPT-1’in geldiğini de göremedi.
Kaynak: https://techcrunch.com/2024/06/12/this-week-in-ai-apple-wont-say-how-the-sausage-gets-made/