Merhaba arkadaşlar, TechCrunch’ın düzenli AI bültenine hoş geldiniz.
Yapay Zeka’da bu hafta yapılan yeni bir çalışma, üretken yapay zekanın aslında o kadar da zararlı olmadığını gösteriyor; en azından kıyamet anlamında.
Hesaplamalı Dilbilim Derneği’nin yıllık konferansına sunulan bir makalede, Bath Üniversitesi ve Darmstadt Üniversitesi’nden araştırmacılar, Meta’nın Lama ailesindekiler gibi modellerin bağımsız olarak öğrenemeyeceğini veya açık talimat olmadan yeni beceriler kazanamayacağını savunuyorlar.
Araştırmacılar, birkaç modelin, eğitim verilerinin kapsamı dışındaki konularla ilgili soruları yanıtlamak gibi daha önce karşılaşmadıkları görevleri tamamlama yeteneğini test etmek için binlerce deney gerçekleştirdi. Modellerin talimatları yüzeysel olarak takip edebildiklerini ancak yeni becerilerde kendi başlarına ustalaşamadıklarını keşfettiler.
Bath Üniversitesi’nden bilgisayar bilimcisi ve çalışmanın yazarlarından Harish Tayyar Madabushi, “Çalışmamız, bir modelin tamamen beklenmedik, yenilikçi ve potansiyel olarak tehlikeli bir şey yapacağı korkusunun geçerli olmadığını gösteriyor” dedi. bir beyan. “Bu tür yapay zekanın insanlık için bir tehdit olduğu yönündeki hakim anlatı, bu teknolojilerin yaygın şekilde benimsenmesini ve geliştirilmesini engelliyor ve aynı zamanda dikkati, odaklanmamızı gerektiren gerçek sorunlardan uzaklaştırıyor.”
Araştırmanın sınırlılıkları bulunmaktadır. Araştırmacılar, OpenAI ve Anthropic gibi satıcıların en yeni ve en yetenekli modellerini test etmediler ve kıyaslama modelleri genellikle kesin olmayan bir bilimdir. Ancak araştırma, günümüzün üretken yapay zeka teknolojisinin insanlığı tehdit etmediğini ve aksini varsaymanın üzücü politika oluşturma risklerini ortaya çıkardığını ortaya koyan ilk araştırma olmaktan çok uzak.
Geçen yıl Scientific American’da yayınlanan bir köşe yazısında yapay zeka etik uzmanı Alex Hanna ve dil bilimi profesörü Emily Bender, kurumsal yapay zeka laboratuvarlarının bürokratik bir manevra taktiği olarak düzenleyicilerin dikkatini hayali, dünyanın sonu senaryolarına yanlış yönlendirdiğini öne sürdü. OpenAI CEO’su Sam Altman’ın Mayıs 2023’teki kongre duruşmasında ortaya çıktığına dikkat çektiler; bu duruşmada Altman, üretken yapay zeka araçlarının “oldukça yanlış” gidebileceğini – hiçbir kanıt olmadan – öne sürdü.
Hanna ve Bender, “Daha geniş kamu kurumları ve düzenleyici kurumlar bu manevraya kanmamalı” diye yazdı. “Bunun yerine, akran değerlendirmesi yapan ve yapay zekanın buradaki ve şimdiki zararlı etkilerini anlamak amacıyla yapay zeka abartısını geri çeviren akademisyenlere ve aktivistlere bakmalıyız.”
Yatırımcılar üretken yapay zekaya milyarlarca dolar akıtmaya devam ederken ve heyecan döngüsü zirveye yaklaşırken onlarınki ve Madabushi’ninki akılda tutulması gereken önemli noktalardır. Üretken yapay zeka teknolojisini destekleyen şirketler için tehlikede olan pek çok şey var ve onlar ve onların destekçileri için iyi olan, geri kalanımız için de iyi olmayabilir.
Üretken yapay zeka neslimizin tükenmesine neden olmayabilir. Ancak halihazırda başka yönlerden de zarar veriyor; rıza dışı derin sahte pornoların yayılmasına, haksız yüz tanıma tutuklamalarına ve çok sayıda düşük ücretli veri açıklayıcısına bakın. Politika yapıcıların da bunu görmesini ve bu görüşü paylaşmasını veya eninde sonunda ortaya çıkmasını umuyoruz. Aksi takdirde insanlığın pekâlâ korkacak bir şeyleri olabilir.
Haberler
Google Gemini ve yapay zeka, aman tanrım: Google’ın yıllık Made By Google donanım etkinliği Salı günü gerçekleşti ve şirket, Gemini asistanına yönelik bir dizi güncellemenin yanı sıra yeni telefonlar, kulaklıklar ve akıllı saatler duyurdu. En son haberler için TechCrunch’ın özetine göz atın.
AI telif hakkı davası devam ediyor: Stability AI, Runway AI ve DeviantArt’ın yapay zekalarını telif hakkıyla korunan çalışmalar konusunda yasadışı olarak eğittiğini iddia eden sanatçılar tarafından açılan toplu dava davası ilerleyebilir, ancak baş yargıç Pazartesi günü bu kararı yalnızca kısmen verdi. Karışık bir kararla, davacıların iddialarından bazıları reddedilirken diğerleri hayatta kaldı, bu da davanın mahkemede sonuçlanabileceği anlamına geliyordu.
X ve Grok için sorunlar: Elon Musk’un sahibi olduğu sosyal medya platformu X, insanların rızasını almadan yapay zeka modellerini eğitmek için Avrupa Birliği’ndeki kullanıcıların verilerine yardımcı olduktan sonra bir dizi gizlilik şikayetinin hedefi oldu. X, şimdilik Grok’un eğitimi için AB’nin veri işlemesini durdurmayı kabul etti.
YouTube Gemini beyin fırtınasını test ediyor: YouTube, içerik oluşturucuların video fikirleri, başlıklar ve küçük resimler hakkında beyin fırtınası yapmasına yardımcı olmak için Gemini ile entegrasyonu test ediyor. Gemini ile Beyin Fırtınası olarak adlandırılan bu özellik, şu anda küçük ve sınırlı bir deneyin parçası olarak yalnızca belirli içerik oluşturucuların kullanımına açıktır.
OpenAI’nin GPT-4o’su tuhaf şeyler yapıyor: OpenAI’nin GPT-4o’su, şirketin metin ve görüntü verilerinin yanı sıra ses üzerine de eğitilen ilk modelidir. Bu da bazen kendisiyle konuşan kişinin sesini taklit etmek veya bir konuşmanın ortasında rastgele bağırmak gibi tuhaf davranışlar sergilemesine neden oluyor.
Haftanın araştırma makalesi
Üretken bir yapay zeka modeliyle yazılan metinleri güvenilir bir şekilde tespit edebildiğini iddia ettikleri araçlar sunan tonlarca şirket var; bu, örneğin yanlış bilgi ve intihalle mücadelede yararlı olabilir. Ancak bir süre önce birkaçını test ettiğimizde araçların nadiren işe yaradığını gördük. Ve yeni bir çalışma durumun pek iyileşmediğini öne sürüyor.
UPenn’deki araştırmacılar, yapay zeka metin algılayıcılarının performansını ölçmek için yapay zeka tarafından oluşturulan ve insanlar tarafından yazılan 10 milyondan fazla tarif, haber makalesi, blog gönderisi ve daha fazlasını içeren Sağlam Yapay Zeka Dedektörü (RAID) adlı bir veri kümesi ve liderlik tablosu tasarladı. Değerlendirdikleri dedektörlerin (araştırmacıların deyimiyle) “çoğunlukla işe yaramaz” olduğunu, yalnızca belirli kullanım durumlarına ve üzerinde eğitim aldıkları metne benzer metinlere uygulandığında çalıştığını buldular.
“Üniversiteler veya okullar, öğrencilerin [generative AI] Bilgisayar ve bilişim bilimi profesörü ve çalışmanın ortak yazarlarından Chris Callison-Burch, bir beyanında şöyle konuştu: “Ödevleri yazmak için, öğrencileri kopya çekmekle suçluyor olabilirler ama öyle değiller.” “Başkalarını kullanarak kopya çeken öğrencileri de kaçırabilirlerdi. [generative AI] ödevlerini yapmak için.”
Yapay zeka metin tespiti söz konusu olduğunda sihirli bir değnek yok gibi görünüyor; sorun çözülemez bir sorun.
Bildirildiğine göre OpenAI, yapay zeka modelleri için şirketin ilk denemesine göre daha iyi bir gelişme olan yeni bir metin algılama aracı geliştirdi, ancak İngilizce olmayan kullanıcıları orantısız bir şekilde etkileyeceği ve sistemdeki küçük değişikliklerle etkisiz hale gelebileceği korkusuyla bunu yayınlamayı reddediyor. metin. (Daha az hayırseverlik açısından, OpenAI’nin yerleşik bir AI metin algılayıcısının ürünlerinin algısını ve kullanımını nasıl etkileyebileceği konusunda da endişelendiği söyleniyor.)
Haftanın modeli
Görünen o ki, üretken yapay zeka sadece memlerden daha fazlası için iyi. MIT araştırmacıları bunu rüzgar türbinleri gibi karmaşık sistemlerdeki sorunları işaretlemek için uyguluyor.
MIT Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı’ndaki bir ekip, zaman serisi verilerini (zaman içinde tekrar tekrar alınan ölçümler) üretken bir yapay zeka modelinin işleyebileceği metin tabanlı girdilere dönüştüren bir bileşen içeren SigLLM adı verilen bir çerçeve geliştirdi. Kullanıcı hazırlanan bu verileri modele besleyebilir ve ondan anormallikleri tanımlamaya başlamasını isteyebilir. Model aynı zamanda anormallik tespit hattının bir parçası olarak gelecekteki zaman serisi veri noktalarını tahmin etmek için de kullanılabilir.
Çerçeve performans göstermedi istisnai olarak araştırmacıların deneylerinde iyi. Ancak performansı geliştirilebilirse SigLLM, örneğin teknisyenlerin ağır makine gibi ekipmanlardaki potansiyel sorunları ortaya çıkmadan önce işaretlemesine yardımcı olabilir.
“Bu sadece ilk yineleme olduğu için ilk seferde bu noktaya ulaşmayı beklemiyorduk, ancak bu sonuçlar burada bir fırsat olduğunu gösteriyor.” [generative AI models] Elektrik mühendisliği ve bilgisayar bilimi yüksek lisans öğrencisi ve SigLLM ile ilgili bir makalenin baş yazarı olan Sarah Alnegheimish, karmaşık anormallik tespit görevleri için “dedi.
Çantayı al
OpenAI, AI destekli sohbet robotu platformu ChatGPT’yi bu ay yeni bir temel modele yükseltti ancak herhangi bir değişiklik günlüğü yayınlamadı (neredeyse bir değişiklik günlüğü).
Peki bundan ne yapmalı? Ne olabilmek tam olarak bir tane mi? Sübjektif testlerden elde edilen anekdot niteliğindeki kanıtlardan başka devam edecek bir şey yok.
Wharton’da yapay zeka, inovasyon ve startuplar üzerine çalışan bir profesör olan Ethan Mollick’in doğru bir yaklaşıma sahip olduğunu düşünüyorum. Üretken yapay zeka modelleri için sürüm notları yazmak zordur çünkü modeller bir etkileşimde diğerine farklı “hissettirir”; bunlar büyük ölçüde titreşime dayalıdır. Aynı zamanda insanlar ChatGPT’yi kullanıyor ve bunun için ödeme yapıyor. Neye bulaştıklarını bilmeyi hak etmiyorlar mı?
İyileştirmeler artımlı olabilir ve OpenAI, rekabetçi nedenlerden dolayı bunun sinyalini vermenin akıllıca olmadığına inanıyor. Modelin OpenAI’nin rapor edilen akıl yürütme buluşlarıyla bir şekilde ilişkili olması daha az olasıdır. Ne olursa olsun, yapay zeka söz konusu olduğunda şeffaflık bir öncelik olmalıdır. Güven olmadan güven olamaz ve OpenAI zaten bunun çoğunu kaybetti.
Kaynak: https://techcrunch.com/2024/08/14/this-week-in-ai-ai-isnt-world-ending-but-its-still-plenty-harmful/