TechCrunch, AI odaklı kadın akademisyenlere ve diğerlerine hak ettikleri ve gecikmiş zamanlarını ilgi odağı haline getirmek için, AI devrimine katkıda bulunan olağanüstü kadınlara odaklanan bir dizi röportaj başlatıyor.
Anika Collier Navaroli, Columbia Üniversitesi Tow Dijital Gazetecilik Merkezi’nde kıdemli araştırmacıdır ve MacArthur Vakfı ile işbirliği içinde yürütülen OpEd Projesi’nde Teknoloji Kamuoyu Sesi Üyesidir.
Teknoloji alanındaki araştırma ve savunuculuk çalışmalarıyla tanınıyor. Daha önce Stanford Hayırseverlik ve Sivil Toplum Merkezi’nde ırk ve teknoloji uygulayıcısı olarak çalıştı. Bundan önce Twitch ve Twitter’da Güven ve Güvenlik’i yönetiyordu. Navaroli belki de en çok Twitter hakkındaki kongre ifadesiyle tanınıyor; burada 6 Ocak Kongre Binası saldırısının öncesinde sosyal medyada yaklaşmakta olan şiddete ilişkin görmezden gelinen uyarılardan söz ediyordu.
Kısaca yapay zekaya nasıl başladınız? Sizi sahaya çeken ne oldu?
Yaklaşık 20 yıl önce, memleketimdeki gazetenin yaz aylarında dijital ortama geçtiği haber odasında fotokopi memuru olarak çalışıyordum. O zamanlar gazetecilik okuyan bir lisans öğrencisiydim. Facebook gibi sosyal medya siteleri kampüsümü kasıp kavuruyordu ve matbaa üzerine inşa edilen yasaların gelişen teknolojilerle nasıl gelişeceğini anlamaya çalışma konusunda takıntılı hale geldim. Bu merak beni hukuk fakültesine götürdü; burada Twitter’a geçtim, medya hukuku ve politikaları okudum ve Arap Baharı ve Wall Street’i İşgal Et hareketlerinin gelişimini izledim. Hepsini bir araya getirdim ve yeni teknolojinin bilgi akışını nasıl değiştirdiği ve toplumun ifade özgürlüğünü nasıl kullandığı üzerine yüksek lisans tezimi yazdım.
Mezun olduktan sonra birkaç hukuk firmasında çalıştım ve ardından Veri ve Toplum Araştırma Enstitüsü’ne giden yolu buldum ve yeni düşünce kuruluşunun o zamanlar “büyük veri” olarak adlandırılan şey, sivil haklar ve adalet üzerine yaptığı araştırmalara liderlik ettim. Oradaki çalışmam, yüz tanıma yazılımı, tahmine dayalı polislik araçları ve ceza adaleti risk değerlendirme algoritmaları gibi erken dönem yapay zeka sistemlerinin önyargıyı nasıl kopyaladığını ve ötekileştirilmiş toplulukları etkileyen istenmeyen sonuçlar yarattığını inceledi. Daha sonra Color of Change’de çalışmaya devam ettim ve bir teknoloji şirketinin ilk sivil haklar denetimine liderlik ettim, kuruluşun teknik sorumluluk kampanyaları için taktik kitabını geliştirdim ve hükümetlere ve düzenleyicilere yönelik teknoloji politikası değişikliklerini savundum. Oradan Twitter ve Twitch’teki Güven ve Güvenlik ekiplerinde kıdemli politika yetkilisi oldum.
Yapay zeka alanında en çok hangi çalışmanızla gurur duyuyorsunuz?
Kültür ve bilgi üreten algoritmik sistemler içindeki güç dengesini pratik olarak değiştirmek ve önyargıyı düzeltmek için politikayı kullanan teknoloji şirketleri içindeki işimden en çok gurur duyuyorum. Twitter’da, Siyah kadınlar, siyahi insanlar ve eşcinsel kişiler de dahil olmak üzere şok edici bir şekilde daha önce özel doğrulama sürecinden hariç tutulan kişileri doğrulamak için birkaç kampanya yürüttüm. Bu aynı zamanda Safiya Noble, Alondra Nelson, Timnit Gebru ve Meredith Broussard gibi önde gelen yapay zeka uzmanlarını da içeriyordu. Bu, Twitter’ın hâlâ Twitter olduğu 2020 yılıydı. O zamanlar doğrulama, adınızın ve içeriğinizin Twitter’ın temel algoritmasının bir parçası haline gelmesi anlamına geliyordu çünkü doğrulanmış hesaplardan gelen tweetler önerilere, arama sonuçlarına, ana sayfa zaman çizelgelerine ekleniyor ve trendlerin oluşturulmasına katkıda bulunuyordu. Bu nedenle, yapay zeka konusunda farklı bakış açılarına sahip yeni insanları doğrulamak için çalışmak, düşünce liderleri olarak seslerine yetki verilen kişileri temelden değiştirdi ve bazı gerçekten kritik anlarda yeni fikirleri halka açık sohbete yükseltti.
Ayrıca Stanford’da yaptığım ve Moderasyonda Siyah olarak bir araya gelen araştırmamla da gurur duyuyorum. Teknoloji şirketlerinde çalışırken, Trust & Safety’de çalışan bir Siyahi olarak her gün yaşadığım deneyimler hakkında kimsenin gerçekten yazmadığını veya konuşmadığını da fark ettim. Bu yüzden sektörden ayrılıp akademiye geri döndüğümde siyahi teknoloji çalışanlarıyla konuşmaya ve onların hikayelerini gün ışığına çıkarmaya karar verdim. Araştırma türünün ilk örneği oldu ve teknoloji çalışanlarının dışlanmış kimliklere sahip deneyimleri hakkında pek çok yeni ve önemli tartışmayı teşvik etti.
Erkek egemen teknoloji endüstrisinin ve buna bağlı olarak erkek egemen yapay zeka endüstrisinin zorluklarını nasıl aşıyorsunuz?
Siyah eşcinsel bir kadın olarak, erkek egemen alanlarda ve ötekileştirildiğim alanlarda gezinmek tüm yaşam yolculuğumun bir parçası oldu. Teknoloji ve yapay zeka içinde en zorlu yönün araştırmamda “zorunlu kimlik emeği” olarak adlandırdığım şey olduğunu düşünüyorum. Bu terimi, dışlanmış kimliklere sahip çalışanların, kendi kimliklerini paylaşan tüm toplulukların sesleri ve/veya temsilcileri olarak muamele gördüğü sık görülen durumları tanımlamak için icat ettim.
Yapay zeka gibi yeni teknolojilerin geliştirilmesinin getirdiği yüksek riskler nedeniyle, bu emekten kaçmanın bazen neredeyse imkansız olduğu hissedilebiliyor. Hangi konularla ve ne zaman ilgilenmeye istekli olduğum konusunda kendime çok spesifik sınırlar koymayı öğrenmem gerekiyordu.
Yapay zeka geliştikçe karşı karşıya kalan en acil sorunlardan bazıları nelerdir?
Araştırma raporlarına göre, mevcut üretken yapay zeka modelleri internetteki tüm verileri silip süpürdü ve yakında tüketilebilecek veriler tükenecek. Bu nedenle dünyanın en büyük yapay zeka şirketleri, sistemlerini eğitmeye devam etmek için sentetik verilere veya insanlar yerine yapay zekanın kendisi tarafından üretilen bilgilere yöneliyor.
Bu fikir beni bir tavşan deliğine götürdü. Bu nedenle yakın zamanda sentetik verilerin eğitim verileri olarak kullanılmasının yeni yapay zeka gelişiminin karşı karşıya olduğu en acil etik sorunlardan biri olduğunu düşündüğümü savunan bir Op-Ed yazdım. Üretken yapay zeka sistemleri, orijinal eğitim verilerine dayanarak çıktılarının önyargıyı çoğaltmak ve yanlış bilgi yaratmak olduğunu zaten göstermiştir. Dolayısıyla yeni sistemleri sentetik verilerle eğitme yolu, önyargılı ve hatalı çıktıların sürekli olarak sisteme yeni eğitim verileri olarak geri beslenmesi anlamına gelecektir. Bunu potansiyel olarak cehenneme giden bir geri bildirim döngüsüne dönüşecek şekilde tanımladım.
Makaleyi yazdığımdan beri Mark Zuckerberg, Meta’nın güncellenmiş Llama 3 sohbet robotunun kısmen sentetik verilerle desteklendiğini ve piyasadaki “en akıllı” üretken yapay zeka ürünü olduğunu övdü.
Yapay zeka kullanıcılarının bilmesi gereken bazı sorunlar nelerdir?
Yapay zeka, yazım denetimi ve sosyal medya beslemelerinden sohbet robotlarına ve görüntü oluşturuculara kadar mevcut hayatımızın her yerde ve her yerde mevcut olan bir parçası. Toplum, pek çok açıdan bu yeni, test edilmemiş teknolojinin deneylerinin kobay faresi haline geldi. Ancak yapay zeka kullanıcıları kendilerini güçsüz hissetmemeli.
Teknoloji savunucularının bir araya gelerek yapay zeka kullanıcılarını yapay zeka konusunda İnsanları Durdurma çağrısı yapmaları için organize etmeleri gerektiğini savunuyorum. Amerika Yazarlar Birliği’nin organizasyon, kolektif eylem ve sabırlı kararlılıkla insanların bir araya gelerek yapay zeka teknolojilerinin kullanımı için anlamlı sınırlar yaratabileceğini gösterdiğini düşünüyorum. Ayrıca geçmişteki hataları düzeltmek ve yeni etik kurallar ve düzenlemeler oluşturmak için şimdi durursak, yapay zekanın geleceğimiz için varoluşsal bir tehdit haline gelmesi gerekmeyeceğine inanıyorum.
Yapay zekayı sorumlu bir şekilde oluşturmanın en iyi yolu nedir??
Teknoloji şirketlerinde çalışma deneyimim bana, odada kimin politika yazmasının, argüman sunmanın ve karar vermenin ne kadar önemli olduğunu gösterdi. Yolum bana aynı zamanda gazetecilik okuluna başlayarak teknoloji endüstrisinde başarılı olmak için ihtiyaç duyduğum becerileri geliştirdiğimi de gösterdi. Artık Columbia Gazetecilik Okulu’nda çalışmaya geri döndüm ve teknoloji sorumluluğu işini yapacak ve hem teknoloji şirketleri içinde hem de dış gözlemciler olarak yapay zekayı sorumlu bir şekilde geliştirecek yeni nesil insanları yetiştirmekle ilgileniyorum.
Bence [journalism] Okul insanlara bilgiyi sorgulama, gerçeği arama, çoklu bakış açılarını dikkate alma, mantıksal argümanlar oluşturma ve gerçekleri ve gerçekliği fikir ve yanlış bilgilerden ayırma konusunda eşsiz bir eğitim verir. Bunun, yapay zekanın sonraki versiyonlarının yapabilecekleri ve yapamayacakları şeylerin kurallarını yazmaktan sorumlu olacak kişiler için sağlam bir temel olduğuna inanıyorum. Ve bundan sonra gelecekler için daha asfaltlanmış bir yol yaratmayı sabırsızlıkla bekliyorum.
Ayrıca vasıflı Güven ve Güvenlik çalışanlarına ek olarak yapay zeka endüstrisinin de dış düzenlemelere ihtiyacı olduğuna inanıyorum. ABD’de bunun, temel güvenlik ve gizlilik standartlarını oluşturma ve uygulama yetkisine sahip Amerikan teknoloji şirketlerini düzenleyecek yeni bir kurum şeklinde gelmesi gerektiğini savunuyorum. Ayrıca mevcut ve gelecekteki düzenleyicileri, iktidardakilerin doğru soruları sormasına ve yeni incelikli ve pratik çözümler yaratmasına yardımcı olabilecek eski teknoloji çalışanlarıyla buluşturmak için çalışmaya devam etmek isterim.
Kaynak: https://techcrunch.com/2024/06/23/women-in-ai-anika-collier-navaroli-is-working-to-shift-the-power-imbalance/