Yapay zeka odaklı kadın akademisyenlere ve diğerlerine hak ettikleri ve gecikmiş zamanlarını ilgi odağı haline getirmek için TechCrunch, yapay zeka devrimine katkıda bulunan dikkat çekici kadınlara odaklanan bir dizi röportaj yayınlıyor. Yapay zeka patlaması devam ederken bu parçaları yıl boyunca yayınlıyoruz ve çoğu zaman fark edilmeyen önemli çalışmaları vurguluyoruz. Daha fazla profili buradan okuyun.
Miriam Vogel, yapay zekadaki bilinçsiz önyargıyı azaltmak ve sorumlu yapay zeka yönetimini teşvik etmek için oluşturulmuş, kar amacı gütmeyen bir kuruluş olan EqualAI’nin CEO’sudur. Aynı zamanda, Kongre tarafından Başkan Joe Biden ve Beyaz Saray’a yapay zeka politikası konusunda tavsiyelerde bulunmak üzere görevlendirilen ve yakın zamanda kurulan Ulusal Yapay Zeka Danışma Komitesi’nin başkanı olarak görev yapıyor ve Georgetown Üniversitesi Hukuk Merkezi’nde teknoloji hukuku ve politikası dersleri veriyor.
Vogel daha önce Adalet Bakanlığı’nda başsavcı yardımcısı olarak görev yaptı ve başsavcıya ve başsavcı yardımcısına çok çeşitli yasal, politika ve operasyonel konularda danışmanlık yaptı. Sorumlu Yapay Zeka Enstitüsü’nde yönetim kurulu üyesi ve Demokrasi ve Teknoloji Merkezi’nin kıdemli danışmanı olarak Vogel’s, kadınlar, ekonomi, düzenleyici politikalar ve gıda güvenliği politikasından cezai adalet konularına kadar çeşitli girişimlerde Beyaz Saray liderliğine danışmanlık yaptı.
Kısaca yapay zekaya nasıl başladınız? Sizi sahaya çeken ne oldu?
Kariyerime, 11. sınıftan önceki yaz, ilk olarak Senato stajyeri olarak hükümette çalışarak başladım. Politika hatasına yakalandım ve sonraki birkaç yazı Hill’de ve ardından Beyaz Saray’da çalışarak geçirdim. O noktada odak noktam, yapay zekaya giden geleneksel yol olmayan sivil haklar üzerindeydi, ancak geriye dönüp baktığımda çok mantıklı geliyor.
Hukuk fakültesinden sonra kariyerim, fikri mülkiyet alanında uzmanlaşmış bir eğlence avukatından, yürütme organında sivil haklar ve sosyal etki çalışmalarına katılmaya kadar ilerledi. Beyaz Saray’da görev yaptığım süre boyunca eşit ücret görev gücüne liderlik etme ayrıcalığına sahip oldum ve eski başsavcı yardımcısı Sally Yates’in başkanlığında başsavcı yardımcısı olarak görev yaparken, federal kolluk kuvvetleri için örtülü önyargı eğitiminin oluşturulmasına ve geliştirilmesine liderlik ettim. .
Teknoloji alanında bir avukat olarak deneyimime ve önyargı ve sistematik zararları ele alan politika geçmişime dayanarak EqualAI’ye liderlik etmem istendi. Bu organizasyon beni cezbetti çünkü yapay zekanın sivil haklar konusunda bir sonraki sınırı temsil ettiğini fark ettim. Dikkatli olunmazsa kod satırlarında onlarca yıllık ilerleme geri alınabilir.
İnovasyonun yarattığı olasılıklar beni her zaman heyecanlandırmıştır ve hala yapay zekanın daha fazla nüfusun gelişmesi için inanılmaz yeni fırsatlar sunabileceğine inanıyorum; ancak bu kritik noktada daha fazla insanın anlamlı bir şekilde katılabildiğinden emin olmak için dikkatli olmamız gerekir. yaratma ve geliştirme.
Erkek egemen teknoloji endüstrisinin ve buna bağlı olarak erkek egemen yapay zeka endüstrisinin zorluklarını nasıl aşıyorsunuz?
Temel olarak yapay zekamızın mümkün olduğunca etkili, verimli ve faydalı olmasını sağlamada hepimizin oynayacağı bir rol olduğuna inanıyorum. Bu, kalkınma sürecinde kadınların sesini desteklemek için daha fazlasını yapmamız anlamına geliyor (bu arada, kadınlar ABD’deki satın almaların %85’inden fazlasını gerçekleştiriyor ve bu nedenle çıkarlarının ve güvenliklerinin dahil edilmesini sağlamak akıllıca bir ticari harekettir). yeterince katılmayan çeşitli yaş, bölge, etnik köken ve milliyetlerden yeterince temsil edilmeyen diğer toplulukların sesleri.
Cinsiyet eşitliğine yönelik çalışırken, yalnızca geliştiricilerin işine yarayan yapay zekayı değil, tüm tüketicilerin yararına olan yapay zekayı geliştirmek için daha fazla sesin ve bakış açısının dikkate alındığından emin olmalıyız.
Yapay zeka alanına girmek isteyen kadınlara ne gibi tavsiyelerde bulunursunuz?
Öncelikle başlamak için hiçbir zaman geç değildir. Asla. Tüm büyükanne ve büyükbabaları OpenAI’nin ChatGPT’sini, Microsoft’un Copilot’unu veya Google’ın Gemini’sini kullanmayı denemeye teşvik ediyorum. Yapay zeka destekli bir ekonomi haline gelmek için hepimizin yapay zeka okuryazarı olmamız gerekecek. Ve bu heyecan verici! Hepimizin oynayacağı bir rol var. İster yapay zeka alanında bir kariyere başlıyor olun, ister yapay zekayı işinizi desteklemek için kullanıyor olun, kadınlar yapay zeka araçlarını denemeli, bu araçların neler yapıp neler yapamayacağını görmeli, bunların kendileri için işe yarayıp yaramayacağını görmeli ve genel olarak yapay zeka konusunda bilgili hale gelmelidir.
İkincisi, sorumlu yapay zeka gelişimi, etik bilgisayar bilimcilerinden daha fazlasını gerektirir. Pek çok kişi yapay zeka alanının bir bilgisayar bilimi veya başka bir STEM derecesi gerektirdiğini düşünürken, gerçekte yapay zekanın her kökenden kadın ve erkeklerin bakış açılarına ve uzmanlığına ihtiyacı var. Atlamak! Sesinize ve bakış açınıza ihtiyaç var. Katılımınız çok önemli.
Yapay zeka geliştikçe karşı karşıya kalan en acil sorunlardan bazıları nelerdir?
Öncelikle daha fazla yapay zeka okuryazarlığına ihtiyacımız var. EqualAI olarak “Yapay Zeka açısından olumluyuz”, yani yapay zekanın ekonomimiz için benzeri görülmemiş fırsatlar sağlayacağını ve günlük yaşamlarımızı iyileştireceğini düşünüyoruz – ancak bu fırsatların eşit derecede mevcut olması ve nüfusumuzun daha geniş bir kesimi için faydalı olması şartıyla. Mevcut iş gücümüze, gelecek nesile, büyükanne ve büyükbabalarımıza ihtiyacımız var. hepimiz — Yapay zekadan yararlanacak bilgi ve becerilerle donatılmak.
İkincisi, yapay zeka sistemlerini değerlendirmek için standartlaştırılmış ölçümler ve ölçümler geliştirmeliyiz. Standartlaştırılmış değerlendirmeler, yapay zeka sistemlerimize güven oluşturmak ve tüketicilerin, düzenleyicilerin ve alt kullanıcıların, etkileşimde oldukları yapay zeka sistemlerinin sınırlarını anlamalarına ve bu sistemin güvenimize layık olup olmadığına karar vermelerine olanak sağlamak açısından çok önemli olacaktır. Bir sistemin kime hizmet etmek üzere oluşturulduğunu ve öngörülen kullanım durumlarını anlamak, şu temel soruyu yanıtlamamıza yardımcı olacaktır: Bu kimin için başarısız olabilir?
Yapay zeka kullanıcılarının bilmesi gereken bazı sorunlar nelerdir?
Yapay zeka tam da budur: yapay. İnsanlar tarafından, insan bilişini “taklit etmek” ve arayışlarında insanları güçlendirmek için inşa edilmiştir. Güvenimizi hak eden sistemlere güvendiğimizden emin olmak için bu teknolojiyi kullanırken gereken miktarda şüpheciliği sürdürmeli ve gerekli özeni göstermeliyiz. Yapay zeka insanlığı güçlendirebilir ancak yerini alamaz.
Yapay zekanın iki ana bileşenden oluştuğu gerçeğini göz önünde bulundurmalıyız: algoritmalar (insanlar tarafından yaratılmıştır) ve veriler (insan konuşmalarını ve etkileşimlerini yansıtır). Sonuç olarak yapay zeka, insani kusurlarımızı yansıtır ve uyarlar. Önyargılar ve zararlar, ister insanlar tarafından yazılan algoritmalar isterse insan yaşamının anlık görüntüsü olan veriler aracılığıyla olsun, yapay zeka yaşam döngüsü boyunca yerleşebilir. Ancak her insan temas noktası, potansiyel zararı belirlemek ve azaltmak için bir fırsattır.
Kişi yalnızca kendi deneyimlerinin izin verdiği ölçüde hayal edebildiğinden ve yapay zeka programları, oluşturuldukları yapılarla sınırlı olduğundan, bir ekipte farklı bakış açıları ve deneyimlere sahip ne kadar çok insan varsa, önyargıları ve diğer güvenlik kaygılarını yakalama olasılıkları da o kadar artar. AI’larına gömülü.
Yapay zekayı sorumlu bir şekilde oluşturmanın en iyi yolu nedir?
Güvenimize layık yapay zeka oluşturmak tamamen bizim sorumluluğumuzdur. Başka birinin bunu bizim için yapmasını bekleyemeyiz. Üç temel soru sorarak başlamalıyız: (1) Bu yapay zeka sistemi kimin için inşa edildi (2), öngörülen kullanım durumları nelerdi ve (3) bu kimin için başarısız olabilir? Bu sorular akılda tutulsa bile kaçınılmaz olarak tuzaklar olacaktır. Bu riskleri azaltmak için tasarımcıların, geliştiricilerin ve dağıtımcıların en iyi uygulamaları takip etmesi gerekir.
EqualAI’de, çerçevenizi planlamayı ve hesap verebilirliği sağlamayı, testleri, dokümantasyonu ve rutin denetimleri standartlaştırmayı içeren iyi bir “Yapay Zeka hijyeni”ni destekliyoruz. Ayrıca yakın zamanda, yapay zekanın bir kuruluşta sorumlu bir şekilde uygulanmasına yönelik değerleri, ilkeleri ve çerçeveyi tanımlayan, sorumlu bir yapay zeka yönetişim çerçevesi tasarlamak ve operasyonel hale getirmek için bir kılavuz yayınladık. Bu belge, yapay zeka sistemlerini benimseme, geliştirme, kullanma ve uygulamanın ortasında, bunu sorumlu bir şekilde yapma konusunda iç ve kamu taahhüdünde bulunan her büyüklükteki, sektördeki veya olgunluk düzeyindeki kuruluşlar için bir kaynak görevi görmektedir.
Yatırımcılar sorumlu yapay zekayı nasıl daha iyi teşvik edebilir?
Yatırımcıların yapay zekamızın güvenli, etkili ve sorumlu olmasını sağlamada çok büyük bir rolü var. Yatırımcılar, finansman arayan şirketlerin yapay zeka sistemlerindeki potansiyel zararların ve yükümlülüklerin farkında olmalarını ve bunları azaltmayı düşünmelerini sağlayabilir. Hatta şu soruyu sormak bile: “Yapay zeka yönetişim uygulamalarını nasıl kurdunuz?” daha iyi sonuçlar elde etmek için anlamlı bir ilk adımdır.
Bu çaba yalnızca kamu yararına değildir; aynı zamanda yatırım yaptıkları ve bağlı oldukları şirketlerin kötü manşetlerle anılmamasını veya dava nedeniyle engellenmemesini sağlamak isteyen yatırımcıların da çıkarınadır. Güven, bir şirketin başarısı için pazarlık konusu olmayan birkaç şeyden biridir ve sorumlu yapay zeka yönetimine bağlılık, halkın güvenini oluşturmanın ve sürdürmenin en iyi yoludur. Sağlam ve güvenilir yapay zeka, iş açısından mantıklıdır.
Kaynak: https://techcrunch.com/2024/05/26/women-in-ai-miriam-vogel-stresses-the-need-for-responsible-ai/