WitnessAI, üretken yapay zeka modelleri için korkuluklar inşa ediyor

Üretken yapay zeka bir şeyler uyduruyor. Önyargılı olabilir. Bazen zehirli metinler yayar. Peki “güvenli” olabilir mi?

WitnessAI’nin CEO’su Rick Caccia bunun yapılabileceğine inanıyor.

Palo Alto Networks’ün eski pazarlamadan sorumlu başkan yardımcısı Caccia, bir röportajda TechCrunch’a “Yapay zeka modellerinin güvenliğini sağlamak gerçek bir sorun ve özellikle yapay zeka araştırmacıları için parlak bir sorun, ancak kullanımı güvence altına almaktan farklı” dedi. “Bunu bir spor otomobil gibi düşünüyorum: Daha güçlü bir motora sahip olmak (yani modeli) frenleriniz ve direksiyonunuz iyi olmadığı sürece size hiçbir şey satın almaz. Hızlı sürüş için kontroller de motor kadar önemli.”

Üretken yapay zekanın üretkenliği artırma potansiyeli konusunda ihtiyatlı bir iyimserliğe sahip olmasına rağmen teknolojinin sınırlamaları konusunda endişeleri olan kuruluşlar arasında bu tür kontrollere kesinlikle talep var.

IBM’de yapılan bir ankete göre, CEO’ların yüzde elli biri, bu yıla kadar mevcut olmayan, yapay zeka ile ilgili üretken roller için işe alım yapıyor. Ancak Riskonnect anketine göre şirketlerin yalnızca %9’u, üretken yapay zeka kullanımlarından kaynaklanan gizlilik ve fikri mülkiyetle ilgili tehditler de dahil olmak üzere tehditleri yönetmeye hazır olduklarını söylüyor.

WitnessAI platformu, çalışanlar ile işverenlerinin kullandığı özel üretken yapay zeka modelleri arasındaki faaliyetleri (OpenAI’nin GPT-4’ü gibi bir API arkasına kapılanan modeller değil, daha çok Meta’nın Llama 3’üne benzer şekilde) yakalayan ve risk azaltıcı politikalar ve güvenlik önlemleri uygulayan platformdur.

“Kurumsal yapay zekanın vaatlerinden biri, çalışanların işlerini daha iyi yapabilmeleri için kurumsal verilerin kilidini açıp onlara demokratikleştirmesidir. Ancak tüm bu hassas verilerin kilidini açmak çok iyi –– ya da sızdırılması ya da çalınması bir sorundur.”

WitnessAI, her biri farklı türdeki üretken yapay zeka riskleriyle mücadeleye odaklanan çeşitli modüllere erişim satıyor. Bunlardan biri, kuruluşların belirli ekiplerdeki çalışanların üretken yapay zeka destekli araçları kullanmamaları gereken şekillerde (örneğin, yayın öncesi kazanç raporlarını sormak veya dahili kod tabanlarını yapıştırmak gibi) kullanmalarını önlemek için kurallar uygulamasına olanak tanır. Bir diğeri, modellere gönderilen istemlerdeki özel ve hassas bilgileri çıkarır ve modelleri, onları senaryo dışına çıkmaya zorlayabilecek saldırılara karşı korumak için teknikler uygular.

Caccia, “Kurumlara yardım etmenin en iyi yolunun, sorunu mantıklı bir şekilde tanımlamak, örneğin yapay zekanın güvenli bir şekilde benimsenmesi ve ardından sorunu çözen bir çözümü satmak olduğunu düşünüyoruz” dedi. “CISO işi korumak istiyor ve WitnessAI, veri korumayı sağlayarak, anında veri aktarımını önleyerek ve kimlik tabanlı politikaları uygulayarak bunu yapmalarına yardımcı oluyor. Gizlilik sorumlusu, mevcut ve gelecek düzenlemelere uyulduğundan emin olmak istiyor ve biz de onlara görünürlük ve etkinlik ile risk hakkında rapor vermenin bir yolunu sunuyoruz.”

Ancak gizlilik açısından WitnessAI’nin yanıltıcı bir yanı var: tüm veriler bir modele ulaşmadan önce platformundan geçiyor. Şirket bu konuda şeffaf davranıyor, hatta çalışanların hangi modellere eriştiğini, modellere sordukları soruları ve aldıkları yanıtları takip edebilecek araçlar bile sunuyor. Ancak kendi gizlilik risklerini de yaratabilir.

WitnessAI’nin gizlilik politikasıyla ilgili sorulara yanıt veren Caccia, müşteri sırlarının açığa çıkmasını önlemek için platformun “izole” edildiğini ve şifrelendiğini söyledi.

“Kurumsal yapay zeka etkinliğini olağan çok kiracılı hizmet olarak yazılım hizmetlerinden temelde farklı bir şekilde korumak için benzersiz, yalıtılmış bir tasarım olan ve yerleşik düzenleme ayrımına sahip, milisaniyelik bir gecikme platformu oluşturduk.” dedi. “Her müşteri için platformumuzun anahtarlarıyla şifrelenmiş ayrı bir örneğini oluşturuyoruz. Yapay zeka aktivite verileri onlara ayrılıyor; biz onları göremiyoruz.”

Belki bu müşterilerin korkularını giderir. WitnessAI platformunun gözetleme potansiyeli konusunda endişe duyan işçiler için ise bu daha zor bir karar.

Anketler, insanların, nedeni ne olursa olsun işyerindeki faaliyetlerinin izlenmesinden genel olarak memnun olmadıklarını ve bunun şirketin moralini olumsuz yönde etkilediğine inandıklarını gösteriyor. Forbes anketine katılanların neredeyse üçte biri, işverenlerinin çevrimiçi etkinliklerini ve iletişimlerini izlemesi durumunda işlerini bırakmayı düşünebileceklerini söyledi.

Ancak Caccia, konsept kanıtlama aşamasında 25 ilk kurumsal kullanıcıdan oluşan bir hat ile WitnessAI platformuna olan ilginin güçlü olduğunu ve hala güçlü olduğunu ileri sürüyor. (3. çeyreğe kadar genel kullanıma sunulmayacak.) Ve risk sermayedarlarının güven oyu ile WitnessAI, Ballistic Ventures’tan (WitnessAI’yi kuluçkalayan) ve Google’ın kurumsal girişim kolu GV’den 27,5 milyon dolar topladı.

Plan, WitnessAI’nin 18 kişilik ekibinin yıl sonuna kadar 40’a çıkarılması için fon dilimini artırmak. Büyüme, WitnessAI’nin yeni ortaya çıkan model uyumluluğu ve yönetişim çözümleri alanında sadece AWS, Google ve Salesforce gibi teknoloji devlerinden değil, aynı zamanda CalypsoAI gibi girişimlerden de rakiplerini geride bırakmanın anahtarı olacak.

Caccia, “Hiç satışımız olmasa bile 2026’ya iyi bir şekilde girmek için planımızı oluşturduk, ancak bu yılki satış hedeflerimize ulaşmak için gereken satış hattının neredeyse 20 katını zaten elde ettik” dedi. “Bu bizim ilk finansman turumuz ve halka açık lansmanımız, ancak güvenli yapay zeka etkinleştirme ve kullanımı yeni bir alan ve tüm özelliklerimiz bu yeni pazarla birlikte gelişiyor.”

Kaynak: https://techcrunch.com/2024/05/21/witnessai-is-building-guardrails-for-generative-ai-models/