Çeşitli kuruluşlar genelinde önyargı, performans ve etik uyumlulukla ilgili yapay zeka modellerini denetlemek için kapsamlı yöntemleri araştırmak amacıyla yönetici liderlerle işbirliği yapmak üzere 5 Haziran’da New York’a dönerken bize katılın. Nasıl yapabileceğinizi öğrenin buraya katıl.
Yeni teknoloji yeni fırsatlar anlamına gelir… ama aynı zamanda yeni tehditler. Ve teknoloji bu kadar karmaşık ve alışılmadık olduğunda üretken yapay zekahangisinin hangisi olduğunu anlamak zor olabilir.
Halüsinasyonla ilgili tartışmayı ele alalım. Yapay zekanın hızla yayıldığı ilk günlerde birçok kişi halüsinasyonun her zaman istenmeyen ve potansiyel olarak zararlı bir davranış olduğuna, tamamen ortadan kaldırılması gereken bir şey olduğuna ikna olmuştu. Daha sonra konuşma, halüsinasyonun değerli olabileceği fikrini kapsayacak şekilde değişti.
Isa Fulford OpenAI’nin bunu iyi ifade ediyor. “Muhtemelen asla halüsinasyon görmeyen modeller istemiyoruz çünkü bunu modelin yaratıcı olması olarak düşünebilirsiniz” diye belirtiyor. “Sadece doğru bağlamda halüsinasyon gören modeller istiyoruz. Bazı bağlamlarda halüsinasyon görmek normaldir (örneğin, yaratıcı yazarlık konusunda yardım istiyorsanız veya bir sorunu çözmenin yeni yaratıcı yolları istiyorsanız), diğer durumlarda ise durum böyle değildir.”
Halüsinasyon konusunda artık bu bakış açısı hakimdir. Ve şimdi ön plana çıkan ve korku yaratan yeni bir kavram var: “Hızlı enjeksiyon.” Bu genellikle kullanıcıların istenmeyen bir sonuç yaratmak için bir yapay zeka çözümünü kasıtlı olarak kötüye kullanması veya istismar etmesi olarak tanımlanır. Ve olasılığa ilişkin çoğu konuşmanın aksine Yapay zekanın kötü sonuçlarıKullanıcılara yönelik olası olumsuz sonuçlara odaklanma eğiliminde olan bu durum, yapay zeka sağlayıcılarına yönelik risklerle ilgilidir.
Hemen enjeksiyonla ilgili abartılı ve korkunun çoğunun neden abartılı olduğunu düşündüğümü paylaşacağım, ancak bu gerçek bir risk olmadığı anlamına gelmiyor. Hızlı enjeksiyon, yapay zeka söz konusu olduğunda riskin her iki yönde de azaldığını hatırlatmalıdır. Kullanıcılarınızı, işinizi ve itibarınızı güvende tutan Yüksek Lisans (LLM) oluşturmak istiyorsanız bunun ne olduğunu ve nasıl hafifleteceğinizi anlamanız gerekir.
Hızlı enjeksiyon nasıl çalışır?
Bunu, gen yapay zekasının inanılmaz, oyunun kurallarını değiştiren açıklığının ve esnekliğinin olumsuz tarafı olarak düşünebilirsiniz. Yapay zeka ajanları iyi tasarlanıp yürütüldüğünde, gerçekten de her şeyi yapabilecekleri hissine kapılıyorlar. Sihir gibi gelebilir: Ona sadece ne istediğimi söylüyorum ve o da bunu yapıyor!
Elbette sorun şu ki, sorumlu şirketler gerçekten “her şeyi yapan” yapay zekayı dünyaya yaymak istemiyorlar. Katı kullanıcı arayüzlerine sahip olan geleneksel yazılım çözümlerinin aksine, büyük dil modelleri (LLM’ler) fırsatçı ve kötü niyetli kullanıcılara sınırlarını test etmeleri için birçok açıklık sağlar.
Bir yapay zeka aracısını kötüye kullanmaya çalışmak için uzman bir bilgisayar korsanı olmanıza gerek yok; farklı istemleri deneyebilir ve sistemin nasıl yanıt verdiğini görebilirsiniz. Anında enjeksiyonun en basit biçimlerinden bazıları, kullanıcıların yapay zekayı içerik kısıtlamalarını atlamaya veya kontrolleri göz ardı etmeye ikna etmeye çalışmasıdır. Buna “jailbreak” denir. Bunun en ünlü örneklerinden biri 2016 yılında Microsoft’un nasıl Twitter yapılacağını hızla “öğrenen” bir prototip Twitter botu yayınlamasıyla ortaya çıktı. ırkçı ve cinsiyetçi yorumlar yaymak. Daha yakın zamanlarda, Microsoft Bing (şimdi “Microsoft Yardımcı Pilotu) başarıyla manipüle edildi yapımıyla ilgili gizli verileri başkalarına vermek.
Diğer tehditler arasında, kullanıcıların yapay zekayı gizli bilgileri ifşa etmesi için kandırmaya çalıştığı veri çıkarılması da yer alıyor. Müşterilere hassas finansal bilgiler vermeye ikna olmuş bir yapay zeka bankacılık destek temsilcisini veya çalışanların maaş verilerini paylaşan bir İK botunu hayal edin.
Artık yapay zekanın müşteri hizmetleri ve satış fonksiyonlarında giderek daha büyük bir rol oynaması istendiğinde, başka bir zorluk ortaya çıkıyor. Kullanıcılar yapay zekayı büyük indirimler veya uygunsuz geri ödemeler yapmaya ikna edebilir. Son zamanlarda bir bayilik botu 2024 Chevrolet Tahoe’yu 1 dolara “sattı” yaratıcı ve kalıcı bir kullanıcıya.
Kuruluşunuzu nasıl korursunuz?
Bugün, insanların yapay zeka etrafındaki korkuluklardan kurtulmaya yönelik ipuçlarını paylaştığı forumlar var. Bu bir çeşit silahlanma yarışı; açıklardan yararlanmalar ortaya çıkıyor, çevrimiçi olarak paylaşılıyor ve daha sonra genellikle kamuya açık Yüksek Lisans’lar tarafından hızla kapatılıyor. Diğer bot sahipleri ve operatörler için yetişmenin zorluğu çok daha zordur.
Yapay zekanın kötüye kullanılmasından kaynaklanan tüm risklerden kaçınmanın bir yolu yoktur. Hızlı enjeksiyonu, herhangi bir yapay zeka sistemine yerleştirilmiş, kullanıcı istemlerine izin veren bir arka kapı olarak düşünün. Kapıyı tamamen emniyete alamazsınız ama açılmasını çok daha zorlaştırabilirsiniz. Kötü bir sonuç olasılığını en aza indirmek için şu anda yapmanız gereken şeyler şunlardır.
Kendinizi korumak için doğru kullanım koşullarını belirleyin
Yasal şartlar elbette tek başına sizi güvende tutmayacak, ancak bunların yerinde olması hala hayati önem taşıyor. Kullanım koşullarınız açık, kapsamlı ve çözümünüzün özel doğasıyla alakalı olmalıdır. Bunu atlamayın! Kullanıcı kabulünü zorunlu kıldığınızdan emin olun.
Kullanıcının kullanabileceği verileri ve eylemleri sınırlayın
Riski en aza indirmenin en kesin çözümü, erişilebilir olanı yalnızca gerekli olanla sınırlamaktır. Aracının verilere veya araçlara erişimi varsa, kullanıcının en azından sistemi kandırarak bunları kullanılabilir hale getirmenin bir yolunu bulması mümkündür. Bu en az ayrıcalık ilkesi: Bu her zaman iyi bir tasarım ilkesi olmuştur, ancak yapay zeka ile birlikte kesinlikle hayati önem taşımaktadır.
Değerlendirme çerçevelerinden yararlanın
LLM sisteminizin farklı girdilere nasıl yanıt verdiğini test etmenize olanak tanıyan çerçeveler ve çözümler mevcuttur. Temsilcinizi kullanılabilir hale getirmeden önce bunu yapmanız ve aynı zamanda bunu sürekli olarak takip etmeye devam etmeniz önemlidir.
Bunlar belirli güvenlik açıklarını test etmenize olanak tanır. Temel olarak hızlı enjeksiyon davranışını simüle ederek tüm güvenlik açıklarını anlamanıza ve kapatmanıza olanak tanır. Amaç, tehdidi engellemek… veya en azından onu izlemektir.
Yeni bir bağlamda tanıdık tehditler
Kendinizi nasıl koruyacağınızla ilgili bu öneriler tanıdık gelebilir: Teknoloji geçmişi olan çoğunuz için, hızlı enjeksiyonun yarattığı tehlike, uygulamaları tarayıcıda çalıştırmanın yarattığı tehlikeyi anımsatıyor. Bağlam ve bazı ayrıntılar yapay zekaya özgü olsa da, açıklardan yararlanmanın önlenmesi ve kod ve verilerin çıkarılmasının engellenmesi benzerdir.
Evet, Yüksek Lisans’lar yeni ve biraz tanıdık değil ancak bu tür tehditlere karşı koruma sağlayacak tekniklere ve uygulamalara sahibiz. Bunları yeni bir bağlamda doğru şekilde uygulamamız gerekiyor.
Unutmayın: Bu sadece usta bilgisayar korsanlarını engellemekle ilgili değil. Bazen bu sadece bariz zorlukları durdurmakla ilgilidir (birçok “istismar”, kullanıcıların aynı şeyi tekrar tekrar istemesinden kaynaklanmaktadır!).
Beklenmedik ve istenmeyen LLM davranışları için hızlı enjeksiyonu suçlama tuzağından kaçınmak da önemlidir. Bu her zaman kullanıcıların hatası değildir. Unutmayın: Yüksek Lisanslar akıl yürütme ve problem çözme yeteneğini gösteriyor ve yaratıcılığı ortaya koyuyor. Dolayısıyla kullanıcılar LLM’den bir şeyi başarmasını istediğinde çözüm, isteği yerine getirmek için mevcut olan her şeye (veriler ve araçlar) bakmaktır. Sonuçlar şaşırtıcı ve hatta sorunlu görünebilir, ancak bunların kendi sisteminizden gelme ihtimali de vardır.
Hızlı enjeksiyonun özü şudur: Bunu ciddiye alın ve riski en aza indirin, ancak bunun sizi engellemesine izin vermeyin.
Cai GoGwilt, kurucu ortağı ve baş mimarıdır. Demir kaplı.
Veri Karar Vericileri
VentureBeat topluluğuna hoş geldiniz!
DataDecisionMakers, veri çalışması yapan teknik kişiler de dahil olmak üzere uzmanların veriyle ilgili içgörüleri ve yenilikleri paylaşabileceği yerdir.
En son fikirleri ve güncel bilgileri, en iyi uygulamaları ve veri ile veri teknolojisinin geleceğini okumak istiyorsanız DataDecisionMakers’ta bize katılın.
Hatta düşünebilirsiniz bir makaleye katkıda bulunmak kendinin!
Kaynak: https://venturebeat.com/security/shut-the-back-door-understanding-prompt-injection-and-minimizing-risk/