Güvenlik araştırmacıları ve geliştiricileri, yaygın olarak halüsinasyonlar olarak bilinen AI tarafından üretilen yanlış bilgilendirmeden yararlanan yeni bir tedarik zinciri saldırısı biçimi olan “Slopsquatting” üzerinden alarmlar veriyorlar. Geliştiriciler giderek daha fazla GitHub Copilot, ChatGPT ve Deepseek gibi kodlama araçlarına güvenirken, saldırganlar AI’nın yazılım paketlerini icat etme eğiliminden yararlanarak kullanıcıları kötü niyetli içerik indirmeye kandırıyor.
Slopsquatting nedir?
Slopsquatting terimi başlangıçta Python Yazılım Vakfı’nın geliştiricisi Seth Larson tarafından üretildi ve daha sonra teknoloji güvenlik araştırmacısı Andrew Nesbitt tarafından popüler hale getirildi. Saldırganların gerçekte mevcut olmayan ancak AI araçları tarafından yanlışlıkla önerilen yazılım paketlerini kaydettiği durumları ifade eder; Bir kez yaşadıktan sonra, bu sahte paketler zararlı kod içerebilir.
Bir geliştirici bunlardan birini doğrulamadan yüklerse – basitçe AI’ya güvenirse – bilmeden projelerine kötü amaçlı kod ekleyebilirler ve bilgisayar korsanlarına hassas ortamlara arka kapıdan erişim sağlar.
Kötü niyetli aktörlerin insan yazım hatalarına güvendiği yazım hatalarının aksine, slopsquatting tamamen AI’nın kusurlarına ve geliştiricilerin otomatik önerilere güven verdiler.
AI-Hallicine yazılım paketleri artıyor
Bu konu teorik olmaktan daha fazlasıdır. Virginia Tech, San Antonio’daki Texas Üniversitesi’ndeki araştırmacılar tarafından yapılan ortak bir çalışma ve Oklahoma Üniversitesi, 16 büyük dil modelinden (LLMS) 576.000’den fazla AI tarafından oluşturulan kod örneğini analiz etti. AI tarafından önerilen 5 paketten yaklaşık 1’inin mevcut olmadığını buldular.
“Halüsinasyonlu paketlerin ortalama yüzdesi ticari modeller için en az% 5,2 ve açık kaynaklı modeller için% 21.7’dir, bu tehdidin şiddetini ve yaygınlığının altını çizen 205.474 halüsinasyonlu paket adlarının benzersiz örnekleri de dahil olmak üzere” dedi.
Daha da önemlisi, bu halüsinasyonlu isimler rastgele değildi. Aynı istemleri kullanan çoklu çalışmalarda, halüsinasyonlu paketlerin% 43’ü sürekli olarak yeniden ortaya çıktı ve bu halüsinasyonların ne kadar öngörülebilir olabileceğini gösteriyor. Güvenlik firması soketi tarafından açıklandığı gibi, bu tutarlılık saldırganlara bir yol haritası verir – AI davranışını izleyebilir, tekrar önerileri belirleyebilir ve bu paket adlarını herkesten önce kaydedebilirler.
Çalışma ayrıca modeller arasında farklılıklar olduğunu kaydetti: Codellama 7b ve 34b en yüksek halüsinasyon oranlarına%30’un üzerinde; GPT-4 Turbo%3,59 oranında en düşük orana sahipti.
Vibe kodlaması bu güvenlik riskini nasıl artırabilir?
AI araştırmacısı Andrej Karpathy tarafından ortaya çıkan bir terim olan Vibe Coding adlı büyüyen bir trend sorunu kötüleştirebilir. Geliştiricilerin ne istediklerini açıkladığı bir iş akışını ifade eder ve AI araçları kodu oluşturur. Bu yaklaşım büyük ölçüde güven üzerine eğilir-geliştiriciler genellikle her şeyi iki kez kontrol etmeden AI çıkışını kopyalar ve yapıştırırlar.
Bu ortamda, halüsinasyonlu paketler, özellikle geliştiriciler manuel inceleme adımlarını atladığında ve yalnızca AI tarafından oluşturulan önerilere dayandığında, saldırganlar için kolay giriş noktaları haline gelir.
Geliştiriciler kendilerini nasıl koruyabilir?
Slopsquatting’e kurban düşmesini önlemek için uzmanlar:
- Kurulumdan önce tüm paket adlarının manuel olarak doğrulanması.
- Riskler için bağımlılıkları tarayan paket güvenlik araçlarını kullanma.
- Şüpheli veya yepyeni kütüphaneleri kontrol etmek.
- Doğrudan AI önerilerinden kopyalama-pasting yükleme komutlarından kaçınmak.
Bu arada, iyi haberler var: Bazı AI modelleri kendi kendine polislikte gelişiyor. Örneğin, GPT-4 Turbo ve Deepseek, erken iç testlere göre, halüsinasyonlu paketleri kendi çıkışlarında% 75’in üzerinde doğrulukla tespit edebileceklerini ve işaretleyebileceklerini gösterdiler.
Kaynak: https://www.techrepublic.com/article/news-slopsquatting-vide-coding-ai-cybersecurity-risk/