Güvenlik teknolojisi firması Infoblox’a göre Avustralyalı siber güvenlik uzmanları, 2025 yılında tehdit aktörlerinin taktikleri çeşitlendirmek ve kuruluşları hedef alan siber saldırıların hacmini ölçeklendirmek için yapay zekadan yararlanmasını bekleyebilirler.
Geçtiğimiz yıl, APAC’taki siber ekipler yapay zekanın mali dolandırıcılık gibi suçları gerçekleştirmek için kullanıldığına dair ilk işaretlere tanık olurken, bazıları yapay zekayı Avustralya’daki finansal hizmetler sektöründeki bir DDoS saldırısıyla ilişkilendirdi.
Bu yıl, Avustralya’nın siber savunucuları yapay zekanın yeni tür siber saldırılar için kullanılmasını bekleyebilirler:
Infoblox’tan Bart Lenaerts-Bergmans, bir web seminerinde Avustralyalı savunuculara, daha fazla aktörün yapay zeka araç ve tekniklerine erişebilmesi nedeniyle saldırıların sıklığında ve karmaşıklığında bir artış bekleyebileceklerini söyledi.
Rakipler, kulağa gerçekçi gelen sentetik ses içeriği oluşturmak için üretken yapay zeka araçlarını kullanabilir. Hızlı bir şekilde yapılabilen klonlama işlemi, bir yapay zeka modelini eğitmek ve klonlanmış bir ses oluşturmak için sesli röportaj gibi kamuya açık verilerden yararlanır.
BAKIN: Avustralya hükümeti yapay zeka için zorunlu korkuluklar öneriyor
Lenaerts-Bergmans, klonlanmış seslerin orijinal sese kıyasla tonlama veya tempoda yalnızca küçük farklılıklar gösterebileceğini söyledi. Saldırganlar, meşru görünmek ve mali dolandırıcılığı kolaylaştırmak için klonlanmış sesleri sahte e-posta alanları gibi diğer taktiklerle birleştirebilir.
Suçlular, kurbanları kripto para dolandırıcılığına veya diğer kötü niyetli faaliyetlere çekmek için kullanabilecekleri yüksek profilli kişilerin gerçekçi deepfake videolarını oluşturmak için yapay zekayı kullanabilir. Sentetik içerik, daha etkili bir şekilde sosyal mühendislik yapmak ve mağdurları dolandırmak için kullanılabilir.
Infoblox, Elon Musk’un milyonlarca aboneye sahip YouTube hesaplarına yüklenen deepfake videolarına atıfta bulundu. Birçok izleyici QR kodlarını kullanarak kötü amaçlı kripto sitelerine ve dolandırıcılıklara yönlendirildi. YouTube’un videoları kaldırması 12 saat sürdü.
Saldırganlar, kurbanların güvenini kazanmak ve sonuçta onları dolandırmak için otomatik konuşma aracılarını veya yapay zeka sohbet robotlarını kullanmaya başladı. Bu teknik, bir kuruluşun, bir kişiyi etkileşime geçirmek ve “dönüştürmek” amacıyla insan odaklı etkileşimi yapay zeka sohbet robotuyla birleştirmek için yapay zekayı nasıl kullanabileceğini taklit ediyor.
Kripto dolandırıcılığının bir örneği, saldırganların planlarını ilerletmek ve bir kripto cüzdanına erişim kazanmak için AI sohbet robotu öğelerini dahil etmeden önce ilişkiler kurmak için SMS kullanmasını içerir. Infoblox, bu dolandırıcılıkların uyarı işaretlerinin şüpheli telefon numaralarını ve cevapları tekrarlayan veya tutarsız bir dil kullanan kötü tasarlanmış dil modellerini içerdiğini belirtti.
Suçlular artık güvenlik kontrollerini atlamak için mevcut kötü amaçlı yazılımları otomatik olarak yeniden yazmak ve değiştirmek için LLM’leri kullanabilir, bu da savunucuların tespit etmesini ve etkisini azaltmasını zorlaştırır. Bu durum, kod negatif bir algılama puanı elde edene kadar birden çok kez meydana gelebilir.
BAKIN: 2024’te Avustralya veri ihlallerinin endişe verici durumu
Örneğin, arabadan indirme saldırılarında kullanılan bir JavaScript çerçevesi bir Yüksek Lisans’a beslenebilir. Bu, tipik güvenlik algılama önlemlerini atlamak için değişkenleri yeniden adlandırarak, kod ekleyerek veya boşlukları kaldırarak kodu değiştirmek için kullanılabilir.
Suçlular, istedikleri zaman kötü amaçlı içerik oluşturmak için ChatGPT veya Microsoft Copilot gibi geleneksel LLM’lerin korumalarını atlıyor. “Hapishaneden kırılmış” yapay zeka modelleri olarak adlandırılan bu modeller, halihazırda yerleşik yasal veya etik korkulukları olmayan FraudGPT, WormGPT ve DarkBERT gibi modelleri içeriyor.
Lenaerts-Bergmans, siber suçluların bu yapay zeka modellerini, meşru hizmetleri taklit eden kimlik avı sayfaları veya e-postalar oluşturmak gibi isteğe bağlı olarak kötü amaçlı içerik oluşturmak için kullanabileceğini açıkladı. Bazıları dark web’de ayda yalnızca 100 dolara satılıyor.
Lenaerts-Bergmans, yapay zeka tehditlerinin, güvenlik ekiplerinin dosya karmaları gibi mevcut taktiksel göstergelerin tamamen geçici hale gelebileceği istihbarat boşluklarına sahip olmasına neden olabileceğini söyledi.
Yapay zeka araçları benimsendikçe “tespit ve müdahale yeteneklerinin etkinliğinin düşeceğini” söyledi.
Infoblox, suçluların DNS düzeyinde tespit edilmesinin, siber ekiplerin siber suçlunun iş akışında daha erken istihbarat toplamasına olanak tanıdığını ve potansiyel olarak tehditleri aktif bir saldırıya dönüşmeden durdurabileceğini söyledi.
Kaynak: https://www.techrepublic.com/article/5-emerging-ai-threats-australia/
Web sitemizde ziyaretçilerimize daha iyi hizmet sağlayabilmek adına bazı çerezler kullanıyoruz. Web sitemizi kullanmaya devam ederseniz çerezleri kabul etmiş sayılırsınız.
Gizlilik Politikası