Avustralyalı Siber Profesyonellerin 2025’te İzlemesi Gereken 5 Yeni Yapay Zeka Tehdidi

Güvenlik teknolojisi firması Infoblox’a göre Avustralyalı siber güvenlik uzmanları, 2025 yılında tehdit aktörlerinin taktikleri çeşitlendirmek ve kuruluşları hedef alan siber saldırıların hacmini ölçeklendirmek için yapay zekadan yararlanmasını bekleyebilirler.

Geçtiğimiz yıl, APAC’taki siber ekipler yapay zekanın mali dolandırıcılık gibi suçları gerçekleştirmek için kullanıldığına dair ilk işaretlere tanık olurken, bazıları yapay zekayı Avustralya’daki finansal hizmetler sektöründeki bir DDoS saldırısıyla ilişkilendirdi.

Bu yıl, Avustralya’nın siber savunucuları yapay zekanın yeni tür siber saldırılar için kullanılmasını bekleyebilirler:

  • Yapay zeka klonlama: Yapay zeka, finansal dolandırıcılık yapmak amacıyla sentetik ses sesleri oluşturmak için kullanılabilir.
  • Yapay zeka derin sahteleri: İkna edici sahte videolar, mağdurları tıklamaya veya ayrıntılarını vermeye teşvik edebilir.
  • Yapay zeka destekli sohbet robotları: Yapay zeka sohbet robotları karmaşık kimlik avı kampanyalarının parçası haline gelebilir.
  • Yapay zekayla geliştirilmiş kötü amaçlı yazılım: Suçlular, yeniden düzenlenmiş kötü amaçlı yazılım kodunu dağıtmak için Yüksek Lisans’ı kullanabilir.
  • Jailbreaking Yapay Zekası: Tehdit aktörleri, korumasız “karanlık” yapay zeka modellerini kullanacak.

Infoblox’tan Bart Lenaerts-Bergmans, bir web seminerinde Avustralyalı savunuculara, daha fazla aktörün yapay zeka araç ve tekniklerine erişebilmesi nedeniyle saldırıların sıklığında ve karmaşıklığında bir artış bekleyebileceklerini söyledi.

1. Klonlama için yapay zeka

Rakipler, kulağa gerçekçi gelen sentetik ses içeriği oluşturmak için üretken yapay zeka araçlarını kullanabilir. Hızlı bir şekilde yapılabilen klonlama işlemi, bir yapay zeka modelini eğitmek ve klonlanmış bir ses oluşturmak için sesli röportaj gibi kamuya açık verilerden yararlanır.

BAKIN: Avustralya hükümeti yapay zeka için zorunlu korkuluklar öneriyor

Lenaerts-Bergmans, klonlanmış seslerin orijinal sese kıyasla tonlama veya tempoda yalnızca küçük farklılıklar gösterebileceğini söyledi. Saldırganlar, meşru görünmek ve mali dolandırıcılığı kolaylaştırmak için klonlanmış sesleri sahte e-posta alanları gibi diğer taktiklerle birleştirebilir.

2. Yapay zeka derin sahtekarlıkları

Suçlular, kurbanları kripto para dolandırıcılığına veya diğer kötü niyetli faaliyetlere çekmek için kullanabilecekleri yüksek profilli kişilerin gerçekçi deepfake videolarını oluşturmak için yapay zekayı kullanabilir. Sentetik içerik, daha etkili bir şekilde sosyal mühendislik yapmak ve mağdurları dolandırmak için kullanılabilir.

Infoblox, Elon Musk’un milyonlarca aboneye sahip YouTube hesaplarına yüklenen deepfake videolarına atıfta bulundu. Birçok izleyici QR kodlarını kullanarak kötü amaçlı kripto sitelerine ve dolandırıcılıklara yönlendirildi. YouTube’un videoları kaldırması 12 saat sürdü.

3. Yapay zeka destekli sohbet robotları

Saldırganlar, kurbanların güvenini kazanmak ve sonuçta onları dolandırmak için otomatik konuşma aracılarını veya yapay zeka sohbet robotlarını kullanmaya başladı. Bu teknik, bir kuruluşun, bir kişiyi etkileşime geçirmek ve “dönüştürmek” amacıyla insan odaklı etkileşimi yapay zeka sohbet robotuyla birleştirmek için yapay zekayı nasıl kullanabileceğini taklit ediyor.

Kripto dolandırıcılığının bir örneği, saldırganların planlarını ilerletmek ve bir kripto cüzdanına erişim kazanmak için AI sohbet robotu öğelerini dahil etmeden önce ilişkiler kurmak için SMS kullanmasını içerir. Infoblox, bu dolandırıcılıkların uyarı işaretlerinin şüpheli telefon numaralarını ve cevapları tekrarlayan veya tutarsız bir dil kullanan kötü tasarlanmış dil modellerini içerdiğini belirtti.

4. Yapay zeka destekli kötü amaçlı yazılım

Suçlular artık güvenlik kontrollerini atlamak için mevcut kötü amaçlı yazılımları otomatik olarak yeniden yazmak ve değiştirmek için LLM’leri kullanabilir, bu da savunucuların tespit etmesini ve etkisini azaltmasını zorlaştırır. Bu durum, kod negatif bir algılama puanı elde edene kadar birden çok kez meydana gelebilir.

BAKIN: 2024’te Avustralya veri ihlallerinin endişe verici durumu

Örneğin, arabadan indirme saldırılarında kullanılan bir JavaScript çerçevesi bir Yüksek Lisans’a beslenebilir. Bu, tipik güvenlik algılama önlemlerini atlamak için değişkenleri yeniden adlandırarak, kod ekleyerek veya boşlukları kaldırarak kodu değiştirmek için kullanılabilir.

5. Jailbreaking Yapay Zekası

Suçlular, istedikleri zaman kötü amaçlı içerik oluşturmak için ChatGPT veya Microsoft Copilot gibi geleneksel LLM’lerin korumalarını atlıyor. “Hapishaneden kırılmış” yapay zeka modelleri olarak adlandırılan bu modeller, halihazırda yerleşik yasal veya etik korkulukları olmayan FraudGPT, WormGPT ve DarkBERT gibi modelleri içeriyor.

Lenaerts-Bergmans, siber suçluların bu yapay zeka modellerini, meşru hizmetleri taklit eden kimlik avı sayfaları veya e-postalar oluşturmak gibi isteğe bağlı olarak kötü amaçlı içerik oluşturmak için kullanabileceğini açıkladı. Bazıları dark web’de ayda yalnızca 100 dolara satılıyor.

Tespit ve müdahale yeteneklerinin daha az etkili olmasını bekliyoruz

Lenaerts-Bergmans, yapay zeka tehditlerinin, güvenlik ekiplerinin dosya karmaları gibi mevcut taktiksel göstergelerin tamamen geçici hale gelebileceği istihbarat boşluklarına sahip olmasına neden olabileceğini söyledi.

Yapay zeka araçları benimsendikçe “tespit ve müdahale yeteneklerinin etkinliğinin düşeceğini” söyledi.

Infoblox, suçluların DNS düzeyinde tespit edilmesinin, siber ekiplerin siber suçlunun iş akışında daha erken istihbarat toplamasına olanak tanıdığını ve potansiyel olarak tehditleri aktif bir saldırıya dönüşmeden durdurabileceğini söyledi.

Kaynak: https://www.techrepublic.com/article/5-emerging-ai-threats-australia/