Taylor Swift’in müstehcen deepfake’leri X’te (eski adıyla Twitter) viral hale geldiğinde, milyonlarca hayranı yapay zeka görüntülerini “Taylor Swift’i Koruyun” gönderileriyle gömmek için bir araya geldi. Bu hamle işe yaradı ama haberlerin tüm büyük medya kuruluşlarına ulaşmasını engelleyemedi. Daha sonraki günlerde bir Deepfake’in zararları hakkında kapsamlı bir konuşma Beyaz Saray basın sözcüsü Karine Jean-Pierre’in, insanları zararlı yapay zeka içeriğinden koruyacak bir yasa çıkarılması çağrısında bulunmasıyla birlikte, süreç devam ediyordu.
Ancak olay şu: Swift’in dahil olduğu olay endişe verici düzeyde olsa da, bu, yapay zeka tarafından üretilen içeriğin bir ünlünün itibarına zarar verdiği ilk vaka değil. Son birkaç yılda ünlü ünlülerin ve etkileyicilerin deepfake’lerin hedefi olduğu birçok örnek yaşandı ve bu durum zamanla daha da kötüleşecek.
“Kendinize ait kısa bir videoyla, bugün diyaloğun bir senaryo tarafından yönlendirildiği yeni bir video oluşturabilirsiniz; kendinizi klonlamak istiyorsanız bu eğlencelidir, ancak dezavantajı, bir başkasının da sizin yaydığınız bir videoyu kolayca oluşturabilmesidir. dezenformasyona neden olabilir ve potansiyel olarak itibara zarar verebilir” dedi. SertifikaFotoğraf ve videoların doğrulanması için araçlar geliştiren bir şirket, VentureBeat’e söyledi.
Deepfake içerik oluşturabilen yapay zeka araçları çoğalmaya ve gelişmeye devam ettikçe, internet yanıltıcı görseller ve videolarla dolup taşacak. Bu şu soruyu akla getiriyor: İnsanlar neyin gerçek olup neyin olmadığını nasıl tanımlayabilir?
Deepfake’leri ve bunların geniş kapsamlı zararlarını anlamak
Deepfake, herhangi bir bireyin derin öğrenme teknolojisi yardımıyla oluşturulan yapay görüntüsü/videosu/sesi olarak tanımlanabilir. Bu tür içerikler birkaç yıldır ortalıkta dolaşıyor, ancak 2017’nin sonlarında ‘deepfake’ adlı bir Reddit kullanıcısının yapay zeka tarafından oluşturulan pornografik görselleri ve videoları paylaşmaya başlamasıyla manşetlerde yer almaya başladı.
Başlangıçta, bu deepfake’ler büyük ölçüde, bir kişinin benzerliğinin mevcut video ve görsellerin üzerine yerleştirildiği yüz değiştirme etrafında dönüyordu. Bunu yapmak için çok fazla işlem gücü ve uzmanlık bilgisi gerekiyordu. Ancak geçtiğimiz yıl boyunca metin tabanlı uygulamaların yükselişi ve yaygınlaşması üretken yapay zeka teknoloji her bireye neredeyse gerçekçi, manipüle edilmiş içerik oluşturma yeteneği verdi; aktörler ve politikacılar internet kullanıcılarını beklenmedik şekillerde yanıltmaya çalışıyor.
“Deepfake’lerin artık grafik sanatçılarının veya bilgisayar korsanlarının alanı olmadığını söylemek yanlış olmaz. DALL-E, Midjourney, Adobe Firefly ve Stable Diffusion gibi çok az sanatsal veya teknik uzmanlık gerektiren veya hiç gerektirmeyen üretken yapay zeka metinden fotoğrafa çerçeveler sayesinde deepfake oluşturmak inanılmaz derecede kolay hale geldi. Benzer şekilde, derin sahte video çerçeveleri de Runway, Pictory, Invideo, Tavus vb. gibi metinden videoya benzer bir yaklaşım benimsiyor,” diye açıkladı Vekiarides.
Bu yapay zeka araçlarının çoğunda, potansiyel olarak tehlikeli istemleri veya ünlü kişileri içeren istemleri engellemek için korkuluklar bulunurken, kötü niyetli aktörler genellikle bunları atlatmanın yollarını veya boşluklarını bulur. Bağımsız teknoloji haber kaynağı Taylor Swift olayını araştırırken 404 Medya bulundu açık görseller, Microsoft’un yapay zeka araçlarındaki (artık düzeltilmiş olan) boşluklardan yararlanılarak oluşturuldu. Benzer şekilde Midjourney, yapay zeka görüntüleri oluşturmak için kullanıldı. Papa Francis şişme ceketli ve yapay zeka ses platformu ElevenLabs tartışmalı olarak değerlendirildi Joe Biden otomatik arama.
Bu tür bir erişilebilirlik geniş kapsamlı sonuçları varkamuya mal olmuş kişilerin itibarını zedelemekten ve Seçmenleri seçim öncesi yanıltmak şüphelenmeyen insanları hayal bile edilemeyecek mali dolandırıcılığa sürüklemek veya kuruluşların belirlediği doğrulama sistemlerini atlamak.
“Bu eğilimi bir süredir araştırıyoruz ve ‘ucuz sahte’ olarak adlandırdığımız bir dolandırıcının, genellikle bir haber kaynağı gibi güvenilir bir kaynaktan bazı gerçek video görüntülerini alıp bunları yapay zeka ile birleştirdiği bir artışı ortaya çıkardık. Ünlü ya da kamuoyuna mal olmuş kişiyle aynı seste üretilen ve sahte ses… Taylor Swift gibi ünlülerin klonlanmış benzerlikleri, bu dolandırıcılıklara yönelik çekici bir çekim oluşturuyor çünkü popülerlikleri onları dünya çapında bilinen bir isim haline getiriyor,” Steve Grobman, internet güvenlik şirketinin CTO’su McAfeeVentureBeat’e söyledi.
Sumsub’a göre Kimlik Dolandırıcılığı raporuSadece 2023 yılında, küresel olarak tüm sektörlerde tespit edilen deepfake sayısında on kat artış oldu ve vakaların çoğunluğu %88 ile kriptoyla karşı karşıya kaldı. Bunu %8 ile fintech takip etti.
İnsanlar endişeli
Yapay zeka oluşturucuların ve yüz değiştirme araçlarının hızlı yükselişi ve sosyal medya platformlarının küresel erişimi göz önüne alındığında, insanlar deepfake’ler tarafından yanıltılma konusundaki endişelerini dile getirdi. İçinde McAfee’nin 2023 Deepfakes anketiAmerikalıların %84’ü deepfake’lerin 2024’te nasıl istismar edileceğine dair endişelerini dile getirdi; üçte birinden fazlası kendilerinin veya tanıdıkları birinin deepfake dolandırıcılığı gördüğünü veya yaşadığını söyledi.
Burada endişe verici olan şey, kötü amaçlı görüntülere, sese ve videoya güç veren teknolojinin hâlâ olgunlaşmakta olduğu gerçeğidir. İyileştikçe istismarı da daha karmaşık hale gelecektir.
“Yapay zekanın entegrasyonu öyle bir noktaya ulaştı ki, orijinal içerik ile değiştirilmiş içerik arasında ayrım yapmak ortalama bir insan için zorlu bir mücadele haline geldi. Hem bireyler hem de çeşitli kuruluşlar artık derin sahte dolandırıcılıkların kurbanı olmaya karşı savunmasız olduğundan, bu durum işletmeler için önemli bir risk oluşturmaktadır. Temelde, derin sahtekarlıkların yükselişi, bir zamanlar olumlu etkileriyle müjdelenen teknolojik ilerlemelerin artık bilginin bütünlüğüne ve hem işletmelerin hem de bireylerin güvenliğine yönelik tehditler oluşturduğu daha geniş bir eğilimi yansıtıyor.” Pavel Goldman-Kalaydin, başkan Yapay zeka ve makine öğrenimi ToplamVentureBeat’e söyledi.
Deepfake’ler nasıl tespit edilir?
Hükümetler deepfake içeriği önlemek ve bunlarla mücadele etmek için üzerlerine düşeni yapmaya devam ederken, bir şey açık: Şu anda gördüğümüz şey katlanarak artacak çünkü yapay zekanın gelişimi yavaşlamayacak. Bu, kamuoyunun gerçek olanla olmayanı nasıl ayırt edeceğini bilmesini çok kritik hale getiriyor.
Konuyla ilgili VentureBeat ile konuşan tüm uzmanlar, deepfake tespitine yönelik iki temel yaklaşım üzerinde birleşti: içeriği küçük anormallikler açısından analiz etmek ve kaynağın orijinalliğini iki kez kontrol etmek.
Şu anda yapay zeka tarafından oluşturulan görüntüler neredeyse gerçekçidir (Avustralya Ulusal Üniversitesi insanların artık yapay zeka tarafından oluşturulan beyaz yüzleri insan yüzlerinden daha gerçek bulduğunu buldu), AI videoları ise oraya ulaşma yolunda. Ancak her iki durumda da içeriğin yapay zeka tarafından üretildiğini ortaya çıkarabilecek bazı tutarsızlıklar olabilir.
“Aşağıdaki özelliklerden herhangi biri algılanırsa (doğal olmayan el veya dudak hareketi, yapay arka plan, düzensiz hareket, aydınlatmadaki değişiklikler, cilt tonlarındaki farklılıklar, olağandışı göz kırpma modelleri, dudak hareketlerinin konuşmayla zayıf senkronizasyonu veya dijital artefaktlar) içerik kaldırılır Goldman-Kalaydin yapay zeka videolarındaki anormallikleri anlatırken “muhtemelen oluşturulmuş” dedi.
Fotoğraflar için Attestiv’den Vekiarides, nesneler arasında eksik gölgelerin ve tutarsız ayrıntıların aranmasını önerdi; bunlar arasında insan özelliklerinin, özellikle de ellerin/parmakların ve dişlerin zayıf bir şekilde işlenmesi yer alıyor. Matthieu Rouif, CEO ve kurucu ortak Fotoğraf odasıaynı yapay zekayı yineledi ve yapay zeka görüntülerinin insan yüzlerine göre daha yüksek derecede simetriye sahip olma eğiliminde olduğunu belirtti.
Yani bir kişinin yüzü bir görüntüde gerçek olamayacak kadar iyi görünüyorsa, bunun yapay zeka tarafından oluşturulmuş olması muhtemeldir. Öte yandan, eğer bir yüz değişimi olmuşsa, kişinin bir çeşit yüz özellikleri harmanlanması da söz konusu olabilir.
Ancak yine söylüyorum, bu yöntemler yalnızca günümüzde işe yarar. Teknoloji olgunlaştığında, bu görsel boşlukların çıplak gözle bulunması imkansız hale gelme ihtimali yüksektir. İşte burada uyanık kalmanın ikinci adımı devreye giriyor.
Rouif’e göre, akışa şüpheli bir görüntü/video geldiğinde, içeriğin kaynağını, potansiyel önyargılarını ve içeriği oluşturmaya yönelik teşvikleri göz önünde bulundurarak kullanıcının ona bir miktar şüpheyle yaklaşması gerekiyor.
“Tüm videolar amacı bağlamında değerlendirilmelidir. Bir dolandırıcılığı gösterebilecek kırmızı bayrağa bir örnek, alıcıdan, gerçek olamayacak kadar iyi görünen bir anlaşma için kripto para birimi gibi geleneksel olmayan ödeme şekillerini kullanmasını istemektir. McAfee’den Grobman, insanları videoların kaynağını sorgulamaya ve doğrulamaya ve özellikle kişisel bilgiler veya paradan vazgeçmeleri istendiğinde herhangi bir onay veya reklama karşı dikkatli olmaya teşvik ediyoruz” dedi.
Doğrulama çabalarına daha fazla yardımcı olmak için teknoloji sağlayıcılarının gelişmiş algılama teknolojileri oluşturmaya yönelmeleri gerekiyor. Google ve ElevenLabs dahil olmak üzere bazı ana akım oyuncular, bir içeriğin gerçek olup olmadığını veya ilgili yapay zeka araçlarından mı oluşturulduğunu tespit edecek teknolojilerle bu alanı keşfetmeye başladı bile. McAfee ayrıca yapay zeka tarafından oluşturulan sesi işaretlemek için bir proje başlattı.
“Bu teknoloji, bir videodaki sesin muhtemelen yapay zeka tarafından üretilip üretilmediğini belirlemek için yapay zeka destekli bağlamsal, davranışsal ve kategorik algılama modellerinin bir kombinasyonunu kullanıyor. Şu anda %90’lık bir doğruluk oranıyla, kötü niyetli “ucuz sahte” veya derin sahtekarlıklar için oluşturulan yapay zeka içeriğini tespit edip bunlara karşı koruma sağlayabiliyoruz ve tüketicilere eşsiz koruma yetenekleri sağlıyoruz” diye açıkladı Grobman.
VentureBeat’in misyonu teknik karar vericilerin dönüştürücü kurumsal teknoloji hakkında bilgi edinmeleri ve işlem yapmaları için dijital bir şehir meydanı olmaktır. Brifinglerimizi keşfedin.
Kaynak: https://venturebeat.com/ai/taylor-swift-is-not-the-first-victim-of-ai-decoding-the-deepfake-dilemma/