Apple, iCloud fotoğraflarını çocuklara yönelik cinsel istismar materyalleri (CSAM) açısından tarayacak bir sistemi uygulamama kararı nedeniyle dava ediliyor.
The New York Times’a göre dava, bu materyalin yayılmasını önlemek için daha fazla çaba göstermemenin mağdurları travmalarını yeniden yaşamaya zorladığını ileri sürüyor. Dava, Apple’ın “çocukları korumayı amaçlayan, geniş çapta övülen geliştirilmiş bir tasarım” ilan ettiğini, ardından bu tasarımları “uygulamadığını veya bu materyali tespit etmek ve sınırlamak için herhangi bir önlem almadığını” belirtiyor.
Apple, sistemi ilk olarak 2021’de duyurmuş ve kullanıcıların iCloud kitaplıklarındaki bilinen CSAM içeriğini tespit etmek için Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi ve diğer grupların dijital imzalarını kullanacağını açıklamıştı. Ancak güvenlik ve gizlilik savunucularının hükümet gözetimi için bir arka kapı oluşturabileceklerini öne sürmesinin ardından bu planlardan vazgeçildiği görüldü.
Davanın, Apple’a takma adla dava açan 27 yaşındaki bir kadından geldiği bildiriliyor. Bebekken bir akrabasının kendisini taciz ettiğini ve fotoğraflarını internette paylaştığını ve hâlâ neredeyse her gün birinin bu görüntülere sahip olduğu için suçlandığına dair emniyet teşkilatından bildirimler aldığını söyledi.
Davaya katılan Avukat James Marsh, bu davada tazminat almaya hak kazanabilecek potansiyel 2.680 mağdur grubunun bulunduğunu söyledi.
TechCrunch yorum almak için Apple’a ulaştı. Bir şirket sözcüsü The Times’a şirketin “tüm kullanıcılarımızın güvenliğinden ve mahremiyetinden ödün vermeden bu suçlarla mücadele etmek için acil ve aktif bir şekilde yenilik yaptığını” söyledi.
Ağustos ayında 9 yaşındaki bir kız çocuğu ve vasisi, Apple’ı iCloud’da CSAM’e yanıt vermemekle suçlayarak Apple’a dava açtı.
Kaynak: https://techcrunch.com/2024/12/08/apple-sued-over-abandoning-csam-detection-for-icloud/