Apple, iCloud İçeriği Tarayarak Çocuk İstismarını Önleyememe Nedeniyle Dava Ediliyor

image_6756ebf5b51de
Abone Ol

Bu Yazıyı Paylaş

veya linki kopyala

Apple, CSAM İçin Tarayacak Sistemi Uygulamama Kararı Nedeniyle Mahkemede

Apple, iCloud fotoğraflarını çocuk istismarı içeriği (CSAM) için tarayacak bir sistemi uygulamama kararı nedeniyle dava ediliyor. Şirketin, materyalin yayılmasını önlemek için yeterince çaba göstermediği iddia ediliyor.

Hükümet Gözetimi Eleştirisi

Apple’ın 2021’de duyurduğu ancak güvenlik ve gizlilik endişeleri nedeniyle rafa kaldırdığı bu sistem, Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) tarafından desteklenmişti. Ancak, bu teknolojinin hükümet gözetimi için bir arka kapı oluşturabileceği endişeleri planların iptal edilmesine yol açtı.

Binlerce Mağdur Var

Dava, bebekken istismara uğrayan ve görüntüleri çevrimiçi olarak paylaşılan 27 yaşındaki bir kadın tarafından açıldı. Mağdur kadın, hala bu görüntülere maruz kalan birinin suçlandığına dair kolluk kuvvetlerinden bildirimler aldığını belirtti. Avukatlar, bu dava kapsamında 2.680 potansiyel mağdurun tazminat alma hakkı olduğunu söyledi.

Apple Savunması

Apple, güvenlik ve gizlilikten ödün vermeden suçlarla mücadele etmek için çalıştıklarını belirtti. Şirket, bu tür durumları önlemeye yönelik yeni önlemler almayı sürdüreceklerini ifade etti.

Ağustos ayında ise 9 yaşındaki bir kız çocuğu ve vasisinin, Apple’ı iCloud’da CSAM’ı ele almamakla suçlayarak dava açtığı biliniyor.

Bu Yazıya Tepki Ver