ABD’nin ve dünyanın en büyük teknoloji şirketlerinden birine çocuk istismarı içeriği davası açıldı

Apple, iCloud fotoğraflarını çocuk istismarı içeriği (CSAM) için tarayacak bir sistemi uygulamama kararı nedeniyle dava ediliyor. Dava, Apple'ın bu materyalin yayılmasını önlemek için daha fazla gayret göstermemesi nedeniyle mağdurların travmalarını yeniden yaşamaya zorlandığını iddia ediyor. Apple, 2021 yılında bu sistemi duyurmuş, ancak emniyet ve gizlilik savunucularının hükümet gözetimi için bir geri kapı oluşturabileceği endişeleri nedeniyle bu planları uygulamayı bırakmıştı.

HÜKÜMET GÖZETİMİ ELEŞTİRİSİ

Apple, 2021 yılında Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) ve öbür gruplardan toplanan dijital imzalar sonrasında kullanıcıların iCloud kütüphanelerindeki bilinen CSAM içeriğini tespit edecek bir sistem duyurmuştu. Ancak, emniyet ve gizlilik savunucularının bu teknolojinin hükümet gözetimi için bir geri kapı oluşturabileceği endişeleri nedeniyle bu planları rafa kaldırdı.

BİNLERCE MAĞDUR VAR

Dava, bir akrabası tarafından bebekken istismara uğrayan ve görüntüleri çevrimiçi olarak paylaşılan 27 yaşındaki bir kadın tarafından açıldı. Kadın, hala neredeyse her gün bu görüntülere sahip olan birinin suçlandığına dair kolluk kuvvetlerinden bildirimler aldığını belirtti. Avukat James Marsh, bu davada tazminat almaya adalet kazanabilecek potansiyel 2.680 mağdur olduğunu söyledi.

Apple, TechCrunch'a yaptığı açıklamada, bu suçlarla mücadele etmek için emniyet ve gizlilikten taviz vermeden yenilikler yapmaya devam ettiklerini belirtti. Ağustos ayında, 9 yaşındaki bir kız çocuğu ve vasisi, Apple'ı iCloud'da CSAM'ı ele almamakla suçlayarak dava açmıştı.

Abdurrahman Yazıcı Haberler.com - Teknoloji Ekonomi Türkiye Teknoloji Ekonomi Hukuk Çocuk Apple
Benzer Videolar