Apple, iCloud'da çocuk istismarı içeriğini tespit etme sistemini uygulamaması nedeniyle dava ediliyor. Davada içeriklerin taranıp kaldırılmaması sebebiyle mağdurların travmalarını yeniden yaşadığı yönünde iddialar yer alıyor.
Apple, iCloud fotoğraflarını çocuk istismarı içeriği (CSAM) için tarayacak bir sistemi uygulamama kararı nedeniyle dava ediliyor. Dava, Apple'ın bu materyalin yayılmasını önlemek için daha fazla çaba göstermemesi nedeniyle mağdurların travmalarını yeniden yaşamaya zorlandığını iddia ediyor. Apple, 2021 yılında bu sistemi duyurmuş, ancak güvenlik ve gizlilik savunucularının hükümet gözetimi için bir arka kapı oluşturabileceği endişeleri nedeniyle bu planları uygulamayı bırakmıştı.HÜKÜMET GÖZETİMİ ELEŞTİRİSİApple, 2021 yılında Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) ve diğer gruplardan toplanan dijital imzalar sonrasında kullanıcıların iCloud kütüphanelerindeki bilinen CSAM içeriğini tespit edecek bir sistem duyurmuştu.
hbrlr1.com/ctclwcltkckckl
Apple, iCloud fotoğraflarını çocuk istismarı içeriği (CSAM) için tarayacak bir sistemi uygulamama kararı nedeniyle dava ediliyor. Dava, Apple'ın bu materyalin yayılmasını önlemek için daha fazla çaba göstermemesi nedeniyle mağdurların travmalarını yeniden yaşamaya zorlandığını iddia ediyor. Apple, 2021 yılında bu sistemi duyurmuş, ancak güvenlik ve gizlilik savunucularının hükümet gözetimi için bir arka kapı oluşturabileceği endişeleri nedeniyle bu planları uygulamayı bırakmıştı.HÜKÜMET GÖZETİMİ ELEŞTİRİSİApple, 2021 yılında Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) ve diğer gruplardan toplanan dijital imzalar sonrasında kullanıcıların iCloud kütüphanelerindeki bilinen CSAM içeriğini tespit edecek bir sistem duyurmuştu.
hbrlr1.com/ctclwcltkckckl
Category
🤖
TeknolojiDöküm
00:30ALTYAZI M.K.