Apple geçen günlerde CSAM isimli bir sistem geliştirdiğini duyurdu ve bu sistem iCloud’a yüklenen fotoğrafları özel bir veri tabanıyla karşılaştırmaya dayanıyor.
Çocuk istismarını engellemek adına geliştirilen bu sistem, Apple’ın yazılımla iCloud hesaplarını tarayarak incelemesine odaklanıyor.
Eğer bulut sistemde bulunan görüntüler çocuk istismarı görüntülerinden oluşan veri tabanında bir eşleşme bulunursa adli makamlara bildirilecekti. İşte bu noktada eleştirilen şirket yeni bir açıklama geldi. Apple, tespit ettiği kullanıcıları hiçbir şekilde hükümet yetkilileri ile paylaşmayacaklarını vurguladı.
ÖZEL HAYATIN GİZLİLİĞİNE AYKIRI
Sistemin nasıl işleyeceğini de açıklayan Apple, kullanıcıların iCloud sistemine yüklediği fotoğrafları tarayacak ve çocuk istismarına yönelik bir fotoğraf tespit ettiği anda fotoğrafı sansürleyecek ve ardından kullanıcıya bildirim gönderecek.
Bu sistem her ne kadar çocuk istismarını önlemeye yönelik olsa da kullanıcılar tarafından özel hayatın gizliliğine yönelik bir saldırı olarak görülüyor.