Çocuk istismarını engellemek adına geliştirilen bu sistem, Apple’ın yazılımla iCloud hesaplarını tarayarak incelemesine odaklanıyor. Eğer bulut sistemde bulunan görüntüler çocuk istismarı görüntülerinden oluşan veri tabanında bir eşleşme bulunursa adli makamlara bildirilecek.
SİSTEM ŞİMDİDEN ELEŞTİRİLMEYE BAŞLANDI
Apple’ın uygulamaya dahil ettiği yeni sistem, herhangi bir iPhone’da çocuk istismarına ilişkin görüntü bulursa, doğrudan kolluk kuvvetlerine bu durumu bildirecek. Apple bu sayede, çocuk istismarının kısmen de olsa önüne geçmek istiyor. Öte yandan Apple’ın “CSAM” adını verdiği güvenlik sistemi, eleştiri oklarını da çekmeyi başardı. Zira bu sistemle birlikte yalnızca çocuk istismarını önlemekle kalmayacağı aynı zamanda kişilerin gizli fotoğraflarına ulaşabileceği düşünülüyor.
Apple’ın yıl sonuna doğru kullanıma sunacağı CSAM sistemi, ABD Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi başta olmak üzere çeşitli çocuk güvenliği kuruluşları tarafından derlenmiş bir veri tabanını içerecek. Apple buna ek olarak kurulan sistem ile çocuklarına yabancılardan uygunsuz içerikler gelirse bu durumu ebeveynlere bildirecek.
Çocukların anlatamadığı bazı durumlar olduğunda ebeveynlerin haberinin olması adına geliştirilen sistemde Siri ve yerleşik arama uygulamaları da çocuk istismarı konusunda çok daha bilgili ve doğru yönlendirme yapabilecek. Bu yeni dönem ise iOS 15 ile iPhone’lara gelecek. iPadOS 15 ve WatchOS 8 ile MacOS Monterey ile diğer cihazlara da gelecek. Bu sayede çocuklara gelen uygunsuz fotoğraflar gizlenebilecek.