Apple, değişikliklerin kullanıcı gizliliğini azaltabileceği yönündeki yoğun eleştirilerin ardından, kullanıcıların fotoğraflarını çocuk cinsel istismarı materyali (CSAM) için tarayacak tartışmalı bir özellik de dahil olmak üzere, geçen ay duyurduğu çocuk koruma özelliklerini erteliyor. Değişikliklerin bu yıl içinde kullanıma sunulması planlanıyordu.
Apple, The Verge sitesine yaptığı açıklamada, “Geçen ay, çocukları, onları işe almak ve sömürmek için iletişim araçlarını kullanan yırtıcılardan korumaya ve Çocukların Cinsel İstismarına Yönelik Materyalinin yayılmasını sınırlamaya yardımcı olacak özelliklerle ilgili planlarımızı duyurduk.” dedi. “Müşterilerden, savunma gruplarından, araştırmacılardan ve diğerlerinden gelen geri bildirimlere dayanarak, kritik öneme sahip bu çocuk güvenliği özelliklerini yayınlamadan önce girdi toplamak ve iyileştirmeler yapmak için önümüzdeki aylarda ek zaman ayırmaya karar verdik.”
Apple’ın çocuklara yönelik cinsel istismar materyallerinin (CSAM) yayılmasını azaltmayı amaçlayan değişikliklerle ilgili ilk basın bülteninde, sayfanın üst kısmına benzer bir açıklamanın eklendiği görülüyor. İlk basın bülteni, çalışmalardaki üç büyük değişikliği detaylandırmıştı. Arama ve Siri’de yapılan bir değişiklik, bir kullanıcı bununla ilgili bilgi aradığında CSAM’i önlemek amaçlı kaynaklara yönlendirilecek olmasıydı.
Diğer iki değişiklik daha fazla tartışmaya neden oldu. Bunlardan biri, çocukları müstehcen fotoğraflar alırken veya gönderirken ebeveynleri uyaracak ve bu görüntüleri çocuklar için bulanıklaştıracaktı. Diğeri, bir kullanıcının CSAM için iCloud Fotoğrafları’nda saklanan görüntüleri taranmasını beraberinde getirecekti ve bu taramaların sonucunda Apple moderatörlerine rapor gidecekti. Bu moderatörler daha sonra raporları Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi’ne veya NCMEC’e yönlendirebilecekti.
Apple, kullanıcı gizliliğini zayıflatmamasını sağlamak amacıyla iCloud Fotoğraf tarama sistemini ayrıntılı olarak açıklamıştı. Kısacası, iOS cihazınızdaki iCloud Fotoğrafları’nda depolanan fotoğrafları tarayacak ve bu fotoğrafları, NCMEC ve diğer çocuk güvenliği kuruluşlarından bilinen CSAM görüntü karmalarının bir veri tabanıyla birlikte değerlendirecekti.
Yine de, birçok gizlilik ve güvenlik uzmanı, yeni sistem için şirketi ağır bir şekilde eleştirdi ve bunun cihaz üzerinde bir gözetim sistemi oluşturabileceğini ve kullanıcıların cihaz gizliliğini korumak için Apple’a duydukları güveni ihlal ettiğini savundu.
Örneğin, Electronic Frontier Foundation, 5 Ağustos’ta yaptığı bir açıklamada, yeni sistemin ne kadar iyi niyetli olursa olsun, “habercinin şifrelemesinin temel vaatlerini bozacağını ve daha geniş suistimallere kapı açacağını” söylemişti.