Şirket perşembe günü yaptığı açıklamada, Apple’ın ABD’de iCloud’a yüklenen çocuk istismarı görüntülerini kolluk kuvvetlerine bildireceğini açıkladı.
Yeni sistem, Çocukların Cinsel İstismarı Materyali (CSAM) adı verilen görüntüleri, o görüntüye karşılık gelen benzersiz sayılara dönüştürüldüğü karma adı verilen bir işlem kullanarak algılayacak.
Apple, sistemi perşembe günü test etmeye başladı. Ancak Apple’ın yaptığı açıklamaya göre, çoğu ABD’li iPhone kullanıcısı bu yıl içinde olacak bir iOS 15 güncellemesine kadar bu sistemin bir parçası olmayacak.
Bu hareket, Apple’ı, çocuk istismarı görüntüleri de dahil olmak üzere hizmet şartlarını ihlal eden içerik için, genellikle karma sistemleri kullanarak halihazırda kullanıcı dosyalarını tarayan diğer bulut hizmetleriyle aynı seviyeye getiriyor.
Aynı zamanda, sisteminin, çocukların cinsel istismarına ilişkin yasa dışı görüntüleri ortadan kaldırmaya yönelik önceki çözüm önerilerine göre kullanıcılar için daha özel olduğunu söyleyen Apple için bir testi temsil ediyor. Çünkü hem Apple sunucularında hem de kullanıcı cihazlarında gelişmiş şifreleme kullanıyor ve gerçek görüntüleri değil, yalnızca karmaları tarıyor.
Ancak, mahremiyete duyarlı birçok kullanıcı, hükümetleri bir cihazdaki veya buluttaki içerikler hakkında bilgilendiren yazılımlardan hala çekiniyor ve birçok kullanıcının bu duyuruya olumsuz tepki vermesi çok olası. Özellikle Apple’ın cihaz şifrelemesini şiddetle savunması ve ABD’den daha az konuşma korumasına sahip ülkelerde faaliyet göstermesi de bu yeni test edilen sistemi tartışmaya daha açık bir konu haline getiriyor.
Bunun yanı sıra, dünyanın dört bir yanındaki kolluk kuvvetleri de çocuk istismarını veya terörizmi araştırmak için iMessage ve iCloud gibi diğer yazılım hizmetlerinin şifrelemesini zayıflatması için Apple’a baskı yaptı. Perşembe günkü duyuru, Apple’ın kullanıcı gizliliği konusundaki bazı mühendislik ilkelerinden vazgeçmeden bu sorunlardan bazılarını ele almasının önünü açtı.
İçindekiler
Nasıl çalışıyor
Bir görüntü iCloud’da saklanmadan önce, Apple, görüntünün karmasını Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) tarafından sağlanan bir karma veri tabanıyla eşleştiriyor. Bu veri tabanı, iOS 15 güncellemesinden başlayarak iOS kodunda dağıtılacak. Ayrıca Apple, eşleştirme işleminin bulutta değil, kullanıcının iPhone’unda yapıldığını söyledi.
Apple daha sonra bir iCloud hesabında belirli sayıda ihlal eden dosya tespit ederse, sistem Apple’ın şifresini çözmesine ve bu hesaptaki görüntüleri görmesine izin veren bir dosya yükleyecek. Görevli bir Apple çalışanı, eşleşme olup olmadığını doğrulamak için görüntüleri manuel olarak inceleyecek.
Apple, yalnızca öncesinde bilinen ve bu veri tabanlarına bildirilen içerikle eşleşen görüntüleri inceleyebilecek; örneğin, ebeveynlerin çocuklarının banyodaki fotoğrafları NCMEC veri tabanının bir parçası olmayacağından bu görüntüleri tespit edemez.
Manuel incelemeyi yapan kişi, sistemin hata yapmadığı sonucuna varırsa, Apple kullanıcının iCloud hesabını devre dışı bırakacak ve gerekirse NCMEC’ye bir rapor gönderecek veya kolluk kuvvetlerine haber verecek. Hesaplarının yanlışlıkla işaretlendiğini düşünen kullanıcıların Apple’a itirazda bulunma hakları da mevcut.
Apple, sistemin yalnızca iCloud’a yüklenen ve kullanıcıların kapatabileceği görüntüler üzerinde çalıştığını belirtti. Yani Apple sunucularına yüklenmemiş bir cihazdaki fotoğraflar veya diğer resimler sistemin parçası olmayacak.
Bazı güvenlik araştırmacıları, bu teknolojinin eninde sonunda siyasi protesto fotoğrafları gibi diğer türdeki görüntüleri tanımlamak için kullanılabileceğine dair endişelerini dile getirdi. Apple, sisteminin yalnızca NCMEC veya diğer çocuk güvenliği kuruluşları tarafından listelenen görüntülerle çalışabilecek şekilde oluşturulduğunu ve şifrelemeyi oluşturma biçiminin başka amaçlar için kullanılmasını engellediğini iddia ediyor.
Ayrıca, Apple’ın veri tabanına ek karma ekleyemeyeceği söylenenler arasında. Apple, kullanıcı gizliliğinden ödün vermeden yasa dışı çocuk istismarı görüntülerini tespit edebildiğini onaylamak için sistemini kriptografi uzmanlarına sunduğunu da ekledi.
Apple, çocukları sapıklardan korumayı amaçlayan diğer özelliklerle birlikte perşembe günü bu özelliği açıkladı. Ayrı bir özellikte Apple, çıplaklık içerebilecek görüntüleri bulanıklaştırmak için aile hesabı olan bir çocuğun iPhone’unda makine öğrenimini kullanacak. Ek olarak, ebeveynler, 13 yaşından küçük bir çocuğu varsa iMessage’da cinsel içerikli bir fotoğraf veya mesaj aldığında uyarılmayı seçebilecek. Apple ayrıca Siri’yi çocuk istismarının nasıl bildirileceğiyle ilgili bilgilerle de güncelledi.