Apple, tartışmalı fotoğraf tarama politikası nedeniyle çığlığa yanıt verdi
Elmalar iPhone kullanıcılarının fotoğraflarını taramayı planlıyor çocuklara yönelik cinsel istismar materyali (CSAM), mahremiyet savunucuları ve rakipleri tarafından endişeyle karşılandı. Şimdi şirket, kullanıcılara yeni bir Soru-Cevap web sitesinde yayınlanmıştır.
CSAM materyalinin yayılmasını önlemek ve sahiplerini yakalamak için tasarlanan araç, fotoğrafı cihazda tarıyor ve iCloud'a yüklemeden önce ona bir güvenlik sertifikası veriyor. Şimdiye kadar Apple, planları yalnızca Amerika Birleşik Devletleri'nde yürürlüğe koyacak.
Eleştirmenler, WhatsApp patronu Will Cathcart Sistemin esasen Apple yapımı bir gözetim aracı olduğunu ve zayıflıklar ortaya çıkarsa hükümetler tarafından vatandaşları gözetlemek için kullanılabileceğini söylüyor.
Ancak Apple bugün, hükümetlerin hash listesine CSAM olmayan herhangi bir görüntü eklemesi için “bu tür talepleri reddedeceğini” daha önce sahip olduğu tutumunu yineledi.
Şirket, "Apple'ın CSAM algılama özelliği, yalnızca, NCMEC ve diğer çocuk güvenliği gruplarındaki uzmanlar tarafından tanımlanan, iCloud Fotoğraflarında depolanan bilinen CSAM görüntülerini algılamak için oluşturulmuştur" diye yazıyor. “Daha önce kullanıcıların gizliliğini bozan devlet tarafından zorunlu kılınan değişiklikler oluşturma ve uygulama talepleriyle karşı karşıya kaldık ve bu talepleri kararlı bir şekilde reddettik. Gelecekte onları reddetmeye devam edeceğiz.
"Açık olalım, bu teknoloji iCloud'da depolanan CSAM'i tespit etmekle sınırlıdır ve hiçbir hükümetin onu genişletme talebini kabul etmeyeceğiz. Ayrıca Apple, NCMEC'e rapor vermeden önce insan incelemesi yapar. Sistemin bilinen CSAM görüntüleriyle eşleşmeyen fotoğrafları işaretlediği bir durumda, hesap devre dışı bırakılmaz ve NCMEC'e herhangi bir rapor sunulmaz."
En İyi iPhone 2021: Sıralanan en yeni Apple telefonlarının tümü (tüm iPhone 12 modelleri dahil)
iOS 15: iPhone'a gelen en iyi yeni özelliklerin tümü
En İyi VPN 2021: Güvenlik ve akış için en iyi 7 VPN seçeneği
Apple ayrıca, Mesajlar uygulaması da dahil olmak üzere yeni Çocuk Güvenliği araçlarının diğer parçalarını ele aldığını söylüyor. çocukların uygunsuz görüntüleri alıp almadığını veya gönderip göndermediğini kısa sürede tespit edin ve uyarmak için güvenlik önlemleri alın ebeveynler. Çocuklar, söz konusu mesajı göndermek veya bulanıklığı gidermek konusunda bir seçeneğe sahip olacaklar, ancak devam ederlerse ebeveynlere bilgi verilecek. Apple, kullanıcılara bunun Mesajlar'daki uçtan uca şifrelemeyi etkilemediğini garanti ediyor.
Şirket şunları ekliyor: “Bu, Mesajların gizlilik güvencelerini değiştirmiyor ve Apple bu özelliğin bir sonucu olarak hiçbir zaman iletişime erişim sağlayamıyor. İletişim güvenliği etkinleştirilmiş olanlar da dahil olmak üzere, Mesajların herhangi bir kullanıcısı neyin ve kime gönderildiğinin kontrolünü elinde tutar. Özellik çocuk hesabı için etkinleştirilirse, cihaz Mesajlar'daki görüntüleri değerlendirecek ve görüntünün müstehcen olduğu belirlenirse müdahalede bulunacaktır. 12 yaş ve altı çocukların hesapları için ebeveynler, ebeveyn bildirimleri ayarlayabilir. çocuk, cinsel içerikli olduğu belirlenen bir resmi onaylar ve gönderir veya görüntülerse gönderilir açık. Hiçbir iletişim, görüntü değerlendirmesi, müdahale veya bildirim Apple'ın kullanımına açık değil."
Apple'ın yeni Çocuk Güvenliği özelliği hakkında ne düşünüyorsunuz? Sağduyulu bir hareket mi? Yoksa masum kullanıcıların mahremiyetine çok fazla ikincil zarar mı verildi? Twitter'da @trustedreviews'ı bize bildirin.
Gazeteciliğimize neden güvenelim?
2004 yılında kurulan Trusted Reviews, okuyucularımıza ne satın alacakları konusunda kapsamlı, tarafsız ve bağımsız tavsiyeler vermek için var.
Bugün dünya çapında ayda 9 milyon kullanıcımız var ve yılda 1.000'den fazla ürünü değerlendiriyoruz.