Apple odpowiada na protesty w związku z kontrowersyjną polityką skanowania zdjęć
Jabłka planuje skanowanie zdjęć użytkowników iPhone'a materiałów dotyczących wykorzystywania seksualnego dzieci (CSAM) spotkał się z niepokojem ze strony obrońców prywatności i rywali. Teraz firma stara się uspokoić użytkowników w nowym Pytania i odpowiedzi zamieszczone na swojej stronie internetowej.
Narzędzie, które ma za zadanie zapobiegać rozprzestrzenianiu się materiałów CSAM i wyłapywać osoby będące w ich posiadaniu, skanuje zdjęcie na urządzeniu i daje mu certyfikat bezpieczeństwa przed przesłaniem do iCloud. Na razie Apple będzie realizować plany tylko w Stanach Zjednoczonych.
Krytycy, jak Szef WhatsApp Will Cathcart twierdzi, że system jest zasadniczo narzędziem nadzoru zbudowanym przez Apple i może być wykorzystywany przez rządy do szpiegowania obywateli, jeśli zostaną ujawnione słabości.
Jednak Apple powtórzyło dziś swoje poprzednio przyjęte stanowisko, że „odrzuci wszelkie takie żądania”, aby rządy dodały do listy skrótów wszelkie obrazy spoza CSAM.
„Możliwość wykrywania CSAM firmy Apple została zbudowana wyłącznie w celu wykrywania znanych obrazów CSAM przechowywanych w Zdjęciach iCloud, które zostały zidentyfikowane przez ekspertów z NCMEC i innych grup zajmujących się bezpieczeństwem dzieci”, pisze firma. „Spotykaliśmy się wcześniej z żądaniami stworzenia i wdrożenia wprowadzonych przez rząd zmian, które degradują prywatność użytkowników, i stanowczo odrzucaliśmy te żądania. W przyszłości nadal będziemy je odrzucać.
„Bądźmy szczerzy, ta technologia ogranicza się do wykrywania CSAM przechowywanego w iCloud i nie przychylimy się do prośby żadnego rządu o jej rozszerzenie. Ponadto Apple przeprowadza ocenę ludzką przed złożeniem raportu do NCMEC. W przypadku, gdy system oznaczy zdjęcia, które nie pasują do znanych obrazów CSAM, konto nie zostanie wyłączone, a do NCMEC nie zostanie złożony żaden raport”.
Najlepszy iPhone 2021: Wszystkie najnowsze telefony Apple w rankingu (w tym wszystkie modele iPhone'a 12)
iOS 15: Wszystkie najlepsze nowe funkcje w iPhone’ie
Najlepszy VPN 2021: 7 najlepszych opcji VPN dla bezpieczeństwa i przesyłania strumieniowego
Apple twierdzi również, że zajmuje się innymi elementami nowych narzędzi bezpieczeństwa dzieci, w tym aplikacją Wiadomości, która będzie szybko wykryj, czy dzieci otrzymują lub wysyłają nieodpowiednie obrazy, z zabezpieczeniami ostrzegającymi rodzice. Dzieci będą miały wybór, czy chcą wysłać, czy rozmyć daną wiadomość, ale jeśli pójdą dalej, rodzice zostaną powiadomieni. Apple zapewnia użytkowników, że nie ma to wpływu na kompleksowe szyfrowanie w Wiadomościach.
Firma dodaje: „Nie zmienia to gwarancji prywatności Messages, a Apple nigdy nie uzyskuje dostępu do komunikacji w wyniku tej funkcji. Każdy użytkownik Wiadomości, w tym osoby z włączonym bezpieczeństwem komunikacji, zachowuje kontrolę nad tym, co jest wysyłane i do kogo. Jeśli ta funkcja jest włączona dla konta dziecka, urządzenie oceni obrazy w Wiadomościach i zaproponuje interwencję, jeśli obraz zostanie uznany za jednoznacznie seksualny. W przypadku kont dzieci w wieku 12 lat i młodszych rodzice mogą skonfigurować powiadomienia rodzicielskie, które będą wysłane, jeśli dziecko potwierdzi i wyśle lub wyświetli zdjęcie, które zostało uznane za seksualne wyraźny. Żadna komunikacja, ocena obrazu, interwencje ani powiadomienia nie są dostępne dla Apple”.
Co sądzisz o nowej funkcji bezpieczeństwa dzieci firmy Apple? Rozsądny ruch? A może zbyt wiele szkód ubocznych wyrządzono prywatności niewinnych użytkowników? Daj nam znać @trustedreviews na Twitterze.
Dlaczego ufać naszemu dziennikarstwu?
Założona w 2004 roku firma Trusted Reviews istnieje, aby zapewnić naszym czytelnikom dokładne, bezstronne i niezależne porady dotyczące tego, co kupić.
Dziś mamy 9 milionów użytkowników miesięcznie na całym świecie i oceniamy ponad 1000 produktów rocznie.