Apple svarar på skrik över kontroversiell fotoskanningspolicy
Apples planerar att skanna iPhone -användares foton material för sexuella övergrepp mot barn (CSAM) har mötts med oro från förespråkare av integritet och rivaler. Nu försöker företaget lugna användare i en ny Frågor och svar lagt ut på sin webbplats.
Verktyget, som är utformat för att förhindra spridning av CSAM-material och fånga ut dem som har det, skannar fotot på enheten och ger det ett säkerhetscertifikat innan det laddas upp till iCloud. Än så länge kommer Apple bara att anta planerna i USA.
Kritiker, liksom WhatsApp -chefen Will Cathcart säger att systemet i huvudsak är ett Apple-byggt övervakningsverktyg och kan användas av regeringar för att spionera på medborgare om svagheter avslöjas.
Apple har dock i dag upprepat sin tidigare hållna hållning att det kommer att "vägra sådana krav" för regeringar att lägga till bilder som inte är CSAM i hashlistan.
"Apples förmåga att upptäcka CSAM är enbart byggd för att upptäcka kända CSAM -bilder lagrade i iCloud -foton som har identifierats av experter på NCMEC och andra barnsäkerhetsgrupper", skriver företaget. ”Vi har ställts inför krav på att bygga och distribuera regeringsmanövrerade förändringar som försämrar användarnas integritet tidigare och har bestämt vägrat dessa krav. Vi kommer att fortsätta att vägra dem i framtiden.
"Låt oss vara tydliga, denna teknik är begränsad till att upptäcka CSAM lagrad i iCloud och vi kommer inte att följa någon regerings begäran om att utöka den. Dessutom gör Apple mänsklig granskning innan den rapporterar till NCMEC. I ett fall där systemet flaggar foton som inte matchar kända CSAM -bilder, skulle kontot inte inaktiveras och ingen rapport skulle skickas till NCMEC. ”
![Bästa iPhone 2021: Alla de senaste Apple -telefonerna rankade (inklusive alla iPhone 12 -modeller)](/f/cfcc10e0b7efbe34abe8af9aeef44906.jpg)
Bästa iPhone 2021: Alla de senaste Apple -telefonerna rankade (inklusive alla iPhone 12 -modeller)
![iOS 15: Alla de bästa nya funktionerna som kommer till iPhone](/f/e99b3e95d6e7010ceab7aa65a36795dc.jpg)
iOS 15: Alla de bästa nya funktionerna som kommer till iPhone
![Bästa VPN 2021: Topp 7 VPN -alternativ för säkerhet och streaming](/f/7ea0a5d9b7ca0a4f00c5a4ff5ea8726f.jpg)
Bästa VPN 2021: Topp 7 VPN -alternativ för säkerhet och streaming
Apple säger också att de adresserar de andra delarna av de nya barnsäkerhetsverktygen, inklusive appen Meddelanden upptäcker snart om barn tar emot eller skickar olämpliga bilder, med skyddsåtgärder för att varna föräldrar. Barn kan välja om de vill skicka eller ta bort meddelandet i fråga, men om de fortsätter kommer föräldrar att meddelas. Apple försäkrar användarna om att detta inte påverkar end-to-end-krypteringen i Messages.
Företaget tillägger: ”Detta ändrar inte sekretessförsäkringarna för meddelanden, och Apple får aldrig tillgång till kommunikation som ett resultat av den här funktionen. Alla användare av meddelanden, inklusive dem med kommunikationssäkerhet aktiverad, behåller kontrollen över vad som skickas och till vem. Om funktionen är aktiverad för barnkontot, kommer enheten att utvärdera bilder i Meddelanden och presentera ett ingrepp om bilden är bestämd att vara sexuellt explicit. För konton för barn 12 år och yngre kan föräldrar skapa föräldrameddelanden skickas om barnet bekräftar och skickar eller ser en bild som har fastställts vara sexuellt explicit. Ingen kommunikation, bildutvärdering, ingrepp eller aviseringar är tillgängliga för Apple. ”
Vad tycker du om Apples nya barnsäkerhetsfunktion? Ett klokt drag? Eller för mycket säkerhetsskada på oskyldiga användares integritet? Låt oss veta @trustedreviews på Twitter.
Varför lita på vår journalistik?
Trusted Reviews grundades 2004 och finns för att ge våra läsare grundliga, opartiska och oberoende råd om vad de ska köpa.
Idag har vi 9 miljoner användare i månaden runt om i världen och bedömer mer än 1 000 produkter om året.