Apple News

Apple beskriver säkerhet och sekretess för CSAM-detektionssystem i nytt dokument

Fredagen den 13 augusti 2021 12:45 PDT av Joe Rossignol

Apple idag delat ett dokument som ger en mer detaljerad översikt över barnsäkerhetsfunktioner som den först tillkännagav förra veckan , inklusive designprinciper, säkerhets- och integritetskrav och överväganden om hotmodeller.





iphones kommunikationssäkerhetsfunktion
Apples plan att upptäcka CSAM-bilder (Child Sexual Abuse Material) lagrade i iCloud Photos har varit särskilt kontroversiell och har föranlett oro från vissa säkerhetsforskare, den icke-vinstdrivande Electronic Frontier Foundation och andra om att systemet potentiellt missbrukas av regeringar som en form av massövervakning.

Dokumentet syftar till att ta itu med dessa problem och upprepar några detaljer som dykt upp tidigare i en intervju med Apples programvaruteknikchef Craig Federighi , inklusive att Apple förväntar sig att sätta en initial matchningströskel på 30 kända CSAM-bilder innan ett iCloud-konto flaggas för manuell granskning av företaget.



Apple sa också att enhetens databas med kända CSAM-bilder endast innehåller poster som har skickats in oberoende av två eller flera barnsäkerhetsorganisationer som verkar i separata suveräna jurisdiktioner och inte under kontroll av samma regering.

Systemet är utformat så att en användare inte behöver lita på Apple, någon annan enskild enhet eller ens någon uppsättning möjligen samverkande enheter från samma suveräna jurisdiktion (det vill säga under kontroll av samma regering) för att vara säker på att systemet fungerar som annonserat. Detta uppnås genom flera förreglingsmekanismer, inklusive den inneboende granskningsbarheten av en enda programvarubild som distribueras över hela världen för exekvering på enheten, ett krav på att alla perceptuella bildhaschar som ingår i den på enhetens krypterade CSAM-databasen tillhandahålls oberoende av två eller flera barnsäkerheter organisationer från separata suveräna jurisdiktioner, och slutligen en mänsklig granskningsprocess för att förhindra felaktiga rapporter.

Apple tillade att de kommer att publicera ett supportdokument på sin webbplats som innehåller en rothash av den krypterade CSAM-hashdatabasen som ingår i varje version av varje Apple-operativsystem som stöder funktionen. Dessutom sa Apple att användare kommer att kunna inspektera rothashen för den krypterade databasen som finns på deras enhet och jämföra den med den förväntade rothashen i supportdokumentet. Ingen tidsram angavs för detta.

I ett memo som erhållits genom Bloomberg är Mark Gurman , sa Apple att det också kommer att låta en oberoende revisor granska systemet. I PM noterades att Apples återförsäljare kan få frågor från kunder om barnsäkerhetsfunktionerna och länkade till en FAQ som Apple delade tidigare i veckan som en resurs som medarbetarna kan använda för att ta itu med frågorna och ge kunderna mer tydlighet och transparens.

Apple sa initialt att de nya barnsäkerhetsfunktionerna skulle komma till iPhone, iPad och Mac med programuppdateringar senare i år, och företaget sa att funktionerna skulle vara tillgängliga i USA först vid lanseringen. Trots kritiken sa Apple idag att de inte har gjort några ändringar i denna tidsram för att rulla ut funktionerna till användarna.