Apple News

Craig Federighi erkänner förvirring kring Apples barnsäkerhetsfunktioner och förklarar nya detaljer om skyddsåtgärder

Fredagen den 13 augusti 2021 07:33 PDT av Hartley Charlton

Apples senior vice president för mjukvaruteknik, Craig Federighi, har idag försvarat företagets kontroversiella plan barnsäkerhetsfunktioner i en betydelsefull intervju med Wall Street Journal , som avslöjar ett antal nya detaljer om de skyddsåtgärder som är inbyggda i Apples system för att skanna användarnas fotobibliotek efter material för sexuellt övergrepp mot barn (CSAM).





craig wwdc 2021 sekretess
Federighi medgav att Apple hade hanterat förra veckans meddelande av de två nya funktionerna dåligt, relaterade till att upptäcka explicit innehåll i meddelanden för barn och CSAM-innehåll som lagras i iCloud-foton bibliotek och erkände den utbredda förvirringen kring verktygen:

Det är verkligen uppenbart att många meddelanden rörde sig ganska illa när det gäller hur saker och ting uppfattades. Vi önskar att detta skulle ha kommit fram lite tydligare för alla eftersom vi känner oss väldigt positiva och starka inför det vi gör.



hur får du skärminspelning på iphone

[...]

Så här i efterhand var att introducera dessa två funktioner samtidigt ett recept på denna typ av förvirring. Genom att släppa dem samtidigt kopplade folk ihop dem tekniskt och blev väldigt rädda: vad händer med mina meddelanden? Svaret är...ingenting händer med dina meddelanden.

Kommunikationssäkerhetsfunktionen innebär att om barn skickar eller tar emot explicita bilder via iMessage, kommer de att varnas innan de tittar på den, bilden blir suddig och det kommer att finnas ett alternativ för deras föräldrar att bli varnade. CSAM-skanning, å andra sidan, försöker matcha användarnas foton med hashade bilder av kända CSAM innan de laddas upp till iCloud . Konton som har fått CSAM upptäckt kommer sedan att bli föremål för en manuell granskning av Apple och kan rapporteras till National Center for Missing and Exploited Children (NCMEC).

mac mini m1 vs mac mini i7

De nya funktionerna har blivit föremål för en stor mängd kritik från användare, säkerhetsforskare , den Electronic Frontier Foundation (EFF) och Edward Snowden , Facebooks tidigare säkerhetschef , och även Apple anställda .

Mitt i denna kritik tog Federighi upp ett av de viktigaste områdena av oro och betonade att Apples system kommer att skyddas mot att utnyttjas av regeringar eller andra tredje parter med 'flera nivåer av granskning.'


Federighi avslöjade också ett antal nya detaljer kring systemets skyddsåtgärder, som det faktum att en användare kommer att behöva träffa cirka 30 matchningar för CSAM-innehåll i sin Foton biblioteket innan Apple varnas, varpå det kommer att bekräfta om dessa bilder verkar vara äkta instanser av CSAM.

Om och bara om du möter en tröskel på något i storleksordningen 30 kända barnpornografiska bilder som matchar, först då vet Apple något om ditt konto och vet något om dessa bilder, och vet vid den tidpunkten bara om dessa bilder, inte om någon av dina andra bilder. Det här gör ingen analys för hade du en bild på ditt barn i badkaret? Eller, för den delen, hade du en bild på någon annan sorts pornografi? Detta matchar bokstavligen bara de exakta fingeravtrycken av specifika kända barnpornografiska bilder.

Han påpekade också säkerhetsfördelen med att placera matchningsprocessen på iPhone direkt, snarare än att det inträffar på ‌iCloud‌s servrar.

Eftersom det är på [telefonen] kan säkerhetsforskare ständigt introspektera vad som händer i Apples [telefon]-programvara. Så om några ändringar gjordes som skulle utöka omfattningen av detta på något sätt - på ett sätt som vi hade åtagit oss att inte göra - det finns verifierbarhet, de kan upptäcka att det händer.

På frågan om databasen med bilder som används för att matcha CSAM-innehåll på användarnas enheter kan äventyras genom att ha annat material infogat, till exempel politiskt innehåll i vissa regioner, förklarade Federighi att databasen är konstruerad från kända CSAM-bilder från flera barnsäkerhetsorganisationer, med minst två 'i distinkta jurisdiktioner', för att skydda mot missbruk av systemet.

deltar apple i tax free helgen 2020

Dessa barnskyddsorganisationer, såväl som en oberoende revisor, kommer att kunna verifiera att databasen med bilder endast består av innehåll från dessa enheter, enligt Federighi.

Federighis intervju är bland de största PR-reklamen från Apple hittills efter det blandade offentliga svaret på tillkännagivandet av barnsäkerhetsfunktionerna, men företaget har också upprepade gånger försökt att ta itu med användarnas oro , publicera en FAQ och direkt åtgärda problem i intervjuer med media .

Etiketter: The Wall Street Journal , Craig Federighi , Apples barnsäkerhetsfunktioner