Apple News

Apple introducerar nya barnsäkerhetsfunktioner, inklusive genomsökning av användarnas fotobibliotek efter känt material för sexuella övergrepp

Torsdag 5 augusti 2021 13:00 PDT av Joe Rossignol

Apple idag förhandsgranskad nya barnsäkerhetsfunktioner som kommer till sina plattformar med mjukvaruuppdateringar senare i år. Företaget sa att funktionerna kommer att vara tillgängliga i USA först vid lanseringen och kommer att utökas till andra regioner med tiden.





iphones kommunikationssäkerhetsfunktion

Kommunikationssäkerhet

För det första kommer Messages-appen på iPhone, iPad och Mac att få en ny kommunikationssäkerhetsfunktion för att varna barn och deras föräldrar när de tar emot eller skickar sexuellt explicita bilder. Apple sa att Messages-appen kommer att använda maskininlärning på enheten för att analysera bildbilagor, och om ett foto bedöms vara sexuellt explicit kommer fotot automatiskt att suddas ut och barnet kommer att varnas.



kan du dela airpods mellan 2 enheter

När ett barn försöker se ett foto som flaggats som känsligt i Messages-appen, varnas de om att bilden kan innehålla privata kroppsdelar och att bilden kan vara sårande. Beroende på barnets ålder kommer det också att finnas en möjlighet för föräldrar att få ett meddelande om deras barn fortsätter att titta på det känsliga fotot eller om de väljer att skicka ett sexuellt explicit foto till en annan kontakt efter att ha blivit varnad.

Apple sa att den nya kommunikationssäkerhetsfunktionen kommer att komma i uppdateringar till iOS 15, iPadOS 15 och macOS Monterey senare i år för konton som är inställda som familjer i iCloud. Apple såg till att iMessage-konversationer förblir skyddade med end-to-end-kryptering, vilket gör privat kommunikation oläslig för Apple.

Skanna foton efter material för sexuellt övergrepp mot barn (CSAM)

För det andra, från och med i år med iOS 15 och iPadOS 15, kommer Apple att kunna upptäcka CSAM-bilder (Child Sexual Abuse Material) lagrade i iCloud Photos, vilket gör det möjligt för Apple att rapportera dessa fall till National Center for Missing and Exploited Children (NCMEC) , en ideell organisation som arbetar i samarbete med amerikanska brottsbekämpande myndigheter.

Apple sa att dess metod för att upptäcka känd CSAM är utformad med användarens integritet i åtanke. Istället för att skanna bilder i molnet sa Apple att systemet kommer att utföra matchning på enheten mot en databas med kända CSAM-bildhaschar från NCMEC och andra barnsäkerhetsorganisationer. Apple sa att det kommer att ytterligare förvandla denna databas till en oläslig uppsättning hash som är säkert lagrad på användarnas enheter.

Hashingtekniken, kallad NeuralHash, analyserar en bild och konverterar den till ett unikt nummer som är specifikt för den bilden, enligt Apple.

'Huvudsyftet med hashen är att säkerställa att identiska och visuellt likartade bilder resulterar i samma hash, medan bilder som skiljer sig från varandra resulterar i olika hash,' sa Apple i en ny vitbok om 'Utökat skydd för barn'. 'Till exempel, en bild som har beskurits något, storleksändrats eller konverterats från färg till svartvitt behandlas identiskt med originalet och har samma hash.'

apple csam flödesschema
Innan en bild lagras i iCloud Photos sa Apple att en matchningsprocess på enheten utförs för den bilden mot den oläsbara uppsättningen kända CSAM-hashar. Om det finns en matchning skapar enheten en kryptografisk säkerhetskupong. Den här kupongen laddas upp till iCloud Photos tillsammans med bilden, och när en okänd tröskel för matchningar har överskridits kan Apple tolka innehållet i kupongerna för CSAM-matchningar. Apple granskar sedan varje rapport manuellt för att bekräfta att det finns en matchning, inaktiverar användarens iCloud-konto och skickar en rapport till NCMEC. Apple delar inte med sig av vad dess exakta tröskel är, men säkerställer en 'extremt hög nivå av noggrannhet' att konton inte är felaktigt flaggade.

Apple sa att dess metod för att upptäcka känd CSAM ger 'betydande integritetsfördelar' jämfört med befintliga tekniker:

• Det här systemet är ett effektivt sätt att identifiera kända CSAM lagrade i iCloud Photos-konton samtidigt som användarnas integritet skyddas.
• Som en del av processen kan användare inte heller lära sig något om uppsättningen av kända CSAM-bilder som används för matchning. Detta skyddar innehållet i databasen från skadlig användning.
• Systemet är mycket exakt, med en extremt låg felfrekvens på mindre än en på en biljon konto per år.
• Systemet är betydligt mer integritetsbevarande än molnbaserad skanning, eftersom det bara rapporterar användare som har en samling kända CSAM lagrade i iCloud Photos.

Den underliggande tekniken bakom Apples system är ganska komplex och den har publicerat en teknisk sammanfattning med mer detaljer.

'Apples utökade skydd för barn förändrar spelet. Med så många människor som använder Apple-produkter har dessa nya säkerhetsåtgärder livräddningspotential för barn som lockas online och vars fruktansvärda bilder cirkuleras i material för sexuella övergrepp mot barn, säger John Clark, vd och vd för National Center for Missing. & Exploaterade barn. 'På National Center for Missing & Exploited Children vet vi att detta brott endast kan bekämpas om vi är orubbliga i vårt engagemang för att skydda barn. Vi kan bara göra detta för att teknikpartners, som Apple, går upp och gör sitt engagemang känt. Verkligheten är att integritet och barnskydd kan samexistera. Vi applåderar Apple och ser fram emot att arbeta tillsammans för att göra denna värld till en säkrare plats för barn.'

Utökad CSAM-vägledning i Siri och sökning

iphone csam siri
För det tredje sa Apple att det kommer att utöka vägledningen i Siri och Spotlight Search över enheter genom att tillhandahålla ytterligare resurser för att hjälpa barn och föräldrar att hålla sig säkra online och få hjälp med osäkra situationer. Användare som till exempel frågar Siri hur de kan rapportera CSAM eller utnyttjande av barn kommer att hänvisas till resurser för var och hur man gör en anmälan.

Uppdateringarna till Siri och Search kommer senare i år i en uppdatering till iOS 15, iPadOS 15, watchOS 8 och macOS Monterey, enligt Apple.

Obs: På grund av diskussionens politiska eller sociala karaktär om detta ämne, finns diskussionstråden i vår Politiska nyheter forum. Alla forummedlemmar och webbplatsbesökare är välkomna att läsa och följa tråden, men inlägg är begränsat till forummedlemmar med minst 100 inlägg.

Etiketter: Apples integritet , Apples barnsäkerhetsfunktioner