Apple News

Apple publicerar vanliga frågor för att lösa problem om CSAM-detektering och meddelandeskanning

Måndag 9 augusti 2021 02:50 PDT av Tim Hardwick

Apple har publicerat en FAQ med titeln 'Utökat skydd för barn' som syftar till att mildra användarnas integritetsoro för den nya CSAM-detekteringen i iCloud-foton och kommunikationssäkerhet för meddelanden funktioner som företaget meddelade förra veckan .





Apples privatliv
'Sedan vi tillkännagav dessa funktioner har många intressenter inklusive integritetsorganisationer och barnsäkerhetsorganisationer uttryckt sitt stöd för den här nya lösningen, och några har hört av sig med frågor', står det i FAQ. 'Detta dokument tjänar till att ta itu med dessa frågor och ge mer klarhet och transparens i processen.'

Vissa diskussioner har suddat ut skillnaden mellan de två funktionerna, och Apple lägger stor vikt vid dokumentera för att särskilja dem och förklarar att kommunikationssäkerhet i Messages 'bara fungerar på bilder som skickas eller tas emot i Messages-appen för barnkonton som ställts in i Family Sharing', medan CSAM-detektering i ‌iCloud Photos‌ 'påverkar endast användare som har valt att använda ‌iCloud Photos‌ att lagra sina foton... Det har ingen påverkan på andra data på enheten.'



Från FAQ:

hur kommer du till icloud

Dessa två funktioner är inte samma och använder inte samma teknik.

Kommunikationssäkerhet i Messages är utformad för att ge föräldrar och barn ytterligare verktyg för att skydda sina barn från att skicka och ta emot sexuellt explicita bilder i Messages-appen. Det fungerar bara på bilder som skickas eller tas emot i Meddelanden-appen för barnkonton som konfigurerats i Familjedelning. Den analyserar bilderna på enheten och ändrar därför inte meddelandenas integritetsgarantier. När ett barnkonto skickar eller tar emot sexuellt explicita bilder, blir bilden suddig och barnet kommer att varnas, presenteras med användbara resurser och försäkras om att det är okej om de inte vill se eller skicka fotot. Som en extra försiktighetsåtgärd kan små barn också få veta att deras föräldrar kommer att få ett meddelande om de ser det för att se till att de är säkra.

Den andra funktionen, CSAM-detektering i iCloud Photos, är utformad för att hålla CSAM borta från iCloud Photos utan att ge information till Apple om några andra foton än de som matchar kända CSAM-bilder. CSAM-bilder är olagliga att inneha i de flesta länder, inklusive USA. Den här funktionen påverkar bara användare som har valt att använda iCloud Photos för att lagra sina foton. Det påverkar inte användare som inte har valt att använda iCloud Photos. Det har ingen påverkan på andra data på enheten. Den här funktionen gäller inte för meddelanden.

Resten av dokumentet är uppdelat i tre avsnitt (i fet stil nedan), med svar på följande vanliga frågor:

kan du ansluta airpods till mer än en enhet

är en iphone 8 plus vattentät
    Kommunikationssäkerhet i meddelanden
  • Vem kan använda kommunikationssäkerhet i meddelanden?
  • Betyder detta att Messages kommer att dela information med Apple eller brottsbekämpande myndigheter?
  • Bryter detta end-to-end-kryptering i Messages?
  • Förhindrar den här funktionen barn i missbrukshem från att söka hjälp?
  • Kommer föräldrar att meddelas utan att barn varnas och ges ett val?
  • CSAM-detektering
  • Betyder detta att Apple kommer att skanna alla foton som finns lagrade på min iPhone ?
  • Kommer detta att ladda ner CSAM-bilder till min ‌iPhone‌ att jämföra med mina bilder?
  • Varför gör Apple detta nu?
  • Säkerhet för CSAM-detektering för iCloud-foton
  • Kan CSAM-detekteringssystemet i ‌iCloud Photos‌ användas för att upptäcka andra saker än CSAM?
  • Kan regeringar tvinga Apple att lägga till icke-CSAM-bilder till hashlistan?
  • Kan icke-CSAM-bilder 'injiceras' i systemet för att flagga konton för andra saker än CSAM?
  • Kommer CSAM-detektering i ‌iCloud Photos‌ falskeligen flagga oskyldiga människor till brottsbekämpning?

Intresserade läsare bör läsa dokumentet för Apples fullständiga svar på dessa frågor. Det är dock värt att notera att för de frågor som kan besvaras med ett binärt ja/nej, börjar Apple alla med 'Nej' med undantag för följande tre frågor från avsnittet med titeln 'Säkerhet för CSAM-detektion för ‌ iCloud Photos‌:'

Kan CSAM-detekteringssystemet i iCloud Photos användas för att upptäcka andra saker än CSAM?
Vår process är utformad för att förhindra att det händer. CSAM-detektering för iCloud Photos är byggd så att systemet endast fungerar med CSAM-bildhashar som tillhandahålls av NCMEC och andra barnsäkerhetsorganisationer. Den här uppsättningen bildhaschar är baserad på bilder som förvärvats och validerats för att vara CSAM av barnsäkerhetsorganisationer. Det finns ingen automatiserad rapportering till brottsbekämpande myndigheter, och Apple genomför mänsklig granskning innan en rapport görs till NCMEC. Som ett resultat är systemet endast utformat för att rapportera foton som är kända CSAM i iCloud Photos. I de flesta länder, inklusive USA, är det ett brott att bara äga dessa bilder och Apple är skyldigt att rapportera alla fall vi får reda på till lämpliga myndigheter.

Kan regeringar tvinga Apple att lägga till icke-CSAM-bilder till hashlistan?
Apple kommer att avslå alla sådana krav. Apples CSAM-detekteringsförmåga är byggd enbart för att upptäcka kända CSAM-bilder lagrade i iCloud Photos som har identifierats av experter på NCMEC och andra barnsäkerhetsgrupper. Vi har ställts inför krav på att bygga och implementera regeringsbemyndigade förändringar som försämrar användarnas integritet tidigare och har bestämt vägrat dessa krav. Vi kommer att fortsätta att vägra dem i framtiden. Låt oss vara tydliga, den här tekniken är begränsad till att upptäcka CSAM lagrad i iCloud och vi kommer inte att gå med på någon regerings begäran om att utöka den. Dessutom genomför Apple mänsklig granskning innan en rapport görs till NCMEC. I ett fall där systemet flaggar foton som inte matchar kända CSAM-bilder, skulle kontot inte inaktiveras och ingen rapport skulle lämnas till NCMEC.

Kan icke-CSAM-bilder 'injiceras' i systemet för att flagga konton för andra saker än CSAM?
Vår process är utformad för att förhindra att det händer. Uppsättningen bildhashar som används för matchning är från kända, befintliga bilder av CSAM som har förvärvats och validerats av barnsäkerhetsorganisationer. Apple lägger inte till uppsättningen av kända CSAM-bildhashar. Samma uppsättning hash är lagrad i operativsystemet för varje iPhone- och iPad-användare, så riktade attacker mot endast specifika individer är inte möjliga under vår design. Slutligen finns det ingen automatiserad rapportering till brottsbekämpande myndigheter, och Apple genomför mänsklig granskning innan en rapport görs till NCMEC. I det osannolika fallet att systemet flaggar bilder som inte matchar kända CSAM-bilder, kommer kontot inte att inaktiveras och ingen rapport skulle lämnas till NCMEC.

Apple har mött betydande kritik från integritetsförespråkare, säkerhetsforskare, kryptografiexperter, akademiker och andra för sitt beslut att implementera tekniken med lanseringen av iOS 15 och iPad 15 , väntas i september.

Detta har resulterat i en öppet brev kritiserar Apples plan att skanna iPhones efter CSAM i ‌iCloud Photos‌ och explicita bilder i barns meddelanden, som har fått över 5 500 signaturer när de skrivs. Apple har också fått kritik från Facebook-ägda WhatsApp, vars chef Will Cathcart kallade det 'fel inställning och ett bakslag för människors integritet över hela världen.' Epic Games vd Tim Sweeney också attackerade beslutet, som hävdade att han hade 'försökt hårt' för att se flytten från Apples synvinkel, men hade kommit fram till att 'oundvikligen är detta statliga spionprogram installerat av Apple baserat på en presumtion om skuld.'

'Oavsett hur välmenande, Apple rullar ut massövervakning till hela världen med detta,' sa framstående whistleblower Edward Snowden, tillade att 'om de kan söka efter barnporr idag, kan de söka efter vad som helst i morgon.' Den ideella Electronic Frontier Foundation också kritiserats Apples planer, som säger att 'även en grundligt dokumenterad, noggrant genomtänkt och snävt omfattning bakdörr är fortfarande en bakdörr.'

vad är menyraden på mac
Etiketter: Apples integritet , Apples barnsäkerhetsfunktioner