Apple fokuserar på barnen i höst
Apple har presenterat kommande nyheter inom barnsäkerhet som kommer komma i höst. Med bland annat funktioner till iMessage och iCloud.
En trio av nya funktioner som de lanserar för att ge nytt skydd för barn till iPhone, iPad och Mac. Detta inkluderar nya kommunikationssäkerhetsfunktioner i Meddelanden, förbättrad upptäckt av CSAM-innehåll (Child Sexual Abuse Material) i iCloud och helt nya kunskaper för Siri och Sök.
Meddelanden

Den första nyheten är nya kommunikationssäkerhetsfunktionen i appen Meddelanden. Apple förklarar att när ett barn som är i en iCloud-familj tar emot eller försöker skicka foton med sexuellt innehåll, kommer barnet att se ett varningsmeddelande.
Apple förklarar att när ett barn får en bild med sexuellt innehåll blir bilden suddig och meddelanden-appen visar en varning som säger att bilden kan vara känslig. Om barnet trycker på ”Visa foto” ser hen ett popup-meddelande som informerar dem om varför bilden anses vara känslig.
Popup-fönstret förklarar att om barnet bestämmer sig för att se bilden, får deras förälder i iCloud-familjen ett meddelande ”för att se till att du är okej.” Popup-fönstret innehåller också en snabblänk för att få ytterligare hjälp.
Dessutom, om ett barn försöker skicka en bild med sexuellt innehåll, kommer de att se en liknande varning. Apple säger att barnet kommer att varnas innan fotot skickas och föräldrarna kan få ett meddelande om barnet väljer att skicka det. Detta är för barn under 13 år.
Apple förklarar vidare att Meddelanden använder maskininlärning på enheten för att analysera bildbilagor och bestämma om ett foto innehåller sexuellt innehåll. iMessage förblir krypterad och Apple får inte åtkomst till något av meddelandena.
Apple säger att den här funktionen kommer ”senare i år till konton som skapats som familjer i iCloud” i uppdateringar till iOS 15, iPadOS 15 och macOS Monterey. Funktionen kommer att finnas tillgänglig i USA till att börja med. Något vi såklart tycker är tråkigt, vi slår ett slag för lansering i Europa.
CSAM-detektering

För det andra, och kanske framför allt, tillkännager Apple nya steg för att bekämpa spridningen av material för sexuellt övergrepp mot barn, eller CSAM som är en förkortning av Child Sexual Abuse Material. Apple förklarar att CSAM hänvisar till innehåll som visar sexuellt uttalade aktiviteter som involverar ett barn.
Denna funktion, gör att Apple kan upptäcka kända CSAM-bilder när de lagras i iCloud foton. Apple kan sedan rapportera förekomster av CSAM till National Center for Missing and Exploited Children, en enhet som fungerar som en omfattande rapporteringsbyrå för CSAM och har ett nära samarbete med brottsbekämpning, detta i USA.
Apple understryker upprepade gånger att deras metod för att upptäcka CSAM är utformad med användarnas integritet i åtanke. Apple analyserar bilderna på din enhet för att se om det finns matchningar mot en databas med kända CSAM-bilder från National Center for Missing and Exploited Children. All matchning sker på enheten, med Apple omvandlar databasen från National Center for Missing and Exploited Children till en ”oläslig uppsättning hascher som lagras säkert på användarnas enheter.”
Apple förklarar det så här:
Innan en bild lagras i iCloud Bilder utförs en matchningsprocess på enheten för den bilden mot den oläsliga uppsättningen kända CSAM-hashningar. Denna matchningsprocess drivs av en kryptografisk teknik som kallas privat uppsättningskorsning, som avgör om det finns en matchning utan att avslöja resultatet. Private Set Intersection (PSI) gör att Apple kan lära sig om en bildhash matchar de kända CSAM-bildhashen, utan att lära sig något om bildhashar som inte matchar. PSI hindrar också användaren från att lära sig om det fanns en matchning.
Om det finns en matchning på enheten skapar enheten sedan en kryptografisk säkerhetsbevis som kodar matchresultatet. En teknik som kallas ”tröskelhemlig delning” används sedan. Detta säkerställer att innehållet inte kan tolkas av Apple om inte iCloud Bilder-kontot passerar en tröskel för känt CSAM-innehåll.
”Om till exempel en hemlighet delas upp i 1 000 aktier och tröskeln är 10, kan hemligheten rekonstrueras från alla 10 av de 1 000 aktierna. Men om bara nio aktier är tillgängliga, avslöjas ingenting om hemligheten,” säger Apple.
Apple avslöjar inte den specifika tröskel den kommer att använda – det vill säga antalet CSAM-matchningar som krävs innan det kan tolka innehållet i säkerhetsbeviserna. När tröskeln nås kommer Apple dock att granska rapporten manuellt för att bekräfta matchningen, sedan inaktivera användarens konto och skicka en rapport till National Center for Missing and Exploited Children.
Tröskeltekniken är viktig eftersom den betyder att konton inte är felaktigt flaggade. Den manuella granskningen lägger också till ytterligare ett steg för bekräftelse för att förhindra misstag, och användare kommer att kunna överklaga för att få sitt konto återinstallerat. Apple säger att systemet har en låg felprocent på mindre än 1 av 1 biljon konto per år.
Även om allt är gjort på enheten analyserar Apple bara bilder som lagras i iCloud-foton. Bilder som lagras helt lokalt är inte inblandade i denna process. Apple säger att enhetens system är viktigt och mer integritetsskyddande än molnbaserad skanning eftersom det bara rapporterar användare som har CSAM-bilder, i motsats till att skanna allas foton ständigt i molnet.
Siri och Sök

Apple utökar också vägledningen i Siri och Sök genom att tillhandahålla ytterligare resurser för att hjälpa barn och föräldrar att vara säkra online och få hjälp i osäkra situationer. Till exempel kommer användare som frågar Siri hur de kan rapportera CSAM eller barnutnyttjande att pekas på resurser för var och hur de ska lämna in en rapport.
Siri och Sök uppdateras också för att ingripa när användare söker efter frågor relaterade till CSAM. Dessa insatser kommer att förklara för användare att intresset för detta ämne är skadligt och problematiskt.
Uppdateringarna till Siri och Sök kommer senare i år i en uppdatering till iOS 15, iPadOS 15, watchOS 8 och macOS Monterey.