Craig Federighi, chef och ansvarig för Apples mjukvaror, har intervjuats av Wall Street Journals Joanna Stern.
I vanliga fall ligger merparten av allt det affärstidningen publicerar bakom en betalväg men den här intervjun är en video, en filmad intervju och den kan alla se.
CSAM
Craig Federighi förklarar att Apple inte kontrollerar alla bilder – bara bilder som kan matchas mot CSAM – Child Sex Abuse Material, CSAM. De bilder som ska laddas upp till Apples moln, iCloud, scannas och körs mot CSAM. Hittas bilder som matchar CSAM, så innebär det att det kan röra sig om olaglig barnporr. Craig Federighi förklarar vidare att det finns en gräns för hur många matchningar som ska göras innan processen går vidare med att bilderna flaggas och personal från Apple tillkallas. Apples personal granskar bara de bilder som flaggats och där bildernas innehåll matchar de digitala fingeravtryck som finns i CSAM.
- Bilderna scanna bara när de ska laddas upp till iCloud
- Alla bilder granskas inte av Apples personal, bara de bilder som kan matchas mot CSAM
Lokalt
Anledningen till att scanningens första del görs lokalt, i din enhet, är att om det inte kan göras någon matchning så ska all information lagras hos dg lokalt, inte hos Apple. Det betyder att såvida du inte sitter och försöker att ladda upp 20-30 bilder, barnporr, som kan matchas mot CSAM, så händer ingenting. Inga larm utlöses, ingen personal från Apple tittar på dina bilder och även om 20-30 bilder matchas, och personal tillkallas så kommer Apples personal enbart att titta på de aktuella bilderna.
Hanteringen bygger på det som kallas Safety Vouchers – ens kalas digitala kuvert där scannern och resultat mot CSAM lagras, skyddat och krypterat. Ett konto som samlats på ett 30-tal såna ”Safety Vouchers” – där det alltså kan finnas skäl att anta att det lagras olagliga bilder, barnporr. Resultaten skyddas alltså och de plockas inte fram förrän en viss gräns, en viss mängd bilder passerats och då Apple för skalen vidare till myndigheterna, polisen.
Kom nu ihåg att funktionen införes nu i höst, i USA, inledningsvis.
Densamma
Craig Federighi säger också i intervjun att funktionen är densamma, oavsett land, och att Apple kommer att neka alla krav och begäran om att lösningen ska användas för att söka efter annan information. Något som Craig Federighi säger inte kan ske med mindre än att användarna kommer att få veta det. I processen finns tillsyn, i flera steg, vilket gör att om ett annat land sätter press på Apple så kommer funktionen inte att kunna användas för andra ändamål än att leta efter kända barnporrbilder. Craig FederighI protesterar också mot att funktionen beskrivits som en bakdörr. Han menar att andra lösningar som också scannar efter barnporrhärva scannas i molnet och scanningen omfattar alla bilder.
Meddelanden
Det finns ytterligare en funktion som Apple lanserar. En funktion där det slås larm om nakenbilder skickas till en minderårig. Denna funktion kan du slå eller slå av och det är inte en funktion som är automatiskt. Får ett barn en bild, en nakenbild, så visas inte bilden. Under bilden finns en länk som varnar för att bilden kan vara pornografisk. Vill barnet ändå titta på bilden så visas fler varningar och barnets föräldrar kan även få ett meddelande.
Hela denna process görs lokalt, utan att någon information skickas till Apple.


0 kommentarer