av Mikael Winterkvist | aug 24, 2021 | Krönikor, Övervakning

CSAM är barnporr. Det är dokumenterade övergrepp mot barn, minderåriga, och det är sådant material som Apple har sökt efter i mail via iCloud sedan 2019 och som Apple nu kommer att söka efter i bilder som ska lagras i Apples molntjänst iCloud (i USA).
I diskussionen så har olika tekniska termer använts vilket gör att det är lagt att förlora fokus på vad saken egentligen gäller – övergrepp riktade mot barn, sexuella övergrepp. Child Sexual Abuse Material (CSAM) är digitala fingeravtryck för bilder som föreställer, dokumenterar, övergrepp – barnporr.
Tekniken gör det möjligt att scanna en bild utan att behöva analysera innehållet, vad bilden föreställer, för att kunna avgöra att det är en bild som kan misstänkas för att vara barnporr. Apple har meddelat att scanning efter CSAM kommer att göras i USA med start efter det att de nya versionerna av Apples operativsystem lanseras senare i höst.
Mail
Nu kommer uppgifter om att Apple redan använder tekniken och har gjort det sedan 2019. Folk går i taket, debattens vågor går höga och Apples kritiker antyder att Apple mörkat detta och fört användarna bakom ljuset. Apple har tydligt och klart förklarat vad som gäller för iCloud och tjänsten i sina användarregler. Problemet är det klassiska – vi användare läser sällan eller aldrig innantill, vi skummar på sin höjd regelverket, scrollar snabbt förbi – utan att läsa det Apple vill berätta och förklara.
Apple uses image matching technology to help find and report child exploitation. Much like spam filters in email, our systems use electronic signatures to find suspected child exploitation. We validate each match with individual review. Accounts with child exploitation content violate our terms and conditions of service, and any accounts we find with this material will be disabled.
Det är vad Apple skrev på en tidigare version av sina användarregler och det finns mycket snarlika villkor idag med den skillnaden att nu finns scanning av bilder som ska lagras i iCloud med. Apple
Alla andra
Facebook, Microsoft, Twitter, Google och en rad andra aktörer ute på nätet scannar redan med liknande tekniska lösningar och har gjort så i flera år men det finns en viktig skillnad mellan Apples metod och de övrigas – den första delen av scanningen görs lokalt, när en bild läggs i kön för att laddas upp till Apples iCloud. Det har lett till anklagelser om att det handlar om en bakdörr. Apple försvarar valet av lösning med att ingen data överförs till Apple – om det inte hittas något misstänkt. Användaren kontrollerar då fortfarande sin information.
Bakdörr
Kritiker har kallat funktionen, lösningen för en bakdörr och nu kommer också uppgifter att två utvecklare som byggt en liknande lösning valde att överge den därför att de ansåg att det var för uppenbart att den skulle kunna missbrukas exempelvis av en diktator och diktatur. Apple har svarat på den kritiken och sagt att det finns säkerhetsfunktioner inbyggda i funktionen som gör att om någon försöker använda den för att scanna efter något annat än CSAM så kommer det att snabbt avslöjas. Apple har också deklarerat att de inte kommer att tillåta att funktionen, scanningen används till något annat än CSAM.
I sammanhanget så är det ju inte helt oviktigt att notera att den kritik som riktas mot Apple inte riktas mot Google, Facebook, Twitter eller Microsoft. Hur deras tekniska lösning ser ut vet vi mycket lite om men det ska också sägas – det framgår av deras användarvillkor att bilder scannas. Ingen mörkar, eller ens försöker att mörka. Det är bara vi användare som är urusla på att läsa innantill.
Pest eller kolera
Jag har fått frågan om hur jag ser på Apples besked om CSAM (inte för att mina åsikter är mer värda än någon annan men då) – jag gillar inte att scanningen görs lokalt även om jag förstår att Apple valt mellan en lösning där scanning och resultat ligger i händerna på Apple eller en lösning där användaren fortfarande har kontroll över sin information. Jag tycker också att Apples funktion landar mycket nära en bakdörr men jag har samtidigt ingen bättre lösning som tar hänsyn både till den enskildes integritet och det faktum att barnporr är olagligt att inneha i de flesta länder. Jag hade önskat att vi sluppit att ens föra diskussionen, att det fanns andra metoder, samtidigt som jag är övertygad om att Apples beslut inte varit något lätt beslut.
Däremot har jag inte ändrats uppfattning – detta är ett nödvändigt ont för att få stopp på rovdjuren därute, pedofilerna.
av Mikael Winterkvist | aug 20, 2021 | Övervakning

Ryssland kräver att Apple ska plocka bort Alexei Navalnys, oppositionspolitiker, app från App Store. Samma krav har ställts till Gooogle.
Alexei Navalny har en egen app med information, nyheter och Putinregimen har blockerat ett 50-tal webbplatser och även en del andra appar och program som kan kopplas till den ryska oppositionen. Nu kommer krav riktade till Apple och Google att appen ska plockas bort ur den ryska delen av App Store.
Roskomnadzor (RKN) requires Apple and Google to remove the application ”Navalny” from their services App Store and Google Play, as it is used to promote the activities of organizations recognized as extremist and banned in the Russian Federation.
Interfax
av Mikael Winterkvist | aug 20, 2021 | Övervakning
The Verge har kommit över intern information, inifrån Apple, som bekräftar att Apple har haft information om att iCloud används för att distribuera barnporr.
Redan när Apple gick ut med informationen om att CSAM skulle implementeras så skrev jag att det var sannolikt så att Apple har fått indikationer, tydliga sådana om att iCloud används för att distribuera barnporr.
Det kan vara så att Apple själva har fått indikationer på hur stort och omfattande problemet med spridning av bilder och videor är. Glöm inte heller bort att Apple upprepade gånger deklarerat att en del i Apples grundläggande värderingar är att Apples tjänster ska vara vara säkra för barn. Det går att kritisera Apple för alldeles för rigida regler runt App Store för att ta ett exempel men Apple vill ha det så för att alla föräldrar ska veta att Apple försöker skapa och upprätthålla en säker miljö ur flera aspekter runt App Store.
Siffrorna som skaver när det gäller Apples scanning av bilder
Omfattande
Enligt Apple så är distributionen omfattande.
”The spotlight at Facebook etc is all on trust and safety (fake accounts, etc). In privacy they suck. Our priorities are the inverse. Which is why we are the greatest platform for distributing child porn, etc.”
Orden är Eric Friedmans, chef inom Apple, och orden kommer från ett mail som skickats inom Apple och som ingår i alla de mail som begärts ut och som lagrats hos domstolen i målet och tvisten mellan Apple och Epic Games.
Logisk – vad skulle kunna få Apple att utveckla en implementera CSAM – fullt medvetna om den debatt som beslutet skulle medföra. Apple har hela tiden insett att det skulle bli diskussion om beslutet att införa CSAM. I en vågskålen den debatten och i den andra indikationer på att iCloud används för att distribuera stora mängder barnporr.
Av två onda saker så valde Apple det mindre onda.
av Mikael Winterkvist | aug 17, 2021 | Övervakning

Google scannar uppladdade bilder, på sina servrar, i sina system – ute på nätet. Facebook scannar också uppladdade bilder, på sina system, sina servrar ute på nätet, liksom Twitter, Microsoft och många andra. Allt sker ute i molnen där också resultaten lagras och samlas in. Apples lösning skiljer sig på en viktig punkt – scanningen görs, i det första steget lokalt.
För tydlighetens skulle ska sägas:
- Det är inte bilderna i sig som scannas. Det görs ingen analys av det bilderna föreställer.
- Bilderna scannas efter ett digitalt fingeravtryck som stämmer överens med CSAM, Child Sexual Abuse Material
- CSAM är en databas med digitala fingeravtryck från kända, olagliga bilder – barnporr
- Alla bilder scannas inte lokalt i din iPhone eller iPad
- Det är enbart bilder som ska laddas upp till iCloud som scannas
- Funktionen införs i USA, och bara i USA, senare i höst då iOS 15 lanseras.
Praktisk så spelar det sista säkerligen liten eller ingen roll då de flesta av Apples användare också använder iCloud. I sammanhanget är det också viktigt att klargöra att iCloud är Apples molntjänst, Apples servrar och Apples lagring vilket innebär att Apple har ett ansvar för att se till att deras system inte används för att lagra material som det är olagligt att inneha. Något som det finns lagkrav på i vissa delstater i USA och det finns lagförslag som går i den riktningen att det kan komma att bli ett lagkrav i hela USA och även i andra länder. Även EU diskuterar om lagförslag och nya regler som går i samma håll.
Lokalt
Apple har valt att göra den första delen av scanningen, lokalt, i din iPhone. Vilket generellt är en dålig lösning och det finns mer än en som anser att Apple nu implementerat en bakdörr i iOS. När det gäller bakdörrar så är regeln enkel – gör det absolut inte. Apples försvar för att göra den första delen av scanningen är att om den scanningen inte ger någon träff så finns inga resultat, inga data som visar att något har scannats hos Apple. Allt är som tidigare – dina bilder laddas upp, Apple har inga data, ingen hos Apple vet eller kan se att något har hänt.
Här finns en viktig skillnad mot många andra aktörer. De scannar alla bilder, lagrar resultaten hos sig vilket i sig kan utgöra en säkerhetsrisk. Det är därför Apple har valt den här lösningen. Inga data ska finnas hos Apple som inte ska vara med i ekvationen om inte många bilder visar sig matcha fingeravtryck hos CSAM. Då lagras data i det som kallas för Safety Vouchers vilket betyder att informationen krypteras och skyddas och den kan inte kommas åt mer än av Apples personal.
Antaganden
Det ska sägas för nyansens och balansen skull att mycket av de beskrivningar som finns kommer från Apple och de bygger på en rad antaganden – så som att krypteringen inte ska kunna knäckas, att Apple inte drabbas intrång med datastöld som följd. Det är beskrivningar som i mångt och mycket litar på lösningen och de skydd som finns runt den. Det ska också sägas att så beskriver Google, Facebook, Twitter, Microsoft med flera också sina lösningar – de anses vara säkra, skyddade och pålitliga.
För en utomstående är det svårt, för att inte säga mycket svårt att uttolka vad som är vad så i slutändan så handlar det om att göra en bedömning om vem eller vilka du litar på.
Apple gör den första delen av scanningen, lokalt – vilket är huvudanledningen till den hårda kritik som Apple har fått. Scanningen görs i din iPhone om bilderna ska laddas upp till iCloud.
Det är det debatten handlar om – Apple ger sig tillgång till din enhet.
av Mikael Winterkvist | aug 15, 2021 | Övervakning

Lina Khan är 32 år gammal, har en juridikexamen, är professor i juridik och chef för den amerikanska myndigheten FTC, Federal Trade Commission. Hon kan också bli de stora amerikanska tech-bolagens värsta mardröm och i en intervju med brittiska the Guardian så säger Khan att bolagen har skäl till att vara oroliga.
Lina Khan är inte bara ovanlig som kvinna på en så hög post – hon är också den yngsta kvinnan som innehaft posten som chef för FTC. Redan innan hon utsågs så har hon gjort sig ett namn som hård kritiker av de stora bolagen, Amazon, Google, Microsoft, Apple, Facebook med flera. Lina Khan har skrivit flera akademiska avhandlingar som riktar hård kritik mot de hör bolagens dominans på marknaden och Khan anser att deras inflytande är direkt skadligt för konsumenter – i det här fallet amerikanska konsumenter.
Monopolföretag
Hennes utnämning fick Facebook och Amazon att reagera direkt och ställa krav om att Lina Khan inte ska få delta i beslut som rör konkurrensfrågor. De anser att Khan är diskvalificerad därför att det är känt vad hon tycker. Lina Khan skrev en artikel i Yale Law Journal 2017, som blev mycket uppmärksammad, med innebörden att de amerikanska lagarna som ska skydda konsumenternas intressen och som ska förebygga att det skapas stora, dominerande monopolföretag inte fungerar. Hela lagstiftningen måste reformeras och skrivas om, skrev Khan.
I texten så räknar Lina Khan upp en rad saker som hon anser är brister i den nuvarande lagstiftningen:
- Uppköp av konkurrenter – Facebook och Amazon har köpt upp andra företag för att behålla kontrollen över marknaden
- Verksamheter som drivs med förlust – både Facebook, Google och Amazon har anklagats för att sälja produkter och tjänster med förlust för att slå undan benen på konkurrenter.
- Kontroll och monopol – Apple och Google kontrollerar sina mobila plattformar
- Bolagen är ett hot mot konsumenter genom sin blotta storlek – Apple värderas till över 2 biljoner, Microsoft till 1.6 biljoner och de övriga företagen till över en biljon, dollar.
Detta utmynnade i en lång rapport på 451 sidor 2019 i Lina Khans roll som rådgivare till kongressen juridiska utskott där Google och Amazon pekas ut för att med olika metoder slå ut alla konkurrenter och stärka sitt grepp om marknaden.
Politikerna
Hennes utnämning som chef för FTC har hyllats av demokraterna Elisabeth Warren och Amy Klobuchar och mottagits med försiktig optimism även bland republikaner – även om det finns kritiker bland republikanska politiker. Det finns ett politiskt klimat där konsumentgrupper, enskilda användare och små och medelstora företag förenas i sin kritik av de stora amerikanska techjättarna. Ett politisk klimat som påverkar även republikaner. Dessutom så finns det en rad enskilda händelser som fått alltmer uppmärksamhet i amerikanska medier. Frågan finns högt uppe på agendan och när Lina Khan hördes av kongressen innan hon utsågs så räknade hon upp uppköp gjorda av Facebook – Instagram, Giphy och WhatsApp – som gjorts för att stoppa konkurrens. Lina Khan menar att köpen gjorts, av Facebook, för att snabbt och enkelt bli av med en konkurrent.
FTC har också enhälligt röstat igenom konsumenternas rätt att få sina prylar reparerade, ”The Right to Repair” vilket bland andra Apple motsatt sig.
En 32-åring juridikprofessor kan bli techbolagens värsta mardröm och hon säger att bolagen har skäl till att vara oroliga.
The Guardian
av Mikael Winterkvist | aug 13, 2021 | Övervakning

Apples beslut att inför en scanning av bilder för att sedan jämföra dem med digital fingeravtryck, CSAM, har lett till en intern debatt, inom Apple, där anställda uttrycker oro för beslutet.
I en intern kanal på Slack så har debatten lett till över 800 meddelanden där anställda protesterat mot att CSAM ska implementeras i samband med lanseringen av de nya versionerna av Apple operativsystem senare i höst. Farhågorna inom Apple är i stort desamma som den hårda kritik Apple har fått från bland andra Electronical Frontier Foundation, EFF, och en rad andra. Det befaras att tekniken som används för att scanna de bilderna och för att göra matchningen mot CSAM också kan användas för att söka efter annan information och att tekniken skulle kunna missbrukas av repressiva regimer, exempelvis.
Förtroendet
Internt finns också en oro för att Apple nu förstör sitt rykte som ett företag som står upp för den en skildes integritet, skydd av användarnas information och att Apple urholkar värdet av sitt varumärke och det förtroende som byggts under många år. Et annat argument som också läggs fram av Apples egna anställda att Apple nu visar att det går att scanna och kontrollera information – lokalt, i användarens enhet.
Apple har hela tiden sagt att de kommer att vägra att använda funktionen för annat ändamål än CSAM och i uttalanden och i olika dokument så har Apple förklarat att funktionen har byggts på sådant sätt att det inte heller ska vara tekniskt möjligt – vilket inte lugnat de egna anställda.
Police and other agencies will cite recent laws requiring ”technical assistance” in investigating crimes, including in the United Kingdom and Australia, to press Apple to expand this new capability, the EFF said.
”The infrastructure needed to roll out Apple’s proposed changes makes it harder to say that additional surveillance is not technically feasible,” wrote EFF General Counsel Kurt Opsahl.
Reuters