av Mikael Winterkvist | aug 12, 2021 | Övervakning

Erik Neuenschwander hanterar integritetsfrågor inom Apple. Han har titeln Head of Privacy inom Apple. I en längre intervju med Techchunch så har Erik Neuenschwander svarat på frågor om hur Apple kommer att hantera CSAM, den kontroversiella tekniska funktion som införs i USA senare i höst och som kommer att användas för att kontrollera användas bilder som ska lagts i iCloud.
De flesta av de som idag erbjuder en molntjänst, lagring av data ute på nätet använder redan CSAM, Google, Microsoft med flera. Det finns en skillnad dock mellan Apples funktion och överisas – scannern görs lokalt, i din enhet, när bilden läggs i kön för att skickas till iCloud. Apple har publicerat en FAQ med svar och frågor runt CSAM.
Nedan har jag saxat en del frågor och svar ur Techchrunchs intervju
Integritet
Apple har haft som mål att ta tillvara barnens intressen och skydda barn samtidigt som den enskildes integritet inte komprometteras.
So the development of this new CSAM detection technology is the watershed that makes now the time to launch this. And Apple feels that it can do it in a way that it feels comfortable with and that is ‘good’ for your users?
That’s exactly right. We have two co-equal goals here. One is to improve child safety on the platform and the second is to preserve user privacy. And what we’ve been able to do across all three of the features is bring together technologies that let us deliver on both of those goals.

Annan information
En nyckelfråga i sammanhanget är om Apple kan tvingas att använda den tekniska lösningen för att scanna efter annan information än bilder.
One of the bigger queries about this system is that Apple has said that it will just refuse action if it is asked by a government or other agency to compromise by adding things that are not CSAM to the database to check for them on-device. There are some examples where Apple has had to comply with local law at the highest levels if it wants to operate there, China being an example. So how do we trust that Apple is going to hew to this rejection of interference if pressured or asked by a government to compromise the system?
Well first, that is launching only for U.S., iCloud accounts, and so the hypotheticals seem to bring up generic countries or other countries that aren’t the U.S. when they speak in that way, and the therefore it seems to be the case that people agree U.S. law doesn’t offer these kinds of capabilities to our government.
But even in the case where we’re talking about some attempt to change the system, it has a number of protections built in that make it not very useful for trying to identify individuals holding specifically objectionable images. The hash list is built into the operating system, we have one global operating system and don’t have the ability to target updates to individual users and so hash lists will be shared by all users when the system is enabled. And secondly, the system requires the threshold of images to be exceeded so trying to seek out even a single image from a person’s device or set of people’s devices won’t work because the system simply does not provide any knowledge to Apple for single photos stored in our service. And then, thirdly, the system has built into it a stage of manual review where, if an account is flagged with a collection of illegal CSAM material, an Apple team will review that to make sure that it is a correct match of illegal CSAM material prior to making any referral to any external entity. And so the hypothetical requires jumping over a lot of hoops, including having Apple change its internal process to refer material that is not illegal, like known CSAM and that we don’t believe that there’s a basis on which people will be able to make that request in the U.S. And the last point that I would just add is that it does still preserve user choice, if a user does not like this kind of functionality, they can choose not to use iCloud Photos and if iCloud Photos is not enabled no part of the system is functional.
Enligt Erik Neuenschwander så finns det inga möjligheter att göra ändringar i den tekniska lösningen så att det går att scanna en viss användare. Funktionen är generell och global, även om den i höst först införs i USA, och bara Fårö de användare som lagrar data i iCloud. Det finns också en gräns för hur många digitala träffar mot CSAM som måste uppnås innan ett konto flaggas som att det kan misstänkas att det innehåller olagligt material, olagliga bilder. Därefter kommer personal från Apple att granska de digitala fingeravtrycken och bilderna för att se om det verkligen handlar om olagliga bilder.
Du kan läsa hela intervjun här.
av Mikael Winterkvist | aug 7, 2021 | Övervakning

Child Sexual Abuse Material (CSAM) är en databas med fingeravtryck (checksummor) på bilder som hittats i samband med polisutredningar och som visar övergrepp mot barn. Vid lanseringen av Apples nya operativsystem nu i höst så införs en scanning av bilder som ska laddas upp till iCloud mot CSAMs databas. Så här fungerar funktionen.
Sedan Apple meddelade att det kommer en funktion som scannar och kontrollerar bilder som ska laddas upp till iCloud så har Apple fått hård kritik men också beröm för att funktionen införs. I debatten har flera helt felaktiga uppgifter florerat – så här fungerar (kommer funktionen att fungera) CSAM och de övriga funktioner som Apple inför när de nya versionerna lanseras.
Funktionerna handlar om två saker:
- Bilder som ska lagras i iCloud scannas och ett fingeravtryck tas fram (CSAM)
- Bilder som skickas till och från minderåriga analyseras och nakenbilder ”blurras”
När införs funktionerna?
Senare i höst, i samband med lanseringen av iOS 15, iPadOS 15 och macOS Monterey.
Införs CSAM överallt, globalt?
Nej, CSAM införs först i USA och sedan har Apple meddelat att funktionen komme införas land för land, inte stort ellr globalt.
Scannas alla mina bilder?
Alla dina bilder scannas inte och det är inte bilderna som scannas utan en bild förses med ett fingeravtryck som körs mot CSAM. Kan bildens checksumma/fingeravtryck matchas mot CSAM, och bilden ska skickas till iCloud, så kommer en anställd från Apple att tillkallas och sedan kan informationen lämnas över till polis.
Scannas bilderna i min iPhone?
Ska bilden laddas upp till iCloud, Apples molntjänst, så plockas ett fingeravtryck fram, lokalt i din enhet – din Mac, din iPhone eller iPad. Fingeravtrycket tas fram lokalt, i din enhet, av säkerhetsskäl. Hela den här processen är dessutom starkt krypterad och ingen kan se vad dina bilder innehåller. Processen hanterar en checksumma eller ett fingeravtryck med en massa siffror som körs mot en databas med fingeravtryck från bilder på övergrepp mot barn.
Kan jag stoppa scanningen?
Det finns ingen inställning. Vill du inte att det ska tas fingeravtryck på dina bilder, som du ska skicka till iCloud, så är det enda sättet att slå av lagring av bilder i iCloud.
Kommer Apple att scanna mina meddelanden också?
Det är en helt annan funktion i iMessages som införs för barn. Använder ett barn iMessage och om detta barn får nakenbilder skickade till sig så kan barnets vårdnadshavare att få en varning i form av en dialogruta. Den aktuella bilden kommer också att ”blurras”. Funktionen är inte knuten till Apples meddelandefunktion iMessages utan den omfattar hela meddelandefunktionen alltså även SMS. Bilden kontrolleras när den skickas och när den tas emot och funktionen påverkar inte ”end-to-end” krypteringen.
Observera också att funktionen inte aktiveras för alla – enbart för minderåriga, för barn och att hur funktionen fungerar är beroende på vilka inställningar som görs. Bilder som skickas till och från minderåriga analyseras, alltså innehållet i bilden/bilderna. Funktionen använder inte CSAMs databas ska också tilläggas. De dialogrutor som visas finns längst upp (se bilden).
Är det bara Apple som använder CSAM?
Nej, Google, Facebook, Twitter, Microsoft och en rad sociala medier, bloggfunktioner och lagringstjänster använder liknande funktioner för att försöka att stoppa spridningen av barnporr.
Om funktioner införs för att stoppa barnporr – varför alla dessa varningar och varför får Apple kritik?
Därför att det kan ses som ett intrång i den enskildes integritet och samma teknik, att ta fram fingeravtryck för bilder, kan användas för dokument, videor och annan information. Samma teknik skulle kunna användas för att stoppa kritik mot en regim, leta efter aktivister och demokratiförespråkare av en diktatur. För just de här aktuella funktionerna så kräver det Apples medverkan men det skulle Apple (teoretiskt) kunna tvingas till med lagar.
Är det inte bara att ändra i en bild, göra den svartvit eller beskära den för att komma runt CSAM?
Nej, fingeravtrycket ändras inte om du redigerar bilden eller gör om den.
Om en pedofil inte vill att bilderna ska scannas kan inte gren bara slå av iCloud då?
Jo, och det är något kritikerna också har framfört. Hela funktionen riskerar att bli ett tomt slag i luften.
Kommer funktionen att slå larm för en enda bild, det kan ju vara ett falsklarm, vara fel?
Apple lär sätta en gräns för hur många bilder som ska matcha CSAM innan en anställd inom Apple tillkallas för att granska bilderna och innan informationen lämnas över till polis. Exakt vilka gränser eller exakt hur det kommer att hanteras har Apple inte lämnat information om. Granskningen görs manuellt, någon kommer att tittar på bilderna, de bilder som matchats mot CSAM, och det ska säkerställa att ingen anklagas oskyldigt. Nu ska tilläggas att fingeravtrycken i CSAM är från bilder på dokumenterade övergrepp, brott, mot barn.
Varför inför Apple funktionen?
Av flera skäl – ett viktigt skäl är att amerikansk lag kräver det. Lagen kräver att den som lagrar bilder, videor och annan information är skyldig att anmäla misstänkta övergrepp mot barn. Det andra skälet är naturligtvis för att försöka att skydda barn.
Var kan jag läsa mer?
Apple
Apple kommer att scanna bilder för att stoppa övergrepp mot barn
Har Apple öppnat Pandoras Box nu?
Apple får hård kritik från Edward Snowden och EFF
av Mikael Winterkvist | aug 6, 2021 | Övervakning

Apples nya, kommande funktion att scanna bilder inkluderar inte alla bilder och inte bilder som lagrats i din iPhone. Apple kan inte heller scanna bilder som lagrats i en säkerhetskopia, även om den lagras i iCloud.
Apple har nu bekräftat en del tekniska detaljer för hur CSAM-scanningen ska fungera:
- Apples CSAM-scanning görs när bilden ska laddas upp till iCloud
- Bilder som inte ska lagras, med iCloud avslaget scannas inte
- Apple kan inte heller scanna bilder som redan har lagrats i en säkerhetskopia, även om kopian ligger i iCloud
Using another technology called threshold secret sharing, the system ensures the contents of the safety vouchers cannot be interpreted by Apple unless the iCloud Photos account crosses a threshold of known CSAM content. The threshold is set to provide an extremely high level of accuracy and ensures less than a one in one trillion chance per year of incorrectly flagging a given account.
MacRumors
Tandlös funktion
Frågan är då om funktionen inte blir tämligen tandlös i och med att allt det en pedofil behöver göra är att slå av iCloud. Något som, gissningsvis, de som byter och lagrar bilder på övergrepp mot barn redan har gjort. Det innebär att inga bilder scannas och att inga checksummor jämförs med CSAMs databas.
Det som istället kan bli följden är att många laglydiga, helt vanliga användare väljer att slå av iCloud för att slippa att få sina bilder scannade. En följd av det kan bli sämre säkerhet, totalt, för Apple-kollektivet och att bildfunktionen via iCloud slås av. Tilltron för Apple och för iCloud får sig sannolikt en knäck – frågan är hur omfattande det minskade förtroendet för Apple då kan bli. Det får framtiden utvisa.
- Tror någon på fullt allvar att nätets pedofiler inte snabbt kommer att få lära sig att slå av iCloud?
- Tror någon på fullt allvar att Apples funktion kommer att leda till att fler misstänkta anmäls?
Apples beslut, som resulterat i hård kritik, som skadat Apples förtroende bland sina användare riskerar att bli ett tomt slag i luften som i realiteten inte kommer att rädda ett enda barn eller gripa en enda pedofil.
I så fall infaller sig frågan – varför?
av Mikael Winterkvist | aug 6, 2021 | Övervakning

Apples besked att iCloud kommer att använda CSAMs databas för att scanna lagrade bilder möts av hård kritik av Edward Snowden och Electronical Frontier Foundation.
I en serie inlägg på Twitter skriver Edward Snowden att hur välment Apples avsikter än är så har Apple skapat världens största övervakningsapparat.
EFF
Även EFF tar avstånd från Apples beslut och levererar hård kritik i ett längre inlägg:
Child exploitation is a serious problem, and Apple isn’t the first tech company to bend its privacy-protective stance in an attempt to combat it. But that choice will come at a high price for overall user privacy. Apple can explain at length how its technical implementation will preserve privacy and security in its proposed backdoor, but at the end of the day, even a thoroughly documented, carefully thought-out, and narrowly-scoped backdoor is still a backdoor…
It’s impossible to build a client-side scanning system that can only be used for sexually explicit images sent or received by children. As a consequence, even a well-intentioned effort to build such a system will break key promises of the messenger’s encryption itself and open the door to broader abuses.
All it would take to widen the narrow backdoor that Apple is building is an expansion of the machine learning parameters to look for additional types of content, or a tweak of the configuration flags to scan, not just children’s, but anyone’s accounts. That’s not a slippery slope; that’s a fully built system just waiting for external pressure to make the slightest change.
Lagstiftning
Även EFF skriver att Apples beslut kan vara inledningen på en utveckling mot nya och fler krav. Speciellt mot bakgrund av att flera länder instiftat nya lagar som ställer krav på att sociala medier och att nätet ska övervakas.
av Mikael Winterkvist | aug 5, 2021 | Övervakning

En bild över nätverket och hur olika konton interagerar med varandra på Twitter.
I en ny studie så avslöjas över 350 konton i olika sociala medier som ingår i ett nätverk med ett syfta – sprida kinesiska propaganda. Det är The Centre for Information Resilience (CIR) som publicerat studien och rapporten där kinesiska propagandakonton avslöjas.
– Vår undersökningen bevisar medvetna försök att vinkla och förvränga bilden av stora händelser till förmån för hur Kina ser på omvärlden. Nätverkets syfte tycks vara att avlegitimera väst ich förstärka kinesiska narrativ. Det är åsikter och uppfattningar som till alla väsentliga delar stämmer överens med det som sprids av den kinesiska staten och statskontrollerade medier, säger Benjamin Strick, The Centre for Information Resilience (CIR).
The Centre for Information Resilience (CIR)
Kontona finns på Linkedin, Twitter, Facebook, Instagram och Youtube.

Några av de konton som kartlagts i studien
Propaganda
Bland propagandan finns teckningar, video och inlägg. Det ska sägas att det inte finns några direkta, klart påvisbara kopplingar till Kina eller den kinesiska regimen men det handlar om falska konton med AI-genererade bilder som sprider samma typ av åsikter och inlägg som företrädare för regimen.

Ett av de falska konton som ingår i nätverket. Kontot har nu stängts ned av Twitter.
I nätverket har ingått konton som publicerar inlägg och konton som i stort bara används för att förstärka och sprida vidare. Det är konton, nyligen startade, som saknar följare och som följer få eller ingen och i den mån konton följs så är det de konton i nätverket som publicerar inlägg.
av Mikael Winterkvist | aug 5, 2021 | Övervakning

Facebook har stängt ned konton tillhörande forskare vid New York University vilket gör att forskarnas undersökning av hur Facebook hanterar annonser, politiska annonser stoppas. Facebooks skäl är att de anser att forskarna samlar på sig data i strid med Facebooks regler medan kritiker hävdar att det är ett svepskäl för att stoppa en undersökning som kan komma att innehålla hård kritik mot Facebook och avslöja det viktigaste av allt – hur Facebooks algoritmer fungerar.
Bakgrunden är följande:
Forskare vid New York University har samlat data sedan en tid tillbaka för att undersöka vilka som får annonser, vilka annonser som visas och varför för olika grupper. Forskarna har också undersökt politiska annonser sprids och hanteras. För att göra det så har forskarna skapat ett tillägg, en plugin, för webbläsare som samlar in informationen. Forskarna och universitetet anser att informationen måste samlas in för att undersökningen ska kunna göras medan Facebook anser att det är ett brott Facebooks regler:
The researchers gathered data by creating a browser extension that was programmed to evade our detection systems and scrape data such as usernames, ads, links to user profiles and “Why am I seeing this ad?” information, some of which is not publicly-viewable on Facebook. The extension also collected data about Facebook users who did not install it or consent to the collection. The researchers had previously archived this information in a now offline, publicly-available database.
Facebook
Cambridge Analytica
Facebook anser att de är tvingade att stoppa datainsamlingen med hänvisning till ett domstolsutslag från 2019 som var ett direkt resultat av Cambridge Analytica-skandalen. Facebook tvingades att betala ett skadestånd på 5 miljarder dollar som en följd av att Cambridge Analytica samlade in enorma mängder data som sedan användes för att skicka ut politiska annonser till utvalda målgrupper.
Forskarna å sin sida hävdar att det inte är det som deras tillägg för Chrome och Firefox, AdObserver, gör. Tillägget samlar in data utifrån det Facebook skickar till en användare. AdObserver samlar in samma data som webbläsaren skickar till dig, inte mer, inte mindre.
Ad Observer is a tool you add to your Web browser. It copies the ads you see on Facebook and YouTube, so anyone can see them in our public database. If you want, you can enter basic demographic information about yourself in the tool to help improve our understanding of why advertisers targeted you. However, we’ll never ask for information that could identify you.
Tredjepart
Notera att den insamlade informationen hanteras av forskarna, universitetet och den information som delas, som är publik är den information som enskilda användare lämnat över till universitetet och som enskilda användare gått med på kan få publiceras publikt. Enkelt uttryckt – användaren berättar för andra, en tredje part, vad hen sett på Facebook.
Facebook hävdar också att AdObserver är ett så kallat program för ”scraping” – ett sätt för att automatiskt samla in data från en webbplats – vilket är i strid med Facebooks regler. ”Scarping” är, enkelt uttryckt, en sökning på en webbplats och alla data som skickas lagras ned, automatiskt. Sökningen utökas hela tiden, automatiskt, vilket betyder att steg för steg samlas data in – exempelvis användarkonton eller annan information.
Forskarna invänder att AdObserver inte fungerar så och AdObserver kan inte heller används för att samla in data som användaren inte ser på Facebook. Forskarna och universitetet menar att AdObserver är att betrakta som en ”companion” – ett program som hänger med webbläsaren och som bara samlar in de annonser och den information som Facebook visar användaren. AdObserver har fokus på annonserna, inte på kommentarer eller annan information. Forskarna och universitetet har lagt ut all kod som ingår, fritt och öppet för vem som helst att kontrollera innehållet på GitHub.
Integritet
Kritikerna pekar också på att Facebook tycks vara betydligt mera intresserade av att skydda annonsörernas namn och information än enskilda användares information. AdObserver visar annonsen och vem som är avsändare vilket Facebook alltså anser är ett intrång i enskilda integritet. Facebook har också stängt ned de enskilda forskarnas konton på Facebook – inte själva forskningsprojektet eller andra projekt som driva av universitetet.
Algoritmer
Kritikerna anser också att domen efter Cambridge Analytica, beskrivningen av forskningsprojektet som ”scraping” bara är svepskäl och att nedstängningen av kontona egentligen handlar om något annat – Facebooks algoritmer. De viktigaste instrumenten för att sortera, filtrera och skicka annonser till valda målgrupper. Hela fundamentet i Facebooks affärsverksamhet. Avslöjas det hur dessa algoritmer fungerar så avslöjas också hur Facebook väljer ut annonser för olika målgrupper. Kritikerna menar att det är det som Facebook vill skydda och att det är därför Facebook så ofta hamnar på kollisionskurs med den akademiska världen.
Källor