Google scannar uppladdade bilder, på sina servrar, i sina system – ute på nätet. Facebook scannar också uppladdade bilder, på sina system, sina servrar ute på nätet, liksom Twitter, Microsoft och många andra. Allt sker ute i molnen där också resultaten lagras och samlas in. Apples lösning skiljer sig på en viktig punkt – scanningen görs, i det första steget lokalt.
För tydlighetens skulle ska sägas:
- Det är inte bilderna i sig som scannas. Det görs ingen analys av det bilderna föreställer.
- Bilderna scannas efter ett digitalt fingeravtryck som stämmer överens med CSAM, Child Sexual Abuse Material
- CSAM är en databas med digitala fingeravtryck från kända, olagliga bilder – barnporr
- Alla bilder scannas inte lokalt i din iPhone eller iPad
- Det är enbart bilder som ska laddas upp till iCloud som scannas
- Funktionen införs i USA, och bara i USA, senare i höst då iOS 15 lanseras.
Praktisk så spelar det sista säkerligen liten eller ingen roll då de flesta av Apples användare också använder iCloud. I sammanhanget är det också viktigt att klargöra att iCloud är Apples molntjänst, Apples servrar och Apples lagring vilket innebär att Apple har ett ansvar för att se till att deras system inte används för att lagra material som det är olagligt att inneha. Något som det finns lagkrav på i vissa delstater i USA och det finns lagförslag som går i den riktningen att det kan komma att bli ett lagkrav i hela USA och även i andra länder. Även EU diskuterar om lagförslag och nya regler som går i samma håll.
Lokalt
Apple har valt att göra den första delen av scanningen, lokalt, i din iPhone. Vilket generellt är en dålig lösning och det finns mer än en som anser att Apple nu implementerat en bakdörr i iOS. När det gäller bakdörrar så är regeln enkel – gör det absolut inte. Apples försvar för att göra den första delen av scanningen är att om den scanningen inte ger någon träff så finns inga resultat, inga data som visar att något har scannats hos Apple. Allt är som tidigare – dina bilder laddas upp, Apple har inga data, ingen hos Apple vet eller kan se att något har hänt.
Här finns en viktig skillnad mot många andra aktörer. De scannar alla bilder, lagrar resultaten hos sig vilket i sig kan utgöra en säkerhetsrisk. Det är därför Apple har valt den här lösningen. Inga data ska finnas hos Apple som inte ska vara med i ekvationen om inte många bilder visar sig matcha fingeravtryck hos CSAM. Då lagras data i det som kallas för Safety Vouchers vilket betyder att informationen krypteras och skyddas och den kan inte kommas åt mer än av Apples personal.
Antaganden
Det ska sägas för nyansens och balansen skull att mycket av de beskrivningar som finns kommer från Apple och de bygger på en rad antaganden – så som att krypteringen inte ska kunna knäckas, att Apple inte drabbas intrång med datastöld som följd. Det är beskrivningar som i mångt och mycket litar på lösningen och de skydd som finns runt den. Det ska också sägas att så beskriver Google, Facebook, Twitter, Microsoft med flera också sina lösningar – de anses vara säkra, skyddade och pålitliga.
För en utomstående är det svårt, för att inte säga mycket svårt att uttolka vad som är vad så i slutändan så handlar det om att göra en bedömning om vem eller vilka du litar på.
Apple gör den första delen av scanningen, lokalt – vilket är huvudanledningen till den hårda kritik som Apple har fått. Scanningen görs i din iPhone om bilderna ska laddas upp till iCloud.
Det är det debatten handlar om – Apple ger sig tillgång till din enhet.
0 kommentarer