Rettighedsgrupper retter kritik mod Apples screening af nøgenfotos på iCloud

19. august 2021 kl. 11:054
Rettighedsgrupper retter kritik mod Apples screening af nøgenfotos på iCloud
Illustration: alexey_boldin / bigstock.
I et fælles åbent brev har mere end 90 rettighedsgrupper rettet kritik mod Apples kommende overvågningsystem af iCloud.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Mere end 90 rettighedsgrupper har i et fælles åbent brev rettet kritik mod Apples kommende overvågningssystem. Det skriver Computerworld.

Kritikken falder efter at Apple tidligere i måneden meddelte at firmaet ville indføre overvågningssystemer på tværs af deres enheder.

Artiklen fortsætter efter annoncen

Apple har designet systemet til at sammenligne med en myndighedsdatabase med kendte billeder af børnemisbrug. Databasen oversætter derefter billederne til hashkoder, der kan identificere billedet, men kan ikke bruges til at rekonstruere det.

Det er dette system rettighedsgrupperne finder farligt. Kritikken lyder på, at selvom Apples intentioner om at beskytte børn og unge er gode, så kan systemet misbruges til være en trussel over for dem.

Der bliver blandt andet fremhævet LGBTQ-unge, som kan have forældre med antipati for deres seksualitet. Samtidig peger rettighedsgrupperne på, at Apple vil opleve et massivt pres fra forskellige regeringer om at få adgang til systemet, og derved i værste fald muliggøre censur og være en direkte trussel mod frihedsrettigheder.

4 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
4
2. september 2021 kl. 15:30

Jeg tror ikke at Apple har haft noget valg - De er blevet "lænet" på af den amerikanske regering. Og det er nu engang sådan at virksomheder skal overholde lovene i de lande, hvor de bedriver virksomhed.

Det betyder selvfølgelig at vi også er i farezonen i Danmark - her tænker jeg på vores nuværende justitsminister, som flere gange har udtalt at "Overvågning er lig med sikkerhed" (han må jo mene det)

Det bliver nok ikke sexchikanister han går efter i første omgang (man er vel en god kammerat), men måske asocial(..........) adfærd.

Det jeg er mener er at vi selv kan skrive de love, og retningslinier

  • vi skal nok bare stemme på de rigtige politikere. Det er ihvertfald lidt naivt at tro at et amerikansk computerfirma gør det for os
3
20. august 2021 kl. 00:27

Nicolai, du har helt ret i at overskriften blander de to systemer fuldstændigt sammen.

screening af nøgenfotos på iCloud

Det bliver screenet for kendte billeder af børnemisbrug. Det er virkeligt misvisende at omtale det som "nøgenfotos".

Apple har ret gode beskrivelser af hvad systemet gør, og man må sige at de gør sig utroligt umage for at være så lidt privacy invasive som muligt. De lærer intet om dit fotobibliotek i iCloud medmindre du har ca. 30 billeder af kendt børneporno. Det er kryptografisk sikret at de ikke engang kan vide hvor mange billder af børneporno du har (nul eller flere) før du er over tærsklen.

At iCloud photos ikke er end-to-end encrypted er en anden sag. Apple har i princippet mulighed for at snage i dine icloud fotos, eller overlevere dem til politiet. Man kan håbe at det her er et trin på vejen til e2e for icloud photos. Reuters har tidligere rapporteret at FBI har presset Apple til ikke at implementere e2e encryption for iCloud backups. Hvis det er målet, vil det være en markant privacy forbedring over status quo.

2
19. august 2021 kl. 22:46

Overskriften er faktuel forkert

Overskriften siger at der er rettet kritik af scanningen. Det er ikke uvæsentligt, om scanningen foregår lige inden upload til iCloud eller efter upload. Men det gør da ikke hele artiklen faktuel forkert.

1
19. august 2021 kl. 22:23

Overskriften er faktuel forkert. Intet skannes i iCloud.

Artiklen blander 2 fuldstændigt forskellige funktioner sammen. Den ene omhandler skanning efter en liste af kendte billeder af børnemisbrug. Den anden omhandler billeder der sendes og modtages af børn. Den sidstnævnte kan have komsekvenser for LGBTQ børn. Den første under ingen omstændigheder.