Bjarne Nielsen

Dataetisk Råd: Offentlige AI-pilotprojekter bør bygge på frivillighed og valgfrihed

Og "gennemsigtighed"? Siden hvornår har en AI-algoritme kunnet fremvise noget som helst, der kan kaldes "gennemsigtighed"?

Det er da vist mit stikord - jeg har en kæphest klar, som trænger til motion ... :-).

Der er forskel på AI/ML, og forskellige slags er gode til forskellige ting. Og såkaldt "explainable AI" er endda et selvstændigt forskningsområde.

Men transparens virker alligevel ikke til at være blive prioriteret, måske fordi at det ikke rigtigt er andet end til besvær for sponsorerne, og derfor kun kommer med i businesscasen under skåltalen, sammen med f.eks. sikkerhed og privatliv.

Og besværligt er det. Det koster f.eks. på forudsigelsesevnen, jo mere man prioriterer transparens. Og det er som oftests det eneste kriterie.

Jeg mener at have læst her (men har mistet referencen, så jeg kan huske forkert), at en af personerne bag en videreudvikling af et beslutningsstøtteværktøj til noget følsomt (var det tvangsfjernelse af børn?) forsvarede at man havde beholdt bopælens placering som faktor med, at den både havde en af de højeste vægte og at modellens forudsigelsesevne ville falde, hvis man tog den ud. Også selvom han ikke selv kunne forsvare, at ens bopæl var af betydning.

Lad os tale lidt om bopæl. Jeg vil gerne tro, at der er flere, som er villige til at tale for, at man kan blive kriminaliseret af at flytte til et ghettoområde (og hvem har dog fundet på navnet Voldsmose? så beder man da om imageproblemer), men der er vel ingen ved deres fulde fem, som mener, at man bliver rig af at flytte til Hørsholm, Hellerup, Hasseris eller Holme, vel?

Hvis man så har transparens, så bliver det jo så meget mere tydeligt, hvis man har prioriteret forudsigelsesevnen for voldsomt:

"Vores system anbefaler at dit barn bliver tvangsfjernet, og de fire mest betydende faktorer, som tilsammen forklarer 32,7% af beslutningen er: 1) bopæl med 14,2% , 2) husstandens gennemsnitlige socialgruppe med 7,4%, 3) forældrenes samlivsform med 6,2% og 4) forældrenes uddannelsesniveau med 4,9%".

Eksemplet er selvfølgelig opfundet til lejligheden for at illustere både at

  • forklaringer kan give anledning til, at der bliver stillet spørgsmål (hvad man for alt i verden vil undgå, for så dør businesscasen), samt
  • forklaringer med mange faktorer høstet med bred kam uden åbenlys sammenhæng, som oftest i stedet bliver til bortforklaringer (bemærk også sproget og den angivelige præcision) - en god og forståelig forklaring er virkelig vanskelig at give, og da især hvis man ikke selv helt er klar over, hvad der lige sker inde i den sorte kasse.

Men det kan også bruges til illustration af, at med øget transparens stiger muligheden for manipulation også: hvis man som forældre fik den forklaring på en besked om at der var indledt en socialsag, så ville man straks gå ned på rådhuset og finde et andet sted at bo. For børnene skyld.

Eller hvad med: "Ung kristen jysk kvindelig ikkeryger med akvarelmaling som hobby søger værelse grundet optagelse på jurastudiet" - ja, vi ved allerede godt, hvad vi skal slå på.

Så derfor bliver muligheden for manipulation ofte brugt som argument imod transparens, der er ingen grund til at hjælpe os yderligere med at undergrave det fine systems virkningsgrad ... sammen med undskyldning om kommercielle interesser og kontraktslige begrænsninger, mmm, mmm.

Opsummerede, så er der efterhånden ved at være noget AI/ML, som kan noget med transparens, men ikke meget - og generelt har det oddsene imod sig, både på grund af den grundlæggende "kast noget op på en væg og se, hvad der bliver hængende"-tilgang, men også fordi at det, ud fra systemejernes synspunkt, vil gøre det ydevne ringere, og ydermere udsætte det, og dermed en selv, for kritik og besvær.

PS: Hvilket iøvrigt får mig til at løfte en advarende pegefinger: Dataetisk Råd skal sådan passe på, at de ikke bliver misbrugt til "etisk vask" ... "Vi har tidligt fået projektet vurderet af Dataetisk Råd, og efterfølgende lavet justeringer udfra deres feedback" - ja, men næppe særlig meget, vel?

13. august 2021 kl. 12:04
Dataetisk Råd: Offentlige AI-pilotprojekter bør bygge på frivillighed og valgfrihed

Hov, det virker vist til, at Dataetisk Råd er blevet overset. Det må straks stoppes!

Etisk Råd ledes heldigvis nu af en sundhedsvidenskabelig forsker, og de videnskabetiske kommiteer har jo fornuftigt nok som regel et solidt flertal bestående af forskere, faguddannelse, og politiske og kommercielle interessenter.

Radio24/7 var en irriterende undtagelse, som hverken kunne overtales eller overtages, men så kunne den heldigvis lukkes. Datatilsynet kan grøntshøsterbespares væk, så de bliver nødt konstant til at gøre sig lækre nok til ekstrabevillinger.

Men der er hårdt brug for nye kræfter til Dataetisk Råd. Mange af deltagerne virker jo til at have en selvstændig mening! Det er da gået helt galt.

(spor af sarkasme kan forekomme)

13. august 2021 kl. 10:41
Datatilsynet afviser at behandle Mette Frederiksen-sag

Så der er blevet givet et samtykke (og lad nu være med at sige, vi vidste ikke hvad det betød at det kom i medierne).

Du har jo nok ret i, at der ikke er noget at komme efter, sådan rent formelt, men det er stadig noget at en stinker.

Der er betydelig forskel på at generelt samtykke til at være anonymt bagtæppe til et rutine-event (bla, bla, det er en ren formalitet, som GDPR-bureaukrat-juristerne i EU tvinger os til, det betyder ikke noget i praksis, og det er godt for skolen), og så blive eksponeret som enkeltperson i en anden og langt mere politiseret sammenhæng.

Hvad nu, hvis det var en glad pige med tørklæde, som der var blevet zoomet tæt på ifm. med et xenofobisk budskab? Havde hun så også samtykket til det? Eller en flok piger med kort skørt og bar mave, og budskabet var relateret til ønsket om at skabe en særlig opmærksomhed omkring sædelighed og overgreb? Havde de så også samtykket til at blive udstillet på den måde?

Måske var NL i høj grad selv ude om det (jeg fulgte ærligt talt ikke med dengang), men hvis der var tale om politisk tale fra NLs side, så er det i hvertfald meningsløst at tale om samtykket, for så vil det slet ikke være nødvendigt. Men så skal vi lige have en snak om "børnenes statsminister" og behovet for at tage hensyn til unge, som jo i den alder er kendt for at gøre dumme ting, som de senere fortryder (der er jo nok også en grund til, at det generelt er forældrene som skal samtykke). Og havde det skadet dem, hvis de have vendt tilbage til NL og sagt: "Kære NL. Det er et stærk billede, som vi gerne vil bruge en enkelt gang på Facebook i debatten om XXX - må vi det?"

Jeg efterlades da også med et indtryk af, at den stærke part her udemærket har vist, hvad man gjorde, og uden at blinke fiskede efter omtale og opmærksomhed ved at smide en ung mand for direkte løverne og folkedomstolen, og udelukkende for at mele egen kage - de er professionelle i det her game, det er han ikke, og mon ikke grunden til, at det så hurtigt blev taget ned var, at de udemærket vidste, hvad de gjorde (og at nedtagning efterfølgende kunne spinnes positivt), og at de havde opnået, hvad de ville.

Så det skal nu nok passe, at der rent juridisk ikke er noget at komme efter, men så siger det mere om retstilstanden end noget andet.

Og uanset, så er det et klart budskab om, at vi som forældre bare skal sige højt og tydeligt nej til alt, hvad vores børns uddannelses- og andre institutioner vil have os til at samtykke til, og særligt vedr. af brug af billeder o.a. Især hvis det er til uspecificeret mediebrug. Så må politikere og andre med hang til selviscenesættelse og selvpromovering finde et andet bagtæppe - og de kan sende takken til Mette.

13. august 2021 kl. 10:33
Apple's ny virusscanner

Hvis de i stedet for at sidde og godte sig i hulen, var gået ind i politik ...

Det har du sagt en del gange efterhånden. Bukket det i neon, skåret det krydsfiner. Jeg ved godt, at man siger, at overdrivelse fremmer forståelsen, men hvordan synes du egentlig selv at det går?

Hvilken slags læser forestiller du dig først fanger pointen efter så mange gentagelser? Og hvor tryg vil du egentlig, med hånden på hjertet, være med, at det netop er den slags person, som går ind i politik?

Det er vigtigt at få så mange som muligt til at engagere sig i samfundsforhold, og deltage i debatten. Hvis man brænder for noget, så brænd endelig igennem. Vi har brug for hinanden til at skærpe vores argumenter, få aflivet misforståelser og få fremhævet oversete og væsentlige konsekvenser.

Og der er brug for et debatmæssigt modspil, så dem med de snævre og sære interesser ikke får lov til at sætte dagsordenen alene og i et tomrum. Vejen frem er at få det ud i lyset og få betydningen forklaret i lægmandstermer, og det er iterativ process, som næppe kan løftes i ental eller enrum (dog vil det nok ofte starte der...).

Men vi har IMHO ikke brug for opstillingen af flere enkeltsagspolitikere, uanset hvor god sagen end måtte være. Og da slet ikke af den tungnemme slags.

12. august 2021 kl. 09:17
Apple uddyber teknikken bag kritiseret billedscanning

Overordnet set, så er det noget rod: Apple startede ved samtidigt at lancerere to ret forskelligeartede initiativer, som overordnet set er nemme at forveklse, og det bliver ikke bedre af, at det slår ned lige midt imellem veletablerede skyttegrave, så vi ser også en parade af diverse mere eller mindre perifere kæpheste.

Apples ene initiativ handler (angiveligt og i hvertfald i første omgang) om børn og porno og det andet handler om børneporno. Det lyder ens (især hvis man siger det hurtigt), men det er i virkeligheden ret forskelligt.

Børn og porno

Det ene initiativ handler om at beskytte børn imod at se porno. Eller, som de selv betegner det "sexually explicit" indhold.

Der er en del at diskutere...

  • hvad er børn (og hvem definerer det)?
  • hvad er porno (og hvem definerer det?
  • hvorfor kun iMessage appen?
  • hvorfor kun USA?
  • hvorfor kun børn, hvis enheder at sat op som en del af en "family account"?
  • hvorfor kun billeder, og ikke også beskeder?
  • hvorfor AI/ML (når vi trods adskillige forsøg stadig ikke har set det virke på dette domæne)?
  • hvorfor en angiveligt ugennemskuelig algoritme?
  • hvad vil vores børn mon lære af dette?
Børneporno

Det andet initiativ handler angiveligt direkte om børneporno, eller som de betegner det Child Sexual Abuse Material (CSAM) - så de afgrænser sig eksplicit til materiale med seksuelt misbrug af børn (børneporno som begreb er betydeligt bredere.

Så det første spørgsmål man må stille sig er, om initiativet er virksomt i forhold til at imødegå misbrug af børn til porno:

  • det er nemt at omgå (kun iCloud)
  • det er geografisk afgrænset (kun USA)
  • det er kun virkningsfuldt imod konkrete, gammelkendte og udbredte eksempler - det er som udgangspunkt virkningsløst i forhold til nyt misbrug.
  • detektering er kun i mindre omfang robust overfor manipulation (den kan håndtere skalering og formatkonvertering, og angiveligt beskæring i mindre omfang, men næppe egentlig redigering).

Det er antageligt virkningsløst overfor dem, som helt bevidst opsøger børnemisbrug, og i sær, hvis der er tale om nyt misbrug. Til gengæld vil det kunne give en betydeligt bifangst i gråzonen af folk, som ikke ved bedre (selv professionelle har efter sigende svært ved at vurdere alder).

Så det er som at fiske med et net, som kun fanger de små fisk, men lader alle de store gå fri.

Der er også her en række spørgsmål, som f.eks. (men ikke begrænset til), hvem definerer, hvad der er CSAM, og hvorfor egentlig begrænse sig til CSAM og ikke børneporno som sådan?

Det andet store tema er Apples pervertering af begrebet end-to-end-encryption (E2EE) - kald det en bagdør, som Bruce Schneier, eller pak det ind i floromvundne bortforklaringer som Apple; effekten er at det nu er end-to-some-end-somewhat-encryption.

Her kan man anlægge flere synspunkter:

  1. uundgåeligt, for E2EE er pest, som kun kan bruges af pædofile og andre terrorister (eller varianten: stater vil altid søge at beskytte sig imod deres borgere)
  2. det er godt i den nuværende form, og Apple kan og vil formå effektivt at stå imod alle ønsker om udvidelser, uanset fra hvilket hold de kommer
  3. Apple udhuler E2EE som begreb og åbner en glidebane (til tonerne af infocalypsen fire ryttere)

Hvis man er til 1 eller 2, så er det nok svært at se problemet. Eller hvis man bare generelt er ligeglad.

Hvis man er til 3, så vil man som udgangspunkt synes, at det er en rigtig dårlig ide, og især hvis initiativet ikke er særligt virkningsfuldt.

Hvis man skulle være i tvivl, som synes jeg at begge initiativer virker som underligt virkningsløse slag i luften. Og da jeg er til synspunkt 3, så synes jeg at det er godt dumt. Hvis vi skal ofre noget dyrebart, så vil vi i hvertfald have noget værdifuldt for det.

11. august 2021 kl. 09:11
Apple uddyber teknikken bag kritiseret billedscanning

Bruce Schneier er begyndt at opsumme kritikken, og han lægger ikke fingerne imellem, ved bl.a. at kalde det for en bagdør: https://www.schneier.com/blog/archives/2021/08/apple-adds-a-backdoor-to-imesssage-and-icloud-storage.html - han opdaterer artiklen med nye gode links, så det er værd at holde øje med.

Jeg tror, at vi skal se det som resultatet af, at han ikke har tid til at svare fyldestgørende, men heller ikke vil tie længere, og så lader han andre tale.

11. august 2021 kl. 06:30
Britiske myndigheder: Drop vrøvle-koder og brug tre-ords-kombinationer

Er det denneher?

Hvis man vælger i den solide ende, så vil vi ikke-androide humanoider være væsentligt bedre stillet med en password-manager end hvis vi selv skulle til at konstruere tilpast unikke passwords af tilstækkelig kompleksitet (og huske dem!) i alle de situationer, hvor vi bliver afkrævet et sådant.

Også selvom password managers langtfra er perfekte. F.eks. er passwords mere eller mindre i klartekst i hukommelsen sålænge de er låst op og er kørende, med hvad det giver af muligheder for angreb.

Byrden kunne også reduceres, hvis der i højere grad blev brugt single-signon (men det er heller ikke uproblematisk) eller multi-faktor. Jeg tvivler dog på, at vi nogensinde kommer til helt at kunne undvære dem.

Jeg har i hvertfald for længst opgivet at klare mig uden, også selvom der er få konkrete situationer, hvor trusselbilledet gør at papirlappen er at foretrække. Det gør, at antallet, som kun findes i mit hovede og bruges ofte nok til, at de bliver der, er reduceret til en menneskelig overkommelig mængde.

...lad ikke ønsket om perfektion stå i vejen for det mulige.

10. august 2021 kl. 14:34
Apple uddyber teknikken bag kritiseret billedscanning

... men detaljerne er vigtige her.

OK, så lad os se på detaljerne.

</p>
<ol><li>Apple scanner kun efter CP på telefoner som tilhører børn hvis forældre kontrollerer telefonen og hvor forældrene aktivt har slået denne scanning til.

Øh, nej (eller teknisk set jo, men det er en finurlig detalje, som gør, at dit udsagn princippielt kunne gælde iCloud scanningen - men så er det ikke isoleret til børn).

Jfr. Apple selv er det flg. som sker:

Messages uses on-device machine learning to analyze image attachments and determine if a photo is sexually explicit.

Bid mærke i, at formuleringen er "sexually explicit", hvilket svjv. er noget bredere end "CP".

Så kan vi så få en lang diskussion om, hvad der er "sexually explicit", hvem som definerer kriterierne (billeder af den lille havfrue i Kbh, og Neptunstatuen i Bologna er åbenbart for meget for Facebook).

Og om hvorvidt "machine learning" er den rette teknik at bruge her. ML brugt til at flage "sexually explicit" indhold er notorisk for tage fejl, hvad Tumblr fandt ud i 2018, da de prøvede at bruge teknikken til at flage "adult content", og bl.a. fik et billede af en rå kylling i nettet - det er vist at tage begrebet "hudbillede" lidt for bogstaveligt ... eller skal vi til at skåne vores mindreårige for rædslerne i frysediskene?

Algoritmen, ja, den har EFF flg. kommentar til:

It is also important to note that Apple has chosen to use the notoriously difficult-to-audit technology of machine learning classifiers to determine what constitutes a sexually explicit image.

Der er set mange eksempler på, hvordan AI/ML lækker ganske detaljerede dele af træningssættet, så det kan bestemt have været med i Apples overvejelser - de distribuerer jo "sexually explicit" materiale her. Men mon ikke det "bare" er risikoen for at blive kigget i kortene og blive stillet til ansvar, som her har vejet tungere end hensynet til at beskytte mindreårige bedst muligt.

Det er heller ikke telefonen som sådan, som bliver "skannet". Det er kun billeder, og kun når de sendes eller modtages i iMessage (så en tech-savvy preteen bruger bare noget andet - hvad de sandsynligvis gør alligevel). Og skanningen er, at de bliver udsat for en ML-klassifikation.

Iøvrigt er det med "børn" også upræcist. Det er potentielt alle under 18 i en såkaldt "family account". Hvis man - jfr. det, som er oplyst til Apple - er over 13, så får man kun advarsler - det er kun hvis man angiveligt er under 13, at ens forældre bliver involveret. Og så virker indtil videre kun i USA.

Hvad der ellers sker, bliver så at sige i familien (eller familierne, for forældre både på modtager og afsendersiden kan blive involveret - og hvis afsendersiden har farvalgt det, så bliver billedet afsendt uden videre, mens modtagerens forældre vil få en kopi, hvis det bliver vist). Apple holder sig angiveligt i uvidenhed.

Og er den mindre-årige gået i fælder, så skal forældrene ind over. For indtil da vil den mindre-åriges iDevice indeholde en kopi af billedet, som den mindre-årige ikke selv kan slette.

Detaljer, bevares, men detaljer er jo vigtige.

Så beskeder med explicit indhold til mindreårige er ikke omfattet, kun billeder. Og der benyttes en tvivlsom teknologi (ML) uden mulighed for indsigt. Det betyder, at der mere er tale om en symbolsk handling, men der er jo nok en pædagoisk effekt alligevel: vi lærer vores børn, at deres devices ikke er deres, men istedet bruges af andre til overvågning af dem, og vi lærer dem, at algoritmer kan virke arbitrære - og det er måske ikke så skidt, givet at verden er som den er i dag.

2) For alle andre scanner Apple "kun" fotos i ICloud Photo-libraries. Har man ikke sine fotos i ICloud (og det er jo ganske frivilligt) bliver de altså ikke scannet.

Heller ikke, hvis man er udenfor USA. Iøvrigt sker skanningen på devicet, selvom det angiveligt kun har effekt ifm. iCloud relateret aktivitet, hvilket betyder, at alle devices har en form for kopi af NCMEC CSAM databasen (angiveligt sikret, læs videre).

Her skal vi bide mærke i, at der er sket et markant teknologiskifte. Nu er der ikke længere tale om ML, nu er der tale om en eksplicit blacklist over gammelkendte eksempler.

Hvis man selv laver ny børne-pornografi eller hvis man får andre til det, så er man sikker. I hvertfald indtil at det er blevet delt nok til, at det er blevet opdaget af NCMEC og optaget på listen, og der er blevet distribueret en opdatering af Apple, og der er noget iCloud aktivitet på ens device, som gør at det trigger en genberegning.

Angiveligvis så er man også sikker, selv hvis alarmen skulle blive trigget ved en fejl, og der er tale om børneporno, men gammelkendt børneporno ... fra Apples FAQ:

Furthermore, Apple conducts human review before making a report to NCMEC. In a case where the system flags photos that do not match known CSAM images, the account would not be disabled and no report would be filed to NCMEC.

Jeg ville nok ikke stole så meget på den formulering; det er nok mere et spørgsmål om, at Apple desperat forsøger at afgrænse sig selv hårdest muligt, og undgå at blive trukket ind i gråzonen, hvor de skulle til at lave vurderinger - så hellere ignorere oplagt børneporno for at beskytte sig selv. Eller såmænd bare give sig selv maximal signalværdi mens egen arbejdsindsatsen minimeres til det absolut minimale.

3) Apple melder ikke nogen til politiet med mindre de a) finder et antal

Ah, ja, "private set intersection"-delen. Her er hvad der bl.a. skrives om det i en kommentar på crypto.stackexchange.com:

Your repetition of Apple's claim that it protects privacy, however, seems to be misguided. The cryptographic protocol here is absolutely not serving the purpose of the user's privacy.

Instead, the purpose of the private intersection then isn't to protect the user's privacy: it's to shield Apple from accountability by making it impossible for the users to learn or prove anything about the content of the database. It protects Apple's privacy against you and the public at large.

Hvilket nok er en forudsætning for at få lov til at distribuere den vidt og bredt. Det havde nok været mere sikkert, hvis de havde holdt det serverside - effekten for slutbrugeren er den samme (pånær at han kan prøve at undgå opdateringer), men så skulle de indrømme at E2EE ikke er "i juridisk forstand" (tak til Styrelsen for IT og Læring for begrebet "ikke anonym i juridisk forstand" efter ellers at have lovet anonymitet).

Og det havde nok haft en betydelig mere begrænsende effekt på udbredelsen af børneporno, hvis brugeren allerede første gang havde fået en advarsel om, at vi kan se, hvad han har gang i - i stedet for, at det først sker, når politiet banker på, med alle de konsekvenser det har for de uskyldige i den nære omgangskreds.

Men så ville Apple igen til at tage ansvar i stedet for at score billige point.

Så ja, detaljerne er vigtige.

10. august 2021 kl. 14:15
»Fuck Apple!«: Privacyfolk rødglødende efter Apples beslutning om at omgå kryptering – for børnenes skyld

Tak for en rigtig god forklaring på en særdeles vigtig forskel.

Tomas Loft kom i en anden debat her på V2 med flg. kilde, som går endnu videre:

Perhaps there is a reason that they don't want really technical people looking at PhotoDNA. Microsoft says that the "PhotoDNA hash is not reversible". That's not true. PhotoDNA hashes can be projected into a 26x26 grayscale image that is only a little blurry. 26x26 is larger than most desktop icons; it's enough detail to recognize people and objects. Reversing a PhotoDNA hash is no more complicated than solving a 26x26 Sudoku puzzle; a task well-suited for computers.

Jeg havde godt bemærket, at man holdt kortene meget tæt til kroppen, men jeg troede egentlig at det mere var for ikke at give modparten et orakel til, hvor store ændringer der skulle til, for at gå under radaren igen.

9. august 2021 kl. 15:13
Apple's ny virusscanner

En god kilde ...

Rigtigt godt link, som svarede på flere spørgsmål, som jeg havde svært ved at finde svar på, og desværre også bekræftede nogle af mine formodninger.

9. august 2021 kl. 14:59
Efter årevis med vanvittig vækst: Udfordringerne tårner sig op for tech-giganterne

Der er, i sig selv, ikke noget forkert ved at være stor. Der kan endda være fordele for alle forbundet med det.

Men der kan være noget galt med måden, som man bliver det på, og måden man forbliver stor på. Ikke bare, hvis man helt bevidst misbruger sin størrelse, men også hvis ens størrelse bliver et problem i sig selv.

Et træ kan blive så stort, at det kommer til at blive en fare, eller kan ved sin størrelse alene, komme til at kvæle al nyvækst. Det bør man tage hånd om, inden træet bliver for stort til at blive fældet (too big to fail) - for træet gør det ikke selv, og vi ønsker ikke, at det først sker midt i en storm.

Så på den ene side, så er det anerkendelsesværdigt og også imponerende, hvordan mange af dagens giganter startede som små innovative entiteter, som formåede at smyge sig igennem en dør, som kun de så til at starte med.

På den anden side, så var måden måske i den mørke ende af gråzonen, og det i hvertfald i problem, når de med stor omhu har lukket dørene efter sig, og aktivt forhindrer ny innovation (ved at udnytte deres størrelse til at udsulte eller endda direkte opkøbe ethvert tiltag til udfordring af deres position), så ingen kan gøre dem kunsten efter. Uanset hvor innovative de end måtte være.

Det virker til, at den eneste måde at være innovativ på i dag, er blevet at satse på at man kan blive opkøbt før man bliver udkonkurreret. For stor, det bliver man aldrig. Og det er et problem for os alle.

9. august 2021 kl. 11:58
Forskere: Kina er langt fra AI-supermagt...endnu

Det virker på nogle debattører som om alt i dag fungerer spitzenklasse og der ikke er behov for nogle forbedringer.

"Der er brug for noget; AI/ML er noget: vi har brug for AI/ML..."?

Bare fordi at der er et erkendt behov for forandringer, så er det ikke nødvendigvis alle ændringer, som gør noget godt. Og det virker på nogle debattører, som om AI/ML er løsningen på alt, og det ikke kan være genstand for diskussion.

Der er et stort behov her i verden for folk, som kan se muligheder. Men der lader blandt førnævne gruppe også til at være en udtalt despekt for folk, som formår at forudse problemer. Og sandheden er, at der er brug for begge.

Det siges, at "pessimist" er det en optimist kalder en realist. På samme måde må "kværulant" være det en, som kun kan se muligheder, kalder en, som også formår at forudse problemer.

Så lad os fortsætte med at fokusere diskussionen på de anvendelser af AI/ML, hvor der er behov for forbedring, istedet for at tro, at al AI/ML er spitzenklasse.

9. august 2021 kl. 11:38
Forskere bandlyst fra Facebook efter at have undersøgt politiske reklamer

Facebooks risiko bliver øget dramatisk ...

Ja, der er ingen tvivl om, at Cambridge Analytica og ClearviewAI har gjort indtryk på Facebook. Hvad de så lige har lært af det, er måske mere tvivlsomt (hvis man fanger en tyv, tænker han så, at det er dumt at stjæle, eller at han skal finde en anden måde at stjæle på?).

Jeg vil også synes, at det ville være et ganske interessant princip, hvis man sådan helt generelt kunne modsætte sig brug af oplysninger til forskning af "væsentlig samfundmæssig betydning", som man på den eller den anden måde havde medvirket til, alene med henvisning at man er bekymret for der kunne være en hypotetisk risiko for, hvad der muligvis kunne ske, hvis der måtte ske en fejl. Fortæl lige det til kræfterne bag f.eks. Trial Nation eller Nationalt Genom Center!

Det er da heller ikke en bekymring som Facebook selv er fremkommet med: de henviser til, at FTCs afgørelse tvang dem til det (hvad selv FTC bestrider), eller subsidiært, at det er for at beskytte brugernes privatliv (med "brugere" menes her annoncører, som ønsker deres indhold eksponeret overfor dem, som her vælger at dele det videre, som en del af et forskningsprojekt).

Og det egentlige grundlag er angiveligt at der er en bestemmelse imod automatisk indsamling af oplysninger i deres brugsbetingelser. Altså ikke noget med ulovligheder - scraping kan være lovstridigt, men der findes også legitime anvendelser - og det må antages at den nævnte form for scraping er legitim.

Hvis der i det hele taget er tale om scraping, for det er jo ikke fordi, at man kravler hele Facebook igennem, hverken generelt eller for udvalgte brugere - der er tale om at brugerne indvilger i at dele det, som de ser på Facebook, når de alligevel er der. Det er en helt anden kategori end Cambridge Analytica (hvor Facebook udleverede brugerne kontakters bag ryggen af brugerne) eller ClearviewAI (som netop trawler hele sites, f.eks. Facebook, igennem for billeder, og bruger dem på en måde, som klart ligger udenfor ophavsretten).

Men Zuckerberg ved, hvad der er på spil. Facemash (Zuckerbergs klamme forløber til Facebook, hvor man kunne rate kvindelige studerendes profilbilleder) var ikke bare scraping, det var angiveligt også egentlig hacking:

Harvard’s student newspaper, the Crimson, reported afterward that Zuckerberg was accused of “breaching security, violating copyrights and violating individual privacy” but was allowed to remain at the school.

Vedr. "brugernes" sikkerhed og privacy, så er Facebooks indvending til, at de eneste brugere, som er påvirket, er annoncører, og det eneste, som deles, er annoncer, at der i teorien kunne lække oplysninger om andre brugere:

Osborne, the Facebook spokesperson, says that when the extension passes along an ad, it could be exposing information about other users who didn’t consent to sharing their data. If I have the extension installed, for instance, it could be sharing the identity of my friends who liked or commented on an ad.

(https://www.wired.com/story/facebooks-reason-banning-researchers-doesnt-hold-up/)

Det er så bare ikke de data, som opsamles ... og hvis Facebook vitterlig har så lidt styr på, hvad der er annoncer og hvad der bruger-genereret indhold at det alligevel kunne ske, så tror jeg nok, at vi skal have en langt alvorligere snak med Facebook.

Beklager. "Forskning" og "væsentlig samfundmæssig interesse" og mangel på proportionalitet.

9. august 2021 kl. 10:40
»Fuck Apple!«: Privacyfolk rødglødende efter Apples beslutning om at omgå kryptering – for børnenes skyld

Ikke at forklejne de reelle og principielle bekymringer man kan have ved det Apple er i gang med, så er det så mange misforståelser i medierne om hvad det så rent faktisk er ...

Det bliver ikke nemmere af, at man har lavet et kinder-æg: der er ikke kun tale om en ting, der er tale om flere ting.

Den faktisk implementation kan være nok så fin (og jeg tvivler sådan set heller ikke på, at det nok skal være et ganske hæderligt forsøg), men de principielle bekymringer går i høj grad på, at man flytter sig fra kan til vil.

Hvor Apple førhen kunne sige, at de (med det design de nu engang havde) ikke kunne lede efter særligt indhold, så har de nu gjort det muligt for arbitrært indhold, men de vil kun, hvis der er tale om angiveligt børneporno (eller seksual eksplicit kommunikation til/fra/imellem mindre-årige).

Så når nogen kommer med fikse ideer (f.eks. ophavsretsbeskyttelse eller klapjagt på whistleblowers eller dissidenter), så vil svaret ikke længere være "det kan vi ikke", men derimod "det vil vi ikke". Det er en betydeligt svagere position. Det bekymrer mig helt princippelt.

9. august 2021 kl. 09:17
»Fuck Apple!«: Privacyfolk rødglødende efter Apples beslutning om at omgå kryptering – for børnenes skyld

Antaget at hash-funktionen de bruger er ok, så er chancen for kolission utroligt lille.

Ahem, "hash-funktion" kan give nogle forkerte associationer her. Der er tale om hashing, iom. at der mappes fra et stort imputrum til et lille outputrum.

Men ved checksummer og kryptografiske hashes (som vel nok er det, som vi er vant til at omtale som "hash-funktioner"), så tilstræbes det at punkter i inputrummet, som ligger tæt, vil få meget variabel spredning i outputrummet.

Men her er der i stedet tale om semantisk hashing, så man tilstræber tværimod at input som ligger tæt, resulterer i output som ligger tilsvarende tæt.

Hvor vi med en "klassisk" hash tilstræber, at input, som næsten er ens, med stor sandsynlighed ikke vil få samme hash (eller næsten ens hashes), så vil vi netop tilstræbe at en sematisk hash er robust overfor små variationer i input og kommer frem til samme hash (eller næsten samme hash). Kollisioner er mao. ikke bug, det er en feature!

Det er der som udgangspunkt ikke noget forkert i, men det betyder, at vi ikke kan overføre den intuition, som vi har for checksummer eller de sikkerhedsgarantier, som vi forventer af en kryptografisk hash, direkte til semantiske hashes. En sematisk hash er fundamentalt anderledes end checksumme og kryptografiske hashes (omend begge kan bruges til f.eks. indeksering).

9. august 2021 kl. 09:02
»Fuck Apple!«: Privacyfolk rødglødende efter Apples beslutning om at omgå kryptering – for børnenes skyld

Jeg savner en tydeligere forklaring på, om det er lokalt bibliotek eller cloud-forsendelser, der scannes.

Læs f.eks. den artikel fra EFF, som linkes ca. midt i artiklen:

One is a scanning feature that will scan all photos as they get uploaded into iCloud Photos ...

The other feature scans all iMessage images sent or received by child accounts ... for sexually explicit material ...

Mon ikke f.eks. Kina står klar i kulissen for at få kigget efter henvisninger til paraplyer eller Peter Plys. Apple har ikke rigtigt nogle undskyldninger tilbage om, at det bliver vanskeligt eller kræver specialtilretninger.

7. august 2021 kl. 00:57
»Fuck Apple!«: Privacyfolk rødglødende efter Apples beslutning om at omgå kryptering – for børnenes skyld

For at svare @kramse og hans retoriske spørgsmål (han er nok ligeglad, og I andre får ikke noget valg ... :-) ), så kommer man ikke til at se min iPhone på BornHack - for jeg kommer slet ikke forbi BornHack (det er jeg overhovedet ikke hverken vidende eller udadvendt nok til).

Men jeg beholder min iPhone.

Dels fordi at det er tæt på umuligt at være dansker uden at have et statsautoriseret spion-device til alle disse apps, som angiveligt er løsningen på alle problemer i dagens Danmark ... også for de omkring 1 ud af 5 danskere, som siges at være "digitalt udsatte" jfr. KL og Digitaliseringsstyrelsen. For du vil vel gerne være med i klubben, ikke Mulle? Værsgo, et stk skovsnegl at sluge (og du betaler selv!).

Dels fordi at ud af alle de statsautoriserede spion-brikker, så er iPhone stadig det mindst ringe (desværre også i den dyre ende, men jeg er heldig nok til at have råd).

Dels fordi at jeg aldrig rigtigt har stolet på den, og det derfor er begrænset, hvad jeg bruger den til - den kommer kun i sving, når det er uundgåeligt og der ikke er bedre alternativer (hvad der efterhånden alt for ofte ikke er).

6. august 2021 kl. 18:46
»Fuck Apple!«: Privacyfolk rødglødende efter Apples beslutning om at omgå kryptering – for børnenes skyld

En hurtig søgning på nettet gav flg. links (det første fører til det næste):

https://blog.elcomsoft.com/2021/01/apple-scraps-end-to-end-encryption-of-icloud-backups/https://www.reuters.com/article/us-apple-fbi-icloud-exclusive-idUSKBN1ZK1CT

En hurtig skrålæsning giver flg.:

  • broderparten af data er krypteret at rest, og spredt ud over diverse storageproviders
  • det kræver kendskab iCloud kontoen at dekryptere
  • Apple har denne viden, og udleverer den gerne til amerikanske myndigheder sammen med de kryptede stumper
  • der findes endnu et niveau af data, som betragtes som særligt følsomme, og derfor krypteret på anden vis, hvor Apple ikke umiddelbart har nøglen (de kunne på relativt overkommelig vis antageligt bruteforce nøglen, men det vil de ikke) - det er f.eks. gemte passwords (iCloud KeyChain), som håndteres på denne vis.
  • Apple kunne gøre det bedre, men alle initiativer i den retning er stille blevet lagt i graven, angiveligt på opfordring af amerikanske myndigheder

Tilsæt selv skepsis/nærlæsning/yderligere info/andre kilder - jeg har egentlig ikke interesseret mig for dette, før for 5 minutter siden, så der er god plads til misforståelser. Men det kan være en start?

Så ja, data er krypteret, og ja, Apple kan, hvis de vil, udlevere data + nøgler - eller bare udvalgte data i ukrypteret form, som beskrevet i diverse artikler Apples nyeste initiativ. Det kan ske uden at involvere dig eller din device, så det kan ske 100% bag ryggen af dig, på den anden side af Atlanten.

Måske er det på tide at få amerikanerne, og deres fikse og klamme ideer, ud af vores IT?

6. august 2021 kl. 18:30
Forskere bandlyst fra Facebook efter at have undersøgt politiske reklamer

Så Facebook har ingen kvaler med at vende vrangen ud på os, og sætte os under luppen, men bryder sig slet ikke om, når det sker for dem selv, og vel især ikke at blive stillet til ansvar.

Der er ingen tvivl om at NYUs Ad Observatory forskning længe har været en torn i siden på Facebook - f.eks. ifm. 2020 valget, hvor Facebooks egne opgørelser om politiske annoncer var fulde af fejl og mangler.

Men med dette har Facebook - i hvertfald i første omgang - effektivt fået lukket forskning i Facebooks rolle i misinformation. Det klinger hult, når undskyldningerne er så tynde - f.eks. henvisning til scraping og brugerbetingelser, når det er oplysninger som brugerne selv stiller til rådighed - eller at de "glemmer" at nævne, at de andre "brugeres" hvis privatliv, som de mener er i fare, er annoncørernes.

Især når det allerede er påvist, at Facebooks egne forsøg på transparens har været fodslæbende og fulde af fejl og mangler. Og så er der lige det der lille issue med "uafhængighed".

Man fristes til at sige, at hvis man ikke har noget skjule, så har man ikke noget at frygte.

Der er mange kommentarer til dette rundt omkring på nettet. Her er Mozillas (og jeg tillader mig at citere en smule - læs den endelig i sin helhed):

Facebook claims the accounts were shut down due to privacy problems with the Ad Observer. In our view, those claims simply do not hold water.

Before Mozilla decided to recommend Ad Observer, we reviewed it twice, conducting both a code review and examining the consent flow to ensure users will understand exactly what they are installing.

It collects ads, targeting parameters and metadata associated with the ads. It does not collect personal posts or information about your friends. And it does not compile a user profile on its servers.

Jeg synes godt nok at Facebook er på tynd is her. Mit personlige indtryk er, at det må de udemærket selv være klar over, så jeg vælger udfra det, som jeg har set og hørt at mene, at når de alligevel beslutter at gå så langt, så må der være meget mere på spil for dem end først antaget - for ellers er de godt nok for dumme ... og så dumme har jeg svært ved at tro, at de er.

Mis- og disinformation, og store platformes rolle (som f.eks. Facebook, men bestemt ikke kun) er noget, som det er vitalt at vi får uafhængig viden om og indsigt i.

Jeg vil lade Mozilla få det sidste ord:

The truth is that major platforms continue to be a safe haven for disinformation and extremism — wreaking havoc on people, our elections and society.

We need tools like Ad Observer to help us shine a light on the darkest corners of the web. And rather than standing in the way of efforts to hold platforms accountable, we all need to work together to support and improve these tools.

6. august 2021 kl. 12:29