bloghoved erik david johnson

Fairtrade Data

Som AI specialist er jeg meget optaget af hvordan træningsdatagrundlaget for de løsninger jeg laver er så afgørende, og samspillet med at orkestrere disse og lave de egentlige AI-løsninger. Jeg har sidenhen beskæftiget mig med om indhentning og anvendelse af data er etisk, men der er en dimension jeg har overset – indtil nu.

Jeg sad for noget tid siden med min en af mine AI protegeer og vendte forskellige aspekter af data og etik og det slog mig at opmarkering af data, som komplimenteres med metadata kan være en type opgave til de mindre heldigt stillede borgere i fremtidens digitale samfund.

Tænk på et simpelt eksempel som ansigtsgenkendelse. Her er en AI-model trænet til at genkende ansigter, men hvordan? Jo, når man træner et kunstigt neuralt netværk – AI modellen som ofte bruges til ansigtsgenkendelse, så kræver det træningsdata, som består i en masse billeder.

I den forsimplede version har man nogle billeder som er lagt i én bunke der hedder ”ikke-ansigter”, og nogle billeder som er lagt i en anden bunke der hedder ”ansigter”. Man taler om at kvaliteten ”ansigt” eller ”ikke-ansigt” er opmarkeret som metadata på billederne.

Træningsprocessen er så at man tager et billede fra en af bunkerne som input og giver til AI-modellen. Den utrænede model har vægtede neurale forbindelser i sig som gør at den med en enkelt output-neuron kommer med et procentuelt gæt på om det er et ansigt.

Herefter får den at vide om det var et ansigt eller ej – det vil sige hvor meget den gættede forkert, og så bruger den en algoritme til at justere sine neurale forbindelser efter dette. Den lærer lidt mere ved hvert billede, og der skal rigtig mange billeder til.

Illustration: EDJ

Men hvem har lagt alle billederne i den rigtige bunke? Hvem har siddet og manuelt opmarkeret data med metadata som AI modellen skal bruge som facit til at korrigere sig selv i sin læringsproces? Forestil dig at skulle udføre den opgave på 500.000 billeder.

Det lyder som en opgave vi da lige eksporterer til Kina eller Indien ikke? Og her slog det mig – fremtidens etiske løsninger benytter det jeg vil kalde ”Fairtrade Data”. Det er et nyt begreb og perspektiv på at lave løsninger som er både datadrevne og bæredygtige.

For hvad er forskellen på det og historier som at elbiler kræver råmaterialer som i dag udvindes vha. børnearbejde i kummerlige, sundhedsfarlige koboltminer? Vi har nogle klimamål vi skal nå via ny teknologi, men de tager ikke forbehold for de afledte effekter uden for Danmarks grænser, hvilket virker helt forkert.

Jeg er selv ret pessimistisk omkring AI-modeller der selv finder svarene i rå data, med mindre vi udelukkende opererer i lukkede matematiske systemer såsom spil eller meget smalle/specifikke problemdomæner. Derfor tror jeg at vi får brug for masser af opmarkeret data i fremtiden, og når opmarkeringen ikke sker indirekte gennem vores almene, digitale adfærd, risikerer vi at det bliver en opgave for de laveste samfundsklasser og måske endda tredjeverdenslande.

Så må vi se hvor lang tid der går før der bliver stillet krav til at vores AI løsninger er trænet på bæredygtigt anskaffet ”Fairtrade Data”.

Kommentarer (32)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Niels Madsen

Ville der ikke være mere "etik" i at sørge for, i første omgang, ikke at tvangs-ekspropriere sin egen befolknings private data på bedste kinesiske manér, førend at vi beslutter os for hvem som skal arbejde i sweatshops'ene?

Og må der så heller ikke være noget kinesisk sved i den hardware som overvågningmaskineriet skal køre på?

  • 5
  • 4
#2 Niels Madsen

...at give denne "opgave til de mindre heldigt stillede borgere i fremtidens digitale samfund". Så kan de selv være med til at bygge det apperat som skal finde yderligere besparelsespotentialer på velfærdsområdet, og som kan kontrollere at de ikke ser for glade ud på Facebook når de søger om pension.

Dejligt selvsupplerende system som baner vejen for færre omsorgs jobs, og samtidigt sikrer et passende antal nye "mindre heldige" som så kan oplære AI med idiot-arbejde. En vidunderlig samfundsmodel.

  • 5
  • 3
#3 Erik David Johnson Blogger

Hej Niels,

Jeg synes det er godt at du har en holdning til brug af private borgeres data, og jeg er glad for dine kommentarer, men hvis du kunne målrette kommentaren til indholdet af artiklen du svarer på har jeg nemmere ved at svare tilbage igen.

Du siger som jeg forstår det stort set - "jeg har et andet emne jeg synes vi skal fokusere på først", og det er fair nok, men passer den what-about-ism ikke på samtlige indlæg relateret til dataetik eller bare data?

Måske misforstår jeg din kommentar.

/Erik

  • 8
  • 1
#4 Niels Madsen

Tak for påmindelsen, Erik. Lad os prøve at holde fokus på fairtrade og etik, som det jo handler om. -Vel i almindelig tale noget med at sikre at indsamling og brug af privatdata ikke krænker menneskers rettigheder i processen eller på længere sigt. Hvor skal vi begynde?

  • 0
  • 0
#6 mikkel Holm

men hvis du kunne målrette kommentaren til indholdet af artiklen du svarer på har jeg nemmere ved at svare tilbage igen.

Det skal nok ses i sammenhæng med din tidligere skrevelse: Danmarks nationale datastrategi; hvor du helt stoppede med at svare tilbage - blandet andet mit indlæg. Så skal du undlade at ligge op til debat.

Du skriver: "Vi har nogle klimamål vi skal nå via ny teknologi". Det mener jeg er helt galmatias. Vi ved allerede nu, hvad der skal til for at stoppe den globale opvarmning. Men menneskeheden vil ikke give afkald på alle de goder, til fordel for miljøet. Vil du gå forest og slukke for din kære AI maskine? Den udleder unødvendig CO2 og forbruger vigtige resourcer.

  • 7
  • 6
#7 Joakim Crafack

Jeg kom under læsning af dit indlæg til at tænke på platformen "Mechanical Turk", der blev lanceret for længe siden.

Den var som jeg husker det beregnet til at outsource ensartede opgaver der kræver menneskelig intelligens, fx at berige billeder og videoer med metadata.

Ved du om den type platforme rent faktisk bliver anvendt indenfor dit felt til at skabe/berige/forfine træningsdata?

/Crafack

  • 1
  • 0
#8 Erik David Johnson Blogger

Hej Lars

Den misforståelse vil jeg gerne svare direkte på. Jeg sammenstiller ikke de to.

Der er en tendens inden for IT til at de opgaver der ikke kræver specialviden eller dybt domænekendskab eller kulturforståelse kan løses af billigere arbejdskraft i udlandet - typisk Indien eller Kina. Jeg ser en positiv tendens hvor udenlandsk arbejdskraft fra lande med lavere levestandard og lønniveauer end DK behandles lige med deres danske kollegaer, men vi er der ikke endnu, og det er også en helt anden diskussion.

Ligeledes er der en tendens til at de mest simple opgaver i det danske samfund assoscieres med lavere samfundsklasser. Det er derfor universitetsuddannede "nægter" at tage imod jobs som kassedame, rengøring, når de ikke kan finde andet - for det er de jo blevet for fine til.

Det er ikke noget jeg anbefaler eller billiger - kun en observartion. Min pointe er at dette skal vi undgpå i fremtidens samfund, og her er det relevant også at forholde sig til hvordan AI løsningers træningsdatagrundlag er fremskaffet på en fair, bæredygtig måde.

/Erik

  • 3
  • 0
#9 Erik David Johnson Blogger

Hej Joakim

Jeg forventede lidt dette spørgsmål, så jeg har tænkt lidt over det. Det vi kan med AI modeller i dag er jo at dele billeder, tekster, data op i bunker som AI modellen regner sig frem til er ensartede ud fra uspecificerede, unavngivne karakteristika. Så skal vi mennesker så stadig se på hvordan vi vil klassificere disse bunker (klynger), men man kan sige at meget af arbejdet derved er gjort.

Der hvor tilgangen kommer til kort er hvor der er helt specifikke karakteristika som er så komplekse og målrettede ud fra prædefinerede træningsmål, at de skal udspecificeres af mennesker med menneskelig kognition og adgang til vores fælles livsform/ontologi.

Hvis man skal dykke mere ned i det mangler AI en menneskelig ontologi at forholde sig til, og et afsæt i vores fælles livsform frem for den logiske atomisme der kendetegner løsninger i dag. Min forskning i AI beskæftiger sig mere med spørgsmålet hvis det har interesse:

http://erk.dk/wp-content/uploads/2018/10/From-Wittgenstein-to-Ontology-E...

  • 1
  • 0
#10 Martin Kofoed

Er vi ikke ude i "problem-import" her?

Der er dælme godt nok en afgrundsdyb forskel mellem at se børn kravle rundt i koboltminer, så velstillede vesterlændinge kan green-washe egoet med (endnu) en Tesla i indkørslen, og så en tech-butik med samlebåndsarbejde i optræning af neurale net. Førstnævnte er rigtigt nok ufatteligt uetisk, ja, decideret ulækkert, men vi ser åbenbart gennem fingre med det "fordi klima". Sidstnævnte er ufarlige, meningsfyldte jobs, som indtil dato har hevet tusinder og atter tusinder af mennesker ud af fattigdom.

Jeg synes måske, du er med til at udvande og måske endda negligere problemerne med børnearbejde i farlige jobtyper, når du mener, at vi skal til at bøje etik-begrebet ned over dét at sortere billeder på en skærm. Jeg er ret sikker på, at - givet valget - så ville børnene gerne op af minerne og ind foran skærmene ... Det har jeg svært ved at se noget som helst uetisk eller ikke-bæredygtigt i?

  • 5
  • 0
#12 Jakob Skov

Man kan stille spørgsmålet om boolean bør være udgangspunktet? Sortering i flere kasser hvor midten er "kommer an på...", "måske" og "ved ikke", kan i nogen grad være en fordel, idet miskarakterisering/lavere datakvalitet i input i så fald må antages at falde i midterste kasser.

KISS: Hvis en person er i tvivl om et billede er i den ene eller anden kategori, er det ikke ideelt som del af første træningsdata, uagtet.

Rom blev ikke bygget på én dag. Hvorfor skulle en AI kunne det hele fra dag 1? Generelt er det bedre at have en relativt lille type 1/2 fejl ved et beskedent datasæt og bygge ovenpå, end idriftsætte et ringere produkt og håbe at det bliver bedre over iterationerne. Som du selv nævner kræver det rigtig mange iterationer at kalibrere.

  • 0
  • 0
#13 Claus Wøbbe

Når vi ser bort fra sourcingmuligheder som fx citizen science og Captcha er anvendelsen af levende mennesker som arbejdskraft givet vis en god mulighed. Det er specielt en super mulighed for uuddannet arbejdskraft - selv et barn kan udføre arbejdet.

Dermed skaber du jo beskæftigelsesmuligheder for helt fattige mennesker, hvilket da er en god ting.

Jeg kan derfor ikke rigtig se problemet.

Husk på, at børnearbejde i u-lande ofte er et alternativ til værre ting som fx prostitution.

  • 3
  • 0
#14 Simon Mikkelsen

Et andet aspekt er hvor data kommer fra. Har man fået 500k billeder fra et socialt netværk som ikke har spurgt deres brugere, eller som har gemt tilladelsen væk i de 30 siders betingelser ingen har en chance for at læse at forstå. Måske har man juridisk lov til at gøre det man gør, men moralsk er data tyvstjålne.

Har man bare ladet en robot samle ind hvad de kan af billeder på internettet, kan man også regne med at man krænker mange fotografers copyright, ligesom man heller ikke har fået lov. Hidtil har man lukket øjnene - men det er ikke kun moralsk forkert men direkte ulovligt.

  • 6
  • 0
#15 Bjarne Nielsen

Et andet aspekt er hvor data kommer fra.

Jeg er også sikker på, at der er stor forskel på, hvilke data man snakker om.

De fleste er nok helt trygge ved at mennesker kigger med, når man træner med billeder af f.eks. ulve og huskier, mens når mennesker sidder og lytter med på lydoptagelser fra private hjem fra f.eks. Alexa (ofte med uhyre privat indhold) for at træne stemmegenkendelse, så vakte det berettiget og forventelig bestyrtelse (det er en ren tilståelsessag, at man havde gået stille med dørene).

  • 4
  • 0
#16 Niels Madsen

Ja, det var netop der jeg gerne ville hen med mine første kommentarer. Jeg synes at det er bizart at tale etik og fairtrade længere ude i "værdi-kæden" uden først at sikre at data også er etisk indhentet til at starte med.

Erik skrev fornyligt en artikel på denne blog, med titlen "Dataetik – det handler om tillid", hvor det lader til han holdning er at borgerene ikke som udgangspunkt selv skal have retten og muligheden for at afgøre hvilke formål deres private data må anvendes til, og af hvem.

Det er netop der at jeg synes at det bliver groteskt når han så i denne artikel begynder at bruge betegnelser som Fairtrade om data. For at sætte det lidt på spidsen, så bliver hælervarer jo heller ikke Fairtrade ved senere at blive sorteret og pakket af en person med rimelige arbejdsvilkår.

Jeg har svært ved at se denne blog som andet en end del af det større lobby-arbejde som skal hvidvaske yderligere ekspropriation af befolkningens privatliv, hovedsageligt til gavn for visse private økonomiske interesser. Og af denne grund kommentere jeg på denne blog, som jeg ville til en sælger eller politiker med egne økonomiske eller ideologiske dagsordener, og ikke som jeg ville kommentere en machine-learning expert med en teknisk/videnskabelig dagsorden.

  • 4
  • 2
#18 Erik David Johnson Blogger

Her er først et generelt svar på nogle ting der går igen i kommentarerne:

1: Jeg "lader til" at have en holdning hvor jeg vægter innovation over etisk behandling af private borgeres data og rettigheder (med refernece til tidligere blog indlæg)? Det er direkte forkert. Jeg deltager i debatten hvor disse hensyn skal vægtes og min oplevelse er at med mindre man er 100% i den ene side af debatten, er det altid nogen der opfatter en som 100% i den anden side. Jeg arbejder med at lave løsningerne, men beskæftiger mig også med etik og meta-etik omkring processen, rettigheder, etc. Desværre svares der ofte på overskriften med en antagelse om at jeg er en champion for grov udnyttelse af borgernes data på bekostning af deres rettigheder. Helt skørt bliver det når der tales til "I" eller "dem" som en bussemand/"The Man", som i øvrigt står til at tjene penge på dette og har det som skjult dagsorden. Intet kunne være længere fra sandheden, men prøv at deltage i debatten uden at blive opfattet sådan af nogle. Jeg svarer altid alle så godt jeg kan, men fortsætter det ensidige anklageskrift er det i mine øjne rimeligt at stå af. Ofte er der en mistillid at spore, som lader til at have indfundet sig totalt uafhængugt af mit indlæg, og som intet jeg siger eller gør kan ændre på.

2: Eksemplet med billeder er ikke skarpt/retvisende nok. Her er jeg enig, men mit må var at opsætte en ekstremt pædagogisk pointe alle kunne forstå. Jeg har fået ros for at artiklen var tilgængelig for alle, men det er klart at hvis du er Data Scientist eller ML Ingeniør, så virker eksemplet forsimplet og skævt - fuld forståelse for det. Min intention var at have alle med.

3: Jeg vil ikke negligere børnearbejde, men beskrive de fællestræk der er mellem de to eksempler ift. at udnytte de svage på en ikke-fair måde. Debatten er utrolig kompleks, men det hjælper ikke hvis man dissekerer alle analogier som ment fra forfatterens side som totalt sidestillede. Selvfølgelig er de ikk det. Fællestrækket jeg identificerer er at noget der ved første øjekast virker som en god ide, kan have etiske problemstillinger forbundet med sig hvis man kigger længere tilbage i produktionslinjen - andre fællestræk mener jeg ikke der er.

  • 1
  • 1
#20 Erik David Johnson Blogger

Hej Claus

Umiddelbart kunne det være en god ting som du selv skitserer, men vi skal bare sikre at hvem end der udfører arbejdet kompenseres på en fair måde. Der er jo en tendens til det modsatte for de meget simple opgaver der er nemme at "eksportere".

/Erik

  • 0
  • 0
#21 Erik David Johnson Blogger

Hej Simon

Virkelig god pointe! Hvis man skal undgå at "stjæle data" og benytte brogernes adfærdsdata som træningsdata uden deres tilsagn, så kan behovet for manuel opmarkering stige, og så er problemstillingen endnu mere relevant.

Strategien for at lære en AI-model ansigtsgenkendelse som den er optegnet her er også groft forsimplet og er skåret ud som et meget simpelt eksempel så alle kan være med ift. tankegangen om manuelt opmarkeret træningsdata.

/Erik

  • 0
  • 0
#22 Erik David Johnson Blogger

God pointe, og jeg er helt enig (din første kommentar)

Din anden kommentar synes jeg er diskuteret til ende. Jeg har sagt at jeg ikke kan følge dig i at der ikke kan tages stilling til denne problematik (og diskutere den) før noget andet du mener er mere presserende er løst.

Jeg er glad for din ærlighed når du skriver:

Jeg har svært ved at se denne blog som andet en end del af det større lobby-arbejde som skal hvidvaske yderligere ekspropriation af befolkningens privatliv, hovedsageligt til gavn for visse private økonomiske interesser. Og af denne grund kommentere jeg på denne blog, som jeg ville til en sælger eller politiker med egne økonomiske eller ideologiske dagsordener, og ikke som jeg ville kommentere en machine-learning expert med en teknisk/videnskabelig dagsorden.

Det var også min fornemmelse. Forestil dig så at du ikke har "regnet mig ud" og at dine fordomme ikke er velbegrundede, og at du er mig der skal prøve at svare. Det er ikke så nemt at gøre på en pæn måde. Jeg prøver at svare alle på en ærlig og fair måde, men din totale, ubegrundede mistillidserklæring får lov til at stå ubesvaret.

/Erik

  • 2
  • 1
#23 Niels Madsen

Jeg har muligvis ikke regnet dig ud, men det bliver jo ikke nemmere af at du bliver ved med at henvise til at de etiske problemstillinger er så uhyre komplekse, vel underforstået at det ville være håbløst at skulle redegøre for dem her.

Alt hvad jeg ved om dit virke mht. etik er at du er hyret af erhvervsministeriet til have noget med data-etik at gøre, driver konsulentvirksomhed vedr. AI, både for det offentlige og det private, præsenterer dig som humanist når du holder foredrag for magisterforeningen og som AI ekspert når du har med ikke-humanister at gøre.

Men hvis du har nogen holdninger til hvor grænserne går, rent etisk, mht indsamling og anvendelse af persondata, altså udover at det gøres bedst i Danmark, så synes jeg godt nok at du holder kortene tæt ind til kroppen. Og så er dine læsere jo henvist til selv at udlede hvad du måtte mene, f.eks. på baggrund af dit øvrige virke.

  • 3
  • 2
#24 Erik David Johnson Blogger

Hej Niels

Jeg præsenterer altid mig selv som BÅDE humanist og IT-ekspert til mine foredrag. Pointen er jo netop at min forskning i AI trækker på begge områder, og aldrig var nået langt med kun det ene. Jeg passer ikke kun ned i den ene kasse og har aldrig foregivet andet - jeg tror det måske er der vi går fejl af hinanden?

Beklager til alle i tråden der synes dette bliver lidt for meget en samtale mellem mig og Niels. Niels må jeg foreslå at du tilføjer mig på LinkedIn og vi tager den videre der? Så kan vi evt. aftale at finde tid til at tage en snak om vores uenigheder :)

/Erik

  • 0
  • 1
#25 Bjarne Nielsen

Beklager til alle i tråden der synes dette bliver lidt for meget en samtale mellem mig og Niels.

Tja, det er altid trist, når en debat bliver personlig, men den var sådan set allerede kørt af sporet inden da.

Jeg sidder i hvertfald tilbage med en følelse af se et forsøg på udelukkende at ville debatere, hvorvidt den ene eller den anden måde, at sminke en gris på, er bedst, uden hverken at ville forholde sig til det fornuftige i at sminke grise, eller grisen selv - og det virker ... absurd.

Der er flere indlæg om det problematiske i afgrænsningen. F.eks. Jens Frederik, som længere oppe siger flg.:

Blogindehaverens kommentar om at holde sig til dagens emne og ikke her diskutere om de data man bruger er etisk og måske endda også lovgivningsmæssigt lovligt "tilgængelige" får ordet fair til at være lidt barokt.

  • 2
  • 2
#26 Erik David Johnson Blogger

Hej Bjarne

Noget er vi da enige om så ;-)

Bemærk også min distinktion mellem optagede adfærdsdata (for eks. uretmæssig udnyttelse af Facebook profilbilleder) og manuelt opmarkeret data, hvor ansigter af folk der har givet tilsagn på en ordentlig måde (en udfordring i dag hvis du spørger mig), som opmarkeres af arbejdskraft der er kompenseret på en fair måde for deres arbejde og bidrag til værdikæden.

I denne artikel taler jeg om etiske problemstillinger ved sidstnævnte tilgang. Det skal på ingen måde tages som at førstnævnte ikke er meget relevant at forholde sig til (og mere presserende).

Jeg kan forsikre dig om at jeg ikke forsøger at sminke nogen gris, men hvis det er, må du meget gerne sætte nogle flere ord på hvad der er gris og hvad der er sminke i din optik - jeg skulle jo nødig antage at vide hvor du kommer fra uden direkte belæg ;-)

/Erik

  • 0
  • 0
#28 mikkel Holm

Jeg arbejder med at lave løsningerne, men beskæftiger mig også med etik og meta-etik omkring processen, rettigheder, etc.

Kære Erik,

Der er blevet spurgt meget ind til din holdning omkring det emne, i kraft af dine blog's. Jeg har endnu ikke fået svar på hvad din holdning er, og derfor bliver en en ensidigt debat. Hvis du tør svare på spørgsmålet, ser jeg gerne frem til dét.

Jeg er foretaler for en opt-out for brugen af borgerens personfølsomme oplysninger, hvis tilliden ikke er tilstede. Hvad er din holdning til dét, i og med de data også kan benyttes til AI, hvilket du arbejder inden for.

  • 4
  • 0
#29 Erik David Johnson Blogger

Hej Mikkel

Jeg står ved det svar jeg også gav dig her: https://www.version2.dk/blog/danmarks-nationale-datastrategi-1091239

Den høje tillid vi har i DK må ikke sættes over styr i forsøget på at finde nye smarte løsninger, men opt-out eller ikke, er alt for sort/hvidt for mig. Hvad med anonymisering? Hvad med selvejerskab og nyeafledte platforme til datadeling? Jeg er imod misbrug mens du er imod brug virker det som om - eller du opfatter enhver brug som misbrug. Det er som om vi allerede har mistet den tillid du argumenterer for at bevare.

Jeg tror ikke jeg kan give dig et svar du vil være tilfreds med, da jeg ser det som en glidende skala hvor vi ikke har råd til at stille os i hverken den ene eller den anden ekstrem, men hvis du spørger mig skal vi da stille os lidt i den modsatte ende af Kina og USA, men vi har brug for at alle perspektiver har en stemme i debatten. Der er nogen der kun er fokuseret på at lave løsningerne og finde på smarte anvendelser af data, der er nogen der udelukkende ser kritisk på om anvendelsen af data er etisk forsvarlig, og så er der dem der har fokus på begge ting, som jeg selv.

/Erik

  • 0
  • 0
#31 Sune Marcher

Den høje tillid vi har i DK må ikke sættes over styr i forsøget på at finde nye smarte løsninger, men opt-out eller ikke, er alt for sort/hvidt for mig.

Jeg ville foretrække opt-in. Hvis formål ikke kan beskrives simpelt og betryggende nok (samt være AFGRÆNSET til det angivne formål!)) til at få accept fra hr og fru Jensen, well... tough luck.

Hvad med anonymisering?

Med den måde der bliver kokset rundt mellem anonymisering, pseduonymisering, og de helt grelle tilfælde hvor der ikke er nogen reel beskyttelse fordi der kan krydsrefereres til andre registre, well... nej.

Det er som om vi allerede har mistet den tillid du argumenterer for at bevare.

Med de forskellige sager der har været, og den forbandet nederdrægtige måde staten forsøger at hive data ud af os (fx genomregistret, for at tage noget af det værste) har jeg for længst mistet tilliden – og håber sagte at det kan sprede sig til resten af befolkningen. Det lader til der skal at der skal et mindre oprør til at få stat og forskere til at respektere privatliv og datasikkerhed.

  • 4
  • 0
#32 Bjarne Nielsen

Jeg ville foretrække opt-in.

Også jeg. Og jeg har meget svært ved at se, hvordan man kan tale om etik, når det modsatte er tilfældet (1).

Så det er en nødvendig betingelse, men det er ikke en tilstrækkelig betingelse. Lad mig give nogle punktnedslag med udgangspunkt i især Youtubes algoritmer:

Det er ikke nok, at give Hr. og Fr. Jensen muligheden for tilvalg, hvis formålet beskrives simpelt og betryggende, men utilstrækkeligt, som f.eks. "vi finder mere af det, som vi tror du vil kunne lide, udfra hvad du selv vælger". Heller ikke selvom algoritmen kun bruges til anbefalinger, for der er en skjult dagsorden om at løbe med din opmærksomhed, og suge dig ind, så du lige skal se en mere, og en mere, og en mere ...

Vi kan ikke vide det, for det er ugennemsigtigt, står uden for ansvar og dækker sig ind bag forretningshemmeligheder (hvad er dybt problematisk i sig selv), men meget tyder på, at algoritmen er kommet frem til, at det bedst sker ved at pakke dig ind i en filterboble og føde dig med mere og mere ekstremt indhold. Skulle samtykket være informeret, så skulle det gøre opmærksom på, at anbefalingerne er manipulerende og afhængighedsskabende. Uden den information af tilsagnet hult og meningsløst.

Men hvem holder øje med algoritmen? Og hvem holder øje med dem, som holder øje? For hvis det eneste hensyn, som vi vil kræve af dem, er hensynet til deres egen berigelse (aka. profitmaksimering), så skal der være andre til at sætte rammerne.

Nogle vil her mene, at hvis folk selv og frivilligt opsøger dette virtuelle opium, så er det deres eget problem. Men det er kun sjældet en bilateral relation uden sideeffekter, effekterne rammer også andre (2). Med en stigende grad af politisk polarisering og en virkelighed, hvor ubehagelige sandheder mere end nogensinde drukner i bekvemme løgne. Hvor fordomme og bias bliver forstærket, og hvor virkeligheden bliver forvrænget indtil vi ikke er istand til at forstå hinanden. Hvis det ændrer samfundet, så er det ikke noget, som man kan aftale sig ud af på individuelt plan. Hr. og Fr. Jensens forkærlighed for mere af det samme og Youtubes hiven efter annoncekroner må ikke få lov at ødelægge demokratiet og skabe splid og misforståelser. Det kan godt være, at begge parter har det OK med det, men det er det ikke værd, og det kan derfor ikke være deres valg. I hvertfald ikke alene.

Det er fint nok at lave partytricks i laboratoriet, men hvis man sætter dem ud i verden, så skal man også stå på mål for, hvad der sker. Hvem husker ikke, hvad der skete, at Microsofts Tay forlod de trygge rammer i laboratoriet, og mødte virkeligheden? Det var åbenlyst at selv de mest højpandede folk ikke anede, hvad de havde skabt for et monster.

Vi skal heller ikke være blinde for, at der er en indbygget modstrid imellem privacy og accuracy - og at derfor ikke kan overlade det til algoritmebyggerne at finde den rette balance, for de vil altid favorisere det, som betyder allermest for dem, nemlig algoritmens ydeevne, og derfor tilsvarende tale det modsatrettede aspekt ned, nemlig andres privacy (3). De vil altid tale for at de kan se sagen fra begge sider, og finde et fornuftigt midtpunkt (og det er såre menneskeligt, for hvem vil ikke mene det om sig selv?), men de er på ingen måde upartiske; alle i midtpunkt i deres egen verden, og alt sættes naturligvis i perspektiv med det udgangspunkt.

Og det inden at vi kommer ind på manglen på accountability og transparency paradokset, og alle de problemer som opstår med målrettet manipulation, som one-pixel attacks og adversarial patterns. Mennesker er utroligt gode til at finde smuthuller og udnytte dem, og hvis man automaticerer svaret, så har man per definition koblet al sund fornuft fra. Og tillader man det at ske uden transparens og ansvar, så beder man virkelig om problemer! Man efterlades endda med et indtryk af skaberne ikke engang selv forstår det fulde potentiale i det, som de fremmaner. Som Youtubes algoritmer og som Tay.

Ad (1): Jeg er godt klar over, at der kan være sjældne og enkeltstående undtagelsestilfælde, men de undtagelser skal så netop være sjældne og enkeltstående tilfælde, og ikke hverken udgangspunktet eller default.

Ad (2): Selv hvis det var en helt frivillig ting fuldkommen uden sidevirkninger, så påhviler det stadig - efter min mening - en forpligtelse til at beskytte de svage imod at blive bondefanget, og imod selvskade. Jeg ved godt, at det ikke er et universelt accepteret synspunkt.

Ad (3): Modstriden imellem accuracy og privacy er ikke unik for algoritmer. Det er en langt mere generel problemstilling.

  • 3
  • 0
Log ind eller Opret konto for at kommentere