Gæstebloggen

Er der ingen grænser for, hvad AI skal have skylden for?

AI, eller på godt dansk kunstig intelligens, er en teknologi, der rummer utallige muligheder og måske i fremtiden vil kunne løse universets gåde. Men kunstig intelligens er ’bare’ udnyttelse af computerkraft til at huske og bearbejde store datamængder – intet andet.

Johannes Tange Jørgensen er COO i C2IT Group. Illustration: C2IT

Så når jeg her på Version2 for nylig kunne læse, at New York City nu overvejede at indføre en ny lov mod AI- diskrimination i forbindelse med rekrutteringsprocesser, så står jeg lidt uforstående overfor, hvad man kan finde på at lovgive omkring.

Ifølge lovforslaget skal virksomheder være forpligtet til at informere jobansøgere, hvis virksomheden har benyttet AI i udvælgelsesprocessen af kandidater. Årsagen er, at denne form for AI-hjulpet udvælgelse tidligere har vist sig at diskriminere mod nogle samfundsgrupper.

Diskrimination og alle andre former for uretfærdighed bør naturligvis bekæmpes med hård hånd, og det er slet ikke umuligt, at AI kan have denne negative effekt på en ansættelsesproces. Men et eller andet sted undervejs i processen har et menneske været inden over og har defineret og valgt at benytte den algoritme, der diskriminerer mod for eksempel kvinder, farvede eller +50-årige.

Kunstig intelligens eller ej, så ændrer det ikke ved det faktum, at man ikke ønsker at ansætte personer fra disse samfundsgrupper. Selvom screeningsprocessen var foregået på gammeldags manér uden AI, og udvalget af kandidater havde spændt bredt over alle samfundsgrupper, så afhænger valget i sidste ende stadig af den HR-chef, der sidder overfor kandidaten og skal træffe beslutningen. Hvis HR-chefen ikke specifikt går efter en kaukasisk mand i slutningen af 30’erne, så må det da vække undren, at hele feltet af ansøgere er ryddet for eksempel for kvinder i den fødedygtige alder.

Derfor er det nu en gang min tese, at der står mennesker bag udvælgelsen – både først og sidst i processen. Og at man så anvender AI til at komme hele bunken af ansøgninger igennem, i stedet for at springe halvdelen over, fordi man simpelthen ikke har ressourcer til at læse alle 600 ansøgninger ordentligt igennem, er vel også et skridt i retning af mere retfærdige rekrutteringsprocesser.

Det er i øvrigt svært at se den dybere mening med en lov, der fortæller dig, hvis du bliver uretfærdigt behandlet, uden at du har mulighed for at gøre noget ved det. Virksomheden har jo lov at ansætte en mand, en kineser eller en under 40, hvis de mener, at det er den profil, der passer bedst til jobbet. Det eneste, du reelt kan gøre, er at undlade at søge jobbet, hvis du får at vide, at der bruges AI i udvælgelsesprocessen.

Men hvordan stiller det dig så lige? I øvrigt kender du jo ikke på forhånd algoritmen, og ved derfor ikke, om netop du vil være den foretrukne profil. Kunstig intelligens er et redskab, der kan er ideelt til at give beslutningstagere en dybere og bedre baggrundsviden at basere deres beslutninger på – intet andet. Kunstig intelligens kan for eksempel baseret på dine tidligere ansættelser fortælle HR-chefen, om det er sandsynligt, at du vil blive lykkelig i den opslåede stilling eller ej – og det er vel heller ikke så skidt endda.

Kommentarer (31)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Claus Bobjerg Juul

I Danmark har vi allerede love der forbyder automatiske afgørelser der har betydelig betydning for dig.

Du har ret til ikke at være genstand for en automatisk afgørelse - herunder profilering - i tilfælde, hvor afgørelsen har en betydelig påvirkning for dig

Kilde : https://www.datatilsynet.dk/databeskyttelse/hvad-er-dine-rettigheder/ret...

Så dybest set vil jeg påstå at enhver ansættelses proces ikke kan anvende hverken AI eller algoritme baseret systemer til at udvælge eller fravælge ansøgere, da det for de fleste ansøgere vil have betydelig betydning om de får jobbet eller ej.

Jeg ser en mulighed for at systemer kan bruges til fx. at gruppere en mængde ansøgninger, men det vil stadig være nødvendigt at et menneske læser/skimmer alle ansøgninger for at verificere at systemet har grupperet korrekt.

Grupperinger kan fx være ansøgninger på samlet én side, hvilket kan være tegn på manglende kompetancer, men det kan også bare være en alternativ ansøgning.

  • 14
  • 0
#2 Christian Münster

Mit bud er Hollywoods uendelige bane af film hvor AI fremstilles som sorteper - almindelige dødelige er nærmest fobiske omkring AI begrebet.

  • Det er jo sådan noget IT noget, som vi alle ved er det samme som magi.

Jeg ser indikationer på dette, helt tilbage fra de tidlige sort/hvid film, hvor det typisk var vidskabsfolk der var sorteper i historien, hvor AI begrebet som sorteper overtog rollen, et sted i halvfjerdserne og firserne, efterhånden som verden fik mere og mere respekt for videnskabsfolk. Et godt eksempel er de helt tidlige Alien(s) film og de seneste origin fortællinger.

Forfatteren Michael Chrithon har muligvis også lille del i skylden. og; træk nu lige vejret før i flamer :)

Manden har jeg set omtalt som hovedinspirator til flere store Science Fiction Klassikere. Exempelvis Terminator, Westworld, Jurassic Park osv. som nok i virkeligheden er inspiret af M. Shelly's Frankenstein.

At gøre oprår mod sin skaber er vel i virkeligheden et oldgammelt begreb og kan sikkert også tolkes ud af biblen :)

  • 3
  • 6
#4 Søren Skaarup

MIn datter bor i UK hvor det er helt almindeligt at bruge robotter til at sortere i ansøgningsbunkerne (ved så ikke hvor meget "AI" der reelt er over de robotter). Det fører til den absurde situation at folk betaler firmaer for at "robotisere" deres ansøgninger så de har de rette nøgleord i den rette kombination og det rette omfang, til at komme igennem nåleøjet. I den branche hun arbejder I er der adskillige eksempler på hvordan højt-kvalificerede ansøgere bliver sorteret fra, fordi de ikke har robot-optimeret deres ansøgninger.

  • 21
  • 0
#10 Ditlev Petersen

"Men et eller andet sted undervejs i processen har et menneske været inden over og har defineret og valgt at benytte den algoritme, der diskriminerer mod for eksempel kvinder, farvede eller +50-årige."

Der har ikke nødvendigvis været et bevidst valg af fordomme. Hvis man træner en AI med eksempler på fordomsfulde menneskers beslutninger (og fordomsfulde er alle vel, i større eller mindre grad), så bliver "maskinen" det naturligvis også.

  • 17
  • 0
#11 Bjarke Haack Jørgensen

Fordi det ikke er et menneske. Der vælger noget om dig/for dig i dit liv. Måske er der et enkelt meneske bag algoritmen, måske er der en hel flok, måske er det copypasta - men du ved det ikke. Hvis der ikke blev brugt AI til at "hjælpe" i ansættelsesprocessen, har du som regel navngivne personer som du kan stille til ansvar for denne bias, og som kan sanktioneres - men en AI? kontakter du alle der har comittet til løsningen og laver en psykologisk udredning om deres barndom? (det var ikke en argumentatorisk pointe, blot filosofisk)

Jeg ved ikke hvad intentionen med loven er, men det giver trods alt ansøgeren en anelse om om diskriminationen er virkelig strukturel og teknisk, eller om der sidder en fordomsfuld person med papirerne.

Og tillad mig lige at udpege nogle ganske fortællende sætninger fra din blog, der fortæller lidt om din tiltro (som måske også er præget af Hollywood?) til AI og hvad man rent faktisk kan udrette med kunstig intelligens:

  1. ... måske i fremtiden vil kunne løse universets gåde.
  2. Kunstig intelligens kan for eksempel baseret på dine tidligere ansættelser fortælle HR-chefen, om det er sandsynligt, at du vil blive lykkelig i den opslåede stilling eller ej – og det er vel heller ikke så skidt endda.
  • 9
  • 0
#13 Mikkel Lund

Hvis en virksomhed er så doven at den ikke selv kan overkomme at: - skrive en dækkende ansøgning - forholde sig til indkomne ansøgninger - tale med flere end bare et par stykker - stille begavede spørgsmål til referencer - danne sig sin mening

... så ligger de jo som de har redt. Der findes faktisk virksomheder der gør sig den ulejlighed at teste de fleste ansøgere, for at skabe baggrund for et kvalificeret interview med dem der derefter er relevante.

Robotisering er skåret over samme læst som optimering af søgemaskiner - hvor udbyderne finder en algoritme der skal finde relevant indhold og robotterne finder ud af hvad der står i den algoritme, så kunderne får flest mulige hits for pengene ..

  • 9
  • 0
#14 Ditlev Petersen

Hvis en virksomhed er så doven at den ikke selv kan overkomme at: - skrive en dækkende ansøgning

Du mener stillingsopslag, ikke?

Men man kan jo hurtigt have en situation, hvor diverse botter kommunikerer indbyrdes om både stillingsopslag, kandidater ud fra en kandidat-database (jobbank) og skriver ansøgninger for endelig at kassere dem.

Vi andre kan så gå tur i skoven.

  • 5
  • 0
#15 Emil Kampp

Kunstig intelligens eller ej, så ændrer det ikke ved det faktum, at man ikke ønsker at ansætte personer fra disse samfundsgrupper.

Præmissen her er, at en virksomhed aktivt ønsker at diskriminere og derfor har indstillet deres algoritme på en bestemt måde. Det ser jeg ikke nogen argumentation eller bevis for i artiklen.

Jeg tror nærmere at en udvikler, projekt manager, el.l. har en uset bias, og at dem, der køber services ikke er klar over det, og det går ud over dem, som bliver frasorteret.

  • 3
  • 0
#16 Gert Madsen

Den gamle vittighed, hvor den mindre begavede kontorassistent forklarer den fejlagtige adresse, med at: "computeren" siger det!", bliver nu virkelighed i mange tilfælde.

Det problematiske er selvfølgeligt det ekstra slør, som lægges over beslutningerne. Jeg er sikker på at Eva Berneke, som ikke ville have nyansættelser som var ældre end 36 år, meget gerne ville have skjult det under et AI system. https://www.computerworld.dk/art/247467/kmds-hemmelige-ansaettelsesplan-...

  • 12
  • 0
#17 Benjamin Balder

Fra blogindlægget:

Men et eller andet sted undervejs i processen har et menneske været inden over og har defineret og valgt at benytte den algoritme, der diskriminerer mod for eksempel kvinder, farvede eller +50-årige.

Kunstig intelligens eller ej, så ændrer det ikke ved det faktum, at man ikke ønsker at ansætte personer fra disse samfundsgrupper.

Bizar læsning.

Der er love, f.eks. Forskelsbehandlingsloven, som skal følges. Også helt gængse menneskerettigheder. AI er trænet på gigantiske datasæt, og der er ikke nødvendigvis tale om nogle ulovlige beslutninger fra et enkelt menneske, men en gigantisk bunke data og en algoritme, som er for kompleks til at udredde -- som kan resultere i diskrimination, som ingen helt forstår eller gøres ansvarlige for. Det er jo det, som er problemet.

Sg'da ikke, at HR går ind i AI Settings => [x] Discriminate illegally 😖

  • 11
  • 0
#18 Jakob Skov

I USA er det Civil Rights Act 1964 (CRA), der sætter rammerne.

Den gør at større virksomheder og offentlige partnere kan straffes for diskrimination. Så sent som 2020 skrev Gorsuch (Trump-valgt dommer) et meget velargumenteret forsvar for at homoseksuelle/trans-personer også er dækket i Bostock. Dissenterne gik imod da de ser det som en opgave for lovgivere at godkende "klasserne" eksplicit. Derfor er mange af de almene argumenter i majoritetens beskrivelse relevante.

At New York laver en lov om AI er derfor potentielt dobbelt-konfekt da den kan være dækket i CRA. Kombineret med resultaterne fra de senere års aggressive push for AI, kunne virksomhederne komme i klemme hvis de ikke etablerede eftersyn af deres AI.

  • 2
  • 0
#19 Torben Mogensen Blogger

Hvad nu hvis man har krav på at få at vide, hvorfor man er sorteret fra?

Det skal ikke være nok at sige "maskinen gav dig lav score", man bliver nødt til at forklare hvorfor maskinen gav et lavt score. Ja, det er stort set umuligt, hvis "maskinen" er et dybt neuralt netværk med millioner af neuroner og milliarder af kantvægte. Men det er sådan set pointen.

  • 12
  • 0
#20 Mogens Bluhme

Hvis man mener at der er en ubevidst bias blandt rekrutteringsfolk hjælper det ikke meget ukritisk at træne på alle historiske data - så flytter nissen jo bare med.

Man kunne dog udelade informationer om alder, køn, navne mm.

Nogle rekrutteringsbureauer prøver at tage kampen op mod deres konservative klienter:

https://pov.international/alder-arbejdsmarked-krig-mod-alderskriteriet/

  • 2
  • 0
#22 Niels Madsen

Så behøver man vist ikke at læse mere for at forstå at vi har at gøre med en fantast. Alene den ubehjælpelige formulering "universets gåde" siger mig at der næppe kan være brugt ret meget tid på at tænke over svære spørgsmål eller komplekse problemer. Men tanken er måske at AI ikke kun skal finde svarende men også opfinde spørgsmålene helt selv? Hvis jeres kunstige "intelligens" er så fantastisk, hvad skal i så egentlig med ansatte i det hele taget? I må da kunne klare jer med noget strøm og hardware alene. Nå ja, og så selvfølgelig alt vores "grats" data som i ønsker at staten skal ekspropriere fra borgerne og forære til jeres konsulentvirksomheder.

Version2 skriver at "Gæstebloggen er Version2's one-off-blog, som skrives af fagfolk". Jeg troede egentlig at det var underforstået at der var tale om IT fagfolk, men kan forstå at også varmluftsballon-sælgere er omfattet. Heldigt for disse at Version2 ikke diskriminerer på denne baggrund.

  • 6
  • 0
#24 Jørgen L. Sørensen

Måske de bare vælger sig selv fra som arbejdsgivere.

Måske dette fravalg jeg tog jeg for 6-7 år siden. Da skulle jeg udfylde et online-skema til afklaring af stærke/svage sider i processen med at lægge mit cv ind som "simpel" lager-/produktions-arbejder hos et stort vikarbureau, som sørgede for mande-kraft til blandt andet danske virksomheder. Jeg fik en underlig mail retur retur hvori er stod jeg ville blive kontaktet senere. Jeg har aldrig hørt et dyt fra dem.

Heldigvis havde et dansk vikarbureau med rødder i det vestjyske, også ansatte her på østkysten. Disse folk indkaldte job-kandidater til en personlig snak på måske et kvarter, og sendte dem ud til virksomheder når der var et vikarjob :-)

Det er sidstævnte firma jeg anbefaler når jeg snakker med andre :-0

  • 3
  • 0
#27 Jens Bech Madsen

Hvad nu hvis man har krav på at få at vide, hvorfor man er sorteret fra?

Det skal ikke være nok at sige "maskinen gav dig lav score", man bliver nødt til at forklare hvorfor maskinen gav et lavt score. Ja, det er stort set umuligt, hvis "maskinen" er et dybt neuralt netværk med millioner af neuroner og milliarder af kantvægte. Men det er sådan set pointen.

Når jeg ansætter personer så bliver ansøgningerne også vurderet og scoret af et dybt neuralt netværk. Nogle gange frasorterer jeg ansøgere baseret på en fornemmelse. Jeg vil ikke altid kunne give en specifik, objektiv forklaring på fravalget. Det kan være et samlet indtryk af ansøgningens udseende, kvalitet (hvad er det), ansøgerens historik osv.

Jeg tror man skal passe på med ikke at stille krav til maskiner/AI som man ikke stiller til mennesker i forhold til at maskiner/AI skal løse samme opgaver. Vi kan ikke altid forklare, hvorfor vi tager de beslutninger vi tager. Nogle gange trækker vi på vores erfaring uden at kunne forklare i detaljer hvad der ligger til grund for processen.

Eller skal vi indføre et system hvor alle ansøgninger bliver analyseret ud fra målbare kriterier for at undgå disse mere subjektive vurderinger, uanset om et menneske eller en maskine laver vurderingen?

  • 1
  • 0
#28 Gert Madsen

Jeg tror man skal passe på med ikke at stille krav til maskiner/AI som man ikke stiller til mennesker i forhold til at maskiner/AI skal løse samme opgaver.

Jeg ser det mere som et spørgsmål om ansvar. Hvis en person foretager en urimelig/ubalanceret vurdering, så kan vedkommende holdes ansvarlig.

Hvis man lægger en ubalance ind i noget AI, og der ikke er transperans og kan henvises til målbare kriterier, så risikerer vi en form for anarki. Man kan ikke rigtigt holde en maskine ansvarlig.

  • 3
  • 0
#29 Jens Bech Madsen

Jeg ser det mere som et spørgsmål om ansvar. Hvis en person foretager en urimelig/ubalanceret vurdering, så kan vedkommende holdes ansvarlig.

Hvis man lægger en ubalance ind i noget AI, og der ikke er transperans og kan henvises til målbare kriterier, så risikerer vi en form for anarki. Man kan ikke rigtigt holde en maskine ansvarlig.

Det er vel virksomhedens ledelse, der er ansvarlig for de beslutninger, som bliver taget i virksomheden, uanset om det er en menneskelig medarbejder eller et stykke software, der tager beslutningen. Det skal naturligvis ikke være muligt at fraskrive sig ansvaret ved at sige at man ikke forstår hvordan beslutningstageren tager beslutninger.

  • 1
  • 0
#30 Gert Madsen

Det skal naturligvis ikke være muligt at fraskrive sig ansvaret ved at sige at man ikke forstår hvordan beslutningstageren tager beslutninger.

Er det ikke en noget teoretisk betragtning?

Jeg kommer til at tænke på Danske Banks hvidvask, Roskilde Bank uansvarlige udlån, Skats udbytteskandale.

Eksempler på, at ansvar kan fraskrives med uvidenhed som grund, uanset at advarslerne blev serveret på et sølvfad.

  • 5
  • 0
#31 Christian Münster

Nu gik min kommentar mere på, mennesket altid har foretrukket at dræbe, ødelægge og forbyde de ting, mennesket ikke forstår. Og det har da også holdt os i live de sidste 100k år!

I stedet kunne folk bruge ti minutter og sætte sig bare en smule ind i teknologien før de forbyder.

  • 0
  • 1
Log ind eller Opret konto for at kommentere