Dataetisk Råd: Vi blev ikke hørt om »stærkt bekymrende« kunstig intelligens hos Skat

27. december 2021 kl. 09:4727
Dataetisk Råd: Vi blev ikke hørt om »stærkt bekymrende« kunstig intelligens hos Skat
Illustration: Henning Mølsted.
Det er »stærkt bekymrende,« at Folketinget reelt ikke ved, hvor principiel og skelsættende en beslutning, der er truffet om Skats adgang til i blinde at høste og anvende borgernes data, mener formanden for Dataetisk Råd.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Skattevæsenet har fået bedre muligheder for at indsamle og samkøre data om danske borgere i forbindelse med kontrol.

Folketinget har for nyligt vedtaget et lovforslag, der betyder, at Skat må indsamle data fra alle andre offentlige myndigheder og offentligt tilgængelige kilder og samkøre dem med skats egne data for udvikle machine learning-baseret kontrol. Loven blev vedtaget uden modstand i Folketinget.

Som Version2 løftede sløret for i forbindelse med 1. behandlingen af lovforslaget i starten af december, vil Skat gennemføre en »bedre og mere intelligent kontrol.«

Derfor skal det vedtagne forslag give skat lov til at »behandle, herunder samkøre de oplysninger, Skatteforvaltningen er i besiddelse af med henblik på at udvikle både machine learning-modeller og analytiske modeller, som vil kunne målrette, understøtte og effektivisere Skatteforvaltningens myndighedsudøvelse.«

Dataetisk Råd er ikke blevet hørt

Men Dataetisk Råd er ikke blevet hørt i forbindelse med behandlingen af den nye lov.

Artiklen fortsætter efter annoncen

På sociale medier skriver rådets formand Johan Busse:

»Det er stærkt bekymrende, at Folketinget reelt ikke ved, hvor principiel og skelsættende en beslutning, der er truffet her om SKATs adgang til i blinde at høste og anvende borgernes data. Dataetisk Råd har ikke været inddraget.«

Ifølge Dataetisk Råd er dets formål blandt andet at:

»rådgive Folketinget, ministre og offentlige myndigheder om dataetiske spørgsmål ved brugen af data og ny teknologi.«

Version2 har uden held forsøgt at få en uddybende kommentar fra Johan Busse.

Skatteordfører: Hjemmel er alt for bred

Dennis Flydtkjær, som er skatteordfører for Dansk Folkeparti, var blandt de få der stillede kritiske spørgsmål under lovbehandlingen.

Til Version2 skriver han på mail:

»Jeg var ærligt meget i tvivl om, hvad jeg skulle stemme. På den ene side, så synes jeg det er godt, at man i større grad bruger data til, at udsøge de rigtige når der skal laves kontrol. Men på den anden side får ministeren en alt for bred hjemmel til at bruge data. Den hjemmel forsøgte jeg at få indsnævret både under debatten af forslaget og via en byge af spørgsmål, men ministeren ville ikke ændre noget. Om det var det rigtige at stemme for må tiden dømme mig på, men jeg forsøgte at få det ændret og mener stadig, at den hjemmel Skat har fået, er alt for bred.«

Danske Revisorer: På kollisionskurs med GDPR

Dataetisk Råd er langt fra de eneste, der ser problemer i den nye lov. I et høringssvar fra Danske Revisorer, der repræsenterer revisorbranchen i Danmark, skrev organisationen blandt andet:

»Vi mener, det er problematisk at skabe en generisk hjemmel uden et specifik formål til registersamkøring, som heller ikke har en afgrænset anvendelse. Det er efter vores opfattelse problematisk i forhold til den generelle persondatabeskyttelse og opretholdelse af de almindelige frihedsrettigheder.«

Den nye lov vil efter Danske Revisorers vurdering give mulighed for at »fiske« efter sammenhænge, som måske ikke findes i virkeligheden, og dermed kan bidrage til at mistænkeliggøre skattepligtige uden grund. Det mener organisationen er i strid med GDPR-reglerne.

Jurist: Svært at gennemskue teknologiudvikling og dataanvendelse

Lovforslaget ledsages af en bekendtgørelse om Skatteforvaltningens indsamling og behandling af visse oplysninger ved udvikling af it-systemer. Den bekymrer lektor i digital forvaltning på Københavns Universitet Hanne Marie Motzfeldt, som tidligere har udtalt til Version2:

»Jeg som forsker bliver bekymret, når jeg læser en bekendtgørelse som den her, hvor det er svært at gennemskue, hvad det egentlig er for en teknologiudvikling og dataanvendelse, som der skabes plads til. Det er næppe nogen hemmelighed, at jeg som forsker ser et skred på det digitale område, hvor embedsværket i meget høj grad har fået overdraget den lovgivende magt. Og som jeg har sagt før, så er der flere – og forbundne – problemer med den udvikling.«

Det første problem i Hanne Marie Motzfeldts øjne er, at embedsværkets lovgivning – bekendtgørelserne – smutter udenom de garantier, som der er sat i grundloven for grundighed og for at sikre en demokratisk debat om det offentliges teknologianvendelse og databrug.

»Det andet problem er, at det embedsværkets hovedopgave at fokusere på effektivitet. Det er altså ikke embedsværkets opgave at sætte sig ned og overveje alle konsekvenser af, at vi ruller bred databrug ud i det offentlige – og hvilket samfund, vi skaber til fremtiden, og hvorvidt det er det samfund, som vi faktisk ønsker os. Det er de folkevalgtes opgave – og de er jo så skåret væk som et overflødigt led, når man bruger bekendtgørelser.«

Også professor Brit Ross Winthereik, der leder Center for digital velfærd på IT-Universitetet, er bekymret over, at udviklingen kan gøre skattevæsenets kontrolfunktion til en såkaldt 'black box.'

»Man vil lave selvlærende algoritmer, men faren er jo, at ingen bliver i stand til at forklare borgerne, hvad der sker, og det kan gå ud over tilliden mellem borgere og stat,« har hun tidligere udtalt til Finans.

»Det bliver særligt problematisk, når det handler om en institution som skattevæsenet, der finansierer hele vores velfærdssamfund.«

27 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
27
31. december 2021 kl. 12:42

Den reelle forklaring er nok snarere, at oplysningspligten afskæres for at skjule over for borgerne hvor meget de bliver overvåget af Skatteforvaltningen.

Der virker til at være en kedelig tendens til at man ikke tror på at borgerne kan tåle at høre sandheden, og ja, jeg har også bidt mærke i, hvor ofte noget er "usædvanligt byrdefuldt", hvis det kunne blive pinligt eller vække debat.

Hvad der præcist kan indsamles vil blive fastlagt i bekendtgørelser, godt skjult for Folketinget og den offentlige debat.

Det er generelt en god ide at sætte de overordnede rammer i lovgivningen, og så overlade detaljerne til bekendtgørelser. Top- og detajlstyring fører sjældent til noget godt, rammer tit skævt, kræver ofte hurtigt korrektioner, og vi har f.eks. set kedelige tendenser til det med minimumsstraffe og undtagelsesfrie regelsæt.

Men det kræver så, at der sættes nogle fornuftige overordnede rammer i første omgang.

Og sådan belært af en, som har sat sig ind i stoffet, blev jeg bekræftet i den nagende mistanke om, at dette problem ikke var særskilt teknisk af natur. Der er mange problemer med brug af AI, som også ville være problematiske uden AI, og derfor egentlig ikke har noget med AI at gøre som sådan - men også mange problemer, hvor brugen af AI gør de underliggende problemer en størrelsesorden eller to mere påtrængende.

26
29. december 2021 kl. 17:51

I lovteksten er det tilmed tydeligt, at det drejer sig om behandling af data Skatteforvaltningen allerede har adgang til.

Det er ikke korrekt. Loven giver som noget nyt Skatteforvaltningen "hjemmel" til at indsamle alle mulige og umulige oplysninger fra offentligt tilgængelige kilder, herunder massehøst på internettet, både med henblik på systemudvikling (den nye § 67 a i skattekontrolloven) og registersamkøring til kontrolformål (den eksisterende § 68).

Det fremgår af bemærkningerne til L 73, at offentligt tilgængelige kilder skal forstås bredt. Hvad der præcist kan indsamles vil blive fastlagt i bekendtgørelser, godt skjult for Folketinget og den offentlige debat.

Borgerne bliver ikke orienteret, som GDPR artikel 14 ellers kræver, da det er for besværtligt. Den reelle forklaring er nok snarere, at oplysningspligten afskæres for at skjule over for borgerne hvor meget de bliver overvåget af Skatteforvaltningen.

Det fremgår direkte af bemærkningerne, at det kan være oplysninger fra fx e-handelsportaler på internettet uden sikre identifikationsoplysninger, hvorefter noget AI-snask med scoringmodeller vil prøve at henføre oplysningerne til borgerne, der skal udtages til skattekontrol. Det lyder nogenlunde ligeså usikkert og tvivlsomt som når sociale medier prøver at gætte hvad der er brugernes interesser.

Det er helt på sin plads, at Dataetisk Råd kalder dette datahøst i blinde.

25
29. december 2021 kl. 12:02

Derudover så er jeg sikker på at Bjarne Nielsen sikkert kan forklare væsentlig bedre end jeg kan, hvad det etiske problem er.

Uh ... øhm ...

Jeg vil nok kunne komme med et væsentligt længere og mere kompliceret indlæg, men om det vil forklare det bedre, nej, det tror jeg egentlig ikke (og den påstand vil jeg prøve at eksemplificere i det følgende...).

Og så kniber det med at få prioriteret den nødvendige energi til på den måde at kaste mig ind i debatten. Der er så mange tekster, som først skal læses, og podcasts, som skal lyttes. Det virker til, at alt hvad jeg kan svinge mig op til for tiden, er at gå i rette med indlæg, som fremstiller grove forsimplinger som universelle sandheder (der findes to slags mennesker: dem, som deler folk op i to slags, og dem, som ikke gør!) - og det er jeg ikke sikker på gør noget godt for debatten (https://xkcd.com/386/).

For det er kompliceret, det der med "aye-eye" og "bye-ass". Og jeg tror egentlig ikke, at der er nogle af udfordringerne og problemerne, som ikke findes andre steder, så på den måde, er det egentlig ikke noget særligt - til gengæld, så er det mit indtryk, at udfordringen og problemerne bliver markant forstærket og derfor meget mere påtrængende - styrken i teknologien er jo bl.a. den umenneskelige effektivitet, men det er så sandelig også akilleshælen.

Så jeg tror, at de, som siger "passer gaden, ikke noget nyt at se her" (eller "det er bare data" og "algoritmer findes overalt"), på den ene side har helt ret, men på den anden side misforstår pointen, og dermed gør os alle og debatten en bjørnetjeneste.

Men jeg er heller ikke fan af ludditer og andre maskinstormere, som lader til at mene, at alt nyt som udgangspunkt er skidt. Følger man argumentet til sit ekstreme, så var vi lykkeligere som jægere og samlerne (eller måske er det bare alt nyt siden dengang at man selv var ung, som man er imod?). Og her må jeg så igen trække i land, og sige, at jeg ikke betragter f.eks. Analogiseringsstyrelsen som værende maskinstormere - det må være helt inden for skiven, at selv et gennemdigitaliseret samfund som vores skal levne plads til analoge eksistenser (apropos, så hyler kjaerulven igen). Og husk at 20/80-reglen også gælder her, vi er ved at kaste 1/5-del af befolkningen under bussen (har har set flere tal, men de ligger og rumler rundt imellem ca. 18% og 22%). Jeg er bange for, at det lavt sat, og derfor for, at vi allerede er gået for vidt. Det er på ingen måde rimeligt, og mange af dem, er endda nogen, som især har brug for fællesskabets hjælp. I stedet for at hjælpe dem, som har brug for hjælp, så hjælper vi dem, som kan klare sig selv.

Med en analogi, så ville verden have været et fattigere sted uden Marie Curies arbejde med stråling, men man tilskriver hendes død, at hun ikke omgik det med samme viden om langtidskadevirkninger og deraf afledte sikkerhedstiltag. På samme måde, så vi med kyshånd tage imod det, som "aye-eye" kan give os, men vi skal samtidig have langtidsvirkninger og sikkerheden for øje.

Nu er formuleringen også hvilke etiske problemer, som der kan være, og ikke nødvendigvis "aye-eye", så måske vi skulle tage de aspekter først:

Den egentlig diskussion er måske mest af alt ikke så meget, hvilken beslutning, som blev taget, men hvordan den blev taget. For den kommer som en tyv i natten uden reel mulighed for debat, og man kunne efterlades med et indtryk af, at målet helliger midlet. Som det blev slået fast i en nylig rigsretssag, så er ministre først og fremmest ministre og ikke først og fremmest politikere (og de skal ikke kun stå til regnskab for folketinget, men især for lovgivningen) - og det har (igen) rejst en debat om et gennem-politiseret embedsbedsværk. Som en debattør engang sagde, så vender grise sig imod foderet, og så kan man tænke over, hvor den anden ende vender hen...

Der er så også en latent diskussion om, hvor glad man er for betale skat. Den er efter min mening mindre interessant, for man må hjertens gerne være uenige om, hvor meget eller hvor lidt der skal betales og af hvem, men der er forhåbentlig enighed om, at der er behov for et skattevæsen i en eller anden form, og at de vedtagne love og regler gælder for alle, så væsenet bør også være effektivt. Kan man ikke lide at betale skat, så er vejen frem ikke at sabotere skatteindkrævningen, men at få lavet reglerne om.

Der er også en diskussion om, hvor megen magt vi kan holde til, at skattevæsenet får. Jeg hørte allerede for mange år siden betjente undre sig over, hvad Skat og andre myndigheder bare sådan lige havde lov til, når nu de skulle have dommerkendelser mv. - og det næppe helt forkert at sige, at Skat ved langt mere om langt flere end f.eks. PET gør.

Men når vi nu taler om "aye-eye" og Skat, så gjorde det nylige indlæg i en anden debat, som kom fra en med indblik i Skats maskinrum, indtryk på mig. Det virkede som om, at vi godt kan regne med at den tekniske vinkel er dækket hæderligt ind, og jeg er som udgangspunkt meget mere tryg ved, at en organisation, som har som grundværdi at pleje fællesskabets interesser, er bedre til løfte de mere etiske udfordringer, end f.eks. store private firmaer, der jo som udgangspunkt kun tjener en særinteresse (nemlig at berige deres ejer). Jeg talte dog i den debat for behovet for et eksternt og uvildigt tilsyn, og det vil jeg gerne slå et slag for igen ... vi skal ikke vente på et havari for at nedsætte en kommission.

Det sagt, så er der allerede en indbygget bias i systemet: små og almindelige eksistenser, herr og fru Frikadelle, som de tidligere er blevet betegnet her i debatten, er jo som udgangspunkt fuldkommen gennemlyst, helt ned til snakken om at tjekke elforbrug for at kunne se, om ældre har fået en fast madkæreste. Samme transperens findes slet ikke for de store indkomster og for de store formuer - dem, som er store nok til at kunne skattetænke og måske endda gå i skattely (ironisk nok, så var der den sag om en rigmand, som angiveligt boede i udlandet, men havde et sommerhus i bekvem nærhed af det danske hovedkvarter, som han angiveligt kun brugte sporadisk, og som blev fældet på netop sit elforbrug - så helt immune er de ikke). Man kan frygte, at mere effektivitet hovedsageligt kommer til at gå ud over dem, som allerede er i skudlinjen - som når politiet så åbelyst har nemmere ved at lave flere og grundigere fartkontroller end at få styr på f.eks. omladning af jetbrændstof i rum sø til krigsførende magter udenfor vores interessessfære.

Så ja, vi skal holde skarpt øje med bias i systemerne, men vi skal også holde øje med den systemiske bias.

Og vi skal holde øje med langtidsvirkninger. De dygtigste folk hos Microsoft, med de reneste hjerter og med brug af den pureste teknologi gav os Tay, en chatbot, som efter bare 16 timer måtte tages ned, fordi den var blevet radikaliseret - eller men deres egen ord, udsat for et *"coordinated attack by a subset of people" that "exploited a vulnerability in Tay."

Vi ved også fra praktiske eksperimenter, at selv rimeligt passive profiler på Facebook, lynhurtigt bliver udsat for mere og mere ekstremiseret indhold. Vi ved også, at flere såkaldte sociale medier ikke gør noget godt for især unge piger. Det er svært at se, at det skulle være en fejl i algoritmerne, eller at der skulle være nogen særlig og fremmedartet bias i data - det virker mere som om, at der er nogle langtidsvirkninger, som man ikke kunne gennemskue, sin lange uddannelse og dybe indsigt til trods.

Et såkaldt AI forfølger de mål, som den er blevet givet, effektivt, vedholdende, skånselsløst og amoralsk (bemærk, netop ikke umoralsk), med en kompleks og ugennemskuelig virkemåde, som kan virke intelligent. Det er det, som gør AI til noget særligt, men også det, som gør det til noget, som skal holdes i passende kort snor. Vi skal holde godt øje med, hvordan det virker, og hvad det gør ved os, også på langt sigt. Og det indebærer, at vi skal sætte rammer for hvilke mål, vi vil lade det forfølge.

I The Guardian trækker John Naughton under titlen "Worried about super-intelligent machines? They are already here" en parallel til store firmaer: det er også konstruktioner, som har en kompleks og ugennemskuelig virkemåde, og som vedholdende og uden smålig skelen til etik eller følgeskader på samfund, demokrati eller planeten forfølger det simple mål at berige deres ejere.

Naughton har en pointe, og de sidste fire-fem årtier har vist, hvor stor skade der kan forvoldes, når man ruller krav, love og tilsyn tilbage, og i stigende grad lader dem lave deres egne regler. Så vi skal nok ikke være så bange for AI eller store firmaer, som vi skal være for AI og store firmaer!

Men det betyder så på den anden side heller ikke, at vi skal lytte til ludditter og maskinstormere: privat foretagsomhed og markedet kan noget helt unik, og skal efter min mening være en fremtrædende del af den samlede løsning - men vi skal stille krav og føre tilsyn.

PS: Hvis man sidder og tænker over, hvad det så lige er, at markedet ikke kan. Tja. F.eks. at markedet tænker kortsigtet og risiko-aversivt. Det giver os Star Wars 9, Die Hard 5, Windows 11, iPhone 13 og nye varianter af gammel medicin. Derfor er det op til staten at tænke langsigtet og innovativt, og give os internet, gps og helt ny medicin ... og op til staten at fejle, fordi markedet ikke tør. Tanker som angiveligt ligger bag ved Mariana Mazzucato bog The Entreprenurial State. Bare for lige at nævne et enkelt eksempel. Men det er vist en diskussion til en anden gang, f.eks. næste gang vi skal diskutere finansiering af OSS.

22
28. december 2021 kl. 19:07

Jeg har bare bemærket at formanden for rådet inden for det sidste års tid i ihvertfald et interview (husker ikke hvor) har udatalt sig at d r har været nogle få med afvigende synspunktet, deriblandt han selv. Det var i forbindelse med et andet tiltag hvor staten ville eksproprier private data til brug i ML projekter.

Og tak for tippet. Den serie må jeg se ved lejlighed, hos nogen med Netflix abonnement.

21
28. december 2021 kl. 18:53

Vi ved jo allesammen at det kun er KL og DI som man ønsker at involvere. Nepotister kan man nemlig stole på som politiker.

Ja - enig. Men alligevel foruroligende, at man simpelthen lukker dem ude. Det siger vel alt om, at etik anses som en sten i skoen - ikke noget man ønsker at beskæftige sig med, uanset hvad man påstår i skåltalerne.

Mht Dataetisk råd, så er det mest tænkt som et gummistempel som skal "betrygge" borgerne om at de kan have ubetinget tillid til staten.

Ja, helt enig....

Der er så uheldigvis opstået en uventet uenighed i rådet. Man har indset at har udpeget et par enkelte medlemmer med principper ud over hvad DI og Singularity University prædker. Derfor kan de ikke bruges i den aktuelle sag.

Det lyder spændende. Kan du uddybe, for der har jeg ikke fulgt godt nok med?

Jeg kan i øvrigt anbefale den nye "Don't look up" (Netflix). Der er en kostelig parodi på Singularitys ypperstepræster (og man skal huske at se påskeægget efter rulleteksterne).

20
28. december 2021 kl. 18:21

Det er vist et retorisk spørgsmål. Vi ved jo allesammen at det kun er KL og DI som man ønsker at involvere. Nepotister kan man nemlig stole på som politiker. Alle andre som ved noget om emnet (eller endnu værre, har et menneskeretligt perspektiv), kan få lov til at læse lovudkastet to (hellig) dage før det behandles i Folketinget. Hvis de når at skrive et høringssvar alligevel, så ryger det i skraldespanden uden at blive læst af nogen.

Mht Dataetisk råd, så er det mest tænkt som et gummistempel som skal "betrygge" borgerne om at de kan have ubetinget tillid til staten. Der er så uheldigvis opstået en uventet uenighed i rådet. Man har indset at har udpeget et par enkelte medlemmer med principper ud over hvad DI og Singularity University prædker. Derfor kan de ikke bruges i den aktuelle sag.

19
28. december 2021 kl. 18:11

... hvad man mener om AI i skatteforhold , så kom vi væk fra den store gåde: Hvorfor i al verden har Dataetisk Råd ikke været høringsberettigede?

Det er da i sig selv en stor, rød advarselslampe....

18
28. december 2021 kl. 17:57

Er der nogen som har et bud på hvad Skat allerede har lovlig adgang til? Har de adgang til forbrugsdata for individuelle hustande på minut-niveau, ligesom elselskaberne (og vist nok også udbetaling Danmark)?

17
28. december 2021 kl. 15:46

Har du nogensinde hørt om, at SKAT har solgt data?

Indtil for få år siden var det vel utænkeligt at en dansk myndighed ville agere hæler. Men det var der alligevel en advokat der mente i forbindelse med Panama Papers.

Danske politikere har de seneste år i stadig større grad argumenteret for at indsamlede data skal kunne bruges til andre formål end de er indsamlet til.

Jeg tror ikke, at SKAT vil sælge data som de ikke har hjemmel til at sælge. Men jeg er ikke overbevist om at alle vores politikere ser et problem i at give SKAT hjemmel til at profitere på denne registersammenkørsel.

Og selv, hvis SKAT ikke sælger data, så har der jo tidligere været eksempler på at myndigheder har mistet data. Eksempelvis ved at overlade kørekortregistret til DXC (dengang CSC) eller ved at skrive forkert modtageradresse på en sending CD'er.

16
28. december 2021 kl. 15:00

problemerne er at UANSET hvad der hentes og sammenkøres, er der ingen der ved hvem der senere køber det , og hvad det så bliver brugt til. ALLE DATA kan og vil blive solgt. eneste fpreløbige løsning er at STOPPE datahøst af IKKE relevante procesdata.

Har du nogensinde hørt om, at SKAT har solgt data? Jeg tror, vi ville finde en række sagsanlæg af historisk karakter, som ville få den netop afsluttede rigsretssag til at ligne en diskussion i en kaffeklub, hvis det var tilfældet!

14
28. december 2021 kl. 14:37

Så giver det mere mening for mig.

Jeg har ikke har skrevet noget om hvad der skal undersøges nærmere eller at det er uetisk. I min verden er der en væsentlig forskel på kontrol og undersøgelse.

Jeg påpeger problematikken i at folk der ikke ved særlig meget om it laver regler om SKAT og deres AI tiltag til at undersøge data.

Der har været rig mulighed til at invitere vidende interessenter ind i samtalen men man har bevidst undladt at indvolvere folk der ved noget om emnet.

Når dem der har lavet reglerne ikke ved nok om det skal der kompenseres ved en strengene kontrol med tiltaget.

Eksempelvis kan jeg lide alternativet fra Martin:

Jeg kunne foreslå at Dataetisk Råd fik en liste med de konkrete algoritmer, som SKAT benytter eller planlægger, og udfra den liste kan de give et kvalificeret bud på om der er etiske udfordringer i den konkrete forvaltning.

Om det er realistisk ved jeg ikke men jeg stiller mig stadig meget spørgende overfor Dataetisk råds rolle når de ikke bliver involveret i sådanne sager.

13
28. december 2021 kl. 14:34

@ Lars Pedersen

Det var dog en utrolig nedladende og sur kommentar, du kommer med. Hvis du synes sådan om debatten og om debattørerne herinde, så kan man jo spørge sig selv hvorfor du overhovedet befinder dig herinde?

Du bryder dig jo tydeligvis ikke om det, så må jeg foreslå dig at finde et andet sted at debattere og finde de mennesker og den interessante debat, du åbenbart ikke synes er herinde.

Det står dig faktisk frit for.

11
28. december 2021 kl. 14:05

problemerne er at UANSET hvad der hentes og sammenkøres, er der ingen der ved hvem der senere køber det , og hvad det så bliver brugt til. ALLE DATA kan og vil blive solgt. eneste fpreløbige løsning er at STOPPE datahøst af IKKE relevante procesdata.

10
28. december 2021 kl. 13:50

Jeg ved ikke om du er en trold Simon eller om du bare ikke tænkte dig om inden du skrev den kommentar.

Det er skam et helt oprigtigt spørgsmål til jer herinde, som jeg anser for interessante og vidende at debatørere.

Jeg indrømmer at være stor fortaler for "det gennemsigtige samfund" da jeg ikke ser andre realiserbare løsninger, til gavn for borgerne, på længere sigt. At gemme og afskærme data, hjælper kun gedulte og store aktøre, men forhindre alle de positive gevinster af big data, for samfundet og borgerne. (Det forudsætter naturligvis langt bedre rettigheder, regler, kontrol med ejerskab af data mm... Det er her kampen skal stå efter min mening)

Som jeg har læst det, vil Skat bruge AI til at finde mistænkelige selvangivelser og svindel mm. ved bl.a. at bruge data fra andre offentlige instanser (PET og FE gør langt mere end det)

Jeg antager at en medarbejder skal gennemgå min selvangivelse, før der inviteres til tosskegilde. (Alt andet ville være uansvarligt)

Så jeg savner svar på hvad problemet er i at bruge AI til at finde sager der bør undersøges nærmere?

Ligeledes er det vel kun et problem at sammenkøre data, fordi vi ikke har ordentlige regler for digitale borgerrettigheder. Så i stedet for at kalde det uetisk, ville jeg mene at det kalder på mere åbenhed om hvordan data bruges.

Jeg anerkender at der kan opstå alle mulige udfordringer, bl.a. med bias, og at politikere i fremtiden, kunne finde på at bruge det på en anden og uetisk måde.

Men hvorfor er lige netop dette uetisk?

9
28. december 2021 kl. 13:27

SKATs adgang til i blinde at høste og anvende borgernes data

Hvorfor siger Johan Busse "i blinde"? Det er et grimt retorisk greb. Tidligere beretninger fra SKATs medarbejdere viser at man arbejder kompetent med statistiske værktøjer til at finde sager med høj sandsyndlighed for skattesnyd.

give skat lov til at »behandle, herunder samkøre [...] analytiske modeller, som vil kunne målrette, understøtte og effektivisere Skatteforvaltningens myndighedsudøvelse.«

Så nej, der er ikke hjemmel til at lave alt muligt konspirationsteoretisk gejl. Formålet er soleklart.

I lovteksten er det tilmed tydeligt, at det drejer sig om behandling af data Skatteforvaltningen allerede har adgang til.

Man vil lave selvlærende algoritmer, men faren er jo, at ingen bliver i stand til at forklare borgerne, hvad der sker

Stop nu med at udbrede løgnen om, at det er tilladt at sagsbehandle uden at kunne forklare beslutninger.

Der er mange ting der er så komplicerede at menigperson ikke forstår hvorledes det virker. Men en afgørelse i en offentlig sagsbehandling henviser altid til hjemmel, præmisser og evt. vægtede skøn.

Det bliver særligt problematisk, når det handler om en institution som skattevæsenet, der finansierer hele vores velfærdssamfund.

SKAT ønsker at benytte kendte matematiske værktøjer til bedre at spotte de sager, som skal undersøges manuelt. Således gavner lovforslaget tillid til SKAT.

Hvad er det etiske problem

Dataetisk Råd skal holde sig relevante, og hver gang nogen nævner AI så SKAL man opponere, fordi et tænkt eksempel med en ond AI, som ingen kan forklare hvordan er kommet til, kan sidde der på sin AI trone hos SKAT og beslutte hvem og hvem ikke, der skal stikprøvekontrolleres.

I den ægte virkelighed herude beretter medarbejdere fra SKAT, at man selvfølgelig har et væld af algoritmer, som hver især udtrækker indberetninger, som har en øget sandsynlighed for snyd.

Og inden nogen trækker bias-kortet, så er det vel præcis bias man i mange tilfælde ønsker. Hvis stikprøver viser, at der er svindlet massivt med Moms i kiosker, så er det vel med statistisk fordom at kiosker skal checkes grundigere.

Jeg kunne foreslå at Dataetisk Råd fik en liste med de konkrete algoritmer, som SKAT benytter eller planlægger, og udfra den liste kan de give et kvalificeret bud på om der er etiske udfordringer i den konkrete forvaltning.

At sidde i sin etiske lænestol og tale om tænkte eksempler i hyperspecialiserede worst case scenarios, bringer ingen værdi til sagen.

8
28. december 2021 kl. 13:01

Jeg ved ikke om du er en trold Simon eller om du bare ikke tænkte dig om inden du skrev den kommentar.

Nu har Simon faktisk kommet med en del indlæg herinde, hvorimod du er ny, så du bør være påpasselig med at udråbe Simon til trold, al den stund Simon normalt kommer med meget saglige indlæg.

Dog vil jeg sige at jeg undrer mig lidt over det uvanlige indlæg, så jeg håber at Simon gerne vil uddybe, for der må ligge mere i det.

Derudover så er jeg sikker på at Bjarne Nielsen sikkert kan forklare væsentlig bedre end jeg kan, hvad det etiske problem er.

Men som udgangspunkt, så er AI dels ikke bedre end dem der har fordret data ind i / lavet systemet, dels risikerer AI at selv opbygge en bias som mennesket så efterfølgende ikke fanger - det kan f.eks. udmønte sig i at AI'en konsekvent finder en given etnisk og eller socialgruppe frem, uden der er nogen der forholder sig kritisk til udfaldet.

Problemet er endvidere at AI kan ende med at være en slags black-box magi, blottet for transparens - og uden nogen rigtig forstår de beslutninger der er taget.

Det kan anbefales at læse Kafkas "Processen", hvor Kafka implicit, 100 år før tiden, uden overhovedet at vide at der ville blive opfundet computere mv., beskriver beslutningsprocesser som minder meget om dem AI står for.

7
28. december 2021 kl. 12:16

Jeg ved ikke om du er en trold Simon eller om du bare ikke tænkte dig om inden du skrev den kommentar.

Ved du hvilken data skat tager fat i? Ved du i hvilken sammenhæng de kigger på det eller hvordan det bliver korreleret? Så længe du ikke ved hvilken data eller i hvilken sammenhæng så er der mange potentielle problemer, herunder etik.

Problemet i kernen af sagen er jo at SKAT har fået en carte blanche uagtet om de overhovedet skal bruge den data og politikerne har ikke spurgt nogen som ved noget om det, hvordan de gør dette bedst.

Så længe det ikke erAIen der udskriver bøderne, er det vel blot en hjælp til at sortere i bunkerne...

Du laver en antagelse og bygger så dit argument på det men du ved ikke om det rent faktisk er tilfældet.

15
28. december 2021 kl. 14:53

Ved du hvilken data skat tager fat i? Ved du i hvilken sammenhæng de kigger på det eller hvordan det bliver korreleret? Så længe du ikke ved hvilken data eller i hvilken sammenhæng så er der mange potentielle problemer, herunder etik.</p>
<p>Problemet i kernen af sagen er jo at SKAT har fået en carte blanche uagtet om de overhovedet skal bruge den data og politikerne har ikke spurgt nogen som ved noget om det, hvordan de gør dette bedst.

Så vidt jeg er bekendt, så er SKAT underlagt strenge, lovmæssige regler for hvilke data, de må indsamle og hvordan de må bruge dem. Den "kunstige intelligens" (nok mere "machine learning") er formentlig møntet på at gøre det muligt at finde flere skattesnydere og dermed flytte vores milimeterdemokrati til et mikrometerdemokrati.

Min største bekymring er bias i det benyttede træningsmateriale, som kunne ramme forkert, ikke nødvendigvis ved at ramme bestemte etniske grupper skævt, men ved ikke at finde udnyttede huller i loven, som ikke var kendt i træningsmaterialet. Og det var jo klart i Rigsrevisionens (eller var det Kammeradvokaten?) rapport om EFI, at det er ikke ulovligt for SKAT at lave fejl, men at det skal så være menneskelige fejl, ikke fejl lavet af et automatiseret system. Dette burde vel også give SKAT grund til eftertanke i sammenhæng med det foreslåede program.

6
28. december 2021 kl. 11:20

i at bruge AI til at finde de "klienter" der skal kigges nærmere efter?

Så længe det ikke erAIen der udskriver bøderne, er det vel blot en hjælp til at sortere i bunkerne...

Det er et problem at vi ikke har kontrol med vores egne data, og at vores samfund ikke bygger på gennemsigtighed - men det er et andet problem.

5
28. december 2021 kl. 08:34

Det er dog mærkeligt de ikke er på ministerierne høringslister så de automatisk for lovforlag mm tilsendt

Ja, det er mildt sagt helt utroligt. Nok værd at bore i for en stædig journalist - hvad siger ministeriet til sin undskyldning? Kendte man ikke til eksistensen af Dataetisk Råd? Hvis man alligevel ikke vil bruge dem, så er der da her et oplagt besparelsespotentiale. Hvis det var mig, ville jeg udvandre fra rådet under højlydt protest, ellers er de allerede reducerede til facadepynt for regeringen.

Vil de virkeligt være det?

4
28. december 2021 kl. 00:11

Er det endnu ikke gået op for folk at politikerne er holdt op med at lytte til eksperterne fordi politikerne gerne vil noget og ikke ønsker at nogen kommer emd argumenter imod det politiker e føler ville være smart.

Der var jo for eksempel heller ingen der mente det var nødvendigt at inddrage eksperter i jura dengang man brugte corona som undskyldning for at afskaffe et helt erhverv som man ikke brød sig om.

Man, gjorde sig endda ekstra umage for at slette alle spor, sms'er osv så man netop kunne påstå at man ikke vidste at eksperterne havde sagt det ikke var så smart det man havde gang i.

3
27. december 2021 kl. 14:37

Rådet kunne jo være kommet med ubekvemme bemærkninger, man måske havde været nødt til at tage hensyn til, eller i det mindste lytte til, og den slags svækker en faktuel magtposition uhensigtsmæssigt.

Derfor !!!

2
27. december 2021 kl. 12:18

Det fordrer, sådan som det er skruet sammen idag, at politikerne, Folketinget, regeringen inddrager Dataetisk Råd. Der er åbenbart ikke et lovfæstet krav at de skal høres i alle relevante sager. Det er dog mærkeligt de ikke er på ministerierne høringslister så de automatisk for lovforlag mm tilsendt, men de kan jo også proaktivt holde øje med Høringsprotalen.

1
27. december 2021 kl. 10:30

Hvis det ikke er at give råd og vejledning om netop sådanne ting her så ved jeg ærlig talt ikke hvad de laver eller skal lave. Jeg stoler ikke nok på nogen af vores politikere omkring it til at tro de har helt styr på hvad de har givet lov til. Bør vi være bekymrede? Nok ikke umiddelbart men der skal da opsættes en skarp kontrol på hvad og hvilke data SKAT tager fat i.