Dataetisk Råd: Offentlige AI-pilotprojekter bør bygge på frivillighed og valgfrihed

13. august 2021 kl. 02:4513
Dataetisk Råd: Offentlige AI-pilotprojekter bør bygge på frivillighed og valgfrihed
Illustration: Tania Andersen.
Der er positive toner fra Dataetisk Råd om de nye signaturprojekter, der skal teste kunstig intelligens og algoritmer i det offentlige. Men også formanende ord om at holde styr på bias, dataanvendelse, retssikkerhed, rettigheder og samfundsmæssige værdier.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Det offentlige Danmark eksperimenterer med kunstig intelligens og machine learning i forvaltning og behandling. En række piloter – signaturprojekter – skal få gang i udviklingen af AI i den offentlige sektor. 33 procent af myndighederne anvendte sidste år machine learning og AI, og 91 procent forventer at tage teknologierne i brug i løbet af de næste par år.

Ideen er, at kunstig intelligens kan være med til at effektivisere den offentlige sektor. Projekterne afvikles inden for sundhed, social- og beskæftigelsesområdet samt tværgående sagsbehandling.

De offentlige myndigheder har bedt Dataetisk Råd, der blev nedsat i 2019, om at kigge nærmere på etikken i pilotprojekterne.

Version2 har begæret aktindsigt i svarene fra rådet, og det er dokumentationen fra den begæring, der ligger til grund for oplysningerne i denne artikel.

Artiklen fortsætter efter annoncen

Rådets umiddelbare refleksioner over tværgående dataetiske tematikker og problemstillinger i projekterne udmøntes i at »der er mange spændende og perspektivrige projekter spredt ud over flere områder.«

Kontrol med bias

På det overordnede niveau skriver rådet i et notat dateret 29. maj sidste år:

»Det er vigtigt at sikre de rette kompetencer i projekterne – både konkret i forhold til it-forståelse og kommunikation, men også generelt i forhold til at sikre, at projekterne lever op til principper om gennemsigtighed, dataetik mv.«

Der foreligger en væsentlig kommunikationsopgave i, at borgerne kommer til at føle sig trygge, når det offentlige anvender kunstig intelligens.

Artiklen fortsætter efter annoncen

»Samtidig bør medarbejderne forstå, hvordan de kan bruge teknologierne, især i formidlingen til borgerne, fordi mennesker stoler på mennesker – i mindre grad på robotter. Derudover er it-forståelse vigtigt, blandt andet i forhold til at vurdere, om systemerne kan det, som producenten påstår, og at man er i stand til at kontrollere det.«

Det er også vigtigt at være opmærksom på, hvordan data anvendes, påpeger rådet. Det gælder eksempelvis personhenførbare data, hvor GPS-data ikke kan være anonyme. Derudover bør projekterne stille sig spørgsmål om, hvordan der udføres kontrol med bias i datasættet, og hvordan det sikres, at der ikke bruges mere data end nødvendigt, således som det såkaldte proportionalitetsprincip kræver.

»Endvidere er det centralt, at erfaringsopsamlingen i projekterne indeholder både positive og negative gevinster, herunder hvordan projektet opleves ud fra et borgerperspektiv.«

Gennemsigtighed, frivillighed og lighed

Dataetisk Råds anbefaler også, at projekterne baseres på gennemsigtighed for borgerne. Der bør informeres klart og forståeligt om behandlingen af borgernes data, det enkelte projekts formål, funktion, sikkerhed og begrænsninger.

Signaturprojekterne, der involverer borgernes data, skal bygge på frivillighed og valgfrihed for borgerne.

»Endelig er det Dataetisk Råds anbefaling, at der tænkes lighed ind i udviklingen af projekterne med henblik på at mindske problematiske bias i data. Det er endvidere rådets anbefaling, at der målrettet arbejdes for at også ressourcesvage og udsatte borgere får gavn af den teknologiske udvikling.«

For at sikre at databehandlingen sker under hensyntagen til de personer, den berører, anbefaler rådet endvidere, at de signaturprojekter, der i sidste ende sigter imod at forbedre forholdene for borgere eller med arbejdere, inddrager relevante faggrupper, brugergrupper og organisationer i overvejelserne af signaturprojekternes fordele og ulemper - også i dataetisk henseende.

Rådet henviser også til dets datasamkøringsværktøj, der gik i luften i november sidste år.

Artiklen fortsætter efter annoncen

Læs også: DataTech: Nyt værktøj giver dataetisk vurdering ved samkøring i det offentlige

Dataetisk Råd har udarbejdet to værktøjer til at understøtte etiske overvejelser i forbindelse med samkøring af data i den offentlige sektor: Et dataetisk vurderingsskema og en konsekvensanalyse.

Fremover vil Dataetisk Råd modtage en opsummering af projekternes årlige statusrapporteringer, som blandt andet indbefatter etiske og datamæssige problemstillinger.

Retssikkerhed, rettigheder og samfundsmæssige værdier skal dokumenteres

Den 5. maj i år afgav Dataetisk Råd høringssvar over projektforslag til nye kommunale og regionale signaturprojekter, på bud af Digitaliseringsstyrelsen, Kommunernes Landsforening og Danske Regioner.

De i alt 27 projektforslag fordeler sig på på tre forskellige områder: klima (tre projektforslag), velfærd, herunder sundhed (15 forslag), og administration (ni forslag).

Dataetisk Råd finder det generelt positivt, at man med en række nye kommunale og regionale signaturprojekter ønsker at afsøge mulighederne for anvendelse af ny teknologi og herunder kunstig intelligens i den offentlige sektor.

Anvendelse af kunstig intelligens i den offentlige sektor er stadig på et tidligt stadie. Med signaturprojekterne kan der høstes erfaringer med anvendelse af teknologien med henblik på at udnytte teknologiske muligheder til at give en bedre og mere effektiv service til borgere og virksomheder.

Samtidig kan projekterne give indsigt i teknologiens begrænsninger og udfordringer, herunder i forhold til de dataetiske overvejelser som anvendelse af kunstig intelligens i den offentlige sektor giver anledning til.

Dataetisk Råd anbefaler, at det overvejes og udtrykkeligt dokumenteres, hvilke etiske overvejelser, der ligger til grund for projekterne i forhold til retssikkerhed, grundlæggende rettigheder og grundlæggende samfundsmæssige værdier.

Rådet opfordrer til, at projekterne løbende og i afrapporteringen forholder sig til, dokumenterer og evaluerer etiske problemstillinger i forbindelse med projekterne, så det sikres, at relevante overvejelser og hensyn til etiske værdier integreres i databehandlingen.

Hvad nytteværdi har ny teknologi

Dataetisk Råd finder det generelt positivt, at en række af signaturprojekterne tematisk er udvalgt inden for områder, der ikke i sig selv synes at involvere borgernes personlige oplysninger.

»Denne udvælgelse flytter fokus fra spørgsmålet om, hvad vi kan bruge borgernes personlige oplysninger til, til spørgsmålet om, hvad ny teknologi og data i bred forstand har af nytteværdi.«

Rådet anbefaler dog samtidigt, at det overvejes og beskrives præcist, hvilke data der skal anvendes, herunder fra hvilke datakilder samt hvor følsomme disse data anses for at være.

Indhold, omfang og deling af borgernes personlige data skal begrænses mest muligt og ikke opbevares længere end højst nødvendigt. I den forbindelse fremhæves databeskyttelsesreglernes krav til formålsbegrænsning, tidsbegrænsning og dataminimering.

Rådet anbefaler også, at fejlsikring og sikkerhed i forhold til opbevaring og eventuel deling af data tænkes ind tidligt i projekterne, således at systemer baseret på kunstig intelligens kan håndtere fejl eller uoverensstemmelser og reagere hensigtsmæssigt. Systemer og data må heller ikke utilsigtet bliver tilgængelige for uvedkommende personer og skal på anden måde være modstandsdygtige over for angreb og forsøg på manipulation af data eller algoritmer.

13 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
13
15. august 2021 kl. 10:51

... er det første april?:https://www.berlingske.dk/virksomheder/regeringen-indkalder-ekspertgruppe-til-magtopgoer-med-techgiganterne#

"»I dag har techgiganterne så stor magt over mennesker, økonomi og virksomheder, så hvis det utøjlet udvikler sig videre, får vi et problem. Ekspertgruppen er regeringens erkendelse af, at der ikke findes en endegyldig »august 2021-løsning«. Det kræver løbende opfølgning, og vi tør som måske et af de få steder i verden sige åbent, at den er gal med forretningsmodellen, og den bliver vi nødt til at have et skarpt blik på,« siger ministeren." (Kollerup)

Er det en joke? Et forsøg på at sylte opgøret/oprøret i ekspertstudiegrupper?

Eller er der faktisk ved at være et reelt ønske om opgør/oprør?

Eller er det kun på isolerede områder, man pludseligt føler behov for opstramning og tilbageerobring af magten?

Hvis man mener det oprigtigt, er det i mine øjne helt uforeneligt med samtidig at arbejde for at slippe AI-projekter og AI sagsbehandling løs på den sagesløse og intetanende befolkning.

Man kan ikke både blæse og have mel i munden....

12
15. august 2021 kl. 08:46

Det offentlige har gennem det seneste årti løbende kastet sig - og de stakkels umyndiggjorte databacongrise, borgerne, ukritisk i armene på techgiganterne. Mange, mange millioner er allerede fra højeste niveau brugt på spændende og hundedyre elite-studierejser til Silicon Valley, Epics Harry Potter-land og andre af techindustriens mekkaer. Tusindvis af timer er brugt på lobbyistmøder med tech-lobbyister - møder, som i høj grad går under offentlighedens radar. Hundrede (eller er det mon tusinder?) af offentlige projekter er igangsat med techindustrien ved rorpinden. Tusinder af offentlige hjemmesider fodrer techindustriens fuldstændigt uhæmmede, skruppelløse datahøst - med snablen nede i borgernes allerinderste privatliv. Hundreder af offentligt ansatte forskere høster via forskningspriojekter, hvor deltagerne naivt tror på forsikringerne om "anonymitet", altruisme og en lille, overskuelig forskerkreds, som ikke deler ud af data, milliarder af intime data om os - og mange private millioner via patentaftaler, industritilknyting og korruption.

Alt dette er sket under borgernes radar (for det er helt uoverskueligt) - i realiteten har vi i mange år haft mere (tech)industrilobbyistvælde (rige muligheder for statsautoriseret korruption i Danmark) end folkestyre.

Danmark er på nuværende tidspunkt fuldstændigt sammenfiltret med tech-giganterne, som har stort set frit løb - for vi er i lommen på dem.

Så hvordan kommer det på længere sigt til at gå med ambitioner som disse?:https://nyheder.tv2.dk/tech/2021-08-14-internettets-giganter-vil-udvikle-metaunivers-og-det-bekymrer-dansk-fremtidsforsker

Er der nogen, der naivt tror på, at danske borgeres allerinderste privvatlivsdata ikke enten allerede har, eller vil komme til, ad sindrige og lyssky omveje at bidrage til disse mareridtsuniverser, som techindustrien har visioner om at tvinge os ind i?

Er der nogen, som naivt tror på, at det ikke også vil gå den anden vej - somtror på, at hele jordens befolkning, inkl. den danske (bortset fra toppen, selvfølgelig) ikke vil blive totalovervåget i disse virtuelle verdener - og at denne totalovervågning, som giver "1984" baghjul med mange, mange omgange, ikke vil blive brugt mod borgerne?

Det er her, hvor jeg synes, at Dataetisk Råd allerede svigter og hvidvasker groft - for de burde kunne gennemskue, at deres anbefalinger på ingen måde nogensinde vil kunne hamle op med den udvikling - som reducerer den almindelige borger til 100% dataundersåt for verdens rigeste og mest magtfulde.

De burde være på borgernes side....De burde sige fra overfor yderligere merger mellem tech-industri og det offentlige område.... Det er det eneste, der er at gøre...

11
14. august 2021 kl. 09:54

Det grundliggende var og er, at man tankeløst opbygger alle betingelserne for slum/getto.

Aarhus Ø (1) har da vist en ret høj befolkningstæthed, og er bygget på en tidligere industrihavn; er det så også en tankeløs slum/ghetto in potentia?

Men det illustrerer måske meget godt problemet med "kaste alt op på væggen": i Odense vil den lokale befolkningstæthed måske nok kunne være en udemærket "indikator" (bemærk anførselstegn), men det vil næppe på samme måde være en god ide på f.eks. Frederiksberg.

Man forveksler her nemt årsag og virkning: høj befolkningstæthed skaber ikke problemer, men billig husleje tiltrækker problemer - og at sprede problemerne ud (som virker til at være go-to løsningsmodellen for tiden), plejer sjældent at løse dem (og ofte gøre ondt værre), men problemerne bliver meget nemmere at overse/ignorere - især hvis man nu kan påpege, at det nu er blevet nogle andres problem.

Og for at fortsætte yderligere ud af en tangent, som jeg uforvarende fik startet, så er Aarhus byen, hvor Volden fører til Graven (som en kammerat fra studietiden yndede at påpege): https://www.openstreetmap.org/node/369096101

Ad (1): Man bedes her høfligst undlade at bemærke, at det angivelige arnested for Aarhus-historier først brugte mange ressourcer på at ændre navn fra Århus til Aarhus, angiveligt for at virke internationale ... for derefter at kalde den nye havnefrontsprestigebyggerizone for Aarhus Ø.

10
13. august 2021 kl. 23:45

(og hvem har dog fundet på navnet Voldsmose? så beder man da om imageproblemer),

Vil give dig 100% ret, men af en helt anden årsag, fordi Vollsmose er en bydel, som ligger i Vollsmose Sogn i Odense.

Men verbalt og med en fynsk dialekt, så er bogstaveringen etc. uden betydning ;)

Og i de rigtige gamle dage var din bogstavering af "Wolds moeße" jo næsten korrekt.

Det grundliggende var og er, at man tankeløst opbygger alle betingelserne for slum/getto.

Omkring 9.200 mennesker stuves sammen på 2 km², og det er en usædvanlig høj befolkningstæthed ift. resten af Odense Kommune, der har en befolkningstæthed på omkring 6xx indbyggere per km².

To odenseanske boligorganisationer Civica og Fyns Almennyttige Boligselskab (FAB) bebygger gennem 1960-1980'erne en fordums losseplads, da der - som i andre større byer - var en akut boligmangel.

9
13. august 2021 kl. 22:46

Jeg har spurgt før, og jeg vedbliver at spørge, indtil nogen taget debatten op - hvordan ændrer vi tingenes tilstand?

Det vi har brug for er konkrete, lavpraktiske mål til hvordan vi skal forandre kulturen.

8
13. august 2021 kl. 12:34

Hvis det usandsynlige faktisk skulle ske, at man fulgte alle rådets anbefalinger i disse signaturprojekter og fremtidige "ikke-signatur-projekter", er der så mon overhovedet tale om effektiviseringer/besparelser? Eller er der tale om 1000-års beskæftigelsesprojekter for AI-forskere og politikere/topembedsmænd, som kan give dejlig anledning til utallige lækre konferencer på lækre konferencehoteller og møder med lækre AI-branche-lobbyister?

6
13. august 2021 kl. 12:04

Og "gennemsigtighed"? Siden hvornår har en AI-algoritme kunnet fremvise noget som helst, der kan kaldes "gennemsigtighed"?

Det er da vist mit stikord - jeg har en kæphest klar, som trænger til motion ... :-).

Der er forskel på AI/ML, og forskellige slags er gode til forskellige ting. Og såkaldt "explainable AI" er endda et selvstændigt forskningsområde.

Men transparens virker alligevel ikke til at være blive prioriteret, måske fordi at det ikke rigtigt er andet end til besvær for sponsorerne, og derfor kun kommer med i businesscasen under skåltalen, sammen med f.eks. sikkerhed og privatliv.

Og besværligt er det. Det koster f.eks. på forudsigelsesevnen, jo mere man prioriterer transparens. Og det er som oftests det eneste kriterie.

Jeg mener at have læst her (men har mistet referencen, så jeg kan huske forkert), at en af personerne bag en videreudvikling af et beslutningsstøtteværktøj til noget følsomt (var det tvangsfjernelse af børn?) forsvarede at man havde beholdt bopælens placering som faktor med, at den både havde en af de højeste vægte og at modellens forudsigelsesevne ville falde, hvis man tog den ud. Også selvom han ikke selv kunne forsvare, at ens bopæl var af betydning.

Lad os tale lidt om bopæl. Jeg vil gerne tro, at der er flere, som er villige til at tale for, at man kan blive kriminaliseret af at flytte til et ghettoområde (og hvem har dog fundet på navnet Voldsmose? så beder man da om imageproblemer), men der er vel ingen ved deres fulde fem, som mener, at man bliver rig af at flytte til Hørsholm, Hellerup, Hasseris eller Holme, vel?

Hvis man så har transparens, så bliver det jo så meget mere tydeligt, hvis man har prioriteret forudsigelsesevnen for voldsomt:

"Vores system anbefaler at dit barn bliver tvangsfjernet, og de fire mest betydende faktorer, som tilsammen forklarer 32,7% af beslutningen er: 1) bopæl med 14,2% , 2) husstandens gennemsnitlige socialgruppe med 7,4%, 3) forældrenes samlivsform med 6,2% og 4) forældrenes uddannelsesniveau med 4,9%".

Eksemplet er selvfølgelig opfundet til lejligheden for at illustere både at

  • forklaringer kan give anledning til, at der bliver stillet spørgsmål (hvad man for alt i verden vil undgå, for så dør businesscasen), samt
  • forklaringer med mange faktorer høstet med bred kam uden åbenlys sammenhæng, som oftest i stedet bliver til bortforklaringer (bemærk også sproget og den angivelige præcision) - en god og forståelig forklaring er virkelig vanskelig at give, og da især hvis man ikke selv helt er klar over, hvad der lige sker inde i den sorte kasse.

Men det kan også bruges til illustration af, at med øget transparens stiger muligheden for manipulation også: hvis man som forældre fik den forklaring på en besked om at der var indledt en socialsag, så ville man straks gå ned på rådhuset og finde et andet sted at bo. For børnene skyld.

Eller hvad med: "Ung kristen jysk kvindelig ikkeryger med akvarelmaling som hobby søger værelse grundet optagelse på jurastudiet" - ja, vi ved allerede godt, hvad vi skal slå på.

Så derfor bliver muligheden for manipulation ofte brugt som argument imod transparens, der er ingen grund til at hjælpe os yderligere med at undergrave det fine systems virkningsgrad ... sammen med undskyldning om kommercielle interesser og kontraktslige begrænsninger, mmm, mmm.

Opsummerede, så er der efterhånden ved at være noget AI/ML, som kan noget med transparens, men ikke meget - og generelt har det oddsene imod sig, både på grund af den grundlæggende "kast noget op på en væg og se, hvad der bliver hængende"-tilgang, men også fordi at det, ud fra systemejernes synspunkt, vil gøre det ydevne ringere, og ydermere udsætte det, og dermed en selv, for kritik og besvær.

PS: Hvilket iøvrigt får mig til at løfte en advarende pegefinger: Dataetisk Råd skal sådan passe på, at de ikke bliver misbrugt til "etisk vask" ... "Vi har tidligt fået projektet vurderet af Dataetisk Råd, og efterfølgende lavet justeringer udfra deres feedback" - ja, men næppe særlig meget, vel?

5
13. august 2021 kl. 11:22

får mig til at tænke på, om det i virkeligheden er en begyndende erkendelse af, at der i lovgivnings-iveren efterhånden er udstedet så mange regler, ikke sjældent kolliderende, at en sagsbearbejder de facto ikke længere har en realistisk chance for en 100 % forsvarlig sagsbehandling.

Og det bliver bestemt ikke bedre med den konstante udsprøjtning af flere og flere mere eller mindre gennemtænkte eller svært forståelige nye love.

Så fremtidens AI-vision synes at være: Et tryk på en knap - og sagsbearbejderen kan gå videre til næste sag med god samvittighed.

Klager en borger over et diskutabelt svar, lyder forklaringen: “Beklager, det ikke mig, det er er vores AI - du kan selv se det hér på skærmen.“

“Vil du have et print ?”

4
13. august 2021 kl. 10:40

Hov, det virker vist til, at Dataetisk Råd er blevet overset. Det må straks stoppes!

Etisk Råd ledes heldigvis nu af en sundhedsvidenskabelig forsker, og de videnskabetiske kommiteer har jo fornuftigt nok som regel et solidt flertal bestående af forskere, faguddannelse, og politiske og kommercielle interessenter.

Radio24/7 var en irriterende undtagelse, som hverken kunne overtales eller overtages, men så kunne den heldigvis lukkes. Datatilsynet kan grøntshøsterbespares væk, så de bliver nødt konstant til at gøre sig lækre nok til ekstrabevillinger.

Men der er hårdt brug for nye kræfter til Dataetisk Råd. Mange af deltagerne virker jo til at have en selvstændig mening! Det er da gået helt galt.

(spor af sarkasme kan forekomme)

3
13. august 2021 kl. 09:28

Enig Anne-marie, det lyder pænt, men en ti'er på, at al etik og respekt ryger i makulatoren i samme sekund virkeligheden kolliderer med de fine intentioner.

Dataetisk Råds anbefaler også, at projekterne baseres på gennemsigtighed for borgerne.

Vi ved fra sundhedsdata-skandalerne at gennemsigtighed er komplet ligegyldigt. Som tidligere sundhedsminister Løhde gjorde det klart, er gennemsigtighed i denne sammenhæng, et lille ko-øje med 6 tommer panserglas som borgene kan stå udenfor og glo igennem, hvis de er interesseret i at følge med i misbrugen og eksproprieringen af deres data.

Signaturprojekterne, der involverer borgernes data, skal bygge på frivillighed og valgfrihed for borgerne.

Yeah well. For mit vedkommende bliver det et blankt nej herfra. I det omfang jeg bliver spurgt om noget som helst af regeringen, så bliver det Nej/Frameld/Ikke-interesseret, indtil "tvang" bliver taget ud af tvangs-digitaliseringen.

Og lad os så se hvor meget mit nej bliver respekteret, hvis de begynder at mangle datafoder til deres projekt. Eller hvor længe der går før overskriften lyder "Ups vi kom til at æde alle data alligevel, men det gør ikke noget for vi har lavet en administrativ sletning"

Og som AMK påpeger, så har vi ingen lovning på "ikke-signatur"projekter. Så her må vi jo trække på erfaringen og regne med at blive kastet under bussen igen.

2
13. august 2021 kl. 08:26

"Der foreligger en væsentlig kommunikationsopgave i, at borgerne kommer til at føle sig trygge, når det offentlige anvender kunstig intelligens."

Tak. Det var sådan cirka alt jeg manglede at høre fra magtpartierne og AI-konsulentbranchens udvalgte lobbyister. Det siger alt. De dumme borgere skal forsikres om at lorten dufter af roser, og at det er borgernes lugtesans som den er galt med. Og det skal så ske her flere år efter at stanken begyndte at brede sig.

1
13. august 2021 kl. 06:30

, men ved nærmere eftersyn er det vist mest en åben dør, et figenblad, elastik i metermål.

Udgangspunktet lyder til at være, at data skal bruges, AI skal bruges, og at det kan gøres etisk og teknisk forsvarligt - vi skal bare lige finde ud af hvordan. Læs Cathy O´Neils "Weapons of Math Destruction" - så mister man troen på, at det kan lade sig gøre...

Er det også frivilligt at lade data opsamle?

"Signaturprojekterne, der involverer borgernes data, skal bygge på frivillighed og valgfrihed for borgerne."

Og hvad med efterfølgende "ikke-signatur"-projekter? Allerede der skrider det - for det lyder ikke til at være et absolut krav på længere sigt med frivillighed og valgfrihed for borgerne - det er bare noget, der skal lyde pænt i murbrækker-fasen (undskyld, hvis jeg tager fejl her).

Og "gennemsigtighed"? Siden hvornår har en AI-algoritme kunnet fremvise noget som helst, der kan kaldes "gennemsigtighed"?

Der er mange fornuftige folk i rådet (og mange med erhvervsinteresser i sagen) - Er alle rådets medlemmer enige? Rækker "gennemsigtigheden" til, at vi kan få oplyst, om der er rådsmedlemmer, som ikke ser AI som fremtiden inden for det offentliges omgang med borgerne? ER der medlemmmer, som ikke står bag anbefalingerne?https://dataetiskraad.dk/medlemmer

Og hvilken vægt har rådets anbefalinger overhovedet?