Ny rapport bekræfter: It-system trækker automatisk og ulovligt borgere i kontanthjælp

Plus26. maj kl. 05:0047
KY (Kommunernes Ydelsessystem)
Illustration: Rasmus Meisler.
It-understøttelsen af 225-timersreglen, der er central for kontanthjælpssystemet, er fuld af problemer.

Borgere i minimum 11 kommuner er blevet trukket ulovligt i kontanthjælp på grund af fejl i it-systemet KY (Kommunernes Ydelsessystem). Det fremgår af en ny rapport fra revisionsfirmaet BDO til Styrelsen for Arbejdsmarked og Rekruttering (Star).

BDO har undersøgt 20 kommuners administration af 225-timersreglen, som er central for kontanthjælpssystemet, og påpeger flere alvorlige fejl, blandt andet i it-understøttelsen af sagsbehandlingen.

Gratis adgang i 30 dage

Tegn et gratis prøveabonnement og få adgang til alt PLUS-indhold på Ing.dk, Version2 og Radar, helt uden binding eller betalingsoplysninger.

Alternativt kan du købe et abonnement
remove_circle
Har du allerede et PLUS-abonnement eller klip?
close

Velkommen til PLUS

Da du er ved at tilmelde dig en gratis prøve beder vi dig hjælpe os med at gøre vores indhold mere relevant for dig, ved at vælge et eller flere emner der interesserer dig.

Vælg mindst et emne *
Du skal vælge en adgangskode til når du fremover skal logge ind på din brugerkonto.
visibility
Dit medlemskab giver adgang
Som medlem af IDA har du gratis adgang til PLUS-indhold, som en del af dit medlemskab. Fortsæt med MitIDA for at aktivere din adgang til indholdet.
Oplever du problemer med login, så skriv til os på websupport@ing.dk
Abonnementsfordele
vpn_key
Fuld adgang til Ing.dk, Version2 og Radar
Fuld digital adgang til PLUS-indhold på Ing.dk, Version2 og Radar, tilgængeligt på din computer, tablet og mobil.
drafts
Kuraterede nyhedsbreve
Det seneste nye fra branchen, leveret til din indbakke.
Adgang til andre medier
Hver måned får du 6 klip, som kan bruges til permanent at låse op for indhold på vores andre medier.
thumb_up
Adgang til debatten
Deltag i debatten med andre kloge læsere.
47 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
9
29. maj kl. 07:21

det er simpelthen for komplekst

Tankerne falder på russernes design af 'Doomesday machine' i Dr. Strangelove. Løsningen er genial billig og de blev nødt til at spare muligheden for deaktivering væk.

10
29. maj kl. 11:55

Tankerne falder på russernes design af 'Doomsday machine' i Dr. Strangelove. Løsningen er genial billig og de blev nødt til at spare muligheden for deaktivering væk.

Ja, Peter Sellers var 'King of Satire' - hyleskæg!

Men Kombits fejl i KY har mig bekendt ikke noget med AI at gøre. Og det er næppe LLM, der smadrer verden; det var mennesker i gang med lææænge før computere.

11
29. maj kl. 12:21

Jeg bliver nødt til at spørge, om du arbejder med AI i dagligdagen, Nis Schmidt?

Er atombomber heller ikke farlige, fordi det er mennesker, der har skabt dem, og mennesker slog hinanden ihjel længe før atombomben?

12
29. maj kl. 16:42

AI kan bruges til mange ting, og der bliver helt sikkert nye problemstillinger, som vi behøver at tage stilling til.

Jeg foretrækker at se på de positive ting, at AI kan bruges til. Forbud mod AI, vil typisk sætte grænser for de positive ting, mens de negative ting, er ikke underlagt love.

I mange år har jeg ment at det offentlige skulle have et telefonnummer, man kunne ringe og tale med, lufte sine bekymringer, få gode råd og vejledning, og blive vejledt hvis man har problemer. I dag er vi der, hvor denne rolle stort set kan varetages af AI. Fremtidens psykolog, bliver ikke et menneske at tale med. De er for dyre. Langt de fleste, går ikke til psykolog, for det er udenfor økonomiens rækkevide. Med AI har vi løsningen. Alle kan ringe til "psykologlinien", og computeren husker hvad der blev talt om sidst, og man kan forsætte samtalen. Det kan være gratis, eller koste et meget lille beløb, og man vil kunne tale med maskinen både nat og dag, og ligeså mange timer man ønsker. AI er den perfekte psykologerstatning.

På sygehuset, er det meget svært at komme til at tale med en læge, og få at vide hvordan situationen er med ens pårørende. Sygeplejeskerne ved det ikke - eller også, må de ikke sige det. Måske, fordi det er lægens opgave. Og lægen er der ikke. Spørger man efter en læge, så får man at vide, at man kan tale med lægen dagen efter når de går runde. Og der kommer så ingen læge. Eller, lægen går kort ind i lokalet i to sekunder, og forsvinder igen. Så er turen gået. Med en AI, så er det muligt for pårørende at få klart besked hele tiden, døgnet rundt, både via internet, på hospitalet og via telefonen.

I skolerne undervises langt de fleste børn ikke effektivt, for undervisningen er ikke tilrettet dem. Rigtig mange undervisningtimer er rent spild af elevernes tid. Sætter man sig ind og overvåger en undervisningstime i folkeskolen, med en notesbog, for at notere hvad eleverne har lært i timen, så bliver man overrasket. For i langt de fleste timer, bliver bogen tom, eller det bliver kun skrevet få linier.

Med AI er muligt, at tilrette undervisningen for den enkelte. Der kan tages udgangspunkt i, hvad eleven gerne vil vide noget om, og AI'en kan hæfte den obligatoriske undervisning på, når der er lejlighed til det. ChatGPT er et stort stykke af vejen, da den kan besvare mange spørgsmål, som eleverne gerne vil vide noget om. Måske mangler den en smule, for at kunne lede diskussionen hen i retning af pensum, og sørge for at eleverne får lært noget som de skal. Men, som udgangspunkt, er det bedst at gå ud fra det som eleverne gerne vil vide. Og, er ikke muligt, at hæfte noget af den obligatoriske undervisning på dette, så er det nok fordi, at det obligatoriske pensum er forældet, irrelevant, og ikke mere aktuelt.

13
29. maj kl. 19:04

Umiddelbart opfatter jeg dit undvigende svar som en bekræftelse på, at du arbejder med Ai i dagligdagen, Jens D Madsen.

Men hvordan kan det en opremsning af mulige gode anvendelser af AI være et argument for, at AI ikke også kan være - og vil være - dødsensfarlig? De to ting har da ikke noget som helst med hinanden at gøre.

På hvad måde er det et bevis for, at AI ikke er dødsensfarlig, at mennesker i hele menneskehedens historie har slået hinanden ihjel?

Igen: Det er et komplet ulogisk argument, som ikke har noget at gøre med, om AI faktisk er så farlig, som flere og flere mener.

Du undviger at forholde dig til, hvad AI faktisk kan, og hvilke risici der er.

14
29. maj kl. 21:20

Umiddelbart opfatter jeg dit undvigende svar som en bekræftelse på, at du arbejder med Ai i dagligdagen, Jens D Madsen.

Du ku' lige så godt have spurgt Jens om han skrev Sci-fi til hverdag og så ville svaret nok havde været: "på en måde" - han skriver "hver dag" noget der ligner;) Han er nok lige så glad for AI, som du er for Google (som ejer youtube); menjeg kender jer ikke - så jeg ved det ikke.

AI bruges idag som "paraply" for begreber der spænder områderne:

  • automata i spil
  • maskin læring (ML)
  • store sprogmodeller (LLM)
  • beslutningsstøtte
  • og flere andre - omtalt fortrinsvis af personer, der ikke aner noget (eller kun ved lidt) om nogen af delene.

Jeg mener offentlig brug af AI bør sættes på pause, fordi den er umoden - dens nuværende form egner sig ikke til formålet. Indkøring af modellerne sluger kolossale mængder strøm, primært fordi programmering af modellerne er ineffektiv.

Intelligens er tilsvarende mange ting (delvis afhængigt af sprog)

  • menneskelig intelligens (ca syv slags)
  • programmeret intelligens (automata og beslutningsstøtte)
  • kunstig intelligens - se AI
  • intelligens (indsamling af oplysninger)

@AMK: Jeg tror du ser for meget youtube, men det er bare min 'synsning'.

Jeg fastholder at Peter Sellers var rigtig sjov og at KY næppe har noget med AI at gøre. Jeg er ikke på lønningslisten nogen steder og bruger open source, fordi det er billigt og alternativet er hundedyrt. I mit tidligere liv kunne jeg finde på at bruge gratis compilere (oversættere af programtekst), når jeg skønnede at slutbruger ikke havde adgang til kommercielle compiler-udgaver.

19
30. maj kl. 07:00

Tak for svar, Nis Schmidt.

Det er meget begrænset, hvad jeg ser af youtube. Jeg prøver så vidt muligt at undgå det, men lige omkring dette emne falder jeg hele tiden over links, som faktisk tager problematikken alvorligt, hvilket ikke sker ret mange andre steder. Så må man jo bie i det sure æble, og bruge youtube.

Ja, det er en form for sci-fi, Jens D madsen ofte skriver, og det er netop det, jeg forsøger at finde en god forklaring på. Når mennesker, som jeg antager er fornuftige, og måske endda kapaciteter indenfor deres felt, den ene gang efter den anden skriver svar på en problemstilling, som ikke har noget med problemstillingen at gøre, og i øvrigt argumenterer helt ulogisk, så er et af stederne man kan lede efter en forklaring, ofte, at de har en eller anden form for personlig - ofte økonomisk - interesse i sagen. A la olielobbyen. Så det er et spørgsmål fra min side i håb om t få en logisk forklaring på, hvorfor Jens D Madsen hele tiden argumenter ulogisk. Jeg sidder hele tiden tilbage med en fornemmelse af, at han ikke selv tror på, hvad han skriver - men ja, det er bare en synsning, ganske som mange af Jens D Madsens argumenter er synsninger.

Men det kan selvfølgelig være, at han lader chatGPT skrive sine svar - det har jeg også ind imellem mistanke om.

Også dine svar omkring dette emne begrænser sig jo mest til synsninger - ikke egentlig stillingtagen til, hvilke risici de nye teknologier indebærer. Der er det, at disse - meget lange - video-interviews faktisk forholder sig særdeles alvorligt til emnet, og fremlægger egentlige argumenter for, at det vil gå galt. Ofg dette fra folk, som - så vidt jeg forstår - oprindeligt har været positive overfor AI, og har troet, at vi bare skulle sørge for at udvikle "venlig" og empatisk AI, så ville AI kunne redde verden. Det tror de så ikke længere - tvært imod.

Jeg synes, de advarsler kræver mere seriøse svar end synsninger om, at AI vil kunne give bedre undervisning og den slags, som bare er krumspring for at undgå at tage stilling til risikoen. Ellers ser jeg for mig en fremtidig scene, som kunne være Peter Sellers, hvor den eneste overlevende efter the apocolyps triumferende konstaterer: "Ja, nu er alt liv (bortset fra mig) udslettet, men kors, hvor er AI god til at undervise"!

21
30. maj kl. 14:19

Så det er et spørgsmål fra min side i håb om t få en logisk forklaring på, hvorfor Jens D Madsen hele tiden argumenter ulogisk. Jeg sidder hele tiden tilbage med en fornemmelse af, at han ikke selv tror på, hvad han skriver - men ja, det er bare en synsning, ganske som mange af Jens D Madsens argumenter er synsninger. Men det kan selvfølgelig være, at han lader chatGPT skrive sine svar - det har jeg også ind imellem mistanke om.

Den tanke har jeg også haft i en tidligere debat. :-)

For nu at bringe risici tilbage til virkeligheden -

Man skal ikke stole på de "fakta" som ChatGPT leverer. Det er ganske ofte fakta, hvis den input den er trænet på er godt nok, men hvis ikke, producerer den glad og gerne fiktion uden at kende forskellen. Det er ikke det store problem hvis den bliver brugt til at skrive en kreativ historie - og det er det den er god til. Men vi har allerede set det f¢rste tilfælde af at nogen har brugt den i arbejds-sammenhæng og fået fiktion ud. I dette tilfælde har en advokat brugt den, og ikke opdaget at den havde genereret "præcedens" sager der ikke eksisterer. Han havde spurgt ChatGPT om det var faktuelle sager. Den sagde ja. Det var modpartens advokat der måtte påpege at de ikke kunne finde disse sager. Det er specielt alvorligt i lande som USA, hvor "case law" (domme i tidligere sager) indgår som del af lovgivningen.

Kilde:https://www.bbc.co.uk/news/world-us-canada-65735769

ChatGPT creates original text on request, but comes with warnings it can "produce inaccurate information".

24
30. maj kl. 16:00

I dette tilfælde har en advokat brugt den, og ikke opdaget at den havde genereret "præcedens" sager der ikke eksisterer. Han havde spurgt ChatGPT om det var faktuelle sager. Den sagde ja.

Igen, syntes jeg vi mangler argumentationer for, at AI er farligere end mennesker. Mennesker gør jo præcist det samme, og du kan hverken stole på politikere, forfattere, eller journalister.

35
31. maj kl. 12:37

ChatGPT er lavet til at fabrikere plausibel tekst ud fra brugerens input og det materiale den er trænet på. Den har ikke begreb skabt om hvad der er fakta, hvad der er fiktion, hvad der er vigtigt, og hvad der er uvigtigt. Den genererer lystigt ny tekst der ligner det den har set før, inklusiv fiktive kildehenvisninger hvis du beder om kilder. Og den er rigtig troværdig. Den er lavet til at være så troværdig og menneskelig som muligt. Men man skal hele tiden huske at man ikke med sikkerhed ved hvor meget der er fakta og hvad der er fiktion.

Problemet opstår hvis den bliver opfattet og behandlet som en person. Endda somme tider en ufejlbarlig person der er ekspert på områder som spørgeren ikke behersker fuldt.

Hvis du spørger en person om de fakta de præsenterer er sande, vil de fleste svare sandfærdigt. Det er stort set kun lystløgnere og svindlere (og visse politikere) der vil sige at løgn er sandhed hvis du spørger dem rent ud. En menneskelig ekspert vil efter bedste evne give dig korrekte fakta, oplyse korrekte kilder og oplyse dig om mulige usikkerheder og fejlkilder. Om ikke andet, så fordi der er konsekvenser (erstatningsansvar) hvis man lyver.

Det er forskellen.

Ville du spørge den til råds om økonomi? Dit helbred? Lade den føre en sag i retten?

Det er et fantastisk produkt til underholding, til kreativ skriveproces, som ideskaber, og så videre, men den er ikke et opslagsværk, og den er ikke ekspert i noget som helst.

39
31. maj kl. 16:33

ChatGPT er lavet til at fabrikere plausibel tekst

Der er forskel på de forskellige chat maskiner. Tager du som eksempel you chat, så kommer den også med links til nettet, som du kan undersøge. Hvis du ikke syntes om ChatGPT, så prøv en anden.

38
31. maj kl. 16:17

Ville du spørge den til råds om økonomi? Dit helbred? Lade den føre en sag i retten?

Hvis jeg har brug for idéer, så er den god. Der er forskel på de forskeligge chat programmer - ChatGPT er lidt en "sluddermaskine", og dens ord skal ikke tages helt for gode vare. Men, den kan være særdeles inspirerende, og gøre opmærksom på, at her er lige noget man skal være på vagt overfor.

Det er et fantastisk produkt til underholding, til kreativ skriveproces, som ideskaber, og så videre, men den er ikke et opslagsværk, og den er ikke ekspert i noget som helst.

Det er korrekt, at man selv skal tjekke, om det den skriver er korrekt. Men, den svarer ofte mere korrekt end eksperter! Eksperter siger ofte det rene vrøvl, fordi de ikke ved nok om området. Generelt, så er eksperter meget begrænsede af deres (begrænsede) viden.

25
30. maj kl. 19:13

Igen, syntes jeg vi mangler argumentationer for, at AI er farligere end mennesker. Mennesker gør jo præcist det samme, og du kan hverken stole på politikere, forfattere, eller journalister.

mennesker kan ganske rigtigt være særdeles stygge, både som individer og i flokke. Og det er jo dem, der kollektivt har 'opdraget' AI. Men at sammenligne konsekvensen af menneskers handlinger lige med kunstig intelligens på den længere bane svarer evt. til at ligestille bølgeskvulp i et soppebassin med en tsunami.

Historien viser, at mennesker kan moderere sig og ændre adfærd og retning. Dermed afværge katastrofer eller genopbygge efter katastrofer. De har vist vilje til at gøre dette gang på gang. Men de spor, man ser nu, peger på, at AI synes at effektivisere de destruktive kræfter og ophobningen af alverdens problemer i accelererende omfang. Som om der mangler en besindelse med gennemslagskraft i de store samfundsspor. Nogen eller noget synes at have skabt en uomgåelig ensrettet sluse, der ender i ...?

28
31. maj kl. 03:32

Men de spor, man ser nu, peger på, at AI synes at effektivisere de destruktive kræfter og ophobningen af alverdens problemer i accelererende omfang.

Hvad tænker du på her? ChatGPT?

34
31. maj kl. 07:50
Men de spor, man ser nu, peger på, at AI synes at effektivisere de destruktive kræfter og ophobningen af alverdens problemer i accelererende omfang.

Hvad tænker du på her? ChatGPT?

AI generelt.

17
30. maj kl. 05:23

Indkøring af modellerne sluger kolossale mængder strøm, primært fordi programmering af modellerne er ineffektiv.

En chat robot bruger under en mikrojoule per svar.

18
30. maj kl. 05:44

En chat robot bruger under en mikrojoule per svar.

Det skal gøres opmærksom på, at det er uden optræningen. En meget stor del af energien bruges under optræningen. Jeg spurgte ChatGPT hvor meget CO2 der er blevet udledt, på grund af optræningen af denne. Og den regnede det ud til at den CO2 der er udledt på grund af strømmen til serverne under optræningen, svarer til 3000 - 6000 km bilkørsel, for hver ansat under optræningen.

16
30. maj kl. 05:14

Han er nok lige så glad for AI, som du er for Google (som ejer youtube); menjeg kender jer ikke - så jeg ved det ikke.

Jeg arbejder ikke med AI, men jeg anvender google, ChatGPT, YouChat, Al chat, og flere af de andre chatrobotter til at søge informationer. De forskellige chat maskiner er forskellige - nogle har direkte adgang til internettet, og kan søge for en, andre kan ikke. Nogle skriver lange svar, og andre korte. Jeg har også brugt dem til at få gode idéer. Hvad arbejder du med Anne-Marie? Gætter på, du ikke bruger Chat robotter ;)

Det er korrekt, at Chat robotterne bruger energi. Men gør du det op i energi per svar, så er det ikke meget. En enkelt fransk kartoffel, kan betyde mere for klimaet.

20
30. maj kl. 07:08

Tak for svar, Jens D Madsen.

Nej, jeg arbejder ikke en disse med AI, men jeg forsøger at lytte til kloge folk, som gør. Og så vælger jeg dem, hvis argumenter giver mest mening,at læne mig op ad. Og i øjeblikket kommer der stort set kun seriøse argumenter fra den ene side - dem, som spår katastrofe - mens den anden side (AI's tilhængere) ikke er i stand til at diske op med andet end salgstaler, for mig at se. Egentlige argumenter skal man lede længe efter. Jeg håber, at der er gode argumenter for, at det ikke går så galt.

Hvem læner du dig op ad, når du bliver ved med at argumentere med, at når/hvis AI er god til at undervise og andre rare ting, så må AI derfor være ufarlig? Det er jo Erasmus Montanus-logik, og jeg tror, du må kunne gøre det bedre.

Er det fordi, du bruger chatGPT til at skrive dine svar, at de bliver så ulogiske?

Ja, undskyld, nu blev jeg lige lidt grov, og det ærgrer mig, for du lyder da som en meget flink fyr. Men jeg tror simpelthen ikke på, at du ikke selv kan se, at du snakker udenom problematikken med, om sprogmodellerne kan blive menneskehedens - og måske endda alt livs - undergang.

Mener du virkeligt alvorligt, at hvis bare AI kan være en hjælp i undervisningen, så er AI derfor ufarlig? Hvad har de to ting med hinanden at gøre?

23
30. maj kl. 15:56

Anne-Marie Krogsbøll - Hvorfor mener du, at AI er mere farligt end mennesker? Jeg syntes du mangler at begrunde det.

26
30. maj kl. 19:35

Er atombomber mere farlige end mennesker, Jens D Madsen? De er bygget af mennesker, så er det menneskene eller atombomben, der farligst?

Jeg synes, du bruger Erasmus Montanus-logik. Jeg tror ikke på, at du ikke kan gøre det bedre.

Lader du nogen gange chatGPT skrive dine svar?

22
30. maj kl. 15:45

Mener du virkeligt alvorligt, at hvis bare AI kan være en hjælp i undervisningen, så er AI derfor ufarlig? Hvad har de to ting med hinanden at gøre?

AI kan bruges til mange ting, på præcist samme måde som du kan bruge mennesker til mange ting. At sige, hvorvidt at AI er farligt eller godt, er ligeså umuligt, som at sige om mennesker er farlige eller gode. Generalt, så er AI sandsynligvis nemmere at kontrolere, til at ikke gøre noget skidt end mennesker, og jeg har altid været meget bekymret over den undervisning som eleverne får i skolen. Ingen tvivl om, at undervisning kan være farligt, uanset om den kommer fra AI eller fra mennesker. Jeg foretrækker den kommer fra AI.

Hvis du ikke har prøvet ChatGPT, Youchat og lign. så prøv dem. Prøv at diskutere problemerne med dem. Jeg syntes, at du skal prøve dem, for at vide hvad de kan, og hvad at diskusionen drejer sig om.

27
30. maj kl. 19:36

Her mistænker jeg, at du har ladet chatGPT skrive dit var.

33
31. maj kl. 07:35

Jeg har prøvet at bruge dit link flere gange, Jens D Madsen. Der kommer som forventet forskelligt svar hver gang.

Jeg går ud fra, at jeg ikke har lov til at gengive hele striben af forskellige svar,så ville jeg sikkert krænke youchats rettigheder, men det seneste svar, jeg har fået slutter på følgende måde:

"Så for at besvare spørgsmålet kort: Ja, AI kan teoretisk set ødelægge verden, men det afhænger af mange faktorer. Vi kan derfor kun bestemt konkludere, at vi skal være forsigtige og have en etisk tilgang, når vi arbejder med AI-teknologi."

Så fra hestens egen mund: Ja - AI kan ødelægge verden, hvis ikke vi tæmmer den.

36
31. maj kl. 16:07

Så fra hestens egen mund: Ja - AI kan ødelægge verden, hvis ikke vi tæmmer den.

Ja, youchat svarer meget fornuftigt, og jeg er helt enig. Men, jeg mener så til gengæld, at den er nemmere at tæmme end mennesker ;)

37
31. maj kl. 16:12

Vil du så afskaffe mennesker, så de ikke kommer til at misbruge AI-sprogmodellerne til at udslette hinanden med?

40
31. maj kl. 16:55

Vil du så afskaffe mennesker, så de ikke kommer til at misbruge AI-sprogmodellerne til at udslette hinanden med?

Jeg syntes faktisk, at det er positivt, at chat modellerne laver fejl, svarer forkert, og at vi lærer at vi ikke skal tage efter dem, uden at tænke over det først. Er de for perfekte, så begynder vi at tage after dem per automatik, og så risikerer vi, at det kan gå galt. Det er et stort plus, at de forsøger at fyre en god joke af indimellem.

Hvis mennesker så vælge at udslette hinanden, fordi chatmodellerne har humor - det er sku vores fejl.

Det er vigtigt, at vi som mennesker, er tilstrækkeligt skeptiske, og ikke tager alt vi får at vide for gode vare. Dette gælder ikke kun ved kommunikation med chat modeller - det gælder også, når vi kommunikerer med hinanden. Det er vigtigt, at der ikke sker katastrofer, fordi at en meget klog person tager fejl. Vi er ansvarlige for, at undersøge korrektheden, ved at spørge forskellige kloge personer, måske kræve computersimuleringer og beviser.

41
31. maj kl. 17:22

Du snakker uden om, Jens D Madsen.

Det er Erasmus-logik at argumentere med, at fordi mennesker kan være farlige, så er AI ikke farlig. Det ene følger ikke af det andet - det er spin og obfuskation.

Du kan ikke afvise, at AI er farlig ved at argumentere, at mennesker er farlige. Det er goddag-mand-økseskaft-logik. Med den logik, kan du hævde, at intet er farligt - for mennesker er farlige. Det giver ikke mening - så kan vi ligeså godt helt holde op med at beskæftige os med, om noget er farligt.

Det er lobbyist-logik, der følger skemaerne for klimabenægterstrategierne.

42
31. maj kl. 18:02

Du kan ikke afvise, at AI er farlig ved at argumentere, at mennesker er farlige.

Det er heller ikke det at jeg gør. Det er helt umuligt, at besvare et spørgsmål, om hvorvidt AI er farligt. Er en brødrister farligt? Ja, hvis den bruges forkert.

Det er vigtigt, at vi ikke stoler blindt på AI. På det tidspunkt, at politikere begynder at argumentere med, at en computer, eller AI har sagt det, og derfor er det korrekt - så er det farligt. Men, det er ligeså farligt at sige det omvendte, at fordi at AI har sagt det, så er det forkert. Mange af de svar du får fra AI er utroligt gode, præcise, og korrekte. Og det gælder faktisk også chatGPT. Jeg spurgte f.eks. chatGPT om jorden er flad. Og den svarede korrekt - i modsætning til mange eksperter - at jorden ikke var rund, men at den har en rund form. Jeg spurgte, om det var korrekt, at jorden var flad på kort afstand, men rund på stor afstand. Og også her forklarede den det korrekt.

43
31. maj kl. 18:16

hvorvidt AI er farligt. Er en brødrister farligt? Ja, hvis den bruges forkert.

Det er helt irrelevant at sammenligne AI med en brødrister. Men du bekræfter det selv, at AI er farlig, for det er utopi at forestille sig, at mennesker ikke skulle fejlbetjene AI. Især fordi modellernes skabere ikke mere selv aner, hvad der foregår i dem. Så vi kan ikke på forhånd vide, om vi betjener dem rigtigt - det ved vi først, når ulykken er sket.

Det er virkelig i tiltagende grad min oplevelse, at du helt bevidst snakker uden om og obfuskerer, i stedet for faktisk at tage stilling til, om AI kan medføre alt livs udslettelse.

Spørgsmålet er hvorfor - mit gæt: Du har en eller anden form for personlig økonomiske interesser, der kan blive påvirket, hvis man griber til hård regulering af AI.

Ellers forstår jeg ikke, at man kan tage så afslappet på verdens potentielle undergang indenfor få årtier. Og selv hvis man har store økonomiske interesser i klemme, giver den tilgang ikke mening.

44
31. maj kl. 18:47

Hvis verden går under, så vil det ikke skyldes AI. Det kan kun skyldes mennesker. Vi vil ganske enkelt ikke give AI adgang til muligheder, der gør at AI kan medføre jordens undergang. Det er godt, at AI svarer forkert, for at gøre os opmærksom på, at det er vores opgave at kunne vurdere, og indse hvis noget er forkert. Jeg tror, at forskerne har programmeret ChatGPT til at svare forkert bevidst. Desværre er der mange mennesker, der er ligeglade med begrundelser og logik, og helst ikke vil forstå noget. De vil bare gerne have et svar, som de kan stole på, og gentage. Disse mennesker er utroligt farlige. Specielt, hvis de påtager sig en autoritær status. Det vigtige er ikke, om det man får at vide er korrekt. Det vigtige er, at man er i stand til at forstå det, og kan vurdere korrektheden.

46
31. maj kl. 20:01

Det, som nogen forskere argumenterer for, er at hvis vi laver en AI der svarer korrekt, og overgår mennesket i alle tilfælde, så kan det føre til jordens undergang. Så længe, at AI er designet til at fejle ofte nok, så vil det ikke ske.

47
31. maj kl. 20:10

Du har tydeligvis ikke set de videoklip, selv om de er ganske korte.

31
31. maj kl. 07:00

Du svarer udenom.

Så vidt jeg ved, ændrer botternes svar sig hele tiden.

Har du ladet botterne skrive nogle af dine svar?

5
26. maj kl. 13:22

Jeg gentager mit indlæg fra den anden artikel om emnet:

Jeg forstår ikke, at det er så "svært" ?

Lovene er komplekse og ændres løbende. It-systemerne er komplekse og potentielt fejlbehæftede. Det er et vilkår.

MEN det er jo ikke raketvidenskab at lave en kvalitetskontrol - det er kendt know-how, som har været benyttet siden industialiseringen.

Konkret kunne man beslutte en stikprøve per 10.000, 1.000 eller 100 "sager" indenfor hvert af områderne (dækket af samme it-system). Antallet må afhænge af omfanget af sager i grundmaterialet, så det kan være promiller, procent, flere procent. HVIS en stikprøve vise signifikante mange fejl, så kan antalle at stikprøver fordobles for at efterprøve konsistensen.

Med resultatet i hånde skal der ske yre ting:

  • borgerne holdes hurtigt skadesløse

  • fejlene eller manglerne rettes og testes i begrænset skala

  • ændringen idriftsættes, måske først som pilot, og ny stikprøvekontrol gennemføres.

Det kan altså IKKE VÆRE SÅ SVÆRT at gennemføre.

32
31. maj kl. 07:23

Lovene er komplekse og ændres løbende. It-systemerne er komplekse og potentielt fejlbehæftede. Det er et vilkår.

Men at lovene ændres løbende er så en ting, der kan tages højde for i den software arkitektur, der vælges til projektet. Der er nogle karakteristika for arkitekturer, der omhandler dette:

  • Adaptability, som handler om hvor let, arkitekturen og systemet kan tilpasses til ændringer i miljø, funktionelle krav og andre krav.
  • Extensibility, som handler om for let, arkitekturen og systemet kan tilpasses med nye features og funktioner.
  • Configurability (til en vis grad), som handler om hvor let, systemet kan tilpasses flere konfigurationer og håndtere ændringer i konfigurationerne løbende.

Så selv om det lovmæssige grundlag er komplekst og forventeligt, at det ændrer sig, så kan man i mine øjne sagtens få designet en arkitektur, som tillader ændringer i grundlaget uden, at det vælter hele systemet.

Men uanset hvilken arkitektur, der vælges til systemerne, så ændrer det ikke noget på, at den grundlæggende lovgivning skal være klar, tydelig, gennemtænkt og forståelig. Det har vi set ganske mange eksempler på gennem de sidste 10 års tid, at lovgivningen ikke er. At der er vedtaget lovgivning, som rammer befolkningsgrupper, som lovgivningen ikke var tiltænkt at ramme - ganske enkelt fordi, der bliver sjusket alt for meget i udarbejdelsen. Der er nærmest gået sport i at få lovgivningen hastet hurtigst muligt igennem. Og det koster på implementeringsfronten (uanset om det er manuel eller digital implementation), fordi reglerne ikke er til at forstå.

4
26. maj kl. 09:53

Jeg er overhovedet ikke overrasket. Denne "udvikling" var mig helt forventelig. Det er deprimerende, at det er såkaldte intelligensvæsener, der af stedkommer dette morads. Der må rulle hoveder. Der må personer til i systemerne, der evner og har kompetencer til at rydde op og frem for alt forenkle. AI = hovedet under armen - puha!

3
26. maj kl. 08:47

Problemet er den lovgivende process.

For at processen omkring lovgivning og implementering kan være effektiv og billig, er lovgiver nød til at få udarbejdet et dataflow diagram for hvordan processen skal være. på den måde skal 98 kommuner ikke selv udrede hvordan flowet skal være.

2
26. maj kl. 07:18

Det er da utroligt, at der ligefrem skal en rapport til at konstatere det, på trods af alle eksemplerne. Det siger jo i sig selv alt om, at digitaliseringen har taget overhånd.

"personens ydelse uretmæssigt nedsættes, uden at der er taget stilling til afgørelsen."

Er det ikke ellers præcis det, vi gang på gang bliver lovet ikke vil ske, når noget med vold og magt skal digitaliseres og algoritmiseres? At det altid kun vil være "beslutningsstøttende", det vil aldrig ske rent automatiseret?

"Charlotte Aakerlund mener ikke, at det er en reel mulighed at trykke på pauseknappen for automatiseringen. »Sagsbehandlerne kan ikke administrere 225-timersreglen manuelt. Det er opgaven for kompleks til, så systemunderstøttelsen er vigtig,« siger hun."

Er det et eksempel på lovgivning, der direkte er konstrueret til at skulle administreres digitalt - dvs. "digitaliseringsklar" lovgivning?

Jamen, så er der da den løsning simpelthen at droppe den 225 timers regel!

Sagen er et skoleskræmmeeksempel på, hvorfor den lysende sti, som vore magthavende politikere i årevis har set for sig - "Digitaliser alt - helst med hovedet undr armen" - er en gang bullshitbingo, hvor de enten har slukket for al kritisk sans, og simpelthen har overladt roret til DareDisrupt og tech-lobbyisterne, eller hvor de simpelthen ikke aner, hvad de har gang i - evnerne mangler.

6
27. maj kl. 19:31

Det er da utroligt, at der ligefrem skal en rapport til at konstatere det, på trods af alle eksemplerne. Det siger jo i sig selv alt om, at digitaliseringen har taget overhånd.

Der skete langt flere fejl, da alt blev gjort manuelt. Det kunne naturligvis løses, ved at man gav personerne der lavede fejlene kompetance således, at det de gjorde var besluttet at være korrekt, fordi de tog beslutningerne. Andre gange var det så grotest, at folk blev fyret. Adskillige er blevet smidt ud af kontanthjælpssystemet - altså smidt helt ud - på grund af enkeltpersoners håndteringer af lovene. For en del år siden, spurgte jeg mange hjemløse om, hvorfor de ikke fik kontanthjælp. Nogle ønskede det ikke. Men, i mange tilfælde, skyldes det så vidt jeg kunne se en mulig forkert sagsbehandling. En gang havde Hanne Reintoft en social brevkasse i radioen - det var før computernes tid - og så vidt jeg husker, var der også mange fejl dengang.

7
28. maj kl. 01:33

En gang havde Hanne Reintoft en social brevkasse i radioen - det var før computernes tid - og så vidt jeg husker, var der også mange fejl dengang.

God pointe Jens, men de sidst 11 år af "Hvad er min ret og hvad er min pligt"-perioden var i det åbne Internets barndom (1993-2004). Du har dog ret i, at fejl også forekom før "computernes tid".

Og @AMK:

Det siger jo i sig selv alt om, at digitaliseringen har taget overhånd.

For at bruge dine egne ord: er det "hovedet under armen"-digitaliseringen, der har taget overhånd. Stærkt fremmet af "hovsa-lovgivning".

Der findes måder at teste og effektivisere software-udvikling på, de har bare ikke den selvfede del af det danske STEM-segmentet (som efter mit skøn udgør 3½% +/- 1½%), for dette mindretal er ansvar for egne handlinger fy-ord, i deres griske øjne er egen vinding langt vigtigere. Men bare rolig: de lever ikke evigt. Et større problem for demokratiet er dog, at vælgerne bliver ved at stemme på personer, der bare lover skattelettelser til de "overbetalte ansvarsløse". Det er langt farligere end AI, som den er nu. Husk det på næste valgdag!

1
26. maj kl. 06:27

Det mest groteske er påstanden om at processen er for kompleks til at kunne udføres manuelt, og man derfor ikke kan slukke for det fejlbehæftede system.

Det er skridtet før "vi kan ikke gøre noget. computeren siger nej."