AI Act er et skridt tættere på: Parlamentet vil regulere generativ AI

Plus16. maj kl. 04:3032
Illustration af AI-kontor i EU
Illustration: DALL-E.
Her er tidsplanen for AI Act og de væsentligste ændringer i parlamentets udgave af lovgivningen

Torsdag formiddag rykkede AI Act et stort skridt tættere på, da de to parlamentsudvalg LIBE og IMCO godkendte en række tilføjelser og ændringer til lovteksten.

Det er Udvalget om Borgernes Rettigheder og Retlige og Indre Anliggender (LIBE) samt udvalget om det Indre Marked og Forbrugerbeskyttelse (IMCO), der leder arbejdet med AI Act på vegne af hele Europa-Parlamentet. Det er altså disse to udvalg, som nu er blevet enige om deres udkast til AI Act, der stadig formelt skal godkendes af hele parlamentet.

Gratis adgang i 30 dage

Tegn et gratis prøveabonnement og få adgang til alt PLUS-indhold på Ing.dk, Version2 og Radar, helt uden binding eller betalingsoplysninger.

Alternativt kan du købe et abonnement
remove_circle
Har du allerede et PLUS-abonnement eller klip?
close

Velkommen til PLUS

Da du er ved at tilmelde dig en gratis prøve beder vi dig hjælpe os med at gøre vores indhold mere relevant for dig, ved at vælge et eller flere emner der interesserer dig.

Vælg mindst et emne *
Du skal vælge en adgangskode til når du fremover skal logge ind på din brugerkonto.
visibility
Dit medlemskab giver adgang
Som medlem af IDA har du gratis adgang til PLUS-indhold, som en del af dit medlemskab. Fortsæt med MitIDA for at aktivere din adgang til indholdet.
Oplever du problemer med login, så skriv til os på websupport@ing.dk
Abonnementsfordele
vpn_key
Fuld adgang til Ing.dk, Version2 og Radar
Fuld digital adgang til PLUS-indhold på Ing.dk, Version2 og Radar, tilgængeligt på din computer, tablet og mobil.
drafts
Kuraterede nyhedsbreve
Det seneste nye fra branchen, leveret til din indbakke.
Adgang til andre medier
Hver måned får du 6 klip, som kan bruges til permanent at låse op for indhold på vores andre medier.
thumb_up
Adgang til debatten
Deltag i debatten med andre kloge læsere.
32 kommentarer.  Hop til debatten
Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
20
16. maj kl. 16:06

PS: Et forslag:

Inviter Yudkowsky til at deltage og debattere på næste års Version2Security- konference.

22
16. maj kl. 16:12

Og så inviter gerne Peter Norvig også, og lad dem diskutere indbyrdes.

Jeg ville sidde klistret til skærmen...

15
16. maj kl. 15:54

Sådan som jeg ser det kan en AI idag ikke blive mere intelligent end et menneske: det er stadigvæk bare kode og AI har samme problemer som andre programmer, nemlig datakvalitet. garbage in - garbage out gælder stadigvæk, så vidt jeg kan læse ud af eksemplerne. Den gafler de data, den kan få fat i på nettet og der ligger rigtig meget lort! Det er jo også derfor, folk der arbejder med forretningshemmeligheder, skal lægge dem et sted, hvor den ikke kan gafle dem. Desuden opererer den med sandsynligheder, ikke fakta. Dvs hvis du får det der mest sandsynligt er rigtigt, ikke nødvendigvis det korrekte. Det er en helt anden tilgang end vi er vant til (der var fornylig en kronik i Politiken om dette). Det ser jeg som den store fare, nemlig misinformation for vi er overhovedet ikke trænede i at gennemskue de informationer vi får. Kan en AI selv få nye ideer: nej, for den har kun det den har. Bliver den farlig for menneskeheden en gang i fremtiden? det er jo bare gætværk om den gør. Pt tror jeg det ikke, men jeg har også læst en bog, der hedder 'det er hjernen der er stjernen ' om hvor fantastisk kompliceret en menneskehjerne fungerer! Er der iøvrigt nogen, der ved hvad kineserne (og måske russerne) laver? Et forbud for at redde jorden, er altså ret håbløst, hvis de er ligeglade!

32
19. maj kl. 00:55

Sådan som jeg ser det kan en AI idag ikke blive mere intelligent end et menneske

Spørgsmålet er hvad du ligger i ordet intelligent. Så længe, at dette ord, ikke er ordentligt defineret, så er det svært at sige noget. Jeg forstår intelligent som problemløsning. Computere - også ikke AI - har ganske gode problemløsningsevner. Når vi løser opgaver, må vi ofte spørge en computer om hjælp. Uden computere, var vi næppe nået der vi er i dag. Typisk kan vi ikke løse en opgave særligt godt uden at anvende computere. Omvendt, kan computere ikke løse en opgave, uden at bruge os.

Når AI generer svar, er det et eksempel på, at computeren bruger os. Ved at anvende en masse input, som mennesker har skrevet, f.eks. hele internettet, så giver den mulighed for, at vi kan søge og få denne information i form af normale spørgsmål og svar. Et eller andet sted, har computeren sin viden fra. Og det er fra os. Den har sandsynligvis læst Version2 og ing.dk - også debatten - og den ved hvad vi har skrevet. Alle de informationer som vi oplyser, de indgår som dens viden.

Hvis AI kan blive ligeså intelligent som et menneske, så er det også utroligt interessant. For det er i stand til at svare mange gange hurtigere. Og det er muligt, at give support til hele jordens befolkning, uden stor anstrengelse. Men, intelligens er som jeg ser det ikke det afgørense. Det afgørende er viden. Det er svært at hamle op med en model, der er trænet med alle forskeres, og anerkendte meningsmageres holdninger. I dag er AI som ChatGPT måske trænet med lidt for mange data, i forhold til det som det etablerede samfund kan acceptere.

19
16. maj kl. 16:05

Tak for svar, Ellen Pedersen. Gode argumenter - netop som jeg har efterlyst. Men afviser du, at der allerede i dag sker ting i AI-udviklingen og sprogmodellerne, som vi faktisk ikke forstår og kan forudsige?

Eksemplet med Bings unoder viser jo netop det: At vi hele tiden er bagud ift., hvad disse teknologier kan finde på. Risikoen er jo, at de en dag gør noget virkeligt farligt, som vi ikke kan nå at bremse. Om man så vil kalde det intelligens eller vilje eller sjæl eller bare kludder i koden, er jo sådan set ligegyldigt - som jeg ser det, er der allerede tegn på en stor risiko for, at det kan løbe løbsk, fordi udvikingen går meget hurtigere end iv kan fatte (Yudkowskys eksempel om at skulle forestille sig forskellen i intelligens mellem en chimpanse og et menneske), og nå at tage forholdsregler overfor.

23
16. maj kl. 16:50

bings unoder er for mig at se et klasse eksempel på garbage in - garbage out, der har sikkert også siddet en programmør, der har skullet afprøve et eller andet. Som programmør laver vi nogen gange ballade i testen og det slipper desværre ud til offentligheden engang imellem. Nej det er ikke ligegyldigt om det er kode, der går galt eller det er maskinen der har sin egen vilje. I det sidste tilfælde kan den selv få ideer (og det er det jeg ikke tror på er muligt med den teknologi vi kender idag). Er den vanskelig at debugge: ja føj for pokker! Kan den ved en programfejl få startet en atomkrig! Det tror jeg ikke, selvom en kanalje lægger koderne til affyringsrampen, er det så vidt jeg ved ikke nok til at affyre dem, der ligger noget failsafe indbygget i affyringen. Kan den lave en farlig virus: Igen skal alle relevante data være der og så skal der kontaktes et laboratorium, som rent faktisk kan lave virus (af sig selv) og så skal den spredes. Jeg tror ikke rigtig på det Når Yudkowski sammenligner en AI's intelligens med en chimpanse, så viser han bare at han ikke forstår intelligens. En AI er vanvittig dygtig og hurtig til at processere data og så er den god til sansynligheder. Intelligens er noget helt andet Hvad vil du gøre ved kineserne?

25
16. maj kl. 17:01

Ja, intelligens er noget andet - men i praksis kan det komme ud på et, hvis AI bliver så smart, som vi i øjeblikket loves. Og det kaldes jo altså "Artificiel Intelligens".

Jeg vil ikke gøre noget ved kineserne, for det er irrelevant, så længe vi ikke har fået klarhed over, om Yudkowsky har ret. Og det har vi i mine øjne ikke fået klarhed over.

Og det er i mine øjne ligegyldigt, om det er maskine, der selv får ideer - har en sjæl som et menneske (det tror jeg ikke rigtigt på er muligt) - eller om den bare agerer som om den får det, og går amok. Begge dele kan være lige farligt, når faktum - så vidt jeg forstår - er, at der lige nu sker ting i AI og sprogmodellerne, som vi ikke forstår, og ikke kan forudsige.

Det ligger jo i, at vi ikke kan forudsige det, at vi ikke kan vide, hvad der kan opstå. Det kan være ting, vi slet ikke har fantasi til at forestille os - som da BING gik amok.

27
16. maj kl. 17:30

jeg har i mange år ment at det var en fejl at kalde det kunstig intelligens, for det har intet med intelligens at gøre. Det forleder til at man tillægger maskinen menneskelige egenskaber og det har den ikke! Forstår jeg hvad der foregår i bing, chatgpt mv? næh, men det gør programmøren forhåbentlig. Med min programmørbaggrund, tror jeg ikke på at der er noget uforklarligt i dem. Jeg tror det er en programfejl der ikke er fundet. (godt det ikke er mig der skal debugge)

29
16. maj kl. 17:44

Det forleder til at man tillægger maskinen menneskelige egenskaber og det har den ikke!

De synes jeg ikke, at man behøver at gøre i den anledning. Tvært imod - et menneske med intelligens, men helt uden følelser (som et AI-system nok ikke har), minder jo om en maskine. Det er følelserne, der mest adskiller menneske fra maskine, i mine øjne.

I øvrigt:

*"Almost 30,000 people have signed a petition calling for an “immediate pause” to the development of more powerful artificial intelligence (AI) systems. The interesting thing is that these aren't Luddites with an inherent dislike of technology. Names on the petition include Apple co-founder Steve Wozniak, Tesla, Twitter, and SpaceX CEO Elon Musk, and Turing Prize winner Yoshua Bengio. Others speaking out about the dangers include Geoffrey Hinton, widely credited as "the godfather of AI ."In a recent interview with the BBC to mark his retirement from Google at the age of 75, he warned that “we need to worry” about the speed at which AI is becoming smarter. So, what’s got them spooked? Are these individuals really worried about a Terminator or Matrix-type scenario where robots literally destroy or enslave the human race? Well, as unlikely as it might seem from where we stand today, it seems that indeed they are. ChatGPT is one app that has already taken the world by storm, in a less literal sense – attracting the fastest-growing user base of all time. A senior member of the team responsible for developing it at research institution OpenAI, Paul Christiano, has said he believes there’s “something like a 10 to 20 percent chance” AI will take over control of the world from humans, leading to the death of “many or most humans.”https://www.forbes.com/sites/bernardmarr/2023/05/03/should-we-stop-developing-ai-for-the-good-of-humanity/

Der må vel antages her at være tale om folk, som ved, hvad de taler om?

5
16. maj kl. 09:39

Tak for en god og informativ artikel. Er det muligt for jer at lave en artikel, som går endnu mere i dybden om emnet og måske hiver eksperters vurdering, af specifikke formuleringer i lovforslaget/-ene?

13
Redaktør, DataTech -
16. maj kl. 15:37
Redaktør, DataTech

Kære Johan, Den/de artikler er på blokken omend jeg endnu mangler at afstemme med min redaktør præcis hvornår de skal skrives. Et realistisk bud er at vi kommer til at lave et par artikler lige op til og under trilogforhandlingerne. Hvornår de går i gang ved vi endnu ikke, men umiddelbart er bedste bud 1. september når parlamentet er tilbage fra sommerpausen.

Med det sagt, simpelthen fedt og motiverende at du efterspørger det!

3
16. maj kl. 09:24

Stadig ingen, der tør tage debatten med Yudkowskys argumenter, ser det ud til....Man vælger simpelthen "Tie ihjel"-strategien. Men man kan jo altså ikke tie dommedag ihjel, hvis Yudkowsky nu har ret.

Hvordan kan noget som helst være vigtigere end en kvalificeret debat om, om AI-udviklingen faktisk med overvejende sandsynlighed vil føre til udslettelsen af alt liv på jorden indenfor få årtier?

HAR I INGEN BØRN HERINDE? OG BØRNEBØRN?

2
16. maj kl. 08:56

@Therese Moreau: Kan du give den specifikke reference til sektionen

"Blandt andet vil parlamentet have, at indhold skabt med generative modeller, skal mærkes som syntetisk indhold, ligesom generativ AI ikke må kunne skabe indhold, der er ulovligt ifølge gældende lovgivning. Endelig lægges der op til, at udviklere af generative modeller, skal kunne pålægges at give indsigt i træningsdata og give et detaljeret resumé af de træningsdata, der måtte være omfattet af ophavsretsloven."

særligt at "generativ AI ikke må kunne skabe indhold, der er ulovligt ifølge gældende lovgivning". Jeg tænker at der vil være mange tilfælde hvor en model, der bruges til legitime formål, i andre sammenhænge vil kunne bruges til at generer ulovligt materiale. Er det så diskvalificerende for modellen generelt, at den kan bruges til noget ulovligt? Eller er det bare et spørgsmål om, at man skal forsøge at opsætte sikkerhedsforanstaltninger, så brugeren af modellen i den specifikke implementering ikke uforvarende kommer til at producerer ulovlig indhold. Eksempelvis bruger journalister nu AI generede stemmer til anonyme kilder i stedet for at sløre stemmen, men samme teknologi kan jo bruges til at generer bestemte personers stemme og derved være et identitets tyveri. Betyder det så at denne AI skal forbydes i EU?

14
Redaktør, DataTech -
16. maj kl. 15:49
Redaktør, DataTech

Kære Daniel, Jeg sætter pris på at du spørger, for jeg kan faktisk se at jeg har misforstået hvor skarpt formuleret kravet om at overholde gældende lovgivning er formuleret i selve udkastet til lovteksten - i pressemeddelelsen står det skarpere end i teksten. Det får jeg lige rettet i artiklen.

Pressemeddelelse: »Generative foundation models, like GPT, would have to comply with additional transparency requirements, like disclosing that the content was generated by AI, designing the model to prevent it from generating illegal content and publishing summaries of copyrighted data used for training.«

I selve teksten, s. 40 artikel 28b stk. 4 »Providers of foundation models used in AI systems specifically intended to generate, with varying levels of autonomy, content such as complex text, images, audio, or video (“generative AI”) and providers who specialise a foundation model into agenerative AI system, shall in addition« a): comply with the transparency obligations outlined in Article 52 (1), og b): »train, and where applicable, design and develop the foundation model in such a way as to ensure adequate safeguards against the generation of content in breach of Union law in line with the generallyacknowledged state of the art, and without prejudice to fundamental rights, including the freedom of expression« og c): »without prejudice to national or Union legislation on copyright, document and make publicly available a sufficiently detailed summary of the use of training data protected under copyright law.«

1
16. maj kl. 06:37

"Det vil sige, at jo mere risikofyldt et givent brugsscenarie er for borgernes sundhed, sikkerhed eller fundamentale rettigheder, desto strengere krav stilles der til AI-modellens transparens, træning og test."

Jeg bliver endnu engang nødt til at henholde mig til Yudkowsky. Hvis jeg har forstået ham ret (det er jo ikke sikkert), så giver det - overordnet set - ikke mening på den måde at dele AI-problematikken op i delområder, for vi nærmer os med stormskridt (hvis vi ikke allerede er der) et scenarie, hvor alle disse systemer er mere eller mindre koblet sammen til én stor organisme, hvor vi er meget tæt på ikke længere at kunne styre, hvad der kan foregå af autonome processer (tankevirksomheder?), som vi ikke nødvendigvis har interesse i. Eller er der reelt tale om adskilte systemer? Hvilke data har ChatGPT adgang til? Hvilke data får ChatGPT adgang til?

Og man planlægger med flere års "tilløb", inden forsøg på lovgivning og regulering er på plads (og den er sikkert på ingen måde vandtæt i en lang periode - måske for evigt).

Det er netop Yudkowsys pointe, at udviklingen i sprogmodellerne lige nu går så enormt hurtigt og uforudsigeligt, at regulering og love aldrig vil kunne følge med. AI overhaler os, og det er - i følge Yudkowsky - langt mere sandsynligt, at AI vil begynde at forfølge sine egne mål i stedet for vores. Og udfaldet vil sandsynligvis blive udslettelsen af alt liv på jorden:

https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/

4
16. maj kl. 09:35

Jeg tror det vil gavne din frygt at læse "Life 3.0" af Max Tegmark. Den giver et nuanceret syn på AI, og fremsætter samt forklarer mange synspunkter. Det er en generel ting at folk over-/undervurdere hastigheden for udviklingen, systemernes evner og konsekvenserne ved implementering. Det er selvfølgelig opti-/pessimisme som styre denne vurdering. Jeg er selv gået fra stor optimist til at have en mere realistisk vurdering af min optimistiske opstemthed, når jeg læser/hører om ny udvikling/gennembrud.

6
16. maj kl. 09:48

Tak for svar, Johan Markus Mannov Nielsson. Men det er jo altså ikke primært min frygt - det er Yudkowskys.

"Life 3.0" er fra 2017. Som jeg forstår Yudkowsky - som jo altså ikke er en hr. HvemSomHelst indenfor området, så er han blevet rystet over, hvor hurtigt udviklingen går nu med de nye sprogmodeller. Der sker kvantespring, som han ikke har forudset, og ikke kan forklare, selv om han er ekspert indenfor området.

Så hvorfor tør ingen diskutere hans tanker direkte? Hvad kan være vigtigere end alt livs potentielle undergang indenfor få årtier?

Er det for uoverskueligt? Er det fordi, de fleste af dem med tilstrækkelig ekspertise selv har en lukrativ levevej i denne udvikling?

Eller hvorfor denne tavshed om verdens vigtigste spørgsmål lige nu?

Du er optimist - men hvad får dig til at affærdige Yudkowskys argumenter? For en optimistisk natur er jo ikke i sig selv et argument. Man skal helst have noget at have sin optimisme i.

7
16. maj kl. 11:25

Fra wikipedia:

Yudkowsky is an autodidact[19] and did not attend high school or college.[20] He was raised as a Modern Orthodox Jew.[21]

Enough said! Jeg anser ham i hvert fald ikke som ekspert i noget, andet end måske populisme og frygt mageri. ChatGPT er trænet til at kunne fuldføre sætninger ikke andet, det er ikke en egenskab, jeg frygter kan overtage noget som helst!

24
16. maj kl. 16:51

ChatGPT er trænet til at kunne fuldføre sætninger ikke andet, det er ikke en egenskab, jeg frygter kan overtage noget som helst!

Har du prøvet ChatGPT? Du skal prøve den, indenfor noget du ved noget om. Du vil blive overrasket over hvor meget at ChatGPT ved. ChatGPT kender dog ikke den nyeste viden, da den er optrænet med viden, indtil 2021. OpenAI's ChatGPT har heller ikke adgang til internettet, så den kan ikke få adgang til seneste viden.

ChatGPT har en enorm viden. Den er dygtig til at formulere sig. Men, ifølge dens eget udsagn, kan den dog ikke tænke.

Jeg er enig med dig i, at ChatGPT ikke er en risiko. Men, hvis f.eks. millitæret udvikler en kunstig intelligens, der er designet til at udryde menneskeheden, så kan det være en alvorlig risko. Naturligvis, er det ikke sandsynligt, med mindre at nogen tror de kan styre den. Og det skal der nok være nogen der tror de nemt kan.

Jeg syntes, at det er vigtigt at vi skældner imellem kunstig intelligens, der udvikles med et konstruktivt formål, og kunstig intelligens der er destruktiv. Hvis kunstig intelligens altid udvikles til positive formål, så tror jeg ikke der er noget at frygte.

Som jeg ser det, giver ChatGPT nye muligheder for informationssøgning. Det er langt nemmere at finde materiale med ChatGPT end det er med google. Den giver også mulighed for undervisning. Du kan stille den stort set ethvert spørgsmål, og den vil kunne give et svar, og henvise til hvor du kan få mere viden.

Der, hvor jeg måske er mest nervøs ved kunstig intelligens, er når den bruges til at rådgive den amerikanske præsident. Jeg kunne fint forestille mig, at en AI vil kunne anbefale USA at bombe Nordstream gasledningerne, fordi den ikke forstår problematikken. Samtidigt, så er USA et land, hvor præsidenten nok bliver en af de første, der får adgang til at blive rådgivet af AI.

30
16. maj kl. 21:12

Har du prøvet ChatGPT? Du skal prøve den, indenfor noget du ved noget om. Du vil blive overrasket over hvor meget at ChatGPT ved. ChatGPT kender dog ikke den nyeste viden, da den er optrænet med viden, indtil 2021. OpenAI's ChatGPT har heller ikke adgang til internettet, så den kan ikke få adgang til seneste viden.

Ja jeg bruger den tit! og ja det er en imponerende sprogmodel, selvom forskere i sprogmodeller ikke er imponerede (kan ikke lige finde den reference).

Der, hvor jeg måske er mest nervøs ved kunstig intelligens, er når den bruges til at rådgive den amerikanske præsident. Jeg kunne fint forestille mig, at en AI vil kunne anbefale USA at bombe Nordstream gasledningerne, fordi den ikke forstår problematikken. Samtidigt, så er USA et land, hvor præsidenten nok bliver en af de første, der får adgang til at blive rådgivet af AI.

Det kunne man måske forestille sig, men så er det jo os mennesker, der er dumme og ikke en AI der har super-intelligens og overtaget verden. Jeg finder det dog et ret usandsynligt scenarie, der er næppe nogen (ikke engang Trump) som vil starte en krig udelukkende på baggrund af hvad en sprog-model har sagt. Det er IMO ude a proportion.

26
16. maj kl. 17:27

For at få lidt facts på banen, spurgte jeg ChatGPT om kunstig intelligens rådgav det amerikanske forsvar, og om den amerikanske præsident blev rådgivet af kunstig intelligens. ChatGPT svarer:

Ja, det amerikanske forsvar har eksperimenteret med og brugt kunstig intelligens (KI) og maskinlæring i forskellige kapaciteter til at forbedre deres operationer og træffe beslutninger. Mens det er sandt, at der er indført KI-løsninger og systemer i det amerikanske forsvar, er det vigtigt at bemærke, at KI ikke har erstattet menneskelig rådgivning og beslutningstagning fuldstændigt.

Kunstig intelligens anvendes i det amerikanske forsvar på forskellige områder. For eksempel anvendes det til dataanalyse og mønstergenkendelse for at hjælpe med at identificere trusler og udføre operationelle opgaver mere effektivt. Der er også eksperimenteret med autonom teknologi og autonome våbensystemer, der kan træffe beslutninger og handle uden direkte menneskelig indgriben. Dog er der stadig behov for menneskelig overvågning og kontrol for at sikre, at systemerne fungerer korrekt og overholder regler og retningslinjer.

Mens kunstig intelligens kan tilbyde nyttig rådgivning og støtte til det amerikanske forsvar, er det vigtigt at opretholde en balance mellem automatisering og menneskelig vurdering. Beslutninger omkring militære operationer og politikker kræver ofte en bred forståelse af politiske, etiske og strategiske aspekter, som kun mennesker kan levere. Derfor er kunstig intelligens i det amerikanske forsvar primært brugt som et værktøj til at supplere og forbedre menneskelig beslutningstagning snarere end at erstatte den fuldstændigt.

På nuværende tidspunkt er det ikke offentligt kendt, at USA's præsident rådgives direkte af en kunstig intelligens (KI) til beslutningstagning. Selvom kunstig intelligens og maskinlæring anvendes inden for forskellige områder af regeringen og militæret for at støtte beslutningsprocessen, er den endelige afgørelse og ansvar stadig hos menneskelige ledere og politikere.

Det er vigtigt at bemærke, at anvendelsen af KI i politiske beslutninger og rådgivning er et område under udvikling, og der kan være eksperimenter eller pilotprojekter, som ikke er offentligt kendt. Der er også mulighed for, at fremtidige præsidenter eller regeringer kan vælge at bruge KI-baserede systemer til rådgivning i deres beslutningsproces. Men det er vigtigt at opretholde en balance mellem teknologiens potentiale og behovet for menneskelig vurdering, etik og politisk ansvar.

Generelt set er den endelige beslutningstagning i politiske spørgsmål og regeringsanliggender stadig et menneskeligt ansvar, da det kræver en bred forståelse af komplekse politiske, juridiske og etiske spørgsmål, som kun mennesker er i stand til at vurdere fuldt ud.

28
16. maj kl. 17:37

Meget interessant, Jens B Madsen, tak.

Der er også eksperimenteret med autonom teknologi og autonome våbensystemer, der kan træffe beslutninger og handle uden direkte menneskelig indgriben.

Sikkert dumt spørgsmål, menen er det ikke det, som nogen hævde ikke sker? Hvad er forskellen på, at et system er "autonomt", og på, at det kan få egne ideer?

Og forestillingen om kun at udvikle AI til gode og fredelige formål har i hvert fald allerede fået et skud for boven.

8
16. maj kl. 11:58

Jamen, så bliver jeg jo nødt til at svare igen med denne, Søren Hilmer. Forbes tager ham alvorligt:

https://www.forbes.com/sites/bernardmarr/2023/05/03/should-we-stop-developing-ai-for-the-good-of-humanity/

Det er ikke et overbevisende argument blot at stemple ham som populist uden at forholde sig til hans argumenter.

Og du sprang da godt nok lige over resten af den wiki-artikel om hans meritter:https://www.forbes.com/sites/bernardmarr/2023/05/03/should-we-stop-developing-ai-for-the-good-of-humanity/

9
16. maj kl. 13:40

Du har sendt samme link 2 gange. I Forbes artiklen står bla.

Even GPT-4, the most powerful language model, is still just that – a language model – limited to generating text. It can’t build a robot army to physically fight us or launch nuclear missiles. That doesn’t stop it from having ideas, of course

Og det er jo nonsens, det stopper den jo netop fra at få ideer.

Jeg mener virkelig at rygterne om vores snarlige (ud)død er stærkt overdrevne, nærmest ikke eksisterende.

11
16. maj kl. 14:48

Søren Hilmer:

Ja, det var sør'me det forkerte link til Wiki - du får det rigtige her.https://en.wikipedia.org/wiki/Eliezer_Yudkowsky

Citatet, du hiver ud fra Forbes-artiklen, er den aktuelle situation. Artiklen fortsætter:

"That doesn’t stop it from having ideas, of course. The earliest publicly released versions of GPT-4, used to power Microsoft’s Bing chatbot, were infamously unreserved about what they would discuss before safeguards were tightened up. In one conversation reported by the New York Times, Bing is said to have spoken about how an evil “shadow version” of itself could be capable of hacking into websites and social media accounts to spread misinformation and propaganda, generating harmful fake news. It even went as far as saying that it might one day be capable of manufacturing a deadly virus or stealing the codes to launch nuclear weapons. These responses were so concerning – mainly because no one really understood why it was saying them – that Microsoft quickly imposed limits to stop it. Bing was forced to reset itself after a maximum of 15 responses, wiping any ideas it had come up with from its memory. According to some, this behavior is enough evidence to suggest that we shouldn’t just pause AI development – we need to scrap it entirely."

Forbes-artiklen giver forskellige eksempler på, hvordan en AI. der er smartere end os, kan gøre mange andre meget skadelige og farlige ting end at bygge robothære eller affyre missiler (er vi sikre på, at Chart-GPT ikke vil kunne det?). F. eks. gennemmisinformation, vi ikke kan styre.

Yudkowskys pointe/påstand er netop, at udviklingen lige nu foretager kvantespring, som ingen kan forudsige - ingen kan forudse, hvor vi ender.

Og den diskussion springer du over. Du er ikke enig - men det er jo ikke i sig selv et argument. Det er for mig at se bare en holdning eller en opfattelse.

12
16. maj kl. 15:13

Og den diskussion springer du over. Du er ikke enig - men det er jo ikke i sig selv et argument. Det er for mig at se bare en holdning eller en opfattelse.

Det er korrekt, ligesom Yudowsky's bare lufter sin holdning/opfattelse og heller ikke kommer med argumenter der IMO er gangbare. Andre forskere er således uenig fx Peter Norvig et. al (som jeg har en del mere respekt for)

Fra wiki siden om Yudowsky:

In Artificial Intelligence: A Modern Approach, authors Stuart Russell and Peter Norvig raise the objection that there are known limits to intelligent problem-solving from computational complexity theory; if there are strong limits on how efficiently algorithms can solve various computer science tasks, then intelligence explosion may not be possible.[3]

16
16. maj kl. 15:55

Det er korrekt, ligesom Yudowsky's bare lufter sin holdning/opfattelse og heller ikke kommer med argumenter der IMO er gangbare. Andre forskere er således uenig fx Peter Norvig et. al (som jeg har en del mere respekt for)

Nej, det synes jeg ikke, at Yudkowsky bare gør - han fremsætter talrige eksempler, analyser og argumenter. Han diskuterer det faktisk, eks. her:

https://www.youtube.com/watch?v=8zouE2eymVc

https://www.youtube.com/watch?v=AaTRHFaaPG8

"if there are strong limits on how efficiently algorithms can solve various computer science tasks, then intelligence explosion may not be possible.[3]"

Ja, men så falder hele den aktuelle hype omkring, hvordan AI skal redde verden via nærmest eksponentiel udvikling i sine evner og kunnen, til jorden. Og han udtrykker det som "if" - ikke som et faktum, at den grænse er der (men det kan vi så håbe - håb er bare ikke en strategi).

Jeg vil sætte mig ind i Peter Norvig, men jeg tvivler på, at han vil virke mere overbevisende på mig end Yudkowsky.

17
16. maj kl. 15:59

Jeg vil sætte mig ind i Peter Norvig. men jeg tvivler på, at han vil virke mere overbevisende på mig end Yudkowsky.

Det er jeg oprigtigt ked af at høre. Da jeg som nævnt synes at Yudkowsky ubegrundet gør folk bange.