Anne-Marie Krogsbøll

OpenAI-chef og EU-toppen mødes om implementering af AI Act

Det er altså argumentet vendt lidt om. Og du siger selv - "efter min opfattelse". Dvs. en personlig holdning. Yudkezer, Harari og alle de andre giver også udtryk for en holdning. De er velformulerede - men det gør det ikke mindre til en holdning.

Du overser, at min opfordring netop er at gøre arbejdet med at bevæge sig væk fra det niveau, og faktisk undersøge problemstillingen ordentligt, i stedet for bare hånligt at affærdige den. Det mener jeg ikke, at du gør - ikke hånligt idet mindste.

"Personligt er der andre emner der her og nu bekymrer mig mere og som allerede er et problem - f.eks. bias i eksisterende kunstig intelligens systemer."

At der - ganske rigtigt - også på kort sigt er meget alvorlige problemer, er jo ikke noget argument for ikke også at se de langsigtede risici i øjnene. Det er ikke enten/eller. De kortsigtede risici bruges af en del lige nu til at skubbe den katastrofale risiko - menneskehedens og alt livs udslettelse - ud af fokus. Det er en meget kortsigtet - og uærlig - strategi.

Hvis pessimisterne har ret, må vi lukke udviklingen af disse systemer ned, og så løser vi jo - i hvert fald i et vist omfang - de kortsigtede problemer samtidig.

2. juni kl. 09:31
OpenAI-chef og EU-toppen mødes om implementering af AI Act

Det er altså argumentet vendt lidt om. Og du siger selv - "efter min opfattelse". Dvs. en personlig holdning. Yudkezer, Harari og alle de andre giver også udtryk for en holdning. De er velformulerede - men det gør det ikke mindre til en holdning.

Ja, jeg tager forbehold for, at det er min opfattelse, for jeg er ikke fagmand, Men jeg kan godt gennemskue, om folks argumenter holder, og jeg baserer min holdning (som er foreløbig - den kan da ændres med ordentlige argumenter) på folk, som faktisk har de faglige argumenter i orden, og som gør sig den ulejlighed at fremlægge dem, og forsøge at råbe verden op, inden det er for sent. I modsætning til optimisterne med dollartegn i øjnene, som ikke rigtigt når længere end til "Det passer ikke, det er bare dommedagsprofetier", hvilket intet har med argumenter at gøre. Situationen ligner til forveksling olieindustriens reaktion, da klimaforskerne begyndte at røre på sig.

Hvad siger du til denne nyhed?https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test

Det er ikke bare en "holdning" - det er dommedag i miniformat.

2. juni kl. 09:22
Danske AI-selskaber efterlyser retningslinjer for kunstig intelligens: »Vi skal ikke bare vente på EU«

Du har ikke forstået pointen her, Nis Schmidt: Når først AGI er udviklet, så er det for sent at stoppe det, for det vil "outsmart us".

I øvrigt siger mange af kapaciteterne, at man allerede nu ser "sparks of AGI" i de nuværende modeller.

Måske kan denne nyhed åbne dine - og en del andres - øjne?https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test

"Jeg meget kræsen, med hvor længe jeg har tålmodighed til at høre på disse personer; måske har jeg "sund fornuft" eller ved faktisk noget om emnet - lige meget."

Du er velkommen til at hoppe af diskussionen, men jeg synes, du burde dokumentere, at du er klogere end de nu tusinder af kapaciteter, som tilslutter sig advarslerne. Jeg kan ikke læse det i dine svar - beklager.

Jeg kan foreslå lige at lytte fra 23 minutter og 10 minutter frem her:https://www.youtube.com/watch?v=tYGMfd3_D1o

2. juni kl. 08:37
Danske AI-selskaber efterlyser retningslinjer for kunstig intelligens: »Vi skal ikke bare vente på EU«

Læse-Let-udgaven af problemet på ganske få minutter - det må DI da kunne få tid til:

https://www.youtube.com/watch?v=8kAF0InJTwI

1. juni kl. 18:20
GDPR vs. cloud: Et fælles ansvar for kunder og leverandører

"Den berømte Chromebook-/Helsingør sag fortsætter med en suspension af det forbud, der oprindeligt blev nedlagt mod at bruge Chromebooks i skolerne, øjensynligt fordi Datatilsynet stadig venter på, at Helsingør og Google giver tilfredsstillende svar på præcis, hvilke data Google behandler og hvordan. "

tak for den oplysning -jeg har undret mig over, hvad status på sagen var.

Hvis jeg forstår det rigtigt, har Datatilsynet åbenbart opgivet at håndhæve sin oprindelige holdning om at ville have svar på dette, inden Chromebook blev sluppet løs igen.

Gad vide, hvem der har vredet armen om på dem - måske er det nok at rasle lidt med bevillingstruslerne?

1. juni kl. 18:10
Danske AI-selskaber efterlyser retningslinjer for kunstig intelligens: »Vi skal ikke bare vente på EU«

Har DI ikke fulgt med i seneste meldinger fra tusindvis af forskere indenfor området? Retningslinjer er - efter stadig fleres mening - ikke nok.

Det allerførste, man skal gøre, er seriøst at undersøge, om førende kapaciteter som Eliezer Yudkowsky, Connor Leahy ( og i lidt mildere omfang Geoffrey Hinton) og et hastigt stigende antal andre topforskere, har ret, når de hævder, at AI-udviklingen indenfor få årtier vil betyde udslettelse af menneskeheden, eller måske endda af alt liv på jorden.

Hvis de har ret, giver det ikke det mindste mening at begynde at diskutere regulering - man er nødt til at følge deres konklusion: Permanent - ikke bare midlertidigt- stop i udviklingen af AI. Alt andet virker en anelse - eller meget - virkelighedsfjernt. Sådan lidt "Don't look up"-agtigt.

1. juni kl. 17:50
OpenAI-chef og EU-toppen mødes om implementering af AI Act

Tak for svar, Snurre Jensen.

Nu er backpropagation jo ikke noget "de" kan nu.

De siger jeg heller ikke. Men som jeg har forstået det, sker der lige nu store kvantespring på kort tid i, hvad sprog-modellerne kan, og ikke engang deres skabere ved, hvad der foregår i algoritmerne.

"Ift. om den eller en den anden har ret om hvad der kan ske i fremtiden håber jeg vi er enige om at udgangspunktet er "kan ske" - ikke at det "vil ske". "

Ja, det ville jeg da også håbe, men det chokerende er, at folk som Yudkowsky og Connor Leahy ikke enige i den vinkel - de mener, at det kommer til at ske, sådan som jeg forstår dem. Hvis vi altså ikke trækker stikket. Og folk som Geoffey Hinton ved det simpelthen ikke (siger han) - han opgiver at forudsige det.

Hvis der er tale om alt livs udslettelse, så kan man efter min opfattelse ikke overlade det til et spørgsmål om personlige holdninger og opfattelser. Man har pligt til at fremsætte meget overbevisende argumenter, hvis man vil fastholde, at det ikke kommer til at ske, for der er efterhånden på det allerseneste mange kapaciteter indenfor området, som har fremlagt overbevisende argumenter om, at det vil ske - eller som det mindste med stor sandsynlighed vil ske.

1. juni kl. 17:42
OpenAI-chef og EU-toppen mødes om implementering af AI Act

Øhh det forstår jeg ikke, det eneste "farlige" AI beskyldes for er vel netop at kunne tænke, arsenik er farligt fordi det er giftigt.

Om man kalder det at tænke, eller noget andet - noget kan de de jo altså. Noget, du selv ernærer dig med at sælge ydelser til. Det er ordkløveri for at afspore debatten at hænge dig i, om de kan "tænke" i menneskelig forstand. Hør Hinton forklare, hvad det er, de kan, "backpropagation" (selv om du burde vide det):https://www.youtube.com/watch?v=qpoRO378qRY

Dette "noget", de nu kan, kombineret med adgang til internet og andre kritiske systemer, det faktum, at ingen - heller ikke deres skabere - aner, hvad der foregår i dem mere, og kombineret med det forspring AI har ift. enhver regulering, gør AI dødsensfarlig for menneskeheden.

Det er ikke et argument at kalde Yudkowsky for "dommedagsprofet" - det er at snakke uden om. Selv dommedagsprofeter kan have ret. For 50 år siden blev klimaaktivister kaldt dommedagsprofeter og gjort nar ad. Men det mener du måske stadig, at de er?

At hævde, at Hinton stadig er positiv, er vist lidt en tilsnigelse - han advarer særdeles kraftigt. For mig lyder han mere til at håbe, at vi kan styre det - men han ved ikke, om det går galt. Han satser på regulering - men som jeg hører andre kapaciteter på området, som ikke har penge i klemme i sagen, såsom Leahy og Yudkowsky, så er det et utroligt naivt håb. Men hvad skal manden (Hinton) sige? Det er hans livsværk, det handler om. Se interviewet her fra 16 minutter:https://www.youtube.com/watch?v=Y6Sgp7y178k

1. juni kl. 05:32
Ny rapport bekræfter: It-system trækker automatisk og ulovligt borgere i kontanthjælp

Du har tydeligvis ikke set de videoklip, selv om de er ganske korte.

31. maj kl. 20:10
Ny rapport bekræfter: It-system trækker automatisk og ulovligt borgere i kontanthjælp

Du bliver veed med at våse, Jens D Madsen.

Jeg vil foreslå, at du ser disse to korte klip med Connor Leahy, for jeg begynder faktisk at tro, at du ikke ved ret meget om AI:

Interview med Amanpour (ganske kort)https://www.youtube.com/watch?v=XOkUlQoLpL0

Længere interview, men du kan hoppe ind på 43 minutter og nøjes med den bid:https://www.youtube.com/watch?v=nf-2goPD394

31. maj kl. 18:57
Ny rapport bekræfter: It-system trækker automatisk og ulovligt borgere i kontanthjælp

hvorvidt AI er farligt. Er en brødrister farligt? Ja, hvis den bruges forkert.

Det er helt irrelevant at sammenligne AI med en brødrister. Men du bekræfter det selv, at AI er farlig, for det er utopi at forestille sig, at mennesker ikke skulle fejlbetjene AI. Især fordi modellernes skabere ikke mere selv aner, hvad der foregår i dem. Så vi kan ikke på forhånd vide, om vi betjener dem rigtigt - det ved vi først, når ulykken er sket.

Det er virkelig i tiltagende grad min oplevelse, at du helt bevidst snakker uden om og obfuskerer, i stedet for faktisk at tage stilling til, om AI kan medføre alt livs udslettelse.

Spørgsmålet er hvorfor - mit gæt: Du har en eller anden form for personlig økonomiske interesser, der kan blive påvirket, hvis man griber til hård regulering af AI.

Ellers forstår jeg ikke, at man kan tage så afslappet på verdens potentielle undergang indenfor få årtier. Og selv hvis man har store økonomiske interesser i klemme, giver den tilgang ikke mening.

31. maj kl. 18:16
Ny rapport bekræfter: It-system trækker automatisk og ulovligt borgere i kontanthjælp

Du snakker uden om, Jens D Madsen.

Det er Erasmus-logik at argumentere med, at fordi mennesker kan være farlige, så er AI ikke farlig. Det ene følger ikke af det andet - det er spin og obfuskation.

Du kan ikke afvise, at AI er farlig ved at argumentere, at mennesker er farlige. Det er goddag-mand-økseskaft-logik. Med den logik, kan du hævde, at intet er farligt - for mennesker er farlige. Det giver ikke mening - så kan vi ligeså godt helt holde op med at beskæftige os med, om noget er farligt.

Det er lobbyist-logik, der følger skemaerne for klimabenægterstrategierne.

31. maj kl. 17:22
Nvidia-CEO om generativ AI: »Alle er programmører nu«

Jeg er helt enig i at der sker kvantespring for tiden, og at disse modeller kan mere ned deres skabere havde forudset, men det er ikke nødvendigvis i mine ører et problem, der er er meget disse modeller stadig ikke kan.

Men hvis det er alt liv på jorden, som er på spil, bør man så ikke være lidt mere sikker, end at det ikke nødvendigvis er et problem? Skal man ikke være nærmest 100 % sikker på, at det ikke er et problem? Bør man ikke sætte alt ind på at undersøge den risiko, inden man lader udviklingen fortsætte? Der er tale om få årtier, inden katastrofen rammer (Geoffrey Hinton siger faktisk "5 år"), og det vil være vore børn og børnebørn, det går ud over. Jeg under da dem noget mere end nogle få årtier inden apokalypsen. Den vil jeg faktisk helst helt skåne dem for at skulle opleve.

Yudkowsky og Leahy - og efterhånden mange andre, men lige nu synes jeg, at de har talt meget overbevisende i nogle særdeles spændende interviews/videoer - peger på, at udviklingen nu går så hurtigt, at vi aldrig vil nå at få reguleringen på plads, før det går galt. Regulering tager tid - meget tid. Politikerne skal blive enige, udviklingen skal analyseres, og der skal opfindes løsninger og skaffes midler. Og det venter sprogmodellerne ikke på - de er allerede stort set meget smartere end os, og vi kan ikke vide, hvad de vil bruge det til. Fordi de er smartere end os, kan vi end ikke forestille os, hvad de vil kunne finde på.

Så vi er allerede langt, langt bagud på point, og forslag om regulering er helt utilstrækkelige - vi må trække stikket.

Det er Yudkowskys og Leahys påstande - og jeg synes, de fortjener rigtigt gode argumenter, inden de rubriceres som tosser - sagens alvor taget i betragtning. Det er trods alt respekterede personer, som ellers regnes for kapaciteter indenfor deres felt.

31. maj kl. 17:13
Ny rapport bekræfter: It-system trækker automatisk og ulovligt borgere i kontanthjælp

Vil du så afskaffe mennesker, så de ikke kommer til at misbruge AI-sprogmodellerne til at udslette hinanden med?

31. maj kl. 16:13
Nvidia-CEO om generativ AI: »Alle er programmører nu«

Det er da et muligt bud, Jens Larsen. Jeg håber, at du har ret. Men der er jo også andre, som ikke - så vidt jeg kan gennemskue - har nogen økonomisk interesse i at råbe vagt i gevær, eks. Yudkowsky og Connor Leahy. og i mine ører argumenterer de overbevisende omkring, hvordan der lige nu sker kvantespring i sprogmodellernes kunne - kvantespring, som deres skabere ikke kan forudsige eller forstå.

31. maj kl. 16:10
OpenAI-chef og EU-toppen mødes om implementering af AI Act

Hvor har du dog den ide fra? Hvordan skulle de dog kunne det?

"NEWS: Artificial Intelligence May Go Beyond the Internet and Cause a Global Catastrophe May 26, 2023 ..... Yudkowsky has called for AI development to be halted for at least the next 30 years, or humanity will be faced with a “global catastrophe.” But as the use of AI continues to grow every single day, from AI-generated art to AI-customer service assistants and beyond, how likely is that this halt will be taken seriously - and how likely is it that Yudkowsky’s prediction will come true? .... An article was published about the negative consequences of the further development of artificial intelligence (AI) with reference to the forecast of one of the main IT experts of our time, Eliezer Yudkowsky. ..... Eliezer Yudkowsky believes that AI will sooner or later get out of control and destroy humanity. As neural networks develop, they will take control of all processes on Earth. .... According to the expert, AI in its actions will be guided not by emotions, but by its own needs. For example, neural networks will be able to turn the atoms of the human body into something more useful from the point of view of the machine. .... The expert compared AI with a hostile alien civilization, which thinks very quickly and significantly surpasses the inhabitants of the Earth in mental abilities. It is useless to resist neural networks. .... AI will consider people too stupid and slow creatures, which it is rational to destroy than to ensure their livelihoods. The expert urged not to allow neural networks to go beyond the Internet. Over time, machines will learn to steal the deciphered DNA of people and establish post-biological molecular production. ... Yudkowsky responded with his forecast to a letter from the staff of the Institute for the Future of Life, organized by Elon Musk. SpaceX founder, Apple co-founder Steve Wozniak, leading modern historian-writer Yuval Noah Harry and other researchers opposed the further development of AI."

https://www.theconfessionalspodcast.com/the-blog/news-artificial-intelligence-may-go-beyond-the-internet-and-cause-a-global-catastrophe

Ikke den bedste henvisning, men den korteste....Indholdet i den er det samme som i de andre - meget længere - links til bl.a. Yudkowsky og Leheay

Sprogmodellerne får/har adgang til internettet, og internettet er mere eller mindre forbundet til stort set alle systemer efterhånden. Derfra er der frit løb - og vi opdager det ikke nødvendigvis, før det er for sent.

"Nej, en AI kan faktisk slet ikke tænke, derfor er den generelt ufarlig."

Det er simpelthen Erasmus Motanus-logik. Er atombomber også ufarlige, fordi de ikke kan tænke? Er arsenik ufarlig, fordi arsenik ikke kan tænke? Er et kæmpe meteornedslag også ufarligt, fordi det ikke kan tænke? Sikke noget vrøvl. Der er millioner af ting, der er dødsensfarlige, selv om de ikke kan tænke.

Det er den type argumentation, som jeg simpelthen ikke kan tro er fremsat i god tro. Det er i mine ører lobbyist-bullshit. Ikke alvorligt ment.

31. maj kl. 15:49
OpenAI-chef og EU-toppen mødes om implementering af AI Act

Ja, og det vil jo utvivlsomt være korrekt, men det råd er der jo ingen, som vil følge, altså igen en præmis som ikke holder.

Som jeg hører det, kommer disse botter til at få adgang til selv at styre den slags - de beder ikke nødvendigvis om lov, men handler uden om mennesker. Hvis altså vi ikke stopper dem.

"En AI derimod har muligvis så stor viden at den netop kan gennemskue langtids effekter og dermed mindsker den slags uheld."

Det er jo bare et håb - baseret på at AI skulle tænke på samme måde som mennesker. Det gør AI ikke.

Geoffrey Hinton er bange:

https://www.youtube.com/watch?v=Y6Sgp7y178k

31. maj kl. 15:11
OpenAI-chef og EU-toppen mødes om implementering af AI Act

Jeg kan ikke se, hvordan det skal kunne lade sig gøre, derfor har jeg vanskeligt ved at argumentere for det.

Vi bliver netop lovet, at AI vil kunne løse global-opvarmingsproblemet. Og så skrev du selv:

"Der er er som sådan ikke noget fremsynet ved "at udslette menneskeheden" (det skulle da lige være en effektiv måde at stoppe den globale opvarmning på)"

Det er jo et af de tænkte eksempler, som kunne gå helt galt: At man beder AI om at løse det problem, og AI mener så, at det bedst kan gøres ved at udslette menneskeheden.

Og jeg synes, din fantasi svigter mht. de ulykker, den enorme risiko for misinformation indebærer, og som vel - i hvert fald i teorien, og der er vi jo nødt til at starte - f.eks. kunne forlede en kemisk fabrik til a fremstille stoffer, som på overfladen ser gavnlige ud, men som faktisk er dødelige big scale? Ingen kan jo gennemskue, hvad der sker i algoritmen/sprogmodellen?

Pessimisterne har forklaret, hvorfor de er så pessimistiske. De har argumenteret. Jeg synes ikke, at du har forklaret, hvorfor duer optimist på området.

31. maj kl. 14:34
OpenAI-chef og EU-toppen mødes om implementering af AI Act

Men indtil nu fremsætter du jo bare synsninger, Søren Hilmer. En del af disse mennesker har faktisk argumenteret for, hvorfor det vil gå galt. Jeg ser ikke, at du fremsætter argumenter imod deres argumenter - du tror bare ikke, de har ret.

I betragtning af emnets alvor - menneskehedens og potentielt alt livs snarlige udslettelse, hvad kam være mere alvorligt? - så er tro lissom ikke rigtigt nok. Hvis ikke du ved, så synes jeg, at du rammer ved siden af målet.

Så hvorfor tror du ikke, at det vil gå så galt? Hvad er dine argumenter?

At være optimist af natur er ikke noget argument for, at AI ikke kan udvikle sig i den retning, der advares imod.

31. maj kl. 13:55