Nej, det er ikke - det er en militærmand, der er blevet tvunget til at trække en meget kontroversiel historie - militærhemmeligheder - tilbage.
I mine øjne er det uansvarligt overfor vore børn og børnebørn ikke at ville tænke disse - efter manges mening - efterhånden faktisk ret sandsynlige scenarier igennem. Det er jo samme holdning, som klimabenægtere har brugt til at spænde for en ordentlig klimaindsats i tide. "Klimatosserne" havde ret - pengemændene havde uret, og det må vi nu alle bøde for - inkl. vore børn.
Uansvarligt, efter min opfattelse.
"..det er helt tydeligt, at man havde programmeret AI'en forkert. "
Hvordan kan du vide det? Ingen ved, hvad der foregår i disse algoritmer. Hvor i består fejlen - det må du vel så have en forestilling om?
Fra dementiet:
"»Vi har aldrig foretaget dette eksperiment, og det ville vi heller ikke behøve for at indse, at det ville være et sandsynligt udfald«, siger obersten til Aerospace Magazine."
Selvfølgelig har de måttet trække i land - tænk, hvad der var sket, hvis den ikke var blevet dementeret. Det gør bare ingen forskel. Som det fremgår af udtalelsen er problemstillingen stadig virkelig:
"Men fredag, da historien var gået verden rundt, fortalte Hamilton, at han havde udtalt sig forkert på konferencen. Der var kun tale om et »tankeeksperiment«. Men vel at mærke et tankeeksperiment, der kunne være blevet til virkelighed, understregede obersten i sit dementi fredag. »Selv om dette var et hypotetisk eksempel, illustrerer det de meget virkelige udfordringer, mulighederne i kunstig intelligens stiller os over for, og det er derfor, flyvevåbenet er dedikeret til etisk udvikling af kunstig intelligens«, siger han til Aerospace Magazine."
Det er i mine øjne usandsynligt, at der skulle være tale om en "fortalelse", som man nu hævder - dertil blev historien alt for detaljeret fortalt. Men det ændrer bare intet, for selv om de nu påstår, at det ikke er foregået, så hævder de fortsat, at det kunne være foregået, og at udfaldet sandsynligvis ville være blevet som beskrevet i den oprindelige historie.
Men alverdens AI-interesser har sat tommeskruerne på - den slags historier må og skal afvises, for der er alt for mange penge på spil, og alt for mange sikkerhedsmæssige/militære interesser på spil til, at den slags viden og erfaringer må komme frem.
Nå da - hvem skal man så tro på? Det var da lidt af en "fortalelse":
Jeg havde sådan set ventet, at det ville ske. Historien er simpelthen for farlig at slippe løs - mit gæt er, at han er blevet banket på plads, for det er vel egentlig militærhemmeligheder?
Hvad er din kommentar til denne nyhed, Nis Schmidt?:
Hvad er din kommentar til denne nyhed, Nis Schmidt?:
Det er altså argumentet vendt lidt om. Og du siger selv - "efter min opfattelse". Dvs. en personlig holdning. Yudkezer, Harari og alle de andre giver også udtryk for en holdning. De er velformulerede - men det gør det ikke mindre til en holdning.
Du overser, at min opfordring netop er at gøre arbejdet med at bevæge sig væk fra det niveau, og faktisk undersøge problemstillingen ordentligt, i stedet for bare hånligt at affærdige den. Det mener jeg ikke, at du gør - ikke hånligt idet mindste.
"Personligt er der andre emner der her og nu bekymrer mig mere og som allerede er et problem - f.eks. bias i eksisterende kunstig intelligens systemer."
At der - ganske rigtigt - også på kort sigt er meget alvorlige problemer, er jo ikke noget argument for ikke også at se de langsigtede risici i øjnene. Det er ikke enten/eller. De kortsigtede risici bruges af en del lige nu til at skubbe den katastrofale risiko - menneskehedens og alt livs udslettelse - ud af fokus. Det er en meget kortsigtet - og uærlig - strategi.
Hvis pessimisterne har ret, må vi lukke udviklingen af disse systemer ned, og så løser vi jo - i hvert fald i et vist omfang - de kortsigtede problemer samtidig.
Det er altså argumentet vendt lidt om. Og du siger selv - "efter min opfattelse". Dvs. en personlig holdning. Yudkezer, Harari og alle de andre giver også udtryk for en holdning. De er velformulerede - men det gør det ikke mindre til en holdning.
Ja, jeg tager forbehold for, at det er min opfattelse, for jeg er ikke fagmand, Men jeg kan godt gennemskue, om folks argumenter holder, og jeg baserer min holdning (som er foreløbig - den kan da ændres med ordentlige argumenter) på folk, som faktisk har de faglige argumenter i orden, og som gør sig den ulejlighed at fremlægge dem, og forsøge at råbe verden op, inden det er for sent. I modsætning til optimisterne med dollartegn i øjnene, som ikke rigtigt når længere end til "Det passer ikke, det er bare dommedagsprofetier", hvilket intet har med argumenter at gøre. Situationen ligner til forveksling olieindustriens reaktion, da klimaforskerne begyndte at røre på sig.
Hvad siger du til denne nyhed?https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test
Det er ikke bare en "holdning" - det er dommedag i miniformat.
https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test
Det er vist ikke nødvendigt at sige så meget mere....
Du har ikke forstået pointen her, Nis Schmidt: Når først AGI er udviklet, så er det for sent at stoppe det, for det vil "outsmart us".
I øvrigt siger mange af kapaciteterne, at man allerede nu ser "sparks of AGI" i de nuværende modeller.
Måske kan denne nyhed åbne dine - og en del andres - øjne?https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test
"Jeg meget kræsen, med hvor længe jeg har tålmodighed til at høre på disse personer; måske har jeg "sund fornuft" eller ved faktisk noget om emnet - lige meget."
Du er velkommen til at hoppe af diskussionen, men jeg synes, du burde dokumentere, at du er klogere end de nu tusinder af kapaciteter, som tilslutter sig advarslerne. Jeg kan ikke læse det i dine svar - beklager.
Jeg kan foreslå lige at lytte fra 23 minutter og 10 minutter frem her:https://www.youtube.com/watch?v=tYGMfd3_D1o
Læse-Let-udgaven af problemet på ganske få minutter - det må DI da kunne få tid til:
"Den berømte Chromebook-/Helsingør sag fortsætter med en suspension af det forbud, der oprindeligt blev nedlagt mod at bruge Chromebooks i skolerne, øjensynligt fordi Datatilsynet stadig venter på, at Helsingør og Google giver tilfredsstillende svar på præcis, hvilke data Google behandler og hvordan. "
tak for den oplysning -jeg har undret mig over, hvad status på sagen var.
Hvis jeg forstår det rigtigt, har Datatilsynet åbenbart opgivet at håndhæve sin oprindelige holdning om at ville have svar på dette, inden Chromebook blev sluppet løs igen.
Gad vide, hvem der har vredet armen om på dem - måske er det nok at rasle lidt med bevillingstruslerne?
Har DI ikke fulgt med i seneste meldinger fra tusindvis af forskere indenfor området? Retningslinjer er - efter stadig fleres mening - ikke nok.
Det allerførste, man skal gøre, er seriøst at undersøge, om førende kapaciteter som Eliezer Yudkowsky, Connor Leahy ( og i lidt mildere omfang Geoffrey Hinton) og et hastigt stigende antal andre topforskere, har ret, når de hævder, at AI-udviklingen indenfor få årtier vil betyde udslettelse af menneskeheden, eller måske endda af alt liv på jorden.
Hvis de har ret, giver det ikke det mindste mening at begynde at diskutere regulering - man er nødt til at følge deres konklusion: Permanent - ikke bare midlertidigt- stop i udviklingen af AI. Alt andet virker en anelse - eller meget - virkelighedsfjernt. Sådan lidt "Don't look up"-agtigt.
Tak for svar, Snurre Jensen.
Nu er backpropagation jo ikke noget "de" kan nu.
De siger jeg heller ikke. Men som jeg har forstået det, sker der lige nu store kvantespring på kort tid i, hvad sprog-modellerne kan, og ikke engang deres skabere ved, hvad der foregår i algoritmerne.
"Ift. om den eller en den anden har ret om hvad der kan ske i fremtiden håber jeg vi er enige om at udgangspunktet er "kan ske" - ikke at det "vil ske". "
Ja, det ville jeg da også håbe, men det chokerende er, at folk som Yudkowsky og Connor Leahy ikke enige i den vinkel - de mener, at det kommer til at ske, sådan som jeg forstår dem. Hvis vi altså ikke trækker stikket. Og folk som Geoffey Hinton ved det simpelthen ikke (siger han) - han opgiver at forudsige det.
Hvis der er tale om alt livs udslettelse, så kan man efter min opfattelse ikke overlade det til et spørgsmål om personlige holdninger og opfattelser. Man har pligt til at fremsætte meget overbevisende argumenter, hvis man vil fastholde, at det ikke kommer til at ske, for der er efterhånden på det allerseneste mange kapaciteter indenfor området, som har fremlagt overbevisende argumenter om, at det vil ske - eller som det mindste med stor sandsynlighed vil ske.
Øhh det forstår jeg ikke, det eneste "farlige" AI beskyldes for er vel netop at kunne tænke, arsenik er farligt fordi det er giftigt.
Om man kalder det at tænke, eller noget andet - noget kan de de jo altså. Noget, du selv ernærer dig med at sælge ydelser til. Det er ordkløveri for at afspore debatten at hænge dig i, om de kan "tænke" i menneskelig forstand. Hør Hinton forklare, hvad det er, de kan, "backpropagation" (selv om du burde vide det):https://www.youtube.com/watch?v=qpoRO378qRY
Dette "noget", de nu kan, kombineret med adgang til internet og andre kritiske systemer, det faktum, at ingen - heller ikke deres skabere - aner, hvad der foregår i dem mere, og kombineret med det forspring AI har ift. enhver regulering, gør AI dødsensfarlig for menneskeheden.
Det er ikke et argument at kalde Yudkowsky for "dommedagsprofet" - det er at snakke uden om. Selv dommedagsprofeter kan have ret. For 50 år siden blev klimaaktivister kaldt dommedagsprofeter og gjort nar ad. Men det mener du måske stadig, at de er?
At hævde, at Hinton stadig er positiv, er vist lidt en tilsnigelse - han advarer særdeles kraftigt. For mig lyder han mere til at håbe, at vi kan styre det - men han ved ikke, om det går galt. Han satser på regulering - men som jeg hører andre kapaciteter på området, som ikke har penge i klemme i sagen, såsom Leahy og Yudkowsky, så er det et utroligt naivt håb. Men hvad skal manden (Hinton) sige? Det er hans livsværk, det handler om. Se interviewet her fra 16 minutter:https://www.youtube.com/watch?v=Y6Sgp7y178k
Du har tydeligvis ikke set de videoklip, selv om de er ganske korte.
Du bliver veed med at våse, Jens D Madsen.
Jeg vil foreslå, at du ser disse to korte klip med Connor Leahy, for jeg begynder faktisk at tro, at du ikke ved ret meget om AI:
Interview med Amanpour (ganske kort)https://www.youtube.com/watch?v=XOkUlQoLpL0
Længere interview, men du kan hoppe ind på 43 minutter og nøjes med den bid:https://www.youtube.com/watch?v=nf-2goPD394
hvorvidt AI er farligt. Er en brødrister farligt? Ja, hvis den bruges forkert.
Det er helt irrelevant at sammenligne AI med en brødrister. Men du bekræfter det selv, at AI er farlig, for det er utopi at forestille sig, at mennesker ikke skulle fejlbetjene AI. Især fordi modellernes skabere ikke mere selv aner, hvad der foregår i dem. Så vi kan ikke på forhånd vide, om vi betjener dem rigtigt - det ved vi først, når ulykken er sket.
Det er virkelig i tiltagende grad min oplevelse, at du helt bevidst snakker uden om og obfuskerer, i stedet for faktisk at tage stilling til, om AI kan medføre alt livs udslettelse.
Spørgsmålet er hvorfor - mit gæt: Du har en eller anden form for personlig økonomiske interesser, der kan blive påvirket, hvis man griber til hård regulering af AI.
Ellers forstår jeg ikke, at man kan tage så afslappet på verdens potentielle undergang indenfor få årtier. Og selv hvis man har store økonomiske interesser i klemme, giver den tilgang ikke mening.
Du snakker uden om, Jens D Madsen.
Det er Erasmus-logik at argumentere med, at fordi mennesker kan være farlige, så er AI ikke farlig. Det ene følger ikke af det andet - det er spin og obfuskation.
Du kan ikke afvise, at AI er farlig ved at argumentere, at mennesker er farlige. Det er goddag-mand-økseskaft-logik. Med den logik, kan du hævde, at intet er farligt - for mennesker er farlige. Det giver ikke mening - så kan vi ligeså godt helt holde op med at beskæftige os med, om noget er farligt.
Det er lobbyist-logik, der følger skemaerne for klimabenægterstrategierne.
Jeg er helt enig i at der sker kvantespring for tiden, og at disse modeller kan mere ned deres skabere havde forudset, men det er ikke nødvendigvis i mine ører et problem, der er er meget disse modeller stadig ikke kan.
Men hvis det er alt liv på jorden, som er på spil, bør man så ikke være lidt mere sikker, end at det ikke nødvendigvis er et problem? Skal man ikke være nærmest 100 % sikker på, at det ikke er et problem? Bør man ikke sætte alt ind på at undersøge den risiko, inden man lader udviklingen fortsætte? Der er tale om få årtier, inden katastrofen rammer (Geoffrey Hinton siger faktisk "5 år"), og det vil være vore børn og børnebørn, det går ud over. Jeg under da dem noget mere end nogle få årtier inden apokalypsen. Den vil jeg faktisk helst helt skåne dem for at skulle opleve.
Yudkowsky og Leahy - og efterhånden mange andre, men lige nu synes jeg, at de har talt meget overbevisende i nogle særdeles spændende interviews/videoer - peger på, at udviklingen nu går så hurtigt, at vi aldrig vil nå at få reguleringen på plads, før det går galt. Regulering tager tid - meget tid. Politikerne skal blive enige, udviklingen skal analyseres, og der skal opfindes løsninger og skaffes midler. Og det venter sprogmodellerne ikke på - de er allerede stort set meget smartere end os, og vi kan ikke vide, hvad de vil bruge det til. Fordi de er smartere end os, kan vi end ikke forestille os, hvad de vil kunne finde på.
Så vi er allerede langt, langt bagud på point, og forslag om regulering er helt utilstrækkelige - vi må trække stikket.
Det er Yudkowskys og Leahys påstande - og jeg synes, de fortjener rigtigt gode argumenter, inden de rubriceres som tosser - sagens alvor taget i betragtning. Det er trods alt respekterede personer, som ellers regnes for kapaciteter indenfor deres felt.
- Forrige side
- Nuværende side
- Side
- Side
- Side
- Side
- …
- 458
- Næste side
Anne-Marie Krogsbøll