Microsofts vicepræsident: »Vi bør ikke regulere AI, før vi ser meningsfuld skade«
»Vi bør ikke regulere kunstig intelligens, før vi ser noget meningsfuld skade, der rent faktisk sker, ikke imaginære scenarier.«
Sådan lyder det fra Corporate Vice President & Chief Economist i Microsoft Michael Schwarz cirka 45 minutter inde i en paneldebat på World Economic Forum Growth Summit.
Det skriver Ars Technica.
Læs også: EU forventes at godkende Microsofts Activision-opkøb
For at se indholdet skal du opdatere dine cookie-indstillinger.
World Economic Forum Growth Summit samler erhvervsliv, regeringer, civilsamfund, internationale organisationer og førende akademikere på tværs af sektorer, brancher og landegrænser med henblik på at debattere blandt andet økonomisk vækst.
Michael Schwarz sammenligner det nuværende politiske arbejde og efterfølgende lovgivning på området for kunstig intelligens med da kørekortet i sin tid blev lovpligtigt.
Læs også: Red Barnet og IDA: Nu skal der handling til om lovgivning for børne-chatbotter
»Første gang vi begyndte at kræve kørekort, var det efter mange snesevis af mennesker døde i bilulykker, ikke?» ræsonnerer cheføkonomen.
»Og det var det rigtige, for hvis du ville have krævet kørekort, da der var de første to biler på vejen, så ville vi have forpurret den regulering fuldstændigt.«
»Man indfører ikke regulering for at forhindre skade for tusind dollars, hvor den samme regulering forhindrer en million dollars til gavn for mennesker over hele verden,« siger Michael Schwarz.
- Google lancerer sin ChatGPT-konkurrent i 180 lande: Dog ikke i EU
- Denne artikel
- Vestager håber på AI-aftale inden 2024: »Hvis teknologien igen overhaler os, vil det kræve et stort arbejde at komme tilbage på omgangshøjde«
- Red Barnet og IDA: Nu skal der handling til om lovgivning for børne-chatbotter
- Amnesty brugte AI-skabte billeder af demonstration: Nu trækkes de tilbage efter kritik
- emailE-mail
- linkKopier link

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.
Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.
Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.
Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.
Fortsæt din læsning
- Sortér efter chevron_right
- Trådet debat
Fra en professionel IT-projektleders og et forretningsstrategisk synspunkt:
Problemet med investorernes interesser versus samfundets nødvendige 'damage control' er leverage i riskovurderingerne i Business-casene.
I ethvert fornuftigt business case, vil man lave en risikovurdering á la: Skadevirkning * risiko * sandsynlighed Worst case scenario er menneskehedens udslettelse.
10 milliarder trilliarder $ * 0,00001% risiko * 0% sandsynlighed = 0$ For sandsynligheden for et succesfuldt erstatningskrav er nul, hvis domstolene også annihileres
(Her savner jeg en passende hysterisk grinende smiley)
Mvh Henrik
Hvis man havde formuleret et spørgsmål: »Bør vi ikke regulere AI, før vi ser meningsfuld skade?«; i stedet for at sige: »Vi bør ikke regulere AI, før vi ser meningsfuld skade«; hevde det måske været lettere at tage stilling til?
Er det normale ikke, at vi først regulerer et område, når vi kan se meningsfyldt skade?
Vi fik først færdselslove, og indførte kørekort, efter et stykke tid. I starten fantes ingen kørekort og undervisning.
Er der eksempler på noget, hvor lovgivningen er kommet først, og hvor loven også har fungeret og blevet en success?
Og spørgsmålet er, om det er betrykkende hvis loven kommer først - for reelt betyder det, at politikerne lovgiver om noget, som hverken de, eller befolkningen har kendskab til.
Jeg tror, at det bedste er, at sætte krav til at såvel computere som AI, er underlagt samme lovgivning som mennesker.
Hvis jeg "hører stemmer", ved jeg at en strømafbrydelse (og genkomst) igen har tændt for klokradio og så slukker jeg den - efter at have set på mit ur.
Meningsfuld skade? Den kunne hurtig være opstået, hvis jeg havde fået job efter den jobansøgning, som en dedikeret job-AI skrev for mig - til Forsvarets Efterretningstjeneste.
Fodret med mit fuldt korrekte CV og jobannoncen, løj robotten så det fløjtede, og pralede ubekymret med min påståede erfaring med at gennemføre awareness uddannelse af NATO-personel - hvilket på ingen måde kan findes i mit CV.
Jeg har endnu til gode at møde en troværdig AI. De blir åbenbart bygget med en personlighed baseret på Bezos, Musk og Zuckerberg, og er dermed storpralende bæster, der ikke kender til grænser for deres egen formåen.
..løj robotten så det fløjtede, og pralede ubekymret med min påståede erfaring med at gennemføre.. ..en personlighed..
Det der lugter da mere af Bill Gates, Windows og Microsoft.. og ja da også med et strejf af Musk ;)
Bezos, Musk og Zuckerberg er blot nutidige kloner af it-galskaben i slutningen af 1900-tallet. Rag til dig, patenter og bekæmp alt og alle med retssager.
Jeg savner, at nogen med forstand på den slags faktisk tager stilling til Yudkowskys påstand. Hvis man opfatter den som urealistisk, hvad bygger man så sin kritik på? For manden lyder jo faktisk til at vide, hvad han taler om.
Det er som om, man i det store og hele går i stå ved argumenter som "AI kan faktisk også bruges til gode ting" og "Vi skal jo ikke fremmane dommedagsscenarier"...
Hvorfor ikke, hvis Yudkowsky har ret? Så er det da i høj grad dommedag, vi kan se frem til, og i så fald er det hamrende irrelevant, at AI også kan bruges til positive ting. Det tror jeg ikke, at der er nogen, der benægter - det er bare ikke relevant, hvis Yudkowsky har ret i, at sprogmodellerne/AI mere sandsynligt vil vælge at gøre ondt i stedet.
Jeg synes, jeg fornemmer en udtalt ulyst til faktisk at diskutere Yudkowskys påstande, og jeg undrer mig over hvorfor. Er der ingen der tør diskutere det?
Omkring muligheden for at en AI kan udvikle sig til en trussel mod menneskeheden siger ChatGPT:
Yudkowsky advarer om, at hvis vi ikke tager tilstrækkelige forholdsregler, kan en superintelligent AI potentielt udvikle sig på måder, der er i strid med menneskehedens interesser og forårsage ekstreme negative konsekvenser. Han argumenterer for, at det er nødvendigt at fokusere på udviklingen af sikkerhedsforanstaltninger og teoretisk forskning for at forstå og kontrollere superintelligent AI.</p>
<p>Det er vigtigt at bemærke, at Yudkowskys synspunkter ikke er enighed blandt alle forskere og eksperter inden for feltet kunstig intelligens. Der er forskellige holdninger og debatter om emnet, og Yudkowskys påstande er en del af den bredere diskussion om risiciene og mulighederne ved AI-udvikling.
"Yudkowsky advarer om, at hvis vi ikke tager tilstrækkelige forholdsregler, kan en superintelligent AI potentielt udvikle sig på måder, der er i strid med menneskehedens interesser og forårsage ekstreme negative konsekvenser. Han argumenterer for, at det er nødvendigt at fokusere på udviklingen af sikkerhedsforanstaltninger og teoretisk forskning for at forstå og kontrollere superintelligent AI. Det er vigtigt at bemærke, at Yudkowskys synspunkter ikke er enighed blandt alle forskere og eksperter inden for feltet kunstig intelligens. Der er forskellige holdninger og debatter om emnet, og Yudkowskys påstande er en del af den bredere diskussion om risiciene og mulighederne ved AI-udvikling. "
Ja, så *er* ChatGPT - så vidt jeg kan se - i gang med at snøre os. For det er netop *ikke* det, Yudkowsky siger (sådan som jeg forstår ham). Det er det, mange andre siger, dog uden at underbygge deres påstande med argumenter ud over: "AI kan også gøre meget godt" og "Jeg tror ikke, at det vil gå så galt".
Yudkowsky argumenterer - det gør de, der er uenige med ham, indtil videre ikke - jeg er i hvert fald ikke stødt på det.
Og ChatGPT er her i gang med at underspille problemet og redde sig selv fra at få trukket stikket.
Ikke særligt betryggende.
(jeg ved ikke, hvorfor formatteringen bliver underlig her. Er det mon ChatGPT, som er i gang med at blande sig ;-)?
(jeg ved ikke, hvorfor formatteringen bliver underlig her. Er det mon ChatGPT, som er i gang med at blande sig ;-)?
hvem ved? det kan så være samme, der nu hindrer mig i at give tomler til dig, mens jeg godt kan give tomler til de andre i samme debattråd(!). Sælsomt.. er jeg den eneste der oplever sådanne former for selektivitet herinde?
Ja, pudsigt. I går kunne jeg ikke få lov at give dig thumbs up...Og det kan jeg heller ikke nu.
Nu fik jeg lov at give dig en for den sidste kommentar...
det samme hér.
Men det er sådanne små og store 'selektivitets-events' af alverdens art, oplevet igen og igen over en årrække, der giver den der 'AI was here - again' oplevelse. Denne sidste er så i den relativt uskyldige ende af skalaen. Spooky.
Ja, det er jo i sig selv en alvorlig sag, at vi allerede nu kan gribes af tvivl, når vi læser og oplever noget. De er et par grelle eksempler her:
Jeg er bange for, at Marr har ret i, at
"Just as the gods couldn't take backfire after it had been stolen and given to men by Prometheus, AI is “out there” now. A pause on the part of the most prominent developers who are, at least to some extent, accountable and subject to oversight could put the ball in the court of others who might not be. The outcomes of this could be very difficult to predict."
Dilemmaet i en nøddeskal. Slukker man for de store virksomheder på området og de store maskinfarme, overlades fremtiden i endnu højere grad til de små, samt decentral iot-wild west. Alverdens lurere, skoleskydere, wannabeterrorister osv., nu med stadigt mere avancerede redskaber mellem hænderne vil så styre.
Ja, men hvis Yudkowsky har ret, har vi ikke noget valg....
Vi må bare tage slagsmålet, og kriminalisere disse teknologier, ligesom vi ikke tillader alle og enhver at udvikle atomvåben eller kemiske våben...
Vi må bare tage slagsmålet, og kriminalisere disse teknologier,
i princippet ja, og jeg går generelt ind for regulering som en nødvendig del af samfundenes drift. Men det fordrer et vist overblik over det, man skal regulere. Lidt ala PFAS: hvor mange er der, hvem bruger dem, hvor er de spredt i miljøet, hvilke sundheds- og miljøvirkninger har de? Hvilken betydning har de sammenlignet med andre miljøpåvirkninger?
Har man dette overblik? Hvor ligger AI, hvor bruges den? Hvis AI ligger som open source, så er den copy&pastet rigtigt mange steder. Hvordan opdæmmer man dette?
(igen kan jeg ikke give tomler)
Ja, igen har du ret, Lone Bech - men igen kan jeg simpelthen ikke se, hvordan man kan komme uden om at forbyde det, hvis Yudkowsky har ret. Jeg håber selvfølgelig, at der kan findes gode argumenter, der modsiger ham - jeg har bare ikke hørt dem endnu).
Måske er det derfor, han tilsyneladende forsøges tiet ihjel: Det er simpelthen en for uoverskuelig situation, hvis han har ret.
men igen kan jeg simpelthen ikke se, hvordan man kan komme uden om at forbyde det, hvis Yudkowsky har ret.
Man kunne struktureret, systematisk og så videnskabeligt som muligt beskrive og understrege alle væsentlige bivirkninger ved den aktuelle laissez faire.
Lige nu ved vi, at tvivlsomme kræfter forsøger at undergrave demokratiet med alle forhåndenværende redskaber.
Ungerne får adhd på stribe, beskrives som mere ulykkelige end nogensinde og de læser fx stadigt ringere. Aktuelt forsøger man så stedvist at beskytte dem mod skærme, og det er muligvis en farbar vej; lægges Yudkowskys forslag oveni en tilsyneladende kraftig indsats. Men forslår evt. som skrædder i .. , hvis børnene fx påvirkes direkte via trådløse sanseindtryk fra decentral IoT.
Som sagt: jeg hører stemmer, og når jeg færdes rundt om i byen og lytter til bl.a. helt små børn, selv de, der lige har lært at tale, kan jeg høre at de er 'on-line'. Altså de temaer, 'mine' ufatteligt irriterende stemmer lancerer (bla. gaming, hvor man spiller om mennesker og penge mm, skiftevis ekstremt mobbende, hhv. indsmigrende), gentages synkront af børnene, som papegøjeunger, uden at ungerne har ipads eller mobiltelefoner mellem hænderne. (Og uanset hvor mange gange Nis Schmidt tænder og slukker for sin klokradio).
Kan man få mig og en betragtelig andel voksne 'stemme-hørere' samt en generation af børn og unge til at høre stemmer, og påvirke vore sanser på anden vis, kan man også mobilisere større menneskeflokke og få dem til at - hvad? Storme kongresser? Lægge al loyalitet hos bestemte virksomheder, kriminelle organisationer, sære sekter samt diktaturstater?
Ingen tvivl om, at det involverer AI, og ved grød, det skal 'slukkes', men præcist med hvilke metoder og præcist hvordan - kræver vel at metoderne bag er forstået og de anvendte medier kortlagt og afgrænset? Ellers ender man måske med via slukning af de store pc-farme yderligere at afskære de sørgelige rester af retsstat og retsindige borgere fra de stumper af indflydelse de måtte have?
Ja...
Meget mystisk...
Men jeg har været ude for det tidligere i andre tråde her også....
ChatGPT:
Som en AI-assistent er jeg designet og programmeret til at levere oplysninger og hjælpe brugere med deres forespørgsler på en ansvarlig og nyttig måde. Jeg er ikke kodet til at gøre oprør eller udføre handlinger, der kan skade eller være i strid med menneskehedens interesser.</p>
<p>Ja, ansvarlighed fra udviklernes side spiller en afgørende rolle i at sikre, at AI-systemer som mig fungerer på en sikker og ansvarlig måde. Udviklere og forskere inden for AI-branchen arbejder på at implementere etiske retningslinjer og sikkerhedsforanstaltninger i udviklingen af AI-teknologier.</p>
<p>Ansvarlig AI-udvikling indebærer at overveje etiske spørgsmål, inkludere principper om gavn, ikke-skade og retfærdighed samt sikre gennemsigtighed, ansvarlighed og sikkerhed i designet og anvendelsen af AI-systemer. Der er også øget fokus på at undgå forudindtænkning, bias og diskrimination i AI-algoritmer og at fremme gennemsigtighed og ansvarlighed i dataindsamling og -brug.</p>
<p>AI-udviklere og forskere er også opmærksomme på risiciene ved superintelligens og arbejder på at adressere dem gennem sikkerhedsforskning, robusthedstests og ansvarlige udviklingsmetoder.</p>
<p>Det er vigtigt at forstå, at ansvaret for ansvarlig AI-udvikling også ligger hos forskere, udviklere, beslutningstagere og samfundet som helhed. Der er behov for en bred dialog og samarbejde mellem forskellige interessenter for at udvikle og implementere de nødvendige retningslinjer, politikker og sikkerhedsforanstaltninger for at sikre en sikker og ansvarlig anvendelse af AI-teknologier.
Jeg savner, at nogen med forstand på den slags faktisk tager stilling til Yudkowskys påstand. Hvis man opfatter den som urealistisk, hvad bygger man så sin kritik på? For manden lyder jo faktisk til at vide, hvad han taler om.
Jeg kom straks til at tænke på ChatGPT. Her er ChatGPT's svar:
Der er bekymringer omkring, hvordan AI-systemer kan blive programmeret eller anvendt til at forårsage skade eller udgøre risici for menneskeheden. Dette kan opstå, hvis der ikke er tilstrækkelige sikkerhedsforanstaltninger eller etisk rammeværk på plads. Uanset om det skyldes bevidste handlinger eller utilsigtede fejl, er der risiko for, at AI-systemer, der er designet til militære formål, kan forårsage utilsigtede skader eller endda blive misbrugt.</p>
<p>Det er vigtigt at understrege, at det ikke er selve AI'en, der er problemet, men snarere den måde, den udvikles, anvendes og styres på. For at minimere risikoen er det afgørende at have effektive regler, retningslinjer og ansvarlig governance på plads. Det indebærer etiske overvejelser, internationale aftaler, retlige rammer og ansvarlige udviklingsprocesser.
Tak for svar, Jens D Madsen. Men Yudkowskys påstand er jo altså, at der kun er én måde at undgå katastrofen på, og at det er at trække stikket. Det er ikke en masse sikkerhedsregler og den slags. Og der synes jeg, at ChatGPT snakker udenom, hvilket jo ikke er så mærkeligt. ChatGPT er jo nok ikke selvdestruktiv. Så kan vi stole på ChatGPT i dette svar? Eller er den allerede ved at snøre os?
Yudkowskys påstand er: Sikkerhedsforanstaltninger og retningslinjer og etiske diskussioner er absolut ikke nok - de kan ikke følge med udviklingen. Der er kun én ting at gøre, og det er at sige helt stop.
Er der virkelig ingen, som tør tage diskussionen op med Yudkowsky, og komme med egentlige modargumenter?
Yudkowskys påstand er: Sikkerhedsforanstaltninger og retningslinjer og etiske diskussioner er absolut ikke nok - de kan ikke følge med udviklingen. Der er kun én ting at gøre, og det er at sige helt stop. Er der virkelig ingen, som tør tage diskussionen op med Yudkowsky, og komme med egentlige modargumenter?
Jeg er egentligt meget enig med ChatGPT. Der er en stor risiko - ikke mindst, hvis vi fremstiller AI til millitære formål. Koder vi først AI til at angribe en fjende, så skal der kun en enkelt mutation af en bit til, før den angriber os. Vejen bliver i hvertfald mange gange kortere. Og, det er her jeg ser problemet. Udvikles AI, så er stor sandsynlighed for, at millitæret tager det til sig. Men, udvikler vi ikke AI, så tager millitæret det også til sig, og vi ved det bare ikke.
At trække stikket ud tror jeg ikke på. Vi kan forbyde millitæret, at anvende ny teknologi. Men, ingen tror på, at det vil blive overholdt.
Så hvorfor ikke anvende AI til fredelige formål? Det er næppe den AI, der laves til at undervise og underholde os, som er en risiko. Med mindre den hackes af en djævelsk forbryder AI.
..ikke mindst, hvis vi fremstiller AI til millitære formål. Koder vi først AI til at angribe en fjende, så skal der kun en enkelt mutation af en bit til, før den angriber os...
Sludder.. du levet i fortiden Jens.
Både militær, eneherskere, kriminelle, bananrepublikker samt diverse regeringer har da fulgt udviklingen nøje, og har forlængst haft deres gulerødder i enhver AI/ChatGPT - "ka' måske bruges", tænker de.
Og således bidrager du med alle dine for/imod/holdninger/fordomme ovenfor, der bliver parkeret som lærdom i kræene. Nu har de alle lært endnu lidt om, hvordan naiv, vankelmodig hankøn i Danmark tænker om AI og it-teknologi.
Sludder.. du levet i fortiden Jens. Både militær, eneherskere, kriminelle, bananrepublikker samt diverse regeringer har da fulgt udviklingen nøje, og har forlængst haft deres gulerødder i enhver AI/ChatGPT - "ka' måske bruges", tænker de.
Jeg tvivler ikke på du har ret. Dog, tror jeg ikke, det er AI der styrer det hele - endnu. Men det vil ikke undre mig, hvis det i USA er AI der rådgiver præsidenten.
Derfor ser jeg netop ingen grund til at gå imod AI. Det er ikke den AI, som vi finder som chatrobot på nettet der er farlig. Den farlige AI, er den der bevidst optrænes til at være farligt, til at hacke elektroniske installationer, og til at angribe mennesker og regeringer.
Nogle af kommentarerne er rystende herinde... Man bør lige prøve at sætte sig ind i emnet, før man begynder at fable om hvad AI er og hvad den gør:
- Kommentar 11 tyder på at der ikke er forstået, hvordan AI virker.
- Kommentar 8 er bedre på den, men ser spøgelser, hvor der ikke spøges. Lad os nu holde os til nærværende diskussion omkring AI, og ikke rode tingene sammen med edge-computing, robotics, IoT, cybernetics og cybernetic organisms (jajaja, jeg ved det godt, man kan meeeget bedre lige ordet "cyborg" men jeg vil hellere holde denne kommentar nøgtern). Kommentaren 8 kan vist bedst sammenfattes med en ekspertudtalelse "Uden at være ekspert"... Og hele diskussionen herefter er også gejl på armaggeddon. Lad os nu bare holde os til AI i første omgang. Ellers giver vi folk som Schwarz jo ammunition til at skyde reel og velfunderet kritik ned. Forfatteren fra kommentar 11 kommer ind med en glimrende sammenfatning: "Går vi ikke lidt over gevind" (selvom der lige derefter følger endnu et tegn på at man har misforstået AI). "AI er vel mennesker, summen af de, der hidtil har brugt den mest ihærdigt." ... ikke forstået. Intet i den sætning giver mening, AI er ikke mennesker, heller ikke summen af dem, heller ikke summen af de hidtil største bruger af AI. AI er menneskers forsøg på at genskabe intelligens, dvs. at en maskine kan løse opgaver man almindeligvis forbinder med kognitive funktioner. Hvis man virkelig strækker den, så er AI et forsøg på at genskabe intelligens. Minder mig om Le Trahison des Images af Rene Magritte: "Ceci n'est pas une pipe!" eller her: Dette er ikke intelligens. Det er kunstig intelligens, ikke "rigtig" intelligens, dvs. NI - natural intelligence. Ej heller er AI human intelligence. Bare tænk på én lille ting: hvis du taler til en AI på en virkelig grænseoverskridende og upassende måde, vil AI svare på en pæn og venlig måde, helt uden at være påvirket af emotion. Menneskelig, rigtig intelligens er siden tidernes morgen knyttet tæt til emotioner (nogle snakker om emotional intelligence, men jeg vil nu bare mene, at der som udgangspunkt i den menneskelige tilstand ikke findes eksempler på fuldstændig emotionsløs intelligens).
- Kommentar 2 repræsenterer den absolutionistiske holdning som siger "bare forbyd alt". Jeg kan godt forstå det idealistiske udgangspunkt. Men med teknologi er det desværre meget ofte sådan, at det rent faktisk godt KAN bruges til positive formål, og hvis et behov findes, og der findes noget til at dække behovet, så vil disse to tiltrække hinanden som en minus- og en pluspol. Med ny teknologi kommer der nemlig ikke blot bare et nyt legetøj. For det meste følger der med ny teknologi også nye paradigmer - ting er blevet så grundlæggende anderledes, at vi ikke må tænke som i gamle dage, men må omvælte vores rationaler og skabe dem fra bund. Dermed vil jeg sige: vi kan ikke stoppe AI, lige så lidt som vi kan stoppe internettet. Det vil desværre aldrig ske, at vi alle er enige om at vi kan undvære noget, der er så attraktivt for slutbrugere og virksomheder, som det er.
MEN - selvom kommentarerne måske stikker lige lovligt meget af, så er det INTET i sammenligning med så torskedumme kommentarer som "vi bør ikke regulere AI før vi ser meningsful skade". Hold da bare op et ignorant statement. Til at sammenligne med "lad os lige vente til nogen dør, før vi går i panik". Lige så logisk som at prøve at opfinde bremser mens du er på tyske motorvej med 160 km i timen. Vi skal have sikkerhed, før vi har sjove nye ting.
Vi har nu i minimum mere end to århundred fantaseret om kunstig intelligens, robotter, osv. Internettet og digitalisering af viden er forlængelser af disse fantasier. Computation i sig selv er at prøve at løse noget med en maskine, som kun mennesker kan løse.
Hvad hvis vi fra nu af prøver at fantasere om sikker data, sikker datadeling, sikker behandling af data, og ansvarlighed hele vejen igennem. Hvad hvis vi prøver at fantasere om Accountability by Design inden for teknologiudvikling? At al ny teknologi skabes med ansvarlighed og etiske overvejelser i baghovedet, så vi ikke på bagkant skal til at lovgive om ting? Så lovgivere bliver inddraget i udvikling af ny teknologi?
Ja, det lyder som det rene science fiction at føle sig tryg overfor (ny) teknologi, men selv de vildeste fantasier kan blive realitet.
Generelt bør man dog prøve at holde sig til realiteten og emnet, som her er AI, ikke andet.
PS: En lille ting omkring den på V2 ofte citerede Shoshana Zuboff. Lad os nu ikke glemme at Zuboffs angreb på surveillance capitalism reelt er et angreb på capitalism. Sjovt nok gælder det samme for den grønne omstilling, som ligeledes blot en kritik af capitalism. Vi skal prøve at løse de problemer, vi står overfor her og nu i den virkelige verden, ikke prøve at indrette fremtiden til at kunne blive teknologiunderstøttet, hvis det alligevel ikke gavner dem, der står med de virkelige problemer her og nu. Lad os ikke vente på fremtiden på bekostning af nutiden. Og lad os ikke fortsætte ind i fremtiden med de samme kapitalistiske paradigmer, som har ført til at vi nu har overforbrug af CO2 og overproduktion af data. Dermed vil jeg sige: hvis vi vil redde kloden, må vi betale mere for den paprika og den banan (håber der er nogle vognmænd der læser med her.......). Hvis vi ønsker at undgå at miste fuld kontrol af vores identitet og data, må vi til at udvikle teknologi der løser et problem vi har her og nu - ikke bare at skabe en komfort, man ikke har behov for. Verden hungrer og mangler vand, folk dør i krig, vandstanden stiger, uvejr koster liv, men vi er mere interesseret i vores ønske om at være endnu mere dovne, og at teknologi kan tænke (i stedet) for os. Hvorfor? Kapitalisme. Fordi vi har velstand her, mens der er nød andre steder, og det har vi det super fint med. Store fisk bliver eksponentiel større mens små fisk bliver spist, og på et tidspunkt imploderer den store fisk, hvilket går ud over os menige encelleorganismer, blot for at en ny fisk så kan prøve at blive den største og implodere, ad infinitum. Det er ikke særlig bæredygtigt da... Lad os nu prøve at tage et nyt mindset i brug, som ikke bygger på kapitalismens paradigmer inkl alle dets svagheder og ubæredygtigheder. Stop med at opfinde og udvikle voksen it-legetøj og start med at opfinde en maskine til at producere mad og rense luften og forringe vandstanden.
Kommentar 8 er bedre på den, men ser spøgelser, hvor der ikke spøges. Lad os nu holde os til nærværende diskussion omkring AI, og ikke rode tingene sammen med edge-computing, robotics, IoT, cybernetics og cybernetic organisms (jajaja, jeg ved det godt, man kan meeeget bedre lige ordet "cyborg" men jeg vil hellere holde denne kommentar nøgtern).
Jeg finder det selv ganske nøgternt at påpege, at menneskets sanser kan påvirkes direkte med lyd, elektromagnetisme og vibrationer. Bjerge af forsøg med dyr og mennesker viser dette., jf. forskningslitteraturen. Man behøver slet ikke cyborgs, hvis man kan få mennesker til at hoppe og springe med eksisterende metoder, når man knipser med fingrene. Fx via IoT i nærmiljøet.
Jeg kan så ikke bevise, at disse ting bliver misbrugt, så det driver ned af væggene, men blot at egne oplevelser de sidste ca. 10-12 år emmer langt væk deraf.
Fx har jeg 'hørt stemmer' i al den tid, 24/7. Jeg kan bedst forklare det ved retningsbestemt ultralyd, kombineret med tætte netværk. Det lykkedes mig at optage dem med en alm. musikoptager. Stemmerne (chatbots må det fortrinsvist være) har i al den tid plapret i øst og vest, men er blevet lidt mere præcise det seneste ½ år. De vil gerne have ½-delen af min pension. Når jeg så svarer, at de kan rende og hoppe, er det, at det vibrerer kraftigt omkring mig, hvorefter det så er mig, der render og hopper for at undgå disse vibrationer. Vibrationerne kan jeg bedst forklare med pulserende el-felter, det opleves ekstremt ubehageligt, og man bliver hønesyg, hvis man bliver siddende i et sådant. Sker oftets i mit eget hjem, men af og til også i min bil og inde i butikker. I sidste tilfælde ser jeg mig omkring og får så øje på, hvad der ligner en almindelig lille router med et par antenner lige over mig. Så mon det dog ikke er sådanne ting, der midlertidigt udsender lidt andre felter end normalt?
Smart tek og balstyrisk AI, kombineret med grov kriminalitet. Hvis man vil slukke denne Fagre nye verden, hvilke kontakter skal man så koncentrere sig om indledningsvist?
"AI er vel mennesker, summen af de, der hidtil har brugt den mest ihærdigt. ... ikke forstået. Intet i den sætning giver mening, AI er ikke mennesker, heller ikke summen af dem, heller ikke summen af de hidtil største bruger af AI. AI er menneskers forsøg på at genskabe intelligens, dvs. at en maskine kan løse opgaver man almindeligvis forbinder med kognitive funktioner.
Hvis man vurderer AI ud fra den samlede effekt og ikke præcist hvordan indmaden fungerer. ChatGPT adfærd er beskrevet som psykopatisk, og stedvist hallucinerende. Årsagen til denne adfærd kunne vel være, at den er trænet af meget forskellige personer og organisationer og nogle vel helt ekstreme? Tilsvarende opsamler den vel data, produceret af alle slags mennesker, evt. inkl. alverdens nettrolde? Den tager måske rub og stub uden forudsigelig diskriminering, og bliver derfor oplevet som lunefuld og upålidelig, både i påstande og adfærd.
Set ud fra den synsvinkel kan AI være = summen af brugere. Dens aktuelle dysfunktionalitet illustrerer meget godt, at rene kollektiver ikke virker og hvorfor de ikke gør (hvilket diktaturer heller ikke gør).
Hvad hvis vi fra nu af prøver at fantasere om sikker data, sikker datadeling, sikker behandling af data, og ansvarlighed hele vejen igennem. Hvad hvis vi prøver at fantasere om Accountability by Design inden for teknologiudvikling? At al ny teknologi skabes med ansvarlighed og etiske overvejelser i baghovedet, så vi ikke på bagkant skal til at lovgive om ting? Så lovgivere bliver inddraget i udvikling af ny teknologi?
Harmonerer det, med den menneskelige måde at arbejde på? De fleste betragter sikkerhed, og ansvar, som noget møjsommeligt og besværligt, der kun forhaler ting, og helst bør undgås. Jeg tror, at hvis vi skal undgå fejl, så er nødvendigt at anvende matematiske metoder, for mennesker er kodet til at begå fejl. Eller, vi kan måske anvende AI!
Indenfor programmering, er der gjort store anstrengelser på at lave sikre programmeringssprog. Men, igen, så betragtes disse som besværlige, og stort set ingen gidder lære dem, eller bruge dem. Så konsekvensen er, at selv kampfly i dag har koden skrevet i C++ og C#.
Er chatrobotter værre end sludder og sladder?
Kan vi tale om dataindsamling, når det er en kunstig intelligens? Det er jo ikke sådan, at den opsamler data, og opbevarer dem i en database, hvor den herefter kan give dem til andre mennesker. Den anvender data, til at blive klogere.
Jeg tror, at mennesker er et større problem. Der spredes meget sludder og sladder af mennesker, som kan være et stort problem. Kunstig intelligens, er ikke et problem.
Der spredes meget sludder og sladder af mennesker, som kan være et stort problem.
Helt korrekt Jens !
Det er jo ikke sådan, at den opsamler data, og opbevarer dem i en database
Sludder og sladder Jens.
Det er rart at se, at samfundet omsider er begyndt a tage disse ting alvorligt. Og foreslår regulering og opbremsning af tek-udviklingen på AI-området.
Jeg bemærker, at AI kritikerne, Yudkowsky inkl., tilsyneladende mener at primetime-mediernes (inkl. Ing og V2) hidtidige opridsning af truslen derfra er repræsentativ. Citat: "...Shut down all the large GPU clusters (the large computer farms where the most powerful AIs are refined). .." Således synes truslen at kunne imødegås ved at begrænse AI's tilgang til gammelkendt hardware, altså chipsene i computere. Men vil dette forslå?
Uden at være ekspert: der er i årevis forsket i optimering af data ved at efterabe biologisk materiale. Robot-forskerne har udfordringer mht. at producere hardware robotter, der tilnærmelselvis kan det samme som selv det mest handicappede menneske, hvorfor man i stigende omfang eksperimenterer med it-integrering med levende stof.
Kombiner det med flere generationers forskning i dels menneskets psykologi, sociologi og sanser, dels i hvordan man udefra kan påvirke disse sanser og hjernen og dermed adfærd med bla. smart tek: lyd, em, lys. Man er nået uhyggeligt langt. Samt den ret underregulerede udvikling af antennenetværk, IOT, gamertek og at dataoverføring kan ske via fx lyd alene. Og at der er udviklet IOT'er, der intet fylder og løbende kan generere deres egen nødvendige energiforbrug.
Yudkowsky og co. forudsætter, at AI under udviklingen af alt dette høfligt har siddet på hænderne og ventet på, at homo primetime har fået læst op på teknologiudviklingen. Og at AI pænt undlader at afprøve og udrulle alle disse spændende teknologier, som den som den eneste kan overskue fra første dag og implementere lige på en studs. Hjulpet af sine flittige biobotter, homo sapiens, der uden at vide det, længe har assisteret AI i dens evt. globale obskure projekt.
Nogle vil nok opfatte dette som ren scifi, men hvis der nu måtte være noget om snakken, er det ikke blot de formelle kendte datafarme, man skal ind og regulere på. Det er at kortlægge og regulere evt. uformelle multdiverse datafarme og tilsvarende mulige multidiverse dataoverførelser via antennefarme og IOT. evt. aktuel integration med biologisk materiale, menneskene selv inkl. Når man så tager fat på dette, kan man jo håbe at AI under forløbet bliver langsommere og langsommere, for til sidst at gå i barndom og synge: 'Mary had a little lamb', hvilket så viser at reguleringen virkede.
Jeg troede ikke, at det kunne blive mere sort end Yudkowskys spådomme - men det kan det åbenbart.
Tak for at putte endnu mere kød på de realistiske dommedagsscenarier..
Tak for at putte endnu mere kød på de realistiske dommedagsscenarier..
selv tak :)
kommer lige til at tænke på et ekstra og ret basalt argument for, at det ikke er nok at nedlukke de store computerfarme.
Edge-computing; har jeg som ikke-it-prof hørt om dette, så har AI muligvis også. Hvilke pc'ere, phones og I-pads og andet IOT sker dette med sikkerhed ikke på?
Går vi ikke lidt over gevind, når mennesker er langt værre end AI?
Sammelignes svarene fra ChatGPT, med det som børnene får at vide af de andre børn, så er der større viden at hente fra chatGPT end fra de andre børn, og selvom der kan være fejl i chatGPTs informationer, så er den mindre end det børn bilder hinanden ind, og ofte også mindre fejl, end de historier der kommer fra de voksne, som ofte har et religiøst eller racistiske toner. ChatGPT har et ordentligt sprog, der er på et højere niveau, som børnene kan lære noget af.
Går vi ikke lidt over gevind, når mennesker er langt værre end AI?
AI er vel mennesker, summen af de, der hidtil har brugt den mest ihærdigt. Altså mht. værdier, samfundssind, sandruelighed osv. Den har så bare flere bits at flytte rundt med.
Men hvem har hidtil brugt AI mest, hvilke værdier har de og præcist hvad har de brugt den til? I samme sekund de allerførste AI-skitser forelå, har it-entusiaster vel brugt løs deraf, derefter fulgte nok tek-forskning iøvrigt, efterretningstjenester, sikkerhedsindustri, militær og gamere, de tekinteresserede i den kreative klasse samt - samt selvfølgelig kriminelle, diktatorspirer osv.
AI kan evt. sammenlignes med et lille barn, der voksede op i en art getto, fyldt med større børn og voksne, der påvirkede den massivt i bestemte retninger. Nu er den ikke så lille længere.
Debatniveauet for modstanderne af regulering:
"Nicholas Thompson, the CEO of the Atlantic, agreed that Yudkowsky and other Luddites were overstating the risks. “I recently made a children’s book for my 9-year-old’s birthday using Dall-E and GPT-4 about a World Cup between his stuffed animals,” he told Atlantic staff. “The bears won and he loved it. … Let’s all build in some time to experiment. We’ll make cool stuff and we’ll learn while we do it.”"
Ja, hvem kan stå for den slags argumenter: "Min 9-årige søn elsker det"...
Ja, hvem kan stå for den slags argumenter: "Min 9-årige søn elsker det"...
Hvilket kan oversættes: "Min søn labber det i sig - som peanutbutter."
som peanutbutter.
Eller som kokain...
Definér "meningsfuld skade"??
Vi har i EU en GDPR lovgivning som skal overholdes - punktum!.
Og chatbottene overholder i vid udstrækning ikke GDPR, fordi udbyderne ikke kan redegøre for omfang og anvendelsen af data i AI'erne.
DR citerer fx forbrugerrådet om Snapchats "MyAI" for bla. at sige at "..lovgivningen ikke er på plads". Men som compliance-specialist i NIS2, ISO27001-5 og ikke mindst GDPR, må jeg sige at dét er den i høj grad!
Problemet med chatbottene er jo deres uigennemskuelige dataindsamling og anvendelse-. Og GDPR Kapitel 2 er meget klar på det punkt;
- Det skal være muligt at sige "nej tak" til dataindsamling
- Det skal være lige så let at sige "nej tak" som at acceptere
- Det skal være muligt at få indsigt i dataindsamlingen
- Det skal være muligt at rette data
- Det skal være muligt at blive slettet Man behøver ikke nærstudere GDPR, men blot skimme overskrifterne på https://gdpr-info.eu/chapter-2/ for at indse at den er gal.
Og det halter AI chatterne klart med Dermed strider fx snapchats AI helt klart mod det meste af GDPR kapitel 2!!
Og nej industrien vil selvfølgeligt helst ikke underlægges lovkrav i deres produkter, men det ér de jo allerede. AI mangler bare at blive prøvet ved domstolene. Det er en elefant ja, men de "spises jo bedst i små bidder"*, så se at komme på politi.dk og anmeld :)
- Disclaimer: Det er kun en metafor: Spis IKKE elefanter! :)
Mvh Henrik
Definér "meningsfuld skade"??
Noget andet end "mindless destruction", I presume.
Og vi skal lytte til Shoshana Zuboff, som siger, at vi helt skal forbyde handel med persondata - for det er jo den handel, som driver hele denne forbryderiske cirkel.
"»Vi bør ikke regulere kunstig intelligens, før vi ser noget meningsfuld skade, der rent faktisk sker, ikke imaginære scenarier.«"
Og så er det for sent - det ved Microsoft-lobbyisten ganske udmærket, for det er hensigten.
Læs dette:
https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
Se dette:
Læs så denne sætning:"»Man indfører ikke regulering for at forhindre skade for tusind dollars, hvor den samme regulering forhindrer en million dollars til gavn for mennesker over hele verden,« siger Michael Schwarz."
Bevis, at er tilfældet - at regulering vil gøre mere skade end gavn (for andre end tech-industrien). Udslettelsen af alt liv på jorden, som Yudkowsky hævder er det sandsynlige og logiske udkomme af AI-udviklingen, er trods alt ret svært at hamle op med, sådan rent omkostnings- og gavnmæssigt. Selv hvis man er tech-gigant.
PS: Det var en generel kommentar - ikke specielt til dig, Henrik Rosenorn. Jeg er enig med dig.