Microsoft laver AI, der kan lave falske kommentarer på nyheder

Illustration: davinci, BigStock
Produktet, som ingen efterspurgte, er alligevel blevet udviklet: kunstig intelligens, der kan lave falske kommentarer på nyhedsartikler.

Microsoft har sammen med det kinesiske Beihang University netop lanceret et nyt studie, der fokuserer på at bruge kunstig intelligens til at lave falske, men troværdige kommentarer på nyhedsartikler skriver The Register.

Algoritmen har fået navnet DeepCom, og udviklerne mener, at det kan styrke læseoplevelsen ved nyhedsartikler, da kommentarsporet ofte tiltrækker opmærksomhed og kan blive platform for, at brugerne deler viden med hinanden.

Her ses et eksempel på en artikel og DeepComs kommentar. Det røde er, hvad algoritmen har vurderet er vigtigt, mens det blå viser, hvad den kommenterer. Illustration: Li et al., 2019

Det er dog ikke en service, som hverken The Register eller Version2 har savnet, da vi foretrækker, at vores kommentarspor huseres af faktiske læsere.

Og det er ifølge The Register svært at se denne type algoritme blive brugt til andet end at skabe falske optimistiske kommentarer f.eks. i forbindelse med frigivelse af propaganda, men det er ikke et område, forskningsartiklen overhovedet nævner.

Vil næppe starte diskussioner

Som det ses på billedet til højre, er kommentarerne fra DeepCom ikke vildt sofistikerede, så det vil næppe starte store diskussioner mellem algoritmer og mennesker på nuværende tidspunkt, men man kan undre sig over, hvem der faktisk ønsker dette produkt.

Arvind Narayanan, der er professor i datalogi ved Princeton University, er også kritisk overfor projektet på Twitter:

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (34)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Anne-Marie Krogsbøll

Så Microsoft fortæller helt åbent og stolt, at de er igang med at konstruere AI, som kan lave fake news og falske identiteter?

Man skal læse meget, før øjnene falder ud...

Al tvivl om, hvor disse tech-giganter står ift. demokrati må vel nu forstumme. Skræmmende..

  • 8
  • 0
Michael Cederberg

Selvfølgeligt skal man bygge sådan en dims. Ikke for at bruge den, men for at vise andre at det er muligt. Hvis det ikke var de gode der byggede den, så ville de onde gøre det. Måske har de onde allerede gjort det*.

Når man deltager i debatter på internettet, så føles det ofte som at spille "whack-a-mole". Når man har debateret den ene Putin-sympatisør ihjel, så dukker der en ny kommentar op ved siden af der er ligeså dum og absurt som den første man gik til angreb på. Og så betyder det ikke noget om det er Putin-venner, halv-fascistiske højre-fanatikere, veganer-fanatikere, aspartam-hadere, etc. Det er det samme alle steder.

Jeg har flere gange tænkt over om jeg blot hjælper med at træne en gigantisk AI maskine til at bliver endnu bedre til at svare på kommentarer og på den måde blive endnu bedre til mudre debatten. I princippet kan man komme langt ved blot at overdøve andre med nonsens, men hvis det skal være rigtigt værdifuldt så skal det være "intelligent-nonsens", dvs. kommentarer der lyder rigtige men bygger på løgn, tendentiøse slutninger, hearsay, etc.

Hvorvidt Microsofts maskine lærer af debatter ved jeg ikke. Der kræves nok at der sidder nogle mennesker rater argumenternes kvalitet og det er ikke en opgave for en flok IT forskere. Under alle omstændigheder er det der vi er på vej hen.

Derfor bør man ikke stole på kommentarer på websites der i praksis tillader maskin-genererede brugere. Basalt set bør alle brugeres identitet valideres. I Danmark kunne det fx. ske vha. NemID. Kun på den måde kan man sikre at debatter sker mellem rigtige mennesker og at organisationer/lande ikke kan bruge AI til undertrykke debat og kritik.

*Jeg ved at flere synes Microsoft er onde. Det gider jeg ikke debattere. Men ved at lægge frem hvad de har lavet - uden at sætte den i drift - har de opført sig som de gode. Argumentationen for at sætte den i drift er i idotisk.

  • 8
  • 2
Anne-Marie Krogsbøll

Jeg er lidt desorienteret, Michael Cederberg. Mener du virkeligt, hvad du skriver her? Hvad er det, der får dig til at mene, at Microsoft er mindre "ond" i denne sammenhæng end andre, som gør det samme?

"Algoritmen har fået navnet DeepCom, og udviklerne mener, at det kan styrke læseoplevelsen ved nyhedsartikler, da kommentarsporet ofte tiltrækker opmærksomhed og kan blive platform for, at brugerne deler viden med hinanden."

Som du selv nævner, så er deres begrundelse idiotisk. Men hvad får dig til at tro, at det ikke er faktisk præcist det, de mener?

Mht. at vise, at det er muligt at bygge, så er der vel ikke nogen, der bestrider det faktum? Så også det ville da være en frygtelig dårlig begrundelse.

Microsoft er i forvejen en af de tech-supermagten, som har bemægtiget sig magten i verden - på tværs af demokratier og lignende unødvendigt "skidt". Nu har de så oven i købet rottet sig sammen med kineserne, som er helt med på det der med totalitære styreformer, om at bygge et redskab til ødelæggelse af al demokratisk debat, som med et fingerknibs nu kan erstattes med ren propaganda og virkelighedsforvrængning.

Det går over min forstand, at man kan undgå at få gåsehud på den grimme måde ved den nyhed.

  • 6
  • 0
Sune Marcher

Jeg er lidt desorienteret, Michael Cederberg. Mener du virkeligt, hvad du skriver her? Hvad er det, der får dig til at mene, at Microsoft er mindre "ond" i denne sammenhæng end andre, som gør det samme?


Jeg ved ikke om Microsoft har gode eller onde intentioner med det her – men hvis du vil kunne forsvare dig mod et angreb, er du nødt til at virke hvordan angrebet virker.

  • 2
  • 0
Anne-Marie Krogsbøll

Tak for svar, Sune Marcher:

Jeg ved ikke om Microsoft har gode eller onde intentioner med det her – men hvis du vil kunne forsvare dig mod et angreb, er du nødt til at virke hvordan angrebet virker.

1: Det er ikke det formål, der anføres.
2: Hvis man skal forsvare sig mod et sådant angreb, skulle man så ikke i stedet have koncentreret sig om at analysere de tilfælde, hvor det forekommer?

  • 1
  • 0
Louise Klint

Suk. Det er godt nok en mavepuster.
Jeg håber også, at dette bliver det første søm i deres ligkiste.

Set fra et kommercielt perspektiv, tror jeg, Microsoft regner med
at have skabt en bestseller.

Et værktøj, som kan generere synlighed og (positiv) omtale.
Skabe topplaceringer på enhver liste (mest læste/mest kommenterede), generere synlighed og (positiv) opmærksomhed = profit.
Dette er i og for sig den harmløse del af anvendelsen: Profitmaksimeringsmodulet.
Sådan som det vil blive solgt, vidt og bredt.

For Microsoft er den offentlige samtale, her, tilsyneladende blot en del af markedsføringen. Et instrument, der skal generere kunder i butikken. Skabe buzz om en artikel, trafik på sitet. Som fluer på en lort.

Ude på nettet, hvor man kan købe alting.
Hvor alting er konstrueret med dette formål, super kunstigt.
Det er kunstige clicks. Det er kunstige likes. Det er kunstige kommentarer.
Snart er artiklerne også kunstige.

Gad vide, hvor længe det vil forblive en attraktion?
Bevare synligheden, som er det, det hele handler om?

Hvor længe vil du selv have lyst til/behov for at opsøge dette?
Et kunstigt univers, hvor du ikke aner, om det er rigtige mennesker, du er iblandt og taler med?
Eller blot lokkende, kunstige sirener?

  • 3
  • 0
Michael Cederberg

1: Det er ikke det formål, der anføres.
2: Hvis man skal forsvare sig mod et sådant angreb, skulle man så ikke i stedet have koncentreret sig om at analysere de tilfælde, hvor det forekommer?

Jeg er ganske enig i at "formålet" som beskrevet er idiotisk. Men sådan som den slags ofte fungerer, så har der siddet nogle IT folk og kigget på om dette var muligt. Når nu det var muligt så blev det researchet og bygget. Herefter skulle der skrives en pressemeddelse sådan at en eller anden Microsoft-afdeling kunne vise verden at de havde deres berettigelse og da "opfandt" man sikkert en business-case uden at tænke over hvor idiotisk den er. Sådan fungerer store virksomheder.

Jeg har meget svært ved at forestille mig at auto-spam af kommentar-spor skulle være begrundelsen for at sætte den slags igang. Der er INTET kommercielt firma som ønsker at blive associeret med den slags, med mindre de hjælper totalitære regimer med at undertrykke borgerne eller bygger offensive cybervåben.

Hvis man vil vide hvor gode auto-spam våben man kan blive udsat for, så er man nødt til at bygge nogen selv, herunder bruge resourcer på at videreudvikle dem.

  • 1
  • 0
Anne-Marie Krogsbøll

Ude på nettet, hvor man kan købe alting.
Hvor alting er konstrueret med dette formål, super kunstigt.
Det er kunstige clicks. Det er kunstige likes. Det er kunstige kommentarer.
Snart er artiklerne også kunstige.


Meget præcist beskrevet, Louise Klint. Den digitale verden er ved direkte at opløse oplevelsen af virkeligheden, så det bliver umuligt at vide, hvad der er hvad.

Det er efterhånden en tvivl, vi har med os alle vegne: Er dette digitaliseret/manipuleret, eller er det faktisk virkelighed? Så selv når det er virkelighed, ødelægger de nødvendige overvejelser om evt. manipulation oplevelsen - tvivlen risikerer at ende med at være en evig følgesvend.

Hvordan skal man som menneske forholde sig til, at man f.eks. ikke mere kan vide, om man kommunikerer med en bot eller en person? Disse bagmænd/giganter berøver os efterhånden simpelthen virkelige oplevelser. For vi ved i accellererende grad ikke mere, om det er virkelige oplevelser.

Se interviewet med Shoshana Zuboff i Deadline her:https://www.dr.dk/tv/se/deadline/deadline-10/deadline-2019-09-29

Jeg forstår ikke, at der er nogen, der fortsat kan trække på skuldrene ad disse problematikker.

  • 3
  • 1
Anne-Marie Krogsbøll

Tak for svar, Michael Cederberg.

Jeg er ganske enig i at "formålet" som beskrevet er idiotisk. Men sådan som den slags ofte fungerer, så har der siddet nogle IT folk og kigget på om dette var muligt. Når nu det var muligt så blev det researchet og bygget. Herefter skulle der skrives en pressemeddelse sådan at en eller anden Microsoft-afdeling kunne vise verden at de havde deres berettigelse og da "opfandt" man sikkert en business-case uden at tænke over hvor idiotisk den er. Sådan fungerer store virksomheder.


Jeg stoler ikke på firmaer, der fungerer på den måde, for hvordan kan man vide, hvornår de mener, hvad de siger, og hvornår de har en anden dagsorden? Hvorfor har de ikke simpelthen brugt dit "figenblad", hvis det er det, der er motivet til at lave dette? Hvorfor skrive noget, som vil få store dele af verden til at stejle?

Af forskningsartiklen fremgår:
"Our contributions are four-folds: (1) proposal of
“read-attend-comment” procedure for news comment
generation with a reading network and a generation
network; (2) joint optimization of the two
networks with an end-to-end learning approach;
(3) empirical verification of the effectiveness of
the proposed model on two public datasets with
both automatic metrics and human annotations;
and (4) release of an English news commenting
dataset to the research community."

Der er absolut ingen overvejelser om misbrug eller etik eller forskning mht. at kunne forsvare sig mod den slags. Tvært imod frigiver de dimsen - så alle vel kan gå igang med at bruge/misbruge den efter forgodtbefindende?

Nej, jeg tænker, at det ikke er tilfældigt, at det er i Kina, at det sker, og jeg gætter på, at dette værktøj vil blive taget i brug i Kina - og snart også tættere på os - i vores egen verden.

  • 3
  • 0
Louise Klint

Jeg er meget enig med Anne-Marie.

Dette er et værktøj med meget vide perspektiver.
Automatiseret spin, trolling, propaganda og frem for alt undertrykkelse og
neutralisering af uønskede synspunkter, røster, folkestemninger.
Kineserne må være henrykte.
Det er en dårlig dag.

Jeg synes heller ikke, at jeg har hørt ordet ”etisk” nævnt i denne sammenhæng.
Hvor blev etikken af, Microsoft?

Dette næsten hellige begreb, fuld af omtanke og troværdighed, som hele branchen kappes om at nævne i hver anden sætning, således ingen kan være i tvivl om de gode intentioner.

Jeg er ikke sikker på, at dette nye værktøj bidrager så positivt
til virksomhedens brand.
I hvert fald ikke i den brede offentligheds øjne (B2C).

  • 3
  • 0
Louise Klint

Jeg har hørt, at russerne har ringet.
De vil gerne på venteliste til beta-versionen.
Hong Kong har også et akut behov. De søger en ”stor pædagog”, som kan være allevegne på en gang, tale masserne ned, med ro og forståelse, og gradvist overbevise dem om fornuften i at følge myndighedernes gode og kloge anvisninger. For vores alles fælles bedste. Du ved, det er det rette at gøre.

  • 2
  • 0
Michael Cederberg

Der er absolut ingen overvejelser om misbrug eller etik eller forskning mht. at kunne forsvare sig mod den slags. Tvært imod frigiver de dimsen - så alle vel kan gå igang med at bruge/misbruge den efter forgodtbefindende?

Det er forskning. Det er ikke et produkt. Microsoft Research forsker i mange mystiske ting der ikke bliver til noget. Her er der fornuftig forskning og et idiotisk "formål". Dette er ikke en god sag for Microsoft og det er jeg 200% sikker på at alle topledere i Microsoft godt ved.

Igen: Jeg har ikke fantasi til at forestille mig en stor virksomhed skulle have interesse i at blive associeret med en auto-spam engine. Der er ganske enkelt ingen penge i det og ens image bliver ødelagt. Hvis du kan indikere hvordan dette kan blive en forretning der er penge i så hører jeg det gerne.

At lave systemer der kan skrive naturligt sprog sådan at folk ikke lægger mærke til at det komme fra en maskine, det er furnuftigt og det er der mange der mange penge i. Og der mange områder hvor AI vil være en fantastisk hjælp - fx. sundhedssektoren. At ødelægge kommentar-sporet på internettet med autogenereret crap ... jeg kan ikke se nogen ville betale for den slags, men det er spændende at lave.

  • 2
  • 1
Anne-Marie Krogsbøll

Tak for svar, Michael Cederberg.

Igen: Jeg har ikke fantasi til at forestille mig en stor virksomhed skulle have interesse i at blive associeret med en auto-spam engine.


Men det er jo præcist, hvad der ser sket...

Det er forskning. Det er ikke et produkt. Microsoft Research forsker i mange mystiske ting der ikke bliver til noget.


Netop fordi det er forskning, er det skræmmende, at der ingen etiske overvejelser er overhovedet. Det er nok ikke ukendt, at kineserne har et andet syn på "etik", end mange i vesten. Jeg tør slet ikke tænke på, hvad de ellers forsker i det sted, og netop derfor er det skræmmende, at det er Microsoft, der finansierer det, og står bag. Kunne det være et motiv til at lægge en forskningsafdeling der, at man der kan slippe afsted med forskning, som man ikke så let kan slippe afsted med andre steder i verden?

Hvis du kan indikere hvordan dette kan blive en forretning der er penge i så hører jeg det gerne.


Verden består - utroligt nok - af andet end penge....

Jeg kan f.eks, forestille mig, at medicinalfirmaer og deres tilknyttede forskere vil være rigtigt glade for at kunne spise mig og andre af med bot-kommentarer, når jeg og andre kritiserer dem.

Jeg kan også sagtens forestille mig politiske kræfter herhjemme, som kunne have lyst til at peppe lidt op på diskussionerne om Sundhedsplatformen med lidt begejstrede kommentarer.

Eller som kunne have lyst til at "fortynde" kommentartråde med for mange krav om en ordentlig Offentligheds- og Partistøttelov.

Jeg kan også sagtens forestille mig, at f.eks. Trump vil være rigtigt glad for det værktøj til at feje kritikere af banen med.

Eller tech-giganter som Microsoft, som er bange for, at tech-kritikere får lidt for meget vind i sejlene i kommentartråde.

At lave systemer der kan skrive naturligt sprog sådan at folk ikke lægger mærke til at det komme fra en maskine, det er furnuftigt og det er der mange der mange penge i. "

Ikke i mine øjne - det er fremmedgørende og manipulerende - med mindre man meget klart og tydeligt gør opmærksom på, at det er en bot, der taler.

  • 2
  • 0
Michael Cederberg

Igen: Jeg har ikke fantasi til at forestille mig en stor virksomhed skulle have interesse i at blive associeret med en auto-spam engine.

Men det er jo præcist, hvad der ser sket...

Mit bedste gæt er at Microsoft lige nu leder efter en måde at lande den her sag. Hvis du kigger omkring er der ingen i tech miljøet der syndes det er en god ide. Microsoft er i udpræget grad en tech virksomher. Hvis der heller ikke er penge i det så bliver det ikke til noget fra deres side.

Netop fordi det er forskning, er det skræmmende, at der ingen etiske overvejelser er overhovedet.

Det er nok et af de steder vi er grundlæggende uenige. Jeg mener man skal forske i alt hvad der kan ramme en selv. Det er den eneste måde at beskytte sig på.

Verden består - utroligt nok - af andet end penge....

Børsnoterede virksomheder handler (heldigvis) stort set kun om penge. Det gør det nemt at forstå hvorfor de handler som de gør. Når vi vil have mennesker til at gøre noget så apellerer vi nogen gange til deres gode hjerte, ideologi, etc. Virksomheder har ingen af delene. Grundlæggende står der en horde af aktionærer bag virksomheden der primært kigger på om værdien af deres aktier stiger eller falder. I Danmark sker dette primært ved at folk kigger på afkastet af deres pensionsopsparing. Derfor laver vi regler for hvad de må og ikke må. Og sådan skal det være. Virksomheder er som græsslåmaskiner. Der er intet hjerte der slår (men i de fleste virksomheder sidder mennesker med hjerter og følelser).

Jeg kan også sagtens forestille mig politiske kræfter herhjemme, som kunne have lyst til at peppe lidt op på diskussionerne om Sundhedsplatformen med lidt begejstrede kommentarer.

Eller som kunne have lyst til at "fortynde" kommentartråde med for mange krav om en ordentlig Offentligheds- og Partistøttelov.

Jeg kan også sagtens forestille mig, at f.eks. Trump vil være rigtigt glad for det værktøj til at feje kritikere af banen med.

Eller tech-giganter som Microsoft, som er bange for, at tech-kritikere får lidt for meget vind i sejlene i kommentartråde.

Det lyder som en business case for et to-mandsfirma i en kælder. Ikke for et gigantforetagende.

At lave systemer der kan skrive naturligt sprog sådan at folk ikke lægger mærke til at det komme fra en maskine, det er furnuftigt og det er der mange der mange penge i. "

Ikke i mine øjne - det er fremmedgørende og manipulerende - med mindre man meget klart og tydeligt gør opmærksom på, at det er en bot, der taler.

Det kunne være at AI kunne omsætte komplicerede testresultater til noget almindelige mennesker kan forstå. Med alt den information der findes i samfundet kan det være svært for almindelige mennesker at forstå den. Det kunne fx. være et system der opsamler hjerterytmer og andre sundhedsparametre og foretager en vurdering af samme og fortæller patienten i klart sprog hvad det betyder.

Men jeg kan som skrevet mange gange ikke se ideen med en auto-spam maskine. Bortset fra at det kunne være sjovt at lave sådan en ... blot for at se hvor god den kunne blive ...

  • 2
  • 1
Anne-Marie Krogsbøll

Det er nok et af de steder vi er grundlæggende uenige. Jeg mener man skal forske i alt hvad der kan ramme en selv. Det er den eneste måde at beskytte sig på.


Det er vel ikke nogen begrundelse for helt at undvige etiske overvejelser, og omskrive det til, at det vil være en god ting at anvende en sådan bot?

Børsnoterede virksomheder handler (heldigvis) stort set kun om penge.


Er den pågældende organisation en børsnoteret virksomhed? Og i givet fald: Hvilken business case har man så set for sig, hvis det, som du mener, er hensynet til verden, der har drevet arbejdet?

Det kunne være at AI kunne omsætte komplicerede testresultater til noget almindelige mennesker kan forstå. Med alt den information der findes i samfundet kan det være svært for almindelige mennesker at forstå den. Det kunne fx. være et system der opsamler hjerterytmer og andre sundhedsparametre og foretager en vurdering af samme og fortæller patienten i klart sprog hvad det betyder.


Fint nok - hvis det klart og tydeligt fremgår, at det er en bot. Og igen: Det er altså ikke det formål, der er angivet her.

Din konstante afvisning af etiske overvejelsers relevans er faktisk noget af det, som kan få mange, inkl. mig til at blive yderligere betænkelige ved at overlade denne udvikling til firmaer. Hvis man konsekvent afviser etikkens relevans, hvorfor skulle vi dog så stole på noget som helst, der kommer fra de kanter? For det er vel bl.a. etik og moral, der får folk til at afholde sig fra at lyve og snyde og manipulere? Så uden etik og moral i forskningen... hvad så?

Jeg faldt i min research over dette:
https://deepcom.com/

Spændende at se, om den side handler om denne bot - og hvad der så i gevet fald kommer til at stå. Umiddelbart ser den lidt kommerciel ud....

  • 1
  • 0
Hans Nielsen

Snart er artiklerne også kunstige.


Det har de da været længe. De fleste verjudsigter og sportsresultater er genneret af bots.

Mange af versions 2 artikler, er også tæt på google oversat PR fra firmaer eller "teksider".
Hvor test og omtale er lavet, for at komme højere i googles søge resultat.

Hvis du søger efter danske resulteater. ender du i dag op med sidder, som virker som til øjeblikket eller søgning, er maskineoversat, af noget i forvejen sluder.

Som her

https://morefews.dk/author/morefews/

  • 0
  • 0
Ditlev Petersen

En flok AI'ere skriver artikler, hvor de ivrigt citerer hinanden. En anden flok skriver åndrige eller agressive kommentarer for at skabe opmærksomhed for artiklerne og de firmaer, der står bag. En tredje gruppe læser "produkterne" og uddeler likes og klikker på bannerreklamer. Alle er lykkelige.

På dette tidspunkt "zoomer fortælleren ud" og beskriver, hvordan menneskene stort set alle er døde som følge af en eller anden fantasifuld katastrofe (der er frit valg på alle hylder). De få overlevende diskuterer, hvor man finder det bedste træ til spydskafter og hvorvidt flint, obsidian eller jernskrot giver de bedste spydspidser og pilespidser.

Naturligvis inspireret af Bradburys (?) historie om det intelligente hus i en atomørken.

  • 3
  • 0
Jan Heisterberg

Mange teknologiske udviklinger resulterer i produkter som kan misbruges eller bruges på en kritisabel måde.

Men i et ikke forsvindende antal tilfælde er der positive, fornuftige, anvendelige, biprodukter, som IKKE ville være kommet af sig selv - måske.
Jeg fravælger at give eksempler for at undgå en debat om eksemplerne.

Jeg vælger at tro at denne udvikling, altså AI til at forfatte kommentarer, kan være et skridt frem mod (bedre) grænseflade for mennesker - fordi der er en underforstået eksplicit opfattelse af det skrevne sprog. Mon ikke dette kan give en bedre "kunde-betjening".

Jeg vover et eksempel: mon dette kan føre til en maskinel screening af henvendelser om sygdomsproblemer ? (Første diagnose ?).
Det er vist erkendt, at der findes ekspert-systemer som kan hjælpe læger til at stille bedre diagnoser - især fordi erfaringsbasen kan være enorm (>< lægens personlige erfarings- og videnbase).
Men i simplere, indledende, diagnoser, så tilfører lægen måske ikke stor værdi - måske kunne der ske en maskinel screening ?
Og inden jeg bliver overfaldet, så betyder det IKKE at jeg i ALLE tilfælde helt erstatter læger og sygeplejersker. Men kan bare 50% af patienterne hjælpes (bedre, tilsvarende), så er det da et enormt fremskridt - OGSÅ for patienterne som kan / vil bruge sådan en mulighed.

  • 2
  • 0
Michael Cederberg

Det er vel ikke nogen begrundelse for helt at undvige etiske overvejelser, og omskrive det til, at det vil være en god ting at anvende en sådan bot?

Forskning bør ikke kigge på etikken af resultatet. Den bør kun overveje etikken i vejen dertil. Viden kan ikke være etisk ... det er bare viden.

Er den pågældende organisation en børsnoteret virksomhed? Og i givet fald: Hvilken business case har man så set for sig, hvis det, som du mener, er hensynet til verden, der har drevet arbejdet?

Selvfølgeligt sker er alt muligt i en børsnoteret virksomhed. Men man går ikke ud og lancerer produkter hvis der ikke er en eller anden business case bag den (mange business cases er i øvrigt latterligt optimistiske, men det er en ganske anden sag).

Din konstante afvisning af etiske overvejelsers relevans er faktisk noget af det, som kan få mange, inkl. mig til at blive yderligere betænkelige ved at overlade denne udvikling til firmaer. Hvis man konsekvent afviser etikkens relevans, hvorfor skulle vi dog så stole på noget som helst, der kommer fra de kanter?

Virksomheders adfær bør reguleres fordi der ikke er et bankende hjerte indeni. De flestes mål er profit til ejerne. Men man skal blot være opmærksom på at hvis noget er muligt, så vil andre prøve at gøre det. Heller nogen vi kender end nogen vi ikke kender. Man kan ikke stoppe viden i at propagere eller udviklingen generelt.

  • 0
  • 0
Michael Cederberg

Jeg er ikke helt enig - viden er viden, ja, men det giver i høj grad mening at forskere tager stilling til mulige konsekvenser af deres forskning.

Jeg har intet imod at forskere tænker over etikken. Men for det første er forskere ikke nødvendigvis de bedste til at vurdere implikationerne af deres opdagelser. For det andet vil der altid være nogle andre der gør samme opdagelse senere, selv hvis forskerne vælger ikke at gå den vej nu.

  • 0
  • 0
Anne-Marie Krogsbøll

Forskning bør ikke kigge på etikken af resultatet. Den bør kun overveje etikken i vejen dertil. Viden kan ikke være etisk ... det er bare viden.


Jeg er ikke enig....Bare det, at du bruger ordet "bør", er et moralsk/etisk argument - det er så bare ikke en etik/moral, jeg er enig i.

Men man går ikke ud og lancerer produkter hvis der ikke er en eller anden business case bag den (mange business cases er i øvrigt latterligt optimistiske, men det er en ganske anden sag).


Muligvis - men hvad er så business casen her? Er den hemmelig? I så fald bliver jeg da bestemt ikke mere tryg.

Men man skal blot være opmærksom på at hvis noget er muligt, så vil andre prøve at gøre det.


Som med så meget andet, kan man prøve at begrænse ulykkerne med regulering og straffe.... Det er trods alt lykkedes til en vis grad at begrænse udberedelsen af atomvåben.

Heller nogen vi kender end nogen vi ikke kender.


Hellere kineserne end...hvem?

  • 0
  • 0
Michael Cederberg

Muligvis - men hvad er så business casen her? Er den hemmelig? I så fald bliver jeg da bestemt ikke mere tryg.

Det her er Microsoft Research. De forsker i alt muligt - det meste bliver aldrig til en business case. Hvorfor Microsoft vælger at smide penge i en research organisation ved jeg ikke, men det er klassisk amerikansk fremgangsmåde. Jeg kunne godt ønske mig danske virksomheder gøre det samme

Men det her bliver ikke til et produkt, med mindre nogen har en business case der viser at der er rigtigt mange millioner dollars i det. Sådan fungerer den slags virksomheder. Jeg kan ikke se en business case ...

Som med så meget andet, kan man prøve at begrænse ulykkerne med regulering og straffe.... Det er trods alt lykkedes til en vis grad at begrænse udberedelsen af atomvåben.

Hvis Frisch og Peierls i 1940 havde besluttet at atomvåben var uetiske og derfor havde valgt at undertrykke den viden de havde om atomvåben var praktisk mulige, så kunne Tyskland (very long shot) eller Sovjetunionen være kommet først. Jeg er glad for at det var amerikanerne der kom først.

Hellere kineserne end...hvem?

Nationalitet er ligegyldigt her. Det er fremlagt offentligt. Det kommer ikke bag på nogen der kender AI at man kan det her, men det kan tjene til at informere borgerne.

Bare for at undgå misforståelser: Det er din afgrænsning af, hvornår "bør" bør forekomme, jeg ikke er enig i.

Viden bør ikke undertrykkes - uanset hvor ubehagelig den er. Den slags viden bør også opsøges.

  • 1
  • 0
Anne-Marie Krogsbøll

Det her er Microsoft Research. De forsker i alt muligt -


Du har tidligere afvist, at de kunne finde på at forske i noget, der ikke er penge i....Så hvad kan man forestille sig?

Men det her bliver ikke til et produkt, med mindre nogen har en business case der viser at der er rigtigt mange millioner dollars i det. Sådan fungerer den slags virksomheder. Jeg kan ikke se en business case ...


Det kan jeg: Man sælger produktet til aktører, som godt kan tænke sig at ødelægge/styre kommentartråde. Hvis formålet var det, du har anført, nemlig at forebygge, så ville man vel straks have udviklet et system til at hamle op med DeepCom, og lagt det frem sammen med DeepCom?

Jeg er glad for at det var amerikanerne der kom først.


Det er ikke noget argument for, at vi ikke skal regulere... tvært imod...

Viden bør ikke undertrykkes - uanset hvor ubehagelig den er. Den slags viden bør også opsøges.

Er der noget overhovedet, du ville synes gik over grænsen? Er det ok at forske i at klone mennesker og grise? At forske i at udrydde bestemte racer? At forske i, hvordan man kan underlægge sig hele verden og opnå totalt verdensherredømme? Hvis det er gavnligt at forske i alt, hvorfor blev du så så begejstret over denne nyhed - der forskes jo i så meget andet?

Det potentielt gode formål, du har henvist til, ser ud til allerede at være dækket: https://interestingengineering.com/a-new-ai-tool-can-help-us-fight-ai-wr...

Jeg synes, du bekræfter min og andres opfattelse af, at man ikke kan lade IT-branchen stå for disse vurderinger, for den har ingen skrubler. Denne branche skal reguleres skarpt - den skal ikke tilkæmpe sig verdensherredømme.

  • 0
  • 0
Michael Cederberg

Du har tidligere afvist, at de kunne finde på at forske i noget, der ikke er penge i....Så hvad kan man forestille sig?

Det tror jeg ikke jeg har afvist (men i så fald var det en fejl). For at forske i en ting kræves der bare en mellemleder der synes det er en god ide han får på sit bord og at han har nogle folk der brænder for det og ikke har alt for travlt.

Men det bliver først til et produkt når der er en business case.

Det kan jeg: Man sælger produktet til aktører, som godt kan tænke sig at ødelægge/styre kommentartråde. Hvis formålet var det, du har anført, nemlig at forebygge, så ville man vel straks have udviklet et system til at hamle op med DeepCom, og lagt det frem sammen med DeepCom?

Som tidligere skrevet: Den business case du beskriver lyder som en for et kælderfirma med to ansatte. Ikke en for et af verdens største firmaer.,

Jeg er glad for at det var amerikanerne der kom først.

Det er ikke noget argument for, at vi ikke skal regulere... tvært imod...

Det er et argument for at forskere ikke skal undertrykke viden pga. af egne etiske betragtninger.

Er der noget overhovedet, du ville synes gik over grænsen? Er det ok at forske i at klone mennesker og grise? At forske i at udrydde bestemte racer? At forske i, hvordan man kan underlægge sig hele verden og opnå totalt verdensherredømme? Hvis det er gavnligt at forske i alt, hvorfor blev du så så begejstret over denne nyhed - der forskes jo i så meget andet?

Jeg skrev tidligere at forskere skal overveje etikken i vejen til resultaterne. Men ikke etikken i resultaterne. For at tage dine eksempler:

  • Mennesker + Grise: Hvis man kan forske i dette uden at genere mennesker og grise, så har jeg ikke noget problem med det. I så fald er det et skrivebordseksperiment og det har jeg ikke noget imod.
  • Udrydde racer: Jo selvfølgeligt skal man forske i dette (men uden at det går ud over nogen mennesker). Ellers kan man ikke forsvare sig mod det.
  • Verdensherredømme: Se ovenfor

Jeg synes, du bekræfter min og andres opfattelse af, at man ikke kan lade IT-branchen stå for disse vurderinger, for den har ingen skrubler. Denne branche skal reguleres skarpt - den skal ikke tilkæmpe sig verdensherredømme.

Man skal ikke regulere forskningen. Men hvilke produkter der ryger på markedet. Det er jeg ganske enig i, fordi etikken nemt kan gå tabt når man forsøger at gøre 10 mio. aktieejere glade. [Men dette er min helt personlige holdning som ikke nødvendigvis reflekterer min arbejdsgivers eller andres]

  • 0
  • 0
Anne-Marie Krogsbøll

Den business case du beskriver lyder som en for et kælderfirma med to ansatte. Ikke en for et af verdens største firmaer.,


Er det gjort allerede? Men som du siger - der må være en business case et eller andet sted. Det er det foruroligende ved det.

Hvis man kan forske i dette uden at genere mennesker og grise, så har jeg ikke noget problem med det.


Skræmmende - igen bekræfter du min opfattelse, at disse mennesker ikke kan slippes af syne, men skal reguleres kraftigt.

I så fald er det et skrivebordseksperiment og det har jeg ikke noget imod.


Mig bekendt er man i fuld gang rundt omkring med temmeligt mærkelige eksperimenter...

Jo selvfølgeligt skal man forske i dette (men uden at det går ud over nogen mennesker). Ellers kan man ikke forsvare sig mod det.


Jo - en anden tilgang ville være at straffe den slags hårdt.

Man skal ikke regulere forskningen.


Skal private firmaer så også have lov at udvikle atomvåben?

  • 0
  • 0
Michael Cederberg

Er det gjort allerede? Men som du siger - der må være en business case et eller andet sted. Det er det foruroligende ved det.

Nej. Jeg siger dette bare er forskning. Lavet af Microsoft Research som er noget andet et Microsoft. Microsoft Research laver IKKE produkter. De er dekoblet fra Microsoft.

Hvis det skal være et produkt så skal der laves en business case. Ledelsen i toppen godkender ingen produkter uden de har en business case. Men lige nu lyder det her til blot at være forskning.

Mig bekendt er man i fuld gang rundt omkring med temmeligt mærkelige eksperimenter...

Det må du konkretisere. Under alle omstændigheder mener jeg at det er vigtigt at eksperimenterne ikke går ud over mennesker.

Jo selvfølgeligt skal man forske i dette (men uden at det går ud over nogen mennesker). Ellers kan man ikke forsvare sig mod det.

Jo - en anden tilgang ville være at straffe den slags hårdt.

Jeg er usigelig glad for at både Storbritannien, USA og andre venlige nationer har forsket i nervegift. Derfor kunne de identificere Putins brug af novichok nervegift i UK. Derfor kunne de opføre sig nogenlunde fornuftigt i håndteringen af sagen.

Under alle omstændigheder er forskning ofte blot noget der sker i simuleringer på en computer eller på et papir. Det vil være et kraftigt ryk i retning af totalitarisme hvis du vil forhindre den slags.

Skal private firmaer så også have lov at udvikle atomvåben?

Hvis jeg sætter mig ned og designer et atomvåben vil du stoppe mig? Vil du gøre tankevirksomhed ulovlig? I nogen lande kan man gøre viden ulovlig at kommunikere (fx. viden om atomvåben), men man kan ikke forhindre folk i at lave beregninger og tænke tanker.

Men selvfølgeligt skal private firmaer ikke have lov til at bygge atomvåben, bomber, nervegifte, etc. Det er bare noget ganske andet end at forske i det.

  • 1
  • 0
Anne-Marie Krogsbøll

Hvis løsningen ikke er at begrænse/forbyde denne type forskning, må løsningen være, at det skal kræve tilladelse at tage sådanne konstruktioner i brug, og at der må være fuld transparens og åbenhed om både konstruktion og anvendelse. Jeg er klar over, at det vil kollidere med forretningshemmeligheder og -hensyn, men at manipulere med andre og med samfundet via skjulte botter er i mine øjne en krænkelse af menneskerettigheder, og hvorfor skal forretningshemmeligheder have lov at overtrumfe menneskerettigheder?

Politiken har i dag en god artikel om en af retssagerne mod facebook, om hvordan denne retssag gør det krystalklart, at vi ikke kan stole på noget, der kommer fra facebook - og mit gæt: sikkert heller ikke fra de andre tech-giganter.
https://politiken.dk/viden/Tech/art7421646/Retssag-viser-hvordan-Faceboo...
Artiklen kræver ikke abonnement, men selve retsudskriften af Facebooks advokats udtalelser, som er ovenud groteske, kræver desværre abonnemt.

Fra artiklen:
Når en forfatter som Shoshana Zuboff bringer en sag som denne op, handler det ikke kun om at afsløre hykleri.
Det handler lige så meget om at rejse en debat om vores tillid til en techgigant som Facebook, der i den grad er med til at drive vor tids teknologiske udvikling, men som også har skabt en regulær overvågningskapitalisme. En kapitalistisk afart, hvor techgiganter som Google og Facebook først indsamlede enorme mængder data og viden om os alle sammen og nu er i færd med at finde ud af, hvordan de kan bruge denne viden til at manipulere med vores valg og frie vilje.
For Zuboff er dette større end et statskup: Det er et kup af selve mennesket. "

Og et lille klip fra retssudskrifterne:
Det tænkte eksempel er, at en Facebook-bruger sætter sine indstillinger således, at kun hendes venner kan se hendes fotografier«.
Orin Snyder: »Ja«.
Dommer: »Okay? Og Facebook forsikrer brugeren om, at hvis man kun deler ting med sine venner, vil vi, Facebook, ikke give nogen andre adgang til disse fotografier«.
Orin Snyder: »Ja«.
Dommer: »Og lad os så antage, at Facebook, trods sit løfte til brugeren, alligevel udbreder disse fotografier til hundredvis af firmaer«.
Orin Snyder: »Og der indgår ikke andre former for offentliggørelse i dette tænkte eksempel?«.
Dommer: »Korrekt«.
Orin Snyder: »Okay«.
Dommer: »Okay?«.
Orin Snyder: »Samme svar«.
Dommer: »Er det så et alvorligt brud på privatlivets fred begået af Facebook«.
Orin Snyder: »Nej, her er der ikke tale om privatlivsinteresser, for ved at dele med 100 venner på sociale medier foretager man en bevidst social handling med henblik på at offentliggøre, at fremlægge, at dele angiveligt private oplysninger med 100 mennesker, og man har dermed – ifølge århundreders sædvaneret, ifølge Kongressens vurdering, ifølge den amerikanske SCA-lov om opbevaring af kommunikation – givet afkald på enhver berettiget forventning om privatliv«."

Kilde: Retsmøde 29. maj 2019 ved distriktsdomstolen Northern District of California i San Francisco.
https://politiken.dk/viden/Tech/art7418604/Her-er-retsreferatet-der-vise...

Vel bekomme!

Microsofts bot-projekt bygger sandsynligvis på vore stjålne privatliv, og nu er de igang med at manipulere med os via dem. Det er et kup mod menneskeheden, og det burde ikke være lovligt. Præcist hvor det så er, vi skal sætte ind for at beskytte os selv mod den slags - tja, måske skal vi følge Zuboffs forslag: Dataindsamlingen skal stoppes ved kilden, og det skal forbydes at handle med disse data. Og forskning med stjålne privatliver pr. definition kriminelt? Hvorfor ikke?

  • 0
  • 0
Michael Cederberg

Hvis løsningen ikke er at begrænse/forbyde denne type forskning, må løsningen være, at det skal kræve tilladelse at tage sådanne konstruktioner i brug, og at der må være fuld transparens og åbenhed om både konstruktion og anvendelse. Jeg er klar over, at det vil kollidere med forretningshemmeligheder og -hensyn, men at manipulere med andre og med samfundet via skjulte botter er i mine øjne en krænkelse af menneskerettigheder, og hvorfor skal forretningshemmeligheder have lov at overtrumfe menneskerettigheder?

Jeg mener det er meget svært at lave en afgrænsning på hvad der er tilladt. Hvad hvis det bare er hjælp til at skrive? Hvad med stavekontrol?

Men ...

Mener du så, at det skal være lovligt at tage en sådan bot i brug, uden at det klart fremgår, at der er tale om en bot? Skal Cambridge Analytica - manipulation med vore demokratier være lovlig?

... jeg mener ikke robotter har ytringsfrihed. Jeg mener massekommunikation skal komme fra et menneske - et mennesker der tager ansvar for det kommunikerede. Vi har i mange år haft en lovgivning om at periodiske skrifter skal have en ansvarshavende redaktør. Vi kunne lære noget af det når det gælder sociale medier og internet fora.

Basalt set mener jeg Mark Zuckerberg som udgangspunkt bør stå med ansvaret for alt hvad der står på facebook. Han er den ansvarshavende redatør. Såfremt han kender identiteten på dem der skriver, så kan han overdrage ansvaret til den enkelte skribent eller til andre redaktører der tager ansvaret. Under forudsætning af at redaktører er villig til at tage ansvaret for skriblerierne.

Ovenstående bør gælde for alle postings med der rammer mere end 1000 læsere. I praksis vil reglerne ovenfor betyde at man ikke kan skrive anonymt på internettet til mange mennesker, med mindre man kan finde et andet menneske der vil tage ansvaret. Det vil udelukke robotter. Men mennesker vil stadigvæk kunne få hjælp af robotter.

  • 0
  • 0
Log ind eller Opret konto for at kommentere
IT Company Rank
maximize minimize