Debat om kunstig intelligens og borgerdata: »Vi skal lige stoppe op og tænke«

19. marts 2019 kl. 05:1114
Debat om kunstig intelligens og borgerdata: »Vi skal lige stoppe op og tænke«
Illustration: Tania Andersen.
Algoritmer er ikke parat til at udføre arbejdet, og kunstig intelligens er ikke supergodt, lød nogle af synspunkterne, da dataloger, NNIT og Gladsaxe Kommune diskuterede brugen af borgernes data til algoritme-støttede beslutninger.
Artiklen er ældre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Interesseorganisationen Dansk IT's konference om offentlig digitalisering, som blev afholdt i sidste uge i Musikhuset i Aarhus, kunne onsdag eftermiddag byde på debat om kunstig intelligens i den offentlige sektor og de etiske aspekter, der følger med.

Panelet indeholdt blandt andre Stephen Alstrup, som er professor ved Datalogisk Institut på Københavns Universitet. Han åbnede ballet ved at problematisere, hvad vi forstår ved data:

»Der var en formand for forældrerepræsentanter, der sagde til mig: ‘Der er ikke nogen, der må have data på mit barn’. O.k., tænker jeg, men hvis jeg ikke må have data om dit barn, så kan jeg ikke have skoleopgaver eller bare den oplysning, at dit barn går i skole.«

Når vi bruger ordet data, mener vi måske noget forskelligt, og mange uenigheder bunder i disse forskellige opfattelser af, hvad data egentlig er, lød synspunktet.

Artiklen fortsætter efter annoncen

»Nu har vi algoritmer, og Danmark har rigtig mange data, og så kommer der nogen og siger: 'Nu skal vi snakke etik, og vi må ikke bruge algoritmer på disse data'. For tænk nu, hvis vi var onde kinesere. Men når vi først har de her data, så skal vi bruge dem til at lave den bedst mulige service til vores borgere. Når jeg går op til lægen og fortæller om mine symptomer, hvorfor skal der så ikke være en datamaskine, der leder efter mønstre og siger: 'De her symptomer svarer til denne sygdom'? Eller hvis man sagde til Skat: 'I må kun bruge en kugleramme'?«

Borgernes data skal bruges

Man kan godt diskutere, hvilke data Skat skal have, og hvilke data skolerne skal have, mente Stephen Alstrup.

»Men vi skal bruge de data, vi har, til at give den bedste service. I etik-debatten er mange ude og sige: 'I må ikke bruge data', men de forklarer mig ikke, hvorfor man ikke må bruge dem. Hvem tager ansvar for alt det, vi ikke gør? De, der siger, vi ikke må gøre noget, tager ikke ansvar for det, vi ikke må,« sagde Stephen Alstrup og kom med følgende eksempel:

»Jeg lavede et system, der kan forudsige med 95 procents nøjagtighed, hvilke studerende der ville droppe ud af gymnasiet de næste tre måneder, så man kan hjælpe dem. Det blev taget ned af etiske årsager. Hvad med alle de elever, der har fået en dårlig oplevelse, fordi de ikke er blevet hjulpet – hvem har taget det etiske ansvar for dem?«

Artiklen fortsætter efter annoncen

Stephen Alstrup savner balance i debatten:

»Det er fint at snakke etik, men skulle vi ikke lige starte med bankerne først? Eller hvad med svampemidlerne, landmændene hælder ned i vores drikkevand? Så bliver jeg bekymret. Bliver jeg bekymret over, at en læge har adgang til at finde ud af, hvilken sygdom jeg lider af? Netflix må godt bruge algoritmer til at finde ud af, hvad mit barn skal se lige nu, men de skal saftsuseme ikke bruge det ovre i skolen,« lød det retoriske argument.

Afgivelse af data er en borgerpligt

Men skal det være et tilbud eller tvang, der fører data ind i et kunstig intelligens-program, ville ordstyrer Kim Stensdal fra Dansk IT vide.

Det spørgsmål kunne vicechef i NNIT Lars Andersen give et bud på:

»Det er en borgerpligt at dele data, for vi er jo ikke individer, der flyver rundt for os selv – vi er en del af samfundet, og derfor har vi også en pligt til at dele vores data, men de skal selvfølgelig beskyttes.«

Bo Rasmussen, som er kommunaldirektør i Gladsaxe Kommune, mener også, at data skal i spil:

»I dag har jeg lyttet til debatterne, og Gladsaxe er blevet kaldt 'Nordkorea,' 'Kina' og ‘ulækker.’ Men det handler om, hvordan vi kan udnytte de data, vi har til rådighed, bedst muligt. Jeg bruger nogle gange begrebet ‘dobbeltetik’ – vi skal beskytte borgernes data, og der skal være gennemsigtighed i det, vi laver. Men der er også en etik, der peger på, at når vi har data og viden om noget, der er ved at gå galt, så skal vi bryde ind.«

Når der er grimme sager i pressen om tvangsfjernelser, får kommunerne at vide: 'Hvorfor gjorde I ikke noget tidligere? I har jo data liggende'.

Artiklen fortsætter efter annoncen

»Vi har set på, hvordan vi kan bruge data, vi har i kommunen, på en måde, som er stærkere end det, vi ellers har gjort. Vi er ikke ved at nedlægge sagsbehandler-stillinger. Tværtimod har vi ansat flere sagsbehandlere til at kigge på mønstre. Det, vi er optagede af, er, om vi tidligere kunne gå ind i disse processer og redde børn fra de familier, hvor det er ved at gå galt.«

Bo Rasmussen understreger, som kommunen også tidligere har meldt ud, at Gladsaxe ikke foretager sig noget med data i øjeblikket.

Men som Version2 tidligere har skrevet, vurderede tre juridiske eksperter, at kommunen overtrådte persondataloven i sit arbejde, der fortsatte i hvert fald 12 måneder efter, at Gladsaxe fik afslag på den frikommuneansøgning, der skulle have lovliggjort projektet.

Masser af upåagtede underretninger

Lars Andersen fra NNIT pegede på, at manglende indsigt i data måske ikke er hovedproblemet:

»Man skal tænke på, at når man vil hjælpe børn, er det så måden at starte på? Jeg har læst, at 40 procent af de underretninger, der kommer fra pædagoger og andre, bliver der ikke reageret på. Vi har massiv overvågning, for hele befolkningen har pligt til at lave underretninger.«

Bo Rasmussen fra Gladsaxe indførte, at det naturligvis ikke handler om at kigge på alle borgere.

»Hvordan finder I så dem, I ikke kender i forvejen?« spurgte ordstyrer Kim Stensdal.

»Vi kigger blandt andet på data fra beskæftigelse og sundhedsvæsenet. Der er mønstre, der pludselig bliver tydelige,« lød svaret, der ikke rigtigt besvarede spørgsmålet.

Professor Thomas Hildebrandt fra Københavns Universitet mener ikke, at algoritmerne er køreklare i dag:

»Vi har en masse viden om, hvilke teknikker man kan tage ned fra hylderne, men vi er stadig i den spæde start i forhold til at finde ud af, hvordan vi kan bruge dem korrekt. Enkelte dygtige forskere kan gøre det, men vi har ikke folk, der kender disse teknikker godt nok.«

Uklar sammenhæng mellem databaser og virkelighed

Nem software kan give en falsk tryghed i sagsbehandlingen, men der er behov for en tænkepause, sagde Thomas Hildebrandt:

»I øjeblikket kan alle være en ‘håndværker’, fordi man kan købe svensknøglen. Man kan købe en AI-maskine, og så kan man gå i gang.«

Han fortsatte:

»Men vi skal lige stoppe op og tænke: 'Hvordan sikrer vi, at de data, der kommer ind, rent faktisk betyder det, de betyder? Jeg har selv kigget på Jobcentrenes data, og det er bestemt ikke klart at finde sammenhængen mellem det, der står i databasen, og det, der sker i virkeligheden. Så længe vi ikke er kommet længere, skal vi passe på.«

Blandt publikum fandtes Birgitte Eiriksson, som er vicedirektør i tænketanken Justitia og tidligere juridisk chefkonsulent i Rigspolitiet. Hun havde følgende kommentar til det juridiske aspekt af debatten:

»Overvejer vi, om vi krænker privatlivets fred? Der er betingelser, der skal være opfyldt, og propertionalitetsbetingelsen bliver svær, ikke kun i Gladsaxe-modellen, men også i mange andre løsninger.«

Denne betingelse er givet i persondatalovgivningen, og den betyder, at dataindsamling skal være minimal og proportional i forhold til formålet.

Kunstig intelligens fungerer ikke super-godt

Konferencens tovholder, Dansk IT’s direktør, Rikke Hvilshøj, var også at finde på publikums stolerækker. Hun spurgte panelet, om der ikke var tale om en glidende overgang til at forsøge at forudsige noget, som den enkelte borger ikke har gjort og måske ikke kommer til at gøre.

Thomas Hildebrandt mente ikke, at det er nyt, at en sagsbehandler for eksempel prøver at forudsige, om en arbejdsløs borger er i risiko for at blive langtidsledig:

»Det nye er, at processen automatiseres.«

En anden tilhører, vicedirektør Flemming Christiansen fra Sundhedsdatastyrelsen, spurgte, om etik-debatten ikke kun gav mening i de enkelte tilfælde:

»Vi kan sagtens samkøre data fra indkøbsboner med sundhedstilstand, men vil vi det? Kan debatten tages generelt?«

Lars Andersen fra NNIT bifaldte det implicitte synspunkt:

»Al denne snik-snak på det høje plan fører kun til, at konflikten eskalerer,« sagde han med henvisning til debattens yderpunkter.

»Vi skal prioritere at undgå fejl og bias i kunstig intelligens-modeller. Vi lader, som om systemer til kunstig intelligens fungerer super-godt. Det gør de jo ikke.«

14 kommentarer.  Hop til debatten
Denne artikel er gratis...

...men det er dyrt at lave god journalistik. Derfor beder vi dig overveje at tegne abonnement på Version2.

Digitaliseringen buldrer derudaf, og it-folkene tegner fremtidens Danmark. Derfor er det vigtigere end nogensinde med et kvalificeret bud på, hvordan it bedst kan være med til at udvikle det danske samfund og erhvervsliv.

Og der har aldrig været mere akut brug for en kritisk vagthund, der råber op, når der tages forkerte it-beslutninger.

Den rolle har Version2 indtaget siden 2006 - og det bliver vi ved med.

Debatten
Log ind eller opret en bruger for at deltage i debatten.
settingsDebatindstillinger
14
21. marts 2019 kl. 22:14

AI er pr definition en stump software som pudsigt nok, er skrevet af et menneske.

Det allerstørste problem med software er fejlprocenten i den menneskelige programmering.

Sålænge mennesker er nødvendige for AI programmering - lige sålænge er AI fuld af fejl.

Er der nogen der har overvejet, at AI kunne (jeg siger ikke at det er) være noget som er skabt af en konsulent, som lige skulle finde en ny måde at gøre tingene 100 gange hurtigere og billigere end den menneskelige hjerne

13
19. marts 2019 kl. 14:30

BS - det er en holdning der kommer frem, lad nu være med at state det som et faktum...

12
19. marts 2019 kl. 12:47

Det går da vist meget godt i folketinget - for der kan da umuligt være tale om ægte intelligens.

Tja, det vil jeg så vælge at opfatte som en smart bemærkning. Men jeg forstår præcist, hvad du mener :-).

Men det minder mig om en af de pointer, som kom frem i debatten på sporet om "Public-Interest Technology" på RSA konferencen: vi har som IT-faglige haft en tendens til at holde politik på arms længde - men vi skal bare være klar over, at politikere vil tage beslutninger uanset om vi har ladet høre fra os eller ej.

Så vi kan prøve at dukke os, og håbe at vi bliver overset ... eller vi kan kaste os ind i debatten, og prøve at kvalificere den med vores viden og indsigt inden at beslutninger bliver taget. For taget bliver de, beslutningerne, uanset om vi har bidraget eller ej.

(Bruce Schneier har haft en stor finger med, og han har en oversigt med links til konferencesporet og debatterne her: https://www.schneier.com/blog/archives/2019/03/videos_and_link.html)

11
19. marts 2019 kl. 12:16

Hr. Alstrup er vist lidt udenfor alfarvej. Hans algoritme til bestemmelse af om gymnasie-elever vil ret beset maksimalt hjælpe med at initiere en indsats med maks 3 måneder, per hans egen forklaring ifald man sætter indsats igang ved tidspunktet hvor personen dropper ud. Han forklarer ikke hvilke data der indgår.

Her må man overveje:

  1. Hvad er de data der anvendes? Heri består hans argumentation af løse usammenhængende argumenter: Han anerkender at der er forskel på persondata, men oplyser ikke hvilke han bruger overfor de involverede. Vær opmærksom på at de fleste med den modstand han så ivrigt stiller stråmænd op på marken for, nærmest vil lade dig installere en chip i nakken, såfremt du spørger inden! Det er voldtægtsanalogien: Er data-anvendelsen konsensuel, er spørgsmålet? Det er hele humlen i modstanden.
  2. Er det overhovedet en god idé at intervenere ved "drop ud"? Her må de fleste samfundsmæssige grunde være positive for at lave en minimalt indgribende opfølgning. Og omend personerne næppe vil holde af det, kan det være fornuftigt med et spørgeskema for at kunne sætte ind! Det er i øvrigt muligt med minimal data-brug!
  3. Er 3 måneders forspring en tilstrækkelig cost-benefit? Idet udmeldingen er et hardstop ifald man anvender intervention, er det kun maksimalt få måneders forvarsel vi taler om og der bliver det så de data der ligger til grund for analysen der må lægges til grund. Hvis man kan få 95% til at færdiggøre uddannelsen ved tidlig intervention, var der mulligvis en samfundsmæssig ret at påtvinge det, men det er vist de færreste der forventer det. Igen: Samtykke bør her være den gyldne standard, ikke samfundspligten til at være forskningsobjekt.
10
19. marts 2019 kl. 12:12

[bayes.cs.ucla.edu/WHY/] Judea Pearl forsøger at få genindført årsag og virkning efter Karl Pearsons ekstreme synspunkter. Judea Pearl UCLA Computer Science Department Cognitive Systems Lab 4532 Boelter Hall

9
19. marts 2019 kl. 12:04

Jeg er ikke sikker på hvad jeg skal mene - om diskussionen .....

Naturligvis er jeg modstander af Østtyske tilstande, hvor borgere blev overvåget og hvor disse data blev brugt mod borgerne.

Men hvad nu i andre samfund præget af terror og vold ? Desværre er der topaktuelle tilfælde i New Zealand og Holland, og før det Frankrig og Belgien. Ville et niveau af overvågning og mulige indgreb ikke være berettiget - for de gode i samfundet. Hvordan trækkes DEN grænse ?

Og så er der lige skoleeleverne og de studerende. Det PINER mig, og her taler vi ikke om overvågning, at ganske mange kommuner har dårlige karaktergennemsnit for deres skoleelever. Selv en blind, døv eller xxxx politiker BURDE kunne læse statistikken og derfor vælge at gribe ind - med forbedret, intensiv, undervisning. Årsagen er irrelevant (samspil, sociale, etniske, ...., årsager).

I artiklen omtales en overvågning, som med 95% statistisk sikkerhed kan udpege elever som vil falde fra. Er det ikke en bjørnetjeneste IKKE at hjælpe disse elever - enten til at holde fast eller måske afgå til et andet liv straks ?

jeg synes diskussionen skal handle om formålet - er det et godt formål ? I Østtyskland var, set med vores øjne, formålet ondt.Andre formål kan være (objektivt) gode. Bør de ikke udnyttes ?

P.S.: Og så er der "dyneløfteriet" aka Gladsaxe-overvågningen ? Hvorfor var den ond ?

7
19. marts 2019 kl. 11:44

Allerede Karl Pearson (ca. 1900) viste, at man KUN kan finde associationer ud fra data. Associationer er IKKE viden. Viden er i bredeste betydning hypoteser om årsag og virkning. Hvad ville der ske, hvis vi handlede sådan eller sådan. Kun viden om årsag og virkning kan forudsige fremtiden, idet en årsag altid sker før en virkning. Tensorflow kan to ting: 1) finde associationer og 2) interpolere i komplekse datasæt. Ingen af delene anviser, hvordan man skal handle for at opnå en ønsket virkning. Betegnelsen "intelligens" er ren markedsføring.

En sidebemærkning: Pearson mente, at årsag/virkning var ren overtro. Filosoffen Bertrand Russell erklærede i 1913, at årsag/virkning også var unødvendig inden for fysik, da alle love er tidssymmetriske. Dette ville imidlertid have givet telegrafisten på Titanic problemer! En antennes udstråling beregnes ud fra den specielle relativitetsteoris retarderede potential, idet man griber ind og sætter det avancerede potential lig nul. Årsag og virkning fremkommer også her ved indgriben.

6
19. marts 2019 kl. 11:32

Så er den ikke længere. Ikke værd at kommentere. Mvh

Og så er begrebet kunstig intelligens ganske enkelt noget ævl. Intelligens kan pr. definition ikke være kunstig.

5
19. marts 2019 kl. 10:16

Det er vel på tide, at der kommer nogle hjemmesider omkring teknikker til at beskytte sine data? Altid betale kontant (bare tanken ryster politikerne, straks hiver de argumenterne frem med misbrug af børn og terror, væk med kontanter). Kæmp imod de kommende biler med massiv overvågning af hastighed og position. Brug VPN, DuckDuckGo og f.eks. Firefox, Brave eller Tor med alle gardiner trukket ned, cookie beskyttelse osv. Mobiltelefoner er svært. Enten IOS eller Android, begge designet med bistand fra NSA. Drop Windows og OSX,- installer f.eks. Debian Linux.

Ikke at jeg foretager mig noget kriminelt eller moralsk forkert, det rager bare ikke andre.

George Orwell roterer i sin grav "Det er fandme for sindssygt, det der".

4
19. marts 2019 kl. 10:10

At afstå sine data til forskning er en gave man kan vælge at give.

Hvis man tager selv, fordi at man kan, så kan der ske flere ting:

  1. tilliden forsvinder
  2. opbakningen forsvinder
  3. man vil føle sig fremmedgjort
  4. den, som data omhandler, ved det måske ikke, og kan ikke korrigere misforståelser
  5. den, som data omhandler, kan eller vil ikke korrigere misforståelser
  6. den, som data omhandler, vil ændre adfærd
  7. den, som data omhandler, vil forsøge at manipulere data for at prøve på at påvirke resultatet (fremstå "pænere" eller "bedre", undgå at blive stigmatiset eller måske for direkte at snyde).

Jeg tror ikke at listen er udtømmende.

Er det virkelige den retning vi vil gå?

2
19. marts 2019 kl. 09:19

Nej, det er ikke en borgerpligt at dele privat data til andre formål end det som de umiddelbart er afgivet til. Lige så lidt som at det er en borgerpligt at lade sin ene nyre fjerne bare fordi man nok kan overleve med den anden.

At afstå sine data til forskning er en gave man kan vælge at give. Bliver data bare taget uden videre, så er det at samligne med tyveri. -Ja, måske faktiske mere lig voldtægt som Anne-Marie kalder det.

Arrogancen og ståmændene driver ned af væggene i Stephen Alstrups udtalelser. Der er tydeligvis brug for at klodser bremserne eftertrykkeligt: At utvetydigt forlange garanti for at data ikke bruges til andet end det som de er indsamlet til. Når man så efter en årrække har kunnet konstatere at der igen er skabt en vis respekt for borgerens integreret og rettigheder, så kan man måske igen overveje om det er forsvarligt at tillade (ved eksplicit samtykke) en begrænset anvendelse til andre formål.

1
19. marts 2019 kl. 07:59

Tak for Version 2 for referatet.

Derudover: Velbekomme! Det er kvalmende læsning.

Endnu engang er det tydeligt, at man i toppen af samfundet betragter denne sag som noget, topembedsmænd og erhvervslivets lobbyister skal afgøre - uden indblanding fra datamalkevæget, der bare skal lægge krop og privatliv til.

"Når vi har disse data, skal vi bruge dem" - siges det. For pokker da! Fatter I ikke, at I ikke skal have disse data - det er jo hele pointen? Nu har I i årevis -på trods af alle protester - bare skovlet data ind, mens I har messet besværgende om, at vi ikke behøver at være bekymrede, I skal nok passe på os. Og nu bruger I så argumentet med, at når vi nu har alle disse data (som I har stjålet), så skal de også bruges? I har manipuleret jer til at indsamle disse enorme datamængder, og nu vil I oven i købet have lov til at udnytte rovet?

Stephen Alstrup:»Det er fint at snakke etik, men skulle vi ikke lige starte med bankerne først? Eller hvad med svampemidlerne, landmændende hælder ned i vores drikkevand?"

Vor herre bevares! Så bankerne kan bruges som undskyldning for at trampe på borgernes rettigheder - for de er endnu værre? Sikke en moral. "Der er nogen, der er værre en os - så vi må godt forsætte med vores forbrydelser". Læs Shoshana Zuboffs "The Age of Surveilance Capitalism" - den handler netop om, hvordan dataherremænd i det skjulte, hjulpet af en naiv lovgivning, som aldrig har forestillet sig denne udvikling, har stjålet retten til privatliv, og gjort data til den nye supervaluta - som efterhånden langt overgår bankerne. Så nej - bankerne er ikke værre end jer, der stjæler vore privatliv. Bankerne er storslemme, men deres forbrydelser kan der rettes op på. Jeres forbrydelser, hvor I gør bogerne til datamalkekvæg og bruger dem til at fodre algoritmerne med, er langt alvorligere, fordi I begår overgreb på folks privatsfære (dvs. voldtægt), der risikerer at føre verden et sted hen, hvorfra der ingen vej er tilbage. Hvor dataherremænd for evigt er herremænd, og datamalkekvæg for evigt er datamalkekvæg - dem af dem, som overhovedet overlever den samfundstransformation i dataherremændenes tjeneste.

Vicechef i NNIT Lars Andersen - dvs. Novos udsendte lobbyist på området - Novo, som har enorme interesser i vore data:"Det er en borgerpligt at dele data, for vi er jo ikke individer, der flyver rundt for os selv – vi er en del af samfundet, og derfor har vi også en pligt til at dele vores data, men de skal selvfølgelig beskyttes."

Nej, det er ikke en borgerpligt!!!!! Det er en borgerpligt at respektere andres ret til privatliv! Privatliv er en rettighed, som indtil for få år siden var en selvfølge - og nu mener I, at I bare med et fingerknips kan afskaffe den ret, fordi I gerne vil have fingre i vore data? Det er fand'me ikke nogens pligt at dele deres privatliv med Novo, og det er forbryderisk tyveri, når de tvinges til det. Overgrebsfolk! Hvem ejer det danske samfund - borgerne eller Novo?

*»Vi kan sagtens samkøre data fra indkøbsboner med sundhedstilstand, men vil vi det? Kan debatten tages generelt?«

Samkøring af indkøbsbonner med sundhedsdata er allerede igang som forsøg. jeg håber,a t de pågældende borgere forstår, hvad de har sagt ja til.

*"Lars Andersen fra NNIT bifaldte det implicitte synspunkt: »Al denne snik-snak på det høje plan fører kun til, at konflikten eskalerer,« sagde han med henvisning til debattens yderpunkter. »Vi skal prioritere at undgå fejl og bias i kunstig intelligens-modeller. Vi lader som om, at systemer til kunstig intelligens fungerer super-godt. Det gør de jo ikke.«

Endnu engang er det tydeligt, at det omtalte "vi" ikke er befolkningen. Det er dataherremændene, Novo, andre erhvervsspidser og deres lakajer, som allerede har besluttet, at befolkningen skal malkes for data og fodres ind i algoritmer - debatten er bare spin for at bilde os datamalkekvæg ind, at vore bekymringer bliver taget alvorligt. Det gør de ikke! Alt vil forsætte frem ad den hovedløse digitaliserings spor, med dataherremænd ved roret, som mødes på fine konferencer med nogle måneders mellemrum og siger nogle tilforladelige ord, alt imens de ikke mener noget af det, der har med regulering og borgerrettigheder at gøre. Med enkelte undtagelser (eks. Justitsia) betragter jeg disse folk som forbrydere mod mine og borgernes rettigheder, for de har stjålet vore privatliv og gjort det til deres egen ejendom, og jeg bliver mere og mere rasende over, at de mener sig berettigede til at tromle videre ad et spor, som undergraver menneskerettigheder, frihed, privatliv og demokrati.

Har vi hørt nogen af disse dataherremænd kommentere på Zuboffs afsløringer af overvågningskapitalismen - som denne konference handler om at beskyttte og udbygge? Hvad er deres svar til hende - og til os andre, ofrene for deres overgreb?

Konferencer som denne er symptomer på den underliggende sygdom - at disse dataherremænd allerede har reduceret os til råstoffer for industrien og magthaverne, og at de beetragter sig som vore herrer, som kan råde over os.

Der er desværre ingen anden måde at bremse disse moralske forbrydere på end ved at slå bremserne helt i. Denne udvikling bliver aldrig etisk med disse folk ved roret. De er dataherremænd og dataslaveejere, og herremænd og slaveejere udnytter deres undersåtter. De vil blæse på dem - det er økonomisk og reel magt, der er deres egentlige mål.