Ansigtstræk afslører kriminelle i neuralt netværk

Et neuralt netværk kan ifølge to forskere fra Shanghai med billedgenkendelse skelne mellem kriminelle og ikke kriminelle borgere. Forskellige ansigtstræk er afslørende.

Ikke lang tid efter opfindelsen af fotografier begyndte kriminologer at bemærke mønstre i de 'mugshots' de tog af kriminelle. Ifølge kriminologerne havde de kriminelle øjensynligt særlige ansigtstræk.

En af de mest indflydelsesrige røster i debatten var en italiensk kriminolog ved navn Cesare Lombroso. Han mente, at kriminelle var tilbagestående og tættere beslægtet med aberne end lovlydige borgere. Det skriver MIT technology.

Italieneren var overbevist om, at han kunne identificere kriminelle ud fra fælles ansigtstræk med aberne såsom et skrånende pande, usædvanligt store ører og forskellige asymmetrier i hovedet eller lange arme.

Han målte mange ting for at bevise sin påstand, men han analyserede aldrig sin data statistisk.

Denne mangel blev hans forsknings endeligt. Lombrosos synspunkter blev miskrediteret af den engelske kriminolog Charles Goring, der gik statisk til værks og derved kunne konkludere, at der ikke var nogen signifikant sammenhæng.

Psykologer startede debatten igen

Herefter blev debatten begravet frem til 2011, hvor en gruppe psykologer fra Cornell University viste, at folk faktisk var ret gode til at skelne kriminelle fra lovlydigere borgere alene ved at se billeder af dem.

Takket være Xiaolin Wu og Xi Zhang, fra Shanghai Jiao Ting University i Kina, får vi nu en forklaring på sammenhængen.

De to studerende har anvendt en række forskellige machine vision-algoritmer, der bruges til billedgenkendelse, til at studere ansigter på kriminelle og lovlydige borgere, for derefter at teste, om det neurale netværk kunne se forskel.

Deres fremgangsmåde er ligetil. De har brugt pasfotos fra 1.856 forskellige kinesiske mænd i alderen 18 år til 55 år uden hår i ansigtet, hvoraf halvdelen var kriminelle.

90 procent af billederne blev brugt til at træne et konventionelt neuralt netværk i at se forskel. Det neurale netværk blev herefter testet på de resterende 10 procent af billederne.

Resultaterne er ifølge MIT foruroligende. Xiaolin og Xi kunne nemlig vise, at det neurale netværk med 89,5 procents nøjagtighed kunne skelne kriminelle fra lovlydige borgere.

»Resultaterne er meget ensartede og beviser gyldigheden vedrørende ansigtstræk og tendensen til kriminalitet på trods af den historiske polemik omkring emnet,« siger de to studerende.

Tre ansigtstræk er afgørende

Xiaolin og Xi fortæller videre, at det neurale netværk bruger tre ansigtstræk til sin klassificering.

Krumningen af overlæben er i gennemsnit 23 procent større ved kriminelle, afstanden mellem de to indre hjørner af øjnene er 6 procent kortere, og vinklen mellem to linjer trukket fra spidsen af næsen til hjørnerne af munden er 20 procent mindre ved kriminelle end ikke kriminelle.

Datasættet er koncentrisk, men data fra kriminelle har langt større varians.

»Med andre ord er der langt flere ligheder blandt ansigtstræk fra lovlydige borgere,« siger de.

Det kan forklare, hvorfor nogle former for statistiske test ikke kan skelne mellem dataene. Xiaolin og Xi viser, at når de kombinerer kriminelle og ikke-kriminelles ansigter for at skabe 'gennemsnitlige' ansigter, så er de næsten identiske.

Selvom resultaterne er kontroversielle, så er de ikke overraskende. Hvis mennesker kan se forskel, som psykologerne viste tilbage i 2011, så er det givet, at maskinen også kan.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Følg forløbet
Kommentarer (29)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Anne-Marie Krogsbøll

.... et samfund, hvor "kriminelle" kan "udpeges" alene på baggrund af deres ansigter - ikke på baggrund af deres gerninger?

Og 89,5 % nøjagtighed? Jeg er ikke imponeret - hvad med de stakler, som fejlagtigt peges ud? Og hvordan skal det overhovedet forstås? Er 89,5 % af de som kriminelle udpegede korrekt udpegede, eller er 89,5 % af de faktisk kriminelle udpeget korrekt?

Hvad er konsekvensen af en sådan forskning? Skal børn udskilles fra barndommen? Hvad skal der så ske med dem?

Jeg håber meget, at andre forskere meget hurtigt gennemhuller denne forskning, for den er uhyggelig.

Daniel Lindholm

Det ville være interessant, men sikkert også meget sværere, at undersøge om det er den kriminelle adfærd der er skyld i forskellene i ansigtstrækkene, eller om mennesker med bestemte (medfødte?) ansigtstræk er mere tilbøjelige til at begå kriminelle handlinger. Og om en person der forlader en kriminel løbebane evt. ændrer ansigtstræk.
Men psykologerne er sikkert allerede i gang...

Tony Anderson

@Anne-Marie Krogsbøll

Jeg tror at du er lidt for hurtig til at mane fanden på væggen..

Der er tale om to studerende der har leget med machine learning, ikke hvordan det fremtidige retssamfund skal udformes..

Personligt tvivler jeg på at deres model virker på den måde du frygter.
- Deres metode kan gætte på om en person er dømt for kriminalitet; ikke om et barn vil blive kriminel.

Det er langt mere sandsynlig at denne 'forskning' kan bruges til at finde interessante personer på de uendelige mange overvågningskamera vi har.
- Måske kan teknologien blandes med noget "Lie to me" magi og bruges til at forudse forskellig opførsel.

Geo Jensen

Orwells sidste brik til vores nuværende samfund er tankepolitiet. Overvågningen er under fuld kontrol, men ikke med vores tanker og handlinger.

Denne artikle lugter langt væk af (endnu engang) af promovering af AI som det nye grafen, eller som den teknologi som med guddommelig blidhed kan belyse/løse alle samfundets problemer. Sandheden er nok nærmest den omvendte, AI er den sidste brik på vores nye totalitare regime til at færdigøre Orwells (politikernes våde) drøm om total kontrol over befolkningen.

Hvordan kan to studerende få adgang til oplysninger om kriminelle og måske mere mærkeligt, oplysninger om personer som ikke er. Iøvrigt hvad er kriteriet for at være kriminel, man kunne undres om Søren Pind er kategoriseret som kriminel eller Hillery som på lige fod med Snowden har lægget fortrolige forræderiske oplysninger.

Vi er hele tiden blevet oplyst om at overvågning vil hjælpe systemet som skal passe på os, såsom med at fange terroister og andet slyngleri, men hvor det nok mest handler om at have kontrol til at skjul korruption på høj plan.

Vores politikkere malker vores skattekroner til at bekæmpe terrorisme og øge (deres) sikkerheden, fremfor at hjælpe folket med bistand, udannelse og fred.

Det store spørgsmål er:

Hvordan ender dette?

Albert E. I. Steen

Disse neurale netværk har fundet de ansigtstræk, som ser skyldige ud, men ikke nødvendigvis er skyldige.

En retsag bygger på beviser+indicier og er ikke en eksakt videnskab - heller ikke i Kina - host, host.

I sidste ende er det dommere og domsmænd, der vurdere om den anklagede er skyldig. De er jo kun mennesker. Det kan jo tænkes, at dommere ubevidst kender mennesker med nogle ansigtstræk mere skyldige end mennesker med andre ansigtstræk - ligegyldigt om vedkomne rent faktiske har begået forbrydelsen eller ej.

Det kunne være sjovt at se om det samme er gældene i andre retssystemer end det kinesiske.

I det åbenlyst racistiske amerikanske retssystem, vil jeg vudere, at et neuralt netværk kan finde "kriminelle" med 95% sikkerhed blot ved hjælp af hudfarven - gæt selv hvilken.

Det eneste disse neurale netværk har afsløreret er menneskelige fordomme, hvilket også er fint.

Henrik Biering Blogger

Det ville være interessant, men sikkert også meget sværere, at undersøge om det er den kriminelle adfærd der er skyld i forskellene i ansigtstrækkene, eller om mennesker med bestemte (medfødte?) ansigtstræk er mere tilbøjelige til at begå kriminelle handlinger.

Ja, det vil være interessant om man helt kan afskaffe kriminalitet gennem ansigtsløftninger. Så skal vi blot have efteruddannet fængselsbetjentene til plastikkirurger :)

Det er straks værre, hvis det omvendte er tilfældet, og de kriminelle helt kan unddrage sig politiets mistanke via selv-foranstaltede ansigtsoperationer :(

Anne-Marie Krogsbøll

Iøvrigt hvad er kriteriet for at være kriminel,


Ja, det har jeg også spekuleret over, Geo Jensen. Er butikstyveri nok? Hvordan med "banditter i habitter"?

Jeg har forsøgt at søge mig frem til selve forskningsartiklen, men har ikke kunnet finde den endnu. Det kunne være relevant at se på, om designet består "Gøtzsche"-testen - dvs. er det overhovedet forskning, der er værd at spilde tid på?

Der er tale om to studerende der har leget med machine learning, ikke hvordan det fremtidige retssamfund skal udformes..


Hvorfor så overhovedet bruge tid på en artikel? Hvad kan denne forskning bruges til, som faktisk er menneskevenlig og samfundsgavnlig?

Anne-Marie Krogsbøll

Tony Anderson:

Det er langt mere sandsynlig at denne 'forskning' kan bruges til at finde interessante personer på de uendelige mange overvågningskamera vi har.
- Måske kan teknologien blandes med noget "Lie to me" magi og bruges til at forudse forskellig opførsel.


I så fald er vi da godt nok netop på vej ud over kanten - jeg kan ikke se, at det du her beskriver, adskiller sig fra det, jeg frygter: At man dømmer folk på udseende i stedet for beviser. Med mindre man altså ophøjer den slags til "beviser".

Tony Anderson

Der er en stor forskel...
Du siger at man dømmer folk på udsende før de har begået kriminalitet.
Jeg siger at værdien i arbejdet måske kunne forbedre overvågning.
- om du er enig i at samfundet skal overvåges eller ej, er noget helt andet.

Hvor i artiklen forslår forskerne at deres arbejde kan træde i stedet for beviser?
- Det eneste arbejdet kan indikere, er om dine træk ligner de features de krimineller i modellen har. Ikke om du har lavet noget kriminelt..
- Hvis du tatovere ROCKER i panden - hvad vil du sige at det beviser?

"Hvorfor så overhovedet bruge tid på en artikel? Hvad kan denne forskning bruges til, som faktisk er menneskevenlig og samfundsgavnlig?"
- Hvorfor kan man ikke bare være nysgerrig?
- Enevidere forslår jeg en anvendelse - brug teknologien på live overvågningskamera.

Anne-Marie Krogsbøll


Og hvad skal man så bruge det til?

Enevidere forslår jeg en anvendelse - brug teknologien på live overvågningskamera.


Hvad mener du? Det er muligt, at det bare er mig, der ikke har set lyset, men hvad vil det gavne at bruge denne teknologis på live overvågningskameraer?

Vil du bryde dig om pludseligt at være mistænkeliggjort, fordi du tilfældigvis har nogle "kriminelle" træk? Eller hvad med dine børn? Hvis man bevæger sig ind på den tankegang, hvorfor så ikke allerede udpege de "muligvis kriminelle" som børn?

Tony Anderson

"Og hvad skal man så bruge det til?"

Det ville kunne bruges til at udpege personer med interessante træk, live på overvågning. Personalet der sidder på vagtcentralerne vil derved have mulighed for at følge interessant streams, frem for kun at vente på en alarm.

Vi bliver allerede logget på alt hvad vi foretager og alt den data bliver scannet for "interessante" individer - ala PRISM.
- Hvad "du bryder dig om" er ganske irrelevant; du bliver logget, analyseret, mistænkeliggjort og udpeget hver dag du bruger noget elektronisk...

Anne-Marie Krogsbøll

Det ville kunne bruges til at udpege personer med interessante træk, live på overvågning. Personalet der sidder på vagtcentralerne vil derved have mulighed for at følge interessant streams, frem for kun at vente på en alarm.


Du beskriver jo netop det, jeg advarer imod, så jeg ved ikke rigtigt, hvorfor du mener, at jeg maler fanden på væggen. Det er jo slet ikke nødvendigt for mig at gøre - det gør du jo ligeså godt som jeg. Du har så bare ikke noget imod det scenarium, åbenbart.

At det er et faktum, at det er der, vi er på vej hen, gør det da så meget desto mere relevant at stille spørgsmålet: "Er det virkeligt et sådant samfund, vi ønsker"? Du har lov til at mene "Ja". Jeg har liv til at mene "Nej". Det er ikke et spørgsmål om logik, men om menneskesyn og samfundssyn.

Vi kan selvfølgelig bare vælge at lukke øjnene og lade udviklingen køre sin skæve gang - så er der slet ingen grund til at diskutere eller stille spørgsmål. Og det er der selvfølgelig heller ikke, hvis man synes, at det er en glimrende udvikling.

Mogens Hansen

Det kan jo tænkes, at dommere ubevidst kender mennesker med nogle ansigtstræk mere skyldige end mennesker med andre ansigtstræk - ligegyldigt om vedkomne rent faktiske har begået forbrydelsen eller ej.


Det kedelige er, at der er en stor sandsynlighed for at vedkommende har begået noget kriminelt.
Fordi det er, hvad mennesker omkring ham ubevidst har forventet af ham lige siden han blev født. Tætsiddende øjne og krum overlæbe. Trange kår i opvæksten. Så mangler vi bare lige at hans forældre døbte ham Brian, så er forventningerne fra samfundet på plads. Og det er meget svært at slippe ud af.
Bagefter kommer computerne så og fortæller os, at Brian har levet helt op til de fordomme vi har påvirket ham med.

Heino Svendsen

Butiksdetektiver og dørmænd / sikkerhedsfolk har gjort det løbende.

De holder øje med folks udseende / udstråling for at udpege interessante emner. Disse emner bliver herefter udsat for yderligere informationsindhentning, som sammen med deres handlingsmønstre afstedkommer en reaktion.

Ingen af systemerne står alene.

Anne-Marie Krogsbøll

Jeg har overset linket i artiklen, men har nu kigget på det. I artiklen i linket er der også link til abstract for forskningsprojektet.
https://arxiv.org/abs/1611.04135

Nu er det alt for længe siden, at jeg lærte om forskningsmetodologi, men som jeg forstår det, er ca. 90 % af de prædikater, som sættes på billederne, korrekte (i følge artiklen). Det vil jo så sige, at ca. 10% udpeges fejlagtigt. Om det så er ikke-kriminelle, der fejlagtigt udpeges som kriminelle, eller omvendt, eller en blanding - det fremgår så vidt jeg kan se ikke. Men det er sådan set også lige meget - for mig at se åbner det for et mareridtssamfund som Huxleys "Fagre nye verden". Desværre kombineret med 1984.

Der er sjovt nok ikke nævnt noget om statistisk signifikans, p-værdier etc. af resultaterne, hvilket gør mig noget betænkelig mht. pålideligheden, for den slags plejer man jo at nævne, hvis man statistisk set har sit på det tørre. .

Det fremgår heller ikke af abstract, hvordan man har valgt de fotograferede ud. Lodtrækning? For ellers kan der allerede være sket en skævvridning af materialet her.

Det fremgår, at halvdelen af billedmaterialet var kriminelle, halvdelen ikke kriminelle. Men dette svarer jo ikke til sammensætningen af ret mange befolkninger - med min rustne forskningsviden kan jeg ikke rigtigt gennemskue, om det kan være en fejlkilde, eller om det netop er den rigtige måde at designe det på?

Ligeledes fremgår det ikke, hvordan man definerer "criminals" - det er vel ellers et begreb, som nok kunne trænge til præcisering? Indbefatter det i Kina f. eks. også evt. systemkritikere? Drengestreger? Skattesnyd? Eller plører man det hele sammen i samme pulje, så folk som Snowden kommer i samme pulje som Charles Manson?

Tony Anderson

Nu er det alt for længe siden, at jeg lærte om forskningsmetodologi, men som jeg forstår det, er ca. 90 % af de prædikater, som sættes på billederne, korrekte (i følge artiklen). Det vil jo så sige, at ca. 10% udpeges fejlagtigt.

Jeg tror ikke at du helt forstår hvordan machine learning classification fungere...

Lad os sig at du har en tekst og et resultat. Fx en tekst der forespørger en gratis pizza og resultatet er om teksten gav pizza.

Du har 1000 requests for gratis pizza. Du træner din algoritme på 90% af den tilgængelige data (både teksten or resultat). Du tester så hvor god din algoritme er på de sidste 10%, men kun hvor du har teksten.
Din algoritme gætter så på om teksten vil resultere i pizza eller ej - når du har gættet sammenligner du med det rigtige resultat.

Hvis 70% af teksterne resultere i pizza og din algoritme gætter rigtig i 70% af tiden, så kunne du lige så godt flippen en mønt. Hvis du er betydelig bedre end gennemsnittet på 70% - så har du en model der kan indikere en statistisk sammenhæng.
Men det kan IKKE bevise noget...

  • BTW så kan jeg opnå gratis pizza i 93% af tiden med min model ,)

"Det fremgår, at halvdelen af billedmaterialet var kriminelle, halvdelen ikke kriminelle. Men dette svarer jo ikke til sammensætningen af ret mange befolkninger"
Fordelingen af resultatet har ingen betydning for hvordan algoritmen virker. Der skal bare være "nok" data i begge kategorier. Fordelingen er dog vigtig når man skal vurdere hvor god sin model er. Altså hvor nulpunktet er - hvorfor 50% giver mening.

"hvordan man definerer "criminals" - det er vel ellers et begreb, som nok kunne trænge til præcisering?"
Yep - hvorfor igen denne model IKKE kan bruges til at bevise noget...

"Det fremgår heller ikke af abstract, hvordan man har valgt de fotograferede ud. Lodtrækning? For ellers kan der allerede være sket en skævvridning af materialet her."

De skriver:
"photos that satisfy the following criteria: Chinese, male, between ages of 18 and 55, no facial hair, no facial scars or other markings"
Dertil vil jeg forvente at de har fjernet de "værste billeder" i hånden, for at opnå det bedste resultat.
Jeg ser ingen grund til at de skulle reducere dataene mere end overstående, - jeg tror at de har brugt alt den data de kunne finde.

"Der er sjovt nok ikke nævnt noget om statistisk signifikans, p-værdier etc. af resultaterne, hvilket gør mig noget betænkelig mht. pålideligheden"
De relevante statistikker bliver analyseret i artiklen; Den specifikke procent sats er ofte ikke det primære i denne type arbejde. Siden der er så meget usikkerhed, er det primære resultat; Kan vores model "se forskel" i det hele taget. Derefter kan man optimere.
=> Men det kan IKKE bevise noget...

Hvis du vil vide mere, så starter "Machine Learning: Classification" på Coursera i dag!
- https://www.coursera.org/learn/ml-classification

Anne-Marie Krogsbøll

Tony:
Tak for svar og forklaring.

Jeg tror ikke at du helt forstår hvordan machine learning classification fungere...


Det kan du sagtens have ret i, men jeg synes ikke dit eksempel er anderledes end det, der i forvejen forklares i artiklen om dette projekt.
Som udgangspunkt er chancen for at ramme rigtigt by chance vel 50 % i artiklens projekt - forudsat at de respektive grupper faktisk repræsenterer det, de skal repræsentere - dvs. at ansigterne i gruppen af "ikke kriminelle" skal være en rimelig repræsentation af ansigter hos "ikke-kriminelle". Det er her jeg kan være i tvivl - som du vist selv nævner det, så kan man jo have sorteret i dette på forhånd.

Hvis 70% af teksterne resultere i pizza og din algoritme gætter rigtig i 70% af tiden, så kunne du lige så godt flippen en mønt.


Ja, så skulle den vel ramme rigtigt i ca. 50% af tilfældene - netop som man i projektet har 50 % chance for at ramme rigtigt ved et tilfælde.

Fordelingen af resultatet har ingen betydning for hvordan algoritmen virker. Der skal bare være "nok" data i begge kategorier.


Ja - men hvis der kun er 10% kriminelle i en given population, så skal der vel være 9 gange så mange ikke-kriminelle for at disse er repræsenteret med samme vægt som de kriminelle? (her er jeg ude på dybt vand - er der andre, der har et bud her?)

Siden der er så meget usikkerhed, er det primære resultat; Kan vores model "se forskel" i det hele taget. Derefter kan man optimere.
=> Men det kan IKKE bevise noget...


Jeg har svært ved at forstå, at det skulle være irrelevant at beskæftige sig med statistisk usikkerhed, p-værdi etc. her. Men: Nu bliver jeg i tvivl om, om vi overhovedet er uenige? Er din pointe også, at denne forskning ikke nødvendigvis er pålidelig (helt fraset, om man kan sympatisere med dens formål eller ej)?

Bjarne Nielsen

Det lyder som om, at man er ved at gentage en række af de klassiske fejl omkring profilering.

En fælde er the base rate fallacy.

En anden er, at vi sådan set ikke ved andet, end at algoritmen har opdaget en samvarians i netop det valgte datasæt - måske har den i virkeligheden "bare" opdaget resultatet af diskrimination.

Men jeg tror gerne, at det, som andre mener om ens udseende kan have stor betydning - og så er ovenstående pludselig medvirkende til at legitimere eller forstærke en uret.

Tony Anderson

Ja - men hvis der kun er 10% kriminelle i en given population, så skal der vel være 9 gange så mange ikke-kriminelle for at disse er repræsenteret med samme vægt som de kriminelle? (her er jeg ude på dybt vand - er der andre, der har et bud her?)

I de kurser få kurser jeg har fulgt i machine learning, så burde overstående ikke være et problem. Fordelingen af data bruges til at træne modellen med - og burde være afkoblet fra "online" fasen.
Så vidt jeg kan se, burde det være en fordel at bruge 50/50, således at der er lige spredning af features i begge grupper.

Fx. hvis du læser 999 tekster der ikke giver en gratis pizza og 1 der gør, der efter skal du gætte på resultatet af 100 tekster med ukendt resultat. - Så kan det blive svært at adskille de to grupper.

Finally():

> Jeg tror at deres arbejde er af rimelig kvalitet. Faktisk kan jeg ikke se noget nyt, men bare en ny måde at bruge 'gamle' kendte algoritmer på.
- Det kunne være interessant, om modellen kan bruges på følelser.

> Hvis der er en real mulighed for at retten vil acceptere statistiske beviser der er 89% sikker, så mener jeg at dit senarie virker troværdig / noget at frygte.
- Men hvis/når menneskeheden bliver så fordummet, er dette arbejde nok ikke det største problem anyways.

> Machine learning er et statistisk værktøj - tror ikke jeg vil kalde det 'upålidelig'; det kommer an på brugen:
- Det er upålidelig som bevismateriale i retten.
- Til at indikere hvilke aktier jeg kan tjene penge på - er big business.

Anne-Marie Krogsbøll

Tak for svar, Tony. Jeg vil ikke påstå, at jeg forstår det - jeg kan have en mistanke om, at det lidt er et spørgsmål om, hvordan man forstår det, der står i artiklen, og at der kan være risiko for misforståelser. F.eks. angivelsen af, at algoritmen gætter rigtigt i ca. 90% af tilfældene. Der har jeg svært ved at forstå, at det skulle være irrelevant at angive en sandsynlighed for, at dette kunne ske ved statistiske tilfældigheder. Det er vel det, man har en p-værdi til?

Det er upålidelig som bevismateriale i retten.


Ja! Men hvad skal man så overhovedet bruge det til? Måske er der forskning, der faktisk gør mere skade end gavn, f.eks. ved at stemple mennesker på måder, som de kan have svært ved at komme fri af, hvorved der måske bliver tale om en selvopfyldende profeti?

Tony Anderson

Ja! Men hvad skal man så overhovedet bruge det til? Måske er der forskning, der faktisk gør mere skade end gavn, f.eks. ved at stemple mennesker på måder, som de kan have svært ved at komme fri af, hvorved der måske bliver tale om en selvopfyldende profeti?

Det skal måske lige gøres klart at modellen kan bruges til "hvad som helst". Den er ikke hardcoded til at finde kriminelle. De har benyttet metoden på billeder af personer og har vist at de kan adskille 'typer' af mennesker - bedre end en mønt.
- Modellen kan nu trænes på andre grupper af mennesker, måske; personer der har cancer, personer der hedder Jens, personer der har depression, personer der kunne tænkes at gøre oprør mod et diktatur.

Næsten alt forskning kan bruges på godt og ondt...

Anne-Marie Krogsbøll


Ja. Men hvorfor har de så lige valgt denne gruppe? Hvis man har det udgangspunkt, som de fleste af os er vokset op med, nemlig at alle mennesker som udgangspunkt er født ligeværdige, og skal have lige muligheder, hvilket for mig at se er en grundpille i vores demokrati, så er der simpelthen ikke nogen god grund til at bedrive forskning, der går ud på at bevise, at kriminalitet ligge i generne - hvis det altså er den konklusion, man drager. Og der er heller ingen grund til at bedrive forskning, der giver problemer i forhold til vore forestillinger om retssikkerhed.

For mig at se udspringer denne forskning af et menneskesyn og et samfundssyn, som er i strid med fundamentale værdier for vores samfundsmodel - derfor kan jeg ikke se noget positivt i den.

Og flere af de andre eksempler du giver på anvendelsen, er for mig at se heller ikke noget at stræbe efter. Jeg har i øvrigt svært ved at se, at dette projekt siger noget om, om man kan forudsige disse ting, hvis forskningsdesignet i sit udgangspunkt er fejlbehæftet, sådan som jeg kunne mistænke (uden helt at kunne gennemskue det ud fra de oplysninger, der er tilgængelige).

Log ind eller Opret konto for at kommentere
Brugerundersøgelse Version2
maximize minimize