Peter Hansen

Forskermaskine: Persondata kan udtrækkes lokalt – »men forskerne vil ikke«

Jamen, de har du jo netop selv begrundet, hvorfor det i artiklen beskrevne ikke er godt nok.

Det er godt nok, i det der er mulighed for at kryptere data i systemet. Jeg var af den opfattelse at det var selve udtræksmulighederne generelt du opponerede imod, altså at forskere kan sidde og trække krypteret data ud fra privaten. At det er muligheden for at trække rådata ud, det er jeg enig i. Det skal krypteres automatisk, og hvis man skal lave råudtræk skal det foregå på anden måde. Så jeg beklager misforståelsen.

Selvfølgelig skal data krypteres når man laver udtræk, og det er i alles interesse - inklusiv forskerne.

9. juli 2019 kl. 13:35
Forskermaskine: Persondata kan udtrækkes lokalt – »men forskerne vil ikke«

Overflødiggør to-faktor-login, at selve det anvendte netværk/wifi skal være sikkert?

Nej.

Hvad så, når data så ligger lunt og godt på din private computer - er den tilstrækkeligt sikret?

Det skal den være og data skal være kryptreret.

9. juli 2019 kl. 13:17
Forskermaskine: Persondata kan udtrækkes lokalt – »men forskerne vil ikke«

Kan I forklare, hvorfor interview-offeret overhovedet har behov for at forsikre, at forskerne skam ikke ønsker at hente data ud? Det er vel irrelevant ift. spørgsmål om datasikkerhed? Hvis de ikke ønsker det, hvorfor er muligheden der så overhovedet?

Forskerne ønsker at trække data ud, de ønsker bare ikke at stå med ukrypteret rådata i hånden.

Og gør det nogen forskel, om data hentes ud i sommerhuset, eller om de bare tilgås?

Det er mere besværligt at hente data ud i sommerhuset, så umiddelbart er det faktisk mere sikkert i sommerhuset end på arbejdspladsen. Desuden er sommerhuset et tænkt eksempel som journalisten kommer med og formålet er sikkert, at give hele historien en kant af lyssky forretninger. Man kan næsten se for sig, hvordan kinesiske bagmænd sidder og får overleveret persondata i et mørkt sommerhus i vestjylland. Det er selvfølgelig min tolkning.

9. juli 2019 kl. 12:46
Forskermaskine: Persondata kan udtrækkes lokalt – »men forskerne vil ikke«

Men hvorfor overhovedet tillade dette? Er det ikke en risikofaktor? Og som det nævnes, kan forskerne godt trække data ud personhenførbart - man går bare ud fra, at de ikke gør det.

Det er en sikkerhedsrisiko som man har taget højde for, netop ved to-faktor loging og logning af aktivitet.

I sidste ende ville det være overordentlig dumt at logge på et system igennem to-faktor login og efterfølgende udtrække data som er logget, for så at snyde og bedrage med de rå data.

9. juli 2019 kl. 12:35
Forskermaskine: Persondata kan udtrækkes lokalt – »men forskerne vil ikke«

De burde derfor kunne indse det selvmodsigende i på engang at hævde at sikkerheden er god, og samtidig fortælle, at data kan tilgås i sommerhuset, og at:

Men det er jo netop ikke selvmodsigende. Man kan sagtens argumentere for at sikkerheden er god, når du præsenteres for to-faktor login og iøvrigt logning af alle udtræk. Det havde været en anden sag, hvis systemet stod pivåbent.

Men jeg er da glad for at man stadig kan overholde lovgivningen i dette land uden, at blive kritiseret for det...

9. juli 2019 kl. 11:51
Forskermaskine: Persondata kan udtrækkes lokalt – »men forskerne vil ikke«

Jeg kritiserer lovgivningen, og de personer, som påstår, at denne er tilstrækkelig - også når det er forskere, som påstår det. Jeg peger på det spin, der ligger i at påsytå, at vore data er sikre, for det har intet med lovgivningen at gøre, når denne er utilstrækkelig.

Hold dig til at kritisere lovgivningen og den lovgivende magt, ikke helt almindelige mennesker som stoler på loven og ellers overholder denne. Det går måske an på et bodega, men det bliver aldrig mere end bodegaargumentation.

9. juli 2019 kl. 11:29
Forskermaskine: Persondata kan udtrækkes lokalt – »men forskerne vil ikke«

Og i mine øjne er det ikke et argument, at/hvis de overholder lovgivningen - for den er på forskernes side, og set fra et privatlivssynspunkt helt utilstrækkelig.</p>
<p>

Her hopper kæden altså af. Selvfølgelig er det da et argument, at man overholder gældende lovgivning, hvis du er uenig i denne så skal du kritisere vælgerne og politikerne, ikke forskerne. Du er jo den første som skriger op hvis man IKKE overholder lovgivningen - så argumentet virker begge veje.

9. juli 2019 kl. 10:54
Forskermaskine: Persondata kan udtrækkes lokalt – »men forskerne vil ikke«

Som jeg læser dette, siger man: Ja, der kan snydes, men det kunne forskere aldrig finde på at gøre....

Først og fremmest; Man kan ikke sikre sig 100% mod synd eller, mod at andre udefra kompromitterer et system. Er det et argument for dårlig datasikkerhed? Nej naturligvis ikke, men her er jo intet der tyder på at man ikke har sikret systemet godt nok jft. lovgivningens krav. Sådan forstår jeg i hvert fald ikke arktiklen.

Men ja, du har helt ret i at der blot skal én rådden eller uforsigtig forsker til. Det kan der ikke ændres på uanset, hvor mange sikkerhedsforanstaltninger der stilles i vejen.

9. juli 2019 kl. 10:23
Forskermaskine: Persondata kan udtrækkes lokalt – »men forskerne vil ikke«

Jeg læser nu ikke af artiklen at forskere hverken er bedre mennesker eller, at de af den grund ikke skal tænke på datasikkerhed. Tværtimod.

9. juli 2019 kl. 09:27
Forskermaskine: Persondata kan udtrækkes lokalt – »men forskerne vil ikke«

Jeg tror blodsukkeret trænger til lidt morgenmad ;-)

9. juli 2019 kl. 08:38
Overvågningskameraer med ansigtsgenkendelse skal afsløre dømte Brøndbyfans

Ikke ligefrem nogen god start. Mon ikke Datatilsynet skulle tage en kammeratlig samtale om betingelserne for den godkendelse?

Enig. Jeg synes Datatilsynet skal have ros for, at lave en meget konkret anvisning og betingelser i deres tilladelse.

13. juni 2019 kl. 16:10
Overvågningskameraer med ansigtsgenkendelse skal afsløre dømte Brøndbyfans

Desuden vil al data, der bliver indsamlet med de nye kameraer, blive lagret i op til 30 dage efter gældende lovgivning.

Datatilsynet skriver i sin tilladelse at,

Personoplysninger, der behandles som led i ansigtsgenkendelsessystemet, der ikke resulterer i et match med oplysninger fra Brøndby IF’s interne karantæneliste, må ikke lagres.</p>
<p>Personoplysninger, der behandles som led i ansigtsgenkendelsessystemet, der resulterer i et match med oplysninger fra Brøndby IF’s interne karantæneliste, skal slettes umiddelbart efter enhver kamp på Brøndby Stadion

Hvordan harmonere det med, at Brøndby IF oplyser at det lagres i 30 dage? måske overser jeg noget.

13. juni 2019 kl. 13:23
DIKU-professor afviser problemer med dataetikken i algoritme til at opdage købte opgaver

Fra artiklen:
"Ghostwriters siamesiske netværk er trænet på 130.000 opgaver fra 10.000 forskellige gymnasieelever. Træningssættet er stillet til rådighed af virksomheden Macom, som leverer platformen Lectio til de danske gymnasier."

Det gik vist lidt hurtigt med at læse artiklen - det beklager jeg, jeg troede du henviste til den sidste del af artiklen. Men hvorfra kommer din mistanke om, at man giver Macom ejerskab over data via kontrakter?

11. juni 2019 kl. 08:31
Professor får millionbevilling til udvikling af nye algoritmer

For mig lyder det så som om, det vil blive meget let at udvikle nye algoritmer, som - koblet med adgang til enorme mængder opsamlede persondata - vil kunne bruges til formål, som giver en enorm magtkoncentration til ejerne/bagmændene af disse algoritmer.

Netop - det er det du gerne vil læse ud fra artiklen, selvom der ikke er noget i artiklen som leder andre i den retning. Alllerede før du læste artiklen var konklusionen klar.

Her er tale om avanceret matematik på et niveau, hvor kun meget få kan forstå det. Vi taler bevillig til et årelangt forskningprojekt, hvor algoritme ikke engang er teoretiseret endnu. Jeg har stor respekt for din kritiske tilgang, men her skyder du altså viden siden af skiven.

3. april 2019 kl. 16:15
Professor får millionbevilling til udvikling af nye algoritmer

Jeg kan forstå på de mange thumbs down uden argumenter, at en betydelig gruppe simpelthen ikke mener, at den digitale udvikling rager befolkningen som helhed.

Det kan også være et tegn på, at man ikke kan smide "masseovervågning" og "private data" ind i enhver tech diskussion. Jeg undrer mig meget over, at du overhovedet kan koble artiklens indhold sammen med masseovervågning af befolkningen og adgangen til følsomme data?

3. april 2019 kl. 15:18
Sådan kommer Horsens’ bedrageri-algoritme til at se ud

Nu siger det jo ikke forfærdelig meget, at netop du kan lugte en skjult dagsorden.

27. februar 2019 kl. 08:40
Gladsaxe taler ud om dataovervågning: Vi vil gerne lave en ‘black box’

Hvorfor er det så så hemmeligt? Og hvad mener man med "Vore dataanalytikere"? Hvem er de? Er det kommunens egne folk?

Det er med stor sandsynlighed kommunens egne folk, de fleste kommuner har analytikere ansat. Det er moderne organisationer som naturligvis skal have de kompetencer in house.

25. februar 2019 kl. 15:40
Gladsaxe taler ud om dataovervågning: Vi vil gerne lave en ‘black box’

AI og store mængder borgerdata - er et kæmpeprojekt, som kræver økonomi og ekspertviden.

Almindelige kommuner kan sagtens investere i AI software. Det lyder vildt avanceret og "high tech", men.. man skal nok stille et lille kritisk spørgsmålstegn ved "AI" begrebet, da alt i dag bliver kaldt AI. AI kan i teorien frelse eller besætte samfundet, alt efter hvem man spørger - men i praksis er det vildt overvurderet.

25. februar 2019 kl. 08:39
Kommuner: Vi har ikke brug for mere digital overvågning af borgerne

Der er et stort flertal af fornuftige folk i "systemet".

21. februar 2019 kl. 12:57