Filip Larsen

Offentlige hjemmesider deler følsomme data om danskernes netbrug

Men spørgsmålet er om det ikke er for sent og at de offentlige hjemmesider er så lille en brik i puslespillet, at det ikke gør nogen forskel om man bruger Google eller en egen statistikløsning på en offentlig hjemmeside.

Det er da i høj grad en principiel beslutning, om staten skal dele ud af data om borgernes adfærd eller ej, og den ændres da ikke bare fordi nogle myndigheder uden omtanke har brugt Google Analytics fordi det er gratis og bekvemt.

Jeg synes faktisk det er lidt tyndt, at nogle myndigheder ikke engang er klar over der er et problem med at bruge disse analyseværktøjer. Vi andre er efterhånden ret godt bekendt med, at når en service er gratis på nettet, ja så betaler vi sandsynligvis for brugen via vores data og kan i nogle tilfælde vælge fra, men det kan almindelige brugere jo ikke når de er tvunget til at bruge myndighedernes digitale løsninger.

Jeg kan kun støtte op om Jesper Lunds udmelding om, at det burde være en helt klar selvfølgelighed, at myndighederne ikke lækker data til tredjepart.

21. april 2017 kl. 09:43
Nu kan man tracke dit it-fingeraftryk på tværs af browsere

Da brugersporing via lokal dataopsamling i Javascript i overvejende grad stadig synes at blive hældt ind på diverse sider som reference til et tredjepartsbibliotek så er blokering heldigvis stadig vejen frem for dem der bekymrer sig om deres privatliv. En sådan blokeringen kan gøres med et browser plug-in såsom AdBlock eller via browseren selv som med Ghostery, som jeg selv er skiftet over til at bruge på mobil og tablets.

Når det er sagt så synes det dog ret klart, at det ikke er via en teknisk skyttegravskrig mellem brugere og serviceudbydere at vi grundlæggende set får beskyttet vores ret til privatliv, men via fornuftig og relevant international lovgivning. Selvom det nærmest lyder som et oxymoron så virker det til, at EU har lyst til at bevæge sig i den retning, så man har da lov at håbe på noget godt.

15. februar 2017 kl. 09:51
Hvad bliver det næste vi slukker-tænder for ?

Uden jeg har en pind forstand på det nye signalsystem, så vælger jeg alligevel at tolke genstarten derhen, at vi har endnu et teknisk system der er så komplekst at fagfolk ikke kan fejlfinde og -rette på det men må ty til genstart for at komme tilbage til en kontrolleret tilstand af i hvert fald dele af systemet, hvilket så i dette tilfælde (heldigvis) heller ikke virkede.

Og bare for at gøre det klart, så er det er altså egentlig ikke så meget selve genstarten der undrer mig (jeg ved jo ikke om systemet er designet til dette), men mere udmeldingen om, at man ikke kan finde ud af hvad er er galt og så vælger genstart for at se om det hjælper, hvilket umiddelbart lyder som en beslutning taget af folk uden tilstrækkelig teknisk indsigt.

13. februar 2017 kl. 22:59
Reboot hjalp ikke: Stor hollandsk lufthavn plaget af 'alvorligt computerproblem'

Må man lidt mavesurt have lov til at gætte på, at omsiggribende systemkompleksitet igen er en stærkt medvirkende årsag til at muligheden for fejl, inklusive udnyttelse af eventuelle sikkerhedshuller, ikke bliver forudset og kun langsomt lader sig identificere?

1. februar 2017 kl. 15:52
Oxford-professor: Kunstig intelligens vil udrydde menneskeheden

Bemærk, at den nævnte forskning i Interruptibility [1] ikke som sådan er en rød knap til at stoppe en AI, men en teoretisk model for hvordan en AI kan se bort fra læring i tilfælde af et allerede implementeret (maskinelt) nødstop anvendes. Modellen betyder kort sagt (som jeg har opfattet det), at man i princippet kan indbygge undtagelser fra læring (fx nødstop) som en AI dermed ikke kan inkludere i sin egen optimale strategi, og det kan gøres uden af det går ud over læring i andre tilfælde.

Et eksempel fra artiklen er en AI der, når den frit får lov til at lære hvordan den ikke taber et spil Tetris, kan ende med en strategi hvor den blot pauser spillet uendeligt. Ved at modellere pause-knappen som en afbrydelse der er undtaget fra læring vil AI'en så ikke kunne ende med denne lidt uheldige optimale strategi.

I sammenhæng med debatten i denne tråd så vil jeg mene, at den nævnte forskning blot er en teori til at modellere læring "uden om" et evt. nødstop. Selve nødstoppet er altså stadig noget vi selv på anden vis skal huske at indbygge i vores maskiner og i de AI'er der lærer at betjene dem.

[1] https://intelligence.org/files/Interruptibility.pdf

20. september 2016 kl. 15:09
Oxford-professor: Kunstig intelligens vil udrydde menneskeheden

Det interessante i mine øjne er det potentielt blivende tab af kontrol og muligheder menneskeheden er stillet overfor, spændende fra det enkelte individ, over nationalstaten og op til global plan. Om tabet sker gradvist over årtier eller ganske pludseligt synes mindre interessant selvom et eksplosivt tab af kontrol jo alt andet lige nok er sværere at standse i tide.

Det er også interessant hvilke fysiske mekanismer eller begrænsninger der måtte gøre, at tab af kontrol for en process ikke kan komme på tale. Hvis man som forsker eksperimenterer med selvforstærkende eller autokatalytiske processer så synes at være god skik først at overbevise sig selv og andre om, at man ikke sprænger hele laboratoriet (eller planeten) i luften, og som regel er der også en ganske naturlig og fysisk hård grænse for hvor omfattende en sådan process kan blive. Jeg vil gerne udfordre folk der gider tage dette emne seriøst at bidrage med hvilke sådanne fysiske mekanismer og begrænsninger der kan sikre at vi aldrig vil miste kontrol med AI.

Eksempel: Antag Nordkorea har fået den ide, at de kan overtage verdenen ved at bygge en enorm AI der kan "udmanøvrere" resten af verdenen. Hvilke fysiske mekanismer eller begrænsninger vil helt sikkert forhindre dem i at nå deres mål?

Eksempel: Antag selvkørende biler bliver en succes og at denne teknologi breder sig til stort set alle andre servicefunktioner i samfundet såsom at stille diagnoser og effektuere administrative regler, for ikke at tale om bevæbnet militære fartøjer. Hvilken kontrol og muligheder har det enkelte individ i forhold til i dag? Hvilke fysiske mekanismer eller begrænsninger vil helt sikkert forhindre et individ om 100 år i blot at være en baby der babysittes af autonome, selv-tilpassende og endda selv-udviklende teknologi?

Byd gerne ind.

13. juni 2016 kl. 21:15
Afstemning om retsforbehold kan fordoble fængselsstraf til hackere

»Cyberkriminelle, der angriber min og din netbank, sidder ikke i Danmark mere. De er i Rumænien, Bulgarien, Ukraine og andre steder,« siger Morten Bødskov til DR.

Lidt pudsigt, at Morten Bødskov nævner Ukraine som ikke er et EU-land. Har han planer om at indlemme landet i EU? Hvis ikke, hvorfor nævner han så ikke de cyberkriminelle i fx Rusland? Hvordan mon den gode hr. Bødskov tænkt sig, at en EU-retsakt kan give forhøjet straffe til borgere i fx Rusland og Ukraine?

Og selv hvis den cyberkriminelle bliver anholdt i et af de EU-lande der er med i retssammenarbejdet (som jeg gætter på, at fx Rumænien og Bulgarien er - ret mig gerne hvis dette er forkert) så er han (eller hun) vel underlagt den højere strafferamme alligevel? Det er vel kun hvis den cyberkriminelle bliver anholdt i Danmark at han, som den danske lovgivning er i dag, kan se frem til en "lavere" straf? Og hvis det er et problem at strafferammen i Danmark er for lav for cybekriminalitet (man kan fx forstille sig cyberkriminelle i hele EU beynder at migrere til Danmark for at "slippe billigt") hvad forhindre så folketinget i at sætte strafferammen op så det matcher, fx. EU?

Jeg forstår det ikke, og jeg forstår heller ikke hvordan politikere kan tro på, at jeg vil stole på dem når de i en lind strøm præsentere argumenter der virker helt i skoven.

19. november 2015 kl. 10:14
Kommentar: Vær kritisk over for halleluja om singulariteter og guldrandede algoritmer

Et typisk eksempel er at nævneren i en brøk bliver nul. Et andet er punkter gennem hvilke der ikke går netop een løsningskurve til en differentialligning men uendelig mange.

Med singularitet menes der i denne sammenhæng netop dette - at tilstanden for et modelleret system over tid har en vis sandsynlighed for at udvikle sig til en tilstand hvor modellen ikke længere er gyldig og vi dermed ikke mere kan modellere hvad der vil ske. Og selv hvis tilstanden holder sig indenfor modellens gyldighedsområde, så kan en eksponentiel udvikling af dele af tilstanden betyde, at usikkerheden af den samlede tilstand over tid vokser til størrelser der er sammenlignelige med udfaldsrummet, dvs. man aner ikke hvilken bane systemet rent faktisk ender med at tage. Dette svarer fx helt til de egenskaber et kaotisk system har (uden dog dermed at sige, at en singularitet medfører at systemet generelt er kaotisk).

19. oktober 2015 kl. 16:52
Kommentar: Vær kritisk over for halleluja om singulariteter og guldrandede algoritmer

Vi kan godt blive enige om, at ordet eksplosion ikke er en speciel anvendelig matematisk fagterm, men det forhold, at det "lige pludseligt går stærkt" for en eksponentiel udvikling kan altså godt gives en rimelig matematisk definition hvis man ønsker, også selvom eksponentialfunktionen matematisk set er skalainvariant.

Hvis man fx sammenligner en eksponentiel udvikling med en lineær udvikling, så vil den eksponentielle udviklingen for alle tider kort inden den krydser den lineære udvikling være størrelsesordner mindre, og for alle tider kort efter være størrelsesordener større, end den lineære udvikling. Det er i den betydning man skal opfatte ordet "eksplosion" i forbindelse med en singularitet - at noget på kort tid vokser uhæmmet fra næsten ingenting til ødelæggende størrelser relativt til andre strukturer.

Men uanset hvad, så er jeg ret sikker på, at budskabet fra seriøse singularitetsforskere ikke er at promovere en eller anden alternativ definition af eksponentialfunktionen, men derimod at beskrive realistiske scenarier for hvordan visse teknologier kan accelerere ud af kontrol. Og det er det budskab der er interessant at forholde sig til.

17. oktober 2015 kl. 18:27
Kommentar: Vær kritisk over for halleluja om singulariteter og guldrandede algoritmer

[...] den der singularitetseksplosion, set fra et matematisk synspunkt, er noget sludder og vrøvl

Jeg tror, at der med "eksplosion" henvises til hvad almindelige mennesker vil opfatte som, at noget ændre sig så hurtigt, at det føles "ude af kontrol", hvad enten væksten som sådan opfattes som et gode eller onde, og om kurven i princippet er en logistisk eller begrænset kurve. Der er selvfølgelig grænser for eksponentiel vækst i den fysiske verden, men indtil man rent faktisk kan observere, at væksten ikke længere er eksponentiel så ved man ikke med sikkerhed hvornår det tidligst begynder at flade ud.

Tager man eksempelvis Moores lov, så har grænsen for vækst gentagende gange være proklameret når man har nået grænsen for en eller anden teknologi hvorefter kurven så blot fortsatte eksponentielt via en ny teknologi.

Og lige i disse år synes kurven for global beregningskraft (som tidligere har været meget styret af Moores lov) at vokse ved at skalere ud, dvs. ved, at der regnes mere og mere i parallel, og her synes den næste praktiske grænse kun at være energiforbruget. Tager man fx den nuværende effektivitet på omkring 4,5 MFlops/W så vil man med 20 TW (den globale energiproduktion i 2014) teoretisk kunne danne omkring 100 EFlops (exa-flops) hvilket skulle være rigeligt til at simulere en menneskehjerne. Sammenligner man med hjernens "beregningseffektivitet" på 10 PFlops/W så har vores computere alene på den front teoretisk set stadig plads til 9 størrelsesordener af forbedring, og måske er det nok til at menneskehedens samlede beregningsevne med intens forskning kan forsætte med at vokse eksponentielt de næste mange år endnu. Så muligheden for en "singularitet" synes ikke nem at afvise på forhånd.

16. oktober 2015 kl. 12:04
Hvis vi nu gjorde det rigtigt?

Hvis man synes det er for nemt at svare "nej tak til overvågning" i det opstillede tankeeksperiment, hvad så hvis man nu siger, at det er valgfrit for folk at tilmelde sig og dermed først på det tidspunkt blive overvåget på de forhold tankeeksperimentet oplister, men til gengæld, så kan tilmeldte køre gratis sålænge de betaler deres regninger til det offentlig, mens andre (dvs. ikk-tilmeldte og tilmeldte med ubetalte restancer) skal betale for hver eneste tur ganske som i dag.

Hvad er argumentet så nu for at sige nej tak til systemet som helhed? Tilhængere vil jo blot argumenterer med, at du som nej-siger blot kan undlade at tilmelde dig og dermed vil du være i en uændret situation i forhold til før systemet blev indført. Hvad nu hvis mere end halvdelen af befolkningen ikke har noget i mod at blive overvåget på denne "sikre" måde? Er det en demokratisk flertalsbeslutning?

Og hvis man synes ovenstående er en mærkelig konstruktion at lave, så svarer det vel nogenlunde til den overvågning man allerede i dag indfører når man tilbyder lavere bilforsikring mod at bilen udstyres med en GPS-logger.

20. maj 2015 kl. 22:38
Det ultimative overvågningssamfund

Mit største problem med overvågning er, at det indfører en glidebane i mulighederne for kontrol og misbrug.

Jeg har ikke noget imod, at politiet har til opgave at opdage og sætte ind mod køretøjer der er stjålet eller på anden måde er indblandet i præcist definerede liste af kriminelle forhold. Jeg har til gengæld meget imod, at det sker med en teknologi der næsten uden yderligere praktiske og "politiske" omkostninger kan omstilles til at kontrollere for andre forhold end de oprindelige.

At et kamera fx kun registerer når en nummerplade er på en positivliste er i min optik det samme som overvågning i det omfang, at listen må formodes relativt nemt at kunne ændres til at indholde nummerplader for biler involveret i nye forhold der ikke oprindelig var tale om. Og nemheden i ændringen kan i den forbindelse både være teknisk (hvilket tillige åbner for ulovlig misbrug) eller juridisk/politisk, hvilket gør det alt for fristende for de kære folkevalgte at gå efter det hurtige, men ugennemtænkte, fiks.

Desværre opfattes omstillelighed i tekniske systemer jo normalt som et gode, så her er vi så ude i, at der i så fald bør stilles krav til at sådanne kontrolsystemer netop ikke kan omstilles til andre kontrolopgaver. Jeg gad godt se den offentlige indkøber eller politiker der tør stille det krav.

13. maj 2015 kl. 10:30
NemID - NU bli'r det godt!

I almindelig PKI er decentral validering af udstedte certifikater jo i meget høj grad med til at forhindre, at driftsforstyrrelser hos en CA eller anden central aktør også medfører driftsforstyrrelser for validering, en afkobling man jo totalt mister når man insisterer på en infrastruktur med et centralt nøglecenter.

Nu tror jeg (lidt naivt måske uden at have læst deres materiale) ikke rigtig på, at Digitaliseringsstyrelsen ikke kan være bekendt med, at en enkeltstående (central og ikke-dubleret) aktører i et system selvfølgelig introducerer enkeltpunktsfejl for de aktiviteter aktøren deltager i, så hvor er det så de går forkert? Forsøger de på klassisk vis at redde ønsket om en central aktør med krav til urealistisk høj oppetid, eller hur?

21. april 2015 kl. 11:44
Hvordan vinder vi kampen for privatliv?

I stedet for at henvise til historiske forhold som familien og andre folk alligevel ikke kan huske, eller som de bare ikke mener er relevante for dem, så kunne man måske i stedet lave nogle fremtidsvisioner om hvad der kan ske hvis ikke retten til privatliv bliver vægtet højere i fremtiden. For eksempel historier der viser hvordan man med samkørt overvågning og dataindsamling kan fortælle ting om onkel Hans eller moster Gerda som de vil ellers vil opfatte som et følsomt emne. Måske noget om deres alkohol og indkøbsvaner, sygdomsforløb, eller spisevaner som de vil finde respektløst eller formynderisk at hel- og halv-offentlige instanser såsom såsom fx forsikringsselskaber, skat og kommunerne automatisk opsamler og videregiver til andre instanser.

Eller historier om hvor lidt der skal gå galt i den overvågning folk åbenbart er ligeglade med før det blive overvågning de bestemt ikke vil have. Skift fra demokrati til diktatur har været nævnt et par gange, men opfattes nok ikke som sandsynlig for de fleste. Måske hellere noget med nogle kriminelle elementer, eller endda terrorister, der stjæler data og forvandler onkels digitale liv til et mareridt. Lidt som de historier om identitetstyveri vi desværre allerede hører alt for tit, men bare kørt lidt længere ud i konsekvens.

9. april 2015 kl. 13:39
Glem dommedagsprofetierne om kunstig intelligens

En computer er bare en elektronisk udgave af tandhjul og vægtstænger,- det har intet med intelligens at gøre.

Det er lidt det samme som at sige, at da du jo bare er sammensat af "døde" atomer så kan du som menneske ikke være "levende".

Indenfor komplekse systemer taler man om et fænomen vi kalder fremkomst (min oversættelse af det engelske emergence) der kort betyder, at når mindre komplekse systemer sammensættes til mere komplekse systemer så kan der fremkomme nye fænomener man ikke kan genfinde i de enkelte undersystem, men som i stedet er baseret på et samspil mellem dem. Dette er bl.a. sådan vi opfatter liv, som en fremkommet egenskab ved de stoffer og energistrømme vi er sammensat af.

Hvis vi definerer mennesket som intelligent, så er det åbenlyst, at der dermed findes mindst et fysisk realiserbart system (nemlig mennesket) der udviser intelligens og det mest naturligt er at antage, at den menneskelige intelligens er en fremkommet egenskab baseret på de strukturer den menneskelige hjerne og krop indeholder.

Dermed har vi også sagt, at det i princippet er muligt at realisere et intelligent system, også selvom vi (endnu) ikke kender den præcise opskrift, og det synes også sandsynligt, at der måske er mange forskellige måder hvorpå intelligens som fænomen kan fremkomme når vi konstruerer mere og mere komplekse systemer der forsøger at genskabe intelligens.

Kobler man sådanne tiltag med andre tiltag der løbende kan optimere processer fx ved hjælp af genetiske algoritmer er der ikke langt til at man kan lave en "lukke sløjfe" hvor systemerne mere eller mindre automatisk kan forbedre sig selv. Bemærk, at det i princippet er underordnet, om de systemer vi taler om er lokaliserede eller globale. Lige i disse år er der fx meget forskning indenfor big data hvor processerne sker ikke-lokalt i skyen.

Så kan man indvende, at hvis et sådant selv-forbedrende system bliver et problem, så kan vi da bare slukke for strømmen. Måske vil det være muligt, men det kan ikke på forhånd afvises, at hvis udviklingen sker tilpas langsomt over tid vil menneskeheden, som den har gjort med så mange andre teknologier, i stedet tilpasse sig og "omfavne" en sådan teknologi så det i praksis bliver umuligt at slukke for noget da samfundet dermed helt eller delvist vil kollapse. Hvis man ikke føler sig overbevist om dette er et realistisk scenarie, så tænk over hvor svært det allerede nu vil være at undvære fx computere.

Samlet set er pointen altså, at selvom vi idag ikke lige ved hvordan vi skal lave et intelligent og selv-forbedrende system, så kan vi heller ikke se nogen grund til at ikke skulle kunne lade sig gøre, og at det endog vil være ret oplagt at det sker før eller siden. Og på den baggrund synes at være ganske passende at mane til forsigtighed.

15. februar 2015 kl. 12:48
Glem dommedagsprofetierne om kunstig intelligens

Sjovt hvordan nogle på en gang afviser en singularitet som realistisk mulighed og samtidig begejstret beskrive opfindelser og tiltag der åbenlyst fører lige i mod den. Menneskeheden er generelt notorisk dårlig til at styre uden om problemer i god tid og skal ofte et pænt stykke ned i afgrunden før vi ændre kurs, også selvom det ikke mangler på advarslerne.

Nu vi i stor stil allerede er i gang med at omfavne teknologi der potentielt muligører en singularitet så er det vel passende at vi tager advarsler alvorligt og ikke blot tror blindt på, at det aldrig vil ske når nu stort set alle grundelementerne er til stedet. Man genkender her lidt barnets naive ytringer om, at det bestemt ikke vil slå sig når forælderen maner til forsigtig omgang med hammeren.

13. februar 2015 kl. 11:26
Justitsministeren vil genindføre overvågning af danskernes internetbrug

Nu hvor flere og flere websites og tjenester skifter til at køre med HTTPS eller TLS som standard, hvor meget fornuft er der så i at logge indholdet af pakker? Hvis forslagsstillerene mener det stadig giver god mening, er det mon så fordi de ved, at det (næsten) ikke er et problem med krypteret indhold hvis man bare har de rigtige venner?

8. januar 2015 kl. 15:11
Mobilsurf: Danske teleselskaber sender dit telefonnummer til hjemmesider

Man burde kunne slippe for det ved at forbinde via HTTPS, hvis ellers det pågældende website understøtter det, hvilket de sandelig burde hvis der er tale om "website med betaling" eller hvad TDC nu kalder det.

Det er klart, at dette kræver en handlig fra brugeren, enten ved at man skriver https i stedet for http i sin URL eller bogmærke, eller, hvis browseren supporter det og man aldrig har brug for http til det pågældende website, ved at man indsætter addressen som en HSTS vært.

30. oktober 2014 kl. 10:00
Hvert tredje job går til software eller robotter i 2025

En interessant præsentation af problemet:https://www.youtube.com/watch?v=7Pq-S557XQU

I det omfang automatisering i disse scenarier overflødiggører beskæftigelsesmuligheden for flere og flere mennesker skulle man tro, at den reducerede købekraft i samfundet vil have betydning udbredelsen af mere automatisering. Jeg mener, automatisering er jo primært drevet af ønske om øget konkurrenceevne hvilket vel kun giver mening hvis kundegrundlaget er til stede.

Og hvad er det lige samfundet som helhed sparer, hvis op mod halvdelen af den nuværende arbejdestyrke ikke er i stand til at forsørge sig selv?

8. oktober 2014 kl. 17:11