Samme sted 60 år senere...

Som alle hardwarefolk ved er det lidt svært at sætte fingeren på præcis hvornår ny hardware virker.

I aften fejrer vi fra datamuseum.dk sammen med Teknisk Museum at det er 60 år siden at danmarks første computer blev officielt indviet, men i virkeligheden havde den allerede virket et stykke tid på det tidspunkt.

Forskellige nyhedsmedier er ude med historier i den anledning, men jeg synes egentlig ikke nogen af dem rigtig kommer i nærheden af substansen.

Det virkelige 60 års perspektiv er i mine øjne at vi er nået til enden af hardware udviklingen: Der er ingen der har skyggen af ide om hvordan vi kan bygge en hurtigere "centralenhed" nu.

State-of-the-art i halvlederproduktion er så fuldstændig hjernevridende at man ikke fatter det og nogle af de ting de gør lyder som overtrædelse af indtil flere naturlove, men citronen er presset, vi er helt oppe imod hvad materialerne kan presses til, Moores Lov er definitivt død.

Der er stadig arkitektoniske ting der kan forbedres, f.eks den meget snævre flaskehals mellem RAM og CPU, men hverken RAM eller CPU bliver i sig selv væsentligt hurtigere end de er idag.

I den situation er det klart at "kvantecomputere" og den slags tiltrækker opmærksomhed, men vent ikke oppe, for det lader til at alle overser alle de kvantefysiske fodnoter, f.eks at kvantecomputere per definition regner ligegodt frem og tilbage og derfor bliver exponentielt sværere at få i mål jo større de bliver.

Fremtiden kommer derfor ikke til at handle om hardware, men om software og ikke mindst fornuftig skrevet software, for den der med at "Skidt med performance, når vi releaser er computerne dobbelt så hurtige" duer ikke fremadrettet og mange gamle ideer, både gode og dårlige, fra dengang DASK var ung, vil blive støvet af når problemet viser sig at kræve flere ugers køretid.

60 år er lang tid i et menneskeliv og mange af de unge mennesker der dengang kastede sig ud i og over en helt ny ting er allerede ikke længe blandt os.

Vi har meget begrænsede resourcer i datamuseum.dk og derfor er mit "fødselsdagsønske" på DASKs og foreningens vegne, at hvis du en bedstefar eller bedstemor der havde noget med DASK at gøre, så køb en kage og brug en eftermiddag på at interviewe dem om det og send os en kopi af videoen.

Ligeledes vil vi naturligvis med kyshånd tage imod alle gamle noter, fotos, film, hulstrimler, udskrifter der har noget med DASK og databehandling at gøre.

På forhånd tak,

phk

Kommentarer (9)
Torben Larsen

Efterfølgeren til DASK hed GIER og blev grundlaget for Regnecentralen A/S. Hvornår har den jubilæum?
Arbejdede iøvrigt selv lidt med GIER i 1972, da den var pensioneret. Efterfølgeren kom vist nok til at hedde RC5000 og blev konstrueret sidst i 60’erne.

Hans Nielsen

"Moores Lov er definitivt død"

Hvis du taler om den helt korte lov, antal Transistor på på en plade.

Så måske snart, men ikke nu og ikke i morgen.
Vi er jo ikke kommet til 7 og 10 nm noget som både vil give flere transistorer, og højere hastighed, samt mindre forbrug.

Men hvis loven bare holder 10-20 år til, så vil det giver frygteligt meget mere computer kraft.

På den lidt breder bane og definition, så tror jeg så langt fra !

Hvad med PRIS, altså hvad koster din dims om 5 år ?

Hvad med nye teknologer, som jeg ikke kan nævne :-) ?

Hvad med parallel programmering ?
Det kræver bare at vi bliver bedre til bruge det, i software. Så kan chip vokse i. højde , side og alt muligt andet, Og der er vel per definition ikke nogen begrænsninger. Som eksempel en GPU, eller din hjerne.

Så jeg mener du ser lidt forpessimistisk på udviklingen, tænk på hvad der "bare" kræves for at udvikle en fuldt førerløs bil. Som skal forstå sine omgivelser.
Det kræver rigtigt meget billigt computer kraft, på lidt plads med meget lidt forbrug. Samt en helt del programmering.

Hvor er din fantasi ? Er du blevet lidt for gammel, som alle os andre :-)

Jan Heisterberg

Han opfordrer til lidt historie-skrivning (optagelse, helt nøjagtigt).
desuden påpeger han det, efter min opfattelse, helt valide punkt, at det handler menneske-maskin-grænsefladen - hvordan er grænsefladen indrettet før, nu og i fremtiden ?

Hvor mange af os har ikke svaret velrenomerede, velmenende, spørgeskemaer, hvor der bare mangler endnu en valgmulighed - fordi designeren måske mangler fantasi, eller der ikke findes en AI-checker, som afsøger løsningsrummet.
Eller forgæves ledt efter en oplysning eller en rubrik på en hjemmeside ?
- een af mine yndlingsfobier er de hjemmesider, som tror min henvendelse kan rummes i en 50x50 mm boks uden mulighed for typografi eller vedhæftede filer (både ing.dk og version2.dk er relevante eksempler). Jen vil, naturligvis, kunne bruge min sædvanlige e-mail-klient.
Eksemplerne er mange.

Men det der menneske-maskin-grænseflade er et bredt begreb, som er vidtfavnende. Det skal være muligt for både "Maren-i-kæret" og "professor emeritus", og alle ingeniør-kværulanterne (mig) at benytte "systemerne".

P.S.: Lige lidt i GIER-sporet: det er sådan set også historisk relevant, for vores børnebørn, med de ændringer som teknologien har medført.
- nogle af os er startet med Erlangs logaritmer, vokset gennem regnestok, tekniske bordkalkulatorer og PCer hvor regnearket uden sammenligning er den største velsignelse og den største svøbe. Og nu hvor specialiserede programmer kan tegne,regne og printe til hjertets begær. Forklar lige det til et barnebarn i gymnasiet ....
Og såden er der alle de andre velsignelser, som tekstbehandling og Google-opslag. Mon de unge tror på det ?

Torben Mogensen Blogger

Årsagen til, at computere ikke er blevet mærkbart hurtigere i de sidste par år er ikke enden på Moores lov. Den har endnu et par år tilbage, men den holder selvfølgelig ikke evigt.

Det virkelige problem er, at Dennard Scaling ikke længere holder -- og det har den ikke gjort i ti år nu. Dennard Scaling var en tommelfinderregel om, at strømforbruget for CMOS elektronik var proportionalt med arealet af den aktive del af chippen (forudsat at spænding og frekvens er fast), sådan at en skrumpning af transistorer også medførte, at man kunne have flere aktive transistorer for samme strømforbrug. Men det kan man ikke mere, blandt andet fordi leakage ikke bliver mindre ved mindre transistorer. Det betyder, at hver kvadratmillimeter CMOS bruger mere strøm og udvikler mere varme, hvis spænding og frekvens holdes konstant, når transistorer skrumper. Og specielt varmeforbruget er et problem, fordi det kan være svært at holde transistorerne kolde nok.

De seneste skrumpninger af transistorer har faktisk medført et fald i frekvens og spænding (de følges typisk ad, fordi større frekvens kræver større spænding), men til gengæld flere aktive transistorer i form af multikerne CPUer, grafikprocessorer, osv. Men prisen er, at enkeltkerne CPUer faktisk bliver langsommere. Det forsøger man at modvirke med spekulativ udførsel (branch prediction, out-of-order execution, osv), som hjælper en del, men som også øger antallet af aktive transistorer, så det er lidt af en blindgyde, selv om man ser bort fra de sikkerhedsmæssige problemer, som det medfører (Spectre og Meltdown).

Så vi må acceptere, at fremtiden ikke er bedre performance af sekventiel kode, men at performance kræver parallelisering til et meget stort antal relativt langsomme regneenheder, der ikke forsøger sig på spekulativ udførsel.

Der er dog muligheder for hurtigere elektronik ved at gå bort fra CMOS. Der laves stadig eksperimenter med superledende elektronik, og nanomagneter kan også fungere som gates med meget lavt strømforbrug, så alt er ikke tabt. Men der går nok nogle årtier endnu.

Ligesom PHK tror jeg ikke på kvantecomputere som løsningen. De kan måske få anvendelse til meget specialiserede formål, men de vil ikke kunne bruges til generelle beregninger. Det skyldes ikke, at de er reversible (det kan vi sagtens leve med), men at det kun er ret specielle beregninger, som en kvantecomputer kan gøre hurtigere end en klassisk computer. Interessen for kvantecomputere skyldes primært, at disse specielle beregninger omfatter primtalsfaktorisering og diskrete logaritmer for elliptiske kurver, hvilket gør det muligt at bryde de kendte metoder til public-key kryptering. Men selv det kræver kvantecomputere med mange qubits, og det er ikke sikkert, at det er fysisk er muligt at lave kvantecomputere med mange qubits, som også kan udføre mange operationer, inden kvantetilstanden kollapser.

Michael Deichmann

Skal man forstå Jesper Lillesøes bidrag således at der findes en kørende GIER?
DASK er splittet ad og findes jo kun i det samme eksemplar - men GIER blev der lavet flere af. dels har de vist en i Datamuseet og Bornholms Tekniske Samling har en vist rimelig komplet der stammer fra Andelsslagteriet på øen. De har også en hel del tilbehør og en masse papirstrimler med data og programmer mm.

Log ind eller Opret konto for at kommentere