"Fem computere i verden er fire for meget"

Computerkraften flytter fra vores pc og ind i gigantiske computerkraftværker. Vi står allerede med det ene ben i fremtiden, siger it-journalist og forfatter.

I februar 2005 køber et mystisk firma, Design LLC, i al stilfærdighed 12 hektar land lidt uden for The Dalles, en lillebitte søvnig by midt i det nordlige Oregons orangestøvede bjerglandskab.

Hen over året skyder to store lagerhaller op. Der er ingen vinduer, og oven på bygningerne rejser sig fire køletårne.

Senere viser det sig, at det i virkeligheden er online-giganten Google, der har bygget de to lagerhaller, som nu rummer et af verdens kraftigste og mest sofistikerede datacentre, et computerkraftværk med hundredtusindvis af servere, som leverer computerkraft til millioner af kunder verden over.

Google har siden bygget mange centre magen til i flere lande. Hvert center koster omkring en halv mil­liard dollar, hvilket burde understrege, at konceptet ikke er en fiks idé. Det er fremtiden.

Computerkraft bliver en forsyning på linje med elektricitet, siger den amerikanske journalist og forfatter Nicholas Carr, som i januar udgav bogen "The Big Switch" om fænomenet, som kaldes utility computing.

Nu, hvor næsten alle internetbrugere har bredbånd, kører det meste af vores software ikke længere fra vores computers harddisk men på store servere i datacentre som f.eks. The Dalles, siger han.

»Her i USA har især de unge allerede taget skridtet. De bruger Facebook, de opbevarer deres fotos på Flickr, bruger Wikipedia og webbaseret e-mail - men det sjove er jo, at de overhovedet ikke har bemærket skiftet.«

Én computer til hele verden

Hvis IBM's grundlægger Thomas J. Watson nogensinde skulle have sagt de berømte ord om, at verden maksimalt ville få brug for fem computere, så ramte han forbi med fire, mener Nicholas Carr.

»Vi er på vej mod en World Wide Computer. Nu kan vi pludselig tappe nærmest ubegrænset computerkraft, om det så er med en laptop eller en mobiltelefon. Bare noget så simpelt som en googlesøgning kræver jo enorm computerkraft,« siger han over telefonen fra New York.

Når computerkraft sammenlignes med elektricitet er det helt overlagt. I sin bog spoler Carr tilbage til de gyldne dage i 1882, hvor Thomas Edison stolt slog kontakten til på verdens første elkraftværk og fik lyspærene på Manhattan til at gløde. Her revolutionerede han begrebet "kraft".

For førhen havde industrien fået deres energi fra hver sin dampmaskine. Derfor skulle de også have en hob af teknikere til at holde styr på kedler, drivbånd og aksler, og det var fabrikken med det bedste kraftværk, der klarede sig bedst. Men med Edisons kraftværk kunne de pludselig hive kraften ud af et stik i væggen, dampmaskinerne tøffede i de følgende år ud på skrotpladsen, og nu kunne virksomhederne koncentrere sig om forretningen: at få produceret et godt produkt.

På samme måde vil utility computing være en omvæltning for virksomhederne, siger Nicholas Carr.

Vi kan jo i dag smile af, at fabrikkerne hver havde deres eget kraftværk. Vil vi også engang grine af måden, vi bruger computerkraft i dag?

»Ja, det tror jeg. Om det handler om en dampmaskine eller et it-system, så er man jo i dag tvunget til at bygge systemet, så det kan håndtere en spidsbelastning. Det betyder, at systemet til daglig kun udnytter måske 20 pct. af sin kapacitet. Tænk: 80 pct. af virksomhedernes servere står ubrugte hen. Det er jo et enormt spild! I datacentrene er udnyttelsen af hardwaren oppe på 70 eller 80 pct.«

Amazon udnytter virtualisering

Der er så online-boghandlen og alt-mulig-butikken Amazon en mulighed. Hvert år i dagene op til den amerikanske shopping-højtid Thanksgiving kører deres servere på fuld damp, og førhen betød det, at kun 10 pct. af kapaciteten blev udnyttet resten af året.

Men så besluttede Amazon at leje sin computerkraft ud ved hjælp af virtualisering, hvor de med ren software kan oprette enkelte virtuelle computere, som kunderne kan leje for 10 cents i timen.

»Amazon kan oprette en virtuel maskine - eller tusinder af virtuelle maskiner - på et øjeblik og lukke dem ned igen efter behov. Så kan kunden oprette et website, en internetbutik eller et datalager, alt sammen uden at investere i en eneste server. Det er billigt for kunden og en meget effektiv måde at bruge hardwaren på,« siger Nick Carr, som slår fast at virtualisering bliver en uundværlig komponent i fremtidens computerkraftværker.

Gennem det sidste år har små virksomheder for 50 dollar om året kunnet bruge Google Apps, en komplet online office-pakke med serverplads og det hele. Nu har Microsoft - hvis livsgrundlag ellers har været at levere softwarepakker til alverdens virksomheders og forbrugeres "dampmaskiner" - for to uger siden fremlagt planer om at levere e-mail-services gennem online datacentre. Senere vil Office-pakken følge efter.

Men kan vi være sikre på altid at have adgang til vores programmer og dokumenter?

»Folks data ligger mere sikkert i et datacenter end på deres egen computer. Folk er jo forfærdeligt dårlige til at tage backup. Og med hensyn til adgangen til internettet, så vil forsyningssikkerheden blive bedre og bedre - lige som at du er vant til, at der er strøm så godt som alle steder i dag.«

Desuden, påpeger han, udvikler f.eks. Google hele tiden bedre og bedre caching-teknologier, så du kan arbejde videre med dine online-dokumenter, selv om du er offline.

Offentliggøres af søgemønstre

Men utility computing rummer en helt anden fare.

Sun Microsystems tidligere administrerende direktør Scott McNealy sagde allerede i 1999, "Du har intet privatliv. Se at komme over det", og når nu al information snart samles i databaser, er World Wide Computer nærmest skræddersyet til at virksomheder og regeringer kan overvåge os, siger Nick Carr.

I 2006 offentliggjorde internet-operatøren America Online en række logs over 657.000 kunders søgninger over en tremåneders periode - og de havde sørget for at alle personlige informationer var blevet anonymiseret og erstattet med numre.

F.eks. kunne man se, at brugeren bag nummer 4417749 havde søgt på ord som "singledans i Atlanta", "skolegrej til irakiske børn" og "hund, som tisser på alting". Alligevel tog det kun et par timer for to journalister fra New York Times at finde frem til Thelma Arnold, en 62-årig enke i Georgia. Hun var nummer 4417749 og chokeret over logningen.

»Allerede nu efterlader vi os jo et spor af informationer, også temmelig intime ting, for eksempel i vores googlesøgninger. Men folk er ikke klar over, at hver eneste af deres indtastninger bliver gemt i årevis og analyseret på kryds og tværs. I fremtiden bliver kontrollen med information mere og mere centraliseret hos regeringer og store virksomheder. Det er et meget skræmmende fænomen, for når man kan trække tråde mellem de store databaser, så kan man med sofistikeret datamining skabe et billede af hvem du er, hvad dine motivationer er, dit politiske ståsted, hvor mange penge du har.«

Er der noget at gøre ved det?

»Altså.. Man kan jo gemme sig bag proxyservere, men, nej... jeg tror ikke, at der er noget at gøre. Jeg frygter - og jeg er ikke glad for at sige det - at folk er blevet trænet til velvilligt at bytte privatliv for gratis software og "personlige søgemaskiner", som kender dine præferencer. Jeg kan være i tvivl om omkostningerne ved World Wide Computer er for store - for det er kun de store firmaer, som høster fordelene.«

Googles kraftværker

  • Det anslås at Google allerede har omkring 25 datacentre i verden og er i gang med at bygge seks nye.
  • Hvert center har titusindvis, måske hundredtusindvis af servere, som arbejder sammen i grupper kaldet clusters.
  • Hver cluster består af flere hundrede servere, som arbejder parallelt. Hver opgave deles op i småbidder, som fordeles og bearbejdes samtidig, så f.eks. en googlesøgning kan gøres på kun 0,3 sekunder.
  • Google bygger selv serverne af indkøbte komponenter. Hver server har egen processor og egen harddisk og kører på en skræddersyet udgave af styresystemet Linux.
  • Serverne sidder ikke i kabinetter men er sat op i lange rækker med velcro. Går en server i stykker, ledes trafikken blot udenom, indtil serveren rives af velcroen, og en ny sættes op.

Kilde: Nicholas Carr

Nicholas Carr
Nicholas Carr er tidligere chefredaktøår for Harvard Business Review, har skrevet for New york Times, Financial Times og Wrid. Han udgav i 2004 bogen "Does IT Matter?"

"The Big Switch" - 278 sider, 199 kroner + forsendelse. Kan købes på Saxo.com

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (24)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Jørgen Henningsen

Den IT journalist burde lave lidt research.

Et centralt kæmpecluster kan da løse visse opgaver, men det er jo altsammen et spørgsmål båndbredde. Meget af regnekraften og dermed effektforbruget i en moderne PC fyres af på grafikkortet. Det kan man ikke erstatte med noget eksternt beregningsmaskineri, fordi det ville blive håbløst langsomt hvis de datamængder, som skovles ind og ud af et grafikkort skulle overføres gennem nettet.

  • 0
  • 0
#2 Daniel Møller

Jørgen: Nu handler det jo om serverapplikationer og ikke outsourcing af Call of Duty rendering :)

Det der med én computer skal ikke forståes sådan helt bogstaveligt ;)

Jeg kan sagtens se det valide i flere af hans argumenter, vi har selv 20% problematikken i vores setups, da det er nødvendigt at have højt til loftet i peak perioderne. Og vi skal alligevel til at vænne os til at skrive vores software så det kan afvikles på mange kerner (vi ryger formentlig op omkring 256+ kerner på en enkelt CPU indenfor 5 år) - software der er skrevet til at udnytte et sådant antal kerner vil ofte være meget distribuer- og skalerbare af natur og derfor er det scenarie der her tales om ikke fuldstændig vanvittigt :)

  • 0
  • 0
#4 Mikkel Høgh

Det er selvfølgelig en god historie at Amazon lejer sin ekstra serverkraft ud, fordi de ikke har brug for den langt det meste af tiden, men hvis det er tilfældet, hvad gør de så lige op til jul?

Bliver alle kunder der bruger EC2 bare lige lukket ned et par uger fordi deres applikationer er "mindre vigtige".

Nej vel.

Det er helt rigtigt at man kan opnå en bedre forbrugsfordeling af hardware ved at bruge datacentre, men den mest markante effekt som kunne opnåes ved at vi havde al computerkraft centralt, så at vi kunne bruge den serverkraft som amerikanerne ikke bruger mens de sover, opnåes ikke grundet den med internettet forbundne latency.

  • 0
  • 0
#5 Jan Flodin

Jørgen - du skal tænke "ud af boksen" og glemme din traditionelle opfattelse af en PC. En PC i fremtiden (faktisk allerede i dag) er langt tættere på en mobil telefon end den gamle stationære personlige computer. Det er i det lys du skal se Carr's udmelding. Du har en eller anden enhed til at klare dit "grafikkort-arbejde" i et præsenttaionslag. Alt andet sker andre steder. Applikationen trækker ressourcer et sted og datalagringen sker et andet sted - alt i en dejlig virtualiseret verden. Så jeg er ikke et øjeblik i tvivl om at Carr har ret - og som ham finder jeg også at vi på denne måde allesammen er i fuldt løb på vej hen mod et styret overvågningssamfund. Men den debat er på så højt et filosofisk niveau, at der ikke rigtig er nogen, der har taget den op herhjemme. Men måske kommer det perspektiv med i det nye IT sikkerhedsråd

  • 0
  • 0
#6 Mikkel Høgh

Ja, klart. Bare fordi han er et stort navn er alt hvad der udgår af hans mund naturligvis den højeste sandhed.

Man har jo aldrig hørt om store personligheder inden for IT der tog fejl... host

  • 0
  • 0
#7 Henning Jensen

Jørgen - du har fat i noget der, de fleste office programmer bruger mest regnekraft på præsentationen. Det bliver så overtaget af browseren. Der skal jo ikke meget regnekraft til selve editor funktionen. f.eks ed/notepad.exe

Med hensyn til data og backup/restore er det en anden sag.

  • 0
  • 0
#8 Jan Flodin

Eftersom Nicolas Carr er forfatter til bogen "IT doesn't matter" tror jeg ikke, at han anser sig selv som et stort navn inden for IT.

Hvorvidt store navne kan tage fejl er et interessant perspektiv. Personligt tror jeg ikke, at de rigtig store tager fejl, men jeg skal gerne indrømme at der findes opreklamerede navne, som ofte tager fejl.

Det svære er, at man i nuet selv skal vurdere om en "ekspert" er et stort navn eller blot opreklameret.

Jeg tror Carr er stor - det gør du tilsyneladende ikke. Hvem der har ret må vi vente 5 år på at se.

  • 0
  • 0
#9 Jan Keller Catalan

Ja, klart. Bare fordi han er et stort navn er alt hvad der udgår af hans mund naturligvis den højeste sandhed.

Ikke nødvendigvis min pointe - men den "husstandslogik" som Jørgen lægger ud med (ikke ment som en fornærmelse, men Jørgen tager et noget andet udgangspunkt end Nicholas Carr) nok vil være med i Carr's overvejelser og måske Jørgen lige skulle tænke over det i et minut længere istedet for straks og skråsikkert at udtale, at det ikke holder.

That's all. Jeg glæder mig til at se, om Carr får ret - han plejer at være god til at tænke utraditionelt.

  • 0
  • 0
#10 Bjørn Carlsen

Udviklingen af centrale datacenter er fremtiden, men det kræver at forbindelsen og net infrastrukturen følger med.

Virksomheder med en ”hurtig” (20/1) kobber forbindelse får ikke meget nytte af at kunne hente data hurtigt og stabilt ned (hvis en kobberforbindelse kan kaldes stabil), hvis de ikke kan uploade data. Upload bliver derfor præcis lige så kritisk. Samtidig er det også vigtigt at bredbåndsudbyderne har en direkte forbindelse til datacentrerne.

  • 0
  • 0
#11 Kenneth Kastbjerg Clausen

Jeg arbejder selv en del med datacenter opbygning og outsourcing af ydelser fra disse systemer og det han beskriver synes jeg relater direkte ind i mit arbejde. Vi køre selv virtualisering og cluster systemer og kan via overvågning og planlægning styre ressourcerne i detaljer for vores kunder – ja de slipper simpelthen for at have omkostninger og besvær med eget IT og personale til samme. Og sammenkoblingen af flere og større centre vil kun udnytte ressourcerne bedre – både de IT relaterede og de miljømæssige (strøm, køling osv). Det er bare et spørgsmål om tid inden alle organisationer indser de laver fx møbler og ikke driver et datacenter.

Teknologisk ikke noget problem – Der er så meget båndbredde og fiber i jorden, at alle danskere (virksomheder og private) kunne nøjes med en lille dum terminal. Så hvis man vil spille World of Worcraft eller bruge andre tunge grafiske programmer, kommer der nok en løsning på det. Det er markedskræfterne og økonomien der bestemmer og ikke teknikken.

  • 0
  • 0
#12 Mikkel Høgh

Vi har set det før i IT-branchen. Det man troede var helt fantastisk og den måde alle ville gøre det på i fremtiden viser sig pludselig at være helt forkert.

Fra mainframes og tynde klienter til kæmpestore desktop-maskiner og tilbage igen.

Folk må selvfølgelig selv finde ud af hvad de vil tro, men der er også fordele ved at have sine data liggende lokalt frem for ude i skyen. Primært latency. Der går nok ret længe før internettet er oppe på at kunne levere en forbindelse med samme båndbredde, hurtighed og stabilitet som det S-ATA-kabel der sidder i min harddisk.

Så efter at alle har haft deres data i "skyen" et par år bliver det sikkert det "nye" at have dem liggende lokalt.

  • 0
  • 0
#13 Kenneth Kastbjerg Clausen

Mikkel har selfølgelig ret - frem og tilbage er oftest lige langt. Igen - jeg er af den faste overbevisning at det bliver markedskræfterne der bestemmer og ikke teknologien.

Lad os se hvor stor held bla. Microsoft får med deres nye online Office udgave.

  • 0
  • 0
#14 Lars Hansen

"Primært latency. Der går nok ret længe før internettet er oppe på at kunne levere en forbindelse med samme båndbredde, hurtighed og stabilitet som det S-ATA-kabel der sidder i min harddisk."

Det er rigtigt at der bestemt er ulemper ved at anvende "skyen" som platform. Latency er et problem ved nogle typer af applikationer. Tab af kontrol er en anden ulempe (som jeg synes er langt vigtigere).

Men som mega-trend er jeg ikke i tvivl om at "computing" bevæger sig væk fra serverrum/lokale computere og mod skyen. Dertil er ressourcespildet simpelthen alt for stort ved at drive IT lokalt. Infrastrukturen vil også løbende blive bedre og gøre det fordelagtigt at flytte gradvist mere krævende applikationer på nettet. Udviklingen henimod "Software as a Service" vil ske i meget forskellig tempi afhængig af applikationernes karakteristika. Krav til kontrol, tilpasningsbehov og performancekrav er blandt disse karakteristika.

Men at en ressource bevæger sig fra at blive produceret inhouse til at blive flyttet ud til "providers" er der ikke noget nyt i. Det er en helt naturlig udvikling som selv IT kommer til at bøje sig for.

  • 0
  • 0
#15 Patrick Timm

Det undrer mig at alle argumenter går på teknikken og ikke sikkerheden. Teknikken skal såmænd nok overvinde de problemer, der måtte være, men vil sikkerheden nogensinde kunne sikres? Hvis fx al kommunikation til en applikation (i skyen) skal krypteres - ender vi så ikke med at spilde en masse af den energi vi lige har sparet ved at skulle (de)kryptere 4 gange pr. request?

  • 0
  • 0
#16 Jørgen Henningsen

Kenneth skrev: Det er markedskræfterne og økonomien der bestemmer og ikke teknikken.

Det kan du have ret i, men det forholder sig stadig således at de nuværende rammer for markedet og økomomien er fastlagt af teknologien. Hvis udviklingen kræver en fiber til alle, så skal der først lige graves en hulens masse fiber ned i jorden og det bliver dyrt og tidskrævende. Alternativt skal man eftersørge bedre trådløse løsninger. Det tager også en årrække før det er en realitet.

Der er en anden ting som stikker en kæp i hjulet og det er spørgsmålet om forsyningssikkerhed. Hvis din terminal bliver værdiløs fordi den mister netforbindelsen, så har den lange udsigter her på stedet og mange andre steder i verden. Vi oplever ret ofte nedbrud i netforbindelsen. På det punkt er infrastrukturen simpelthen ikke god nok.

  • 0
  • 0
#17 Henrik Knopper

Naturligvis vil det ikke ske. Jo, for privatpersoner uden privatliv, men for virksomhederne bliver datasikkerhed og fortrolighed en overlevelsesparameter i en globaliseret verden, så chancen for at f.eks. Franske corporate data bliver lagt på Google's serverparks er vist ikke så stor.

Der er vel også et par ting der taler imod:

1) Privacy

2) Hardware bliver billigere og billigere, så det koster ikke så meget at have overskydende computerkraft stående i kælderen.

3) Appliance-bokse kan fjerne en stor del af behovet for in-house teknikere

4) Al snak om uudnyttede ressourcer i serverne lyder totalt bagvendt for mig. Det svarer lidt til at sige at det er en uudnyttet ressource at jeg kun kører 110 km/t i min bil på motorvejen når nu bilen kan køre 195 km/t. Det vi mangler er at Chip-producenterne bliver bedre til at afpasse ydelse og forbrug på deres produkter, så en computer der kører i tomgang - også en server - kun bruger 2% af max power.

Den udvikling tror jeg vi snart hører mere til og den tror jeg vil tage en del en del af luften ud af outsourcing og virtualiseringshysteriet.

  • 0
  • 0
#18 Jan Flodin

Du nævner virksomhederne og krav til datasikkerhed. Må jeg i den anledning stille et provokerende spørgsmål: Hvor er den store forskel på om A/S XXX har sine corporate data lagret på et system hos f.eks. CSC i forhold til Google? Mig bekendt er der allerede i dag virksomheder, der har lagret sine data på systemer i fremmede lande (f.eks. Danmark, hvis man er norsk CSC kunde) Så på corporate niveau har vi med outsourcing taget et skridt mod den store sky. Og ja, hardware bokse bliver billigere, men driften af dem er altså stadig en pæn omkostning. Så i min optik er det ikke blot et spørgsmål om at spare power selv om grøn IT er blevet et nyt modeord på linie med cutsourcing og virtualisering

  • 0
  • 0
#20 Thomas Hansen

Jørgen eller andre der måske ved det.

På hvilken måde er datamængden der overføres til/fra grafikkort processor o.lign. vigtigt? Er det ikke var et spørgsmål om at de data et grafikkort sender ud bliver fyret afsted til en skærm? Jeg som bruger er vel ligeglad med om beregninger udføres hos mig eller et andet sted, bare skærm, mus og tastatur reagere hurtigt.

  • 0
  • 0
#21 Brian Aagesen

Teoretisk lyder det meget godt, men EN computer, det kan bare ikke lade sig gøre før man kan sende signaler der bevæger sig hurtigere end lyset(også selv om de kunne blive transmitteret tværs igennem jorden), og hvorfor så, jo fordig at svartiderne vil være for lange for de fleste.

I kan selv afprøve:

Tag et webkamera eller brug noget skype ligne. Prøv så at kommunikere, længere og længere væk fra Danmark, og i vil se hvor hurtigt svartiden faktisk øges.

  • 0
  • 0
#23 Jørgen Henningsen

Alle som har prøvet at lave kontoropgaver ved at det er kun ganske få ændringer som sker på billedet. Derfor laver grafikprocessoren faktisk ikke ret meget sådan til dagligt kontor brug. Det fleste kontorpc'er da også ret overdimensioneret.

Introducere vi billedbehandling, så indeholder en skærm 1024x768x4 = 3MB. Det lyder heller ikke af ret meget og man vil kun sende et nyt billed når brugeren faktisk ændre noget.

Hvis vi så sætter billedet på en tredimensionel brugerflade som f.eks. compiz's spinning cube, så skal billedet løbende renderes og de 3MB skal opdateres løbende. Der vil nettet simpelthen komme til kort.

Man skal også være opmærksom på at selvom man måske kan spare regnekraft og dermed energi lokalt, så koster det inversteringer og energi at holde det nødvendige bredbåndsnet kørende.

  • 0
  • 0
#24 Bjørn Carlsen

Mht Google tror jeg det er vigtigt at man tager "fru Hansen" brillerne af.... Det kan godt være at Franske corporate data ikke vil lægge deres data på Google servere. Men det er et faktum af Svensk politi allerede har gjort det. Det samme gælder for virksomheder som GM samt flere Amerikanske statsenheder. Det kan du sikkert google dig frem til...

Men hvis du bevæger dig ind bag laget af Google vil du opdage en del entreprise produkter (ikke fru Hansen produkter), som selv Franske corporate data vil efterspørger en dag.

  • 0
  • 0
Log ind eller Opret konto for at kommentere