Internettet kan blive din uendeligt store harddisk

EMC World: Flere firmaer tilbyder allerede backup-lagerplads på internettet, men i fremtiden kan det blive dit primære lager.

**LAS VEGAS: **Gmail, Flickr, .Mac og mange andre internetbaserede tjenester tilbyder at lagre dine data, men endnu har vi kun kradset lidt i overfladen af, hvad der er muligt, hvis vi vælger at flytte vores data fra vores personlige apparater og ud på internettet.

Storagefirmaet EMC's udviklingsafdeling har skabt flere prototyper på tjenester, som vender det traditionelle billede på hovedet. I stedet for at bruge lagerplads på internettet som backup, bruges den lagerplads i stedet som det primære lager.

Et af projekterne, døbt 'Futon', er baseret på EMC's storageenhed til private hjem, som fungerer som bindeled mellem de apparater, brugeren benytter til at skabe data, og lagerpladsen på internettet.

Brugeren overfører for eksempel sine digitale fotos til storageenheden, som automatisk sender dem til Futon-tjenesten på internettet.

»På den måde kommer din storageenhed, din mobiltelefon og andre internetenheder til at fungere som et cachelager, mens du reelt har ubegrænset lagerplads på internettet,« forklarer Robin Ren fra EMC's udviklingsafdeling til Version2.

Det gør det også muligt at kombinere dine data med metainformation fra andre brugeres data. For eksempel kan GPS-information i dine digitalfotos sammenlignes via Futon med andre brugeres fotos, der er taget i samme område på samme tid.

Så hvis man eksempelvis har været til en koncert, kan Futon finde billeder fra andre koncertgæster og knytte deres tags automatisk til dine billeder. Det kunne især være interessant til brug i sociale netværkstjenester, som allerede i en vis udstrækning gør brug af noget lignende.

»Hvis vi lagrer data for millioner af brugere, så kan vi give dig en merværdi ved automatisk at sætte dine data ind i en større sammenhæng,« siger Robin Ren.

Forskellen på modellen i Futon og de eksisterende tjenester er, at internetlageret er det primære lager. Når du skal bruge en fil, henter du den til den enhed, der skal bruge den.

I den tidlige prototype, der blot skal demonstrere konceptet, kan de digitale fotos for eksempel redigeres i en applikation lokalt på en pc. Applikationen har en indbygget funktion, som automatisk sender det redigerede billede retur til internetlageret.

Den væsentligste udfordring for at få denne model til at fungere i praksis er ifølge Robin Ren, at den lokale storage skal udnyttes til at optimere brugeroplevelsen.

Hvis man eksempelvis har sin filmsamling liggende på det internetbaserede lager, så er det ikke optimalt, hvis man skal være afhængig af en konstant internetforbindelse til streaming. Derfor skal den lokale storage fungere som cache, der kan lagre lige præcis de data, som du skal have adgang til.

Futon er ikke det eneste projekt, der eksperimenterer med lagring på internettet. EMC's udviklingsafdeling har også udviklet en tidlig prototype på et USB-flashdrev, som benytter internettet til at beskytte mod datatab.

Ligesom flere andre flashdrev kan indholdet krypteres for at beskytte dataene, hvis drevet bliver stjålet. I sådan en situation står drevets ejer imidlertid stadig og mangler de data, der lå på drevet.

Derfor har EMC udviklet et koncept, hvor dataene både krypteres automatisk og kopieres til en sikker backup på internettet.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (5)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Rasmus Schultz

Det er rent ud sagt en halvtosset tankegang.

For det første - internettet er ikke hurtigt nok. Og jeg snakker ikke om folk's personlige forbindelser derhjemme, eller forbindelserne på arbejdspladserne, (der helt sikker slet ikke er parat til trafik i den størrelsesorden), men om selve internettet - udbydernes backbones, satelit-forbindelser fra land til land osv, er ikke i nærheden af hurtige nok til at alle brugernes personlige data kan hentes og sendes, hver eneste gang en bruger tager adgang til dem.

For det andet - hvem stoler du nok på, til at lade dem håndtere alle dine personlige dokumenter? Microsoft? Google? Yahoo? Personligt ville jeg aldrig drømme om at lægge nogen former for følsomme oplysninger hos nogen af disse. Virksomheder af den størrelsesorden, der har råd til at implementere tjenester af denne type, ville med garanti have skumle bagtanker med den slags ydelser.

Og for det tredie - på en internet-server er dine personlige dokumenter et mål for hacking og datatyveri, 24 timer i døgnet. Dine data er ganske enkelt sikrere, hvis du fysisk bærer dem rundt på dig, eller hvis din maskine er slukket når du ikke bruger den.

Efter min mening er der alt for mange åbenlyse sikkerhedsspørsmål forbundet med internet-lagring.

Selv bruger jeg tjenester som f.eks. GMail og Google Docs til hverdag - men kun til ufølsomme dagligdags ting. Jeg ville aldrig drømme om at lade min harddisk erstatte af disse eller lignende tjenester...

  • 0
  • 0
Stephen Wilson

Mon ikke at alt bliver "serversidet" og dermed er alle data gemt online.

Hvorfor "hoppe" rundt med data på sig, når man alligevel ikke gider tage backup eller "bøvle" med at installere og opdatere programmer?

Med den gamle "bankmetode", om at alt skal være centralt placeret, vil det helt sikkert vinde mere og mere terræn. Bruger vi webmail?

Med egen selvvedligeholdende hjemmeserver vil dette også give de sidste tvivlere den tro og sikkerhed de påstår at mangle, for at placere der data online.

  • 0
  • 0
Peter Valdemar Mørch

Jeg er helt enig med Rasmus Schultz i at jeg heller ikke ville stole på noget firma med mine data. Jeg ville nu fint gøre det hvis de er krypterede.

Det er noget som http://wua.la egentlig har gjort på en fed måde (check it out - desværre stadig i alpha). Nu venter jeg bare på at der kommer noget lignende i en opensource udgave.

Min drøm er at vi alle er med til at lave en sky af data i peer2peer facon. Enten ved at alle deler med alle (også mennesker man ikke kender), eller at f.eks. alle maskiner i et enkelt firma arbejder sammen om at skabe et redundant lager, som kan tåle at f.eks. 10% af alle maskinerne fejler. Så der ikke er én central filserver, men at alle deltager med resourcer til denne distribuerede "filserver".

Og at jeg kan have adgang til de samme filer derhjemme, på arbejde, på laptoppen osv, også når de er offline, uden selv at skulle tage stilling til replikering og backup, for det gøres "automatisk".

Nå, men det var jo som sagt min drøm.

Wuala når et rigtig godt stykke af vejen. Er gratis, men er ikke opensource. :-D Jeg ville nok ikke i længden stole på en løsning hvor jeg ikke selv har mulighed for at genneskue hvad der egentlig sker.

Peter

  • 0
  • 0
Jens Madsen

I fremtiden, når computernes addressearkitektur udvides til 128 bit og 256 bit, så vil såvel internettet, som din harddisk, med stor sandsynlighed memorymappes. Det betyder, at hvis du ønsker adgang til en fil, på din harddisk, så beder du operativsystemet om en pointer til den pågældende fil. Operativsystemet gør, at MMU'en vil hente data fra den pågældende fil, når ram addresse området, der er associeret til den bruges. Laver du ikke opslag i ram, hentes ingen data fra filen. Hentes noget fra filen, og gemmes igen, er det ligeså hurtigt som ram. Din computers ram, fungerer automatisk som cache.

Ikke kun harddisk, kan assoiceres med ram addresser - også internet kan memorymappes.

Computerens struktur, bliver reelt ram, der fungerer som cache for harddisk. Harddisk, der fungerer som cache for Internet. Og Internet, bliver såvel din ram, som harddisk.

Du vil kunne anvende ram, der er langt større end den hukommelse, som computeren er forsynet med. Computerens ram, er kun en cache for harddisken. Du åbner, en normal fil, f.eks. temp fil, og bruger den som ram. Temp filen, kan eksempelvis kaldes swapme.

Det er svært, at finde muligheder for anvendelse af 128 bit, og 256 bit busbredde for addresser, uden at inddrage muligheden for brug af Internet.

Metoden har mange fordele, da ram og harddisk, bliver et og samme begreb. Alle de "gamle" algorithmer, der blev skrevet i to udgaver, for dels at kunne fungere på harddisk, og at kunne fungere på ram, kan kasseres. Det er kun nødvendigt med algorithmer der fungerer på ram. Internet, vil kunne addresseres ligeså simpelt som ram: En side "åbnes", og du får en pointer, der assoicerer den pågældende side med ram'en, som den ligger i (normalt hentes den ikke, før den bruges, men det afhænger af prioriteter og om andet anvender internet, og CPU/ram med større prioritet).

Til gengæld, får harddisken brug for nye muligheder. Ligesom, der for TCP/IP findes pålidelig og ikke pålidelig kommunikation (UDP kan miste pakker), så vil samme begreb være nyttig for harddiske. Pålidelig statisk opbevaring, sætter krav om, at det pågældende område altid er tilgængeligt og ikke kan slettes. Upålidelig opbevaring, anvendes kun som cache, og kan tages i brug af andet, hvis det ikke anvendes ofte. Den tredie udgave af "upålidelig" dataopbevaring, svarer til den vi kender fra ram, hvor data fjernes ved strømafbrydelse, men er pålidelig opbevaret så længe der er strøm på maskinen.

En god idé, er at konfigurere hele harddisken som cache til Internet, eller en fjernharddisk. Derved opnås stor pålidelighed, og hvis harddisken går i stykker, har du altid backup.

Med tilstrækkeligt antal IP addresser, er addresserummet stort nok, til at alverdens computere i princippet kan have adgang til hinandens hukommelse. Hvis PC'en bruger ram, er det reelt harddisk, som bruges, der måske er cache af data på Internet.

RAM begrebet, harddisk, og Internet smelter sammen til et begreb. Sikkerhedsmetoder, som vi kender fra harddisk, vil også gælde for ram. Dette betyder, at ram lageret, har ligeså stor sikkerhed som Internet og harddisk.

  • 0
  • 0
Jens Madsen

Ovenstående metode, gør at meget software starter hurtigere. Forestil dig, at du ønsker at udføre noget software på Internet. I dag, er metoden, at først kopiere softwaren i sin fulde størrelse, fra Internet til harddisk. Og herefter, atter i sin fulde størrelse til ram. Hvis det ikke er plads i rammen, så kopiere den del der ikke er plads til, tilbage til en anden position på harddisken.

Sådan, bliver det ikke i fremtiden. I stedet, så køres filen direkte på Internet. Det betyder, at du åbner data, og de vil straks "ligge i ram". Kopieres data, vil ikke ske nogen kopiering, men kun associeringen af data flyttes. Derved spares cache og harddisk plads.

Hvor du nu behøver at kopiere data fuldt flere gange, vil dette ikke være nødvendigt. Programmet startes direkte, men vil caches såvel på din harddisk, som i din ram. Programmet - uanset størrelse og antal terabytes - vil kunne køre på din computer, trods mindre harddisk, og ram. Det vil køre straks, og behøver ikke, at blive downloaded fuldt. Det downloades, med andre ord, efterhånden som det bruges, og bliver liggende på harddisken. Er der dele, som aldrig bruges, får de aldrig position i harddiskens cache, og vil ikke blive hentet. Det samme gælder med rammen.

Operativsystemer, vil i fremtiden ikke kræve ram plads. Det er ikke nødvendigt. Ram'en er alene cache af harddisk, og det styres måske af CPU'en. Du behøver hellerikke harddisk plads. Denne er alene cache af Internet, og data hentes kun færre gange, hvis du har større harddisk. Typisk, vil operativsystemet laves til at arbejde med data som read only, da de hentes fra Internet. Arbejdslager, vil også kunne være på Internet, og der sættes ikke krav til computerens størrelse af ram, eller harddisk. Ram, og harddisk, er kun performance øgende.

I princippet, kan harddisken også kodes til, at være "statisk lager", f.eks. hvis den skal bruges som server, og opbevare data. Normal brug, vil være at have en vis del af harddisken konfigureret til statisk opbevaring, og ledigt plads konfigureret til at bruges som cache (upålidelig, eller ikke statiske data). På Internet, kan forekomme samme typer konfigurationer (proxyer).

Metoden, medfører også mindre belastning på CPU'ens bus, i forbindelse med kopiering af data. Hvis data kopieres af CPU'en, eksempelvis med rep movsw, så vil CPU'en automatisk i stedet associere de to dele af lageret (harddisk/internet), med hinanden og styre det. Ordren, på kopiering, sendes derfor videre i systemet, til ram'en, uden data hentes ind og ud af CPU'en. Dette aflaster front side bus'en. CPU'en tager selv ansvaret for dens cache, med hensyn til kopiering, og vil foretage kopiering eller associering inde i den selv, og den sender kopiordren ud til ram'en, der herefter selv står for kopiering, eller associsering. Ram'en, er også kun "cache", og sender associseringen videre ud til harddisken. Harddisken, vil typisk undlade at kopiere data, men assoicere også kun områderne. Kun, hvis det er forskellige fysiske enheder, vil være nødvendigt med kopiering. Det er harddiskens ansvar, at kopiere data, og om nødvendigt kopiere disse, eller assoicere data.

Visse sprog, har ikke direkte mulighed for kopiering af ram, og normalt sker det ved i løkker at kopiere data uden brug af CPU'ens indstruktioner. Dette er et problem for effektiviteten. Sprog, som anvender et sådant princip, vil kun fungere ordentligt, hvis compilerne identificere kopiering af data, og anvender rep movsw indstruktion. Eksempelvis er sprog bedst, hvor sproget tillader komplet kopiering af strukturer eller delstrukturer, i stedet for sprog, der kun tilbyder kopiering elementvis.

Ordre, som COPY, og XCOPY, vil reelt kun udføre rep movsw indstruktioner, på filer assoiceret til ram'en, og de tager ikke tid, eller bruger resourcer på CPU'ens bus. Hvis du kopierer to mængder data på Internet, vil ordren sendes ud, til TDC's server, eller direkte til de pågældende computere, der kopierer direkte. Derfor, tager kopiering ikke tid. Samme hvis du destruere data. Er format/erase sendt af sted, findes ingen fortryd.

  • 0
  • 0
Log ind eller Opret konto for at kommentere