Hvad koster information ?

Med alderen skal der mere og mere til at imponere en, men lige nu ligger der en 10x10cm stor UNIX computer på mit arbejdsbord som kun bruger 1.3Watt og det er imponerende for en gammel assemblerrotte som mig.

Strømforbrug er kommet under lup og der kommer til at ske ting med PC platformen på det punkt i de næste par år, men med moderne chips med dynamisk power og clock er det faktisk softwaren vi skal kigge mest på.

En af de mest forbavsende opdagelser der er kommet ud af filosofiens og informationsteoriens sporadiske samarbejde, er påstanden at det der koster mest energi i informationsarbejde er at beslutte hvornår information kan smides væk.

Hvis i tvivler på det, så regn jeres timepris ud for at rydde op på en fuld 200GB disk, sammenlignet med prisen på en 400GB disk.

Hvis vi skal reducere vores energiforbrug med 30-50% som det foreslås forskellige steder, er det ikke sikkert at vi kan nå det uden at tænke over hvordan vi billigere slipper af med overflødig information.

De fleste IT installationer har en filserver som medarbejderne fylder op efter forgodtbefindende. Nogle steder kommer der en arrig email om at rydde op ind i mellem, andre steder finder man det billigere bare at købe mere disk hele tiden.

Spørgsmålet var om ikke alle filer bude have et udløbskriterie fra det øjeblik de bliver lavet. "Skal gemmes fem år (skatteloven)", "Skal gemmes indtil efter Peters Fødselsdagsfest", "Gemmes indtil endelig version af rapporten har været publiceret i fem år."

Hvis man tager stilling til oprydningskriteriet når information genereres, sparer man at sætte sig ind i informationen igen hver gang der er brug for at skaffe plads og det er, alt andet lige, billigere.

Jeg har en mistanke om at eventuelle læsere i statens arkiver sidder og nikker så kraftigt at de er ved at få piskesmæld, for jeg har hørt at de bliver begravet i spejlkopier af hele diskdrev fordi indsenderne ikke vil bruge tid på at skille skæg fra snot først.

Det er både surt og sødt for fremtidens forskere, de vil have en uovertruffen mulighed for at studere hvordan et givet dokument blev til ved at følge det fra bruger til bruger, fra version til version.

Forudsat naturligvis, at de kan finde noget som helst i bjergene af mere eller mindre tilfældige filer.

Samme problem har alle vi andre i mindre skala ind imellem og nu hvor der er udsigt til at de fleste tekstdokumenter kommer over i et format man kan skrive værktøjer imod (uanset om det er OpenXML eller ODF) er det en god lejlighed til at tage spørgsmålet op til vurdering:

Hvordan sikrer vi at informationen i informationssamfundet ikke drukner i gamle brugte bits ?

phk

Kommentarer (3)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Karsten Nyblad

Der er ikke nogen mulighed for at information ikke drukner i gamle bits. Vi genererer så megen information, at det ikke på nogen mulig måde kan lade sig gøre, at læse det hele. Bare det at læse alle love, cirkulærer, bekendtgørelser, osv. er i dag så stor en opgave, at det ikke rigtigt er muligt. Tænk så på, at der bliver udgivet et 2cifret antal aviser, et antal bøger, forskningsrapporter, osv. om dagen. Dertil kan man lægge alle kilderne på internettet.

Fremtidens arkiver bliver nødt til at stille søge maskiner ala Google til forskernes rådighed.

  • 0
  • 0
Log ind eller Opret konto for at kommentere