Næste generation af Intel-processorer vil fordoble batteritiden

Intels kommende Haswell-chips vil bruge under 10 watt, hvor Ivy Bridge-processorer i dag bruger 17 watt. Samtidigt bliver ydelsen fordoblet, lover Intel.

Køber du en tablet i dag, bruger den højst sandsynligt en ARM-processor, og ikke en Intel-chip, fordi de sluger for meget strøm.

Men det skal være slut nu, lyder det fra Intel, som på konferencen Intel Developer Forum i San Francisco har løftet sløret for næste generation af processorer i pc-klassen. Det skriver firmaet i en pressemeddelelse.

Afløseren for Ivy Bridge-serien hedder Haswell og kommer på markedet i 2013, og mest bemærkelsesværdigt bliver et langt lavere strømforbrug end med Ivy Bridge-processorer. Groft sagt vil en bærbar computer med en ny, strømbesparende Haswell-processor få fordoblet både ydelsen og batteritiden, i forhold til hvad Intel kan præstere i dag.

Haswell-processorerne kan nemlig nøjes med under 10 watt, når de kører for fuldt tryk, mens Ivy Bridge-processorer i dag som minimum kræver 17 watt.

Med en typisk batteritid på en computer i ultrabookklassen på mellem seks og otte timer, betyder det altså batteritider på mindst 12 timer fremover, hvis Intels løfter holder vand.

Målet med Haswell-processorerne er i første omgang ultrabooks - slanke bærbare computere - samt ’konvertible’ bærbare computere, altså hvor computeren kan skilles ad, så skærmen bliver til en tablet.

Med lanceringen af Windows 8 bliver der også sat fokus på tablets med Windows. Alle tablets med ARM-processor i stedet for Intel-arkitektur, vil kun kunne køre den såkaldte Windows RT-version af styresystemet, der kræver nye Windows 8-applikationer.

Men får Intel held med at gøre Haswell til en tablet-egnet processor, vil man kunne køre en fuld version af Windows på en normal, forbruger-egnet tablet. Der findes nemlig i forvejen Windows-tablets målrettet et professionelt marked, der ikke kan konkurrere i pris, vægt og batteritid.

Ikke alle Intels pc-processorer skal gå lavenergi-vejen. Der bliver stadig arbejdet videre på Intel Core-processorer, som har samme strømforbrug som Ivy Bridge har det i dag, lyder det fra Intel.

Teknologien bag Haswell-arkitekturen er samme 22 nanometer-design som i Ivy Bridge, og udover lavere strømforbrug kommer Haswell også med en markant forbedret grafikydelse.

Lanceringsdagen for computere med Haswell-processorer er endnu ukendt, bortset fra årstallet, men analytikere gætter ifølge Infoworld.com på omkring midten af 2013.

Hvor det efterlader Atom-serien, som er Intels nuværende bud på lavenergi-processorer, er endnu ukendt. Atom blev udbredt med blandt andet de billige netbooks, men har ikke en ydelse, der kan sammenlignes med Intels Core-serie med Sandy Bridge, Ivy Bridge og nu Haswell.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (7)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Nicolai Petri

Det kan godt være batteri tiden kan fordobles hvis det kun skulle trække processoren. Men f.eks. en tablet er lidt nederen uden både skærm og netværk. Det er en ommer for overskriften.

  • 5
  • 0
#4 Rasmus Skovmand

Jeg tænkte det samme. CPU-strømforbrug er da kun en ret lille del af strømforbruget.

Når de i de seneste, og åbenbart også kommende, generationer af CPU'er har udvidet grafikydelsen markant, skyldes det så ikke, at de har svært ved at udnytte den ekstra plads til at forbedre CPU'en?

F.eks. er cache-loftet vel ved at være nået. Ydelsen bliver ikke ved med at stige ved større og større cache. Men flere CPU-kerner end de 4 må da komme før eller siden.

  • 0
  • 0
#5 Thue Kristensen

F.eks. er cache-loftet vel ved at være nået. Ydelsen bliver ikke ved med at stige ved større og større cache. Men flere CPU-kerner end de 4 må da komme før eller siden.

Almindelige mennesker har ikke brug for flere kerner. En artikel jeg husker at have læst kørte en række normale spil og programmer, og fandt at der ikke var de store fordele ved mere end 3 kerner.

Der er selvfølgelig enkelte undtagelser.

  • 0
  • 0
#6 Deleted User

AMD bruger resonant clock, for at dels øge hastigheden, og minimere strømforbruget. Meget kort fortalt, bruges en spole, til at ophæve capaciteterne - som kendt fra RF.

Så vidt jeg ved, genbruger AMD dog kun energien ved klok. Ikke ved omladningen, af selve logikken.

Dynamisk N-MOS logik, kan ikke altid betale sig, fordi det kræver mange omladninger. Men i nogle tilfælde, giver det et lavere energiforbrug. F.eks. er asynkron logik, baseret på dynamisk CVSL logik. Ulempen, ved asynkron design, er imidlertid, at der stadigt bruges energi på omladningerne af diffusioner.

Denne energi kan "genbruges". Ved dynamisk N-MOS logik, bruges ofte en pre-charge transistor, til at oplade strukturen til Vdd. Det er muligt, at lade strukturen skifte, og bruge en induktion i forbindelse med dette, således at hele diffusionsområdet omlades "gratis". Ved højere frekvenser, er det dog ikke gratis, på grund af modstandene og kapaciteterne i diffusionen. Men ved lavere frekvens, kan opnås stor energibesparelse, i forhold til asynkron logik.

  • 0
  • 0
#7 Deleted User

Almindelige mennesker har ikke brug for flere kerner. En artikel jeg husker at have læst kørte en række normale spil og programmer, og fandt at der ikke var de store fordele ved mere end 3 kerner.

På en måde er jeg enig. Computerne, som de er udviklet idag, er ikke egnet til flere kerner. Og det gælder også operativsystemer. Når de påstår, at kunne bruge flere kerner, er det mere pral, end kunnen.

Det betyder ikke, at flere kerner er urelevant i fremtiden. Men såvel operativsystemer, som programmeringssprog, er ikke udviklet med henblik på dette. Og der er lang vej endnu. Mange, endog dem der beskæfigter sig professionelt med multi-programmering, forstår ikke logikken bag.

Skal det fungere ordentligt, så er vigtigt, at du som programmør, ikke skal beskrive antallet af processer. Men, at computeren selv, kan optimere det, uanset antallet af processer. Sættes en ekstra kerne på, så skal det bare gå hurtigere. Når du i et parallelt programmeringssprog, beskriver du ønsker en ekstra process, så må årsagen aldrig være optimering. Den skal altid være overskuelighed. Og så sørger computeren for, dvs. compiler, operativsystem, og hardware, at sikre at du får maksimal gevindst ud af computerens hardware. Det betyder også, at hvis du sætter flere processorer i, eller forskellige processorer, så vil computeren automatisk optimerer til disse processer, og de vil blive brugt effektivt, til de opgaver, som udføres. Uanset, om du kun kører et program, eller flere programmer.

Parallelisme, er ikke op til programmøren. Parallelisme, er en del af "hardwaren". Normalt, vil en del af opgaven programmeres i software, og andet måske i hardware, men selv operativsystemet, er i meget høj grad "ovenpå", således OS programmørerne, ikke skal "spekulere" i parallelisme. Et operativsystem, er i meget høj grad et almindeligt program, og skal derfor, optimeres på samme måde, som ethvert andet program. Og det skal ske optimalt. Selve paralleliseringen, sker derfor, på et lag der er blandt de laveste i operativsystemet. Eller, endog i hardware.

Du kan sagtens få meget ud af mange kerner. Og er de lavet til, at fungere sammen, så kan du stort set få en gevindst, der er proportional med antallet af kerner. Uanset, at dit software, er skrevet sekventielt. Naturligvis findes datalogiske eksempler på algorithmer, der ikke kan udføres parallelt. Men, i langt de fleste tilfælde, er muligt endog automatisk, at omsætte fra sekventielt til parallelt. Og, at kunne gøre det mange gange bedre, end enhver dygtig programmør.

Ikke kun paralleliseringen, er vigtigt at have kontrol på. Det er også vigtigt, at kunne prioritere programmets opgaver. Når et program skrives sekventielt, så tænker vi ikke på, at det er muligt. Men, hvis et sekventielt program, omsættes til et parallelt program, så er muligt at kontrolere, hvilken del af programmet, der skal blive først færdig. Du vil ofte opleve, at det som skal skrives ud til skærmen, ikke udføres i rækkefølge, og at derfor er en del af automatikken, at det "sekventialiseres" inden det når skærmen. Eller, det kan endog skrives ud til skærmen, og felterne udfyldes "senere" når data ankommer.

I mange tilfælde, medfører dette, at prioritering af et output betyder langt mere end vi er vandt til. Dette styres i høj grad af operativsystemet. Du vil ofte prioritere de enheder højt, som brugeren arbejder med: Mus, tastatur, skærm. Og det gør, at computeren føles hurtig. Enheder, som betyder mindre, f.eks. printere, kan ikke medføre, at computeren "sløves ned". Ved en ordentlig prioritering, i operativsystmeets automatik, opnås derfor, at der intet er som "staller". Selv en uendelig løkke, vil faktisk afsluttes, hvis den ingen indhold har. Den kører i prinicippet, som en seperat process, og såvel det der er før, og det som er efter, kører i egne processer. Løkken sløver ikke computeren ned. Og du kan ikke bruge en for løkke, til at lave en pause med umiddelbart, da den sepereres, og kører som en adskildt process, der intet styrer. Og endog forkortes bort, fordi den allokeres på den parallele processor, som måske har inputs, men ingen output... Denne processor, er den som yder mest, og kan klare flest opgaver, uden de optager tid og resourcer.

Min pointe er, at parallelisme er godt. Men idag, er computerbranchen et ubegribeligt antal år bagefter, og med de nuværende operativsystemer, og hardware, så fungerer det ikke. Kender man bare en smule til parallelisme, og hvordan det skal gøres, så vil man kunne påstå, at det endnu ikke er opfundet indenfor "computer science". Og det er problemet. Endnu, er forskningen ikke ført ud i livet, og brugt.

  • 0
  • 0
Log ind eller Opret konto for at kommentere