Intel halser efter Moores Lov

Intels chipproduktion har været et urværk, men i år sprang urværket et slag over, da Intel måtte forlænge levetiden for 14 nanometer-processen. Nu forsøger Intel at komme tilbage i takt.

Intel måtte i år for første gang i nyere tid erkende, at selskabets målsætning om at følge Moores Lov havde ramt et bump på vejen. Nu lover Intel, at Moores Lov er tilbage på sporet, skriver Infoworld.

Problemerne for Intel begyndte i forbindelse med skiftet til 14 nanometer-fremstillingsprocessen, som blev forsinket, og Intel endte med at måtte bruge den samme fremstillingsproces til tre opdateringer af selskabets chipfamilier.

Normalt har Intel siden skiftet til Core-arkitekturen kørt med det, selskabet har kaldt 'tick-tock'-modellen, hvor opdateringerne har været skiftevis en mindre arkitekturopdatering sammen med et skift til ny fremstillingsproces og så en større arkitekturopdatering på samme fremstillingsproces.

Moores Lov er ingen naturlov, mere en målsætning, som Intel har besluttet at følge, men hver opdatering af fremstillingsprocesserne bliver dyrere. Intel forventer således i løbet af de næste ti år at skulle bruge 1,8 billioner kroner (270 milliarder dollars) på at udvikle nye chipteknologier.

Efter problemerne med 14 nanometer-processen hævder Intel nu ifølge Infoworld, at selskabet er tilbage på en tidsplan, hvor tick-tock-modellen kan fortsætte med en ny fremstillingsproces hvert andet år. De næste nye processer er henholdsvis 10 og 7 nanometer.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (4)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Torben Mogensen Blogger

Prisen for at følge Moores lov (med lille L, når vi skriver dansk) er lige så eksponentiel som stigningen i transistortæthed, og det holder slev sagt ikke evigt. 1,8 × 10¹² kroner er ret meget, og hvis næste generation koster dobbelt så meget osv., så er der ingen enkeltfirmaer, der har råd.

Man kunne derefter forestille sig, at det bliver en stor international opgave i stil med LHC at lave en fabrik, der kan bruges af alle, men derved forsvinder den konkurrence, der har været en stor del af drivkraften bag kapløbet om nyere og bedre processer. Så efter dette ville der nok gå mange år, før man forsøgte at lave en markant bedre (og dyrere) fabrik.

Måske er det på tid at se på andre basisteknologier end CMOS i stedet for at skrumpe CMOS.

Den primære motivation for at klemme flere transistorer ned på mindre plads er effektivitet. Dels gennem at mindske switch-tiden på de enkelte transistorer, dels ved at mindske ledningsafstande (og -kapacitans), og dels ved at øge paralleliteten.

Switch-tiden er svær at presse yderligere, da det øger strømforbruget, og dermed varmeudviklingen. Kombineret med minde areal, giver øget varmeudvikling meget store køleproblemer, så det har man mere eller mindre opgivet. Man kan mindske lidt på strømforbruget med charge-recovery logic og asynkron logik, men kun til en vis grad, med mindre man går over til fuld reversibel logik, og der går en del år, før det er klar til kommerciel brug.

I de mindre størrelser er lækage et stort problem, og mindre afstande mellem ledninger øger de kapacitative effekter, selv om ledningerne også bliver mindre. Det er groft sagt meget kompliceret at arbejde i de små størrelser.

Alternativet bliver så noget andet end CMOS, for eksempel superledende teknologi. I teorien kan de switche ekstremt hurtigt næsten uden tab af energi (såfremt man bruger reversible gates), men der er endnu lang vej til kommerciel brug -- eksperimenterne er i øjeblikket med et encifret antal gates. Kvantecomputere tror jeg ikke rigtig på til andet end meget specielle anvendelser (såsom kodebrydning, så der er rigeligt med penge til forskning i området).

Optiske kredsløb er en mulighed, men optiske gates er endnu kun på det eksperimentelle stadium.

Så min umiddelbare forudsigelse er, at CMOS endnu i mange år bliver den dominerende teknologi, men at proceskapløbet går i stå. For at presse mere ydelse ud af teknologien vil man derfor se på mere parallelitet, hvilket (med samme transistor- og energibudget) kræver simplere processorer og andre programmeringsmodeller. Og specielt på dette punkt er der en del træghed -- programmører er ikke glade for at forlade modellen med et stort homogent lager med sekventiel semantik og hurtig adgang.

  • 1
  • 0
#3 Troels Henriksen

Endnu og inden for kortere tidshorisonter af 20-40 år, mener du vel ?

Selv på langt sigt er kvanteberegninger noget specialiseret stads, der i praksis nok vil fungere som hjælpeprocessor til visse problemer. Det er underlige processorer der ikke helt følger vores normale intuition (f.eks. skal meget være reversibelt, og beregningen er overvejende probabilistisk). Men det er et uudforsket felt, så måske finder nogen en måde hvorpå man kan gøre alting bedre!

  • 2
  • 0
#4 Troels Henriksen

Så min umiddelbare forudsigelse er, at CMOS endnu i mange år bliver den dominerende teknologi, men at proceskapløbet går i stå.

Det er et problem for Intel, for de har i mange år levet på at være en generation (eller mere) foran deres konkurrenter hvad angår fabrikationsteknologi. De må så til at finde et andet fundament. En mulighed er at de ender med at blive udkonkurreret af de mange andre fabrikations- og design-firmaer, der har fået kapital gennem væksten i datafoner og tavledatamater.

Og specielt på dette punkt er der en del træghed -- programmører er ikke glade for t forlade modellen med et stort homogent lager med sekventiel semantik og hurtig adgang.

Det kan de blive nødt til - programmer der ikke følger med vil ganske enkelt blive udkonkurreret. De Xeon-systemer som moderne x86-servere er bygget med har allerede adskillige NUMA-knuder, så det homogene lager er tabt, i hvert fald fra et ydelsesperspektiv.

  • 2
  • 0
Log ind eller Opret konto for at kommentere