Nvidia: Moores lov rinder ud for traditionelle cpu'er

Det er snart slut med at følge Moores lov, medmindre vi skifter fra primært serielle til primært parallelle processorer, mener forskningschefen hos chipproducenten Nvidia.

For 45 år siden udgav medstifteren af processor-fabrikanten Intel, Gordon E. Moore, en artikel i bladet Electronics Magazine.

Den skulle senere give navnet til det, der nærmest er blevet betragtet som en naturlov, som har været én af drivkræfterne bag it-udviklingen i tæt ved et halvt århundrede.

Den såkaldte Moores lov siger, at antallet af transistorer på en chip fordobles hver 18. måned. Det har i gennemsnit holdt stik siden fremkomsten af de første mikroprocessorer i begyndelsen af 1960'erne.

Men nu er det ved at være slut, siger forskningschefen hos chipproducenten Nvidia, fordi det bliver stadigt sværere at klemme flere transistorer ned på chip-arealet.

»Vi har nået grænsen for, hvad der er muligt med én eller flere traditionelle processorer eller cpu'er. Det er på høje tid, at computerindustrien tager springet til parallel databehandling,« skriver Bill Dally fra Nvidia i en kronik på Forbes.com.

Det kommer nok ikke som nogen stor overraskelse, at Nvidia-chefen i stedet for traditionelle processorer peger på parallelle processorer.

Cpu'er som x86, Power, RISC, ARM og Sparc er generelt bygget op til seriel databehandling. De nyeste generationer har dog fået mere parallel databehandling i kraft af flere kerner, men hver kerne er en stor seriel enhed.

Over for denne model står processorer som Nvidias Geforce-grafikprocessorer, der i stedet er bygget op af hundredvis af parallelle enheder.

Problemet for udviklingen af de traditionelle processorer er, at chipteknologierne inden for en relativt kort årrække nærmer sig den fysiske grænse for, hvor meget hver transistor kan skrumpe. Derefter vil den eneste mulighed for fortsatte forbedringer ske ved at udvide i antallet af processorenheder, medmindre der gøres helt nye teknologiske landvindinger.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (12)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Deleted User

Hvis antallet af transistorer var fordoblet hver 18. måned siden Intels 4004 ville vi i dag have CPUer med over 100 milliarder transistorer, vi har kun lige rundet 1,17 milliarder i Core i7 980X, hvilket passer næsten helt præcist med de faktiske 24 måneder som kom fra Moores egen mund.

De 18 måneder er vist opstået primært på grund af Pentium 4 clock frekvens hoppet, og de urealistisk mange transistorer i Itanium processorerne som kom omtrent samtidig.

  • 0
  • 0
#4 Morten Andersen

Jeg er enig i at Moores lov (både MHz-mæssigt og transistormæssigt) nok er ved at sløve ned. Men det er da noget vrøvl nVidia siger, at fordi transistortætheden ikke længere kan øges, så skal vi til at se på parallelle arkitekturer. Jeg kunne følge deres argument hvis de henviste til, at udviklingen i klokfrekvens er gået i stå mens der stadigvæk er fremgang på transistortætheden, for her giver det mening at se på parallel programmering. Men hvis selve transistortætheden ikke kan øges, så er de to paradigmer begge dårligt stillet (med mindre man vil acceptere CPU'er der bliver stadigt større og mere strømforbrugerende og varmende).

  • 0
  • 0
#5 Morten Andersen

Det stigende antal transistorer skyldes større caches, multi-core, nye instruktioner, flere eksemplarer af hver execution unit for at køre flere ins. parallelt på én core, smartere ALU-komponenter (færre cycles per ins) osv.

  • 0
  • 0
#6 Deleted User

Det der jo står mellem linjerne er at vi skal til at bruge nVidias grafikchips til at udføre beregninger, fordi de kan klare meget mere end traditionelle CPUer.

X86 processorerne er monster store entrådede kerner, den ydelse man får ved at smide flere transistorer i kernerne skalerer ikke lineært med transistortallet, men markedet har krævet hurtigere kerner, så det er hvad vi har fået, selvom vi ville have fået langt mere ydelse med flere simplere kerner.

  • 0
  • 0
#9 Deleted User

Jeg har sådan set ikke postuleret hvilken processormodel der er bedst, eller at nogen er dumme, jeg har blot konstateret hvad der har drevet udviklingen.

Det er ikke specielt odiøst. Forbrugerne kan ikke bruge flere kerner til særligt meget så længe deres programmer ikke kan udnytte dem. Og selv nu hvor man praktisk talt ikke kan få mindre end to kerner har de fleste programmører stadigvæk intet incitament til at forsøget at udnytte dem, deres program har ikke brug for ydelsen.

Groft kan man vel karakteriser X86 processorerne som lette at skrive programmer til, men langt fra ydelsesmæssigt optimale.

  • 0
  • 0
#10 Deleted User

Processorerne er allerede lavet efter en sandwich model med flere lag. Jeg er ikke helt sikker på hvad der er den primære begrænsning på det område, men processorproducenterne har plukket de lavthængende frugter. Men det er da klart at antallet af lag er til konstant genovervejelse, så det er en mulighed at de vil udvide lidt mere i højden.

Chipstørrelser helt generelt er i høj grad dikteret af chancen for fejl i produktionen, jo større man laver en chip, jo større er chancen for at en eller anden del af den ikke virker, så hvis man laver sine chips for store kan man smide de fleste af dem ud, det er i øvrigt hvad nVidia gør i øjeblikket med de nye GTX 480 chips.

  • 0
  • 0
#12 Deleted User

Undrer mig bare lidt over der kommer flere fejl når de bliver større, men ikke lige så mange fordi delene bliver mindre?

Der opstår såmænd også flere fejl når delene bliver mindre, hele cirkusset med udvikling af procesteknologi går ud på at reducere antallet af disse fejl. Ofte ser vi faktisk at top produkterne laves med sidste generations større og dyrere, men også mere pålidelige procesteknologi, mens mindre billigere chips laves med ny procesteknologi, som godt nok spytter flere fejleksemplarer ud, men det opvejes af at de er mindre og derfor billigere.

Kunne man så ikke bare bruge pålidelig procesteknologi og lave chips på størrelse med ostemadder? De ville selvfølgelig blive dyre, men jeg vil tro at det godt kunne lade sig gøre. Spørgsmålet er mere om man rent faktisk kan opnå noget ud over hvad flere traditionelle chips kombineret kan. Det er jo ganske almindeligt at kombinere flere grafikchips, og det er såmænd også set flere gange at CPUer består af flere chips.

  • 0
  • 0
Log ind eller Opret konto for at kommentere