Fremtidens supercomputer er analog

Jeg har tidligere skrevet om, hvorfor jeg mener, at (digitale) computere aldrig nogensinde vil kunne udvise menneskelig intelligens. Og i dag vil jeg gerne følge lidt op på det, ved at beskrive en teknologi som muligvis vil kunne få succes med det i fremtiden.

Jeg fik en kommentar fra Søren Harder, som egentlig udtrykker det meget præcist:

»Måske skal vi anerkende, at computere der er formelt fejlfrie, bare er legetøj, mens computere der kun tager fejl på den rigtige måde, er fremtiden.«

Wired Intelligence

Så hvad er det for computere, der tager fejl på den rigtige måde? Jeg vil egentlig hellere kalde det et system, altså et non-deterministisk system.

I slutningen af 90'erne udviklede Mark Tilden en robotteori, som bygger på Nervous Net, kaldet BEAM robotics:

»Nervous Net (Nv) technology is a non-linear analog control system that solves real time control problems normally quite difficult to handle with digital methods. Nervous nets are to Neural nets the same way peripheral spinal systems are to the brain. «

Dette Nv består i sin simpleste form af 4 neuroner kaldet Nu (en neural neuron), som tilsammen kaldes en MicroCore. En Nu, er implementeret som en RC (Resistor-Capacitor) kobling efterfulgt af en inverter.

Et Nv består af mindst 4 Nu'er, hvoraf udgangen af den sidste Nu, bliver brugt som feedback til den første. Ved hjælp af komponenternes iboende ustabilitet, får dette Nv lige pludselig et liv af sig selv, og det er med kun 12 (tolv) transistorer.

MicroCore Walker

Ved hjælp af dette Nv som hjernen i en robot, kan man f.eks. lave en Microcore Walker, her er Mark Tilden med en demonstration af sin VBug1.5. Jeg har endda set ham bukke et af robottens ben, så det blev ubrugeligt, men robotten forsatte ufortrødent.

Analog vs. Digital

En Microcore Walker kan overvinde komplekse og udefinerede forhindringer, som andre robotter ikke kan. Prøv lige at se LittleDog robotten fra hæderkronede Boston Dynamics, hvor mange transistorer og kodelinjer tror du, der skal til for at få den til at udføre disse tricks? Tricks, som en MicroCore Walker kunne klare af sig selv.

Fremtidens supercomputer er IKKE analog

Ja, den forbliver digital og primitiv, så bare rolig, du bliver ikke erstattet af en transistor, og den kommer ikke til at overtage dit arbejde eller din alt for storbarmede og blonde veninde, eller bede i retning af Mekka fem gange om dagen. Der er allerede kastet for mange penge efter digitalisering på alle forretningsområder, til at nogen har lyst til at kigge på alternative muligheder.

International Man of Computer Business. It- filosof, strateg og columnist. Hands-on problemknuser uanset teknologi og tager over, når eksperterne har givet op. Elsker lugten af brændt Pertinax om morgenen. Til hverdag er Gordon vigtigper i et mindre multinationalt it-firma.

Kommentarer (18)

Troels Henriksen

Problemet med analog teknologi er at du som oftest ender med eksponentiel vækst i maskinkompleksitet for en lineær vækst i nøjagtighed (grundet mekanisk upræcision), hvor man med digital teknologi har lineær maskinvækst for eksponentiel kapacitetsforøgelse (lidt forenklet). I en digital maskine kan man altid bare forøget antallet af bits.

Jeg tror ikke på at analoge maskiner vender tilbage i noget større omfang, men det har ikke noget at gøre med eksisterende investeringer (hvis det havde, hvorfor kunne de digitale maskiner så erstatte de analoge?). Til gengæld tror jeg fuld ud på at probalistiske (semi-"analoge") metoder implementeret på et digitalt substrat kommer til at fylde meget i fremtiden. Analoge mekanismer er meget bedre at simulere end at implementere, for man slipper for en masse målebesvær.

Gordon Flemming Blogger

Troels,

Dejligt at se at du tilsyneladende [har fået det lidt bedre}(http://www.version2.dk/comment/323006#comment-323006), din kommentar grænser næsten til det menneskelige.

Problemet med analog teknologi er at du som oftest ender med eksponentiel vækst i maskinkompleksitet for en lineær vækst i nøjagtighed (grundet mekanisk upræcision), hvor man med digital teknologi har lineær maskinvækst for eksponentiel kapacitetsforøgelse (lidt forenklet). I en digital maskine kan man altid bare forøget antallet af bits.

Selv om jeg skulle være enig med dig i din påstand, hvilket jeg absolut ikke er. Så er nøjagtighed og præcision ikke det man stræber efter her. Her er unøjagtighed og mekanisk upræcision en vigtig del af det non-deterministiske system.

Til gengæld tror jeg fuld ud på at probalistiske (semi-"analoge") metoder implementeret på et digitalt substrat kommer til at fylde meget i fremtiden

Jeg kunne være delvist enig, den digitale computer vil givetvis interface til en analog regneenhed. Digitale computere kan bruges af mennesker til at kommunikere med analoge regneenhed

Gordon Flemming Blogger

Troels,

Analoge mekanismer er meget bedre at simulere end at implementere, for man slipper for en masse målebesvær.

Men når vi begynder at simulere på digitale computere, så bruger vi mangelfulde teoretiske modeller og springer over hvor gærdet er lavest ved at udelade noget af den kompleksitet der er for svær at simulere. Du ender ved udgangspunktet og har brugt en masse penge og tid på at lave en magic 8-ball. Cul-de-sac!

Frithiof Jensen

Jeg kunne være delvist enig, den digitale computer vil givetvis interface til en analog regneenhed


Programmeringen kan sikkert med fordel gøres af en digital computer - man kunne forestille sig en "Analog FPGA med ti-tusinder af analoge funktionsblokke som kan kobles og trimmes af en "Analog-VHDL-Compiler".

"Folk" er altid ude efter nye muligheder som kan torpedere en eksisterende forretningsmodel, især hvis der er investeret meget i den. De som lige nu "sidder på flæsket" har den kæmpe hæmning at deres møjsommeligt opbyggede IP er blevet så mange "Willy-arder" værd at man ikke tør gøre andet end at finde på småting som er indeholdt i den, selv om man faktisk kunne (bare se på Microsoft, "Office Everywhere" er alt hvad tusinder af super-smarte udviklere får lov til at lave).

De unge, smarte og sultne start-ups har ikke så meget at tabe - enten lykkes de med en disruptive business, de bliver købt ud defensivt af en af IP-ejerne (som så sylter deres teknologi) eller de går på røven (men det var de jo allerede). 2 win, 1 lose.

PS:
Jeg har engang i 1990'erne selv bygget en lille analog computer til løbende at estimere temperaturen på chippen inde i en stor IGBT (Insultated Gate Bipolar Transistor) ud fra strøm, spænding og kølepladens temperatur. I dag er der ofte et særligt "ben" til at læse temperaturen med.

Frithiof Jensen

For Eksempel:

http://spectrum.ieee.org/biomedical/devices/how-neuromorphic-image-senso...

....
you’ll have to rethink how you process the data, and you’ll probably have to write new code instead of using a standard video-analysis library. But the mathematical formulations appropriate for this new kind of video camera are simple and elegant, and they yield some very efficient algorithms. Indeed, in applying such algorithms to the output of our autosampling vision sensors, we were able to show that certain real-time vision tasks could be run at a rate of tens to even hundreds of kilohertz, whereas conventional frame-based video-analysis techniques applied to the same situation topped out at a painfully slow 60 hertz.
.....

Helge Frisenette

Selv om artiklen nærmer sig mystisime synes jeg alligevel det et værd at give et besyv.
Analoge computere behøver ikke at være bygget med analog elektronik, eller andet analogt signal. Det analoge er i repræsentationen og ikke i udførslen. Dvs. det er en analogi man bygger op i maskinen.

Der er lavet systemer baseret på forskellig versioner af pulse-density modulation (beklager kender ikke den danske term), som er meget lette at interface med traditionelle ord baserede digitale computere. De har næsten alle af de traditionelle analoge kredsløbs fordele:

Meget lille strømforbrug
Meget høj hastighed
Umiddelbarhed i programmeringen

Med meget få af ulemperne:

Lille fleksibilitet
Nøjagtighed er dyr
Hukommelse er et problem (traditionelt har analoge computere været brugt til DSP problemer med en strøm af data fra en sensor, magnetbånd, kamera etc.)
Langsomt og komplekst interface til digital elektronik

Der har været en del forskning i tiden fra de analoge computeres storhedstid fra midten af det tyvende århundrede til nu. Der har dog været mangel på langsigtet funding og integration af resultater og viden. Men det et jo meget forudsigeligt i et felt hvor de grundlæggende teknologier, bortset fra litografien, stort set ikke har ændret sig de sidste 30 - 40 år.

Der vil være enorme fordele ved at benytte hybrid teknologi på en lang række punkter.
Den første der tager skridtet vil kunne tage et hyperspace hop der vil efterlade konkurrencen i støvet. Måske det er noget for nogle danskere, hvis vi kan overkomme vores traditionelle træghed og FUD.

Gordon Flemming Blogger

Frithiof,

Programmeringen kan sikkert med fordel gøres af en digital computer - man kunne forestille sig en "Analog FPGA med ti-tusinder af analoge funktionsblokke som kan kobles og trimmes af en "Analog-VHDL-Compiler".

Ja, det er en umiddelbar mulighed, men det ligner jo ved første øjekast en slags DSP du beskriver der?

Og jeg syntes at dit eksempel med Neuromorphic Image Sensors måske rammer en smule ved siden af. Som jeg har forstået det så er bare en meget mere effektiv måde at sample på, en level-crossing sampling som resulterer i en hurtigere databehandling. Teknikken er såmænd fin nok, det er skam ikke det.

IGBT'ere - ah ja, for et par år siden blev jeg faktisk mere interesseret i analog elektronik, så jeg begyndte at udvikle switchmode kredsløb som jeg interfacede til microcontrollere, det var meget lærerigt og sjovt.

Gordon Flemming Blogger
Frithiof Jensen

Som jeg har forstået det så er bare en meget mere effektiv måde at sample på, en level-crossing sampling ...

Deres "thresholding" er garanteret lavet med en analog (window-)komparator for hver pixel. Dette er vigtigt, fordi beslutningen om en pixel "sampler" - eller "sampler ikke" altid bliver lidt tilfäldig på grund af thermisk og elektrisk stöj i kredslöbet.

Min mavefornemmelse fortäller mig at netop stöjen er meget vigtig for at der sker noget interessant i et "intelligent" system; måske fordi stöj i et fysisk system er tät forbundet med kvantemekanik, men jeg har desvärre ikke nogen ordentlige referencer på det.

Det er en meget lös hypotese, jeg har sikkert fået den fordi Stuart Kauffman ofte skrev om et "poised system", noget som af sig selv sidder lige präcis mellem kaos og orden og derfor gör interessante ting. .

"Magien" i Mark Tildens kredslöb opstår efter min mening af at stöjen's indflydelse på signalet ("0", eller "1") bliver meget stor lige präcis når en inverter sidder "på kanten" af en beslutning om at gå til "1" eller "0" - RC-leddet på indgangen garanterer en "fuzzy" overgang med mange transitioner undervejs. Jeg tror at det er vigtigt med et "dårligt" signal.

Gordon Flemming Blogger

Frithiof,

Deres "thresholding" er garanteret lavet med en analog (window-)komparator for hver pixel. Dette er vigtigt, fordi beslutningen om en pixel "sampler" - eller "sampler ikke" altid bliver lidt tilfäldig på grund af thermisk og elektrisk stöj i kredslöbet.

Jow, men vil en window komparator på CCD'ens enkelte capacitore netop ikke mindske denne ustabilitet?

Det er en meget lös hypotese, jeg har sikkert fået den fordi Stuart Kauffman ofte skrev om et "poised system", noget som af sig selv sidder lige präcis mellem kaos og orden og derfor gör interessante ting.

Jeg ved heller ikke rigtigt hvad det hedder i akademisk terminologi, men hvad med complex systems theory?

Jeg fandt forøvrigt dette uddrag fra artiklen, som egentlig støtter min påstand om faren ved teoretiske modeller:
"One of Hayek's main contributions to early complexity theory is his distinction between the human capacity to predict the behaviour of simple systems and its capacity to predict the behaviour of complex systems through modeling. He believed that economics and the sciences of complex phenomena in general, which in his view included biology, psychology, and so on, could not be modeled after the sciences that deal with essentially simple phenomena like physics.[12] Hayek would notably explain that complex phenomena, through modeling, can only allow pattern predictions, compared with the precise predictions that can be made out of non-complex phenomena"

Gordon Flemming Blogger
Helge Frisenette

Din ide om såkaldt non-determinisme er jo lige så mystisk, som den kompleks-algoritme idé du taler imod i din anden post du linkede til. Så meget synes da åbenlyst.
Non-determinisme kan sagtens indføres når som helst, i et hvilket som helst system ved at aflæse noget der virkelig ikke er deterministisk, som for eksempel en dejlig varm kop the.

Der har igennem tiden været adskillige forskellige "magiske væsker" som man bare kunne hælde ud over en maskine, for at den skulle blive intelligent, eller i hvert fald opføre sig derhen af. Connectionism, wetware, fuzzy logic, etc. Nogle koncepter med rod i solid videnskab, andre bare buzzwords opfundet af fantaster.

Om digitale analoge computere:
http://www.computerhistory.org/revolution/analog-computers/3/159

Din tekst bærer for mig at se præg af at du ikke rigtig har en solid viden inden for feltet.
Ikke at jeg er ekspert, men jeg har da læst eet og andet. I hvert fald nok til at dine ideer lyder som variationer over fortærskede temaer.
For eksempel kunne dine argumenter ses som en version af John Searles Chinese room argument imod AI.
Searle er blevet modbevist og argumenteret imod solidt og på adskillige måder de sidste 35 år.
Ikke at hans argument var særlig originalt til at begynde med.

Historisk set har vi danskere, med få gloværdige undtagelser, måske dels fordi vi er et lille land, altid adopteret nye ideer senere end andre lande og været langsomme til at skille os af med dem igen, når de blev erstattet af noget bedre eller gik af mode i resten af verden.
Så har vi også en bondeanger og frygt for det nye, som er bagsiden af medaljen ved vores tæt-vævede samfund og tillid til andre.
Dét sagt, så er der landets befolkningsstørrelse taget i betragtning, en større mængde opdagelser, opfindelser og firsts end man skulle regne med. Så jeg er absolut håbefuld.

Drømmefasen er en helt essentiel del af al videnskab og skabertrang. Den bliver så efterfulgt af konstruktionsfasen og optimeringsfasen. Men det er vigtigt at give sig selv tid til at drømme færdig og at gøre det ordentligt, jævnfør Donald Knuths slogan om at for tidlig optimering er roden til alt ondt.
Dermed sagt, at der er sådan noget som en bedre måde at drømme på. Det er noget man kan øve sig i og blive bedre til.
Et barns drømme er simple og uambitiøse sammenlignet med en (intelligent) voksens. På samme måde er en øvet drømmers ideer bedre og mere sammenhængende og frugtbare end en mindre øvets.
Dine ideer som slår mig som et eksempel på det sidste.

Gordon Flemming Blogger

Helge,

Din ide om såkaldt non-determinisme er jo lige så mystisk, som den kompleks-algoritme idé du taler imod i din anden post du linkede til. Så meget synes da åbenlyst.

Ved du hvad? Når du siger det på den måde, så må jeg give dig ubetinget ret!

Non-determinisme kan sagtens indføres når som helst, i et hvilket som helst system ved at aflæse noget der virkelig ikke er deterministisk, som for eksempel en dejlig varm kop the.

Hvordan vil du aflæse "dejlig"? i digital computer kontekst?

Din tekst bærer for mig at se præg af at du ikke rigtig har en solid viden inden for feltet.

Joh, du har ret, jeg er jo ikke ekspert på området - foreslår du at jeg skal lade være med at have en mening om det, indtil jeg har opnået ekspert status?

Ikke at jeg er ekspert, men jeg har da læst eet og andet.

Det er da bedre end den anden version2 læser; han havde kun venner der var eksperter, du har til gengæld læst lidt.

I hvert fald nok til at dine ideer lyder som variationer over fortærskede temaer.

Du bliver ved med at påpege det åbenlyse. Og jeg kan kun give dig ret. Jeg tror ikke jeg kan tænke eller sige noget, som ikke allerede har været sagt tusinder af år siden.

Et barns drømme er simple og uambitiøse sammenlignet med en (intelligent) voksens.

Her ophører vores enighed. Jeg syntes de voksnes drømme er simple og primitive, men til gengæld ambitiøse udover enhver evne.

Martin Glob

Man udvikler sig ikke, hvis man ikke tager en forkert beslutning i ny og næ....

Men at gøre en eller flere af parametrene i beslutningsprocessen totalt tilfældige (som i dit RC/Inverter eksempel - f.eks elektrisk støj) er nok det dummeste man kan gøre.

Men digitale computere der kan lære af sine tidligere beslutninger (med eller delvist med menneskelig feedback) er nok mere vejen frem.

Analoge kredsløb bliver simuleret digitalt i stor stil hver dag over hele verden.. Så det er ikke det analoge der giver magien...

Gordon Flemming Blogger

Martin,

Men at gøre en eller flere af parametrene i beslutningsprocessen totalt tilfældige (som i dit RC/Inverter eksempel - f.eks elektrisk støj) er nok det dummeste man kan gøre.

Hvorfor? Lidt forenklet, så kan VBug1.5 og LittleDog det samme. Men prisforskellen er enorm.

VBug1.5 har så et "magisk" system men udviser en "umagisk" opførsel. LittleDog har et "umagisk" system, men udviser "magisk" opførsel.

Analoge kredsløb bliver simuleret digitalt i stor stil hver dag over hele verden.. Så det er ikke det analoge der giver magien...

Ja, der er ikke meget magisk over simulerede analoge kredsløb. Det er først når man bygger kredsløbet, man ser hvor simuleringen ikke stemmer overens med virkeligheden.

Frithiof Jensen

Men at gøre en eller flere af parametrene i beslutningsprocessen totalt tilfældige (som i dit RC/Inverter eksempel - f.eks elektrisk støj) er nok det dummeste man kan gøre.


"Total Tilfäldige" er vist lige at overdrive. Og ligefrem "det dummeste ... " hmmmm! Ok, så siger vi det - eller også så lader vi bare Resultaterne afgöre sagen.

Der findes i övrigt velbeskrevne matematiske tricks inden for signalbehandling og klassificering hvor man öger signal/stöjforholdet ved at tilföre stöj til signalet.

Analoge kredsløb bliver simuleret digitalt i stor stil hver dag over hele verden.. Så det er ikke det analoge der giver magien...


Jeg vil påstå at dine simuleringer ikke kan producere noget nyt og uventet fordi 1) en model per definition altid er en simplificeret udgave af virkeligheden, det er sådan set pointen i at anvende en model. Modeller er et fint värktöj til hurtigt at göre en masse beregninger 2) på et system man allerede kender. Ellers kan man jo hverken bygge modellen eller bedömme om den er korrekt.

Givet "1" og "2" er et uventet simuleringsresultat en bug.

Log ind eller opret en konto for at skrive kommentarer