2016 bliver algoritmens år

Først godt nytår til alle sammen på V2, og velkommen til algoritmens år… påstår de kulørte blade i hvert fald. Det indbefatter både AI (Artificial Intelligence), DL (Deep Learning aka Machine Learning). Og hvad så? Et er sikkert, der bliver kastet flere penge efter algoritmer, for det er jo allerede årets Buzzword, men hvad kommer det til at bibringe, som vi ikke allerede har? Jeg vil vove den påstand, at alt vil forblive ved det gamle.

Vi kan jo starte med definere en algoritme i denne kontekst; jeg forstår det som »et sæt af eksekverbare instruktioner« som f.eks.:

IF temperatur < 0 THEN koldt=true

Det er en algoritme, men det er så også her, at jeg ikke forstår, hvordan folk forventer, at sådan en skal kunne lære noget af sig selv? Forudsige fremtiden? Eller på nogen måde fungere som en menneskelig hjerne? Hvad er tanken bag denne tilsyneladende urealistiske forventning?

»Det er også bare, fordi det er en kort og simpel algoritme, du har lavet!« vil nogen måske udbryde. Så ok da, så lad os lave en lang og kompliceret algoritme med fantasiliarder af IF, THEN og GOTO's, (eller mov, cmp og jl, om man vil.) hvad er så påstanden her? Er det: »Et komplekst problem kan brydes ned til flere simple problemer, som kan løses med simple algoritmer«

Den påstand lugter lidt af Fordisme; jeg mener ikke, at man kan overføre teorier fra et simpelt samlebånd til noget så komplekst som den menneskelige hjerne. Det ville snarere være en forsimpling, altså man udelukker den kompleksitet, som en algoritme ikke kan håndtere.

Eller er det måske teorien om kollektiv intelligens, der anvendes: »Hvis en simpel algoritme kan løse et simpelt problem, så kan en kompleks algoritme løse et komplekst problem«

Altså, hvis man tager tre tåber og limer dem sammen med sekundlim, så får man altså ikke en raketvidenskabsmand ud af det. Man kan altså lave verdens mest komplekse algoritme, men det bliver stadigvæk til en bunke IF, THEN og GOTO's…

I samme dur har vi jo alle hørt »Vi har lige så meget regnekraft i vores digitalur, som Apollo 11 havde under månelandingen«, og så slutter sætningen her, og det er ligesom underforstået, at vi nu har meget mere regnekraft, og derfor er mulighederne nu nærmest uendelige. Man kan altså bruge al regnekraft på jorden og månen for den sags skyld, men det bliver stadigvæk til en bunke IF, THEN og GOTO's…

Min teori er, at »algoritmer« i 2016 betyder: »vi tager et komplekst problem, som ingen forstår, og pakker det ind i komplekse algoritmer, som heller ingen forstår, og så får vi et resultat, som ingen kan eller tør bestride, fordi de ikke forstår beslutningsgrundlaget, men tallene og graferne taler deres tydelige sprog i ledelsens kontrol panel«. Altså enten en infantil romantisering af regnemaskiners formåen indhyllet i tågesnak, og/eller en alletiders ansvarsfraskrivelse »Det var ikke min skyld, regnemaskinen sagde jeg skulle!...«

Der var forøvrigt et morsomt eksempel her på version2, hvor kompliceret det kan være at lave selv simple algoritmer

Er din hjerne så simpel, at dens arbejde kan erstattes af en regnemaskine eller en Magic 8-ball?

Gordon Flemmings billede
International Man of Computer Business. It- filosof, strateg og columnist. Hands-on problemknuser uanset teknologi og tager over, når eksperterne har givet op. Elsker lugten af brændt Pertinax om morgenen. Gordon er en af Danmarks (måske) ældste iværksættere.

Kommentarer (34)

Nicolai Lundgaard

Du kan jo også sige at en enkelt hjernecelle ikke gør megen nytte i sig selv. Med den samme argumentation kan du sige at en hjerne bare består af en masse hjerneceller, og man får ikke en raketforsker ved at forbinde en masse af dem. Det er jo åbenlyst noget vrøvl.

Hvorfor skulle man ikke kunne simulere en menneskehjerne med en computer? Hvad er det du mener som forhindrer os i det?

Ditlev Petersen

algoritme som var så rodet, at jeg ikke anede, hvordan den fungerede. Men den fungerede og var vist i brug i lang tid hos Kommunedata, hvor den skulle bringe orden i nogle umulige data, hvor man havde brugt "datamodellen" til noget, den ikke var bygget til. Det er i sig selv en historie til en kaminpassiar - en anden gang. Algoritmen opnåede så stort et ry, at når folk (brugere, programmører og konsulenter) ikke anede, hvilke data, der hørte til hvor, så hed det: Programmet siger selv at ... Og det var så pr. definition Sandheden.
Jeg er stadig ikke klar over, om jeg bør være stolt eller lidt forskrækket. Algoritmen (hvis man tør bruge det navn) var meget lille, måske 20 statements, men komplet uigennemskuelig.

Man kan næppe inden for en overskeulig fremtid simulere en menneskehjerne i bare nogenlunde detaljer. Men da en simulation er en model, kan man jo godt lave en model. På et vist abstraktionsniveau og måske også begrænset i sit "område". Og modellerne kan sikkert også bruges til nyttige ting. Lige som ADAM og DREAM bruges som forsvar for en politik, som de færreste vælgere bryder sig om. Lige som dengang i 80'erne vor "computerberegnet" var garanti for seriøsitet hos alskens fidusfirmaer.

Men man behøver ikke detailprogrammere en AI. Og man behøver ikke kopiere mennesket. Den KAN stadig vise sig nyttig. Og give grimme overraskelser.

Henrik Holm

Hej Gordon,

Jeg tror du har misforstået lidt hvad Machline Learning og især deep learning går ud på. Det er netop ikke en masse if and else sætninger. Deepmind har fx. udviklet en algoritme som selv kan lære at spille diverse Atari spil. Den genbruger desuden den viden den har lært i spil, til at gennemfører et andet spil. Fx. kan algoritme allerede spille tennis på et okay niveau, da den allerede har lært konceptet om at slå til en bold med et ketcher, da den tidligere havde spillet Pong.

Jeg tror ikke det er tilfældigt, at Google gik ind og smed et stort beløb efter dette firma lige efter de havde publiceret det i Nature.

Men du kan evt. læse her [1], hvilket store fremskridt der er sket inden for AI/Machine Learning det seneste år.

[1] http://futureoflife.org/2015/12/29/the-top-a-i-breakthroughs-of-2015/

Kim Alex Olsen

Du overser en meget vigtig ting i AI , nemlig data.
Det helt afgørende er at man istedet for statiske programmeringsinstrukser bruger mønster genkendelse og data analyse til at lave forudsigelser og afgørelser.
Der findes masser af kurser og bøger om metoderne.
der er vel ingen der har det totale overblik over simpelt kontra intelligent, men meget tyder på at der sker nogle sjove processer når man gentager den samme simple ting mange gange.
Som vores gamle ven F. Engels påpegede "kvantitentens overgang til kvalitet", der er ikke altid en linær sammnhæng imellem en størrelse og den afhængige størrelse.
Man kan godt opvarme vand fra 20 til 25 grader uden problemer, men hvis man opvarmer vandet til 100 grader vil vandet pludselig forandre sig og overgå til dampform.
Put en ekstra proton i en atom kerne og du står med et totalt anderledes grundstof der er væsensforskellige fra det oprindelige.
Man kan også inddrage teorier om sværmintelligens hvor det enkelte individs reagerer på meget få stimuli, men den samlede sum af alle individderne pludselig begynder at opføre sig intelligent.
se eks
http://ing.dk/artikel/svaermeadfaerd-fungerer-som-en-kollektiv-hjerne-13... , jeg kan også anbefale den gamle bog "En snegl på vejen. Betydningens naturhistorie"
af Jesper Hoffmeyer.

Hjerne er vel ikke ligefrem simpel, men de enkelte processer i hjernen som får os til at fremstå intelligente er vel relative simple.
Det drejer sig først og fremmest om hvor mange og hvilke forbindelser der er imellem cellerne. Disse forbindelser ændrer sig hele livet igennem og reagerer på de data de bliver udsat for.
Så svaret er , jo meget tyder på at også hjernes arbejde mere og mere kan erstattes af smarte datadrevne algoritmer, se eks. denne artikel http://www.version2.dk/artikel/machine-learning-sikrede-nye-hoejder-paa-...

Gordon Flemming Blogger

Nicolai,

Med den samme argumentation kan du sige at en hjerne bare består af en masse hjerneceller, og man får ikke en raketforsker ved at forbinde en masse af dem. Det er jo åbenlyst noget vrøvl.

Er det nu også det? Hvis vi antager at vi alle som udgangspunkt har nogenlunde det samme antal hjerneceller (og at det er der den menneskelige intelligens holder til), så vil en tåbe og en raketforsker have det samme antal hjerneceller, men den ene vil stadig være en tåbe.

Hvorfor skulle man ikke kunne simulere en menneskehjerne med en computer? Hvad er det du mener som forhindrer os i det?

Fordi en computer er en regnemaskine, og det er en menneskelig hjerne ikke.

Gordon Flemming Blogger

Ditlev,

Uhyggelig beretning om din kummunale algoritme, men det er jo den vej det går.

Desuden syntes du har ramt hovedt på sømmet når du siger:

Men da en simulation er en model, kan man jo godt lave en model. På et vist abstraktionsniveau og måske også begrænset i sit "område".

Ja, man kan godt lave en "model" men den bliver ikke bedre end programmøren der har lavet den, og den vil altid blive opfattet "virkelighedstro" i et begrænset omfang. Men den vil aldrig kunne gøre det samme som en menneskelig hjerne.

Faktisk så burde alle algoritmer gennemgå en kvalitetstest, i stil med da kanonerne i fortiden skulle afprøves måtte støbemesteren sidde overskræves på kanonen ved første affyring. Jeg forestiller mig at programmøren stikker sit hoved ind i en guillotine som aktiveres af algoritmen via USB, når algoritmen fejler ;-)

Gordon Flemming Blogger

Henrik,

Jeg tror du har misforstået lidt hvad Machline Learning og især deep learning går ud på.

Tak, men jeg ved godt hvad det er, jeg laver bare lidt sjov med den brede opfattelse af emnet ;-) Tilgiv mig.

Det er netop ikke en masse if and else sætninger.

Du har ret, det er det ikke i det højniveau sprog som du benytter til din modellering. Men i CPU'en, som jo er den dims der laver alle udregninger, så bliver dit højniveau sprog oversat til maskinkode, som for det meste består af if, then og goto's samt lidt bitskifteri til højre og venstre.

en algoritme som selv kan lære at spille diverse Atari spil

Det er jeg slet ikke i tvivl om at den kan. Fordi et "Atari spil" er en matematisk model (spil) skabt af mennesker, og modellen er dermed simpel og begrænset.

Jeg tror ikke det er tilfældigt, at Google gik ind og smed et stort beløb efter dette firma lige efter de havde publiceret det i Nature.

Ja, tilfældigt er det i hvert fald ikke, det er drevet af grådighed. Men Gokle har også foræret TensorFlow væk, jeg vil tolke det som "skidtet virker ikke, lad tosserne lege med det nu"

Allan Ebdrup Blogger

Faktisk så burde alle algoritmer gennemgå en kvalitetstest


Hvis de bruges til noget seriøst tror jeg godt at du kan regne med at de i langt de fleste tilfælde er blevet kvalitetstestede. Og at deres resultater (på bundlinjen?) monitoreres i brug.

De lave sikkert ofte fejl (som googles skøre forslag til søgninger, eller amazons skøre forslag til yderligere køb) men hvis de ligefrem har samlet har negativ effekt bliver de fjernet i langt de fleste tilfælde.

Jeg har indtil videre kun begrænset erfaring med machine learning. Men de erfaringer jeg har er gode. Det vi har bygget med machine learning ville være nær umuligt at bygge som en håndkodet algoritme, det giver enorm værdi for vores brugere, og det bliver løbende bedre og bedre under brug.

Og ja det bliver kvalitetstestet. Både da det blev udviklet og løbende.

Det er bygget som en slags "progessive enhancement" hvor, hvis algoritmen ikke hjælper, kan du altid override dens forslag.

Gordon Flemming Blogger

Kim, (long time, no talk, old buddy ;-)

Du overser en meget vigtig ting i AI , nemlig data.

Nej, jeg har med vilje udeladt den, big-data is soooo 2015.... Jeg syntes forventningen til big-data er den samme som til algoritmer. dvs. "hvis vi kan finde lidt i lidt data, så kan vi finde meget i meget data", men det kunne jo lige så godt være "hvis vi kan finde lidt i lidt data, så er det sværere at finde lidt i meget data".

Det helt afgørende er at man istedet for statiske programmeringsinstrukser bruger mønster genkendelse og data analyse til at lave forudsigelser og afgørelser.

Man bruger da statiske programmeringsinstrukser til mønster genkendelse og data analyse, så det ene udelukker ikke det andet.

Så svaret er , jo meget tyder på at også hjernes arbejde mere og mere kan erstattes af smarte datadrevne algoritmer

Ja, jeg kan godt se at du bygger op til denne konklusion ved at remse en masse eksempler op. Så når du siger "meget tyder på" så tolker jeg at du mener "mange andre siger og gør det, derfor må det jo være rigtigt", men sagde din mor aldrig til dig da du var knægt "så hvis alle andre kaster sig ud fra et bjerg, så vil du også gøre det?" når du kom hjem og bedyrede "ååårh mor, men alle de andre gør det" ;-)

Og den historie med JJ Foods, det er jo bare det samme som diverse webshops gør "hvis du køber saltstænger, skal du ikke også ha' et ramme bajere med?" Der er intet nyt i den.

Finn Aarup Nielsen

"Man kan altså lave verdens mest komplekse algoritme, men det bliver stadigvæk til en bunke IF, THEN og GOTO's…"

Neurale gætværk (og dermed deep learning) kan implementeres med almindelige matrix-multiplikationer og en uliniær funktion, så der behøver overhovedet ikke at være IF, THEN og GOTO i den grundliggende del af et DL-system. Sådanne systemer er ikke bare en bunke kontrolsætninger.

Finn Aarup Nielsen

"Altså, hvis man tager tre tåber og limer dem sammen med sekundlim, så får man altså ikke en raketvidenskabsmand ud af det."

Under visse forudsætninger kan det matematisk bevises at man får et bedre system ved at lime tre tåber sammen. Idéer er at middelværdien (af prædiktionen) fra de tre tåber - i middel - er bedre den enkelte tåbe (under visse forudsætninger). Så vidt jeg husker er det en øvelse i Chris Bishops machine learning-bog. Lars Kai Hansen skrev også et afsnit i vores gamle artikel "Consensus Inference in Neuroimaging" (paywalled) om fænomenet.

Finn Aarup Nielsen

"Eller er det måske teorien om kollektiv intelligens, der anvendes: »Hvis en simpel algoritme kan løse et simpelt problem, så kan en kompleks algoritme løse et komplekst problem«"

Jeg kan ikke se hvorfor kollektiv intelligens skal defineres ud fra kompleksitet på denne måde.

Christian Lynbech

Brian Mayoh, Aarhus Universitets gamle AI professor havde en overgang en seddel hængende på døren med ca. følgende budskab: "hvis hjernen var så simpel at vi kunne forstå, så ville vi være for dumme til at forstå hvad der foregår".

På trods af en række landvindinger indefor f.eks. billed- og tale-gengendelse så er vi stadigvæk rigtigt langt fra noget der er bare i nærheden af menneskelig intelligens.

Er der ikke andet der maner til eftertanke, så burde man i det mindste bekymre sig om at man pt end ikke har nogen brugbar definition af hvad intelligens er. Det eneste vi har er Turings Test og den siger essentielt ikke andet end at vi kan kende det når vi ser det; ikke lige et højdepunkt for erkendelse.

Det var bestemt et utroligt interessant resultat at man kan lave et system, der kan lave beregninger, baseret på en utroligt simplificeret model af en neuron. Man kan bare ikke derfra udlede at det er alt hvad der er i intelligens. Det ved vi først når nogen har lavet et intelligent system. Måske opstår intelligens af sig selv når man har neuroner nok, måske er der noget vi endnu ikke ved om intelligens og hvordan hjernen fungerer.

Der er projekter der prøver at simulere hjernen, jeg tror det var IBM der for nylig annoncerede en speciel chip der skulle bringe os tættere på men der er stadigvæk astronomisk langt op til det antal neuroner vi har i vores hjerne, det antal forbindelser der er imellem dem og den hastighed de er i stand til at arbejde med. Og så hørte jeg oven i købet også nyligen af der er resultater der antyder at forbindelserne mellem neuronerne også er i stand til at processere signaler på lidt samme måde som neuronerne selv.

Så jeg holder ikke vejret i spændt forventning om at det er lige om hjørnet.

Gordon Flemming Blogger
Gordon Flemming Blogger

Finn,

Under visse forudsætninger kan det matematisk bevises at man får et bedre system ved at lime tre tåber sammen. Idéer er at middelværdien (af prædiktionen) fra de tre tåber - i middel - er bedre den enkelte tåbe (under visse forudsætninger).

Jo, men hvad kan det så bruges til? Du forudsætter noget, så beviser du at det er "virkelighed" ved at bruge matematisk teori, som også bygger på nogle forudsætninger, og så får du et resultat som er korrekt under andre forudsætninger. Det er allerede tre lag af forudsætninger (antagelser, som kan være mere eller mindre korrekte), og så er du ikke en gang begyndt at programmere din algoritme endnu.

Troels Henriksen

Af ren nysgerrighed, hvor længe har du arbejdet med machine learning og i særdeleshed moderne deep learning-algoritmer, Gordon? Jeg har ikke selv, men jeg har venner der har, og jeg har svært ved at afgøre hvor meget det minder om (begrænset) kognition. Hvorvidt en maskine kan siges at være intelligent er et langvarigt filosofisk skænderi, og jeg tvivler på at vi finder svaret på en side der stadigvæk diskuterer om bundling af Windows er ligesom sædebetræk i en bil eller ost på en burger. Kan dit argument ikke også drejes til at en bunke aminosyrer og kalium/natrium-ioner umuligt kan siges at være intelligente?

Jarnis Bertelsen

Selvfølgelig kan vi simulere en (menneskelig) hjerne. Det kræver at vi opnår en tilstrækkelig forståelse for hvilke(n) algoritme(r) hjernen udfører, hvilket vi muligvis er for langt fra til at opnå i 2016. Det er også muligt at den regnekraft vi har til rådighed og hvordan den grundlæggende er opbygget, vil gøre det for langsomt til at have en praktisk anvendelse, men som videnskabelig præstation vil det stadig have sin værdi.

Og hvad er forskellen på simileret intelligens og egentlig intelligens? Hvad er forskellen på en simuleret tanke og en egentlig tanke?

Turing testen er en forfærdelig målestok for, om der er opnået kunstig intelligens. Både fordi den muligvis kan snydes af en dum men kompleks chatrobot, men endnu mere fordi en fremmed (alien) intelligent livsform næppe vile kunne bestå den. Samtidig vil en kunstig intelligens, der tænker præcis som et menneske være praktisk ubrugelig (i hvert fald dyrere end et rigtigt menneske, i lang lang tid) hvorimod en kunstig intelligens, der tænker radikalt anderledes kunne have fantastiske anvendelser.

For dem, der har interesse i emnet kan jeg varmt anbefale bogen "On Intelligence" af Jeff Hawkins. Selvom den efterhånden har nogle år på bagen, giver den et ret godt bud på hvilken grundlæggende algoritme hjernen udfører og hvordan det er implementeret. Det er nok ikke hele svaret (ellers ville Numenta, firmaet baseret på at prøve at implementere samme algoritme) nok have endnu højere success, men på mig virkede det som et godt bud på en del af svaret. Den er i hvert fald spændende og interessant læsning.

Mit bud er, at der stadig går neget tid før vi har en tilstrækkelig god og samtidig implementerbar model af et intelligent system. Måske et årti eller to, måske mindre. Til gængæld vil det, når det lykkes, give en hidtil uset indsigt i hvores egen menneskelige intelligens, og samtidig åbne op for brugscenarier og indsigter, vi aldrig i vores vildeste fantasi har drømt om.

Torben Mogensen Blogger

Udover de andre problemer i dit indlæg, så blander du begreberne algoritme og program. Det, du kalder en algoritme, er i virkeligheden et program. En algoritme er mere abstrakt og generisk end et program, og behøver ikke at være udtrykt i et programmeringssprog.

Dertil er det problematisk at antage, at kompleks opførsel kræver komplekse algoritmer. I naturen er kompleks opførsel i reglen "emergent behavior", hvor simple systemer kan udvise komplekse egenskaber. Machine learning udnytter dette: Man har en stor klasse af simple systemer, der kan udvise kompleks opførsel. Læringsprocessen er groft sagt at lede i denne store klasse af simple systemer efter et system, der har netop den komplekse opførsel, man har brug for. Læringsprocessen kan ofte kræve stor regnekraft (da der er mange systemer at vælge imellem), men det resulterende system er i reglen effektivt og enkelt.

Gordon Flemming Blogger

Troels,

Tak for dit Ad Hominem, og tak fordi at du er bevidst om hvad du skriver, det har jeg respekt for (helt uironisk ment).

Af ren nysgerrighed, hvor længe har du arbejdet med machine learning og i særdeleshed moderne deep learning-algoritmer, Gordon?

For at svare præcist og klart på dit spørgsmål først, så er svaret "aldrig". Jeg antager at dit spørgsmål er ladet, så jeg forventer en reaktion på mit svar.

Jeg har ikke selv, men jeg har venner der har

Så nu kender jeg en, der kender en, der har ;-) Hvilket kan mig til at tænke på at forventningerne til algoritmer er lidt som teenagesex; ingen ved rigtig noget om det, men tror at alle de andre allerede gør det.

og jeg har svært ved at afgøre hvor meget det minder om (begrænset) kognition. Hvorvidt en maskine kan siges at være intelligent er et langvarigt filosofisk skænderi,

Du siger "skænderi", jeg siger "debat", og ja - min blog er af filosofisk karakter og det er en it-filosofisk debat. Hvis jeg ville have "skænderi" så kunne jeg da bare påstå "Windows er et meget bedre operativsystem end Linux".

og jeg tvivler på at vi finder svaret på en side der stadigvæk diskuterer om bundling af Windows er ligesom sædebetræk i en bil eller ost på en burger.

Så det du mener er, at eftersom jeg tidligere har skrevet om Windows licenser, så det jeg eventuelt kunne mene om algoritmer og filosofi, er derfor irrelevant for dig. Det er da vist at betegne som en lettere studentikos og elitær indstilling.

Kan dit argument ikke også drejes til at en bunke aminosyrer og kalium/natrium-ioner umuligt kan siges at være intelligente?

Jo, det kan det. Og med det har du har ramt det centrale filosofiske spørgsmål i mit blogindlæg, og det er endda helt uden at du selv er klar over det.

Og prøv lige at læse Christian Lynbechs kommentar, den har du vist sprunget over.

Gordon Flemming Blogger

Torben,

Udover de andre problemer i dit indlæg,

Kan du specificere lidt?

så blander du begreberne algoritme og program. Det, du kalder en algoritme, er i virkeligheden et program. En algoritme er mere abstrakt og generisk end et program, og behøver ikke at være udtrykt i et programmeringssprog.

Du har ret, men en "algoritme" er i virkeligheden et "program" i denne blogs kontekst. En algoritme kan sagtens være abstrakt og generisk (som en menneske hjerne), men så skal du lade være med at prøve at lave et "program" ud af den og proppe det ind i en computer.

I naturen er kompleks opførsel i reglen "emergent behavior", hvor simple systemer kan udvise komplekse egenskaber.

Det er jo en antagelse, ikke en regl. Men antagelsen gør din næste påstand sand:

Machine learning udnytter dette

Så det kan jeg jo ikke tilføje mere til.

Christian Lynbech

Selvfølgelig kan vi simulere en (menneskelig) hjerne.

Det er måske en anelse ambitiøst at bruge ordet "selvfølgeligt" når vi hverken kender algoritmerne eller kravet til processerings kraft.

Vi ved ikke om vi nogensinde kommer til at forstå hvordan hjernen fungerer før vi rent faktisk har demonstreret noget man kan anerkende som intelligent i et konstrueret system.

Selvom vi så kendte algoritmen, så hjælper det ikke hvis det kræver astronomiske mængder af regnekraft for at nå op på det niveau som intelligent opførsel kræver. Det er muligt at intelligent opførsel dukker op af sig selv i et neuralt net, hvis det bliver stort nok, men det er åbentlyst at de neurale netværk der er i brug i dag er meget langt fra at være intelligente.

Jarnis Bertelsen

Det er måske en anelse ambitiøst at bruge ordet "selvfølgeligt" når vi hverken kender algoritmerne eller kravet til processerings kraft.


Du har ret, og brugen af ordet "selvfølgelig" på så Trine Bramsensk maner, får naturligvis nakkehårene til at rejse sig og ingeniør-instinkterne til at gå i fuldt alarmberedskab :)

Hvad jeg mener er, at (med mindre der er en sjæl eller noget andet overnaturligt, der udstyrer mennesket med fri vilje og intelligens) intelligens må findes i den måde hjernen fungerer på, med andre ord hvilken algoritme den udfører. Denne process må nødvendigvis kunne simuleres eller reproduceres, om ikke andet i en maskine, der virker efter samme principper som hjernen.

Jeg er helt med på at det kan vise sig at være praktisk eller økonomisk uladesigøreligt at fremstille en maskine, der kan udføre en simulation hurtigt nok til at kunne give praktisk mening. Det kunne tænkes at simuleringer vil køre så langsomet, at det vil tage årevis at simulere en enkelt tanke, hvilket vil ødelægge enhver form for praktisk anvendelse, men stadig være et videnskabeligt gennembrud.

Personligt tvivler jeg på at det går så "galt." Jeg tror, at man ved at lave en computer eller simulering, der virker efter samme principper som en hjerne, vil kunne opnå nogle fantastiske resultater, også indenfor de begrænsninger af regnekraft, som vi har idag eller i nær fremtid. Dette er dog bare et gæt.

Som jeg ser det, er den væsentligste forhindring dog at lave en god nok beskrivelse af hvad hjernen laver - dens algoritme - som resulterer i det, vi kalder intelligens.

Finn Aarup Nielsen

Jo, men hvad kan det så bruges til?

Kollektiv prædiktion kan være bedre end den individuelle eksperts vurdering. Jeg var med på en artikel hvor David Pennock undersøgte fænomenet i forbindelse med forudsigelsesmarkederne "Hollywood Stock Exchange" og "Foresight Exchange" med matadorpenge. I artiklen står blandt andet: "By February 19, the market's score had surpassed all of the scores for all five experts and for their consensus."

Effektiviteten af kollektiv prædiktion er det der ligger til grund i påstande om det frie marked, fx, Friedrich Hayek's The Use of Knowledge in Society.

Ditlev Petersen

Kan du forklare mig hvorfor du skriver "kan være"? Er det fordi at nogen gange så "kan det ikke være"? Og hvordan kan du vide hvilken gang det "er" bedre?

0 0


Lige som der findes tilfælde, hvor et lille antal duer (eller kaffegrums) kan konkurrere med én ekspert. Børshandel er i forvejen et område der ikke dækkes af nogen former for eksakt videnskab. Eller nogen form for videnskab.

Ditlev Petersen

En simulering af en menneskehjerne bliver jo ikke nødvendigvis eksakt eller præcis i detaljerne. Og den bliver ikke nødvendigvis en simulering af Albert Einstein. Den kan også nemt blive noget ret sygt. Hvilket selvfølgelig kunne være spændende nok, men da vi må antage, at vi ikke kan gennemskue simulationen, så kan vi heller ikke lære ret meget om f.eks. sindslidelser af en paranoid eller psykotisk computer. Rent bortset fra, at den måske ligner noget, vi kender fra mennesker, men vi kan ikke vide, i hvilket omfang den er identisk med det, vi kender.

Jeg er enig i, at menneskets hjerne inkl. vor bevidsthed næppe skyldes nogen af Herren indblæst ånde. Det er et resultat af hjernens anatomi, kemi og de processer, der foregår. Og principielt burde det kunne simuleres, endda ret detaljeret. Vi skal dog nok begynde med noget meget simpelt (f.eks. en dolkhale eller en regnorm). Men på den måde får man dels en kæmpeopgave med at kortlægge hjernens meget fine detaljer. Samtidig med at vi mister overblikket.

Det er mere givtigt, tror jeg, at arbejde med maskinlæring, tilsat nogle gode ideer, som forskerne måtte få undervejs. Ikke kopiere noget, vi alligevel ikke forstår, men at gå andre veje. Og undgå at slæbe rundt på meget af den arv, som hjernen har. Og vi behøver ikke skabe en AI, der kan lave kunst eller skrive romaner (eller Hollywoodmanuskripter). Det klarer vi fint i forvejen. Og det er jo ret sjovt. Hvorfor skulle vi give det fra os? Der skal nok være rigeligt administrativt og analytisk arbejde at sætte en AI til.

Gordon Flemming Blogger

Ditlev,

Lige som der findes tilfælde, hvor et lille antal duer (eller kaffegrums) kan konkurrere med én ekspert.

Tak, men jeg var nu interesseret i Finn's svar.

Finn siger "Kollektiv prædiktion kan være bedre end den individuelle eksperts vurdering" og Torben siger "I naturen er kompleks opførsel i reglen 'emergent behavior'"

Det tolker jeg som at "det er kun rigtigt en gang i mellem", og så kan man jo lige så godt bruge kaffegrums eller hepatoskopi, for man kan jo ikke vide hvornår det er rigtigt. Og jeg tænker at det er spild af penge og energi at lave en algoritme der tager fejl. Jeg er udenmærket selv i stand til at lave fejl, og det endda helt uden algoritmer og computere.

Når det så er sagt, så kan man sagtens bruge ML til massere af praktiske ting, f.eks. (lidt karikeret) "Jeg kan se du har saltstænger i din indkøbskurv, skal du ikke også ha' en ramme bajere? de er på tilbud lige nu".

Finn Aarup Nielsen

Kan du forklare mig hvorfor du skriver "kan være"? Er det fordi at nogen gange så "kan det ikke være"? Og hvordan kan du vide hvilken gang det "er" bedre?

I forbindelse med prædiktionsmarkeder er det nemt at evaluere hvem der er bedst, - post hoc. Man lader prisen i prædiktionsmarkedet konverterer til en sandsynlighed og sammenligner denne sandsynlighed med den sandsynlighed som eksperter giver. I tilfældet med Oscar-uddelingen kan Hollywood Stock Exchange (HSX) sammenlignes med filmeksperters forudsigelse af vindere af Oscar. Hvis der er en gruppe filmfolk der med 60% sandsynlighed erklæres for vindere så skal 60% af dem vinde. Den ekspert eller det prædiktionsmarked der kommer tættest på det tal er bedst. På forhånd kan man ikke være sikker på hvem der er bedst, men i machine learning er der vel den fornemmelse at ensemble-modeller/konsensus-modeller ofte er bedre.

Når man beviser at ensemble-modeller er bedre end middel af de individuelle modeller kan det gøres med kvadratiske kost-funktioner, men det må vel gælde for alle konvekse kost-funktioner så vidt jeg kan se. Nogle af de individuelle modeller vil være bedre end andre individuelle modeller. Hvis man ved hvem der er bedre kan man vægte dem højre. Nogle individuelle modeller kan også være bedre end ensemble-modellen. I de par studier jeg har været involveret i med real-life-data har det sjov nok vist sig at ensemble-modellen er bedre end den bedste individuelle model.

Gordon Flemming Blogger

Finn,

Tak for dit svar, så må jeg nok hellere omformulere mit andet spørgsmål til:

Jo, men hvad kan du så bruge en forudsigelse (prædiktion) til? Hvis du først ved om den er sand, efter at hændelsen har indtruffet? Er hele formålet med forudsigelser ikke at kende udfaldet før det sker?

Christian Lynbech

principielt burde det kunne simuleres, endda ret detaljeret

Problemet er at vi ikke ved hvor meget der kræves af forståelse for at få en gyldig simulation der har intelligent kapacitet. Vi kender en del til hjernens kemi, men da vi ikke pt ved hvad der gør hjernen intelligent, så ved vi heller ikke om vi ved nok om hjernen og dens kemi til at lave en simulering. Hvis det nu til eksempel viser sig at man skal have minimum 5 mia neuroner for at opnå intelligent opførsel, så er vi tæt på at være uendeligt langt fra at kunne simulere hjernens intelligens.

Du har selvfølgeligt helt ret i at vi ikke behøver at genskabe Einstein for at vise at vi har skabt noget intelligent, men bare at nå på helt almindelig hverdags intelligens som man ser det hos små børn, er stadigvæk meget langt fra det der kan laves idag.

En af AI forskningens tidlige store skuffelser var en erkendelse af at det kræver fuld intelligens (eller ihvertfald noget der er meget tæt på) bare for at få et system der er istand til at fungere korrekt med naturligt menneskeligt sprog og der er ret svært at forestille sig at man kan have et system der kan opfattes som intelligent som man ikke kan snakke naturligt med. Man havde oprindeligt forestillet sig at det var en overkommelig del-opgave. Ganske vist er vi kommet meget langt med Siri og Cortana og hvad de ellers hedder, men man skal ikke snakke ret længe med Siri for at forstå at intelligent, som vi normalt forstår det, det er det altså ikke.

Gordon Flemming Blogger

Jeg fandt lige denne artikel

Will computers ever truly understand what we're saying?

If you think computers are quickly approaching true human communication, think again. Computers like Siri often get confused because they judge meaning by looking at a word's statistical regularity. This is unlike humans, for whom context is more important than the word or signal

Log ind eller opret en konto for at skrive kommentarer