26-årig bygger selvkørende bil med Ubuntu på en måned - nu vil han slå Tesla

En 26-årig amerikaner har bygget en selvkørende bil i sin garage på en måned. Bedriften bliver hyldet som enestående, men er også dybt problematisk, når man dykker ned under overfladen på softwaren.

Hvordan lærer man en bil at køre af sig selv?

Denne udfordring bliver ikke kun angrebet af store teknologivirksomheder som Google og Tesla. For nylig lykkedes det en 26-årig amerikaner ved navn George Hotz at bygge en fungerende selvkørende bil på egen hånd.

Ved hjælp af teknologisk snilde, et laserbaseret radarsystem på taget, 5 smartphone-kameraer og en computer med Ubuntu Linux installeret, lykkedes det ham på blot en måned at gøre en Honda Acura selvkørende.

Bedriften blev fremhævet i internationale medier og har tiltrukket en del opmærksomhed – ikke mindst fra bilproducenten Tesla.

For hvordan kan en ung, selvlært hacker egenhændigt og på så kort tid gøre det, som Google og Tesla har kæmpet med i adskillige år?

George Hotz har efter eget udsagn afvist et tilbud på en millionkontrakt fra Teslastifteren Elon Musk og i stedet indgået et væddemål om, at hans selvkørende bil kan slå en selvkørende Tesla Model S på motorvejen om et par måneder.

Men hvorvidt den unge bilhacker virkelig har knækket koden til fremtidens selvkørende bil er dog tvivlsomt. For mens Google og Tesla holder kortene tæt til kroppen om, hvordan de udvikler softwaren bag de selvkørende biler, så viser George Hotz med åbenheden omkring sin bedrift hvor meget arbejde, der endnu mangler, før selvkørende biler kan blive udbredt.

Bilen lærer at køre fra dig

Ved første øjekast virker George Hotz’ selvkørende bil som en imponerende - nærmest umenneskelig - bedrift.

Nøgleordet bag opfindelsen er deep learning-software, der kan fortolke de meget komplicerede input fra bilens kameraer og gradvist lære, hvordan man kører. Kort fortalt går deep learning ud på at give computeren en opgave – f.eks. at komme fra A til B – og så selv lade systemet om at finde den bedste måde at løse opgaven på baseret på enorme datamængder i såkaldte neurale netværk.

Når en selvkørende bil skal navigere rundt i trafikken, er det en meget kompleks opgave. Den skal tage stilling til alt fra trafiklys, andre biler, fodgængere og cyklister – med andre ord en lang række situationsbestemte parametre.

Normalt vil man ifølge George Hotz manuelt programmere regler for bilens opførsel i forhold til disse forskellige parametre, f.eks. ‘når trafiklyset bliver gult, så brems op, hvis ikke bilen er for tæt på lyskrydset.'

Dette bliver dog hurtigt en meget kompleks opgave. En programmør vil højst sandsynligt aldrig være i stand til at bygge et robust regelsæt, som kan gøre det både pålideligt og sikkert at slippe en selvkørende bil løs i det trafikale kaos.

I stedet for at forsøge at gennemtænke alle disse scenarier, har Hotz’ forsøgt sig med en meget simplere tilgang. Han giver ikke bilen nogen regler på forhånd, men lader i stedet computeren iagttage, hvordan han selv kører. På den måde lærer den gradvist, hvordan man opfører sig i trafikken.

Efter blot 2½ times ‘træning’ kunne bilen køre styre rattet som en teenager, der lige havde fået kørekort. Det handler ifølge George Hotz om at få computeren til at være som et menneske.

Efter to yderligere træningssessioner kunne bilen ikke blot styre rattet selv, men også kontrollere speeder og bremse. Ifølge Hotz’ selv er hans software helt blottet for en masse regler og if-sætninger, der fortæller bilen, hvad den skal gøre i de forskellige situationer. Softwaren fortolker bilens sensordata, så det giver mening for deep learning-softwaren - og så fylder den kun omkring 2.000 kodelinjer.

På den ene side er dette Hotz’ store bedrift. Samtidig er det også systemets altoverskyggende akilleshæl.

»Naiv tro på neurale netværk«

For hvert ‘sanseindtryk’ den selvkørende bil oplever, lærer AI-softwaren den korrekte reaktion ud fra, hvordan chaufføren reagerer med rattet, speederen og bremsen.

Dette giver bilen et sofistikeret erfaringskatalog at handle ud fra. Alligevel har det sine begrænsninger, når man kun laver en selvkørende bil på den måde.

»Hans (George Hotz’, red.) tro på, at han kan lave en generel tilgang, er naiv. Det er en overvurdering af, hvad neurale netværk kan,« siger Niels Jul Jacobsen, teknisk direktør for robotfirmaet MIR i Odense.

Det danske robotfirma producerer selvkørende robotter, der lærer at reagere på menneskelige omgivelser - en udfordring i samme boldgade som George Hotz, Google og Tesla. Overordnet er vi dog slet ikke nået til et punkt, hvor vi kan skabe kunstigt intelligente systemer, der kan skabe en pålidelig selvkørende bil ifølge Niels Jul Jacobsen.

Neurale netværk kan ifølge robot-direktøren lære at justere forskellige parametre, men kan ikke lære sig selv noget nyt.

Det betyder eksempelvis, at den selvkørende bil kan lære, hvor meget man skal bremse for at dreje optimalt i vejkurver baseret på de mange timers køreerfaring. Men udsætter man bilen for en situation, som den endnu ikke har ‘lært’, så vil den ikke kunne forholde sig til det og måske køre galt.

Hvad nu, hvis bilen ikke har lært at køre på is? Og hvad gør den, hvis der falder en person ud af bilen foran – en situation som den sandsynligvis ikke kender til.

Selvom man ikke eksplicit koder alle reglerne ind i softwaren, undgår man ikke at tage stilling til et overvældende antal scenarier.

»Vi har teknologien til at lave selvkørende biler, men vi mangler forståelsen. Bilen er nødt til at have en situationsforståelse, så den kan tage stilling til det rigtige,« siger Niels Jul Jacobsen.

Selvkørende biler mangler situationsfornemmelse

Der er to centrale udfordringer, når man skal udvikle systemet i en selvkørende bil: en statisk og en dynamisk.

Den statiske går på selve kortlægningen af vejene og omgivelserne og hvordan man får en selvkørende bil til at navigere optimalt og komme sikkert fra A til B. Denne udfordring er ifølge Niels Jul Jacobsen tæt på at blive knækket. Google er med sit omfattende Street View-netværk i gang med at modellere alverdens veje i 3D ned til de mindste detaljer, såsom højden på fortovet. Og det bliver bl.a. suppleret af open source-mapping projektet Mapillary, der ved hjælp af structure for motion-teknologien hæfter millioner af crowdsourcede 2D-gadebilleder sammen og gengiver omgivelserne i tre dimensioner.

Læs også: Open source-alternativ til Google Street View i eksplosiv vækst

Men lige meget hvor detaljerede disse kort er, kan de ikke advare den selvkørende bil, når barnet løber ud på vejbanen fra den parkerede bil for at gribe bolden. Eller med andre ord: De kan ikke give bilen en situationsfornemmelse.

Og dette er netop kernen af dilemmaet med George Hotz’ selvkørende bil. For hvordan ved bilen, hvordan den skal reagere, hvis den eneste måde at redde barnet på er ved at dreje ind i en mur og dræbe føreren?

Dette etiske dilemma er velbeskrevet og -diskuteret, og her giver George Hotz’ løsning ingen svar.

Læs også: Når en selvkørende bil skal vælge mellem at ramme et barn eller to pensionister: Hvad er programmørens ansvar?

For det første vil systemet sandsynligvis ikke have lært om den pågældende situation på forhånd, og for det andet er der ikke programmeret nogen etik ind i hans algoritmer. Systemet har måske lært, at man som fører skal forsøge at undgå objekter på vejene. Men kan det ikke forstå værdien af mennesker frem for hunde, bolde eller ølkasser, så kan det heller ikke træffe de rigtige valg. Valg som kan betyde forskellen mellem liv og død.

Med sådan et system er det tvivlsomt, om selvkørende biler vil kunne nedsætte antallet af trafikulykker på vejene med omkring tre fjerdedele, som det er blevet spået i The Economist.

»Køretøjet skal vide, hvad der sker i dens omgivelser og helst også hvorfor. Baseret på det, kan den tage stilling til det rigtige,« siger Niels Jul Jacobsen.

Tesla opsummerer selv en del af problemstillingen i selskabets reaktion på artiklen om George Hotz og hans selvkørende bil:

»Den kan muligvis fungere som en begrænset demonstration på en kendt vejstrækning. Men det kræver enorme ressourcer at debugge flere millioner kilometer af meget forskellige veje,« skriver Tesla og uddyber:

»At få et machine learning-system til at være 99 pct. korrekt er relativt let, men at få det op på 99,9999 pct. - hvilket er der, vi bliver nødt til at at være - er umådeligt meget sværere.«

Hvert år bliver der lavet konkurrencer, hvor forskellige computersystemer kappes om at identificere eksempelvis en hund. Dette sker måske over 99 pct. af gangene, men af og til tager computeren fejl og identificerer hunden som en potteplante.

»At lave sådan en fejl med 110 km/t vil være højst problematisk,« skriver Tesla.

Hvorfor Tesla måske har trukket det længste strå

Tesla har i den seneste tid gradvist udrullet flere selvkørende features til deres biler i form af softwareopdateringer.

Den seneste gør bilen i stand til at køre ud af garagen og hente ejeren ved hoveddøren. Dermed er Teslas biler stadig milevidt fra at blive helt autonome, så føreren kan tage sig en lur på bagsædet under turen.

Omvendt satser Google på at nå dertil i første hug. Selskabets selvkørende bil (SDC) skal kunne fungere uden en fører fra starten, hvilket gør udfordringen mange gange sværere end at få en bil til at overtage enkelte dele af kørslen, som Tesla gør det.

På sigt kan denne forskel give Tesla et vist forspring.

Tænk på, hvad George Hotz’ bil med deep learning kunne lære baseret på blot 2½ times ‘kørselstræning’. Forestil dig så, hvad 100.000 biler ved forenet kraft kan præstere.

Værdien af et givent deep learning-system kan blandt andet vurderes ud fra størrelsen på det datasæt, som det har adgang til. Og her har Tesla potentialet til at slå Google.

Tesla har nemlig anslået solgt omkring 100.000 biler af modellen Model S. Hver gang en af dem kører ud på vejen, optager Tesla bilens sensordata og uploader dem til skyen, hvor de hjælper selskabets deep learning-system med at blive selvkørende.

Dermed har Tesla adgang til træningsdata som langt overstiger, hvad Google er i stand til at mønstre.

Elon Musk har heller ikke været sen til at prale med det:

»Hele Tesla-flåden opererer som et netværk. Hver gang en bil lærer noget, så lærer de det alle sammen. Det er hinsides, hvad andre bilfirmaer gør,« sagde han tilbage i oktober 2015.

Der er med andre ord lagt op til at give George Hotz, Google og andre med selvkørende biler baghjul.

Medmindre andre bilproducenter med langt flere biler på vejene begynder at gøre Tesla kunsten efter...

Tips og korrekturforslag til denne historie sendes til tip@version2.dk

Følg forløbet

Kommentarer (24)

Thomas Nielsen

Når man arbejder med kunstige neurale netværk bliver man simpelthen bjergtaget. Selv med en rationel tilgang, kan man ikke undslå sig en vis wow-fornemmelse, og det er ikke spor svært at forestille sig, at det er det som er sket for den kære Hotz. Men imponerende er det godt nok.

Jeg husker ikke præcist detaljerne, men anekdoten forekommer mig at være om det finske forsvar, som forsøgte sig med at genkende camouflerede stillinger på satellitbilleder. Det virkede fint indtil den dag hvor det ikke længere virkede. Det viste sig at indlæringsbillederne med stillinger var optaget i een slags vejr og billederne uden i en anden og at netværket havde et højt bias imod vejret og ikke stillingerne.

Franz Hansen

Indlærer system også mennesket reaktionstider. Det vil jo ikke gøre det bedre, men måske kan den lære at forudse situationer ligesom erfarne bilister kan og tage farten af inde noget måske vil ske.

Christian Nobel

Kunne journalisterne ikke mande sig lidt op. Her er tale om seriøs programmering og indlevelse i sensor teknik på højt niveau, hvad har det med en hacker at gøre?

Måske du selv skulle mande dig selv op - manden har lige præcis lavet nogle ret så gennemtænkte hacks.

At du så (desværre sammen med hovedparten af pøblen) ikke kender forskel på hacking og cracking er ikke Elias' skyld - tværtom, så skal Elias have ros for at bruge udtrykket korrekt.

Jan Heisterberg

Hvorfor er det sådan, at journalister, såkaldte eksperter og kommentatorer ALLE forsøger sig med bedre-viden og kritik ? Hvorfor ikke acceptere tingene konkret som de er, og så enten komme med faglige kommentarer eller spørgsmål til opklaring?

Det virker oftest som om "ikke opfundet her, af mig, i mit værksted", så er det nok noget bras som ikke virker.

Det kan da godt være at nogle af bemærkningernes herover er baseret på personlig viden og personlig erfaring, men det kan jo også være at sagens genstand ER genial og anderledes. Kan der være problemer? Ja da. Kan det bruges ? Måske.

Opfinderhistorien er fuld af "humlebier" = kan ikke lade sig gøre. Men det viser sig .....

Vær dog lidt positiv-kritiske uden at være jubel-optimister.
Uden grød havde vi ikke haft dybe tallerkner ..... Måske.

Ib Erik Söderblom

Han har fundet en mere enkel metode til at lære bilen de mest basale trin i selvkøring.

Det er da kun positivt.

Når han så kritiseres for ikke at ramme samtlige trafikale muligheder, så skyldes det måske, at kritikerne ikke selv forstår disse og ikke evner at skære ind til benet.

Havde de måske evnet at opfinde det elektroniske system til ABS, når de nu ikke kunne garantere for opførsel på forskellige underlag, temperaturer, fugtighedsgrader og dækudvalg, eller hvordan de nu kunne finde på at vanskeliggøre ideen ?

Jacob Pind

sådan et neuronant net er jo svært verficerbart , og efterfølgende debugging af hvorfor det har opført sig som det nu har gjort, vil jo kræve man har den data som er brugt til at træne det med, og at man har tidliger kopier af netværet så man kan find ud af hvor fejlen er opstået, rette den også træne det på ny igen.

Peter Christiansen

Jeg synes det er fantastisk,
selv om alle "eksperterne" siger det er flawed. Man behøver vel ikke en
komplet ai for at køre bil, det er jo ikke fordi du og jeg når at tænke på
om vi for at undgå den lastbil der bremser hårdt op, skal køre op på
fortovet og dræbe børnene, eller vi skal svinge til venstre og dræbe os
selv på den anden lastbil i det andet spor.

Imo stiller "eksperterne" alt for store krav til det at køre bil, når det skal
gøres af en computer. Mit krav ville være at den skal kunne køre bil som
en gennemsnits billist. Så kan man putte de algoritmer der undgår børn
ind senere. Børn er i bund og grund bare en forhindring som sensorene
sagtens kan registrere, ingen grund til at skelne og lave beregning om man
skal køre dem ned for at redde mennesket i bilen eller skåne børnene, de krav
er der jo heller ikke til mennesket bag rattet.

Han har lavet noget realistisk og jeg er sikker på han vinder det væddemål
med Elon Musk.

AI folkene sidder for meget oppe i deres tårn og filosoferer om noget AI, der
måske er 50 år i fremtiden i stedet for at komme til tilbage til virkeligheden,
hvor vi har: sensorer, kameraer, billedgenkendelse, neurale net, deep learning
og ikke en T-1000, der også kan skifte udseende så den passer til dens
menneske passagers gemyt og generelle humør.

At så tesla deler information bilerne imellem er jo ikke noget som George Hotz
ikke også kunne gøre, når / hvis han får flere biler.

Ditlev Petersen

Med amerikanernes holdning til skydevåben undrer det mig ikke, at man er begejstret over en "learning by doing"-bil. Jeg har også hørt, at bilsyn er noget væmmeligt noget, som bør undgås. Det næste bliver måske noget tungt, flyvende, som også lærer af sine fejl.
Det er vel ikke for at få tiden til at gå, at bilfirmaerne bruger så mange timer på opgaven. Det er ikke helt ligetil at få en maskine uden bevidsthed, forståelse eller ansvarsfølelse til at bevæge sig rundt mellem mennesker og andre dyr i et uforudsigeligt miljø uden at lave ulykker. Problemet er ikke, om den skal vælge at slå pensionister ihjel i stedet for at slå børn ihjel. Den skal ikke slå ihjel eller lædere (ideelt set).
Hellere lidt "Jantelov" end klippekort hos bedemanden.

Torben Mogensen Blogger

Selv "traditionel" AI er stort set umulig at verificere. Så en godkendelse vil næppe kræve en formel verifikation, men blot dokumentation for, at systemet handler forsvarligt i en lang række situationer. Ligesom chrash-tests kan denne dokumentation også indeholde ulykkes-situationer, hvor bilen og dens fører bliver beskadiget. De vil selvfølgelig være simuleret med dukker og lignende i stedet for levende personer, men bør omfatte en lang række af både almindelige og ualmindelige faresituationer. Her kan dataindsamling bruges til at klarificere hvilke situationer, det er relevant at afprøve.

Man kan sagtens forestille sig, at maskinlæring kan bruges til at lære bilen at håndtere farlige situationer. Det kan f.eks. ske gennem simuleret kørsel under forskellige forhold, f.eks. pludselige bevægelser i omgivelserne, dårlig sigtbarhed, glatføre, tæt trafik, dyr på vejen, kørsel gennem folkemængder, osv. Udvalgte af disse kan efterfølgende afprøves i fysiske omgivelser med dukker. Og efter at systemerne er sat i brug, kan data fra faktiske uheld (eller nær-uheld) bruges til at forbedre håndteringen.

Her er Teslas ide faktisk god: Lav en initiel software, der kan håndtere nogle få standardsituationer (parkering, motorvejskørsel, osv.), indsaml data for både automatisk og manuel kørsel, brug det til at træne softwaren til at håndtere flere situationer, tilbyd disse når de har tilstrækkelig kvalitet, osv, indtil man har tilstrækkelig dækningsgrad til at kunne tilbyde fuldautomatisk kørsel.

Jens loggo

At du så (desværre sammen med hovedparten af pøblen) ikke kender forskel på hacking og cracking er ikke Elias' skyld - tværtom, så skal Elias have ros for at bruge udtrykket korrekt.

Sproget ændrer sig hele tiden, og sådan har det altid været. Hacking har en ny (ekstra) betydning idag, og det er ikke forkert, eller mindre korrekt.

At hænge fast i fortiden, og ikke kunne tilpasse sig ændringer, bør ikke være noget der hører it-verdenen til. Det er om noget et sted, hvor der sker ændringer, og det drejer sig om at følge med.

Peter Christiansen

Den skal ikke slå ihjel eller lædere (ideelt set).

Er det ikke lidt b/s at holde vores elektronik til andre standarder
end dem vi selv henholder os til?
I hvert fald her i starten når vi ikke har noget der tilnærmelsesvis
minder om noget man kan kalde kunstig intelligens.

Men NÅR vi har opfundet AI, for eksempel gennem forsøg som disse,
og dem der kommer efter, kan vi ligge de erfaringer oven i og
så kan vi se på de ting som at den ikke må slå ihjel,
og så kan man evt. lytte til koret af filosoffer om hvordan det rent
etisk skal foregå.

Man skal krybe før man kan gå og det vil være naivt at tro at vi
i vores tid starter med en fullblown AI lige fra starthullerne.

Lars Lundin

At så tesla deler information bilerne imellem er jo ikke noget som George Hotz
ikke også kunne gøre, når / hvis han får flere biler.

Netop. Tilstrækkeligt ens biler bør kunne dele deres indlæring, og på den måde voldsomt forbedre indsamlingen af erfaringer.

Det er netop med deling af sensorinput mellem bilerne at Tesla lærer Model S præcis hvor vejbanen er.

Også jeg fornemmer en vis misundelse fra de etablerede producenter.

Esben Nielsen

Man må kunne simulere at personer render ud foran bilen og træne med det også.

Det må generelt være nemt at lave en bilmodel og optagede billeder ude fra verden og skabe en masse trænings- og verifikationsdata.

Georg Strøm Blogger

Eksemplet med at bilen skal vælge mellem at køre en person ned, for at undgå at redde andre, er søgt og usandsynligt. Det væsentlige problem er, at programmering ved læring fungerer godt, når der er tale om almindelige hændelser, som programmet kan prøve et stort antal variationer af, mens det er langt vanskeligere at skaffe nok usædvanlige tilfælde, for eksempel hvor en overhaling næsten var gået galt. Det kan man så delvis komme over, ved at bruge en simulator eller kørsel på baner til at træne biler i ekstreme situationer. Måske er det så endda muligt at skabe en bil som er bedre til at klare en kritisk situation end en menneskelig bilist, der måske aldrig før har oplevet den.

Lars Lundin

Det væsentlige problem er, at programmering ved læring fungerer godt, når der er tale om almindelige hændelser, som programmet kan prøve et stort antal variationer af, mens det er langt vanskeligere at skaffe nok usædvanlige tilfælde, for eksempel hvor en overhaling næsten var gået galt. Det kan man så delvis komme over, ved at bruge en simulator eller kørsel på baner til at træne biler i ekstreme situationer. Måske er det så endda muligt at skabe en bil som er bedre til at klare en kritisk situation end en menneskelig bilist, der måske aldrig før har oplevet den.

Lad os sige at når bilen kører med menneskelig styring, så lærer den.
Når der så opstår en situation, hvor bilen kan se at den selv var langt fra at have kunnet håndtere situationen, så sender den sit sensorinput og bilistens reaktion tilbage til producenten, der så kan distribuere denne lektion til de andre biler.

På den måde må man kunne accelerere indlæringen voldsomt.

Der er selvfølgelig et massivt privatlivsproblem her, eftersom de færreste bilister ønsker at deres usædvanlige køreoplevelser deles med andre. Her må den generelle løsning ifbm. selvkørende biler være at data der vedrører bilen skal separeres fra information om hvem føreren er.

Ditlev Petersen

Er det ikke lidt b/s at holde vores elektronik til andre standarder
end dem vi selv henholder os til?
I hvert fald her i starten når vi ikke har noget der tilnærmelsesvis
minder om noget man kan kalde kunstig intelligens.


Nej. I øvrigt har jeg da som egen standard, at jeg prøver at undgå at slå folk ihjel. Også når jeg kører bil. Det bør en autonom bil også gøre, også selv om den ikke styres af nogen avanceret AI. Lige som medicindispenserrobotter ikke børe hælde forkert medicin op, strålekanoner ikke dræbe patienten (det er sket), fly falde ned på grund af it-problemer (JAS Gripen gjorde det engang). Ansvarlighed og meget høje standarder bør være et krav, når man arbejder med udstyr, der kan slå ihjel.At ville programmere biler efter standarden fra Assassins Creed hører ingen steder hjemme.

Og giv mig så lige nogle flere nedadvendte tommelfingre.

Peter Christiansen

Hej Ditlev,
selvfølgelig skal de ikke slå folk i hjel med vilje og undgå det, men
der sker uheld i virkeligheden med mennesker indblandet og det gør der også
med den slags AI (hvis man kan kalde den det) som vi pt. har teknologi
til at udtænke.

Min pointe var bare at vi ikke bør være for perfektionistiske her i start
fasen, men acceptere at selv om det er maskiner og selv om vi gerne vil
kalde dem intelligente, kan der forventes uheld.

Du får lige en thumbs up

Ditlev Petersen

Enig, perfektionister kommer til at vente længe på ingenting. Men man skal stille store krav til sikkerheden, rimelige og store. Ellers får man en massiv modstand (ud over blod over det hele). Derfor er jeg ikke begejstret for en løsning udviklet på én måned. Med mindre fyren kan "bevise" på en testbane og i simulationer, at det er "godt nok".
Herude på Djursland er folk åbenbart vilde med at køre i både beruset og skæv tilstand. Det vil ikke være umuligt at gøre det bedre end dét! Hvor så det næste problem opstår: Hvor nemt er det at introducere fremmed kode i bilen, dvs. hacke den (i den nyere betydning)?

Jørgen Henningsen

Hvor nemt er det at introducere fremmed kode i bilen, dvs. hacke den (i den nyere betydning)?


Stabiliteten i systemet er netop den store udfordring. Dels på IT-sikkerheden, men også på alt det andet. Vi har jo set passagerfly styrte p.g.a. tilisning af de rør som bruges til fartmåling, og det er jo en branche hvor man netop går meget op i sikkerhed.
Det er klart at en styre computer har langt mere data end en menneskelig fører har, men man skal også vide hvad man skal stille op med disse data. Det er f.eks. relativt nemt at detekterer om det er glat v.h.a. hjulsensorer, men hvad skal AI-systemet stille op med den information? Det er jo ikke en information som systemets 'køre lærer' normalt har adgang til. Tilsvarende gælder det for 360 grader radardata eller andre sensordata, som en menneskelig fører ikke normalt har adgang til. Disse skal ind i systemet på en sikker og stabil måde.

Niels Danielsen

Vi har jo set passagerfly styrte p.g.a. tilisning af de rør som bruges til fartmåling


Jeg er enig i det du skriver, blot er dette ikke et særligt godt eksempel på en software fejl.
Årsagen er at jeg ser ikke dette som et decideret 'Functional Safety' svigt, hvilket jeg vil prøve at redegøre for i denne lidt lange forklaring.
Det at Airspeed Indicators kan fejle pga. is, insekter, etc. har været kendt siden flyvningens barndom.
Ligesålænge har man trænet piloter i hvordan man skulle håndtere denne situation. (Indrømmet det må være noget nemmere at håndtere dette i et langsomt simpelt fly i VMC, ift. et hurtigt FBW i IMC).
Derfor er strategien i moderne fly, at have redundante airspeed indicators med så god varme som muligt. At have software der sammenligner og overvåger sensorerne. (Diagnostic Coverage) , og som advare piloterne i tilfælde af 'unreliable airspeed'.
Samt have procedure for hvorledes 'unreliable airspeed' skal håndteres, shjv. håndteres de første trin i denne checkliste som 'Memory Items', dvs. piloterne skal kunne dem udenad.
Siden da har Airbus udskiftet pitot rørene med en type der er lidt bedre til at håndtere is, samt gjort software featuren BUSS til standard. (Udviklet før AF447 ulykken)
Det som check listen, BUSS, og Boeing patentet gør et at flyve efter 'pitch and power', hvilket kan sammenlignes med at udregne den hastighed en bil vil stabilisere sig på ud fra motor manifold trykket, Cp værdi, og kørebanens hældning. (En indirekte metode med mange antagelser)
http://www.aviaddicts.com/wiki/a330:backup_speed_scale
http://www.google.com/patents/EP2715287A1?cl=en

Log ind eller opret en konto for at skrive kommentarer