Google rammer 94 procents nøjagtighed med ny teknologi til billedgenkendelse

4 kommentarer.  Hop til debatten
Google rammer 94 procents nøjagtighed med ny teknologi til billedgenkendelse
Illustration: Google LLC.
Mange nyder de simple fordele med Googles AI-fotogenkendelse. Ny avanceret teknologi sætter nye højder for billedgenkendelse.
26. september 2016 kl. 13:05
errorÆldre end 30 dage
Manglende links i teksten kan sandsynligvis findes i bunden af artiklen.

Google Photo rummer i dag en meget skrabet algoritme, der identificerer objekter i billeder såsom af katte, hunde og mad. Men Google har arbejdet på et langt mere avanceret system til billedgenkendelse, som lige er blevet offentliggjort. Det skriver AndroidAuthority.com.

På Googles Research Blog kan man læse, at Googles AI-system til billedgenkendelse har opnået en nøjagtighed på 93,9 procent. Resultaterne fra 2014, hvor man brugte Inception V1-billedmodellen, havde 89,6 procent nøjagtighed. Umiddelbart er det ikke en forbedring, der synes særlig stor, men når det gælder billedgenkendelse, er kurven ganske stejl.

Systemet er ikke kun bedre til at identificere objekter, udviklingen betyder også, at systemet nu er blevet bedre til at beskrive, hvad der er på fotoet, med eksempelvis specifikke farver og handlinger, som det ses nedenfor.

Artiklen fortsætter efter annoncen

Inception V3-modellen, der er den nyeste klassificeringsmodel, er blandt andet mere effektiv, fordi systemet ikke alene identificerer individuelle objekter i et billede, men også relaterer dem til hinanden.

Chris Shallue, der er softwareingeniør hos Googles Brain Team, beskriver det således:

»En typisk klassifikationsmodel til billedgenkendelse vil fortælle, at billedet for eksempel indeholder en hund, græs og en frisbee, men beskrivelsen bør også fortælle dig farven på græsset, samt hvordan hunden og frisbeen er relateret.«

Resultaterne er opnået ved, at folk har skrevet billedtekster til hundredtusindvis af billeder, hvorefter udviklerne har fodret programmet TensorFlow med de data. Algoritmen genbruger de menneskegenererede billedtekster, hvis ligheden i billederne er stor nok, men algoritmen genererer også egne beskrivelser på farten, når den bliver præsenteret for noget nyt.

Google har frigivet dsin seneste model af TensorFlow i håb om, at udviklere vil bruge det og videreudvikle det.

4 kommentarer.  Hop til debatten
Debatten
Log ind for at deltage i debatten.
settingsDebatindstillinger
1
26. september 2016 kl. 14:24

Også er at forstå, så kommer det også tætter og tætter på rigtigt tænkning.

Og til dem som mener det kun er "data opslag" og ikke andet. prøv at ringe til mig tidligt mandag morgen, og prøve at spørge mig om noget som bunder i en fejl 40. Så får de også et "data opslag", som "har du prøvet at genstarte".