Eksplosion af data kræver ‘Edge Analytics’: For dyrt at gemme data, vi ikke skal bruge

Intelligente og internet-opkoblede biler er en oplagt use case for Edge Analytics. Illustration: SAS
Ekstreme datamængder vokser sig for store til, at det giver mening at samle og gemme det hele centralt.

Med industri-IoT står mange virksomheder i dag med mere data, end de meningsfuldt kan hente og gemme centralt. Løsningen er at bringe dataanalysen helt ud til sensoren, lyder det fra analyse-giganten SAS.

Strategien har fået navnet Edge Analytics - hvor kanten henviser til det yderste af virksomhedens netværk. Her skal man i realtid afgøre om den data, der analyseres i strømmen, er nødvendig at sende videre til opbevaring i skyen.

Læs også: Fra skygge-it til kontrolleret anarki: Sov godt om natten trods data-tag-selv-bord

Tilgangen bryder med, hvad der er blevet børnelærdom inden for dataanalyse - indhent al data, stil spørgsmål senere. For selvom prisen på storage falder, så stiger datamængderne endnu hurtigere.

»Du kommer til et punkt, hvor der er brug for så meget storage, at det ikke i sig selv er billigt,« forklarer Randy Guard, der er CMO i SAS.

Drop data-trawl

Randy Guard har fuld forståelse for, at virksomheder hælder mod at indsamle så meget data som muligt. For man ved ikke, hvad man misser, hvis det ikke bliver indsamlet.

»Kunder løber ind i problemer, hvor de opsamler ekstremt meget data, men ikke ved, om de opsamler den rette data. For der er omkostninger forbundet med opsamlingen,« understreger han.

Læs også: SAS Institute: Lad kunstig intelligens erstatte statistikere til business-analyse

I stedet for at indhente al data med trawl, skal virksomheder ifølge analysekæmpen finde ud af, dels hvilken data de skal opsamle, hvilken data skal analyseres live og smides væk, og hvilken data skal gemmes og modelleres på online.

Illustration: MI Grafik

Filtreres under opsamling

En oplagt use case for edge analytics er en intelligent bil, der snildt kan have 100 sensorer til at generere store datamængder hvert sekund og hver kilometer.

»Det er dyrt at hente al den data, og finde ud af, at man ikke skal bruge den,« siger Jerry Baulier, der leder R&D-afdelingen hos SAS.

For hver sensor og data-type skal man tage beslutningen, om den skal analyseres i selve bilen og/eller hentes til skyen eller anden storage og analyseres der.

»Det er dyrt at hente al den data, og finde ud af, at man ikke skal bruge den.«

Læs også: Vestas samler analytics-værktøjer i intern app store

Noget data kan bruges af chaufføren under kørslen - fx til at vurdere om bilen skal på værksted. Anden data kan bruges af producenten for systematisk analyse af motor-modellen med videre.

Hovedsagen er, at data’en skal filtreres allerede, når den skabes. Det kan fx ske ved først at videresende data til skyen, hvis en måling overskrider en i forvejen fastslået værdi.

Real time analyse kræver ny hardware

At have analysekraft installeret side om side med sensorer kræver hardware, der kan mere end at sende datastrømmen videre.

Selskaber som Intel og Cisco har allerede udviklet gateways, der har computer-kraft nok til at lave beregninger på data, inden den eventuelt sendes videre i systemet.

Læs også: Cisco: Vi kan ikke håndtere eksplosion i IoT-enheder uden netværks-virtualisering

Ligeledes har både IBM og SAS udgivet analysesoftware, der gør det muligt fx at definere, hvornår data skal gemmes, og hvornår det skal smides ud.

Ifølge Gartner bliver 90 procent af virksomheders data kunde anvendt én gang. Og i mange tilfælde vil værdien af data falde jo længere tid der går - fx hvis en selvkørende bil skal udløse bremserne, eller en industriel bagemaskine skal korrigere for luftfugtigheden.

Mavefornemmelsen ryger ud over kanten

Hvis realtime analytics skal lede til automatiske beslutninger allerede inden data er gemt nogen steder, kræver det, at selskaber slipper behovet for at konsultere den mavefornemmelsen, som mange virksomheder stadig følger.

»Hvis du gør det fuldautomatiseret, har du taget mavefornemmelse ud af billedet,« understreger Randy Guard.

Læs også: Gartner om analytics: Virksomheder kigger på data - men lader maven bestemme

Hvis virksomheder skal være trygge ved at opgive mavefornemmelsen, skal de være i stand til at se, hvordan systemet arbejder, og gribe ind hurtigt, hvis der er behov for det, fastslår han.

»Kunderne skal kunne iterere hurtigt. Hvis du ikke kan lide det respons, du får, skal du kunne ændre det i morgen - ikke om tre eller seks måneder.«

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (1)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
#1 Lars Jensen

Jeg kan ikke se det nye i dette, bortset fra det fancy navn "Edge Analytics". I industri har man siden slutningen af 90'erne benyttet denne teknologi. Filtrering og smoothing af data har alle dage været benyttet. Eneste forskel er at det blev lagt i lokal database - som de fleste stadigvæk gør.

  • 2
  • 0
Log ind eller Opret konto for at kommentere