Epic Games' datacenter har mere end 35 petabyte Fortnite-data til analyse

Illustration: Fortnite
Data science og ML kan løfte nogle af spilindustriens største udfordringer. Bedre brug af data og machine learning kan hjælpe spiludviklere med at teste spil og stoppe snyd.

I marts 2019 nåede battle royal-spillet Fortnite op på 250 millioner registrerede spillere. Foruden at være en skelsættende kæmpesucces, er spillet en datamaskine af dimensioner med omkring 80 milliarder events hver eneste dag.

Udvikleren Epic Games har et datavarehus med over 35 petabyte, eller 35 millioner gigabyte, med data specifikt for Fortnite, og hver måned vokser datasamlingen 5 pb. Herfra laver udviklerne analyser på potentielle problemer i spillet, spillernes engagement, KPI'er og justerer derefter.

Og selvom Fortnite er i en klasse for sig, er strategien symptomatisk for en spilindustri, der udnytter avanceret dataanalyse til at forbedre spiloplevelsen.

»Inden for spildesign ser du mange af de samme workloads, som du ser i andre virksomheder, når det handler om data science og analytics,« fortæller Eric Morales, der er chef for spilindustrisegmentet hos Amazon Web Services.

»De undersøger, hvad der sker, hvis de flytter en knap fra et hjørne til et andet hjørne, ændrer det conversionrates, forbedrer det kundernes engagement og så videre.«

Dertil kommer dataanalyse af data fra sociale medier. Selskaber som Epic Games og Supercell arbejder med sentiment-analyser for at følge brugernes reaktion på designbeslutninger, og se på om de bliver glade eller frustrerede.

Identificér snyderne

Andre data-udfordringer er mere særegne for spilindustrien, fortæller Eric Morales.

»En af de mere interessante use cases, vi har hørt fra kunder, er håndtering af snydere. Hvad gør vi med folk, der for eksempel falske konti, eller forsøger at snyde spillet ved at stille på uret på telefonen?«

Traditionelt har spilselskaber smidt folk ud, hvis de har kunne identificere, at de snyder på baggrund af de data, de får ind.

»Men banning skaber en dårlig brugeroplevelse, og det sker ofte for de mere højlydte personer, og det vil meget ofte dukke op i en Reddit-tråd. Og nogle gange er der falske positive, hvor man af den ene eller anden grund tror, at en spiller har snydt,«

Et andet problem ved at smide snyderne på porten er, at man mister de brugbare data, de leverer, som kan bruges til at dæmme op for svagheder og forbedre spillet. Og endelig mister du den indtjening, de kunne have genereret.

»Det, vi stigende grad hører fra kunder, er, at i stedet for at bortvise snydere eller dem, der mistænkes for snyd, så fjernes de fra leaderboardet og tvinges til at spille med andre snydere. Så at bruge data til at identificere personer, der har fundet huller eller bruger tredjepartsværktøjer til at få en fordel i et spil, og så matche dem,« siger Eric Morales og fortsætter:

»Fordelen for udviklerne er, at selv snyderne kan få en god spiloplevelse, og du kan stadig tjene penge på dem, hvis spillet fx er reklameunderstøttet. Og samtidig fjerner du dem fra den generelle spillerbase og undgår negative effekter for dem.«

Fire timer ind i en væg

Et andet problem som alle i spilindustrien har - særligt de store - er kvalitetssikring.

»QA-processen (Quality Assurance red.) er meget vigtig, men det er meget kedeligt arbejde. Du tager en meget begejstret gamer, som rigtig gerne vil teste dit spil, og så beder du ham om at brug fire timer på at undersøge, om man kan gå igennem en væg,« siger Eric Morales.

Den type arbejde kan tage begejstringen ud af enhver, og det kan samtidig sagtens udføres med machine learning og reinforcement learning.

»Du kan tage, hvad der plejede at være flere ugers arbejde og løse det fuldstændig programmatisk. Og så kan dine testpersoner have tid til at afprøve spil-mekanikken og oplevelsen, som kun et menneske kan.«

Bedre brug af data og machine learning kan hjælpe spiludviklere med at teste spil og stoppe snyd.

Todelt pipeline

Chris Dyl, der er Director of Platform hos Epic Games, fortalte på AWS re:Invent i slutningen af sidste år om analytics pipelinen til Fortnite.

Pipelinen er delt i to - en til real time og en til batch analyse.

Førstnævnte anvender Spark og DynamoDB til midlertidig lagring. Herfra sendes data til værktøjer som Grafana og til SQL-værktøjer.

I sidstnævnte lagres al data i en S3 data lake og herfra udstilles data til blandt andet Tableau samt SQL-værktøjer til at undersøge data mere dybdegående.

Denne artikel har tidligere været bragt på DataTech.

Tips og korrekturforslag til denne historie sendes til tip@version2.dk
Kommentarer (0)
sortSortér kommentarer
  • Ældste først
  • Nyeste først
  • Bedste først
Log ind eller Opret konto for at kommentere