Ga naar de inhoud

Er wordt wel gezegd dat data de nieuwe olie is. Dat is in meer dan één opzicht waar: net als bij olie moeten gegevens worden geraffineerd en verwerkt voordat ze waardevol worden, en olie op de verkeerde plaatsen kan een last worden in plaats van een lust. Experimenteren met echte gegevens kan helpen om kansen te identificeren en de businesscase aan te tonen. Vervolgens kunnen gegevens helpen om de organisatie te optimaliseren en zelfs om een beter product te leveren.

Zakelijke beslissingen worden gedreven door informatie uit het bedrijf en zijn context. Waarschijnlijk gaan er al veel gegevens in die beslissingspijplijn: verkoopdata, operationele informatie en, voor wie ijs verkoopt, ook de weersvoorspelling. Excel is nog steeds een van de meest gebruikte tools om informatie te analyseren, te verwerken en er actie op te ondernemen. In een wereld waar we elke asrotatie in onze machines kunnen meten als we dat willen, elke meter die onze bestelwagens rijden, kunnen volgen, elke kleine verandering in de bodemvochtigheid van een veld kunnen monitoren en de reis van een klant door onze webwinkel met pixelprecisie kunnen volgen, loopt Excel echter tegen zijn grenzen aan. Welkom in de wereld van de data-analytics.

Gegevens hoeven niet per se voor zichzelf te spreken. Een goede analyse is nodig om inzicht te krijgen. Datawetenschap is de term die veel van de gebieden dekt die te maken hebben met het uitwringen van bruikbare informatie uit data, inclusief het vastleggen, beheren, interpreteren en leren ervan. Data-analytics maakt het mogelijk om deze informatie te gebruiken in bedrijfsprocessen. Big data verwijst naar de tools en technieken die nodig zijn voor de verwerking van hoeveelheden gegevens die anders onhandelbaar zijn vanwege hun omvang, aard of structuur.

Top-down of bottom-up

Welke soorten gegevens moeten we verzamelen? Met welke frequentie? Waar moeten we ze opslaan en voor hoe lang? Welke hulpmiddelen moeten we gebruiken? Dit alles hangt af van één basisvraag: in welke inzichten zijn we geïnteresseerd? Als we ‘iets met data’ willen doen, is het beantwoorden van deze vraag het uitgangspunt. En er zijn twee manieren om dit aan te pakken: top-down of bottom-up.

De top-down benadering gaat uit van de inzichten die we willen verkrijgen. De tijd voorspellen voordat een machineonderdeel faalt of het meest verkwistende deel van een leveringsroute bepalen, bijvoorbeeld. Op basis hiervan identificeren we de platforms, de tools, de procedures en de sensoren die ons deze inzichten gaan geven.

Bij de bottom-up benadering beginnen we met de gegevens en vragen we ons af wat we ervan kunnen leren – negen van de tien keer hebben we al een idee. Dit is een meer verkennende manier van werken, die behoort tot het domein van de datawetenschap. Nadat we de businesscases hebben geïdentificeerd, gaan we vaak over op een meer top-down benadering.

Een goede manier om te beginnen, is door een kleinschalig project op te zetten met de gegevens die al beschikbaar zijn. Dit kan snel inzicht geven in wat haalbaar is en wat de resultaten zouden kunnen zijn. We leren ook snel dat we meestal onvoldoende gegevens hebben om de businesscase te realiseren en dat we nog wat verder moeten boren.

Tijd en (een beetje) geld

Aangezien datawetenschap en data-analytics fundamenteel verschillen van reguliere analyses – zakelijk of technisch – zullen we gespecialiseerde expertise nodig hebben. Waarschijnlijk vinden we die niet in onze corebusiness. Door de hulp van consultants van buitenaf in te roepen, kunnen we beginnen met de praktijk totdat de praktijk onderdeel wordt van het primaire proces.

Zoals bij elk nieuw project kost het tijd om te beginnen met data-analytics. Het grootste deel daarvan gaat naar het identificeren van de businesscase. Het duurt meestal enkele dagen om goed inzicht te krijgen in de mogelijkheden en de mogelijke resultaten.

Afhankelijk van de toepassing en de benodigde data kan het zijn dat we extra sensoren of een netwerkinfrastructuur nodig hebben, wat extra hardwarekosten met zich meebrengt. Een van de grote beloftes van big data is echter dat we goedkoop data kunnen verzamelen, waardoor eventuele onnauwkeurigheden in overvloed worden gecompenseerd. Voor het schatten van de doorvoercapaciteit van een machine, bijvoorbeeld, kunnen we genoegen nemen met goedkope trillingssensoren met een precisie van minder dan een seconde, en langetermijntrends van verschillende basistemperatuursensoren verspreid over een fabrieksterrein kunnen interessanter zijn dan een occasionele, zeer nauwkeurige, eenpuntsmeting.

De backend infrastructuur hoeft ook geen enorme kostenpost te zijn, dankzij pay-as-you-go cloud-providers als Amazon (AWS), Microsoft (Azure) en Google (Google Cloud Platform). We kunnen onze gegevens opslaan en verwerken zonder kosten vooraf en hoeven vaak niet meer dan een handvol euro’s uit te geven om een proefproject op gang te brengen. Hoewel de controle uit handen geven misschien ongemakkelijk voelt, zijn deze aanbieders veel beter toegerust om de gegevens te beschermen en te voldoen aan de regelgeving.

Aandachtspunten

Er zijn verschillende valkuilen om op te letten bij het verzamelen van gegevens. Ten eerste, hoewel relatief goedkoop, kost het overbrengen en opslaan van informatie nog steeds geld. Met echt grote hoeveelheden data kan dit een aanzienlijke rekening opleveren.

Ten tweede kunnen sommige gegevens gevoeliger zijn dan gedacht. De activiteitspatronen van een verwarmingsinstallatie kunnen bijvoorbeeld interessant zijn voor voorspellend onderhoud, maar ze geven ook aan wanneer iemand thuis is – of niet. Het lijkt misschien ook een goed idee voor een fabrikant van elektromotoren om de aandrijfsnelheden in de fabriek van een klant te meten om storingen te voorkomen, maar deze informatie is ook zeer waardevol voor de concurrent van die klant. Sommige gegevens kunnen zelfs onder strenge regelgeving vallen, zoals de GDPR, die vorig jaar bij de introductie in Europa voor veel commotie zorgde.

Gegevens verzamelen alleen maar om gegevens te verzamelen – vaak aangeduid met de term ‘datameer’ – zou onverstandig zijn. Hoewel het enige waarde kan hebben voor het verkennen van nieuwe toepassingen, brengt het veel kosten met zich mee. De afgelopen jaren is de praktijk uit de gratie geraakt, ten gunste van een meer gestructureerde aanpak.

Het uitgangspunt is geworden: niet opslaan als het niet nodig is. Onderdeel van het ontwikkelen van een data-analytics-toepassing is identificeren welke gegevens daadwerkelijk nodig zijn en voor hoe lang. Moeten we echt elke tiende van een seconde meten of kunnen we genoegen nemen met een meting elke minuut of zelfs elk uur? Moeten we de bewegingen van de versnellingsmeter in drie dimensies bijhouden of levert het geheel al voldoende informatie op? Moeten we datapunten die ouder zijn dan een week opslaan of kunnen we ze verdichten tot een weekgemiddelde of helemaal weggooien? Als we toch gevoelige of persoonlijke informatie moeten verzamelen, laten we er dan voor zorgen dat alle betrokken partijen het op zijn minst eens zijn over het gebruik en extra technische maatregelen nemen om te voorkomen dat onbevoegden toegang krijgen tot de gegevens.

Sneller problemen oplossen

Wanneer we deze overwegingen in aanmerking nemen, kunnen gegevens waardevolle en bruikbare inzichten opleveren. Het kan het oplossen van problemen in een technische installatie aanzienlijk versnellen. Voor kleine problemen zijn alleen lager gekwalificeerde servicemonteurs nodig. Sommige problemen zijn zelfs helemaal te voorkomen door op voorhand te signaleren dat er iets niet in orde is. En dat allemaal dankzij data.

Schrijf je in voor onze nieuwsbrief en ontvang updates.