In een periode waarin duurzaam een van de ‘trending topics’ is en daarmee verbruik van olie als vervuilend en belastend wordt gezien, groeit het belang van een nieuwe en schone productiefactor: data. Van het ‘zwarte goud’ naar het nieuwe goud.
Bij ruwe olie neemt de waarde na bewerking pas toe. Dit geldt ook voor data. Van data naar informatie, en vervolgens kennis en wijsheid. Data is niks meer dan losstaande feiten. Relevante informatie ontstaat door een specifieke context toe te voegen, zoals bijvoorbeeld (geografische) omgeving, vormgeving (mobiel en responsive) en momentum. Maar net zo belangrijk is hoe snel informatie beschikbaar en te consumeren is.
Nederland zet sterk in op een kenniseconomie. Kennis is daarbij een productiefactor die bijdraagt aan economische groei, net als traditionele productiefactoren als arbeid, natuur en kapitaal. Kennis leidt tot innovatie en daarmee tot nieuwe producten en diensten. Deze genereren steeds vaker en meer data, die in informatie en kennis wordt omgezet. De explosie van het datavolume is gigantisch. Vanaf het begin van onze jaartelling tot 2003 heeft de mensheid in totaal vijf exabyte aan data gegenereerd. Over dit volume doen we tegenwoordig slechts twee dagen, en deze snelheid neemt alsmaar toe. De vraag is, geldt de marktwerking ook hier? Neemt de waarde van Big Data af, naarmate het aanbod stijgt? Vanuit de beschrijving van de kenmerken – volume, velocity, variety, value en veracity– lijkt dit inderdaad te kloppen.
Energiewaarde
Filtering, raffineren bij olie, is een hulpmiddel om grondstof tot de brandstof van onze economie te maken. Hoe beter de filtering, hoe hoger de (energie)waarde. En met data is het eigenlijk niet anders. Twitteraars slingeren een grote hoeveelheid tweets de wereld in. Het is nagenoeg onmogelijk om alle tweets met een bepaalde hashtag te lezen en beoordelen. Zeker bij populaire trending topcis. Het is daarnaast ook niet efficiënt, omdat grote lijnen en onderlinge verbanden onzichtbaar blijven.
Een grote berg tweets kan je wel analyseren en er bijvoorbeeld een ‘sentiment’ uit distilleren. Dit voegt waarde toe aan de data. In dit voorbeeld wordt de datawaarde niet alleen bepaald door de relevantie, maar even sterk door de ‘consumptietijd’. Het sentiment is een week later van veel minder waarde. Volume, value en velocity is hiermee afgedekt. De vraag is dan nog: hoe staat het met de veracity? Hoe betrouwbaar is de waarneming? De variety is niet van toepassing omdat alleen Twitter als bron wordt bekeken in dit voorbeeld.
Connected
Of neem reizen per auto. Met de locatiegegevens van alle bestuurders met een connected device, smartphone of navigator, is af te leiden waar files staan. Locatie en snelheid van elke individuele chauffeur zijn bekend. Ook hier is het niet te doen om een voor een de locatiegegevens van de smartphones door te nemen. En niet efficiënt bovendien. Aggregatie en algoritmen zijn de sleutelwoorden om van alle data bij elkaar relevante file-informatie te maken, die een meerwaarde biedt voor bestuurders. Ook hier is consumptietijd essentieel. Anders verwacht je een file die er niet is, of erger, andersom. Overigens, voor het aanbieden van informatie op maat heeft data op individueel niveau wel zin. Zo kun je bijvoorbeeld laten weten dat er over drie kilometer een gele M verschijnt.
Waarde van informatie = relevantie / consumptietijd
Aan data en informatie geen gebrek, nu en in de komende tijd. Sterker nog, we moeten dekking zoeken voor de informatielawine. Afstand nemen en de grote lijnen analyseren in deze stortvloed aan informatie is de uitdaging van de komende jaren. Consumenten en bedrijven die erin slagen op de meest efficiënte manier de juiste informatie te destilleren uit die lawine, zijn de winnaars van de opkomende informatiemaatschappij. Zij hebben op tijd de transitie doorgemaakt van oliedom naar dataslim.
Deze blogpost is geschreven door Léon van den Bogaert!