Stacks Image p2_n2
Door Paul Ostendorf, futuroloog

Groot, groter, data

Paul_Ostendorf_Columnist
Sommige zaken lijken alleen maar te groeien. Zoals overheidsschulden. Of het aantal mensen op onze planeet en hun meningsverschillen. De hoeveelheid wetten en regels. En laten we vooral problemen niet vergeten. Die groeien pas echt hard. Maar er is één ding dat alles verslaat als het op groei aankomt. Gegevens die we in onze computers opslaan. Eind jaren zeventig had ik een harde schijf met de afmeting van een schoenendoos en een capaciteit van 10 megabyte. Maar nu ken ik mensen die over meer dan 10 terabyte aan gegevens beschikken. Een groei met een factor miljoen. En dan hebben we het over data bij u en mij thuis. Als we kijken naar bedrijven is die groei zelfs exorbitant. Daar beschikt men soms over meer dan een petabyte aan data. En alle digitale gegevens op aarde omvatten nu al honderden exabyte. Dat zijn nog eens hoeveelheden. In het rijtje gegevensomvang bestaat ook nog de aanduiding zettabyte. En tot slot yottabyte, een jasje waar we nog deze eeuw uit zullen groeien. Waarom?
We staan aan de vooravond van het internet der dingen met wearables, home automation, health tracking, autonomous vehicles, smart environment en nog meer. Dat betekent dat chips, sensoren, gegevensverwerking en communicatie zich zo’n beetje in elk voorwerp gaan nestelen. En die worden allemaal verbonden met internet. En produceren met z’n allen een constante stroom nieuwe gegevens. Voorlopig zit het dus wel snor met die explosieve groei van data.
Logisch dat bedrijven steeds vaker te maken krijgen met het begrip big data. Echt grote winkelketens doen meer dan een miljoen transacties per dag. En CERN produceert bij ieder experiment zelfs miljoenen gegevens per seconde. Dat levert dataverzamelingen op die zo groot en complex zijn dat speciale software en hardware nodig is om verbanden tussen gegevens te signaleren. Verbanden die anders onzichtbaar zijn. Welke verbanden? Tja, je kan zo’n beetje iedere vraag op data loslaten. De software komt altijd wel met een antwoord. Ook op een onzinnige vraag. Dus het is wel opletten geblazen. Gelukkig wordt de software voor big data steeds slimmer. Nieuwe datamining technieken produceren steeds diepere verbanden tussen gegevens. En komen daardoor zelfs met antwoorden op vragen die we niet eens gesteld hebben. De meest geavanceerde software maakt gebruik van machinaal leren, neurale netwerken en cognitive computing. Een hoop moeilijke termen die er allemaal voor zorgen dat computers steeds meer op menselijke hersenen lijken en taken uitvoeren die voorheen voorbehouden waren aan mensen. We kunnen nu al aan computersystemen complexe vragen stellen in gewone spreektaal. IBM’s Watson is daar een goed voorbeeld van. Het is mijn stellige overtuiging dat we nog deze eeuw over computers beschikken die de menselijke hersenen in alle opzichten kunnen evenaren of zelfs gaan overtreffen. Daarin lijkt een belangrijke rol te zijn weggelegd voor een nieuw onderdeel in de elektronica, de memristor. Een component met een gedrag dat lijkt op de werking van neurale verbindingen in onze hersenen.
Wel even oppassen. Want voor je het weet, groeien die dingen uit tot een soort Skynet en zit je opeens midden in een Terminator of Matrix film. Geweldige films overigens maar als ik er aan mee moet doen dan bij voorkeur als acteur.
Wie weet komt er ooit software die zo geavanceerd is dat het de vraag over de zin van het bestaan, het universum en de rest kan beantwoorden. Maar als daar de 42 van Douglas Adams als antwoord op komt, ben ik teleurgesteld. Dan zullen we dat programma dus niet méér maar zinvollere data moeten voeren. Is dat erg? Als je niet genoeg data hebt wel.