Decennia lang wordt ons verteld dat de slimste organisaties ‘datagedreven’ zijn. De zinsnede heeft moreel gewicht. Je laten leiden door data betekent serieus, rationeel en modern zijn. Als je dat niet bent, wordt je gezien als ideologisch of sentimenteel. In de arbeidswereld is kwantificering synoniem geworden met geloofwaardigheid en competentie.
Maar hoe meer gegevens we verzamelen, hoe minder vertrouwen we lijken te hebben in het nemen van betere beslissingen. Er is sprake van een paradox. Organisaties verdrinken in dashboards, KPI’s, prestatiestatistieken, gedragsgegevens, biometrie, voorspellende scores, betrokkenheidspercentages en NAAR DE-gegenereerde voorspellingen. We hebben meer data dan we weten wat we ermee moeten doen. Laten we doen alsof alleen al de aanwezigheid van gegevens duidelijkheid garandeert. Zo is het niet.
Dit is het gegevens arrogantie– de arrogante overtuiging dat, omdat iets kan worden gemeten, het ook onder de knie kan worden.
{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2026/01/PhotoLVitaud-169.jpg”,”image MobileUrl ‘https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2026/01/PhotoLVitaud-11.jpg’, ‘eyebrow’: ‘headline’:u003Cstrongu003EAbonneren op Laetitia@Worku003C/strongu003E”,”dek ‘Vrouwen bepalen de productiviteit van de wereld – het is tijd om er meer over te praten. Ontdek een op vrouwen gerichte kijk op werk, van verborgen discriminatie tot culturele mythen over ouder worden en zorgen.’ Meer”,”ctaUrl”:http://laetitiaatwork.substack.com”, “theme”:{“bg”:#2b2d30″, “text”:#ffffff”, “eyebrow”:#9aa2aa”, “subhed”:#ffffff”, “buttonB g”#3b3f46”, “buttonHoverBg”:91472265,”buttonText”:false,”slug””}}
De illusie van objectiviteit
Tijdens directievergaderingen duidt een dia vol grafieken en percentages op autoriteit. De cijfers lijken afwijkende meningen het zwijgen op te leggen en de indruk van neutraliteit te wekken. Maar achter elke dataset schuilt een reeks menselijke beslissingen: wat te meten, hoe te meten, wat te negeren en hoe te interpreteren. Metrieken zijn nooit neutraal; ze zijn geconstrueerd binnen bepaalde structuren, aannames en belangen.
Te vaak worden gegevens niet gebruikt om beslissingen te onderbouwen, maar om ze achteraf te rechtvaardigen. Het verleent post-hoc legitimiteit aan reeds gekozen strategieën, waarbij subjectieve keuzes worden verpakt in de taal van objectiviteit. Neem bijvoorbeeld de creatieve industrie, waar algoritmen succes zouden voorspellen. Netflix heeft een deel van zijn reputatie opgebouwd op het gebied van dataverfijning en beweert kijkers beter te begrijpen dan traditionele studio’s ooit zouden kunnen.
Nog steeds insiders hebben beschreven hoe de statistieken verandereninterpretaties variëren, en leidinggevenden benadrukken selectief cijfers die hun favoriete projecten ondersteunen. Het resultaat kan inhoud zijn die is ontworpen om ‘kijkbaar’ maar vergeetbaar te zijn, geoptimaliseerd voor gefragmenteerde aandacht in plaats van voor een blijvende culturele impact.
Bovendien is het probleem dat de gegevens het verleden weerspiegelen. Leg vast wat al heeft gewerkt, niet wat morgen weerklank zou kunnen vinden. Hij heeft moeite om de opkomende sfeer van een samenleving te vatten: het ongrijpbare geest van de tijd waardoor een verhaal, product of idee actueel lijkt. Door te focussen op retrospectieve indicatoren wordt middelmatigheid geïnstitutionaliseerd.
Wanneer de data bevestigen wat we al weten
Hetzelfde patroon is terug te vinden in de human resources van bedrijven, waar de opkomst van people analytics een revolutionaire visie op betrokkenheid en prestaties heeft beloofd. Sensoren houden het aantal badges bij, algoritmen brengen samenwerkingsnetwerken in kaart en voorspellende modellen schatten het risico op verlating in. Na grote investeringen ontdekken bedrijven vaak dat goede managers ertoe doen, dat werknemers niet van micromanagement houden en dat mensen vertrekken als ze zich ondergewaardeerd voelen.
Deze resultaten zijn geenszins revolutionair. Enkele van de beroemdste ‘datagestuurde’ intuïties bevestigen eenvoudigweg wat deskundige mensen al vermoedden. Er gaapt een steeds grotere kloof tussen de verfijning van meetinstrumenten en de banaliteit van veel van de conclusies die ze genereren. In open, rommelige omgevingen produceren organisaties vaak grote hoeveelheden lawaai en beschouwen dit als kennis.
De gezondheidszorg biedt nog een onthullend voorbeeld. Radiologie leek ooit perfect geschikt voor AI-transformatie: Miljoenen gestandaardiseerde afbeeldingen en duidelijke diagnostische categorieën. Vroege systemen presteerden indrukwekkend in routinegevallen. De praktijk in de praktijk bracht echter al snel de beperkingen aan het licht. Radiologierapporten staan vol met voorzichtige uitdrukkingen – “kan niet worden uitgesloten”, “klinische correlatie aanbevolen” – het product van tientallen jaren medisch-juridische voorzichtigheid. Algoritmen worstelen met deze dubbelzinnigheid en kunnen een buitensporige urgentie signaleren, omdat ze geen onderscheid kunnen maken tussen juridische voorzichtigheid en feitelijk klinisch risico.
Meer fundamenteel wordt de geneeskunde gedefinieerd door uitzonderingen. AI kan 90% van de veel voorkomende gevallen effectief afhandelen, maar het zijn de zeldzame en atypische gevallen die de expertise echt op de proef stellen. Een ervaren radioloog kan redeneren over een ongekende situatie; een algoritme blijft beperkt tot zijn trainingsgegevens. Overvloedige historische gegevens elimineren de variabiliteit van de werkelijkheid niet.
De blinde vlekken van overmoed
Een van de gevaarlijkste gevolgen van datahybris is overmoed. Wanneer beslissingen worden ondersteund door cijfers, kunnen leiders hun voorzichtigheid verliezen. Digitale sporen leggen klikken en transacties vast, maar geen informele gesprekken. Niet alles wat belangrijk is, laat een digitaal spoor achter, en dashboards laten zelden hun blinde vlekken zien.
We worden geconfronteerd met iets waarvan we niet weten dat we het niet weten. In zijn werk over onzekerheid Vaughn Tan maakt onderscheid tussen risico – waarbij de kansen berekenbaar zijn – en diepere vormen van niet-weten waarbij de kansen zelf onbekend zijn.. Elke onzekerheid behandelen alsof het een berekenbaar risico is, is een categoriefout.
Wiskunde kan geen vragen oplossen die verband houden met opkomende waarden en ongekende gebeurtenissen. De COVID-19-crisis heeft deze verwarring levendig geïllustreerd. Sommige leiders hebben sterk vertrouwd op modellen die zijn gebaseerd op eerdere ziekten, in de veronderstelling dat alle onbekende factoren eenvoudigweg risicovariabelen waren die moesten worden berekend. In werkelijkheid waren er veel echte onzekerheden die experimenten, nederigheid en adaptief leren vereisten.
Van databeheersing tot geletterdheid en onzekerheid
De arrogantie van data kan zich ook uitstrekken tot het persoonlijke leven door de gekwantificeerde beweging van het zelf. Draagbare apparaten meten slaapcycli, hartslagvariatie, stappentellingen en glucosewaarden en beloven ongekende zelfkennis. Maar meer informatie betekent niet altijd een beter welzijn. In de geneeskunde verhogen te veel tests het risico op valse positieven, waardoor afwijkingen worden opgespoord die misschien nooit schade aanrichten, maar wel angst en invasieve vervolgonderzoeken kunnen veroorzaken. Voortdurende zelfcontrole kan obsessie aanwakkeren. In plaats van ons af te vragen of we ons uitgerust of hongerig voelen, verwijzen we naar numerieke indicatoren, waardoor we de meer intuïtieve signalen negeren (honger voelen, uitgerust…).
Dit alles betekent niet dat we gegevens moeten afwijzen. Uiteraard niet. Gegevens zijn van onschatbare waarde. Maar het moet passen in een breder begrip van hoe kennis feitelijk wordt geproduceerd: door veldobservaties, deskundig oordeel en doorleefde ervaring. De gegevens vereisen interpretatie. Het vereist nederigheid en open gesprekken. Wat ontbreekt hier? Welke aannames vormden deze parameters? Wie heeft besloten wat te meten en waarom?
In werkelijk onzekere omgevingen presteren kleine omkeerbare experimenten vaak beter dan grote voorspellende modellen. In plaats van te doen alsof ze het weten, kunnen organisaties onderzoeken, leren en zich aanpassen. Intuïtie is verre van irrationeel, maar vertegenwoordigt een gecomprimeerde ervaring die in de loop van de tijd is opgebouwd. Bovenal moeten leiders nederig blijven tegenover onbekende onbekenden. De meest geavanceerde analyses kunnen besluitvormers niet van hun verantwoordelijkheid ontslaan.
Naarmate sensoren zich vermenigvuldigen en AI-systemen zich verspreiden, zal de verleiding om meten gelijk te stellen aan meesterschap alleen maar groter worden. Pas op voor data-arrogantie. Weten dat je het niet helemaal weet, is de basis van een goed beoordelingsvermogen in een wereld die onherleidbaar complex blijft.
{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2026/01/PhotoLVitaud-169.jpg”,”image MobileUrl ‘https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2026/01/PhotoLVitaud-11.jpg’, ‘eyebrow’: ‘headline’:u003Cstrongu003EAbonneren op Laetitia@Worku003C/strongu003E”,”dek ‘Vrouwen bepalen de productiviteit van de wereld – het is tijd om er meer over te praten. Ontdek een op vrouwen gerichte kijk op werk, van verborgen discriminatie tot culturele mythen over ouder worden en zorgen.’ Meer”,”ctaUrl”:http://laetitiaatwork.substack.com”, “theme”:{“bg”:#2b2d30″, “text”:#ffffff”, “eyebrow”:#9aa2aa”, “subhed”:#ffffff”, “buttonB g”#3b3f46”, “buttonHoverBg”:91472265,”buttonText”:false,”slug””}}



