Kunstmatige intelligentie is overal. Het voedt debatten in de bestuurskamer, geeft prioriteiten aan, definieert de toegang tot informatie en stimuleert consumentenervaringen. Maar terwijl NAAR DE het belooft scherpere inzichten en snellere actie, maar het versnelt ook de blinde vlekken waar leiders al mee worstelen.
De paradox is deze: kunstmatige intelligentie kan de visie verbreden, maar als ze zonder de juiste intuïtie wordt gebruikt, vernauwt ze deze. En wanneer deze blinde vlekken de snelheid van de adoptie van AI bereiken, zullen de gevolgen zich vermenigvuldigen.
Ik heb dit in alle sectoren zien gebeuren, via mijn leiderschapsrollen bij Google, Maersk en Diageo, en bij het adviseren van de leidinggevenden die enkele van ’s werelds grootste organisaties vormgeven. Het patroon is duidelijk: technologie stopt niet in blinde vlekken. In plaats van ons te waarschuwen, wist het vaak het spoor uit, totdat het concurrentievoordeel stilletjes overgaat in commoditisering.
Hier zijn drie manieren waarop AI blinde vlekken vergroot en hoe deze kunnen worden verkleind.
1. Gegevens zonder context zijn valse troost
Elke AI wordt gevormd door waartoe hij toegang heeft. Generatieve AI wordt aangedreven door waarschijnlijkheid. Agentic AI handelt op basis van de gegevens waarop het is getraind. Beide zijn slechts zo nuttig als de context die ze kunnen zien.
Dit is waar de eerste blinde vlek ontstaat: leiders verwarren AI-resultaten met de werkelijkheid zelf, en vergeten dat het systeem wordt beperkt door zijn input. Een dashboard kan groen oplichten of een AI kan nauwkeurige antwoorden retourneren, maar precisie zonder context is valse troost.
Dit lijkt misschien een bekende uitdaging, waarbij het vertrouwen op vaste KPI’s ervoor kan zorgen dat interne vooruitgang overtuigend lijkt, maar er niet in slaagt deze te verbinden met echte marktveranderingen. Ik heb hardwerkende teams in tegengestelde richtingen zien bewegen: de ene werd beloond voor het vergroten van de mandgrootte door middel van add-ons, de andere bestrafte klanten die bestellingen veranderden, elkaar annuleerden en klanten wegjaagden.
Kunstmatige intelligentie toegepast op deze parameters zou de verkeerde afstemming alleen maar hebben versterkt. Als bedrijfsregels te laag in de organisatie of het proces worden toegepast, zal er sprake zijn van suboptimalisatie. In een AI-context wordt dit op grote schaal verergerd, waardoor inefficiënties in elke geautomatiseerde beslissing worden vastgelegd.
Alle gevallen laten dezelfde valkuil zien: wanneer gegevens worden gescheiden van de context, optimaliseren leiders voor wat kan worden gemeten in plaats van voor wat er toe doet. Beschikbaarheid wordt verward met betrouwbaarheid.
Hoe om te gaan met de dode hoek: Ga van het valideren van wat u al bijhoudt naar het onderzoeken van wat u nog niet ziet. Behandel data als een landschap om te testen, niet als een dashboard om te bevestigen. Vraag waar tegenstrijdigheden voorkomen, waar signalen conflicteren en waar de randen van het systeem iets anders onthullen dan het centrum. Blinde vlekken worden verkleind als leiders nieuwsgierig genoeg zijn om afwijkingen te onderzoeken in plaats van ze uit te leggen.
2. Het oordeel over uitbesteding verwatert de kernwaarde
Een andere groeiende blinde vlek ontstaat wanneer te veel verantwoordelijkheid bij externe systemen of partners wordt gelegd. AI is krachtig, maar niet neutraal. Als leiders hun oordeel uitbesteden zonder hun ervaring mee te brengen, lopen ze het risico de waarde die hun activiteit onderscheidend maakt, teniet te doen.
Zie het zo: je hebt persoonlijke kennis, collectieve kennis binnen een bedrijf of instelling, en mondiale kennis. Bedrijven proberen van nature collectieve intelligentie te verbinden en te benutten – dus waarom zien zo velen, als het om AI gaat, de noodzaak over het hoofd om actief kennis te delen, te contextualiseren en bij te werken om deze waardevol te houden?
Ik heb ooit gesproken met een vooraanstaande arts die verantwoordelijk is voor het definiëren van het gebruik van technologie in een regio. Hij legde uit dat hij vertrouwde op zijn vertrouwde röntgenapparaat en dezelfde software die hij sinds eind jaren negentig gebruikte. Het registreerde de zich ontwikkelende inzichten niet als gestructureerde input, en voerde ook geen edge-cases terug in het systeem, ervan uitgaande dat updates van leveranciers voldoende waren. Zijn oordeel bleef in zijn hoofd hangen, terwijl de software – en de industrie – er niet in slaagden te leren van ervaringen uit de praktijk. In een veld waar beeldherkenning snel vooruitgaat, laat deze kloof waarde op tafel liggen en vertraagt het de verspreiding van wat werkt.
Het gaat er niet om om alle AI intern te ontwikkelen, maar om duidelijk te zijn over wat u echt onderscheidt en ervoor te zorgen dat kennis niet wordt weggegeven. Het beheersen van de kosten via outsourcing van callcenters kan kwantificeerbare besparingen opleveren, maar het verplaatst ook waardevolle klantinformatie naar buiten het bedrijf. Met AI stapelen deze inzichten zich snel op, en wat begint als efficiëntie kan eindigen in commoditisering waarbij jouw uniciteit wordt opgenomen in het model van iemand anders als je niet weet hoe de AI wordt ingezet.
Hoe om te gaan met de dode hoek: Hoewel AI essentieel is voor efficiëntie en toekomstige activiteiten, moet strategie prioriteit krijgen. Ken uw voorstel – de waarde vandaag en in de toekomst – en bouw uw AI-aanpak daarop voort, niet op de beschikbaarheid van vooraf getrainde software, partnertarieven of het gemak van wat anderen hebben aangeboden. Vraag wie waarde haalt uit de gegevens die u heeft en wie toegang heeft tot gegevens waarmee u kunt groeien. In veel bedrijfstakken zal dit de basis worden voor nieuwe verdienmodellen en diepere partnerschappen, of de weg naar het elimineren van degenen die geen strategische duidelijkheid hebben.
3. De cognitieve valkuil achter algoritmisch comfort
Zelfs met voldoende, evoluerende gegevens en sterke strategische duidelijkheid kan AI leiders nog steeds in bevestigingslussen vangen. Algoritmen zijn ontworpen om van modellen te leren, maar modellen zijn niet hetzelfde als intuïties. Standaard versterken ze wat het meest wordt weergegeven, niet wat het meest onthullend is. Sommige modellen kunnen worden geoptimaliseerd om afwijkingen te signaleren, maar in de meeste zakelijke contexten ligt de aantrekkingskracht in de richting van het bekende. Natuurlijk is dat zo, want wij doen het ook.
Het gevaar is dat dit botst met menselijke blinde vlekken. De neurowetenschappen laten zien hoe de hersenen energie besparen door complexiteit te filteren, zichzelf te verankeren in wat zeker lijkt en dubbelzinnigheid te vermijden. Echte neurogenese – het creëren van een nieuwe manier van denken – vereist nieuwe contexten, maar de meeste leiders keren terug naar het vertrouwde. De gedragswetenschap bevestigt dat leiders, vooral ervaren leiders, gevoelig zijn voor vooroordelen over bevestiging, waardoor bekendheid wordt verward met vooruitziendheid. En hoe veranderlijker en onvoorspelbaarder de wereld wordt, hoe moeilijker het is om deze aantrekkingskracht te weerstaan. AI corrigeert deze tendensen niet; het vergroot ze. Dit weerspiegelt de zekerheid waar leiders naar hunkeren, waardoor de snelheid waarmee ongeteste hypothesen in een strategie worden omgezet, wordt versneld.
Het resultaat is een vernauwing van het gezichtsvermogen: overtuigender, sneller en moeilijker op te sporen. Als er geen controle wordt uitgeoefend, komen organisaties vast te zitten in het comfort van bekende patronen, terwijl concurrenten de markt om hen heen opnieuw definiëren.
Hoe om te gaan met de dode hoek: De oplossing is voldoende geaard te blijven om op te merken wanneer zekerheid troost wordt in plaats van waarheid. Dit betekent het in vraag stellen en elimineren van aannames die ons niet langer dienen, en het toestaan dat het verhaal opnieuw wordt getoetst aan de realiteit van vandaag en morgen. Kwetsbaarheid is het startpunt: geen zwakte, maar een teken dat aannames niet zijn bijgewerkt. Laat deze naar voren komen, erken wat er nodig is om van gedachten te veranderen, wees nieuwsgierig naar wat zou kunnen passen en verken nieuwe opkomende richtingen om een nieuwe structuur vorm te geven. Leiders die deze positie belichamen, breiden hun gezichtsveld uit en voorkomen dat AI blinde vlekken in strategie verandert.
Kunstmatige intelligentie daagt leiderschap uit
De rode draad die door alle drie de blinde vlekken loopt, is dezelfde: AI neemt de grenzen van het menselijk oordeel niet weg, maar versterkt ze. Het versterkt de vraag of een bedrijf op één lijn zit of gefragmenteerd is, op zichzelf staat of op één lijn zit, of leiders nieuwsgierig of zelfgenoegzaam zijn, of de strategie actief of passief is. De echte test ligt niet in de snelheid van adoptie, maar in het bewustzijn dat leiders met zich meebrengen – dat wil zeggen, of ze open genoeg kunnen blijven om wat zeker lijkt ter discussie te stellen, terwijl ze tegelijkertijd duidelijk houden wat hun waarde werkelijk definieert. Dit vereist het bouwen van een platform voor verbinding, waar verschillende perspectieven in het systeem kunnen worden ingevoerd, mensen en gegevens met elkaar kunnen worden verbonden, en een cultuur van gegevenstoegang kan worden gewaarborgd waarin onderzoek naar een gemeenschappelijke ambitie niet alleen wordt verwelkomd, maar ook wordt verwacht. Dit maakt de weg vrij om niet alleen AI te gebruiken, maar er ook mee te groeien.



