A/B-testen is de gouden standaard voor testen. Het is bedoeld om bedrijven te helpen snellere, betere, datagestuurde beslissingen te nemen. Maar al te vaak gebeurt het tegenovergestelde. De bijeenkomst begint met optimisme: een nieuw prijsidee, advertentie-indeling of registratiescherm wordt aan een A/B-test onderworpen. Na weken wachten komen analisten terug met p-waarden, betrouwbaarheidsdrempels van 95% en een bekende conclusie: “We moeten wachten op meer gegevens. We hebben nog niet genoeg bewijs, en het is statistisch niet significant.”


