Meten of meten? Waarom de meeste AI ROI-cases niet kloppen
Productiviteitswinst van "40%" klinkt mooi tot je vraagt hoe het gemeten is. Vijf veel-gemaakte methodologische fouten, en wat een board-ready ROI-case wel laat zien.
Gepubliceerd op
McKinsey rapporteerde in 2024 dat 78% van organisaties AI gebruikt in tenminste één business function. Slechts 15% kan een meetbaar EBIT-effect aantonen. Het gat zit niet in de adoptie, maar in de meting.
Wat zijn de meest gemaakte fouten bij AI ROI-berekeningen?
Vijf patronen die in vrijwel elke pre-board case terugkomen:
- Tijd-besparing zonder cost-attribution. "Junior consultants besparen 5 uur per week" wordt vertaald naar een euro-bedrag op uurtarief, alsof die uren direct in marge omgezet worden. Ze worden meestal opgevuld met andere activiteiten.
- Pilot-extrapolatie zonder rampen-scenario. Pilot toont 30% efficiency-winst op een goed-gedefinieerde taak. Productie-extrapolatie gaat ervan uit dat dezelfde winst geldt voor alle taken in dezelfde categorie. Doet het niet.
- Vergelijking met een verkeerde baseline. ROI tegenover "niets doen" is irrelevant. ROI tegenover de tweede-beste investering is wat de board wil zien.
- Negeren van implementatie- en onderhoudskosten. De API-kosten zijn niet het probleem; de prompt-engineering, het monitoring-systeem, de incident-response, het change management. Schaduwkosten lopen vaak op tot 3–5x de pure tool-kost.
- Timing-fouten. Winst-realisatie wordt geprojecteerd vanaf go-live. In realiteit zit er een leercurve van 3–9 maanden tussen go-live en stabiele productiviteit.
Hoe ziet een betrouwbare ROI-case eruit?
Drie componenten die een board-ready case onderscheiden van een marketingverhaal:
Een eerlijke baseline. Niet "zonder AI" maar "met de huidige tooling plus de redelijke alternatieven". Als de echte vergelijking met outsourcing of een traditioneel software-pakket onderaan de streep beter uitvalt, dan is dat het antwoord.
Volledige cost-of-ownership over 24 maanden. Implementatie, training, prompt-engineering, monitoring, periodieke evaluatie, model-upgrades, vendor-management. Niet alleen de licentiekosten.
Sensitivity-analyse op de drie meest-onzekere aannames. Welke aannames moeten waar zijn voor positief rendement? Wat gebeurt er als adoptie 30% lager is dan verwacht? Als model-kwaliteit niet verbetert in de komende 12 maanden?
De board-implicatie
Een board die een AI-investering goedkeurt op basis van een 40%-productiviteitsclaim zonder bovenstaande componenten, neemt geen strategisch besluit maar volgt een verhaal. Dat gaat een keer goed, en gaat dan een keer niet goed. Het werk is niet om optimisme te dempen, het werk is om optimisme onderbouwd te maken.