versie: '1.0' type: guide layer: 2 phase: [1, 2, 3, 4, 5] summary: 'Opzet van gelaagde dashboards en KPI's om de gezondheid van het AI-systeem continu zichtbaar te maken voor het beheerteam.' answers: ["Hoe werkt Metrics & Dashboards?", "Welke rollen heb ik nodig?"]
3. Metrics & Dashboards¶
Doel
Opzet van gelaagde dashboards en KPI's om de gezondheid van het AI-systeem continu zichtbaar te maken voor het beheerteam.
1. Doelstelling¶
Wij maken de gezondheid van het AI-systeem continu zichtbaar via gelaagde dashboards en eenduidige KPI's, zodat het beheerteam tijdig kan ingrijpen bij afwijkingen.
2. Intrede Criteria¶
- Systeem is in productie (Gate 4 goedgekeurd).
- SLO's zijn schriftelijk overeengekomen.
- Logging en telemetrie zijn actief ingericht.
3. Kernactiviteiten¶
De vier KPI-categorieën¶
Wij meten op vier niveaus. Elke categorie heeft een vaste eigenaar en rapportagecadans:
| Categorie | Voorbeeldmetrics | Eigenaar | Cadans |
|---|---|---|---|
| Modelprestaties | Nauwkeurigheid, F1-score, afwijking t.o.v. Golden Set | Data Scientist | Dagelijks |
| Operationeel | Latentie P95, foutpercentage, uptime, doorvoer (requests/min) | MLOps Engineer | Real-time |
| Gebruikskosten | Kosten per aanroep, maandelijkse rekenkosten | AI PM | Maandelijks |
| Governance | Aantal overschreden Harde Grenzen, Guardian-interventies, bias-signalen | Guardian | Wekelijks |
Dashboardlagen¶
Wij onderscheiden drie lagen. Elk dashboard heeft een ander publiek en een andere granulariteit:
Laag 1 — Operationeel (real-time): Zichtbaar voor MLOps en tech team. Toont systeemgezondheid, alerts en actieve incidenten.
Laag 2 — Modelkwaliteit (dagelijks/wekelijks): Zichtbaar voor Data Scientist en AI PM. Toont nauwkeurigheidstrends, Drift-signalen en vergelijking met de Golden Set.
Laag 3 — Strategisch (maandelijks/kwartaal): Zichtbaar voor CAIO en management. Toont ROI-realisatie, kostentrends en compliance-status.
Drempelwaarden en alerts¶
Voor elk kritisch metric definiëren wij drie niveaus:
| Niveau | Actie |
|---|---|
| 🟡 Waarschuwing | Notificatie naar het beheerteam; onderzoek vereist binnen 48 uur |
| 🟠 Kritiek | Directe interventie vereist; Guardian wordt geïnformeerd |
| 🔴 Circuit Breaker | Automatische blokkering of escalatie; menselijke goedkeuring vereist voor herstart |
Voorbeeld: Als de nauwkeurigheid daalt onder 85% (Waarschuwing), onder 80% (Kritiek) of onder 70% (Circuit Breaker).
SLO-definitie en bewaking¶
Een SLO (Service Level Objective) is een intern bindend streefdoel. Wij definiëren minimaal:
- Beschikbaarheid: bijv. ≥ 99,5% uptime per maand.
- Latentie: bijv. P95 responstijd ≤ 2 seconden.
- Nauwkeurigheidsbodem: bijv. F1-score ≥ 0,80 op de Golden Set.
SLO's worden vastgesteld vóór Gate 4 en opgenomen in de overdrachtsdocumentatie.
4. Team & Rollen¶
| Rol | Verantwoordelijkheid | R/A/C/I |
|---|---|---|
| MLOps Engineer | Beheert operationeel dashboard, configureert alerts | R |
| Data Scientist | Beheert modelkwaliteitsdashboard, analyseert trends | R |
| AI Product Manager | Beheert strategisch dashboard, bewaakt ROI en SLO's | A |
| Guardian | Bewaakt governance-dashboard, rapporteert afwijkingen | C |
| CAIO | Ontvangt maandelijks strategisch rapport | I |
5. Exit Criteria¶
- Alle vier KPI-categorieën zijn zichtbaar in het juiste dashboard.
- Drempelwaarden en alertregels zijn gedocumenteerd en getest.
- SLO's zijn vastgesteld en gedeeld met de beheerorganisatie.
- Eerste maandrapport is opgeleverd aan de CAIO.
6. Deliverables¶
| Deliverable | Beschrijving | Eigenaar |
|---|---|---|
| Operationeel dashboard | Real-time gezondheidsbewaking | MLOps Engineer |
| Modelkwaliteitsrapport | Wekelijkse samenvatting prestaties vs. Golden Set | Data Scientist |
| Maandrapport Strategisch | ROI, kosten, compliance-status | AI PM |
| SLO-document | Vastgestelde servicenormen en drempelwaarden | AI PM |
7. DORA Framework en AI-Specifieke Extensies¶
De vier DORA-metrics (DevOps Research and Assessment) zijn een gevestigde standaard voor het meten van software delivery prestaties. Voor AI-systemen breiden wij deze uit met AI-specifieke indicatoren:
| DORA Metric | Definitie | AI-Extensie |
|---|---|---|
| Lead Time for Changes | Tijd van commit tot productie | + Tijd van prompt-wijziging tot gevalideerde ingebruikname |
| Uitrolfrequentie | Hoe vaak wordt er uitgerold | + Frequentie van model/prompt updates |
| Change Failure Rate | % uitrol dat een incident veroorzaakt | + % prompt-wijzigingen dat kwaliteitsdaling veroorzaakt |
| Mean Time to Recovery (MTTR) | Gemiddelde hersteltijd na incident | + Hersteltijd na drift-detectie |
AI-Specifieke Aanvullende Metrics¶
| Metric | Definitie | Eigenaar | Cadans |
|---|---|---|---|
| Acceptance Rate | % AI-suggesties dat daadwerkelijk wordt overgenomen | AI PM | Wekelijks |
| Rework Percentage | % AI-output dat correctie vereist | Tech Lead | Wekelijks |
| Kosten per Feature | Totale kosten (tokens + compute + review) per opgeleverde feature | AI PM | Maandelijks |
Gerelateerde modules:
- Doorlopende Verbetering — Overzicht
- Retrospectives
- Waarderealisatie
- Drift Detectie
- Beheer & Optimalisatie — Activiteiten
Volgende stap: Meet de gerealiseerde baten via Waarderealisatie → Zie ook: Drift Detectie