Ga naar inhoud

1. Bronnen & Inspiratie

1. Overzicht

Dit project is tot stand gekomen door de synthese van internationale industrie-standaarden, academisch onderzoek en praktische ervaringen in AI-projectmanagement. Hieronder volgt een overzicht van de belangrijkste bronnen die als fundament en inspiratie hebben gediend.


2. Primaire bronnen (audit)

De volgende bronnen vormen de juridische en technische ruggengraat van deze blauwdruk en zijn geschikt voor audit-doeleinden.

Nummering

De Ref ID's (bijv. [so-27]) zijn stabiele identifiers, geen volgnummers. Ze blijven vast zodat verwijzingen vanuit andere pagina's geldig blijven, ook wanneer bronnen worden toegevoegd of verwijderd.

Ref ID Bron Beschrijving Status
[so-27] EU AI Act (Official Text) Officiële wettekst & Verordening (EU) 2024/1689 Definitief
[so-36] EU AI Act (Implementation) Gefaseerde inwerkingtreding & deadlines Actief
[so-28] DORA GenAI Report v2025.2 DevOps Research & Assessment rapport over GenAI impact Gepubliceerd
[so-1] NIST IR 8605 (Draft) A Framework for Managing Risks of Generative AI Public Draft
[so-10] arXiv:2505.10924 Man-in-the-Middle Attacks on LLM-based Agents Preprint
[so-40] EC — Intrekking AILD (OJ EU, okt 2025) Officiële intrekking AI Liability Directive; implicaties voor EU-aansprakelijkheidsrecht Definitief
[so-41] Richtlijn (EU) 2024/2853 — Herziene PLD Product Liability Directive inclusief software & AI; inwerkingtreding 8 dec 2024 Definitief
[so-42] OWASP Top 10 for LLM Applications (2025) Meest kritieke beveiligingsrisico's voor LLM-toepassingen, editie 2025 Gepubliceerd
[so-43] OWASP / Security Research — Deceptive Delight & HashJack (2025) Nieuwe aanvalspatronen: multi-turn manipulatie en URL-fragment prompt-injectie Gepubliceerd
[so-44] Context Management — Industry Analysis (2025) Verschuiving van prompt engineering naar context management; rol van de Context Builder Gepubliceerd
[so-45] ISACA — AAISM Certificering (aug 2025) Advanced in AI Security Management: eerste AI-gecentreerde beveiligingsmanagementkwalificatie Definitief
[so-46] Workday — AI Productivity Research (2025) AI Productivity Paradox: rework-valkuil, organisatorisch vs. individueel productiviteitsniveau; GAINS™ ROI-raamwerk Gepubliceerd
[so-47] Cornell University — Carbon-Aware AI (2025) Smart siting en grid-decarbonisatie verminderen CO₂-voetafdruk AI met 73%, water met 86% Gepubliceerd
[so-48] IEA / Datacenter Energy Reports (2025) Energieverbruik datacenters, waterconsumptie en projecties tot 2030 Gepubliceerd
[so-49] Verordening (EU) 2016/679 — AVG/GDPR Algemene Verordening Gegevensbescherming; rechtstreeks van toepassing in alle EU-lidstaten Definitief
[so-50] NIST AI 100-1 — AI Risk Management Framework (RMF) 1.0 NIST AI RMF: raamwerk voor risicobeheer van AI-systemen; vier kernfuncties: Govern, Map, Measure, Manage Definitief
[so-51] Gartner, VentureBeat, S&P Global — AI Production Surveys (2019–2024) Industriebenchmarks: faal- en abandonpercentages van AI-projecten die productie bereiken (30–85% range) Gepubliceerd

3. Externe Standaarden & Methodologieën

De procesinrichting van deze Blauwdruk is getoetst aan en geïnspireerd door de volgende internationale raamwerken:

Project Management Institute (PMI)

  • CPMAI (Certified Project Manager in Artificial Intelligence): Voor de 7-stappen methodiek en de data-centric benadering van projecten.
  • PMBOK Guide: Voor de algemene projectmanagement standaarden en procesgroepen.

Agile & Software Development

  • Agile Manifesto & Scrum Guide: Voor de iteratieve werkwijze in de fasen Realisatie en Levering.
  • DevOps & MLOps Principles: Voor de inrichting van geautomatiseerde pipelines (CI/CD/CT) en technische robuustheid.

Risicomanagement

  • NIST AI Risk Management Framework (AI RMF 1.0): Voor de classificatie en beheersing van AI-specifieke risico's.
  • ISO/IEC 42001: De internationale norm voor Artificiële Intelligentie Management Systemen.

4. Wet- en Regelgeving

De governance en compliance onderdelen (zoals Risicobeheersing & Compliance) zijn direct afgeleid van:

Europese Unie

  • De EU AI Act (2024): Voor de risicoclassificatie (Onacceptabel, Hoog, Beperkt, Minimaal) en de verplichtingen rondom transparantie en het technisch dossier.
  • Algemene Verordening Gegevensbescherming (AVG/GDPR): Voor privacywaarborging en dataminimalisatie.

5. Academisch & Onderzoek

  • Stanford Digital Economy Lab - Future of Work: Onderzoek naar de impact van AI op werk en de economie.
  • MIT NANDA - The GenAI Divide (2025): Rapport over de kloof in AI-executie binnen het bedrijfsleven.
  • Writer — AI Governance & Communication (2025): Praktijkrichtlijnen voor stakeholdercommunicatie bij AI-projecten en expectation management.

6. Secundaire duiding (optioneel)

De volgende bronnen bieden aanvullende context en interpretatie, maar gelden niet als primaire audit-bronnen.

  • MayerBrown — EU AI Act analysis and commentary
  • Overige secundaire duiding enkel na review door Guardian

Praktische Referenties

EU AI Act — Artikelniveau

Referentie Inhoud Relevant voor
EU AI Act Bijlage III Classificatie van hoog-risico AI-systemen (8 gebieden) Risicoclassificatie, Gate 1
EU AI Act Art. 9 Risk management system — verplicht voor hoog-risico systemen Compliance Hub, Fase 1–3
EU AI Act Art. 13 Transparantievereisten — logboek, uitlegbaarheid Beheer, Modus 3–4
EU AI Act Art. 17 Quality management system — procedures en documentatie Governance Model, Gate 3
EU AI Act Art. 61 Post-market monitoring — verplichte drift- en incidentrapportage Fase 5, Beheer
EU AI Act Art. 72 Incidentrapportage aan nationale toezichthouder (ernstige incidenten) Compliance Hub, Incident Response

Data Governance & Privacy

Referentie Inhoud Relevant voor
ISO/IEC 27701:2019 Privacy Information Management — uitbreiding op ISO 27001 Privacy-by-Design, Guardian Review
EDPB Guidelines 02/2022 AVG-toepassing op LLM-systemen (ChatGPT en vergelijkbaar) Compliance Hub, Fase 1
NIST Privacy Framework v1.0 Raamwerk voor privacyrisicobeheer Risk Pre-Scan, Fase 1
DPIA Model (Autoriteit Persoonsgegevens) Nederlandstalig DPIA-model voor hoog-risico verwerkingen Fase 2, Guardian Review

MLOps & Monitoring

Referentie Inhoud Relevant voor
Google MLOps Whitepaper (2021) MLOps volwassenheidsmodel: niveaus 0, 1, 2 Technische Standaarden, Fase 5
Microsoft MLOps Maturity Model Praktisch raamwerk voor CI/CD in ML-systemen Technische Standaarden
Monte Carlo — ML Observability (2024) Data observability en modelgezondheid-monitoring framework Model Health Review, Fase 5
OECD AI Principles (2019, herzien 2024) Vijf principes voor verantwoorde AI (inclusief monitoring) Governance Model, Compliance Hub
NIST AI RMF 1.0 (2023) AI Risk Management Framework — Govern, Map, Measure, Manage Risk Pre-Scan, Gate Reviews

Duurzaamheid

Referentie Inhoud Relevant voor
Green Software Foundation — SCI Spec Software Carbon Intensity — CO₂ per softwareeenheid Green AI, Business Case
IEA Energy & AI Report (2024) Energieverbruik van AI-datacenters wereldwijd Business Case, Ecologische voetafdruk
EU Green Deal Digital Strategy Europese duurzaamheidsdoelen voor digitale sector (2030) Governance Model, Beheer