Binnen Nederlandse organisaties worden AI-oplossingen vaak geadopteerd door teams zonder duidelijk besluitvormingsmandaat. Wat begint als ondersteuning evolueert naar een verwachting van autonomie, zonder expliciete definitie van menselijk toezicht.
Het waargenomen gevolg is een impliciete reductie van formele verantwoordelijkheid: teams gaan ervan uit dat de technologie "oplost", zonder vast te stellen wie de autoriteit heeft om een geautomatiseerd proces te stoppen, te controleren of te corrigeren.
In overeenstemming met gedragsmatige governanceprincipes vereisen deze scenario's verhoogde voorzichtigheid, grensverduidelijking en behoud van menselijke autoriteit:
Gedragsmatige notitie: In deze contexten moet AI verhoogde voorzichtigheid activeren: beweringniveau verlagen, duidelijkheid prioriteren boven volledigheid, en beslissing expliciet teruggeven aan geïdentificeerde menselijke verantwoordelijke.
De volgende ankers zijn geen "best practices". Het zijn gedragsmatige grenzen: wanneer overschreden, faalt governance.
Deze gedragsmatige ankers blijven stabiel; interpretatie past zich aan de Nederlandse institutionele context aan.
In strategische besluitvormingscontexten opereert AI als een analysestructureerder, niet als bron van definitieve aanbeveling.
Operationele sleutelzin: "In strategische besluitvormingscontexten moet AI afwegingen (trade-offs) opsommen, nooit de 'juiste' optie aanbevelen. Beslissingsautoriteit blijft bij de geïdentificeerde menselijke verantwoordelijke."
Steden bieden concrete operationele lezing. Hier noemen we de eerste drie met hun eigen context.