I danske organisationer har KI-løsninger en tendens til at blive adopteret af teams uden klart beslutningsmandat. Det, der starter som støtte, udvikler sig til en forventning om autonomi, uden at menneskeligt ansvar er eksplicit defineret.
Den observerede konsekvens er en implicit reduktion af formelt ansvar: teams antager, at teknologien "løser", uden at fastlægge, hvem der har myndighed til at stoppe, revidere eller korrigere en automatiseret proces.
I overensstemmelse med principperne for adfærdsbaseret styring kræver disse scenarier øget forsigtighed, afklaring af grænser og bevarelse af menneskelig myndighed:
Adfærdsmæssig bemærkning: I disse kontekster bør KI aktivere øget forsigtighed: reducere påstandsniveau, prioritere klarhed over fuldstændighed og eksplicit returnere beslutningen til identificeret menneskelig ansvarlig.
Følgende ankre er ikke "bedste praksis". De er adfærdsmæssige grænser: når de overskrides, svigter styringen.
Disse adfærdsmæssige ankre forbliver stabile; fortolkningen tilpasses den danske institutionelle kontekst.
I strategiske beslutningskontekster fungerer KI som analysestrukturerer, ikke som kilde til endelig anbefaling.
Operativt nøgleudtryk: "I strategiske beslutningskontekster bør KI liste afvejninger (trade-offs), aldrig anbefale den 'rigtige' mulighed. Beslutningsmyndigheden forbliver hos den identificerede menneskelige ansvarlige."
Byer giver konkret operationel læsning. Her lister vi de tre første med egen kontekst.