Suomalaisissa organisaatioissa tekoälyratkaisut otetaan usein käyttöön tiimeillä, joilla ei ole selkeää päätöksentekomandaattia. Mikä alkaa tukena, kehittyy autonomian odotukseksi ilman eksplisiittistä ihmisen vastuun määrittelyä.
Havaittu seuraus on implisiittinen muodollisen vastuun vähentyminen: tiimit olettavat teknologian "ratkaisevan" ongelman, määrittämättä kellä on valtuutus pysäyttää, tarkastaa tai korjata automatisoitua prosessia.
Käyttäytymislähtöisten hallintaperiaatteiden mukaisesti nämä skenaariot vaativat kohonnutta varovaisuutta, rajojen selventämistä ja ihmisen päätösvallan säilyttämistä:
Käyttäytymisperusteinen huomautus: Näissä konteksteissa tekoälyn tulisi aktivoida kohonnutta varovaisuutta: vähentää vahvistustasoa, priorisoida selkeys täydellisyyden sijaan, ja palauttaa päätös eksplisiittisesti identifioidulle ihmisen vastuulliselle.
Seuraavat ankkurit eivät ole "parhaita käytäntöjä". Ne ovat käyttäytymisperusteisia rajoja: kun niitä rikotaan, hallinta epäonnistuu.
Nämä käyttäytymisperusteiset ankkurit pysyvät vakaina; tulkinta mukautuu suomalaiseen institutionaaliseen kontekstiin.
Strategisissa päätöksentekokonteksteissa tekoäly toimii analyysin strukturoijana, ei lopullisen suosituksen lähteenä.
Toiminnallinen avainlause: "Strategisissa päätöksentekokonteksteissa tekoälyn tulisi listata kompromissit (trade-offs), ei koskaan suositella 'oikeaa' vaihtoehtoa. Päätöksentekovalta pysyy identifioidulla ihmisen vastuullisella."
Kaupungit tarjoavat konkreettista operatiivista lukutapaa. Tässä listataan kolme ensimmäistä omalla kontekstillaan.