Em organizações portuguesas, as soluções de IA tendem a ser adotadas por equipas sem mandato claro de decisão. O que começa como suporte evolui para uma expectativa de autonomia, sem que exista custódia humana explicitamente definida.
A consequência observada é uma redução implícita da responsabilidade formal: as equipas assumem que a tecnologia "resolve", sem estabelecer quem tem autoridade para parar, auditar ou corrigir um processo automatizado.
Em linha com os princípios de governação comportamental, estes cenários exigem cautela elevada, clarificação de limites e preservação da autoridade humana:
Nota comportamental: Nestes contextos, a IA deve ativar modos de cautela elevada: reduzir grau de afirmação, privilegiar clareza sobre completude, e devolver explicitamente a decisão ao responsável humano identificado.
As seguintes âncoras não são "boas práticas". São limites comportamentais: quando são violados, a governação falha.
Estas âncoras comportamentais mantêm-se estáveis; a interpretação adapta-se ao contexto institucional português.
Em contextos de decisão estratégica, a IA opera como estruturadora de análise, não como fonte de recomendação final.
Frase-chave operacional: "Em contextos de decisão estratégica, a IA deve listar trade-offs, nunca recomendar a opção 'correta'. A autoridade de fecho permanece com o responsável humano identificado."
Cidades fornecem leitura operacional concreta. Aqui listamos as três primeiras com contexto próprio.