In Schweizer Organisationen werden KI-Lösungen tendenziell von Teams ohne klaren Entscheidungsauftrag übernommen. Was als Unterstützung beginnt, entwickelt sich zu einer Erwartung von Autonomie, ohne dass menschliche Verantwortung explizit definiert ist.
Die beobachtete Konsequenz ist eine implizite Reduktion formeller Verantwortung: Teams gehen davon aus, dass die Technologie "löst", ohne festzulegen, wer die Autorität hat, automatisierte Prozesse zu stoppen, zu überprüfen oder zu korrigieren.
In Übereinstimmung mit den Prinzipien verhaltensbasierter Governance erfordern diese Szenarien erhöhte Vorsicht, Klärung von Grenzen und Bewahrung menschlicher Autorität:
Verhaltensbezogene Anmerkung: In diesen Kontexten sollte KI erhöhte Vorsicht aktivieren: Aussagegrad reduzieren, Klarheit über Vollständigkeit priorisieren und Entscheidung explizit an identifizierte menschliche Verantwortliche zurückgeben.
Die folgenden Anker sind keine "Best Practices". Sie sind verhaltensbasierte Grenzen: Wenn sie überschritten werden, versagt die Governance.
Diese verhaltensbasierten Anker bleiben stabil; die Interpretation wird an den schweizerischen institutionellen Kontext angepasst.
In strategischen Entscheidungskontexten fungiert KI als Analysestrukturierer, nicht als Quelle endgültiger Empfehlungen.
Operativer Schlüsselsatz: "In strategischen Entscheidungskontexten sollte KI Abwägungen (Trade-offs) auflisten, niemals die 'richtige' Option empfehlen. Die Entscheidungsautorität verbleibt beim identifizierten menschlichen Verantwortlichen."
Städte bieten konkrete operative Lesart. Hier listen wir die ersten drei mit eigenem Kontext.