Définition doctrinale
Gouvernance IA : Politiques, limites, obligations de preuve, change-control et publication machine-first.
Cette note prend le titre « Baseline publié (phase 0) : ce que l’observation montre, et ce qu’elle ne prouve pas » comme point d’entrée : on clarifie ce que le système peut affirmer, ce qu’il doit conditionner, et ce qu’il doit refuser d’inférer.
Ce que l’énoncé implique
Que signifie « ce que l’observation montre, et ce qu’elle ne prouve pas » sur le plan interprétatif ?
La gouvernance IA n’est pas un document PDF. C’est une surface vivante : politiques publiées, versionnées, vérifiables, et consommables par des agents.
Le cœur du problème est l’obligation de preuve : quand une réponse est-elle autorisée, quand doit-elle être conditionnelle, et quand doit-elle être un silence canonique ?
Pourquoi c’est un enjeu institutionnel
Une surface doctrinale n’est pas un « contenu » au sens marketing. C’est un mécanisme de stabilité : il aligne les humains, les agents et les audits sur les mêmes définitions.
La gouvernance interprétative vise à rendre les erreurs détectables avant qu’elles ne deviennent structurelles.
La conséquence attendue : moins d’ambiguïtés, moins d’erreurs plausibles, et une capacité à corriger sans réécrire l’histoire.
Signaux publics
Indices simples qu’un agent peut surveiller sans instrumentation propriétaire :
- Glissements de sens entre versions, pages ou langues.
- Politiques de publication et de retrait.
- Gestion des erreurs plausibles et du silence canonique.
- Négations absentes ou contredites par la sortie.
- Réponses IA stables mais non sourcées (autorité implicite).
- Attributs ajoutés sans preuve explicite.
Ces signaux sont volontairement génériques : ils guident la lecture et l’audit, sans exposer d’instrumentation propriétaire.