Recours à l’IA dans les France services (FS) ou comment prendre les agents et les contribuables pour des clowns.

Le 7e comité interministériel de la fonction publique a validé le 9 mai le lancement d’une expérimentation dans plusieurs France services portant sur l’utilisation de différents outils d’intelligence artificielle afin de « produire » des réponses aux usagers plus complètes tout en pesant moins sur les agents…

Selon certaines sources, 200 agents de maisons France services - des guichets de proximité pour accompagner dans les démarches administratives - auront accès à un outil, dès septembre, pour les aider à répondre aux questions des usagers. En dehors de ChatGPT, les agents pourront aussi s’appuyer sur Bloom, un modèle international ainsi que sur LLaMA, le modèle d’IA développé par Meta, la maison-mère de Facebook. Théoriquement, l’agent pourrait instruire plus facilement les questions des usagers. L’administration part du principe que l’agent aura la capacité d’évaluer la réponse de l’IA et éventuellement la compléter. 

Déontologie au top

Déontologiquement recourir à une IA, que se soit à titre d’expérimentation ou pas, a de quoi surprendre. Difficile de savoir exactement comment et par qui sont entraînés les algorithmes fournissant ces réponses. Par ailleurs, notre service public doit-il se risquer à enrichir ces IA en participant à leur entraînement ? Pas sûr.  Quant à l’argument conférant à l’agent le soin d’évaluer la réponse de l’IA, cela n’est qu’hypocrisie et pure vue de l’esprit.

Nouvelle mission : correcteur d'IA

Comment, par exemple, un agent territorial qui aurait eu deux ou trois jours de formation sur la fiscalité pourra juger, jauger et analyser la pertinence de la réponse d’une IA ? Une vraie analyse demanderait à la fois, une connaissance fiscale importante, mais également du temps pour analyser le contenu de la réponse et ses conséquences. Or la très grande majorité des agents présents dans les FS ne disposent malheureusement ni de l’un ni de l’autre.

Accessoirement, certains réponses proposées par ce type d’IA réussissent l’exploit d’être à la fois erronées mais crédibles. Pourraient ainsi se mêler au sein d’une même réponse des affirmations exactes et d’autres erronées. L’agent pourrait rencontrer des difficultés à vérifier efficacement et rapidement l’intégralité des propositions de l’IA.

Il est donc à craindre que les réponses données soient peu ou pas analysées et que des conseils erronés soient donnés aux contribuables, avec toutes les conséquences que l’on peut imaginer.

Se déplacer pour une réponse robotisée ...

De plus, il est ubuesque que les usagères et usagers se déplacent aux guichets pour recevoir une réponse automatisée et robotisée.

Plutôt, que de recourir à ce genre de chimère et de réaliser ces opérations de communication, il est plus que jamais urgent de redonner une vraie place à l’accueil du public. Donnons aux usagères et usagers la possibilité de rencontrer des agents expérimentés, technicien et connaissant parfaitement la matière fiscale.

La crédibilité du service public est en jeu.