Comment organiser le dialogue social technologique ?
Contribution de Solidaires Finances Publiques aux travaux avec l’ANACT.
Solidaires Finances Publiques a participé à un atelier contributif autour du thème « Comment organiser le dialogue social technologique ».
Nous avons porté l’absence de dialogue social autour de l’introduction des nouvelles technologies, et notamment des outils d’intelligence artificielle, dans les missions des agents et des agentes des Finances publiques.
Alors que la DGFiP développe de manière effrénée les outils de data-science, nous déplorons l’absence de dialogue social sur ces questions. Face à ce constat, nous avons réfléchi collectivement et développons un nouveau répertoire d’action pour agir syndicalement.
La DGFiP : une administration marquée par le développement des outils technologiques
Depuis quelques années, l’État a mis en place une politique ambitieuse de transformation numérique de ses administrations, visant à moderniser l’Action publique supposée comme inefficace et à dégager des gains de productivité.
La DGFiP n’échappe pas à ce mantra du tout numérique comme moyen irréfutable de la rendre plus efficiente. Bien souvent c’est plus le diktat de la réduction des coûts budgétaires, surtout par la réduction des effectifs, qui guide les choix de l’administration en la matière, que l’intérêt général. La mise en œuvre accélérée de ces politiques de transformation numérique au sein de notre administration n’est pas sans impacter fortement nos missions, les organisations de travail des agentes et agents ainsi que la qualité du service public délivré aux usagers et usagères.
C’est pourquoi en tant qu’OS nous avons un rôle particulier d’alerte sur les éventuels risques du développement et de déploiement de ces nouvelles technologies dans nos administrations.
Parmi les principaux projets IA développés à la DGFIP qui prennent une part prégnante au sein de cette politique du tout numérique, nous recensons notamment :
- Le foncier innovant : cette technologie permet sur la base d’images aériennes de l’IGN et à partir d’algorithmes, d’extraire les contours d’immeubles bâtis et notamment de piscines. Un traitement informatique identifie dans un second temps si les éléments détectés sur les images sont bien imposés aux impôts directs locaux. Les prestataires de service sont Cap Gemini, fleuron des sociétés privées du conseil et de la transformation numérique et Google, le géant américain qui fournit ses services de cloud et de savoir-faire en matière d’algorithmes.
- Le traitement automatisé d’analyse prédictive de la dépense (TAAP) qui remplace le contrôle hiérarchisé de la dépense et vise à alléger le taux de dépenses soumises à contrôle par une sélection informatique des dépenses présentant des risques.
- Le projet Ciblage de la Fraude et Valorisation des Données (CFVR) dont le traitement par data mining consiste à analyser et à recouper toutes les informations dont la DGFiP dispose aux fins d’y repérer des profils de fraude. En croisant des données à une échelle de masse, le projet CFVR génère des listes de sociétés et maintenant de particuliers à contrôler sur des critères déterminés.
Aujourd’hui de nombreux textes préconisent la nécessité d’avoir pour les usagers et les usagères mais aussi les travailleurs et les travailleuses, une connaissance des outils faisant appel à l’IA, de la transparence et plus généralement les moyens de pouvoir expliquer les opérations effectuées par les machines. Ainsi :
- La loi pour une République numérique de 2016 avec l’ouverture par défaut des données publiques, la neutralité du net, une obligation de loyauté des plateformes en ligne, une protection accrue pour les données personnelles des usagers du net
- L’OCDE a, dès 2019, développé le concept d’IA responsable, encourageant une utilisation de l’IA fondée, notamment sur la transparence. Dès 2019 les pays membres ont adopté « les Principes de l’OCDE sur l’intelligence artificielle qui promeuvent une IA innovante et digne de confiance, qui respecte les droits humains et les valeurs démocratiques »
- L’accord européen sur la transformation numérique des entreprises du 22/06/2020 prévoit dans sa recommandation 3 de disposer d’une connaissance claire et transparente du fonctionnement et des principes du système d’IA
- Le Conseil d’État, dans son étude du 31/03/2022 à la demande du 1er Ministre « Intelligence artificielle et action publique : construire la confiance, servir la performance » a énoncé parmi les 7 principes de l’IA publique de confiance, celui de la transparence avec notamment « un droit d’accès à la documentation du système, une exigence de loyauté consistant à informer les personnes de l’utilisation d’un SIA à leur égard, l’auditabilité du système par les autorités compétentes ainsi que la garantie d’explicabilité ».
- L’accord cadre européen du comité sectoriel de dialogue social pour les administrations d’État et fédérales sur la numérisation du 06/10/2022 prévoit en son 8 que « lors de l’introduction ou du renforcement de système utilisant l’IA, les représentants des travailleurs sont étroitement impliqués dans ce processus, à un stade précoce, pour veiller à ce que les systèmes soient faciles à utiliser et compatibles avec le respect des droits des travailleurs, et de bonnes conditions de travail, en tenant compte des incidences potentielles sur l’autonomie des travailleurs, leurs compétences et leurs satisfactions au travail. »
Malgré ces différents cadres réglementaires, nous constatons, sur le terrain, dans nos différentes instances de dialogue social, l’absence d’informations claires et intelligibles permettant d’appréhender le recours aux différents outils de data-science, leur impact sur nos missions et les conditions de travail des agents et des agentes.
Nos difficultés : l’absence de dialogue social technologique
Dans un contexte où le dialogue social est déjà très dégradé, nous constatons l’absence d’information, de concertation en amont et durant la conduite des projets faisant appel aux nouvelles technologies et aux outils de data-science. Il n’y a aucune transparence sur les coûts des budgets, leurs modalités d’attribution, leur pilotage, dans un cadre de marchés publics de plusieurs millions d’euros avec de la « prestarisation » à outrance.
Par ailleurs, alors que ces projets ont des impacts majeurs sur l’exercice de nos missions de service public et de nos conditions de travail, la DGFiP n’associe ni les organisations syndicales ni les agent-es dans leur mise en place. Sous prétexte d’utiliser des outils de data-science, informatiques et plus techniques, les documents remis dans les différents groupes de travail métier restent très généraux et ne permettent pas de comprendre les enjeux inhérents à ces programmes. Dès lors que nos délégations posent des questions plus précises et plus complexes, aucune réponse ne nous est jamais apportée ni en groupe de travail, ni après.
Enfin, les expérimentations ne font jamais l’objet de bilan. Dernière en date, l’expérimentation prévue à l’article 154 de la loi de finances pour 2020, permettant à la DGFiP et à la DGDDI de collecter et d’analyser, par le biais de traitements informatisés, les contenus librement accessibles sur les plateformes en ligne pour détecter des manquements déclaratifs. Alors que la loi prévoyait de faire de l’article 154 « l'objet d'une première évaluation dont les résultats sont transmis au Parlement ainsi qu'à la Commission nationale de l'informatique et des libertés au plus tard dix-huit mois avant son terme. », soit à l’été 2022, nous ne possédons toujours aucun bilan.
Cette absence de bilan, de recul nécessaire sur un outil algorithmique qui a des conséquences à la fois sur l’exercice des missions des personnels, sur leurs conditions de travail mais également sur les libertés individuelles des usagères et usagers utilisateurs des réseaux sociaux, contrevient. Parce qu’au delà des effets sur les conditions de travail et la qualité des missions, la mise en place des IA dans la fonction publique ont de forts enjeux dans la mise en œuvre des politiques publiques et donc des effets pour l’ensemble des citoyens et citoyennes. Il y a un enjeu démocratique.
Développer de nouveaux moyens d’action pour continuer d’agir syndicalement
Face au silence de l’administration nous avons été contraint de développer des méthodes tierces pour comprendre, obtenir des informations et porter nos revendications :
- Juridiques : Le recours à la CADA pour l’obtention de documents qui nous ne nous ont pas été transmis par l’administration. C’est avec la consultation de documents obtenus par ce moyen que nous sommes parvenus à déchiffrer certains projets informatiques confiés la plupart du temps à des cabinets de conseil informatique privés.
- Politiques : Communiquer et informer des élus sur la typologie des projets IA conduits à la DGFiP nous offre un appui. Alors que nos questions et interrogations demeurent la plupart du temps sans réponse sur ces problématiques, la question d’un député ou sénateur au gouvernement peut parfois équilibrer les débats. La commission des finances des deux chambres reste aussi un espace institutionnel clé qui nous permettrait d’obtenir des études et bilans chiffrés des projets.
- Recherche : Nous avons progressivement tissé des liens avec le milieu de la recherche. Cela nous a permis d’appréhender les enjeux et risques liés au développement d’IA et dépasser les arguments parfois simplistes retranscrits dans les rares powerpoint envoyés par notre administration. En retour nous avons pu nous forger un réseau à la fois scientifique et associatif travaillant sur toutes les problématiques liées à l’IA (indépendance, inexplicabilité, discrimination, service public…). Enfin c’est également un moyen pour obtenir des informations, c’est de cette façon que nous avons découvert que l’entraînement algorithmique du dessin des piscines détectées par IA s’opérait à Madagascar par des annotateurs rémunérés entre 80 et 150 euros par mois.
- Journaliste : Les journalistes spécialisés sur les outils numériques et d’IA sont de plus en plus nombreux. Tisser des liens avec elles et eux est tout aussi indispensable pour obtenir davantage d’information et pour que nos inquiétudes soient partagées au plus grand nombre. Leur rôle est démultiplié dans un contexte de dialogue social quasi inexistant sur la thématique de l’IA
- Dialogue social : Nous allons travailler sur ces questions dans la Formation spécialisée de réseau, sous l'angle des conditions de travail.
Pour conclure, dans le cadre du développement des nouvelles technologies, il nous semble indispensable que les administrations publiques engagent de véritables dialogues sociaux en leur sein. Cela devrait passer, entre autre, par :
- Des concertations en amont des projets numériques
- La présence d’expert-es, de techniciens et techniciennes du côté de la parité administrative lors des GT
- Des retours sur les expérimentations en cours avant leur généralisation
- Des retours sur la conduite des projets
- Des études précises sur les effets de la mise en place de l’IA sur le travail réel des salariés
Enfin pour engager un dialogue social de qualité sur ces sujets, il est nécessaire que les projets ne soient pas subordonnés à des suppressions de postes.