L’automatisation de l’arbitraire : Le sabotage de la responsabilité par le « Léviathan algorithmique »
Par
Mohamed Louadi
Professeur, ISG-Tunis
et
Majed Khalfallah
Expert en transformation digitale et en intelligence artificielle appliquée
La promesse de la modernisation numérique repose sur un triptyque classique qui consiste à rationaliser, simplifier et moderniser les rapports entre l'administration et ses usagers. Pourtant, un paradoxe persistant se manifeste puisque, loin de réduire la bureaucratie, les dispositifs technologiques contribuent structurellement à la renforcer en complexifiant les couches de validation(1). La présente réflexion s'inscrit dans une critique de la « gouvernementalité algorithmique »(2) , postulant que l'IA ne se contente pas d'exécuter des règles préétablies, mais qu'elle les infère, les généralise et les fige dans une infrastructure numérique indiscutable.
Le nœud de la problématique réside dans cette tension insoluble entre l'affichage d'une neutralité technologique salvatrice et la réalité d'un sabotage systématique de la responsabilité administrative. En automatisant une complexité procédurale que plus aucun acteur humain n'est en mesure de déconstruire ou de justifier, l'IA déplace la décision du guichet physique vers le code informatique opaque. Ce glissement transforme l'arbitraire autrefois contingent et négociable en une norme sanctuarisée par l'infaillibilité supposée de la logique logicielle. Cette transition marque l'avènement d'une vassalité numérique où l'humain abdique devant la machine. Ce passage de la « bureaucratie de papier » à la « bureaucratie de système » ne marque pas la fin de l'arbitraire, mais sa cristallisation définitive derrière le masque de la rationalité technique, rendant toute contestation citoyenne de facto obsolète avant même d'être formulée.
Méthodologie
Dans cet article, nous mobilisons une analyse qualitative croisée alliant théorie politique et examen de dispositifs techniques. La base théorique est constituée par une revue de littérature en sociologie des organisations et en administration publique, mobilisant notamment les travaux de Bovens et Zouridis(3) sur la dématérialisation et ceux de Lipsky sur la discrétion des agents de terrain. Ces concepts fondamentaux sont confrontés à des sources prospectives et institutionnelles de pointe, telles que le document IA, bureaucratie et labyrinthes algorithmiques(4) ainsi que les analyses prospectives de la Banque des Territoires(5) concernant l'automatisation de la complexité(6). Enfin, une approche comparative de cas empiriques internationaux permet d'illustrer les conséquences politiques concrètes de cette transition.
La métamorphose de la discrétion administrative: du guichet au code
Le pouvoir discrétionnaire, pilier de l'ajustement de la norme au réel, subit une mutation structurelle profonde. Nous assistons à une transition de la « bureaucratie de guichet », où l'agent disposait d'une marge de manœuvre interprétative, vers une « bureaucratie de système ». Dans ce nouveau paradigme, le pouvoir est retiré à l'agent de terrain pour être encodé directement dans l'architecture logicielle de l'institution. L'IA rend ce basculement irréversible en fétichisant le code comme source unique de vérité. Ce sabotage de l'interprétation humaine transforme l'agent en simple esclave d'une règle rigide qui élimine toute flexibilité contextuelle.
Si Bovens et Zouridis(7) avaient anticipé ce basculement, l'IA le rend irréversible en fétichisant le code comme source unique de vérité. Ce sabotage de l'interprétation humaine transforme l'agent en simple auxiliaire d'une règle rigide préprogrammée qui élimine toute flexibilité contextuelle(8). L'usager ne fait plus face à un interlocuteur capable d'empathie ou de discernement, mais à une interface qui exécute des sentences algorithmiques dont les fondements logiques sont inaccessibles aux acteurs de terrain eux-mêmes.
La cristallisation et l'effet d'amplification des rigidités
L'intelligence artificielle (IA) ne se contente pas d'assister l'administration, elle pétrifie les processus sous une forme inaltérable. Selon IAAppliquée(9), ce phénomène de cristallisation transforme des pratiques administratives autrefois contingentes, souvent issues de compromis historiques ou de coutumes locales, en règles stables, explicites et obligatoires dès lors qu'elles sont intégrées au système d'information. La technologie agit ici comme un fixateur chimique qui convertit les exceptions humaines, nécessaires à la paix sociale, en cas standardisés et froids.
Ce mécanisme s'accompagne d'une amplification systémique où la traçabilité exhaustive offerte par le numérique favorise une logique de surcontrôle permanent. Chaque étape de la procédure laisse une trace qui appelle une nouvelle règle de vérification, créant une boucle de rétroaction où la bureaucratie s'étend et se légitime précisément grâce à la complexité technologique qu'elle génère(10). Loin de simplifier, l'outil numérique devient le moteur d'une densification normative qui rend l'appareil d'État de plus en plus lourd et de moins en moins réactif. C'est une bureaucratie qui s'auto-légitime par la complexité qu'elle génère.
La sur-bureaucratisation algorithmique par apprentissage
L'IA générative introduit un risque inédit de sabotage par l'apprentissage machine. En s'entraînant sur des corpus massifs saturés de langage formel, de précautions juridiques et de justifications défensives accumulées par l'administration sur des décennies, l'IA assimile le respect statistique de la règle comme la valeur suprême de l'action publique(11). Elle ne se contente pas de reproduire la bureaucratie, elle l'optimise.
Il en résulte une machine produisant des sorties plus procédurales, plus verbeuses et plus complexes que les pratiques humaines initiales, car elle ne connaît pas la fatigue ni le pragmatisme du guichetier. L'IA privilégie systématiquement la règle abstraite sur le jugement situationnel au nom d'une vérité statistique déconnectée du réel social. Ce processus crée une « sur-bureaucratisation » où la complexité est générée automatiquement, dépassant les capacités de compréhension des agents censés piloter ces systèmes(12).
L'impératif productiviste et l'institutionnalisation de l'IA (Apports du WEF 2025)
L'ampleur de cette mutation est confirmée par les perspectives stratégiques proposées par le World Economic Forum(13). Le rapport Blueprint for Intelligent Economies: AI Competitiveness souligne que l’IA ne se limite pas à une simple mise à niveau technologique, mais qu’elle représente un levier de transformation capable de renforcer la compétitivité et l’innovation au sein des entreprises et des administrations publiques.
Pour tirer pleinement parti de cette transformation, le WEF recommande aux dirigeants de définir une vision commune, d’adopter une gouvernance flexible et de repenser les pratiques d’innovation afin de déployer l’IA de manière responsable, inclusive et adaptable. L’accent est mis sur la collaboration multipartite, le renforcement des capacités et la structuration des écosystèmes d’IA, afin de maximiser les bénéfices économiques et sociaux tout en limitant les risques associés à son adoption.
Études de cas : La matérialisation de l'arbitraire
Pour comprendre l'ampleur de ce sabotage de la responsabilité, il convient d'observer des exemples concrets où l'algorithme a servi de forteresse contre le citoyen. Le premier cas emblématique est celui du système MiDAS au Michigan, un algorithme de détection des fraudes qui a accusé à tort des milliers de chômeurs. L'institution a délibérément supprimé l'examen humain préalable, s'abritant derrière la prétendue objectivité de la machine pour saisir des comptes bancaires sans aucun recours possible, illustrant ce que Pasquale nomme la société de la boîte noire(14).
Le second cas concerne l'automatisation de la conformité via les systèmes de crédit social, où l'arbitraire n'est plus le fait d'un agent corruptible mais d'un score dynamique opaque. Le citoyen y perd sa qualité de sujet de droit pour devenir un « dividu » statistique(15), rendant toute défense politique ou juridique impossible puisque la sanction est automatique et prédictive(16). Enfin, le déploiement du « Smart Government » dans plusieurs métropoles montre comment l'achat d'interfaces luxueuses sert de vitrine pour masquer des critères d'exclusion (revenus, origine, comportement) directement intégrés dans le code source, automatisant le refus de service sans laisser de trace de discrimination humaine contestable.
Discussion : Conséquences politiques, entre instrumentalisation et entropie
Les conséquences politiques de cette dépossession révèlent deux dynamiques de pouvoir divergentes mais complémentaires. D'une part, l'instrumentalisation consciente voit l'algorithme servir de bouclier politique car l'institution utilise l'opacité technique pour masquer des choix budgétaires ou sociaux impopulaires derrière une neutralité de façade. En affirmant que le système a décidé seul, l'autorité évacue le débat public et se protège de la responsabilité juridique(17).
D'autre part, l'entropie systémique décrit une situation où l'administration perd littéralement le contrôle par accumulation de couches logicielles contradictoires. Ce labyrinthe algorithmique finit par agir de manière autonome, dictant sa propre loi par pur effet d'inertie bureaucratique. Dans les deux cas, le résultat est le crépuscule de la citoyenneté active : l'individu est privé de son droit à une procédure régulière et transparente , se retrouvant confronté à une automatisation de la complexité qui rend l'appareil d'État radicalement étranger à ses propres membres.
Conclusion
L'intégration massive de l'IA dans l'administration n'est pas une simple étape de modernisation, mais l'avènement du Léviathan algorithmique. En automatisant l'arbitraire, l'État dilue la responsabilité politique et érige une forteresse mathématique contre toute forme de contestation sociale. Ce processus redéfinit l'exercice même de la souveraineté. Lorsque la décision administrative s'émancipe de la médiation humaine pour se loger dans les replis opaques du code, le contrat social se rompt au profit d'une gestion purement statistique des corps et des droits.
Cet article suggère que le sabotage de la responsabilité n'est pas un accident de parcours mais une propriété émergente de la sur-bureaucratisation algorithmique par apprentissage. En cristallisant des rigidités procédurales et en automatisant une complexité administrative devenue illisible , les systèmes d'IA privent le citoyen du socle fondamental de sa protection juridique : le droit à l'erreur humaine et à l'arbitrage politique. La machine institutionnelle devient un automate aveugle qui s'auto-justifie par sa propre cohérence interne, ignorant les réalités sociales qu'elle est censée réguler.
Pour éviter que la démocratie ne se dissolve dans une optimisation algorithmique des populations, il est urgent de réhabiliter le jugement discrétionnaire de l'agent public face à l'infaillibilité présumée du logiciel. Le défi du futur ne sera pas de rendre les algorithmes plus performants, mais de restaurer la responsabilité humaine là où elle a été sacrifiée sur l'autel de la modernité technologique. Sans cette reconquête de la décision politique par l'humain, la bureaucratie algorithmique achèvera sa mutation en une forme de totalitarisme dématérialisé où la règle sans visage devient la seule source de vérité.
Les discussions du Forum économique mondial de Davos 2026 ont souligné que la souveraineté numérique dépasse la seule gestion des données ou des modèles algorithmiques et englobe la gouvernance des infrastructures techniques et décisionnelles à l’échelle internationale. Les dirigeants présents ont insisté sur le fait que les systèmes d’intelligence artificielle doivent être transparents, audités et sous contrôle humain pour que la responsabilité politique demeure effective, sans quoi l’automatisation algorithmique risque de renforcer des structures de pouvoir matériellement et géopolitiquement concentrées. Ces débats ont mis en lumière l’importance d’un cadre normatif mondial capable de soutenir des architectures hybrides réparties et des capacités locales d’innovation et de contrôle.
Mohamed Louadi
Professeur, ISG-Tunis
et
Majed Khalfallah
Expert en transformation digitale et en intelligence artificielle appliquée
1) Voir IAAppliquée. (2026). Sur-bureaucratisation algorithmique par apprentissage, 5 janvier, https://www.youtube.com/watch?v=ruUZrKMUIqQ, consulté le 10 janvier 2026.
2) Rouvroy, A., & Berns, T. (2013). Gouvernementalité algorithmique. Réseaux, 177(1), 163-196.
3) Bovens, M., & Zouridis, S. (2002). From street level to system level bureaucracies: How information and communication technology is transforming administrative discretion and constitutional control. Public Administration Review, 62(2), 174 184, https://onlinelibrary.wiley.com/doi/epdf/10.1111/0033-3352.00168, consulté le 23 janvier 2025.
4) IAAppliquée. (2026), op. cit.
5) Banque des Territoires (2024), La Banque des Territoires s’engage dans une approche éthique de l’intelligence artificielle
https://www.banquedesterritoires.fr/la-banque-des-territoires-sengage-dans-une-approche-ethique-de-lintelligence-artificielle, consulté le 18 janvier 2026.
6) Gendron, M. (2024). IA générative : entre gains réels et risque d’automatisation de la complexité administrative. Banque des Territoires. https://www.banquedesterritoires.fr/ia-generative-entre-gains-reels-et-risque-dautomatisation-de-la-complexite-administrative, consulté le 18 janvier 2026.
7) Bovens, M., & Zouridis, S. (2002). From street-level to system-level bureaucracy. Public Administration Review, 62(2), 174-184.
8) Lipsky, M. (1980). Street-level bureaucracy. Russell Sage Foundation.
9) IAAppliquée. (2026), op. cit.
10) IAAppliquée. (2026), op. cit.
11) IAAppliquée. (2026), op. cit.
12) IAAppliquée. (2026), op. cit.
13) World Economic Forum. (2025). Blueprint for intelligent economies: AI competitiveness. World Economic Forum. https://www.weforum.org/publications/blueprint-for-intelligent-economies/, consulté le 20 janvier 2026.
14) Eubanks, V. (2018). Automating inequality. St. Martin’s Press.
15) Le terme « dividu » a été popularisé par le philosophe Gilles Deleuze dans son ouvrage Deleuze, G. (1990). Post-scriptum sur les sociétés de contrôle (1990). Il désigne la transformation de l’individu en une somme de données numériques (consommation, déplacements, santé). Contrairement à l’individu qui est considéré comme une personne entière et unique, le « dividu » est une identité fragmentée en statistiques exploitables par des algorithmes. Dans ce cadre, la décision ne porte plus sur ce que la personne est ou fait réellement, mais sur ce que son profil mathématique laisse prévoir.
16) Rouvroy, A., & Berns, T. (2013), op. cit.
17) Pasquale, F. (2015). The black box society. Harvard University Press Information. https://en.wikipedia.org/wiki/The_Black_Box_Society, consulté le 20 janvier 2026.
18) Citron, D. K. (2008). Technological Due Process. Washington University Law Review, 85(6), 1249–1313.
19) Gendron, M. (2024), op cit.
20) Gendron, M. (2024), op cit. Et IAAppliquée (2026), op. cit.
21) World Economic Forum. (2026). World Economic Forum Annual Meeting 2026 — themes and insights. World Economic Forum. https://www.weforum.org/stories/2026/01/davos-2026-annual-meeting-what-to-expect/, consulté le 22 janvier 2026 et World Economic Forum. (2026). Global Cybersecurity Outlook 2026. World Economic Forum, https://www.weforum.org/publications/global-cybersecurity-outlook-2026/, consulté le 22 janvier 2026.
- Ecrire un commentaire
- Commenter