News - 22.06.2023

Maledh Marrakchi: Quelle gouvernance pour l’IA?

Maledh Marrakchi: Quelle gouvernance pour l’IA?

Depuis la publication de la lettre pour un moratoire sur l’IA, signée par d’imminents experts, philosophes, chercheurs, et acteurs de l’écosystème en mars 2023(1), demandant à tous les laboratoires d’interrompre immédiatement, pendant au moins six mois, la formation de systèmes d’IA plus puissants que GPT-4, les initiatives et prises de positions se multiplient, certaines en faveur et d’autres contre.

Comme évoqué dans un article précèdent(2), l’IA générative présente d’énormes potentiels dans plusieurs domaines, mais aussi beaucoup de craintes quant à son impact sur la vie humaine et l’humanité en général.

La décision d'Open AI de lancer Chat GPT, un chatbot construit sur le Large Modèle de Langage GPT-3, en novembre 2022, a propulsé les outils d'IA au premier plan de la conscience publique. Au cours des six derniers mois, de nouveaux outils d'IA utilisés pour générer texte, images, vidéo et audio basés sur les invites «prompt» de l'utilisateur, ont éclaté en popularité.

Chaque jour, de nouvelles histoires sur les différentes capacités de l'IA générative - et leur potentiel de préjudice - ont émergé sans aucune indication claire sur ce qui adviendrait ensuite ou ce que ces outils auraient comme impact.

Depuis, plusieurs travaux émergent sur les retombées de ce type d’IA et les moyens possibles de leurs évaluations(3). Si l'IA générative est nouvelle, ses méfaits ne le sont pas. Les spécialistes de l'IA ont mis en garde depuis des années contre les problèmes que les grands modèles d'IA peuvent causer. Ces problèmes anciens sont exacerbés par le changement d'objectifs de l'industrie, qui est passée de la recherche et de la transparence, au profit de l'opacité et de la concentration du pouvoir (exemple notamment de Open AI qui est passé d’une organisation à but non lucratif à une société commerciale).

La plupart s’accordent à considérer ces différentes retombées par rapport à cinq catégories globales de risques: la fiabilité et l’autonomie; l'inégalité, la marginalisation et la violence; la concentration d’autorité; le travail et la créativité; l’écosystème et l’environnement.

Les pères fondateurs de l’IA moderne basée sur des modèles d’apprentissage profonds «deeplearning» (Yoshua Bengio, Yann Le Cun et Geoffrey Hinton, lauréats du Prix Turing de 2019) se sont exprimés par rapport à ces craintes et ces appels à un moratoire. Y.Bengio a été parmi les signataires de la lettre, alors que G.Hinton a préféré démissionner de Google pour reprendre sa liberté de parole et exprimer ses craintes à propos des récents développements de l’IA. Quant à Y. Le Cun (Chef IA scientist chez Meta et Professeur à New York University), il s’est inscrit totalement en opposition à un quelconque moratoire et prône plutôt l’ouverture et l’engagement sur la mise en œuvre d’IA ouvertes «open» accessible et transparente pour tous. Il considère les IA génératives de type GPT loin de constituer un quelconque risque de supplanter l’intelligence humaine et que leur intelligence ne dépasserait pas celle d’un grand lecteur: «lire un livre de médecine, ne fait pas de vous un médecin» affirma-t-il dans un panel à VIVATech2023 en France.

Face à ces divergences d’appréciations et d’attitudes et cette accélération effrénée des outils d’IA générative, des initiatives se multiplient à l’échelle des pays, des organisations gouvernementales et non gouvernementaux régionales et internationales, pour apporter des éléments de réponse aux craintes qui s’expriment, que J. ATTALI(4) résume en ces mots «l’éthique est un élément fondamental qui doit accompagner toute action humaine».

Même si l’adhésion au moratoire semble s’essouffler dans la mesure où la plupart considèrent qu’un tel moratoire ne fera que donner plus de marge aux acteurs peu soucieux des craintes exprimés, ou éventuellement malveillants, il semble que l’opinion générale se cristallise autour de la nécessité de réguler et orienter les initiatives et l’innovation dans ce domaine.

Dans ce qui suit, nous allons donner un état des principales initiatives prises par différents acteurs dans ce domaine et éventuellement celles en devenir.

A propos des Organisations Internationales

L’UNESCO lors de sa Conférence générale réunie à Paris du 9 au 24 novembre 2021, à l’occasion de sa 41e session, reconnait que le développement rapide des technologies de l’IA rend difficile une mise en œuvre et une gouvernance éthique, ainsi que le respect et la protection de la diversité culturelle. Elle considère que ce développement peut perturber les normes et valeurs éthiques locales et régionales, et a adopté le 23 novembre 2021, une recommandation sur l’éthique de l’intelligence artificielle(5).

La recommandation énonce quatre valeurs fondées sur la promotion des droits de l'homme et la dignité, qui sont ensuite présentés sous la forme de dix principes ainsi que des recommandations politiques spécifiques pour les gouvernements. L'objectif de la recommandation est de garantir des résultats équitables et inclusifs, tout en renforçant les impacts positifs de ces les technologies.

L’UNESCO appelle les États membres d’appliquer, à titre volontaire, les dispositions de la recommandation en prenant des mesures appropriées, notamment législatives, conformes aux pratiques constitutionnelles et aux structures de gouvernance de chaque État, en vue de donner effet, dans leurs juridictions, aux principes et normes énoncés conformément au droit international, y compris le droit international des droits de l’homme. Elle recommande également aux États membres d’impliquer toutes les parties prenantes, y compris les entreprises, afin de veiller à ce qu’elles jouent leurs rôles respectifs dans la mise en œuvre des valeurs et principes énoncés, et de les porter à la connaissance des autorités, organismes, instituts de recherche et organismes universitaires, et institutions et organisations des secteurs public, privé et de la société civile engagés dans les technologies de l’IA, afin que le développement et l’utilisation des technologies de l’IA soient guidés par des recherches scientifiques de qualité ainsi que par une analyse et une évaluation éthiques.

L’UNESCO affirme que l’humanité a besoin de politiques et de cadres réglementaires nationaux et internationaux pour garantir que ces technologies émergentes (notamment l’IA) profitent à l'humanité tout entière. L’humanité a besoin d’une IA centrée sur l'humain, qui servirait l'intérêt supérieur des citoyens, et non pas l'inverse.

En Juin 2023, l’UNESCO publie un document d’orientation(6) montrant comment la recommandation citée ci-dessus peut servir de guide aux parties prenantes pour répondre à diverses préoccupations, proposer des actions concrètes et un cadre procédural pour concevoir, développer, déployer et acquérir des systèmes d'IA de manière éthique.

En 2022, l’UNESCO s’associe avec i4Policy pour publier un ensemble de 10 leçons(7) destinées aux décideurs politiques en matière de politique d’IA, pour exploiter l'intelligence collective des communautés et s'assurer que le processus d'élaboration et de mise en œuvre des politiques publiques est inclusif afin de parvenir à un consensus, tout en veillant à ce que les résultats soient pertinents et applicables.

En 2019, le World Economic Forum (Centre pour la quatrième révolution industrielle) a réuni un groupe informel de dirigeants de gouvernements, d'entreprises, d'universités et de la société civile, pour aider à façonner la gouvernance et la coopération internationales sur l'IA dans l'intérêt public mondial. Il a été décidé de créer au sein du WEF, un Conseil Global pour l’IA (AI Global Council). En 2021, après un travail de 2 ans, l'AIGC publie un rapport(8) sur la gouvernance de l'IA contribuant à une bonne application de l'IA et des pratiques responsables. Le rapport propose aux gouvernements, aux dirigeants d'entreprise et aux autres parties prenantes, les meilleures pratiques en termes de gouvernance de l’IA et un ensemble de recommandations pour aller de l'avant. Le AIGC reconnaît qu’il faut encore beaucoup plus d'innovation dans le domaine de la gouvernance de l'IA si nous voulons avancer à la fois sur l’IA et les applications des systèmes basés sur l'IA. Il prône la nécessité de redoubler d'efforts au niveau des parties prenantes en rassemblant de multiples acteurs pour coconcevoir et codévelopper un cadre de gouvernance.

Depuis 2016, l’OCDE a entrepris une réflexion à propos de l’IA qui a conduit à l’organisation en 2017 d’une conférence internationale sur l'IA : Machines intelligentes, politiques intelligentes. L'Organisation a également mené des travaux d'analyse et de mesure qui fournissent une vue d'ensemble du paysage technique de l'IA: une cartographie des impacts économiques et sociaux des technologies de l'IA et de leurs applications, une identification des principales considérations politiques, une description des initiatives en matière d'IA(9). Ce travail a démontré la nécessité de créer un environnement politique stable au niveau international afin de favoriser la confiance et l'adoption de l'IA dans la société.

Dans ce contexte, le Comité de la politique de l'économie numérique (CDEP) de l'OCDE a décidé d'élaborer un projet de recommandation du Conseil visant à promouvoir une approche centrée sur l'homme de l'IA digne de confiance, qui encourage la recherche, préserve les incitations économiques à l'innovation et s'applique à toutes les parties prenantes.

En mai 2018, le CDEP a décidé de constituer un groupe d'experts chargé de définir les principes visant à favoriser la confiance dans l'IA et son adoption, en vue d'élaborer un projet de recommandation du Conseil dans le courant de l'année 2019. Le Groupe d'experts sur l'IA à l'OCDE (AIGO) a ensuite été créé, comprenant plus de 50 experts de différentes disciplines et de différents secteurs (gouvernement, industrie, société civile, syndicats, communauté technique et le monde universitaire).

En mai 2019, le Conseil de l'OCDE a adopté la Recommandation lors de sa réunion au niveau ministériel(10) portant sur 5 principes (croissance inclusive, développement durable et bien-être ; valeurs centrées sur l’humain et équité; transparence et explicabilité; robustesse, sûreté et sécurité; responsabilité) et 5 recommandations pour les décideurs (investir dans la recherche et développement en IA; favoriser l’instauration d’un écosystème numérique pour l’IA; Façonner un cadre d’action favorable à l’IA; renforcer les capacités humaines et préparer la transformation du marché du travail; favoriser la coopération internationale au service d’un IA digne de confiance).

En Juin 2023, le Secrétaire Général des Nations Unis, donne une conférence de presse et appelle à un large engagement de toutes les parties prenantes en faveur du code de conduite des Nations unies pour l'intégrité de l'information sur les plateformes numériques. Le code de conduite vise à créer des garde-fous pour aider les gouvernements à se rassembler autour de lignes directrices qui promeuvent les faits, tout en dénonçant les conspirations et les mensonges et en préservant la liberté d'expression et d'information.

Une conscience générale se dégage sur le fait que la réglementation n'est pas facile, parce que les choses évoluent très rapidement. D'autres mécanismes, y compris des approches multipartites, pour définir des garde-fous, des lignes rouges et en même temps pour échanger les meilleures pratiques et s'assurer que les modèles d'entreprise (qui offrent des plateformes) sont remis en question.
Le SG des Nations Unies a appuyé l’initiative du Royaume Uni d’organiser un Sommet Mondial sur l’IA tout en déclarant que ce sommet doit être préparé par un travail sérieux. Il a annoncé qu’il nommera dans les prochains jours, un conseil scientifique qui comprendra un certain nombre d'experts extérieurs, dont deux experts en intelligence artificielle et les scientifiques en chef des agences de l’ONU, à savoir l'UIT et l'UNESCO, qui ont été très actives à cet égard. Ce conseil sera un organe consultatif de haut niveau sur l'intelligence artificielle afin de préparer sérieusement les différents types d'initiatives que l’ONU pourra prendre. Il s’est déclaré favorable à l'idée que l’ONU puisse avoir une agence en intelligence artificielle, qui s'inspire de ce que l'Agence internationale de l'énergie atomique (AIEA) a fait dans le passé.

A propos de l’Europe

La Commission Européenne s’est investie dans la réflexion sur l’IA et sa règlementation. Dès 2017, le Conseil européen a appelé à un "sentiment d'urgence pour faire face aux tendances émergentes y compris "des questions telles que l'intelligence artificielle [...], tout en garantissant un niveau élevé de protection des données, des droits numériques et des normes éthiques". Les débuts des travaux sur la réglementation de l’IA par la commission européenne datent de 2018 en publiant la stratégie européenne en matière d’IA, en créant un groupe d’experts de haut niveau et en introduisant un plan coordonné visant à favoriser «l’IA made in Europe». Un livre blanc sur l’IA publié en 2020(11), a proposé de nombreuses mesures et options politiques pour la future réglementation de celle-ci et a finalement abouti à la loi horizontale sur l’IA, qui a été présentée avec un plan coordonné révisé sur l’IA en mai 2021(12).

En Juin 2023, le parlement européen adopte la loi sur l’IA(13) (première loi globale au monde sur l'intelligence artificielle). Cette loi vise à ce que les systèmes d'IA utilisés dans l'UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement. Elle préconise que les systèmes d'IA devraient être supervisés par des personnes plutôt que par l'automatisation, afin d'éviter des résultats néfastes. La loi propose une définition uniforme et neutre sur le plan technologique de l'IA qui pourrait être appliquée aux futurs systèmes d'IA. La loi propose des règles différentes pour différents niveaux de risque. Les nouvelles règles établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l'IA (risque inacceptable, risque élevé, IA générative, risque limité).

Les systèmes d'IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Ils comprennent:

La manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques: par exemple, des jouets activés par la voix qui encouragent les comportements dangereux chez les enfants,
Un score social: classer les personnes en fonction de leur comportement, de leur statut socio-économique, de leurs caractéristiques personnelles,
Des systèmes d'identification biométrique en temps réel et à distance, tels que la reconnaissance faciale

Certaines exceptions peuvent être autorisées: par exemple, les systèmes d'identification biométrique à distance "à posteriori", où l'identification se produit après un délai important, seront autorisés à poursuivre des crimes graves et seulement après l'approbation du tribunal.

Les systèmes d'IA qui ont un impact négatif sur la sécurité ou les droits fondamentaux seront considérés comme à haut risque et seront divisés en deux catégories:

1. Les systèmes d'IA qui sont utilisés dans les produits relevant de la législation de l'UE sur la sécurité des produits. Cela comprend les jouets, l'aviation, les voitures, les dispositifs médicaux et les ascenseurs.

2. Les systèmes d'IA relevant de huit domaines spécifiques qui devront être enregistrés dans une base de données de l'UE :l'identification biométrique et la catégorisation des personnes physiques; la gestion et l'exploitation des infrastructures critiques; l'éducation et la formation professionnelle, l'emploi, la gestion des travailleurs et l'accès au travail indépendant; l'accès et la jouissance des services privés essentiels et des services et avantages publics; les forces de l'ordre; la gestion de la migration, de l'asile et du contrôle des frontières; l'aide à l'interprétation juridique et à l'application de la loi.

Tous les systèmes d'IA à haut risque seront évalués avant leur mise sur le marché et tout au long de leur cycle de vie.

L'IA générative, comme Chat GPT, devrait se conformer aux exigences de transparence: indiquer que le contenu a été généré par l'IA; concevoir le modèle pour l'empêcher de générer du contenu illégal; publier des résumés des données protégées par le droit d'auteur utilisées pour la formation.

Les systèmes d'IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Après avoir interagi avec les applications, l'utilisateur peut alors décider s'il souhaite continuer à l'utiliser. Les utilisateurs doivent être informés lorsqu'ils interagissent avec l'IA. Cela inclut les systèmes d'IA qui génèrent ou manipulent du contenu image, audio ou vidéo (par exemple, les deepfakes, des contenus faux qui sont rendus crédibles par l'IA).

Le cadre règlementaire que vient d’adopter la CE pour l’IA, nécessite un cadre de mise en œuvre au sein des différents pays de l’Union et au sein du Conseil de l’Europe. Des travaux sont en cours pour définir une approche concertée entre les différents pays. Il ressort de ces travaux que deux orientations se dessinent au sein du Conseil pour la gouvernance de l’IA: une prône la création d’une Agence Européenne spécialisée en IA, l’autre qui souhaite se laisser ce rôle au sein des structures actuelles du Conseil.

Le Royaume Uni se positionne aussi sur la règlementation de l’IA. En mars 2023, le Ministère de la Science, de l’Innovation et de la Technologie a présenté un livre blanc(14) sur la réglementation de l’IA qui repose sur cinq principes qu’il s’attend à ce que les régulateurs suivent lorsqu’ils examinent comment les entreprises et les développeurs utilisent l’IA. Le gouvernement a déclaré qu’il adopterait une approche sectorielle de la réglementation de l’IA afin de «dynamiser» la croissance tout en garantissant une utilisation «responsable» par les entreprises. Grâce à cette nouvelle approche de la réglementation de l'IA, le gouvernement du Royaume Uni vise à exploiter les possibilités et les avantages offerts par les technologies de l'IA. Cela favorisera la croissance et la prospérité en stimulant l'innovation et l'investissement, et en renforçant la confiance du public dans l'IA.

En Juin 2023, le cabinet du Premier Ministre UK a lancé une consultation auprès de certains acteurs majeurs de l’IA au royaume tels que Insta Deep et Deep Mind à propos de l’IA générative et du moratoire. Le Premier Ministre a déclaré que le Royaume organisera d’ici fin 2023 un Sommet Mondial sur les risques de l’IA et sa régulation.

A propos des Amériques

Concernant les USA, à ce jour l’Etat fédéral ne dispose pas d’une règlementation relative à l’IA. Afin de mieux comprendre les opportunités émergentes, les défis et les implications résultant des développements de l’IA, le GAO (Bureau de la responsabilité du gouvernement américain) a, en 2017, organisé un forum sur l’IA à Washington. Le GAO a soulevé le problème de l’adéquation des lois et réglementations alors en vigueur, mais aucun cadre fédéral n’a été mis en place.

Une étape stratégique importante a été franchie par les USA avec la loi de 2020 sur l'initiative nationale en matière d'intelligence artificielle (National Artificial Intelligence Initiative Act of 2020(15)). Cette loi a établi l'Initiative nationale pour l'intelligence artificielle, qui vise à garantir le maintien du leadership américain dans l'ensemble des domaines de recherche et de développement de l'IA ; à préparer la main-d'œuvre, l'économie et la société américaines à l'intégration de l'IA; à assurer la coordination des agences fédérales; et à être le premier pays au monde à utiliser des systèmes d'IA dignes de confiance dans les secteurs public et privé. En outre, la Commission de sécurité nationale sur l'intelligence artificielle a publié son rapport final en 2022(16), concluant que les États-Unis devaient agir dès maintenant dans le domaine de l'IA pour protéger leur sécurité et leur prospérité et sauvegarder la démocratie.

Un projet de loi «Algorithmic Accountability Act»(17) a été introduit au Sénat américain et à la Chambre des représentants le 3 février 2023. Le projet de loi exige que les entreprises évaluent les impacts des systèmes automatisés qu'elles utilisent et vendent, crée une nouvelle transparence sur la manière dont les systèmes automatisés sont utilisés, et donne aux consommateurs les moyens de faire des choix éclairés sur l'automatisation des décisions critiques. Si ce projet venait à être adopté, il ne pourrait pas entrer en vigueur avant quelques années.

Par ailleurs, réagissant à la lettre demandant un moratoire sur l’IA, la Maison Blanche a initiée en mai 2023 une consultation auprès des principaux acteurs technologiques de l’IA (principalement l’IA générative) aux USA pour affiner une position fédérale à ce sujet.

En attendant, certains États (USA) et villes américaines ont adopté des politiques de réglementations de l’IA différentes notamment par rapport à des sujets comme la reconnaissance faciale, la prise de décision automatisée, les impacts de l’IA, l’éducation et l’Intelligence Artificielle.

Le Canada est un pays aussi très actif dans le domaine de l’IA et dans la gouvernance de l’IA. Un ensemble d’initiatives ont été entreprises depuis 2016 avec notamment la production d’un livre blanc sur l’IA en 2017, le lancement en 2016 d’un Groupe de travail sur les politiques en matière d’IA, l’adoption en 2020 d’une directive sur la prise de décision automatisée(18), la révision continue de la directive en fonction des retours des parties prenantes et des avancées technologiques en la matière (dernière version en date d’avril 2023(19)).

Le gouvernement canadien reconnaît que les technologies d'intelligence artificielle (IA) sont prometteuses pour améliorer la façon dont le gouvernement sert les Canadiens. Il s’est donné pour principal objectif d’explorer l'utilisation de l'IA dans les programmes et services gouvernementaux, de sorte qu'elle soit régie par des valeurs, une éthique et des lois claires.

Pour garantir une utilisation efficace et éthique de l'IA, le gouvernement s'engage à:

Comprendre et mesurer l'impact de l'utilisation de l'IA en développant et en partageant des outils et des approches,

Faire preuve de transparence sur la manière dont il utilise l'IA et sur le moment où il le fait, en partant d'un besoin clair de l'utilisateur et d'un avantage pour le public,

Fournir des explications significatives sur la prise de décision en matière d'IA, tout en offrant la possibilité d'examiner les résultats et de contester ces décisions,

Faire preuve de la plus grande ouverture possible en partageant le code source, les données de formation et d'autres informations pertinentes, tout en protégeant les informations personnelles, l'intégration des systèmes ainsi que la sécurité et la défense nationales,

Fournir une formation suffisante pour que les fonctionnaires qui développent et utilisent des solutions d'IA aient les compétences nécessaires en matière de conception, de fonctionnement et de mise en œuvre pour améliorer les services publics fondés sur l'IA.

De nombreuses réformes législatives sont en cours ou proposées au Canada portant directement sur la réglementation de l'IA, la plus importante étant l'AIDA. Elle devrait entrer en vigueur au plus tôt en 2025. L'AIDA «Artificial Intelligence and Data Act»(20) propose des obligations et des interdictions à l'échelle du Canada en ce qui concerne la conception, le développement et l'utilisation de systèmes d'intelligence artificielle dans le cadre des échanges et du commerce internationaux ou interprovinciaux. Cela s'applique à tout "système technologique qui, de manière autonome ou partiellement autonome, traite des données liées à des activités humaines en utilisant un algorithme génétique, un réseau neuronal, l'apprentissage automatique ou une autre technique afin de générer du contenu ou de prendre des décisions, de faire des recommandations ou des prédictions".

Les pays de l’Amérique Latine, sont aussi préoccupés par les impacts potentiels de l’IA sur leurs pays et économies. En octobre 2023, les gouvernements d'Amérique latine se réuniront à Santiago du Chili pour discuter des mesures régionales concernant l'éthique et la gouvernance de l'IA, y compris le paysage réglementaire émergent pour le déploiement de systèmes et d'outils d'IA générative. Cette réunion sera organisée par l'UNESCO et la Corporacion Andina de Fomento (CAF), une banque de développement basée en Amérique latine, dans le cadre d'une initiative régionale visant à déterminer l'avenir de la gouvernance de l'IA dans la région et à favoriser la collaboration entre les différents pays et organisations.

Les résultats de cette réunion seront d'une grande importance non seulement pour les décideurs politiques chargés de créer et d'appliquer une gouvernance des technologies émergentes dans des pays tels que le Mexique, le Brésil, le Chili, l'Uruguay et la République dominicaine, mais aussi pour tous ceux qui s'investissent dans les juridictions et les réglementations qui s'appliquent à l'avenir du travail, de l'éducation et de la coopération régionale dans les pays du sud de la planète.

A propos de l’Asie

La Chine en tant que grand acteur, aux côtés des USA, dans l’innovation et le développement des systèmes d’IA, a engagé aussi des initiatives relatives à la réglementation de l’IA. Dès 2022, le gouvernement chinois a mis en place une série de documents politiques et de déclarations qui mettent les bases du régime de gouvernance du pays en matière d'intelligence artificielle. Quiconque qui souhaite concurrencer l'écosystème chinois de l'IA, coopérer avec lui ou simplement le comprendre doit examiner ces mesures de près.

Ces initiatives récentes montrent l'émergence de trois approches différentes de la gouvernance de l'IA, chacune défendue par une branche différente de la l’administration chinoise, et chacune à un niveau de maturité différent.

Les mesures les plus fortes et les plus immédiatement influentes en matière de gouvernance de l'IA ont été prises par Cyberspace Administration of China (CAC), un organisme de réglementation relativement nouveau mais très puissant qui établit les règles régissant certaines applications de l'IA. L'approche de la CAC est la plus mature, la plus fondée sur des règles, et la plus préoccupée par le rôle de l'IA dans la diffusion de l'information.

La CAC a fait les gros titres en août 2021 lorsqu'elle a publié un projet de trente règles visant à réglementer les algorithmes de recommandation sur Internet.  Certaines dispositions s'inscrivent dans des débats internationaux en cours, comme l'exigence que les fournisseurs d'algorithmes soient en mesure de "donner une explication" et de "remédier" aux situations dans lesquelles les algorithmes ne sont pas conformes à la législation chinoise. Si elles sont mises en pratique, elles pourraient inciter les entreprises chinoises à expérimenter de nouvelles méthodes d'interprétabilité algorithmique, un domaine émergent mais très immature de la recherche sur l'apprentissage automatique.

La deuxième approche de la gouvernance de l'IA est issue de l'Académie chinoise des technologies de l'information et de la communication (CAICT), un groupe de réflexion influent dépendant du MIIT. Actif dans la formulation de politiques et dans de nombreux aspects de l'essai et de la certification des technologies, la CAICT a distingué sa méthode en mettant l'accent sur la création d'outils de mesure et d'essai des systèmes d'IA. Ce travail n'en est qu'à ses débuts, tant du point de vue technique que réglementaire. Mais s'il est couronné de succès, il pourrait jeter les bases d'un régime plus large de gouvernance de l'IA en Chine, veillant à ce que les systèmes déployés soient robustes, fiables et contrôlables.

En juillet 2021, le CAICT s'est associé à un laboratoire de recherche du géant chinois du commerce électronique JD pour publier le premier livre blanc(21) du pays sur "l'IA digne de confiance". À ce titre, ses conclusions donnent des indications sur la manière dont le gouvernement chinois envisage les aspects plus techniques de la réglementation de l'IA:

La définition de l'IA digne de confiance donnée dans le document est largement conforme aux définitions internationales,

La Chine est très attentive au débat mondial sur la gouvernance de l'IA,

Les tests techniques et l'évaluation seront au cœur de l'IA digne de confiance en Chine.

La troisième et dernière approche est celle du ministère de la science et de la technologie (MOST) chinois qui a adopté l'approche la plus légère des trois en matière de gouvernance de l'IA. Ses publications les plus médiatisées se sont concentrées sur l'établissement de lignes directrices éthiques, en s'appuyant sur les entreprises et les chercheurs pour se superviser dans l'application de ces principes à leur travail. L'approche de MOST est similaire à celle d'organisations internationales telles que l’UNESCO ou l’OCDE qui ont publié des principes d'IA et encouragé les pays et les entreprises à les adopter.

Le Japon constitue aussi un des leaders mondiaux en IA. En 2019, le gouvernement japonais a publié les «Principes sociaux de l'IA centrée sur l'humain» (Social Principles)(22) comme principes de mise en œuvre de l'IA dans la société. Les principes sociaux énoncent trois philosophies de base: la dignité humaine, la diversité et l'inclusion, et la durabilité. Il est important de noter que l'objectif des principes sociaux n'est pas de restreindre l'utilisation de l'IA afin de protéger ces principes, mais plutôt de les réaliser grâce à l'IA.

Ces principes sociaux énoncent sept principes concernant l'IA: (1) centré sur l'humain; (2) éducation/alphabétisation; (3) protection de la vie privée; (4) garantie de la sécurité; (5) concurrence loyale; (6) équité, responsabilité et transparence; et (7) innovation. Il convient de noter que les principes incluent non seulement les éléments de protection de la vie privée et de la sécurité, mais aussi les principes qui guident l'utilisation active de l'IA, tels que l'éducation et la formation.

En 2021, le Gouvernement Japonais publie un rapport(23) sur «AI Governance in Japan». Ce rapport donne une vision de l’approche idéale pour le Japon pour établir une gouvernance de l’IA basée sur:

Des Lignes directrices juridiquement non contraignantes en matière de gouvernance d'entreprise qui prévoient la création d'une fondation pour l'utilisation de l'IA (diffusion des activités dans l'ensemble de l'entreprise); la sensibilisation à la gouvernance de l'IA et amélioration des connaissances en matière d'IA; le développement/introduction de systèmes d'IA (élaboration de principes, création d'un cadre de gestion, mise en place d'un processus d'escalade, développement d'un processus de gestion des risques); l’exploitation des systèmes d'IA: Suivi, audits internes, recours à une évaluation externe, développement des relations avec les parties prenantes, gestion de l'amélioration et des progrès,

Normes internationales : le comité technique ISO/IEC JTC1 prend la tête des négociations, notamment en présidant les discussions en tant qu'organisateur dans divers groupes de travail relevant d’instances internationales,

Une réglementation horizontale juridiquement contraignante: sur la base des avis des industries et de l'orientation de l'amélioration de l'alphabétisation à travers le manuel sur l'utilisation de l'IA, les exigences horizontales juridiquement contraignantes pour les systèmes d'IA sont considérées comme inutiles pour le moment,

Des règlements axés sur des cibles spécifiques: dans certains domaines, il peut y avoir des cas où il est préférable que les organisations responsables des lois de l'industrie soient impliquées dans les réglementations plutôt que d'intervenir à partir des technologies de l'information. Par exemple, dans les secteurs de l'automobile et des soins de santé, il est souhaitable de respecter les règles en vigueur dans les secteurs respectifs en tirant le meilleur parti du concept de réglementation et de la philosophie de conception qui existent déjà,

Un autre pays asiatique très actif en IA est Singapour. Il est considéré parmi les pays ayant l’une des meilleures stratégies nationales de développement de l’IA. Il a entrepris des actions de régulation par rapport aux systèmes d’IA et particulièrement l’IA générative. 

En Juin 2023, le Ministre de l’Information et de la Communication au Singapour, a annoncé le lancement de la Fondation AI Verify(24), qui vise à exploiter le pouvoir collectif et les contributions de la communauté open source pour développer des outils de test de l'IA en vue d'une utilisation responsable de l'IA. La Fondation cherchera à renforcer les capacités et l'assurance des tests d'IA pour répondre aux besoins des entreprises et des autorités de régulation au niveau mondial.

Singapour n'a pas l'intention, pour l’instant, de mettre en œuvre une réglementation générale en matière d'IA générative, mais des mesures concrètes pour développer des outils techniques, des normes et des technologies sont en cours d’être mises en place pour jeter les bases d'une réglementation claire et efficace à l'avenir.

A propos de l’Afrique

En 2019, les ministres de l'Union Africaine responsables des TIC, formant le Comité technique spécialisé sur les technologies de la communication et de l'information ("CTS-TIC"), ont adopté la déclaration de Charm el-Cheikh(25). Cette déclaration mentionne, entre autres, un accord sur la création d'un groupe de travail sur l'IA. Le mandat du groupe de travail est d'étudier la création d'une position africaine commune sur l'IA, l’élaboration d'un cadre de renforcement des capacités à l'échelle de l'Afrique et de mettre en place un groupe de réflexion sur l'IA chargé d'évaluer et de recommander des projets sur lesquels collaborer, conformément à l'Agenda 2063 de l'UA et aux Objectifs du Millénaire pour le développement des Nations Unies (ONU). L’Egypte a été élue à la présidence du groupe, l’Uganda à la vice-présidence et Djibouti au poste de rapporteur du groupe.

Un état des lieux de la gouvernance de l’IA dans les pays de l’Union Africaine a été élaboré en 2022(26) basé sur un ensemble de 6 indicateurs:

1. Le pays dispose-t-il d'une législation spécifique en matière d'IA?

2. La législation du pays en matière de protection des données prévoit-elle des droits en matière de prise de décision automatisée?

3. Le pays dispose-t-il d'une stratégie nationale en matière d'IA?

4. Le pays dispose-t-il d'un projet de politique ou d'un livre blanc/vert sur l'IA qui indique des progrès vers l'élaboration d'une stratégie en matière d'IA, ou qui s'appuie sur une stratégie de plus haut niveau s'il en existe une?

5. Le pays a-t-il mis en place une commission d'experts, un groupe de travail ou une entité similaire pour guider l'adoption de l'IA?

6. L'IA est-elle une priorité dans le plan de développement national actuel du pays?

Il ressort de cet état des lieux que :

Aucun pays ne dispose d'une législation spécifique sur l'IA, bien que l'île Maurice dispose d'une législation partielle sur l'IA,

30 pays disposent d'une législation sur la protection des données qui traite la prise de décision automatisée,

4 pays disposent d'une stratégie nationale en matière d'IA,

1 pays dispose d'un projet de politique ou d'un livre blanc/vert sur l'IA,

13 pays ont mis en place une commission d'experts ou un groupe de travail sur l'IA,

6 pays font de l'IA une priorité de leur plan national de développement, tandis que les plans de 4 autres pays mentionnent partiellement l'IA, 4 autres pays mentionnent partiellement l'IA dans leur plan.

Pendant la présidence sud-africaine de l'Union africaine, en 2020, le Président de l'Afrique du Sud, a appelé à une approche régionale unifiée de l'IA qui servirait de modèle aux États membres africains pour l'élaboration de politiques et d'instruments réglementaires en matière d'IA. En conséquence, l'Afrique du Sud, en collaboration avec l'Alliance Smart Africa, d'autres États membres et des parties prenantes pluridisciplinaires –ont travaillé à l'élaboration d'un plan directeur en matière d'intelligence artificielle. Les objectifs généraux de ce plan directeur sont de souligner les opportunités et les défis les plus pertinents du développement et de l'utilisation de l'IA pour l'Afrique et la manière de les aborder; de formuler des recommandations politiques concrètes pour exploiter le potentiel et atténuer les risques de l'IA dans les pays africains.

En 2021, le plan directeur «AI for Africa»(27) a été rendu public et soumis aux instances africaines. Il propose notamment l'application de 6 principes clés pour le développement d'une stratégie africaine en matière d'IA, notamment:

L'intégration de l'IA dans une stratégie nationale plus large,

L'équilibre entre le développement d'un environnement propice à l'IA et les considérations éthiques, juridiques et de gouvernance,

L’importance d’accorder un équilibre entre le processus et le plan,

La concentration sur l'action,

L'application d'une approche inclusive de l'IA «par les gens, et pour les gens»,

Le positionnement important de la stratégie nationale en matière d'IA en tant qu'outil de communication.

À la suite d’une analyse des règlementations en vigueur en matière d’IA dans différents pays de l’Union Africaine, le plan directeur souligne qu'un cadre juridique adéquat doit prendre en compte les applications de l'IA, les données, l'éthique, l'établissement et l'opérationnalisation d'un environnement commercial favorable. Il souligne aussi l’importance de la prise en compte de la multiplicité des régimes et des secteurs d'activité et l'application de règles non contraignantes ou de réglementations contraignantes, selon le cas.

Il préconise l'utilisation de réglementations strictes dans les situations où les lois non contraignantes ou le marché lui-même, ne peuvent résoudre les problèmes du marché. Il considère que l'application de la législation contraignante s'impose surtout dans les cas où il y a interaction avec:

La réglementation des droits d'auteur/brevets,

La promotion des investissements, la protection de la propriété intellectuelle, et la régulation des systèmes de responsabilité,

Les lois sur la concurrence déloyale ou d'autres régimes similaires.

La réglementation non contraignante vise à établir des attentes qui ne sont pas exécutoires par le gouvernement et comprend des instruments tels que des directives professionnelles, des codes de conduite/codes d'éthique et les meilleures pratiques internationales.

Concernant la gouvernance de l’IA dans les pays de l’Union Africaine, le plan directeur souligne que la gouvernance de l'IA n'implique pas nécessairement des réglementations strictes. La technologie évolue plus rapidement que les réglementations et les politiques. Il considère qu’il est important de définir des approches agiles pour aider les technologies à bénéficier à l'humanité et à la planète, tout en atténuant les externalités négatives qui peuvent émerger.

Parmi les huit recommandations majeures du plan directeur, une principalement a été réservée à la question de la gouvernance de l’IA. Elle vise à aider les décideurs à trouver un équilibre entre un environnement propice à l'IA et les défis de gouvernance éthiques et juridiques qui y sont associés, à travers notamment:

La mise en place de «bacs à sable» réglementaires,

La participation accrue des délégués africains aux comités techniques internationaux et régionaux pour les standards liés à l'IA,

La promotion de l'adoption de l'IA par le secteur public pour des services publics efficaces, tel que par exemple le fonds de développement de l'IA au Royaume-Uni ou les programmes d'intégration de l'IA dans le secteur public en Allemagne et en Chine. Les programmes de passation de marchés publics pour l'IA ne devraient pas se contenter de promouvoir la croissance économique, ils doivent également "montrer l'exemple" en termes de passation de marchés pour une «IA éthique».

La Commission africaine des droits de l'homme et des peuples (CADHP) a adopté en février 2021 une résolution (n° 473) sur la nécessité d'examiner les implications de l'IA, de la robotique et d'autres technologies nouvelles et émergentes pour les droits de l'homme en Afrique. Reconnaissant l'impact potentiel significatif sur les droits de l'homme, la CADHP a appelé les États à travailler sur cadre de gouvernance juridique et éthique complet pour l'IA et les technologies connexes. Elle invite l'UA et les organismes régionaux à élaborer un cadre réglementaire régional qui garantisse que ces technologies répondent aux besoins des populations du continent. Il s'est également engagé à entreprendre une étude afin d'élaborer des lignes directrices et des normes qui répondent à ces préoccupations.

Conclusion

Le sujet de la gouvernance de l’IA est un sujet de la plus haute importance actuellement et se positionne sur les points prioritaires des agendas des décideurs de ce monde, y compris les agences onusiennes. La dynamique actuelle est très importante et devrait conduire à un consensus international minimal dans les mois qui viennent. Il n’en reste pas moins que certaines régions/pays se trouvent en marge de cette dynamique et absentes des groupes et instances de réflexion. Cette absence due à plusieurs raisons (manque d’expertise, manque de moyens, existence d’autres priorités plus vitales, les conflits régionaux, …etc.) n’est pas favorable à une prise de conscience globale des enjeux pour l’humanité et peut être un prélude à un monde à deux vitesses «AI divide».

Maledh Marrakchi
Universitaire, spécialiste en IA

1) https://futureoflife.org/open-letter/pause-giant-ai-experiments/

2) Ethique et Gouvernance de l’IA générative, par Maledh MARRAKCHI, magazine Leaders – Juin 2023 - Tunisie

3) Evaluating the Social Impact of Generative AI Systems in Systems and Society
Irene Solaiman, Zeerak Talat, William Agnew, Lama Ahmad, Dylan Baker, Su Lin Blodgett, Hal Daumé III, Jesse Dodge, Ellie Evans, Sara Hooker, Yacine Jernite, Alexandra Sasha Luccioni, Alberto Lusoli, Margaret Mitchell, Jessica Newman, Marie-Therese Png, Andrew Strait, Apostol Vassilev – June 2023

4) “AI by the people, for the people”, VIVATECH, Paris 2023

5) https://unesdoc.unesco.org/ark:/48223/pf0000381137_fre

6) https://unesdoc.unesco.org/ark:/48223/pf0000385629

7) https://www.unesco.org/en/articles/multistakeholder-ai-development

8) https://www.weforum.org/reports/the-ai-governance-journey-development-and-opportunities

9) https://oecd.ai/fr/

10) https://oecd.ai/fr/ai-principles

11) https://commission.europa.eu/system/files/2020-02/commission-white-paper-artificial-intelligence-feb2020_fr.pdf

12) https://digital-strategy.ec.europa.eu/fr/library/coordinated-plan-artificial-intelligence-2021-review

13) https://data.consilium.europa.eu/doc/document/ST-8115-2021-INIT/fr/pdf

14) https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper

15) https://www.congress.gov/116/crpt/hrpt617/CRPT-116hrpt617.pdf#page=1210

16) https://www.nscai.gov/wp-content/uploads/2021/03/Full-Report-Digital-1.pdf

17) https://www.wyden.senate.gov/imo/media/doc/2022-02-03%20Algorithmic%20Accountability%20Act%20of%202022%20One-pager.pdf

18) https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592

19) https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592

20) https://www.torys.com/our-latest-thinking/publications/2023/04/guide-to-artificial-intelligence-regulation-in-canada

21) https://macropolo.org/beijing-approach-trustworthy-ai/?rp=m

22) https://www.cas.go.jp/jp/seisaku/jinkouchinou/pdf/humancentricai.pdf

23) https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20210709_8.pdf

24) https://aiverifyfoundation.sg/

25 https://au.int/sites/default/files/decisions/37590-2019_sharm_el_sheikh_declaration_-_stc-cict-3_oct_2019_ver2410-10pm-1rev-2.pdf

26 https://ai.altadvisory.africa/wp-content/uploads/AI-Governance-in-Africa-2022.pdf

27 https://smart.africa/board/login/uploads/70029-eng_ai-for-africa-blueprint.pdf

Vous aimez cet article ? partagez-le avec vos amis ! Abonnez-vous
commenter cet article
0 Commentaires
X

Fly-out sidebar

This is an optional, fully widgetized sidebar. Show your latest posts, comments, etc. As is the rest of the menu, the sidebar too is fully color customizable.