News - 09.01.2019

Nozha Boujemma plaide pour une intelligence artificielle de confiance

Nozha Boujemma plaide pour une intelligence artificielle de confiance

Faut-il avoir peur de l’Intelligence Artificielle (AI) ?  Ou, plutôt, comment maximiser ses bénéfices tout en réduisant les risques inhérents à son déploiement ? Cette grande préoccupation largement partagée de par le monde, face notamment à certains algorithmes présentant des vulnérabilités technologiques, voire porter atteinte aux droits humains est prise en charge par divers comités. La Commission européenne a mandaté à cet effet un groupe d’expert, dont la vice-présidente n’est autre que la Tunisienne Nozha Boujemma (Née Ben Hajel), directrice de recherche Interia, directrice de l’Institut Convergence Dataio Sciences des données, intelligence & société. Elle y a été nommée parmi 52 experts à la suite d’un processus de sélection ouvert (plus de 500 candidats) pour constituer le groupe de haut niveau sur l’Intelligence Artificielle (High-Level Group on Artificial Intelligence - AI HLG). 

L’AI HLG groupe des représentants du monde universitaire, de la société civile et de l’industrie a pour objectif de soutenir la mise en œuvre de la stratégie européenne en matière d'IA à travers l'élaboration de recommandations sur les challenges et les opportunités moyen / long terme de l’IA pour le développement d’une future politique européenne de l'IA et sur les questions éthiques, juridiques et sociétales liées à l'IA ainsi que ses défis socio-économiques. En outre, l'AI HLG servira de comité de pilotage pour le travail de l'Alliance européenne de l'IA, interagira avec d'autres initiatives, stimulera un dialogue multipartite, rassemblera les opinions des participants et les reflètera dans ses analyses et ses rapports.
Le projet de rapport dont voici le lien a été publié et soumis à une large consultation. Les contributions peuvent être soumises par quiconque jusqu’au 18 janvier 2019. Celles-ci seront prises en compte et intégrées dans le document qui sera remis à la Commission européenne.
 
Dans une tribune publiée sur les colonnes de notre confrère Le Monde (du 9 janvier 2019), Nozha Boujemma plaide en faveur d’une ‘’AI de confiance au service de tous’’ et appelle à contribuer à l’enrichissement du document du travail proposé: 

Pour une Intelligence de confiance

Le groupe d’experts de haut niveau sur l’intelligence artificielle de la Commission européenne (EC AI HLEG : European Commission Artificial Intelligence High Level Expert Group) a publié la première version de ses directives éthiques pour une intelligence artificielle (IA) de confiance. Ce groupe, dont je suis vice-présidente, est composé d’experts divers (scientifiques, juristes, philosophes, économistes…), de tous horizons (industriels, chercheurs, associations de consommateurs, etc.), indispensables à l’élaboration de cette vision européenne. Une consultation publique est ouverte jusqu’au 18 janvier 2019 sur le site de la Commission européenne pour que les citoyens commentent ce rapport et aident à finaliser ses recommandations, qui doivent être rendues en mars.
Notre rapport met en avant une IA européenne qui maximise les bénéfices tout en réduisant les risques du déploiement et de l’usage de l’IA. La ligne directrice est le renforcement de l’IA de confiance : celle qui respecte les droits de l’homme et les principes éthiques, et qui garantit un niveau de robustesse et de fiabilité technologiques. Il est établi que certains algorithmes de l’IA peuvent présenter des vulnérabilités technologiques, par exemple face à des données imparfaites, «bruitées », qui peuvent mettre en difficulté un déploiement efficace et susciter un manque de confiance des consommateurs des services numériques. La robustesse représente un défi essentiel pour le succès de ce marché en dépit des prouesses et du progrès scientifique.
Justice, dignité et intégrité humaine Ce rapport comporte plusieurs sections dont trois principales qui régissent le cadrage d’une IA digne de confiance. L’une d’elles établit les principes fondateurs des droits de l’homme qui sont particulièrement importants dans le contexte de l’IA et qui représentent l’intention qui doit prévaloir pour son développement et son usage – dont la justice, la dignité et l’intégrité humaine.
Il y est aussi fait mention des questions critiques à long terme dans la perspective de l’émergence d’une IA dite « générale» ou « forte », c’est à dire ayant des capacités d’adaptation dans différents contextes applicatifs et à même de traiter des problèmes jamais rencontrés.
Une autre section donne les critères et la démarche pour la construction d’une IA de confiance à travers deux voies : technique et non technique (comme la standardisation). Elle évoque des mécanismes d’auditabilité, de traçabilité, mais aussi de transparence par construction, etc.
Une troisième section se propose de fournir une sorte de liste de critères d’évaluation d’une démarche d’IA de confiance. Celle-ci a pour but de partager les bonnes pratiques qui devraient prévaloir et guider toutes les parties prenantes agissant dans les différentes phases de conception, de développement, de déploiement et d’usage de l’IA.
C’est ainsi que ce rapport propose de ne pas perdre le nord dans ces développements technologiques et de faire en sorte que les valeurs humaines en soient au coeur. Car, in fine, c’est la garantie du développement économique.
En effet, si l’IA déçoit par rapport aux promesses sans cesse mises en avant, et si on ne met pas en place de garde-fous, non seulement éthiques mais aussi de robustesse et d’efficacité, son développement ne sera pas durable et connaîtra un nouvel « hiver». L’IA a déjà vécu de tels déclins pour les mêmes raisons : la déception de ses utilisateurs.
A moyen et long termes, c’est une trajectoire gagnante que les majors internationaux de l’industrie logicielle ont anticipée en en faisant leur priorité.
Soyez proactifs et contribuez à cette consultation pour construire une stratégie européenne permettant le développement d’une IA de confiance au service de tous !
Nozha Boujemma
Directrice de recherche Interia, directrice de l’Institut Convergence Dataio Sciences des données, intelligence & société