L'intelligence Artificielle (IA), omniprésente dans notre quotidien, est aujourd'hui au cœur d'un débat majeur : comment garantir le respect de la vie privée des individus ?
OpenAI, la désormais célèbre entreprise qui a créé ChatGPT, a récemment fait face à deux plaintes françaises, pour non-respect du Règlement Général sur la Protection des Données (RGPD), illustrant une préoccupation grandissante en matière de collecte et d'utilisation des données personnelles par les outils d'IA.
Un regard attentif sur l'échiquier international nous révèle l'urgence de la situation.
Il y a quelques semaines, l'Italie a bloqué temporairement l'usage de ChatGPT en raison de préoccupations concernant l'utilisation des données des utilisateurs, devenant le premier pays occidental à prendre une telle mesure.
De plus, le texte de l'Artificial Intelligence Act, un règlement européen en cours de discussion, souligne la nécessité de définir des règles pour les IA susceptibles d'avoir des conséquences sociétales. Il se concentre particulièrement sur la lutte contre les biais racistes ou misogynes des algorithmes et logiciels d'IA générative.
Par ailleurs, Google a récemment choisi de ne pas déployer son chatbot d'IA Bard en France et dans l'Union Européenne, ce qui souligne la complexité des enjeux de conformité au RGPD pour ces systèmes d'IA.
Devant ces défis, la Commission Nationale de l'Informatique et des Libertés (CNIL) en France a élaboré un plan d'action détaillé pour encadrer le déploiement de systèmes d'IA respectueux de la vie privée.
Les quatre axes principaux du Plan d'Action de la CNIL
Le plan d'action de la CNIL se concentre sur quatre volets principaux.
Comprendre le fonctionnement et l'impact des systèmes d'IA sur les individus: Cet axe implique une compréhension profonde des mécanismes sous-jacents de l'IA et de la manière dont ils affectent les individus, leurs données et leurs droits.
Permettre et encadrer le développement d'IA respectueuses des données personnelles: Cet objectif vise à assurer que l'IA est développée et utilisée de manière à respecter les réglementations de protection des données, comme le RGPD.
Fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe: La CNIL cherche à soutenir les acteurs du secteur de l'IA et à favoriser un environnement de collaboration et d'innovation.
Auditer et contrôler les systèmes d’IA pour protéger les individus: Ce dernier axe souligne la nécessité d'établir des mécanismes de contrôle et d'audit robustes pour assurer que les systèmes d'IA respectent les normes et les réglementations en matière de protection de la vie privée.
Les mesures prévues par la CNIL
Pour réaliser ces objectifs, la CNIL prévoit plusieurs mesures, y compris l'audit des systèmes d'IA, la protection des données disponibles publiquement contre le "scraping" des données, l'accompagnement des professionnels pour leur mise en conformité, et l'établissement d'une équipe d'experts en IA.
La CNIL souligne également l'importance de la transparence dans le fonctionnement des outils d'IA, avec une attention particulière portée à la protection contre les biais et les discriminations potentielles.
Pour 2023, le plan prévoit une attention particulière sur la position de l'usage de la vidéosurveillance "augmentée", l'usage de l'IA pour la lutte contre la fraude et l'instruction des plaintes déposées auprès de la CNIL.
Pour y parvenir, la CNIL compte notamment travailler sur la constitution des bases de données d'apprentissage et l'articulation du projet de règlement européen sur l'IA avec le RGPD.
Les initiatives de la CNIL sont donc particulièrement pertinentes dans ce contexte.
Pour soutenir le développement de l'IA tout en respectant les principes de protection de la vie privée, la CNIL a lancé un programme "d’accompagnement renforcé" pour aider les entreprises innovantes à se conformer au RGPD.
Dans une interview accordée au Figaro, Marie-Laure Denis, présidente de la CNIL, a déclaré que l'organisme vise à "ne pas brider les promesses de l'IA tout en garantissant une utilisation raisonnée des données conforme aux valeurs européennes".
Les systèmes d'IA génératifs comme ChatGPT seront ainsi surveillés de près en raison des questions qu'ils posent en matière de protection des données, d'accès à une information fiable et de respect du droit d'auteur.
Dans un contexte d’innovation de rupture, l’ensemble de ces mesures démontrent l'importance de la régulation pour le déploiement d’une IA respectueuse de la vie privée et le rôle crucial joué par des organismes tels que la CNIL pour encadrer, en amont, les défis posés par l'IA, notamment en ce qui concerne la protection des données personnelles et des libertés individuelles.
Sources :
Hozzászólások