L'AI Act expliqué : ce qui va changer pour vous et votre entreprise
Vous n'avez pas suivi les discussions autour de l'AI Act ? Voici une session de rattrapage qui est tout sauf ennuyante. Dans cet épisode d'AI Experience, Alexandre Polakowski, expert en réglementation de l'intelligence artificielle et créateur du podcast Esprit IA vous dit tout. Alexandre vous explique en détail ce qu'est l'AI Act, récemment adopté par le Parlement européen, et comment il impactera l'utilisation de l'intelligence artificielle en Europe. Vous découvrirez les différentes catégories d'IA définies par cette réglementation, les exigences de conformité pour les entreprises et les implications pour les utilisateurs finaux. Ne manquez pas cet épisode essentiel pour être informé des nouvelles règles qui façonneront l'avenir de l'IA en Europe et leur impact sur votre entreprise.
Passionné depuis plus de 5 ans sur la dimension éthique et réglementaire de l'IA, expert sur la réglementation de l’IA et dans la mise en conformité avec la réglementation numérique, Alexandre est également créateur du podcast ESPRIT IA avec lequel il se fixe comme objectif de démystifier au plus grand nombre les enjeux sociaux, éthiques et philosophiques de l'IA.
Alexandre Polakowski
Expert dans la réglementation de l’IA
Julien Redelsperger : « Et pour cela, j'ai le plaisir d'être accompagné par Alexandre Polakowski qui est expert dans la réglementation de l'IA et créateur du podcast Esprit IA. Aujourd'hui, nous allons donc parler de droit, d'éthique et du cadre réglementaire de l'intelligence artificielle. Bonjour Alexandre, merci de participer à cet épisode d'AI Experience. Comment vas-tu ? »
Alexandre Polakowski : « Bonjour Julien, merci à toi de m'inviter. Généralement, c'est vrai que je suis plus interviewer que interviewé. Je suis super content d'être là, présent sur ton podcast AI Experience pour pouvoir parler un petit peu de l'AI Act aujourd'hui. »
Julien Redelsperger : « Écoute, un grand plaisir. Alors, ça fait effectivement plusieurs années que tu t'intéresses au sujet de la réglementation de l'intelligence artificielle et spontanément, on peut se dire, ce n'est pas forcément un sujet qui est ultra sexy quand on parle d'IA. Pourtant, c'est un sujet qui est extrêmement important pour la France, notamment pour l'Europe également. Et on va prendre le temps d'y revenir en détail. Ma première question, Alexandre, pour toi, c'est de savoir pourquoi est-ce que c'est intéressant ? Pourquoi est-ce que c'est important de s'intéresser à la réglementation sur l'IA aujourd'hui ? »
Alexandre Polakowski : « Eh bien, c'est une très bonne question parce qu'en fait, on dit que la réglementation sur l'IA n'est pas très sexy, mais en réalité, tout le monde s'inquiète des risques qui sont associés à l'intelligence artificielle, que ce soit dans la science-fiction, que ce soit auprès de l'imaginaire collectif. On se demande s'il va y avoir des risques sur l'emploi, des risques de discrimination, des risques sur la supervision humaine, sur l'explicabilité. Et donc, en fait, c'est avec un cadre réglementaire ambitieux que la Commission européenne, depuis plusieurs années déjà, a proposé un cadre réglementaire sur l'IA avec un seul objectif, c'est de créer un écosystème de confiance en Europe, un petit peu comme avec le RGPD, pour forcer ou du moins stimuler l'adoption de l'intelligence artificielle, considérant que pour que l'intelligence artificielle soit pleinement adoptée par les citoyens européens, il va falloir s'assurer qu'elle soit éthique, digne de confiance pour qu'elle soit totalement adoptée. »
Julien Redelsperger : « Le RGPD, juste pour rappeler, c'est le Règlement général sur la protection des données qui a été adopté en 2018 en Europe et dans tous les autres pays européens, qui visait à mieux protéger le traitement, la collecte des données personnelles. »
Alexandre Polakowski : « Oui, tout à fait. En fait, ce sont deux réglementations qui sont très liées, tout simplement parce qu'avec le RGPD, la Commission européenne et l'Europe, plus largement, a souhaité être pionnière dans le sujet de la protection de la donnée et imposer un standard qui ensuite se répandrait à l'international, le fameux "Bruxelles Effect", dont on entend souvent parler. C'est exactement la même chose avec le cadre réglementaire sur l'IA. L'Europe a voulu être pionnière sur le sujet pour pouvoir traiter les risques inhérents à l'intelligence artificielle et faire en sorte qu'ensuite, ça se répande à l'international. »
Julien Redelsperger : « Alors justement, ce cadre réglementaire dont on parle a un nom, il s'appelle l'AI Act. Il a été adopté au Parlement européen en mars 2024 et il va donc entrer en application par étapes successives. On va rentrer dans les détails, mais en guise d'introduction, Alexandre, est-ce que tu peux juste nous résumer un peu les grandes caractéristiques de l'AI Act ? »
Alexandre Polakowski : « L'idée de l'AI Act, c'est tout simplement de déterminer, en fonction de l'usage des intelligences artificielles, si elles sont risquées ou non. Et donc, en fonction de leur niveau de risque, leur attribuer ou pas des mesures de mise en conformité pour traiter les risques. J'en parlais tout à l'heure, les risques sur l'explicabilité, les risques sur la supervision humaine, les risques de discrimination, qui sont des risques très importants avec les fameux biais dont on entend souvent parler. Et c'est vraiment ça l'ambition, en fait, c'est de pouvoir déterminer si une IA est risquée ou non. Et si elle est risquée, eh bien, on a des exigences qui sont associées. »
Julien Redelsperger : « Oui, c'est ça, parce que là, on parle d'intelligence artificielle au sens large, parce que ça fait longtemps que la Commission européenne travaille sur le sujet. Ce n'est pas spécifiquement lié aux IA génératives ou à ChatGPT, c'est ça ? Comment ça s'articule, en fait, les IA génératives avec l'AI Act et cette réflexion autour de l'intelligence artificielle ? »
Alexandre Polakowski : « Alors, c'est une bonne question. En fait, l'ambition du texte, c'est de pouvoir faire face aux évolutions dans le temps. Et donc, l'objectif, c'était de proposer une définition qui est l'article 3.1 de la réglementation, qui est suffisamment large pour pouvoir encadrer un maximum de techniques d'intelligence artificielle. Intelligence artificielle, ça veut tout et rien dire, ça peut englober le machine learning, le deep learning, l'IA générative et d'autres techniques. Et donc là, l'objectif du texte, c'était vraiment d'encadrer un maximum de choses. Et ensuite, une fois que ça rentre dans le périmètre de la définition, on a des exigences qui sont soit en fonction de l'usage de l'IA, soit des exigences spécifiques sur les IA génératives. Donc quand même pour illustrer, voici la définition qui est donnée dans le texte final. Donc l'IA, au sens juridique du terme, c'est un système basé sur une machine conçue pour fonctionner avec différents niveaux d'autonomie, qui peut s'adapter après son déploiement et qui, pour des objectifs explicites ou implicites, déduit à partir des données qu'il reçoit, comment générer des résultats. Donc ça peut être très large. »
Julien Redelsperger: « D'accord. Ça veut dire qu'on peut mettre un peu dans le même sac à la fois du ChatGPT, du Midjourney et peut-être du, je ne sais pas, Google Maps ? »
Alexandre Polakowski : « Dans la définition de ce qu'est l'intelligence artificielle, exactement, au sens juridique du terme. Il est simplement précisé et je pense que les superviseurs du texte, par la suite, dans l'implémentation du texte, eh bien, porteront des précisions dans le détail sur ce qu'est l'intelligence artificielle ou non, au sens juridique du terme. Mais il est quand même précisé dans le texte final que, eh bien, ce qui sort du périmètre du texte, c'est ce qu'on appelle généralement les règles experts, donc des règles faites par l'expérience qui s'insèrent dans un moteur de règles et qui sont faites uniquement par les humains. Bon, ben ça, ça sort du périmètre du texte, ce qui n'était pas le cas au tout début du texte, dans la version initiale. Donc c'est plutôt une bonne chose parce que les experts auraient considéré que ce n'était pas forcément de l'intelligence artificielle. Par contre, après, pour le reste, ça reste une définition très large qui nécessitera d'être précisée à l'avenir par les superviseurs nationaux, notamment. »
Julien Redelsperger : « D'accord. Alors, cet AI Act, il introduit un principe qu'on appelle la pyramide des risques. Est-ce que tu peux nous expliquer ce que c'est et quels sont les IA qui sont concernés, qui sont autorisés, qui sont interdits ? Est-ce que tu peux un peu faire le pédagogue pour nous expliquer ce que ça concerne exactement ? »
Alexandre Polakowski : « Oui, avec plaisir. Alors, on prend le sujet de l'IA générative, on le met totalement de côté. Je te propose qu'on en parle après parce que c'est un sujet bien spécifique. Là, on ne s'intéresse qu'aux intelligences artificielles qui ont un usage bien précis. Et donc, ce qui va être introduit dans la pyramide des risques, c'est bien l'usage de chacune des intelligences artificielles. Donc déjà, on a les IA à risque inacceptable. Donc ça, ce sont des IA qui d'ici quelques mois seront interdites définitivement sur le territoire européen si tant est qu'il en existe aujourd'hui. Donc, c'est des IA qui sont considérées comme pouvant représenter des risques extrêmement graves pour les populations de l'Union européenne. Donc, c'est par exemple toutes les IA de social scoring, comme ce qu'on peut voir en Chine ou dans la série Black Mirror par exemple. Donc, des IA qui vont s'appuyer sur des caméras augmentées qui utilisent la biométrie pour vous reconnaître dans la rue, vous attribuer une note en fonction de vos comportements sociaux. Est-ce que vous traversez bien la route ? Est-ce que vous fréquentez les bonnes personnes ? Etc. Etc. Et qui ensuite, avec ce score, détermineront si vous avez accès ou pas à des services publics ou privés, comme par exemple pouvoir prendre le métro, pouvoir aller dans telle région du pays, pouvoir avoir un visa dans tel ou tel pays ou pouvoir obtenir un crédit par exemple. Donc, tout ça, ça va être interdit en Europe, ce type d'IA, les IA de manipulation, etc. Il y a toute une liste très détaillée dans le texte. Ensuite, ce qui est intéressant, ce sont les IA qui sont considérées comme étant à haut risque et qui peuvent potentiellement toucher tous les secteurs. Donc là, les IA au risque, ce sont des IA qui peuvent avoir des risques sur les droits fondamentaux des personnes, mais qui néanmoins sont autorisés. Par contre, même si elles sont autorisées, eh bien, il va falloir s'assurer d'être en conformité avec un grand nombre d'exigences. J'en parlais tout à l'heure sur l'explicabilité, sur la non-discrimination, sur la supervision humaine, de pouvoir vraiment s'assurer d'être en conformité avec toutes ces exigences qui sont listées dans le texte et même avant de les déployer sur le marché, de mener une évaluation de conformité qui soit déclarée auprès du superviseur. Donc là, ça peut vraiment toucher un grand nombre de domaines, des IA qui sont dans le cadre de l'administration, par exemple des IA pour l'éducation, une IA qui va venir déterminer si un élève triche ou non en examen, par exemple, c'est une IA qui est considérée à haut risque parce que si elle se trompe, il y a un risque de discrimination de la personne parce que la personne n'aura pas eu son examen, à tort. Par exemple, toutes les IA qui sont de fonction RH, qui vont venir aider à rédiger une offre d'emploi, une offre d'emploi qui serait potentiellement du coup biaisée et qui exclurait telle ou telle catégorie de population, eh bien ça va être considérée à haut risque. Des IA, par exemple, dans le secteur bancaire, comme les IA qui vont aider à évaluer la solvabilité des personnes ou déterminer si elles auront le droit ou non d'avoir un crédit. Des IA dans le secteur de l'assurance, pareil sur l'assurance vie, sur l'assurance maladie. Des IA dans le secteur de la justice, de l'immigration, etc. Donc toutes ces IA sont listées dans l'annexe 3 du texte et donc vraiment, ça peut toucher un grand nombre de secteurs dès lors que ces IA peuvent avoir des impacts sur les droits fondamentaux. »
Julien Redelsperger : « Donc là, ce sont des IA qui sont à très haut risque, qui sont autorisées et donc encadrées avec un certain nombre de garde-fous, c'est ça, pour ne pas nuire au consommateur, à l'utilisateur, aux citoyens européens en fait. »
Alexandre Polakowski : « Ouais, exactement. Donc on considère qu'elles sont autorisées parce qu'elles ont quand même un grand intérêt, mais pour autant, il y a quand même des mesures pour se mettre en conformité, des mesures qui sont même très poussées parfois. Toutes les IA de biométrie par exemple, elles ont même des exigences renforcées. Ensuite, on a des IA avec des exigences de transparence. Donc là, on avait déjà le RGPD qui posait des premières bases de transparence pour les modèles. Je crois que c'est l'article 13 de mémoire qui stipule que tout traitement automatisé doit pouvoir être expliqué dans sa logique sous-jacente par la personne qui l'utilise. Là, ce seront des exigences renforcées dès lors qu'une IA sera en lien direct avec l'utilisateur final. Donc par exemple, un chatbot, un callbot, tous ces types d'IA-là auront des exigences de transparence pour pouvoir expliquer à l'utilisateur que ce sont bien des IA, expliquer à l'utilisateur les finalités de ce système d'IA, son niveau de performance, etc. Et enfin, on aura toutes les autres IA qui n'auront pas d'exigence de conformité et qui seront autorisées sans réserve sur le territoire européen. Donc quand on retire tous les précédents types d'IA, eh bien là, on voit qu'il y a encore beaucoup de choses qui n'étaient pas traitées dans les précédentes catégories qui là seront autorisées. Le but, c'était vraiment de ne pas être trop contraignant et de ne pas encadrer ou du moins de ne pas forcer à avoir des obligations pour tous les types d'IA, mais vraiment de le faire que lorsque c'était nécessaire. »
Julien Redelsperger : « D'accord. Donc juste pour récapituler, on a les IA interdites, les IA à haut risque, les IA avec des exigences de transparence et les IA qui sont autorisées sans réserve. D'accord. Donc on a quatre grandes catégories d'IA qui sont intégrées dans l’AI Act, c'est ça ? »
Alexandre Polakowski : « Exactement. Et ce qui est très important à noter, notamment pour une entreprise qui va utiliser des systèmes d'IA, eh bien cette cartographie des IA qu'elle va devoir mener dans son organisation pour pouvoir identifier si elle doit se mettre en conformité ou pas avec le texte, eh bien ça va l'impacter soit lorsqu'elle va développer elle-même ses intelligences artificielles, dès lors qu'elles sont considérées comme étant à haut risque, donc par exemple je suis une assurance et je développe moi-même une IA qui va faire de l'évaluation de tarification pour une assurance vie, eh bien je devrais bien l'identifier comme une IA au risque et donc je devrais répondre aux exigences de compliance. Donc ça c'est en tant que développeur, mais également en tant que deployer, c'est à dire que si on utilise une intelligence artificielle et qu'on la met sur le marché alors qu'elle a été développée par un prestataire à qui on a payé ce système d'IA, si nous-mêmes en tant qu'organisation on la met sur le marché, on a également des exigences de conformité. »
Julien Redelsperger : « D'accord. Donc c'est à la fois en tant que développeur et en tant qu'utilisateur. Donc les impacts sont concrets et réels, ce n'est pas juste un texte de loi un peu générique, il y a vraiment des répercussions concrètes sur les entreprises, les développeurs, les systèmes informatiques qui utilisent ou vont utiliser de l'IA. »
Alexandre Polakowski : « Tout à fait, dans la pratique les organisations vont vraiment devoir se mettre en conformité avec le texte et ça va être de gros chantiers. Déjà je pense aux grandes entreprises de venir cartographier tous les systèmes d'IA au sens juridique du terme cette fois-ci qui sont dans l'organisation, ensuite identifier si elles sont soumises ou non à des obligations réglementaires de transparence à haut risque etc. et ensuite derrière et bien venir décliner toutes les mesures de contrôle pour s'assurer qu'on est bien en conformité avec le texte et tout ça ça va être énormément de chantier dans les entreprises. »
Julien Redelsperger : « D'accord, alors juste avant qu'on parle de cette pyramide des risques, tu as souhaité mettre un peu de ChatGPT et les IA génératives à part. Comment est-ce que ces IA génératives sont concernées par cette réglementation autour de l'IA ? »
Alexandre Polakowski : « Oui alors c'est une très bonne question. En fait, et bien initialement dans la version initiale du texte qui a été proposée en 2021, le sujet des IA génératives n'était pas du tout envisagé. Tout simplement parce que la révolution de ChatGPT n'avait pas encore eu lieu et c'est seulement lorsque ChatGPT est sorti qu'il a commencé à avoir 100 millions d'utilisateurs en un mois que là on a commencé à avoir et bien dans le cadre des négociations sur le texte des premières remontées des politiciens qui se sont dit "ouh là là le sujet des IA génératives n'était pas envisagé à ce stade dans le texte, il faut impérativement le rajouter" et donc dans la version finale du texte on sent bien qu'il y a une nouvelle partie qui a été rajoutée, qui est spécifique à ce qu'ils appellent eux les IA à usage général, comprendre au sens classique du terme les IA génératives, donc ChatGPT et tous ses homologues. Donc eux ils définissent ça comme des modèles d'IA entraînés sur une grande quantité de données et capables d'exécuter efficacement un large éventail de tâches distinctes, donc contrairement aux précédentes qui avaient uniquement des usages uniques, là ce sont des usages multiples et donc ces IA là on considère qu'elles ont des risques particuliers et donc elles doivent avoir des exigences particulières. Donc il y aura un certain nombre d'exigences, des exigences de transparence vis-à-vis des personnes, exactement comme on le disait tout à l'heure parce que ChatGPT c'est pareil, c'est en lien direct avec l'utilisateur final, donc il doit pouvoir s'assurer qu'il est bien en relation avec une IA, que c'est une IA, qu'elle n'est pas en train de le manipuler, il doit avoir des indices sur la performance de cette IA, sur ses limites etc. Ensuite il y aura des exigences de documentation, on en a souvent entendu parler, on ne sait pas aujourd'hui trop comment les IA génératives ont constitué leur base de données d'entraînement et ça peut poser des gros problèmes sur la propriété intellectuelle, sur le RGPD etc. Et bien là il sera exigé pour ce type d'IA là, alors c'est un peu paradoxal mais de fournir un résumé détaillé des datasets d'entraînement auprès du superviseur. Il y aura également des contraintes en matière de droit d'auteur pour s'assurer que le droit d'auteur est bien respecté notamment dans l'entraînement de ce type d'IA et puis également dès lors que ces IA seront redéployées par des fournisseurs de second niveau, c'est à dire par exemple des entreprises qui vont venir prendre un ChatGPT et qui vont l'enrichir avec des données, ce qu'on appelle du fine tuning ou de l'enrichissement pour spécifier les usages de cette IA générative, et bien il y aura de la documentation à apporter également à ces fournisseurs de second niveau. Et enfin on a aussi ce qu'on appelle les IA génératives à risque systémique. En fait, et bien pareil, on peut partir du principe que c'est également une pyramide donc la grande majorité des intelligences artificielles génératives c'est en bas de la pyramide et elles auront déjà des exigences mais il y aura un petit nombre de ces IA génératives là qui, soit parce qu'elles ont une puissance de calcul qui a été considérée comme trop importante, soit parce qu'elles auront été désignées directement par la commission européenne, et évidemment ChatGPT a priori sera dans le lot, et bien on considère qu'elles peuvent avoir des risques systémiques parce qu'elles auront un potentiel d'adoption trop large et que donc du coup elles pourraient avoir des impacts néfastes sur les consommateurs européens. Dès lors que ces IA génératives seront considérées comme pouvant avoir des risques systémiques, elles auront des obligations supplémentaires, donc des obligations de cybersécurité supplémentaire, des obligations de reporting auprès du superviseur supplémentaire, des obligations pour atténuer ces fameux risques systémiques, etc. Donc ça c'est vraiment pour pallier les risques des IA génératives qui auront le plus gros potentiel d'adoption. »
Julien Redelsperger : « Donc ça veut dire que les IA génératives européennes vont être mieux ou en tout cas réglementées différemment que les IA génératives non européennes, est-ce que ça veut dire qu'on va avoir un ChatGPT mondial et un ChatGPT européen avec des fonctionnalités différentes ou avec des codes, des usages différents ? »
Alexandre Polakowski : « Non, pour le coup il n'y a pas une notion d'IA générative européenne ou non, c'est vraiment une notion d'IA générative avec potentiellement un gros niveau d'adoption de par sa capacité de calcul ou de par sa désignation par la commission européenne ou non. Et donc du coup en fait ce sera les plus grosses IA génératives qui seront considérées comme étant un risque systémique et donc c'est vraiment elles qui auront des exigences supplémentaires et ça peut concerner à la fois des IA génératives non européennes comme ChatGPT mais également potentiellement des IA génératives européennes comme Istral AI. »
Julien Redelsperger : « D'accord, donc à partir du moment où il y a des utilisateurs européens, ces systèmes doivent se conformer aux droits européens, c'est ça ? »
Alexandre Polakowski : « Oui, ça c'est exactement comme le RGPD pour le coup, en fait toutes les mesures de mise en conformité avec l'AI Act et bien doivent être mises en oeuvre dès lors qu'elle concerne un utilisateur européen. Donc n'importe quel type d'IA, IA générative ou non, qui s'applique à un consommateur européen et bien elles doivent être en conformité avec le texte. »
Julien Redelsperger : « Et si une entreprise ne veut pas se mettre en conformité avec ce texte parce qu'elle peut trouver que c'est trop complexe, trop technique ou autre, c'est quoi la solution ? Elle interdit simplement l'accès à son système depuis l'Europe ? »
Alexandre Polakowski : « Oui, c'est possible. Après les entreprises auront tout intérêt et bien en tout cas à se mettre en conformité avec l'AI Act parce qu'il y a évidemment des sanctions qui sont prévues. Donc par exemple si on met en place une IA au risque et qu'on ne s'assure pas que les exigences réglementaires aient bien été respectées, on risque par exemple jusqu'à 15 millions d'euros de sanctions ou 3% du chiffre d'affaires annuel. Et c'est encore plus important évidemment pour les IA à risque inacceptable qui sont interdites en Europe et qui n'ont du coup pas vocation à être développées. »
Julien Redelsperger : « D'accord, ça permet de mettre de mettre la pression sur les entreprises qui ne voudraient pas jouer le jeu. »
Alexandre Polakowski : « Oui, c'est le but. »
Julien Redelsperger : « Alors on a beaucoup parlé du droit européen évidemment et tu parlais tout à l'heure en début de podcast de Bruxelles Effect, l'effet bruxellois peut-être on peut le traduire, pour justement mentionner le fait que la réglementation européenne influence finalement les autres réglementations des autres pays. Est-ce que tu as des infos sur la réglementation de l'IA dans d'autres zones géographiques ? Est-ce que l'Europe influence réellement les autres pays en matière de réglementation sur l'IA ? Qu'est-ce qui se passe par exemple je sais pas en Amérique du Nord, en Chine, en Afrique ? Est-ce que tu as des infos sur le sujet ? »
Alexandre Polakowski : « Oui alors tout à fait donc l'objectif vraiment de l'Europe c'était vraiment avec ce texte d'être la première à proposer un cadre réglementaire aussi ambitieux sur l'intelligence artificielle. Donc c'est faux aujourd'hui de dire notamment en Europe que l'IA n'était pas encadrée, il y avait déjà d'autres réglementations qui encadraient l'intelligence artificielle. En Europe on a le RGPD qui posait déjà des bases sur tout ce qui était en lien avec les données à caractère personnel dans les traitements automatisés et puis on a également le cadre sur la propriété intellectuelle et puis des cadres qui sont plus sectoriels, notamment je pense aux cadres bancaires avec des avis des superviseurs sectoriels. Mais pour le coup c'est vrai que là avec l'AI Act on a vraiment une première réglementation européenne sur le sujet et qui est pionnière. Après à l'international pour le moment on n'a pas d'autre type de réglementation qui existe sur le sujet mais l'ambition de l'Europe c'est que les autres pays s'alignent sur cette initiative et on voit que ça commence déjà à bouger d'une certaine manière. On a eu un décret fédéral aux Etats-Unis signé par Joe Biden qui pose déjà des premières bases mais quand même beaucoup moins contraignantes que l'AI Act sur le sujet. On a pas mal de déclarations du côté de la Chine également et puis on a beaucoup d'initiatives internationales, des initiatives de l'OCDE, des initiatives de l'ONU, du Conseil de l'Europe qui est hors Union européenne etc. Pour essayer de poser des grands standards notamment d'éthique de l'intelligence artificielle et c'est pour ça qu'on avait eu notamment il y a quelques mois en 2023 un AI Safety Summit qui essayait d'inviter les plus grands pays du monde à venir discuter des enjeux éthiques de l'intelligence artificielle et même de lancer une sorte de GIEC de l'intelligence artificielle pour lancer des travaux sur l'éthique de l'IA au niveau international pour traiter des risques qui peuvent être très importants pour la sécurité des personnes. »
Julien Redelsperger : « On a tendance parfois à dire que la réglementation est toujours un peu en retard par rapport à la technologie ou à l'innovation mais en réalité pour le coup quand on parle d'IA ce n'est pas vraiment la réalité, c'est plutôt proche entre cette tendance de l'IA, notamment l'IA générative et la réglementation européenne, il s'est passé assez peu de temps mais c'est sans doute parce que l'Europe travaillait déjà en amont sur ce sujet depuis longtemps. »
Alexandre Polakowski : « Tout à fait, même avant l'AI Act il y avait eu des premières séries de réflexion avec des guidelines éthiques sur l'intelligence artificielle qui ont été proposées dès 2018-2019 du côté de la commission européenne. Après l'intelligence artificielle ça fait quand même un certain temps que ça existe, ça fait plusieurs décennies mais bon c'est vrai qu'au fur et à mesure de l'évolution technologique il a été nécessaire de venir quand même lancer une réflexion sur le sujet. Maintenant il faut toujours trouver un équilibre entre innovation et régulation et pour le coup c'est toujours un jeu très dangereux. D'un côté c'est vrai qu'il y a une vraie compétition internationale entre d'un côté les Etats-Unis, de l'autre côté la Chine et puis l'Europe qui est un petit peu au centre et il ne faut pas non plus se brider sur les usages parce que sinon on risque d'être dépendant technologiquement d'autres pays qui eux peut-être ne se posent pas autant de questions sur la réglementation, sur l'éthique et qui pourtant dans l'adoption auront un potentiel plus fort parce qu'ils auront des IA qui seront potentiellement moins, beaucoup plus performantes. »
Julien Redelsperger: « Absolument, ok et alors au quotidien concrètement dans les entreprises pour les décideurs, pour les services informatiques, Alexandre que va changer les IA Act pour les organisations qui utilisent des outils à base d'intelligence artificielle, soit le font elles-mêmes en interne, soit elles externalisent avec un partenaire qui les aide à construire des solutions à base d'IA, qu'est ce que ça va changer et qui doit porter cette responsabilité ? »
Alexandre Polakowski : « Ah bah ça c'est une vraie question parce que vu que le texte vient seulement et bien d'être adopté, là on va avoir le process de mise en conformité qui va se faire dans les organisations et on part un petit peu de zéro. Donc déjà ce qu'il va falloir faire c'est évidemment un recensement, je le disais tout à l'heure, de toutes les IA qui sont présentes dans l'entreprise et ensuite déterminer si elles ont des exigences ou non. Donc ça c'est ultra important. Ensuite il va falloir acculturer les collaborateurs à l'IA Act comme ça a été fait avec le RGPD pour qu'ils aient une bonne compréhension de ce qu'est l'IA, ce que n'est pas l'IA, de ce que sont les IA au risque, ce que ne sont pas les IA au risque, etc. Ça va être crucial pour ensuite définir un vrai cadre de gouvernance sur le sujet dans les entreprises pour pouvoir assurer la déclinaison opérationnelle du texte et lorsque c'est nécessaire mettre en place les bonnes procédures, mettre en place les bons contrôles pour s'assurer que la supervision humaine est bien respectée, pour s'assurer que les exigences de performance sur les IA sont bien respectées, pour s'assurer des données d'entraînement, de validation, de test, qu'elles ne soient pas biaisées, qu'elles soient complètes, qu'elles soient dépourvues d'erreurs dans la mesure du possible, etc. Et donc on parle de plus en plus de la nécessité de mettre en place ce qu'on appelle des Digital Ethics Officers, qui serait le pendant du Data Protection Officer dans le cadre du RGPD. Donc le Data Protection Officer c'est la personne au centre de l'entreprise qui va agir de manière transversale pour assurer le bon respect du RGPD dans l'entreprise. Et bien pareil, on commence à parler par exemple de Digital Ethics Officer qui serait la personne qui serait transverse dans l'entreprise, au centre des juristes, au centre des métiers, au centre des Data Scientists, au centre des décideurs également, pour pouvoir acculturer les collaborateurs mais surtout veiller à ce que l'implémentation de l'intelligence artificielle dans l'entreprise se fasse de manière éthique et également respectueuse de l'AI Act. »
Julien Redelsperger : « C'est hyper intéressant ce que tu dis parce que ça veut dire qu'on va avoir des nouveaux postes, des nouvelles responsabilités pour forcer un peu les gens à travailler ensemble entre les utilisateurs d'un côté, la direction de l'autre, la technique, la DSI également. Ça va avoir un impact quand même sur le quotidien des organisations parce que c'est pas forcément simple de comprendre comment l'IA fonctionne quand tu es dans une entreprise. Comment tu vois les choses ? »
Alexandre Polakowski : « C'est ça, c'est pour ça que l'AI Act n'est pas un sujet purement juridique, c'est pas un sujet purement compliance et c'est pas non plus un sujet purement Data Scientist ou Data Analyst. Il faut des personnes au centre pour permettre aux équipes de dialoguer entre elles et de trouver le meilleur moyen de se mettre en conformité avec le texte et donc c'est pour ça qu'il faut vraiment créer du lien entre les équipes, avoir une approche transversale pour essayer de trouver les bonnes solutions. »
Julien Redelsperger : « Et en terme de calendrier, je sais que c'est encore un peu tôt, mais est-ce qu'il y a déjà une date butoir pour cette mise en conformité, pour ce travail réglementaire ? Est-ce qu'on parle de 2024, 2025, plus 2026 peut-être ? »
Alexandre Polakowski : « Oui, alors en fait c'est un calendrier qui va se faire étape par étape. Dès 2024, on va avoir les IA interdites sur le territoire européen qui vont commencer à l'être. Ensuite en 2025, on aura les premières exigences pour les IA génératives. En 2026, les premières exigences pour les IA haut risque. 2027, les exigences pour les IA génératives qui sont déjà déployées sur le marché aujourd'hui, par exemple un ChatGPT, il est déjà déployé donc il a jusqu'en 2027 a priori pour se mettre en conformité. Et 2028 pour les IA haut risque qui sont déjà déployées sur le territoire européen pour que les équipes aient le temps de les retravailler, de les mettre au goût du jour et au goût de la nouvelle réglementation.
Julien Redelsperger : « Donc il va y avoir des gros chantiers qui vont être lancés par les entreprises, on parlait de formation, on parlait d'acculturation et c'est intéressant parce que j'ai vu récemment toi que tu étais intervenu dans une école de commerce dans le cadre d'un cours pour parler des nuances d'IA générative. Quel regard est-ce que tu portes sur l'importance de la formation sur ce sujet, à la fois pour les étudiants, les futurs talents, les jeunes diplômés mais aussi pour les salariés en poste ? Qu'est-ce qu'ils te disent ? Qu'est-ce que tu ressens ? Qu'est-ce qui se passe dans les entreprises quand on parle d'IA ? »
Alexandre Polakowski : « Pour le coup j'étais intervenu dans cette école de commerce lilloise pour sensibiliser les élèves et bien aux risques spécifiques de l'IA générative qui sont complémentaires à ceux qui sont identifiés dans les IA Act parce qu'avec l'IA générative on a des risques vraiment intrinsèques à ce type de technologie et il faut absolument sensibiliser les personnes à ces risques, que ce soit des étudiants qui vont utiliser ChatGPT dans le dos de leurs professeurs ou que ce soit des collaborateurs qui vont utiliser ChatGPT comme 55% des sondés aujourd'hui dans le dos de leurs managers et donc il est crucial de pouvoir les sensibiliser à ces risques bien avant même de les sensibiliser à comment faire un bon prompt, comment bien savoir tirer profit des intelligences artificielles génératives et bien avant ça il faut quand même les sensibiliser aux risques et c'est d'ailleurs la raison, les risques sont tellement forts que c'est la raison pour laquelle il y a beaucoup d'entreprises aujourd'hui notamment dans des secteurs assez sensibles qui ont bloqué l'accès aux intelligences artificielles génératives comme ChatGPT ou autres tout simplement parce qu'il y avait des risques trop forts. Alors il y a deux principaux risques, le premier risque c'est évidemment le risque sur la souveraineté de la donnée, il faut partir du principe que lorsqu'on est en entreprise toutes les informations qu'on va envoyer à ChatGPT c'est comme si on les envoyait en clair sur le web donc à partir de ce moment là si vous divulguez des données RGPD et bien vous êtes en infraction avec la loi, si vous divulguez des données qui sont soumises aux secrets professionnels, aux secrets industriels, aux secrets médicaux, aux secrets bancaires, là vous vous mettez en danger aussi par rapport à votre entreprise qui peut considérer que c'est une faute grave. Il faut faire doublement attention parce que ces modèles d'IA générative là et bien en plus potentiellement ils peuvent se réentraîner sur les données que vous fournissez à ces modèles et lorsqu'ils se réentraînent sur les données que vous leur fournissez et bien potentiellement derrière ça veut dire qu'un autre utilisateur peut venir questionner ChatGPT et obtenir les informations que vous lui avez donné sur votre entreprise et donc là ça peut être vraiment la double peine et c'est ce qui s'est passé avec pas mal d'entreprises qui ont livré des secrets d'entreprise et qui se sont retrouvés non seulement auprès d'OpenAI mais en plus auprès d'autres utilisateurs. »
Julien Redelsperger : « Donc ça veut dire que OpenAI peut se retrouver avec en sa possession des données clients, des informations sur des projets en cours, des lancements de produits ou des données confidentielles, personnelles etc ? »
Alexandre Polakowski : « Oui tout à fait et en fait c'est un vrai risque si les collaborateurs commencent à envoyer tout et n'importe quoi comme informations à ChatGPT. Non seulement c'est des informations qui partent aux Etats-Unis et donc potentiellement un non respect des réglementations ou des politiques d'entreprise et en plus c'est envoyé à cette entreprise sans aucun accord et ça peut être réutilisé par le modèle pour être envoyé à d'autres utilisateurs. Un utilisateur qui va poser des questions sur votre entreprise alors que c'est un concurrent et bien il va peut-être obtenir les informations que vous même avez consenti à donner à ChatGPT. Donc ça c'est vraiment le premier risque et le risque principal pour lequel les entreprises certaines ont décidé de bloquer l'accès à ChatGPT et ses concurrents. Le deuxième risque qui est peut-être encore plus important pour moi c'est le risque d'hallucination parce que on a l'impression que l'intelligence artificielle et notamment ChatGPT va pouvoir délivrer un grand nombre d'informations, nous aider dans tout et n'importe quoi mais en fait il faut faire très attention à comment on utilise les IA génératives. Contrairement aux IA prédictives, les IA génératives sont en mesure de pouvoir inventer et donc du coup ça veut dire qu'elles vont créer du contenu nouveau à partir des données sur lesquelles elles se sont entraînées et donc ChatGPT n'est pas un moteur de recherche, ChatGPT n'est pas Google ce qui veut dire qu'avec vraiment une assurance folle, ChatGPT peut vous donner des informations qui en fait sont complètement fausses et ça arrive beaucoup plus souvent que l'on ne le croit. Il y a évidemment le cas très connu de l'avocat américain qui dans le cadre d'un procès a commencé à citer de fausses jurisprudences parce qu'il avait préparé son dossier avec ChatGPT et je crois même qu'il a été radié du barreau par la suite parce que tout simplement il a déclaré six fausses jurisprudences. Donc vous vous mettez vraiment en porte à faux vis-à-vis de votre entreprise, vous mettez votre crédibilité en jeu lorsque vous prenez en copier-coller des informations qui sont délivrées par ChatGPT et que vous ne faites pas le fact-checking derrière, c'est particulièrement important notamment lorsque vous êtes en entreprise parce que ChatGPT peut vraiment inventer et notamment mes élèves j'avais essayé de les sensibiliser à ce sujet en leur faisant faire un petit exercice pratique et en leur demandant de demander à ChatGPT de leur fournir un article sur un sujet bien précis avec un maximum de citations et en fait on s'est rendu compte que les citations qui étaient délivrées par ChatGPT étaient la plupart du temps totalement inventées et ça on ne pouvait pas le savoir parce qu'initialement c'était pas dit par ChatGPT, il fallait derrière à la fois fact-checker sur Google pour vérifier que les citations données par ChatGPT n'existaient pas et puis on pouvait même demander à ChatGPT par la suite quelles sont les sources officielles de ces citations et c'est seulement à ce moment-là bien précis qu'il nous révélait que ces citations étaient fictives. »
Julien Redelsperger : « Il a quand même reconnu, c'est intéressant parce que tu avais un doute, tu lui as demandé à ChatGPT et lui te dit en fait j'ai inventé quoi. »
Alexandre Polakowski : « Voilà tout à fait mais il aurait aussi très bien pu dire avec assurance que les citations existaient bien mais qu'il n'avait pas la source officielle à nous donner, on aurait pu le croire alors qu'en fait les citations étaient inventées. Donc il faut vraiment toujours s'assurer du bon recul critique sur son utilisation de l'intelligence artificielle générative. Ça ce sont vraiment les deux principaux risques. »
Julien Redelsperger : « Est-ce que toi tu utilises ChatGPT en tant que professionnel de l'IA, de la réglementation et toi qui connais un peu les coulisses ? »
Alexandre Polakowski : « Alors dans un cadre professionnel je ne l'utilise pas parce que par rapport aux risques dont je te parlais juste avant je décide de ne pas l'utiliser. Maintenant dans un cadre extra professionnel par exemple avec mon podcast EspritIA, évidemment je travaille avec ChatGPT pour préparer mes émissions, pour préparer mes questions etc. Maintenant il faut utiliser ChatGPT pour ce que c'est, c'est-à-dire un outil qui va pouvoir nous aider par exemple à retravailler un texte, un outil qui va nous aider à pouvoir identifier de nouveaux sujets, de nouveaux thèmes de questions etc. mais pas comme un moteur de recherche qui va nous donner des informations crédibles et précises. »
Julien Redelsperger : « D'accord ok parfait alors si on se projette un peu dans le futur, Alexandre, est-ce que tu as une idée de ce à quoi va ressembler le marché du travail dans les prochaines années avec à la fois la démocratisation de l'IA d'un côté mais aussi la réglementation de l'autre ? Est-ce que tu penses qu'il y a des postes qui vont être supprimés, changés ? Comment tu vois les choses ? Est-ce que tu es inquiet ou est-ce que tu es plutôt serein sur le futur du monde du travail ? »
Alexandre Polakowski : « Alors ça c'est vraiment une question à un million d'euros, bien malin sera celui qui arrivera à répondre à ce sujet. On est encore évidemment bien loin du remplacement de tous les collaborateurs par l'intelligence artificielle mais on commence déjà à en voir les prémices avec notamment des entreprises, il y a le cas d'Inclusive qui a fait récemment parler de lui où cette fameuse entreprise en France a licencié plus de 50% de ses collaborateurs pour les remplacer par l'IA générative dans le cadre de Veil Media et effectivement chaque GPT aujourd'hui est en mesure de pouvoir automatiser certaines tâches. Maintenant on n'est pas encore au niveau technologique qui permettra de remplacer un grand nombre d'humains. Le plus évident en tout cas à court terme c'est que l'IA va vraiment toucher tous les métiers et que tous vont devoir s'adapter au rythme de la technologie pour identifier là où ils vont vraiment garder de la valeur ajoutée par rapport à l'IA et là où ils peuvent vraiment s'appuyer sur l'IA pour améliorer leur productivité. Ce qu'on dit souvent c'est que ce n'est pas l'IA qui va remplacer les collaborateurs, ce sont les collaborateurs qui utilisent l'IA qui vont remplacer ceux qui ne l'utilisent pas et ça j'y crois vraiment parce que avec l'IA générative, avec chaque GPT on est vraiment en mesure de pouvoir booster son efficacité mais par contre il faut savoir bien l'utiliser et être formé à son utilisation. »
Julien Redelsperger : « Absolument ok parfait, ben écoute merci beaucoup Alexandre. Alors tu parlais à l'instant de ton podcast qui s'appelle Esprit IA, est-ce que tu peux nous le présenter en deux minutes ? Qu'est-ce que c'est comme podcast et quel sujet tu traites sur tes émissions ? »
Alexandre Polakowski : « Oui merci beaucoup, bah écoute tout comme toi j'ai décidé de lancer un peu mon podcast sur l'intelligence artificielle en septembre 2023 et donc l'idée c'est une fois par mois d'inviter un spécialiste du sujet de l'intelligence artificielle dans son domaine qui va venir nous présenter les spécificités de l'IA dans son domaine et ça peut être très éclectique. J'ai reçu un avocat pour nous parler un petit peu de compétitivité internationale et de comment l'IA peut être utilisée dans le droit, j'ai reçu une spécialiste sur l'éthique de l'IA, j'ai reçu également et bien un youtubeur que j'apprécie beaucoup qui s'appelle Senawak, je vous invite vraiment à le découvrir sur YouTube, qui est spécialisé dans toutes les théories un petit peu de science-fiction sur l'intelligence artificielle. Est-ce que l'IA va nous remplacer ? Est-ce que l'IA peut se retourner contre l'humain ? Est-ce qu'on vit dans une simulation virtuelle alimentée par l'IA ? Enfin voilà c'était une émission qui était très sympa, qui est la dernière que je vous invite à découvrir et d'ailleurs je t'invite avec grand plaisir sur mon podcast et on a prévu d'enregistrer ensemble très bientôt donc je vous invite vraiment à découvrir EspritIA parce que vous retrouverez Julien dessus très prochainement. »
Julien Redelsperger : « Écoute le rendez-vous est pris c'est parfait donc Esprit IA disponible sur Spotify pour écouter le podcast d'Alexandre. Écoute merci beaucoup de ta participation alors au sein du podcast AI expérience à la fin de chaque épisode l'invité du jour doit répondre à une question posée par l'invité précédent en attendant d'écouter la tienne je te laisse écouter celle de Julie Poirier qui est directrice de la traduction française pour le bureau de la traduction du gouvernement du Canada on écoute sa question. »
Julie Poirier : « Oui alors moi j'aurais le goût de demander aux prochains invités en fait les jeunes générations ont grandi entourés par la technologie et le virtuel tout comme la télévision couleur qui émerveillait nos grands-parents était quelque chose d'absolument banal pour nous avoir une conversation avec Alexa ou Google est quelque chose de banal pour eux j'aurais le goût de lui demander qu'est ce que les adultes d'hier peuvent apporter d'utile aux jeunes d'aujourd'hui pour bien façonner les adultes de demain dans un monde d'intelligence artificielle. »
Alexandre Polakowski : « Et ben merci beaucoup Julie pour cette question un peu compliqué pour moi de répondre parce que justement je fais partie de ces générations qui ont été bercées dès le départ par le numérique je suis encore assez jeune donc c'est vrai que j'ai toujours connu l'ère du numérique mais je pense que dans tous les cas on va pas pouvoir s'émanciper de toute cette numérisation de toute cette vague technologique qui est en train d'être mise en place donc forcément que les enfants de demain et bien devront être sensibilisés dès le plus jeune âge à l'intelligence artificielle et à son utilisation on pourra pas y couper court tout le monde va devoir adopter ces technologies maintenant pour autant il va falloir vraiment également et bien réussir à déconnecter les jeunes de ces technologies pour réussir également à les acculturer à d'autres choses qui pourront également les aider dans leurs usages technologiques la lecture l'éducation etc etc tout ça ne va pas changer ça sera toujours des piliers pour la société et ça serait vraiment un risque de tout digitaliser tout numériser et en fait oublier les grands savoirs d'antan non il va falloir en fait trouver un juste équilibre entre les deux et ça ça va être vraiment le rôle des anciens de pouvoir à la fois et bien eux aussi commencer à s'acculturer à cette révolution technologique mais également acculturer les jeunes à tout le savoir que eux ils ont acquis en dehors de cette révolution technologique. »
Julien Redelsperger : « On parle souvent des soft skills, des compétences comportementales, le savoir-être comme l'intelligence émotionnelle, l'empathie, toutes ces compétences humaines qui sont indispensables quelque part pour bien travailler avec l'IA. »
Alexandre Polakowski : « Oui c'est clair j'en suis tout à fait convaincu et je peux que abonder en ce sens. »
Julien Redelsperger : « Parfait très bien écoute merci beaucoup Alexandre pour ta réponse alors à toi à présent quelle question est ce que tu aimerais poser aux prochains invités ? »
Alexandre Polakowski : « Alors ma question pour le prochain invité les big tech américaine open AI Elon Musk interviennent de plus en plus pour expliquer que l'arrivée de l'AGI est imminente à savoir l'intelligence artificielle générale qui serait capable de concurrencer l'humain dans tous les domaines voire potentiellement de réfléchir par elle-même. D'autres considèrent que l'AGI est simplement une théorie de science-fiction qui a aucune chance qu'elle arrive et que de toute manière l'IA n'est pas intelligente et n'aura pas vocation à l'être. Alors est-ce que l'AGI a une chance d'émerger un jour ? »
Julien Redelsperger : « Parfait et bien écoute je garde la question merci beaucoup de ta participation Alexandre je rappelle que tu es expert dans la réglementation de l'IA et créateur du podcast EspritIA merci d'avoir participé à cet épisode. »
Alexandre Polakowski : « Merci à toi Julien c'était un grand plaisir. »