Infobox
Tomer Libal est professeur assistant d’informatique à l’American University of Paris et chercheur en chef dans plusieurs projets à l'Université du Luxembourg. Il se concentre principalement sur les approches symboliques et hybrides dans le domaine de l'IA et du droit.
Au début du mois de février 2023, la nouvelle selon laquelle un juge colombien avait rendu pour la première fois un jugement à l'aide du robot basé sur l'intelligence artificielle (IA) ChatGPT a fait le tour du monde. Alors que le grand public perçoit cette situation comme un abus, les chercheurs dans le domaine de l’IA travaillent déjà sur une nouvelle intelligence artificielle éthiquement correcte.
Ce n’est pas seulement dans le domaine du droit que les gens craignent les conséquences de décisions erronées prises par une intelligence artificielle. Une solution simple serait de boycotter ou d'interdire le recours à l'IA. Elle mettrait également fin au battage médiatique qui entoure actuellement le robot ChatGPT de l'entreprise américaine OpenAI.
ChatGPT et les systèmes d'IA similaires se répandront de plus en plus, car la technologie est très puissante et présente de nombreux avantages. Pourtant, elle n’est absolument pas fiable, un point que les fabricants reconnaissent eux-mêmes dans leurs clauses de non-responsabilité. ChatGPT ne devrait donc être utilisé qu’à titre expérimental, comme une sorte de jouet. Pourtant, les gens se servent de l’IA dans la vie réelle, car elle leur permet de gagner beaucoup de temps. Ils acceptent donc le risque qu'elle fasse des erreurs. Moi aussi, j'utilise souvent ChatGPT. Je ne fais rien de très risqué, mais je me sers de l'IA, par exemple pour rechercher des informations ou trouver des exemples spécifiques. C’est beaucoup plus rapide qu’utiliser le moteur de recherche de Google. Rien n'empêchera les gens d'utiliser une IA, même quand l'enjeu est important.
Imaginez une visite chez le médecin : vous expliquez votre cas au médecin, qui, la plupart du temps, prend des notes en même temps, souvent à l'ordinateur. Vous ne vous rendrez pas compte si, au lieu de prendre des notes, il demande un diagnostic à ChatGPT.
Si cette pratique permet d’assurer une meilleure prise en charge et qu’elle est bénéfique pour ma santé, elle peut même me convenir.
C'est à ce niveau que l'un des problèmes de ChatGPT se fait ressentir. Le robot donne toujours une réponse, même s'il ne dispose que d'un volume limité de données sur un sujet et que la réponse est donc très peu fiable. Et il ne précise pas cette incertitude. Dans ce type de situation, un bon médecin dirait : « Je n’ai pas la réponse, allez consulter un spécialiste. » Je pense qu'une telle IA générative est très utile, mais aussi très dangereuse. C’est pourquoi nous avons besoin à l’avenir de dispositions claires pour l'utilisation de l'IA.
Infobox
L’IA générative est la forme la plus récente d'intelligence artificielle, qui prend pour modèle les réseaux neuronaux du cerveau. Ce système d’apprentissage machine (ou deep learning, apprentissage profond) utilise des données provenant de diverses sources, à l’aide desquelles il s’entraîne lui-même (approche dite « bottom-up » [du bas vers le haut]). Cette méthode s'avère particulièrement efficace lorsqu'il s'agit de grands volumes de données dont le traitement dépasserait les capacités humaines. C'est un algorithme qui est à l'œuvre. L'ordinateur résout donc des problèmes sans intervention humaine. Les règles selon lesquelles une IA générative crée une solution ne sont pas transparentes. L'apprentissage machine constitue en ce sens une « boîte noire ».
Infobox
L'IA symbolique est la forme la plus ancienne d'intelligence artificielle, également appelée Good Old-Fashioned AI (GOFAI). Elle repose sur l’idée que la pensée humaine est basée sur une structure logique, indépendamment des expériences concrètes. Celle-ci est reconstituée à un niveau conceptuel et symbolique et introduite dans un programme informatique (approche dite « top down » [du haut vers le bas]). Une IA symbolique intègre par conséquent des règles de connaissance et de comportement humaines qui sont visibles dans son code. Elle constitue donc une « boîte transparente », contrairement à l'apprentissage machine.
Selon moi, tout contenu issu d’une IA générative devrait être signalé en tant que tel. Sur le Web, c’est particulièrement important !
Tomer Libal
À quoi ces dispositions devraient-elles ressembler ?
En décembre 2022, le Conseil de l’UE a présenté une proposition de loi sur l'intelligence artificielle. Elle énumère des pratiques clairement interdites et des systèmes à haut risque qui doivent être spécialement réglementés. Le secteur de la santé en fait partie.
Selon vous, une obligation générale de signalisation sur le Web est-elle nécessaire pour les contenus provenant d'une IA ?
Il existe déjà à l’heure actuelle quelques domaines dans lesquels le recours à une IA doit être signalé, par exemple dans le monde académique. Pour un certain nombre de publications, de conférences ou d'événements, il est interdit d'utiliser ChatGPT ou une autre IA. Dans d’autres domaines, il suffit de mentionner l'origine, comme on le fait pour les autres sources. On ignore la fiabilité des contenus qui proviennent d’une IA générative. Selon moi, ces contenus devraient toujours être signalés en tant que tels. Sur le Web, c’est particulièrement important !
Pour pouvoir imposer ce principe, il faut commencer par identifier quels contenus proviennent d'une IA !
Il existe des outils pour le faire, mais ils utilisent à leur tour l'IA. Certaines entreprises développent actuellement de tels outils.
Comment fonctionnent-ils ?
Ce n'est pas mon domaine d'expertise, mais une IA qui permet de reconnaître ce type de contenus ressemble à une IA utilisée pour les générer. Elle analyse la combinaison de mots pour deviner s'il y a une forte probabilité que le texte en question ait été généré par une IA. Mais on peut bien entendu aussi mettre au point une IA générative qui intègre par exemple de petites erreurs, ce qui lui évitera peut-être d'être détectée.
Certaines entreprises développent ensemble un système de lutte contre les informations fallacieuses qui permet de remonter à l'origine des contenus sur le Web.
Tomer Libal
Un tel système est-il aussi pertinent dans le contexte des informations fallacieuses ?
Les informations fallacieuses sont en effet très réceptives à l'IA générative. L'intelligence artificielle permet de générer facilement de faux contenus qui semblent pourtant très convaincants – des images par exemple.
Des efforts sont également déployés pour y mettre fin. Certaines entreprises développent ensemble un système de lutte contre les informations fallacieuses qui permet de remonter à l'origine des contenus sur le Web. Ce projet bénéficie du soutien de la Commission européenne. La norme s'appelle C2PA. Dans ce contexte, un code de conduite est développé sous la direction de Microsoft. Celui-ci stipule que chaque image ou texte doit être traçable. La date à laquelle un texte ou une image ont été mis en ligne pour la première fois est alors visible. Ce procédé permet d'identifier la source et de vérifier sa fiabilité. On ne peut forcer personne à utiliser cette norme, mais on peut par exemple obliger les journaux ou les magazines à ne publier que des contenus traçables ou du moins à indiquer s'ils le sont ou non.
L'idée est de sensibiliser les gens et de leur fournir un outil qui leur permet de décider eux-mêmes s'ils font confiance ou non à une source.
Pour disposer d’une preuve précise de l'origine, toute personne qui souhaite mettre en ligne un contenu devrait se connecter au préalable à un système et s'identifier. Comme vous voyez, il s'agit là du revers de la médaille. En effet, un principe qui prévoit que chaque contenu peut être tracé jusqu'à l'auteur en question est incompatible avec le RGPD.
Non seulement la protection des données est une question difficile, mais l'IA est un domaine dans lequel il y a encore peu d'acteurs qui réussissent. Avec ChatGPT, allons-nous peut-être même vers un monopole de l'IA ?
En principe, il y a de la concurrence et la meilleure IA s'impose. Je ne vois donc pas forcément de problème éthique à ce niveau. Mais quand un leader du marché stocke des données et les utilise ensuite pour renforcer sa position dominante, c'est autre chose. L’IA de ChatGPT, par exemple, apprend en permanence, avec chaque requête, et peut par ailleurs enregistrer quelle personne pose quelles questions. Ces données peuvent être exploitées à des fins commerciales, comme c’est le cas avec Google. Si nous en arrivons à un monopole, il s’agit clairement d’un problème éthique. Je pars du principe qu'il y aura des possibilités réglementaires pour empêcher ce type de situations.
Un robot conversationnel peut souhaiter la bienvenue aux clients d’un cabinet d’avocats et leur demander le motif de la visite, et il s’y prendra peut-être même mieux que les assistants juridiques.
Tomer Libal
Le système juridique peut réguler l'IA, mais dans le même temps, l'IA transforme le système juridique. Qu'est-ce qui change dans les professions juridiques ?
Le changement a déjà été amorcé par la numérisation. Avant, il y avait beaucoup d'assistants juridiques. J'ai consulté plusieurs études à ce sujet et leur nombre a fortement diminué au cours des 20 dernières années. Une IA peut en effet assumer un nombre important de tâches des assistants juridiques, mais pas toutes.
Lesquelles, par exemple ?
Pour l'accueil des clients, vous pouvez faire appel à un robot conversationnel. Ce dernier peut souhaiter la bienvenue aux clients d’un cabinet d’avocats et leur demander le motif de la visite, et il s’y prendra peut-être même mieux que les assistants juridiques. En effet, un robot est toujours prêt, si bien qu’il n’y a pas de temps d’attente. En outre, une IA peut planifier des rendez-vous et aussi faciliter d'autres tâches administratives. Il pourrait par conséquent être plus pratique pour les avocats de s'occuper eux-mêmes des quelques tâches restantes.
D’un autre côté, l’IA a complètement transformé certains métiers, sans en alterner l’importance. Prenons l’exemple des traducteurs juridiques. Avant, ils traduisaient eux-mêmes et consultaient un dictionnaire en cas de doute. Aujourd'hui, ils utilisent des outils basés sur les réseaux neuronaux, tels que le moteur de traduction DeepL. Mais étant donné que chaque nuance subtile est importante dans les traductions juridiques, leur nouvelle tâche consiste à éditer soigneusement les traductions automatiques. Les traducteurs juridiques sont ainsi devenus des post-éditeurs, mais ils sont toujours nécessaires.
L'IA modifie le domaine du droit plutôt dans le sens où il offre une aide à l’être humain, sans pour autant le remplacer. Pour le moment, très peu de métiers sont supplantés par l'IA.
Qu'en est-il des avocats eux-mêmes ? Une IA peut par exemple rédiger des contrats.
Une IA générative peut faire des merveilles en matière de création de documents, ce qui permet aux juristes de gagner beaucoup de temps. Je pars du principe que les juristes utilisent l'IA en permanence, y compris pour les contrats. Ce faisant, ils prennent eux aussi le risque que la solution proposée par l’IA ne soit pas parfaite. Mais la qualité ne cesse de s'améliorer.
Dans ces cas, l’être humain est libre de vérifier le résultat de la machine.
Ce serait le scénario idéal. C'est d'ailleurs précisément ce que font les traducteurs juridiques : ils éditent les résultats de l'IA. Cet exemple montre que l'IA ne remplace pas les êtres humains, mais qu’elle modifie le processus de travail. Le métier d'avocat ne disparaît pas, seule la description du poste change.
Quels sont les autres changements ?
Aujourd'hui, de nombreuses recherches juridiques sont menées à l'aide de l'IA. Si vous êtes un jeune avocat et que vous étudiez à l'université, vous devez savoir comment utiliser ces outils. Plus tard, dans votre premier emploi, vous devrez effectuer de nombreuses recherches juridiques, surtout au début. Et une IA le fait plus rapidement et mieux que l’humain.
Si vous recherchez une décision de justice sur un sujet donné, l'IA met à votre disposition des outils de recherche très puissants, par exemple si vous recherchez une décision de justice spécifique qui est en contradiction avec une autre décision. Il peut être question de la signification d'une décision. Une IA vous permet de réaliser ce type de recherches. C'est très répandu, par exemple pour les vérifications de diligence raisonnable. Il peut être question de la qualité d'une entreprise dans le cadre d'une reprise.
Pour d’autres tâches complexes qui nécessitent moins de données, l’IA n’est pas encore utilisée. Si vous êtes un avocat très expérimenté, vous vous servez probablement moins de l'IA qu'un jeune avocat.
Le rôle du juge ne consiste pas seulement à rendre des décisions sur la base d’affaires antérieures, mais aussi à tenir compte des changements sociétaux.
Tomer Libal
Dans quelle mesure l'IA est-elle utilisée dans le domaine juridique, notamment au Luxembourg ?
Je ne connais pas d'exemples particuliers au Luxembourg, sauf pour les avocats. J'ai assisté à une conférence à Sarrebruck en décembre 2022, et la tendance était que les juges n'utilisaient pas beaucoup l'IA jusqu'à l'apparition de ChatGPT ou d'outils similaires.
Mais il existe un exemple en Colombie, où un juge a utilisé ChatGPT pour rendre une décision. L'affaire concernait, il me semble, les soins médicaux d'un enfant. Et le juge a demandé à ChatGPT si l'enfant y avait droit ou non. L'IA a donné une réponse. Le juge l’a reprise en affirmant qu'il avait par la suite vérifié tous les faits utilisés par l'IA.
Suffit-il de vérifier les sources utilisées ? L'argumentation de la partie adverse est peut-être aussi étayée par des sources correctes ?
Exactement. Dans le domaine juridique, il est toujours question d’arbitrage. Si, dans le cas d’une affaire, on peut prouver que l’argument est correct, il pourrait tout de même y avoir un contre-argument qui est tout aussi correct. Cela pourrait aussi être le cas d’un autre argument qu'aucune des parties n'a avancé. C'est le rôle du juge de prendre en compte toutes les positions.
S’il existait une pratique juridique dérogeant à la loi qui désavantage les immigrés depuis de nombreuses décennies, en tant que délinquant, je pourrais, grâce à l'IA, partir du principe que cette pratique sera poursuivie.
Tomer Libal
Dans beaucoup de jugements, de très grands volumes de données complexes doivent être pris en compte. Dans ce contexte, une machine ne pourrait-elle pas être véritablement plus performante que l’être humain ? Que pensez-vous d'une jurisprudence en matière d'IA ?
Il y a un problème fondamental qui s'y oppose : le rôle du juge ne consiste pas seulement à rendre des décisions sur la base d’affaires antérieures, mais aussi à tenir compte des changements sociétaux. Cela signifie s'écarter délibérément et de manière bien motivée de la pratique actuelle.
C'est ce qu'a souligné Paul Nemitz lors de la conférence à Sarrebruck. Il est conseiller en matière de politique juridique et judiciaire. Selon lui, la jurisprudence doit pouvoir aller au-delà de ce qu'elle a produit jusqu'à présent. Si, par exemple, les jugements ne font que répéter les jugements antécédents, rien ne changera jamais. On entre dans une sorte de bulle.
Comment dois-je me le représenter ? Pourriez-vous s’il vous plaît donner un exemple ?
Supposons qu'une société se transforme. Il y a par exemple plus de personnes issues de l'immigration. Une des conséquences peut en être que l'ancienne pratique de jugement ne soit plus appropriée. Mais une jurisprudence qui s’appuie sur une IA générative ne connaît que les données du passé et va cimenter une pratique de jugement sur cette base, sans tenir compte des changements de circonstances. Un tel juge-robot resterait à jamais prisonnier du monde du passé. Et les délinquants pourraient même en tirer profit de manière ciblée.
Le profilage est une pratique très dangereuse. (...) Il est donc interdit, à raison, de prendre des décisions sociales sur la base de caractéristiques humaines, notamment de personnes vulnérables.
Tomer Libal
Comment s'y prendraient-ils ?
Prenons un exemple extrême : s’il existait une pratique juridique dérogeant à la loi qui désavantage les immigrés depuis de nombreuses décennies, en tant que délinquant, je pourrais, grâce à l'IA, partir du principe que cette pratique sera poursuivie. Je pourrais donc agir en violation de la loi sans craindre des sanctions. Et la justice continuerait à prendre de telles décisions sur la base du passé, renforçant même ce parti pris.
En Estonie, l'IA est déjà utilisée pour statuer sur les amendes pour stationnement interdit, ainsi qu'en droit civil lorsque le montant du litige est inférieur à 7 000 €. Cette situation vous semble-t-elle acceptable ?
Je suis convaincu que l'IA peut être très utile dans ce genre de cas. C'est mon avis subjectif. Le motif sous-jacent est que les juges doivent se concentrer sur les crimes plus graves et les affaires plus complexes – surtout lorsque la charge de travail est importante.
Il est toutefois évident qu'une IA générative basée sur l'apprentissage machine peut faire des erreurs, car elle se base sur les statistiques. Cela pose un problème éthique : le jugement d'une IA ne peut pas être équitable.
Dans quels cas ce risque est-il particulièrement grand ?
De telles erreurs de jugement d'une IA concernent généralement des cas peu fréquents. Par exemple, si un cas est jugé en fonction du sexe, de l'origine migratoire ou d'autres caractéristiques d'une personne, les torts peuvent être importants. Mais c'est un risque qu'un gouvernement peut souhaiter prendre pour s'assurer que son système judiciaire fonctionne mieux dans son ensemble.
En matière de stationnement interdit, une discrimination raciale serait également inacceptable. Dans le système judiciaire américain, une IA décide qui jouit d’un pronostic favorable et qui bénéficie d’une suspension de peine et qui n'en bénéficie pas (le programme s'appelle COMPAS, Correctional Offender Management Profiling for Alternative Sanctions). Qu'en dites-vous ?
Par rapport à une infraction, c’est une tout autre question. Si l'on souhaite prendre de telles décisions en s’appuyant sur une IA, c'est beaucoup plus dangereux. Car pour ce faire, il faut établir des profils de personnes. Même si l'on ne tient pas compte de l'origine migratoire par exemple, mais seulement de la profession, il pourrait y avoir un lien avec l’origine migratoire, ce qui revient donc au même. Il n’est pas si facile de rendre une telle décision sans que la procédure pose des problèmes d’ordre éthique. Et je suis convaincu que dans ce cas, c'est impossible. Le profilage est une pratique très dangereuse. Et la loi relative à l'IA qui doit être introduite dans l'UE interdit explicitement le profilage. Il est donc interdit, à raison, de prendre des décisions sociales sur la base de caractéristiques humaines, notamment de personnes vulnérables.
Les États-Unis nourrissent une approche différente de l'utilisation de l'IA. Elle est davantage axée sur la compétitivité et le commerce. En Europe, l’IA est beaucoup plus réglementée, ce qui peut aussi nuire à la compétitivité.
Même si nous ne comprenons pas pourquoi le système d’apprentissage machine a trouvé une solution, nous pouvons l'analyser avec une IA symbolique et nous assurer qu'elle respecte un certain nombre de règles éthiques.
Tomer Libal
Allons encore un peu plus loin : devrions-nous tolérer une IA qui décide de la vie ou de la mort – dans le domaine de la conduite autonome par exemple ?
Les décisions en matière de conduite autonome dépendent de l'apprentissage machine. Un certain nombre de questions se posent : qui est responsable si la voiture a un accident ? Le conducteur n’est pas responsable, puisque la conduite autonome repose sur l’idée que c'est le système qui prend les décisions. D'un autre côté, on ne peut pas non plus attribuer la responsabilité aux algorithmes, qui ne font qu'exécuter des ordres. Les programmeurs ne sont pas non plus responsables, puisque le système apprend automatiquement et est basé sur des données. Et on ne peut pas non plus demander des comptes aux responsables de la collecte de données, car le volume de données est trop important pour pouvoir être vérifié.
Dans le cadre d’une telle application, le système prend une décision sans que l'on connaisse les règles selon lesquelles la décision a été prise.
Pourquoi ignore-t-on les règles ?
Une IA basée sur l’apprentissage machine est très précise et prend des décisions en s’appuyant sur de grands volumes de données. En raison de cette grande quantité de données et des structures de l'apprentissage machine, les décisions restent opaques pour nous, les humains.
Pourriez-vous s’il vous plaît décrire cela de manière plus concrète ?
Supposons donc que la voiture doive prendre une décision. Elle avance en direction d’un enfant qui se trouve dans la rue et, si elle l'évite, elle tue un adulte. Quelle que soit la décision de l’IA, elle fera une victime. Donc, si on laisse faire l’apprentissage machine – j’ignore quel sera le résultat exact – mais il se peut que l’IA générative considère que ne pas procéder à un évitement comporte moins de risques. Elle pourrait par exemple prendre en compte le fait que les occupants de la voiture pourraient subir des dommages en cas de manœuvre d'évitement.
Sur quelle base une IA prend-elle ses décisions dans cette situation ?
Elle se fonde sur des données : elle sait que le véhicule roule à une certaine vitesse et avance dans une certaine direction où se trouve un enfant. Elle sait aussi qu'un adulte se trouve dans la seule direction d'évitement. Toutes ces informations sont intégrées dans l’IA générative et le système d’apprentissage machine fournit une décision sans que les règles qui en sont à l’origine soient transparentes.
À quoi pourrait ressembler une IA pour la conduite autonome dont les règles seraient transparentes ?
Une telle solution existe en effet et peut aussi s'avérer utile dans d'autres domaines : je peux combiner deux formes d'IA. Dans ce cas, une IA basée sur l’apprentissage machine et une IA fondée sur les réseaux neuronaux font une proposition de décision. Cette proposition est ensuite vérifiée par une deuxième IA. Il s’agit d’une IA symbolique classique, qui effectue une vérification selon des règles éthiques clairement définies. En simplifiant à l’extrême, une règle qui prévoit de ne jamais tuer un enfant en cas de doute, mais plutôt un adulte pourrait être définie. C’est juste un exemple, je ne sais pas si c'est une bonne théorie éthique.
Il s’agirait donc d’un système hybride dans lequel une IA symbolique dirait à l’algorithme d’apprentissage machine que sa décision de non-évitement n'est pas éthique. Elle doit être révisée. Les décisions prises par le système d’apprentissage machine sont donc filtrées en fonction de règles éthiques ou juridiques définies par l'humain. Dans ce cas, la responsabilité peut être imputée aux personnes qui ont défini les règles. Même si nous ne comprenons pas pourquoi le système d’apprentissage machine a trouvé une solution, nous pouvons l'analyser avec une IA symbolique et nous assurer qu'elle respecte un certain nombre de règles éthiques.
Une telle IA symbolique ne fonctionne-t-elle qu’a posteriori, pour analyser une décision prise ou un tel système hybride peut-il vraiment réagir en temps réel pendant la conduite autonome ?
Une IA symbolique est généralement plus lente qu'une IA basée sur l'apprentissage machine, mais ce n'est pas forcément le cas. Cela dépend de chaque cas. Un système hybride qui prendrait des décisions en temps réel pour la conduite autonome serait tout à fait envisageable.
Mais une IA symbolique peut aussi être utilisée sans contrainte de temps pour pré-entraîner un algorithme génératif. Elle analyse en permanence ses décisions et livre un feedback sur ce qui est autorisé ou non. Mais cela n'a d'incidence que sur les décisions futures.
S’agit-il d’une sorte d’éducation éthique pour les machines ?
Tout à fait. Normalement, un algorithme apprend de l’utilisateur lors de l’apprentissage machine. Mais il peut aussi apprendre d'une IA symbolique à respecter certaines règles.
On peut aussi envisager, par exemple, d'utiliser une IA hybride pour générer des exemples synthétiques. L’idée est que l’IA basée sur l’apprentissage machine ne connaît pas tous les scénarios de la conduite autonome. C'est particulièrement vrai pour les scénarios très rares et très improbables. Lorsqu’une IA générative doit prendre une décision dans une telle situation, elle manque de données et la décision n'est donc pas fiable. Ce manque peut être compensé par des exemples d'entraînement créés par une IA symbolique. Il existe de nombreuses possibilités d'interaction entre l’IA symbolique et l’IA générative. Cette nouvelle forme d’IA est de plus en plus appréciée dans la recherche. En revanche, elle n'est pas encore très utilisée dans l'industrie.
Dans quels autres domaines un tel système hybride de l’IA pourrait-il être utilisé ?
Par exemple, si ChatGPT rendait un jugement juridique, le robot ne pourrait pas fournir de justification. Une deuxième IA symbolique pourrait s'en charger. Elle reconstituerait et vérifierait le jugement sur la base de règles préalablement introduites.
Cette interaction entre différentes formes d’IA limite quelque peu les performances de l’IA générative basée sur l’apprentissage machine, mais elle permet d’introduire des aspects éthiques et de rendre les résultats explicables et vérifiables.
Entretien et auteur : Reinhart Brünig
Rédaction: Jean-Paul Bertemes, Lucie Zeches (FNR)