Discours pro­non­cé lors de la séance solen­nelle de Rentrée du Barreau de Verviers le 25 mars 2017 par Me Geoffrey DELIÉGE.

Ceci est une révolution (artificielle)

Mesdames, Messieurs en vos titres et qua­li­tés,

Chers confrères,

Chère Famille, chères amies, chers amis,

Merci beau­coup d’être venus.

Merci car tous ensemble aujourd’hui, nous allons vivre un ins­tant qui va mar­quer l’histoire.

I.Introduction

1.Discours par un robot : on prédit notre remplacement imminent.

Vous croyiez que vous ne le ver­riez pas de votre vivant : eh bien, le pro­grès vous a dépas­sés.

Ça ne nous fait sans doute pas plai­sir, mais nous célé­brons ici, non pas la der­nière ren­trée du Barreau de Verviers, mais la der­nière mani­fes­ta­tion d’un bar­reau tout court. Notre pro­fes­sion crée trop de pro­blèmes, elle a vécu. Les juristes n’ont plus de rai­son d’être. Les juges, les cours et tri­bu­naux, les magis­trats assis, debout, cou­chés et tout le saint-frus­quin de la démo­cra­tie, c’est ter-mi-né.

Dans un ins­tant, un pas va être fran­chi et c’est sûr, on ne fera pas deux pas en arrière ensuite : après ça, vous pour­rez aller ran­ger votre dégui­se­ment sur­an­né au ves­tiaire et boire un bon coup avant de vous recon­ver­tir, mais je me demande bien en quoi.

L’ordinateur vous a rem­pla­cés. L’intelligence arti­fi­cielle vous a dépas­sés. Et le consom­ma­teur a juste envie de vous dire, le sou­rire aux lèvres : « Adieu ! ».

En même temps, ce n’est pas une sur­prise. Si vous lisez les jour­naux, on vous l’a annon­cé depuis pas mal de temps et, ces temps-ci, on vous l’aura assez répé­té. Je cite :

  • La fin des juristes (SUSSKIND, 2010)1,

  • Des armées d’avocats coû­teux, rem­pla­cées par des logi­ciels meilleurs mar­ché (2011)2,

  • ROSS d’IBM, votre juriste arti­fi­ciel­le­ment intel­li­gent flam­bant neuf (N.Y. Times, 2016)3,

  • Confions la jus­tice à l’intelligence arti­fi­cielle ! (Laurent ALEXANDRE, 2016)4

    (Je pour­rais en citer d’autres.)

Certains estiment que l’intelligence arti­fi­cielle est le grand sujet de socié­té qui devrait être au centre des pré­oc­cu­pa­tions actuelles, car c’est la pro­chaine vague de révo­lu­tion tech­no­lo­gique. Elle va défer­ler et elle va tout chan­ger, bien plus et bien plus vite que toutes les inno­va­tions déjà connues. Bien plus que les machines à vapeur, le moteur à explo­sion ou même l’électricité, l’invention du tran­sis­tor ou de l’ordinateur et même d’Internet. Tout va être com­plè­te­ment bou­le­ver­sé : toute notre socié­té, notre éco­no­mie et nos valeurs ; même l’idée que nous nous fai­sons des indi­vi­dus et de la nature humaine.

Alors, main­te­nant, si vous vou­lez bien, si cela vous inté­resse, j’aimerais lan­cer cette démons­tra­tion.

C’est une grande fier­té pour la com­mis­sion infor­ma­tique du Barreau de Verviers d’y avoir tra­vaillé sans relâche, avec un dévoue­ment et un enga­ge­ment com­plets et une dis­cré­tion totale, comme c’est son habi­tude. Mais nous ne l’avons pas fait seuls, évi­dem­ment : nous avons col­la­bo­ré avec une équipe de cher­cheurs, de scien­ti­fiques de haut vol, de grands enthou­siastes que je tiens à remer­cier.

Car aujourd’hui, ce n’est pas moi, mais l’intelligence arti­fi­cielle qui va pro­non­cer le dis­cours de Rentrée et vous ne pour­rez plus avoir de doute, après ceci, que tout ce que vous avez connu est révo­lu et qu’aucun être humain ne pour­ra plus avoir l’ambition d’espérer lui arri­ver à la che­ville.

Et c’est donc un grand géant de l’informatique qui a bien caché son jeu et qui a habi­le­ment déci­dé de faire cette pre­mière, aujourd’hui, à Dison, là où per­sonne ne pou­vait s’y attendre, ni prendre l’information trop au sérieux, mal­gré qu’elle ait été ren­due publique.

C’est un jour que nous atten­dions avec impa­tience.

De temps en temps, une révo­lu­tion inter­vient. Une révo­lu­tion qui change tout. Et c’est une chance de la vivre. C’est une plus grande chance encore d’y par­ti­ci­per, ne serait-ce qu’une seule fois dans sa car­rière.5

Je le répète : cette révo­lu­tion n’aura pas d’impact seule­ment sur le Barreau de Verviers ou les avo­cats en géné­ral, mais sur notre socié­té toute entière, sur le monde, sur l’avenir de l’humanité.

Ce pro­jet a un nom, nous l’appelons « IAVe ». C’est un acro­nyme pour « Intel­li­gence Arti­fi­cielle Verviers » et un jeu de mots que ceux qui ont fait du caté­chisme pour­ront devi­ner.

« IAVe, je te prie de com­men­cer et de pro­non­cer le dis­cours de Rentrée ! Éblouis-nous ! »

II.Corps

A.IA : Qu’est-ce que c’est et comment ça marche ?

1.Définition

C’est un pro­jet basé sur l’intelligence arti­fi­cielle.

Maintenant, qu’est-ce que l’intelligence ? qu’est-ce qui est arti­fi­ciel ? Vous com­pre­nez bien : tout le monde n’est pas d’accord, mais on choi­sit sou­vent de les défi­nir par rap­port au résul­tat qu’on attend d’elles :

  • Dans une pre­mière vision : cer­tains estiment qu’une machine doit être capable de pro­duire des rai­son­ne­ments qui ont toutes les appa­rences de celui d’un humain. L’ordinateur doit mimer l’humain.

  • D’autres estiment que la machine doit être capable de pro­duire des rai­son­ne­ments de ratio­na­li­té pure, au-delà des capa­ci­tés limi­tées d’un humain. C’est une autre vision, voire un pas plus loin.

Pour prendre un exemple, une étude israé­lienne6 a mon­tré que, devant l’équivalent de leur Tribunal d’application des peines, les pri­son­niers qui com­pa­rais­saient peu après le déjeu­ner du juge avaient plus de chance de sor­tir que ceux qui arri­vaient peu avant midi, quand l’estomac du juge com­men­çait à s’impatienter de rece­voir son dîner.

  • L’intelligence arti­fi­cielle, dans ce cas, devrait soit trai­ter les cas de manière égale, dans une ratio­na­li­té pure ;

  • soit, pour s’approcher plus de l’humain, deve­nir moins indul­gent, comme vous le serez avec la réplique du bâton­nier, à mesure que votre appé­tit gran­di­ra et que votre patience dimi­nue­ra.

2.Pourquoi est-ce vraiment d’actualité depuis peu ?

Depuis quelques années et tous les jours actuel­le­ment, des pro­grès consi­dé­rables sont en train d’être accom­plis dans dif­fé­rentes dis­ci­plines, ce qui pro­met des avan­cées spec­ta­cu­laires en matière d’intelligence arti­fi­cielle.

(a)Apprentissage profond

Depuis les années 1980, les infor­ma­ti­ciens et d’autres scien­ti­fiques ont pro­gres­si­ve­ment mis au point des modèles qui miment ce que l’on sait des élé­ments essen­tiels du fonc­tion­ne­ment du sys­tème ner­veux des ani­maux, sous la forme de réseaux de neu­rones arti­fi­ciels mul­ti­couches. Certaines théo­ries exis­taient déjà aupa­ra­vant, mais à cette époque, de toute façon, les machines n’étaient pas assez puis­santes.

[Ici, on voit Yann Le Cun, qui est un infor­ma­ti­cien fran­çais pion­nier dans la matière, pro­fes­seur au Collège de France et qui tra­vaille pour Facebook. Vous voyez, avec ce petit sché­ma, c’est tout de suite beau­coup plus clair.

Je ne vais pas ten­ter de vous l’expliquer : je n’en ai pas com­pris grand-chose non plus !]

Plus par­ti­cu­liè­re­ment, depuis les années 2010, une nou­velle évo­lu­tion appe­lée « l’apprentissage pro­fond » (en anglais deep lear­ning) a connu des avan­cées remar­quables dans dif­fé­rents domaines :

  • dans l’analyse du signal sonore ou visuel et notam­ment de la recon­nais­sance faciale,

    [Article CNN sur Facebook qui vous pro­pose un ser­vice où, une fois que vous avez iden­ti­fié quelques fois une per­sonne sur vos pho­tos, il peut ensuite recon­naître le visage de la per­sonne sur de nou­velles pho­tos, même sous un autre pro­fil. Cela sup­pose donc que l’ordinateur arrive à pro­je­ter en 3D une image qu’il reçoit en 2D.]

  • dans la recon­nais­sance vocale,

    [Nous connais­sons tous déjà la trans­crip­tion du texte dic­té. C’est main­te­nant uti­li­sé à une très large échelle avec les assis­tants de smart­phone, comme Siri ou « OK Google », qui com­binent la recon­nais­sance vocale avec la recherche, voire avec de la tra­duc­tion vers une autre langue.]

  • dans la vision par ordi­na­teur,

    [Facebook a mis en place des des­crip­tions tex­tuelles de toutes les images publiées, pour les non-voyants et pour mieux iden­ti­fier ce que ses uti­li­sa­teurs publient. Le sys­tème ne se limite pas à iden­ti­fier les objets sur la pho­to, il en fait une des­crip­tion arti­cu­lée assez fidèle, même d’éléments flous. Une tech­nique simi­laire est uti­li­sée pour la détec­tion de tumeurs sur de l’imagerie médi­cale.

    Cela a aus­si des appli­ca­tions indus­trielles, pour véri­fier la qua­li­té des pro­duits sur une chaîne de pro­duc­tion, par exemple détec­ter des défauts dans une ligne de pro­duc­tion de bou­teille, avec une rapi­di­té et une pré­ci­sion impos­sible pour l’œil humain.]

Dans le monde des super­or­di­na­teurs dotés d’une intel­li­gence arti­fi­cielle, il y a déjà quelques stars et vous en avez cer­tai­ne­ment déjà enten­du par­ler. « Deep Blue » et « Alpha Go » sont les plus connus.

C’est avec une com­bi­nai­son de ces tech­niques qu’en mai 2016 l’ordinateur « AlphaGo » de Google, a bat­tu le cham­pion du monde de jeu de go, 4 par­ties à 1.

« AlphaGo » est beau­coup plus évo­lué que « Deep Blue » d’IBM qui avait bat­tu Kasparov aux échecs en 1997.

  • « Deep Blue » dis­po­sait d’une base de don­nées énorme de tous les meilleurs coups joués dans les par­ties d’échecs par les plus grands maîtres. Il se basait là-des­sus pour choi­sir, par­mi cette base de don­nées, le meilleur mou­ve­ment à opé­rer contre l’adversaire auquel il était confron­té. C’était un grand expert, mais qui n’apprenait rien de plus que ce qu’il ne savait déjà.

    [Cultivé, roi du par cœur, arro­gant, insup­por­table parce qu’il nous bat alors que, au fond de nous-mêmes, nous savons qu’il est stu­pide. Cela vous fait pen­ser à quelqu’un ?… On en connaît tous des comme ça !]

  • « AlphaGo », lui, a aus­si reçu une base de don­nées avec des dérou­le­ments de 100.000 par­ties de jeux de go. Mais, il n’avait pas sim­ple­ment mémo­ri­sé ces par­ties, il a appris à jouer sur base de ces don­nées et conti­nuait à apprendre en jouant contre lui-même lors de 3 mil­lions de par­ties et à affi­ner son jeu en cours de par­tie contre le cham­pion du monde.

    Contrairement au jeu d’échec qui a un nombre de mou­ve­ments pos­sibles limi­tés, le jeu de go a un nombre de mou­ve­ments équi­valent au nombre d’atomes dans l’univers. Et là, Deep Blue, même avec sa mémoire d’éléphant fai­sait moins le malin.

    Il a donc fal­lu déve­lop­per un algo­rithme poly­va­lent7, sus­cep­tible d’apprendre non seule­ment le jeu de go, mais aus­si d’autres choses.

  • Fin jan­vier 2017, « Libratus », un pro­jet d’IA de l’École de science infor­ma­tique de l’Université de Carnegie Mellon (Pittsburgh), a accu­mu­lé les plus gros gains (plus de 1,7 M$) au poker Texas Hold’em contre les meilleurs joueurs actuels. Un d’eux a décla­ré : « Le robot devient de plus en plus fort chaque jour. Les deux pre­miers jours, nous avions de bons espoirs. Mais chaque fois que nous trou­vons une faille, il apprend de nous et son point faible dis­pa­raît le jour sui­vant ».

    Ce fait démontre l’habilité de la meilleure IA à faire des rai­son­ne­ments stra­té­giques en ayant une infor­ma­tion impar­faite et sur­tout de sur­pas­ser celle des meilleurs joueurs humains. La dif­fé­rence par rap­port aux échecs et au jeu de go, c’est que dans le poker, il faut miser sans avoir toutes les infor­ma­tions à dis­po­si­tion, voire en essayant d’induire les autres joueurs en erreur sur son jeu. L’ordinateur bluffe donc mieux que les humains.

Alors, on l’a com­pris, les humains ne peuvent plus riva­li­ser avec l’ordinateur pour ces jeux-là. Mais cela reste, avec tout le res­pect pour les joueurs d’échec, de go ou de poker, des domaines assez can­ton­nés, avec des règles bien claires. Un jeu, même très com­plexe demeure très limi­té. C’est un uni­vers bien cir­cons­crit et ordon­né, contrai­re­ment au monde réel8 ou au sachet de com­mis­sions rem­pli de « papiers » pêle-mêle que cer­tains clients nous apportent et avec les­quels nous allons devoir essayer de trou­ver des preuves convain­cantes pour les défendre.

Néanmoins, ce qui demeure le plus frap­pant, c’est la vitesse avec laquelle l’intelligence arti­fi­cielle s’améliore. Elle par­vient en effet en très peu de temps, avec son évo­lu­tion actuelle, à détrô­ner en un an des spé­cia­listes humains qui s’y sont for­més, eux, pen­dant des années avant d’arriver à ce niveau de com­pé­tence.

(b)Augmentation de la puissance de calcul des ordinateurs

Un autre élé­ment-clé actuel qui per­met l’avènement de l’intelligence arti­fi­cielle, c’est le niveau de puis­sance de cal­cul atteint par les ordi­na­teurs.

(i)Loi de Moore

Pour autant que l’analogie entre le sys­tème ner­veux des ani­maux – et plus spé­cia­le­ment, des humains – et l’ordinateur soit bien per­ti­nente, cer­tains estiment que la puis­sance de cal­cul d’un cer­veau humain moyen serait de l’ordre de 10 petaFLOPS9 (peta = 1015).

Un ordi­na­teur actuel de 1.000,00 € atteint envi­ron 4 gigaFLOPS (giga = 109).

En réa­li­té, la barre des 10 petaFLOPS a été fran­chie par un super­or­di­na­teur en 201110 et, en 2016, les Chinois ont atteint les 33 à 54 pétaFLOPS avec le super­cal­cu­la­teur « Tianhe-2 »11.

[Cela fait beau­coup de petaFLOPS !]

Autrement dit, actuel­le­ment déjà, des super­or­di­na­teurs existent avec une puis­sance de cal­cul plus que suf­fi­sante pour dépas­ser les capa­ci­tés, non pas d’une four­mi ou d’un rat, mais d’un cer­veau humain. Mais cela reste des machines rares et chères.

En plus, au niveau de la consom­ma­tion élec­trique, les super­cal­cu­la­teurs consomment, sui­vant les sources, de 4 à 15 MW (donc 4 à 15 mil­lions de Watts), c’est-à-dire entre 50 % et 5 réac­teurs d’une cen­trale nucléaire moderne pour l’alimenter, tan­dis qu’un humain, cer­veau com­pris (20 % de son éner­gie), consomme 63 W, c’est-à-dire la puis­sance d’une ampoule à incan­des­cence.

(ii)Ordinateurs « grand public »

La courbe d’évolution pré­vi­sible de la puis­sance des ordi­na­teurs « grand public » est expo­nen­tielle puisque l’on consi­dère que la puis­sance des ordi­na­teurs est dou­blée tous les 18 mois.

Sur base de ces esti­ma­tions, la vitesse des pro­grès va s’accélérer de manière inouïe et on devrait être capable d’émuler toute la com­plexi­té d’un cer­veau humain avec un ordi­na­teur « grand public » aux alen­tours de 2025.

©Récapitulatif

Pour réca­pi­tu­ler, jusqu’à aujourd’hui, on esti­mait que l’arrivée d’une intel­li­gence arti­fi­cielle convain­cante se pro­fi­lait à l’horizon, mais qu’elle n’était pas à la por­tée de la bourse ni du grand public, ni même de grandes socié­tés, mais seule­ment à celle de quelques gou­ver­ne­ments des plus grandes puis­sances mon­diales et de quelques géants des tech­no­lo­gies.

En clair, d’un point de vue éco­no­mique, si on sait faire mieux avec un ordi­na­teur de 1.000,00 € qu’en payant un sala­rié et que l’ordinateur coûte moins cher, un choix sera fait.

Mais ce n’est pas tout car, même dotés des ordi­na­teurs suf­fi­sam­ment puis­sants, les logi­ciels néces­saires n’étaient pas encore au point jusqu’à aujourd’hui pour arri­ver à des résul­tats convain­cants.

B.Pourquoi le droit se prête bien à l’IA ?

1.Le couple parfait ?

Bien, mais en quoi cela nous concerne-t-il ? Quel lien avec le droit ?

Plus que beau­coup d’autres branches de l’activité humaine, le droit se pré­sente comme un domaine où l’intelligence arti­fi­cielle pour­rait pros­pé­rer avec une aisance décon­cer­tante.

Quand un ingé­nieur ou un pro­gram­meur conçoit le tra­vail du juriste, il se dit que, à pre­mière vue, c’est très proche d’un jeu, avec des règles, des limi­ta­tions et un objec­tif à atteindre.

Si l’ordinateur a pu apprendre à jouer aux échecs et a réus­si à apprendre à battre le cham­pion du monde à un jeu plus com­plexe encore, le jeu de go, ou à bluf­fer comme le meilleur joueur de poker, il suf­fi­sait encore de quelques efforts, mais on devait arri­ver à faire la même chose avec le domaine du droit.

2.Ce que l’IA sait faire.

En réa­li­té déjà, l’intelligence arti­fi­cielle a inves­ti le ter­rain depuis un cer­tain temps.

Toutes les acti­vi­tés d’un juriste impliquent un trai­te­ment d’informations. Un ordi­na­teur traite des infor­ma­tions en exé­cu­tant des ins­truc­tions.

Pour auto­ma­ti­ser le tra­vail d’un juriste, il faut donc arri­ver à modé­li­ser son pro­ces­sus de trai­te­ment d’informations sous la forme d’une série d’instructions. En infor­ma­tique, on divise les ins­truc­tions en deux types :

  • ce que fait un ordi­na­teur clas­sique : il suit des ins­truc­tions déduc­tives qui sont les plus simples et qui per­mettent de trai­ter des infor­ma­tions dont la struc­ture est appa­rente.

    [Par exemple, le Jeune Barreau dis­pose d’une base de don­nées qui indique si vous avez payé ou non votre ticket pour aujourd’hui. L’ordinateur a iden­ti­fié tout le monde dans la salle. Et des spots ont été ins­tal­lés au-des­sus de vous. Si vous n’avez pas payé, l’ordinateur a reçu comme ins­truc­tion de poin­ter un laser rouge sur vous. Attention… [pause] Encore un « flop » ? Ah non ? C’est gra­tuit jusque main­te­nant ?]

  • ce qui est de plus en plus déve­lop­pé actuel­le­ment, ce sont les ins­truc­tions orien­tées par des don­nées qui per­mettent de trai­ter des infor­ma­tions dont la struc­ture est moins évi­dente.

    [Par exemple, comme vous n’aurez plus de tra­vail dès lun­di, il fau­dra peut-être que vous cour­riez à la banque faire un prêt avant qu’elle soit au cou­rant. N’essayez pas chez ING : ils sont là aus­si aujourd’hui. Pour savoir si vous serez capable de la rem­bour­ser, votre banque peut mettre au point une grille com­plexe qui se base­ra sur ce qu’elle sait déjà de vous (reve­nus, his­to­rique ban­caire, épargne, valeur de l’immeuble par rap­port au cré­dit, etc.). Sur base des sta­tis­tiques de tous ses clients, votre banque peut éta­blir une cor­ré­la­tion et des pro­ba­bi­li­tés entre cer­taines don­nées et le risque de défaut.]

    Toutefois, ce pro­cé­dé connaît des limites :

    • Le cal­cul de ces pro­ba­bi­li­tés est basé uni­que­ment sur cer­taines don­nées. Or, la banque pour­rait ne pas avoir pré­vu qu’un élé­ment exté­rieur, comme un krach bour­sier ou l’avènement inopi­né de l’intelligence arti­fi­cielle dans l’économie puissent faire péri­cli­ter tout le sys­tème, et vous avec lui. Dans ce cas, l’ensemble des pré­vi­sions futures est faus­sée et le sys­tème n’avertira pas la banque du risque d’erreur.

    • Par ailleurs, toutes les situa­tions ne sont pas tou­jours faci­le­ment modé­li­sables et le choix des don­nées à prendre en consi­dé­ra­tion en fonc­tion du contexte est sou­vent loin d’être évident12.

3.État des lieux

(a)Ce qui existe déjà pour le droit

Des appli­ca­tions existent déjà pour le droit :

  • Classification de docu­ments dans le cadre des pro­cé­dures de dis­co­ve­ry, c’est-à-dire, en droit éta­su­nien, les pro­cé­dures d’instruction préa­lables à un pro­cès civil concer­nant tous les docu­ments qui pour­raient être inté­res­sants pour une affaire. Dans ce cadre, il arrive que des mil­liers, voire des mil­lions de docu­ments très divers d’une entre­prise doivent être exa­mi­nés. Différents pro­grammes existent déjà pour loca­li­ser l’information per­ti­nente dans ce fouillis.

  • Dans le cadre de son pro­jet d’IA WATSON, IBM a déve­lop­pé dif­fé­rents pro­grammes, cer­tains pour la méde­cine, un autre orien­té droit, sous le nom de ROSS. Il serait capable de don­ner des réponses concises à des ques­tions for­mu­lées en lan­gage natu­rel, tout en four­nis­sant les réfé­rences légales, juris­pru­den­tielles et doc­tri­nales sur les­quelles il se base pour rendre son avis. Un peu comme le pro­jet Pythagoria envi­sa­gé par AVOCATS.BE.

  • Aux États-Unis, notam­ment dans l’État du Wisconsin, les juges uti­lisent, par­mi d’autres élé­ments, un pro­gramme qui pré­dit le risque de réci­dive et les capa­ci­tés de réin­ser­tion d’un condam­né, prin­ci­pa­le­ment donc dans les pro­cé­dures pénales et d’application des peines, comme on dirait chez nous13.

(b)Ce qui existe déjà dans d’autres disciplines

  • Dans le domaine médi­cal, des outils de diag­nos­tic, mais aus­si de recon­nais­sance de tumeur sur des images, qui arri­ve­rait à de meilleurs résul­tats que les méde­cins spé­cia­li­sés et che­vron­nés14 ;

  • Vous en avez peut-être déjà vu des vidéos sur Internet : le construc­teur amé­ri­cain de voi­tures Tesla a déve­lop­pé une voi­ture (élec­trique) pilo­tée par ordi­na­teur qui conduit avec une dex­té­ri­té impres­sion­nante et qui anti­cipe un acci­dent et évite un caram­bo­lage, là où un humain n’aurait rien détec­té15

    [Toutefois, elle ne pour­rait pas fonc­tion­ner à Verviers : elle ne va pas cher­cher toute seule le ticket de sta­tion­ne­ment !]
  • Autre exemple avec la publi­ci­té sur Internet que tout le monde connaît déjà : l’adaptation des publi­ci­tés pré­sen­tées aux conte­nus qui vous inté­ressent.

  • L’intelligence arti­fi­cielle se voit aus­si déjà confier des déci­sions de vie ou de mort sur des êtres vivants. Ainsi, dans l’agriculture, des pro­jets sont déve­lop­pés. Il y a ain­si un pro­jet où l’ordinateur repère les choux les plus pro­met­teurs sur base d’un contrôle visuel et éli­mine les autres. Cela peut évi­dem­ment être déve­lop­pé pour d’autres plantes.

4.Quelles difficultés peuvent être rencontrées par l’IA avec le droit ?

Alors, est-ce si simple ou y a-t-il quand même quelques dif­fi­cul­tés pour maî­tri­ser le droit avec l’intelligence arti­fi­cielle ?

(a)Le raisonnement juridique est-il si syllogistique que ça ?

D’abord, est-ce que le rai­son­ne­ment juri­dique est tou­jours suf­fi­sam­ment syl­lo­gis­tique pour être faci­le­ment modé­li­sable et, ain­si, à la por­tée de l’intelligence arti­fi­cielle ?

(i)Renvoi à la théorie du Grand Style (Karl LLEWELLYN)
Compréhension du droit

Si l’on suit la pen­sé des Lumières : « […] Les juges de la Nation ne sont […] que la bouche qui pro­nonce les paroles de la loi ; des êtres inani­més qui n’en peuvent modé­rer ni la force ni l’ardeur »16, a écrit Montesquieu. Il sem­blait donc croire que la loi n’avait qu’un sens et que la marge de manœuvre du juge était inexis­tante.

Or, même en vou­lant être objec­tif, le juriste reste un homme qui ne peut com­prendre le monde qu’à tra­vers son expé­rience per­son­nelle ; et celui qui a une autre expé­rience pour­ra sou­vent avoir l’impression que l’autre est biai­sé dans son inter­pré­ta­tion du texte.

Le droit, c’est sans doute un ensemble de règles, mais elles sont moins claires que celles d’un jeu d’échec ou de go, voire de poker.

Les pro­fanes trouvent cela contre-intui­tif et l’esprit d’un ingé­nieur habi­tué aux lois de la phy­sique lève­ra sans doute les sour­cils, mais les juristes le savent, une loi n’est pas inter­pré­tée de manière iden­tique sui­vant les juges et sui­vant le contexte de l’affaire.

Compréhension des faits

Réduction des faits à une pro­blé­ma­tique juri­dique (qua­li­fi­ca­tion juri­dique)

L’histoire com­plète d’une affaire n’est pas utile pour résoudre la ques­tion juri­dique qu’elle pose. Seuls cer­tains aspects en sont rete­nus comme per­ti­nents pour arri­ver à la solu­tion du litige.

Présentation des faits dans le contexte par­ti­cu­lier

Que ce soit au niveau de la pré­sen­ta­tion – par­tiale – qui en est faite par les avo­cats ou bien au niveau de celle fina­le­ment rete­nue par le juge – qui doit pré­sen­ter une forme d’objectivité –, cer­tains élé­ments seront mis en avant ou occul­tés, pour arri­ver à l’issue recher­chée.

Le dogme vou­drait que le juge com­mence par éta­blir objec­ti­ve­ment les faits, pour ensuite dérou­ler un rai­son­ne­ment juri­dique impar­tial et seule­ment, enfin, en tirer une conclu­sion finale.

Pourtant, en pra­tique, même si c’est incons­ciem­ment, même si ce n’est pas poli­ti­que­ment cor­rect de le dire, le che­min se fait plu­tôt à l’envers : le juge aura ten­dance à d’abord iden­ti­fier le résul­tat qu’il pressent comme juste, puis, seule­ment ensuite à habiller sa déci­sion par une moti­va­tion fac­tuelle et juri­dique qui per­mette d’arriver à l’issue qu’il trouve juste.

(ii)Objectif du juriste : interprétation en vue de cet objectif

Il y a donc une impres­sion qui se forme d’abord, une intui­tion qui se dégage devant la com­plexi­té de l’affaire, avant de pas­ser à un pro­ces­sus rai­son­né. Une fois l’intuition de ce qui est juste acquise et sauf impasse fac­tuelle ou juri­dique, la déci­sion sui­vra cette orien­ta­tion.

Une étude récente de pré­dic­tion des déci­sions de la Cour euro­péenne des droits de l’Homme a conclu que :

« En géné­ral, […] nos résul­tats pour­raient être inter­pré­tés comme une cer­taine confir­ma­tion de l’intuition fon­da­men­tale du réa­lisme juri­dique selon laquelle les juges sont plu­tôt influen­cés par des motifs non-juri­diques que juri­diques, quand ils sont confron­tés à des affaires dif­fi­ciles. »17

(iii)Bienfaits attendus

Face à cette réa­li­té, le dog­ma­tisme redoute l’arbitraire, le sen­ti­men­ta­lisme dérai­son­né. Il pré­co­nise une approche robo­ti­sée qu’il trouve pré­fé­rable, puisque déta­chée de tout sen­ti­ment, de toute influence d’ordre poli­tique, reli­gieux ou phi­lo­so­phique, per­son­nelle.

Un ordi­na­teur ne sera donc pas influen­cé par ses sen­ti­ments ou ses convic­tions per­son­nelles, ni par son vécu, et livre­ra une solu­tion pure­ment objec­tive et impar­tiale.

(iv)Illusion néfaste de la vérité uni(vo)que

Mais est-ce seule­ment pos­sible d’avoir ce regard com­plè­te­ment déta­ché et objec­tif sur la réa­li­té ? Y a-t-il tou­jours une véri­té, unique et uni­voque ?

Confusion entre faits bruts et faits sociaux ou issus de la raison

La véri­té judi­ciaire, celle sur laquelle se base le juriste, n’est pas la véri­té scien­ti­fique.

C’est davan­tage une construc­tion sociale.

Le droit n’admet pas toutes les véri­tés, même si elles sont objec­ti­ve­ment prou­vées.

  • Par exemple, pour des rai­sons morales, une preuve obte­nue de manière déloyale sera reje­tée, alors qu’un enre­gis­tre­ment sonore de la voix d’une per­sonne, même faite à son insu, prouve indu­bi­ta­ble­ment les menaces ou les insultes qu’elle a pro­fé­rées.

  • Ou bien, le droit invente une réa­li­té qui n’existe pas, par des fic­tions. Par exemple, le droit fis­cal limite le coût admis pour les dépla­ce­ments pro­fes­sion­nels, alors qu’il peut être clai­re­ment démon­tré que le coût réel est supé­rieur.

  • Ou encore, le droit n’aura aucune consi­dé­ra­tion, pour la filia­tion bio­lo­gique, prou­vée par l’ADN, mais ne tien­dra compte que de la réa­li­té, beau­coup plus floue, des rela­tions nouées avec celui qui s’est cru être le père de l’enfant.

  • Ou encore, le droit refuse de se pen­cher sur une ques­tion, parce que trop de temps s’est écou­lé, même si toutes les preuves de ce qui s’est pas­sé existent encore.

Et les cir­cons­tances qui vont faire que l’on s’écarte ou non d’un fait brut, comme l’intérêt de l’enfant, sont des concepts creux qui seront déter­mi­nés par un res­sen­ti très sub­jec­tif et assez incer­tain.

Incidence de la connaissance tacite18

Ce que nous savons ne peux pas tou­jours être expli­qué.

Nous savons faire beau­coup de choses que l’on ne nous a pas expres­sé­ment apprises.

Ces com­pé­tences qui ne sont pas clai­re­ment for­ma­li­sées sont dif­fi­ciles à trans­mettre à un ordi­na­teur. Or, pour fonc­tion­ner comme un humain, l’ordinateur en aura aus­si besoin.

Les der­nières avan­cées dans l’étude de l’intelligence ani­male laissent pen­ser qu’il existe de très hautes formes d’intelligence qui ne sont pas ver­bales et qui n’ont pas besoin d’un lan­gage pour s’exprimer19.

Dans le droit comme dans d’autres domaines, l’approche pour la réso­lu­tion d’un pro­blème néces­site un pro­ces­sus com­plexe que l’on ne nous a pas expli­qué dans le détail de ses arti­cu­la­tions. Et pour­tant, c’est une com­pé­tence innée que nous met­tons en œuvre à lon­gueur de jour­née, pas seule­ment pour nos acti­vi­tés pro­fes­sion­nelles.

Or, l’IA marche bien avec des faits bruts, mais elle est impuissante face à certaines complexités.

(b)Rassemblement d’une masse critique de données exploitables

Une autre ques­tion concerne le ras­sem­ble­ment d’une masse de don­nées exploi­tables suf­fi­santes.

C’est le « big data ».

En effet, pour que l’IA fonc­tionne, il lui faut des ordi­na­teurs suf­fi­sam­ment puis­sants, des logi­ciels suf­fi­sam­ment bien pen­sés pour per­mettre à l’ordinateur de trai­ter tout seul l’information, mais il lui faut aus­si et sur­tout beau­coup et même énor­mé­ment d’informations pour « apprendre ».

Pour le droit, ceci ne semble a prio­ri pas un obs­tacle : il suf­fit de prendre comme base de don­nées toute la juris­pru­dence qui existe. Le SPF Justice a mis en place une base don­nées appe­lée VAJA (pour « Vonnis Arresten Jugements Arrêts ») qui cen­tra­lise toutes les déci­sions. Vous y ajou­tez toutes la doc­trine publiée et le tour est joué !

Eh bien pas vrai­ment : il faut encore que l’ordinateur découvre une struc­ture suf­fi­sam­ment claire dans toutes ces don­nées.

En plus, pour arri­ver à de bonnes per­for­mances de rai­son­ne­ment, il faut que l’IA ait à sa dis­po­si­tion un très grand nombre d’exemples de bonnes réponses à la même ques­tion, au même pro­blème.

Pour le jeu d’échec ou la radio­lo­gie, ce n’est pas trop com­pli­qué. Mais y a-t-il une mul­ti­tude de déci­sions de jus­tice sur toutes les situa­tions envi­sa­geables ? Pas tou­jours.

©Mystère sur le « raisonnement » de l’ordinateur

Un autre pro­blème se pose concer­nant ce qu’un juriste appel­le­rait la ques­tion de la « moti­va­tion » de la déci­sion de l’IA.

En effet, les plus grands spé­cia­listes en la matière avouent qu’ils sont inca­pables de com­prendre l’intégralité du che­mi­ne­ment effec­tué par les algo­rithmes extrê­me­ment sophis­ti­qués construits par l’IA. C’est beau­coup trop com­plexe pour un humain de mémo­ri­ser la quan­ti­té d’informations qui est uti­li­sée pour y arri­ver et cela dépasse aus­si les capa­ci­tés de cal­cul d’un humain.

On peut donc voir sur quoi l’ordinateur se base et le résul­tat qu’il donne, mais on ne com­prend pas le détail du trai­te­ment de l’information qu’il opère pour arri­ver à ce résul­tat.

Cela peut poser de sérieux pro­blèmes éthiques. Par exemple, dans les États des États-Unis qui uti­lisent déjà l’IA pour éva­luer le risque de réci­dive d’un can­di­dat à la libé­ra­tion condi­tion­nelle, on s’aperçoit que des indi­vi­dus dan­ge­reux, mais blancs, obtiennent un résul­tat plus favo­rable que les autres. Pourquoi ? On sup­pose que c’est la consé­quence du fait que l’IA s’est basée sur la juris­pru­dence exis­tante qui com­porte sta­tis­ti­que­ment moins de condam­na­tions de blancs. Et l’IA y trouve une cor­ré­la­tion qui n’est d’abord pas per­ti­nente pour sa pré­dic­tion, mais qui implique sur­tout une dis­cri­mi­na­tion éthi­que­ment condam­nable20.

(d)Facile à duper

Une autre fra­gi­li­té de l’IA, c’est qu’une fois que l’on a sai­si les cri­tères qu’elle estime les plus per­ti­nents pour obte­nir la déci­sion que l’on sou­haite, il suf­fit de lui mettre en avant ce qu’elle cherche et de lui cacher, même assez gros­siè­re­ment, ce qu’on ne veut pas qu’elle voie pour la duper.

[Il paraît que l’on peut déjà faire la même chose avec cer­tains juges, une fois que l’on a com­pris quelle était leur marotte. Je n’oserais pas le pré­tendre.]

Ainsi, on pour­rait pen­ser uti­li­ser l’IA pour pro­cé­der à des écoutes de sus­pect. L’IA trans­cri­rait toutes leurs conver­sa­tions, puis iso­le­rait ce qui est inté­res­sant. Des méthodes sem­blables sont déjà uti­li­sées par les avo­cats amé­ri­cains qui doivent exa­mi­ner tous les docu­ments d’une entre­prise.

Eh bien, en matière de stu­pé­fiants, on voit sou­vent les pré­ve­nus par­ler de « lai­tues », d’« épices », etc. dans leurs conver­sa­tions télé­pho­niques pour mas­quer le véri­table objet de leur tra­fic. Il y a un risque que l’IA n’y ver­rait qu’une conver­sa­tion d’épicier et se ferait ber­ner par une tech­nique aus­si gros­sière.

(e)Raisonnement construit sur les données du passé, sans créativité, alors que l’évolution de la société amène à une évolution de ses règles

Un autre sérieux sou­ci est posé par le fait que l’IA construit ses rai­son­ne­ments sur une masse de don­nées. Or, ces don­nées sont for­cé­ment recueillies dans le pas­sé. Et l’IA se contente d’y recher­cher une logique.

Le pro­blème, c’est qu’en rai­son­nant ain­si, on ne tient pas compte d’évolutions contex­tuelles qui devrait entraî­ner une modi­fi­ca­tion des règles.

Or, le droit ne doit pas être figé ; il doit évo­luer avec la socié­té.

Cela néces­site de la créa­ti­vi­té : le juriste doit appli­quer des règles pré­vues pour une autre situa­tion au cas qui l’occupe pour trou­ver une solu­tion. Ou bien il doit se rendre compte qu’une règle, construite à une autre époque, dans un autre contexte, doit être adap­tée, voire par­fois écar­tée.

Appliquer bête­ment une règle sans se poser de ques­tion, c’est par­fois dans l’intérêt d’une par­tie, mais ce n’est pas le som­met de l’art et cela peut mener à des injus­tices criantes. Summum jus, sum­ma inju­ria.

III.Péroraison

« Non », IAVe a répon­du et sa réponse est « non ».

[C’était peut-être la bonne réponse à don­ner quand on vous demande de faire le dis­cours de Rentrée…]

À la ques­tion de savoir si l’intelligence arti­fi­cielle rem­pla­ce­ra les pro­fes­sions juri­diques, je pense qu’il faut faire la même réponse.

Non : cer­taines tâches pour­ront être confiées à des ordi­na­teurs qui le feront mieux et pour moins cher qu’un humain et il fau­dra s’adapter et en tirer pro­fit.

Mais,

Mesdames, Messieurs les magis­trats, les notaires, les huis­siers, mes chers confrères :

Non, l’ordinateur ne vous a pas rem­pla­cés ; l’intelligence arti­fi­cielle ne vous pas dépas­sés. Pas encore.

Un robot n’est pas encore prêt à faire preuve de la créa­ti­vi­té, de l’empathie, des sen­ti­ments, de l’indignation, de l’humour par­fois aus­si qui sont essen­tiels au bon exer­cice de vos fonc­tions. Et ces qua­li­tés res­tent actuel­le­ment, de loin, le mono­pole de l’humanité.

En sera-t-il tou­jours ain­si ? Cela res­te­ra-t-il le propre des femmes et des hommes ?

Je le crois encore pour long­temps, mais qui sait ?

1Richard SUSSKIND, The End Of Lawyers : Rethinking The Nature Of Legal Services (Oxford Univ. Press 2010).

2John MARKOFF, “Armies of Expensive Lawyers, Replaced by Cheaper Software”, N.Y. Times, Mar. 5, 2011, at A1.

3Au prin­temps 2016, IBM a pré­sen­té ROSS, “Your brand new arti­fi­cial­ly intel­li­gent lawyer”

4 Laurent ALEXANDRE et Olivier BABEAU, « Confions la jus­tice à l’intelligence arti­fi­cielle ! », Les Échos, 21 sep­tembre 2016

5Passage ins­pi­ré de Steve Jobs lors de son iPhone Keynote 2007, http://www.european-rhetoric.com/analyses/ikeynote-analysis-iphone/transcript-2007/

6Shai Danzigera, Jonathan Levavb, Liora Avnaim-Pessoa, « Extraneous fac­tors in judi­cial deci­sions », PNAS, vol. 108 no. 17, 2011 http://www.pnas.org/content/108/17/6889.full

7Basé sur les tech­niques d’appren­tis­sage par ren­for­ce­ment (« L’apprentissage par ren­for­ce­ment fait réfé­rence à une classe de pro­blèmes d’apprentissage auto­ma­tique, dont le but est d’apprendre, à par­tir d’expériences, ce qu’il convient de faire en dif­fé­rentes situa­tions, de façon à opti­mi­ser une récom­pense quan­ti­ta­tive au cours du temps. » https://fr.wikipedia.org/wiki/Apprentissage_par_renforcement) et d’apprentissage pro­fond (« L’apprentissage pro­fond1 (en anglais deep lear­ning, deep struc­tu­red lear­ning, hie­rar­chi­cal lear­ning) est un ensemble de méthodes d’appren­tis­sage auto­ma­tique ten­tant de modé­li­ser avec un haut niveau d’abstraction des don­nées grâce à des archi­tec­tures arti­cu­lées de dif­fé­rentes trans­for­ma­tions non linéaires[réf. sou­hai­tée]. Ces tech­niques ont per­mis des pro­grès impor­tants et rapides dans les domaines de l’analyse du signal sonore ou visuel et notam­ment de la recon­nais­sance faciale, de la recon­nais­sance vocale, de la vision par ordi­na­teur, du trai­te­ment auto­ma­ti­sé du lan­gage. Dans les années 2000, ces pro­grès ont sus­ci­té des inves­tis­se­ments pri­vés, uni­ver­si­taires et publics impor­tants, notam­ment de la part du GAFA (Google, Apple, Facebook, Amazon)2. » https://fr.wikipedia.org/wiki/Apprentissage_profond).

8“That star­ting point was, of course, games. They’re actual­ly a good test for arti­fi­cial intel­li­gence. By defi­ni­tion, games are constrai­ned. They’re lit­tle bot­tled uni­verses where, unlike in real life, you can objec­ti­ve­ly judge suc­cess and fai­lure, vic­to­ry and defeat. DeepMind set out to com­bine rein­for­ce­ment lear­ning with deep lear­ning, a newish approach to fin­ding pat­terns in enor­mous data sets. To figure out if it was wor­king, the resear­chers taught their fled­gling AI to play Space Invaders and Breakout.” https://www.wired.com/2016/05/google-alpha-go-ai/

9« FLOPS : opé­ra­tion en vir­gule flot­tante par seconde (en anglais : floa­ting-point ope­ra­tion per second) » https://fr.wikipedia.org/wiki/FLOPS

10« En juin 2011, le plus puis­sant super­or­di­na­teur atteint les 8,162 pétaFLOPS. Il s’agit du K computer4. Ce super­or­di­na­teur japo­nais tota­lise 68 544 pro­ces­seurs de 8 cœurs et dis­pose d’une puis­sance de cal­cul supé­rieure à celle de ses 5 sui­vants réunis. Ce même super­cal­cu­la­teur a bat­tu son propre record en octobre 2011 en attei­gnant la barre des 10 pétaFLOPS. Il dis­po­sait à ce moment de 88 128 pro­ces­seurs de 8 cœurs [Supercalculateurs : le Fujitsu « K » atteint les 10 péta­flops [archive], sur zdnet.fr, 3 novembre 2011 (consul­té le 13 février 2015).].

(…)

En 2016, le super­cal­cu­la­teur embar­qué Deep Learning System (DGX-1) de Nvidia avec 8 Tesla P100 inté­grées a une puis­sance d’environ 170 téraFLOPS, il est d’une puis­sance com­pa­rable aux super­or­di­na­teurs de 200510. » https://fr.wikipedia.org/wiki/FLOPS#cite_ref-5

12Cf. infra : Incidence de la connais­sance tacite, p. 11

13Zeynep Tufekci, “Machine intel­li­gence makes human morals more impor­tant”, TED Summit, June 2016, https://www.ted.com/talks/zeynep_tufekci_machine_intelligence_makes_human_morals_more_important

14Taylor Kubota, “Deep lear­ning algo­rithm does as well as der­ma­to­lo­gists in iden­ti­fying skin can­cer”, Stanford News, 25/01/2017, http://news.stanford.edu/2017/01/25/artificial-intelligence-used-identify-skin-cancer/

15Julien Cadot, « L’Autopilot d’une Tesla pré­dit un acci­dent et par­vient à l’éviter », Numerama, 28 décembre 2016, http://www.numerama.com/tech/220478-lautopilot-dune-tesla-predit-un-accident-et-parvient-a-leviter.html vidéo : https://www.youtube.com/watch?time_continue=29&v=9fcRlWQF_uU

16Montesquieu, Esprit des Lois, liv. XI, chap. VI, 1777, Garnier, p. 327.

17Aletras N, Tsarapatsanis D, Preoţiuc-Pietro D, Lampos V. (2016) Predicting judi­cial deci­sions of the European Court of Human Rights : a Natural Language Processing pers­pec­tive. PeerJ Computer Science 2:e93 https://doi.org/10.7717/peerj-cs.93

18V. e.a. : Polanyi, Michael. « The Tacit Dimension ». First publi­shed Doubleday & Co, 1966. Reprinted Peter Smith, Gloucester, Mass, 1983. Chapter 1 : « Tacit Knowing » ; The tyran­ny of tacit know­ledge : What arti­fi­cial intel­li­gence tells us about know­ledge repre­sen­ta­tion. Kurt D. Fenstermacher https://www.computer.org/csdl/proceedings/hicss/2005/2268/08/22680243a.pdf

19Frans de Waal (pri­ma­to­logue et étho­logue), Sommes-nous trop ”bêtes” pour com­prendre l’intelligence des ani­maux ?, LLL, 2016. https://www.franceinter.fr/emissions/la-tete-au-carre/la-tete-au-carre-10-octobre-2016 ; https://www.franceinter.fr/emissions/l-invite-de-8h20/l-invite-de-8h20-04-octobre-2016

20Cf. note 13