Dis­cours pronon­cé lors de la séance solen­nelle de Ren­trée du Bar­reau de Verviers le 25 mars 2017 par Me Geof­frey DELIÉGE.

Ceci est une révolution (artificielle)

Mes­dames, Messieurs en vos titres et qualités,

Chers con­frères,

Chère Famille, chères amies, chers amis,

Mer­ci beau­coup d’être venus.

Mer­ci car tous ensem­ble aujourd’hui, nous allons vivre un instant qui va mar­quer l’histoire.

I.Introduction

1.Discours par un robot : on prédit notre remplacement imminent.

Vous croyiez que vous ne le ver­riez pas de votre vivant : eh bien, le pro­grès vous a dépassés.

Ça ne nous fait sans doute pas plaisir, mais nous célébrons ici, non pas la dernière ren­trée du Bar­reau de Verviers, mais la dernière man­i­fes­ta­tion d’un bar­reau tout court. Notre pro­fes­sion crée trop de prob­lèmes, elle a vécu. Les juristes n’ont plus de rai­son d’être. Les juges, les cours et tri­bunaux, les mag­is­trats assis, debout, couchés et tout le saint-frusquin de la démoc­ra­tie, c’est ter-mi-né.

Dans un instant, un pas va être franchi et c’est sûr, on ne fera pas deux pas en arrière ensuite : après ça, vous pour­rez aller ranger votre déguise­ment suran­né au ves­ti­aire et boire un bon coup avant de vous recon­ver­tir, mais je me demande bien en quoi.

L’ordinateur vous a rem­placés. L’intelligence arti­fi­cielle vous a dépassés. Et le con­som­ma­teur a juste envie de vous dire, le sourire aux lèvres : « Adieu ! ».

En même temps, ce n’est pas une sur­prise. Si vous lisez les jour­naux, on vous l’a annon­cé depuis pas mal de temps et, ces temps-ci, on vous l’aura assez répété. Je cite :

  • La fin des juristes (SUSSKIND, 2010)1,

  • Des armées d’avocats coû­teux, rem­placées par des logi­ciels meilleurs marché (2011)2,

  • ROSS d’IBM, votre juriste arti­fi­cielle­ment intel­li­gent flam­bant neuf (N.Y. Times, 2016)3,

  • Con­fions la jus­tice à l’intelligence arti­fi­cielle ! (Lau­rent ALEXANDRE, 2016)4

    (Je pour­rais en citer d’autres.)

Cer­tains esti­ment que l’intelligence arti­fi­cielle est le grand sujet de société qui devrait être au cen­tre des préoc­cu­pa­tions actuelles, car c’est la prochaine vague de révo­lu­tion tech­nologique. Elle va défer­ler et elle va tout chang­er, bien plus et bien plus vite que toutes les inno­va­tions déjà con­nues. Bien plus que les machines à vapeur, le moteur à explo­sion ou même l’électricité, l’invention du tran­sis­tor ou de l’ordinateur et même d’Internet. Tout va être com­plète­ment boulever­sé : toute notre société, notre économie et nos valeurs ; même l’idée que nous nous faisons des indi­vidus et de la nature humaine.

Alors, main­tenant, si vous voulez bien, si cela vous intéresse, j’aimerais lancer cette démonstration.

C’est une grande fierté pour la com­mis­sion infor­ma­tique du Bar­reau de Verviers d’y avoir tra­vail­lé sans relâche, avec un dévoue­ment et un engage­ment com­plets et une dis­cré­tion totale, comme c’est son habi­tude. Mais nous ne l’avons pas fait seuls, évidem­ment : nous avons col­laboré avec une équipe de chercheurs, de sci­en­tifiques de haut vol, de grands ent­hou­si­astes que je tiens à remercier.

Car aujourd’hui, ce n’est pas moi, mais l’intelligence arti­fi­cielle qui va pronon­cer le dis­cours de Ren­trée et vous ne pour­rez plus avoir de doute, après ceci, que tout ce que vous avez con­nu est révolu et qu’aucun être humain ne pour­ra plus avoir l’ambition d’espérer lui arriv­er à la cheville.

Et c’est donc un grand géant de l’informatique qui a bien caché son jeu et qui a habile­ment décidé de faire cette pre­mière, aujourd’hui, à Dison, là où per­son­ne ne pou­vait s’y atten­dre, ni pren­dre l’information trop au sérieux, mal­gré qu’elle ait été ren­due publique.

C’est un jour que nous atten­dions avec impatience.

De temps en temps, une révo­lu­tion inter­vient. Une révo­lu­tion qui change tout. Et c’est une chance de la vivre. C’est une plus grande chance encore d’y par­ticiper, ne serait-ce qu’une seule fois dans sa car­rière.5

Je le répète : cette révo­lu­tion n’au­ra pas d’im­pact seule­ment sur le Bar­reau de Verviers ou les avo­cats en général, mais sur notre société toute entière, sur le monde, sur l’avenir de l’humanité.

Ce pro­jet a un nom, nous l’appelons « IAVe ». C’est un acronyme pour « Intel­li­gence Arti­fi­cielle Verviers » et un jeu de mots que ceux qui ont fait du catéchisme pour­ront deviner.

« IAVe, je te prie de com­mencer et de pronon­cer le dis­cours de Ren­trée ! Éblouis-nous ! »

II.Corps

A.IA : Qu’est-ce que c’est et comment ça marche ?

1.Définition

C’est un pro­jet basé sur l’intelligence artificielle.

Main­tenant, qu’est-ce que l’intelligence ? qu’est-ce qui est arti­fi­ciel ? Vous com­prenez bien : tout le monde n’est pas d’accord, mais on choisit sou­vent de les définir par rap­port au résul­tat qu’on attend d’elles :

  • Dans une pre­mière vision : cer­tains esti­ment qu’une machine doit être capa­ble de pro­duire des raison­nements qui ont toutes les apparences de celui d’un humain. L’ordinateur doit mimer l’humain.

  • D’autres esti­ment que la machine doit être capa­ble de pro­duire des raison­nements de ratio­nal­ité pure, au-delà des capac­ités lim­itées d’un humain. C’est une autre vision, voire un pas plus loin.

Pour pren­dre un exem­ple, une étude israéli­enne6 a mon­tré que, devant l’équivalent de leur Tri­bunal d’application des peines, les pris­on­niers qui com­para­is­saient peu après le déje­uner du juge avaient plus de chance de sor­tir que ceux qui arrivaient peu avant midi, quand l’estomac du juge com­mençait à s’impatienter de recevoir son dîner.

  • L’intelligence arti­fi­cielle, dans ce cas, devrait soit traiter les cas de manière égale, dans une ratio­nal­ité pure ;

  • soit, pour s’approcher plus de l’humain, devenir moins indul­gent, comme vous le serez avec la réplique du bâton­nier, à mesure que votre appétit grandi­ra et que votre patience diminuera.

2.Pourquoi est-ce vraiment d’actualité depuis peu ?

Depuis quelques années et tous les jours actuelle­ment, des pro­grès con­sid­érables sont en train d’être accom­plis dans dif­férentes dis­ci­plines, ce qui promet des avancées spec­tac­u­laires en matière d’intelligence artificielle.

(a)Apprentissage profond

Depuis les années 1980, les infor­mati­ciens et d’autres sci­en­tifiques ont pro­gres­sive­ment mis au point des mod­èles qui miment ce que l’on sait des élé­ments essen­tiels du fonc­tion­nement du sys­tème nerveux des ani­maux, sous la forme de réseaux de neu­rones arti­fi­ciels mul­ti­couch­es. Cer­taines théories exis­taient déjà aupar­a­vant, mais à cette époque, de toute façon, les machines n’étaient pas assez puissantes.

[Ici, on voit Yann Le Cun, qui est un infor­mati­cien français pio­nnier dans la matière, pro­fesseur au Col­lège de France et qui tra­vaille pour Face­book. Vous voyez, avec ce petit sché­ma, c’est tout de suite beau­coup plus clair.

Je ne vais pas ten­ter de vous l’expliquer : je n’en ai pas com­pris grand-chose non plus !]

Plus par­ti­c­ulière­ment, depuis les années 2010, une nou­velle évo­lu­tion appelée « l’ap­pren­tis­sage pro­fond » (en anglais deep learn­ing) a con­nu des avancées remar­quables dans dif­férents domaines :

  • dans l’analyse du sig­nal sonore ou visuel et notam­ment de la recon­nais­sance faciale,

    [Arti­cle CNN sur Face­book qui vous pro­pose un ser­vice où, une fois que vous avez iden­ti­fié quelques fois une per­son­ne sur vos pho­tos, il peut ensuite recon­naître le vis­age de la per­son­ne sur de nou­velles pho­tos, même sous un autre pro­fil. Cela sup­pose donc que l’ordinateur arrive à pro­jeter en 3D une image qu’il reçoit en 2D.] 

  • dans la recon­nais­sance vocale,

    [Nous con­nais­sons tous déjà la tran­scrip­tion du texte dic­té. C’est main­tenant util­isé à une très large échelle avec les assis­tants de smart­phone, comme Siri ou « OK Google », qui com­bi­nent la recon­nais­sance vocale avec la recherche, voire avec de la tra­duc­tion vers une autre langue.] 

  • dans la vision par ordinateur,

    [Face­book a mis en place des descrip­tions textuelles de toutes les images pub­liées, pour les non-voy­ants et pour mieux iden­ti­fi­er ce que ses util­isa­teurs pub­lient. Le sys­tème ne se lim­ite pas à iden­ti­fi­er les objets sur la pho­to, il en fait une descrip­tion artic­ulée assez fidèle, même d’éléments flous. Une tech­nique sim­i­laire est util­isée pour la détec­tion de tumeurs sur de l’imagerie médicale.

    Cela a aus­si des appli­ca­tions indus­trielles, pour véri­fi­er la qual­ité des pro­duits sur une chaîne de pro­duc­tion, par exem­ple détecter des défauts dans une ligne de pro­duc­tion de bouteille, avec une rapid­ité et une pré­ci­sion impos­si­ble pour l’œil humain.] 

Dans le monde des super­or­di­na­teurs dotés d’une intel­li­gence arti­fi­cielle, il y a déjà quelques stars et vous en avez cer­taine­ment déjà enten­du par­ler. « Deep Blue » et « Alpha Go » sont les plus connus.

C’est avec une com­bi­nai­son de ces tech­niques qu’en mai 2016 l’ordinateur « Alpha­Go » de Google, a bat­tu le cham­pi­on du monde de jeu de go, 4 par­ties à 1.

« Alpha­Go » est beau­coup plus évolué que « Deep Blue » d’IBM qui avait bat­tu Kas­parov aux échecs en 1997.

  • « Deep Blue » dis­po­sait d’une base de don­nées énorme de tous les meilleurs coups joués dans les par­ties d’échecs par les plus grands maîtres. Il se basait là-dessus pour choisir, par­mi cette base de don­nées, le meilleur mou­ve­ment à opér­er con­tre l’adversaire auquel il était con­fron­té. C’était un grand expert, mais qui n’apprenait rien de plus que ce qu’il ne savait déjà.

    [Cul­tivé, roi du par cœur, arro­gant, insup­port­able parce qu’il nous bat alors que, au fond de nous-mêmes, nous savons qu’il est stu­pide. Cela vous fait penser à quelqu’un ?… On en con­naît tous des comme ça !] 

  • « Alpha­Go », lui, a aus­si reçu une base de don­nées avec des déroule­ments de 100.000 par­ties de jeux de go. Mais, il n’avait pas sim­ple­ment mémorisé ces par­ties, il a appris à jouer sur base de ces don­nées et con­tin­u­ait à appren­dre en jouant con­tre lui-même lors de 3 mil­lions de par­ties et à affin­er son jeu en cours de par­tie con­tre le cham­pi­on du monde.

    Con­traire­ment au jeu d’échec qui a un nom­bre de mou­ve­ments pos­si­bles lim­ités, le jeu de go a un nom­bre de mou­ve­ments équiv­a­lent au nom­bre d’atomes dans l’univers. Et là, Deep Blue, même avec sa mémoire d’éléphant fai­sait moins le malin.

    Il a donc fal­lu dévelop­per un algo­rithme poly­va­lent7, sus­cep­ti­ble d’apprendre non seule­ment le jeu de go, mais aus­si d’autres choses.

  • Fin jan­vi­er 2017, « Libra­tus », un pro­jet d’IA de l’École de sci­ence infor­ma­tique de l’Université de Carnegie Mel­lon (Pitts­burgh), a accu­mulé les plus gros gains (plus de 1,7 M$) au pok­er Texas Hold’em con­tre les meilleurs joueurs actuels. Un d’eux a déclaré : « Le robot devient de plus en plus fort chaque jour. Les deux pre­miers jours, nous avions de bons espoirs. Mais chaque fois que nous trou­vons une faille, il apprend de nous et son point faible dis­paraît le jour suivant ».

    Ce fait démon­tre l’habilité de la meilleure IA à faire des raison­nements stratégiques en ayant une infor­ma­tion impar­faite et surtout de sur­pass­er celle des meilleurs joueurs humains. La dif­férence par rap­port aux échecs et au jeu de go, c’est que dans le pok­er, il faut miser sans avoir toutes les infor­ma­tions à dis­po­si­tion, voire en essayant d’induire les autres joueurs en erreur sur son jeu. L’ordinateur bluffe donc mieux que les humains.

Alors, on l’a com­pris, les humains ne peu­vent plus rivalis­er avec l’ordinateur pour ces jeux-là. Mais cela reste, avec tout le respect pour les joueurs d’échec, de go ou de pok­er, des domaines assez can­ton­nés, avec des règles bien claires. Un jeu, même très com­plexe demeure très lim­ité. C’est un univers bien cir­con­scrit et ordon­né, con­traire­ment au monde réel8 ou au sachet de com­mis­sions rem­pli de « papiers » pêle-mêle que cer­tains clients nous appor­tent et avec lesquels nous allons devoir essay­er de trou­ver des preuves con­va­in­cantes pour les défendre.

Néan­moins, ce qui demeure le plus frap­pant, c’est la vitesse avec laque­lle l’intelligence arti­fi­cielle s’améliore. Elle parvient en effet en très peu de temps, avec son évo­lu­tion actuelle, à détrôn­er en un an des spé­cial­istes humains qui s’y sont for­més, eux, pen­dant des années avant d’arriver à ce niveau de compétence.

(b)Augmentation de la puissance de calcul des ordinateurs

Un autre élé­ment-clé actuel qui per­met l’avènement de l’intelligence arti­fi­cielle, c’est le niveau de puis­sance de cal­cul atteint par les ordinateurs.

(i)Loi de Moore

Pour autant que l’analogie entre le sys­tème nerveux des ani­maux – et plus spé­ciale­ment, des humains – et l’ordinateur soit bien per­ti­nente, cer­tains esti­ment que la puis­sance de cal­cul d’un cerveau humain moyen serait de l’ordre de 10 petaFLOPS9 (peta = 1015).

Un ordi­na­teur actuel de 1.000,00 € atteint env­i­ron 4 gigaFLOPS (giga = 109).

En réal­ité, la barre des 10 petaFLOPS a été franchie par un super­or­di­na­teur en 201110 et, en 2016, les Chi­nois ont atteint les 33 à 54 pétaFLOPS avec le super­cal­cu­la­teur « Tianhe‑2 »11.

[Cela fait beau­coup de petaFLOPS !]

Autrement dit, actuelle­ment déjà, des super­or­di­na­teurs exis­tent avec une puis­sance de cal­cul plus que suff­isante pour dépass­er les capac­ités, non pas d’une four­mi ou d’un rat, mais d’un cerveau humain. Mais cela reste des machines rares et chères.

En plus, au niveau de la con­som­ma­tion élec­trique, les super­cal­cu­la­teurs con­som­ment, suiv­ant les sources, de 4 à 15 MW (donc 4 à 15 mil­lions de Watts), c’est-à-dire entre 50 % et 5 réac­teurs d’une cen­trale nucléaire mod­erne pour l’alimenter, tan­dis qu’un humain, cerveau com­pris (20 % de son énergie), con­somme 63 W, c’est-à-dire la puis­sance d’une ampoule à incandescence.

(ii)Ordinateurs « grand public »

La courbe d’évolution prévis­i­ble de la puis­sance des ordi­na­teurs « grand pub­lic » est expo­nen­tielle puisque l’on con­sid­ère que la puis­sance des ordi­na­teurs est dou­blée tous les 18 mois.

Sur base de ces esti­ma­tions, la vitesse des pro­grès va s’accélérer de manière inouïe et on devrait être capa­ble d’émuler toute la com­plex­ité d’un cerveau humain avec un ordi­na­teur « grand pub­lic » aux alen­tours de 2025.

©Récapitulatif

Pour réca­pit­uler, jusqu’à aujourd’hui, on esti­mait que l’arrivée d’une intel­li­gence arti­fi­cielle con­va­in­cante se pro­fi­lait à l’horizon, mais qu’elle n’était pas à la portée de la bourse ni du grand pub­lic, ni même de grandes sociétés, mais seule­ment à celle de quelques gou­verne­ments des plus grandes puis­sances mon­di­ales et de quelques géants des technologies.

En clair, d’un point de vue économique, si on sait faire mieux avec un ordi­na­teur de 1.000,00 € qu’en payant un salarié et que l’ordinateur coûte moins cher, un choix sera fait.

Mais ce n’est pas tout car, même dotés des ordi­na­teurs suff­isam­ment puis­sants, les logi­ciels néces­saires n’étaient pas encore au point jusqu’à aujourd’hui pour arriv­er à des résul­tats convaincants.

B.Pourquoi le droit se prête bien à l’IA ?

1.Le couple parfait ?

Bien, mais en quoi cela nous con­cerne-t-il ? Quel lien avec le droit ?

Plus que beau­coup d’autres branch­es de l’activité humaine, le droit se présente comme un domaine où l’intelligence arti­fi­cielle pour­rait prospér­er avec une aisance déconcertante.

Quand un ingénieur ou un pro­gram­meur conçoit le tra­vail du juriste, il se dit que, à pre­mière vue, c’est très proche d’un jeu, avec des règles, des lim­i­ta­tions et un objec­tif à atteindre.

Si l’ordinateur a pu appren­dre à jouer aux échecs et a réus­si à appren­dre à bat­tre le cham­pi­on du monde à un jeu plus com­plexe encore, le jeu de go, ou à bluffer comme le meilleur joueur de pok­er, il suff­i­sait encore de quelques efforts, mais on devait arriv­er à faire la même chose avec le domaine du droit.

2.Ce que l’IA sait faire.

En réal­ité déjà, l’intelligence arti­fi­cielle a investi le ter­rain depuis un cer­tain temps.

Toutes les activ­ités d’un juriste impliquent un traite­ment d’informations. Un ordi­na­teur traite des infor­ma­tions en exé­cu­tant des instructions.

Pour automa­tis­er le tra­vail d’un juriste, il faut donc arriv­er à mod­élis­er son proces­sus de traite­ment d’informations sous la forme d’une série d’instructions. En infor­ma­tique, on divise les instruc­tions en deux types :

  • ce que fait un ordi­na­teur clas­sique : il suit des instruc­tions déduc­tives qui sont les plus sim­ples et qui per­me­t­tent de traiter des infor­ma­tions dont la struc­ture est apparente.

    [Par exem­ple, le Jeune Bar­reau dis­pose d’une base de don­nées qui indique si vous avez payé ou non votre tick­et pour aujourd’hui. L’ordinateur a iden­ti­fié tout le monde dans la salle. Et des spots ont été instal­lés au-dessus de vous. Si vous n’avez pas payé, l’ordinateur a reçu comme instruc­tion de point­er un laser rouge sur vous. Atten­tion… [pause] Encore un « flop » ? Ah non ? C’est gra­tu­it jusque maintenant ?] 

  • ce qui est de plus en plus dévelop­pé actuelle­ment, ce sont les instruc­tions ori­en­tées par des don­nées qui per­me­t­tent de traiter des infor­ma­tions dont la struc­ture est moins évidente.

    [Par exem­ple, comme vous n’aurez plus de tra­vail dès lun­di, il fau­dra peut-être que vous cour­riez à la banque faire un prêt avant qu’elle soit au courant. N’essayez pas chez ING : ils sont là aus­si aujourd’hui. Pour savoir si vous serez capa­ble de la rem­bours­er, votre banque peut met­tre au point une grille com­plexe qui se basera sur ce qu’elle sait déjà de vous (revenus, his­torique ban­caire, épargne, valeur de l’immeuble par rap­port au crédit, etc.). Sur base des sta­tis­tiques de tous ses clients, votre banque peut établir une cor­réla­tion et des prob­a­bil­ités entre cer­taines don­nées et le risque de défaut.]

    Toute­fois, ce procédé con­naît des limites :

    • Le cal­cul de ces prob­a­bil­ités est basé unique­ment sur cer­taines don­nées. Or, la banque pour­rait ne pas avoir prévu qu’un élé­ment extérieur, comme un krach bour­si­er ou l’avènement inopiné de l’intelligence arti­fi­cielle dans l’économie puis­sent faire péri­cliter tout le sys­tème, et vous avec lui. Dans ce cas, l’ensemble des prévi­sions futures est faussée et le sys­tème n’avertira pas la banque du risque d’erreur.

    • Par ailleurs, toutes les sit­u­a­tions ne sont pas tou­jours facile­ment mod­élis­ables et le choix des don­nées à pren­dre en con­sid­éra­tion en fonc­tion du con­texte est sou­vent loin d’être évi­dent12.

3.État des lieux

(a)Ce qui existe déjà pour le droit

Des appli­ca­tions exis­tent déjà pour le droit :

  • Clas­si­fi­ca­tion de doc­u­ments dans le cadre des procé­dures de dis­cov­ery, c’est-à-dire, en droit éta­sunien, les procé­dures d’instruction préal­ables à un procès civ­il con­cer­nant tous les doc­u­ments qui pour­raient être intéres­sants pour une affaire. Dans ce cadre, il arrive que des mil­liers, voire des mil­lions de doc­u­ments très divers d’une entre­prise doivent être exam­inés. Dif­férents pro­grammes exis­tent déjà pour localis­er l’information per­ti­nente dans ce fouillis.

  • Dans le cadre de son pro­jet d’IA WATSON, IBM a dévelop­pé dif­férents pro­grammes, cer­tains pour la médecine, un autre ori­en­té droit, sous le nom de ROSS. Il serait capa­ble de don­ner des répons­es con­cis­es à des ques­tions for­mulées en lan­gage naturel, tout en four­nissant les références légales, jurispru­den­tielles et doc­tri­nales sur lesquelles il se base pour ren­dre son avis. Un peu comme le pro­jet Pythago­ria envis­agé par AVOCATS.BE.

  • Aux États-Unis, notam­ment dans l’État du Wis­con­sin, les juges utilisent, par­mi d’autres élé­ments, un pro­gramme qui prédit le risque de récidive et les capac­ités de réin­ser­tion d’un con­damné, prin­ci­pale­ment donc dans les procé­dures pénales et d’application des peines, comme on dirait chez nous13.

(b)Ce qui existe déjà dans d’autres disciplines

  • Dans le domaine médi­cal, des out­ils de diag­nos­tic, mais aus­si de recon­nais­sance de tumeur sur des images, qui arriverait à de meilleurs résul­tats que les médecins spé­cial­isés et chevron­nés14 ;

  • Vous en avez peut-être déjà vu des vidéos sur Inter­net : le con­struc­teur améri­cain de voitures Tes­la a dévelop­pé une voiture (élec­trique) pilotée par ordi­na­teur qui con­duit avec une dex­térité impres­sion­nante et qui anticipe un acci­dent et évite un caram­bo­lage, là où un humain n’aurait rien détec­té15

    [Toute­fois, elle ne pour­rait pas fonc­tion­ner à Verviers : elle ne va pas chercher toute seule le tick­et de stationnement !]
  • Autre exem­ple avec la pub­lic­ité sur Inter­net que tout le monde con­naît déjà : l’adaptation des pub­lic­ités présen­tées aux con­tenus qui vous intéressent.

  • L’intelligence arti­fi­cielle se voit aus­si déjà con­fi­er des déci­sions de vie ou de mort sur des êtres vivants. Ain­si, dans l’agriculture, des pro­jets sont dévelop­pés. Il y a ain­si un pro­jet où l’ordinateur repère les choux les plus promet­teurs sur base d’un con­trôle visuel et élim­ine les autres. Cela peut évidem­ment être dévelop­pé pour d’autres plantes.

4.Quelles difficultés peuvent être rencontrées par l’IA avec le droit ?

Alors, est-ce si sim­ple ou y a‑t-il quand même quelques dif­fi­cultés pour maîtris­er le droit avec l’intelligence artificielle ?

(a)Le raisonnement juridique est-il si syllogistique que ça ?

D’abord, est-ce que le raison­nement juridique est tou­jours suff­isam­ment syl­lo­gis­tique pour être facile­ment mod­élis­able et, ain­si, à la portée de l’intelligence artificielle ?

(i)Renvoi à la théorie du Grand Style (Karl LLEWELLYN)
Compréhension du droit

Si l’on suit la pen­sé des Lumières : « […] Les juges de la Nation ne sont […] que la bouche qui prononce les paroles de la loi ; des êtres inan­imés qui n’en peu­vent mod­ér­er ni la force ni l’ardeur »16, a écrit Mon­tesquieu. Il sem­blait donc croire que la loi n’avait qu’un sens et que la marge de manœu­vre du juge était inexistante.

Or, même en voulant être objec­tif, le juriste reste un homme qui ne peut com­pren­dre le monde qu’à tra­vers son expéri­ence per­son­nelle ; et celui qui a une autre expéri­ence pour­ra sou­vent avoir l’impression que l’autre est biaisé dans son inter­pré­ta­tion du texte.

Le droit, c’est sans doute un ensem­ble de règles, mais elles sont moins claires que celles d’un jeu d’échec ou de go, voire de poker.

Les pro­fanes trou­vent cela con­tre-intu­itif et l’esprit d’un ingénieur habitué aux lois de la physique lèvera sans doute les sour­cils, mais les juristes le savent, une loi n’est pas inter­prétée de manière iden­tique suiv­ant les juges et suiv­ant le con­texte de l’affaire.

Compréhension des faits

Réduc­tion des faits à une prob­lé­ma­tique juridique (qual­i­fi­ca­tion juridique)

L’histoire com­plète d’une affaire n’est pas utile pour résoudre la ques­tion juridique qu’elle pose. Seuls cer­tains aspects en sont retenus comme per­ti­nents pour arriv­er à la solu­tion du litige.

Présen­ta­tion des faits dans le con­texte particulier

Que ce soit au niveau de la présen­ta­tion – par­tiale – qui en est faite par les avo­cats ou bien au niveau de celle finale­ment retenue par le juge – qui doit présen­ter une forme d’objectivité –, cer­tains élé­ments seront mis en avant ou occultés, pour arriv­er à l’issue recherchée.

Le dogme voudrait que le juge com­mence par établir objec­tive­ment les faits, pour ensuite dérouler un raison­nement juridique impar­tial et seule­ment, enfin, en tir­er une con­clu­sion finale.

Pour­tant, en pra­tique, même si c’est incon­sciem­ment, même si ce n’est pas poli­tique­ment cor­rect de le dire, le chemin se fait plutôt à l’envers : le juge aura ten­dance à d’abord iden­ti­fi­er le résul­tat qu’il pressent comme juste, puis, seule­ment ensuite à habiller sa déci­sion par une moti­va­tion factuelle et juridique qui per­me­tte d’arriver à l’issue qu’il trou­ve juste.

(ii)Objectif du juriste : interprétation en vue de cet objectif

Il y a donc une impres­sion qui se forme d’abord, une intu­ition qui se dégage devant la com­plex­ité de l’affaire, avant de pass­er à un proces­sus raison­né. Une fois l’intuition de ce qui est juste acquise et sauf impasse factuelle ou juridique, la déci­sion suiv­ra cette orientation.

Une étude récente de pré­dic­tion des déci­sions de la Cour européenne des droits de l’Homme a con­clu que :

« En général, […] nos résul­tats pour­raient être inter­prétés comme une cer­taine con­fir­ma­tion de l’intuition fon­da­men­tale du réal­isme juridique selon laque­lle les juges sont plutôt influ­encés par des motifs non-juridiques que juridiques, quand ils sont con­fron­tés à des affaires dif­fi­ciles. »17

(iii)Bienfaits attendus

Face à cette réal­ité, le dog­ma­tisme red­oute l’arbitraire, le sen­ti­men­tal­isme déraison­né. Il pré­conise une approche robo­t­isée qu’il trou­ve préférable, puisque détachée de tout sen­ti­ment, de toute influ­ence d’ordre poli­tique, religieux ou philosophique, personnelle.

Un ordi­na­teur ne sera donc pas influ­encé par ses sen­ti­ments ou ses con­vic­tions per­son­nelles, ni par son vécu, et livr­era une solu­tion pure­ment objec­tive et impartiale.

(iv)Illusion néfaste de la vérité uni(vo)que

Mais est-ce seule­ment pos­si­ble d’avoir ce regard com­plète­ment détaché et objec­tif sur la réal­ité ? Y a‑t-il tou­jours une vérité, unique et univoque ?

Confusion entre faits bruts et faits sociaux ou issus de la raison

La vérité judi­ci­aire, celle sur laque­lle se base le juriste, n’est pas la vérité scientifique.

C’est davan­tage une con­struc­tion sociale.

Le droit n’admet pas toutes les vérités, même si elles sont objec­tive­ment prouvées.

  • Par exem­ple, pour des raisons morales, une preuve obtenue de manière déloyale sera rejetée, alors qu’un enreg­istrement sonore de la voix d’une per­son­ne, même faite à son insu, prou­ve indu­bitable­ment les men­aces ou les insultes qu’elle a proférées.

  • Ou bien, le droit invente une réal­ité qui n’existe pas, par des fic­tions. Par exem­ple, le droit fis­cal lim­ite le coût admis pour les déplace­ments pro­fes­sion­nels, alors qu’il peut être claire­ment démon­tré que le coût réel est supérieur.

  • Ou encore, le droit n’aura aucune con­sid­éra­tion, pour la fil­i­a­tion biologique, prou­vée par l’ADN, mais ne tien­dra compte que de la réal­ité, beau­coup plus floue, des rela­tions nouées avec celui qui s’est cru être le père de l’enfant.

  • Ou encore, le droit refuse de se pencher sur une ques­tion, parce que trop de temps s’est écoulé, même si toutes les preuves de ce qui s’est passé exis­tent encore.

Et les cir­con­stances qui vont faire que l’on s’écarte ou non d’un fait brut, comme l’intérêt de l’enfant, sont des con­cepts creux qui seront déter­minés par un ressen­ti très sub­jec­tif et assez incertain.

Incidence de la connaissance tacite18

Ce que nous savons ne peux pas tou­jours être expliqué.

Nous savons faire beau­coup de choses que l’on ne nous a pas expressé­ment apprises.

Ces com­pé­tences qui ne sont pas claire­ment for­mal­isées sont dif­fi­ciles à trans­met­tre à un ordi­na­teur. Or, pour fonc­tion­ner comme un humain, l’ordinateur en aura aus­si besoin.

Les dernières avancées dans l’étude de l’intelligence ani­male lais­sent penser qu’il existe de très hautes formes d’intelligence qui ne sont pas ver­bales et qui n’ont pas besoin d’un lan­gage pour s’exprimer19.

Dans le droit comme dans d’autres domaines, l’approche pour la réso­lu­tion d’un prob­lème néces­site un proces­sus com­plexe que l’on ne nous a pas expliqué dans le détail de ses artic­u­la­tions. Et pour­tant, c’est une com­pé­tence innée que nous met­tons en œuvre à longueur de journée, pas seule­ment pour nos activ­ités professionnelles.

Or, l’IA marche bien avec des faits bruts, mais elle est impuissante face à certaines complexités.

(b)Rassemblement d’une masse critique de données exploitables

Une autre ques­tion con­cerne le rassem­ble­ment d’une masse de don­nées exploita­bles suffisantes.

C’est le « big data ».

En effet, pour que l’IA fonc­tionne, il lui faut des ordi­na­teurs suff­isam­ment puis­sants, des logi­ciels suff­isam­ment bien pen­sés pour per­me­t­tre à l’ordinateur de traiter tout seul l’information, mais il lui faut aus­si et surtout beau­coup et même énor­mé­ment d’informations pour « apprendre ».

Pour le droit, ceci ne sem­ble a pri­ori pas un obsta­cle : il suf­fit de pren­dre comme base de don­nées toute la jurispru­dence qui existe. Le SPF Jus­tice a mis en place une base don­nées appelée VAJA (pour « Von­nis Arresten Juge­ments Arrêts ») qui cen­tralise toutes les déci­sions. Vous y ajoutez toutes la doc­trine pub­liée et le tour est joué !

Eh bien pas vrai­ment : il faut encore que l’ordinateur décou­vre une struc­ture suff­isam­ment claire dans toutes ces données.

En plus, pour arriv­er à de bonnes per­for­mances de raison­nement, il faut que l’IA ait à sa dis­po­si­tion un très grand nom­bre d’exemples de bonnes répons­es à la même ques­tion, au même problème.

Pour le jeu d’échec ou la radi­olo­gie, ce n’est pas trop com­pliqué. Mais y a‑t-il une mul­ti­tude de déci­sions de jus­tice sur toutes les sit­u­a­tions envis­age­ables ? Pas toujours.

©Mystère sur le « raisonnement » de l’ordinateur

Un autre prob­lème se pose con­cer­nant ce qu’un juriste appellerait la ques­tion de la « moti­va­tion » de la déci­sion de l’IA.

En effet, les plus grands spé­cial­istes en la matière avouent qu’ils sont inca­pables de com­pren­dre l’intégralité du chem­ine­ment effec­tué par les algo­rithmes extrême­ment sophis­tiqués con­stru­its par l’IA. C’est beau­coup trop com­plexe pour un humain de mémoris­er la quan­tité d’informations qui est util­isée pour y arriv­er et cela dépasse aus­si les capac­ités de cal­cul d’un humain.

On peut donc voir sur quoi l’ordinateur se base et le résul­tat qu’il donne, mais on ne com­prend pas le détail du traite­ment de l’information qu’il opère pour arriv­er à ce résultat.

Cela peut pos­er de sérieux prob­lèmes éthiques. Par exem­ple, dans les États des États-Unis qui utilisent déjà l’IA pour éval­uer le risque de récidive d’un can­di­dat à la libéra­tion con­di­tion­nelle, on s’aperçoit que des indi­vidus dan­gereux, mais blancs, obti­en­nent un résul­tat plus favor­able que les autres. Pourquoi ? On sup­pose que c’est la con­séquence du fait que l’IA s’est basée sur la jurispru­dence exis­tante qui com­porte sta­tis­tique­ment moins de con­damna­tions de blancs. Et l’IA y trou­ve une cor­réla­tion qui n’est d’abord pas per­ti­nente pour sa pré­dic­tion, mais qui implique surtout une dis­crim­i­na­tion éthique­ment con­damnable20.

(d)Facile à duper

Une autre fragilité de l’IA, c’est qu’une fois que l’on a saisi les critères qu’elle estime les plus per­ti­nents pour obtenir la déci­sion que l’on souhaite, il suf­fit de lui met­tre en avant ce qu’elle cherche et de lui cacher, même assez grossière­ment, ce qu’on ne veut pas qu’elle voie pour la duper.

[Il paraît que l’on peut déjà faire la même chose avec cer­tains juges, une fois que l’on a com­pris quelle était leur marotte. Je n’oserais pas le prétendre.]

Ain­si, on pour­rait penser utilis­er l’IA pour procéder à des écoutes de sus­pect. L’IA tran­scrirait toutes leurs con­ver­sa­tions, puis isol­erait ce qui est intéres­sant. Des méth­odes sem­blables sont déjà util­isées par les avo­cats améri­cains qui doivent exam­in­er tous les doc­u­ments d’une entreprise.

Eh bien, en matière de stupé­fi­ants, on voit sou­vent les prévenus par­ler de « laitues », d’« épices », etc. dans leurs con­ver­sa­tions télé­phoniques pour mas­quer le véri­ta­ble objet de leur traf­ic. Il y a un risque que l’IA n’y ver­rait qu’une con­ver­sa­tion d’épicier et se ferait bern­er par une tech­nique aus­si grossière.

(e)Raisonnement construit sur les données du passé, sans créativité, alors que l’évolution de la société amène à une évolution de ses règles

Un autre sérieux souci est posé par le fait que l’IA con­stru­it ses raison­nements sur une masse de don­nées. Or, ces don­nées sont for­cé­ment recueil­lies dans le passé. Et l’IA se con­tente d’y rechercher une logique.

Le prob­lème, c’est qu’en raison­nant ain­si, on ne tient pas compte d’évolutions con­textuelles qui devrait entraîn­er une mod­i­fi­ca­tion des règles.

Or, le droit ne doit pas être figé ; il doit évoluer avec la société.

Cela néces­site de la créa­tiv­ité : le juriste doit appli­quer des règles prévues pour une autre sit­u­a­tion au cas qui l’occupe pour trou­ver une solu­tion. Ou bien il doit se ren­dre compte qu’une règle, con­stru­ite à une autre époque, dans un autre con­texte, doit être adap­tée, voire par­fois écartée.

Appli­quer bête­ment une règle sans se pos­er de ques­tion, c’est par­fois dans l’intérêt d’une par­tie, mais ce n’est pas le som­met de l’art et cela peut men­er à des injus­tices cri­antes. Sum­mum jus, sum­ma injuria.

III.Péroraison

« Non », IAVe a répon­du et sa réponse est « non ».

[C’était peut-être la bonne réponse à don­ner quand on vous demande de faire le dis­cours de Rentrée…]

À la ques­tion de savoir si l’intelligence arti­fi­cielle rem­plac­era les pro­fes­sions juridiques, je pense qu’il faut faire la même réponse.

Non : cer­taines tâch­es pour­ront être con­fiées à des ordi­na­teurs qui le fer­ont mieux et pour moins cher qu’un humain et il fau­dra s’adapter et en tir­er profit.

Mais,

Mes­dames, Messieurs les mag­is­trats, les notaires, les huissiers, mes chers confrères :

Non, l’ordinateur ne vous a pas rem­placés ; l’intelligence arti­fi­cielle ne vous pas dépassés. Pas encore.

Un robot n’est pas encore prêt à faire preuve de la créa­tiv­ité, de l’empathie, des sen­ti­ments, de l’indignation, de l’humour par­fois aus­si qui sont essen­tiels au bon exer­ci­ce de vos fonc­tions. Et ces qual­ités restent actuelle­ment, de loin, le mono­pole de l’humanité.

En sera-t-il tou­jours ain­si ? Cela restera-t-il le pro­pre des femmes et des hommes ?

Je le crois encore pour longtemps, mais qui sait ?

1Richard SUSSKIND, The End Of Lawyers: Rethink­ing The Nature Of Legal Ser­vices (Oxford Univ. Press 2010).

2John MARKOFF, “Armies of Expen­sive Lawyers, Replaced by Cheap­er Soft­ware”, N.Y. Times, Mar. 5, 2011, at A1.

3Au print­emps 2016, IBM a présen­té ROSS, “Your brand new arti­fi­cial­ly intel­li­gent lawyer”

4 Lau­rent ALEXANDRE et Olivi­er BABEAU, « Con­fions la jus­tice à l’intelligence arti­fi­cielle ! », Les Échos, 21 sep­tem­bre 2016

5Pas­sage inspiré de Steve Jobs lors de son iPhone Keynote 2007, http://www.european-rhetoric.com/analyses/ikeynote-analysis-iphone/transcript-2007/

6Shai Danzig­era, Jonathan Lev­avb, Lio­ra Avnaim-Pes­soa, « Extra­ne­ous fac­tors in judi­cial deci­sions », PNAS, vol. 108 no. 17, 2011 http://www.pnas.org/content/108/17/6889.full

7Basé sur les tech­niques d’appren­tis­sage par ren­force­ment (« L’ap­pren­tis­sage par ren­force­ment fait référence à une classe de prob­lèmes d’ap­pren­tis­sage automa­tique, dont le but est d’ap­pren­dre, à par­tir d’ex­péri­ences, ce qu’il con­vient de faire en dif­férentes sit­u­a­tions, de façon à opti­miser une récom­pense quan­ti­ta­tive au cours du temps. » https://fr.wikipedia.org/wiki/Apprentissage_par_renforcement) et d’apprentissage pro­fond (« L’ap­pren­tis­sage pro­fond1 (en anglais deep learn­ing, deep struc­tured learn­ing, hier­ar­chi­cal learn­ing) est un ensem­ble de méth­odes d’appren­tis­sage automa­tique ten­tant de mod­élis­er avec un haut niveau d’abstraction des don­nées grâce à des archi­tec­tures artic­ulées de dif­férentes trans­for­ma­tions non linéaires[réf. souhaitée]. Ces tech­niques ont per­mis des pro­grès impor­tants et rapi­des dans les domaines de l’analyse du sig­nal sonore ou visuel et notam­ment de la recon­nais­sance faciale, de la recon­nais­sance vocale, de la vision par ordi­na­teur, du traite­ment automa­tisé du lan­gage. Dans les années 2000, ces pro­grès ont sus­cité des investisse­ments privés, uni­ver­si­taires et publics impor­tants, notam­ment de la part du GAFA (Google, Apple, Face­book, Ama­zon)2. » https://fr.wikipedia.org/wiki/Apprentissage_profond).

8“That start­ing point was, of course, games. They’re actu­al­ly a good test for arti­fi­cial intel­li­gence. By def­i­n­i­tion, games are con­strained. They’re lit­tle bot­tled uni­vers­es where, unlike in real life, you can objec­tive­ly judge suc­cess and fail­ure, vic­to­ry and defeat. Deep­Mind set out to com­bine rein­force­ment learn­ing with deep learn­ing, a newish approach to find­ing pat­terns in enor­mous data sets. To fig­ure out if it was work­ing, the researchers taught their fledg­ling AI to play Space Invaders and Break­out.” https://www.wired.com/2016/05/google-alpha-go-ai/

9« FLOPS : opéra­tion en vir­gule flot­tante par sec­onde (en anglais : float­ing-point oper­a­tion per sec­ond) » https://fr.wikipedia.org/wiki/FLOPS

10« En juin 2011, le plus puis­sant super­or­di­na­teur atteint les 8,162 pétaFLOPS. Il s’ag­it du K computer4. Ce super­or­di­na­teur japon­ais totalise 68 544 processeurs de 8 cœurs et dis­pose d’une puis­sance de cal­cul supérieure à celle de ses 5 suiv­ants réu­nis. Ce même super­cal­cu­la­teur a bat­tu son pro­pre record en octo­bre 2011 en atteignant la barre des 10 pétaFLOPS. Il dis­po­sait à ce moment de 88 128 processeurs de 8 cœurs [Super­cal­cu­la­teurs : le Fujit­su « K » atteint les 10 pétaflops [archive], sur zdnet.fr, 3 novem­bre 2011 (con­sulté le 13 févri­er 2015).].

(…)

En 2016, le super­cal­cu­la­teur embar­qué Deep Learn­ing Sys­tem (DGX‑1) de Nvidia avec 8 Tes­la P100 inté­grées a une puis­sance d’en­v­i­ron 170 téraFLOPS, il est d’une puis­sance com­pa­ra­ble aux super­or­di­na­teurs de 200510. » https://fr.wikipedia.org/wiki/FLOPS#cite_ref‑5

12Cf. infra : Inci­dence de la con­nais­sance tacite, p. 11

13Zeynep Tufek­ci, “Machine intel­li­gence makes human morals more impor­tant”, TED Sum­mit, June 2016, https://www.ted.com/talks/zeynep_tufekci_machine_intelligence_makes_human_morals_more_important

14Tay­lor Kub­o­ta, “Deep learn­ing algo­rithm does as well as der­ma­tol­o­gists in iden­ti­fy­ing skin can­cer”, Stan­ford News, 25/01/2017, http://news.stanford.edu/2017/01/25/artificial-intelligence-used-identify-skin-cancer/

15Julien Cadot, « L’Autopilot d’une Tes­la prédit un acci­dent et parvient à l’éviter », Numera­ma, 28 décem­bre 2016, http://www.numerama.com/tech/220478-lautopilot-dune-tesla-predit-un-accident-et-parvient-a-leviter.html vidéo : https://www.youtube.com/watch?time_continue=29&v=9fcRlWQF_uU

16Mon­tesquieu, Esprit des Lois, liv. XI, chap. VI, 1777, Gar­nier, p. 327.

17Ale­tras N, Tsara­p­at­sa­nis D, Pre­oţi­uc-Pietro D, Lam­pos V. (2016) Pre­dict­ing judi­cial deci­sions of the Euro­pean Court of Human Rights: a Nat­ur­al Lan­guage Pro­cess­ing per­spec­tive. PeerJ Com­put­er Sci­ence 2:e93 https://doi.org/10.7717/peerj-cs.93

18V. e.a. : Polanyi, Michael. “The Tac­it Dimen­sion”. First pub­lished Dou­ble­day & Co, 1966. Reprint­ed Peter Smith, Glouces­ter, Mass, 1983. Chap­ter 1: “Tac­it Know­ing” ; The tyran­ny of tac­it knowl­edge: What arti­fi­cial intel­li­gence tells us about knowl­edge rep­re­sen­ta­tion. Kurt D. Fen­ster­ma­ch­er https://www.computer.org/csdl/proceedings/hicss/2005/2268/08/22680243a.pdf

19Frans de Waal (pri­ma­to­logue et étho­logue), Sommes-nous trop ‘bêtes’ pour com­pren­dre l’in­tel­li­gence des ani­maux ?, LLL, 2016. https://www.franceinter.fr/emissions/la-tete-au-carre/la-tete-au-carre-10-octobre-2016 ; https://www.franceinter.fr/emissions/l‑invite-de-8h20/l‑invite-de-8h20-04-octobre-2016

20Cf. note 13