Le mythe de Talos connaît de nombreuses considérations philosophiques sur la place de l’Homme et sur sa différence avec l’automate. Bien qu’éloigné des visions sur la robotique actuelle (Talos défendait la Crète en s’attaquant, entre autres, à des humains, ce qui contredit le principe le plus célèbre retenu par Isaac Asimov : « un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger »), ce récit, observé au travers du prisme de notre époque, a le mérite de s’inscrire dans l’actualité : comment réagir lorsqu’un robot cause un dommage ? Dans sa résolution du 17 février 2016, le Parlement européen, préférant citer Pygmalion ou Frankenstein, s’est posé la question du droit civil de la robotique.
Au même titre qu’une personnalité juridique a pu être reconnue aux personnes morales, la résolution envisage l’octroi de celle-ci au robot. Plus précisément : « la création, à terme, d’une personnalité juridique spécifique aux robots… ». Il n’en fallait pas moins pour provoquer d’intenses débats doctrinaux sur l’opportunité de cette personnalité ou l’absurdité qui en découle, compte tenu de la réalité actuelle des robots et de l’intelligence artificielle.
Le robot ne possède pas encore de définition juridique. Selon le Centre Nationale des Ressources Textuelles et Lexicales (CNRTL), on distingue selon que le robot soit appréhendé dans une œuvre de science-fiction ; auquel cas il s’agit d’une « machine à l’aspect humain capable d’agir et de parler comme un être humain », ou qu’on soit dans le domaine technique ; alors on parle d’un « Appareil effectuant, grâce à un système de commande automatique à base de micro-processeur, une tâche précise pour laquelle il a été conçu, dans le domaine industriel, scientifique ou domestique. »
Parmi ces débats, la pomme de la discorde semble être la question du régime applicable à la question de la responsabilité civile du robot. Ainsi, de nombreuses problématiques se posent sur la personnalité juridique du robot, sur le régime applicable et sur l’opportunité d’admettre une personnalité nouvelle (personnalité électronique, robotique…) notamment dans le contexte de la responsabilité civile délictuelle.
Rappelons brièvement les mécanismes de la responsabilité civile. On retrouve trois conditions pour la mettre en œuvre : premièrement, l’existence d’un préjudice ou d’un dommage. Deuxièmement, l’existence d’une faute (volontaire ou non). Enfin, un lien de causalité entre la faute et le dommage.
En parallèle, on distingue deux grands types de responsabilité civile : contractuelle et délictuelle. La différence se situe sur la question du fait juridique ou de l’acte juridique : s’il s’agit d’un évènement susceptible de produire des effets de droit, on parle de fait juridique et donc de responsabilité civile délictuelle (ou quasi-délictuelle s’il n’y a pas d’intention volontaire de produire le dommage) ; en revanche, s’il s’agit d’une manifestation de volonté destinée à produire des effets de droit, on parle d’acte juridique et donc de responsabilité civile contractuelle.
Les faits juridiques liés aux robots pourraient se multiplier dans les années à venir. En découle une interrogation majeure : quel régime devrait s’appliquer dans l’hypothèse où un fait juridique, émanant d’un robot, provoquerait un dommage à un Homme ? Qui serait tenu pour responsable : le constructeur, le programmeur, le vendeur, l’utilisateur (en sachant qu’il existe des robots ayant des facultés d’apprentissage au contact de l’utilisateur) ? Les discussions ne sont pas closes et deux grandes « pensées » peuvent se démarquer : les auteurs qui préconisent l’utilisation de régimes déjà connus qui, selon eux, s’adaptent à la problématique robotique et ceux qui prônent la personnalité juridique robotique.
Les régimes existants pouvant être appliqués au robot
Quatre « grands » régimes ont été estimés applicables à la responsabilité civile délictuelle des robots par l’Office parlementaire d’évaluation des choix scientifiques et technologiques : du fait des choses, du fait des animaux, du fait d’autrui ou du fait des produits défectueux.
Chacune de ces responsabilités possédant un régime particulier, le formalisme qui leur est propre doit être rappelé pour être confronté à la question du robot.
La responsabilité du fait des choses
La responsabilité du fait des choses implique le fait d’une chose : la chose doit avoir un rôle causal, être l’instrument du dommage. Depuis un arrêt célèbre, il n’existe pas de distinction entre les choses (qu’elles soient viciées ou non, dangereuses ou non). S’agissant d’un robot, on peut considérer que dans une large majorité des contentieux imaginés, celui-ci serait, aux yeux de ce régime, « une chose en mouvement » (même s’il pourrait être inerte dans certains cas). Encore faut-il savoir si cette chose en mouvement est entrée en contact avec la victime ou non : au premier cas répond une présomption simple de responsabilité à l’égard du gardien, au second c’est à la victime que revient la charge de la preuve à propos du rôle actif de la chose (qui passe par le comportement anormal ou la position anormale de la chose).
La notion de gardien de la chose a été établie au travers d’un autre arrêt célèbre : le gardien de la chose est celui qui possède les pouvoirs d’usage, de contrôle et de direction de la chose ; autrement dit, il s’agit de pouvoirs de fait sur la chose et non pas de droit. Le propriétaire de la chose est présumé être son gardien.
Ceci étant dit, il convient désormais de se demander si ce régime est applicable aux robots : des avis divergents existent. Selon le Professeur Anne-Sophie CHONÉ-GRIMALDI et Philippe GLASER, la responsabilité du fait des choses « [s’adapte] mal à l’univers du robot ». Ils confrontent ainsi la notion de gardien au robot : avec les mises à jour proposées par les concepteurs du programme, ne possèdent-ils pas de facto une maîtrise plus importante que le propriétaire sur la chose ? Comme il l’a été dit, le gardien possède le pouvoir de contrôle de la chose, ce pouvoir ne serait-il pas partagé entre le concepteur et l’utilisateur ? Faudrait-il alors mesurer – avec des données objectives – qui possède la majorité du pouvoir de contrôle de la chose ? Surtout, et cette hypothèse est envisagée par les auteurs précités, quid des machines dont personne n’aurait vraiment le contrôle, « douée d’une intelligence artificielle forte » ? Certes, ce n’est peut-être pas un cas d’actualité, il apparaît toutefois nécessaire de se poser la question en amont car si ce régime ne résiste pas à cette question, il est destiné à devenir désuet au fur et à mesure des progrès techniques.
Néanmoins, d’autres auteurs estiment que la responsabilité du fait des choses n’a pas de lacunes exclusives. Les professeurs Alexandra BENSAMOUN et Grégoire LOISEAU estiment que le pouvoir de contrôle du gardien est « […] compatible avec l’autonomie du système intelligent et sa capacité d’auto-apprentissage ». Ils développent ensuite que le risque qu’un robot accède à une totale autonomie qui le ferait sortir du contrôle humain est « peu crédible ».
En tout état de cause, ils voient l’expression du pouvoir de contrôle en la capacité d’arrêter le fonctionnement de la machine. Il s’agit bien d’un pouvoir de contrôle de l’humain sur la machine : il existe cependant des cas où l’on pourrait s’imaginer que le contrôle humain sur la machine est moindre.
Dès lors, la question de l’application du régime de la responsabilité du fait des choses reste une question ouverte, bien qu’une partie majoritaire de la doctrine semble valider l’idée de son application à la question robotique.
La responsabilité du fait des animaux
La responsabilité du fait des animaux est d’usage lorsque l’animal a causé un dommage. Il est codifié à l’article 1243 et il est prévu que la présomption de responsabilité qui pèse sur le gardien de l’animal soit une présomption absolue de faute. Pourquoi ce régime semble-t-il alors applicable aux robots quand il vise clairement les animaux ?
Parce que juridiquement, ce qui distingue les animaux des choses c’est la capacité de se mouvoir librement dans l’environnement qui les entoure. Les animaux ont une « liberté » que n’ont pas les choses. Ils se déplacent selon leurs convenances et il n’est pas possible de les assigner à une tâche précise en permanence. C’est sur cette notion de liberté que le « livre vert » de la robotique admet la distinction juridique entre les choses, même animées, et les animaux. Et c’est sur cette idée de mouvement libre qu’il est envisageable de calquer le régime des robots sur celui des animaux.
Ce régime présente une faille : il s’agit pour le gardien d’une présomption irréfragable. Elle ne saurait être renversée : le « gardien » de l’animal ne pourrait se délier qu’en invoquant la force majeure et le fait d’un tiers ou de la victime en présentant les caractéristiques. Ainsi, le gardien serait tenu responsable dans l’immense majorité des cas.
Or, il n’est pas certain qu’à l’heure actuelle, la capacité de se mouvoir librement dans l’environnement qui les entoure puisse être adressée aux robots. Il faudrait répondre à beaucoup d’interrogations : qu’entend-on par librement ? Où commence et où s’éteint la liberté d’un robot ? Ces deux questions semblent primordiales car il semble qu’un robot parte toujours d’un point A pour arriver à un point B : il a toujours une « mission ».
De plus, il existe une réelle distinction entre les robots et les animaux. Il est difficilement concevable d’avoir un robot qui ne soit pas voué à servir l’humain alors que les animaux ne sont pas voués par nature à aider l’humain ; ils peuvent le faire mais leur existence n’est pas fondée sur cette aide. Il serait opposable à cette vision l’exemple des animaux-cobayes, qui vivent une vie dans un laboratoire et qui n’en réchappent pas : l’humain a alors conceptualisé l’existence de ces animaux.
C’est suite à ces observations que l’on parle de calquer le régime de responsabilité du fait des animaux avec la question robotique plutôt que de les regrouper. Il semble impossible aujourd’hui de considérer les robots comme des êtres doués de sensibilité, or les animaux sont doués de sensibilité si on s’attache à la lettre de l’article 515-4 du Code civil.
La responsabilité du fait d’autrui
Depuis l’arrêt BLIECK du 29 mars 1991, il existe une responsabilité générale du fait d’autrui fondée sur l’article 1242 du Code civil (ancien article 1384). Si on passe sous silence ce que signifie « autrui », « autrui est-il forcément humain » et les autres considérations philosophiques, qu’en est-il du point de vue juridique ? Peut-on appliquer ce régime aux robots ?
Ce régime général présente lui aussi ses conditions. Pour être responsable du fait d’autrui, il faut exercer un pouvoir sur cet autrui : un pouvoir d’organisation et de contrôle ou d’organisation, de contrôle et de direction. De plus, il est nécessaire qu’autrui soit l’auteur d’un fait dommageable. La responsabilité de ce régime est une responsabilité de plein droit. Ces conditions présentent des similitudes à celles énoncées pour la responsabilité du fait des choses.
Ce régime a été envisagé par le « livre vert » sur les problèmes juridiques liés à la robotique. L’exemple donné ne vise pas que le principe général de responsabilité du fait d’autrui mais bien une hypothèse spéciale, antérieure à ce principe, qui était reconnue : la responsabilité des parents du fait de leur enfant mineur. Ainsi, les auteurs du « livre vert », bien conscients des conséquences de cette comparaison, emploient-ils l’expression « […] un pas en avant pourrait être fait ». Ils proposent une assimilation des robots cognitifs aux enfants. En effet, les robots cognitifs apprennent au contact de l’utilisateur et se développent ainsi différemment selon le comportement de ce dernier.
Pour adapter la responsabilité, ils proposent de se fier à la capacité d’apprentissage du robot : plus celui-ci est capable d’apprendre, moins le fabricant pourrait être tenu pour responsable ; plus le robot a été éduqué, plus l’utilisateur serait reconnu responsable. Il faudrait une distinction primordiale qui se fonderait sur les capacités « par défaut », que le robot connaît depuis le début de son existence et les capacités « acquises », qui ont été apprises au cours de son apprentissage.
Cette distinction primordiale devrait s’appliquer, même avec les mises à jour développeur. Ainsi, ce qui découlerait d’un apprentissage auprès de l’utilisateur serait différencié de tous les développements purement techniques du développeur. On parlerait alors de capacités « développeur » et de capacités « acquises ». Cependant, qu’en est-il pour les capacités émanant du développeur mais qui sont altérées par l’utilisateur du robot ? Les capacités d’évolutions de la machine devraient être comparées à un « standard » que l’on créerait pour estimer si la machine a été suffisamment altérée par l’utilisateur pour causer un dommage ou si le problème était d’origine.
Ce cas de figure présenterait des similitudes avec le produit défectueux : finalement, si le problème était d’origine, c’est que le produit est défectueux. De plus, l’idée d’autrui ne s’applique qu’à destinations des humains, d’où son régime qui se distingue du régime des choses et de celui des animaux. Piocher dans le régime de la responsabilité du fait d’autrui ne serait pas une mauvaise idée s’il était nécessaire d’établir un régime spécial du robot.
La responsabilité du fait des produits défectueux
La responsabilité du fait des produits défectueux est le dernier régime envisagé par l’Office parlementaire d’évaluation des choix scientifiques et technologiques.
Pour être tenu, il est à nouveau indispensable d’observer certaines conditions. Il faut ainsi un produit défectueux (le produit étant interprété sous l’empire du droit des affaires ou de la consommation). Le défaut du produit s’apprécie « lorsqu’il n’offre pas la sécurité à laquelle on peut légitimement s’attendre ».
Trois hypothèses peuvent être retenues concernant le défaut : Soit il y a un défaut intrinsèque, une dangerosité anormale du produit accompagné d’une information insuffisante (l’information étant la notice d’utilisation). Soit le produit est défectueux mais l’information est suffisante : auquel cas, pas de responsabilité sauf si le défaut est déraisonnable au regard du rapport entre les bénéfices et les risques. Si les dangers excèdent les bénéfices escomptés, la responsabilité sera alors retenue même en présence d’une information suffisante.
Il faut que le produit ait été commercialisé. Il faut ensuite un producteur, notion vague et discutée. Le Code civil retient que le producteur est une personne qui agit à titre professionnel, le fabricant d’un produit fini, le producteur d’une matière première, le fabricant d’une matière composante ; mais encore toute personne agissant à titre professionnel se présentant comme producteur en apposant sur le produit un signe distinctif ou qui importe son produit dans la Communauté européenne en vue d’une vente, location, ou de toute autre forme de distribution. Enfin, il faut un dommage (si ce dommage touche un bien, il faut que ce bien soit autre que le produit défectueux).
Ce régime est notamment défendu par les Professeurs BENSAMOUN et LOISEAU. Selon eux, rien ne s’oppose à l’utilisation de ce régime qui, il est vrai, devra s’interpréter au regard de la technologie qui nous fait face, mais qui demeure tout à fait adapté. Par exemple, la preuve du lien de causalité entre le dommage et le défaut pourrait être réglée en se calquant sur une jurisprudence concernant les médicaments et qui dégage l’idée d’une preuve du lien de causalité par des présomptions graves, précises et concordantes.
Le régime serait tout de même amené à évoluer parce que la présence d’intelligences artificielles toujours plus poussées fait pencher le curseur de « la sécurité à laquelle on peut légitimement s’attendre » vers une quasi-intransigeance. Une machine qui se tromperait dans un diagnostic serait jugée plus durement qu’un praticien.
L’application de ce régime pousse à revoir les causes d’exonérations : en l’état actuel des choses, si le défaut ayant causé le dommage n’existait pas au moment où le produit a été mis en circulation ou qu’il est né postérieurement, le producteur est exonéré de sa responsabilité. Comment envisager cette exonération face à un robot cognitif ? Il faudrait que cette exonération soit supprimée ou modifiée. C’est ce que préconise les Professeurs BENSAMOUN et LOISEAU.
L’une des critiques émises à l’égard de ce régime est que la détermination de la personne ayant la qualité de producteur au sens de l’article 1245 du Code civil est difficile. La France a d’ailleurs été condamnée à ce sujet par la CJCE. Pourtant, la détermination du producteur s’avère primordiale car elle entraîne la responsabilité : si l’on ne sait pas identifier le producteur, il n’y a pas de responsable. En effet, le fournisseur n’a qu’une responsabilité subsidiaire là où le droit Français lui reconnaissait une responsabilité principale en l’absence de producteur. C’est sur ce point qu’elle a été condamnée par la CJCE.
Au travers de ces nombreux régimes, on peut se rendre compte de l’excellente conception juridique qui nous entoure. Ainsi, on trouve toujours des conditions de fonds qui semblent pouvoir s’appliquer à la question robotique, quand bien même on pensait alors à tout autre chose (autrui, des animaux…).
Le débat reste ouvert car le bond technologique qu’est l’intelligence artificielle permet aux auteurs de réfléchir sans cesse aux applications de notre droit pour ces technologies : certains n’imaginent pas un monde de demain sans personnalité électronique, d’autres mettent en exergue les réponses adaptées de notre droit actuel.
L’une des réponses apportées par ceux qui préconisent notre droit actuel est qu’une personnalité électronique entrainerait une déresponsabilisation des concepteurs et des utilisateurs.
La déresponsabilisation des concepteurs et des utilisateurs
À ce propos, les Professeurs LOISEAU et BOURGEOIS s’opposent à l’idée d’une personnalité juridique des robots. Selon eux, on assisterait à un « effet déviant de déresponsabiliser les fabricants et utilisateurs qui ne seraient plus incités à concevoir et utiliser des robots non-dangereux, ou, à tout le moins, maîtrisés dans leur environnement si leur responsabilité personnelle pouvait être écartée au profit de celle des robots ». En d’autres termes, créer une personnalité juridique des robots déplacerait la responsabilité sur ceux-ci, ce qui aboutit à une déresponsabilisation des utilisateurs et des concepteurs. Par conséquent, ceux-ci seraient moins regardant quant à la dangerosité ou non de la machine ; on peut même imaginer qu’ils se rendraient coupables d’utilisations potentiellement dangereuses.
Cette opposition en bonne et due forme n’est pas partagée par tous les auteurs. Certains font référence à la personnalité morale et à ses balbutiements : alors considérée comme une fiction juridique qui pourrait avoir des applications dangereuses, on se rend compte aujourd’hui, plus de cinquante années après l’attribution d’une personnalité morale, qu’elle ne pose pas de problème insurmontable. Elle fait partie intégrante du paysage juridique.
Concernant la déresponsabilisation, le Professeur CHONÉ-GRIMALDI et GLASER considèrent qu’il n’y a pas de véritable déresponsabilisation. Selon eux, promouvoir le robot au rang de personne juridique à part entière est même une réponse adaptée aux contentieux civils à naître : ils émettent l’idée du robot qui, après avoir indemnisé la victime, se subrogera dans ses droits pour se retourner face à l’utilisateur, le propriétaire ou le concepteur voire tous les trois en même temps.
Comment le robot va-t-il indemniser la victime ? Il lui faudrait un patrimoine propre. Ce patrimoine propre apparaîtrait en même temps que la personnalité juridique. Comment le constituer ? Il pourrait être développé par des sommes versées par le propriétaire, par des rémunérations contre services rendus, par une assiette collectée auprès des utilisateurs mais aussi des producteurs. Cette hypothèse, tant imaginée par le Professeur CHONÉ-GRIMALDI et GLASER que par les auteurs du « livre vert », serait accompagnée d’exceptions : notamment le cas où l’utilisateur est la cause de la défaillance de la machine, alors, il serait le seul tenu pour responsable.
Comment identifier la machine ? De ce côté, tant les auteurs pour la personnalité juridique que ceux contre semblent s’accorder : par une immatriculation. Les points de divergences apparaîtront sur le fait de savoir quelles machines doivent être immatriculées et lesquelles ne le doivent pas. Mais dans tous les cas, cette immatriculation qui aboutirait après un enregistrement donnerait vie, juridiquement, à la machine.
Aujourd’hui, l’opportunité de créer une personnalité juridique est une tentation qui s’est diffusée au sein des auteurs doctrinaux. Les arguments, qu’ils soient pour ou contre la reconnaissance de cette personnalité juridique, sont nombreux et intéressants. Les discussions importantes qui continuent encore aujourd’hui aboutiront, quoiqu’il arrive, à une véritable page de l’histoire juridique. En effet, même si l’on ne retenait pas cette personnalité robotique, force est de constater qu’elle a fait couler beaucoup d’encre et qu’elle a permis de déterminer les contours de notre ordre juridique. Celui-ci semble adapté à la situation mais une personnalité nouvelle ne serait pas forcément un « risque moral inacceptable ». L’IA n’arrivera peut-être jamais au niveau de l’Humain, et ne sera peut-être jamais une personne à part entière. Mais si la science-fiction venait à se mêler de notre réalité, nul doute que de nouveaux débats enflammés verraient le jour…
BORNE Killian
Bibliographie :
Isaac Asimov, Cercle vicieux
Droit de la responsabilité civile, cours de M. BAKOUCHE
Résolution du Parlement européen du 16 février 2017 contenant des recommandation à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL))
Centre National des Ressources Textuelles et Littéraires (CNRTL)
Rapport « Pour une intelligence artificielle maîtrisée, utile et démystifiée Office Parlement d’Evaluation des Choix Scientifiques et Technologiques (OPECST)
Arrêts de la Cour de cassation : Jand’heur (13 février 1930), Franck (2 décembre 1941), Blieck (29 mars 1991), Notre-Dame des Flots (26 mars 1997)
Cour de Justice de l’Union Européenne, 5e ch., 25 avril 2002, aff. C-183/00
Anne-Sophie CHONÉ-GRIMALDI et Philippe GLASER, Responsabilité civile du fait du robot doué d’intelligence artificielle : faut-il créer une personnalité robotique ?, CCC n°1, Janvier 2018
Alexandra BENSAMOUN et Grégoire LOISEAU, La gestion des risques de l’intelligence artificielle -,- De l’éthique à la responsabilité, SJEG n°46, 13 novembre 2017, doctr. 1203
Cédric COULON, Du robot en droit de la responsabilité civile : à propos des dommages causés par les choses intelligentes, Responsabilité civile et assurances n°4, Avril 2016, étude 6
Sous la direction de Christophe LEROUX et Roberto LABRUTO, Suggestion for a green paper on legal issues in robotics
Alain Bensoussan, Le droit des robots, mythe ou réalité ?
Alain Bensoussan, Osons la personnalité-robot, une nouvelle espèce dotée d’un nom, d’un numéro, d’une adresse IP…
Grégoire LOISEAU et Matthieu BOURGEOIS, Du robot en droit à un droit des robots, JCP G 2014, 1231, spéc. n°11 ets.
Conseil économique, social et environnemental, Avis « Les retombées de l’intelligence artificielle pour le marché unique (numérique), la production, la consommation, l’emploi et la société »