Pour la plupart des juristes, l’idée même d’un droit des robots appartient à la science-fiction, ou même résonne comme une douce plaisanterie. Néanmoins, on doit bien admettre que le temps de R2-D2 est désormais passé. Aujourd’hui, le petit Nao enseigne, participe à des programmes de recherche et au développement de certaines capacités motrices d’enfants autistes et handicapés. Son grand frère accueille et divertit les visiteurs dans les points de vente de l’opérateur de téléphonie mobile japonais qui l’emploie et Roméo assiste des personnes âgées ou en perte d’autonomie. ROSS (basé sur l’ordinateur Watson) donne des conseils juridiques. La Poste suisse est en train de tester la livraison de colis par drones et Swisscom a obtenu le droit de faire circuler une voiture sans chauffeur à Zurich.
Lorsqu’on parle d’un robot aujourd’hui, on ne désigne plus un simple automate exécutant systématiquement des tâches précises prédéfinies. Doté de capteurs, le robot possède une intelligence artificielle qui lui permet d’entrer en interaction avec les êtres humains. Il est donc capable, sur la base d’informations qu’il a recueillies et traitées et d’instructions générales qu’il aura préalablement intégrées, de prendre seul une décision. Qui n’émanera pas d’un être humain, mais sera véritablement prise par le robot lui-même. Le robot devra alors en assumer, sous une forme dont les contours restent à définir, la responsabilité.
En droit, c’est quoi un robot?
Juridiquement, le robot n’est pas (encore) un objet ou un sujet de droit spécifique et il n’existe pas, en droit suisse, de législation spécifique sur ce sujet.
La qualification juridique du robot est néanmoins essentielle, car elle détermine le régime de la responsabilité qui sera applicable en cas de dommage (matériel ou sur une personne physique) causé par le robot. C’est de cette qualification que découle le choix des règles applicables et, finalement, la désignation de celui à qui est imputée la responsabilité pour les faits du robot.
Selon le droit actuel, le robot sera d’abord traité comme une chose mobilière, ce qui signifie qu’elle peut être volée (droit pénal), achetée, vendue, louée ou détruite (droit civil) et, éventuellement, brevetée ou faire l’objet d’un droit d’auteur (protection intellectuelle). Le robot contient aussi un système informatique, ce qui implique qu’un accès indu à ce système où la soustraction de données qu’il contient sera pénalement sanctionnée (art. 143 et suivants CP).
Sur la base de cette qualification, la responsabilité pour le dommage causé par un robot sera attribuée à celui qui l’utilise ou à son propriétaire, de la même manière que la personne qui cause un dommage au moyen d’une machine sera tenu responsable. Si le dommage a été causé par un défaut de fabrication du robot, le fabricant ou le vendeur pourraient être tenus responsables en vertu notamment des règles du contrat de vente ou du contrat d’entreprise en matière de garantie ou de celles émanant de la loi fédérale sur la responsabilité du fait des produits.
Cette qualification, et le régime de responsabilité correspondant sont relativement adéquats tant et aussi longtemps que le robot n’est qu’un exécutant et que son action est assimilable à celle d’une simple machine (automate). Les actes et la réaction de ces automates sont prévisibles et peuvent être imputés à l’utilisateur ou au propriétaire. On peut en effet attendre de ce dernier qu’il prenne les mesures nécessaires pour prévenir le dommage et assumer la responsabilité de la machine.
Dès lors que l’intelligence artificielle du robot lui permet de décider lui-même de ses comportements, sur la base de son logiciel, d’une programmation et d’un apprentissage, cette qualification est plus problématique. Le robot aura, en effet, des comportements propres, qui se distancieront des instructions de son propriétaire.
La responsabilité pour les faits du robot aujourd’hui…
En l’état actuel du droit, le robot ne peut lui-même assumer la responsabilité civile ou pénale de ses actes. Or, rattacher la responsabilité pour les actions du robot à une personne physique ou morale s’avère compliquée et insatisfaisante.
En effet, dans le cas d’un dommage causé par un robot, faudra-t-il appliquer la responsabilité de son propriétaire ou de son détenteur? D’autre part, les conditions classiques de la responsabilité pourront être difficiles à établir. Ainsi, bien souvent, le lien de causalité adéquate manquera et ce n’est pas l’acte du propriétaire du robot qui aura engendré le dommage.
On pourrait alors être tenté d’appliquer, par analogie, la responsabilité causale telle qu’on la trouve dans le cas du détenteur d’animaux (art. 56 CO): celui qui détient un animal en est responsable, sauf s’il peut prouver qu’il l’a gardé et surveillé avec l’attention commandée par les circonstances pour empêcher tout dommage.
Une telle application par analogie serait toutefois délicate, car la ratio legis de cette disposition est difficilement transposable au monde des robots. La responsabilité causale de l’animal est fondée sur le fait qu’il représente un danger et que son maître doit le maintenir constamment dans sa sphère de contrôle. Or, le robot est précisément destiné à évoluer seul dans le monde extérieur et à interagir avec des humains (ou d’autres robots), sans être sous le contrôle permanent de son détenteur ou propriétaire. On peut même concevoir qu’il sera de plus en plus demandé au robot de décider de manière autonome, voire à la place de l’être humain car son analyse sera plus précise et plus rapide que celle de l’humain dans de nombreuses situations.
Faut-il dès lors se tourner vers une responsabilité du fabricant ou du vendeur? Que l’on pense aux règles régissant le contrat de vente ou d’entreprise ou la responsabilité du fait des produits, ces normes exigent la présence d’un défaut. Or, la démonstration d’un lien de causalité entre un défaut, en lui-même difficilement constatable, et le dommage sera très difficile à apporter. En effet, du fait du caractère dynamique du développement du robot, il s’avérera extrêmement compliqué de déterminer s’il possède effectivement les qualités promises quant aux résultats de son développement, celui-ci étant largement déterminé par l’apprentissage qu’il fait au cours de son existence. La difficulté à imputer le dommage au fabricant se heurtera également au régime de la responsabilité du fait des produits, en vertu duquel le fabricant pourra s’affranchir de toute responsabilité s’il peut démontrer que le défaut ayant causé le dommage n’existait pas au moment où le robot a été mis en circulation (art. 5 al. 1 lit. b LRFP).
Faudrait-il alors considérer que celui qui libère un robot crée de facto un état de fait dangereux, dont le propriétaire doit assumer les conséquences? Ce chef de responsabilité impose à celui qui crée un état de fait dangereux qu’il fasse tout le nécessaire raisonnable pour prévenir des accidents. Une telle lecture serait éventuellement possible dans une situation où le robot est très immature et que son développement n’est pas du tout maîtrisé. Il s’agirait alors d’une faute que de le libérer dans cet état. En revanche, on ne peut plus suivre ce raisonnement dès le moment où il est abouti, puisqu’un robot fait souvent moins d’erreurs qu’un être humain dans une situation donnée. Considérer que le recours à un robot crée un état de fait dangereux signifie aussi que le robot est, par définition, dangereux et qu’il faut éviter de l’utiliser, ce qui va à l’encontre de l’ensemble des développements technologiques récents.
… et peut-être demain
Faut-il alors assimiler le robot d’un point de vue juridique à un être humain? Assurément non, mais rien n’empêche de créer une nouvelle catégorie juridique où il serait un sujet de droit, débiteur d’obligations (en lien avec la responsabilité pour ses actes essentiellement) et possédant des droits. Il sera certainement doté de suffisamment d’autonomie pour effectuer des actes juridiques courants (achat, vente, conclusion de contrats standard) pour le compte de son utilisateur. Un robot sera aussi capable de faire des photographies, de rédiger un texte ou de concevoir un programme d’ordinateur, si le résultat jouit d’un caractère individuel suffisant, devra-t-on alors étendre la notion de «création de l’esprit», afin de protéger par le droit d’auteur les œuvres du robot?
Se poseront donc inévitablement des questions culturelles et éthiques, d’une part quant à l’émancipation du robot et quant à savoir s’il pourra exercer ses droits seuls et disposer d’une capacité juridique et, d’autre part quant à savoir si la société acceptera de lui accorder des droits «personnels» qu’il pourrait revendiquer lui-même. Il devrait, dans tous les cas, rester objet de droit: il est essentiel qu’on puisse le posséder et qu’il puisse faire l’objet de droits de propriété.
Au niveau civil, on peut imaginer un système semblable à l’immatriculation des voitures. Tant que le robot n’est présent que dans un espace privé et fermé, on pourrait rester au régime de la responsabilité de son propriétaire. En revanche, avant d’être libéré sur un espace ouvert (dont la notion devra être précisée, à savoir si l’on considère l’espace public ou également tout espace privé dans laquelle d’autres personnes peuvent être présentes), un certain nombre d’obligations devraient être remplies. Cela serait, par exemple, une inscription auprès d’une autorité, ce qui lui donnerait une «identité». Des conditions pourraient être vérifiées à l’occasion de cette inscription, ainsi l’obligation de disposer d’une assurance responsabilité civile suffisante nous paraît essentielle, et pourquoi pas la preuve d’avoir inculqué au robot certaines normes essentielles. On peut ici penser à des normes juridiques impératives à respecter ou, plus simplement, aux trois lois développées par l’écrivain Isaac Asimov au milieu du siècle dernier.
- Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.
- Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
- Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
La responsabilité principale du propriétaire du robot sera alors de faire immatriculer son robot et de maintenir la couverture d’assurance. Ensuite, en cas de dommage, c’est l’assurance qui prendrait le relais. Le robot aurait ainsi une responsabilité propre et limitée au montant de l’assurance contractée, celle-ci étant adaptée aux risques que le robot peut créer.
S’agissant de la responsabilité pénale, on devra se poser la question de la responsabilité du programmeur qui aurait donné au robot l’ordre ou les instructions le conduisant à commettre l’infraction. Dans ce cas, le programmeur, voire dans certains cas un tiers, serait considéré comme l’instigateur. Le robot apparaîtrait alors comme auteur médiat qu’il y aurait peu d’intérêt à sanctionner. L’amende serait payée par l’assurance et la privation de liberté difficilement imaginable.
Tout reste à inventer
On voit déjà les critiques de ceux qui considèrent que les robots n’appartiennent qu’à la science-fiction et aux jeux vidéo et que les juristes ont d’autres questions plus sérieuses à traiter. Il nous semble pourtant inutile de résister ou de faire semblant que la question ne se pose pas. Les robots se développent à très grande vitesse car ils ne sont rien d’autre que la suite des développements techniques et informatiques des dernières décennies. Il paraît tout aussi illusoire de vouloir les interdire, car cela mettrait en péril de grands pans de l’économie et, surtout, priverait l’humanité de développements intéressants.
Entendons-nous bien, il n’est pas pour autant question de défendre à tout va l’existence des robots au mépris des règles éthiques et culturelles élémentaires. Celles-ci sont essentielles, et devront également être prises en compte dans le cadre de l’élaboration du droit et en complément de celui-ci.
Le législateur et, avec lui, l’ensemble de la population se retrouvent devant deux choix relativement simples: soit attendre qu’un problème se pose et essayer de le résoudre (en interprétant les lois ou en admettant à ce moment-là qu’il y a une lacune et en légiférant rapidement pour envisager les cas futurs) ou, alors, dès maintenant intégrer ce nouveau paradigme et accepter que l’ordre juridique ne peut plus être simplement divisé entre les choses et les êtres humains. On relèvera d’ailleurs que cela a déjà été le cas dans le passé, par exemple lors de l’introduction de dispositions pénales particulières protégeant les données informatiques et les ordinateurs (les premières ne pouvant pas faire l’objet d’un vol et les secondes d’une escroquerie ou d’une violation de domicile). Le droit s’adapte constamment aux évolutions majeures de la technique, plus ou moins discrètement selon les sujets.
Sans préjuger de la solution à adopter, nous pensons qu’il est important d’oser au moins accepter que le cadre légal actuel est insuffisant et qu’il faille penser sérieusement à l’adapter. En outre, plus cette adaptation aura lieu rapidement, plus il sera facile de l’intégrer dans le développement des robots et des projets de recherche en cours.
Pour aller plus loin
Les robots, Isaac Asimov, 1950 (1967 pour la traduction française).
Droit des robots, Alain Bensoussan et Jérémy Bensoussan, à paraître, juin 2015 (Editions Larcier).
Roboter und Recht, Melinda Florina Müller, AJP 2014, pp. 595 ss. Du robot en droit à un droit des robots, Grégoire Loiseau et Matthieu Bourgeois, «La Semaine Juridique», N° 48 du 24 novembre 2014, pp 1231 ss.
Suggestion for a green paper on legal issues in robotics, Christophe Leroux, Roberto Labruto, (euRobotics The European Robotics Coordination Action), décembre 2012.