Les robots et l’intelligence artificielle font une irruption spectaculaire dans nos vies. La relation entre l’humain et la machine ne constitue évidemment pas un thème nouveau, bien au contraire, mais nous en arrivons, aujourd’hui, à l’intelligence artificielle. Capable d’interpréter des données et d’imaginer des solutions, cette forme d’intelligence semble s’approcher des cognitions propres à l’humain. Intégrée à la machine – le robot – elle semble lui insuffler une forme de vie autonome. Confronté à de nouvelles évolutions, le monde juridique oscille classiquement entre ceux réclamant un régime juridique spécifique pouvant s’appliquer à la situation nouvelle et ceux affirmant que le droit en vigueur suffit, quitte à l’interpréter de manière extensive et évolutive. Comment appréhender la révolution en cours, marquée par une robotisation croissante et l’émergence de l’intelligence artificielle?
En Europe, le Parlement européen a véritablement placé la question des robots au centre de l’échiquier juridique en adoptant, le 16 février 2016, une résolution relative aux «règles de droit civil sur la robotique». Un débat juridique a aussi commencé en Suisse. Certains proposent l’édition de règles spécifiques en la matière, afin de passer du robot «objet» au robot «sujet». Ainsi, le robot ne serait plus une machine, mais se verrait doté d’une personnalité, d’un statut spécifique, voire d’une dignité propre. Une sorte de processus d’égalisation entre l’être humain et le robot. Cette démarche nous paraît néanmoins non seulement hasardeuse, mais aussi trompeuse. Les changements à venir ne devraient pas empêcher de poser les termes du débat, en partant d’une réflexion sur les catégories du monde et de la société. Avant de poser un «droit des robots», c’est bien d’une question épistémologique dont il est question.
L’approche visant à vouloir élaborer un régime juridique spécifique aux robots intelligents puise loin dans l’imaginaire collectif de l’homme. S’il n’est pas trop difficile d’imaginer que le robot sortira, à terme, d’une simple catégorie «machine», est-ce pour autant qu’il appartiendra automatiquement à une catégorie «humain» et «vivant»? La vraie question ici est celle de savoir si les robots peuvent être assimilés à des entités vivantes. Une comparaison avec le monde des animaux est intéressante dans ce contexte. Les animaux ont été pour très longtemps considérés comme des choses. Si ce n’est plus le cas aujourd’hui – un «droit des animaux» a vu le jour – c’est qu’il s’agit bien d’êtres vivants. Les robots semblent de plus en plus dotés d’une intelligence autonome, mais ne disposent pourtant pas de la vie. Faut-il protéger une intelligence sans vie comme on protège une vie?
Quid si les progrès à venir permettront d’en arriver à des robots dotés d’une intelligence «humaine»? Réalisable ou pas sur le plan scientifique, c’est à l’homme de définir le modèle de la robotique et de l’intelligence artificielle du futur, afin d’en garder la direction. Les scenarii de remplacement et de domination restent confinés au domaine de la science-fiction. Une sorte de droit fondamental en découle: celui pour l’être humain de pouvoir contrôler la décision du robot. C’est dans le système de programmation que se trouve la clé de voûte de la relation coopérative d’interaction entre le détenteur (l’humain) et le robot. Et il n’est pas exclu, très probable même, que le robot doté d’une intelligence artificielle pourra faire preuve d’émotions. Toutefois, ce ne sera qu’une apparence, le robot ne faisant que mimétiser au plus proche l’émotion humaine.
Le fait de vouloir considérer le robot intelligent au titre d’une sorte d’être vivant, en lui attribuant une personnalité et des droits, paraît également peu défendable du point de vue éthique. Car comment justifier le fait qu’un grand nombre de personnes ne bénéficient toujours pas des droits les plus élémentaires – droits de l’homme, droit humanitaire et droits des réfugiés en tête? Sur la base de quelle justification morale accorder des droits à des «machines» intelligentes, alors que la protection des droits humains demeure, elle, lacunaire?
Le robot est une entité non vivante, dotée d’une autonomie et d’une intelligence croissantes, évoluant sous le contrôle et au service de l’être humain. Il ne s’agit pas d’attribuer des droits aux robots intelligents ou même de les protéger contre les mauvais traitements de la part de l’homme, mais d’analyser le régime de responsabilité (de l’humain) en relation avec leurs agissements. C’est par rapport à ce que le robot produit et/ou provoque qu’un jeu de responsabilités entre en ligne de compte. Dans ce contexte, il est primordial que les robots intelligents soient conçus et programmés en tenant compte des principes et des règles éthiques de la société considérée (cf. en anglais le concept «ethics by design»).
Le droit en vigueur connaît – en Suisse comme dans bien d’autres ordres juridiques nationaux – des règles de référence permettant la prise en compte de la responsabilité du fait des robots (régime de la responsabilité du fait des produits; responsabilité du détenteur d’un animal). Ces normes constituent une base légale pour tenir compte de la responsabilité en relation avec le robot intelligent. La jurisprudence aura un rôle important à jouer, afin d’accommoder et d’interpréter le droit en vigueur aux nécessités pratiques à venir.
Sur le plan international, les avancées de la technique et du numérique devraient aussi commander une «globalisation de l’éthique». Un futur régime juridique international demandera d’abord des lignes de conduite éthiques partagées, au moins entre régions du monde (Europe, Amérique occidentale, monde occidental, monde oriental, etc.). Et un impératif éthique immédiat surgit en relation avec les robots militaires, et notamment les drones, dans les conflits. A l’avenir, une sorte de nouvelle «Convention de Genève», explicitant aussi les responsabilités des acteurs en jeu, pourrait être considérée.
L’appel à l’élaboration hic et nunc d’un «droit des robots» semble bien davantage découler d’une fascination pour les nouvelles formes de robotique et d’intelligence artificielle que d’une analyse rationnelle. Il ne faudrait pas que l’enthousiasme suscité par les perspectives de l’évolution scientifique et technique aboutisse à élaborer une sorte de lege phantasia. Le droit actuel nous fournit une base et une référence. Le régime juridique à analyser in primis est celui de la responsabilité en relation avec les robots intelligents.
Mirko Zambelli, Dr en droit*
* Chef de mission adjoint, Ambassade de Suisse aux Pays-Bas. L’auteur se prononce ici en son propre nom. Les opinions exprimées dans le présent texte sont indépendantes de la position officielle de la Suisse ou des vues du DFAE.