LegalTech
Intelligence artificielle
Prévoir l’imprévisible dans le contrat
L’intelligence artificielle se définit principalement par sa capacité d’apprentissage autonome (‘machine learning’ et ‘deep learning’) telle que le rappelle la norme ISO 2382:2015 : « capacité d’une unité fonctionnelle à exercer des fonctions généralement associées à l’intelligence humaine, telles que le raisonnement ou l’apprentissage ».
Le défi juridique face à cette autonomie caractéristique se concentre autour de la notion de responsabilité. Alors que la doctrine publie abondamment sur l’adéquation entre nos régimes de responsabilité civile et l’intelligence artificielle, la responsabilité contractuelle dépend quant à elle de l’aménagement relatif qu’en font les parties, sauf disposition contraire. S’armer de principes directeurs à traduire dans le contrat semble donc nécessaire pour combler le « vide juridique » qu’introduit l’imprévisibilité de l’intelligence artificielle.
Ce vide juridique est alimenté par l’absence de qualification précise : parlons-nous de chose, c’est-à-dire d’intelligence artificielle incarnée dans un objet matériel ou dans un bien immatériel tel qu’un logiciel ? Quelle sera l’incidence sur la qualification du contrat lorsque l’intelligence artificielle sera abordée en tant qu’entité désincarnée, autonome et imprévisible ? Serons-nous face à un contrat de vente, de prestation de service ou encore un contrat sui generis ?
La multiplicité des parties en jeu rend d’autant plus difficile l’organisation des relations dans les chaînes de contrats, en termes de garantie et d’exonération de responsabilité. A qui imputer la responsabilité en cas de manquement contractuel : à l’utilisateur ? Au concepteur de l’intelligence artificielle ? Au fabricant de l’objet ou programmateur le cas échéant ?
Ces interrogations font état d’un ensemble de risques dont la gestion contractuelle implique de s’intéresser à trois principaux enjeux. Permettre aux parties de se référencer à des normes apparaît aujourd’hui nécessaire pour définir un cadre contractuel solide (1). Etablir les règles relatives à la responsabilité revient alors à déterminer ce qui sera prévisible ou non dans l’exécution du contrat (2). Fruit d’innovation, l’intelligence artificielle sera également l’objet de risques en termes de propriété intellectuelle et nécessitera d’explorer les régimes de protection les plus efficaces (3).
Normalisation : établir un cadre de référence pour sécuriser la relation contractuelle
Les différentes applications de l’intelligence artificielle présentent des outils complexes, susceptibles d’engendrer des risques pour la sécurité des utilisateurs. La question est de savoir sur quels fondements juridiques encadrer la sécurité des spécificités techniques liées à l’intelligence artificielle. Une bonne pratique serait d’obtenir, de la part des organes de normalisation, une norme de référence qui établirait les caractéristiques requises par l’intelligence artificielle de manière à ce qu’elle réponde à l’usage auquel elle est destinée.
Une norme est définie comme « une spécification technique approuvée par un organisme reconnu à activité normative pour application répétée ou continue, dont l’observation n’est pas obligatoire »[1]. Etablir une telle norme à travers une procédure formelle menée par un organisme de normalisation permettrait de prendre le contrepied d’une normalisation de fait, qui risque de s’instaurer rapidement dans les relations contractuelles au vu du degré de pénétration de l’intelligence artificielle dans le marché. Cette normalisation de fait pourrait vicier certains rapports de responsabilité à l’inverse d’une norme débattue a priori par les organes compétents et reconnue par la majorité des acteurs.
Normaliser les rapports laisserait également aux parties le choix de se référer ou non aux règles adoptées, ce qui ne limiterait pas la liberté contractuelle par des dispositions impératives mais agirait au contraire comme un outil mis à disposition pour s’aligner sur des solutions identiques. De plus, cette normalisation, en participant à créer la sphère de sécurité attendue par le marché, règlerait de nombreuses interrogations. Au lieu de rechercher à imputer la responsabilité à une partie, il s’agirait d’apprécier le manquement contractuel face à la norme référencée dans le contrat.
A ce titre, le Parlement européen a adopté une résolution le 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique. Le Parlement considère que « la question de l’élaboration de normes […] est cruciale pour la concurrence future dans le domaine des technologies de l’intelligence artificielle et de la robotique » et « demande à la Commission de poursuivre ses travaux relatifs à l’harmonisation des normes techniques au niveau international »[2].
Les institutions s’intéressent au sujet de la normalisation et pourraient participer à la naissance de ces normes en tant que moyens solides d’établir les principes techniques caractéristiques de l’intelligence artificielle.
Il serait d’ailleurs possible de s’inspirer de modèles de référence déjà existants, tels que le modèle CMM (Capability Maturity Model), structure de bonnes pratiques pour les activités d’entreprises d’ingénierie. Ce modèle constitue cinq niveaux de maturité de processus d’organisation pour les différents projets mis en place et permet aux acteurs du secteur d’établir des règles communes en référence à cettéchelle d’analyse. De même, la norme ISO 15504 met à disposition un cadre référentiel lié au développement des logiciels pour évaluer et améliorer les processus. Il est nécessaire de se saisir de ces éléments normatifs pour créer un nouveau cadre propre à l’intelligence artificielle.
Prévisibilité : établir l’exonération de responsabilité dans le contrat
L’article 1231-3 du code civil tel qu’issu de l’ordonnance n° 2016-131 du 10 février 2016 prévoit que « le débiteur n’est tenu que des dommages et intérêts qui ont été prévus ou qui pouvaient être prévus lors de la conclusion du contrat, sauf lorsque l’inexécution est due à une faute lourde ou dolosive ». Un principe de prévisibilité du dommage est donc inscrit dans notre droit commun. Cette disposition prend tout son sens avec l’intelligence artificielle. L’imprévisibilité d’un tel système du fait de son apprentissage autonome pourra, en effet, poser problème lors de l’exécution du contrat entre son comportement attendu et son développement ultérieur.
Il est important de relever que l’article précité indique expressément, contrairement à l’implicite signification de l’article 1150 ancien du code civil, la date d’appréciation de la prévisibilité du dommage à « la conclusion du contrat ». Par conséquent, définir dans le contrat l’usage fonctionnel attendu ou prévisible de l’intelligence artificielle semble nécessaire pour que son comportement futur et imprévisible puisse être exonératoire de responsabilité. Cette clause sera sûrement parmi celles qui feront l’objet d’une négociation accrue afin que les deux parties s’entendent sur les implications d’une telle définition.
Il faudra cependant rester vigilant par rapport aux conditions supplémentaires ajoutées par l’article 1231-3 nouveau : le dommage dû à une faute lourde ou dolosive ne sera pas exonératoire de responsabilité, même en cas d’imprévisibilité. Bien que la notion de faute se rapporte au fait personnel et ne s’applique pas à l’intelligence artificielle, il est possible d’imaginer une situation dans laquelle la partie qui fournit le système d’intelligence artificielle dissimule intentionnellement des informations à l’autre partie et pourra alors engager sa responsabilité.
Dans tous les cas, une telle clause exonératoire de responsabilité du fait de l’imprévisibilité de l’intelligence artificielle sera confrontée à l’interdiction de priver de sa substance l’obligation essentielle du contrat. A cet égard, L’article 1170 nouveau du code civil reprend une jurisprudence constante : « Toute clause qui prive de sa substance l’obligation essentielle du débiteur est réputée non écrite ». Ce même raisonnement s’appliquera à toute clause limitative de responsabilité, telle qu’une clause prévoyant un plafond d’indemnisation ou encore toute clause pénale dont l’objet ne devra pas porter sur l’obligation essentielle du contrat.
La contradiction entre le développement autonome par nature de l’intelligence artificielle et la volonté de limiter son engagement à ce qui est prévisible affectera-t-elle l’obligation essentielle du contrat ? Les parties devront être alertées de la portée des clauses exonératoires ou limitatives de responsabilité qu’elles voudront mettre en place face à l’intelligence artificielle. Il est certain que les juges apprécieront ces clauses au cas d’espèce en fonction de cette entité particulière.
En complément, il convient de préciser que ces aménagements contractuels pourront être mis en œuvre dans les relations B to B alors que les rapports B to C risquent d’être régis par des dispositions beaucoup plus strictes du droit de la consommation. Au-delà de l’obligation essentielle du contrat, l’ordonnance n° 2016-131 du 10 février 2016 a codifié au sein de l’article 1112-1 du code civil l’obligation d’information qui est renforcée envers le consommateur. Le professionnel doit en effet l’informer sur les « caractéristiques essentielles » du produit selon l’article L. 111-1, 1° du code de la consommation. L’imprévisibilité pourrait être considérée comme une « caractéristique essentielle » de l’intelligence artificielle susceptible d’empêcher l’exonération de responsabilité du professionnel.
Le droit de la consommation semble particulièrement inadapté à la commercialisation de produits contenant une intelligence artificielle ainsi qu’à l’usage qu’en font les consommateurs. Il serait judicieux d’avancer une réflexion, notamment au niveau européen, sur la nécessité d’organiser un régime dérogatoire aux dispositions actuelles du droit de la consommation qui autoriserait, à un certain degré, le principe d’exonération de responsabilité du professionnel dans le secteur de l’intelligence artificielle.
Régime de protection : la propriété intellectuelle et l’intelligence artificielle
Gérer les risques contractuels, c’est également protéger de manière efficace le système d’intelligence artificielle fourni dans le contrat. Or, s’attacher à nos réflexes traditionnels de propriété intellectuelle ne semble plus être adapté face à l’intelligence artificielle.
Il est clairement reconnu par les experts que l’intelligence artificielle ne se réduit pas à un logiciel. Ainsi, raisonner par analogie n’est pas forcément pertinent, notamment en ce qui concerne la possible protection de l’intelligence artificielle par le droit d’auteur de la même manière qu’il protège le logiciel. Rappelons que la condition d’originalité propre au droit d’auteur est déjà difficile à prouver en ce qui concerne le logiciel qui ne peut pas être seulement innovant mais doit également établir un apport propre et personnalisé de son auteur[3].
Démontrer l’originalité de l’intelligence artificielle sera donc d’autant plus difficile qu’un certain degré de paramétrage de la part de l’homme reste nécessaire, ce qui empêche un véritable processus de création originale. Il semble que l’intelligence artificielle s’assimile moins à la notion d’œuvre qu’à celle d’invention, puisqu’elle apporte une solution technique à un problème technique.
Malgré le principe de non-brevetabilité du logiciel tiré de l’article L.611-10 du code de la propriété intellectuelle, l’intelligence artificielle pourrait être à même de remplir les conditions de validité du brevet par les effets techniques qu’elle produit. Ainsi, une hypothèse de brevetabilité devrait être privilégiée par les différents acteurs du secteur. Le brevet a, en effet, l’avantage de rendre tangible l’invention et de faciliter la contractualisation par la mise en place de licences.
Les géants du numérique ont d’ailleurs commencé ce processus de brevetabilité dans le secteur de l’intelligence artificielle. CB Insights montre par exemple que Microsoft a déposé plus de cent brevets dans le domaine entre 2014 et 2016[4].
Par conséquent, connaître les différents régimes de protection, notamment ceux offerts par le brevet et le droit d’auteur, semble indispensable pour comparer leur efficacité respective par rapport à l’intelligence artificielle. Choisir le régime adéquat de protection revient à prévenir le risque d’engager sa responsabilité contractuelle.
L’intelligence artificielle invite à établir une stratégie contractuelle qui sait s’adapter à ce phénomène technique émergent et qui identifie précisément les risques associés. En l’absence de dispositions propres, la réforme du droit des contrats n’a pas su se positionner face à l’intelligence artificielle. Elle laisse aux parties le soin d’utiliser les règles de responsabilité contractuelle présentes aux articles 1231 et suivants du code civil qui, malgré un changement rédactionnel, reprennent le fond des articles anciens 1146 à 1152.
C’est pour cette raison que des pistes de réflexion doivent être avancées afin d’encadrer la contractualisation d’un système d’intelligence artificielle au sein d’un ensemble cohérent et réaliste face à la complexité des problématiques en jeu. Se référer à des normes de référence, gérer en amont l’imprévisibilité ou encore protéger l’intelligence artificielle efficacement sont les points clés pour réduire le risque lié à un quelconque manquement contractuel entraînant la responsabilité de l’auteur du manquement.
François-Pierre Lani
Avocat Associé, Derriennic Associés
Avec la collaboration de Tony Garcia
[1] Directive 2004/18/CE du Parlement et du CE, Annexe 6.
[2] Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) : http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//FR
[3] Voir CA Montpellier, 6 mai 2014, RG n° 13/00995 ; CA Paris, 5 mai 2017, RG n°16-08788 ; CA Paris, 24 mars 2015, RG n°12/22514
[4] CBINSIGHTS, The State of Artificial Intelligence : https://www.cbinsights.com/research/report/artificial-intelligence-trends/