Le second volet de cette analyse relative au droit de la responsabilité civile à l’épreuve des nouvelles technologies est consacré à l’intelligence artificielle.
Et quelle épreuve !
Si nos modes de communication et de consommation ont depuis quelques années maintenant été transformés par l’utilisation des réseaux sociaux et des plateformes, il n’en demeure pas moins que l’appréhension juridique de ces outils, mis à la disposition de leurs utilisateurs et animés par eux, relevait à l’évidence jusqu’ici de notre droit tel qu’il a été conçu, autour de l’humain.
Or, émergent non seulement au sein de ces mêmes outils mais également de bien d’autres aspects de nos vies, des technologies qui tendent à devenir autonomes, conduisant à s’interroger sur la pérennité de notre modèle juridique à leur égard.
De nombreuses technologies peuvent en effet relever de l’« intelligence artificielle » selon :
- Le fonctionnement du système d’IA:
L’accroissement des puissances de calcul permet aujourd’hui de concevoir non plus seulement des IA « faibles » fonctionnant selon des règles apprises, prédéfinies, mais également des IA « fortes » fonctionnant notamment selon le principe du Machine Learning, c’est-à-dire qui se nourrissent de masses d’informations (le « Big Data ») pour apprendre sans avoir été programmées spécifiquement à cet effet.
Ce glissement du « monde du code » vers le « monde de l’apprentissage » peut être illustré de la façon suivante :
- Outils entièrement paramétrés, exemple de la machine à café,
- Outils de prise de décision qui fournissent une évaluation sur la base de faits interprétés, notamment en matière médicale, d’octroi de crédit, de recrutement,
- Outils réalisant de façon autonome des actes juridiques, exemple des robots de trading,
- Outils automatisés, exemple avec AutoGPT, projet expérimental autonome et indépendant de ChatGPT, lesquels vont apprendre et s’améliorer en fonction de l’usage que l’on en a.
- Le critère physique du système d’IA:
Le fantasme du robot, lequel serait une IA incarnée matériellement dans une machine humanoïde, cache en réalité une multitude de manifestations de l’IA : la majeure partie des IA sont désincarnées et mises à disposition de façon dématérialisée.
En toute hypothèse, l’IA est créée par l’homme avec un objectif.
Notamment, il peut s’agir de : faire gagner du temps et de la productivité, faire réaliser des économies, apporter du confort à ses utilisateurs, diminuer les risques.
Cet espoir de diminution des risques justifie notamment les importantes avancées en matière de robot chirurgien, ou encore de véhicule autonome.
Il n’est donc pas étonnant que le monde juridique s’interroge sur les relations entre l’intelligence artificielle et la responsabilité civile.
Il est vrai que l’on pourrait, dans les hypothèses citées, imaginer une diminution des risques. Mais l’intervention des IA, chacune indépendante, va également générer ses propres risques. Le défi de l’adaptabilité aux situations peut se révéler source de dommages dans des circonstances inédites, en particulier dans les hypothèses où cette technologie sera dotée de fonctions cognitives, et pourra pour cette raison s’adapter à son environnement, progresser, prendre des initiatives et à cette occasion provoquer des préjudices.
Qui dans ce cas devra assumer la charge de la réparation des dommages causés (matériel, immatériel, corporel) ?
Notre système juridique actuel, dans un contexte européen, est-il à même de le relever, ou doit-il se doter de nouveaux outils ?
- L’appréhension de l’intelligence artificielle par le Code civil français
Notre Code civil de 1804 a déjà fait preuve d’adaptabilité à maintes reprises.
Explorons les ressources immédiatement à notre disposition, tant en droit commun qu’en droit spécial.
Régime général
- Responsabilité du fait personnel
La responsabilité pour faute prévue à l’article 1240 du Code civil peut être envisagée comme le premier fondement permettant d’obtenir la réparation des dommages causés par l’IA.
De quelle faute parle-t-on ?
Plusieurs hypothèses coexistent :
- La faute des concepteurs de l’IA, programmeur ou développeur, en cas de bug technique ou d’erreur de programmation,
- La faute du fabricant ou producteur, pour tout défaut technique,
- La faute de l’utilisateur, en cas de défaut d’utilisation,
- Mais également la faute de l’IA elle-même.
Compte tenu de l’autonomie vers laquelle tend l’IA, synonyme d’imprévisibilité pour ses concepteurs, celle-ci pourrait en effet se voir reconnaitre une personnalité juridique propre, et devoir civilement répondre des faits dommageables qui lui sont imputables.
Cela n’est plus une illusion : le robot humanoïde « Sophia » a été la première IA à obtenir une nationalité, l’Arabie Saoudite lui ayant offert la citoyenneté en octobre 2017.
Après tout, les personnes morales, pures créations juridiques, sont elles aussi responsables civilement et pénalement.
Néanmoins, ce régime de responsabilité présente un obstacle majeur pour la victime : il pèse sur elle la charge de la preuve d’une faute à l’origine de son dommage.
Cela supposerait en premier lieu d’avoir établi un référentiel que l’IA aurait enfreint.
Il s’agirait ensuite de rapporter la preuve d’un défaut technique, ce qui peut être très complexe voire impossible, tant au regard de la haute technicité, que de la multitude d’acteurs participant au processus de développement et de déploiement des systèmes d’IA.
La responsabilité du fait personnel présentant en l’état, un frein à l’indemnisation des victimes, il convient d’envisager d’autres régimes de responsabilité.
- Responsabilité du fait des choses
La responsabilité du fait des choses prévue au premier alinéa de l’article 1242 du Code civil peut être envisagée comme le second fondement permettant d’obtenir la réparation des dommages causés par l’IA.
L’IA est-elle une chose ?
Traditionnellement, la responsabilité du fait des choses vise exclusivement la chose corporelle.
La chose, au sens de cet article, serait alors celle qui incorpore l’IA, et non l’IA elle-même.
Toutefois l’on pourrait considérer que cette technologie demeure le fruit de calculs informatiques réalisés par des machines. Il y a en effet nécessairement une chose corporelle derrière chaque système d’IA : un ordinateur, quelque part dans le monde.
Il pourrait être ainsi distingué selon que l’instrument du dommage est l’anormalité de l’enveloppe corporelle de l’IA, ou celle de son contenu incorporel, par exemple une simple information.
Dans le premier cas, l’on se référerait, pour déterminer l’anormalité de la chose, aux critères classiques posés par ce régime de responsabilité.
Le second cas serait en revanche plus délicat, puisque la chose matérielle ne serait pas rentrée en contact avec le siège du dommage.
Cela reviendrait encore à faire peser la charge de la preuve sur la victime, et à poser de nouvelles questions : si l’IA est désincarnée, comment identifier précisément la machine qui la fait fonctionner ? Quel régime juridique lui est applicable ?
Les praticiens du droit international privé seront, à n’en pas douter, ravis d’étudier ces questions.
Qui est par ailleurs le gardien de l’IA ?
La notion de garde interroge également.
Il n’est pas certain que les critères classiques de la garde matérielle de la chose, impliquant un pouvoir d’usage, de contrôle et de direction sur celle-ci, soient applicables aux IA « fortes ».
L’on pourrait dissocier la garde de l’IA elle-même (s’agissant de l’algorithme) et la garde de la chose corporelle qui fait fonctionner ou qui embarque l’IA (s’agissant des éléments extérieurs à l’algorithme).
Le premier cas reviendrait à faire peser sur les concepteurs de l’IA une responsabilité sans faute, pouvant paraitre excessive, et représenter un frein à l’innovation.
Le second cas reviendrait de la même manière à faire peser sur l’utilisateur ou le propriétaire une importante responsabilité, pouvant paraitre excessive si l’IA est animée et libre de ses mouvements.
Bien que le recours à ce régime de responsabilité puisse en certains cas apporter des solutions, il ne semble pas que ce soit le plus adapté pour l’ensemble des sujets que soulève l’IA.
- Responsabilité du fait d’autrui
L’article 1242 alinéa 1er du Code civil, vise, outre le fait des choses, le fait personnes dont on doit répondre.
Passons rapidement sur ce régime lequel impliquerait d’assimiler les machines à des personnes.
Il s’agirait alors de faire peser la responsabilité des actions de l’IA sur leurs propriétaires et utilisateurs, ce qui reviendrait à la problématique de leur garde.
- Responsabilité contractuelle
Et le contrat ?
Les rapports entre concepteurs de l’IA, producteurs, intégrateurs ou fabricants, propriétaires et utilisateurs, doivent nécessairement être envisagés par son intermédiaire.
Le contrat est en effet créateur d’obligations entre les parties, et dans le cas de contrats de vente et/ou de prestation de service conclus entre un vendeur professionnel et un consommateur, un non-professionnel, ou encore un professionnel d’une autre spécialité, peut ouvrir droit au bénéfice des garanties légales.
Ainsi, le recours à la garantie légale des vices cachés est pertinent contre le vendeur, en matière de vente de matériel informatique, mais ne l’est pas contre le simple prestataire de services s’il n’a pas fourni de matériel en même temps que la réalisation de sa prestation.
Si le prestataire a effectivement également fourni du matériel, comme en matière de construction, il pourrait être envisagé un recours du maitre d’ouvrage directement contre le fournisseur.
Néanmoins, même dans l’hypothèse d’un tel recours, se poserait de nouveau la difficulté de la preuve : comment prouver l’antériorité du vice à la vente, si ce vice est apparu au cours de l’apprentissage autonome des IA « fortes » ?
En somme, le contentieux des vices cachés en matière de programmes informatiques non incorporés est donc tout à fait marginal, et semble pour les systèmes d’IA, limité à des cas limités de vente de systèmes incorporés.
La garantie légale de conformité quant à elle, est étendue depuis une ordonnance de transposition de 2021, consécutive à une directive européenne du 20 mai 2019 n° 2019/770, à la fourniture de contenus et services numériques dans une section dédiée du Code de la consommation.
Ce texte est venu créer un nouveau contrat spécial, mettant à la charge du fournisseur certaines obligations qui lui sont spécifiques, notamment en matière d’information précontractuelle et de délivrance.
Le bénéfice de la garantie légale de conformité est donc étendu à ces contrats purement immatériels, et ne porte plus seulement sur les contrats portant sur des biens corporels.
Si cette mise à jour récente de la garantie légale de conformité permet d’assurer une certaine complémentarité avec la garantie légale des vices cachés, il n’en demeure pas moins que celles-ci ont toutes deux vocation à garantir le bien ou le service, objet du contrat de vente ou du contrat de fourniture, et non les conséquences dommageables de leur utilisation.
C’est la raison pour laquelle les fournisseurs de systèmes d’IA ont systématiquement recours à la conclusion de contrats d’utilisation, lesquels prennent la forme de contrats d’adhésion, non négociés.
Toute personne souhaitant utiliser par exemple ChatGPT, devra ainsi créer un compte utilisateur et accepter les conditions d’utilisation présentées, préalable nécessaire à l’octroi d’un droit d’accès et d’utilisation à ce service, pour le moment gratuit.
Le saviez-vous ?
Il convient de prêter une attention particulière à ces conditions d’utilisation : celles-ci prévoient, à l’article 7, que l’utilisateur est responsable non seulement à l’égard des tiers, mais également à l’égard d’OpenAI, de son utilisation du système ChatGPT.
L’utilisateur doit ainsi consentir à devoir « défendre, indemniser et relever indemniser OpenAI, ses affiliés et son personnel, contre toutes réclamations, pertes et frais (notamment les frais d’avocat) consécutives ou liées à son utilisation des services […] » !
Les systèmes d’IA accessibles aujourd’hui étant en majeure partie des solutions étrangères, les conditions d’utilisation prévoient également la compétence de juridictions étrangères : ChatGPT retient la compétence exclusive des tribunaux de San Francisco.
Les conditions d’utilisation, qui ne sont en général pas lues par les utilisateurs, complexifient ainsi grandement les relations entre les parties au contrat et éventuels tiers victimes.
Les victimes, mais également les utilisateurs des systèmes d’IA, doivent donc être protégés et bénéficier d’un cadre juridique clair afin de pouvoir éventuellement exercer leurs recours.
Ces dispositions ne manqueront pas d’être soumises à l’épreuve du droit de la consommation et du droit de l’Union européenne, en matière de clauses limitatives et exclusives de responsabilité.
En ce sens, notons que le Parlement européen s’est déjà saisi de la question puisque figure, dans sa résolution votée le 20 octobre 2020 contenant des recommandations à la Commission sur un régime de responsabilité civile pour l’IA n° 2020/2014(INL), à l’article 2, l’alinéa suivant :
« Tout accord conclu entre l’opérateur d’un système d’IA et une personne physique ou morale qui subit un préjudice ou un dommage en raison du système d’IA, qui contourne ou limite les droits et obligations fixés par le présent règlement, conclu avant ou après la survenue du préjudice ou du dommage, est réputé nul et non avenu en ce qui concerne les droits et obligations fixés par le présent règlement. »
Régimes spéciaux
- Loi Badinter du 5 juillet 1985 sur l’indemnisation des victimes d’accidents de la circulation
Des régimes dérogatoires sont déjà venus compléter les régimes de droit commun afin d’apporter des solutions aux problèmes juridiques posés par l’évolution de la technique.
Tel est le cas de la loi du 5 juillet 1985 dite « loi Badinter », venue protéger les victimes d’accident de la circulation en leur facilitant les recours en indemnisation.
Cette loi a d’intéressant que rien ne s’oppose à son application aux véhicules autonomes, pilotés par l’IA, puisqu’elle est applicable à tout accident de la circulation dès l’instant où s’y trouve impliqué un véhicule terrestre à moteur.
Ni la notion de véhicule terrestre à moteur, ni celle d’implication ou encore d’accident, éléments clés de ce régime, ne sont sensibles à la présence d’une IA embarquée.
Il n’en reste pas moins que cette loi intervient dans la fixation du droit à indemnisation des victimes et dans les modalités selon lesquelles ce droit peut être réduit ou exclu, ce qui implique nécessairement que soient identifiés un créancier et un débiteur d’obligations.
Or qui est le conducteur d’une voiture autonome ? L’IA, l’utilisateur, le concepteur, le constructeur ?
La France a commencé à répondre à cette question et adopté une série de mesures relatives aux véhicules « à délégation de conduite » en 2021 et 2022, autorisant la circulation des véhicules autonomes de niveau 3 et fixant la responsabilité pénale des parties durant ces phases de conduite.
L’article L123-2 du Code de la route dispose ainsi que « pendant les périodes où le système de conduite automatisé exerce le contrôle dynamique du véhicule […] le constructeur du véhicule ou son mandataire […] est pénalement responsable […] »
Il n’en reste pas moins qu’en matière civile, de nombreuses hypothèses continuent de poser question s’agissant de la règle d’imputation de l’obligation d’indemniser entre le conducteur et le gardien.
Qu’en est-il par exemple d’une sortie de route d’un véhicule autonome, sans aucun autre véhicule impliqué, dont l’utilisateur et les passagers seraient blessés ?
Ces débuts de solutions demeurent fort intéressants mais ne s’appliquent qu’en matière d’accidents de la circulation et n’ont qu’une portée nationale, là où une solution est attendue à l’échelle de l’Union européenne.
- Responsabilité du fait des produits défectueux
La responsabilité du fait des produits défectueux prévue aux articles 1245 et suivants du Code civil constitue la transposition en droit français de la directive communautaire n° 85/374/CEE de 1985.
Ce régime de responsabilité a la particularité d’ignorer la distinction entre responsabilité contractuelle et délictuelle, en s’appliquant nécessairement à la réparation de tout dommage causé par la défectuosité d’un produit, que la victime soit ou non liée par un contrat avec le producteur.
L’on peut donc s’interroger, en l’état du droit positif, sur ces trois notions : la notion de produit, de défaut, et de producteur.
S’agissant de la notion de produit, et comme pour la responsabilité du fait des choses, la responsabilité du fait des produits défectueux vise classiquement les produits corporels.
L’IA non incorporée ne saurait donc être considérée comme un produit, pas plus que l’information produite par cette IA.
S’agissant de la notion de défaut, rappelons qu’un produit est défectueux au sens de ces dispositions s’il n’a pas offert la sécurité à laquelle on pouvait légitimement s’attendre, alors même que ce défaut existait déjà au moment où il a été mis en circulation.
Or, le dommage causé par l’IA, peut, d’une part, ne pas avoir existé au moment de sa mise en circulation compte tenu encore une fois de l’imprévisibilité des IA « fortes », d’autre part, avoir causé des dommages étrangers à toute notion de « sécurité ».
S’émanciper de cette notion de sécurité reviendrait alors à vider de sens ce régime spécial de responsabilité.
De plus, la charge de la preuve du défaut et de son lien de causalité avec le dommage incombe là encore à la victime, emportant les mêmes difficultés que vues précédemment.
S’agissant enfin de la notion de producteur, la définition actuelle, restrictive, ne tranche pas les responsabilités entre concepteurs de l’IA et intégrateurs, fabricants de son éventuelle enveloppe corporelle.
C’est notamment sur la base de ce régime prometteur de la responsabilité du fait des produits défectueux que l’Union européenne a fait le choix d’avancer afin de proposer une réflexion globale, supra étatique, répondant aux enjeux de protection des personnes et de développement économique.
- L’appréhension de l’intelligence artificielle par le droit de l’Union européenne
Nous l’avons vu, les règles nationales actuelles en matière de responsabilité ne sont pas efficaces face aux enjeux soulevés par le développement de l’intelligence artificielle.
Les institutions de l’Union européenne travaillent depuis plusieurs années pour y répondre.
L’approche européenne de l’intelligence artificielle
La démarche de la Commission européenne est claire : est affirmé, dans son rapport sur les conséquences de l’intelligence artificielle, de l’internet des objets et de la robotique sur la sécurité et la responsabilité, annexé au livre blanc sur l’intelligence artificielle publié le 19 février 2020, son souhait de placer l’Europe à la pointe dans ces domaines.
Pour y parvenir, la Commission a souligné la nécessité d’instaurer un cadre juridique européen clair et prévisible permettant d’assurer la sécurité des utilisateurs de ces technologies, et de réparer les différents types de dommages pouvant être causés par elles.
Les différents régimes nationaux de responsabilité sont en effet trop disparates en l’état pour envisager avec sérénité le déploiement massif de l’IA aux consommateurs sur le territoire européen.
Cet élan s’était déjà concrétisé par l’adoption, le 20 mai 2019, de deux directives n° 2019/770 et 2019/771 venues préciser notamment l’application de la garantie légale de conformité aux contrats de fourniture de contenus numériques et de services numériques.
Sous cette impulsion, le Parlement européen a adopté quelques mois plus tard, le 20 octobre 2020, trois résolutions, parmi lesquelles la résolution n° 2020/2014(INL) ayant pour objet de porter des recommandations à la Commission sur un régime de responsabilité civile pour l’intelligence artificielle.
La Commission a conséquemment adopté, le 21 avril 2021, trois propositions de règlement :
- L’une établissant des règles harmonisées concernant l’intelligence artificielle, intitulée législation sur l’intelligence artificielle n° COM/2021/206,
- L’autre modifiant les règles applicables en matière de sécurité générale des produits n° COM/2021/346,
- Tandis que la dernière renforce les exigences de sécurité applicables aux machines et produits connexes n° COM/2021/202.
La proposition de règlement sur l’intelligence artificielle a défini un certain nombre de termes repris dans les textes ultérieurs, notamment la notion fondatrice de « système d’IA ».
Il s’agit d’« un logiciel qui est développé au moyen d’une ou plusieurs des techniques et approches énumérées à l’annexe I [du RIA] et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit ».
Ces propositions de règlement sont inédites puisqu’elles établissent un cadre juridique ad-hoc, spécifique à l’intelligence artificielle, et s’intéressent particulièrement aux obligations précédant la mise sur le marché de ces solutions. Leur objet est de réduire les risques en fixant des règles de sécurité, pour éviter de causer des dommages.
Propositions de directives du 28 septembre 2022
Plus récemment, la Commission européenne a adopté, le 28 septembre 2022, deux propositions de directives, l’une ayant pour objet la révision de la directive sur la responsabilité du fait des produits défectueux n° COM/2022/495 et l’autre l’adaptation au domaine de l’IA des règles en matière de responsabilité civile extracontractuelle, intitulée directive sur la responsabilité en matière d’intelligence artificielle n° COM/2022/496.
- Points communs
Ces propositions de directives ont en commun la vocation de s’appliquer à tous les types d’IA, sans distinction de leur incorporation ou non dans un bien corporel.
Elles prévoient également l’allégement de la charge de la preuve au bénéfice de la victime en ayant recours à des outils similaires : mise en place de présomptions simples et d’un droit à la divulgation d’éléments de preuve sur injonction du juge.
En outre, elles diffèrent des propositions de règlement en ce qu’elles n’établissent pas de cadre juridique nouveau, mais au contraire adaptent nos régimes existants : le régime spécial de la responsabilité du fait des produits défectueux, et le régime général de la faute extracontractuelle.
En cela, elles apparaissent complémentaires aux propositions de règlements puisqu’elles s’intéressent particulièrement à l’exercice du recours après la mise sur le marché de ces solutions. Leur objet est, en cas de survenance de dommages, de s’assurer que les victimes puissent obtenir réparation, ce qui nous place donc bien sur le terrain de la responsabilité civile.
- Révision de la directive sur la responsabilité du fait des produits défectueux
Tout en conservant son identité, le régime de la responsabilité du fait des produits de 1985 subit d’importantes modifications pour adresser les solutions technologiques comme l’intelligence artificielle en général.
Ainsi, la notion de produit est étendue aux logiciels, à l’exclusion des logiciels open source, de sorte que tous les produits et services immatériels, y compris les mises à jour qui y sont attachées, ou encore les produits reconditionnés ou modifiés substantiellement, sont visés par ces dispositions.
S’agissant des acteurs qui engagent leur responsabilité, peuvent être visés tous les opérateurs économiques : les fabricants, les importateurs et les distributeurs, mais également les fabricants de composants défectueux d’un produit, les prestataires de services d’exécution des commandes et les plateformes en ligne, dans certaines conditions.
La franchise de 500 € pour exercer le recours est également supprimée.
Toutefois, le recours à ce fondement est restreint aux seuls particuliers, pour les dommages matériels et corporels, ainsi que les pertes et la corruption de données, à l’exception des dommages immatériels.
Les atteintes aux droits fondamentaux qui peuvent être récurrentes en matière d’IA, ne sont pas comprises dans ces dispositions : il s’agit notamment des discriminations en matière d’attribution de crédit, ou de recrutement. Il faudra, pour ces préjudices, agir sur le fondement du droit commun de la faute.
Ce fondement conserve donc bien sa fonction d’avoir à réparer les conséquences des défauts des produits, portant exclusivement atteinte à la sécurité des personnes et des biens.
Les évolutions sont surtout marquées en matière probatoire, à l’article 9 de la proposition : s’il demeure à la victime d’avoir à justifier du défaut du produit, de son dommage et du lien de causalité, une présomption de défectuosité est instaurée s’agissant tant de la défectuosité que de la causalité.
Le demandeur peut ainsi bénéficier d’une présomption de défectuosité dans les cas suivants :
- Le défendeur n’a pas respecté l’obligation de divulguer les éléments de preuve pertinents dont il dispose,
- Il établit que le produit n’est pas conforme aux exigences de sécurité obligatoires prévues par le droit de l’Union ou le droit national qui sont destinées à protéger contre le risque du dommage survenu,
- Il établit que le dommage a été causé par un dysfonctionnement manifeste du produit lors d’une utilisation normale ou dans des circonstances normales.
Le demandeur peut également bénéficier d’une présomption de causalité entre la défectuosité du produit et le dommage si le dommage causé est d’une nature typiquement propre au défaut en question.
Enfin, lorsqu’une juridiction juge que le demandeur rencontre des difficultés excessives, en raison d’une certaine complexité technique ou scientifique, pour prouver la défectuosité du produit ou le lien de causalité entre sa défectuosité et le dommage, ou les deux, la défectuosité du produit ou le lien de causalité entre sa défectuosité et le dommage, ou les deux, sont présumés lorsque le demandeur a démontré, sur la base d’éléments de preuve suffisamment pertinents, ce qui suit :
- Le produit a contribué au dommage,
- Il est probable que le produit était défectueux ou que sa défectuosité est une cause probable du dommage, ou les deux.
L’enjeu de la preuve est donc au cœur du projet de révision. C’est ainsi que l’article 8 de la proposition permet également au juge d’enjoindre au défendeur de communiquer les éléments de preuve nécessaires.
Précisons qu’il s’agit de présomptions simples, réfragables, que le défendeur pourra renverser en apportant la preuve contraire ou en se prévalant des causes d’exonération prévue à l’article 10 de la proposition : il s’agit notamment de l’absence d’existence du défaut lors de la mise en circulation du produit, et de l’exonération pour risque de développement.
En outre, l’exonération pour risque de développement ne pourra pas être écartée comme l’avait fait la France pour la directive de 1985.
Ces causes d’exonération figurent en effet dans la proposition et sont sujettes à débat s’agissant des IA opérant sur le principe du Machine Learning.
La Commission semble ainsi avoir opéré une balance des intérêts de façon à ce que l’opérateur visé ne puisse échapper à sa responsabilité que dans ces hypothèses particulières.
- Directive sur la responsabilité en matière d’intelligence artificielle
Contrairement à la directive sur la responsabilité du fait des produits défectueux qui devra être strictement appliquée par les Etats membres, la proposition de directive sur la responsabilité en matière d’intelligence artificielle n’a pas vocation à unifier le régime de responsabilité extracontractuelle de tous les Etats membres.
La tâche est délicate : proposer un régime de responsabilité spécial dans le prolongement de la proposition de règlement sur l’intelligence artificielle, auquel il est systématiquement renvoyé pour les définitions des termes.
En outre, cette directive vise des situations distinctes :
Rappelons que ne sont visées que les actions civiles en réparation de dommages causés par une faute extracontractuelle : tout ce qui relève du champ contractuel est donc exclu.
Rappelons également que ne sont pas visés les défauts du produit mais uniquement la faute du défendeur ou de la personne dont le comportement relève de sa responsabilité.
Dans ces circonstances, l’action en réparation est définie comme l’ « action civile fondée sur une faute extracontractuelle visant à obtenir réparation de dommages causés par le résultat d’un système d’IA ou l’incapacité de ce système à produire un résultat qui aurait dû l’être » tandis que la faute est caractérisée comme le « manquement à un devoir de vigilance prévu par le droit de l’Union ou le droit national visant directement à protéger contre le dommage survenu ».
L’action est ouverte à tout demandeur, quelle que soit sa qualité, pour tous les types de dommages causés directement par une IA : le demandeur est ainsi défini comme « la personne introduisant une action en réparation qui a été lésée par le résultat d’un système d’IA ou l’incapacité de ce système à produire un résultat qui aurait dû l’être ».
Dès lors, la proposition ne couvre pas les actions en responsabilité dans les cas où le dommage est causé par une appréciation humaine suivie d’une omission ou d’un acte humain et où le système d’IA a uniquement fourni des informations ou des conseils qui ont été pris en considération par l’acteur humain concerné.
Il est également intéressant de constater que l’action ne semble pas ouverte à l’encontre de tous les défendeurs : la proposition envisage exclusivement l’action intentée soit contre le fournisseur, ou contre une personne soumise aux obligations qui lui incombent, soit contre l’utilisateur du système d’IA.
Par renvoi au projet de législation sur l’intelligence artificielle, le fournisseur est défini comme « une personne physique ou morale, une autorité publique, une agence ou tout autre organisme qui développe ou fait développer un système d’IA en vue de le mettre sur le marché ou de le mettre en service sous son propre nom ou sa propre marque, à titre onéreux ou gratuit » tandis que l’utilisateur est défini comme « toute personne physique ou morale, autorité publique, agence ou autre organisme utilisant sous sa propre autorité un système d’IA, sauf lorsque ce système est utilisé dans le cadre d’une activité personnelle à caractère non professionnel ».
En matière probatoire, à l’instar de la directive sur la responsabilité du fait des produits défectueux, l’article 4 de la proposition prévoit une présomption simple d’un lien de causalité en cas de faute.
Toutefois ce régime est plus restreint pour la victime : seules les IA considérées à « haut risques » bénéficient d’un statut particulier semblable à ce qui a été étudié relativement au régime des produits défectueux, contrairement aux autres IA, de facto moins exposées.
Ainsi d’une part, pour le cas général des systèmes d’IA qui ne sont pas à haut risque, les juridictions ne présument le lien de causalité entre la faute du défendeur et le résultat produit par l’IA ou son incapacité à produire un résultat, que lorsque les conditions cumulatives suivantes sont remplies :
- Le demandeur a prouvé (ou la juridiction a présumé) la faute du défendeur (ou d’une personne relevant de sa responsabilité) d’avoir manqué à un devoir de vigilance prévu par le droit de l’Union ou le droit national,
- Il est raisonnablement probable, compte tenu des circonstances de l’espèce, que la faute a influencé le résultat du système d’IA,
- Le demandeur a démontré que le résultat ou l’absence de résultat du système d’IA est bien à l’origine du dommage.
A la condition encore, que la juridiction nationale ait estimé qu’il était excessivement difficile pour le demandeur de prouver le lien causalité.
Dans cette hypothèse, la proposition précise également que dans le cas d’une action contre un utilisateur, ayant utilisé le système d’IA dans le cadre d’une activité personnelle, la présomption ne s’applique que si celui-ci a interféré matériellement avec les conditions d’exploitation du système d’IA ou s’il était tenu et en mesure de définir ces conditions mais ne l’a pas fait.
Ce qui apparait, en somme, très restrictif pour la victime, mais néanmoins protecteur pour l’utilisateur raisonnable.
D’autre part, pour les systèmes d’IA à haut risque, la proposition distingue les fournisseurs des utilisateurs, en allégeant les conditions permettant d’établir la présomption de causalité.
Ainsi dans le cas d’une action contre le fournisseur, il devra être démontré au moins l’une des conditions suivantes :
- Que celui-ci n’a pas respecté les exigences du règlement sur l’intelligence artificielle, notamment que l’IA n’a pas été développée en utilisant des méthodes d’entraînement de qualité,
- Qu’elle ne répond pas aux exigences de transparence requises,
- Qu’elle ne permet pas un contrôle humain effectif,
- Qu’elle n’a pas été conçue de manière à offrir des résultats exacts et robustes, ou encore
- Qu’elle n’a pas été corrigée immédiatement pour mettre le système en conformité.
Pour les utilisateurs, il devra être démontré :
- Que celui-ci ne s’est pas conformé aux obligations qui lui incombent d’utiliser ou de surveiller l’IA conformément à la notice d’utilisation jointe ou, le cas échéant, de suspendre ou d’interrompre son utilisation,
- Ou qu’il a exposé l’IA à des données d’entrée sous son contrôle qui ne sont pas pertinentes au regard de la destination du système.
En outre, le juge ne bénéficie d’un pouvoir d’injonction de communiquer des éléments de preuve que concernant ces systèmes d’IA à haut risque, à la condition que le demandeur ait justifié de diligences antérieures infructueuses.
Il transparait donc bien de ces énumérations qu’il sera plus complexe pour les victimes de se prévaloir de ce régime de responsabilité, même pour les systèmes IA à haut risque, qu’en matière de défaut des produits, et en particulier à l’égard de ses utilisateurs à titre personnel : le soin apporté à l’appréciation des fautes pouvant être commises par eux permet encore d’observer la balance des intérêts opérée par le législateur européen.
Néanmoins, il s’agit du seul régime dont le recours peut être exercé par tous, et qui puisse venir réparer tous les dommages extracontractuels.
- Conclusion
Les propositions de règlements et de directives sont en cours de discussion en première lecture devant le Conseil de l’Union européenne et ses instances préparatoires, lesquelles, après avis des Comités, reçoivent l’avis des Etats membres.
Reste à savoir si elles seront approuvées en l’état ou si elles seront amendées.
En effet, les propositions évoquées sont prometteuses mais peuvent paraitre complexes à mettre en œuvre.
Elles ne sont pas non plus exemptes de failles : par exemple, comment appréhender un diagnostic médical erroné, obtenu dans le cadre d’une utilisation normale de l’IA, en l’absence de tout défaut manifeste et de toute faute ?
Elles demeurent néanmoins nécessaires afin de combler les carences du droit positif.
Gageons que les jurisprudences de l’Union européenne et étatiques viendront répondre aux questions que posent ces cas particuliers, et rappelons enfin qu’il conviendra de porter une attention particulière aux aspects contractuels.
En toute hypothèse, cet élan démontre bien que le développement des technologies d’intelligence artificielle est arrivé à un stade de développement suffisant pour que le législateur européen se saisisse du sujet.