
Le concept de responsabilité à l’ère de l’intelligence artificielle (IA)
Par Fafadzi Akpene Agbe.
Introduction
La notion de responsabilité morale est traditionnellement et intrinsèquement liée à l’action humaine, à ses intentions et conséquences (1). En d’autres mots, il n’y a de moralité que là où une volonté autonome et consciente s’affirme. Dans cette perspective, il y a la présupposition que l’être responsable est conscient de la portée de ses actes choisis volontairement, c’est-à-dire, la conscience, avant d’agir, des conséquences de sa volonté. Or, dans notre société contemporaine, nous agissons, de plus en plus, par le moyen des artefacts technologiques que développe l’intelligence artificielle. (IA) L’activité humaine, par cette intermédiation, se trouve de ce fait même mitigée et conséquemment, la détermination de la responsabilité morale complexifiée(2).
L’objectif de cette étude est modeste. Elle se veut une réflexion sur la notion de la responsabilité morale à l’ère des technologies de l’IA. En raison de l’intermédiation de plus en plus prépondérante de nos actions par ces dernières, une élaboration d’une nouvelle conception de la responsabilité morale, un « tractatus technologico-ethicus »(3) se fait nécessaire. Motivé par l’incompatibilité qui s’observe avec notre sens de justice et la structure morale actuelle de notre société technologique, un tel traité présiderait l’ordonnancement des actions et la réglementation du pouvoir d’agir et, ainsi, éviter un certain « vide éthique » ou « responsability gap »(4) dans le commerce entre « humains intelligents » et « entités artificiellement intelligentes ». L’étude est divisée en trois parties. Dans la première partie, nous justifierons l’exigence d’une nouvelle conception de la responsabilité morale. Elle vise à répondre à la question : pourquoi l’élaboration d’une nouvelle conception de la responsabilité morale devient nécessaire avec l’apparition des intelligences artificielles aux côtés de l’intelligence humaine ? La deuxième partie, à la suite de la première qui relève les défis posés à la responsabilité morale traditionnelle, analyse le concept d’agentivité morale et sa relation avec celui de responsabilité. Sa principale prétention est de proposer des éléments de réponses à l’interrogation : les entités dotées d’IA sont-elles des agents moraux ? Nous verrons, dans la tentative de réponse à cette question, que les avis se partagent. Nous présenterons donc les différentes opinions sur la question. Nous conclurons cette partie par une prise de position pour la vision réaliste ou « déflationniste » incarnée par Floridi avec la notion de « mind-less morality » et nous la justifierons. Enfin, dans la troisième partie de notre étude, nous présenterons l’approche des devoirs prima facies (5) comme un projet d’éducation morale pertinent qui semble déjouer le « problème aristotélicien-wittgensteinien »(6) à partir de la notion de l’équilibre réfléchi rawlsien(7). Elle propose concrètement une forme d’implémentation responsable de l’IA pour un usage humain.
-
DE L’EXIGENCE D’UNE NOUVELLE CONCEPTION DE LA RESPONSABILITÉ À L’ÈRE DE L’IA.
La relation qu’entretient, par exemple, un jeune trentenaire avec les objets, contraste avec celle que ses parents ont envers ces derniers. Si pour le premier, la technologie numérique est presque une nécessité vitale(8), pour ces derniers, elle n’est qu’une option facultative qui se veut, tout de même, de plus en plus imposante. En effet, le grand fruit de la révolution industrielle pour les générations antérieures fut la machine à vapeur, créant de l’énergie aux usines et aux moyens de déplacement tels que les locomotives et navires. Une telle intervention humaine — motivée par la nécessité — sur les entités non humaines (nature) ne donnait pas lieu à la délimitation d’un domaine de significations éthiques. Au contraire, la relation « humain-non humain » restait neutre d’un point de vue moral. Or, ce n’est plus le cas avec la grande révolution de notre ère, celle de la modernité digitale des IA. La grande révolution (9) introduite par la machine de Turing a ouvert de grandes perspectives de production à l’homme, surtout celle de la réplique de lui-même en des dispositifs « intelligents » -téléphone portable, logiciel, etc. — créant et propageant un environnement de plus en plus artificiel(10). Plus explicitement : si, d’un côté, avec l’introduction de la machine à vapeur, l’homme produisait par nécessité (amélioration de ses conditions de vie) avec la conscience nette de l’immuabilité de son essence fondamentale, de l’autre côté, avec l’introduction de la machine de Turing, cette essence, jadis comprise comme constante, fondamentale et immuable, devient elle-même objet de son art transformateur. C’est ainsi que de nos jours, le résultat de l’inventivité de l’intelligence humaine sur la nature a donné naissance à des entités dérivées de la machine de Turing — médiatrices actives de notre être au — priorisant, facilitant un processus cognitif particulier, une attitude, un choix, une décision pour nous (11). Cette influence inédite de l’objet de la technique humaine (moteur de recherche) sur le sujet agissant (l’humain) inaugure une rupture entre la « technique moderne digitale » (machine de Turing) et les techniques des temps antérieures (machine à vapeur) : « la perte de neutralité éthique de l’humain avec le monde extrahumain et réciproquement »(12). Il s’ensuit que la signification éthique qui jusque-là était réservée au domaine strictement anthropologique semble l’excéder et ouvre la possibilité d’inclusion de signification éthique dans le commerce entre humains et son environnement immédiat (13). C’est le cas de la notion de responsabilité morale. Bref, avec les nouveaux dispositifs dotés d’IA, l’agir ne relève plus de l’apanage de l’humain. Tandis que les engins issus de la machine à vapeur sont des machines physiques et dépendantes des intentions et désirs de leurs manipulateurs conscients, celles post-Turing sont virtuelles, à portée illimitée dans le temps et dans l’espace, et tendent à acquérir une certaine « intentionnalité » et une sorte d’autonomie(14). Les machines intelligentes semblent ainsi être en relation, à la fois, avec la promesse de progrès et la certitude de menace (15). Puisque les machines dotées d’IA occupent, désormais, une place importante dans la sphère subjective des fins humaines, une réflexion sérieuse quant à la notion de responsabilité dans la société s’impose. L’acteur humain semble n’être plus le seul à poser un acte passible d’imputation morale. Disons simplement que, dans ce nouveau cadre composé par des humains intelligents et des entités artificiellement intelligentes, la responsabilité de l’homme ne se limiterait pas seulement à son semblable humain, l’action éthique responsable ne se circonscrirait plus dans les limites strictement anthropologiques et nul ne trouverait comme dépourvue de sens l’idée de conférer une certaine « responsabilité » aux intelligences artificielles (16). Il existe donc une réelle nécessité de révision de notre compréhension actuelle et anthropocentrique de la notion de responsabilité, et par ricochet, d’action morale. Sur quelles bases devons-nous revisiter et redéfinir la notion d’action morale et donc de responsabilité morale ? Voici les questions que se propose de traiter la section suivante.
-
AGENTIVITE MORALE ET RESPONSABILITÉ MORALE.
En raison de la proximité de plus en plus évidente des machines intelligentes dans nos activités et décisions de chaque jour, la difficile problématique de définition et d’attribution de responsabilité morale se trouve durement complexifiée. Illustrons cette complexité par un exemple concret. À qui, par exemple, amputerait-on la responsabilité si le présentateur virtuel « Qiu Hao » (17) fait un discours révélant les secrets du parti communiste chinois alors qu’il était censé réciter un autre discours ? En effet, il n’est pas impossible qu’à partir de nombreuses données tant auditives, visuelles comme informationnelles, l’algorithme utilisé dans le fonctionnement de « Qiu Hao » dégage, par interactions complexes et imprévisibles, une information nouvelle qui, quoique synthétisée, dévoile une information réelle. Dans un tel cas, qui sera imputable de l’évasion d’une telle information qui se trouve être compromettante ? On sait que les éthiciens, dans leur divergence, partagent trois conditions d’attributions (18) de la responsabilité morale : 1. La connexion causale entre le sujet et la conséquence de l’action, 2. La pleine conscience et la capacité d’évaluation de cette conséquence et 3. La pleine liberté de choix du sujet à poser cette action. Tandis que l’analyse du premier critère nous confronte à deux obstacles que sont le « problème des mains multiples » (19) et le « problème de l’explosion du cercle de l’agir » (20), l’examen des deux autres nous fait buter sur le problème de la « conscience phénoménique et de l’intentionnalité » (21). Il me semble que ce dernier tient un grand poids dans la résolution du problème de la responsabilité puisqu’elle est en dernière analyse le critère de détermination de la pleine agentivité morale. Poser la question de savoir si une machine intelligente serait oui ou non imputable de responsabilité morale revient à investiguer si elle peut être considérée comme un agent moral au sens large c’est-à-dire d’émettre un jugement moral et de le justifier.
Steve Torrance dans l’un de ses textes (22) semble dire que même si les machines intelligentes actuelles n’ont que le niveau implicite ou explicite de l’agentivité morale (23), rien n’empêche que, dans le futur, on conçoive des machines de pleine agentivité. Incarnation vécue, sens vécu et expérience vécue sont des conditions essentielles, selon lui, pour l’émergence de la conscience et de l’intentionnalité chez un être (24), Autrement dit, une machine, responsable moralement, serait celle qui présenterait une intelligence substantielle et multidimensionnelle en s’incarnant sous une forme de vie dans un monde de conscience. Cette réflexion devrait prendre comme paradigme, à ses vues, la vision organique du statut moral. Or, pour nous, une telle perspective quoiqu’il soit concevable ne rend pas son avènement certain. C’est dans cette logique que nous pouvons nous définir comme « déflationniste » ou réaliste dans la lignée de John Searle (25). Épousant la perspective searlienne, nous sommes sceptiques quant à l’avènement d’une IA forte en raison seulement des capacités purement syntaxiques des dispositifs intelligents. Même si rien ne nous empêche de croire à l’émergence d’une rationalité empathique chez les machines intelligentes à long terme, l’urgence posée par les machines intelligentes contemporaines relativement, par exemple, à l’imputabilité de décisions discriminatoires de certains algorithmes (26) exige de nous, dans le court terme, une articulation nouvelle de la notion de responsabilité morale. Cette notion nouvelle en échappant aux questions philosophiques et toujours incomplètement résolues qui constituent la notion de l’agentivité morale pleine — la conscience, l’intentionnalité et libre arbitre — (27) nous permettrait de traiter avec plus d’efficacité et d’efficience les questions d’imputabilité morale dans notre ère digitale. Et justement, on peut trouver une telle articulation — que nous appellerons de moralité analytique (Mind-less Morality) — très élégamment articulée chez Luciano Floridi (28) En effet, en adoptant une perspective d’analyse non anthropologique par l’application de la « méthode de l’abstraction » (LoA) (29) et de la considération de « système d’états transitionnels » à l’analyse de l’agentivité caractérisée par l’interactivité, l’autonomie et l’adaptabilité, Floridi arrive à la conclusion selon laquelle si une entité est interactive et adaptable à son milieu à travers un changement d’état indépendamment de son milieu, alors cette entité est agente et donc imputable comme tel. En revanche, la moralité de cet agent est définie en termes de fonction de seuil qui s’énonce comme suit : « An action is said to be morally qualifiable if and only if it can cause moral good or evil. An agent is said to be moral agent if and only if it is capable of morally qualifiable action. » (30) Quand une interaction autonome dépasse le seuil de tolérance et cause des dommages, cela résulte dans l’imputation d’une valeur morale négative. Cette distinction entre agent et agent moral lui permet de dissocier l’imputabilité morale de la responsabilité morale et de poser qu’un agent est moralement imputable s’il est source de x et si ce x est moralement qualifiable. Cependant, comme le remarque Floridi, il n’est pas nécessairement et moralement responsable de x. Pour qu’il le soit, cet agent doit montrer l’état intentionnel adéquat. L’analogie avec l’histoire d’Œdipe est illustrative. Ce dernier, quoique non responsable de la mort de son père Laïos et du mariage avec sa mère Jocaste (manque d’état intentionnel) reste imputable de ces actions (source des actions). L’approche de la moralité analytique aurait donc l’avantage de promouvoir, d’un côté, une action normative même dans un contexte où il n’existe pas de libre arbitre ou intentionnalité notamment celui non humain et de l’autre, de légitimer la possibilité de discours moral dans ce même contexte comme celui des agents artificiels intelligents (31). Bref, avec le « tractatus technologico-ethicus » proposé par Floridi, il est possible de prescrire une action morale dans le commerce entre humains, d’un côté, et de l’autre, avec le monde non humain tant dans sa version animale (biosphère), naturelle (écosphère) comme digitale (technosphère). Dans le long terme, l’approche analytique (non-moralité) proposée par Floridi se révélera compatible avec l’idée d’un monde moral plus qu’humain de Torrance. Ce dernier soutient une vision « plus - qu’humain » de la moralité qui prenne en compte les entités biologiques environnementales et les machines artificiellement intelligentes en compte (32).
Mais une question persiste. En effet, si dans le contexte de la recherche empirique actuelle, Floridi nous propose une alternative adéquate par une amplification de la question de détermination de responsabilité morale, celle-ci ne nous dit pas, avec les moyens disponibles aujourd’hui, comment concevoir techniquement une machine intelligente pour qu’elle respecte la valeur que nous voulons. Il s’agit de savoir ce que voulons que les machines intelligentes contemporaines réalisent comme valeurs étant donné le manque de conscience phénoménique qui rende possible un rapport juste entre les normes générales abstraites et les situations concrètes singulières. La réponse idéale, à première vue, est la conception de machines intelligentes dotées de pleine agentivité morale. Cela nous semble, nous l’avions dit, improbable à l’heure actuelle. On pourrait, de l’autre côté, penser aussi à l’implémentation implicite dans la machine d’une fonction interne pour qu’elle soit éthique (33). Or adopter une telle approche relève plus de l’IA symbolique. Cette dernière n’a pas de place dans l’approche connexionniste qui mise plutôt sur un apprentissage automatique des machines. Entre une codification implicite et une autonomisation complète de l’intelligence artificielle comme agent moral, l’écart est abyssal. Face à une telle situation, une solution intermédiaire nous semble plus opportune, car non seulement, elle nous permet de mettre en marche des IA responsables, qui puissent respecter nos valeurs, mais aussi nous démarquer de l’approche symbolique (encodage implicite) et approfondir l’approche connexionniste actuellement plus prometteuse. Nous limitant aux recherches empiriques actuelles, nous défendrons dans la suite de ce travail, d’un point de vue technique, après le point de vue théorique de Floridi que nous partageons, la construction de machines qui intègrent explicitement l’agent éthique donnant lieu à une complémentarité entre les systèmes d’IA et les humains (34 ).
-
LA CONSTRUCTION D’AGENT ÉTHIQUE EXPLICITE : UNE VOIE DE SORTIE PRATIQUE ?
Si d’un côté, l’implémentation implicite de nos valeurs était une régression à l’IA symbolique, celle dite de pleine autonomie reste, dans notre position déflationniste, dans le monde du possible et donc irréalisable dans l’actualité. Il ne nous reste qu’un moyen intermédiaire qui est celui de l’implémentation explicite. La question reste de savoir s’il est possible d’implémenter explicitement une éthique dans une machine intelligente (35). Si oui, comment ? Nous soutiendrons donc avec les chercheurs, Susan et Michael Anderson (36) l’idée selon laquelle on peut enseigner aux machines intelligentes des caractéristiques des dilemmes éthiques, des principes de décisions et des devoirs prima facie, à travers un dialogue avec les éthiciens. En effet, si le modèle implicite, généralement, s’appuie soit une théorie conséquentialiste ou une théorie déontologique, en ce qui concerne le modèle explicite d’implémentation des valeurs, l’idéal serait une combinaison de ces deux approches théoriques occasionnant un dilemme de devoir semblable à la théorie de Ross (37). La résolution de ce dilemme passerait, selon Susan et Michael Anderson, par l’utilisation d’une méthode de décision éthique, à la fois intuitive et inductive conceptualisée par Rawls en 1951 en cas de conflit entre des intérêts actuels : il s’agit de la méthode de l’équilibre réfléchie (38). C’est ainsi qu’il serait possible qu’une IA puisse rendre explicite, en toute autonomie, des principes de jugements moraux implicites dans les jugements bien considérés de spécialistes de tout domaine si l’IA est bien préparée par le spécialiste (39). L’avantage de cette proposition est qu’il aide les machines intelligentes à agir comme nous le voulons, c’est-à-dire dans une vision philosophique et éthique anthropocentrique de l’IA. Cette vision nie tout simplement une agentivité morale à l’IA dans son état actuel, mais laisse ouverte la possibilité qu’elle le devienne.
CONCLUSION.
Nous avons durant ce travail souligné la nécessité d’une nouvelle conceptualisation et compréhension de la notion de responsabilité avec l’avènement des intelligences artificielles dans nos sociétés. Ces dernières, ayant aujourd’hui la capacité d’anticiper des désirs et des besoins profonds et quelquefois enfouis chez l’homme, partagent désormais le champ de l’action morale avec l’humanité en raison de l’influence qu’elles exercent dans les choix et décisions de l’homme. Parmi les différentes alternatives qui s’offraient à nous, la position de « Mind-less morality » proposée par Floridi nous semble la plus convaincante eu égard aux conditions empiriques disponibles. Cette approche de Floridi, quoique, résolvant la question de l’imputabilité morale sur le plan théorique, ne contemplerait pas, dans la pratique, l’engagement des machines intelligentes à respecter les valeurs que nous voudrions qu’elles respectent. La proposition de Susan et Michael Anderson de l’implémentation explicite des valeurs par une collaboration entre l’IA et l’humain-éthicien nous a semblé relever ce défi. Elle a l’avantage de contourner la difficulté qu’a l’IA d’inscrire et d’appliquer des principes généraux dans des contextes concrets singuliers à cause de son manque de sens commun.
BIBLIOGRAPHIE.
-
ANDERSON, Susan et Michael, « A prima Facie Duty approach to Machine Ethics, machine learning of features of ethical dilemmas, prima facie duties, and decision principles through a dialogue with ethicists. » In Machine Ethics, Cambridge university Press, Cambridge, 2011 pp. 476-492.
-
BOURDEAU, Pierre, Pensée symbolique et Intuition, PUF, Paris, 1999.
-
CHANDER Anupam, The racist algorithm? 115, Mich. L. Rev.1023 (2017).
-
FLORIDI Luciano, On the morality of the Artificials Agents, In Machine Ethics, Cambridge university Press, 2011, pp 184-211.
-
FISHER, Jonh Martin Fisher, Recent work on moral responsibility, in University of Chicago Press, 1999.
-
GANASCIA, Jean-Gabriel, le mythe de la singularité : Faut-il craindre l’intelligence artificielle ?
-
HANS, Jonas, le principe de responsabilité : Une éthique pour la civilisation technologique, Trad. Jean Greisch, Cerf, Paris, 1991.
-
LAURENT, Alexandre, La guerre des intelligences, Paris, JC lattés, 2017.
-
MACLURE Jocelyn, le nouvel âge de l’IA : une synthèse des enjeux éthiques, dans CPI, vol 30, n 3.
-
MATTHIAS, Andreas, The responsibility gap: Ascribing responsibility for the action of learning automata. Ethics Inf Techonol 6, 175-183 (2004) doi: 10.1007s10676-
-
MOOR, H. James, The nature, importance and difficulty of Machine Ethics, In Machine Ethics, Cambridge, 2011, pp.15-18.
-
MOOR, H. James, Is Ethic computable? Blackwell Publiser, 1995.
-
Noorman, Merel, "Computing and Moral Responsibility", The Stanford Encyclopedia of Philosophy (Spring 2018 Edition), Edward N. Zalta (ed.), URL = https://plato.stanford.edu/archives/spr2018/entries/computing-responsibility/ .
RAWLS J. Outline of a decision procedure for Ethics, in Collected Papers, Ed. Freeman, Harvard University Press, Cambridge, 1999.
-
REVUE Science et Vie, n. 1218 de mars 2019.
-
ROSS. W.D, The Right and the Good, Oxford University press, Oxford, 1930.
-
SCALON.T, Rawls on justification, In The Cambridge Companion to Rawls, Freeman, Cambridge, 2003, pp. 139-167.
-
SEARLE, R. J. Esprit, Cerveau, programme, Trad. Éric Duyckaerts, Quaderni, 1987, pp.65-96.
-
TORRANCE Steve, Ethics and consciousness in artificial agents, In AI & Society, April 2008.
-
TORRANCE Steve, Machine Ethics and the Idea of a more-than-human Moral World, In Machine Ethics, Cambridge university Press, 2011, pp. 115-135.