各国无产者联合起来 ! PROLETAIRES DE TOUS PAYS UNISSEZ-VOUS !

各国无产者联合起来 ! PROLETAIRES DE TOUS PAYS UNISSEZ-VOUS !

jeudi 15 septembre 2022

LA NOTION D'"INTELLIGENCE ARTIFICIELLE" ET LE MYSTÈRE DE LA CHAMBRE CHINOISE.

Tapez "Searle Turing" dans un moteur de recherche quelconque, vous obtiendrez, immanquablement, des articles relatifs au Chinese Room Argument. C'est que l'argument dit "de la Chambre Chinoise" recèle un parfum de mystère digne du Mystère de la Chambre Jaune dont la rigueur de l'exposition et du raisonnement ont été, à juste titre salués. Nous allons montrer que, contrairement au roman policier de Gaston Leroux, l'expérience de pensée de John Searle connue sous ce nom ressemble plutôt à une escroquerie intellectuelle.

Commençons par en retracer la genèse. Dans un célèbre article paru dans la revue Mind en octobre 1950 et intitulé Computing Machinery and Intelligence, Alan Turing suggère une expérience de pensée permettant de déterminer dans quelle mesure une machine peut être dite "intelligente" au sens humain du terme, autrement dit, dotée d'une sorte de "pensée" capable d'effectuer suffisamment d'opérations banalement humaines pour abuser l'observateur Lambda qui ne serait pas au courant de sa nature non-humaine, mécanique. Soit un jeu à trois "joueurs", deux étant humains, le troisième étant un ordinateur. Un observateur humain extérieur pose alors des questions ouvertes aux "joueurs". S'il est incapable de déceler, dans la teneur des réponses, lesquelles proviennent de la machine et lesquelles de l'homme, alors la machine sera réputée "intelligente". D'où la question : une telle expérience de pensée constitue-t-elle ou non un critère opérationnel d'attribution de l'"intelligence" à de l'"artificiel" ? On sait que, dans son article non-moins célèbre Minds, Brains and Programs, John Searle y a répondu négativement en 1980 au motif qu'une machine pourrait bien, à la limite, "mémoriser" par avance non seulement toutes les questions possibles mais aussi toutes les manières possibles d'y répondre. En ce sens, elle se comporterait comme quelqu'un qui ignore tout de la langue chinoise mais détiendrait un manuel d'instructions suffisamment complet pour faire face à toutes les situations langagières possibles dans cette langue. En conséquence de quoi, la machine pourrait, théoriquement, "berner" l'expérimentateur sans rien comprendre aux questions posées et donc sans faire le moins du monde preuve d'intelligence.

Il nous semble que l'on peut, préalablement à l'examen du chinese room argument searlien, élever deux objections sérieuses contre le "critère" de Turing :
1 - le domaine de définition de l'intelligence y est abusivement réduit
2 - ce soi-disant "critère" n'en est pas un, c'est plutôt un symptôme.

1 - Dans quelle mesure sommes-nous fondés à réduire le domaine de définition de l'intelligence à la seule compétence consistant à répondre normativement à des questions ouvertes ?

1 - 1 : pourquoi des questions "ouvertes" et non "fermées" ? On aurait tendance à dire spontanément que les questions "ouvertes" sont susceptibles d'un éventail de réponses bien plus large que les questions "fermées" auxquelles, par définition, on ne répond que par oui ou par non (éventuellement, par l'abstention). Or on suppose que plus large est l'éventail des réponses possibles, plus il est difficile de répondre, donc plus il faut faire preuve d'"intelligence" pour le faire. Il est réputé plus difficile et donc plus méritoire de répondre à la question "quelle est la date de l'assassinat d'Henri IV ?" qu'à la question "Henri IV est-il mort à la date t ?" car, en répondant au hasard (c'est-à-dire de manière supposée "inintelligente") à celle-ci, la probabilité est de 0,5 de dire vrai, ce qui incline à penser que le risque de se tromper en répondant à une question fermée est trop faible pour être discriminant. Voilà qui est très problématique pour cinq raisons au moins :

- premièrement, on présuppose que ce qui est vrai n'est pas faux et ce qui est faux n'est pas vrai, ce qui pose le problème de l'évidence d'un des principes logiques tout à la fois les plus intangibles et les plus contestables de l'histoire de la philosophie, à savoir, depuis Aristote et ses Réfutations Sophistiques, le principe dit de (non-)contradiction. Or les recherches menées dans le domaines de la logique formelle au XX° siècle ont montré que rien n'est moins évident que ce principe. Car il se peut très bien que, étant entendu qu'elles ne peuvent être simultanément vraies, deux contradictoires peuvent, en revanche, être simultanément fausses ou simultanément dépourvues de signification. En termes de logique formelle, nous dirons qu'il y a confusion entre principe de contradiction, principe de tiers-exclu et principe de bivalence (je ne m'étends pas ici sur cet aspect, très technique, du problème). Tout ça pour dire qu'on pourrait, tout au contraire de ce qui est présupposé dans l'argument turingien, considérer comme très "intelligent" de répondre à des questions "fermées" autrement que par oui ou par non, par exemple en répondant "oui et non", "ni-oui ni-non", "question dépourvue de sens" ou encore "oui à x  %, non à y  %"

- deuxièmement, même en négligeant le problème inhérent à la confusion sus-évoquée, il suffirait de faire tendre vers l'infini le nombre de questions "fermées" posées pour que tende vers 0 la probabilité d'y répondre correctement par simple hasard (probabilité de répondre "juste" à une seule question fermée = 1/2 ; probabilité de  répondre "juste" à n questions fermées = 1/2^n ; or 1/2^n tend vers 0 lorsque n tend vers l'infini) ; ce qui est au principe même de la légitimité des QCM en général

- troisièmement, si on augmente indéfiniment le nombre de questions posées, qu'elles soient "fermées" ou ouvertes, hasard ou pas, au bout d'un certain temps, l'humain (vivant) va se fatiguer tandis que la machine (non-vivante), pour peu qu'elle soit convenablement alimentée en énergie, continuera inexorablement sur sa lancée ; d'où le paradoxe : si on veut limiter les risques d'erreur liées à la fatigue biologique de l'intelligence humaine, il faut aussi limiter le nombre de questions posées, et donc limiter le processus de vérification au risque de limiter aussi la valeur de cette vérification

- quatrièmement, le problème posé par les questions "ouvertes", c'est que, justement, l'éventail des réponses étant, a priori, indéfini, leur domaine d'acceptabilité l'est aussi ; ainsi, à la question portant sur la date de la mort d'Henri IV, l'"intelligence" de la réponse "1610" sera-t-elle réputée la même que "mai 1610", "le 14 mai 1610", "le 14 mai 1610 à telle heure", etc. ? À l'inverse, n'y a-t-il pas des erreurs plus "intelligentes" que d'autres (répondre "1611" au lieu de "1789" par exemple) ? La solution qu'est censée apporter le caractère "ouvert" des questions posées n'en est donc pas une en soi parce que le prétendu "critère" définitionnel de l'intelligence sous-jacent, d'une part est beaucoup trop vague, d'autre part, fût-il plus précis, semble ne pas devoir faire l'économie d'une interprétation au cas par cas (j'y reviendrai ultérieurement)

- cinquièmement, enfin, le fait d'exclure les questions "fermées" comme trop propices aux réponse aléatoires dénote un contexte culturel dévalorisant le hasard au motif que tout phénomène est censé être déterminé causalement, de manière univoque et définitive, bref, un contexte qui fait fond sur une métaphysique de l'Être immuable et nécessaire où les choses sont ce qu'elles sont et ne peuvent donc pas être autrement qu'elles ne sont, une métaphysique, donc où, comme le dit Hegel, "être, c'est avoir été" ; il en va différemment, si l'on adopte un point de vue héraclitéen, bouddhiste ou taoïste, voire quantique qui privilégie le flux, le passage, l'indétermination et non pas l'Être ; or, de ces derniers points de vue, le hasard devenant le fondement ontologique du réel, répondre aléatoirement à des questions d'un certain type (par exemple celles portant sur le possible ou sur le futur, comme dans le Yi King chinois) sera plutôt considéré comme une preuve d'intelligence.

1 - 2 : dans quelle mesure l'intelligence doit-elle être cantonnée à la faculté de produire une réaction langagière à un stimulus langagier ? Quelle que soit la forme des questions posées par Turing à la machine, on est quand même obligé de se demander par quelle étrange perversion on en est arrivé à considérer que le meilleur (on n'ose pas dire "le seul") indicateur de l'intelligence d'une entité réside dans les réponses que cette entité fournit lorsqu'elle est soumise à un interrogatoire. Même le cognitivisme, malgré sa foi indéfectible dans la validité d'un modèle scientiste de l'intelligence, est plus subtil que cela. Ainsi, Michel Imbert précise-t-il bien que "le cognitivisme est l'étude de l'intelligence, notamment de l'intelligence humaine, de sa structure formelle à son substratum biologique, en passant par sa modélisation, jusqu'à ses expressions psychologiques et anthropologiques [...]. Il est évident, et personne ne peut raisonnablement en douter que ces processus cognitifs sont représentés, incarnés dans le système nerveux ; qu'ils sont, en dernière instance, autant de manifestations et d'expressions du fonctionnement du cerveau"(Imbert, Neurosciences et Sciences Cognitivesin Introduction aux Sciences Cognitives, I, i) : pour lui, il est clair que le fait de répondre à des questions ne peut être que l'une des multiples "manifestations et [...] expressions du fonctionnement du cerveau" parmi d'autres. Je ne vois pas, personnellement, d'autre raison au réductionnisme forcené présupposé par le test de Turing que celle consistant à dire, à l'instar de Bourdieu, que le modèle implicite de ce modus operandi est "la réussite scolaire que l’on identifie à l’“intelligence”"(Bourdieu, Questions de Sociologie, ii). Si Bourdieu dit vrai, comme la "réussite" scolaire n'a jamais su s'évaluer qu'à travers des questionnaires divers et variés, il est facile de comprendre que, de même que le maître pose des questions à l'élève, de même le programmateur humain va poser des questions à sa créature. Dans les deux cas, il s'agit de savoir de quel degré celle-ci se rapproche de celui-là. L'obsession du questionnement serait donc, à cet égard, une synthèse entre un effet Pygmalion et ce que Bourdieu appelle un "narcissisme herméneutique [par lequel] le connaisseur affirme son intelligence et sa grandeur par son intelligence empathique"(Bourdieu, les Règles de l’Art, iii, 1). Bref, pour Bourdieu, l'évaluation de l'intelligence par des batteries de questions n'est que l'effet d'un habitus culturel, autrement dit "le produit de l’incorporation des structures objectives de l’espace social, ce qui incline les agents à prendre le monde social tel qu’il est, plutôt qu’à se rebeller contre lui"(Bourdieu, Langage et Pouvoir Symbolique, iii, 5). En ce sens, déceler l'"intelligence" d'une entité au moyen d'un interrogatoire serait une manifestation particulière de l'assimilation culturelle de l'intelligence à la réussite scolaire.

Fort heureusement, pour qui se refuse "à prendre le monde social tel qu’il est", notamment en matière de conception de l'intelligence, la philosophie offre quelques conceptions alternatives intéressantes. A titre d'exemples, nous en citerons trois : celle d'Aristote, celle de Bergson et celle de Spinoza (de la plus restrictive à la moins restrictive). Sans trop entrer dans les détails de systèmes philosophiques assez difficiles à comparer, nous pouvons toutefois remarquer que
- pour Aristote, "nous avons deux facultés [désir -orexis- et intelligence -noûs-] qui sont donc principes du mouvement local. [...] L’intelligence [noûs] raisonne en vue d’un but [logizomenos] et l’intelligence pratique [noûs praktikos] se distingue de l’intelligence théorique [noûs theoretikon] par sa fin [telei]. [Auquel cas] le terme final du raisonnement est le point de départ de l’action"(Aristote, de l'Âme, III, 433a)
- pour Bergson, "qu'est-ce que l'intelligence ? La manière humaine de penser. Elle nous a été donnée, comme l'instinct à l'abeille, pour diriger notre conduite. La nature nous ayant destinés à utiliser et à maîtriser la matière, l'intelligence n'évolue avec facilité que dans l'espace et ne se sent à son aise que dans l'inorganisé. Originellement, elle tend à la fabrication : elle se manifeste par une activité qui prélude à l'art mécanique et par un langage qui annonce la science [...]. Elle est l'attention que l'esprit prête à la matière"(Bergson, la Pensée et le Mouvant)
- et pour Spinoza, "l’Esprit et le Corps sont une seule et même chose, conçue tantôt sous l’attribut du Corps, tantôt sous l’attribut de la Pensée, [même si] certains sont persuadés que le corps obéit au commandement de l'esprit, [car] ni le corps ne peut déterminer l’esprit à penser, ni l’esprit ne peut déterminer le corps au mouvement ou au repos [...] ; la décision de l’Esprit et l’appétit ou détermination du Corps sont choses naturellement simultanées, ou, pour mieux dire, sont une seule et même chose. [Or], dans la mesure où l’esprit comprend [intelligit] toutes les choses comme nécessaires, il a sur les affections une puissance plus grande, autrement dit, il est moins passif"(Spinoza, Éthique, III, 2 - V, 6)

En bref, si l'on refuse le postulat implicite de Turing réduisant l'intelligence à une simple faculté de répondre d'une certaine manière à des questions posées par un examinateur, en gros, nous avons trois types d'extensions possibles de la notion : en restant dans le cadre strictement langagier, celle d'Aristote consistant à circonscrire l'intelligence à la possibilité de délibérer rationnellement, celle de Bergson pour qui l'intelligence est le prolongement proprement humain de l'instinct adaptatif du vivant en général, celle enfin, de Spinoza qui fait de l'intelligence d'un être le synonyme de sa compréhension du réel donc de son adéquation au réel. Dans les deux premiers cas, la notion d'"intelligence artificielle" est une contradiction puisque seuls les humains peuvent être réputés intelligents. Dans la troisième acception, de loin la plus tolérante, c'est une tautologie lorsqu'on veut parler d'un objet en adéquation avec son milieu (que serait un objet "inadapté" à son milieu ?), soit une contradiction si on prétend déceler dans cette adéquation des degrés comme c'est le cas pour l'être humain. Bref, on ne voit pas bien comment on pourrait éviter l'une de ces deux branches de l'alternative : ou bien on abandonne l'aspect soi-disant problématique de l'attribution de l'intelligence à la machine (dans le sens où la question serait, soit contradictoire, soit tautologique), ou bien, on s'y cramponne au prix d'une réduction de la notion d'"intelligence" à la portion congrue que nous avons dénoncée, à savoir un certain type de réaction langagière à un stimulus langagier calquée sur le modèle scolaire : le maître interroge, l'élève répond.

Pourtant, d'un point de vue historique, cette réduction aussi absurde qu'arbitraire est d'autant plus prégnante qu'elle est, traditionnellement, masquée par un tour de passe-passe rhétorique consistant à noyer la notion d'"intelligence" dans celle de "calcul" à l'occasion de l'émergence de ce que le monde intellectuel de langue anglaise a baptisé "the mind-body problem". On citera évidemment l'article de Gilbert Ryle de 1949 qui dénonce le dualisme philosophique substantialiste (notamment, celui de Descartes), plus précisément, "la représentation de la personne humaine comme un fantôme ou un esprit mystérieusement niché dans une machine"(Ryle, the Concept of Mind).  Ce qui fournit immédiatement un vernis de respectabilité ontologique aux travaux d'Alan Turing commencés vingt ans plus tôt et portant sur la cybernétique, c'est-à-dire sur les systèmes physiques qui sont capables de "faire" des inférences logiques valides au point de transformer les pensées en simples calculs, sous-entendant par là qu'il y a bien un "agent" sous-jacent et que cet "agent" n'est justement pas un "fantôme" ou un "esprit" mais une entité sans mystère. Ce qui tombe bien car, depuis Platon jusqu'à Russell en passant par Descartes et Leibniz, LA logique et le calcul sont considérés par la plupart des philosophes rationalistes comme le paradigme de l'excellence en matière de pensée. Du coup, l'intuition de Turing, qui est un logicien et un mathématicien, est la suivante : voyons si nous ne pourrions pas construire des systèmes mécaniques qui sont capables d'utiliser la logique propositionnelle et la logique des prédicats du premier ordre. Si c'est le cas, l'esprit ou, pour dire le moins, une de ses propriétés essentielles, à savoir l'intelligence, ne sera plus "the ghost in the machine" mais fera intégralement partie d'une procédure mécanique. D'où la thèse de Turing qui affirme que "pour toute procédure, manipulation ou fonction d'entier que l'esprit humain peut exécuter ou calculer concrètement, effectivement, à la manière dont les mathématiciens depuis l'aube des temps appliquent des algorithmes […], il existe une machine (de Turing) capable d'exécuter cette procédure ou de calculer cette fonction"(Andler, Calcul et Représentations : les Sourcesin Introduction aux Sciences Cognitives, intro.). Or, de fait, nous savons construire des machines fonctionnant sur le principe dit du modus ponens, c'est-à-dire qui, de l'instruction "si p alors q" et de l'information "p", déduisent "q", de l'instruction "pour tout x appartenant à D, il existe un y tel que y=f(x)" et de l'information "x=a, a appartenant à D", infèrent "y=f(a)". Bref, il est tout à fait possible de construire des machines à calculer (en anglais, computers), "calculer" étant ici synonyme de "utiliser la logique propositionnelle et la logique des prédicats du premier ordre". C'est là la première étape (manifestement couronnée de succès) pour "défantômatiser" l'esprit, c'est-à-dire, au sens de Ryle, pour montrer que celui-ci désigne un ensemble de fonctions sans mystère et donc, en ce sens, communes à l'homme et à sa créature mécanique. De là, comme chacun sait, et au-delà du succès industriel et commercial de l'entreprise, la naissance d'un courant de recherches universitaires particulièrement dynamique connu, depuis soixante-dix ans, sous les noms de neuro-sciences ou encore de sciences cognitives, lequel, de fait, s'est évertué, non pas tant à atténuer d'éventuelles différences de nature entre l'homme, le vivant et le mécanique pour les requalifier en différences de degré à l'instar d'un Spinoza, mais plutôt à tout confondre (là encore, au sens étymologique de "fondre ensemble", "con-fondre") en réduisant à néant les différences de degré et, notamment, en assimilant l'intelligence du vivant, et celle de l'homme en particulier, à un certain type de fonctions mécaniques. Mieux que cela : si l'ordinateur produit avec des règles et des symboles des propositions valides, c'est que, jusqu'à un certain point au moins, le langage humain doit fonctionner comme une sorte de calcul. D'où, évidemment, le problème de savoir si ce que nous appelons l'"intelligence", la "compréhension", la "signification" etc. ne seraient pas de faux problèmes relatifs à notre mécompréhension de la nature véritable, c'est-à-dire mécanique, de la pensée. Nombre d'éminents philosophes du langage ont, au XX° siècle, cédé à la tentation de cet embrigadement idéologique qui a conduit, entre autres, à forger le mythe de l'homo œconomicus idéalement rationnel. Parmi eux, Wittgenstein qui a commencé par défendre une position similaire en disant que "l’acte de penser comme son application [le langage] se déroulent pas à pas comme un calcul [...]. C’est à l’extérieur que le calcul de la pensée se rattache à la réalité"(Wittgenstein, Grammaire Philosophique, I, §110-111). Ce qui est intéressant, ce sont les raisons pour lesquelles il se rétractera ensuite en affirmant tout au contraire "qu’en général nous n’utilisons pas le langage en suivant des règles strictes – il ne nous a pas été enseigné au moyen de règles strictes. Nous, pourtant, dans nos discussions, comparons constamment le langage avec un calcul qui procède selon des règles exactes"(Wittgenstein, le Cahier Bleu, 49). Nous y reviendrons.

Ce qui nous importe, pour le moment, c'est que les sciences cognitives ont fini par attribuer l'"intelligence" à la machine en tant que celle-ci simule un certain type de comportement humain que l'on a coutume d'associer à la notion d'intelligence, en l'occurrence, le comportement calculatoire. Demandons-nous donc à présent si nous tenons là, à tout le moins, un critère opérationnel pour faire le départ entre ce qui est "intelligent" et ce qui ne l'est pas. La question nous semble d'autant plus pertinente que la forme d'"intelligence" dont il s'agit est dérivée d'un modèle scolaire dans le cadre duquel un interrogateur pose des questions à un impétrant non pas pour avoir une information, mais pour savoir si l'impétrant est digne d'être admis à un examen, un grade, une charge, une dignité, un emploi, etc. On pourrait donc raffiner le protocole turingien en imaginant un examinateur qui a sous les yeux une série de réponses anonymes écrites rédigées en caractères d'imprimerie par des candidats parmi lesquels se trouverait un ordinateur couplé à une imprimante, ou encore un GMI qui dispute des parties d'échecs simultanées contre des adversaires humains dont l'un ne ferait que déplacer des pièces conformément au calcul d'un ordinateur caché. Dans tous les cas, le problème est : le juge (examinateur, GMI) est-il capable de soupçonner la présence de la machine ? Si ce n'est pas le cas, moyennant les réserves déjà faites sur la nature, la forme et le nombre des questions posée, on sait que Turing préconise de conclure que la machine impliquée dans le protocole est intelligente. Auquel cas, le test dit de Turing aurait effectivement valeur de critère d'attribution de l'intelligence à une machine. Or, les deux analogies que nous avons proposées (celle de l'examinateur et celle du joueur d'échecs) vont nous aider à comprendre pourquoi le le "test de Turing" ne constitue pas un critère. Dans le premier cas, l'examinateur est certainement supposé savoir par avance quelles sont les bonnes réponses si les questions sont fermées, mais il sera embarrassé si on lui demande de préciser a priori l'éventail d'acceptabilité des réponses en cas de questions ouvertes. Dans le second cas, le GMI est réputé suffisamment expérimenté pour reconnaître une série de coups qui trahissent une culture échiquéenne acceptable mais il n'est vraisemblablement pas capable d'expliquer ce qu'est un bon coup ou un coup acceptable autrement que de manière tautologique en le rapportant à l'issue favorable ou non de la partie. On dira que, dans le cas d'un examen ou d'un concours par question fermées (QCM), on possède des critères de correction dont aucun ne sera suffisant mais qui seront tous nécessaires pour définir la valeur du candidat. Mais autrement, le juge en général ne pourra fonder son jugement que sur des symptômes tirés de sa familiarité avec sa matière d'expertise. Or nous nous souvenons que c'est de cette manière que procède le test de Turing. Nous devons donc établir à présent une distinction entre ce qui relève du critère et ce qui ressortit au symptôme.

"A la question « comment sais-tu que ceci ou cela a lieu ? », nous répondons parfois en indiquant des critères et parfois de symptômes. Quand, en médecine, l'inflammation causée par tel bacille est qualifiée d'angine et que, dans ce cas précis, nous demandons : « Pourquoi sais-tu que cet homme a une angine ? », la réponse : « J'ai trouvé dans son sang le bacille X ou Y » nous indique le critère ou ce que nous pouvons appeler le critère de définition de l'angine. Si, en revanche, la réponse était : « Il a une inflammation de la gorge », il nous indiquerait là un symptôme de l'angine. Par symptôme, je désigne un phénomène dont l'expérience que nous en faisons est concomitante du phénomène qui est notre critère de définition. Dire alors « Quelqu’un a une angine si on trouve qu’il est porteur du bacille » est une tautologie, ou une manière vague d’énoncer la définition de « angine ». Mais dire « Un homme a une angine à chaque fois qu’il a la gorge enflammée », c’est faire une hypothèse"(Wittgenstein, le Cahier Bleu, 48). En d'autres termes, nous ne sommes en présence d'un critère autorisant à conclure en faisant le départ entre ce qui est correct et ce qui ne l'est pas qu'à condition de posséder, a priori, un corpus théorique qui recense les conditions nécessaires à la validité de la conclusion, bref, à condition de posséder ce qu'on appelle une définition, laquelle sera alors de la forme "si et seulement si C1 et C2 et C3 et ... Cn alors V (ou non-V)" (avec C pour "critère" et V pour "valeur"). C'est le cas dans l'exemple proposé par Wittgenstein (le biologiste se demandant si le tableau infectieux constaté correspond à telle ou telle affection répertoriée a priori), c'est encore le cas pour l'examinateur qui fait passer un QCM et qui a sa "grille" de correction, mais ce n'est le cas ni pour le joueur d'échecs, ni pour le juge judiciaire, ni pour le critique d'art, ni pour le clinicien, etc. Aussi expérimentés soient-ils, et bien qu'il existe, dans tous les cas, nombre de traités théoriques d'"acceptabilité", ils ne disposeront l'un et l'autre que de schèmes mentaux de correction purement empiriques, purement inductifs et non d'une véritable théorie de la correction. Ils en seront donc réduits à conjecturer la valeur de ce qu'ils jugent.

Ce qui n'est, en soi, nullement un problème, nullement une objection sceptique de type humien. Car les jugements effectués sur la base d'un constat de symptômes sont, de facto, infiniment plus fréquents et au moins aussi pertinents que ceux qui découlent de l'application de critères en bonne et due forme. Le problème que suscite la distinction wittgensteinienne entre critère et symptôme réside non dans l'enjeu pragmatique mais plutôt dans l'enjeu épistémologique d'une telle distinction. C'est que le critère renvoie, via la possibilité de définir a priori ce qui a de la valeur et ce qui n'en a pas, à une forme de certitude scientifique, voire mathématique, donc de jugement solide. Tandis que la présence d'un simple symptôme empirique comme base de jugement est réputée, dans la culture occidentale moderne et post-moderne, appartenir au domaine du flou artistique, voire de l'arbitraire de l'opinion. Ce que la tradition philosophique est loin de cautionner. Relisons, par exemple, ce passage du Charmide dans lequel Socrate interroge Critias : "- pour ma part, j'affirme [dit Critias] à peu près que ce en quoi consiste la modération, c'est cela même : se connaître soi-même, et je suis d'accord avec celui qui a apposé à Delphes une telle inscription.  [...] La raison de tout mon discours, Socrate, la voici : je retire tout ce que je t'ai accordé auparavant ; peut-être, en effet, est-ce toi qui avais en un sens davantage raison, à ce sujet, peut-être était-ce moi, en un autre sens, tout n'était pas clair dans nos propos. Mais à présent, je consens à te rendre raison de cette définition-ci, si tu ne m'accordes pas que la modération, c'est se connaître soi-même. - Mais Critias, dis-je, d'abord tu te comportes à mon égard avec l'idée que j'affirme savoir ce sur quoi je pose des questions, et que je t'accorde ce que tu dis à condition de le décider. Or ce n'est pas ainsi que cela se passe ! Au contraire, je mène constamment la recherche avec toi sur ce qui est proposé, parce que, moi-même, je ne sais pas. C'est donc après avoir examiné que je consens à dire si je suis d'accord ou non"(Platon, Charmide, 164d-165c). Or l'expérimentateur turingien prétend, de jure, détenir un critère de ce que doit être l'"intelligence artificielle", tandis qu'il est, de facto, dans la situation de Critias ébauchant une définition qui n'est pas absurde en soi mais qui n'est encore qu'hypothétique, conjecturale, hésitante, en tout cas nullement définitive : c'est une étape, comme le souligne Socrate, dans la recherche commune de la meilleure définition possible que, pour l'heure, personne ne connaît. En ce sens, donc, le "test de Turing" ne nous fournit aucun critère opératoire (scientifique ou technique) d'attribution de l'"intelligence" à la machine faute d'une théorie sous-jacente délivrant, a priori, une définition à peu près stabilisée et partagée de ce qu'est l'"intelligence". La seule réponse possible au problème que nous avons soulevé est, en l'occurrence, celle de Socrate : "ce n'est pas ainsi que cela se passe ! Au contraire, je mène constamment la recherche avec toi sur ce qui est proposé, parce que, moi-même, je ne sais pas". Le fait de répondre d'une certaine manière à une batterie de questions est, manifestement, un simple symptôme d'acculturation à l'occidentale que Turing tire de sa propre culture et de sa propre expérience, de son propre habitus, dirait Bourdieu, et ne peut valoir, dans le meilleur des cas, que comme hypothèse de travail, nullement comme test à valeur conclusive.

Dans une entrevue accordée au magazine Sciences Humaines, John Searle a déclaré son scepticisme à l'égard de la valeur conclusive du "symbolisme binaire d’une machine de Turing. C’est ce que montre [son] argument de la chambre chinoise. [...] Supposons que je sois dans une pièce fermée avec la possibilité de recevoir et de donner des symboles, par l’intermédiaire d’un clavier et d’un écran, par exemple. Je dispose de caractères chinois et d’instructions permettant de produire certaines suites de caractères en fonction des caractères que vous introduisez dans la pièce. Vous me fournissez l’histoire puis la question, toutes deux écrites en chinois. Disposant d’instructions appropriées, je ne peux que vous donner la bonne réponse, mais sans avoir compris quoique ce soit, puisque je ne connais pas le chinois. Tout ce que j’aurais fait c’est manipuler des symboles qui n’ont pour moi aucune signification. Un ordinateur se trouve exactement dans la même situation que moi dans la chambre chinoise : il ne dispose que de symboles et de règles régissant leur manipulation". Searle propose donc une expérience de pensée dans laquelle il remplace la machine par un opérateur humain qui reçoit des messages codés (en l'occurrence, une suite de sinogrammes) en input, qui analyse lesdits messages au moyen et uniquement au moyen d'un manuel d'instructions qu'il consulte afin de traiter le plus adéquatement possible l'information écrite reçue, enfin qui fournit en output un autre message codé (toujours sous forme de sinogrammes) qui n'est autre que l'information reçue et traitée conformément au manuel d'instruction. Pour Searle, on peut parfaitement concevoir un opérateur humain qui "fonctionne", temporairement, comme une "machine de Turing" (autrement dit une "machine intelligente", bref, un ordinateur), à savoir qu'il traite de l'information qu'il ne comprend pas et qu'il répond par de l'information qu'il ne comprend toujours pas. La conclusion qu'en tire Searle, c'est que, même si la réponse est correcte aux yeux de l'observateur, dans une telle situation, l'opérateur, qu'il soit humain ou mécanique ne peut être dit "intelligent". Bref, il critique implicitement l'orientation "fonctionnaliste", c'est-à-dire, en fait "computationnaliste" que le test de Turing a imprimée à la philosophie de l'esprit. Si nous reprenons notre analogie scolaire développée supra, nous dirons que, pour Searle, l'épreuve imposée par l'examinateur ne permet pas de faire la différence entre une machine programmée pour réussir l'examen, un candidat valeureux et honnête et un candidat qui, sans être nécessairement un tricheur, possède une mémoire suffisamment efficace pour apprendre "par cœur" toutes les questions et toutes les réponses possibles au programme de l'examen (après tout, rien n'interdit à l'impétrant de mémoriser le "manuel d'instructions" dont Searle fait état).

Le nœud du problème vient donc de ce que le test de Turing ne permet pas de conclure à l'"intelligence" d'une machine qui se comporterait comme un homme au motif que, tout en lui imposant une épreuve langagière, c'est-à-dire, comme nous l'avons vu, une épreuve censée mettre en lumière ce qu'il y a de plus "humain" en l'homme, le test ne sollicite, en fait, que la seule composante syntaxique du langage. Plus précisément, "l’argument de la chambre chinoise montre que la sémantique du contenu mental n’est pas intrinsèque à la syntaxe du programme informatique"(Searle, entrevue donnée au magazine Sciences Humaines). Sans trop rentrer dans des détails techniques, rappelons brièvement que "les modèles classiques du langage présentent les langues telles que le français ou l’allemand comme composées de trois éléments : le composant phonologique qui détermine comment les mots et les phrases sont prononcés, le composant syntaxique qui détermine la combinaison des mots et des morphèmes en phrases, et le composant sémantique qui assigne un sens ou une interprétation aux mots et aux phrases. Des modèles plus sophistiqués ajoutent qu’il doit y avoir aussi un composant pragmatique"(Searle, what is Language ? Some Preliminary Remarks, ii). Une telle quadripartition est devenue classique dans toutes les formes (philosophiques ou scientifiques) de réflexion moderne sur le langage en général : la phonologie (en fait, la morphologie qui inclut l'orthographe du langage écrit) fait l'inventaire des phonèmes ou des graphèmes constitutifs des symboles admissibles dans une langue donnée, la syntaxe régit les rapports des symboles entre eux, la sémantique les rapports des symboles à ce dont ils sont les symboles et la pragmatique les rapports des symboles au comportement de leurs utilisateurs. De plus, cette quadripartition est cumulative, c'est-à-dire que la syntaxe présuppose la morphologie, la sémantique se construit sur la syntaxe et la morphologie, la pragmatique enfin sur la sémantique, la syntaxe et la morphologie. Or la programmation de l'ordinateur, tout comme les manœuvres dilatoires du simulateur searlien enfermé dans the chinese room ne vont pas plus loin que la manipulation de la morphologie et de la syntaxe d'un langage. Searle en conclut que  ni l'un ni l'autre ne font, à proprement parler, usage d'un langage et, en conséquence, ne sauraient être dits "intelligents". Car, pour qu'il y ait langage, et, corrélativement, intelligence (Searle ne développe pas de théorie de l'intelligence mais fait implicitement de l'usage d'un langage une condition nécessaire à l'exercice de l'intelligence), il faut impérativement envisager en outre, nous dit-il, un "contenu mental", c'est-à-dire des considérations sémantiques et pragmatiques, ce dont une suite morpho-syntaxique d'instructions opératoires, qu'elles soient destinées à une machine ou à un être humain, est nécessairement dépourvue.

Pourquoi donc une compétence à traiter du langage aux seuls niveaux morphologique et syntaxique n'est-elle pas une compétence à proprement parler linguistique et donc, ne mérite-t-elle pas d'être considérée comme un symptôme d'intelligence ? Pour Searle, et à l'instar de Spinoza ou de Bergson et même, dans une certaine mesure, d'Aristote, l'intelligence est l'extension naturelle des systèmes biologiques de communication. "À quoi ressemblerait une tentative de traiter le langage comme je le conçois, de manière naturaliste ? Le premier pas, que beaucoup de philosophes n’ont pas voulu franchir, serait de considérer le sens linguistique, le sens des phrases et des actes de langage, comme une extension des formes d’intentionnalité fondamentalement biologiques que sont la croyance, le désir, la mémoire et l’intention, et de considérer ces derniers comme les développements d’une intentionnalité plus fondamentale encore, notamment la perception et l’action intentionnelle, ou l’intention-en-action"(Searle, what is Language ? Some Preliminary Remarks, i). Pour lui, tout acte humain de langage (speech act) possède nécessairement un sens, ou bien ce n'est pas du langage. Et la nature de ce qu'on appelle "sens" n'a rien de mystérieux puisqu'elle s'ancre dans l'une des deux directions d'ajustement de la communication biologique de base : d'une part, la direction monde->individu (c'est le cas de la perception, mais aussi de la croyance et de la mémoire : l'individu biologique acquiert et, éventuellement, retient de l'information pertinente à propos de son biotope) ; d'autre part la direction inverse individu->monde (dans le cas du désir ou de l'intention, pare exemple, l'individu biologique modifie tant soit peu son biotope en fonction de ses intérêts bien compris). Parler de direction d'ajustement d'un système biologique de communication est important parce que cela suppose que l'individu qui communique a l'intention de communiquer un message destiné à coordonner les actions des organismes partenaires (congénères, mais aussi commensaux et parasites) et des organismes adversaires (ennemis, prédateurs) dans une direction précise (garder ou perpétuer ce qui est profitable, éviter ou fuir ce qui est nuisible). C'est ce que Searle appelle l'intention-en-action, autrement dit le "sens" (tout à la fois sense et meaning) que l'émetteur du message entend donner à son action et à celle de ses congénères et dont son message (on songe, par exemple, à la fameuse "danse" des abeilles) est l'expression. L'important, pour notre discussion, est que, puisque même dans le système de communication biologique le plus rudimentaire, il y a nécessairement de ce que nous appellerons désormais du "sens-intentionalité-en-action", a fortiori, il ne saurait exister de langage humain qui en fasse l'économie, et, par conséquent, des composantes sémantique et pragmatique de ce sens-intentionalité-en-action.

Ces deux composantes sont indissociables car la sémantique inhérente à tout système biologique de communication ne se résume pas aux seules conditions de possibilité du message, à savoir que l'individu qui communique communique son intention d'agir dans une direction déterminée. Au-delà, c'est toute l'expérience des conditions de satisfaction de son action qui est communiquée à ses cibles potentielles par l'émetteur du message : "du fait que les perceptions, les intentions, les croyances, les désirs, etc., sont des formes d’intentionnalité, ils véhiculent avec eux la détermination des conditions de leur succès ou de leur échec. Un animal affamé, par exemple, a une envie de manger, et toute pathologie mise à part, il a pour cela l’aptitude de reconnaître quand son désir est satisfait ou non. On peut généraliser comme suit : tout état intentionnel détermine ses conditions de satisfaction, et un animal normal, qui a des états intentionnels, doit être capable de distinguer, de reconnaître quand les conditions de satisfaction sont effectivement remplies […]. Avoir des croyances et des désirs, par exemple, c’est avoir déjà quelque chose qui détermine des conditions de satisfaction, et qui implique la capacité de reconnaître le succès de l’échec"(Searle, what is Language ? Some Preliminary Remarks, iv). C'est une autre manière de dire qu'un individu "intelligent" ne communique pas seulement ses croyances et ses désirs pour être compris mais, comme le disent aussi Grice, Sperber ou Wilson, pour être optimalement compris, c'est-à-dire pour maximiser les chances de survie de soi-même, du groupe dont il fait partie et, au-delà, de son espèce tout entière. Dit d'une autre manière, la sémantique (ensemble des conditions de satisfaction du message) présuppose la pragmatique comme ensemble des conditions de satisfaction de l'intention du message. Bref, un langage est un système de communication fondamentalement biologique qui ne saurait faire l'économie, outre de la morphologie et de la syntaxe, de la sémantique et de la pragmatique. Ce qui implique d'abord qu'un ordinateur, qui n'est  pas un être biologique, ne saurait être évalué sur la base d'une compétence pseudo-langagière réduite à la seule maîtrise d'une morphologie et d'une syntaxe. Mais il y a plus : à supposer même qu'il parvienne à mimer sémantiquement l'adaptation biologique d'un être vivant en "apprenant" par lui-même (on pense au deep-learning) ou en mimant l'intentionalité (par exemple dans le cas d'un programme qui "joue" aux échecs) en faisant comme s'il prenait en compte ses propres "intérêts" (mettre le roi adverse échec et mat), encore faudrait-il qu'il fasse tout cela dans l'intention fondamentale de maximiser ses chances de survie. Ce qui, d'une part, ne se rencontre que dans les scénarios de science-fiction, et, d'autre part, constitue une contradiction dans les termes puisque la machine, par définition, n'est pas "vivante".

Nous pouvons donc dire à présent que Searle ne se borne pas à réfuter l'efficacité du test de Turing lorsqu'il s'agit d'évaluer l'intelligence d'une machine. En fait, c'est sa pertinence même qu'il réfute en tant que ce test repose sur une épreuve en fait faussement langagière. Dès lors, en effet, que tout système de communication, a fortiori tout langage, repose indissolublement sur une morphologie, une syntaxe, une sémantique et une pragmatique, il est clair que, pour lui, dans la mesure où le langage est un système de communication utilisé par des agents vivants pourvus d'intentionalité-en-action dérivant elle-même de l'intention fondamentale de survivre, un langage ne peut être que naturel et non-artificiel. Bref, l'ordinateur ne "communique" pas et, a fortiori, ne parle pas. Vouloir le questionner est, dès lors, complètement absurde. Est-ce à dire que Searle va jusqu'à refuser la notion d'"intelligence artificielle" ou bien est-ce que, selon lui, l'ordinateur pourrait, après tout, être analogiquement qualifié d'"intelligent" sur la base de compétences autres que proprement langagières ? Jusque là, Searle, dont l'"argument de base est que c’est une erreur de croire qu’on peut créer un esprit avec le symbolisme binaire d’une machine de Turing"(Searle, entrevue accordée au magazine Sciences Humaines) a rejeté la thèse dite "forte" (assumée par le cognitivisme post-turingien) de l'"intelligence artificielle", celle qui confond intelligence, esprit et calcul, mais non celle, plus "faible", de Turing qui confond l'intelligence, l'esprit et le calcul tout en prenant bien garde à dissocier l'intelligence de "l'âme immortelle de l'homme" (ce sont les termes mêmes de Turing). Est-ce donc que Searle pourrait se réconcilier avec Turing en admettant, après tout, qu'une machine calculante puisse être dite "intelligente", étant entendu que sa puissance de calcul ne suffira jamais à combler le gouffre ontologique qui la sépare l'homme ? On se souvient que, pour Searle, la sémantique d'un langage n'est pas intrinsèque à sa syntaxe, que la sémantique est un niveau de perfection qui survient après (ou au-dessus) de la syntaxe. Or, "à l’époque [en 1980] j’admettais que la machine possédait une syntaxe. En fait, si l’on pose la question de savoir si cette série de zéros et de uns est un processus intrinsèque à la machine, on est obligé d’en convenir que ce n’est pas le cas. J’ai proposé depuis (dans la Redécouverte de l’Esprit) un nouvel argument. La distinction la plus profonde qu’on puisse effectuer n’est pas entre l’esprit et la matière, mais entre deux aspects du monde : ceux qui existent indépendamment d’un observateur, et que j’appelle intrinsèques, et ceux qui sont relatifs à l’interprétation d’un observateur. La computation informatique n’est pas un processus qui a lieu dans la nature. Elle n’existe que relativement à une interprétation syntaxique qui assigne une certaine distribution de zéros et de uns à un certain état physique. Ce nouvel argument, plus radical, montre que la syntaxe n’est pas intrinsèque à la nature physique. Une chose donnée n’est un programme (i.e. une structure syntaxique) que relativement à une interprétation. Ceci a pour effet de démolir l’assomption de base de la théorie computationnelle de l’esprit. La question “Le cerveau est-il intrinsèquement un ordinateur ?” est absurde car rien n’est intrinsèquement un ordinateur si ce n’est un être conscient qui fait des computations. N’est ordinateur que quelque chose auquel a été assignée une interprétation. Il est possible d’assigner une interprétation computationnelle au fonctionnement du cerveau comme à n’importe quoi d’autre. Supposons que cette porte égale 0 quand elle est ouverte, et 1 quand elle est fermée. On a là un ordinateur rudimentaire. Cet argument est plus puissant que le premier mais plus difficile à comprendre"(Searle, entretien accordé à la revue Sciences Humaines).

(à suivre dans ...)

Aucun commentaire:

Enregistrer un commentaire

Votre commentaire est-il vraiment nécessaire ?