Tapez
"Searle Turing" dans un moteur de recherche quelconque,
vous obtiendrez, immanquablement, des articles relatifs au Chinese
Room Argument.
C'est que l'argument dit "de la Chambre Chinoise" recèle
un parfum de mystère digne du Mystère
de la Chambre Jaune dont
la rigueur de l'exposition et du raisonnement ont été, à juste
titre salués. Nous allons montrer que, contrairement au roman
policier de Gaston Leroux, l'expérience de pensée de John Searle
connue sous ce nom ressemble plutôt à une escroquerie
intellectuelle.
Commençons
par en retracer la genèse. Dans un célèbre article paru dans la
revue Mind en
octobre 1950 et intitulé Computing Machinery and Intelligence,
Alan Turing suggère une expérience de pensée permettant de
déterminer dans quelle mesure une machine peut être dite
"intelligente" au sens humain du terme, autrement dit,
dotée d'une sorte de "pensée" capable d'effectuer
suffisamment d'opérations banalement humaines pour abuser
l'observateur Lambda qui ne serait pas au courant de sa nature
non-humaine, mécanique. Soit un jeu à trois "joueurs",
deux étant humains, le troisième étant un ordinateur. Un
observateur humain extérieur pose alors des questions ouvertes aux
"joueurs". S'il est incapable de déceler, dans la teneur
des réponses, lesquelles proviennent de la machine et lesquelles de
l'homme, alors la machine sera réputée "intelligente".
D'où la question : une telle expérience de pensée constitue-t-elle
ou non un critère opérationnel d'attribution de l'"intelligence"
à de l'"artificiel" ? On sait que, dans son article
non-moins célèbre Minds, Brains and Programs,
John Searle y a répondu négativement en 1980 au motif qu'une
machine pourrait bien, à la limite, "mémoriser" par
avance non seulement toutes les questions possibles mais aussi toutes
les manières possibles d'y répondre. En ce sens, elle se
comporterait comme quelqu'un qui ignore tout de la langue chinoise
mais détiendrait un manuel d'instructions suffisamment complet pour
faire face à toutes les situations langagières possibles dans cette
langue. En conséquence de quoi, la machine pourrait, théoriquement,
"berner" l'expérimentateur sans rien comprendre aux
questions posées et donc sans faire le moins du monde preuve
d'intelligence.
Il
nous semble que l'on peut, préalablement à l'examen du chinese
room argument searlien,
élever deux objections sérieuses contre le "critère" de
Turing :
1
- le domaine de définition de l'intelligence y est abusivement
réduit
2
- ce soi-disant "critère" n'en est pas un, c'est plutôt
un symptôme.
1
- Dans quelle mesure sommes-nous fondés à réduire le domaine de
définition de l'intelligence à la seule compétence consistant à
répondre normativement à des questions ouvertes ?
1
- 1 : pourquoi des questions "ouvertes" et non "fermées"
? On aurait tendance à dire spontanément que les questions
"ouvertes" sont susceptibles d'un éventail de réponses
bien plus large que les questions "fermées" auxquelles,
par définition, on ne répond que par oui ou par non
(éventuellement, par l'abstention). Or on suppose que plus large est
l'éventail des réponses possibles, plus il est difficile de
répondre, donc plus il faut faire preuve d'"intelligence"
pour le faire. Il est réputé plus difficile et donc plus méritoire
de répondre à la question "quelle est la date de l'assassinat
d'Henri IV ?" qu'à la question "Henri IV est-il mort à la
date t ?"
car, en répondant au hasard (c'est-à-dire de manière supposée
"inintelligente") à celle-ci, la probabilité est de 0,5
de dire vrai, ce qui incline à penser que le risque de se tromper en
répondant à une question fermée est trop faible pour être
discriminant. Voilà qui est très problématique pour cinq raisons
au moins :
-
premièrement, on présuppose que ce qui est vrai n'est pas faux et
ce qui est faux n'est pas vrai, ce qui pose le problème de
l'évidence d'un des principes logiques tout à la fois les plus
intangibles et les plus contestables de l'histoire de la philosophie,
à savoir, depuis Aristote et ses Réfutations
Sophistiques,
le principe dit de (non-)contradiction. Or les recherches menées
dans le domaines de la logique formelle au XX° siècle ont montré
que rien n'est moins évident que ce principe. Car il se peut très
bien que, étant entendu qu'elles ne peuvent être simultanément
vraies, deux contradictoires peuvent, en revanche, être
simultanément fausses ou simultanément dépourvues de
signification. En termes de logique formelle, nous dirons qu'il y a
confusion entre principe de contradiction, principe de tiers-exclu et
principe de bivalence (je ne m'étends pas ici sur cet aspect, très
technique, du problème). Tout ça pour dire qu'on pourrait, tout au
contraire de ce qui est présupposé dans l'argument turingien,
considérer comme très "intelligent" de répondre à des
questions "fermées" autrement que par oui ou par non, par
exemple en répondant "oui et non", "ni-oui ni-non",
"question dépourvue de sens" ou encore "oui à x %,
non à y %"
-
deuxièmement, même en négligeant le problème inhérent à la
confusion sus-évoquée, il suffirait de faire tendre vers l'infini
le nombre de questions "fermées" posées pour que tende
vers 0 la probabilité d'y répondre correctement par simple hasard
(probabilité de répondre "juste" à une seule question fermée =
1/2 ; probabilité de répondre "juste" à n
questions fermées = 1/2^n ; or 1/2^n tend vers 0 lorsque n tend vers
l'infini) ; ce qui est au principe même de la légitimité des QCM en général
-
troisièmement, si on augmente indéfiniment le nombre de questions
posées, qu'elles soient "fermées" ou ouvertes, hasard ou
pas, au bout d'un certain temps, l'humain (vivant) va se fatiguer tandis que
la machine (non-vivante), pour peu qu'elle soit convenablement alimentée en
énergie, continuera inexorablement sur sa lancée ; d'où le
paradoxe : si on veut limiter les risques d'erreur liées à la
fatigue biologique de l'intelligence humaine, il faut aussi limiter
le nombre de questions posées, et donc limiter le processus de
vérification au risque de limiter aussi la valeur de cette
vérification
-
quatrièmement, le problème posé par les questions "ouvertes",
c'est que, justement, l'éventail des réponses étant, a
priori,
indéfini, leur domaine d'acceptabilité l'est aussi ; ainsi, à la
question portant sur la date de la mort d'Henri IV, l'"intelligence"
de la réponse "1610" sera-t-elle réputée la même que
"mai 1610", "le 14 mai 1610", "le 14 mai
1610 à telle heure", etc. ? À l'inverse, n'y a-t-il pas des
erreurs plus "intelligentes" que d'autres (répondre "1611"
au lieu de "1789" par exemple) ? La solution qu'est censée
apporter le caractère "ouvert" des questions posées n'en
est donc pas une en soi parce que le prétendu "critère"
définitionnel de l'intelligence sous-jacent, d'une part est beaucoup
trop vague, d'autre part, fût-il plus précis, semble ne pas devoir
faire l'économie d'une interprétation au cas par cas (j'y
reviendrai ultérieurement)
-
cinquièmement, enfin, le fait d'exclure les questions "fermées"
comme trop propices aux réponse aléatoires dénote un contexte
culturel dévalorisant le hasard au motif que tout phénomène est
censé être déterminé causalement, de manière univoque et
définitive, bref, un contexte qui fait fond sur une métaphysique de
l'Être immuable et nécessaire où les choses sont ce qu'elles sont
et ne peuvent donc pas être autrement qu'elles ne sont, une
métaphysique, donc où, comme le dit Hegel, "être, c'est avoir
été" ; il en va différemment, si l'on adopte un point de vue
héraclitéen, bouddhiste ou taoïste, voire quantique qui privilégie
le flux, le passage, l'indétermination et non pas l'Être ; or, de
ces derniers points de vue, le hasard devenant le fondement
ontologique du réel, répondre aléatoirement à des questions d'un
certain type (par exemple celles portant sur le possible ou sur le
futur, comme dans le Yi
King chinois)
sera plutôt considéré comme une preuve d'intelligence.
1
- 2 : dans quelle mesure l'intelligence doit-elle être cantonnée à
la faculté de produire une réaction langagière à
un stimulus langagier
? Quelle que soit la forme des questions posées par Turing à la
machine, on est quand même obligé de se demander par quelle étrange
perversion on en est arrivé à considérer que le meilleur (on n'ose
pas dire "le seul") indicateur de l'intelligence d'une
entité réside dans les réponses que cette entité fournit
lorsqu'elle est soumise à un interrogatoire. Même le cognitivisme,
malgré sa foi indéfectible dans la validité d'un modèle
scientiste de l'intelligence, est plus subtil que cela. Ainsi, Michel
Imbert précise-t-il bien que "le
cognitivisme est l'étude de l'intelligence, notamment de
l'intelligence humaine, de sa structure formelle à son substratum
biologique, en passant par sa modélisation, jusqu'à ses expressions
psychologiques et anthropologiques [...]. Il est évident, et
personne ne peut raisonnablement en douter que ces processus
cognitifs sont représentés, incarnés dans le système nerveux ;
qu'ils sont, en dernière instance, autant de manifestations et
d'expressions du fonctionnement du cerveau"(Imbert, Neurosciences
et Sciences Cognitives, in Introduction
aux Sciences Cognitives,
I, i) : pour lui, il est clair que le fait de répondre à des
questions ne peut être que l'une des multiples "manifestations
et [...] expressions du fonctionnement du cerveau" parmi
d'autres. Je ne vois pas, personnellement, d'autre raison au
réductionnisme forcené présupposé par le test de Turing que celle
consistant à dire, à l'instar de Bourdieu, que le modèle implicite
de ce modus
operandi est
"la
réussite scolaire que l’on identifie à
l’“intelligence”"(Bourdieu, Questions
de Sociologie,
ii). Si Bourdieu dit vrai, comme la "réussite" scolaire
n'a jamais su s'évaluer qu'à travers des questionnaires divers et
variés, il est facile de comprendre que, de même que le maître
pose des questions à l'élève, de même le programmateur humain va
poser des questions à sa créature. Dans les deux cas, il s'agit de
savoir de quel degré celle-ci se rapproche de celui-là. L'obsession
du questionnement serait donc, à cet égard, une synthèse entre un
effet Pygmalion et ce que Bourdieu appelle un "narcissisme
herméneutique [par lequel] le connaisseur affirme son intelligence
et sa grandeur par son intelligence empathique"(Bourdieu, les
Règles de l’Art,
iii, 1). Bref, pour Bourdieu, l'évaluation de l'intelligence par des
batteries de questions n'est que l'effet d'un habitus culturel,
autrement dit "le
produit de l’incorporation des structures objectives de l’espace
social, ce qui incline les agents à prendre le monde social tel
qu’il est, plutôt qu’à se rebeller contre
lui"(Bourdieu, Langage
et Pouvoir Symbolique,
iii, 5). En ce sens, déceler l'"intelligence" d'une entité
au moyen d'un interrogatoire serait une manifestation particulière
de l'assimilation culturelle de l'intelligence à la réussite
scolaire.
Fort
heureusement, pour qui se refuse "à prendre le monde social tel
qu’il est", notamment en matière de conception de
l'intelligence, la philosophie offre quelques conceptions
alternatives intéressantes. A titre d'exemples, nous en citerons
trois : celle d'Aristote, celle de Bergson et celle de Spinoza (de la
plus restrictive à la moins restrictive). Sans trop entrer dans les
détails de systèmes philosophiques assez difficiles à comparer,
nous pouvons toutefois remarquer que
-
pour Aristote, "nous
avons deux facultés [désir -orexis- et intelligence -noûs-] qui
sont donc principes du mouvement local. [...] L’intelligence [noûs]
raisonne en vue d’un but [logizomenos] et l’intelligence pratique
[noûs praktikos] se distingue de l’intelligence théorique [noûs
theoretikon] par sa fin [telei]. [Auquel cas] le terme final du
raisonnement est le point de départ de l’action"(Aristote, de
l'Âme,
III, 433a)
-
pour Bergson, "qu'est-ce
que l'intelligence ? La manière humaine de penser. Elle nous a été
donnée, comme l'instinct à l'abeille, pour diriger notre conduite.
La nature nous ayant destinés à utiliser et à maîtriser la
matière, l'intelligence n'évolue avec facilité que dans l'espace
et ne se sent à son aise que dans l'inorganisé. Originellement,
elle tend à la fabrication : elle se manifeste par une activité
qui prélude à l'art mécanique et par un langage qui annonce la
science [...]. Elle est l'attention que l'esprit prête à la
matière"(Bergson, la
Pensée et le Mouvant)
-
et pour Spinoza, "l’Esprit
et le Corps sont une seule et même chose, conçue tantôt sous
l’attribut du Corps, tantôt sous l’attribut de la Pensée, [même
si] certains sont persuadés que le corps obéit au commandement de
l'esprit, [car] ni le corps ne peut déterminer l’esprit à penser,
ni l’esprit ne peut déterminer le corps au mouvement ou au repos
[...] ; la décision de l’Esprit et l’appétit ou détermination
du Corps sont choses naturellement simultanées, ou, pour mieux dire,
sont une seule et même chose. [Or], dans la mesure où l’esprit
comprend [intelligit] toutes les choses comme nécessaires, il a sur
les affections une puissance plus grande, autrement dit, il est moins
passif"(Spinoza, Éthique,
III, 2 - V, 6)
En
bref, si l'on refuse le postulat implicite de Turing réduisant
l'intelligence à une simple faculté de répondre d'une certaine
manière à des questions posées par un examinateur, en gros, nous
avons trois types d'extensions possibles de la notion : en restant
dans le cadre strictement langagier, celle d'Aristote consistant à
circonscrire l'intelligence à la possibilité de délibérer
rationnellement, celle de Bergson pour qui l'intelligence est le
prolongement proprement humain de l'instinct adaptatif du vivant en
général, celle enfin, de Spinoza qui fait de l'intelligence d'un
être le synonyme de sa compréhension du réel donc de son
adéquation au réel. Dans les deux premiers cas, la notion
d'"intelligence artificielle" est une contradiction puisque
seuls les humains peuvent être réputés intelligents. Dans la
troisième acception, de loin la plus tolérante, c'est une
tautologie lorsqu'on veut parler d'un objet en adéquation avec son
milieu (que serait un objet "inadapté" à son milieu ?),
soit une contradiction si on prétend déceler dans cette adéquation
des degrés comme c'est le cas pour l'être humain. Bref, on ne voit
pas bien comment on pourrait éviter l'une de ces deux branches de
l'alternative : ou bien on abandonne l'aspect soi-disant
problématique de l'attribution de l'intelligence à la machine (dans
le sens où la question serait, soit contradictoire, soit
tautologique), ou bien, on s'y cramponne au prix d'une réduction de
la notion d'"intelligence" à la portion congrue que nous
avons dénoncée, à savoir un certain type de réaction langagière
à un stimulus langagier
calquée sur le modèle scolaire : le maître interroge, l'élève
répond.
Pourtant,
d'un point de vue historique, cette réduction aussi absurde
qu'arbitraire est d'autant plus prégnante qu'elle est,
traditionnellement, masquée par un tour de passe-passe rhétorique
consistant à noyer la notion d'"intelligence" dans celle
de "calcul" à l'occasion de l'émergence de ce que le
monde intellectuel de langue anglaise a baptisé "the
mind-body problem".
On citera évidemment l'article de Gilbert Ryle de 1949 qui dénonce
le dualisme philosophique substantialiste (notamment, celui de
Descartes), plus précisément, "la
représentation de la personne humaine comme un fantôme ou un esprit
mystérieusement niché dans une machine"(Ryle, the
Concept of Mind).
Ce qui fournit immédiatement un vernis de respectabilité
ontologique aux travaux d'Alan Turing commencés vingt ans plus tôt
et portant sur la cybernétique, c'est-à-dire sur les systèmes
physiques qui sont capables de "faire" des inférences
logiques valides au point de transformer les pensées en simples
calculs, sous-entendant par là qu'il y a bien un "agent"
sous-jacent et que cet "agent" n'est justement pas un
"fantôme" ou un "esprit" mais une entité sans
mystère. Ce qui tombe bien car, depuis Platon jusqu'à Russell en
passant par Descartes et Leibniz, LA logique et le calcul sont
considérés par la plupart des philosophes rationalistes comme le
paradigme de l'excellence en matière de pensée. Du coup,
l'intuition de Turing, qui est un logicien et un mathématicien, est
la suivante : voyons si nous ne pourrions pas construire des systèmes
mécaniques qui sont capables d'utiliser la logique propositionnelle
et la logique des prédicats du premier ordre. Si c'est le cas,
l'esprit ou, pour dire le moins, une de ses propriétés
essentielles, à savoir l'intelligence, ne sera plus "the
ghost in the machine"
mais fera intégralement partie d'une procédure mécanique. D'où la
thèse de Turing qui affirme que "pour
toute procédure, manipulation ou fonction d'entier que l'esprit
humain peut exécuter ou calculer concrètement, effectivement, à la
manière dont les mathématiciens depuis l'aube des temps appliquent
des algorithmes […], il existe une machine (de Turing) capable
d'exécuter cette procédure ou de calculer cette
fonction"(Andler, Calcul
et Représentations : les Sources, in Introduction
aux Sciences Cognitives,
intro.). Or, de fait, nous savons construire des machines
fonctionnant sur le principe dit du modus
ponens,
c'est-à-dire qui, de l'instruction "si
p alors q"
et de l'information "p",
déduisent "q",
de l'instruction "pour
tout x appartenant à D, il existe un y tel que y=f(x)"
et de l'information "x=a,
a appartenant à D",
infèrent "y=f(a)".
Bref, il est tout à fait possible de construire des machines à
calculer (en anglais, computers),
"calculer" étant ici synonyme de "utiliser la logique
propositionnelle et la logique des prédicats du premier ordre".
C'est là la première étape (manifestement couronnée de succès)
pour "défantômatiser" l'esprit, c'est-à-dire, au sens de
Ryle, pour montrer que celui-ci désigne un ensemble de fonctions
sans mystère et donc, en ce sens, communes à l'homme et à sa
créature mécanique. De là, comme chacun sait, et au-delà du
succès industriel et commercial de l'entreprise, la naissance d'un
courant de recherches universitaires particulièrement dynamique
connu, depuis soixante-dix ans, sous les noms de neuro-sciences ou
encore de sciences cognitives, lequel, de fait, s'est évertué, non
pas tant à atténuer d'éventuelles différences de nature entre
l'homme, le vivant et le mécanique pour les requalifier en
différences de degré à l'instar d'un Spinoza, mais plutôt à tout
confondre (là encore, au sens étymologique de "fondre
ensemble", "con-fondre") en réduisant à néant les
différences de degré et, notamment, en assimilant l'intelligence du
vivant, et celle de l'homme en particulier, à un certain type de
fonctions mécaniques. Mieux que cela : si l'ordinateur produit avec
des règles et des symboles des propositions valides, c'est que,
jusqu'à un certain point au moins, le langage humain doit
fonctionner comme une sorte de calcul. D'où, évidemment, le
problème de savoir si ce que nous appelons l'"intelligence",
la "compréhension", la "signification" etc. ne
seraient pas de faux problèmes relatifs à notre mécompréhension
de la nature véritable, c'est-à-dire mécanique, de la pensée.
Nombre d'éminents philosophes du langage ont, au XX° siècle, cédé
à la tentation de cet embrigadement idéologique qui a conduit,
entre autres, à forger le mythe de l'homo
œconomicus idéalement
rationnel. Parmi eux, Wittgenstein qui a commencé par défendre une
position similaire en disant que "l’acte
de penser comme son application [le langage] se déroulent pas à pas
comme un calcul [...]. C’est à l’extérieur que le calcul de la
pensée se rattache à la réalité"(Wittgenstein, Grammaire
Philosophique,
I, §110-111). Ce qui est intéressant, ce sont les raisons pour
lesquelles il se rétractera ensuite en affirmant tout au contraire
"qu’en
général nous n’utilisons pas le langage en suivant des règles
strictes – il ne nous a pas été enseigné au moyen de règles
strictes. Nous, pourtant, dans nos discussions, comparons constamment
le langage avec un calcul qui procède selon des règles
exactes"(Wittgenstein, le
Cahier Bleu,
49). Nous y reviendrons.
Ce
qui nous importe, pour le moment, c'est que les sciences cognitives
ont fini par attribuer l'"intelligence" à la machine en
tant que celle-ci simule un certain type de comportement humain que
l'on a coutume d'associer à la notion d'intelligence, en
l'occurrence, le comportement calculatoire. Demandons-nous donc à
présent si nous tenons là, à tout le moins, un critère
opérationnel pour faire le départ entre ce qui est "intelligent"
et ce qui ne l'est pas. La question nous semble d'autant plus
pertinente que la forme d'"intelligence" dont il s'agit est
dérivée d'un modèle scolaire dans le cadre duquel un interrogateur
pose des questions à un impétrant non pas pour avoir une
information, mais pour savoir si l'impétrant est digne d'être admis
à un examen, un grade, une charge, une dignité, un emploi, etc. On
pourrait donc raffiner le protocole turingien en imaginant un
examinateur qui a sous les yeux une série de réponses anonymes
écrites rédigées en caractères d'imprimerie par des candidats
parmi lesquels se trouverait un ordinateur couplé à une imprimante,
ou encore un GMI qui dispute des parties d'échecs simultanées
contre des adversaires humains dont l'un ne ferait que déplacer des
pièces conformément au calcul d'un ordinateur caché. Dans tous les
cas, le problème est : le juge (examinateur, GMI) est-il capable de
soupçonner la présence de la machine ? Si ce n'est pas le cas,
moyennant les réserves déjà faites sur la nature, la forme et le
nombre des questions posée, on sait que Turing préconise de
conclure que la machine impliquée dans le protocole est
intelligente. Auquel cas, le test dit de Turing aurait effectivement
valeur de critère d'attribution de l'intelligence à une machine.
Or, les deux analogies que nous avons proposées (celle de
l'examinateur et celle du joueur d'échecs) vont nous aider à
comprendre pourquoi le le "test de Turing" ne constitue pas
un critère. Dans le premier cas, l'examinateur est certainement
supposé savoir par avance quelles sont les bonnes réponses si les
questions sont fermées, mais il sera embarrassé si on lui demande
de préciser a
priori l'éventail
d'acceptabilité des réponses en cas de questions ouvertes. Dans le
second cas, le GMI est réputé suffisamment expérimenté pour
reconnaître une série de coups qui trahissent une culture
échiquéenne acceptable mais il n'est vraisemblablement pas capable
d'expliquer ce qu'est un bon coup ou un coup acceptable autrement que
de manière tautologique en le rapportant à l'issue favorable ou non
de la partie. On dira que, dans le cas d'un examen ou d'un concours
par question fermées (QCM), on possède des critères de correction
dont aucun ne sera suffisant mais qui seront tous nécessaires pour
définir la valeur du candidat. Mais autrement, le juge en général
ne pourra fonder son jugement que sur des symptômes tirés de sa
familiarité avec sa matière d'expertise. Or nous nous souvenons que
c'est de cette manière que procède le test de Turing. Nous devons
donc établir à présent une distinction entre ce qui relève du
critère et ce qui ressortit au symptôme.
"A
la question « comment sais-tu que ceci ou cela a lieu ? », nous
répondons parfois en indiquant des critères et parfois de
symptômes. Quand, en médecine, l'inflammation causée par tel
bacille est qualifiée d'angine et que, dans ce cas précis, nous
demandons : « Pourquoi sais-tu que cet homme a une angine ? », la
réponse : « J'ai trouvé dans son sang le bacille X ou Y » nous
indique le critère ou ce que nous pouvons appeler le critère de
définition de l'angine. Si, en revanche, la réponse était : « Il
a une inflammation de la gorge », il nous indiquerait là un
symptôme de l'angine. Par symptôme, je désigne un phénomène dont
l'expérience que nous en faisons est concomitante du phénomène qui
est notre critère de définition. Dire alors « Quelqu’un a une
angine si on trouve qu’il est porteur du bacille » est une
tautologie, ou une manière vague d’énoncer la définition de «
angine ». Mais dire « Un homme a une angine à chaque fois qu’il
a la gorge enflammée », c’est faire une
hypothèse"(Wittgenstein, le
Cahier Bleu,
48). En d'autres termes, nous ne sommes en présence d'un critère
autorisant à conclure en faisant le départ entre ce qui est correct
et ce qui ne l'est pas qu'à condition de posséder, a
priori,
un corpus théorique qui recense les conditions nécessaires à la
validité de la conclusion, bref, à condition de posséder ce qu'on
appelle une définition, laquelle sera alors de la forme "si et
seulement si C1 et C2 et C3 et
... Cn alors V (ou non-V)"
(avec C pour "critère" et V pour "valeur").
C'est le cas dans l'exemple proposé par Wittgenstein (le biologiste
se demandant si le tableau infectieux constaté correspond à telle
ou telle affection répertoriée a
priori),
c'est encore le cas pour l'examinateur qui fait passer un QCM et qui
a sa "grille" de correction, mais ce n'est le cas ni pour
le joueur d'échecs, ni pour le juge judiciaire, ni pour le critique
d'art, ni pour le clinicien, etc. Aussi expérimentés soient-ils, et
bien qu'il existe, dans tous les cas, nombre de traités théoriques
d'"acceptabilité", ils ne disposeront l'un et l'autre que
de schèmes mentaux de correction purement empiriques, purement inductifs et non d'une véritable théorie
de la correction. Ils en seront donc réduits à conjecturer la
valeur de ce qu'ils jugent.
Ce
qui n'est, en soi, nullement un problème, nullement une objection
sceptique de type humien. Car les jugements effectués sur la base d'un constat de
symptômes sont, de
facto,
infiniment plus fréquents et au moins aussi pertinents que ceux qui
découlent de l'application de critères en bonne et due forme. Le
problème que suscite la distinction wittgensteinienne entre critère
et symptôme réside non dans l'enjeu pragmatique mais plutôt dans
l'enjeu épistémologique d'une telle distinction. C'est que le
critère renvoie, via la
possibilité de définir a
priori ce
qui a de la valeur et ce qui n'en a pas, à une forme de certitude
scientifique, voire mathématique, donc de jugement solide. Tandis
que la présence d'un simple symptôme empirique comme base de
jugement est réputée, dans la culture occidentale moderne et
post-moderne, appartenir au domaine du flou artistique, voire de
l'arbitraire de l'opinion. Ce que la tradition philosophique est loin de cautionner. Relisons, par exemple, ce passage
du Charmide dans
lequel Socrate interroge Critias : "-
pour ma part, j'affirme [dit Critias] à peu près que ce en quoi
consiste la modération, c'est cela même : se connaître soi-même,
et je suis d'accord avec celui qui a apposé à Delphes une telle
inscription. [...] La raison de tout mon discours, Socrate, la
voici : je retire tout ce que je t'ai accordé auparavant ;
peut-être, en effet, est-ce toi qui avais en un sens davantage
raison, à ce sujet, peut-être était-ce moi, en un autre sens, tout
n'était pas clair dans nos propos. Mais à présent, je consens à
te rendre raison de cette définition-ci, si tu ne m'accordes pas que
la modération, c'est se connaître soi-même. - Mais Critias,
dis-je, d'abord tu te comportes à mon égard avec l'idée que
j'affirme savoir ce sur quoi je pose des questions, et que je
t'accorde ce que tu dis à condition de le décider. Or ce n'est pas
ainsi que cela se passe ! Au contraire, je mène constamment la
recherche avec toi sur ce qui est proposé, parce que, moi-même, je
ne sais pas. C'est donc après avoir examiné que je consens à dire
si je suis d'accord ou non"(Platon, Charmide,
164d-165c). Or l'expérimentateur turingien prétend, de
jure,
détenir un critère de ce que doit être l'"intelligence
artificielle", tandis qu'il est, de
facto,
dans la situation de Critias ébauchant une définition qui n'est pas
absurde en soi mais qui n'est encore qu'hypothétique, conjecturale,
hésitante, en tout cas nullement définitive : c'est une étape,
comme le souligne Socrate, dans la recherche commune de la meilleure
définition possible que, pour l'heure, personne ne connaît. En ce
sens, donc, le "test de Turing" ne nous fournit aucun
critère opératoire (scientifique ou technique) d'attribution de
l'"intelligence" à la machine faute d'une théorie
sous-jacente délivrant, a
priori,
une définition à peu près stabilisée et partagée de ce qu'est
l'"intelligence". La seule réponse possible au problème
que nous avons soulevé est, en l'occurrence, celle de Socrate : "ce
n'est pas ainsi que cela se passe ! Au contraire, je mène
constamment la recherche avec toi sur ce qui est proposé, parce que,
moi-même, je ne sais pas".
Le fait de répondre d'une certaine manière à une batterie de
questions est, manifestement, un simple symptôme d'acculturation à
l'occidentale que Turing tire de sa propre culture et de sa propre
expérience, de son propre habitus,
dirait Bourdieu, et ne peut valoir, dans le meilleur des cas, que
comme hypothèse de travail, nullement comme test à valeur
conclusive.
Dans
une entrevue accordée au magazine Sciences
Humaines,
John Searle a déclaré son scepticisme à l'égard de la valeur
conclusive du "symbolisme
binaire d’une machine de Turing. C’est ce que montre [son]
argument de la chambre chinoise. [...] Supposons que je sois dans une
pièce fermée avec la possibilité de recevoir et de donner des
symboles, par l’intermédiaire d’un clavier et d’un écran, par
exemple. Je dispose de caractères chinois et d’instructions
permettant de produire certaines suites de caractères en fonction
des caractères que vous introduisez dans la pièce. Vous me
fournissez l’histoire puis la question, toutes deux écrites en
chinois. Disposant d’instructions appropriées, je ne peux que vous
donner la bonne réponse, mais sans avoir compris quoique ce soit,
puisque je ne connais pas le chinois. Tout ce que j’aurais fait
c’est manipuler des symboles qui n’ont pour moi aucune
signification. Un ordinateur se trouve exactement dans la même
situation que moi dans la chambre chinoise : il ne dispose que de
symboles et de règles régissant leur manipulation".
Searle propose donc une expérience de pensée dans laquelle il
remplace la machine par un opérateur humain qui reçoit des messages
codés (en l'occurrence, une suite de sinogrammes) en input,
qui analyse lesdits messages au moyen et uniquement au moyen d'un
manuel d'instructions qu'il consulte afin de traiter le plus
adéquatement possible l'information écrite reçue, enfin qui
fournit en output un
autre message codé (toujours sous forme de sinogrammes) qui n'est
autre que l'information reçue et traitée conformément au manuel
d'instruction. Pour Searle, on peut parfaitement concevoir un
opérateur humain qui "fonctionne", temporairement, comme
une "machine de Turing" (autrement dit une "machine
intelligente", bref, un ordinateur), à savoir qu'il traite de
l'information qu'il ne comprend pas et qu'il répond par de
l'information qu'il ne comprend toujours pas. La conclusion qu'en
tire Searle, c'est que, même si la réponse est correcte aux yeux de
l'observateur, dans une telle situation, l'opérateur, qu'il soit
humain ou mécanique ne peut être dit "intelligent". Bref,
il critique implicitement l'orientation "fonctionnaliste",
c'est-à-dire, en fait "computationnaliste" que le test de
Turing a imprimée à la philosophie de l'esprit. Si nous reprenons
notre analogie scolaire développée supra,
nous dirons que, pour Searle, l'épreuve imposée par l'examinateur
ne permet pas de faire la différence entre une machine programmée
pour réussir l'examen, un candidat valeureux et honnête et un
candidat qui, sans être nécessairement un tricheur, possède une
mémoire suffisamment efficace pour apprendre "par cœur"
toutes les questions et toutes les réponses possibles au programme
de l'examen (après tout, rien n'interdit à l'impétrant de
mémoriser le "manuel d'instructions" dont Searle fait
état).
Le
nœud du problème vient donc de ce que le test de Turing ne permet
pas de conclure à l'"intelligence" d'une machine qui se
comporterait comme un homme au motif que, tout en lui imposant une
épreuve langagière, c'est-à-dire, comme nous l'avons vu, une
épreuve censée mettre en lumière ce qu'il y a de plus "humain"
en l'homme, le test ne sollicite, en fait, que la seule composante
syntaxique du langage. Plus précisément, "l’argument
de la chambre chinoise montre que la sémantique du contenu mental
n’est pas intrinsèque à la syntaxe du programme
informatique"(Searle,
entrevue donnée au magazine Sciences
Humaines).
Sans trop rentrer dans des détails techniques, rappelons brièvement
que "les
modèles classiques du langage présentent les langues telles que le
français ou l’allemand comme composées de trois éléments : le
composant phonologique qui détermine comment les mots et les phrases
sont prononcés, le composant syntaxique qui détermine la
combinaison des mots et des morphèmes en phrases, et le composant
sémantique qui assigne un sens ou une interprétation aux mots et
aux phrases. Des modèles plus sophistiqués ajoutent qu’il doit y
avoir aussi un composant pragmatique"(Searle, what
is Language ? Some Preliminary Remarks,
ii). Une telle quadripartition est devenue classique dans toutes les
formes (philosophiques ou scientifiques) de réflexion moderne sur le
langage en général : la phonologie (en fait, la morphologie qui
inclut l'orthographe du langage écrit) fait l'inventaire des
phonèmes ou des graphèmes constitutifs des symboles admissibles
dans une langue donnée, la syntaxe régit les rapports des symboles
entre eux, la sémantique les rapports des symboles à ce dont ils
sont les symboles et la pragmatique les rapports des symboles au
comportement de leurs utilisateurs. De plus, cette quadripartition
est cumulative, c'est-à-dire que la syntaxe présuppose la
morphologie, la sémantique se construit sur la syntaxe et la
morphologie, la pragmatique enfin sur la sémantique, la syntaxe et
la morphologie. Or la programmation de l'ordinateur, tout comme les
manœuvres dilatoires du simulateur searlien enfermé dans the
chinese room ne
vont pas plus loin que la manipulation de la morphologie et de la
syntaxe d'un langage. Searle en conclut que ni l'un ni l'autre
ne font, à proprement parler, usage d'un langage et, en conséquence,
ne sauraient être dits "intelligents". Car, pour qu'il y
ait langage, et, corrélativement, intelligence (Searle ne développe
pas de théorie de l'intelligence mais fait implicitement de l'usage
d'un langage une condition nécessaire à l'exercice de
l'intelligence), il faut impérativement envisager en outre, nous
dit-il, un "contenu mental", c'est-à-dire des
considérations sémantiques et pragmatiques, ce dont une suite
morpho-syntaxique d'instructions opératoires, qu'elles soient
destinées à une machine ou à un être humain, est nécessairement
dépourvue.
Pourquoi
donc une compétence à traiter du langage aux seuls niveaux
morphologique et syntaxique n'est-elle pas une compétence à
proprement parler linguistique et donc, ne mérite-t-elle pas d'être
considérée comme un symptôme d'intelligence ? Pour Searle, et à
l'instar de Spinoza ou de Bergson et même, dans une certaine mesure,
d'Aristote, l'intelligence est l'extension naturelle des systèmes
biologiques de communication. "À
quoi ressemblerait une tentative de traiter le langage comme je le
conçois, de manière naturaliste ? Le premier pas, que beaucoup de
philosophes n’ont pas voulu franchir, serait de considérer le sens
linguistique, le sens des phrases et des actes de langage, comme une
extension des formes d’intentionnalité fondamentalement
biologiques que sont la croyance, le désir, la mémoire et
l’intention, et de considérer ces derniers comme les
développements d’une intentionnalité plus fondamentale encore,
notamment la perception et l’action intentionnelle, ou
l’intention-en-action"(Searle, what
is Language ? Some Preliminary Remarks,
i). Pour lui, tout acte humain de langage (speech
act)
possède nécessairement un sens, ou bien ce n'est pas du langage. Et
la nature de ce qu'on appelle "sens" n'a rien de mystérieux
puisqu'elle s'ancre dans l'une des deux directions d'ajustement de la
communication biologique de base : d'une part, la direction
monde->individu (c'est le cas de la perception, mais aussi de la
croyance et de la mémoire : l'individu biologique acquiert et,
éventuellement, retient de l'information pertinente à propos de son
biotope) ; d'autre part la direction inverse individu->monde (dans
le cas du désir ou de l'intention, pare exemple, l'individu
biologique modifie tant soit peu son biotope en fonction de ses
intérêts bien compris). Parler de direction d'ajustement d'un
système biologique de communication est important parce que cela
suppose que l'individu qui communique a l'intention de communiquer un
message destiné à coordonner les actions des organismes partenaires
(congénères, mais aussi commensaux et parasites) et des organismes
adversaires (ennemis, prédateurs) dans une direction précise
(garder ou perpétuer ce qui est profitable, éviter ou fuir ce qui
est nuisible). C'est ce que Searle appelle l'intention-en-action,
autrement dit le "sens" (tout à la fois sense et meaning)
que l'émetteur du message entend donner à son action et à celle de
ses congénères et dont son message (on songe, par exemple, à la
fameuse "danse" des abeilles) est l'expression.
L'important, pour notre discussion, est que, puisque même dans le
système de communication biologique le plus rudimentaire, il y a
nécessairement de ce que nous appellerons désormais du
"sens-intentionalité-en-action", a
fortiori,
il ne saurait exister de langage humain qui en fasse l'économie, et,
par conséquent, des composantes sémantique et pragmatique de ce
sens-intentionalité-en-action.
Ces
deux composantes sont indissociables car la sémantique inhérente à
tout système biologique de communication ne se résume pas aux
seules conditions de possibilité du message, à savoir que
l'individu qui communique communique son intention d'agir dans une
direction déterminée. Au-delà, c'est toute l'expérience des
conditions de satisfaction de son action qui est communiquée à ses
cibles potentielles par l'émetteur du message : "du
fait que les perceptions, les intentions, les croyances, les désirs,
etc., sont des formes d’intentionnalité, ils véhiculent avec eux
la détermination des conditions de leur succès ou de leur échec.
Un animal affamé, par exemple, a une envie de manger, et toute
pathologie mise à part, il a pour cela l’aptitude de reconnaître
quand son désir est satisfait ou non. On peut généraliser comme
suit : tout état intentionnel détermine ses conditions de
satisfaction, et un animal normal, qui a des états intentionnels,
doit être capable de distinguer, de reconnaître quand les
conditions de satisfaction sont effectivement remplies […]. Avoir
des croyances et des désirs, par exemple, c’est avoir déjà
quelque chose qui détermine des conditions de satisfaction, et qui
implique la capacité de reconnaître le succès de
l’échec"(Searle, what
is Language ? Some Preliminary Remarks,
iv). C'est une autre manière de dire qu'un individu "intelligent"
ne communique pas seulement ses croyances et ses désirs pour être
compris mais, comme le disent aussi Grice, Sperber ou Wilson, pour
être optimalement compris, c'est-à-dire pour maximiser les chances
de survie de soi-même, du groupe dont il fait partie et, au-delà,
de son espèce tout entière. Dit d'une autre manière, la sémantique
(ensemble des conditions de satisfaction du message) présuppose la
pragmatique comme ensemble des conditions de satisfaction de
l'intention du message. Bref, un langage est un système de
communication fondamentalement biologique qui ne saurait faire
l'économie, outre de la morphologie et de la syntaxe, de la
sémantique et de la pragmatique. Ce qui implique d'abord qu'un
ordinateur, qui n'est pas un être biologique, ne saurait être
évalué sur la base d'une compétence pseudo-langagière réduite à
la seule maîtrise d'une morphologie et d'une syntaxe. Mais il y a
plus : à supposer même qu'il parvienne à mimer sémantiquement
l'adaptation biologique d'un être vivant en "apprenant"
par lui-même (on pense au deep-learning)
ou en mimant l'intentionalité (par exemple dans le cas d'un
programme qui "joue" aux échecs) en faisant comme s'il
prenait en compte ses propres "intérêts" (mettre le roi
adverse échec et mat), encore faudrait-il qu'il fasse tout cela dans
l'intention fondamentale de maximiser ses chances de survie. Ce qui,
d'une part, ne se rencontre que dans les scénarios
de science-fiction, et, d'autre part, constitue une contradiction dans les termes puisque la machine, par définition, n'est pas "vivante".
Nous
pouvons donc dire à présent que Searle ne se borne pas à réfuter
l'efficacité du test de Turing lorsqu'il s'agit d'évaluer
l'intelligence d'une machine. En fait, c'est sa pertinence même
qu'il réfute en tant que ce test repose sur une épreuve en fait
faussement langagière. Dès lors, en effet, que tout système de
communication, a
fortiori tout
langage, repose indissolublement sur une morphologie, une syntaxe,
une sémantique et une pragmatique, il est clair que, pour lui, dans
la mesure où le langage est un système de communication utilisé
par des agents vivants pourvus d'intentionalité-en-action dérivant
elle-même de l'intention fondamentale de survivre, un langage ne
peut être que naturel et non-artificiel. Bref, l'ordinateur ne
"communique" pas et, a
fortiori,
ne parle pas. Vouloir le questionner est, dès lors, complètement
absurde. Est-ce à dire que Searle va jusqu'à refuser la notion
d'"intelligence artificielle" ou bien est-ce que, selon
lui, l'ordinateur pourrait, après tout, être analogiquement
qualifié d'"intelligent" sur la base de compétences
autres que proprement langagières ? Jusque là, Searle, dont
l'"argument
de base est que c’est une erreur de croire qu’on peut créer un
esprit avec le symbolisme binaire d’une machine de Turing"(Searle,
entrevue accordée au magazine Sciences
Humaines)
a rejeté la thèse dite "forte" (assumée par le
cognitivisme post-turingien) de l'"intelligence artificielle",
celle qui confond intelligence, esprit et calcul, mais non celle,
plus "faible", de Turing qui confond l'intelligence,
l'esprit et le calcul tout en prenant bien garde à dissocier
l'intelligence de "l'âme
immortelle de l'homme"
(ce sont les termes mêmes de Turing). Est-ce donc que Searle
pourrait se réconcilier avec Turing en admettant, après tout,
qu'une machine calculante puisse être dite "intelligente",
étant entendu que sa puissance de calcul ne suffira jamais à
combler le gouffre ontologique qui la sépare l'homme ? On se
souvient que, pour Searle, la sémantique d'un langage n'est pas
intrinsèque à sa syntaxe, que la sémantique est un niveau de
perfection qui survient après (ou au-dessus) de la syntaxe. Or, "à
l’époque [en 1980] j’admettais que la machine possédait une
syntaxe. En fait, si l’on pose la question de savoir si cette série
de zéros et de uns est un processus intrinsèque à la machine, on
est obligé d’en convenir que ce n’est pas le cas. J’ai proposé
depuis (dans la
Redécouverte de l’Esprit)
un nouvel argument. La distinction la plus profonde qu’on puisse
effectuer n’est pas entre l’esprit et la matière, mais entre
deux aspects du monde : ceux qui existent indépendamment d’un
observateur, et que j’appelle intrinsèques, et ceux qui sont
relatifs à l’interprétation d’un observateur. La computation
informatique n’est pas un processus qui a lieu dans la nature. Elle
n’existe que relativement à une interprétation syntaxique qui
assigne une certaine distribution de zéros et de uns à un certain
état physique. Ce nouvel argument, plus radical, montre que la
syntaxe n’est pas intrinsèque à la nature physique. Une chose
donnée n’est un programme (i.e. une structure syntaxique) que
relativement à une interprétation. Ceci a pour effet de démolir
l’assomption de base de la théorie computationnelle de l’esprit.
La question “Le cerveau est-il intrinsèquement un ordinateur ?”
est absurde car rien n’est intrinsèquement un ordinateur si ce
n’est un être conscient qui fait des computations. N’est
ordinateur que quelque chose auquel a été assignée une
interprétation. Il est possible d’assigner une interprétation
computationnelle au fonctionnement du cerveau comme à n’importe
quoi d’autre. Supposons que cette porte égale 0 quand elle est
ouverte, et 1 quand elle est fermée. On a là un ordinateur
rudimentaire. Cet argument est plus puissant que le premier mais plus
difficile à comprendre"(Searle,
entretien accordé à la revue Sciences
Humaines).
Aucun commentaire:
Enregistrer un commentaire
Votre commentaire est-il vraiment nécessaire ?