La gnose de Mountain view : « l’intelligence artificielle » est-elle intelligente ?

Par Hubert LANDIER

On nous le promet : en 2050, votre domicile sera une « maison intelligente », qui programmera automatiquement à votre convenance tous les agréments dont vous aurez envie, votre voiture sera « autonome », autrement dit, elle se conduira toute seule, les informations dont vous avez besoin seront traitées et vous seront communiquées en fonction de vos préférences, les usines fonctionneront d’une façon totalement automatique, vous ferez appel à un médecin virtuel et des robots vous aideront à choisir votre cravate. Allons plus loin : l’homme augmenté, bardé de prothèses numériques, deviendra pratiquement immortel. Ce sera le triomphe de « l’intelligence artificielle ».

Sauf que. Ces descriptions correspondent au genre de vie des ingénieurs de la Silicon valley. Or, le problème, c’est que l’humanité ne se compose pas seulement d’ingénieurs de la Silicon valley. Il y a aussi (par exemple) les migrants démunis venus du Sahel ou des pays en guerre. Par ailleurs, toutes ces merveilles seront consommatrices d’énergie ainsi que de métaux rares, et génératrices de déchets polluants difficiles à recycler. Il s’agit donc d’une description qui ne tient pas compte des contraintes environnementales ; or, celles-ci, d’après la plupart des experts, pourraient très vite, sur la lancée de ces progrès technologiques, conduire à la disparition d’une grande partie de l’humanité et en tout cas à la fin de notre civilisation technico-chrématistique.

Par ailleurs, que désigne-t-on par « intelligence artificielle » ? Il faut souligner que celle-ci, en l’état actuel de nos connaissances, n’a rien à voir avec le fonctionnement du cerveau humain, quoi qu’en disent ses thuriféraires. Par ailleurs, par « mémoire » électronique, on désigne des dispositifs de stockage de l’information qui n’ont rien à voir non plus avec la mémoire humaine et la capacité à se souvenir. Le terme est donc parfaitement abusif, les ingénieurs en « intelligence artificielle » se fondant les neuro-sciences, mais sur un état de l’art aujourd’hui tenu pour obsolète par ceux qui en sont les experts reconnus.

On ne niera pas les progrès effectués, par exemple, dans le domaine de la reconnaissance vocale ou du traitement des « big data ». S’appuyer sur ces avancées pour prédire de nouveaux progrès fondés sur les mêmes principes relève toutefois un peu de la prophétie auto-réalisatrice et beaucoup de l’utopie et de la science fiction. Après la « Gnose de Princeton », il y aurait donc la Gnose de Mountain view, mais exposée avec infiniment moins d’humour que Raymond Ruyer et infiniment plus d’intérêts cachés.

Intelligence humaine et « intelligence artificielle »

Selon Gérard E. Edelman, « le cerveau n’est pas un ordinateur ». Gérard Edelman a reçu le prix Nobel de médecine et préside la Neurosciences Research Foundation. Et, dans son livre « Plus vaste que le ciel » , il ajoute : « alors que la logique peut prouver des théorèmes quand ils se concrétisent dans des ordinateurs, elle ne peut à elle seule choisir les axiomes. (…). Les formes particulières de la conscience que nous possédons en tant qu’êtres humains ne seront pas reproductibles ». Comme le prouve le Théorème de Goëdel, aucune logique ne peut se passer d’axiomes ; et le choix des axiomes relève d’une décision qui est le propre de l’intelligence humaine.

Et Edelman de préciser : « Il n’existe pas d’états fonctionnels équivalents à des états computationnels définis ou encodés dans les cerveaux individuels et pas de processus équivalents à l’exécution d’algorithmes. Au contraire, il existe un ensemble extrêmement riche de répertoires de groupes neuronaux dont les réponses, par sélection, peuvent se régler sur la richesse infinie des entrées environnementales, de l’histoire individuelle et de la variation individuelle. Selon cette conception, l’intentionnalité et la volonté dépendent toutes deux des contextes locaux de l’environnement, du corps et du cerveau ; elles ne peuvent apparaître que grâce à ces interactions et non à titre de computations précisément définies ».

Autrement dit, l’intelligence (humaine) ne se réduit pas à des computations ; elle correspond à un processus qui fait entrer en jeu le passé de l’individu, son histoire, ce qu’on appelle son expérience, en relation avec les impressions nouvelles auxquelles il se trouve confronté et qui constituent  tout un ensemble de données qui lui permettent de faire face à des circonstances imprévisibles ; il peut, dans sa réflexion, se fonder sur des postulats, mais il peut aussi en changer. Son intelligence se fonde par ailleurs, au-delà de son histoire individuelle, sur l’histoire des être vivants et de leur évolution, dont son corps et son cerveau portent physiologiquement et fonctionnellement la trace. L’être humain se situe dans le temps et c’est cette temporalité qui lui permets, par réentrées successives, de se définir en tant que personne pensante.

L’intelligence se fonde ainsi sur la mémoire. Mais la mémoire ne consiste pas en un stock d’informations sur le passé qu’il suffirait d’aller consulter et qui se situeraient quelque part dans notre cerveau, dans des « ères corticales » précisément définies, comme l’ont longtemps cru les neurologues et comme semblent le croire encore les théoriciens de « l’intelligence artificielle ».La mémoire est l’activation de l’expérience, donc du passé vécu, en fonction des sollicitations du présent. Elle s’inscrit dans une dynamique et le souvenir de l’événement passé se transforme au fur et à mesure qu’il s’éloigne dans le temps. Cette dynamique se fonde sur la capacité à concevoir des catégories et à faire évoluer celles-ci selon les besoins sur lesquels débouchent la nécessite de s’adapter en permanence à l’environnement. L’intelligence, autrement dit, invente à tout moment son devenir. Et ceci n’a rien à voir avec l’ordinateur, qui peut enrichir sa banque de données, mais ceci dans le cadre d’algorithmes qui lui ont été imposés une fois pour toutes de l’extérieur.

Israël Rosenfeld, qui enseigne l’histoire des idées à l’Université de New York, explique ainsi que « les spécialistes en intelligence artificielle on pensé qu’il devait être facile de construire des machines ‘’de vision’’, capables d’identifier et de manipuler des objets, en confrontant des forme enregistrées électroniquement à des images stockées dans la mémoire de l’ordinateur. Cependant, cette entreprise s’est révélée beaucoup plus difficile que prévu (…) » . Les catégories sur lesquelles se fonde l’ordinateur peuvent, en effet, s’enrichir au fur et à mesure qu’il intègre de nouvelles data, mais ces catégories ne peuvent pas évoluer en fonction de critères qui n’auraient pas été prévues à l’avance par le programmateur. L’ordinateur, autrement dit, est rigide ; il se montre incapable de s’adapter au changement imprévu de son environnement.

« L’intelligence artificielle » n’a donc rien à voir avec l’intelligence non plus que la « mémoire » d’un ordinateur avec la faculté humaine de se remémorer le passé. Quel que soient les progrès de l’informatique, ils se fondent sur un parallèle qui est faux, à moins de réduire l’homme lui-même à une machine, ce qui renvoie aux archaïsmes mécanicistes du XVIIIème siècle. Les programmes informatiques les plus avancées constituent ainsi, pour l’intelligence humaine, de très utiles prothèses ; ils ne se substituent pas à elle. Un programme informatique peut produire de la « musique relaxante » en quantité illimitée ; elle est incapable d’inventer une fugue de Mozart, la Cathédrale engloutie de Debussy ou la finale de l’adagio de la symphonie n°9 de Malher. Croire en la capacité de « l’intelligence artificielle » de se substituer à l’intelligence humaine relève d’un réductionnisme d’inspiration scientiste dont nos descendants seront les premiers à rire.

En comparant « l’intelligence artificielle » à l’intelligence humaine et en pariant sur le « transhumanisme », les zélateurs de « l’homme augmenté » paraissent ignorer ce qui fait le propre de l’homme en le réduisant à des algorithmes, aussi sophistiqués soient-ils. Leur conception de l’être humain équivaut à un « homme diminué », réduit à ce qu’ils croient en savoir à partir de leurs présupposés.

Du rêve du « geek » aux intérêts commerciaux de Google

Le rêve des « geeks » s’inscrit ainsi dans le cadre d’une culture, celle des Etats Unis en ce début du XXIème siècle. On imagine créer un « surhomme » (pas celui de Nietzche) ou un « homme augmenté » d’innombrables prothèses digitales ; celui-ci pourrait allonger sa durée de vie au point d’être pratiquement immortel ; et il vivrait dans un univers peuplé de robots qui pourraient même en venir à dépasser sa propre intelligence. Ce rêve, c’est celui que décrivent d’innombrables romans de science fiction d’inspiration technicienne. 

Il alimente aussi de puissants intérêts financiers. Google et d’autres lèvent des fonds considérables autour de projets de recherche visant à créer une sorte de surhumanité. Compte tenu des valeurs dominantes dans la Silicon valley, beaucoup sont persuadés de leur réussite inéluctable et qualifient volontiers de rétrograde toute forme de scepticisme. La promotion commerciale d’une telle vision en vient à la rendre quasiment « évidente ». On en prendra un très petit exemple : les big data seraient nécessairement devenues le support nécessaire de la fonction de recrutement dans les grandes entreprises. Une telle solution, ou présentée comme telle par ceux qui en font commerce, nécessite toutefois un appareillage approprié et nécessairement coûteux. Ceci représente-t-il un progrès ? Ce n’est certainement pas dans le discours inspiré par leurs promoteurs, directement ou indirectement, qu’il conviendra de chercher la réponse.

Le contexte culturel dans lequel baignent Google et les geeks est celui de la côte ouest des Etats Unis, mais non celui de l’humanité dans son ensemble. Et il est au moins permis de se demander si « l’homme augmenté » constitue bien la solution au problème que représentent, par exemple, les migrations sud/nord résultant de la désertification ou des guerres locales, de la surpopulation résultant dans de nombreux pays d’une « transition démographique » mal maîtrisée, du chômage et de l’absence de perspectives pour le jeunes, etc. A moins qu’il ne s’agisse là que de problèmes secondaires au regard de la possibilité pour un geek de consulter ses bases de données d’une manière immédiate par le moyen de lunettes digitales. La gnose de Mountain wiew est donc porteuse d’un accroissement des inégalités à travers le monde. Elle ne peut concerner qu’une très petite minorité issue des pays riches (principalement les Etats Unis) et laisse de côté une majorité composée d’une « sous-humanité » au regard de « l’homme augmenté ».

Mais il y a plus grave encore. Elle n’est tout simplement pas compatible avec les contraintes environnementales dans la mesure où elle s’inscrivent dans le cadre d’un modèle de développement qui conduit l’humanité dans une impasse. On ne reprendra pas ici les arguments laissant prévoir une catastrophe équivalente au Déluge et qui pourrait déboucher sur l’extinction de l’humanité ou sa régression à ce qu’elle était à ses débuts : lire à ce sujet un certain nombre d’ouvrages aux titres éloquents : Paul Jorion, Le dernier qui s’en va éteint la lumière, Fayard, 2016, Clive Hamilton, Requiem pour l’espèce humaine, Les Presses de Sciences po, 2013, ou Elizabeth Kolbert, La 6ème extinction, Vuibert, 2015. 

Le délire digital est consommateur d’énergies et de matériaux rares, il est générateur de CO2 et les déchets qu’il rejette sont pratiquement impossibles à recycler. Il se fonde sur la conviction que la technique aura réponse à tout. Sauf que c’est la technique qui nous a conduit au bord de l’effondrement. On ne reviendra pas ici non plus sur les analyses de Jacques Ellul (dont la plupart des geeks ignorent probablement l’existence). En résumé, la gnose de Mountain view se fonde sur des certitudes un peu simplistes, l’absence de la moindre réflexion philosophique, ignore les problèmes les plus urgents de l’humanité et se présente comme le dernier avatar du paradigme techno-financier venu des Etats Unis et qui tend aujourd’hui - mais pour combien de temps encore ? - à dominer la planète. Il s’agit d’un rêve d’ingénieurs plus ou moins incultes et d’entrepreneurs soucieux d’abord de valoriser leurs élucubrations indépendamment de leurs conséquences pour le reste du monde.

Pour résumer, et sans nier les facilités dont nous font bénéficier les techniques digitales, il faut raison garder. C’est vrai notamment pour les entreprises. Vouloir ignorer les aspects positifs de la « révolution digitale » serait irréaliste. Mais prétendre en ignorer les aspects négatifs ou simplement hasardeux ne serait pas la meilleure façon d’y porter remède.

 

Hubert Landier

Découvrez le blog d'Hubert LANDIER


Master MRH

Master Management des Ressources Humaines de Lille

Groupe Linkedin

Référence RH

Réseau des troisièmes cycles RH Francais

Offres d'emploi

Trajectoires RH

Déposez et/ou consultez les offres d'emploi et de stage

e-RH Un portail pour les professionnels RH

ANDRH

Association Nationale des Directeurs et Cadres de la fonction RH