David W. Bates, spécialiste de cybernétique : « Le cerveau n’est pas un ordinateur »

Face à l’intelligence artificielle, l’universitaire américain cherche à éviter les écueils de la technophobie comme du transhumanisme. Il faut, selon lui, dépasser une opposition schématique entre « intelligence humaine ou “naturelle” et intelligence “artificielle” ».

Le Monde  – Le développement de l’intelligence artificielle conduira-t-il au déclassement de l’intelligence humaine, ou lui permettra-t-il d’atteindre de nouveaux sommets ? Pour David W. Bates, professeur de rhétorique à l’université de Californie à Berkeley (Etats-Unis), la question est mal posée. Ce spécialiste de cybernétique, qui a notamment publié An Artificial History of Natural Intelligence. Thinking with Machines from Descartes to the Digital Age (University of Chicago Press, 2024, non traduit), revient pour Le Monde sur la nature de la relation qui unit réellement l’esprit humain à la technologie.

La question des conséquences de l’intelligence artificielle sur l’avenir de l’intelligence humaine est au cœur des débats contemporains. La comparaison entre les deux, entretenue par l’expression même d’« intelligence artificielle », est-elle justifiée selon vous ?

Cette comparaison est ancienne : l’expression « intelligence artificielle » [IA] est née dans les années 1950 [pour désigner des systèmes informatiques capables d’effectuer des tâches que nous associons d’ordinaire aux humains, comme l’apprentissage, le raisonnement et, surtout, la prédiction]. Depuis lors, l’« intelligence artificielle » est envisagée comme une simulation de l’intelligence humaine. Mais cela fait tout aussi longtemps que l’intelligence humaine est elle-même pensée en référence à ce que nous appelons aujourd’hui l’« intelligence artificielle » : son fonctionnement est souvent rapproché de celui des machines. En d’autres termes, par une métaphore réciproque, nous envisageons le cerveau comme un ordinateur, et l’ordinateur comme un cerveau.

Est-ce un problème ?

Cette façon de conceptualiser l’intelligence aboutit à une sorte de crise philosophique. D’abord parce que les humains qui utilisent les plateformes et les infrastructures numériques « intelligentes » voient leur pensée de plus en plus soumise à une forme néfaste d’automatisation. Mais aussi parce que nous penser nous-mêmes comme des ordinateurs gouvernés par des processus automatiques, à l’heure où les capacités de l’IA excèdent désormais les nôtres, est très dangereux : les humains sont dès lors amenés à se considérer comme inférieurs aux machines. Cela contribue à alimenter l’idée qu’une intelligence artificielle générale finira par advenir et prendra toutes nos décisions à notre place.

Or, si ce que nous appelons les « intelligences artificielles », dont l’IA générative est une variante, sont désormais en mesure de faire des choses qu’aucun esprit humain ne sera jamais capable de faire – comme analyser simultanément des millions et des millions de paramètres de données –, elles restent des machines à prédire, à faire des pronostics. Et cela est très différent de ce que les humains peuvent élaborer avec leur propre intelligence lorsqu’ils utilisent les technologies : inventer des futurs qui ne sont pas prévisibles mais qui sont les produits de notre propre imagination, de nos désirs, de notre intelligence collective.

Je me suis donc penché sur l’histoire de cette comparaison. Non pas dans l’espoir de revenir à une définition de l’intelligence humaine qui la distinguerait parfaitement de l’intelligence des machines. Mais pour mieux définir la relation qui l’unit à ses « prothèses technologiques », dont l’IA est la dernière occurrence.

Qu’avez-vous découvert ?

En remontant aux origines de cette double métaphore, qui se met en place à l’époque de la révolution scientifique, et notamment avec les travaux de René Descartes [1596-1650], je me suis aperçu que les penseurs ayant forgé la « vision technique de l’humain » avaient aussi réfléchi à ce qui, en l’humain, échappe à cette représentation machinique. Il s’agit de la capacité de l’esprit humain à inventer – et en particulier à créer de nouvelles technologies. Je me suis donc évertué à reconstituer cette tradition philosophique qui définit l’intelligence humaine par la création et l’utilisation d’outils technologiques.

Certains penseurs de cette tradition estiment que l’intelligence n’est pas un phénomène qui adviendrait dans le cerveau, mais au sein du système constitué par l’humain et les technologies qu’il utilise. Pouvez-vous préciser cette idée d’« intelligence distribuée » ?

C’est une hypothèse qui a notamment été développée par l’anthropologue français André Leroi-Gourhan [1911-1986], avant d’être prolongée par le philosophe Bernard Stiegler [1952-2020]. Les deux penseurs remontent aux origines de l’humanité pour prendre l’exemple des premiers outils – les bifaces en pierre taillée. Ils émettent l’idée que, si nous réorganisons la nature selon notre idée (en taillant un silex), cette idée n’existe pas tant que nous ne l’avons pas externalisée par la technologie (c’est-à-dire tant que l’outil n’a pas été façonné). A leurs yeux, l’esprit humain et la technologie se constituent mutuellement : l’esprit humain n’a jamais été « pur » de toute technologie, il n’a pas évolué « seul » jusqu’à l’état d’intelligence pour ensuite inventer des outils. C’est en créant et en utilisant des technologies que le cerveau a peu à peu évolué pour devenir une entité intelligente.

Suivant cette hypothèse, il nous faut penser la cognition et l’intelligence comme advenant dans la relation entre l’esprit humain et des artefacts extérieurs, qu’il s’agisse d’un outil ou d’un livre, dans lesquels la pensée est conservée dans un état de latence. En ce sens, la pensée humaine est toujours dépendante de ses outils de stockage externes : nous n’utilisons pas seulement ces outils, ils nous constituent. Nous serions incapables de vivre et de penser sans ces prothèses que sont le langage, l’écriture, l’imprimerie et désormais les ordinateurs. Il faudrait donc renoncer à différencier intelligence humaine ou « naturelle » et intelligence « artificielle » : l’intelligence dite « naturelle » a besoin, pour fonctionner, de la technologie et la technologie a besoin de l’humain pour que son potentiel soit activé.

En quoi cette hypothèse de l’« intelligence distribuée » est-elle différente des théories transhumanistes ?

Les transhumanistes pensent que les humains sont inférieurs aux machines, et que les machines vont devenir si puissantes que, pour rester à la hauteur, les humains devront fusionner avec la technologie pour devenir quelque chose d’autre, plus qu’humain. Ce fantasme dangereux part du principe que l’intelligence des machines est parfaitement compatible avec le cerveau et l’esprit humain, et que, d’une certaine manière, elle permettrait d’amplifier leurs capacités. Non seulement c’est impossible, mais c’est une erreur, parce que les humains utilisent les technologies pour externaliser leur propre pensée et ainsi la manipuler en dehors d’eux-mêmes, ce qui leur permet ensuite de mieux comprendre le monde dans lequel ils vivent.

Faut-il craindre l’impact des technologies numériques actuelles sur nos capacités cognitives ?

Si la technologie en général n’atrophie pas l’intelligence « naturelle », celles de l’« ère digitale » diffèrent fortement des technologies primitives ou industrielles. Elles permettent l’automatisation de processus qui ne l’avaient jamais été auparavant. Or l’histoire de l’industrialisation nous a montré les effets néfastes que l’automatisation peut avoir sur les individus : elle les habitue à être privés de leur capacité de décision, à être moins inventifs, moins créatifs.

Les capacités cognitives qui étaient autrefois stimulées par un usage plus « authentique » de la technologie s’en trouvent diminuées. Et l’automatisation règle la vie des individus selon une logique inhumaine – à ce titre, certaines utilisations des algorithmes sont particulièrement inquiétantes. Je pense au domaine judiciaire, avec les systèmes de détermination automatique des peines, ou au domaine militaire, avec les systèmes d’armes létales autonomes qui pourront un jour (s’ils ne le font déjà) tuer sans intervention humaine.

Ces nouvelles technologies opèrent en outre de manière beaucoup plus autonome que celles qui les ont précédées. Les réseaux sociaux, et de manière générale les plateformes reposant sur la recommandation algorithmique, en sont un bon exemple : ils nous abreuvent d’informations choisies selon une logique qui leur est propre. Nous vivons désormais dans un monde gouverné par des processus automatiques que nous ne comprenons, ni ne contrôlons, et qui agissent sans la participation d’êtres humains. Nous déléguons trop de pouvoir à ces systèmes et aux entreprises qui les font tourner. Nous pouvons reconnaître qu’il s’agit là de grands dangers sans céder à une forme de technophobie.

Comment garantir un usage des technologies numériques et de l’intelligence artificielle qui nous soit bénéfique ?

Il faut d’abord comprendre que la révolution numérique nous a déjà profondément transformés. Et si nous voulons changer la trajectoire de cette révolution, il faut en étudier les effets, c’est-à-dire développer et financer des humanités numériques au sein des universités et des institutions publiques.

L’un des problèmes majeurs est la façon dont le capitalisme s’est emparé des infrastructures numériques, et dont il conduit à réduire les humains au statut d’utilisateurs et de producteurs de données, dans un projet qui échappe largement à notre contrôle. Or les humains peuvent et doivent être acteurs de leur relation à leurs propres outils : simplement, cela requiert un effort considérable à l’ère du numérique.

La première chose à faire serait donc d’exprimer une fin de non-recevoir aux entreprises qui militent pour qu’aucun frein ne soit mis au développement et au fonctionnement de ces systèmes. Leurs dirigeants sont souvent des transhumanistes qui croient fermement que la technologie résoudra tous les problèmes de l’humanité sans voir – ou reconnaître – qu’ils contribuent eux-mêmes, avec leurs produits, à créer de nouveaux et très graves problèmes à l’humanité.

Nous savons en particulier que l’enfance est une période cruciale pour le développement de l’intelligence humaine. Plutôt que de considérer que l’usage des technologies numériques par les enfants est inévitable et de doter les écoles d’iPad ou d’ordinateurs pour se donner une image progressiste, nous devons nous demander quelles capacités cognitives nous souhaitons développer chez nos enfants. Sans nécessairement mettre en place des lois draconiennes, sans revenir aux tablettes d’argile, nous pouvons décider de mettre en place des régulations quand elles sont nécessaires.

Source : Le Monde

Diffusion partielle ou totale interdite sans la mention : Source www.kassataya.com

Articles similaires

Bouton retour en haut de la page