Le cerveau vide - Première partie.

in #cerveau2 years ago (edited)

Votre cerveau ne traite pas l'information, ne récupère pas les connaissances ou ne stocke pas de souvenirs. En bref: votre cerveau n'est pas un ordinateur.

peu importe à quel point ils essaient, les scientifiques du cerveau et les psychologues cognitifs ne trouveront jamais une copie de la 5e Symphonie de Beethoven dans le cerveau - ou des copies de mots, d'images, de règles grammaticales ou d'autres types de stimuli environnementaux. Le cerveau humain n'est pas vraiment vide, bien sûr. Mais il ne contient pas la plupart des choses que les gens pensent qu'il fait - même pas des choses simples telles que des «souvenirs».

Notre mauvaise réflexion sur le cerveau a de profondes racines historiques, mais l'invention des ordinateurs dans les années 1940 nous a rendus particulièrement confus. Depuis plus d'un demi-siècle, psychologues, linguistes, neuroscientifiques et autres spécialistes du comportement humain affirment que le cerveau humain fonctionne comme un ordinateur.

Pour voir à quel point cette idée est vide, considérons le cerveau des bébés. Grâce à l'évolution, les nouveau-nés humains, comme les nouveau-nés de toutes les autres espèces de mammifères, entrent dans le monde prêts à interagir efficacement avec lui. La vision d'un bébé est floue, mais elle accorde une attention particulière aux visages, et est rapidement capable d'identifier celle de sa mère. Il préfère le son des voix aux sons non vocaux et peut distinguer un son de base d'un autre. Nous sommes, sans aucun doute, construits pour établir des liens sociaux.

Un nouveau-né en bonne santé est également équipé de plus d'une douzaine de réflexes - des réactions toutes faites à certains stimuli qui sont importants pour sa survie. Il tourne la tête dans la direction de quelque chose qui lui frotte la joue et suce alors tout ce qui entre dans sa bouche. Il retient son souffle lorsqu'il est immergé dans l'eau. Il saisit si fort les objets placés dans ses mains qu'il peut presque supporter son propre poids. Peut-être le plus important, les nouveau-nés sont équipés de puissants mécanismes d'apprentissage qui leur permettent de changer rapidement afin qu'ils puissent interagir de plus en plus efficacement avec leur monde, même si ce monde est différent de celui de leurs lointains ancêtres.

Sens, réflexes et mécanismes d'apprentissage - c'est ce que nous commençons avec, et c'est beaucoup, quand on y pense. Si nous manquions de ces capacités à la naissance, nous aurions probablement du mal à survivre.

Mais voici ce dont nous n’avons pas à la naissance: informations, données, règles, logiciels, connaissances, lexiques, représentations, algorithmes, programmes, modèles, mémoires, images, processeurs, sous-programmes, encodeurs, décodeurs, symboles ou tampons - éléments de conception permettre aux ordinateurs numériques de se comporter un peu intelligemment. Non seulement nous ne sommes pas nés avec de telles choses, mais nous ne les développons pas non plus.

Nous ne stockons pas les mots ou les règles qui nous indiquent comment les manipuler. Nous ne créons pas de représentations de stimuli visuels, les stockons dans un tampon de mémoire à court terme, puis transférons la représentation dans un dispositif de mémoire à long terme. Nous ne récupérons pas les informations ou les images ou les mots des registres de la mémoire. Les ordinateurs font toutes ces choses, mais pas les organismes.

Les ordinateurs, littéralement, traitent des informations - chiffres, lettres, mots, formules, images. L'information doit d'abord être encodée dans un format que les ordinateurs peuvent utiliser, ce qui signifie des motifs de uns et de zéros («bits») organisés en petits morceaux («octets»). Sur mon ordinateur, chaque octet contient 8 bits, et un certain motif de ces bits représente la lettre d, un autre pour la lettre o, et un autre pour la lettre g. Côte à côte, ces trois octets forment le mot dog. Une seule image - disons, la photo de mon chat Henry sur mon bureau - est représentée par un modèle très spécifique d'un million de ces octets ('un mégaoctet'), entouré de caractères spéciaux qui disent à l'ordinateur d'attendre une image, pas un mot.

Les ordinateurs, littéralement, déplacent ces modèles d'un endroit à l'autre dans différentes zones de stockage physiques gravées dans des composants électroniques. Parfois, ils copient aussi les motifs, et parfois ils les transforment de différentes façons, par exemple, lorsque nous corrigeons des erreurs dans un manuscrit ou lorsque nous retouchons une photo. Les règles suivies par les ordinateurs pour le déplacement, la copie et l'exploitation de ces tableaux de données sont également stockées dans l'ordinateur. Ensemble, un ensemble de règles est appelé un «programme» ou un «algorithme». Un groupe d'algorithmes qui fonctionnent ensemble pour nous aider à faire quelque chose (comme acheter des stocks ou trouver une date en ligne) s'appelle une «application» - ce que la plupart des gens appellent maintenant une «application».

Pardonnez-moi pour cette introduction à l'informatique, mais il faut que je sois clair: les ordinateurs opèrent vraiment sur des représentations symboliques du monde. Ils stockent et récupèrent vraiment. Ils traitent vraiment. Ils ont vraiment des souvenirs physiques. Ils sont vraiment guidés dans tout ce qu'ils font, sans exception, par des algorithmes.

Les humains, d'un autre côté, ne le font jamais, ne le feront jamais. Compte tenu de cette réalité, pourquoi tant de scientifiques parlent-ils de notre vie mentale comme si nous étions des ordinateurs?

Dans son livre In Our Own Image (2015), l'expert en intelligence artificielle George Zarkadakis décrit six métaphores différentes que les gens ont employées au cours des 2 000 dernières années pour tenter d'expliquer l'intelligence humaine.Dans le premier cas, finalement conservé dans la Bible, les humains ont été formés à partir de l'argile ou de la poussière, qu'un dieu intelligent a ensuite infusé avec son esprit. Cet esprit a «expliqué» notre intelligence - grammaticalement, au moins.L'invention de l'ingénierie hydraulique au 3ème siècle avant notre ère a conduit à la popularité d'un modèle hydraulique de l'intelligence humaine, l'idée que le flux de différents fluides dans le corps - les «humeurs» - expliquait à la fois notre fonctionnement physique et mental. La métaphore hydraulique a persisté pendant plus de 1 600 ans, ce qui a handicapé la pratique médicale pendant tout ce temps.

Vers les années 1500, des automates alimentés par des ressorts et des engrenages avaient été conçus, inspirant éventuellement de grands penseurs comme René Descartes pour affirmer que les humains sont des machines complexes. Dans les années 1600, le philosophe britannique Thomas Hobbes a suggéré que la pensée est née de petits mouvements mécaniques dans le cerveau. Dans les années 1700, les découvertes sur l'électricité et la chimie ont conduit à de nouvelles théories de l'intelligence humaine - encore une fois, de nature largement métaphorique. Au milieu des années 1800, inspiré par les progrès récents dans les communications, le physicien allemand Hermann von Helmholtz a comparé le cerveau à un télégraphe.

Chaque métaphore reflète la pensée la plus avancée de l'époque qui l'a engendré. Comme on pouvait s'y attendre, quelques années après l'avènement de la technologie informatique dans les années 1940, on disait que le cerveau fonctionnait comme un ordinateur, avec le rôle du matériel physique joué par le cerveau lui-même et nos pensées servant de logiciel. La publication de Language and Communication (1951) par le psychologue George Miller est l'événement marquant qui a lancé ce qu'on appelle maintenant la «science cognitive». Miller a proposé que le monde mental puisse être étudié rigoureusement en utilisant des concepts de la théorie de l'information, du calcul et de la linguistique.

Ce genre de pensée a été porté à son expression ultime dans le livre court The Computer and the Brain (1958), dans lequel le mathématicien John von Neumann a déclaré catégoriquement que la fonction du système nerveux humain est «prima facie digital». Bien qu'il reconnaisse que le rôle joué par le cerveau dans le raisonnement humain et la mémoire était peu connu, il a établi un parallèle parallèle entre les composants des machines informatiques de l'époque et les composants du cerveau humain.

Propulsé par les progrès ultérieurs dans la technologie informatique et la recherche sur le cerveau, un effort multidisciplinaire ambitieux pour comprendre l'intelligence humaine s'est progressivement développé, fermement ancré dans l'idée que les humains sont, comme les ordinateurs, des processeurs d'information. Cet effort implique maintenant des milliers de chercheurs, consomme des milliards de dollars en financement, et a généré une vaste littérature composée d'articles et de livres à la fois techniques et traditionnels. Le livre de Ray Kurzweil, Comment créer un esprit: le secret de la pensée humaine (2013), illustre cette perspective, spéculant sur les «algorithmes» du cerveau, comment le cerveau «traite les données» et même comment il ressemble superficiellement aux circuits intégrés dans sa structure.

La métaphore du traitement de l'information (IP) de l'intelligence humaine domine maintenant la pensée humaine, à la fois dans la rue et dans les sciences. Il n'y a pratiquement aucune forme de discours sur le comportement humain intelligent qui procède sans employer cette métaphore, de même qu'aucune forme de discours sur le comportement humain intelligent ne peut se dérouler dans certaines époques et cultures sans référence à un esprit ou une divinité. La validité de la métaphore IP dans le monde d'aujourd'hui est généralement assumée sans questionnement.

Mais la métaphore de l’ IP est, après tout, juste une autre métaphore - une histoire que nous racontons pour donner un sens à quelque chose que nous ne comprenons pas réellement. Et comme toutes les métaphores qui l'ont précédée, elle sera certainement rejetée à un moment donné - soit remplacée par une autre métaphore, soit, à la fin, remplacée par la connaissance actuelle.

Il y a un peu plus d'un an, lors d'une visite dans l'un des instituts de recherche les plus prestigieux du monde, j'ai mis au défi les chercheurs d'expliquer le comportement humain intelligent sans référence à aucun aspect de la métaphore de l’IP. Ils ne pouvaient pas le faire, et quand j'ai poliment soulevé la question dans les communications par courriel subséquentes, ils n'avaient toujours rien à offrir des mois plus tard. Ils ont vu le problème. Ils n'ont pas écarté le défi comme trivial. Mais ils ne pouvaient pas offrir une alternative. En d'autres termes, la métaphore IP est «collante». Il encombre notre pensée avec un langage et des idées si puissants que nous avons du mal à les contourner.

La logique défectueuse de la métaphore IP est assez facile à énoncer. Il est basé sur un syllogisme erroné - un syllogisme avec deux prémisses raisonnables et une conclusion erronée. Prémisse raisonnable # 1: tous les ordinateurs sont capables de se comporter intelligemment. Prémisse raisonnable # 2: tous les ordinateurs sont des processeurs d'information. Conclusion erronée: toutes les entités capables de se comporter intelligemment sont des processeurs d'information.

Mis à part le langage formel, l'idée que les humains doivent être des processeurs d'information juste parce que les ordinateurs sont des processeurs d'information est tout bête, et quand, un jour, la métaphore IP sera finalement abandonnée, elle sera presque certainement vue par les historiens, juste comme nous voyons maintenant les métaphores hydrauliques et mécaniques : stupide.

Si la métaphore de la propriété intellectuelle est si bête, pourquoi est-ce si collant? Qu'est-ce qui nous empêche de l'écarter, tout comme nous pourrions écarter une branche qui bloquait notre chemin? Existe-t-il un moyen de comprendre l'intelligence humaine sans s'appuyer sur une fragile béquille intellectuelle? Et quel prix avons-nous payé pour nous pencher si lourdement sur cette béquille particulière depuis si longtemps? Après tout, la métaphore de l’ IP guide l'écriture et la réflexion d'un grand nombre de chercheurs dans de multiples domaines depuis des décennies. À quel prix?

Dans un exercice en classe que j'ai mené plusieurs fois au cours des années, je commence par recruter un étudiant pour dessiner une image détaillée d'un billet d'un dollar - «aussi détaillé que possible», dis-je - sur le tableau devant la salle. Quand l'étudiant a fini, je couvre le dessin avec une feuille de papier, retire un billet d'un dollar de mon portefeuille, l'attache au tableau et demande à l'étudiant de répéter la tâche. Quand il a terminé, je retire la couverture du premier dessin et la classe commente les différences.

Parce que vous n'avez peut-être jamais vu une telle démonstration, ou parce que vous auriez du mal à imaginer le résultat, j'ai demandé à Jinny Hyun, l'une des stagiaires de l'institut où je mène mes recherches, de faire les deux dessins. Voici son dessin «de mémoire» (notez la métaphore):

Et voici le dessin qu'elle a fait ensuite avec un billet d'un dollar:

Deuxième partie Suite…

Traduit de :
https://aeon.co/essays/your-brain-does-not-process-information-and-it-is-not-a-computer

Sort:  

Really very nice post

Excellent ! merci pour l'info

This post has been ranked within the top 80 most undervalued posts in the second half of Nov 06. We estimate that this post is undervalued by $7.24 as compared to a scenario in which every voter had an equal say.

See the full rankings and details in The Daily Tribune: Nov 06 - Part II. You can also read about some of our methodology, data analysis and technical details in our initial post.

If you are the author and would prefer not to receive these comments, simply reply "Stop" to this comment.