10.9.08

Cerveau-ordinateur : où en est-on ?

Dans une tribune en libre accès parue dans le dernier numéro de Current Biology, deux chercheurs en neurobiologie moléculaire du Salk Institute (Université de Californie, San Francisco), Naveen Nagarajan et Charles F. Stevens, font le point sur le match cerveau-ordinateur lancé dans les années 1940 et 1950 par Alan Turing, John von Neumann, Marvin Minsky et quelques autres.

Si l’on commence par le hardware, on peut observer que la densité de transistors par microlitre (0.3x10^9) des plus récents microprocesseurs approche celle des synapses (10^9). Il en va de même pour la longueur des connexions nécessaire à chaque unité de calcul (3-4 µm d’axones et dendrites, 30 µm de câblage), ainsi que pour leur diamètre (100 nm). Mais les unités élémentaires de traitement de l’information deviennent comparables, leur nombre reste en net décalage : une puce d’ordinateur contient 10^9 transistors quand un cerveau en aligne 10^14. En longueur totale de câblage linéaire, cela donne 30 km pour un ordinateur, mais 4x10^5 km pour un cerveau, soit la distance de la Terre à la Lune. Les plis corticaux sont des autoroutes de l’information autrement plus vastes que celle d’un ordinateur. Pour ce qui est de la vitesse de traitement, si l’on prend comme approximation l’impulsion nerveuse, les 10^10 neurones s’activant à 10 Hz donne environ 10^11 instructions par seconde, 100 fois plus rapide que le milliard d’instructions par seconde (MIPS) des ordinateurs à cœurs multiples.

Mais comme le rappellent Nagarajan et Stevens, les analogies entre cerveau et ordinateur trouvent leurs limites dans la conception totalement différente de ces deux machines à traiter l’information.

L’ordinateur est conçu selon l’architecture de von Neumann, avec une séparation entre l’unité centrale (CPU) où s’effectuent les calculs et la mémoire où sont stockées informations et instructions pour ces calculs. D’où une démarche séquentielle pas à pas dans le calcul. Rien de tel dans un cerveau : la mémoire et le calcul sont intriqués dans les mêmes circuits neuronaux, qui n’ont aucune horloge centrale pour synchroniser leurs opérations. Deuxième différence majeure : les réseaux neuronaux d’un cerveau sont massivement parallèles, c’est-à-dire qu’ils traitent chacun et simultanément un grand nombre d’informations reçues du milieu interne ou externe. Les processeurs multicoeurs (parallélisme des niveaux d’instruction) commencent à imiter ce mécanisme, mais il faut encore coordonner cette puissance de calcul pour la rendre efficace. Troisième différence : le traitement mécaniste ou probabiliste de l’information. Un ordinateur fait des milliards et des milliards de calculs sans la moindre erreur. C’est une prouesse, mais aussi une faiblesse (l’erreur peut être fatale au programme). Le cerveau se permet au contraire de multiples erreurs : quatre fois sur cinq, une impulsion nerveuse n’est pas relayée sur les synapses ; mais ces impulsions sont à ce point nombreuses et redondantes que cela ne pose pas problème, l’information utile arrive à bon port. L’échec d’un composant neural n’est donc pas fatal, c’est la raison pour laquelle nous conservons nos facultés cognitives malgré la mort neuronale qui accompagne notre existence adulte. Cette plasticité est renforcée par la localisation de fonctions cérébrales : en dehors de lésions accidentelles ou pathologiques qui détruisent spécifiquement un module (et donc une fonction), la mort aléatoire des neurones individuels, répartie de manière stochastique dans les diverses aires, n’affecte guère les fonctions.

Depuis 60 ans, la puissance des ordinateurs progresse selon la loi de Moore. Et les machines accomplissent des tâches dont on ne les aurait jamais crues capables à la génération précédente — battre les meilleurs joueurs d’échecs du monde, reconnaître des caractères, des visages ou des voix, etc. On peut, comme Ray Kurzweil en fait par exemple l’hypothèse, considérer qu’un certain seul quantitatif de traitement parallèle de l’information produira des propriétés émergentes comparables à l’intelligence ou la conscience humaines. Lorsque les connexions des transistors dépasseront numériquement les connexions synaptiques, lorsque les programmes informatiques dédiés simuleront les modules biologiques fonctionnels, la machine l’emportera sur le cerveau. Nagarajan et Stevens n’excluent pas cette hypothèse, mais suggèrent que la question pourra être abordée autrement : « Nous pensons que le problème n’est pas la puissance de l’ordinateur ni la capacité à programmer des machines en parallèle, mais plutôt notre ignorance quasi-complète sur les calculs réellement opérés dans un cerveau. Notre idée est que les ordinateurs ne pourront jamais égaler nos meilleures capacités tant que nous n’aurons pas compris les règles de construction d’un cerveau et les opérations mathématiques employées par les circuits neuraux suffisamment bien pour construire des machines où elles seront incorporées ».

Référence :
Nagarajan N., C.F. Stevens (2008), How does the speed of thought compare for brains and digital computers?, Current Biology, 18, R756-R758.

Illustration : Charles H. Caver, Eye and Mind, Word Up

Aucun commentaire: