12.10.08

Vers une théorie de la computation neurale

Si les études par imagerie du cerveau en activité sont désormais pléthore, les approches plus théoriques du fonctionnement neural de l’esprit sont rares. Christopher D. Fiorillo, du département de neurobiologie de l’Université Stanford, en livre une dans PloS ONE. Il s’agit d’une esquisse de théorie générale de la computation neurale, s’intéressant à un neurone simple. Fiorillo propose comme hypothèse de départ que « le but computationnel du système nerveux est de minimiser l’incertitude (maximiser l’information) sur l’état du monde (ou, plus spécifiquement, sur un aspect du monde qui peut être défini comme ‘future récompense’) ». Par but et future récompense (future reward), il faut entendre ce que pour quoi le système nerveux a été sélectionné dans l’évolution de chaque espèce : permettre la survie et la reproduction de l’individu, donc la transmission de son matériel génétique. Cela pose à cet individu le défi permanent de la prédiction des états du monde et de la décision en situation d’incertitude. L’approche de Fiorillo est bayésienne : l’incertitude sur l’état du monde peut être décrite comme une distribution de probabilités, dont la somme est égale à 1, dont la largeur dépend de l’information disponible, dont l’état a priori est celui d’entropie maximale (c’est-à-dire l’état qui contient le moins d’information, par exemple si 4 événements sont possibles, une probabilité de 0,25 à chacun d’eux). Quant on se place du point de vue du neurone, l’information prend la forme d’un stimulus, soit que celui-ci provienne du monde extérieur (par exemple, une certaine longueur d’onde atteint des photorécepteurs spécialisés et ses protéines), soit que celui-ci provienne de l’environnement local du neurone (par exemple, une certaine concentration de neurotransmetteur excitateur comme le glutamate ou inhibiteur comme le GABA). Le neurone traite l’information par un réseau de senseurs à deux états (les canaux ioniques actifs ou inactifs de sa membrane, dont le potentiel d’action conduit à l’activité synaptique, et que l’on peut décrire par une fonction de Boltzmann). La réduction d’incertitude (ou prédiction) se produit au niveau du neurone par un « algorithme de plasticité » décrivant un apprentissage de type hebbien/anti-hebbien (potentialisation / dépression à long terme de la membrane) selon la redondance du stimulus. Au cours du développement vers le neurone mature, le processus permet de distinguer une information nouvelle, non-redondante, et de la corréler éventuellement à une récompense, ce qui se fait par le « système de valeur » des voies de signalisation de type dopaminergique, sérotoninergique, noradrénergique, etc.

Référence :
Fiorillo C.D. (2008), Towards a general theory of neural computation based on prediction by single neurons, PloS ONE, 3, 10, e3298. doi:10.1371/journal.pone.0003298

Aucun commentaire: