30.4.08

Quand votre peau s’exprime

Une équipe de physiciens de l’Université hébraïque de Jérusalem vient de découvrir une surprenante propriété de notre peau. Plus précisément des canaux sudoripares, qui communiquent la sueur entre les glandes du même nom et la surface de l’épiderme. Ces canaux sont structurés comme de minuscules antennes hélicoïdales qui émettent à des fréquences sub-terahertz (ondes millimétriques et inframillimétriques).

Les chercheurs ont enregistré les radiations électromagnétiques émises par la paume aux fréquences comprises entre 75 et 110 GHz. Ils ont montré que cette signature radiative est étroitement corrélée à la fréquence respiratoire comme à la pulsion sanguine. Ils ont ainsi été capables d’interpréter l’activité d’un sujet au repos, puis entreprenant une activité physique intense, puis revenant doucement à un état plus calme.

Outre les performances athlétiques, ce réseau de micro-antennes naturelles pourrait aussi bien révéler notre état de stress et d’excitation, ou encore permettre d’identifier des troubles circulatoires. Leur découverte a déjà fait l’objet d’un brevet par la société de transfert technologique Yissum.

Référence :
Feldman Y. et al. (2008), Human skin as arrays of helical antennas in the millimeter and submillimeter wave range, Phys. Rev. Lett., doi:10.1103/PhysRevLett.100.128102

Post-salariat, économie à deux vitesses et fracture cognitive

Prix Nobel de la Paix (2006), Muhammad Yunus a contribué au lancement de la Grameen Bank et du microcrédit aux plus pauvres. Il reconte cette expérience et donne des idées dans un entretien au Monde 2. Dont cet extrait concernant le salariat.

Dans l'Occident riche, vous ne proposez qu'un seul type d'emploi, salarié, pour un patron, une entreprise. Entendez-moi bien : je soutiens toute forme d'embauche et d'industrie, toute politique de l'emploi. Mais ne promouvoir que le salariat me semble terriblement limité. Voir seulement l'homme comme un être recherchant une paie me semble une conception étroite de l'humain. C'est une forme d'esclavage.(…)
Aujourd'hui, dans les pays du Nord, chaque enfant travaille dur à l'école pour obtenir un bon travail. C'est-à-dire un bon salaire. Adulte, il travaillera pour quelqu'un, deviendra dépendant de lui. L'être humain n'est pas né pour servir un autre être humain. Un travailleur indépendant, qui tient une échoppe par exemple, travaille quand il en a besoin. Si certains jours il ne veut pas travailler, il le peut. Il a fait sa journée, il profite un peu de la vie. Il n'a personne à prévenir s'il a une heure de retard. Il ne s'inquiète pas de perdre une partie de son salaire. Quand nous étions des chasseurs-cueilleurs, nous n'étions pas des esclaves, nous dirigions nos existences. Des millions d'années plus tard, nous avons perdu cette liberté. Nous menons des vies rigides, calées sur les mêmes rythmes de travail tous les jours. Nous courons pour nous rendre au travail, nous courons pour rentrer à la maison. Cette vie robotique ne me semble pas un progrès. Avec le salariat, nous avons glissé de la liberté d'entreprendre et d'une certaine souplesse de vie vers plus de rigidité. J'ai un salaire, un patron, je dois faire mon job que cela me plaise ou non, car je suis une machine à sous. C'est là le danger global des structures économiques actuelles, de la théorie dominante. L'homme est considéré comme un seul agent économique, un employé, un salarié, une machine. C'est une vision unidimensionnelle de l'humain. Le salariat devrait rester un choix, une option parmi d'autres possibilités.

En soi, le propos semble juste et il y a d’autres choses fort intéressantes dans ce papier. Mais il se peut bien que Yunus décrive là une direction inévitable du capitalisme cognitif, et une direction qui ne sera pas forcément jugée très progressiste.

La création de valeur dépend de plus en plus de la mobilisation du travail intellectuel, mais celui-ci n’est pas uniformément réparti dans la société. Par exemple, le QI moyen est de 100 dans toute population. Or, d’innombrables études dans les sociétés industrialisées montrent que le QI est déjà un facteur prédictif de la réussite scolaire, universitaire, professionnelle et socio-économique. La pression nouvelle exercée sur les capacités cognitives va accentuer cet état de fait et condamner une partie de la population (celle dont le QI est inférieur à 100) à connaître moins d’opportunités de carrière ou de progressions de carrière. Sauf à nier l’évidence, un individu ayant un QI de 80 ou de 90 aura bien des difficultés personnelles à prospérer dans des secteurs où l’on vante le raisonnement abstrait pour des tâches complexes, la fluidité et la créativité intellectuelles, la capacité à s’adapter en permanence à de nouveaux outils, l’aptitude à changer d’orientation et de formation en se coulant rapidement dans un nouveau cadre de production, etc. En fait, ce type d’intelligence dit fluide (Gf) n’évolue plus à partir de l’âge adulte – et quelque soit leur niveau cognitif, beaucoup ont au contraire tendance à développer une intelligence dite cristallisée (Gc), c’est-à-dire associée à des savoir-faire spécifiques. Mais ce sont justement ces cristallisations que le capitalisme cognitif menace en valorisant la mobilité et la réactivité au cœur de chaque trajectoire individuelle.

Dès lors, l’économie sociale et informelle que Yunus appelle de ses vœux pourrait apparaître comme une solution, mais elle avaliserait du même coup une économie à deux vitesses, avec un secteur globalisé, concurrentiel, à haute valeur cognitive ajoutée et un secteur localisé, informel, à faible valeur cognitive ajoutée. Certains pays en développement peuvent adopter assez facilement ce schéma de transition, parce qu’ils n’ont pas les mêmes structures sociales que l’Occident, une vie communautaire plus dense, une classe moyenne moins étendue, un manque d’infrastructures pour garantir l’éducation de qualité à tous, etc. Mais les sociétés occidentales ont vécu sur un schéma opposé, avec l’imaginaire du salariat à vie et de l’ascenseur social garanti comme horizon d’équilibre et de sécurité des nouvelles générations. Ce thème d’une nouvelle fracture socio-cognitive ayant pour axe l’accès aux réseaux rejoint les problématiques ouvertes par Alexander Bard et Ian Soderqvist dans les Netocrates.

Voir également : Huit thèses sur le capitalisme cognitif et les neurodevenirs.

Presse : qui veut payer les soins palliatifs ?

Dans Libération, une tribune d’Emmanuel Schwartzenberg sur le déclin de la presse écrite.

Le constat :
Avec un total de 383 559 exemplaires de ventes au numéro en 2007, les ventes cumulées du Figaro, du Monde, de Libération, des Echos et de la Tribune atteignent exactement celles que France Soir réalisaient il y a vingt-cinq ans !

Pas fameux en effet.

Une des causes :
Les coûts de fabrication des quotidiens français sont les plus élevés au monde. Même sur le déclin, les avantages obtenus à la Libération par le Syndicat du livre qui bénéficie du monopole syndical et du monopole d’embauche continuent de peser sur les imprimeries.

Mais aussi :
Certains journalistes bénéficient de onze semaines de congés payés et de 20 jours de RTT, de l’autre un grand reporter devra abandonner le terrain et prendre des attributions hiérarchiques pour préserver un salaire décent. Le système général conduit à cette impasse : les quotidiens sont trop chers, leur contenu rédactionnel trop faible et il est difficile de les trouver si on veut les acheter.

Donc, un syndicat du livre qui bénéficie d’avantages exorbitants datant de la Libération, des journalistes pas toujours à plaindre sur leurs conditions de travail (sans parler du statut fiscal).

Et voici la solution :
Les pouvoirs publics doivent assujettir toutes les entreprises dont le développement s’effectue au détriment de la presse à une contribution. Les moteurs de recherche, les portails d’information, les supports électroniques de toute nature qui puisent leur contenu dans l’univers de la presse doivent être taxés à son profit. Au lieu d’instituer un prélèvement au profit de la télévision publique.

Vous avez bien lu. La presse va mal, alors il faut taxer Internet qui va si bien. Et refiler le pognon aux journaux que personne ne lit, histoire que les journalistes citoyens et les ouvriers du livre s’en paient une bonne à la santé des internautes.

Nietzsche a un meilleur plan : « Ce qui tombe, pousse-le ».

29.4.08

Oestrus humain : la femme en chaleur

Les oestres sont des mouches dont les larves parasitent les chevaux, les taureaux, les moutons ou les humains à l’occasion. L’oestrus, dérivé du terme grec puis latin servant à les nommer, a pris un sens différent en biologie : il désigne la période féconde du cycle ovulatoire durant laquelle la femelle éprouve une excitation sexuelle et se montre réceptive à l’accouplement. On parle aussi des chaleurs.

Jusqu'à présent, on pensait que l’oestrus ne concerne pas la femelle humaine. Contrairement à de nombreux espèces où l’oestrus se manifeste avec la plus grande évidence, par des changements physiologiques et comportementaux, la femme semble cacher son ovulation et ne manifeste pas, sauf exception, de débordements érotiques visant à un accouplement rapide avec le premier mâle de passage. Et pourtant, Steven W. Gangestad et Randy Thornhill (Université d’Albuquerque) suggèrent dans leur récent papier de synthèse que cette croyance est erronée : il existe bel et bien un oestrus chez la femelle humaine dans sa période péri-ovulatoire.

Pour le montrer, les deux auteurs rassemblent les conclusions de 20 travaux menés entre 1991 et 2008 sur les modifications des préférences sexuelles des femmes au cours de leur cycle. Toutes ces recherches ont été menées sur des sujets ne prenant aucun contraceptif. Et toutes montrent un certain nombre de variations significatives : par exemple, les femmes sont plus sensibles aux effluves d’androstérone et de testostérone, aux traits masculins associés avec un haut niveau de ces hormones, au comportement dominant, aux voix, aux visages et aux corps jugés les plus masculins par leur groupe d’appartenance, à une taille élevée, à des traits faciaux ou corporels symétriques, à des odeurs corporelles et à leurs corrélations avec la proximité ou la distance génétique du système majeur d’histocompatibilité… A ces variations inconscientes de préférence en faveur des mâles supposés avoir de bonnes qualités génétiques de reproducteurs s’ajoutent diverses variations cognitives et comportementales : les femmes ont par exemple en moyenne plus de fantasmes (en pensée) en phase péri-ovulatoire et leurs fantasmes sont alors plus souvent orientés vers un autre homme que leur partenaire officiel. Chez ce dernier, on a d’ailleurs observé symétriquement une plus grande jalousie lors de la période féconde de leur partenaire, un plus grand empressement à les accompagner ou à prendre soin d’elles, une plus grande possessivité. Soit une co-évolution antagoniste assez classique.

Il faut donc s’y faire : même si leur visage, leur poitrine, leurs fesses ou leur vulve ne rougissent pas comme chez certaines de leurs cousines primates, les femmes (ou une certaine proportion d’entre elles) n’en connaissent pas moins des chaleurs. Un homme averti en vaut deux, n’est-ce pas ?

Référence :
Gangestad S.W., R. Thornhill (2008), Human oestrus, Proc. Roy. Soc. B., 275, 991-1000, doi : 10.1098/rspb.2007.1425

Illustration : Julia Roberts et Richard Gere dans le film Pretty Woman (1990) (DR). Toute interprétation sauvage d’un rapport de cause à effet entre la robe rouge d’une belle femme et la précieux cadeau d’un homme riche ne recevrait pas notre caution, bien sûr.

Le corps social (je est aux autres)

Dans une tribune du Monde, ce propos de Jean-Paul Delevoye (médiateur de la République) : "En droit français, la libre disposition de son corps est par essence limitée par la loi. Les individus, au travers de leurs élus, en ont fait un thème collectif qui relève de la responsabilité de l'ensemble de la société." La belle affaire : la libre disposition de son corps n'est pas "limitée", elle n'est promulguée ni reconnue nulle part, de sorte que "l'ensemble de la société" - doux euphémisme pour le biopouvoir étatique - ne se prive pas d'accumuler les interdits sans même que nous ayons conscience de cette dépossession primordiale de nos corps.

28.4.08

Longue vie aux gros cerveaux

S’il faut caractériser l’humain parmi tous ses cousins primates ou petits-cousins mammifères, la taille du cerveau est sans conteste le trait le plus caractéristique, plus précisément le quotient d’encéphalisation (taille du cerveau rapportée à la taille de l’organisme). Mais cette encéphalisation a un coût évolutif : le développement est plus lent, il demande plus de soins, il expose les plus jeunes à des risques plus élevés de ne jamais atteindre l’âge reproductif. Des chercheurs de l’Université de Zurich et de l’Université Duke ont analysé 28 espèces de primates vivant dans des conditions sauvages. Ce point est important, car la plupart des études précédentes incluaient des animaux vivant en zoo, connus pour avoir un rythme de croissance plus soutenu. Pour les humains, ils ont choisi la tribu des Ache, qui vit dans les forêts tropicales du Paraguay et dans des conditions assez proches de celle du Paléolithique (chasse, cueillette, aucune contraception).

Le résultat de leur travail montre qu’il existe une corrélation constante entre l’encéphalisation d’une part, la longévité d’autre part. En fait, l’allongement de l’existence se retrouve sur toutes les étapes analysées : durée de la grossesse, années séparant la naissance de la maturité et de l’autonomie, développement pré- et post-natal du cerveau jusqu’à sa configuration complète, espérance de vie adulte. Les espèces à gros cerveaux présentent des techniques plus complexes de recherche de nourriture, des méthodes plus élaborées d’évitement des prédateurs et des aptitudes sociales plus développées. Au final, il y a donc un rapport coût bénéfice favorable entre les risques plus élevés de la période infantile (ainsi que de la gestation et de la mise au monde) et les gains liés à l’encéphalisation.

L’Homo sapiens actuel dérive de rameaux évolutifs n’ayant cessé de gagner en volume du cerveau au cours de l’hominisation : 450 cm3 pour les Australopithèques, 640 cm3 pour Homo habilis, 940 cm3 pour Homo erectus, 1350 cm3 pour notre espèce. Les chercheurs ne sont néanmoins pas d’accord sur les mécanismes exacts de ce « cycle vertueux » où le développement cérébral semble s’être auto-entretenu. L’hypothèse la plus souvent rencontrée est celle d’une « sélection sociale et sexuelle » où la survie au sein du groupe a requis des facultés de plus en plus complexes, c’est-à-dire que le groupe lui-même et ses interactions (à l’intérieur, à l’extérieur) sont devenus un environnement adaptatif exerçant une pression sélective sur les individus.

Référence :
Barrickman N.L. et al. (2008), Life history costs and benefits of encephalization: a comparative test using data from long-term studies of primates in the wild, Journal of Human Evolution, 54, 5, 568-590. doi:10.1016/j.jhevol.2007.08.012

Fatalité j'écris ton nom

Imaginons une étude montrant que 10% des différences entre les gens dans le domaine de la réussite scolaire provient de la qualité de leur alimentation entre 0 et 10 ans. Tout le monde serait vivement intéressé par cette annonce, le ministère de la Santé demanderait une expertise collective sur les tenants et aboutissants de la chose, les professionnels de la réforme sociale monteraient vite au créneau pour suggérer les mesures alimentaires susceptibles d’aider au progrès de chacun et de réduire les inégalités entre tous, les sociologues feraient de savantes études sur la transmission du capital alimentaire et même les psychanalystes auraient un mot à dire. Et pourtant, 10%, ce n’est pas si important. Quand la psychométrie et la génétique du comportement suggèrent qu’une proportion supérieure des différences de réussite scolaire provient des gènes, personne n’est vraiment intéressé, le gouvernement ne creuse pas la question, les réformateurs sociaux se taisent, les sociologues et les psychanalystes sifflotent en regardant le plafond. Tout le monde lit « hérédité » et chacun entend « fatalité ». Quelle attitude étonnante, quel respect superstitieux de la matière vivante pour des esprits supposés si libres, si actifs, si entreprenants...

27.4.08

Le souci de l'autre

L’histoire humaine ? Un lent, immense et raisonné dérèglement de l’altruisme par la conscience. Et beaucoup militent activement pour son achèvement en forme d’apothéose, un Etat-monde entièrement organisé pour la réplication infinie de l’humain. Et dire que tout cela est né de quelques gènes égoïstes…

Quand l'humain frôlait l'extinction... et accélérait son évolution

Le Genographic Consortium étudie l’évolution de la diversité humaine en réalisant des phylogénies moléculaires à partir des populations actuelles. L’étude de l’ADN mitochondrial (transmis par les mères), du chromosome Y (transmis par les pères) ou de l’ADN nucléaire des individus provenant de différentes ethnies permet en effet d’analyser les phases de différenciations (apparition de mutations non partagées d’une ethnie à l’autre) et de les dater par horloge moléculaire (selon le rythme de mutation de l’ADN lorsque la mutation est neutre, c’est-à-dire sans pression sélective particulière).

On s’intéresse beaucoup aux migrations humaines hors d’Afrique, qui ont commencé voici 60.000 à 70.000 ans et qui ont abouti aux peuplements successifs de l’Eurasie, de l’Australasie et de l’Amérique. Mais les chercheurs se sont penchés cette fois sur la période précédente, la phase africaine de l’Homo sapiens, qui aurait débuté vers 200.000 ans. Ils se sont particulièrement penchés sur les ethnies Khoi et San – à la fois parce que leur mode de vie de chasseurs-cueilleurs est resté très proche de celui de nos ancêtres, et aussi parce que l’analyse des lignages maternels et paternels montre qu’il s’agit des plus anciens clades de l’humanité (les premières populations à s’être différenciées au sein de l’espèce). Dans ce travail, ils ont analysé l’ADN mitochondrial de 624 individus d’origine sub-saharienne. Cet ADN situé dans les mitochondries, organites des cellules servant à leur métabolisme énergétique, diffère de celui du noyau où se situe notre génome et n’est transmis que par les mères, sans contribution masculine.

Il en ressort plusieurs points intéressants. L’ensemble kkoisan aurait divergé entre 150.000 et 90.000 BP (before present), mais au moins cinq autres lignages maternels seraient apparus dans cette même période. Et 40 autres pour la seule Afrique sub-saharienne, avant la phase de dispersion, vers 70.000-60.000 BP. Ces tribus ou ethnies africaines se seraient réparties sur le continent, surtout au Sud et au Nord-Est si l’on en juge par les vestiges disponibles. Le second point, plus intéressant encore, c’est que l’humanité aurait alors connu une population globale très faible, de l’ordre de 2000 individus, ce qui la place à la limite de l’extinction. Le faible nombre d’humains a pu avoir pour causes des épidémies ou des changements climatiques (glaciation-déglaciation, éruptions volcaniques massives). Cela signifie que dans la phase cruciale de l’hominisation récente, entre 200.000 et 70.000 BP, nos ancêtres auraient vécu en groupes plutôt isolés, de très petites dimensions (quelques centaines d’individus), groupes qui ont ensuite connu une lente extension démographique et ont migré hors d’Afrique (ou se sont à nouveau mélangés pour ceux restés en Afrique).

Ce travail, s’il est confirmé par d’autres équipes, précise donc l’environnement adaptatif où certaines caractéristiques de notre espèce comme le langage, l’art et la culture ont connu une forte pression sélective. La division en petits groupes pourrait avoir contribué à cette évolution - à la fois parce que les conflits intergoupes favorisent les comportements altruistes et prosociaux à l’intérieur de chaque groupe (mais aussi des comportements agressifs et prédateurs vers l’extérieur) et parce que selon le mécanisme de « l’effet fondateur », des mutations favorables se répandent plus facilement dans des populations de petites dimensions en situation de goulot d’étranglement démographique (plus tard, elles se diffusent par des brassages reproductifs).

Référence :
Behar D.M. et al. (2008), The dawn of human matrilineal diversity, American Journal of Human Genetics, online pub., doi:10.1016/j.ajhg.2008.04.002

Illustration : le crâne de Herto, Homo sapiens vivant voici 160.000 ans sur le territoire de l’Ethiopie actuelle, in White TD. Et al. (2003), Pleistocene Homo sapiens from Middle Awash, Ethiopia, Nature 423, 742-747, doi:10.1038/nature01669.

26.4.08

La grande santé de Pat Califia

Pat Califia désigne deux personnes : Patricia, née aux Etats-Unis dans un milieu mormon, devenue lesbienne à 13 ans et sadique à 17 ans ; Patrick, ayant entamé sa transition (changement de sexe) en 1999. Cet essai, paru dans la collection l’Attrape-Corps des éditions La Musardine, rassemble douze articles rédigés entre 1979 et 1999 par celle qui devait s’imposer comme une figure du féminisme ainsi que du mouvement lesbien, gay, bi et transgenre. Mais une figure atypique : l’orientation SM de Pat Califia lui valut immédiatement des rejets de la part de la communauté lesbienne (le SM n’étant pas assez exclusif, trop mâle, pratiqué à l’occasion avec des hommes gays ou hétéros) aussi bien que du mouvement féministe (le SM étant assimilé à la réification fétichiste et à la domination masculine, à la misogynie et à la violence). Opposition paradoxale qui valut à l’auteur ce constat amer et précoce : les mouvements d’émancipation des femmes ou des minorités, dirigés contre un ordre hétérosexuel, monogame et patriarcal dominant, tendent à créer en interne des contraintes normatives et des régulations comportementales parfois aussi étouffantes.

Mais il en aurait fallu bien plus pour faire taire Pat Califia. Au fil de ces textes subversifs, elle décrit les pratiques qu’elle a choisies et les réflexions que ces pratiques nourrissent sur le mouvement LGBT et le féminisme. L’essai peut donc se lire comme une confession, une observation ou une réflexion, dont l’objet ne varie guère : le rapport que l’individu entretient avec ses choix sexuels, la réception de ces choix dans les minorités et dans la société en général. Il faut préciser que Pat Califia est douée d’un style remarquable, une rythmique percutante alliant sans la moindre difficulté dans un même texte des considérations tout à fait personnelles et pragmatiques à des propos bien plus généraux et théoriques. Les pages les plus saisissantes de l’ouvrage concernent certainement la description vécue de la pratique SM, vue du point de vue sadique (top ou dominant par opposition à bottom ou soumis) — mais un point de vue non exclusif, car Pat Califia est avant tout fascinée par la fluidité des rôles et des genres, par la capacité des individus à repenser leur corps et ses situations depuis les principes de désir et de plaisir, en parfaite indifférence à la morale et au quand dira-t-on. A tous ceux qui considèrent les pratiques minoritaires comme l’expression nécessaire d’un mal-être existentiel ou d’un dérèglement psychique, Pat Califia apporte la plus simple des réponses : un témoignage débordant de vitalité, de joie, d’intelligence, un gai savoir et une grande santé dont le simple contact rend la libération sexuelle un peu moins utopique.

Référence :
Califia P. (2008), Sexe et utopie, Paris, La Musardine, 196 p.

Illustration : collage de Philippe Tissier, galerie Blockhaus.

No Logo ? Une question… préhistorique

Fétichisme de la marchandise, règne de la marque, culte du logo… tout cela est supposé caractéristique du capitalisme moderne, ou de ses évolutions les plus récentes. L’archéologue David Wengrow vient de suggérer que ces pratiques ont une histoire ancienne, et même une préhistoire. Le chercheur a examiné le marquage des biens de consommation associés à la révolution urbaine du IVe millénaire avant notre ère, dans les premières grandes cités de Mésopotamie. Il observe que le système des sceaux, servant d’abord à personnaliser des amulettes, a été utilisé pour identifier des biens manufacturés en grande quantité, sans doute pour certifier leur provenance, leur propriété ou leur mode de fabrication. C’est le cas par exemple pour les amphores et bouchons d’amphores de vin ou d’huile. Tout serait une question d’échelle : lorsque des dizaines de milliers d’individus se rassemblent dans les villes, et que leur travail se trouve du même coup séparé et spécialisé, la marque deviendrait un moyen de sécurisation ou de distinction pour les biens circulant dans les marchés. Sans commune mesure avec l’importance de la marque dans le capitalisme actuel ? Sans doute. Mais les cités mésopotamiennes et leurs marchés locaux concernaient quelques dizaines de milliers de personnes tout au plus, alors que notre humanité et son marché global se chiffrent en milliards. La profondeur historique comme les ordres de grandeur permettent toujours de pondérer les jugements…

Référence :
Wengrow, D. (2008), Prehistories of commodity branding, Current Anthropology, 49, 1, DOI: 10.1086/523676.

25.4.08

L'erreur des opprimés

Toutes les réflexions sur l’oppression désignent telle ou telle institution comme coupable : la famille, la religion, l’Etat, l’entreprise, le marché, la société, etc. Modifions l’institution et nous émanciperons l’individu. Ce que signifie la Mutation de notre vision du monde : l’oppression ne réside pas dans l’institution, mais dans nos dispositions biologiques et psychologiques dont les institutions sont issues. Et subsidiairement, dans le fait que l'on doit toujours subir les dispositions psychobiologiques majoritaires et les institutions de masse qui en résultent.

Le lieu commun de la banalisation du sexe

Nouveau lieu commun : le sexe est partout, le porno est banalisé, l’époque est obscène. Cela me semble faux, à côté de la plaque, l’éternelle récrimination de gens se disant très ouverts mais souhaitant surtout que la sexualité ne soit pas évoquée du tout. Quand l’éducation publique intégrera l’histoire, la connaissance et la pratique de la sexualité comme une part réelle de son cursus, et non un bouche-trou du programme faisant rigoler les gamins, quand dans chaque ville moyenne de notre pays il y aura des prostitué(e)s exerçant librement leur profession à côté des coiffeurs et des boulangers, des clubs organisant chaque soir des rencontres pour adultes autour d’une pratique sexuelle différente, des cinémas proposant du X au milieu des autres genres, des supermarchés ayant un rayon sex toys entre le rayon jouet et le rayon layette, on pourra sans doute dire que la sexualité est reconnue comme une activité courante de nos concitoyens – et une activité finalement importante si l’on en juge par tout ce qui tourne d’elle, directement ou indirectement. Mais quelques publicités porno chic, quelques rubriques dans les magazines pour jeunes filles, quelques boutiques spécialisées à lourde tenture et une avalanche de sites X se recopiant les uns les autres, cela ne change pas grand chose au régime d’exception dont souffre la sexualité parmi toutes nos occupations.

Virus politiquement correct ?

En ces temps de Jeux Olympiques et de menaces de boycott, tout devient sensible. L’Organisation Mondiale de la Santé a décidé de rebaptisé les noms donnés aux différentes souches des virus de la grippe : le type Fujian est devenu clade 2.3.4, et le type Qinghai clade 2.2. Le politiquement correct a-t-il gagné la biomédecine ? Pas vraiment. En fait, ces dénominations sont plus précises puisqu’elles désignent les séquences de l’hémagglutinine, une protéine de surface du virus influenza responsable de sa fixation sur nos cellules. Mais certains spécialistes en épidémiologie soulignent que la référence spatiale est indispensable pour étudier la dynamique virale. On n’en reviendra pas pour autant aux lieux géographiques des premières épidémies dans les banques de données sur les virus, plutôt un système de coordonnées GPS permettant des suivis bien plus précis.

Neuro-anatomies hegeliennes

La lutte pour la reconnaissance et la dialectique maître-esclave sont-elles implantées dans nos circuits neuronaux ? Deux travaux parus dans la revue Neuron se penchent sur l’inscription de la hiérarchie et du statut dans le cerveau humain.

Dans le premier d’entre eux, Caroline Zink et ses collègues ont fait participer 72 sujets à un jeu interactif d’argent simulant des conditions de hiérarchie sociale. Les sujets pensaient que leur rang était déterminé par leurs résultats au jeu, alors qu’il était fixé à l’avance par les expérimentateurs (et que les autres joueurs de chaque tournoi étaient fictifs, chaque sujet jouait en fait individuellement contre des automates). Les participants passaient une imagerie par résonance magnétique fonctionnelle (IRMf), pendant qu’on leur montrait des images ou des scores de joueurs inférieurs ou supérieurs supposés être dans les pièces attenantes et jouer en même temps qu’eux.

Le résultat montre plusieurs choses : les circuits cérébraux du striatum ventral, qui signalent à l’attention des événements importants, se trouvent aussi bien activés par les gains ou pertes de rang que par celles d’argent ; le cortex préfontal médian, lié à la cognition sociale et aux jugements interpersonnels, montre une activité proportionnée à l’instabilité du joueur dans la hiérarchie ; battre un joueur supérieur active les zones liées à la planification de l’action alors qu’être battu par des joueurs inférieurs réveille les circuits émotionnels de douleur et de frustration ; plus les personnes montrent une activité émotive positive forte quand elles accèdent au rang supérieur, plus ils tombent dans une activité émotive négative à mesure qu’elles se dirigent vers le bas du classement.

Dans la seconde étude, Keize Izuma et ses collègues ont plus simplement testé les circuits de recherche de récompense de nos cerveaux, déjà très étudiés dans les processus de prise de décision ou d’addiction. Le jeu auquel ils sont soumis les participants (19), eux aussi observés en IRMf, se traduisait soit par des gains en argent, soit par des gains en réputation et en statut. Les circuits du striatum associés à la satisfaction ou l’insatisfaction dans la recherche de récompense ont été activés de la même manière quelle que soit la nature du gain. Ce qui suggère une « unité neurale commune » pour le statut par l’argent ou la réputation.

Références :
Izuma K. et al. (2008), Processing of social and monetary rewards in the human striatum, Neuron, 58, 284-294.
Zink C.F. et al. (2008), Know your place: Neural processing of social hierarchy in humans, Neuron, 58, 273-283.

Illustration : Zink et al. 2008.

24.4.08

Neurones miroirs : les enjeux théoriques

Les neurones miroirs sont l’une des découvertes les plus intéressantes des neurosciences au cours des trente dernières années. On peut donc se féliciter que le livre d’un artisan majeur de cette découverte, Giacomo Rizzolatti, soit traduit en français et permette au grand public de se familiariser avec une notion appelée à prendre une importance croissante à l’avenir.

Pour comprendre les neurones miroirs, il faut commencer par un mal-aimé des sciences de l’esprit : le système moteur. On se le représentait voici peu encore comme le simple exécutant de fonctions supérieures. Or, les travaux sur les singes et sur l’homme ont montré qu’il n’en est rien : les aires sensori-motrices du cerveau, d’une extraordinaire complexité, ne se contentent pas de calculer les coordonnées d’un mouvement dans l’espace et le temps par rapport au référentiel du corps (ce qui est déjà énorme), mais intègrent ce calcul dans le cadre d’une action motrice finalisée, et même d’un répertoire ouvert de différentes actions possibles. Le schéma de division du travail entre aires cérébrales chargées de concevoir l’action, aires sensorielles (visuelles surtout) chargées d’évaluer leur contexte et aires motrices chargées d’exécuter l’ensemble après passage dans les aires associatives est faux. En d’autres termes, et pour simplifier, la pensée est d’abord action et l’élaboration de cette pensée-action est déjà présente dans les voies du système sensori-moteur.

Or, l’analyse du système moteur a révélé chez les singes une étrange propriété : les neurones s’activent bien sûr lorsqu’il s’agit de saisir, tenir, manipuler, déplacer un objet ; mais une classe particulière de neurones s’activent de la même manière lorsque le sujet se contente d’observer un autre sujet accomplissant ces actions. On les a appelés des « neurones miroirs ». Ils ont pour propriété de permettre de penser « à la première personne » ce qu’un tiers accomplit. La vision est le principal sens concerné chez les mammifères diurnes, mais des expériences ont montré que, même chez le singe, il suffit d’entendre un congénère accomplir une action connue (présente dans le répertoire moteur appris par l’individu ou inné chez l’espèce) pour que celle-ci soit représentée par les neurones miroirs.

Découvert au milieu des années 1990 chez le singe, ces neurones miroirs sont également présents chez l’homme, et en quantité bien plus importante semble-t-il. Ils ouvrent une fenêtre nouvelle sur la physiologie de processus fondamentaux de l’évolution de notre espèce, du développement de chacun de ses individus et du fonctionnement de la vie en groupe. En réunissant l’action et l’intention, les neurones miroirs sont à la base du processus d’apprentissage par imitation – pas seulement reproduire un acte du répertoire moteur inné de l’espèce, mais aussi apprendre un type nouveau d’action pour le reproduire ensuite, ce qui est le fondement de la culture. La localisation de populations denses de neurones miroirs dans les aires visuomotrices de la périphérie de l’aire de Broca (dédiée chez l’homme au langage) suggère que cette dernière pourrait bien avoir évolué à partir d’eux, c’est-à-dire que le langage des mots serait un dérivé évolutif du langage des gestes. Avec la bipédie et la libération de la main, nos ancêtres proto-humains auraient d’abord affiné la perception du couple action-intention dans leur espace de préhension ; la désignation de ces actions-intentions par des mots serait venue ensuite ; l’organisation de ces mots par la syntaxe enfin. On retrouve cette séquence dans le développement individuel – le fœtus sait déjà téter son pouce dans le venre de la mère, et les tout premiers mois sont dédiés à la découverte de l’espace par l’affinement de la vision et la projection de la main.

Enfin, les neurones miroirs sont massivement impliqués dans l’empathie, c’est-à-dire la capacité à ressentir les émotions des autres. Or, les émotions sont un guide de l’action, de la motivation comme de la mémorisation – elles nous font fuir certaines choses, rechercher d’autres dans un jeu d’attraction-répulsion lié à des sensations (plaisir, souffrance), à des émotions primaires (joie, colère, peur, tristesse, dégoût, surprise), puis à des émotions secondaires en forme de sentiments plus élaborés, propres à la conscience humaine. C’est ainsi que l’homme est le seul animal à être doté d’une véritable « théorie de l’esprit », par quoi il faut entendre la capacité à se représenter l’état d’esprit d’un congénère tout en sachant que ce congènère se représente le nôtre.

Découverts voici un peu plus d’une dizaine d’années, les neurones miroirs s’imposent donc comme un champ de recherche majeur des années et décennies à venir. En vrac : analyser leur base génétique, leur différenciation cellulaire et leur communication moléculaire, comparer leur présence chez différentes espèces, notamment celles connues pour user de l’imitation (primates, oiseaux, cétacés), mesurer leur émergence dans le développement de la conception à l’âge adulte, évaluer les différences interindividuelles, analyser leur rôle dans l’apprentissage et l’aculturation, affiner les hypothèses sur les origines du langage, mieux comprendre certaines pathologies (autisme), produire un modèle plus élaboré de l’action, de l’intention et de la communication.

Les neurones miroirs tendent également un nouveau pont depuis la biologie et la psychologie vers la philosophie et les sciences sociales. A travers eux, on va modéliser de manière plus pertinente le processus de formation, de consolidation et de diffusion des croyances, des désirs, des connaissances, des pratiques ; on va donc progresser dans la matérialisation de la culture, que l’on se représente encore trop souvent comme une sorte d’entité abstraite et inaccessible au lieu de la poser au départ comme un processus émergent de l’interaction de cerveaux individuels dans un environnement donné. Le négatif ne sera d’ailleurs pas absent de cette quête : il est évident que les hommes se comprennent et partagent bien de choses, non moins évident que l’incompréhension et l’absence de réciprocité sont aussi omniprésents dans les rapports humains. Ou bien que ceux-ci prennent la forme de « rivalité mimétique », un concept forgé par René Girard à partir de données littéraires et anthropologiques, qui pourra à l’évidence se relire et s’approfondir depuis la recherche sur les neurones miroirs.

Référence :
Rizzolatti Giacomo, Corrado Sinigaglia (2008), Les neurones miroirs, Paris, Odile Jacob, 236 p.

Illustration : ibid.

Quelques réflexions sur la violence

L’homme est un animal violent. Et le mâle bien plus que la femelle. Pourquoi cette violence ? Parce qu’Homo sapiens cherche le maximum de ressources pour lui-même et les siens, mais que celles-ci sont en quantité limitée ou fluctuante – c’est le lot commun du vivant. Parce qu’Homo sapiens est une espèce sexuelle, et que la compétition est toujours féroce pour accéder aux partenaires du sexe opposé, puis les conserver. Parce qu’Homo sapiens est une espèce sociale, et que les sociétés animales produisent toutes des hiérarchies au sein des groupes et des conflits entre les groupes. Parce qu’Homo sapiens est une espèce consciente, et que la conscience aiguise les motifs de violence au lieu de les apaiser – elle nourrit l’impatience, l’humiliation, l’aigreur, la colère, l’envie, la jalousie, la hargne, la haine, le désir de vengeance, la volonté d’appropriation, toutes sortes de sentiments spécifiquement humains que l’on réprouve souvent, mais qui n’en accompagnent pas moins notre condition biopsychologique et qui nourrissent des explosions sporadiques de violence chez les individus ou les groupes. Depuis Homère ou la Bible jusqu’au dernier téléfilm ou jeu vidéo, la violence est omniprésente dans la fiction – avec l’amour, c’est en fait son thème majeur.
Quand on réfléchit à la société idéale ou au régime idéal, c’est un point qu’il faut garder en tête : que fait-on de cette violence ? Le capitalisme s’est pensé lui-même comme une solution à cette question : détourner l’ardeur des hommes de la guerre vers le commerce, canaliser la compétition dans la production et la consommation, noyer le conflit dans la jouissance et l’abondance. Lorsque le capitalisme doit se défendre de ses critiques, le premier argument qui lui vient à l’esprit est toujours celui de la violence : regardez les régimes nationalistes, fascistes, nazis, communistes, islamistes… est-ce ce débordement de contraintes, d’agressions, d’intolérances, de terreurs et de guerres que vous désirez ? Et inversement, bien des critiques du capitalisme lui reprochent d’être encore trop violent – violence désespérée des marges n’ayant d’autres moyens de survivre, violence froide des plans sociaux brisant des destins ou violence implicite des plans de carrière écrasant les voisins, violence rationalisée dans l’exploitation-destruction systématique de la Terre, violence organisée des guerres colonialistes et impérialistes pour accéder aux ressources.
Les Européens s’estiment souvent vaccinés contre la violence après avoir été saignés par deux guerres mondiales. Mais leurs sociétés plutôt paisibles, désengagées des conflits, paraissent l’exception plutôt que la règle. Et dans le siècle qui s’annonce, rien ne laisse présager la disparition de la violence comme problème majeur de la co-existence humaine.

23.4.08

Comment notre cerveau voit le monde

Un jour, le monde est gris, pesant, étranger. Un autre, le voici léger, vif, accessible. Le monde n’a pas changé d’un jour sur l’autre, ce sont seulement les connexions cérébrales du cerveau dépressif, cyclothymique ou bipolaire qui se sont modifiées et qui ont modulé différemment les processus perceptifs et cognitifs. Si vous êtes atteint de l’un de ces troubles, vous connaissez bien cette étrange transformation de la réalité et de la personnalité. Et vous savez bien que les autres - ceux qui ne sont ni dépressif, ni cyclothymique, ni bipolaire - ne parviennent pas réellement à comprendre ce que vous ressentez, ce qui rend la communication si difficile. Il en va bien sûr de même pour toutes les autres pathologies de l’esprit, dont certaines ont des effets plus prononcés encore – le schizophrène vit de manière intermittente dans le monde parallèle de sa psychose, l’autiste est incapable de communication sociale mais développe certaines aptitudes étonnantes, etc.

Il ne faut pas s’arrêter en si bon chemin : le cerveau dit normal connaît de nombreuses variations de tempéraments et d’aptitudes, que l'on commence seulement à explorer. Il n’y a pas de raison de penser que celles-ci n’influencent pas profondément la manière dont nous voyons le monde, nos croyances comme nos raisonnements. Regardez les débats contradictoires : des individus d’intelligence et de culture comparables défendent avec acharnement des conclusions opposées sur ce qu’il faut faire ou ne pas faire, penser ou ne pas penser, croire ou ne pas croire. On dit en général que ce désaccord résulte d’une dissymétrie d’informations, les connaissances et les expériences n’étant jamais les mêmes. Et s’il résultait autant, voire plus, d’une complexion différente du cerveau, de certaines inclinaisons innées ou précocément acquises dans le développement, préconditionnant le traitement des connaissances et des expériences dans un certain sens plutôt que dans un autre ? L’exploration scientifique du cerveau est dans l'enfance et ce continent inconnu n’a dévoilé que bien peu de ses secrets. Ce qu’on y découvre modifie peu à peu la manière dont on se pense et dont on pense les autres. Comme chez le dépressif, l’autiste ou le schizophrène, on pourrait bien s’apercevoir que des variations somme toute minimes produisent peu à peu des différences majeures dans la perception et la compréhension de la réalité.

Céréales au petit dej' et garçons au berceau

Fiona Mathews (Université d’Exter, Royaume-Uni) et son équipe ont examiné 740 femmes enceintes, en analysant particulièrement leur régime alimentaire au moment de la conception. Le groupe a été divisé en trois catégories selon la richesse calorique du régime (haute, moyenne et basse énergie). Résultat : plus le régime est calorique, plus forte est la probabilité d’avoir un garçon (56% pour le groupe à la nourriture la plus riche contre 45% pour le groupe à la nourriture la plus faible). La différence la plus prononcée a été relevée en fonction de la part des céréales au petit-déjeuner (59% contre 43%). Selon les chercheurs, il se pourrait que la baisse de naissance des garçons observée dans les sociétés occidentales soit due à des déséquilibre nutritionnels, notamment à l’habitude de sauter le petit déjeuner dont les calories sont les mieux métabolisées.

Ce résultat n’est pas tout à fait une surprise : les éleveurs ont déjà constaté depuis longtemps que les régimes caloriques augmentent la probabilité d’obtenir des naissances mâles chez les animaux. Et en laboratoire de fécondation in vitro, les embryons humains mâles survivent mieux si le milieu de culture cellulaire est riche en glucose. C’est en fait une bonne illustration des rapports gène-environnement et des processus discrets de l’évolution par sélection naturelle. Les garçons pèsent plus lourd que les filles (100 grammes en moyenne à la naissance), provoquent des grossesses plus difficiles, ont une mortalité plus importante dans les tout premiers âges de la vie : un environnement riche du point de vue nutritif agirait comme un signal pour favoriser la conception de naissances mâles. On sait par exemple que les périodes d’après-guerre, lorsque les restrictions alimentaires sont levées, voient un sex-ratio des naissances déséquilibré en faveur des garçons.

Référence :
Mathews F. et al. (2008), You are what your mother eats: evidence for maternal preconception diet influencing foetal sex in humans, Proc. Roy. Soc. B, Bio Sci, online pub, doi : 10.1098/rspb.2008.0105

22.4.08

La société et ses apories

Propos de Dominique Méda (sociologue) dans une tribune du Monde :

« Le développement d'une société ne dépend pas seulement de la valeur des biens et services produits et appropriés par des unités de consommation, mais aussi de beaucoup d'autres éléments : de la qualité de l'air et de l'eau, de l'aptitude des individus à la paix, de leur capacité à être autonomes, de leur niveau d'éducation et de santé, de la capacité de la société à maintenir ses membres dans une relative égalité des conditions. Dès lors, un nouvel indicateur de richesse ou une nouvelle batterie d'indicateurs devront permettre de donner une image plus pertinente des évolutions de la société, sans doute plus "vitale" que celle que donne le PIB. Ces nouveaux indicateurs devront permettre d'élaborer puis d'évaluer les politiques mettant en œuvre ce que le Programme des Nations unies pour le développement (PNUD) appelle le développement humain. »

Cela consiste à dire in fine qu’une société dépend des politiques mises en œuvre pour la faire survivre en temps que société : on crée un indicateur pour vérifier que les individus se comportent bien socialement, et s’ils ne le font pas, un pouvoir socialise à leur place. Ce qui laisse entendre que les hommes ne seraient pas des animaux très sociaux, au bout du compte, mais pourtant rien n’en témoigne dans toute l’évolution de notre espèce... En fait, je crois surtout que Dominique Méda défend une certaine idée de la société (plutôt environnementaliste et égalitariste semble-t-il) ainsi qu’un certain rapport de l’État à la société. C’est tout à fait légitime, mais ce qui l’est moins, c’est de prétendre que cette vision particulière se confond avec « la » société ou « le » développement de la société : c’est une certaine vision politique du bon comportement social, et cela devrait être clairement posé comme tel.

Plus loin :

« Sommes-nous prêts à admettre que le fait même d'être en société nous importe et que la cohésion de cette société constitue un bien commun qui a une valeur ? Beaucoup d'économistes en doutent. Et s'interdisent même de parler de "la société", voyant dans cette expression une abstraction dangereuse et refusant a fortiori de qualifier la société ou ses évolutions. Or, comme le défend Axel Honneth, si nous sommes capables de désigner certaines évolutions de la société comme pathologiques, c'est bien parce que nous nous référons à des principes éthiques et à des normes, et que nous sommes capables d'expliciter les critères d'une vie réussie. Pour nous y aider, nous avons non seulement besoin d'économistes, mais aussi de chercheurs de toutes disciplines, et surtout des citoyens eux-mêmes. Le débat démocratique et la participation de tous les citoyens constituent des éléments essentiels dans la quête de ce que sont les ingrédients et les critères d'une société qui permet à tous ses membres de devenir pleinement des sujets et des individus toujours plus civilisés. Nous n'avons pas besoin du "dictateur bienveillant" de l'économie pour nous le dire. »

Même problème, bien sûr, mais avec des confusions supplémentaires. J’ignore qui peut légitimement décréter que telle ou telle évolution d’une société est « pathologique » et même ce que signifie cette étrange médecine sociale. Pareillement, tout le monde est prêt à admettre que le fait d’être en société est une donnée importante de l’existence humaine au même titre que boire ou manger : mais personne n’a de raison a priori de s’accorder au-delà sur des « principes éthiques » et des « normes » de la « vie réussie », pas plus que l’on ne s’accorde sur la qualité ou la quantité de ce que l’on veut boire ou manger. Il n’est que trop évident que les hommes ont toujours divergé sur ce point et que le débat démocratique organise la confrontation de ces divergences sans les résoudre pour autant. Faute de quoi on ne serait pas là à poser le problème, puisque les innombrables interactions humaines auraient fini par converger vers un ordre social optimal accepté par tous.

Dans tout cela, c’est à mon sens la référence à « la » société qui crée des apories. Pas parce que de méchants économistes affirment que l’individu égoïste et calculateur est la seule réalité tangible, ce qui est faux bien sûr. Mais parce que la socialisation humaine ne produit rien qui ressemble vraiment à « la » société abstraite dont parle Méda, plutôt des tribus, des communautés, des réseaux, des associations, toute une diversité de liens plus ou moins denses que le couple Etat-société n’a pas réussi à gommer ou sublimer, même dans les pays centralisés et bureaucratisés de longue date comme la France. Au-delà de la socialité primaire, finalement assez stable depuis le début de notre évolution (des réseaux relationnels directs faisant 150 personnes en moyenne selon l’anthropologue Robin Dunbar), la socialité secondaire est une question plus fonctionnelle et instrumentale qu’axiologique et éthique : il est inutile de chercher des consensus sur la « vie belle et bonne » d’une société de masse, on aboutira surtout à des dictatures de la majorité sur des minorités ou à des contraintes autoritaires sur le désir d’autonomie que la modernité a libéré. Il serait préférable de poser la question de manière plus rationnelle, en termes de minimum social commun que l’on est prêt à accorder à tous, en laissant à chacun de soin de développer librement des maxima sociaux à hauteur de ses désirs.

21.4.08

Sur l’effet Flynn, ses causes et ses limites

Depuis leur création au début du XXe siècle, la plupart des tests de QI sont standardisés. Ils sont aussi régulièrement actualisés, pour que leur mesure corresponde bien à une moyenne dans la population, conventionnellement fixée à 100. En 1987, James Flynn, professeur à l’Université d’Otago (Nouvelle-Zélande), a eu l’idée d’observer l’évolution du QI à travers les générations. Il eut la surprise de constater que celui-ci progressait régulièrement depuis cinquante ans, de l’ordre de 3 points par décennies (pour le QI évalué par l’échelle de Weschler), parfois plus (jusqu’à 7 points par décennies dans certains pays pour le QI évalué par les matrices de Raven). Une population d’enfants au QI de 100 qui passerait aujourd’hui un test des années 1960 obtiendrait en moyenne 115. Cette progression régulière du QI, observée dans la vingtaine de pays industrialisés où elle a été testée, est désormais appelée « effet Flynn », du nom de son découvreur.

Une abondante littérature a tenté d’expliquer cet effet Flynn. En général, les causes génétiques ont été mises de côté puisqu’il n’y a pas de raison de penser que nos gènes aient connu une évolution notable en l’espace de trois ou quatre générations. On a donc évoqué diverses causes environnementales, parmi lesquelles la nutrition de la mère et de l’enfant (quantité plus importante de viandes, de graisses, de sucres, etc. favorisant le développement du système nerveux), la généralisation des vaccins et des antibiotiques (certaines maladies infantiles peuvent altérer le développement du cerveau), le progrès de l’alphabétisation et de l’éducation, la stimulation intellectuelle liée à la complexification des modes de vie, la banalisation des tests psychométriques et la meilleure anticipation des réponses, la libéralisation de l’avortement (éliminant certains handicaps mentaux et plus souvent pratiqué chez les individus à QI en dessous de la moyenne de leur population), la réduction de la fécondité finale et l’investissement parental (plus de soins et de stimulations apportés à moins d’enfants par famille).

Deux papiers viennent de se pencher sur cet effet Flynn, l’un pour constater sa limite, l’autre pour en proposer une explication originale.

Dans le premier article, Elbert W. Russell apporte une mauvaise nouvelle : l’effet Flynn pourrait bien ne plus être une réalité, c’est-à-dire que le QI moyen des populations de pays industriels ne montre plus de gains significatifs. Un tel résultat serait une illustration de l’effet plateau, assez connu en biologie : quand un trait dépend en partie de l’environnement, ce dernier atteint souvent une configuration optimale au-delà de laquelle le trait ne montre plus de variations significatives. Par exemple, il est connu que les enfants d’immigrants japonais aux États-Unis sont plus grands que leurs parents, mais le gain relatif de taille diminue génération après génération, et finit par se confondre avec l’évolution de la population générale. Russell note que deux études récentes au Danemark (Teasdale et Owen 2005) et en Norvège (Sundet et al. 2004) ont documenté un plateau cognitif, c’est-à-dire une stagnation du QI moyen des nouvelles générations par rapport aux anciennes. Il suggère que les pays nordiques ayant mis assez tôt un système redistributif égalitaire sont aussi les plus susceptibles de voir diminuer rapidement l’effet Flynn. Une autre étude n’a pas retrouvé de gain de QI dans la population australienne (Cocolia et al. 2005). Dans sa propre analyse portant sur les États-Unis et le test de Weschler, Russell suggère que les Nord-Américains ont eux aussi atteint leur plateau cognitif, les gains récents étant mineurs et résultant probablement des changements de normalisation entre le WAIS-R e le WAIS-III (deux versions successives des échelles de Weschler).

Le second papier, de Michael A. Mingroni, envisage l’effet Flynn sous un angle plus intéressant. Beaucoup de chercheurs, dont James Flynn lui-même, ont insisté sur un paradoxe apparent : l’intelligence (telle que mesurée par les tests de QI) est un trait à forte héritabilité, de l’ordre de 0,8 chez l’adulte (80% des différences d’intelligence dues aux gènes) ; cette héritabilité ne semble pas avoir été modifiée au fil des générations ; elle est suffisamment élevée pour rendre problématiques les gains de QI observés si ceux-ci ne proviennent que de l’environnement (selon Flynn, il faudrait pour cela une héritabilité plus proche de 0,6, mais ce n’est pas la conclusion des études de génétique du comportement).

Comment faire tenir ensemble ces différentes observations ? Mingroni souligne tout d’abord que l’intelligence n’est pas isolée : des traits également connus comme ayant une héritabilité plus ou moins importante ont évolué au cours des dernières décennies (la taille générale, le volume du cerveau, l’autisme, la myopie, l’asthme et l’allergie, l’hyperactivité avec déficit d’attention, etc.). Il propose ensuite que l’effet Flynn n’est pas dû uniquement à l’environnement, là où tout le monde le cherche : par exemple, on n’observe pas de tendance significative entre les aînés et les cadets des familles, même quand les naissances sont séparées par une décennie ou deux (ce qui devrait produire en moyenne 3 à 6 points de gain de QI). Pour expliquer l’effet Flynn, Mingroni fait appel à un mécanisme appelé hétérosis ou vigueur des hybrides, bien connu chez les éleveurs et cultivateurs : si un trait a une base génétique, si les gènes (ou la majorité des gènes) de ce trait sont dominants, plus la population connaîtra un large brassage génétique (panmixie reproductive), plus on trouvera d’individus hétérozygotes pour ces gènes et plus le trait sera finalement exprimé. Son hypothèse, dont il fixe cinq prédictions à tester de manière quantitative, est donc que le gain d’intelligence au fil des générations serait surtout dû à une baisse de l’endogamie (reproduction au sein de classes cognitives avantagées ou désavantagés, les premières montrant un excès en homozygotes, les secondes un déficit en hétérozygotes), consécutive à des phénomènes comme la plus grande mobilité des individus, l’urbanisation et le déclin des isolats paysans, etc. Il suffit que la mixité sociale (donc reproductive) se trouve un plus prononcée en 1990 qu’en 1960, en 1960 qu’en 1930, etc. L’hypothèse de Mingroni n’est pas incompatible avec l’effet plateau documenté par Russell : plus les gènes d’un trait donné sont brassés dans une population, moins la variation de trait en question sera notable.

On verra à l’avenir si l’observation d’une stagnation du QI se confirme et si l’hypothèse de l’hétérosis est validée. Dans ce cas, il sera difficile d’obtenir des gains cognitifs supplémentaires, sauf si l’on venait à intervenir directement sur les gènes associés à l’intelligence chez les individus et les populations.

Références :
Mingroni M.A. (2007), Resolving the IQ paradox : Heretosis as a cause of the Flynn Effect and other trends, Psychological Review, 114,3, 806-829.
Russell A.W. (2007), The Flynn Effect revisited, Appl. Neuropsychology, 14, 262-266.
(Merci aux auteurs de nous avoir communiqué leurs articles).

Après le geste et la parole

Aux Pays-Bas, l’IMEC (Interuniversity Microelectronics Centre), une société privée spécialisée en micro- et nanotechnologies, vient de produire un électro-encéphalographe portatif et autonome. L’appareil, qui ressemble à deux gros écouteurs audio, tire son énergie de deux sources : batteries solaires d’une part, différence thermique entre l’air ambiant et le corps d’autre part. Le premier débouché sera hospitalier, puisque l’appareil produit des EEG de qualité comparable aux enregistrements effectués avec des systèmes fixes. Mais des applications sont également à l’étude pour les jeux, avec possibilité de traduire directement des signaux cérébraux en commande machine, ou pour des usages médicaux, comme l’anticipation de crise d’épilepsie. D'autres techniques, comme des systèmes à spectroscopie infrarouge analysant les flux sanguins des réseaux neuronaux (et non plus leur activité électrique), sont également en train d'émerger. Un petit avant-goût des innovations qui permettront à l'avenir de communiquer sans passer par les deux moyens privilégiés d'expression de notre cerveau, le geste et la parole.

Illustration : IMEC.

18.4.08

Quatre erreurs sur le darwinisme

L’année 2009 sera celle du bicentenaire de la naissance de Charles Darwin, et des 150 ans de la parution de l’Origine des espèces. On peut espérer que cette actualité commémorative permettra de dissiper un certain nombre de malentendus. Ceux qui n’ont pas lu Darwin, et surtout l’immense littérature visant depuis lui à appliquer la théorie de l’évolution à l’homme, continuent en effet de commettre à ce sujet des erreurs déjà anciennes. En voici au moins quatre.

Première erreur, l’anthropocentrisme indirect : « le darwinisme s’applique peut-être aux animaux, mais ne concerne pas l’homme ». Cela n’a pas de sens puisque l’homme est un animal et que tout trait humain ayant une base génétique, même s’il est fort différent du reste du vivant, subit la loi darwinienne d’évolution et adaptation par sélection des mutations favorables. Toutes nos facultés intellectuelles dites supérieures sont le produit de l’évolution — Darwin lui-même était bien conscient (et effrayé) de cela.

Deuxième erreur, la politisation naïve : « le darwinisme, c’est la loi du plus fort et la justification du monde tel qu’il est ». Cette critique concerne une version dix-neuvièmiste du darwinisme, surtout due à Herbert Spencer, mais elle fantasme sur des positions archaïques n’existant plus guère que dans les livres d’histoire des idées politiques, et n’ayant donc rien à voir avec le contenu de la recherche évolutionniste depuis quelques décennies. En tout état de cause, la théorie de l’évolution offre un niveau d’observation, description et modélisation du vivant, humain inclus, mais ne cherche pas à produire de justification particulière à ce qu’elle observe, décrit et modélise. Elle émet des jugements de fait, pas des jugements de valeur, elle sécrète des hypothèses, des prédictions et des modèles. Tout au plus disqualifie-t-elle les visions trop étroites d’un phénomène, les erreurs naïves dans les attributions de causalité.

Troisième erreur, l’antiscientisme assumé : « on peut très bien penser le monde présent et futur sans rien connaître aux travaux évolutionnistes, ni à la science en général ». Tout dépend ce que l’on appelle penser. Mais si l’on entend par là une réflexion sur la manière dont l’homme exprime ses caractéristiques d’espèce, sur la façon dont il se comporte vis-à-vis de lui-même et de ses semblables, sur les constantes et variations de son existence sociale, morale ou politique, méconnaître les sciences de l’évolution et du développement revient à produire des constructions théoriques sans bases solides, ayant tendance à tourner en roue libre sur leurs propres interprétations, à multiplier des niveaux d’explication inutiles et stériles, avec une probabilité non nulle de dégénérer en charabia ou en charlatanerie.

Quatrième erreur, l’étroitesse de vue : « le darwinisme s’applique à la nature, pas à la culture ». L’élégance et la portée de la théorie de l’évolution résident dans l’explication d’une énigme millénaire : comment du chaos apparent émerge l’ordre dans le temps, comment le hasard semble se soumettre à un dessein, comme la complexité peut être produite par des instructions simples. Tout groupe d’entités présentant trois propriétés suffisantes – réplication, fidélité relative de la réplication, longévité de la réplication – obéit à l’algorithme darwinien de l’évolution par sélection des mutations favorables au sein de ce groupe, « favorables » signifiant simplement se répliquant mieux que d’autres entités de même nature dans un même environnement. L’homme étant une espèce dont la culture procède fondamentalement par imitation, c’est-à-dire réplication différentielle, cela signifie que l’approche évolutionniste a et aura son mot à dire sur les idées comme sur les pratiques, sur tout ce qui se réplique en se modifiant progressivement dans le temps et en colonisant le milieu si particulier de nos cerveaux.

Nota : le Dr John van Wyhe coordonne la publication des oeuvres complètes de Charles Darwin en ligne, sur ce site (anglais). L'illustration de cet article en est extraite. On trouvera beaucoup d'informations et de données (en français cette fois) sur ce site, auquel j'ai eu le plaisir de contribuer lors de mise en place.

17.4.08

Virologie de l'alarmisme

Le virus de la grippe nous fait tousser et éternuer. Ce n’est pas un hasard, puisque la grippe se transmet par voie respiratoire. Le virus Ebola, qui se transmet par tout contact avec des fluides corporels, provoque suées, diarrhées, vomissements et hémorragies. Ces stratégies virales sont des exemples classiques de l’évolution naturelle, qu’il s’agisse de leur mode de transmission ou de la relation hôte-parasite en fonction de la virulence, l’un et l’autre très variables.

Les idées sont des virus comme les autres, sauf qu’elles colonisent nos cerveaux. Elles possèdent leurs stratégies de réplication et de diffusion, pas toujours conscientes chez ceux qui les émettent ou les transmettent. Prenons « l’au-delà », cet excellent virus. Dire à quelqu’un « si tu continues de faire ceci ou cela, tu vas souffrir demain », cela n’est pas très efficace, car en l’absence de souffrance le lendemain, le cerveau va rejeter l’ensemble. Mais dire « si tu continues de faire ceci ou cela, tu vas souffrir dans l’au-delà », cela s’est révélé très performant : le virus de l’au-delà reste souvent en place, surtout s’il a colonisé de jeunes cerveaux dont le système immunitaire n’est pas bien armé contre ce genre d'infection mentale.

Ce virus de l’au-delà est plutôt en perte en vitesse. Alors il mute, surtout dans nos sociétés industrialisées et désenchantées. Prenons le catastrophisme ambiant en plein de domaines (le climat, la génétique, le nucléaire, etc.). Il n’utilise plus l’au-delà, mais un avenir assez lointain pour qu’on ne puisse pas le vérifier (les générations futures). En plus, ce virus mental a eu l’habileté de se coupler avec un autre, l’amour que l’on porte naturellement à sa progéniture. Ce qui donne des formules très efficaces, comme : « Si tu continues de faire ceci ou cela, tu vas faire souffrir tes petits-enfants ». C’est aussi terrifiant que l’au-delà, et aussi difficile à vérifier. Parfois, cela produit un croyant buté, réplicateur idéal du virus dans sa catégorie. Parfois, cela sème simplement le doute et dans le doute, on préfère encore obéir au précepte associé au virus - les réplicateurs sont là aussi efficaces dans leur catégorie, car ceux-là paraissent de surcroît raisonnables.

Tout cela ne signifie pas qu’un discours alarmiste ou catastrophiste est nécessairement faux, bien entendu. Mais il existe une probabilité non négligeable que l'essentiel de ce discours soit une manipulation autoréplicative sans fondement réel. Quand vous le lisez ou l'entendez, votre premier réflexe devrait être de supprimer ses virus périphériques et d’aller au cœur du propos, pour vous faire une idée de sa solidité. Evidemment, le coût social de cette prophylaxie mentale est qu'un certain nombre de journalistes et d'intellectuels seraient condamnés au chômage technique. Déjà que les curés et les prêtres sont une espèce en voie de disparition…

Illustration : virus influenza A en phase réplicative (Yoshihiro Kawaoka et al. in Nature 2006)

c^2 = 0 (ou comment ne devient-on pas ce que l’on est)

Depuis quelques décennies, la génétique du comportement répond à sa manière à la vieille question : comment devient-on ce que l’on est ? Elle ne prétend évidemment pas y apporter une réponse exhaustive ni définitive, encore moins une réponse individuelle fondée sur l’analyse au cas par cas, plutôt fournir un cadre général de compréhension appuyé sur des estimations quantitatives (travaux sur les populations). La génétique du comportement distingue trois grandeurs dans son objet d’étude : h^2, c^2 et e^2 (1). La première désigne l’héritabilité (part des gènes dans la variance interindividuelle), la seconde l’environnement partagé (part de la famille), la troisième le reste (environnement non partagé et biais).

Ces trois valeurs prennent tout leur sens dans les études de fratries, où l’on peut distinguer c^2 et e^2 : on observe des frères et des sœurs, parfois vrais et/ou faux jumeaux, parfois demi-frères et demi-sœurs (un membre de la fratrie adopté), à différents âges de leur vie. Et l’on essaie ainsi de comprendre à diverses étapes de l’existence l’influence relative des gènes, de l’environnement partagé (la famille et ses événements, comme les séparations et divorces, les habitudes de vie et leurs évolutions, la nutrition, le milieu immédiat du domicile), de l’environnement non partagé (ce que chaque enfant fait ou subit en propre par rapport à ses frères ou soeurs). Ces études portent sur les traits de personnalité, les aptitudes cognitives, parfois les troubles de l’esprit : tout cela est observé et quantifié par des examens, des tests ou des questionnaires. Les recherches en génétique du comportement concernent généralement de grands nombres, ce qui est indispensable à une démarche scientifique (quantitative et reproductible) et ce qui permet de minimiser les biais dus à des cohortes de trop petites dimensions. A titre d’exemple, les deux traits de personnalité appelés neuroticisme et extraversion ont été analysés sur 4766 paires de jumeaux en Finlande, 12 988 en Suèdes, 2793 en Australie, 20 754 aux Etats-Unis. L’intelligence (facteur g), trait le plus étudié et de loin, a mobilisé des quantités bien plus importantes et depuis plus longtemps. Même si le cadre est le plus souvent celui de populations occidentales, on voit que le nombre de sujets impliqués donne une certaine consistance aux travaux – qui, rappelons-le encore car le point est important et incompris, ne vise pas à dire comment l’individu X ou Y est arrivé à telle ou telle disposition psychologique à l’âge de 20 ans, mais à déterminer pour quelles raisons les individus X, Y et tous les autres en situations comparables diffèrent sur l’expression de cette disposition psychologique.

John Loehlin
, une figure déjà historique de la génétique du comportement travaillant au département de psychologie de l’Université du Texas, revient dans ce court papier de synthèse sur une découverte frappante, établie dès les années 1970, confirmée depuis et que l’on peut résumer d’une simple formule : c^2 = 0. Cela signifie que pour un grand nombre de traits de cognition ou de comportement étudiés chez l’adulte, l’influence partagée de l’environnement familial est à peu près nulle. Les frères et les sœurs devenus adultes se comportent de telle manière que l’on ne peut pas vraiment distinguer une influence de leur famille, les traits caractérisant leurs différences provenant soit de leurs gènes, soit de leur environnement non partagé (c’est-à-dire de ce que les frères et les sœurs développent en propre à mesure qu’ils grandissent, plutôt que ce qu’ils subissent en commun, cet environnement non partagé étant souvent le fruit d’une interaction gène-environnement).

Comme le souligne Loehlin, ce n’est pas vrai pour tous les traits (des travaux ont montré que la disposition à l’autonomie, par exemple, possède une composante familiale assez forte même à la fin de l’adolescence, de l’ordre de 0,48 pour c^2). Mais surtout, cela ne signifie pas que les familles n’ont aucune importance : elles sont bien sûr indispensables à un développement de l’enfant, et la valeur de c^2 est d’ailleurs plus élevée aux jeunes âges. Quand on examine des enfants de 5 ans, leur environnement familial pèse lourd dans les différences. Mais ce sera de moins en moins vrai au cours du développement, à 10 ans, 15 ans et 20 ans. Si les familles sont importantes, elles ne semblent donc pas pour autant déterminantes dans la construction des différences entre individus. Ces dernières proviennent plutôt des gènes et différents rapports gènes-environnements (interaction de nature passive, active ou réactive, selon que les gènes se confondent avec l’environnement – des parents névrosés produisent un cadre de vie névrosé et transmettent en même temps les gènes de leur névrose -, réagissent à l’environnement – un enfant prédisposé à la timidité et moqué par ses camarades se rétracte sur sa timidité -, ou produisent l’environnenment – un enfant prédisposé à l’intelligence et à l’introversion ira plus facilement dans une bibliothèque que sur le terrain de sport, dans sa chambre pour travailler que dans la rue pour jouer, etc.). Dans la dernière partie de son papier, Loehlin propose neuf pistes de travail pour améliorer la précision des études de génétique du comportement sur ces différents points.

La conclusion provisoire que l’on peut en tirer de ces 30 ans d’analyse scientifique du comportement humain va à l’encontre de l’idée reçue (et encore souvent transmise) selon laquelle nous sommes essentiellement les produits des influences parentales : quand on regarde les différences psychologiques entre adultes, dans les populations occidentales, l’héritage génétique est important, les expériences personnelles aussi, mais le passé familial ne l’est guère. Et les travaux disponibles sur d’autres civilisations, asiatiques notamment, ne vont pas à l’encontre de cette observation pour le moment. A côté de cela, l’odeur d’une madeleine peut éveiller un immense flot de souvenirs lointains. Mais quand on ne prétend pas faire de la littérature et plutôt réfléchir sur les traits communs des humains, un regard sur les sciences permet de se détacher de certaines croyances et de se forger une image un peu moins fausse, à défaut d’être absolument vraie, des destinées de l’Homo sapiens.

(1) Cette plateforme ne permet pas de mettre les exposants des puissances, il faut bien sûr lire h,c et e au carré.

Référence :
Loehlin J. C. (2007), The strange case of c2 = 0: What does it imply for theories of behavioral development?, Res. Hum. Devel., 4, 151-162. (Merci à l’auteur de nous avoir transmis son papier).

Illustration : The Dining Room (2007), Richard Jackson (galerie Georges-Philippe et Nathalie Vallois)

16.4.08

L'homme est-il un nuage comme un autre ?

Quand un chercheur étudie les nuages, il le fait en connaissant les lois physiques générales expliquant l’existence des nuages comme du reste (conservation de l’énergie, de la quantité de mouvement, du moment angulaire, etc.) et en développant une physique particulière adaptée à la nébulosité (convection, condensation, nucléation, etc.). Il s’assure bien sûr de la cohérence et de l’intégration de l’ensemble, c’est-à-dire qu’il n’invente pas gratuitement des lois physiques ou chimiques incompatibles avec le reste du corpus scientifique. Et il cherche toujours les explications les plus simples, c’est-à-dire la modélisation du plus grand nombre d’effets par le plus petit nombre de causes.

Quand il s’agit d’étudier les hommes, on ne procède pas ainsi. Des tas d’intellectuels, experts, philosophes ou autres spécialistes en "-logues" énoncent des généralités sur tel ou tel phénomène humain – la société, l’esprit, le langage, l’intelligence, la violence, ce que vous voulez – sans rien connaître de ce que disent éventuellement les sciences de l’évolution et du développement sur ce phénomène, en posant donc qu’ils n’ont pas à faire l’effort de s’intégrer dans une vision d’ensemble cohérente dont chaque domaine spécialisé est compatible avec les autres, en présumant que la biologie et la psychologie sont finalement indifférentes aux faits sociaux, moraux, politiques ou autres. Ce schisme entre science de la nature et science de la culture date du XIXe siècle. Il a prospéré au XXe siècle. Mais il ne survivra pas au XXIe siècle.

15.4.08

Sur la Mutation (4) : l’homme, espèce métamorphique

L’expression mutant ou mutation provient des sciences de la vie, de la génétique en l’occurrence. Cette provenance n’est pas neutre. L’approche scientifique de l’homme et du vivant a en effet bouleversé notre représentation du monde depuis deux siècles, et elle continue de le faire. Non seulement elle débarrasse l’univers de l’hypothèse inutile d’un dieu créateur, mais elle déstabilise le rapport de l’homme à lui-même — les fameuses humiliations coperniciennes, darwiniennes, freudiennes, ayant détrôné la terre, l’homme, la conscience de leur place centrale dans nos représentations de nous-mêmes.

Ce que la science détruit méthodiquement sans en avoir toujours la conscience ni la volonté, c’est ainsi une certaine image de l’Homme à majuscule initiale, de l’Homme comme une essence stable, identique, générique, dont les propriétés seraient interchangeables d’un individu à l’autre, de l’Homme comme identité spirituelle substantiellement différente de ses propriétés matérielles. Un Homme qui, chez certains, avait pris la place laissée vacante par Dieu. La science caractérise bien sûr l’humanité comme une espèce, et donc l’humain comme présentant certains patterns communs de développement, de comportement ou de reproduction. Mais par la nature même de son travail intellectuel, la science ne s’arrête pas à cet en-commun. Au contraire, la démarche expérimentale exige de se concentrer sur toutes les différences observables, pour ensuite les modéliser, c’est-à-dire comprendre l’émergence et la persistance des différences observées dans un même champ d’étude. La science va donc s’intéresser aux variations des choses, des êtres et des relations. L’homme tel qu’il émerge après deux siècles de sciences de la vie n’a plus grand chose à voir avec l’Homme tel que l’avaient légué les philosophies et les religions. Le matérialisme a procédé à un lent travail de sape de l’idéalisme. Mais son message n’est pas encore entendu, ni sa portée comprise.

L’examen scientifique de l’homme dévoile donc la différence, la variation et la singularité. Que faut-il entendre par là ? D’abord, il a existé plusieurs espèces humaines, il en existera plusieurs – ou plus aucune, peut-être. Les paléo-anthropologues estiment que 6 à 8 espèces humaines ont émergé et disparu au cours des trois derniers millions d’années, dont trois auraient co-existé à une date relativement récente (voici 30 000 à 50 000 ans, Homo neandertalensis, Homo floresiensis, Homo sapiens). Seule Homo sapiens, la nôtre, a survécu. Cette nouvelle représentation géologique et biologique ne définit pas l’homme comme un état, mais comme un résultat provisoire, celui du processus d’hominisation que l’on caractérise par la variation progressive de certains traits : la taille du cerveau ou encéphalisation, la bipédie, la maîtrise de l’outil, le langage articulé. Toutes les espèces humaines, et avant elles les espèces pré-humaines nous séparant de l’ancêtre commun avec les bonobos et chimpanzés (6-8 millions d’années), se sont progressivement différenciées par des ajustements successifs, des variations locales, des petites propriétés ajoutées ou retirées à leur constitution biologique, notamment à leur cerveau.

Le phénomène n’est pas spécifique à l’homme : toute la vie obéit au principe darwinien d’évolution par mutation-sélection-reproduction. C’est ainsi que des formes unicellulaires baignant dans la soupe primitive de la vie terrestre ont donné la prodigieuse variété des formes vivantes que nous connaissons, plus prodigieuse encore si l’on additionne les formes ayant existé jadis, mais ayant fini par s’éteindre faute de descendance. La vie se déploie comme un processus ouvert de différenciation et de complexification, avec au départ une réplication associée à un algorithme simple d’essai et d’erreur : une petite différence génétique produit une petite différence phénotypique, laquelle est conservée ou rejetée par la sélection. La mutation aléatoire change un détail, ce détail change l’existence, s’il la change dans un sens neutre ou positif pour l’organisme, le détail sera préservé et répliqué, s’il la change dans un sens négatif, le détail sera supprimé et l’organisme avec lui. Le positif ou le négatif en question ne sont pas des jugements de valeur, mais des observations de fait : ce qui favorise ou défavorise la croissance et la réplication d’un organisme, ce qui lui permet de mieux profiter des ressources, de mieux utiliser l’énergie, de mieux échapper aux prédateurs, de mieux traiter l’information, de mieux trouver un partenaire (pour les espèces sexuées) ou un hôte (pour les parasites). La reproduction différentielle des organismes est la sanction ultime, c’est-à-dire la réplication plus ou moins efficace d’un individu par rapport à ses congénères. Mais surtout la réplication de ses gènes puisqu’ils sont la seule chose qui se transmet réellement, matériellement, entre les générations. Un trait ou un comportement n’impliquant pas à un degré ou à un autre les gènes échappe à l’évolution par sélection naturelle. De ce point de vue, le génome est le conservatoire de l’intelligence adaptative du vivant en général, de chaque espèce en particulier. L’accumulation au fil des générations de ces mutations concernant de petits détails différencie peu à peu les individus, les populations et les espèces, leur permet de se simplifier ou de se complexifier (en gagnant ou perdant certaines structures associées à certaines fonctions), les autorise à coloniser des milieux disponibles. Toute espèce, homme compris, se présente donc comme une vaste collection de mutants dont certains vont se reproduire, d’autres non. Et cette reproduction différentielle fera lentement muter l’espèce, ou la divisera en de nouvelles espèces.

Le constat d’une évolution biologique de l’homme et d’une pluralité récente d’espèces humaines est bien sûr aux antipodes de la Création biblique, plus généralement de toutes les croyances prémodernes présentant l’homme comme venu au monde d’un seul coup en sa forme actuelle. Même pour ceux qui ne partagent pas ces visions religieuses, il est encore difficile de s’imaginer l’homme comme un « work in progress ». Nous établissons nos représentations intuitives sur ce que nous observons au cours de notre existence, et nous n’intégrons pas le temps long de l’évolution. Il y a toutefois quelques indices nous aidant à représenter la variabilité humaine. Par exemple, la diversité ethnique. Tous les hommes actuels sont issus d’une petite population d’ancêtres communs ayant vécu en Afrique voici environ 300 000 ans. Ces ancêtres étaient par définition assez homogènes, semblables entre eux comme peut l’être telle ou telle tribu de chasseurs-cueilleurs actuels. Or, il n’échappe à personne aujourd’hui que des populations de Kungs, d’Inuits, de Scandinaves, de Hans et de Papous présentent des différences moyennes de taille, de pigmentation, de pilosité, de carrure, etc. L’isolement géographique, les barrières culturelles, l’assortative mating et l’endogamie ont suffi à faire varier rapidement le type commun originel. Mais cette diversité ethnique elle-même est peu de chose comparée à la diversité individuelle : au sein d’une même population, on constate des variations importantes dans tous les traits mesurables, qu’ils soient physiques ou psychologiques. On avait longtemps pensé que l’espèce Homo sapiens était restée génétiquement stable depuis son apparition en Afrique. Mais ce n’est pas le cas, et les travaux les plus récents de la biologie moléculaire indiquent que bon nombre de gènes humains ont connu une sélection positive (non-aléatoire), sélection qui s’est même accrue à mesure que l’on se rapproche du présent et qui a connu son intensité maximale dans les 15 000 dernières années. Cela signifie que nous n’avons probablement ni la même physiologie ni la même psychologie que nos lointains ancêtres ayant vécu dans la savane africaine.

Au sein de l’espèce à un moment donné — le moment Homo sapiens par exemple —, on trouve donc une infinie diversité de caractères répartie dans les individus et les populations. Cette diversité provient le plus basiquement des mutations, justement, c’est-à-dire des petits changements moléculaires affectant les briques élémentaires du vivant que sont les gènes, nichés dans les noyaux des cellules. Pour chacun des 25 000 gènes environ composant le génotype de n’importe quel Homo sapiens, il existe des formes différentes (allèles) issues des mutations anciennes ou nouvelles, accumulées dans le génome de l’espèce au cours de l’évolution. La combinatoire de ces petites différences constitue un générateur permanent de diversité. Elle explique (avec d’autres facteurs) pourquoi nous sommes différents, pourquoi nous sommes homme ou femme, petit ou grand, noir ou blanc, extraverti ou introverti, intelligent ou idiot, etc. Ces catégories elles-mêmes ne sont généralement pas des variations discontinues, mais continues. C’est-à-dire que l’on n’est pas ceci ou cela, mais plus ou moins ceci et cela (sauf le sexe, variation discontinue puisque l’on est soit homme soit femme, mais encore existe-t-il plusieurs manières de le définir au-delà de la morphologie fonctionnelle, c’est-à-dire que la sexuation moléculaire et comportementale est bien plus complexe que l’existence de chromosomes XX/XY ou d’appareils génitaux masculin/féminin.) La nature continue des variations se traduit par une distribution gaussienne : la fameuse courbe en cloche, avec la majorité de la population autour des valeurs moyennes, la minorité dans les valeurs extrêmes (par exemple pour la taille, 50% d’une population entre 1,65m et 1,75m, mais 2,5% en dessous d’1,50m et 2,5% au-dessus d’1,90m). Cela s’explique notamment parce que tous les traits complexes sont sous la dépendance de plusieurs gènes (donc, de leur variance additive et de leur interaction épistasique, faisant que les effets des gènes sur le phénotype s’additionnent ou se soustraient). Si l’on prend comme autre exemple la part biologique de l’intelligence (facteur g ou capacité cognitive générale), elle n’est pas déterminée par un gène, mais sans doute par plusieurs centaines. Ceux qui ont certaines combinaisons (rares) auront plus de probabilité d’avoir un QI supérieur à 120 ou inférieur à 80. La plupart se situeront entre ces deux valeurs, selon la courbe en cloche dessinant la distribution statistique de la plupart des variations continues.

Quand il est dit ici que les mutations génétiques expliquent la diversité humaine, il ne faut pas l’interpréter comme une réduction au gène : nous verrons par la suite que l’évolution biologique se double d’une évolution culturelle et que les deux travaillent ensemble. Le gène est simplement la première étape biologique, la plus élémentaire du point de vue de l’information, dans une longue série de bifurcations parmi les possibles. Les variations du génome se retrouvent aussi bien à d’autres niveaux, le transcriptome (ce par quoi les gènes s’expriment ou non), le protéome (le produit peptidique des gènes exprimés), le métabolome (l’organisation cellulaire / tissulaire d’un organisme), etc. Aucun trait complexe n’est entièrement produit par les gènes et son expression sera dépendante du milieu au sens large, le milieu interne comme le milieu externe de l’organisme. Inversement, aucun de ces traits complexes n’est indépendant des gènes et ne résulte du seul milieu. Vous pouvez posséder tous les gènes requis pour une grande taille et une brillante intelligence, mais avoir à l’âge adulte une taille moyenne et un QI médiocre si vous n’avez pas bénéficié de conditions favorables de nutrition et d’éducation. Cela, tout le monde en convient. Mais, vous pouvez avoir la meilleure alimentation et les meilleurs éducateurs du monde, vous ne deviendrez pas un grand joueur de basket ou un génial physicien si vous n’avez de prédispositions biologiques pour cela. Cela, peu de gens l’accepte. Pourtant, le déterminisme génétique des traits et comportements humains est une réalité, dont on mesure l’importance relative depuis plus d’un siècle, soit dans les populations par les études d’héritabilité (la part des gènes impliqué dans la variance interindividuelle de ces traits et comportements phénotypiques, c’est-à-dire plus simplement dans les différences que l’on observe entre individus) soit maintenant chez les individus par l’examen de leur hérédité personnelle (le génotypage individuel, rendu possible par les progrès de la bio-informatique et appelé à se généraliser à horizon de 10 ou 20 ans).

Bien que la pensée moderne se réclame du matérialisme, y compris biologique donc, elle a largement ignoré ou violemment nié cette réalité. Comme l’a souligné le psychologue Steven Pinker, les représentations dominantes de l’homme jusqu’au siècle dernier ont été celles d’une « page banche », d’un « bon sauvage » et d’un « fantôme dans la machine ».

La page blanche signifie que les Modernes envisageaient l’homme à sa naissance comme un organisme vide de toute détermination préalable : ce qui différenciait les hommes, c’était seulement l’influence de leur environnement. Tout comme la langue maternelle changeait si l’on plaçait l’enfant dans une famille étrangère, les aptitudes physiques et intellectuelles d’un individu dépendaient tout entière de son éducation. Lamarck donna une version scientifique de cette croyance, en parlant d’une hérédité des caractères acquis (le lamarckisme resta vivace jusqu’au XXe siècle, y compris sous la forme militante du lyssenkisme en Union soviétique). Le behaviorisme en donna une autre version plus tardive, dans le domaine psychologique, en posant l’esprit comme une « boîte noire » façonnée par les imputs du milieu extérieur. Aucune de ces idées n’a résisté à l’épreuve de la science, et il ne se trouve pas une semaine ou presque sans que l’on découvre des variations moléculaires associées à des variations physiques, pshychologiques ou comportementales.

Le bon sauvage est un dérivé moral et politique de la page blanche, popularisé par Rousseau, ayant eu une descendance dans certains secteurs de l’ethnologie et de l’anthropologie. Le bon sauvage repose sur l’idée que l’état de nature est différent de l’état de société et que l’évolution de la société a corrompu la nature humaine : les inégalités, les violences, les injustices résulteraient toutes de l’organisation socio-économique et politique des communautés humaines. Et les peuples les plus « primitifs » ignoreraient ces travers, en vivant au plus près de leur état de nature. Là encore, cette image idyllique d’un paradis sur Terre préservé des affres de l’évolution historique s’est effacée : les sociétés prémodernes, y compris les chasseurs-cueilleurs proches des conditions ancestrales de l’Homo sapiens, connaissent la hiérarchie et la violence. Tout comme celles des plus proches cousins de l’homme, les chimpanzés. L’homme est un primate social, c’est-à-dire que la distintion de l’état de nature et de l’état social est une fiction sans fondement empirique ni portée heuristique. L’observation des sociétés de primates non-humains montre que bien des contraintes de groupe exercées sur l’individu sont issues de cette nature sociale, indépendamment de sa « perversion » par telle ou telle idée ou pratique ultérieure.

Le fantôme dans la machine, enfin, exprime le dualisme corps-esprit qui sous-tend l’idée d’un pur libre-arbitre (esprit) régissant le jugement et le comportement (corps). Il s’agit là encore d’un dérivé de la page blanche, puisque l’idée du libre-arbitre est que nous sommes absolument maîtres de nos choix sans que rien ne préside à eux, du moins rien qui ne soit accessible et modifiable par la conscience, rien qui ne soit antérieur à nos expériences. Mais les neurosciences n’ont retrouvé nulle part dans le cerveau humain le petit homoncule imaginaire qui symbolisait ce libre-arbitre. L’esprit fait partie intégrante du corps, le système nerveux est relié aux autres systèmes régulateurs (immunitaire, endocrinien, etc.), le cerveau est une agrégation de modules plus ou moins spécialisés et progressivement modifiés au cours de l’évolution. La conscience, perçue comme le pinacle de l’humanité, ne représente qu’une activité cérébrale très minoritaire, l’essentiel de nos processus cognitifs étant inconscients. Et le cerveau naît lui aussi avec des prédispositions innées, qui ont besoin de l’expérience du monde pour se déployer, mais qui ne résultent pas que d’elle et qui les préconditionne.

Ces trois croyances modernes ont eu une importance capitale dans l’histoire de la pensée récente. Du point de vue politique, elles satisfaisaient aussi bien les conservateurs (pour qui l’homme est créé à l’image de dieu sans qu’il soit nécessaire d’examiner en détail la nature humaine, ni les hiérarchies humaines sur Terre) que les progressistes (pour qui la nature humaine n’était que le produit de sa culture). Mais surtout, alors que la dynamique moderne consiste à transformer la réalité selon les fins autonomes que les individus et les sociétés se donnent, ces croyances ont expulsé l’homme de la réalité modifiable : puisque la biologie n’avait aucune influence particulière sur des êtres substantiellement identiques à la naissance, l’effort devait seulement porter sur la société, le milieu, l’environnement. Aujourd’hui encore, il s’agit d’ailleurs de la vision dominante. Mais pour dominante qu’elle soit, cette vision est fausse. Le milieu explique bien sûr ce que chacun devient, mais il ne détient qu’une partie de l’histoire. L’autre partie, ce sont les modifications biologiques successives de notre espèce, une espèce en évolution permanente depuis des milliers de générations, une espèce métamorphique. Et une espèce qui vient tout juste de comprendre les bases de cette métamorphose en même temps que d’en maîtriser les outils.

Dans la suite de ce texte, j’aborderai l’autre versant du métamorphisme humain, plus fascinant encore : le monde de la culture, des idées et des pratiques, dont nous verrons qu’il n’a rien d’étranger au vivant, qu’il est au contraire imbriqué dans la nature même de notre cerveau et de l’évolution de notre espèce.

Illustrations : évolution randomisée de vies artificielles par Biomorph Viewer.