31.8.08

Quand l'arbitre voit rouge

Une étude avait rapporté qu’en moyenne, les athlètes portant des vêtements de couleur rouge obtiennent de meilleurs résultats aux sports de combat (tae kwon do, judo, catch). L’hypothèse avait été faite que, pour des raisons biologiques ou culturelles, le rouge est associé à la dominance et à l’agression (Hill et Barton 2005). D’autres avaient suggéré un biais de visibilité (Rowe Harris et Roberts 2005). Une nouvelle étude menée par Norbert Hagemann, Bernd Strauss et Jan Leißing suggère que la bonne explication vient de l’arbitre. Dans les sports aux mouvements rapides, et quand les deux athlètes sont de niveau comparable, l’arbitre doit observer les gestes de chaque joueur, parfois selon des angles de vue difficiles. Le rouge créerait un léger biais de perception favorable au joueur qui le porte. Pour appuyer leur hypothèse, les chercheurs ont montré 22 extraits de combat de tae kwon do à 42 arbitres de cette discipline. Les combattants portaient des protections de couleur rouge ou bleue. Et de fait, ils ont observé une notation favorable aux rouges.

Gavagai !

Dans sa thèse sur l’indétermination de la traduction (Le mot et la chose, 1960), Quine suggère qu’il est impossible d’exclure une incompréhension persistante entre locuteurs sur un mot. Un homme d’une tribu dit « gavagai ! » en voyant un lapin, l’ethnologue linguiste est tenté de traduire « lapin », mais ce peut être « partie d’un lapin », « segment de lapinitude », « vitesse de lapinicité », etc. Pour s’assurer du sens exact du mot « gavagai », il faudrait observer une infinité d’occurrences de son énonciation (cela revient au problème de l’induction). Par extension, il y a sous-détermination de l’apprentissage d’une langue maternelle, c’est-à-dire possibilité que l’on n’attribue pas exactement les mêmes significations aux mêmes mots (la même classe d’objets réels depuis le même énoncé, ou la même valeur de vérité d’une proposition). Et par extension encore, sous-détermination empirique de la science.

Je ne trouve pas que cette critique est fatale au positivisme logique. Gottlob Frege notait déjà que la langue naturelle est le pire obstacle à l’émergence d’une langue formelle (logique), car elle nous induit en erreur par l’imprécision des références. La conséquence me semble que les sciences empiriques construisent progressivement une langue descriptive commune vidée de ces énoncés auxquels on ne peut attribuer une signification exacte ou une valeur de vérité. Et c’est ce qui se passe depuis plusieurs générations. Un grand changement depuis l’objection de Quine est l’extension de la science empirique à la psychologie, et plus précisément à l’activité cérébrale. Quine était resté au modèle behavioriste de réponse aux stimuli, le seul disponible à son époque dans l’orbite d’une psychologique scientifique. Dans La poursuite de la vérité (1990), il note encore : « En psychologie, on peut ou non être behavioriste, mais en linguistique le choix n’existe pas. Chacun de nous apprend sa langue en observant le comportement verbal des autres et en voyant les hésitations de son propre comportement verbal observées et encouragées ou corrigées par les autres ». Mais dans la nouvelle perspective des neurosciences évolutionnaires et développementales, l’enjeu paraît surtout la fonction des mots (ou classes de mots), fonction qui n’est pas inscrite dans le langage lui-même, mais bien dans la réalité désignée par ce langage (le rapport de l’individu à son milieu, la survie et la reproducion de cet individu et de son groupe, etc.). D’où la poursuite de la naturalisation, mais sous une perspective fonctionnaliste et mentaliste que la philosophie analytique n’était pas diposée à accepter, étant née de son rejet à la fin du XIXe siècle.

Que l’on apprenne par imitation et que cette imitation ait des ratés (des sens différents ou équivoques d’un mot), que l’individu attribue des références diverses aux mots et propositions selon son expérience personnelle, cela ne forme pas un obstacle à la recherche sur l’ensemble cerveau-langage-réalité et les diverses fonctions structurant cet ensemble. Bien sûr, la science empirique ne dira pas grand chose de pertinent sur les mille petites variations du langage ordinaire – mais là, on se demande s’il y a grand chose de pertinent à en dire de toute façon, y compris depuis la philosophie analytique en ayant fait un de ses dadas à partir du second Wittgenstein. La poésie et la littérature forment de très beaux jeux de langage depuis l’expérience ordinaire, le café du commerce et la discussion devant le distributeur de boisson en produisent de plus communes ; la science n’a pas cette finalité. Elle peut éventuellement dire des choses sur ces langages ordinaires, mais avec ses méthodes habituelles de quantification et qualification.

Invivable

Chaque proposition du langage ordinaire est déjà une conjecture. L’envisager ainsi serait invivable – la recherche de la vérité devient très vite invivable, en fait, c’est sans doute la raison pour laquelle elle occupe très peu de vies humaines.

Main froide, conscience de soi et régulation physiologique

L’illusion de la main de caoutchouc (rubber hand illusion) est une expérience aussi amusante que troublante. On place un artefact de main sur une table, en parallèle de sa main véritable posée à côté mais cachée. On stimule simultanément les deux mains, par exemple par un pinceau passant exactement aux mêmes endroits des doigts et jointures. Au bout d’une à deux minutes, et pour les deux tiers des sujets, la main en caoutchouc semble devenir la sienne (voir une vidéo ici).

Lorimer Moseley et ses collègues de l’Université d’Oxford ont utilisé cette illusion pour analyser un autre phénomène étonnant : certains patients schizophrènes, anorexiques ou ayant souffert d’un accident vasculaire cérébral rejettent un ou plusieurs de leurs membres comme s’ils ne leur appartenaient pas ; et on a observé que la température de surface de ces membres est inférieure à celle du reste du corps. Les chercheurs ont réalisé six expériences séparées d’illusion de la main de caoutchouc avec des sujets sains. Et ils ont observé que la température de surface de la main réelle baisse à mesure que le sujet prend illusoirement possession de la main en caoutchouc, consécutivement à une baisse du flux sanguin. Cette baisse est spécifique au membre devant fantôme (elle ne concerne ni l’autre main, ni le pied ipsilatéral). La conscience psychologique de soi (de son corps) et la régulation physiologique sont donc intimement liées, par un mécanisme allant du centre à la périphérie (top down). La température corporelle est notamment régulée par des noyaux neuronaux du thalamus et de l’hypothalamus.

Référence :
Moseley G.L. et al., Psychologically induced cooling of a specific body part caused by the illusory ownership of an artificial counterpart, PNAS, online pub, doi: 10.1073/pnas.0803768105

L'anthropotechnie : soi-même comme une oeuvre d'art

L’idée que l’homme est entré dans une phase inédite du rapport à son propre corps n’est pas nouvelle. L’eugénisme, terme inventé par Francis Galton à la fin du XIXe siècle, avait déjà nourri l’imaginaire de penseurs et de chercheurs pendant deux générations, avant d’être englouti dans la mémoire collective sous l’horreur des délires nazis de race pure. Mais la médecine et la biologie n’en ont pas moins continué leur cours, modifiant nos représentations et nos pratiques, suggérant avec insistance que la simple diabolisation d’un mot (eugénisme) ne suffirait pas à faire refluer les désirs que ce mot recouvrait. Depuis une trentaine d’années, on a vu fleurir des termes ou expressions comme « algénie » (Jeremy Rifkin), « santé parfaite » (Lucien Sfez), « adieu au corps » (David Le Breton), « avenir post-humain » (Francis Fukuyama), « eugénisme libéral » (Jurgen Habermas), « domestication de l’être » (Peter Sloterdijk), « species technica » (Gilbert Hottois). Derrière ces expressions, leurs auteurs dressent les analyses d’une époque en train de basculer sur la question du corps, de son fonctionnement, de sa santé, de ses potentialités et de ses promesses. Leurs conclusions sont parfois contradictoires, mais il s’agit d’un désaccord sur l’évaluation (éthique, politique, économique, philosophique) du phénomène, pas sur sa réalité.

Dans son ouvrage, Jérôme Goffette reprend cette problématique sous un jour plus précis, et plus systématique que certains essais journalistiques sur le « post-humain ». Du point de vue de la méthode (chp. II), il observe que nous pensons les activités humaines selon certains référents, alimentés par certaines pratiques, renvoyant à des tropismes. Par exemple, la médecine a pour référent la lutte contre la maladie, elle renvoie à toutes sortes de pratiques à cette fin, son tropisme est le rétablissement de la santé, ou l’évitement de sa dégradation. Or, sous le vocabulaire de « médecine » ou de « biomédecine », on désigne aujourd’hui des pratiques qui ne renvoient plus au tropisme médical ou biomédical. Il existe un décalage, et un non-dit, entre la réalité de certaines pratiques médicales (ou paramédicales) et la finalité non-médicale qu’elles expriment.

L’auteur en donne de nombreux exemples. Dans le domaine de la procréation, la contraception n’a rien de médical au sens usuel (elle ne guérit ni n’évite une maladie), la sélection de certains traits d’un embryon non plus. Dans le domaine du dopage, et avant lui dans l’optimisation des capacités des athlètes, des médecins spécialisés s’affairent autour du sportif, mais là encore il n’est nulle question de guérison ou de prévention. Dans le marché des fortifiants intellectuels (remèdes naturels, compléments divers, nootropes, médicaments détournés, drogues), il en va de même, ainsi que dans celui des remèdes biochimiques à nos troubles moraux ou existentiels, c’est-à-dire l’utilisation de plus en plus banalisée des anxiolytiques ou antidépresseurs pour faire varier son humeur au gré des situations. La chirurgie esthétique offre un dernier exemple, encore plus massif et palpable : la laideur, le vieillissement, l’assignation d’un sexe à la naissance ne sont pas des maladies ; et pourtant là encore, des médecins luttent contre les imperfections, les dégradations ou les sommations issues de la nature.

Ces pratiques atypiques dans leur tropisme actuel (biomédecine) renvoient toutes à un nouveau tropisme que Jérôme Goffette qualifie d’ « anthropotechnie », « art de la transformation de l’homme par lui-même », ou plus précisément « art ou technique de transformation extra-médicale de l’être humain par intervention sur son corps ». Il remarque très justement que ces entreprises « de modelage et de façonnage » du corps ont débuté voici bien longtemps : « depuis l’aube de l’humanité, il existe un souci de faire transparaître cette humanité et de montrer la rupture qui la sépare de l’animal : de là les vêtements, les parures, les ornements, mais aussi les maquillages, les scarifications et toutes ces entreprises de transformations corporelles que tous (et les anthropologues mieux que quiconque) peuvent constater ici et là pour exprimer l’humanité, affirmer la différence des sexes ou la position sociale ». La différence entre l’anthropotechnie et les anciennes « techniques du corps » (Marcel Mauss) tient bien sûr dans les révolutions accomplies par la science moderne : ce ne sont plus des retouches superficielles qui sont offertes à l’homme, mais la possibilité de se modeler dans l’ensemble de ses constituants, du gène au comportement, à la cognition et à l’apparence en passant la cellule, la protéine, le tissu, l’organe et la prothèse.

Comme le souligne Jérôme Goffette, les grandes visées de l’anthropotechnie sont celles que les humains plaçaient jadis dans la symbolique de leurs dieux ou figures légendaires : jeunesse, immortalité, incorruptibilité de la chair ; puissance mentale, sagacité, intelligence, mémoire ; beauté ; force, puissance, résistance ; fertilité et fécondité ; volupté sexuelle ; sérénité, lucidité, mais aussi ivresse et vision ; création pure enfin, notamment la création de l’humain. Mais le plan mythologique de transcendance est devenu un plan biologique d’immanence.

Si la médecine se donne pour tâche de corriger l’état pathologique pour restituer l’état normal du patient, l’anthropotechnie part de cet état normal, ou ordinaire, pour induire un état modifié et amélioré. Contrairement à la médecine, l’anthropotechnie comporte des risques, au moins dans les phases émergentes de ses nouvelles techniques, c’est-à-dire que l’amélioration peut conduire par la suite à un état pathologique ou qu’elle inclut cela comme probabilité non-négligeable. Un exemple connu en est le vieillissement problématique d’un certain nombre de sportifs de haut niveau, dopés ou non. Mais un tel risque est accepté, car le rapport médecin / patient est supplanté par un rapport praticien (anthropotechnicien) / client, commanditaire : l’obligation d’assistance médicale vis-à-vis du malade fait place à un choix responsable de l’individu non-malade, le praticien n’ayant qu’une obligation de service rapportée à ce choix (un devoir de compétence dans l’amélioration proposée). Cela n’empêche pas la possibilité que l’anthropotechnie en devenir se dote d’un code de déontologie – sur lequel Jérôme Goffette élabore quelques pistes de réflexion, en contraste avec certaines règles éthiques médicales inadaptées (tout ce qui limite strictement à la guérison, sans induire de risque au-delà, non-malfaisance et bienfaisance), mais en continuation d’autres (respect de l’autonomie, clause de conscience, secret).

« Face à l’anthropotechnie, conclut Jérôme Goffette, nous sommes à la fois, forcément, dans l’errance et le bricolage. L’errance, c’est-à-dire ici une aventure un risque, une incertitude, une découverte. Le bricolage, c’est-à-dire la tentative de réaliser un projet tout en sachant toujours que cette réalisation donnera des surprises et révélera des aspects négligés ou insoupçonnés ». Le chemin qui mène les humains à se considérer comme des œuvres d’art est ainsi semé d’embûches et d’inconnues ; c’est bien pour cela qu’une partie des humains l’emprunte, comme ils l’ont toujours fait dans leur évolution, animés par un désir et une volonté qui est l’autre nom de leur liberté.

Référence :
Goffette J. (2008), Naissance de l’anthropotechnie. De la médecine au modelage de l’humain, Vrin, Paris, 187 p.

30.8.08

La vérité évolue

« Le monde est tout ce qui arrive », et comme tel le monde n’est ni vrai ni faux, il est. La vérité est un dérivé tardif de la vie, un énoncé sur ce qui arrive formulé depuis la pensée. Elle est soit une relation de la pensée à elle-même (une fonction logique, vérité-cohérence), soit une relation de la pensée au monde (une fonction empirique, vérité-correspondance). Dans les deux cas, elle n’est pas une propriété du monde, mais du monde-pensé ou de la pensée du monde. La naturalisation de l’épistémologie suggérée par Quine revient à dire au final que la vérité évolue avec les cerveaux qui la produisent.

Belligérance, bravoure et évolution

Pourquoi la guerre ? En première approximation, on peut y voir un trait irrationnel ou rationnel du comportement humain. Dans le premier cas, la guerre résulte par exemple de la disposition plus ou moins pathologique des leaders d’un groupe à s’engager dans la violence contre un autre groupe malgré le coût de celle-ci. Dans le second cas, la guerre survient si elle apporte des bénéfices au groupe belligérant excédant ses coûts. Pour la théorie de l’évolution et la biologie théorique, la guerre est un cas de figure intéressant, tout comme l’altruisme : elle est répandue à toutes les époques et parmi tous les groupes humains ; elle diminue par définition la fitness (survie et reproduction) de ses victimes directes ou indirectes. Soit elle est un produit dérivé malheureux d’autres capacités utiles à leurs porteurs (hypothèse irrationnelle) ; soit elle a sa logique propre pouvant faire l’objet d’une sélection positive (hypothèse rationnelle). Il faut noter que la « rationalité » en question ne concerne pas la psychologie de l’acteur individuel, mais simplement l’évaluation des conséquences de l’action collective en terme de survie / reproduction pour le groupe s’engageant dans la guerre.

Laurent Lehmann et Marcus W. Feldman (Université Stanford) ont développé un modèle de génétique des populations pour examiner l’évolution possible de deux traits masculins (la guerre étant presqu’exclusivement une affaire de mâles chez les primates humains ou non-humains) : la belligérance (disposition à s’engager dans un conflit) et la bravoure (disposition à la vaillance au combat augmentant la probabilité de victoire dans le conflit). Cela dans le cadre dont on pense qu’il fut celui du Paléolithique, des petites populations séparées spatialement et parvenant au bout d’un moment à l’épuisement des ressources sur leur territoire. Leur modèle montre que deux cas de figure au moins justifient la guerre du point de vue de la fitness moyenne des individus du groupe guerrier : celui où les mâles du groupe vainqueur se reproduisent avec les femelles du groupe vaincu ; celui où les femelles du groupe vainqueur bénéficient de l’extension des ressources pour la survie de leur descendance. La limite de taille du groupe est cependant imposée par l’hypothèse d’une base génétique à la belligérance et la bravoure et par la nécessité dans ce cas de parenté génétique de ses mâles (selon l’hypothèse de sélection de parentèle de Hamilton : le sacrifice d’un mâle au combat permet la survie de mâles apparentés et porteurs des gènes poussant au sacrifice), parenté qui est affectée progressivement par l’augmentation de la taille des groupes (et les migrations). Avec cette double contrainte d’héritabilité et de sélection de parentèle, le modèle permet une sélection positive sur la belligérance et la bravoure pour des groupes allant jusqu’à 50 individus adultes de chaque sexe. Mais si la belligérance et la bravoure sont des traits hérités culturellement et non biologiquement, la taille du groupe peut prendre n’importe quelle valeur sous certaines conditions spécifiques : il faut alors que les traits culturels affectent la ségrégation des groupes et renforcent la capacité reproductive des porteurs. Cette conclusion rejoint celles d’autres travaux de modélisation sur la co-évolution de l’altruisme coopératif en interne et compétitif en externe (voir ici par exemple nos recensions des travaux de Choi et Bowle 2007, Bernhard et al. 2006).

Référence :
Lehmann L., M.W. Feldman (2008), War and the evolution of belligerence and bravery, Proc Roy Soc B Bio Sci, doi :10.1098/rspb.2008.0842

(Merci à Laurent Lehmann de m’avoir communiqué son travail).

La vache et le satellite

Les images satellite de Google ont permis à des chercheurs de l’Université de Princeton d'effectuer une découverte capitale : les chevreuils, mais aussi les vaches, tendent à aligner leurs corps selon un axe Nord-Sud quand ils paissent ou se reposent. Le trait est plus marqué chez les chevreuils que chez les vaches : cette sensibilité au champ magnétique serait un résidu d’une adaptation migratoire, devenue progressivement inutile chez les braves ruminants enfermés derrière leur enclos.

29.8.08

La leptine, bonne aussi pour le cerveau

Découverte dans les années 1990, la leptine est une pro-hormone exprimée dans les tissus adipeux. Elle joue de nombreux rôles dans le métabolisme (reproduction, homéostase du glucose, formation des os et des tissus, inflammation), mais sa fonction la plus connue concerne la régulation de la prise d’énergie et de l’appétit. La leptine agit de concert avec les peptides de l’hypothalamus (NPY, AgRP) pour réguler la prise alimentaire. Les mutations des gènes producteurs ou récepteurs de leptine provoquent divers troubles métaboliques, dont certaines formes d’obésité.

Mais la leptine semble également jouer un rôle dans nos fonctions cognitives. C’est ce que rapporte une équipe américaine et brésilienne ayant traité un patient de 5 ans, souffrant d’une mutation Cys-to-Thr du codon 105 sur le gène ob. Pendant deux ans, le jeune malade souffrant d’obésité depuis l’âge de trois mois a bénéficié d’un traitement à la leptine recombinanate (r-metHuLeptin, 0,03 mg/kg/jour) pour compenser la production naturelle déficiente. Ses capacités cognitives verbales et non verbales ont été mesurées au cours de son développement (échelles DAS). Or, outre la perte de poids, l’enfant a connu une amélioration notable de ses aptitudes intellectuelles, qui se situaient en dessous de la moyenne avant le traitement. Cela confirme un rôle neurodéveloppemental pour la pré-hormone. Les nouveau-nés en possèdent des taux sériques deux à trois fois supérieurs à ceux des adultes. La leptine semble notamment agir sur les récepteurs NMDA (potentialisation à long terme de la mémoire), la neurogenèse de l’hippocampe et la myélinisation des axones (gaines de lipides favorisant la communication interneuronale).

Référence :
Paz-Filho G.J. et al. (2008), Leptin replacement improves cognitive development, PloS ONE, e3098. doi:10.1371/journal.pone.0003098

28.8.08

Le principe responsabilité (Hans Jonas) : critique d'un concept trentenaire

Voici trente ans paraissait Le principe responsabilité de Hans Jonas, et comme le relève Hervé Kempf dans Le Monde : « La fortune en a été extraordinaire : diffusé depuis sa parution à plus de 200.000 exemplaires, cet essai a influencé la vie politique allemande, inspiré des normes internationales, comme la ‘prise en compte des générations futures’ et ‘le principe de précaution’, et constitue toujours une des bases majeures sur lesquelles s'élabore la réflexion des intellectuels sur l'écologie. » Ce succès du Principe responsabilité, qui était une réponse au Principe espérance d’Ernst Bloch, tient probablement à sa consonance avec les tendances médiatiques et idéologiques de l’époque. On ignore en revanche si ceux qui s’en réclament l’ont vraiment lu.

Au commencement de la réflexion jonassienne, il y a la « transformation de l’essence de l’agir humain » : jusqu’à présent, la teknè (l’art) était limité à la cité, monde clos des hommes autour duquel la nature « sauvage », « non civilisée », restait intacte et se perpétuait. Comme telle, la technique ancienne n’appelait pas la morale ni pour le sujet (l’artiste, l’artisan, l’ingénieur) ni pour son objet (la nature). Mais la technique moderne aurait transformé cela, dévoilant la « vulnérabilité » de la nature, faisant entrer la « biosphère » tout entière dans le domaine de la responsabilité humaine. Alors que les morales anciennes formaient des énoncés de proximité (elles concernaient le « prochain ») dans un cadre de simultanéité entre l’action et son effet, la technique impose désormais une dimension nouvelle : « Nulle éthique antérieure n’avait à prendre en considération la condition globale de la vie humaine et l’avenir lointain et l’existence de l’espèce elle-même ».

On peut déjà émettre quelques réserves sur cette pierre angulaire du raisonnement formant le premier chapitre. Ce n’est pas « l’essence » de l’agir humain qui est transformée, plutôt sa portée matérielle : une bombe nucléaire tue (potentiellement) plus d’humains qu’une bombe classique, qu’un missile, qu’un fusil, qu’un arc, qu’un glaive, qu’un silex taillé. La mort potentielle de l’ennemi reste la vocation de l’arme comme jadis, sa puissance ou son rayon d’action ont évolué. La menace sur l’homme est aussi proportionnée à un autre élément matériel, sa démographie. Un virus émergent, d’origine naturelle ou artificielle, pourrait tuer un quart de l’humanité comme la peste tua un quart des Européens : le simple fait d’une population nombreuse et interconnectée produit cette éventualité. Dans l’hypothèse où ces technologies se retourneraient sur l’homme pour le modifier (« l’homo faber applique son art à lui-même », suggère Jonas), serions-nous dans une transformation de « l’essence » de l’agir humain ? C’est à nouveau douteux, puisqu’il devrait être dans la nature de cette « essence » de ne pas être modifiable par « accident » (action externe) : si l’homme parvient à se transformer en autre que lui-même, cette transformation serait la démonstration que son essence était en réalité réductible à certains composants matériels, qu’elle n’est donc pas une essence au sens philosophique habituel de ce terme, plutôt une contingence. Ce que j’ai appelé ici la nature métamorphique de l’animal humain.

Selon Jonas, la technologie moderne crée la nécessité d’un nouvel impératif moral lié à l’agir humain : « Agis de façon que les effets de ton action soient compatibles avec la permanence d’une vie authentiquement humaine sur terre » (ou de façon négative « Ne compromets pas les conditions que pour la survie indéfinie de l’humanité sur terre ».) Pour que cet impératif entre en action, il faut « consulter nos craintes préalablement à nos désirs », car le malum apparaît plus facilement à la sensibilité humaine que le bonum. C’est donc « l’heuristique de la peur » : « Nous avons besoin de la menace contre l’image de l’homme – et de types tout à fait spécifiques de menace – pour nous assurer d’une image vraie de l’homme grâce à la frayeur émanant de cette menace ». En vue de cela, « doit (…) être constituée une science des prédictions hypothétiques, une ‘futurologie comparative’ ».

Le problème évident, c’est qu’une telle futurologie n’a rien d’une science. Les actions humaines forment un système chaotique et toute tentative de les anticiper sur le long terme est vouée à l’échec (un peu comme si Napoléon III en 1860 considérait que la gestion des chevaux et des écuries serait le grand problème urbain de 1960 et agissait dans cette perspective). On fera donc, comme aujourd’hui dans le cas du réchauffement climatique, des scénarios et des modèles sur un phénomène donné. Mais plus le phénomène analysé sera vaste (concernant l’humain ou la biosphère dans son entier comme Jonas y invite), plus son modèle sera simplificateur et produira des incertitudes impossibles à contraindre. On trouvera toujours des issues catastrophiques parmi les trajectoires de ces modèles rustiques à base de scénarios incertains ; et l’on pourra toujours dire que la seule possibilité (fut-elle affectée d’une très faible probabilité) d’une catastrophe exige telle ou telle décision sur l’activité technologique concernée. Mais outre qu’une telle démarche est totalement incapacitante, elle est surtout insensée : je puis certainement faire un modèle où la lutte contre le réchauffement climatique (pour rester dans cet exemple) implique elle aussi des catastrophes locales ou globales dans certaines trajectoires possibles de mes simulations à long terme ; je me retrouve alors avec deux possibilités d’action (faire quelque chose ou ne rien faire) qui produisent chacune des probabilités de catastrophe. Nous n’aimons pas cette idée que les systèmes chaotiques ou les systèmes dynamiques complexes sont imprévisibles à moyenne et longue échéances, mais c’est une réalité. Il est assez piquant de constater que les esprits les plus critiques sur la toute-puissance de la raison technique et scientifique acceptent sans l’ombre d’un doute ni d’une réticence que cette rationalité pleine d’hubris se prétende capable de prévoir l’évolution du système hydrosphère-atmosphère-héliosphère-litosphère-biosphère sur 100 ans. C’est assez cocasse…

L’autre problème dans la manière dont Jonas pose la situation, c’est la notion de responsabilité. Un individu est responsable de ses actes. Mais un individu seul n’a pas le pouvoir de détruire l’humanité ou la biosphère. La prise en compte de la « condition globale » (toute l’humanité, toute la biosphère) crée une responsabilité collective dont nul individu particulier n’est en réalité responsable. Jonas note d’ailleurs que son propos « s’adresse beaucoup plus à la politique publique qu’à la conduite privée ». Dans ce cas, le principe responsabilité ressemble surtout à un principe autorité où une minorité éclairée (par la « science futurologique ») dicte son comportement à la majorité. Jonas l’envisage d’ailleurs clairement lorsqu’il parle des « avantages de l’autocratie » : « Les décisions au sommet, qui peuvent être prises sans consentement préalable de la base, ne se heurtent à aucune résistance dans le corps social (si ce n’est peut-être une résistance passive) et, à supposer un degré minimal de fiabilité de l’appareil, elles peuvent être certaines d’être mises en œuvre. Cela inclut des mesures que l’intérêt individuel des sujets concernés ne se serait jamais imposées spontanément, qui donc, dès qu’elles atteignent la majorité, peuvent difficilement faire l’objet d’une décision dans le processus démocratique. Or de telles mesures sont précisément ce qu’exige l’avenir menaçant et ce qu’il exigera toujours davantage. » Un avenir décrété « menaçant » par une « science des prédictions hypothétiques » qui n’a rien d’une science en vient à justifier des « décisions au sommet » s’imposant à la base. Une dictature des bonnes intentions, en somme.

Quand il en arrive aux raisons philosophiques pour lesquelles l’homme devrait s’estimer des devoirs envers la nature, Jonas cultive une sorte de finalisme néo-aristotélicien et post-heidegerrien, dont les soubassements sont assez obscurs : « Nous voulons, en dernière instance au nom de l’éthique, élargir le site ontologique de la fin comme telle en allant de ce qui se manifeste à la fine pointe du sujet vers ce qui est latent dans l’épaisseur de l’être ». Ce qui peut se dire : il existe de la finalité chez l’humain, il en existe aussi dans la nature. « Puisque la subjectivité manifeste une fin agissante, et qu’elle vit entièrement de cela, l’intérieur muet qui accède à la parole seulement grâce à elle, autrement dit la matière, doit déjà abriter en elle de la fin sous forme non subjective ». Le « puisque » est assez étonnant : Jonas assène cela comme une conséquence logique, alors qu’il n’y a évidemment rien de tel dans son saut ontologique du cerveau humain à la totalité de la matière. Ce n’est pas parce que l’évolution a produit un singe conscient que les attributs de cette conscience pré-existent ailleurs dans le vivant, a fortiori le non-vivant. Le philosophe défend finalement une moralisation de la technique, mais aussi et surtout de la nature elle-même en vertu de « fins » dont celle-ci serait dotée. On baigne dans une métaphysique d’un autre âge.

Jonas est bien sûr obligé de limiter l’explication scientifique du monde pour appuyer son propos : « Il n'est naturellement tout simplement pas vrai qu'une compréhension ‘aristotélicienne’ de l'être est en contradiction avec l'explication moderne de la nature ou qu'elle est incompatible avec elle, à plus forte raison qu'elle ait été réfutée par elle ». Mais le philosophe n’apporte strictement rien au-delà des sciences de la nature : « Nous laissons entièrement ouverte la manière dont une ‘finalité’ généralisée de la nature se manifeste inconsciemment dans son mécanisme causal déterministe ». Donc Jonas assure que les sciences de la nature sont dans l’incapacité de fournir une explication suffisante de ce qui est, tout en étant lui-même dans l’incapacité de définir la « finalité » de la nature lui permettant d’asseoir ce constat d’impuissance ou de carence des sciences. Il peut néanmoins conclure son chapitre ténébreux sur « les fins et leurs positions dans l’être » : « Notre démonstration [sic] précédente que la nature cultive des valeurs, puisqu’elle cultive des fins, et que donc elle tout sauf libre de valeurs… ». Il serait bien sûr plus simple d’en appeler à la croyance en un dieu créateur de l’univers – Jonas est par ailleurs fasciné par les gnostiques –, mais le philosophe s’en garde bien. Il n’hésite pas en revancher à flirter avec le « sacré », tarte à la crème des métaphysiciens et des romantiques : « La question est de savoir si, sans le rétablissement de la catégorie du sacré qui a été détruite de fond en comble par l'Aufklärung scientifique nous pouvons avoir une éthique capable d'entraver les pouvoirs extrêmes que nous possédons aujourd'hui et que nous presque forcés d'acquérir et de mettre constamment en œuvre. »

Si Jonas n’a probablement pas été lu par bien des personnes se réclamant de lui, son message a été entendu. On a vu déferler au cours des trente dernières années la fameuse « heuristique de la peur » que Jonas appelait de ses vœux, sous la forme vulgarisée des alarmismes, catastrophismes et misérabilismes en tout genre, dont une certaine militance de la conscience malheureuse fait profession, et dont se repaissent nos médias toujours avides de mauvaises nouvelles et paniques morales en gros titres. La résistance au changement, l’aversion au risque, la méfiance ou la défiance de principe à l’égard des innovations étaient habituellement le fait des conservateurs et des réactionnaires. Avec l’écologie politique et philosophique, ces mêmes traits psychologiques ont produit d’autres engagements, plutôt au sein d’une gauche plaçant habituellement le progrès au pinacle. Mais justement : l’avenir, qui était la temporalité directrice de la modernité, est entré en crise chez une partie de ces intellectuels et politiciens, sans pour autant restaurer les supposées vertus du passé. Parler désormais au nom des « générations futures », comme Jonas y invitait, c’était un coup de génie rhétorique puisqu’elles ne sont pas là pour nous contredire : on gagne à peu de frais une solide réputation de générosité en se réclamant de leur bien-être ; on maquille d’un parfum d’avenir son insatisfaction foncière du présent, en évitant ainsi les accusations de nostalgie ou de ressentiment.

Il reste que ces incantations ne changent pas grand-chose à la réalité. Non seulement les trente dernières années n’ont pas connu de ralentissement significatif dans le domaine scientifique et technique, mais 3,5 milliards d’humains se sont engagés à marche forcée dans la modernisation de leur société et de leur économie. Les effets négatifs des premières révolutions industrielles, indéniables et inévitables, ont conduit à inclure diverses considérations de qualité de vie et de préservation du milieu dans les choix politiques, techniques et économiques. Les annonces catastrophistes du Club de Rome, ayant influené Jonas et bien d’autres dans les années 1970, ont été démenties les unes après les autres. Car si le principe responsabilité séduit, il en est un autre qui a la vie dure : le principe de réalité, sur lequel se fracassent les idées floues, folles ou fausses.

Référence :
Jonas H. (1979, 1990), Le principe responsabilité, Cerf, Paris. Disponible en poche (Champs-Flammarion, Paris, 1998).

Rêveries

Il est fascinant de constater combien les rêves ne fascinent plus, en regard du passé humain. Les spiritualités chamaniques en faisaient grand cas, les religions antiques également. Ancien et Nouveau Testament en sont parsemés. Grégoire le Grand crut bon interdire l’oniromancie et ne reconnaître que les rêves d’origine divine. Freud fut finalement le dernier aboutissement de cette fascination multimillénaire et malgré ses prétentions scientifiques, la psychanalyse conserva au rêve sa fonction centrale de dévoilement d’une vérité cachée, en l’occurrence refoulée et travestie (« L'interprétation des rêves est, en réalité, la voie royale de la connaissance de l'inconscient, la base la plus sûre de nos recherches, et c'est l'étude des rêves, plus qu'aucune autre, qui vous convaincra de la valeur de la psychanalyse et vous formera à sa pratique. Quand on me demande comment on peut devenir psychanalyste, je réponds : par l'étude de ses propres rêves », écrit Freud in Cinq leçons sur la psychanalyse, 3e leçon, 1904). Nous savons maintenant que tous les animaux à sang chaud connaissent un sommeil paradoxal, que l’activité cérébrale y est intense, que le « rêve » humain s’inscrit dans ce cadre évolutif, que sa fonction neurodéveloppementale est probablement un tri des informations reçues pendant l’éveil et une consolidation des données pertinentes. S’il stimule encore la curiosité scientifique, s’il étonne toujours le rêveur à son réveil, le songe n’a plus aucune dimension magique, spirituelle, mystérieuse ou profonde, en dehors de quelques superstitions individuelles. Voilà après tout une définition de la modernité comme une autre : la première époque qui ne croit plus en ses rêves, qui ne leur attribue aucune valeur particulière, aucun sens décisif.

Corrélats neuraux du désir

Hideaki Kawabata et Semir Zeki ont demandé à 18 sujets japonais, dont neuf femmes, âgés de 20 à 48 ans, de regarder 432 images dans trois catégories (personnes, objets, événements). Les sujets devaient classer ces images sur une échelle de désirabilité de 1 à 10 (1 à 4 indésirable, 5 et 6 indifférent, 6 à 10 désirable). Dans le même temps, on observait leur cerveau en imagerie par résonance magnétique fonctionnelle. Il en ressort que la variation entre désirable et indésirable active essentiellement le cortex orbito-frontal, celle entre désirable et indifférent les cortex cingulaire médian et cingulaire antérieur. Outre ces activations neurales communes, chaque type de stimulus éveillait d’autres zones spécifiques (noyau accumbens, striatum, hypothalamus, etc.). Et des aires différentes et spécialisées du cortex visuel analysaient chaque type d’images. Le cortex cingulaire et le cortex orbito-frontal apparaissent donc comme deux zones de tri parmi les stimuli perçus, selon qu’ils éveillent ou non le désir de l’individu. L’étude peut être lue ici (PloS One).

Saint ou stupide ? La morale comme valorisation de soi

Un supérieur entre dans le bureau que vous partagez avec un collègue et vous demande à tous deux une tâche ennuyeuse. Vous l’accomplissez, mais votre collègue s’y refuse finalement, arguant qu’il a d’autres urgences et que la tâche ne fait pas vraiment partie des attributions de votre poste. Il s’avère que le collègue en question ne pâtit en rien de son refus. Comment réagissez-vous ? On considère en général que ce genre de situation affecte l’individu ayant accepté le travail ingrat et supplémentaire de deux manières : il s’en veut d’avoir sacrifié son intérêt personnel sans motif valable (intérêt qui est considéré comme un bon guide de la conduite rationnelle dans la culture occidentale) ; il s’en veut de ne pas avoir eu assez de caractère pour résister à une demande inappropriée. L’une ou l’autre analyse peut l’emporter.

Alexander H. Jordan et Benoît Monin (Département de psychologie de l’Université Stanford) se sont intéressés à la manière dont un individu va réagir à de telles situations pour défendre ou reconstruire son image de soi.

Dans une première expérience, 57 participants (dont 31 femmes) se sont trouvés dans une situation comparable à celle décrite ci-dessus, le « collègue » refusant de participer faisant bien sûr partie de l’équipe des expérimentateurs, à l’insu du « cobaye ». Deux situations de contrôle ont été organisées : l’une où il n’y avait pas de « rébellion » de la part du collègue ; l’autre où la rébellion avait lieu au début de la tâche et non au cours de celle-ci, de sorte que le « cobaye » acceptait son travail en toute connaissance de cause (il serait seul à la suite de la défection du comparse). Après l’expérience, les sujets devaient s’évaluer eux-mêmes et leur collègue sur l’intelligence, la confiance, la moralité et le sens de l’humour (gradient de 1 à 7). Il en ressort que le seul trait affecté par la mésaventure est la moralité : les individus ayant été largués en cours de route se sont jugés plus moraux que les autres, sans que change l’évaluation relative de l’intelligence, de la capacité à inspirer confiance ou du sens de l’humour. Jordan et Monin y voit une confirmation de l’hypothèse « sucker-to-saint » (de la bonne poire au saint, littéralement) : la moralisation est une stratégie choisie pour renforcer l’image de soi. Pour appuyer cette conjecture, ils ont réalisé une seconde expérience (84 participants dont 44 femmes) dans les mêmes conditions que la première, avec une nuance : les membres d’un groupe devaient avant l’expérience décrire par écrit une action passée où ils avaient illustré leurs qualités personnelles (musicales, athlétiques, morales, etc. le choix était libre) ; le groupe de contrôle devait décrire les aliments absorbés dans les 48 heures précédentes. L’idée de Jordan et de Monin était la suivante : si les individus peuvent s’auto-valoriser juste avant l’expérience, ils auront moins besoin de se justifier après elle, lorsqu’ils auront été « largués » en cours de route. Et ce fut le cas : les bonnes poires ont, comme dans la première expérience, jugé qu’ils étaient plus moraux (sans variation des autres qualités) ; mais cette compensation psychologique a été atténuée dans le groupe des bonnes poires ayant renforcé l’estime de soi juste avant le test.

« Les gens clament qu’ils sont des saints, plutôt que s’estimer des bonnes poires, quand ils voient les autres utiliser des expédients auxquels ils n’avaient pas songé eux-mêmes », remarquent les auteurs. Et ils concluent : « Plutôt que confirmer des principes abstraits de justice, le jugement moral peut parfois aider simplement les gens à se sentir moins bêtes ».

Référence :
Jordan A.H. et B. Monin (2008), From sucker to saint: Moralization in response to self-threat, Psychological Science, 19, 8, 809-815, doi : 10.1111/j.1467-9280.2008.02161.x

Faux souvenirs et modifications de comportement

Les croyances erronées et faux souvenirs peuvent affecter durablement nos comportements, selon Elke Geraerts et ses collègues. Dans une étude venant de paraître dans Psychological Science, des chercheurs néerlandais et américains ont travaillé avec 180 sujets (dont 135 femmes, âge moyen 21 ans) divisés en deux groupes : les membres de l’un (120) se voyaient suggérer un faux souvenir selon lequel ils avaient été malades dans leur enfance après avoir consommé des œufs ; l’autre n’en recevait pas et servait de contrôle. Les chercheurs ont ensuite réuni les sujets autour d’un buffet, 24 heures et quatre mois plus tard. Dans les deux cas, ils ont observé que les sujets au faux souvenir consommaient moins de plats avec des œufs que les autres. Ce n’est pas la première fois que l’on met ainsi en évidence la capacité du cerveau à intégrer des informations fausses et à modifier en conséquence les attitudes et comportements du sujet. Dans les années 1980 et 1990, les États-Unis avaient connu des épidémies de faux souvenirs relatifs à des abus sexuels dans l’enfance ou à des abductions par des extra-terrestres. Dans le premier cas, on avait montré que les psychothérapeutes peuvent parfois créer ex nihilo des souvenirs traumatiques. Les lecteurs intéressés pourront consulter le site d’une spécialiste de la question, Elizabeth Loftus.

27.8.08

Doug Melton sur les iPS

Doug Melton est co-directeur du Harvard Stem Cell Institute. À la fin de l’année 2007, son équipe a publié ses travaux sur la mise au point de cellules souches induites (iPS pour induced pluripotent stem-cells) : au lieu de partir de cellules embryonnaires naturelles ou clonées par transfert nucléaire, les iPS sont obtenues directement des cellules différenciées d’un adulte, dont on reprogramme quatre gènes pour induire la pluripotence. Les Américains avaient été précédés un mois plus tôt par une équipe japonaise parvenue à un résultat similaire. Dans un entretien à Technology Review, Doug Melton évoque ces travaux et leurs implications, notamment pour l’étude des maladies dégénératives.

Des chiffres et des lettres : peut-on compter sans mots?

L’hypothèse de Sapir-Whorf postule un déterminisme linguistique de la cognition humaine : les mots ne serviraient pas seulement à désigner la réalité, ils fabriqueraient aussi la pensée. Sous sa forme radicale, elle est surtout due à Benjamin Whorf (Language, Thought, and Reality, 1956). On doit à cette hypothèse des « légendes urbaines » comme celle des Eskimos possédant des dizaines, voire centaines de mots pour désigner la neige, ce qui correspondrait à un affinement de la perception par le langage dans un contexte donné. Il a été montré que les Eskimos et les Anglais possèdent en réalité un vocabulaire numériquement comparable (et référentiellement similaire) pour désigner la neige. L’hypothèse de Sapir-Whorf était aussi un relativisme radical : à langues différentes, pensées différentes. Mais elle a été progressivement abandonnée en linguistique et neurosciences cognitives (de Chomski à Pinker). Un des derniers points où elle est discutée concerne les nombres : une étude de 2004 sur les Indiens amazoniens Piraha a par exemple montré que les locuteurs, ne possédant que trois mots (un, deux, plusieurs), éprouvent de grandes difficultés pour des opérations numériques supérieures à 3 (Gordon 2004). Ce qui suggère qu’en l’absence de mot, le calcul serait impossible, par exemple distinguer un groupe de 5 et de 7 items.

Mais ce travail vient d’être affiné et contredit par une nouvelle étude, dirigée par Edward Gibson (MIT, États-Unis). Les chercheurs ont montré que la langue Piraha ne possède en réalité aucun mot pour désigner une quantité exacte pas même l’unité (« un »). L’équivalent du mot « un » désigne en fait les petites quantités (indéterminée entre 1 et 4), le mot « deux » désigne des quantités plus grandes (5 à 10), le mot « beaucoup » des quantités supérieures indéterminées (à partir de 7). Or, malgré cette absence de mot, les Indiens Piraha ont été capables de réussir des évaluations numériques de quantités comprises entre 1 et 10. Les tests étaient non-verbaux, mais consistaient à additionner ou soustraire des éléments matériels d’une série pour en reproduire une autre. Les auteurs suggèrent que les échecs observés par Gordon dans les expériences de 2004 s’expliquent par l’âge très jeune des participants (enfants) ou par des explications incorrectes dans le déroulement des épreuves. Les tests ne permettent cependant pas de savoir si les Piraha possèdent une représentation mentale de la cardinalité des ensembles qu’ils savent reconstituer à l’identique. Gibson et ses collègues en concluent que l’existence de mot pour désigner les nombres n’est pas indispensable pour en posséder l’intuition, mais que l’invention de ces mots équivaut à la mise au point d’ « outils cognitifs » qui facilitent la représentation mentale.

Une conclusion similaire vient d’être tirée par une autre équipe, dirigée par Brian Butterworth (Institut des sciences cognitives, University College de Londres ; Université de Melbourne, Australie), dont les travaux doivent paraître dans les compte-rendus de l’Académie américaine des sciences (PNAS). Les chercheurs ont ici comparé trois populations de 45 enfants aborigènes (4 à 7 ans), une anglophone et assimilée vivant à Melbourne, deux autres ne parlant que leur langue native : Warlpiri et Anindilyakwa. Le Warlpiri connaît trois mots qui désigne l’un, le deux et le plusieurs au-delà du deux. L’Anindilyakwa a quatre locutions pour l’un, le deux, le trois (qui inclut parfois le quatre) et le plusieurs (plus que trois). Les adultes utilisent parfois des mots empruntés à d’autres locuteurs pour des quantités données (5, 10), mais les enfants ne les connaissent pas. Là encore, malgré la limitation de leurs langues, les enfants aborigènes ont montré des performances similaires à celles des enfants anglophones pour des tests numériques non-verbaux entre 1 et 10, incluant des additions, des soustractions ou des équivalences. Les auteurs concluent que « le développement des concepts d’énumération ne dépend pas de la possession d’un vocabulaire de mots désignant chaque nombre. L’explication alternative est que nous naissons avec la capacité de numérosités exactes et qu’utiliser des mots pour les nommer est utile, mais pas indispensable ».

Références :
Butterworth B. et al. (2008), Numerical thought with and without words: Evidence from indigenous Australian children, PNAS, online pub, doi :10.1073/pnas.0806045105
Franck M.F. et al. (2008), Number as a cognitive technology: Evidence from Pirahã language and cognition, Cognition, online pub, doi :10.1016/j.cognition.2008.04007
Gordon P. (2004), Numerical cognition without words: Evidence from Amazonia, Science, 306, 496–499.

Plomb, mercure, arsenic et autres remèdes

Comme toutes les médecines traditionnelles, les remèdes ayurvédiques connaissent un certain succès, notamment sur Internet. Prudence tout de même : une étude menée sur 193 substances achetées sur le net conclut que 20,7 % contiennent des doses de plomb, mercure et arsenic supérieures aux taux acceptés dans les pays occidentaux. L’une de raisons pourrait être le mode de préparation traditionnel rasa shastra, qui implique le mélange d’herbes, minéraux et sels métalliques. Ces mixtures seraient bénéfiques en très petites quantités et aux bons dosages : pourquoi pas, mais c'est une assertion qui reste cependant à démontrer par des études épidémiologiques, des tests cliniques et des analyses biologiques ad hoc. Bien que les adeptes des remèdes du temps jadis affirment que la médecine moderne occidentale rend les gens malades, l’espérance de vie indienne (69,25 ans) est encore de dix ans inférieure à celle des pays occidentaux…

23andMe : critique de la critique

Dans Libération, Joël Gellin critique la démarche de la société américaine 23andMe, dont nous avions parlé ici. Bien que la spécialité de son laboratoire de génétique cellulaire (Inra, Toulouse) soit les animaux de ferme, le chercheur semble avoir des idées bien arrêtées sur ce que l’animal humain devrait ou ne devrait pas faire. Analyse critique de ce discours.

« Tapez 23andMe sur la Toile (« 23 chromosomes et moi »). Pour 600 euros, on vous propose d’ouvrir le secret de votre propre ADN. Après une commande sur Internet, vous recevrez, en kit, un tube et une petite brosse pour récupérer un peu de salive. Vous envoyez le tout dans une enveloppe à l’adresse indiquée. Le but avancé est de vous fournir une information sur votre risque de développer une maladie parmi une liste proposée sur le site. »

Détail : ce n’est pas le seul but, on peut aussi bien comparer des gènes avec ceux de sa famille ou de ses amis, analyser ses gènes ancestraux (au sein de la phylogénétique des populations humaines), etc.

« Dans le domaine de la santé, les choses sont, en effet, compliquées. Il n’y a pas qu’un gène à l’origine d’un problème mais sans doute plusieurs qui interviennent chacun pour une partie infime du déclenchement d’une anomalie ou d’une maladie. La part du milieu (de l’environnement) et de votre mode de vie est énorme et primordiale. Dès lors, 23andMe peut donner, au minimum, une information mal adaptée. »

Non. 23andMe donne une information génétique : savoir si elle est « adaptée » ou non dépend de la pathologie et du gène concernés. Par exemple, pour une maladie monogénique autosomique récessive (déclenchée par la présence de deux gènes identiques du père et de la mère sur un même locus), savoir que je suis porteur sain est une information tout à fait pertinente en elle-même : elle signifie que si mon partenaire l’est aussi, il existe un risque non négligeable (25 %) que l’enfant développe la maladie. Pour une maladie polygénique, les plus répandues, un seul gène ne donne qu’une part de l’information et, en tout état de cause, une simple probabilité de déclenchement, lequel dépend aussi de l’environnement (mode de vie). Mais deux choses : il n’y a aucune raison que 23andMe (ou autres sociétés privées de testing) se contente d’un seul gène (si en 2010 ou 2020 on connaît 750 gènes en interaction qui influent sur le diabète, 23andMe peut donner de l’information sur ces 750 gènes et les probabilités affectées à leurs combinaisons) ; connaître un risque est toujours une information utile, même si l’on conçoit qu’une probabilité n’a rien d’une certitude (si je sais que je vis en zone inondable, je peux prendre certaines dispositions si je le désire, quand bien même je ne suis pas sûr d’une inondation dans mon existence).

« En France, l’obtention d’informations sur le génome humain est médicalement très encadrée. Les tests génétiques préventifs, par exemple pour le cancer du sein, ne sont proposés aux patientes qu’après une étude de la prévalence de cette maladie dans la famille. Si cette étude suspecte la présence d’un variant génétique délétère, c’est-à-dire pouvant, avec une grande probabilité, rendre malade, alors il y a un contrôle médical renforcé de la patiente. Mais ce test génétique ne vaut que pour un gène particulier, responsable que d’un petit pourcentage de cancers du sein. Si le test fournit par 23andMe indique que vous n’avez pas l’anomalie en question, qui est la seule testée, cela ne dit pas grand-chose sur vos risques de faire un cancer. Ainsi, vous devez conserver une bonne hygiène de vie et effectuer les classiques mammographies. Donner cette information sans ces précisions peut avoir un effet démobilisateur. »

Il ne faut pas prendre les gens pour des idiots : l’absence des gènes de prédisposition aux formes familiales du cancer du sein (famille BRCA et autres) ne signifie évidemment pas l’absence de risque de cancer du sein, et donc n’annule pas l’intérêt des procédures de dépistage. S’il est un jour avéré que j’ai un génotype optimal vis-à-vis des cancers, je ne vais pas pour autant prendre mes vacances à Tchernobyl ou fumer trois paquets de cigarettes par jour en toute insouciance.

« 23andMe est, me semble-t-il, au minimum un ‘business à risque’. Le premier des risques reste bien entendu un manque éventuel de fiabilité des tests effectués par cette société. Rien nous permet aujourd’hui de s’assurer de la qualité des prestations proposées. En France, les tests sont réalisés par des laboratoires surveillés et labellisés. »

L’argument n’est pas très fort : les laboratoires de 23andMe sont sous licence du gouvernement fédéral américain. On peut supposer que cela impose des critères de qualité. Soit on démontre la faiblesse de ce contrôle qualitatif, soit on évite la suspicion gratuite.

« À l’origine de cette société, on trouve le cofondateur de Google. On flaire la bonne idée. Celle, à mon avis, de créer des sites d’internautes sur la Toile regroupant des individus partageant un certain nombre de particularités génétiques. À terme, l’ambition des concepteurs de 23andMe est peut-être de créer des communautés d’un nouveau type, pourquoi pas des ethnies nouvelles. »

Pourquoi pas en effet ? Cela fait partie des dimensions intéressantes du projet, la capacité ou non de créer des communautés sur base d’affinités génétiques. Il est peu probable que cela soit l’usage majoritaire (qui donc a envie de choisir un ami ou un partenaire sous le seul prétexte qu’il partage X % de ses gènes ?). Mais en soi, cela sera amusant d’observer ce genre d’effets sociaux s’ils existent. Il n’est inscrit sur aucune table de la loi que les individus doivent ignorer leur patrimoine génétique et qu’ils ne sont pas libres d’en faire l’usage qui leur plaît.

« De multiples informations pourraient y circuler au jour le jour entre ces communautés et 23andMe. Des informations sur leur mode de vie et leur vécu, sur des échanges de conseils et d’informations sur la survenue de troubles de santé, d’intolérance à des médicaments ou d’une maladie. Tout cela sans clause bien claire de confidentialité. Cela fait penser au logiciel en ligne Facebook. Ce projet 23andMe créerait un double flux d’informations capable à terme de rendre pertinentes ou de renforcer certaines des prédictions fournies par cette société. Rapidement, 23andMe - Google pourrait construire une base de données médicales très détaillée et évolutive mais aussi, on l’a compris, très lucrative. Google fait-il de la recherche en génétique humaine ? »

Le manque de confidentialité relève pour le moment du procès d’intention, tout comme le défaut de qualité des tests suggéré ci-dessus. 23andMe spécifie que chacun partage ses données avec qui il le souhaite et que celles-ci sont protégées par divers niveaux de cryptage. On peut ne pas les croire, mais la moindre des choses est de démontrer, pas d’insinuer. Pour ma part, j’espère bien que Google fera de la recherche en génétique humaine – et 23andMe a déjà des accords avec des laboratoires en ce sens : si l’on peut constituer ainsi, sur un mode ludique et commercial au départ, des bases de données de dizaines ou centaines de millions de personnes, cela sera un outil très utile pour la recherche. Sans que l’anonymat des informations soit nécessairement brisé. Le patrimoine génétique d’un individu fait partie des informations de vie privée n’ayant pas à être divulguées ou connues sans son consentement. Elles ne sont ni plus ni moins « sacrées » que les autres aspects de sa vie privée – il est curieux de se défier d’un côté de la fascination du gène et d’entretenir d’un autre côté cette même fascination.

« Ce projet peut changer votre rapport à la vie. Avec cette société, le client croit devenir l’acteur de sa santé sans intermédiaire médical. C’est le passage d’une partie de la médecine dans un secteur strictement commercial. »

Non. Il faut cesser d’en rabattre ainsi sur « le médecin » en toute généralité, avec des nostalgies hippocratiques d’un autre âge. Il existe par exemple une profession appelée conseil génétique, celle-ci doit simplement faire son travail, en lien avec l’individu et la médecine lorsque cela est nécessaire : il y aura de plus en plus de demandes, tant mieux.

« Il s’agit bien de se mettre à nu de se regarder de l’intérieur, de se montrer. On peut comparer cela à l’exposition à Paris sur le monde du corps, l’anatomie y est révélée grâce à de véritables corps humains écorchés et plastifiés ou encore, à la mode des échographies de fœtus en trois dimensions, en dehors de tout contrôle médical. S’agit-il d’une pornographie ? En tout cas, c’est bien une manière obscène de montrer, de se montrer. »

Les considérations morales de Joël Gellin n’engagent que lui : personne n’est obligé de montrer son string dans la rue, de mettre des photos et vidéos personnelles sur son blog, de partager ses gènes sur un site. 23andMe est une plateforme privée (et non publique) où des individus échangent ce qu’ils désirent sur des informations privées. Ceux à qui cela déplaît n’ont qu’à faire autre chose, personne ne les contraint à quoi que ce soit.

Conclusion : Joël Gellin illustre assez bien les tropismes de l’idéologie dominante française en ce qui concerne la génétique. Défiance de principe à l’égard des innovations privées n’ayant pas reçu l’aval de l’autorité publique, infantilisation des individus, moralisation suspicieuse, mise en avant systématique des dangers, des dérives, des dérapages, défense à tonalité corporatiste du Médecin et du Chercheur comme figures seules détentrices du savoir pertinent, etc. On est au XXIe siècle, les amis, il faudrait desserrer la cravate, descendre de sa chaire, discuter avec les gens de leurs désirs et de leurs besoins plutôt que réfléchir en petits comités d’experts aux prochaines normes étatiques promulguées au nom de la Morale et du Savoir à majuscules initiales.

26.8.08

Une histoire de corne-cul...

Le genre Onthophage rassemble la plupart des scarabées (1800 espèces) et l’onthophage taureau (O. taurus) est fréquent dans les prairies de l’Ancien comme du Nouveau Monde. Harald Parzer et Armin Moczek viennent d’étudier quatre populations séparées de cet animal, ainsi que dix autres espèces de son genre. Ils ont mis en évidence que les espèces comme les populations connaissent un équilibre différent entre la taille des cornes (qui servent aux mâles dans les combats) et des organes génitaux (dont l’utilité pour les mêmes mâles n’est pas à rappeler). Cette tendance est marquée puisqu’en moins de 50 ans, les populations séparées d’O. taurus présentent déjà des valeurs moyennes différentes pour la répartition de ces deux traits chez les mâles. Le point intéressant est que la modification d’un caractère sexuel secondaire (corne) est associée à celle d’un caractère sexuel primaire (organes génitaux) qui est elle-même liée à la probabilité de spéciation (divergence telle entre populations que l’interfécondité devient problématique et que de nouvelles espèces apparaissent). Cet exemple, parmi bien d’autres, rappelle la puissance évolutive de la sélection sexuelle par rapport à la sélection naturelle : le processus de co-évolution antagoniste (la Reine rouge de Leigh Van Valen) est stimulé par les compétitions entre mâles et femelles pour l’accès aux partenaires. L’espèce Homo sapiens, qui a évolué très rapidement et qui présente un énorme cerveau aux pouvoirs étonnants, devrait sans doute réfléchir à cela. Peut-être notre environnement est-il rempli de caractères sexuels secondaires indirects, après tout…

Référence:
Parzner H.H. et A.P. Moczek (2008), Rapid antagonistic coevolution between primary and secondary sexual characters in horned beetles, Evolution, online pub., doi :10.1111/j.1558-5646.2008.00448.x

Illustration : Département de biologie, Université de l’Indiana.

La vérité sans révélation ni soumission

De la proposition « la science est la discipline qui énonce des propositions vraies / vérifiables », on a tendance à déduire une sorte de devoir vis-à-vis des propositions scientifiques dans nos actions individuelles ou collectives : il faudrait admettre leur vérité, mais encore s’y soumettre. Un tel devoir n’est cependant inscrit nulle part dans la science elle-même, c’est une position morale. Elle est issue d’une mentalité religieuse qui prétendait elle aussi détenir la vérité (révélée, et non démontrée), et faisait en même temps de ce discours vrai un instrument de domination sur les corps et les esprits. Mais le chercheur n’est pas le prêtre, la science n’est pas une église. « Tout est bon », disait Feyerabend en défense de l’anarchisme épistémologique : les hommes peuvent tout à fait vivre et penser dans l’erreur si cette erreur leur est plaisante, voire salutaire ; et même d’un point de vue scientifique, les hypothèses ou conjectures les plus farfelues gagnent à être considérées et testées. Je considère pour ma part que la connaissance scientifique est bénéfique aux groupes humains qui la produisent et l’utilisent ensuite à travers l’innovation technologique, et qu’elle jouit d’une sélection socio-culturelle favorable dans l’histoire, les pensées logiques gagnant lentement du terrain au détriment des pensées magiques dès lors que la survie et la reproduction en sont dépendantes. Mais j’accepte volontiers, et en un sens je souhaite, que d’autres groupes humains produisent et utilisent d’autres discours.

Banques ombilicales

La Fondation Anthony Nolan (Royaume-Uni) annonce l’ouverture, le 11 septembre prochain, de sa Banque de sang de cordon ombilical et d’un Institut de recherches associé. Le sang de cordon ombilical contient des cellules souches multipotentes (mais non totipotentes, car déjà différenciées) du nouveau-né. Les scientifiques estiment que ces cellules auront peut-être un usage thérapeutique majeur dans les années et décennies à venir, selon l’évolution des recherches fondamentales et appliquées dans le domaine de la différenciation cellulaire, de la biothérapie et de la médecine régénérative. Il existe diverses banques privées de sang de cordon ombilical (en Europe, CryoGenesis ou Swiss Stem Cells Bank par exemple), bien que la pratique soit interdite ou découragée dans bon nombre d’Etats.

J'suis moi-même, tu vois, j'suis authentique

De ce côté-ci de l’Atlantique, D. Servan-Schreiber et ses amis sonnent le tocsin contre les psychotropes ; sur l’autre rive, réputée plus pragmatique, Jason Riis et ses collègues se sont interrogés sur le rapport que les individus entretiennent avec les pilules d’amélioration de soi. Au moins les jeunes individus, puisque leurs enquêtes ont concerné environ 360 étudiants. Dans plusieurs tests, ils ont analysé 19 traits susceptibles d’être améliorés par voie pharmaceutique dans les prochaines années : créativité, concentration, mémoire épisodique, aptitude logique, confiance en soi, contrôle de soi, aisance sociale, etc. Les étudiants devaient exprimer, par diverses méthodes directes ou indirectes, s’ils estimaient que ces traits sont importants dans le « soi » et son identité ; et de manière indépendante s’ils étaient prêts eux-mêmes à améliorer le trait, à interdire ou non cette amélioration, à juger l’amélioration moralement acceptable.

Il en ressort que le premier critère de décision pour les individus est associé à l’importance présumée d’un trait dans l’identité personnelle : plus ce trait révélerait le « moi authentique », moins on est disposé à le modifier. Les meilleurs scores pour l’indice d’identité ont été obtenus pour des traits émotionnels et sociaux : gentillesse, empathie, confiance en soi, humeur et motivation pour les cinq premiers ; aptitude logique, aptitude dans les langues étrangères, moindre besoin de sommeil, mémorisation rapide et réflexes pour les cinq derniers. Il est assez intéressant que la notion subjective d’identité soit ainsi rabattue sur ce genre de traits : être bon en maths ou en musique serait plutôt impersonnel alors qu’être gentil et sociable serait très personnel. La corrélation entre la volonté d’utiliser/ne pas utiliser une pilule d’amélioration et la volonté d’interdire/autoriser cet usage est nulle, ce qui signifie que les jugements pour soi et pour les autres n’empruntent pas les mêmes cheminements psychologiques ; en revanche, et logiquement, il existe une forte corrélation entre l’acceptabilité morale et la volonté d’interdire, ces deux aspects présentant une forte variance entre les individus.

La dernière étude des auteurs a consisté, cette fois auprès de 500 personnes dont certaines plus âgées (18 à 45 ans), à analyser si la publicité pour ces pilules d’amélioration est susceptible de modifier les comportements des consommateurs potentiels. Ils ont donc inventé une molécule hypothétique sur le point d’être mise sur le marché (Zeltor), garantie sans effets secondaires et à effet réversible, avec deux signatures différentes : Zeltor, Deviens plus que ce que tu es ; Zeltor, Deviens ce que tu es. Zeltor a été testé sur deux traits, l’un à faible valeur dans l’identité personnelle (concentration), l’autre à forte valeur (aisance sociale). De manière prévisible, le Zeltor pour la concentration a d’autant plus intéressé le consommateur potentiel qu’il en promettait « plus » (recherche directe d’amélioration sur un trait jugé non personnel) ; et le Zeltor pour l’aisance sociale a provoqué plus d’attrait selon qu’il garantissait au contraire de simplement devenir ce que l’on est (meilleure acceptabilité d’un changement personnel s’il est présenté comme une révélation de soi). A ceux qui s’apprêtent à se lamenter sur les terribles manipulations publicitaires qui nous privent de notre libre-arbitre, on précisera quand même que l’effet d’un changement de signature fut faible (de 45 à 50 % d’intérêt selon la variation de signature).

Ce genre d’études serait évidemment plus instructif avec un panel plus étalé en âge (le rapport à soi et le besoin de compenser ses « défaillances » se modifient avec le vieillissement), ainsi qu’une analyse des divergences sexuelles et culturelles. Il faudrait également comparer des promesses exactement identiques avec des remèdes naturels / traditionnels d’un côté et des produits pharmaceutiques de l’autre, afin d’évaluer la part de résistance à la nouveauté et à l’artificialité dans le refus des modifications de soi.

Référence :
Riis J. et al. (2008), Preferences for enhancement pharmaceuticals: The reluctance to enhance fundamental traits, J. Consum Res, online pub., doi :10.1086/588746

(Merci à Jason Riis de m’avoir fait parvenir son article).

25.8.08

Fatales éoliennes

Les gentilles éoliennes font la joie des gentils amoureux de la gentille nature. Mais pas celle des chauves-souris, qui figurent au premier rang de leurs victimes, bien avant les oiseaux. Une équipe de chercheurs vient de publier dans Current Biology l’explication du phénomène : les chauves-souris ne sont pas seulement heurtées par les pales, mais souffrent de barotraumatismes dus aux microchutes de pression autour des éoliennes. Leurs poumons de mammifères y sont plus sensibles que ceux des oiseaux.

Haro sur les pilules du bonheur

Après les téléphones mobiles, le chevalier blanc David Servan-Schreiber s’en prend aux psychotropes, nous apprennent Le Monde et Psychologies Magazine. Pas de pot : nous étions déjà déprimés en attendant notre tumeur au cerveau par portable interposé, sans pouvoir nous relaxer avec une cigarette (qui donne des maladies graves, c’est marqué sur le paquet) ou un verre d’alcool (qui nuit à la santé, c’est inscrit sur la bouteille), voilà que l’on ne doit plus lorgner du côté des pilules…

Avec 14 autres signataires donc, essentiellement psychiatres, Servan-Schreiber dénonce l’abus d’antidépresseurs : « Nous consommons, en France, trois fois plus de tranquillisants et d'antidépresseurs que nos voisins européens. Et cette surconsommation augmente chaque année. » Le problème ? « Des centaines de milliers de personnes (…) se voient prescrire ces médicaments sur de longues durées, sans être averties de leurs effets secondaires ni bénéficier d'un suivi régulier. » Donc, il semble nécessaire et urgent « d'alerter l'opinion et les pouvoirs publics de cette surmédicalisation du mal être et sur l'existence d'alternatives non médicamenteuses aussi efficaces. » La solution ? « Les techniques ayant fait leurs preuves pour soulager la douleur psychique non pathologique ne manquent pas : psychothérapie, phytothérapie, relaxation, méditation, activité physique… C'est pourquoi il nous semble important de faire connaître et de favoriser ces réponses différentes à nos souffrances. »

Du côté des chiffres : 21,4 % des Français ont consommé des médicaments psychotropes dans l'année, contre 15,5 % des Espagnols, 13,7 % des Italiens, 13,2 % des Belges, 7,4 % des Néerlandais et 5,9 % des Allemands. Et, précise le Monde : « Les "troubles mentaux" représentent le quatrième poste des dépenses pharmaceutiques de l'assurance-maladie et se situent - avec 122 millions de boîtes vendues en 2005 - au deuxième rang en termes de prescriptions, derrière les antalgiques. De 300 millions d'euros en 1980, le montant remboursé par l'assurance-maladie pour ces produits a atteint 1 milliard d'euros en 2004. Un adulte sur quatre utilise un psychotrope au moins une fois par an. » (Les Français sont certes en tête des Européens, mais on remarquera au passage qu’ils sont 78,6% à ne pas consommer de psychotropes régulièrement.)

Je ne souhaite pas particulièrement faire l’éloge du Prozac ou de Lexomil, mais je trouve que la problématique n’est pas clairement située. S’agit-il d’une question économique relative au remboursement ? Y a-t-il des problèmes de santé induits par la consommation des psychotropes (lequels au juste) ? Cela pose-t-il un dilemme moral de préférer une pilule à une thérapie ou un cours de yoga ? Les individus ont-ils une obligation de ne pas altérer leur personnalité par des molécules psycho-actives ? Les médecins doivent-ils refuser les requêtes de confort ?

Serge Hefez, psychiatre et signataire, pose d’abord le problème sous l’angle économique : « Cela semble lié à une façon de nous en remettre à la protection de l’État providence. Plus concrètement, notre système de santé, sans doute le meilleur d’Europe, pour ne pas dire du monde, fait que quiconque, sans débourser un centime, peut quasiment dans la minute avoir accès à un médecin et à des médicaments. » Trou de la Sécu donc, une spécialité hexagonale. Cependant, il y ajoute rapidement un versant éthique : « Nous considérons que toute souffrance est un état pathologique. La grande nouveauté de ces dernières décennies, c’est de médicaliser la souffrance, comme de médicaliser la mort, le deuil. Cela revient à faire passer l’idée que la normalité, c’est le bonheur. Certes, chacun de nous aspire à la joie, à la félicité, mais dire que c’est normal, cela fait basculer ce qui est de l’ordre de la souffrance et de la tristesse du côté du pathologique, donc du médical. C’est une question éthique, une dynamique dans laquelle nous sommes pris, patients comme médecins. » Mais peut-être que la distinction normal-pathologique ou médical-non médical est elle-même en train de basculer, justement. Si telle pilule aide à la décontraction ou à la bonne humeur par action directe sur des neurotransmetteurs ou leurs récepteurs, elle est finalement du même ordre qu’un jogging, une séance de relaxation ou tout ce qui présente un effet comparable sur le cerveau, par des voies différentes. À moins que l’on considère la douleur (ou la pesanteur) psychique comme favorable à la construction de l’esprit… mais il faut au minimum justifier cela.

Après l'espace et le temps

Dans un petit livre de vulgarisation (Qu’est-ce que le temps ? Qu’est-ce que l’espace ?), le physicien Carlo Rovelli nous introduit à son parcours de chercheur et à son domaine, la théorie des boucles en gravitation quantique, une concurrente de la théorie des cordes. Le point troublant de sa conclusion : la description de l’espace-temps au niveau quantique peut se faire sans aucune référence à l’espace et au temps dans ses équations. Les formes a priori de notre sensibilité (espace et temps) ne seraient pas celles de notre Univers. Ces divers champs sientifiques sont encore hypothétiques et spéculatifs, comme le reconnaît (et y insiste) avec une grande honnêteté Rovelli, et attendent des confirmations expérimentales inaccessibles pour le moment. Mais si la relativité générale et la mécanique quantique parviennent à s’unifier au cours de ce siècle, comme tous les physiciens l’attendent, il faudrait une nouvelle « critique de la raison pure ». En fait, elle serait déjà nécessaire, depuis l’existence de la RG et de la MQ : mais où est-elle ? Ne serait-ce plus possible et alors pourquoi ?

Dans les plis et replis du cortex

On sait que le cerveau de notre espèce a gagné en volume au cours de l’hominisation. Une des caractéristiques anatomiques est en la gain en convolution, c’est-à-dire le fait que le cortex se développe en plis et replis (gyrencéphale) plutôt qu’en surface lisse (lissencéphale). Des travaux phylogénétiques ont montré, chez les primates, que plus le cerveau est volumineux, plus il est circonvolué de la sorte. Ces replis sinueux sont aussi appelés des gyres. Les facultés cognitives supérieures de l’homme, et notamment l’intelligence, sont-elles associées à cette circonvolution corticale ? On a rapporté l’intelligence (au sens psychométrique : facteur g) à divers traits neurobiologiques auxquels elle est (faiblement à chaque fois) corrélée positivement : taille du cerveau, volumes de diverses régions subcorticales, épaisseur du corps calleux, volume de tissus intracrânien (matière grise et matière blanche). Mais jamais aux circonvolutions ou gyrifications corticales.

Une équipe germano-américaine a utilisé une nouvelle technique d’imagerie cérébrale qui permet de mesurer, sur des milliers de points de surface, le degré de gyrification ou convolution du cortex. 30 hommes et 35 femmes en bonne santé, dont on a mesuré au préalable le QI (total, verbal, performance), se sont donc prêtés à un examen des plis et replis de leur surface corticale. Aucune corrélation négative n’a été trouvée. Une corrélation positive a en revanche émergé entre la section postérieure externe du gyrus cingulaire gauche, à la jonction du lobe occipital et du lobe temporal médians (la zone rouge dans l'hémisphère gauche LH de l'illustration ci-dessus). Ce résultat n’est pas évident à interpréter. On pourrait supposer qu’une gyrification plus prononcée dans une aire corticale donne simplement plus de surface, donc plus de neurones. Mais divers travaux ont suggéré que l’intelligence n’est pas spécialement associée au nombre absolu de neurones, ni à la consommation totale en glucose (mesure de l’activité neurale), ce qui implique que les personnes intelligentes utiliseraient mieux leurs neurones, plutôt que d’en mobiliser beaucoup. Les circonvolutions dans l’aire observée pourraient être associées à une meilleure connectivité des réseaux neuronaux, mais une analyse anatomique serait nécessaire pour le confirmer. Autre point : de précédents travaux ont montré des corrélats anatomiques avec d’autres régions cérébrales que le lobe médian temporo-occipital ici mis en valeur (lobe préfrontal latéral, temporal inférieur, occipital). On avait néanmoins suggéré que ce lobe médian temporo-occipital est une zone de convergence entre les informations visuelles et linguistiques, et pourrait comme tel être associé de manière plus directe aux différences interindividuelles dans la rapidité et l’efficacité de traitement de ces informations. Enfin, concernant le dimorphisme sexuel, les femmes présentent une gyrification plus prononcée dans les lobes frontaux, mais la seule différence significative d’avec les hommes est une corrélation positive entre les circonvolutions de l’aire préfrontale droite (BA 10 de Brodmann), le QI verbal et le QI total (mais pas le QI performance). Les participants présentaient cependant le même QI verbal moyen, ce qui suggère que cette différence anatomique latéralisée indique sous-tend peut-être des stratégies neurocognitives différentes pour les mêmes tâches.

Référence et illustration :
Luders E. et al. (2008), Mapping the relationship between cortical convolution and intelligence: Effects of gender, Cerebral Cortex, 18, 2019-2026, doi:10.1093/cercor/bhm227

(L’article peut être chargé en [pdf] sur la page du Structural Brain Mapping Group, Département de psychiatrie, Université d’Iéna)

24.8.08

Bon, beau, vrai

Le bon et le mauvais, le beau et le laid, le vrai et le faux : l’esprit mystique pense que tout est confondu, que le bon est nécessairement vrai et beau. Rien n’indique cette nécessité dans le monde : on doit supposer qu’elle n’existe que dans certains cerveaux, certaines visions du monde. Le mystique croit généralement que cette vision fait de lui un élu, il voit ce que personne d’autres ne voit, il en accorde le don à une puissance surnaturelle au lieu d’y voir le produit de son esprit. Pour ceux qui séparent ces propriétés, il y a le type moral (primauté au bon sur le vrai et le beau), le type esthète (primauté au beau), le type logique (primauté au vrai). Impossible de m’entendre avec le type moral : il m’indispose très vite, tout chez lui respire la contrariété, la pesanteur, l’acrimonie, le ressentiment, la femelle inquiète ou le mâle sourcilleux, les éléments les plus ennuyeux ou les plus venimeux de l’espèce humaine.

Retour sur clones

Le site Wired revient sur la naissance en août de 5 chiots clonés à des fins commerciales. Madame Bernann McKinney, citoyenne américaine, possédait un chien nommé Booger, qu’elle adorait comme il se doit. Mais Booger eut la mauvaise idée de mourir en avril 2006. Désespérée, sa maîtresse fit d’abord appel à la société Genetic Savings & Clone. Comble de malchance : cette société a déposé son bilan en septembre 2006. Elle avait réussi à cloner quelques dizaines de chats, mais aucun chien, depuis sa fondation au début des années 2000. Mme McKinney se tourna donc vers la Corée : le Pr Woo Suk Hwang y avait réussi le premier clonage d’un chien, un lévrier afghan appelé Snuppy, dont le faire-part était paru dans Nature en 2005. (Il avait aussi prétendu avoir cloné des embryons humains, mais cette annonce se révéla être une fraude). Mais un collègue de Hwang, Lee Byeong-chun, dirige désormais le département scientifique une société privée de biotechnologie, RNL. Comme on peut le constater sur leur site, RNL a pour offre principale des solutions de thérapie cellulaire humaine. Mais les Coréens sont des pragmatiques, à moins qu’ils n’aient été très sensibles à la douleur de Mme McKinney : toujours est-il qu’après accord sur le transfert de technologie avec l’Université nationale de Séoul, les chercheurs ont décidé d’ajouter le clonage animal dans leur offre commerciale. Le travail sur Booger a commencé début mai 2008. Et s’est donc achevé le 28 juillet 2008 par la naissance de cinq nouveaux Booger en bonne santé. Pour un coût de 50.000 dollars tout de même, ce qui ne place pas la photocopie de Médor à la portée de toutes les bourses. Comme le souligne Wired, on ignore cependant le nombre de tentatives nécessaires pour obtenir ces naissances viables. Le clonage des chiens est notoirement difficile : quand l’équipe de Hwang avait cloné Snuppy, il avait fallu 1095 embryons transférés chez 123 chiennes. La faillite de Genetic Savings & Clone paraissait signaler la retombée du soufflé dans le domaine du clonage, après les quelques années de fort enthousiasme ayant suivi la naissance de Dolly, en 1996. L’exploit coréen signifiera-t-il le retour en grâce des carbon-copies à fins privées ? Une société californienne, BioArts International, a été relancée sur les cendres de Genetic Savings & Clone. Américains et asiatiques ne lâchent donc pas le marché du clonage de compagnie.

Récompense différée, intelligence et mémoire de travail

Nous passons notre temps à sacrifier des buts immédiats à des buts lointains : ne pas trop manger pour garder la ligne, ne pas trop boire pour conserver l’esprit lucide, ne pas être trop égoïste pour préserver divers liens sociaux, ne pas dépenser notre argent pour en avoir en cas de difficultés, etc. Bref, nous alignons une part de nos comportements sur un mode réflexif et projectif plutôt qu’expressif et impulsif. Cette tendance a été mesurée en psychométrie par des tests de dépréciation de la récompense différée (delay discounting dans la littérature, qui est essentiellement anglo-saxonne) : un gain plus ou moins important selon un délai plus ou moins long. Elle est associée à des bénéfices : par exemple meilleure réussite scolaire, universitaire et professionnelle, moindre probabilité de psychopathologie et de comportement criminel. Il se trouve que ces caractéristiques sont aussi celle de l’intelligence, psychométriquement appelée g ou capacité cognitive générale. L’équipe de Jeremy R. Gray a publié cette année deux papiers pour analyser les liens entre l’intelligence et la capacité à différer des récompenses. Le premier est une méta-analyse de 24 travaux précédemment parus depuis la première étude sur le sujet (1962), éligibles parmi 110 au total pour leur significativité statistique (taille d’effet). Il en résulte une corrélation négative (-.23) entre le facteur g et la dépréciation de récompense différée. Le second travail a consisté à analyser le rôle de la mémoire de travail dans ce processus. 103 adultes en bonne santé se sont livrés à un test sur la récompense, un autre sur l’intelligence et une imagerie cérébrale lors du passage du test de récompense. Du point de vue neurologique, les différences les plus notables ont été observées dans une aire du cortex préfrontal antérieur gauche, déjà connue pour intégrer les diverses informations que le cerveau reçoit en temps réel. Les différences d'activation neurale de cette aire sont corrélées à g (.26) et à la dépréciation de la récompense différée (-.44).

Références :
Shamosh N.A. et al. (2008), Individual differences in delay discounting: Relation to intelligence, working memory, and anterior prefrontal cortex, Psychological Science, 19, 9 online pub.
Shamosh N.A. et J.R. Gray (2008), Delay discounting and intelligence: A meta-analysis, Intelligence, 36, 289-305, doi:10.1016/j.intell.2007.09.004

Mystique, logique

Ou je suis d’accord avec Russell : que le type mystique et le type logique sont deux manières inconciliables de penser, le premier produisant des erreurs (des énoncés faux). Ou je suis en désaccord avec Russell : que le type mystique serait bénéfique à la vie sociale de l’homme. Là aussi, il produit des erreurs, dès lors que la vie sociale en question excède quelques cercles restreints.

23.8.08

Télévision, piège à cons

Dans Le Monde, Christophe Girard s’émeut des évolutions de la télévision depuis 30 ans. Il dénonce ce qu’il appelle le « zipping », c’est-à-dire la décomposition des images au moment du montage en de multiples plans rapides : « L'évolution principale de la télévision ces trente dernières années est un changement d'ordre technique dont les effets et les conséquences dépassent largement le domaine de la technique audiovisuelle, mais engagent des bouleversements dans la réception, l'interprétation et l'utilisation des images. Il s'agit de la réduction de la durée de chaque plan, qui excède désormais rarement dix secondes. Le nombre de plans par minute (NPM) a en effet augmenté de façon vertigineuse, du fait de la multiplication des caméras utilisées simultanément, au point que l'unité de mesure d'un plan télévisuel est désormais la seconde. Et alors, dira-t-on ? Le principal effet d'une telle accélération du flux d'images est d'une part d'interdire tout développement d'une même image ou idée en l'atomisant en une multiplicité d'images ou d'idées plus ou moins disparates, et d'autre part de placer l'esprit du téléspectateur sous tutelle, dans un état de fascination télévisuelle. »

La faute en revient (oh surprise) à la dictature du marché : « Cette vitesse des images et ce raccourcissement de chaque plan répondent au besoin économique de l'industrie télévisuelle de tenir le spectateur captif, lequel besoin relève directement ou indirectement, via le critère de l'Audimat, de l'ordre économique de la rentabilité. La télévision ne se conçoit elle-même qu'en termes de parts de marché. Par conséquent, la soumission de la télévision au diktat économique de la concurrence se trahit déjà au niveau du traitement technique des images télévisées. Le montage télévisuel des images ressortit à ce titre à l'univers de la publicité. »

A dire vrai, je n’ai rien contre cette interprétation technique et économique de l’évolution des contenus de la télévision, il y a certainement une part de vérité, parmi d’autres facteurs. Je m’interroge surtout sur l’état d’esprit, assez répandu, que cette interprétation révèle. A quoi rêvent au juste les gens comme Christophe Girard ? Une masse spontanément orientée vers son édification intellectuelle, qui regarderait pendant trois heures une émission en plan fixe sur des questions artististiques, scientifiques ou philosophiques plutôt que zapper sur les dernières conneries de télé-réalité en concurrence sur cent chaînes différentes ? Et si cette masse ne s’oriente pas spontanément vers cela, une contrainte pour qu’elle le fasse, une intervention nécessaire des directeurs de conscience télé-visuelle, une renationalisation des chaînes, un modèle chinois universalisé ?

Girard va bien moins loin : « Si la télévision doit être aussi un service public et pas seulement une activité économique, il faut donc qu'elle se dote d'un observatoire critique télévisé de la télévision qui démonte jour après jour sous les yeux du télé-spectateur les montages vus la veille à la télé pour que l'analyse des causes neutralise la fascination des effets. » C’est plus modeste. Plus français aussi : faisons un enième observatoire public des activités privées, continuons le rêve panoptique du contrôle, dans ce cas précis de contrôle public du contrôle privé sur les pauvres mentalités (dont la nature profonde est apparemment d’être contrôlées et contrôlables). Plus vain également : ne seront intéressés par les travaux de cet observatoire que les gens possédant déjà une distance critique vis-à-vis de la télévision (les autres vont zapper), les mêmes gens qui se plaignent de la dégradation de la télévision mais qui, en réalité, se concoctent pour beaucoup des programmes de bonne qualité en sélectionnant les émissions les plus exigeantes sur les chaînes les plus pointues. Plus pauvre enfin : l’analyse de Girard est monomédiatique, alors que les pratiques individuelles sont multimédiatiques. Il suffit de voir comment Internet soulève régulièrement les divers lièvres des autres médias pour comprendre que les règles du jeu ont changé. Qu’ils servent les propagandes étatistes hier ou les publicités capitalistes aujourd’hui, les médias one-to-many ont toujours été en priorité des instruments de captation des esprits et de composition des masses – masses nationales, masses totalitaires ou masses marchandes – et non d’édification des individus : croire le contraire, c’est reconduire la légende dorée que le quatrième pouvoir s’est inventée, tentant de faire avaler qu’il existait dans le seul but de contrebalancer les trois autres et qu’il était lui-même exempt de toutes les tares propres au pouvoir.

Au fond, le présupposé de base de tout cela est : « la télévision rend con » (con est une propriété vaste ; ici, elle signifie manque d’esprit critique par rapport aux images manipulées et anesthésiantes). J’incline à penser que c’est faux, que la télévision n’a pas cette capacité inouïe de modeler l’intelligence de ses spectateurs, et que l’on se dirige plutôt vers un schéma inverse où seuls les cons regarderont encore la télévision (ou ne regarderont que la télévision, ou la feront regarder à leurs enfants dès le berceau, etc.). Girard parle de la téléréalité : « En montrant à l'écran des gens du public, la télévision a créé chez le téléspectateur anonyme le sentiment fantasmatique de faire lui-même partie, sinon de fait du moins en droit, de la télévision, en d'autres termes d'en être lui aussi. Cela revient pour la télévision à se donner elle-même comme le suprême objet du désir : le rêve de chacun est d'"y passer", telle une étoile, un animateur ou un figurant cathodique d'un soir. » Eh oui, les médias deviennent ainsi des miroirs : dis-moi ton média et ton programme, je te dirai qui tu es. Car la multimédiatisation produit peu à peu cette cruelle évidence : tu regardes ce qui te reflète.