29.2.08

Désir, esprit, capital

Bernard Stiegler est philosophe, co-fondateur de l’association Ars Industrialis, directeur du département de développement culturel au Centre Georges Pompidou. Je présente et critique ici ses positions à partir de deux ouvrages récents. On lira également avec profit l’édition intégrale d’un entretien paru dans le magazine Chronic’Art.

Autodissolution de l’économie libidinale

La pensée très foisonnante de Bernard Stiegler n’étant pas simple à aborder dans le format du blog, on prendra l’aboutissement comme point de départ, à savoir la crise actuelle du capitalisme. Selon Stiegler, le capitalisme ne souffre pas seulement d’un épuisement des ressources matérielles, mais avant tout d’un épuisement des ressources symboliques. Nous vivons une phase d’extinction du désir qui est au fondement du développement industriel moderne. Toute économie est libidinale, mais le désir en question n’existe que s’il parvient à se projeter dans des consistances, opposées par l’auteur aux simples subsistances, c’est-à-dire des postures symboliques qui donnent leur sens à l’existence individuelle et collective en lui permettant de se dépasser dans un au-delà de sa condition présente. Ce désir accouche notamment des « singularités », c’est-à-dire des rencontres toujours singulières des individus entre eux, ou des individus avec leur société et leur époque. Or, le capitalisme contemporain organise une régression du désir dans la pulsion. Sous la pression d’un actionnariat attendant des retours sur investissement toujours plus rapides et élevés, ce capitalisme entreprend de détruire tout ce qui sépare l’individu de la consommation immédiate, répétée, compulsive, donc tout ce qui peut induire chez lui une mise en perspective critique de son comportement et, plus largement, une inscription de son existence dans un domaine non rentable et non calculable. La prolétarisation ne se fait plus seulement chez le producteur (privé du contrôle des moyens de production), mais aussi et surtout chez le consommateur (privé du contrôle conscient de sa consommation). L’expression la plus crue de cette tendance en a été donnée par un célébrissime propos de Patrick Lelay, alors PDG de la chaîne de télévision TF1, tenue en 2004 : « Pour qu'un message publicitaire soit perçu, il faut que le cerveau du téléspectateur soit disponible. Nos émissions ont pour vocation de le rendre disponible : c'est-à-dire de le divertir, de le détendre pour le préparer entre deux messages. Ce que nous vendons à Coca-Cola, c'est du temps de cerveau humain disponible. »

Comment en est-on arrivé là ? Selon Stiegler, nous vivons l’âge culturel et cognitif du capitalisme, matérialisé par la place prépondérante des technologies de l’information et de la communication, elles-mêmes une branche de ce que les Anglo-Saxons appellent le complexe NBICT (Nanotechnology, Biotechnology, Information and Cognitive Technology). Ce capitalisme n’a rien d’immatériel, même s’il produit des choses moins palpables que le capitalisme industriel des XIXe et XXe siècles, comme des images ou des musiques, des loisirs ou des connaissances : il est au contraire « hypermatériel » selon Stiegler, au sens où il arraisonne la matière sur une nouvelle échelle qualitative, en la manipulant dans ses constituants premiers (atomes et molécules) et en la fusionnant avec l’information dont elle est porteuse. La numérisation est à cet égard une étape supplémentaire dans le processus de rationalisation du monde déjà décrit par Max Weber, processus assuré selon Stiegler par la forme compatible, calculable de la raison, c’est-à-dire la capacité de la raison à faire entrer le monde en équations, à imposer la prédictibilité des événements, à discrétiser le réel (la discrétisation est une méthode mathématique pour transformer un ensemble continu en sous-parties discontinues, « discrètes », et le rendre accessible à un modèle de résolution numérique). Ce capitalisme hypermatériel donne des pouvoirs accrus sur la réalité, mais ouvre également la possibilité d’une « société de contrôle » où les agents économiques entreprennent de formater les individus et les populations sous le seul prisme de leurs objectifs particuliers (le profit en dernier ressort).

Le capitalisme culturel-cognitif n’est pas seulement une entreprise de production de loisirs et de divertissements, il est aussi une méthode d’analyse des marchés et d’organisation du travail qui infuse peu à peu toutes les anciennes formes du capitalisme. Le marketing individualisé (rassembler toutes les informations sur un consommateur et sa niche) ou le knowledge management (optimiser chaque instant de production par l’analyse en temps réel des flux d’informations et de connaissances) en sont des illustrations. Sur le plan cognitif et culturel, ce capitalisme produit entre autres choses un affaissement de l’imaginaire et de l’intelligence, processus de « débilisation » croissante dont la télé-réalité est une illustration actuelle. Sur le plan humain, il accélère la « dissociation », l’incapacité à s’inscrire dans un sens et un destin collectivement partagés (« individuation physique et collective » que Stiegler reprend de Simondon).

Le diagnostic de Stiegler est donc fort sévère, mais on aurait tort de le classer dans la catégorie en pleine expansion des technophobes et autres adversaires du progrès. Au contraire, Stiegler assume la nécessité de poursuivre le capitalisme en changeant son esprit. De même, il considère que l’existence humaine s’inscrit par essence dans des techniques de description et d’appropriation du monde, qu’il nomme à la suite de Platon et Derrida les « hypomnemata » et qui organisent la « grammatisation » du réel, c’est-à-dire sa lecture et son écriture possibles par l’esprit, lecture et écriture qui peuvent être scientifiques, artistiques, religieuses, etc. selon l’hypomnèse choisie. Bref, pour Stiegler, la condition humaine est techno-logique dès l’origine, toute société humaine est un certain agencement de ses systèmes techniques, l’avenir sera toujours à l’industrialisation, quel que soit le nom exact que nous donnons à la forme dominante de la maîtrise technique de nos milieux. Aussi le philosophe oppose-t-il aux tendances abrutissantes du capitalisme hypermatériel la « valeur esprit » d’un autre capitalisme, tout aussi industriel et technologique, mais visant quant à lui à favoriser les processus d’as-sociation, d’individuation psychique et collective, visant en d’autres termes à élever et nourrir l’esprit plutôt qu’à le contrôler et à l’endormir. L’Europe en voie de constitution lui paraît le cadre d’instauration possible de ce capitalisme-là, à condition que les pouvoirs publics de ce côté-ci de l’Atlantique cessent d’être les remorques sans imagination des innovations nord-américaines et qu’ils osent une politique industrielle à hauteur des enjeux de la « société du savoir » en pleine émergence.

Le philosophe et la pétasse

Telles sont, résumées à grands traits, quelques-unes des analyses de Bernard Stiegler sur notre époque. J’en partage un certain nombre, mais je reste néanmoins sceptique sur d’autres points. Ce qui me gêne le plus, comme souvent avec la philosophie, c’est une certaine généralisation du propos, venant soit à manquer de précision sur ce que les concepts désignent dans la réalité, soit à pécher par un certain idéalisme. Prenons le désir, par exemple. D’abord, de quoi parle-t-on au juste ? Je l’ignore. Stiegler nous assure que le capitalisme est en passe de détruire le désir dans l’objet de consommation, mais cette assertion très générale est non démontrée, et peut-être non démontrable en l’état. Si par désir on entend une sorte de capacité à se projeter au-delà de son existence végétative et à ressentir une motivation pour ce qui nous excède, je ne pense pas un instant que tous les humains sont identiques devant le désir et j’estime qu’il y a dans l’abrutissement devant les médias de masse ou dans la consommation permanente une bonne dose de servitude volontaire. Autrement dit, tout le monde ne sublime pas de la même manière ses pulsions dans le désir. Certains Romains se satisfaisaient du pain et du cirque, certains Modernes se complaisent de l’hypermarché et de la télé : on pourrait peut-être cesser d’y voir la conspiration permanente d’un pouvoir dégradant, et envisager l’hypothèse certes inconfortable que ces plaisirs dégradés satisfont toujours une certaine proportion de la population. La massification n’a pas attendu TF1 ni Hollywood, elle a accompagné la modernité et elle a d’ailleurs toujours suscité le même type de critique désolée, surtout de la part de ceux qui voyaient leur rêve d’un peuple de citoyens éclairés se dissoudre dans la réalité d’une foule d’individus abrutis.

La médiatisation généralisée, qui caractérise l’étape actuelle du capitalisme, fait que cette médiocrité s’étale désormais largement et admire avec satisfaction son reflet dans le miroir de la télé-réalité ou du blog. Que certains marchands exploitent cette prédisposition à l’avachissement intellectuel et à la pauvreté symbolique n’a rien d’admirable, cela va de soi, mais cela ne signe pas non plus l’anéantissement de l’esprit – pas plus que celui-ci ne fut anéanti quand 90 % de la population passait sa courte vie aux travaux des champs, tâche peu gratifiante pour l’intellect, on en conviendra. (Au passage, le concept d’esprit n’est pas non plus défini avec une grande précision par Stiegler. Il laisse entendre qu’il le comprend au sens du « mind » anglais, tout en suggérant qu’il est différent d’un « ensemble e neurones » et en précisant à l’occasion que le religieux est « une dimension essentielle de la vie de l’esprit ». C’est assez inquiétant pour ceux qui considèrent — j’en suis — le reflux du religieux comme la condition déterminante du surgissement de l’esprit moderne et de son extraordinaire développement dans le domaine des sciences, des arts et des techniques…).

Constater l’appauvrissement du désir par sa marchandisation ou sa monétisation ne fait finalement que poser le contour du problème sans en explorer le cœur. Désirer, tendre vers le désirable, c’est toujours mobiliser une certaine quantité de ressource, d’énergie, trouver des moyens pour viser une fin. Or, l’argent est devenu en quelque sorte l’équivalent universel de cette ressource – au sens où l’argent mesure une certaine quantité d’énergie (de travail) que l’on redéverse ensuite dans l’échange. Mais cet argent en soi n’a ni odeur, ni couleur ni saveur, c’est-à-dire qu’à l’exception de quelques accumulateurs demi-pathologiques il n’est pas visé pour lui-même, mais pour ce qu’il permet, et ce qu’il permet est justement la réalisation de ses désirs. Peut-on en sortir ? L’histoire ne manque pas d’exemples de sociétés où l’argent avait une place bien moins importante que dans la nôtre. Mais, et ceci explique peut-être cela, les mêmes sociétés présentent des traits que notre mentalité moderne n’est plus disposée à accepter : faible circulation des élites et hiérarchies endogames, usage de la tradition ou de la force comme régulateur du rapport social, et surtout accès d’un petit nombre seulement aux biens et symboles de prestige (ou réputés tels). J’ajouterai que l’enfer (de la consommation, de la marchandisation ou de la monétisation), c’est toujours les autres. Quand un intellectuel accumule des livres dans sa bibliothèque, c’est pour satisfaire de louables penchants. Quand une jeune fille accumule des escarpins dans sa chambre, c’est pour obéir à un réflexe de pétasse. Pour un observateur neutre, l’un et l’autre ont pourtant le même type de comportement (accumuler des biens issus du marché en vue de renforcer leur prestige chez leurs pairs). On en revient donc toujours au même point : qui au juste, et avec quelle légitimité, décrète les formes abaissées et élevées du désir, les traits nobles et ignobles de l’esprit ? Platon, au moins, précisait que la cité idéale où le philosophe prend en charge ce genre de décret n’a rien de démocratique…

Je manipule, tu manipules, il manipule…

Autre constat principal de Stiegler : le capitalisme financiarisé manipule les esprits par diverses techniques de conditionnement et de management. C’est certainement exact, mais que peut-on réellement en conclure ? D'abord, tous les pouvoirs connus manipulent de cette manière leurs sujets et la manipulation publicitaire semble nettement plus inoffensive que les manipulations totalitaires ou autoritaires de jadis. Au-delà, il apparaît que la manipulation est le mode normal des relations humaines en général, des relations économiques ou commerciales en particulier. Certains anthropologues ont même fait l’hypothèse d’une « intelligence machiavélique » comme traits distinctif de la cognition des primates sociaux, de l’homme en particulier, c’est-à-dire d’une intelligence orientée vers le détournement des désirs et volontés d’autrui. Pour critiquer la manipulation, on présuppose souvent qu'il existerait un mode non-manipulatoire d'être-ensemble, un mode parfait où toute l'information disponible serait transparente à tous, où chacun aurait l'égale capacité d'analyser cette information pour en déduire le comportement conforme à ses désirs ou à ses intérêts. J'en doute. Le cerveau paraît programmé pour croire plutôt que critiquer et, toutes choses égales par ailleurs, il paraît moins dangereux qu'il croie dans les vertus d'une lessive plutôt que dans les commandements d'un dieu. Ce qui précède ne signifie pas que j'approuve en soi la manipulation publicitaire, mais qu'à tout prendre, elle semble assez bénigne. Il est fort utile de la décrire et de l'analyser, comme tout phénomène social, mais assez vain d'espérer sa disparition prochaine ou d'y voir un péril majeur de notre temps.

Ce qui précède mène évidemment à douter des effets réels d’une politique publique nationale ou européenne en matière de technologie de l’esprit. Il faut dire que les contours de cette politique sont particulièrement flous chez Stiegler. S’agit-il seulement d’augmenter les budgets alloués par l’Union européenne au programme-cadre de recherche et développement technologique (PCRDT) ? On ne pourrait évidemment que s’en féliciter, la coûteuse politique agricole commune ne semblant pas vraiment l’enjeu décisif du siècle à venir. Et à côté de l’incitation publique, il y a certainement d’autres moyens de booster une recherche européenne faisant souvent pâle figure à côté de ses compétiteurs américains et asiatiques. On imagine cependant que « l’écologie industrielle de l’esprit » demande plus que des investissements budgétaires dans la recherche, mais on ne sait pas au juste comme un État, fut-il fédéral et européen, peut élever l’esprit de ses citoyens, ni décréter quels sont les désirs « recevables ». Par l’éducation ? Pourquoi pas à nouveau, mais les meilleurs systèmes éducatifs n’ont jamais empêché une bonne partie de ceux qui en sortaient de se noyer dans les délices de la consommation ou de se vider les neurones devant les spectacles conçus pour cela. Bref, on aimerait en savoir plus sur le contenu d’un programme aux annonces ambitieuses mais à la faisabilité assez problématique au premier abord.

Au-delà de l’effet de séduction d’une lutte affichée contre le conformisme et l’abrutissement, je reste donc dans l’expectative sur la valeur du diagnostic et des remèdes proposés par Bernard Stiegler.

Références :
Stiegler B. (2008), Economie de l’hypermatériel et psychopouvoir, Paris, Mille et Une nuits.
Stiegler B. et Ars Industrialis (2006), Réenchanter le monde, la valeur esprit contre le populisme industriel, Paris, Flammarion.

Illustration : Patricia Piccini, The Young Family (2002),

Neuro-imagerie de la créativité musicale

Bien qu’ils travaillent à l’Institut national de la surdité et des autres troubles de la communication (NIDCD), Charles J. Limb et Allen R. Braun se sont intéressés à un thème non pathologique, en l’occurrence la créativité chez les musiciens de jazz. Expérience peu commune, donc, et pas très pratique non plus : six jazzmen confirmés ont dû subir une imagerie par résonance magnétique fonctionnelle (IRMf) en même temps qu’ils jouaient d’un clavier posé sur les genoux. Les chercheurs ont imaginé deux situations : le paradigme Gamme, fondé sur une gamme en do majeur, que les musiciens pouvaient jouer normalement ou en improvisant une mélodie simple ; le paradigme Jazz avec une mélodie originale et un accompagnement orchestral (en écouteurs démagnétisés pour ne pas perturber l’IRMf), que les musiciens pouvaient reproduire simplement ou en improvisant. On a donc deux niveaux de complexité (simple, élevée) et deux niveaux de jeu (mémorisation, improvisation).

Résultat : quelle que soit la complexité, le cerveau ne fonctionne pas de la même manière en reproduction simple et en improvisation. Dans ce dernier cas, plusieurs signatures cérébrales spécifiques apparaissent. Le cortex préfrontal dorsolatéral, région impliquée dans le suivi de sa propre performance, se désactive tandis que le cortex préfrontal médian se réveille. Ce dernier est lié aux comportements ou pensées auto-initiés, par exemple quand on invente une histoire. Ce pattern d’activité neuronale ressemble un peu à celui du rêve. Autre point : lors de l’improvision, les aires sensorielles se sont activées (toucher, ouïe, vision) alors que l’environnement des musiciens étaient exactement le même dans les différents paradigmes. La créativité musicale semble ainsi procéder par une inhibition partielle du contrôle et de la représentation de soi permettant ensuite un éveil du « monde intérieur ».

Référence :
Limb C.J., A.R. Braun (2008), Neural substrates of spontaneous musical performance: An fMRI study of jazz improvisation, PLoS ONE, 3, 2, e1679, doi: 10.1371/journal.pone.0001679.

Illustration : ibid.

Corps plein d’organes

Jadis chercheur au département anatomie et pathologie de l'Université de Heidelberg, Gunther von Hagens a inventé en 1977 la plastination. Ce procédé de conservation des tissus consiste à vider les corps de leurs fluides (eau, sang) et de leurs graisses pour les remplacer par une résine de silicone. L’ensemble est ensuite figé par gazéification. L’anatomiste allemand, qui avait conçu la plastination pour améliorer les cours de médecine, en a vite perçu la portée esthétique. Depuis 1995, il organise des expositions itinérantes baptisées Body Worlds. Lesquelles n’ont pas manqué de susciter toutes sortes de protestations et d’indignations, notamment la célèbre Reclining Pregnant Woman (une femme enceinte de huit mois, qui avait fait don de son corps et de son fœtus au chercheur en apprenant qu’elle était atteinte d’une maladie incurable). La quatrième édition vient de s’ouvrir au Musée de la Science et de l’Industrie de Manchester (Royaume-Uni), avec pour thème dominant le sport. Avis aux amateurs de boyaux, viscères, muscles et nerfs.

(Nota : l’exposition n’est jamais venue en France ; peut-être la vigilance bio-éthique enfume-t-elle aussi le cerveau des commissaires, curateurs et autres conservateurs?).

Informations :
Museum of Science and Industry, Manchester ; Body Worlds site officiel.

28.2.08

Le fantasme de l'Un

Dans les spectres qui hantent la pensée moderne, la nostalgie de l’unité figure en bonne place : unité de l’esprit, de la société, de la nation, de l’humanité, du cosmos. Nos clercs laïcs n’ont pas rompu avec le fond religieux de leur exercice. Il faut croire que le virus du monothéisme est difficile à déloger des cerveaux qu’il a contaminés. Mais les hommes n’en finissent jamais de se séparer — ni les clercs de se lamenter, donc.

Duchamp, du signe, des temps

Pour ceux qui n’ont pas encore lu Nihilisme et modernité, L’artiste ou la toute-puissance des idées ou Qu’est-ce qu’une œuvre ?, Marcel Duchamp, portrait de l’anartiste est une bonne occasion de se familiariser avec la pensée de Michel Guérin, en même temps que de découvrir une analyse fine du père du ready-made — cette année verra le quarantième anniversaire de sa disparition.

Pourquoi le geste de Duchamp nous parle-t-il encore ? En quoi la Roue de bicyclette ou la Fontaine forment-elles des événements déterminants de la pratique artistique, dont le sens continue de se déployer ? Il y a bien sûr la fascination pour le personnage, sa paresse assumée, sa distance souveraine vis-à-vis des courants et des avant-gardes, son ironie mordante, et plus encore son intelligence de l’époque. Les pages où Michel Guérin rapproche Duchamp de la figure nietzschéenne du nihilisme actif sont les plus convaincantes de ce court essai : ce qui s’est joué à l’aube du siècle dernier, ce qui se joue encore à l’aurore du nôtre, c’est bien la très lente dissolution des croyances et des valeurs « éternelles » dont l’art se pensait comme le reflet ou l’incarnation ici-bas. Y compris leurs formes historicisées, celles-là mêmes qui ont séduit les avant-gardes et reproduit, jusque vers les années 1960, la figure traditionnelle de l’artiste malgré l’inventivité formelle de ses œuvres.

Référence :
Guérin M. (2008), Marcel Duchamp, portrait de l’anartiste, Lucie-Champ social, Nîmes.

Illustration : la Roue de bicyclette, Paris 1913 (réplique 1964, © CNAC).

27.2.08

Sagesse du matin

Dilapidons les héritages, et tout recommencera.

Liberté surveillée

On me certifie que la liberté règne. Mais je n’ai jamais entendu autant d’injonctions à se comporter et à penser de telle ou telle manière, provenant des entreprises, des médias, des lobbies, des Etats, de tous les pouvoirs en place. Après le proclamation formelle des libertés individuelles, le grand jeu social consiste à les surveiller, les contrôler, les limiter, les encadrer, les compliquer — bref, vider peu à peu ces libertés de leur substance, décourager peu à peu les esprits d’en faire usage. Qu’il s’agisse de renforcer la sécurité, de préserver l’environnement, de promouvoir la socialité, de diminuer les inégalités, d’améliorer la santé, de restaurer la morale, de respecter la mémoire, de responsabiliser l’employé, d’éduquer le citoyen, chacun a une bonne raison, parfois plusieurs, de brider la liberté d’action et d’expression des individus. Et bien souvent, ces innombrables pulsions de contrôle se transforment en un fatras de lois, règlements, directives, décrets. Quand ceux-là mêmes qui participent assidûment au processus m’affirment parfois, avec le visage sérieux, la voix grave et l’œil sévère, que nous vivons dans une société « ultralibérale » au bord de « l’anomie », le décalage entre les mots et la réalité devient grotesque — ou inquiétant. Non, décidément, je ne pense pas qu’Homo sapiens dans sa version actuelle est mûr pour la liberté. Son passé de primate social pèse encore bien trop lourd.

26.2.08

Ma télé va mourir : le déclin de l’Eglise cathodique

Lancée dans les années 1930 et 1940, démocratisée dans les années 1950 et 1960, la télévision a longtemps été le média dominant des démocraties industrielles. Comme l’imprimé avant elle, elle a joué un rôle non négligeable dans le processus de modernisation : unification des mentalités nationales, reproduction des idéologies dominantes, hégémonie culturelle de la bourgeoisie, massification des habitus de la classe moyenne, développement du consumérisme.

Le supplément économique du Monde (26 février 2008) constatait hier un début de crise dans le modèle économique des télévisions hertziennes généralistes, concurrencées par les chaînes numériques ou les programmes spécialisés câble-satellite, mais aussi par les nouveaux médias (Internet, mobile) intégrant des quantités croissantes d’images. Voici quelques mois, l’European interactive advertising association (EIAA) avait révélé que les Européens âgés de 16 à 24 ans utilisent pour la première fois Internet plus souvent qu’ils ne regardent la télévision : 82 % surfent sur Internet entre 5 et 7 jours par semaine, contre seulement 77 % qui regardent la télévision avec la même régularité (baisse de 5 % par rapport à 2006). Les 16-24 ans passent en moyenne 10 % plus de temps à surfer sur Internet qu’à regarder la télévision. Près de la moitié (48 %) déclarent qu’Internet est directement responsable du fait qu’ils regardent moins la télévision. (cf. Médiascope Europe 2007, EIAA).

Dans le cadre de l’enquête du Monde, le sociologue Eric Maigret relève : « La télévision est le seul média qui a réussi à créer des rendez-vous réguliers pour un grand public, au sens propre du terme, un rituel collectif virtuel qui permet à chacun de faire la même chose que beaucoup d'autres, au même moment. Nos études montrent que le deuxième sujet de conversation, au travail ou à l'école, est, après le travail ou l'école, le programme de télé de la veille ! L'individualisation est un aspect de la modernité, mais elle n'efface pas la demande d'appartenance sociale à laquelle répond la télévision à partir de ses ‘grands rendez-vous’ que sont les journaux de 13 et 20 heures, les matches, les séries américaines et les émissions de télé-réalité. »

Peu importe ici la qualité de ces rituels collectifs ou le niveau moyen des conversations humaines. Le point notable semble surtout la fragmentation prévisible des imaginaires sous l’effet de la multimédiatisation. Une moitié environ de la population va continuer à vivre avec comme horizon principal d’information et de discussion les grandes chaînes de télévision, « faisant la même chose que beaucoup d’autres » comme le dit Maigret, c’est-à-dire communiant par l'échange des extra-platitudes issues des écrans extra-plats. Cette répétition de l’identique apportera peu sinon rien à l’évolution sociale, de même qu’elle ne sera pas un enjeu réel d’hégémonie culturelle (au sens de Gramsci), tout au plus une niche importante de profitabilité économique. Mais une autre moitié se détachera peu à peu de cette télé-grégarité pour imploser en de multiples sous-groupes ayant chacun leur référentiel, la logique réticulaire de l’Internet étant bien sûr à l’avant-garde du phénomène depuis une dizaine d’années. Les classes potentiellement les plus influentes pour l’avenir (catégories socio-professionnelles aisées, jeunes) sont déjà les plus engagées sur cette voie.

Ce retrait des médias centraux a une bonne probabilité d’accentuer trois phénomènes déjà amorcés : la crise des identités collectives héritées (nation, classe, religion) en faveur d’une pluralité d’identités choisies (réseaux, tribus, associations, sectes) ; le déclin de l’idéologie dominante fabriquée par une caste fermée d’intellectuels ; la stratification cognitive de la société entre producteurs et consommateurs d’informations, de symboles, de modes, de codes, etc. Inversement, la contagion des idées nouvelles, l’association sélective des individus sur la base d’affinités réciproques, la pluralité des expériences de vie vont se trouver renforcées. Inutile de préciser que l’on se félicite ici de cette phase émergente de notre modernité.

Références :
EIAA (2007), Médiascope Europe.
Maigret E. (2008), « La télévision est le seul média capable d’assurer un rituel collectif », Le Monde, 26 février.

Illustration : DR.

Dans le rétroviseur du futur

On regardera demain l’Etat moderne comme on regarde aujourd’hui une dynastie égyptienne ou précolombienne. Avec de l’admiration pour ce que son existence a permis, et de l’étonnement pour ce qui permettait son existence.

25.2.08

L’humain se clone de mieux en mieux

Lorsque le chercheur coréen Woo Suk Hwang avait annoncé dans Science, en 2005, la création de lignées de cellules souches à partir d’embryons humains clonés, la nouvelle avait fait grand bruit. Et lorsque le même chercheur a été convaincu de fraude pour ce résultat en 2006, la couverture médiatique ne fut pas moins importante.

Comparativement, c’est avec une remarquable discrétion que les travaux d’une équipe de la société Stemagen (La Jolla, Californie) ont été publiés ce mois-ci dans la revue Stem Cells. L’équipe, dirigée par Andrew French, est pourtant parvenue à créer un embryon humain cloné à partir d’une cellule adulte déjà différenciée. Rappelons en quelques mots la procédure de ce clonage par transfert nucléaire. Une cellule est prélevée chez un adulte (ici, ce furent des cellules de peau chez des hommes). Cette cellule est déjà différenciée, c’est-à-dire qu’elle appartient à un tissu particulier. On ôte le noyau de cette cellule, qui contient l’information génétique (le génotype de l’adulte), et on le place dans un ovule féminin (ovocyte) qui a été pour sa part privé de son propre noyau (énucléé). Une manipulation permet ensuite de déclencher une embryogenèse : la cellule artificiellement reconstruite se développe « comme si » elle était un œuf récemment fécondé, et relance donc la production d’un embryon. Ce dernier est doté des précieuses cellules souches totipotentes, c’est-à-dire des cellules qui ne sont pas spécialisées (comme celle prélevé au départ du processus), mais capable de produire n’importe quel tissu. Et ce tissu sera compatible avec le donneur de la cellule initiale, permettant ainsi des autogreffes.

L’équipe d’A. French a produit ainsi 21 embryons, 5 ont survécu jusqu’au stade blastocyste (5 à 7 jours, avec 40 à 72 cellules) et parmi eux, un a été certifié comme un véritable clone, avec dans son noyau l’ADN nucléaire du donneur et dans le cytoplasme l’ADN mitochondrial de la donneuse d’ovocyte. En revanche, contrairement à la tentative de Hwang, les chercheurs de Stemagen n’ont pas développé de lignées de cellules souches à partir de cet embryon. Leur résultat est néanmoins remarquable. Au départ, 29 ovocytes avaient été prélevés chez trois femmes volontaires, ce qui est très peu par rapport aux centaines d’essai habituellement rapportées dans la littérature sur le clonage. Ces femmes suivaient de surcroît une procédure de fécondation in vitro et il s’agissait d’ovocytes surnuméraires, ce qui ne devrait pas poser de problèmes éthiques majeurs.

Le clonage thérapeutique est une étape importante de la médecine dite régénérative, qui consiste à soigner ou reconstituer nos tissus et organes malades à partir de nos propres cellules souches, sans avoir recours à des donneurs (avec les problèmes connus de pénuries et de rejets). Par ailleurs, certains envisagent le clonage thérapeutique comme un préalable du clonage reproductif, qui viserait cette fois à reproduire un individu adulte. Quoique dénoncé par la majorité des comités de bio-éthique, et interdit dans bon nombre de pays, le clonage reproductif pourrait séduire des couples stériles n’ayant aucun autre moyen de donner naissance à un enfant biologique. Plus généralement, ce clonage pose la question de la liberté d’usage de leur corps par les individus, dès lors qu’ils sont consentants, et de la légitimité des Etats à intervenir de manière autoritaire dans les décisions individuelles et familiales relatives à la reproduction.

Référence :
French A.J. et al., Development of human cloned blastocysts following somatic cell nuclear transfer with adult fibroblasts, Stem Cells, 26, 2, 485 -493.

Illustration : ibid.

24.2.08

La singularité approche

L’univers et la vie inventent en permanence. La gravité, la sexualité ou l’esprit peuvent ainsi être considérées comme des inventions de la matière et de l’énergie. Dans son essai récemment traduit en français, l’ingénieur, essayiste (et prophète) Ray Kurzweil nomme « singularité » la prochaine grande invention de l’univers. Particularité : elle naîtra sur la planète Terre depuis l’espèce humaine, plus précisément depuis l’évolution technologique ayant pris le pas sur l’évolution biologique et fusionnant avec elle. La singularité telle que l’entend Kurzweil, c’est tout simplement le règne de l’information au sens fort du terme, c’est-à-dire « ce qui met en forme » l’ordre du cosmos comme du vivant. N’importe quel caillou de 1 kg contient quelques milliards d’atomes émettant des informations, même en l’absence de système nerveux ou simplement cellulaire. La vie est une forme plus sophistiquée de cette information, avec des arrangements atomiques complexes (les molécules comme l’ADN, l’ARN, les protéines, etc.) possédant des codes internes d’instruction, capables de donner naissance à des organismes assimilant l’énergie disponible de leur milieu. Ainsi, quelques milliers de gènes seulement emprisonnés dans une cellule unique vont produire en quelques mois un organe aussi complexe que notre cerveau. L’évolution technologique s’apprête à dépasser les meilleures réalisations de l’évolution physique et biologique pour ordonner la matière et l’énergie à partir de l’information.

Cette approche de l’information s’applique ainsi à l’espèce humaine et à ses produits intellectuels ou artefactuels : « Chaque forme de connaissance humaine ou d’expression artistique, nous explique Kurzweil, peut être exprimée comme une information digitale ». En analysant les progrès de l’humanité depuis le paléolithique, notre perspective est faussée. Nous voyons une lente croissance linéaire, alors que celle-ci est devenue exponentielle. La modernité comme explosion des connaissances scientifiques et des applications technologiques est ainsi le prélude de la singularité selon Kurzweil. L’exemple le plus célèbre de ce caractère exponentiel est la loi de Gordon Moore en informatique, formulée en 1965 par le co-fondateur d’Intel, prévoyant un doublement de puissance de calcul des processeurs tous les dix-huit mois à coût constant. Cette loi se vérifie depuis trente ans, malgré des phases de ralentissement. Nous en sommes déjà à l’échelle nanométrique (<100 style="font-style: italic;">

« J’appelle cette évolution technologique la loi des rendements croissants », nous confie Ray Kurtzweil (au passage, la traduction « loi du retour accéléré » dans la version française du livre est assez fantaisiste, et ce n’est pas un cas isolé). Sa conséquence la plus immédiate : vers 2020, nous atteindrons la capacité analytique d’un cerveau humain (environ 10^16 calculs par seconde) pour 1000 dollars ; vers 2040, et pour le même coût, on aura l’équivalent informatique d’un milliard de fois l’intelligence de toute l’espèce humaine réunie. Car pour Kurzweil, l’intelligence humaine est essentiellement du calcul : « Le cerveau connaît des processus digitaux et analogiques, ces derniers étant par exemple l’action des hormones ou des neuroransmetteurs ; or, outre le calcul digital en mode binaire, nous savons aussi simuler l’équivalent des procédés analogiques par des algorithmes ». Avec Marvin Minsky, Douglas Hofstadter, Alan Turing et quelques autres, Ray Kurzweil est évidemment un chaud partisan de ce que l’on appelle l’IA (intelligence artificielle) forte, c’est-à-dire l’hypothèse qu’il n’y aura pas de différences fondamentales entre une conscience et une machine simulant une conscience. Et dans son esprit, cela va bien au-delà du simple test de Turing où il est impossible de distinguer un homme d’une machine (placés derrière un mur) dans un dialogue courant : Kurzweil fait largement écho aux travaux contemporains de Stephen Wolfram, un mathématicien britannique de renommée mondiale ayant suggéré dans un essai récent (A New Kind of Science) que les automates cellulaires seront à même de modéliser et de comprendre la complexité de l’univers là où les mathématiques traditionnelles montreront de plus en plus leurs limites.

Ainsi, l’intelligence humaine se considère encore comme unique, et au pinacle de l’évolution, mais elle prépare en réalité l’émergence d’une intelligence bien supérieure, au regard de laquelle sa puissance de calcul sera celle d’un insecte. « Gardez à l’esprit que nous n’allons pas faire un bond de géant entre notre monde actuel et le monde tel que je le décris dans quelques décennies, précise Kurzweil. Nous irons de l’un à l’autre par des milliers de petites étapes, chacune petite et apparemment sans conséquence. C’est l’effet cumulé et convergent de ces avancées qui va modifier en profondeur ce que nous sommes ». On le voit dans bien des domaines. Les logiciels et matériels de jeux d’échec étaient terrassés par l’intelligence humaine, puis ils ont remporté les tournois. Les logiciels et matériels de bio-informatique peinaient à déchiffrer les séquences ADN en une décennie, puis ils analysent des génomes entiers en quelques jours. Les logiciels et matériels de neuro-imagerie observaient grossièrement des régions cérébrales assez larges, ils atteignent désormais la précision du neurone individuel.

Au-delà de ces considérations théoriques, quelles seront les conséquences concrètes de cette révolution en cours de l’intelligence artificielle ? Ce que l’auteur nomme « les trois révolutions GNR : génétique, nanotechnologie, robotique ». Non seulement l’humain va modifier la matière à un niveau jamais atteint (l’atome, les particules élémentaires), non seulement il va automatiser cette transformation intelligente de la matière, mais il va également se l’appliquer à lui-même en fusionnant son évolution biologique avec l’évolution technologique.

Quand on lui parle des résistances des mentalités à de telles modifications substantielles de l’humanité, Ray Kurtzweil s’amuse : « Mais vous avez déjà des cyborgs qui circulent autour de vous, les personnes atteintes de la maladie de Parkinson, dont les neurones ont été détruits et qui ont un ordinateur de la taille d’un pois implémenté dans le cerveau. La toute dernière génération de ces implants neuraux permet au patient de télécharger directement un nouveau logiciel depuis l’extérieur de son corps ». Et au-delà des cas particuliers de maladie ? « Distinguer la thérapie de l’amélioration est une catégorisation fallacieuse. Ce qui est ‘normal’ n’est pas évident : les capacités humaines ont une vaste gamme dans tous les domaines. Surtout, nous sommes l’espèce qui a l’habitude d’aller au-delà de ses limites. Nous ne sommes pas restés fixés au sol. Nous ne sommes pas restés sur notre planète. Nous ne sommes pas restés dans nos limites biologiques. L’espérance de vie était de 20 ans voici un millénaire, de 37 ans en 1800. Nous sommes la seule espèce à connaître ce genre de métamorphose. Il y a déjà beaucoup d’extensions informatiques que l’on peut placer dans notre corps et notre cerveau. Et nous finirons par considérer que c’est un excellent endroit pour les disposer ».
On ne s’étonnera donc pas que Ray Kurtzweil parte en guerre contre les innombrables interdits que la bio-éthique entend castrer nos progrès technoscientifiques : « C’est ce que j’appelle le fondamentalisme humaniste ou le fondamentalisme naturaliste. L’idée que l’on ne devrait pas changer la biologie humaine, ni même celle d’une tomate. Cette idée suppose que la nature est parfaite, mais ce n’est clairement pas le cas ».

Alors, délire futurologique ou anticipation géniale ? Rendez-vous dans quelques décennies pour le savoir. Le point nodal de la théorie de Kurzweil, comme de toute l’IA forte, c’est évidemment la transformation d’une puissance brute de calcul en intelligence adaptative et auto-organisatrice. Nous saurons assez rapidement s’il s’agit d’une vue de l’esprit ou d’une étape réelle – et radicale – de l’évolution.

Référence :
Kurzweil R. (2007), Humanité 2.0. La bible du changement, M21 Editions, Paris, 649 p. (éd. orig. : The Singularity Is Near. When Humans Transcend Biology, Penguin Books, 2006).

Illustrations : extraits de 2001 odyssée de l'espace (Stanley Kubrick, 1968).

Texte initialement paru dans Chronic’Art.

23.2.08

Mutations linguistiques

Mark Pagel et ses collègues ont reconstruit un arbre phylogénétique des langues humaines, avec trois grands groupes : indo-européen, bantou et austronésien. Le dernier ensemble a inclus le sous-groupe polynésien, connu comme divergence plus récente due à la colonisation des archipels.

Les chercheurs ont examiné la divergence de ces lignées linguistiques : dans l’hypothèse d’une évolution lente et graduelle, chaque rameau devrait avoir à peu près la même distance d’avec le tronc commun (la distance étant ici mesurée par les changements lexicaux entre chaque groupe). Or, comme le montre le graphique, il n’en est rien (A. arbre des langues et nœuds de divergence, points rouge ; B. Divergences depuis le tronc commun des langues bantous (orange), indo-européennes (bleu), austronésienne (vert), polynésiennes (pourpre) ; C. Quantification des divergences, avec en comparaison la divergence moyenne des gènes entre deux espèces biologiques, jaune).

Ainsi, selon les ensembles considérés, 9,5 à 31 % des différences observées proviennent d’un changement évolutif brutal plutôt que graduel, soit une version linguistique de l’hypothèse des « équilibres ponctués » (c’est-à-dire : une nouvelle branche se forme avec un changement rapide de son contenu lexical et syntaxique, puis elle évolue plus lentement vers l’équilibre). On sait depuis les travaux classiques de Luca Cavalli-Sforza (1996, 2005) que les arbres généalogiques des gènes et des langues se superposent, c’est-à-dire que les différenciations biologique et linguistique se sont mutuellement entretenues au cours de l’évolution humaine. Comme le concluent les auteurs, « le changement ponctuationnel de langage peut refléter la capacité humaine à ajuster rapidement ses langues à des moments critiques de son évolution culturelle, comme lors de l’émergence de groupes nouveaux et rivaux ».

Loin d’être un long fleuve tranquille, l’évolution de l’espèce Homo sapiens apparaît ainsi comme une succession de mutations bioculturelles à effet relativement rapide par rapport au rythme habituel du vivant.

Références :
Atkinson Q.D. et al. (2008), Languages evolve in punctuational bursts, Science, 319, 5863, 588.
Cavalli-Sforza L. (1996), Gènes, peuples et langues, Odile Jacob / Collège de France, Paris.
Cavalli-Sforza L. (2005), Evolution biologique, évolution culturelle, Odile Jacob, Paris.

Illustration : Atikinson 2008.

22.2.08

Travers d'esprit

Si dieu n’existe pas, tout est permis. Ah, si c’était vrai… L’homme n’a pas besoin de dieu pour ériger sans cesse des blâmes, des barrières, des tabous, des limites, des interdits. Il est capable de diviniser n’importe quoi – à commencer par lui-même – pour se livrer à cet exercice. Le problème n’est pas l’existence ou la non-existence de dieu, mais l’existence ou la non-existence des processus neurocognitifs ayant conduit à l’invention de dieu ou de ses succédanés. Combien sont-ils, les mutants de l’esprit dépourvus de ce module cérébral ? Existent-ils seulement ?

21.2.08

Acheminement vers le point G

Le mythique point G a-t-il été découvert ? C’est ce que pense Emmanuele Jannini, chercheur à l’Université de L’Aquila (Italie). Le biologiste et son équipe avaient déjà identifié des marqueurs surexprimés dans les tissus situés entre le vagin et l’urètre, zone supposée du point G, notamment les familles PDEs (phosphodiestérases, des enzymes notamment responsables du métabolisme du monoxyde d’azote et de l’érection masculine). Jannini a sélectionné 20 volontaires, 9 femmes éprouvant régulièrement un orgasme vaginal, 11 n’en éprouvant jamais. À l’aide d’un scanner à ultrason, il a reconstitué la totalité de leur zone urétrovaginale en trois dimensions. Résultat : les parois de cet espace sont plus épaisses chez les femmes à orgasme vaginal que chez les autres. La région est riche en vascularisation et en innervation. Elle abrite les glandes de Skène, un équivalent tissulaire de la prostate masculine (probable résidu de la différenciation des tissus au cours de l’embryogenèse).

Depuis sa découverte par Ernest Gräfenberg en 1950 et sa popularisation dans les années 1980, le point G a fait couler beaucoup d’encre, et la communauté biomédicale est encore divisée sur son existence (cf Hines 2001 pour l’hypothèse négative). Au-delà de la vulgarisation bêtifiante (« Prenez votre pied en découvrant votre point G »), la question est tout à fait intéressante. On sait qu’un grand nombre de femmes n’éprouvent aucun plaisir particulier lors de l’acte hétérosexuel classique avec pénétration (environ une femme sur trois) et il semble que cette frigidité vaginale possède une solide base génétique (Dunn 2006). Ce sujet a même pris un tour politique voici quelques décennies, lorsque les féministes ont opposé le plaisir clitoridien, synonyme d’émancipation, au plaisir vaginal, expression du patriarcat. Il est tout à fait concevable que la mise en évidence des différences génétiques et anatomiques parvienne à réconcilier tout le monde à l’avenir, en montrant tout simplement que les voies de l’orgasme féminin diffèrent d’un individu à l’autre, et qu’elles sont assez impénétrables dans certains cas.

Pour l’avenir, ces travaux sont aussi le gage de modifications possibles de l’organisme. Si l’anorgasmie vaginale est mal vécue par une femme, elle aura peut-être le choix d’une intervention locale permettant d’instaurer une croissance nerveuse et vasculaire dans la zone urétrovaginale. Et inversement, les féministes radicales souhaitant couper les ponts et les tentations avec l’organe mâle pourront éventuellement s’atrophier le point G pour se consacrer à leur seul clitoris.

Références :
Dunn K.M. et al. (2005), Genetic influences on variation in female orgasmic function : a twin study, Biology Letters, Royal Society, DOI : 10.1098/rsbl.2005.0308
Gravina G.L. et al. (2008), Measurement of the thickness of the urethrovaginal space in women with or without vaginal orgasm, J. Sexual Med., online early pub., doi:10.1111/j.1743-6109.2007.00739.x
Hines TM. (2001), The G-spot: a modern gynecologic myth, Am. J. Obstet. Gynecol.,185, 2, 359-62

Illustration : Marlene Dumas, Two of the same kind, 1993, encre sur papier (Anthony Meier)

20.2.08

Information : le plus n’est pas le mieux

Richard Goldstone dirige le programme science cognitive de l’Université de l'Indiana. Avec ses deux co-auteurs (Michael E. Roberts, Todd, M. Gureckis), ce chercheur vient de mettre à l’épreuve une idée répandue : plus on est informé, mieux c’est. Pour être plus précis, l’expérimentation visait à savoir si un groupe (et non un individu isolé) gagne à partager le maximum d’informations pour résoudre un problème.

Les chercheurs ont posé deux types de problème (simple ou complexe) à trois types de groupe : connexion totale (fully connected, chacun partage toutes ses informations avec tous les autres), connexion locale (locally connected, chacun n’échange qu’avec ses voisins immédiats), monde à soi (small world, chacun échange d’abord avec ses voisins, mais peut aussi proposer ou capter des bonnes idées au-delà du voisinage).

Résultat : la connexion totale donne les meilleurs résultats pour résoudre les problèmes simples, mais le monde à soi est plus performant pour surmonter les problèmes complexes. Ni les groupes fermés sur eux-mêmes ni les magmas indifférenciés ne sont créatifs. Pas vraiment une surprise…

Référence :
Goldstone R.L. et al. (2008), Emergent processes in group behavior, Current Directions in Psychological Science, 17, 1, 10-15.

Illustration : C. Muller

Lien social

Dans le nouveau dictionnaire des idées reçues, à l'entrée "Lien social" on peut lire : "se plaindre de sa dissolution". Un point qui m'étonne toujours : ceux qui critiquent la dissolution du lien social sous l'effet d'une vision libérale de l'homme (égoïste et individualiste pour simplifier) sont souvent ceux qui m'assurent, à la suite de Darwin ou d'Aristote, que l'homme est un animal social, donc que cette vision libérale commet une erreur anthropologique de base en imaginant la société comme une juxtaposition d'agents autonomes et intéressés. Mais alors, si l'homme est bien cet animal social, où est le problème au juste ? Je suppose qu'il va sans cesse produire et reproduire du lien social, comme les araignées sécrètent leur soie ou comme les poumons expirent leur air.

19.2.08

Contresens

Mettre en avant les déterminations biologiques des traits et comportements humains est souvent perçu comme une démarche fataliste ou conservatrice. Toute une frange de la pensée progressiste préfère donc se détourner de tels travaux, un peu comme les Victoriens réactionnaires s’effrayaient des pensées de Darwin : « Ah mon Dieu, faites que ce ne soit pas vrai, et si c’est vrai, faites que cela ne se sache pas… » Outre que cette attitude condamne ce supposé progressisme à se fonder sur une vision périmée de la nature humaine, et donc à s’enfoncer peu à peu dans la métaphysique, elle raisonne à contresens. Mieux connaître les déterminations physiques d’un nuage oblige-t-il à subir la pluie, la grêle et la foudre sans broncher ? Mais voilà, on parle ici des hommes et malgré tous nos efforts pour être matérialiste, on considère encore avec difficulté le matériau humain comme l’objet de la volonté. Fût-ce notre propre matériau, notre propre volonté.

18.2.08

Avancée dans le neurocontrôle

Transformer directement la pensée en mouvement (en actes) par le biais d’une interface électronique est un champ de recherche très actif en neurosciences et en biomécanique. Dans ce domaine des interfaces cerveau-ordinateur (BCI, Brain-Computer Interface), il existe deux grands types de système aujourd’hui : placer des électrodes sur le scalp (le cuir chevelu) ou implanter des puces dans le cortex. Ces méthodes sont testées chez des personnes souffrant de pathologies très invalidantes, comme des tétraplégies ou des épilepsies sévères. Elles présentent chacune des défauts : les électrodes de surface ne perçoivent que des signaux électriques atténués en provenance du cerveau, avec beaucoup d’interférences provenant du milieu externe ; les puces sont soit rejetées par le cerveau (avec infection à la clé), soit recouvertes progressivement d’un tissu brouillant leur signal.

Gerwin Schalk et son équipe présentent dans la dernière livraison du Journal of Neural Engineering une troisième voie pour enregistrer et traduire les signaux électriques des neurones. Leur approche s’inspire de l’électrocorticographie (EcoG), c’est-à-dire l’enregistrement de l’activité neuronale par l’intermédiaire d’électrodes directement placées sur le cortex cérébral. Une partie de la surface du cerveau est couverte d’une feuille en polymère intégrant une grille de 64 électrodes de 2 mm de diamètre, espacées de 10 mm les unes des autres. L’appareillage ne concernait ici qu’un seul hémisphère. Moins invasive que l’implantation de puces, la technique se rapproche des enregistrements de surface du scalp, mais elle est bien plus fidèle dans la capture et la traduction du signal.

Dans une série d’expérimentations, les chercheurs ont appris à cinq volontaires à contrôler un curseur sur les deux dimensions d’un écran d’ordinateur. Au terme d’un apprentissage très court (12 à 36 minutes), les patients sont parvenus à des scores honorables de réussite (53-73 % de succès) lorsqu’il s’agissait d’atteindre une cible précise sur l’écran. Concrètement, les patients réalisent ou imaginent des mouvements (du doigt, de l’épaule, de la langue, du corps entier, etc.) et un ordinateur analyse la traduction neuronale du phénomène dans les aires cérébrales concernées, avec interprétation des bandes de fréquence. Les directions (haut, bas, droite, gauche) sont ainsi statistiquement corrélées à un pic d’activité d’une région donnée.

Pour passer à la phase d’essais cliniques, cette technique demande l’implantation permanente de la grille d’électrodes, ou au moins sur une longue durée. Afin de limiter le caractère invasif de l’opération, d’autres équipes travaillent actuellement sur le singe en vue d’optimiser les matériaux et la pose.

Dans un avenir plus ou moins lointain, ces dispositifs de neurocontrôle paraîtront sans doute sommaires, tout comme les électrochocs du siècle dernier nous semblent aujourd’hui des méthodes grossières. Mais ainsi procède la technoscience, dans sa lente et obstinée entreprise de maîtrise des quelques régions accessibles du réel. En attendant, on débattra sans fin pour savoir si de telles avancées restreignent ou élargissent notre liberté.

Référence :
Schalk G. et al. (2008), Two-dimensional movement control using electrocorticographic signals in humans, J. Neural Eng, 5, 75-84.

Illustration : ibid.

Quelle est votre idée dangereuse ?

Avec quelque retard, je découvre dans son édition de poche un essai à la lecture très plaisante, introduit par le psychologue évolutionniste Steven Pinker, postfacé par le zoologiste qu’on ne présente plus Richard Dawkins : What Is Your Dangerous Idea ?

Ce livre s’inscrit dans le projet Third Culture / The Edge : chaque année, John Brookman demande à des scientifiques (et aussi quelques artistes et philosophes) de donner leur point de vue sur un thème. Et le thème de cette édition 2006 fut donc : quelle est votre idée dangereuse ?

Voici en forme de questions quelques-unes de ces pensées périlleuses que les chercheurs développent dans le livre : et s’il était vrai que… Les femmes et les hommes diffèrent en moyenne par leurs aptitudes et leurs émotions ?… L’environnement s’est plutôt amélioré au cours des cinq dernières décennies ?…Les hommes ont une tendance naturelle au viol… La plupart de femmes victimes de viol n’ont pas de séquelles psychologiques graves à moyen et long termes ?…Les terroristes sont des gens intelligents, éduqués et surtout des agents moraux cohérents ?…Les races existent et présentent des différences moyennes de gènes et de comportements ? …La cocaïne et l’héroïne devraient être légalisées pour diminuer la criminalité ?…La religion a tué plus de gens que le nazisme ?…La fertilité est inversement corrélée à l’intelligence ?…Un libre marché des organes sauverait des vies ? …Les gens devraient choisir les qualités de leurs embryons ?…La baisse de la criminalité aux États-Unis coïncide avec la légalisation de l'avortement surtout pratiqué dans les milieux pauvres ?…Les parents ont une influence minime sur le caractère et l’intelligence de leurs enfants ?

« Peut-être sentez-vous monter la pression sanguine en lisant ces lignes ? Peut-être êtes-vous consterné que des gens puissent penser de telles choses ? Peut-être avez-vous une moindre estime de moi pour avoir mis en avant ces questions ? Voilà des idées dangereuses – des idées que l’on dénonce non parce qu’elles sont fausses de manière évidente, non parce qu’elles engagent à des actions dommageables pour autrui, mais parce qu’on estime qu’elles corrodent l’ordre moral dominant », remarque Pinker dans son introduction.

Notons que les énoncés ci-dessus ont tous été défendus dans la littérature scientifique (ou s’appuient sur les conclusions d’études scientifiques qu’ils généralisent) mais que, comme tous les énoncés scientifiques, ce sont justement des hypothèses falsifiables, et non des vérités définitives. Chacun sait qu'il n'y a que les moralistes pour penser détenir des vérités définitives... Le problème posé par le livre est surtout la totale liberté de présupposé du chercheur, dès lors qu’il aborde les questions humaines (celles qui fâchent).

Pour tous ceux qui se disent si facilement « rebelles » ou « radicaux », toujours prêts à briser les « tabous » de l’« ordre dominant », voilà donc une bonne occasion de tester leur disposition réelle à penser dangereusement.

Référence :
John Brockman (ed.) (2007), What Is Your Dangerous Idea ? Todays Leading Thinkers on the Inthinkable, Pocket Books, Londres (première édition : Simon & Schuster, Londres, 2006)

Illustration : C. Muller.

17.2.08

Nanotechnologies et morale

Au congrès annuel de l’Association américaine pour l’avancement des sciences (AAAS), Dietram Scheufele a présenté à ses confrères les résultats d’un sondage sur les nanotechnologies, spécialement commandité pour l’occasion. À la question de savoir si les nanotechnologies sont « moralement acceptables », 29,5 % des Américains répondent par l’affirmative. Les réponses positives s’élèvent en revanche à 54,1 % au Royaume-Uni, 62,7 % en Allemagne et 72,1 % en France.

Pourquoi une telle différence ? La place de la religion, selon Scheufele. « Les États-Unis sont un pays où la religion joue un rôle important dans la vie des gens, note le chercheur. L’importance de la religion dans les différents pays étudiés évolue en parallèle avec les différences que nous observons dans les vues morales ». Le scientifique précise encore que dans l’esprit du public, les nanotechnologies, les biotechnologies et la recherche en cellule souche sont amalgamées et assimilées à une même volonté de « se prendre pour Dieu » ou d’« améliorer l’homme ».

Pour vivre dans un pays formellement libéré de la religion, et en tête semble-t-il d’une vision amorale de l’avenir nanotechnologique, on émettra cependant quelques réserves sur cette interprétation. Nos médias hexagonaux dégorgent de « penseurs » n’ayant de cesse de nous mettre en garde contre les périls d’une transformation de l’homme et de la nature par la technoscience, sur le ton offensé de la « panique morale » si bien décrite par le philosophe Ruwen Ogien. Pourtant, ces intervenants intempestifs se réclament rarement de la religion, plutôt d’un humanisme laïc aux contours flous. Si le sondage de Scheufele est représentatif de l’opinion, cela signifie peut-être que l’outrance moralisatrice de ces directeurs de conscience est disproportionnée par rapport à l’état d’esprit dominant de la société. Ou, plus probablement, que le thème nanotechnologique est moins débattu chez nous que le thème biotechnologique. Lorsque les nanotechnos seront à la mode de ce côté-ci de l’Atlantique, il ne fait guère de doute que les médias dominants s’ouvriront complaisamment aux catastrophistes de tout poil annonçant des apocalypses imminentes ou se lamentant sur les pires outrages potentiels à la dignité humaine.

Le prêtre est une espèce difficile à éradiquer, même à l’ombre de la mort de dieu.

Illustrations :
Jan Kirstein (concours Nano-Art, 2006)

16.2.08

Postures et impostures de la radicalité

Libération publie ce jour un papier intéressant sur les Intellos qui rejettent la démocratie, assorti d’un entretien avec Marcel Gauchet et d’un autre avec Zlavoj Zizek. L’article part donc de l’hypothèse d’une crise latente de l’idéal démocratique, dont un symptôme parmi d’autres serait le cheminement antidémocratique des certains intellectuels. Parmi eux, le philosophe français Alain Badiou, qui appelle à la dictature du prolétariat contre le parlementarisme bourgeois, ou l’essayiste slovène Zlavoj Zizek, qui envisage des mobilisations populaires en forme de nouvelles Terreurs.

Concernant ces deux auteurs, Marcel Gauchet résume fort bien les choses (à mon sens du moins) : « Ces propositions m’apparaissent surtout comme tragiquement irréelles. Elles témoignent de la décomposition de l’intelligence politique de la gauche extrême. Celle-ci semble n’avoir plus à se mettre sous la dent que des postures simplistes et narcissiques de radicalité qui ne coûtent pas cher puisqu’elles sont dans le vide. Je suppose que, psychologiquement, elles font du bien à ceux qui s’y rallient, mais, politiquement, elles ne pèsent rien, ne dérangent personne et surtout pas le pouvoir auquel elles sont supposées lancer un défi. »

Que certains campus des universités américaines ou certains quartiers de l’intelligentsia française servent encore de caisses de résonance à des penseurs comme Badiou ou Zizek n’a rien de très étonnant, cela fait des décennies que l’on s’y paie de mots sans aucune conséquence, des décennies que l’on y entretient une sorte de déréalisation de la pensée nourrie à l’inflation langagière (version déconstruction molle ou radicalité théâtrale), déconnectée des progrès des connaissances comme des évolutions des sociétés. Il y a encore des éditeurs et des lecteurs pour ces auteurs, tant mieux, ce doit être justement un effet de la liberté démocratique. Et cela donnera quelques matériaux de base pour une future analyse des processus de fossilisation cognitive en territoire intellectuel. Si l’on cherche des idées neuves (et vraiment dérangeantes) en ces domaines, je conseillerais plutôt la lecture de l’essai stimulant d’Alexander Bard et Jan Söderqvist, Les Netocrates, récemment traduit chez Léo Scheer et sur lequel je tâcherai de revenir prochainement.

15.2.08

L’homme est un mouton pour l’homme

L’équipe du professeur Jens Krause, de la Faculté des sciences biologiques de l’Université de Leeds, a mené une série d’expériences sur le comportement des foules. Des participants devaient déambuler dans un grand hall, mais seule une petite minorité avait reçu des instructions précises de parcours. Au bout d’un moment, et sans communication verbale, tout le groupe a calqué son comportement sur celui de la minorité.

L’expérience a été répétée en faisant varier la quantité totale de participants et/ou de personnes informées. Résultat : plus le nombre total d’individus est élevé, moins il est nécessaire d’avoir une minorité importante pour produire un comportement collectif grégaire. Au-delà de 200 personnes, il suffit de 5% de meneurs pour emporter les 95% de suiveurs.

Conclusion : l’homme en groupe se comporte comme un mouton dans son troupeau.

Références :
Dyer J.R. et al. (2008), Consensus decision making in human crowds, Animal Behaviour, 75, 2, 461-470.

Illustrations :
Maurizio Cattelan, sans titre (technique mixte), 2004.

14.2.08

Notes pour servir l’histoire du slug painting (2)

La limace fait partie de ces animaux pour lesquels l’homme éprouve assez couramment des velléités génocidaires. C’est peut-être ce qui me l’a rendue sympathique. Quelques mots de présentation de cet animal finalement peu connu sont ici nécessaires, la malacologie (étude des mollusques) n’étant pas la discipline la plus populaire au monde.

Les limaces appartiennent au phylum des Mollusques, qui rassemble 80 000 espèces (le second en importance numérique après les Arthropodes), et à la classe des Gastéropodes. La plupart des mollusques sont marins : limaces et escargots en représentent une évolution tardive ayant colonisé le milieu terrestre. Les limaces se répartissent en plusieurs familles – Arionidae, Limacidae, Milacidae, Testacellidae, etc. — soit dépourvues de coquilles externes, soit pourvues d’une coquille de taille très restreinte par rapport à leurs cousins escargots. Animaux hermaphrodites, les limaces peuvent vivre une dizaine d’années. Leur corps mou est enduit d’un épais mucus, qui leur donne cette humidité caractéristique et qui laisse des traînées identifiables sur leur passage. Le principal ennemi de la limace est la dessication : adaptées à la terre, elles ne sont pas à la sécheresse ni d’ailleurs au froid. Elles peuvent s’enterrer de plus d’un mètre dans le sol des champs ou des bois. Elles sortent surtout le soir, lorsque l’humidité se condense au sol, et bien sûr les jours de forte pluie.

L’espèce qui proliférait en ce printemps 2007 aux alentours de mon château est Arion rufus, version orangée d’Arion ater – (rufus signifiant roux en latin, ater noir, les deux espèces ont été baptisées en 1758 par Linné, et certains malacologues les considèrent comme deux sous-espèces en raison de la parfaite similitude de leur morphologie, couleur exceptée). Les deux formes co-existaient d’ailleurs, mais A rufus dominait largement, avec 95 % des collectes. Il faut dire que sa couleur vive, allant de l’orangé clair au rouge brique, tranche sur le tapis vert sombre ou marron des sous-bois, alors qu’A ater est mieux dissimulée. Arion rufus figure parmi les plus grosses espèces de limaces, avec une longueur pouvant atteindre 10 à 15 cm chez l’adulte.

Outre sa taille estimable lui permettant d’être recouverte d’une bonne dose de peinture, Arion rufus a pour avantage d’avoir un mucus teinté d’un joli pigment orangé et endogène, qui ajoute sa touche aux compositions, surtout lorsque le blanc est privilégié comme couleur dominante. Mais ce pigment suffit aussi bien à transformer localement un bleu clair en vert. A rufus semble le sécréter en d’autant plus grande quantité qu’elle est immobile et rétractée, position adoptée par les limaces lorsqu’elles sont irritées ou stressées.

Références : Kerney M.P., R.A.D. Cameron (2006), Guide des escargots et limaces d’Europe, Paris, Delachaux et Nietslé.

Quelques toiles de slug painting chez Saachti online.

13.2.08

Leah : libertine, intelligente, gorille

Pour la première fois dans l’histoire de la primatologie, le chercheur Thomas Breuer (Institut Max Plank d’anthropologie évolutionniste, Allemagne) est parvenu à photographier un couple de gorilles en train de faire l’amour face à face. Techniquement, on appelle cela la position ventro-ventrale. On savait que le bonobo, une espèce de chimpanzé, pratique déjà couramment ce type de copulation.

La femelle gorille sur cette photographie, appelée Leah, vit dans la réserve de Nouabalé-Ndoki, en République du Congo. Ce n’est pas la première fois qu’elle fait parler d’elle : en 2005, elle avait été observée en train d’utiliser des outils (là encore, un comportement fréquent chez les chimpanzés, mais inexistant chez les gorilles). En l’occurrence, l’ingénieuse et libertine Leah utilisait un bâton pour tester la profondeur d’une mare d’eau, avant d’y barboter. Pour mémoire, le dernier ancêtre commun de l’homme et du chimpanzé aurait vécu voici 5-7 millions d’années, mais il faut remonter à 9-10 millions d’années pour trouver un aïeul commun avec le gorille. On voit donc que les innovations / adaptations locales sont fréquentes et anciennes chez les primates, même s'il fallut attendre l'homme pour les voir généralisées, complexifiées, puis transmises par d'autres méthodes que l'imitation d'individu à individu.

Illustration : © Thomas Breuer – WCS/MPI-EVA

11.2.08

Corriger la copie

Un philosophe a dit : l'humanisme est le problème, non pas la solution. Correction suggérée : l'humain est le problème, non pas la solution.

10.2.08

Du maïs transgénique comme signe des temps

Le 9 février 2008 est paru au Journal officiel de la République française l'arrêté de suspension de la culture du maïs génétiquement modifié MON810 de la société Monsanto. Le maïs MON810 est porteur d'un transgène qui produit une molécule insecticide proche de celle naturellement fabriquée par une bactérie du sol, Bacillus thurigiensi. La culture du MON810 occupe 22 000 hectares (environ 0,8% des cultures de maïs), et cette superficie devait être portée à 100 000 ha au cours de l'année 2008.

Cette espèce génétiquement modifiée est l'une des plus étudiées dans le monde, en raison de l'ancienneté de sa mise au point et de sa mise en culture. L'ensemble de la littérature scientifique révèle qu'il n'existe aucun risque connu pour la santé humaine ou animale, une dissémination environnementale faible (probablement nulle en Europe où il n'y a pas de plantes apparentées au maïs), un certain nombre d'avantages économiques, environnementaux et sanitaires (voir le dossier très complet de l'Afis par exemple et la pétition signée par des centaines de chercheurs). Malgré cela, les autorités françaises ont décidé de geler les cultures du MON810 en activant la "clause de sauvegarde" prévue dans le cadre réglementaire européen.

L'enjeu réel de ces péripéties n'est pas énorme - tout cela doit beaucoup aux gesticulations politiciennes d'un pouvoir prêt à flatter l'opinion dominante. Quelques mots sur l'enjeu symbolique.

L'Europe en général, la France en particulier, se singularisent par une défiance à l'encontre des plants génétiquement modifiés : ceux-ci connaissent partout ailleurs une progression régulière, pas seulement aux Etats-Unis, mais aussi bien en Asie et en Amérique latine. L'opinion du Vieux Continent reste majoritairement hostile au phénomène, et les décideurs sont en conséquence très prudents. Dans l'ordre pratique comme dans l'ordre intellectuel, le fameux principe de précaution est ainsi devenu l'alibi de toutes les stagnations. Il satisfait le pouvoir, toujours disposé à réglementer chaque aspect de la vie quotidienne et à trouver la légitimité de son existence. Il satisfait le citoyen, devenu obsédé par le risque zéro, souhaitent évacuer tout imprévu de sa vie morne et tiède.

Beaucoup voit dans la prudence européenne l'expression de notre grande sagesse. Je la regarde plutôt comme la traduction de notre grande fatigue et de notre grande bêtise. L'Européen moyen, et donc le Français moyen, était déjà sorti de l'histoire avec un évident soulagement, préférant mobiliser sa faible énergie résiduelle pour battre sa coulpe en permanence sur les expériences totalitaires et coloniales. Il semble maintenant décidé à sortir du progrès, en récitant une à une toutes les généralités apocalyptiques issues du dictionnaire des idées reçues environnementalistes (la planète va mal, le climat se réchauffe, la biodiversité agonise, l'environnement se dégrade, la pollution se développe, etc.) et en se flattant auprès de ces voisins d'un tel exercice de sa supposée raison critique.

Ce mélange d'inculture scientifique crasse, de bonne conscience autosatisfaite et de sectarisme moralisant est assez insupportable à vivre - le sentiment d'être enfermé dans un sorte de musée poussiéreux où l'on vous contraint à regarder toujours la même vitrine et à la trouver jolie. Mais il est aussi sans conséquence : l'aventure humaine poursuivra son cours ailleurs. Que l'Europe se soit longtemps située à l'avant-garde de cette aventure n'implique pas à l'évidence que cette première place lui était réservée. L'histoire est certainement aussi darwinienne que l'évolution : ceux qui ne s'adaptent pas périssent dans leur coin, pendant que les niches disponibles sont occupées par des compétiteurs plus dynamiques.

Ainsi entre-t-on en douceur dans le stade fossile.

Post-scriptum : pour finir sur le sujet, je suggère à Monsanto de distribuer gratuitement ses semences à tous ceux qui en font la demande afin d'encourager un mouvement de semeurs volontaires. Qui n'a pas envie d'un joli plant de maïs transgénique dans son jardin ou sur sa terrasse ?

Illustration : Reuters.

9.2.08

Illusion des sens

Le bon et le mauvais, le bien et le mal : des sensations qui nous sont agréables ou désagréables. La morale : une sorte de sixième sens, par lequel on éprouve les autres. Un sens dédié à la vie et la survie en société, au point de se confondre avec elle. Un sens dont on peut être totalement privé, ou au contraire richement doté. Un sens qui nous trompe souvent : comme l'illusion optique, l'illusion morale déforme la réalité par le prisme du cerveau. L'illusion la plus dangereuse, la plus répandue hélas : confonde le bien et le vrai.

8.2.08

Notes pour servir l’histoire du slug painting (1)

Comme son nom l'indique, le slug painting consiste à utiliser des limaces pour composer une toile. On peut d’ailleurs traduire slug painting par peinture à la limace. Mais l’anglais est tellement plus sexy, n’est-ce pas ?

L'idée du slug painting m'est venue lors d'un printemps particulièrement pluvieux, c’était vers avril 2007. Je vivais alors à la campagne, dans un château, plus précisément l’aile d’un château que je louais avec mon amie. Les propriétaires n’étaient pas souvent là, nous étions en quelque sorte pleinement châtelains la plupart du temps. Le mot « campagne » est ici à prendre au sens propre. Le château était assez isolé, à quelques centaines de mètres d’un hameau dépeuplé. Le hameau était assez isolé, à plusieurs kilomètres d’un village de mille habitants. Le village était assez isolé, à une dizaine de kilomètres d’une sous-préfecture. Bien que le lieu soit situé non loin de Paris (deux heures en voiture, moins d’une heure en TGV), il était parfaitement rural. Ce n’était pas une zone pavillonnaire construite à la périphérie de la grande couronne, où les bobos rebaptisés rurbains découvrent avec joie que l’on peut respirer autre chose que des pots d’échappement de voiture ou des miasmes de métro bondé. Non, c’était une vraie campagne, sans lumière aucune le soir venu, une campagne pleine de bêtes étranges et vide d’humains communs, une campagne respirant la vie au printemps et la mort en hiver. Comme le château était entouré d’une immense propriété privée, le paysan n’épandait ses insecticides, l’urbain ne promenait pas sa famille, l’animal régnait tranquillement.

Parmi ces animaux de périphérie à défaut d’être de compagnie, donc, les limaces. En cet avril 2007, les conditions climatiques avaient été favorables aux mollusques terrestres. On sortait d’une longue série de mois bien plus chauds que la normale, avec un hiver très doux. Le printemps suivait la pente, et les précipitations étaient de surcroît extrêmement soutenues. Les nappes phréatiques dégorgeaient dans les champs, les rus débordaient, les rivières charriaient une boue dense. Quant aux limaces, elles pullulaient littéralement dans les champs et les bois entourant le château. Avec elles les escargots, bien sûr. Pulluler semble un mot excessif mais, pour donner une idée du phénomène, j’entendais dix fois craquer les coquilles lorsque je faisais dix pas sur la terrasse en pleine nuit. Et au petit matin, il n’était pas rare de compter une vingtaine de limaces sur la même terrasse. Inutile de dire que les prés de quelques hectares autour du château, et plus encore les bois au-delà, subissaient une véritable invasion.

Contemplant les traînées irisées sur les pierres, les herbes et les mousses, je me demandais ce que le gastéropode produirait sur une toile. Ma préférence alla naturellement à la limace, plus abondante que l’escargot, plus aisée à repérer, car l’espèce prolifique était la forme rouge (typique) d’Arion rufus, de la famille des Arionidae. Dans une prochaine note, je donnerai quelques informations précises sur cette espèce qui se révéla un auxiliaire si précieux de mon art. Et dans une suivante, sur les raisons qui justifiaient à mes yeux son usage comme médium d’un genre nouveau.

Références :
Quelques toiles chez Saachti online.

7.2.08

Combien de grammes, votre foetus ?

Selon les critères de l’Organisation mondiale de la santé, un être humain est dit viable après 22 semaines de grossesse ou un poids supérieur à 500 grammes. Cette définition est assurément arbitraire, comme la plupart des conventions humaines : il est douteux que certains fœtus ne soient pas viables à 490 g et d’autres non à 510 g. Toujours est-il que l’on pouvait nommer et enterrer un fœtus ayant franchi ces limites.

En France, un arrêt de la Cour de Cassation vient de statuer qu’il est désormais possible de déclarer à l’état-civil tout fœtus né (ou expulsé) sans vie, et cela sans référence à une durée de grossesse ou un poids. Trois arrêts ont été pris dans ce sens. Les fœtus en question dans ces affaires (des couples avaient porté plainte) pesaient 155, 286 et 400 g. L’aménorrhée durait depuis 18 à 21 semaines.

Pourquoi pas ? Dans le même ordre d’idée, on pourrait aussi dresser des monuments aux morts pour les centaines de milliers de grossesses avortées chaque année, ou créer des micro-cimetières pour embryons congelés et abandonnés. Le problème scientifique et juridique (déjà ancien) est toujours de savoir si l’on naît à la conception ou à la naissance. Certains verront dans l’arrêt de la Cour de Cassation une avancée de convictions religieuses plaçant la naissance de l’individu au plus près de la conception, dès le stade embryonnaire. De fait, la mouvance catholique a exprimé sa satisfaction. Quoi de plus normal… à condition que les opinions et pratiques opposées soient également acceptées, c’est-à-dire que des femmes ou des couples puissent statuer librement sur la viabilité de leur fœtus jusqu’au dernier moment (disons la naissance), ce qui n’est pas le cas. L’asymétrie du droit reflète sans doute le natalisme intrinsèque des institutions en charge de la société, ainsi que l’influence persistante des visions du monde religieuses.

Ce qui est en jeu à l’évidence dans cette procédure, c’est aussi le désir de reconnaissance de parents ne pouvant pas procréer. Chacun est libre de son corps et la procréation est une activité comme une autre. Et cela fait certainement souffrir de ne pouvoir enfanter quand on le désire. Mais on peut se demander pourquoi la même époque qui accorde et élargit volontiers sa reconnaissance symbolique à cette volonté de procréation regarde dans le même temps d’un si mauvais œil certaines techniques reproductives comme le clonage ou l’ectogenèse.

Comme souvent, on a l’impression que seule la « nature » – si possible la nature souffrante et impuissante – est digne de notre intérêt collectif et de notre compassion commune.

Références :
Cour de Cassation, Première chambre civile, arrêts 06-16.498 (n° 128), 06-16.499 (n° 129), 06-16.500 (n° 130), 6 février 2008.

Illustrations :
Extrait du film Cloverfield.

Incompréhensions

Entre ceux qui ne comprennent pas pourquoi ils sont nés, ceux qui ne comprennent pas pourquoi ils vivent, ceux qui ne comprennent pas pourquoi ils vont mourir... cela fait beaucoup d'incompréhension. Et en-dessous de ceux-là, tous ceux qui ne comprennent rien parce qu'ils ne posent aucune question, et n'ont donc aucune réponse. L’homme, un pauvre animal incompris, un pauvre animal in-comprenant, un pauvre animal tout court. Je réclame le destitution officielle du « sapiens » dans l’expression « Homo sapiens » : ce doit être une vieille blague ou une grande naïveté de paléontologues de jadis - cela ne peut pas être le qualificatif de notre espèce !

5.2.08

La grande question

La modernité se demande : qu'allons-nous faire de la Terre ? Mais c'est un simple prélude. Qu'allons-nous faire de l'homme ? Telle est la grande question. Et ne nous y trompons pas : il y a plein de réponses possibles, plein de réponses désirables. Ainsi commence la mutation dont il est question ici.

De l’altruisme xénophobe à l’idéocentrisme généralisé


L’altruisme est un trait répandu dans l’espèce humaine. La xénophobie (parochialism), définie comme l’hostilité envers les personnes n’appartenant pas à son groupe, son ethnie ou sa race, l’est également. Pourtant, ces deux traits ne paraissent pas tellement adaptatifs à l’échelle de l’évolution. En sacrifiant son intérêt, voire sa vie, au groupe, un individu altruiste semble avoir une moindre probabilité de transmettre ses gènes qu’un autre moins altruiste (y compris les gènes de l’altruisme, donc). En entrant volontiers en conflit avec des individus ou des groupes différents, l’individu xénophobe risque lui aussi de souffrir d’une mortalité plus élevée, donc d’une fertilité moins abondante. Au premier abord, l’humanité gagnerait donc à être plutôt égoïste et xénophile. Mais cela ne semble pas vraiment le cas. Ce paradoxe est bien connu de la théorie évolutionniste, notamment en ce qui concerne l’altruisme.

Jung-Kyo Choi et Samuel Bowles ont récemment développé un modèle informatique de l’altruisme et de la xénophobie dans les groupes humains, en simulant ce que l’on sait aujourd’hui des conditions de vie de l’âge paléolithique où s’est tenue l’essentiel de l’évolution humaine (Choi et Bowles 2007) et où s’est donc forgé ce qui fait encore le substrat du comportement de l’Homo sapiens moderne. Ce modèle montre notamment que ni l’altruisme ni la xénophobie n’ont de fortes probabilités d’émerger et de se consolider comme traits héritables lorsqu’ils sont pris isolément, mais que la configuration particulière de l’altruisme xénophobe (parochial altruism) semble en revanche bénéfique aux individus dans les groupes où elle domine. En situation de conflit intergroupe, un excès d’égoïsme ou de xénophilie se révèle inadapté à la longue, ce qui favorise les individus adhérant le mieux à leur groupe tout en discréditant le groupe adverse.

*

Ce même thème avait donné lieu en 2006, dans Nature cette fois, à un papier très commenté d’Helen Bernhard, Urs Fischbacher et Ernst Fehr. Les chercheurs s’étaient ici penchés sur deux groupes de Papouasie Nouvelle-Guinée, les Wolimbka et les Ngenika, vivant en voisin dans les terres occidentales et montagneuses de la région. Les plus anciens de chaque groupe ne se souviennent pas d’un conflit, même si le voisinage ne donne notamment pas lieu à des échanges de cadeaux ou de biens. Les Wolimbka et les Ngenika peuvent donc décrits comme des groupes non-hostiles ou neutres au moment de l’expérience. En l’absence d’institutions centralisées, la vie sociale de ces groupes est largement régulée par des normes collectives traditionnelles.

Ici, 195 membres de ces groupes, âgés de 17 à 60 ans, ont participé à un jeu mettant en scène trois parties A, B et C. A dispose de 10 Kina (équivalent du revenu d’une journée), B le récipiendaire n’a rien au début du jeu, C, le tiers, reçoit 5 Kina. On demande au joueur A de partager ce qu’il veut de ses Kina avec B (de 0 à 10, donc). Puis, on demande au joueur C de juger ce partage, et de punir éventuellement le joueur A en dépendant 0, 1 ou 2 Kina pour cette punition. Chaque Kina dépensé par C prive de 3 Kina le joueur A. Le but de ce jeu est donc de voir comment un tiers juge le partage d’un bien entre deux autres personnes ; mais bien sûr, les joueurs A, B et C n’ont pas été toujours choisis dans la même ethnie, les quatre possibilités d’appartenance ayant été testées dans 64 séances de jeu. Le résultat a confirmé l’hypothèse de l’altruisme xénophobe : les joueurs étaient d’autant plus égalitaires que des membres de leurs groupes étaient concernés (punition du joueur A s’il ne partage pas avec un joueur B de son même groupe) ; d’autant plus indifférents que le partage concernait deux individus d’ethnies différentes ; d’autant plus sévères dans la punition qu’un membre de leur groupe avait été lésé, que l’origine de cette « injustice » soit le fait d’un membre de leur groupe ou de l’autre groupe.

*

Ces deux recherches récentes sur l’altruisme xénophobe confirment une multitude de travaux plus anciens sur la tendance innée de l’humanité à se diviser en camp (« nous et eux ») ainsi qu’à développer des stratégies plutôt égalitaires et altruistes au sein d’un groupe, mais hiérarchisantes et conflictuelles vis-à-vis d’un autre groupe. Cette propension s’accompagne d’une sensibilité du cerveau humain à l’identification collective et à l’endoctrinement, c’est-à-dire d’une porosité aux symboles et aux discours permettant la division en groupes plus ou moins conflictuels (pour une synthèse, voir par exemple Eibl-Eibesfeldt et Kemp Salter 1998).

Passons du terrain de la science à celui d’une réflexion plus générale. Si l’humanité a quitté depuis longtemps le stade de son évolution où elle vivait en petits groupes homogènes de 100 à 200 personnes pour fonder de grandes sociétés plus ou moins hétérogènes, si l’éducation moderne nous enseigne plutôt qu’il est bon de respecter les autres quelles que soient leurs origines et leurs convictions, il serait difficile de nier que les dispositifs plus anciens de notre vie cérébrale et sociale ont persisté. On ouvre le journal pour apprendre que deux bandes de jeunes gens s’affrontent depuis des mois pour la possession symbolique d’un carré de béton et pour divers « manques de respect » supposés des uns envers les autres. Quelques pages plus loin, on apprend qu’une superpuissance à la pointe de la rationalité technologique divise encore le monde en axe du bien et axe du mal, en réponse à un terrorisme lui-même bien adapté aux réseaux hypermodernes et jugeant utile de supprimer régulièrement des dizaines, des centaines ou des milliers de vies pour une cause collective.

Entre ces deux extrêmes, il est douteux que votre vie quotidienne n’offre pas le reflet atténué de la même disposition d’esprit. En fait, il est même possible que vous, lecteur, vous trouviez dans cette disposition-là. On croise chaque jour des gens qui possèdent de solides convictions morales, idéologiques ou religieuses, qui recherchent d’autres gens partageant les mêmes convictions, qui voient d’un œil méfiant ou carrément hostile toutes les personnes ne partageant pas ces convictions, ou semblant vaguement les menacer. On aimerait y voir un simple résidu de bêtise et d’intolérance ; mais le phénomène est tellement répandu, et parfois défendu par des gens fort intelligents, qu’il signale autre chose qu’un vestige des temps anciens. Un tel comportement ne relève pas seulement de l’altruisme xénophobe, terme assez adapté pour décrire le comportement des petits groupes ayant progressivement défini l’espèce Homo sapiens, mais de ce que j’appellerai au sens large l’idéocentrisme : à savoir la croyance dans l’universalité de ses représentations (de soi, des autres) et l’incapacité plus ou moins marquée à accepter des représentations différentes.

Si, par hasard, les arrangements de vos gènes et de votre éducation ne vous ont pas fait naître ou devenir idéocentriste, vous comprenez sans doute ce que je veux dire par là. Et vous éprouvez certainement un grand désarroi à constater combien l’idéocentrisme est répandu dans votre entourage, dans votre époque, dans votre espèce – désarroi se manifestant sous forme d’impuissance, de mépris, de distance, mais aussi souvent de détresse car les idéocentristes ont cette particularité de ne pas laisser autrui penser et pratiquer ce qu’il veut, et ils mettent d’autant plus d’ardeur à vouloir changer autrui qu’ils ont en eux la force propre à toute croyance d’avoir raison.

Mais un tel désarroi n’est pas si justifié puisque vous lisez ces lignes et que d’autres pratiquent le grand jeu de la vie avec les mêmes règles que vous, ou au moins des règles similaires. Inventer des jeux d’existence sortant de la règle commune et ancestrale du primate altruiste xénophobe ou idéocentriste satisfait, c’est un peu plus qu’une consolation – c’est aussi un projet, des milliers de projets en devenir.

Références :
Bernhard H., U. Fischbacher, E. Fehr (2006), Parochial altruism in humans, Nature, 442, 912-915.
Choi J.K., S. Bowles (2007), The coevolution of parochial altruism and war, Science. 318, 636 – 640.
Eibl-Eibesfeldt I., F. Kemp Salter (ed.) (1998), Indoctrinability, Ideology, and Warfare: Evolutionary Perspectives, Berghahn Books, New York.

Illustration :
Ruben Frosali, Schedder