Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

dimanche, 05 février 2017

L'ADN de l'astronaute Scott Kelly modifié après son séjour dans l'espace

Enrique Moreira / Journaliste Le 04/02 à 10:02Mis à jour à 17:03

http://www.lesechos.fr/idees-debats/sciences-prospective/...

Pendant 11 mois, frères jumeaux Kelly participé expérience scientifique d'évaluer l'impact conditions vie l'espace génome humain. Scott Kelly (à gauche) 340 jours bord l'ISS, frère, Mark Kelly, resté terre.
Pendant 11 mois, les frères jumeaux Kelly ont participé à une expérience scientifique afin d'évaluer l'impact des conditions de vie dans l'espace sur le génome humain. Scott Kelly (à gauche) a passé 340 jours à bord de l'ISS, pendant que son frère, Mark Kelly, était resté à terre. - Pat Sullivan/AP/SIPA

L'Américain a passé 11 mois à bord de la Station spatiale internationale (ISS). A son retour, les scientifiques de la NASA ont comparé son génome à celui de son frère jumeau resté sur terre.

Au-delà de leur patrimoine génétique, les jumeaux Scott et Mark Kelly partagent leur passion pour l'espace. Les frères y ont d'ailleurs tous les deux séjourné. Mark, pendant 54 jours, et Scott, environ dix fois plus. Il faut dire que ce dernier a passé 340 jours dans l'espace, lors de sa dernière mission à bord de l'ISS, du 25 mars 2015 au 1er mars 2016.

Avec un frère tout à fait identique au sol, c'était l'occasion rêvée pour les chercheurs de la NASA de constater les effets sur l'ADN d'un voyage dans l'espace. Si les scientifiques savaient déjà que Scott Kelly avait grandi durant son séjour prolongé à bord de l'ISS, les premières analyses des données recueillies sur son ADN sont particulièrement surprenantes : il ne partage plus exactement le même patrimoine génétique que son jumeau resté à terre.

Des modifications génétiques

Avant, pendant, et après la mission, les deux astronautes ont été soumis "au même programme de tests médicaux", comme l'explique l'astronaute français Jean-François Clervoy au site Pourquoidocteur. Un protocole devant permettre aux scientifiques de pouvoir observer l'impact de l'environnement sur l'ADN des jumeaux. Ils ont ainsi constaté que les télomères des deux jumeaux n'étaient plus de même longueur.

Ces zones, situées à l'extrémité de nos chromosomes, sont connues pour diminuer lors du vieillissement. Scott Kelly ayant été exposé au rayonnement spatial pendant près de 18 minutes, les chercheurs ne s'attendaient pas à constater que ses télomères s'étaient allongés, en comparaison à ceux de son frère. Les scientifiques ont même demandé une seconde analyse auprès d'un laboratoire indépendant qui a confirmé les résultats.

Par ailleurs, depuis le retour de Scott Kelly de l'espace, les jumeaux sont également différents sur le plan épigénétique, c'est-à-dire sur la lecture et le décodage de leur génome. En somme, les molécules sensées aider au décryptage de certaines portions de leur ADN ne sont plus présentes en même proportion, ni au même endroit.

Les limites de l'expérimentation

Quelles conclusions tirer de ces premières analyses comparatives de jumeaux dont l'un a vécu 11 mois dans l'espace et l'autre est resté sur Terre ? Les scientifiques préfèrent encore rester prudents. D'abord parce qu'il s'agit de la toute première expérience du genre, ensuite parce qu'elle n'a été menée qu'auprès de seulement de deux individus, enfin parce que lorsque la NASA a présenté ses premiers résultats d'analyses, lors d'un congrès à Gavelston (Etats-Unis), ceux-ci étaient encore très frais, "à peine sortis des machines de séquençage" rapporte un généticien cité par Franceinfo.

Enfin, en raison du droit à la vie privée, les frères Kelly peuvent s'opposer à la publication de certains résultats des analyses menées sur leur ADN, rapporte la revue Nature . Ces données pourraient en effet révéler des choses qu'ils n'ont pas envie de partager avec le monde entier. La communauté scientifique se réjouit, elle, simplement de savoir qu'une telle expérience a été possible.

@EnriqueMoreira

19:06 Publié dans Science | Lien permanent | Commentaires (0) | |  del.icio.us | | Digg! Digg |  Facebook | |  Imprimer | |

lundi, 12 décembre 2016

Discussion sur Transhumanisme en Chine – Billet de Pierre-Yves Dambrine, invité du Blog de Paul JORION

La Chine n’est pas plus prédisposée au transhumanisme que nous ne le sommes, par Pierre-Yves Dambrine

Billet invité du Blog de Paul JORION
http://www.pauljorion.com/blog/2016/12/05/la-chine-nest-p...

Dans leur dernier billet DD & DH - ce dernier fait suite à celui-ci - soutiennent en substance deux propositions dont la compatibilité me semble problématique, la première étant que la civilisation chinoise demeurerait celle du confucianisme — une idée qui revient souvent dans leurs billets, et la seconde que la Chine serait en quelque sorte prédisposée culturellement à entrer dans le monde du transhumanisme.

Ils imputent au « pli » chinois, autrement dit à des invariants culturels, des faits qui pourtant peuvent s’expliquer tout aussi bien, et même parfois beaucoup mieux, lorsque l’on fait intervenir des causes structurelles, lesquelles doivent alors moins leurs caractéristiques au passé qu’à la configuration inédite dans laquelle se trouve aujourd’hui la Chine à l’heure de la globalisation dont elle partage quelques éléments essentiels, comme la dérégulation dans le domaine économique et financier, et le développement concomitant des applications technologiques.
La Chine d’aujourd’hui retrouve certes dans son passé historique, sa mémoire, de quoi alimenter, justifier, une tendance, mais il s’y trouve tout aussi bien des éléments qui plaident pour une autre. Il serait douteux également que la régulation à la chinoise ne puisse toujours servir qu’une seule fin. Les problèmes de la Chine et des Chinois relèvent désormais des enjeux planétaires. Dois-je encore évoquer ici le capitalisme à l’agonie, la complexité des systèmes techniques accrue par le numérique et l’intelligence artificielle, l’environnement en péril ?

DD & DH écrivent : « Un pays qui, avec Confucius, met au-dessus de tout les capacités intellectuelles depuis deux millénaires et demi ne saurait décevoir dans ce domaine : aller au bout du perfectionnement possible et se surpasser dans l’acquisition de talents est le seul crédo que la Chine a toujours entonné »

Confucius n’a jamais mis en avant l’intelligence du champion performant sans limites et hors de tout contexte. Bien au contraire, les capacités intellectuelles dans le cas de Confucius ne sont acceptables que si elles s’intègrent à une sagesse. D’une façon générale deux critères reviennent constamment dans la réflexion des penseurs confucéens pour déterminer ce qui relève et de la grande intelligence dazhi 大智(ou sagacité) et du grand savoir dazhi, 大知 : S’agit-il d’une connaissance que l’on acquiert par soi-même, ou bien que l’on acquiert par ouï-dire ? S’agit-il d’un savoir constitué qui a une vue globale sur les choses, les humains et le monde, l’univers, ou seulement d’une vue partielle ?

Confucius souhaitait d’abord restaurer l’esprit des Rites mis à mal par la dislocation des hiérarchies et solidarités nobiliaires en proposant la voie d’une culture humaniste à la portée de tous avec ses composantes individuelle et collective. L’étude des écrits anciens n’avait pas pour but de former des guerriers, des aventuriers, mais servait à révéler et développer des qualités humaines qui sont pour Confucius la seule base acceptable de tout bon gouvernement. Le perfectionnement individuel ne vaut que s’il a une visée éthique et qu’il participe d’une morale commune dont les Rites sont le véhicule.
Ainsi, les connaissances, le savoir, ne sont pas choses abstraites que l’on peut rechercher et exploiter pour elles-mêmes sans limite aucune. Et si c’est le cas, c’est que le juste équilibre (zhonyong 中庸) a été perdu, ce à quoi il faut alors remédier.
Si Confucius ne dédaigne pas que soit requis le talent de Guan Zhong au royaume de Qi pour accroître la puissance militaire c’est parce que l’hégémonie du Qi permet au peuple de vivre dans un monde pacifié.

Il serait en outre préférable de ne pas confondre enseignement confucéen et histoire de la bureaucratie chinoise, techniques de gouvernement. La pratique du gouvernement en Chine impériale, et même jusqu’à aujourd’hui, ne se déduit pas simplement des enseignements de telle ou telle école de pensée. Souvent elle les amalgame, ou même les ignore. Elle évolue confrontée aux nouvelles réalités imprévues produites par des circonstances nouvelles. S’il est vrai qu’avec la dynastie Han l’école confucéenne devient idéologie d’État, encore qu’il faille nuancer, que l’étude des Classiques s’inscrit au programme officiel des examens impériaux, cette idéologie ne suffit pas à assurer la paix et l’harmonie dans l’Empire. Le recours à la force pour monter sur le trône, à la coercition, pour mater les rébellions, est plus souvent la règle que l’exception.

Des Han jusqu’aux Tang, l’accomplissement de l’harmonie universelle résultait des actes ostentatoires et donc visibles du pouvoir impérial, l’empereur respectait les Rites conformément aux lois du Ciel, la personnalité morale de l’empereur n’avait pas alors beaucoup d’importance. À partir des Song, l’empereur acquiert une dimension morale dont procède alors l’harmonie dans l’empire au même titre que l’accomplissement des Rites. Le penseur Zhu Xi internalise le principe de structuration des choses (li 理) qui jusqu’alors procédait des souffles (qi 氣 ). Une vision idéaliste du monde basée sur l’extinction des désirs, qui confond dimension métaphysique et dimension formelle des choses, unifie dans un même système relations politiques, sociales et familiales constituées des Trois Relations fondamentales (san gang 三綱) – hiérarchiques – du souverain au ministre, du père au fils, et du mari à l’épouse, avec droit de vie ou de mort en cas de non respect des convenances. Les Rites confinent alors au formalisme, puisque il n’est plus un aspect de la vie sociale qui n’échappe à leur emprise. S’il existe une raison de penser qu’il y a dans la civilisation chinoise une prédisposition à l’exercice aveugle des talents, c’est donc plutôt de ce côté-ci qu’il faudrait chercher, plutôt que dans l’éducation selon Confucius. L’extrême rigidité introduite dans la société qui résulte de cette évolution du confucianisme qui assigne à chacun un rôle, une fonction, incite chacun à exceller dans sa fonction propre sans plus se préoccuper du reste. L’ennui avec cette thèse c’est que pendant le siècle qui nous sépare de la fin de l’Empire tout l’édifice du confucianisme a été mis à mal, l’épisode de la Révolution culturelle portant un coup presque fatal au ritualisme.

Côté européen, l’évolution de la pensée a suivi un autre chemin et celui-ci n’est pas sans éléments accréditant la thèse d’une nouvelle disposition permettant plus tard le transhumanisme. En Angleterre, Francis Bacon a rompu avec l’idée antique selon laquelle le but de la connaissance est la contemplation, annonçant le « règne de l’homme » avec la grande ambition « d’augmenter la puissance et l’empire du genre humain sur l’ensemble des choses. » Tout devient possible et tout ce qui est réalisable doit être fait.
Dans l’Italie de la Renaissance les hommes de science pour se défaire de l’emprise de l’Église opèrent eux un coup de force épistémologique en procédant à la mathématisation du réel rompant avec la manière de concevoir la science inaugurée par Aristote. La science se dé-historicise, se déshumanise.

Les Occidentaux intègrent dans certains de leurs mythes la notion de culpabilité(1), certes, mais du coté chinois il y a le sentiment de honte(2). Or ce sentiment de honte, s’il est bien une ‘école’ de pensée et de vie qui s’y intéresse, c’est l’école confucéenne. Pour Confucius le tout répressif est à bannir car il annihile ce sentiment. Confucius dit : « Guidez le peuple par les règlements, gouvernez-le par les châtiments, et n’aspirant qu’à se soustraire à la sévérité des lois, il perdra toute vergogne, instruisez-le par la vertu, gouvernez-le par les rites, pénétré du sens de l’honneur, il sera porté naturellement au bien. » (trad. Jean Lévi).

Il est vrai, ce sentiment à la différence de l’éthique autonome occidentale, inscrit l’éthique chinoise dans un schéma paternaliste, où le bon gouvernement est celui du sage-guide. Cependant il y a une condition, c’est que la vision du sage soit juste est cohérente : « Si les noms ne sont pas corrects, les propos ne sont pas conformes, les affaires ne pourront être réglées. Si les affaires ne peuvent être réglées, les rites et la musique ne pourront fleurir ; les rites et la musique n’étant pas florissants, les châtiments étant injustes, le peuple ne saura plus où mettre ni pieds, ni mains. C’est pourquoi le prince attribue des noms qui donnent cohérence au discours et tient des discours qui ont leur application dans les conduites. Oui, un sage, en ce qui concerne le langage, veille à ne rien employer au hasard. »

Or s’il est un discours aujourd’hui qui manque de cohérence c’est bien celui du pouvoir chinois en place. On prétend veiller à l’harmonie sociale, mais en même temps a été introduit dans la société chinoise un système économique qui justifie et accomplit la lutte de tous contre de tous et dont le vocabulaire se répand dans pratiquement tous les domaines de la vie sociale. Enfin, l’arbitraire de la justice chinoise d’aujourd’hui étouffe dans l’œuf toute contestation, quand bien même elle s’exprime sous forme de doléances et est portée par des juristes qui ne réclament pourtant que l’application de principes démocratiques écrits noir sur blanc dans la Constitution chinoise.

Eu égard au système éducatif actuel, on ne saurait comparer la classe restreinte des aspirants au mandarinat sous l’Empire à la multitude des étudiants et lycéens, collégiens, qui étudient aujourd’hui pour avoir une chance de s’insérer dans le monde économique hyper compétitif du capitalisme d’État.
Autrement dit, il faut réussir vite et bien. Il existe d’ailleurs une expression chinoise d’inspiration
confucéenne selon laquelle « ne pas réussir c’est accomplir sa vertu d’humanité » (不成功變成仁), elle traduisait l’existence d’un phénomène réel qui était que ceux qui échouaient aux examens impériaux, parfois jusqu’à un âge avancé, n’étaient pas perdus pour la société. Des recalés célèbres firent ainsi quelques uns des plus grands noms de la littérature chinoise. La honte dans le contexte actuel n’a guère l’occasion chance de jouer son rôle régulateur, à moins de considérer la honte individuelle de l’échec aux examens dans un système économique court-termiste comme une bonne chose, ce qui serait absurde.

Il faut attendre le 19ème siècle avec les deux guerres de l’opium, le choc de la guerre sino-japonaise qui se conclut par le traité de Shimonoseki en 1895 et leurs traités inégaux pour que certaines élites chinoises redécouvrent les ‘avantages’ de la compétition économique qui n’avait plus cours avec cette âpreté depuis les Royaumes Combattants.
Une première tentative de réforme, dite des Cent Jours, chapeautée par Kang Youwei, est vite interrompue par les conservateurs qui avaient l’appui de l’impératrice Cixi, mais l’idée se fait jour qu’emprunter à l’ennemi ses sciences et ses techniques ne suffira plus à combler un immense retard par rapport à l’Occident en termes de puissance industrielle et militaire.
Il faudrait désormais assimiler l’esprit de la culture occidentale. C’est ce à quoi s’emploieront un groupe d’intellectuels déterminés. Outre la promotion de la littérature en langue parlée, certains, comme Lu Xun, suggèrent d’abandonner purement et simplement l’écriture chinoise. Sur le plan économique un îlot de capitalisme prospérera à Shanghai pendant deux décennies environ avant qu’il ne soit éliminé peu après la victoire des communistes en 1949.

La période actuelle, que je ferais tout de même commencer à l’époque maoïste pour sa folie des grandeurs nationalistes, est à certains égards à rapprocher du Premier Empire chinois qui s’était déjà singularisé par sa démesure. Entre parenthèses, un Guy Debord a bien cru que l’armée de terre cuite du Premier Empereur de Chine était un faux fabriqué à la gloire du maoïsme. La réussite du royaume de Qin devenu empire ne fut pas le triomphe de Confucius. En 213 avant notre ère, sous les ordres du Premier Ministre Li Si, fut ordonné le grand autodafé des livres confucéens et de toute la littérature chinoise de l’antiquité, exceptés les livres sur l’agriculture et de médecine. Le Premier Empereur qui recueillait les fruits du dynamisme dans les domaines technique et économique des Royaumes combattants, et l’amplifie, est véritablement une économie de guerre, sans mémoire, avec son culte de la performance à outrance : autant de têtes coupées, autant de terres attribuées aux braves guerriers, lesquels vivent dans une société militarisée et totalitaire de soldats-paysans, où la faute d’un membre d’une famille vaut faute collective. Quant à la quête d’immortalité qui obsédait l’empereur Qin Shi Huangdi elle avait surtout à voir avec les pratiques alchimiques taoïstes. Notons au passage que le taoïsme de Laozi diffère de celui de Zhuangzi, ce dernier prenant la quête d’immortalité pour une simple vanité. Il y a bien le vieux conte chinois intitulé « Yu Gong (le vieux sot) déplace les montagnes », mais il n’a rien non plus de spécialement confucéen. C’est une histoire que l’on trouve dans le livre taoïste du Maître Lie : un vieil homme qui n’en peut plus d’avoir devant chez lui deux montagnes qui lui barrent un accès direct au fleuve, décide qu’il va les raser. Au vieux sage qui lui dit qu’il n’en est pas capable Yu Gong rétorque que, lui, mort, ses descendants seront la relève. Il convainc alors sa famille puis ses voisins de se mettre au travail, et tous de déplacer les pierres une à une. Cela émeut le Seigneur d’en Haut qui dépêche deux puissantes divinités pour déplacer les deux montagnes. Autrement dit, vouloir c’est pouvoir et aide-toi et le Ciel t’aidera, avec la dimension d’entraide collective en sus. Mao utilisera l’expression lorsqu’il lancera ses grands travaux lors des campagnes de masse.

Que l’on songe maintenant au projet du gouvernement chinois de mise en place d’un système de notation généralisé de la population (avec à la clé une sorte de permis à point de la bonne conduite), en quelque sorte une rationalisation du système existant des dossiers individuels (dang’an) instauré sous l’ère maoïste, et qu’on y associe le projet militaire d’intelligence artificielle et l’on pourra se convaincre que la résurgence d’un système totalitaire n’est pas une simple vue de l’esprit. Comme du temps des Royaumes Combattants, la Chine, aujourd’hui royaume parmi les royaumes de la Terre, débauche à l’étranger les meilleurs talents pour rester dans la course de la guerre économique mondiale. Confucius y aurait-il retrouvé ses disciples ?

La tendance totalitaire et la tentative de « retour à Confucius » coexistent donc maintenant dans un même pays.

Si l’on admet que la Chine a tardé à intégrer les méthodes scientifiques et le développement technique avec la même réussite sur le plan du développement de la puissance, pour cause de confucianisme, alors la fuite en avant sur le plan est à chercher ailleurs que dans ce qui serait l’invariant de l’éducation confucéenne. Il faut se faire à l’idée que cette réalité qu’on nomme « Chine » est l’effet indécomposable d’une mémoire comportant des éléments divers (qui s’expriment plus ou moins et de différentes façons selon les époques) et de l’intégration de ce pays dans la mondialisation, la situation sociale et la politique d’un pays ayant toujours le dernier mot pour déterminer quels chemins doivent frayer les affects dans le vaste réseau des mémoires individuelles et de la mémoire collective.

Je voudrais maintenant évoquer le professeur Zhang Xin, de l’université de Pékin (Beida) que j’ai bien connu dans les années 90-91 puisque j’étais l’un de ses étudiants. Il se trouve qu’il exprime une position extrêmement critique vis à vis du clonage et tout ce qui concerne la chosification de l’humain. J’ai trouvé un de ses articles sur Internet alors que j’essayais de retrouver sa trace. Zhang Xin, alors jeune docteur en archéologie de la Chine antique et pas encore professeur en titre, comptait déjà parmi les talents remarquables de Beida. Il avait déjà sa mine un peu sévère, son débit de parole rapide et le ton souvent véhément. Cela ne l’empêchait pas de porter des chemises de soie colorées, ce qui lui donnait un air ‘moderne’ à coté des tenues vestimentaires très conventionnelles de ses collègues. À l’occasion, il vous invitait dans son modeste logis attribué par l’université, la conversation devenait alors plus familière. Pendant ses cours, un thème revenait souvent dans ses digressions : le retard pris par la Chine sur l’Occident. Il insistait alors sur la nécessité de comparer ce qui se faisait en Chine à l’aune de ce qui se faisait de mieux en Occident. Il était déjà ce qu’on appelle en Chine un émule de la quintessence nationale (guocui 國粹) fondée sur l’excellence d’une culture. J’ai appris par la suite qu’il s’était illustré en offrant au pays des ‘inscriptions’ : un texte de style classique qui commémorait le retour de Hong-Kong dans le giron de la Chine, un autre pour les Jeux Olympiques de Pékin, et quelques autres encore.

Aujourd’hui, tout au moins si je me réfère à ses apparitions publiques visibles dans des vidéos en ligne, il porte le veston caractéristique du lettré chinois traditionnel ; il est engagé dans le mouvement dit des « Études Nationales » (guo xue 國學), avec ses points d’achoppement éventuels, voire ses contradictions. Si j’insiste sur ces Études Nationales, c’est parce que ce mouvement réfracte en lui maints enjeux philosophiques, culturels et politiques de la Chine de ces vingt dernières années. Le Guoxue est donc une pratique, un courant de pensée, une idéologie, un engouement populaire parfois, qui (re)fait couler beaucoup d’encre en Chine depuis les années 90.

Pour ses partisans, le Guoxue est un retour à la tradition confucéenne véhiculée par l’étude des Classiques. Il faut préciser ici que cette notion de Classique n’est pas complètement figée puisque leur nombre est passé de 5 à 6, puis 9, et enfin 13 à partir de la dynastie Song. Un Classique ne doit pas son statut à une révélation divine puisque seuls des humains en sont les auteurs ; les Classiques initiaux s’enrichissent donc constamment de nouveaux commentaires, d’œuvres, de savoirs académiques, qui ensemble doivent éclairer l’expérience humaine. Ainsi, si l’on adopte une définition encore plus large, on considère que tous les ouvrages qui figurent dans la Bibliothèque Accomplie des Quatre Trésors de l’empereur Qianlong avec ses quatre sections, Classiques, Maîtres, Histoires, Recueils, constitue le corpus de la culture lettrée confucéenne quand bien même s’y trouvent nombre d’ouvrages qui ne sont pas directement liés à l’enseignement et à l’école confucéenne proprement dite. Détail important, dans ce corpus on ne trouvera pas la littérature en langue vernaculaire, ce qui exclue par exemple un roman aussi célèbre que Le Rêve dans le pavillon rouge.

Pour les contempteurs du Guoxue celui-ci est un frein au développement de la science. Liu Zehua, professeur d’histoire à l’université Nankai, dans un article publié dans le Journal des sciences sociales en 2015 objecte à propos du Guoxue : « Si l’on met sur le même plan le confucianisme et la civilisation chinoise, la haute culture, la renaissance culturelle, sans dire que les tares du confucianisme ont été occultées, est-ce que cela marche ? » Il poursuit : « Ceux qui se jetaient dans la carrière mandarinale dépendaient du pouvoir impérial, s’enrichissaient en gravissant les échelons, devenaient propriétaires terriens, et il ne faudrait pas avoir un autre avis ? »Et encore : « des universités voudraient avec le mot civilisation disjoindre Confucius, école confucéenne, et système impérial, est-ce que cela marche ? »

D’autres encore, préfèrent encore adopter une définition nouvelle du Guoxue à l’instar d’un Wang Furen qui estime que le Guoxue a figé le contenu de la totalité de la culture chinoise avec la mise à l’écart de la culture moderne, prônant alors un Nouveau Guoxue.

Le Guoxue ne date pas d’aujourd’hui. Il s’enracine dans le réveil nationaliste chinois du début XXème siècle, puis prend véritablement son envol pendant les années 20 dans le sillage du mouvement anti-confucéen du 4 mai 1919. Ses figures centrales sont Liang Qichao, Zhang Dayan et Hu Shi.
Liang Qichao lance le Journal des études nationales en 1906 dans le but de créer un environnement favorable à la libre pensée. En 1902 il avait déjà affirmé que «préserver l’école des lettrés » (rujia 儒家) ne signifie pas respecter Confucius» imputant à l’école confucéenne la disparition des savoirs académiques depuis les Han.
Dans le Livre de la raillerie (Qiushu 訅書) paru en 1900 Zhang Dayan avait considéré que l’école des lettrés confucéens n’est qu’une école parmi d’autres.
Pour Hu Shi, de l’université de Pékin, le Guoxue, abréviation de guoguxue (國故學), doit être l’étude critique du legs confucéen des Classiques au même titre que tout ce qui se rapporte à l’histoire et à la culture du passé chinois.
Chen Duxiu, Li Dazhao, qui s’intéressent au marxisme, et Lu Xun, esprit indépendant, restent en dehors du mouvement et se consacrent à la création de la culture moderne.

Aujourd’hui, pour les plus essentialistes des partisans des Études Nationales, comme le professeur Zhang Xin, il s’agit de réintroduire les Classiques au cœur de la civilisation chinoise, en inscrivant leur étude dans les programmes scolaires, ce dans le but d’édifier le peuple chinois, la morale au sein de la société chinoise faisant à leurs yeux aujourd’hui défaut, grevant les possibilités d’évolution du pays.
Mais on est encore loin du compte car, remarquent certains critiques, l’étude des Classiques dans un sens culturaliste n’avait de sens qu’imbriquée dans les institutions impériales, or celles-ci ont disparues, avec l’abandon des examens impériaux après la révolution de 1911.
Un retour à une essence de la culture chinoise impliquerait aussi un renoncement aux disciplines académiques dont le modèle de classification actuel est emprunté à l’occident. Or la classification actuelle en vigueur à Pékin, et quasiment partout dans le monde, qui distingue culture scientifique et humanités, semble incompatible avec le savoir organique propre à la culture lettrée traditionnelle.
Le confucianisme dans la mouvance du Guoxue est-il alors condamné à rester celui d’âmes errantes à la recherche d’un corps perdu pour reprendre une expression citée par Anne Cheng quand elle évoque certains des précurseurs au XXème siècle du renouveau du confucianisme ?

L’avenir dira si une assimilation complète de la culture occidentale par le classicisme chinois est chose possible, à moins que la biosphère ne nous en laisse guère le temps.

La spécialité académique du professeur Zhang Xin, nous l’avons vu, est l’archéologie de la Chine antique, il est également calligraphe et enseigne l’histoire de la calligraphie, c’est un lettré complet, au vaste savoir, selon l’expression consacrée. Il donne des conférences dans le pays pour émuler l’esprit du Guoxue. Le mouvement du Guoxue contemporain avait démarré véritablement, y compris avec une certaine effervescence médiatique, en 1993, avec en toile de fond la réhabilitation officielle de Confucius opérée dans les années 80. Le professeur Chen Lai, de l’université Qinghua, lui-même partie prenante, interprètera plusieurs années plus tard le démarrage de ce mouvement comme une réaction au discours de Deng Xiaoping pendant sa tournée dans le sud du pays en 1992 lors de laquelle ce dernier exhorta ses compatriotes en leur disant : « enrichissez-vous ! » ou encore leur déclarant : « Il faut prélever les éléments positifs du capitalisme pour édifier le socialisme à la chinoise. » Le mouvement des Études Nationales a concerné au premier chef des professeurs d’université, dans la capitale, principalement l’université de Pékin, l’université du Peuple (Renmin Daxue) et l’université Qinghua. D’autres grandes universités du pays s’y sont également engagées, et ont leurs propres instituts. Des matières, des disciplines, axées sur le Guoxue ont été mises en place avec parfois des différences notables dans les approches suivant la définition qui en est donnée. Régulièrement, ici ou là, ont lieu des échanges académiques sur les différents thèmes des Études Nationales. On y discute aussi de la meilleure d’approfondir le mouvement tandis que le gouvernement chinois adopte certaines mesures contribuant à l’extension de l’enseignement classique dans les écoles et dans la société dans son ensemble. Des revues consacrées au Guoxue sont nées. On construit des bâtiments entièrement dédiés au Guoxue, comme à l’Université du peuple en 2005. C’est dans ce contexte déjà bien établi que le président Xi Jinping est intervenu publiquement et politiquement dans le débat en octobre 2014 dans le cadre du Politburo, adoptant une position intermédiaire, puisqu’il déclarait : « Nous devons faire un usage complet de la grande sagesse accumulée par la nation chinoise depuis 5000 ans. »

Zhang Xin, outre son activité de conférencier occasionnelle, dirige également des stages payants dédiés à l’étude du Guoxue, où lui-même enseigne. Ces stages sont destinés aux décideurs économiques et aux cadres de l’administration. Sur un site, celui de l’université de Pékin, où une de ces formations est présentée, il est question, entre autres, d’améliorer la qualité, les performances du management, cela dans la perspective plus générale d’un retour aux études nationales lesquelles doivent contribuer au rayonnement de la civilisation chinoise. J’ai relevé (après conversion) le prix de 5435 Euros pour un stage s’étalant sur une année à raison de trois jours d’étude par mois. L’étude des traités de l’art de la guerre est au programme, à coté des grands Classiques confucéens proprement dits. Un moine bouddhiste enseigne les Canons du bouddhisme ; un professeur de l’université de la Défense Nationale assure le cours sur Sunzi. Pour le reste, il suffira de lire le texte, dont je propose une traduction, d’une des conférences du professeur Zhang Xin, tenant lieu également de préface à un manuel destiné à la lecture des Classiques. On pourra alors se faire alors une idée plus précise de ce qu’il en est en Chine, pour notre époque, du point de vue du professeur Zhang Xin, de la nature et du rôle de l’éducation dans le cadre de la tradition confucéenne.

Notre époque a besoin des Études Nationales, notre peuple a besoin des Études Nationales, par Zhang Xin

Voici deux dates très significatives : le 28 janvier 1988 et le 28 octobre 2009. La première date ce sont les prix Nobel très inquiets pour l’avenir de l’humanité qui se réunissent à Paris, ils mettent en avant l’idée qu’en 2530 l’humanité devra puiser dans le fonds de la sagesse confucéenne pour accomplir ce qu’on pourrait appeler une Connaissance commune de Paris . La seconde date c’est l’an dernier aux Etats-Unis, le 28 octobre, 40 représentants de la Chambre qui remettent un rapport intitulé : « Commémorer les 2560 ans de Confucius. »

Pourquoi à ce moment précis du développement de l’espèce et des sociétés humaines, des savants du monde entier, sans s’être concertés, se sont penchés sur Confucius et sa sagesse ? La raison est limpide : parce que l’humanité est en train de s’aliéner. Quel est donc ce concept d’aliénation de l’espèce humaine ? Ce sont les humains qui confrontés aux choses, leur sont aliénés. Communément on appelle ceci la « chosification » : chosification machinale, chosification animale. La chosification machinale c’est l’humanité qui jour après jour se développe toujours plus sur le plan des choses machinales. L’existence vitale et la vie quotidienne tendent à être de plus en plus mécanisées, instrumentalisées, modélisées, vidées et faussées. Ce que l’on appelle animalisation, c’est l’humanité qui régresse dans l’animalité, qui n’est rien d’autre que le darwinisme social : « tu m’attaques, je tire ; tu meurs, je vis. » Tout a un goût de compétition. La société humaine actuelle se trouve dans une posture très inhabituelle. Sous l’emprise de l’utilitaire elle devient esclave des choses et elle s’égare dans l’objectivité. Ce qui relève du beau (l’appréciation artistique) et ce qui relève du bien (le sentiment religieux) se sont de fait éloignés de notre vie quotidienne et de ce qui fait notre existence vitale. Notre fardeau est de plus en plus lourd. A fortiori en Chine, où il est encore plus difficile de faire preuve d’optimisme. Les causes se trouvent dans la période qui a précédé les années 1890 qui virent la boutique de Confucius renversée, et, il y a de cela plus de quarante ans, dans la révolution culturelle qui n’a pas d’exemple comparable dans l’histoire. Ainsi l’éducation devint un problème. Quel problème ? Celui de l’occidentalisation, de la spécialisation, qui a fait de la classe, de l’amphithéâtre, le lieu unique dédié à la transmission des savoirs. Pour employer les mots du sociologue Fan Guangdan : on n’a pas éduqué les hommes en les prenant exactement pour ce qu’ils sont, c’est à dire en les prenant pour des humains.

Alors quelle est cette sagesse confucéenne sur laquelle se sont penchés ces savants du monde entier ? De quel esprit fondamental des Études Nationales s’agit-il ? La réponse est très simple, elle tient en deux caractères : 人本 ce qui donne : ‘racine humaine’. Quant à la définition des Études Nationales elle tient en deux caractères : 人學 , ce qui donne : ‘l’étude de l’humain’ (renxue). Bien sûr, dire cela, c’est le dire relativement et comparativement aux autres civilisations et aux autres nations. La culture chrétienne, fondamentalement, c’est l’étude du divin ; la civilisation occidentale, fondamentalement, c’est l’étude des esprits fantomatiques ; la civilisation scientifique fondamentalement, c’est l’étude du ciel (nature) ; la civilisation chinoise et les études nationales chinoises, fondamentalement c’est l’étude de l’humain. Ce que signifie fondamentalement racine humaine et étude de l’humain c’est que tout commence par l’examen de la nature humaine et que tout aboutit à l’examen cette nature humaine. « Confucius comprend les choses sur la base de sa propre existence et de ses conditions de vie. » (Liang Shuming). Les questions principales que posent Les Études Nationales et l’étude de la nature humaine ce sont celles-ci : qu’est-ce que l’humain, comment accomplir nos vies, quel monde faudrait-il pour qu’il soit viable et idéal ? À quel modèle de vie peut prétendre une vie viable et idéale ? L’espèce humaine et la société ont des parcours déterminés, chaque vie individuelle a son parcours déterminé, et c’est ce qui fait la nécessité des Études Nationales.

Alors qu’est-ce que l’humain ? Les Saints et les Sages de l’antiquité avaient un regard limpide sur les choses et une grande hauteur de vue. Cela revient à dire deux choses. Le première c’est qu’il y a le corps + l’esprit ; l’humain est constitué du corps et de l’esprit. Mencius est le premier à avoir fait cette distinction. Pour quoi Mencius l’a-t-il faite ? D’abord pour distinguer les humains des animaux et ensuite pour distinguer l’homme de peu de l’homme de bien. Il s’agit donc d’une distinction qui revêt une signification très importante. Le second c’est que les humains ont une existence limitée. Leurs capacités de connaissance et d’agir sont limitées. C’est pourquoi dans Le Juste Milieu on a cette phrase : «être prudent en ce qui concerne les choses jamais vues, craindre les choses que l’on a pas ouï-dire. « Cela veut dire que les humains ont objectivement une existence par nature limitée et que seule l’espèce humaine sait qu’elle a des limites, et c’est pourquoi seule l’espèce humaine possède ces sentiments de prudence et de crainte. Or c’est dans l’enfance de l’humanité qu’apparaissent de la façon la plus évidente ces limites naturelles : ignorante, faible, sans secours, dans l’expectative. C’est la raison pour laquelle dans l’obscurité de son imagination il y a une force qui la soutient, lui vient en aide. Ainsi furent crées les divinités. Et c’est ainsi que les divinités ont été aux commencements des sociétés et de l’espèce humaine. Et c’est ainsi que divinités ont aidé l’espèce humaine à traverser sa période historique la plus obtuse, la plus difficile, la plus noire et en même temps la plus longue, cette époque que Kant distingue comme étant celle de « l’âge du pouvoir des Dieux ».

Alors, sur quoi s’appuient le divin pour venir en aide à l’espèce humaine et pour que s’ouvrit le chemin qui mène les sociétés jusqu’à nos jours ? Quelle est la fonction fondamentale des divinités ou des religions ? Elles ont deux fonctions primordiales : 1. Elle donnent à l’espèce humaine espoir et réconfort, donnent sa stabilité à la vie humaine. 2. Elles apportent aux sociétés un milieu pour des connaissances et savoirs communs, contribuant à maintenir un ordre social. Ainsi la fonction et l’efficacité des divinités est-elle incommensurable ; sans divin il n’y a pas d’espèce humaine et de société, et sans elles nous n’aurions pas l’espèce humaine aujourd’hui. Nonobstant, il faut se demander si le seul divin est suffisant ? Autrement dit, est-il possible de s’en tenir éternellement au divin, l’espèce humaine peut-elle survivre éternellement dans le monde du divin ? La réponse est négative et à cela il y a deux raisons. La première c’est que le divin est extérieur aux humains. La seconde c’est que le divin a ses limites, en tant qu’il s’adresse à l’âme des humains. Qu’est-ce que l’âme? C’est l’esprit qui survit à la mort. Par conséquent les divinités ont un défaut inné : elles s’affranchissent du monde humain. Comme le dit un proverbe canadien, tout le monde pense à Dieu, mais si l’on ne meurt pas, comment voir Dieu ? Voilà pourquoi les Dieux ne peuvent donner aux humains le repos complet. S’il n’y que le divin, il en résulte que la raison humaine ne peut guère se développer, ou alors elle se perd, ce qui amène inévitablement les superstitions. A leur paroxysme une folie religieuse s’empare de toute la société. Et c’est ce qui s’est réellement produit au Moyen-Age lorsque l’espèce humaine connut sa première crise et période noire de l’histoire. Quelle crise ? La crise du tout divinité ; quels ténèbres ? Ceux du tout divin. Le désastre du divin était à son comble.

De la même manière, on ne pas ne pas ne pas avoir une réflexion fondamentale sur la question de savoir si le tout est choses est viable. L’espèce humaine peut-elle vivre dans un monde où il n’y a que les choses, assujettie éternellement à celles-ci, à l’instar des animaux qu’on élève en troupeaux ou dispersés, à l’instar des machines qu’on fabrique et qui fonctionnent ? La réponse est nécessairement négative. Ici également les raisons sont simples. La première raison c’est que ce qui relève des choses matérielles se trouve être extérieur à la vie humaine. C’est ce que les anciens désignaient comme étant les choses en dehors du corps. Autrement dit, ce qu’on n’amène pas en naissant, ni n’emporte en mourant. La seconde raison, c’est que l’aspect matériel des choses ne concerne que le corps humain. Autrement dit, les choses matérielles ne sont responsables que de la vie matérielle des humains. Aussi, ce n’est pas non plus des choses matérielles que les hommes peuvent obtenir le véritable apaisement. Si tout est chose matérielle alors c’est la raison qui disparaît. Nécessairement, c’est la folle errance des choses de la matière. On se retrouve alors avec une crise des choses matérielles.

Et c’est parce que cela n’avait pas été admis que la première guerre mondiale a pu éclater, puis la seconde, puis dans un enchaînement ininterrompu de violences, il y a eu telle nouvelle guerre à tel endroit qui prenait le relais de telle autre guerre finissante en tel autre lieu ; ce furent les guerres du Vietnam, de Corée et d’Irak, et aussi la crise économique qui s’aggrave de jour en jour. L’état de l’environnement nécessaire à la survie de l’espèce empire, les ressources naturelles non renouvelables s’épuisent. Là où le ciel doit être sombre, il n’est pas sombre, quand il doit faire froid il ne fait pas froid, quand le temps doit être calme, il ne l’est pas, là où il doit neiger, la neige ne tombe pas. Là où il ne devrait pas neiger, il neige subitement en dépit du bon sens.

La vie des humains est confrontée à des crises de plus en plus graves : Sida, SRAS, maladie de la vache folle. Récemment les britanniques ont vu avec stupeur apparaître sur leurs tables de la viande d’animaux clonés. L’ADN de l’univers du vivant est en train de se transformer, s’il ne l’est déjà. L’espèce humaine vit de plus en plus dans un espace factice : ce que nous mangeons, ce qui nous habille est de plus en plus faux. Même les instincts des humains sont concernés:la naissance sera artificielle, mécanisée, remplacée par des artefacts, peut-être un jour sortira-t-on d’une machine des humains ni tout à fait humains, ni tout à fait esprits fantômes, des clones humains ! On pourra alors les calibrer. C’est très inquiétant. Désormais, le fonctionnement dénué de sentiments de ces deux créatures titanesques que sont la technique et le capital dépasse chaque jour un peu plus les capacités de maîtrise et d’organisation des humains entre eux, n’étant plus très loin de la perte totale de contrôle. L’espèce humaine est confrontée à une crise énorme qui engage sa survie. Que faire ?

Ceux qui dans le monde ont des connaissances réfléchissent. Et c’est ainsi qu’à la fin du siècle dernier il y a eu cette Connaissance commune de Paris avec des lauréats des prix Nobel du monde entier. Oui, puiser dans la sagesse confucéenne bien avant 2530.

Qu’est-ce que la sagesse confucéenne ? La sagesse confucéenne n’est autre que la sagesse de la nation chinoise, la plus remarquable contribution de la nation chinoise au monde. Ce qui veut dire que Confucius a révélé le monde d’une espèce humaine qui s’appartient à elle-même : le monde de l’esprit. L’explication est simple, d’abord les humains ne sont pas des divinités, cela ne peut donc pas être un monde du seul divin, où ils sont éternellement sous les ordres du divin, vivant dans le monde des divinités. Ensuite, les humains ce ne sont pas des choses matérielles. Et puisqu’ils ne sont pas des animaux-machines, ils ne sont pas non plus des animaux, alors ils ne sont plus que des êtres matériels, obéissant éternellement aux choses matérielles, vivant dans le monde des choses matérielles. L’humain c’est l’humain, c’est pourquoi l’humain ne peut vivre que dans le monde humain. L’esprit est le constituant principal de l’humain, aussi l’humain ne peut-il vivre que dans le monde de l’esprit. Il y un monde idéal et naturel pour autant qu’il y a un monde de l’esprit.

Or donc, le fait que l’espèce humaine appartienne au monde propre de l’espèce humaine est-ce à dire qu’il n’y a que l’esprit ? La réponse est encore négative. Parce que l’humain est ce qu’il y a de commun au corps et à l’esprit. Il faut stabiliser le corps pour que celui-ci ne puisse se soustraire aux choses matérielles. Il faut stabiliser l’esprit pour que celui-ci ne puisse se séparer du divin. Ainsi ce qui appartient au monde de l’espèce humaine et qu’a révélé Confucius ce sont le divin, le matériel et l’esprit ces trois instances en un corps, un monde où l’esprit dirige.

Dans un tel monde comment l’espèce humaine subsiste-t-elle ? C’est à dire, comment se développe la vie des humains. Quel modèle de vie idéale et naturelle serait celui de l’espèce humaine ? On peut l’affirmer, ce n’est pas la vie du divin, ce n’est pas non plus la vie des choses matérielles. Ce ne peut être que la vie de l’esprit. Il y a un mode de vie propre à l’espèce humaine pour autant que l’espèce humaine s’est donnée les moyens et a été capable d’avoir une vie de l’esprit.

Pour parler concrètement, cela veut dire, premièrement : ne pas rechercher outre- monde une libération, mais bien vivre dans le monde présent, réussir sa vie d’humain et être un homme de bien. De l’enfance à la vieillesse prendre d’abord soin de soi, puis prendre soin des autres, puis à nouveau les autres prennent soin de nous, l’on jouit alors du parcours complet de la vie. L’esprit s’est impliqué en traversant ces trois étapes. C’est aussi ce que Zhuangzi appelait « accomplir son destin et ne pas mourir à la fleur de l’âge. » Deuxièmement, la vie ce n’est pas l’obtention de la plus grande satisfaction dans la quête des choses matérielles, mais ce ne peut être que la recherche autant qu’il est possible de la joie de l’esprit. Manger, s’habiller, être en bonne santé, ce n’est pas le but. Le but du manger, du s’habiller et de la santé c’est la joie de l’esprit. La joie de l’esprit est la seule raison d’être de la vie. La vie qui a pour fin la joie c’est la vie de l’esprit. C’est à dire la vie de l’union du corps et de l’esprit. C’est ce que Zhuangzi nomme « bien vivre et bien mourir ». Une vie intégrale ne peut être que la vie qui va de la naissance à la mort. Il suffit alors que chacun vive au mieux sa vie, se réalise un soi-même, pour que le bon renouvellement de la vie de l’espèce humaine s’accomplissent.

Telle est la sagesse de Confucius, la sagesse de la nation chinoise — la grande sagesse, la grande éducation, la grande vision de l’existence. C’est là que se trouvent la valeur et l’esprit fondamental des études nationales et de la civilisation chinoise. Or une telle sagesse, un tel esprit, une telle valeur, comment concrètement la connaître et la posséder ? Ce qui revient à dire, comment pouvons-nous faire de nous des humains, des hommes de bien, et ainsi parvenir au monde de l’existence idéale ? Nous ne pouvons que solliciter l’enseignement des Anciens Saints et Sages, solliciter l’enseignement des Classiques. Ce qui ne désigne pas autre chose que les Cinq Classiques et les Maîtres, y compris les Quatre livres dont l’édition a été fixée par les confucéens de la dynastie Song et ont été promus au rang des leçons indispensables pour la vie.

Zhuangzi dit des Cinq Classiques que ce sont « les traces ordonnées des Anciens Rois ». Les ouvrages classiques sont les remémorations et prises de note de ce qui dans activités sociales des ancêtres lettrés qui possède la plus grande valeur. C’est la source et la base de la civilisation chinoise. Tous les produits de la civilisation chinoise se sont développés sur cette base. Toutes les formations psychologiques et culturelles de la nation chinoise sont nées et se sont établies sur cette base. La Préface du Livre des Documents dit : « le livre des trois Empereurs se nomme les Trois Tumulus, il parle de la grande voie, le livre des Cinq Empereurs se nomme les Cinq Canons, il parle de la voie constante. Les Classiques et Canons éclairent l’origine et la base de la civilisation chinoise. Ils impliquent la Voie — l’appui interne à partir duquel est généré tout le développement de la civilisation chinoise. La civilisation chinoise est là sans interruption depuis 5000 ans, et pas à pas elle continue d’avancer. Alors n’y a-t-il pas là une grande sagesse, quelque chose d’important !

Mais ce qui est très regrettable c’est que depuis le mouvement du 4 mai, et aussi après les années 50 avec la réforme de l’écriture et surtout après les années 60 avec la Révolution culturelle, nos Classiques ont été laissés à l’abandon dans un pavillon haut perché et ainsi, jour après jour, ils sont sortis un peu plus de la vie des gens, jour après jour ils se sont éloignés un peu plus du système d’éducation national. Cela a eu pour conséquence sociale directe que les chinois ne connaissent plus les caractères chinois, les chinois ne lisent plus de livres chinois, les chinois ne lisent pas leurs Classiques. Nous avons eu alors ce phénomène inévitable que les gens ont renoncé à leurs propres sentiments pour suivre celui des autres, et d’un seul homme ils se sont alors entichés d’une civilisation occidentale en position dominante, perdant alors la confiance en soi d’une nation, la confiance envers leur propre culture. Les gens perdent leur croyance en l’excellence originelle de notre nation chinoise, les gens n’ont plus l’esprit de crainte respectueuse, les gens n’ont plus l’âme religieuse, les gens n’ont plus la force qu’apporte un soutien spirituel, les gens n’ont plus d’esprit à demeure, il n’y a plus de rien de grand, il n’y a plus de noblesse. Alors la sincérité part à vau l’eau, la morale régresse, on s’oriente vers la superficiel, l’intérêt profitable, et même vers la folie et le crime.

Que faire ? Il faut éveiller les esprits, il faut renouveler l’éveil des esprits. Pas seulement pour notre prochaine génération, en éveillant l’esprit de nos bambins, car il importe tout autant d’éveiller l’esprit de nos aînés. Les gens de notre pays doivent s’éveiller, sont dans l’attente de cet éveil. Ce travail d’éducation est tout à fait faisable, parce que les études nationales ont une vitalité incomparable.

Les études nationales ont eu à subir trois chocs sévères : le 4 mai, la Révolution culturelle et la politique d’ouverture et de réforme (économique), cependant elles n’ont pas sombré, elles coulent encore dans les veines du peuple, sont préservées dans les gènes du peuple chinois. Ainsi nous avons cet engouement actuel du renouveau des études nationales. Des petits groupes d’entrepreneurs, de cadres se dirigent vers les stages d’études nationales. Puis il y a eu ce Trésor des Classiques de l’éveil aux études nationales que chacun a maintenant devant soi. Nous avions réuni une équipe ad hoc de chercheurs chinois d’âge moyen épris de culture littéraire et plein d’enthousiasme pour les études nationales, et ainsi tout a été fait pour éditer cette série de petits livres maintenant offerts à tous, à la société, à l’époque.

Sous la dynastie Tang, Maître Hanyu dit : « pour lire il faut d’abord connaître les caractères » Dans la vie pourquoi faut-il étudier ? Parce que, dit Le juste Milieu : » Le mandat du ciel a pour nom notre nature » La nature de l’homme est attribuée par le Ciel, la Nature. Cependant, le Ciel n’a fait que donner à chacun une existence, il n’a pas donné à chacun la capacité et le talent pour réaliser cette existence. Le talent et la capacité d’où viennent-ils alors, si ce n’est par l’étude ? Voilà pourquoi Confucius n’admet pas que la connaissance vienne en naissant, à l’inverse, c’est parce que avons plaisir à l’étude que nous nous établissons. Alors, étudier quoi ? Premièrement wen, deuxièmement xian. Ce qu’on appelle xian ce sont les choses ou les personnes qui ont une forme. Ce qu’on appelle wen ce sont les livres. C’est pourquoi étudier revêt une extrême importance pour l’existence humaine : lire est un mode de vie et un mode d’existence. Pourtant, pour lire il faut un préalable qui est de savoir les caractères. Or la signification que pointe Hanyu en disant « savoir les caractères » c’est de savoir les caractères anciens, savoir leur sens originel. C’est pour nous contemporains qui ne savons que les caractères d’après la réforme de l’écriture, c’est à dire des caractères simplifiés, et ne savons pas les caractères compliqués, sans nul doute, une difficulté, et très certainement aussi une grosse difficulté qui vient encore s’ajouter à d’autres difficultés. Pour cela, nous avons spécialement annoté chaque caractère en donnant la prononciation, en espérant toutefois que la pratique et la réflexion de tous concernant les études nationales nous apportent plus d’aide.

Emerson dit : « étudier directement le seigneur. « Cela signifie qu’il n’est pas nécessaire de voir sa photo, de voir sa photocopie, mais qu’il faut le voir en personne. Aussi, comme nous le disons souvent, il faut lire les textes originaux, il faut lire les classiques. Il ne faut pas, par commodité, pour économiser du temps, lire des traductions en chinois contemporain, ou même seulement des morceaux choisis. Les éditions très annotées il est préférable également de s’en passer. Dans tous ces cas on s’écarte du texte originel. Il devient inévitable que le sens soit biaisé, que l’on perde quelque chose, au point même parfois de faire des contresens. Et ce d’autant plus que de nos jours ceux qui écrivent sont plus nombreux que ceux qui étudient.

Confucius dit : « Ceux qui étudiaient autrefois le faisaient pour eux, ceux qui étudient aujourd’hui le font pour les autres. » Il y a dans l’étude une différence entre l’homme de bien et l’homme de peu, Xunzi dit : « l’étude pour soi c’est l’étude de l’homme de bien, l’étude pour les autres, c’est l’étude de l’homme de peu. » L’étude pour les autres, c’est que cela se sache en dehors de soi, l’étude pour soi, c’est « vouloir l’obtenir pour soi », « l’étude de l’homme de bien consiste dans la culture de son corps », c’est pourquoi l’étude est une action individuelle, il n’y pas comme cela existe chez certains personnages médiatiques à prêcher le vrai pour le faux, faire étalage de son savoir, se mettre en scène. Dans l’étude, le plus important n’est pas l’acquisition des connaissances, mais de « savourer » ; il faut sentir les choses, il faut réfléchir en se basant sur son expérience personnelle de la vie, « il faut transformer le caractère. » Avant l’étude, c’est ainsi, après l’étude c’est autrement. Il faut absolument suivre la deuxième voie que nous indique Liang Qichao : la pratique de la vertu naturelle.

Nos contemporains ont pris l’habitude d’utiliser les méthodes occidentales. C’est à dire la méthode « scientifique », la méthode analytique, la méthode de la recherche des écarts, la méthode quantitative pour étudier les livres et produire de la connaissance. Tout ceci pose de gros problèmes. Connaître les Canons de la culture chinoise, les Cinq classiques, et les Maîtres, ce n’est pas scientifique, car ce sont des humanités. C’est pourquoi dans l’étude on ne peut que veiller à des humanités, on ne peut qu’utiliser la méthode relationnelle, synthétique, qui va au delà des formes. L’utilisation de la méthode analytique, scientifique, ne peut produire que des experts. Ce qu’on appelle des moines à la bouche en coin qui ont leur point de vue personnel sur tel ou tel Canon en particulier, tous ces spécialistes du Lao Zi ou du Sun Zi qui se sont formés sur ce modèle. Ils ne savent donc pas que Laozi, Zhuangzi, Sunzi, sont tous chinois ? Ils partagent pourtant les mêmes bases génétiques, les mêmes formations mentales et culturelles, et il y aurait de telles différences entre eux ? C’est pourquoi je préconise toujours de faire « le vieux (qui) fait le petit-fils ». Laozi, Zhuangzi, Sunzi, il faut les connaître sur le bout de doigts. Et de même, prose, histoire et philosophie, il faut connaître à fond.

Ce petit livre que nous avons ici, nous l’avons édité en prenant en considération tout ce qui vient d’être dit. Nous souhaitons qu’un grand nombre de lecteurs s’y appliquent de tout cœur.

Encourageons-nous mutuellement ! Assumons la grande responsabilité de transmettre et de faire rayonner la culture chinoise !


Ceci pour introduction.

Cifu à Beida, pavillon Puyi. 2010.11.2 à l’aube. (L’auteur est professeur d’archéologie de l’université de Pékin et à l’Institut du vaste savoir littéraire. Canons précieux de l’éveil aux études nationales. Editions Qingwu, Déc. 2010.)

Source du texte traduit : http://pkunews.pku.edu.cn/zdlm/2013-11/11/content_279627....

(1) Culpabilité : État plus ou moins angoissé et morbide d'une personne qui se sent coupable de quelque chose; comportement qui en découle et que caractérisent principalement des réactions d'agressivité projetée chez autrui ou dirigée contre soi même dans l'autopunition*, l'auto-accusation* et l'autodestruction*

(2) Honte : Sentiment de pénible humiliation qu'on éprouve en prenant conscience de son infériorité, de son imperfection (vis-à-vis de quelqu'un ou de quelque chose). Synon. confusion.La honte le retient. Être pris de honte (Ac.) - Effet d'opprobre entraîné par un fait, une action transgressant une norme éthique ou une convenance (d'un groupe social, d'une société) ou par une action jugée avilissante par rapport à la norme (d'un groupe social, d'une société). Synon. déshonneur; anton. honneur.Les hontes du péché, du ridicule. Effacer la honte d'une mauvaise action; couvrir quelqu'un de honte (Ac.).

Quelques références

Anne Cheng, « Le confucianisme est-il un humanisme », son cours au Collège de France, 2014. https://www.college-de-france.fr/site/anne-cheng/course-2...

Rémi Brague, Le règne de l’homme, Gallimard, 2015

Jean Lévi, Les entretiens de Confucius et de ses disciples, Albin Michel, 2016

Paul Jorion, Comment la vérité et la réalité furent inventées, Gallimard, 2009

John Makeham « Le renouveau du Guoxue, antécédents historiques et aspirations contemporaines », in Perspectives chinoises, 2011

Chen Lai 陈来, Tradition and Modernity : a Humanist View , 2009 http://chinaperspectives.revues.org/5761?lang=fr

Chen Lai 陈来, « Entretien avec le professeur Chen Lai », conduit par Roger Darrobers, 2010 http://www.institutricci.org/A6_documents/data_doc/Doc/Le...

Lu Chang 陆畅, « Shilun guoxue de jiben tezheng » (Essai sur les caractéristiques fondamentales du Guoxue), 2014 http://www.cqvip.com/qk/97427a/201401/48718112.html

Wang Furen, 王富人 »Xinguoxue Lungang » (Les grandes lignes du Nouveau Guoxue) in Xinguoxue Yanjiu, di yi ji, Renmin Wenxue Chubanshe, 2005

Liu Zehua, 刘泽华 »Fuxing ruxue shi wenming de tisheng ma ? » (La renaissance de l’École des lettrés confucéens, est-ce un progrès pour la civilisation ?) in Zhonguo shehui kexuebao, 2015

http://news.nankai.edu.cn/mtnk/system/2015/07/16/000242103.shtml

Zhang Xin, 张辛, « Shidai xuyao guoxue, minzu xuyao guoxue », (Notre époque a besoin de Études Nationales, notre peuple a besoin des Études Nationales ), Beijing Daxue, 2013

http://pkunews.pku.edu.cn/zdlm/2013-11/11/content_279627.htm

Zhang Xin, sa notice Baidu (le ‘wikipédia’ chinois) : http://baike.baidu.com/subview/221274/6393257.htm

Promesses et menaces à l’aube du XXIème siècle : conférence des lauréats du prix Nobel à Paris, 18-21 janvier 1988, Editions Odile Jacob, 1988

Sylvain Arnulf « Pour le créateur de Baidu, la Chine doit devenir une superpuissance de l’intelligence artificielle. », 2015
http://www.usine-digitale.fr/article/pour-le-createur-de-...


Chine – Prête pour le transhumanisme ? par DD & DH

Billet invité.

C’est le thème, simultanément porteur d’espoir et vecteur d’angoisse, qui, désormais sorti de l’univers clos des labos de recherche et des films hollywoodiens de super-héros, se met à courir les rues, à hanter nos imaginations et à pimenter les conversations du Café du Commerce.

L’espèce humaine vient en effet de comprendre brutalement qu’un bond extraordinaire de la science est en train de rendre bien réelles dès demain matin les plus aventureuses spéculations qu’elle étiquetait « science-fiction » jusqu’à hier et qu’il va lui falloir faire avec bon gré mal gré.

Parmi les nombreux projets qui mijotent dans les tubes à essai, sans aller jusqu’à l’immortalité qu’on commence à nous faire miroiter et que nous laisserons de côté pour le moment, se trouvent évidemment en très bonne place le clonage et les mutations d’encodage génétique appliqués aux humains. Ces manipulations de l’ADN sont d’ores et déjà relativement bien maîtrisées chez l’animal et la communauté scientifique est arrivée au point exact du possible « basculement » vers la grande mutation anthropologique que constituera l’application de ces techniques à notre espèce ainsi « augmentée ». Nous disons « constituera » et non « constituerait » tant il nous apparaît que ce qui est faisable se fera inéluctablement et probablement de manière irréversible. Rassurons-nous : il ne se peut que l’on ne nous assure pas que cela sera « pour notre plus grand bien » !

cartouche

Or, tandis qu’en Europe nous hésitons encore (un peu) au bord du précipice, la Chine est en train de se positionner à l’avant-garde de cette marche vers l’inconnu. Des scientifiques chinois ont déjà mis le doigt dans l’engrenage en publiant les résultats d’une « première » réalisée en avril dernier, à savoir une série de manipulations génétiques sur un échantillon de 86 embryons (source : Le Monde Cahier « Sciences et médecine » 23/09/2016). En juillet d’autres chercheurs présentaient leurs travaux pour soigner le cancer chez l’adulte via une technique de modification génétique.

Parallèlement, un sondage à l’échelle mondiale a montré que c’est en Chine que l’idée d’une modification du QI in utero rencontre le plus d’adhésion spontanée de la population, 39% s’y déclarant favorables et jusqu’à 50% franchement enthousiastes parmi les couches de population les plus jeunes et éduquées (même source).

Ce positionnement n’a rien d’étonnant. La tentation eugéniste est latente en Chine et n’attend que la technologie qui la rendra effective et assurée du succès. La perspective de mettre au monde un enfant « augmenté » dont le QI trafiqué in utero assurera des performances scolaires et une réussite sociale spectaculaires est le rêve tout à fait avoué de beaucoup de familles chinoises ! Un pays qui, avec Confucius, met au-dessus de tout les capacités intellectuelles depuis deux millénaires et demi ne saurait décevoir dans ce domaine : aller au bout du perfectionnement possible et se surpasser dans l’acquisition de talents est le seul credo que la Chine a toujours entonné. N’existe-t-il pas à Pékin un Temple de l’Intellectualisation (dont le nom chinois « zhi hua si » serait mieux rendu par « Temple de l’activité intellectuelle socle de la civilisation ») spécifiquement dédié à l’Intelligence ?

Tous les écoliers chinois connaissent bien le terrible « marche ou crève » des études à grand renfort de cours particuliers et d’épuisants « tours de chauffe » avant les examens ! Réussite à tout prix ! Les parents chinois caressent tous le rêve de hisser leur enfant (unique jusqu’à ces tout derniers temps !) au pinacle et de lui voir réaliser ce dont la Révolution Culturelle les a privés. Comme le piano a été la revanche N°1, par progéniture interposée, des ex-gardes rouges et ex-« jeunes instruits » (chassez l’embourgeoisement, il revient au galop !), c’est par exemple le cas du jeune pianiste virtuose Lang Lang qui, littéralement, ne pouvait pas ne pas exaucer les désirs frustrés de ses parents prêts à tous les sacrifices pour assurer son ascension aux premiers rangs mondiaux dans le domaine des gammes.
Dans la mesure où actuellement le foot, sport particulièrement chouchouté par le Président Xi qui rêve d’un « Mondial » triomphal, a plus le vent en poupe que le piano, c’est vers lui que convergent les aspirations de bien des parents qui se mettent à rêver de Messi, Beckham et Ronaldo en herbe en inscrivant leurs rejetons à la gigantesque Académie du Football, avec ses 50 terrains, installée dans le sud de la Chine. Un reportage à la télé (diffusé en bouche-trou pendant la grève d’I-Télé) y a montré un môme d’une dizaine d’années au bord des larmes bafouillant qu’il n’aimait pas du tout le foot. Qu’importe : 5 heures par jour de balle au pied ad majorem gloriam de papa, de maman et des ancêtres ! S’il y a un gène du foot, il ne fait aucun doute qu’on le lui transplantera dès que possible… Sans verser dans un essentialisme de mauvais aloi, force est de constater que la passion de l’excellence et le syndrome Guinness Book sont de puissants levains qui travaillent en profondeur la « pâte » chinoise !

Les Chinois manifestent, dans ces domaines, une confiance et une audace qui nous épouvantent un peu. Sans doute faut-il se souvenir qu’ils sont des joueurs infatigables et jamais découragés. Ils misent sur le côté bénéfique du progrès et sont prêts à tenter le coup ! Ils n’ont jamais non plus produit de ces mythes qui ont structuré notre imaginaire européen : il n’y a pas de Prométhée chinois supplicié jusqu’à la fin des temps par un Zeus jaloux pour avoir aidé les premiers hommes à « s’augmenter » par l’usage du feu. Pas davantage d’« Apprenti sorcier » incapable de contrôler, faute de la formule capable de le stopper, le terrifiant pouvoir dont il s’est magiquement « augmenté » en mettant en branle l’infernal ballet des seaux d’eau. Pas de « Faust »» non plus, piégé par le Diable à cause de son insatiable appétit pour une vie « augmentée » et pas de créature du Dr. Frankenstein dont le processus d’« augmentation programmée » n’est pas allé jusqu’à son terme, donnant naissance à un monstre. A noter que les trois mythes, devenus constitutifs de notre identité, de l’Apprenti sorcier (Goethe 1797), de Faust (repris de Marlowe par Goethe en 1808) et de Frankenstein (Mary Shelley 1818) ont été popularisés chez nous sur une petite dizaine d’années au tournant du XVIIIe et du XIXe, c’est à dire au moment où apparaissait la notion de « fluide électrique », où Mesmer « magnétisait » la Cour de France dans ses baquets et surtout où la Révolution industrielle installait le machinisme sur fond d’aliénation au travail et générait une angoisse d’un genre nouveau face aux mutations sociologiques qu’elle entraînait. Il nous semble aller de soi que le fonds commun à ces trois mythes et l’efficacité de leur pouvoir d’évocation doivent être mis en relation avec la religion judéo-chrétienne puisque tous les trois mettent en garde sur les périls d’une grave transgression. Or on ne peut transgresser véritablement que du sacré et des lois réputées inviolables : par excellence celles d’un Dieu créateur, juge de toute action et en éternel surplomb de toute sa création. L’impact des mythes cités ne trouve sa justification que si Dieu figure dans le fond du tableau. Même déchristianisés comme nous croyons l’être aujourd’hui, nous restons à l’intérieur de ce pli que le judéo-christianisme a fait prendre à notre interprétation du monde.

La Chine n’a rien connu de tel : ignorant la notion de création et sans compte à rendre à une instance supérieure (les ancêtres et la profusion des dieux de toute sorte sont accommodants et traités en voisins), elle peut ignorer nos scrupules pour se lancer dans l’invention de nouveaux possibles et, comme elle est fondamentalement optimiste (pas de « faute » originelle pour noircir le tableau !) elle fait le pari que ça peut marcher. Sans la menace du crime d’« hybris » qui fâchait l’Olympe ou de l’offense faite à un Dieu courroucé contre ceux qui auraient l’outrecuidance de traficoter sa propre Image à travers sa créature, la Chine trace son propre chemin.

Dans ces quarante dernières années, elle a fait un bond scientifique et technologique de plusieurs siècles à une vitesse inédite : elle est sur une vertigineuse rampe de lancement et, sauf si un obstacle imprévu mais toujours possible l’arrête, elle poursuivra coûte que coûte sur cette lancée.
Minuscule exemple de saut technologique : il nous arrive encore de nous pincer au souvenir de l’unique téléphone filaire public (généralement rouge) qui, installé dans une encoignure de porte ou bringuebalant sur un appui de fenêtre, desservit l’ensemble des communications de chaque pâté de maisons à Pékin et dans les grandes villes jusqu’à la fin des années 90 et qu’on vit remplacé presque du jour au lendemain sans la moindre émotion décelable à l’orée des années 2000 par un raz-de-marée de cellulaires dernier cri « augmentant » les individus jusqu’au fond des campagnes ! Pour le transhumanisme, le chemin est défriché…


CHINE : Entre les lignes, par DD & DH

Billet invité. Le télescopage entre les remarques ici et celles dans mon Titre, ô titre, où es-tu ? ou Les espiègleries de la déesse Édulcore, hier, est purement accidentelle… à moins qu’il ne signale une épidémie…

On le sait : il n’y a pas de sujet dans l’actualité du monde qui soit « neutre » tant chaque évènement est inévitablement relié d’une manière ou d’une autre à nos affects, à nos intérêts, à nos idéologies, à nos croyances et à nos souhaits, qu’on les envisage à notre niveau personnel ou à celui, plus vaste, de notre nation, (nous allons rarement au-delà en matière d’échelle). On sait bien que même une dépêche de l’AFP n’est pas « neutre » et on ne parlera pas de son traitement (focale choisie, effet de zoom ou escamotage pur et simple) tant il relève d’une écume du moment, des circonstances, des rapports de forces à différents niveaux et aussi bien sûr du type de réception dont le « traitant » est capable. Il est évidemment illusoire d’imaginer qu’il existerait une manière « neutre » d’aborder un sujet pioché dans l’actualité, c’est pourtant ce que voudrait nous faire croire la corporation des journalistes dits « d’information », au premier rang desquels ceux du » Monde« , le Saint-Jean-bouche- d’or de la profession, journal « de référence et de révérence » censé offrir de l’information à l’état pur, garantie sans OGM (Omission, Grossissement, Minimisation) et sans parti-pris.

La Chine est un de ces sujets de l’actualité mondiale que nous (nous = DD et DH) scrutons plus attentivement que les autres et depuis plus longtemps que n’importe quel autre. Nous ne prétendons, dans les reflets que nous en livrons sur ce blog, ni à l’exhaustivité ni surtout à une « Vérité » objective qui n’existe nulle part. Nous voulons seulement témoigner de ce que ce travail d’auscultation patiente nous révèle : il est assez difficile en France de trouver sur la Chine un discours informatif « propre », débarrassé des préjugés, du prêt-à-penser dominant et des scories héritées d’une mémoire-« zombie » collective mêlant « péril jaune » et fascination maoïsante. Cette difficulté remonte très loin dans le temps (d’où probablement les effets de rémanence « zombie »). En fait elle est aussi vieille que la rencontre des Européens avec L’Empire du Milieu.
Nos premiers « envoyés spéciaux » ont été très prolixes et les « dépêches » qu’ils nous expédiaient sous forme de longues lettres étaient beaucoup plus détaillées que celles de l’AFP : c’étaient les Jésuites d’avant et de pendant la « Querelle des Rites » (entamée en 1700) qui, ne cachant pas l’admiration que leur inspiraient les mœurs, la sagesse et la haute civilisation chinoises, enthousiasmèrent d’autant plus nos « Lumières » qu’ils pouvaient bien, au train où ils allaient dans le laudatif, faire opportunément douter des paroles d’Evangile en Europe !
La Chine de Matteo Ricci n’était pas à 100% conforme à l’imagerie enluminée par ses coreligionnaires (très flattés d’être admis dans les premiers cercles du pouvoir impérial, ceci pouvant expliquer cela), mais celle d’une multitude grouillante d’êtres déguenillés, serviles, fourbes et cruels que véhiculèrent les colons occidentaux de l’après-guerres de l’opium (à partir de 1850) et qu’on retrouve dans « L’Illustration » du début du XXe quand ces effrayants va-nu-pieds osèrent s’en prendre aux Légations de Pékin, est, à l’opposé, encore plus déformante.

Pendant un demi-siècle ensuite, en même temps que la sinologie se constituait solidement en tant que science universitaire dans toute l’Europe (travaux décisifs de M. Granet, H. Maspero, R. Grousset, H. Giles, A. Waley, J.J. De Groot …) mais restait confinée dans les Instituts spécialisés, les phantasmes d’une Chine sournoise et malfaisante, qu’on peut dater par la création en 1912 de l’inquiétant Fu Manchu imaginé par Sax Rohmer, répandirent subrepticement dans l’opinion la peur d’un « péril jaune » qui vint enrichir notre imagerie d’Epinal traditionnelle.
Deux guerres mondiales gommèrent alors momentanément la Chine à nos yeux en la privant d’un relais dans nos gazettes et nos préoccupations, alors qu’elle aussi subissait ces deux conflits : sous la forme d’une injustice lors de la signature du Traité de Versailles en 1919 et celle d’un abominable martyre de la part des Japonais lors du second conflit. Ceux qui furent enfants en France dans les années 30 entendirent sans doute parler de la Chine pour la première fois à travers la collecte du papier métallisé enveloppant le chocolat qu’il fallait garder « pour les petits Chinois », opération caritative qui emplit toute une génération d’une horreur à double ressort : les petits Chinois se nourrissaient-ils vraiment de papier métallique? ou bien n’auraient-ils pas aimé eux aussi le chocolat dont on se goinfrait bien égoïstement, ce qui ne constituait rien moins qu’un double péché capital…

On sait que la période qui s’ouvrit avec l’intronisation de Mao à Pékin en 1949 n’aida pas à accommoder notre vision selon des critères objectifs : entre l’effroi primaire des anticommunistes tétanisés de voir ainsi s’agrandir le camp du « Mal » et l’idolâtrie d’intellectuels hypnotisés par la propagande, la Chine de Mao n’avait pratiquement aucune chance chez nous de se voir restituer un visage qui eût à voir avec le réel. Depuis la fin des années Mao et accompagnant la spectaculaire croissance économique qui a pris tout le monde de court, anticommunistes et maolâtres confondus, est revenu, sans dire son nom qu’un siècle après Fu Manchu on n’ose plus guère énoncer à haute voix, un ersatz de « péril jaune » sur les thèmes : la Chine nous vole nos emplois, elle ruine nos industries, elle nous envahit de marchandises bas de gamme dangereuses pour notre santé, elle pollue la planète. Et que dire de ces richissimes Chinois  » qui viennent jusque dans nos bras acheter nos vignes et nos terres ! Aux armes, citoyens... » ! Les pseudo-intellectuels de l’heure dont le journalisme fournit le gros des troupes, forcément moins triviaux, ont, eux, quand ils parlent de la Chine, un caillou dans la chaussure : ce caillou s’appelle « Droits de l’Homme (et du journaliste) » et il suscite une inflammation qui ne s’apaisera qu’avec l’effondrement du Parti Communiste Chinois, pas tant parce qu’il est « communiste » (on n’est plus si primaire, que diable !) que parce qu’il constitue une anomalie à la tête d’un empire capitaliste et que cette anomalie, qui n’est pas prévue dans le mode d’emploi de leur boîte à outils conceptuelle, dérègle leurs boussoles. Cet urticant prurit ne les fait souffrir qu’à l’endroit de la Chine et ne leur donne jamais d’élancements quand, par exemple, ils qualifient sans nuances de « grande démocratie » l’Inde où perdure la relégation des « Intouchables » ou quand ils détournent pudiquement le regard de Guantanamo (c’est vrai qu’il n’y a pas de journalistes dans ces cages !) pour ne pas écorner l’image de la patrie de Freedom !

Pour la Chine, la chose s’explique assez facilement et de façon si naturelle qu’on peut faire l’économie des procès d’intention. Prenons le cas des correspondants sur place que peuvent s’offrir les journaux ayant pignon sur rue : à Pékin, ils vivent entre eux dans des quartiers conçus pour les étrangers. Par qui sont-ils « approchés » assez rapidement ? Par des Chinois de leur « espèce », intellectuels ou pseudo-intellectuels à différents degrés de « dissidence » à la recherche d’une chambre d’écho pour leurs doléances. Il y a de fortes chances pour que se nouent alors des amitiés véritables autour des « valeurs » que les uns incarnent et que les autres revendiquent. Que spontanément les journalistes occidentaux relaient ces aspirations et s’indignent qu’elles soient en Chine passibles des tribunaux (puisque le « flétrissement public de l’image de la Chine » est un délit) n’a rien d’étonnant ni de répréhensible en soi à condition que ces mêmes journalistes élargissent un peu leur champ de vision et ne s’abonnent pas à cette univocité. On se souvient du cas d’Ursula Gauthier, correspondante de « L’Obs. » à Pékin pendant de nombreuses années, qui fut littéralement « expulsée » par non renouvellement de son visa par les autorités pékinoises le 31 décembre 2015. A voir l’acharnement qu’elle avait mis à obtenir ce coup de pied au derrière par la tonalité de ses papiers au fil des ans, on peut se demander si elle n’y voyait pas un titre de gloire et le plus magistral couronnement de sa carrière ! L’ensemble de ces pratiques journalistiques (de tous bords politiques) finit par créer autour de l’idée de Chine un sfumato qui déforme presque invisiblement, mais invariablement dans le même sens, les contours du sujet.

Terminons par une petite explication de texte à l’appui de notre thèse du « sfumato ».

Lieu ? « Le Monde ». Date ? 15 octobre 2016. Sujet ? Retour de Confucius. Titre ? « Un grand bond en arrière » (en lettres gigantesques). Il s’agit, sous la plume de François Bougon, d’évoquer la remise au goût du jour de la doctrine confucéenne par le PCC, c’est-à-dire davantage du « réchauffé » qu’un scoop. L’article est correct et se présente en bonne dissertation équilibrée, appuyée par deux ou trois citations de sinologues qui n’ont rien de bouleversant, bref une copie comme on les a aimées en France quand on y pratiquait encore « les humanités ». Mais le Diable guette et on sait bien qu’il est dans les détails. Il y a au journal « Le Monde » une équipe de coiffeurs et de modistes dont le job est de coiffer les articles de titres et de leur confectionner des « chapeaux », c’est sur leur ouvrage que nous allons ici nous attarder un peu. Occupons-nous d’abord du titre général barrant toute la page, en énorme « Un grand bond en arrière ». Il s’agit bien sûr d’un jeu de mots de connivence avec l’intelligentsia qui captera le clin d’œil, mais le lecteur plus négligent n’en retiendra en passant que l’idée diffuse d’une Chine qui freine, voire recule et même régresse. Décortiquons maintenant le « chapeau » que voici :
« En mal de légitimité, Xi Jinping, le président de la République Populaire, puise allégrement dans la philosophie du vieux maître, subitement réhabilitée pour promouvoir l’ « harmonie sociale ». Le « en mal de légitimité » vient d’où ? Etayé par quoi ? Il semblerait au contraire que, sans peut-être faire l’unanimité, « Xi dada » (Oncle Xi), comme l’appellent affectueusement les Chinois, jouit pour le moment d’une popularité qu’envieraient bien des chefs d’état sous nos propres cieux. Rien dans l’article ne corrobore l’idée d’un déficit de légitimité des dirigeants, l’éventuel déficit pointé étant de l’ordre de la morale mise à mal dans la société par le consumérisme et le poids de l’argent. « Puise allégrement » : bigre, en voilà un qui ne se gêne pas ! L’expression ne laisserait-elle pas entendre sur le mode subliminal qu’il est homme habitué à « puiser allégrement»… points de suspension. On se demande bien aussi en quoi le recours, même un peu trop « allègre » à un corpus philosophique authentiquement chinois aurait un caractère d’excessive prédation de la part d’un Chinois. « Subitement réhabilitée » est une semi-contre vérité dans la mesure où cela évoque un revirement brutal talonné par l’urgence, qui a sans doute sa source dans la première phrase (la plus contestable) de l’article « Il s’agit d’un hold-up idéologique magistral ». Certes le PCC réaffirme son ancrage dans une tradition intellectuelle et morale du patrimoine chinois, un temps délaissée et fortement critiquée, c’est vrai, mais déjà si bien réinstallée que l’« harmonie sociale » fut le principal mot-clef du prédécesseur de Xi Jinping, Hu Jintao (secrétaire du PCC de 2002 à 2012). « Hold-up » écrit F. Bougon à la première ligne de son papier, l’image est piquante, nos « modistes » la reprennent : cet homme qui « puise allégrement » et qui fait un « hold-up », ça devient la Bande à Bonnot à lui tout seul ! Les fabricants de « chapeaux » et d’accroches en tout genre ont besoin d’effets-coups de poing. Racolage et désinformation sont les deux mamelles de leur turbin. Dans un article lisse et atone comme celui-là, il leur faut dénicher quelques phrases un peu saillantes pour en faire leur miel, en voici une qui a dû les faire saliver : « Pourquoi ce tour de force, cet alliage qui défie la logique ? ». Quel « tour de force » quand il s’agit de proposer à des gens un terreau dans lequel ils poussent génération après génération depuis deux millénaires ? Et si notre « logique » peut à la rigueur être « défiée » par l’alliage socialisme de marché-confucianisme, il en va évidemment tout autrement de la « logique » chinoise !

A quoi rime ce genre d’enfumage et de détournement en catimini ? Poivrer un plat trop fade ? Montrer qu’on ne la leur fait pas et qu’on n’est pas le phare de l’Opinion propre sur elle sans prendre l’info avec des pincettes ? Surligner qu’ils sont vigilants quand il s’agit de décontaminer une idéologie douteuse avant de lui ouvrir une page ? Ou tout bêtement agir par réflexe pavlovien et sans véritable intention tant le préjugé et le vocabulaire qui y est assorti sont ancrés dans leurs circuits de pensée depuis belle lurette ?

Un peu de tout ça sans doute…

vendredi, 22 novembre 2013

Les rois-dragons contre les cygnes-noirs.

Une théorie scientifique capable de mesurer les instabilités internes d’un système complexe avant une “catastrophe”, et d’en tirer des prédictions qui devrait permettre– au moins en l’absence d’autres perturbations extérieures -  d’éviter les pertes de contrôles qui se produisent quand on a affaire à des mécanismes de rétroactions positives (1) qui se cumulent et s’amplifient de manière exponentielle voire super exponentielle, comme les bulles financières.

  • Si un un jour elle est entreprise, l’étude du système BITCOIN selon cet axe théorique, pourrait s’avérer extrêmement féconde.
  • On peut se demander aussi si ce genre d’études pourrait améliorer la stabilité des centrales nucléaires ? Dans ce dernier cas ce n’est pas seulement le système limité à la centrale qu’il conviendrait d’étudier mais la centrale et toutes les perturbations de son environnement.

En espérant que les extrapolations du couplage de 2 systèmes oscillants puissent s’élargir à des cas moins bien formalisés…

Références

Internet ACTU.net : La quête des rois dragons
WIRED : Using Chaos Theory to predict and prevent catastrophics  “Dragon Kings” events
DUKE Physics – Publications et collaboration 2013, du Dan GAUTHIER Group
   L’article publié par le l’équipe de SORNETTE :
                  Predictability and Suppression of extreme events in a chaotic system 
   Didier SORNETTE 2009 : Dragon-Kings, Black Swans and the Prediction of Crises
   Ce qu’en dit SLATE.fr
                  Cet homme peut prévoir les krachs boursiers. Et si les financiers l’écoutaient enfin ?
   Ce qu’en dit MIT Technology Review :
                  How Dragon Kings Could Trump Black Swans
ETH ZURICH D-METC : Chaire des risques entrepreneuriaux
American Physical Society : Viewpoint – How to control your Dragons ?   (lois de puissance (2))

Glossaire

(1) rétroaction positive ou négative : en automatique, désigne un mécanisme de contrôle d’une machine ou d’un processus automatique plus complexe. Une rétrocession négative met en œuvre un mécanisme itératif qui analyse la divergence d’une mesure par rapport à une valeur nominale fixée par un opérateur, et qui opère sur les commandes de la machine ou du processus pour ramener cet écart à zéro. Les rétroactions négatives sont donc mise en place par l’homme dès la conception de la machine ou du processus. A l’inverse une rétroaction positive est une boucle d’interaction qui produit une divergence sur les mesures en les écartant de plus en plus de la valeur nominale souhaitée par l’opérateur. Les commandes de l’opérateur deviennent inefficace, il perd de façon inéluctable le contrôle de sa machine et le processus se termine de façon chaotique par une catastrophe.

(2) Power low : A power law is a mathematical relationship between two quantities. When the frequency of an event varies as a power of some attribute of that event (e.g. its size), the frequency is said to follow a power law.
For instance, the number of cities having a certain population size is found to vary as a power of the size of the population, and hence follows a power law.
There is evidence that the distributions of a wide variety of physical, biological, and man-made phenomena follow a power law, including the sizes of earthquakes, craters on the moon and of solar flares, the foraging pattern of various species, the sizes of activity patterns of neuronal populations, the frequencies of words in most languages, frequencies of family names, the species richness in clades of organisms, the sizes of power outages and wars, and many other quantities.

vendredi, 05 juillet 2013

Jean-Pierre PETIT : "Les Z-machines permettent d'envisager une fusion nucléaire pratiquement sans déchets

Jean-Pierre PETIT : "Les Z-machines permettent d'envisager une fusion nucléaire pratiquement sans déchets"

Z machine : conférence de Jean-Pierre Petit à Polytechnique

La fusion nucléaire par laser est elle une fausse piste ?

Jean Pierre Petit - Radio Ici et Maintenant - Armes micro-ondes contre les civils

1 contribution

Publié le 16 janvier 2013.

Suite à la publication de notre article sur le laser MegaJoule, des lecteurs nous ont réclamé des précisions sur le concept de Z-Machine. Nous avons demandé à Jean-Pierre PETIT, ancien directeur de recherche au CNRS, de nous présenter cette troisième voie en matière de fusion nucléaire…

Jean-Pierre PETIT, bonjour, que reprochez vous à des projets comme ITER ou au laser Mega-Joule ?

Jean Pierre PETITJean-Pierre PETIT – Sensibilisé par la catastrophe de Fukushima, j’ai réalisé, en participant à une manifestation à Aix en Provence en 2011, que j’étais le seul scientifique présent. J’ai pris conscience de l’absence en général de la communauté scientifique sur ce terrain du nucléaire, si on excepte quelques anti-nucléaires traditionnels (déjà âgés maintenant), se limitant au domaine de la fission, militant, à juste titre, contre ce projet dément de surgénérateur à neutrons rapides (Superphénix). Comme d’ailleurs les courageux militants anti-nucléaires de la première heure, qui se montrèrent conscients, à une époque où nous, scientifiques sommeillions dans nos bureaux. Certain laissèrent leur vie dans ce combat, d’où nous étions, nous, scientifiques, absents.

Ce que beaucoup de gens ignorent c’est que le premier geste de François Hollande, quand il prit ses fonctions de Président,  fut de signer l’accord pour la construction du réacteur expérimental Astrid, qui est un surgénérateur à neutrons rapides, refroidi au sodium, fer de lance d’une option rebaptisée « réacteurs de IV° génération ». Or Astrid n’est rien d’autre que Superphénix, « amélioré ». Personne ne réagit. Personne ne proteste. Pas plus qu’on ne proteste contre les idées démentielles appuyées par nos nucléo-députés Bataille et Vido : peupler le pays, d’ici la fin du siècle, de surgénérateurs à neutrons rapides, hyper dangereux, générateurs de déchets, fonctionnant au plutonium 239 pur, de manière à exploiter les 300.000 tonnes d’uranium 238 , issues de 50 années d’enrichissement isotopique, pour extraire du minerai l’uranium 235, fissile. Devenir ainsi « autonomes énergétiquement pour les 5000 ans à venir ».

J’ai aussi réalisé que face au projet ITER, il n’y avait pas de prises de position solidement appuyées sur des considérations réellement scientifiques. Je me suis donc plongé dans ce domaine, pendant deux années, aidé par des gens du milieu (mais tenant à garder un prudent anonymat). J’ai réalisé alors avec stupeur les failles béantes du projet ITER, qui ne découlaient ni du risque sismique, ni de la dangerosité du tritium, mais simplement du fait que ces machines, les tokamaks, étaient foncièrement instables. Pour faire court : ces instabilités appelées disruptions sont l’équivalent, dans ces machines, des … éruptions solaires (ce qui étaient d’ailleurs signalé noir sur blanc dans un rapport produit en 2007 par l’Académie des Sciences de Paris, sous la direction de l’académicien Guy Laval). Depuis que j’ai soulevé ce lièvre, les chantres du projets sont moins enclins à comparer ITER à « un soleil en bouteille ».

J’ai aussi créé une gêne en révélant que Putvinky, (avec qui j’avais dîné), « monsieur disruption » à ITER-Organization, réalisant que le problème était insoluble, avait rendu son tablier en juin 2012, abandonnant non seulement ITER (il avait rejoint l’équipe en 2009, achetant une propriété dans la région) mais la formule tokamak. Il est reparti travailler aux USA.

J’ai aussi découvert que ces questions, ainsi que bien d’autres, avaient été totalement passées sous silence dans le dossier de 7000 pages qu’ITER Organization avait mis en consultation libre durant l’été 2011, à l’occasion de d’Enquête Publique, devant déboucher sur une autorisation ou une non autorisation de l’implantation de « l’installation nucléaire de base ITER » (c’était le nom retenu). Une enquête publique qui avait été gérée comme si cette opération avait concerné l’implantation d’une station d’incinération à proximité d’un village. Je n’ai obtenu, cet été là, qu’un report de quelques mois de la décision, qui étaient déjà prise avant que cette commission fantoche, dirigée par André Grégoire « ne commence ses travaux ». Négligeant mes avertissements, celui-ci a signé le rapport final, se concluant par « avis favorable avec recommandations ». Et il m’a dit en substance « ils auront deux ans pour résoudre le problème des disruptions ». A noter que le mot « disruption » était tout simplement absent des 7000 pages mises en libre consultation !

Là j’ai compris que cette conclusion donnant le feu vert à ITER avait déjà été rédigée avant que cette pseudo enquête publique, complètement truquée,  ne démarre, en plein été 2011. Mais cela n’étonnera personne.

J’ai commencé à écrire des textes sur ces problèmes. L’un ‘eux a été repris et diffusé au sein de la Commission Européenne par la députée Michèle Rivasi, en français et en anglais. En même temps la revue NEXUS a publié la copie de ce texte dans ses colonnes. Ceci a suscité l’ire du CEA, qui a publié une « réfutation » dans son site, en français et en anglais, dont je n’ai pu connaître le ou les auteurs, apprenant seulement qu’il s’agissait d’un groupe de gens qui ne tenaient pas à révéler leur identité (…). Cette « réfutation » se trouve toujours sur le site. Evidemment, ma tentative d’obtenir un légitime droit de réponse pour  démonter ces arguments est restée sans réponse (voir ceci sur mon site http://www.jp-petit.org).

laser mega joulePlus récemment, dans son numéro de janvier-février 2013 la revue Nexus a publié une interview où je pointe le doigts sur le fiasco du NIF américain, en en expliquant les raisons, Mégajoule étant pratiquement la copie conforme du NIF, à quelques dizaines de lasers près (176 contre 192). J’ai donc pronostiqué (comme le font outre Atlantique nombre de scientifiques américains) que le NIF ne permettra pas d’obtenir la fusion, et que par conséquent le projet Mégajoule serait de l’argent (6,6 milliards d’euros), dépensés en pure perte. Le CEA publiera-t-il une seconde réfutation de mes dires dans son site ? Affaire à suivre.

Vous prônez une 3e voie pour la fusion nucléaire : celle des Z-machines. Comment fonctionnent-elles ?

Jean-Pierre PETIT - A l’issue de ce périple de deux années dans les domaines de la fission et de la fusion, en incluant le problème dramatique de la gestion des déchets, ma conclusion est que la façon actuelle de tirer de l’énergie du nucléaire apporte plus de maux que de bienfaits. Et que ces maux, dans les décennies à venir, créeront des drames horribles dont les catastrophes de Tchernobyl, puis de Fukushima ne sont que les pâles prémices. Le redémarrage des réacteurs japonais montre la puissance des lobbies, contre tout souci de la santé publique et des vies humaines.

En 2006 j’ai découvert, dans un article publié par mon vieil ami, le grand spécialiste des plasmas  Malcom Haines (hélas très malade) que les Américains, au laboratoire  Sandia, Nouveau Mexique, avaient obtenu des températures de plus de deux milliards de degrés dans un machine que j’avais vue en 1976, construite par Gerold Yonas. Cette découverte était fortuite (comme nombre de découvertes importantes dans l’histoire des sciences). J’ai immédiatement compris l’importance de ce saut incroyable effectué en 2005, la température maximale atteinte dès cette époque étant de 3,7 milliards de degrés. Ces valeurs ont suscité des réactions de scepticisme chez « les spécialistes français des plasmas chauds ».

Je suis allé à plusieurs congrès scientifiques internationaux, au top niveau. Il a fallu quatre années pour que l’interprétation des expériences, donnée par Haines, finisse par s’imposer, au congrès de Biarritz, 2011, consacré aux Z-machine, où il fit un exposé magistral, en tant que « personnalité invitée », communication appuyée par la publication d’un papier de 196 pages, sur le sujet, dans une revue à comité de lecture, devenu la Bible dans ce domaine.

En peu de mots, les plasmas de fusion  sont sujets à toute une palette d’instabilités. Dans les tokamaks, celles-ci finissent par donner des disruptions, décharges de dizaines de millions d’ampères, venant frapper la paroi (en tous point comparables aux jets de plasma des éruptions solaires). Dans les manips de fusion par laser, elle condamnent la filière (il s’agit alors  » de l’instabilité de Raleigh Taylor »). Dans les Z-machines elles … accroissent la température du plasma !

Ainsi le malheur des uns fait le bonheur des autres.

A Biarritz, j’appris de la bouche de Valentin Smirnov, directeur du département fusion à l’Institut des Hautes Températures de Moscou, qu’il dirigeait la construction d’une Z-machine russe, Baïkal, qui sera plus puissante que le ZR américain ( successeur de la Z-machine ). Après les Américains, les Russes se lancent aussi dans ce domaine, pied au plancher.

Schématiquement, on pourrait dire que la Z-machines (et maintenant ses multiples variantes, comme MAGlif) est à des machines comme ITER,( où on s’efforce de maintenir constante la température du plasma de fusion), ce que sont les moteurs à combustion interne, impulsionnelle, vis à vis des machines à vapeur. L’avantage des moteurs à combustion interne est de pouvoir faire brûler un mélange combustible-oxygène à une température de 1000°, obtenue pendant une fraction de seconde, la température générale du moteur restant inférieure à cette de l’eau bouillante.

Comme le moteur à explosion, des générateurs fondés sur le système des Z-machines seraient dotée d’un système de stockage d’énergie électrique, pendant du volant d’inertie de ce même moteur. Enfin ces générateurs exploiteraient un procédé de conversion directe de l’énergie, par MHD, opérationnel depuis les travaux d’Andréi Sakharov, des années cinquante. Pourquoi cette formule suscite-t-elle un tel rejet, en particulier en France ? Pour deux raisons. Elle rend obsoletes tous les efforts associés au générateurs à fission, au surgénérateurs, aux bancs laser et à ITER. Tout le nucléaire classique est remis en cause, et se trouve dans l’incapacité d’intégrer ce concept outsider dans ses plans.

La France dispose déjà d’une Z-machine : le Sphinx. Qu’est-ce qui la distingue des Z-machines américaines ou russes ?

sphinxJean-Pierre PETIT - La France possède effectivement sa Z-machine : le Sphinx, implantée dans un laboratoire de l’armée, à Gramat. Cette machine est hors course, hors jeu, de par sa conception même. Ca n’est qu’un bête générateur de rayons X, qui ne dépasse pas quelques dizaines de millions de degrés, et ne peut faire plus. Par ailleurs, une des caractéristiques essentielles, si ne qua non,  de ces machines « Z » est de devoir délivrer leur intensité en un temps très bref. Cent milliardièmes de seconde pour la machine américaine, 150 milliardièmes de seconde pour la monstrueuse machine russe, en construction : Baïkal. La machine française ayant un temps de décharge de 800 milliardièmes de seconde, est … trop lente. De part sa conception, on ne peut pas améliorer ses performances. Par ailleurs les gens qui la servent manquent de compétences en la matière, ne serait-ce que sur le plan théorique, qui est très pointu. Un domaine pratiquement neuf, défriché par des gens comme Haines, celui des plasmas hyper chauds, hors d’équilibre.

Le Sphinx est trop lent, ne peut être amélioré. Megajoule et le NIF sont aussi hors jeu. Dans les installations NIF et Mégajoule, il  manque un facteur 50 sur l’énergie focalisée sur cible (voire mon complément d’information dans mon site) . Inversement, les machines américaines et russes visent d’emblée ces 10-15 mégajoules sur cible (l’énergie contenue dans le fond d’une tasse de tisane, voir l’article complémentaire sur mon site, mais délivrée en 100-150 milliardièmes de seconde). Une énergie seuil issue des expériences secrètes Centurion Halite américaines (les Russes ayant mené de leur côté des campagnes similaires et étant parvenus aux mêmes résultats).

Les Z-machines russes et américaines permettent, potentiellement, du fait des températures atteintes, ce auquel jamais les autres filières ne pourront prétendre : envisager ce qui est véritablement le Graal de la physique nucléaire : la fusion Bore Hydrogene, aneutronique. Une fusion qui ne génère pratiquement pas de radioactivité et aucun déchet, sinon … de l’hélium. Cette réaction démarre à un milliard de degrés. Jusqu’en 2005 l’obtention d’une telle température aurait paru relever de la science fiction. Aujourd’hui ZR, avec son intensité portée de 18 à 26 Millions d’ampères, est très probablement passé de 3,7 à 8 milliards de degrés. Mais, comme me l’avait dit Malcom Haines à Biarritz en 2011 : « Je pense qu’ils l’ont fait, mais ils ne te le diront jamais, pour des raisons de secret défense.  »

Car, vous l’imaginez bien, cette percée comporte aussi son volet armement : les « bombes à fusion pure », où un mélange de fusion peut être mis à feu sans utiliser de bombe A, mais l’électricité fournie par un explosif, dérivé des premiers concepts expérimentés par Sakharov dès les années cinquante ( 100 millions d’ampères en 1954 ).

Ceci étant, une nouvelle percée, qui correspond au montage MagLif (une variante du montage « Z » ) montre que cette filière s’est maintenant imposée outre Atlantique, comme une nouvelle façon d’obtenir l’ICF (Inertial Confinement Fusion), la « fusion par confinement inertiel », qui est à la base des systèmes de recherche de fusion auto-entretenue, initiée par lasers.

La fusion par laser est hors course, comme démontré récemment sur le banc américain NIF. Mais, cela aurait-il fonctionné (l’ignition), ces systèmes n’auraient jamais pu donner des générateurs industriels, du fait du rendement des lauser, inférieur à 1,5 % . Ce ne furent jamais que des installations d’essai à visées militaires.

z-machine

Pensez vous que les américains ou les russes pourraient maitriser la fusion nucléaire civile plus rapidement que les Français ? A quel horizon ?

Jean-Pierre PETIT - Bien évidemment ! En s’accrochant à un dinosaure du nucléaire comme ITER, ou à une machine 50 fois trop peu puissante comme Mégajoule, les Français font de mauvais choix, ratent complètement le coche. Quand la fusion deviendra réalité, en Russie et en Amérique, avec cette filière Z, et son astucieuse variante MAGlif, les Français se retrouveront encombrés de véritables fossiles technico-scientifiques.

On pourra objecter que des réactions de fusion on été obtenues sur la machine JET, avec extraction de puissance. Mais, sur ce plan, je citerai ce que m’a écrit tout récemment Glenn Wurden, directeur de la fusion à Los Alamos (…) :   »Je ne pense pas qu’on parviendra un jour à transformer un tokamak en générateur de puissance, car on ne trouvera jamais ce matériau magique capable de résister à l’impact des neutrons de fusion, 7 fois plus énergétiques que les neutrons de fission. Ce matériau magique n’existe simplement pas et n’existera jamais ».

Vos écrits en matière d’ufologie ou sur les attentats du 11/09 vous ont décrédibilisé auprès de nombreuses personnes, en particulier en France. Que répondez-vous à vos détracteurs ?

Jean-Pierre PETIT - Vous me décrivez comme « décrédibilisé auprès de nombreuses personnes », sans citer la moindre d’entre elles. Récemment j’avais été interviewé par un journaliste de la revue Inrockuptible, qui s’était adressé à moi comme à un « complotiste ». J’avais demandé qui formulait cette opinion. Réponse du journaliste : « c’est ce qui émerge quand on consulte les forums ». Ainsi, à notre époque, voici comment émerge une réputation : à travers des propos tenus sur des forums, par des gens intervenant sous des pseudonymes ! A comparer avec l’absence de signature de la réfutation publiée par le CEA.

En vérité, cette situation de « discrédit auprès de certaines personnes » est bien étrange, ne trouvez-vous pas ? Je suis « discrédité par les gens qui, au CEA,  s’occupent de fusion » , mais aucun n’accepte d’être face à moi. Référez vous à la dérobade de Bernard Bigot et de ses adjoints, experts en matière de fusion, lors d’un face à face filmé, qui a donné cette interview où seule figure Michèle Rivasi, qui prend acte du fait que mes détracteurs ont déclaré forfait.

Je suis « discrédité » dans le monde de l’astrophysique et de la cosmologie, par des gens comme Riazuelo, par exemple, de l’Institut d’Astrophysique de Paris. Mais depuis des années lui et le directeur de son labo restent muets face à mes demandes successives d’exercice de droit de réponse en séminaire  où, scientifiquement, Riazuelo ne tiendrait pas dix minutes face à moi, et il le sait. Dans ce genre de face à face scientifiques je ne me suis jamais dérobé et je n’ai jamais perdu un combat.

J’aimerais d’abord connaître les noms de ces détracteurs et pouvoir leur faire face, leur répondre à découvert, ce débat étant filmé et mis aussitôt sur le net. Et cela dans tous les domaines.

Dans le domaine des plasmas, de la fusion et du nucléaire, interrogez à mon sujet Robert Dautray, ancien directeur des projets scientifiques du CEA, ainsi que Paul Henri Rebut, concepteur du tokamak français de Fontenay aux Roses, puis Guy Laval, membre de l’académie des sciences, qui a dirigé la composition du rapport de 2007 sur « l’énergie à partir de la fusion ». Notez leurs réponses à mon sujet et publiez les.

Dans le domaine de l’astrophysique, proposez à Alain Riazuelo, par exemple, d’accepter un face à face filmé, puis diffusé sur le net, où il pourra jouer les détracteurs de mes travaux, à ses risques et périls.

Enfin sur le sujet du 11 septembre, je suggère une rencontre semblable, nous opposant, Alix (qui s’occupe de reopen 9/11) à nos détracteurs. Rencontre également filmé et diffusée.

Je pense ainsi avoir répondu à vos questions  !

Jean-Pierre Petit, ancien directeur de recherche au Cnrs.


Z machine : conférence de Jean-Pierre Petit à... par UFO-Science

Gizmodo.fr en partenariat avec 20minutes.fr

AILLEURS SUR LE WEB

Quels sont les avantages du stress ? (Home Actu)

Mexique: découverte d'une importante cité maya(Culturebox)

Les dernières contributions

  • LoadedGun

    enfin on donne la parole a JPP ! ( ok il a déliré un peu avec les ovni ( proto us ) ...mais il n as jamais dis que le nuage de Tchernobyl c est arreté à la frontiere ... Je connais 4 cas de gens contaminés en france par le nuage , 3 amies de 40 a 63 ans auxquelles ont as retirer la thyroide , et un enfant né un peu apres ... pb circulatoire , nerveux , qui enchainent les sejours a l hosto . ce sont les medecins qui lui ont dis qu il etait victime de Tchernobyl , la maman n avais pas fait le rapprochement )
    L epr est un gouffre qui ne donnera jamais les resultats , c est un voie de garage pour les ingénieurs .
    pour le 11/09/2001 ...l aluminium ne coupe pas l acier , on ne fait pas fondre de l acier avec un feu de kerosene .

    16.01.2013 - 14h56 • 3 recommandations • RecommanderRépondre

jeudi, 04 juillet 2013

Qualité & Santé (Dominique DUPAGNE)

Mots clés eBuzzing : ,

Qualité et santé : 1) Qualité des moyens ou qualité des résultats ?

Re-publication d’un article sur la Qualité de 2008, à propos de l’affaire des prothèses PIP. À force de se concentrer sur les méthodes et les pratiques de fabrication, on a oublié de vérifier les qualités intrinsèques du produit final. Au sein des agences de régulation, personne n’a pensé à vérifier la composition et les caractéristiques du produit commercialisé. Le texte de l’article initial n’a pas été changé, j’ai juste ajouté cette introduction et l’encadré final. Cet article avait également été publié dans la revue Médecine

Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : initialement centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur un partage et une pondération de la subjectivité.
- Ce premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
- Le deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
- Dans le troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, atteint aujourd’hui ses limites et doit laisser coexister d’autres approches.
- La pairjectivité, thème central de ce dossier, est détaillée dans le quatrième article.
- Le cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.

Que la stratégie soit belle est une chose, mais n’oubliez pas de regarder le résultat.
Winston Churchill

Le concept de qualité s’est imposé dans l’organisation et la gestion de la santé publique depuis une vingtaine d’années. La qualité s’appelle accréditation, recommandation thérapeutique ou encore évaluation des pratiques professionnelles. Elle fait intervenir des normes, des référentiels et une logistique qui a pour objectif l’amélioration de la qualité des soins. Nous verrons dans ce premier article que cette évolution normative pourrait avoir des effets délétères qui vont à l’encontre de la qualité effective des soins. Les autres articles de ce dossier proposent des solutions pour sortir de cette impasse.

Idées-Forces

- Le concept de qualité dans le domaine de la santé a beaucoup évolué : initialement centré sur le résultat, il concerne désormais quasi-exclusivement les procédures de soin.

- Si c’est l’évaluation de la procédure qui est privilégiée, le risque est grand de voir l’amélioration de la santé des patients passer au deuxième plan.

- Le patient a cédé le pas à la population. Si la procédure est bonne pour la population, elle est censée être applicable à chaque patient. Cette approche réductrice nie la singularité de l’Humain.

- La subjectivité a été progressivement bannie de l’évaluation scientifique. Or la médecine est une science de l’Homme qui est fondamentalement un sujet et non unobjet.

De l’obligation de résultat à l’obligation de moyens

En matière de soins, la qualité a longtemps été synonyme d’efficacité. Un groupe de travail de l’ENA a publié en 2003 un document sur l’évaluation et la qualité en santé [1]. Une annexe regroupe des citations intéressantes au sujet de sa définition [2] :

1792-1750 av JC Si un médecin opère un homme pour blessure grave avec une lancette de bronze et cause la mort de l’homme ou s’il ouvre un abcès à l’oeil d’un homme avec une lancette de bronze et détruit l’oeil de l’homme, il aura les doigts coupés. Article 218 du Code d’Hammourabi.

1980 Les soins de haute qualité sont les soins visant à maximiser le bien-être des patients après avoir pris en compte le rapport bénéfices/ risques à chaque étape du processus de soins, Avedis Donabédian.

1990 Capacité des services de santé destinés aux individus et aux populations d’augmenter la probabilité d’atteindre les résultats de santé souhaités, en conformité avec les connaissances professionnelles du moment.Institute of Medecine.

2000 Aptitude d’un ensemble de caractéristiques intrinsèques à satisfaire des exigences. ISO 9000.

L’évolution de la notion de qualité est frappante :

- La première définition résume grossièrement (et brutalement...) le concept de qualité médicale tel qu’il a prévalu pendant des millénaires : seul le résultat du soin sur le patient est pris en compte
- La deuxième introduit conjointement la notion de rapport bénéfices/risques. Avec cette notion statistique, le pluriel apparaît aussi bien pour le soin que pour le patient dont la singularité s’estompe.
- La troisième définition se déconnecte du résultat : c’est la méthode, le processus qui sont importants, il devient possible d’associer des soins de qualité à un échec thérapeutique pourvu que la probabilité de succès ait été élevée a priori. C’est l’obligation de moyens qui prime et prodiguer des soins "appropriés" devient le principal critère de qualité. Le malade peut mourir pourvu qu’il ait été "bien soigné" [3]. Enfin, la définition n’est plus centrée sur l’individu, elle parle désormais de "populations".
- La dernière élude totalement la notion de résultat. C’est "l’exigence" qui compte désormais. Exigence du malade ou exigence de la norme ? La réponse a été apportée par la mise en pratique de la certification ISO : le malade (ou patient, ou client) est réputé avoir une forte probabilité d’être satisfait si les exigences de qualité du processus sont remplies. L’évaluation ne fait plus intervenir le destinataire du "service soin".

En vingt ans, la qualité a glissé de l’obligation de résultat vers celle de moyens, de l’appréciation extrinsèque du soin par le patient à l’analyse intrinsèque du mode opératoire au regard d’une norme. La qualité d’une action de soin est désormais déconnectée de son résultat [4].

Dans le même temps, l’introduction de notions statistiques conduit la qualité à s’éloigner de l’individu pour s’intéresser aux populations. La diversité des souffrants et des approches thérapeutiques est niée par la normalisation du soin.

La Qualité devenant une entité autonome a envahi le champ professionnel et notamment sanitaire [5] :démarche qualité, groupes qualité, accréditations et certifications sont omniprésents, s’accompagnant dereprésentants qualité, médecins habilités [6] et autres qualiticiens. Mais la démarche qualité en santé n’est pas simple à appliquer et ne génère pas l’enthousiasme des soignants [7].

La notion de progrès médical, omniprésente pendant les trente glorieuses, a subi un recul concomitant de l’irruption de la qualité dans le champ sanitaire.

Ce déplacement du progrès vers la qualité n’est pas anodin. Le progrès est palpable, visible par le public. C’est une notion concrète proche de celle du résultat. Si les octogénaires sont si friands de médicaments, c’est en partie parce qu’ils ont vu disparaître la polio et la diphtérie, guérir la tuberculose et les pneumonies. Ce progrès médical était d’une telle évidence depuis la dernière guerre mondiale que la notion de qualité n’avait pas de sens. Le prix de la santé paraissait justifié par ses progrès et l’augmentation de son coût accompagnait celle du niveau de vie des populations.

Malheureusement, le coût de la santé croît plus vite que le PIB, aboutissant à des prélèvements sociaux préoccupants qui conduisent désormais à s’interroger sur le rapport coût/efficacité des soins et donc à souhaiter évaluer leur qualité [8].

Les médecins se sont longtemps plaints de la dictature de la salle d’attente, dont la fréquentation était censée servir de baromètre à leur qualité. Ils sont désormais soumis à la dictature de la norme : peu importe le résultat final de leurs soins et le bien-être du patient. Il faut désormais passer sous les fourches caudines de la "recommandation" [9] érigée en recette de soin obligatoire et rédigée par des experts [10].

Ont-ils gagné au change ? Les patients en tirent-ils un bénéfice ? Rien n’est moins sûr et des voix s’élèvent de tous côtés [11] contre cette réduction de l’art médical à son plus petit dénominateur commun. Censée gommer les différences, la norme aboutit en fait à scléroser la part humaniste du soin et la richesse que constitue la variété des approches, tout en créant une fausse sécurité.

Il est d’ailleurs frappant de voir les partisans de la normalisation du soin se référer à l’EBM [12]. Les "inventeurs" de l’EBM déclaraient dans leur article fondateur leur opposition ferme à la transformation de l’EBM en "livre de recettes de cuisine médicales" [13], prémonition qui se révèle tristement d’actualité.

Qualité interne et qualité externe

La place croissante de la prise en compte des procédures dans l’évaluation de la qualité a conduit à sa segmentation en qualité interne et qualité externe

- La qualité externe, correspond à l’amélioration du sort des patients, individuellement ou en tant que groupe. C’est la qualité fondée sur des critères extérieurs au soin lui-même. Il s’agit de fournir des services conformes aux attentes des patients. Ce type de démarche passe ainsi par une nécessaire écoute des patients mais doit permettre également de prendre en compte des besoins implicites, non exprimés par les bénéficiaires.
- La qualité interne, correspond à l’amélioration du fonctionnement interne de la structure de soins. L’objet de la qualité interne est de mettre en oeuvre des moyens permettant de décrire au mieux l’organisation, de repérer et de limiter les dysfonctionnements et de soigner au meilleur coût. Les bénéficiaires de la qualité interne sont la direction et les personnels de la structure, ainsi que ses financeurs. Le destinataire final du soin, le patient, est le plus souvent exclu de la démarche [14].

L’imposition d’une évaluation qualitative fondée sur le respect de la norme est en grande partie imputable aux médecins. S’appuyant sur un siècle de progrès médical continu, ceux-ci ont toujours refusé toute forme d’évaluation de la qualité externe, c’est-à-dire de leur activité personnelle. Les financeurs, confrontés à des déficits sociaux croissants, ont donc investi le champ de la qualité interne et tentent actuellement de l’imposer comme principal mécanisme de régulation des dépenses [15].

Or nous sommes désormais arrivés à une évaluation de la qualité exclusivement interne, ce qui constitue un véritable piège dans lequel notre système de santé [16] s’enferme progressivement.

La médecine est un art autant qu’une science. Supprimer l’évaluation de la qualité externe au prétexte de sa subjectivité est une erreur. Cette erreur est issue d’une démarche scientifique ayant dépassé son objectif, tel le balancier dépassant son point d’équilibre. Exclu des processus décisionnels, le patient est également exclu de la mesure de la qualité [17].

Les redoutables effets latéraux de la mesure interne de la qualité

L’évaluation imparfaite de la qualité des soins par référence obligatoire à la norme aboutit à un nivellement par le bas du soin, car la norme est finalement le plus petit dénominateur commun de la qualité. Cette évaluation réductrice étant couplée à une contrainte croissante (financière, administrative, réglementaire), elle conduit à trois types d’effets latéraux redoutables :
- Les meilleurs soignants sont incités à abandonner leurs processus de qualité personnels pour respecter une norme qui dégrade leurs soins. De plus, ils vivent cette injonction comme profondément injuste et se découragent. Leur productivité diminue d’autant.
- Certains soignants médiocres apprennent à respecter la norme pour recevoir les ressources financières associées au "parcours vertueux". L’application de la norme n’est alors plus motivée par la recherche de la qualité et peut dissimuler une altération du soin. Ces acteurs de non-qualité parviennent à capter massivement les ressources par une intelligence dédiée à l’application de la norme et non à l’amélioration de la santé.
- Une part croissante des ressources de la structure de soin est monopolisée par les processus de mesure de la qualité interne. Ce détournement aboutit à une détérioration de la productivité globale de la structure de soin. La productivité est pourtant un élément réputé important de cette qualité interne [18]

La qualité des soins ne peut donc progresser à partir de la seule évaluation de la qualité interne. Cette évaluation aboutit à une baisse de la qualité globale et de la diversité des approches. La qualité interne exclusive réduit l’humain à un organisme standardisé en s’intéressant à des populations et nie la singularité de l’individu. Elle diminue la productivité des soignants et donc l’accès aux soins. Elle renchérit la santé par les frais administratifs qu’elle génère, affaiblissant les systèmes de santé fondés sur la solidarité qu’elle était censée préserver.

Dans la série d’articles de ce dossier, nous verrons qu’il est possible d’évaluer la qualité à l’aide d’indicateurs externes. Ces indicateurs subjectifs, s’ils sont gérés rationnellement, apportent des informations tout aussi pertinentes sur la qualité des soins que la mesure objective et interne traditionnelle. Le but de ces articles n’est pas d’asséner de nouvelles vérités, mais de lancer une réflexion sur une nouvelle évaluation de la qualité au sein de la santé. Ils ouvrent un espace de réflexion où chacun est convié à débattre.

Il est recommandé de lire ces articles dans l’ordre proposé :

Le deuxième article du dossier emprunte un détour et sort du champ de la santé : il s’appuie sur le fonctionnement intime du moteur de recherche Google. Nous verrons comment en quelques années, deux étudiants ont montré que la mesure de la qualité extrinsèque d’un document (liée à son usage) est plus pertinente que celle de sa qualité intrinsèque (liée à son contenu). Malgré son fonctionnement subjectif, Google est actuellement le système de recherche le plus efficace (ou le moins inefficace) pour trouver rapidement un document pertinent parmi les milliards de pages éparpillées sur le web. Tous les systèmes de classement et d’accès à l’information sur internet fondés sur la mesure de leur qualité interne ont été quasiment abandonnés par les utilisateurs, ou ne persistent que dans des niches.

Ces articles évolueront au gré des réactions, critiques et suggestions qu’ils susciteront. Sur internet, l’encre ne sèche jamais. La première publication doit être considérée comme un début, l’amorce d’un dialogue destiné à l’enrichir. Vouloir figer un article définitivement dès sa publication serait aux antipodes des stratégies qualitatives que nous allons détailler.

L’auteur a déclaré ses conflits d’intérêts ici.

Remerciements : Tous ceux qui ont contribué au débat sur la médecine 2.0, cités dans le désordre Campagnol,autresoir, mariammin, Sybille, à l’ouest..., marcan, somasimple, Pandore, Rapsody, SU(N), Randall, ravel,Jean-Jacques Fraslin et son avatar Dr Hy2.0, Verna, omedoc, Valerianne, letotor, orldiabolo, Groquik,pameline, radiohead, Stéphanie2, thyraguselo, Tin, Katleen, Terence, sepamoi, Annouck, cléo, mowak,Eristikos, Ln2, Ondine, Parrhèsia, delamare georges, jekyll, gustave, marcousse1941, Cafe_Sante, Parrhèsia, Serge et Catherine Frechet, Persouille, dolly_pran, Chéana ; et enfin ma chère épouse qui me reconnecte régulièrement à la réalité.

L’emploi de la première personne du pluriel n’est pas une figure de style : cette réflexion s’inscrit dans la continuité des échanges sur le site Atoute.org, observatoire privilégié de l’évolution du monde de la santé avec son million de visiteurs mensuels et ses forums dédiés à la médecine, la santé, leur évolution et leur éthique.

Ajout du 26 janvier 2012 à propos des prothèses mammaires PIP

Cette affaire de prothèses défectueuses illustre particulièrement bien le problème de la démarche qualité qui analyse les process et non le produit final.

Ces prothèses défectueuses ont été implantées chez des centaines de milliers de femmes. Les sommes en jeu se comptent en millions d’euros. Pourtant, à aucun moment, ni dans les agences de régulation, ni chez les sociétés d’audit qualité, personne n’a eu l’idée d’acheter une prothèse au détail et d’en analyser les caractéristiques et la composition.

En se contentant de contrôler les process de fabrication, on a permis au fabricant de tromper tout le monde. Un peu comme un étudiant qui ne passerait jamais d’examen et serai noté uniquement sur sa présence en cours et la tenue de ses cahiers.

C’est une aberration. La qualité se mesure aussi sur le produit final. J’aimerais être sûr que ces contrôles sont réalisés sur les médicaments et notamment les génériques.

Notez aussi que le pot-au-rose a été découvert lorsque les inspecteurs sont revenus à l’usine sans prévenir. Mais pourquoi prévenir au juste ? Donne-t-on aux étudiants le sujet de leur examen à l’avance ?

Ce sont les chirurgiens, et notamment ceux qui ont alerté en vain pendant deux ans sur les défauts de ces prothèses, qui ont décidé de prendre les choses en main et de pratiquer eux-mêmes des contrôles sur les produits finis.

Notes

[1] Le rapport du groupe de travail.

[2] ibid page 58.

[3] Cet aspect devenait nécessaire pour des raisons juridiques : l’apparition de procès en responsabilité médicale nécessitait de pouvoir définir la notion de faute. La faute devient l’aboutissement d’un processus (un moyen) qui n’assurait pas a priori de bonne chances de guérison au patient :l’insuffisance de moyens mis en oeuvre pour le soigner.

[4] A l’exception notable de la chirurgie esthétique, qui n’est pas considérée comme un soin.

[5] L’amélioration de l’espérance de vie depuis un siècle est bien sûr multifactorielle et ne se résume pas au progrès médical. Nous considérerons comme acquise l’importance des progrès de l’hygiène publique, de la nutrition ou de la conservation des aliments, pour centrer notre étude sur la qualité des soins.

[6] Médecins formés par la Haute Autorité de Santé pour accompagner leurs confrères dans une démarche d’auto-évaluation. L’auteur a fait partie de ce corps de "qualiticiens de la médecine libérale". L’humilité de la démarche (auto-évaluation non contraignante) et du titre l’avaient convaincu de tenter l’aventure. Cette approche individuelle et confraternelle est en cours d’abandon par les autorités sanitaires au profit de procédures plus contraignantes.

[7] [Antiguide des bonnes pratiques : http://ritaline.neufblog.com.

[8] Tout récemment, la Haute Autorité de Santé s’est investie officiellement dans l’évaluation médico-économique. Ses commissions vont désormais étudier le rapport coût/bénéfices des médicaments et stratégies thérapeutiques.

[9] Il s’agit des recommandations de bonnes pratiques de soin éditées par la haute autorité de santé. Ces recommandations sont utilisées par les assureurs pour valider les stratégies de soin et passent donc du statut de recommandation à celui d’obligation.

[10] Experts non exempts de conflits d’intérêts. Cet aspect sera développé dans le troisième article du dossier. Voir aussi le remarquable travail duFormindep qui montre que l’avis des experts n’est pas synonyme de qualité, loin s’en faut.

[11] Outre l’anti-guide des bonnes pratiques, déjà cité, lire cet article d’A Grimaldi dans le Monde Diplomatique qui s’élève contre une gestion économique inadaptée et contraire à l’éthique autant que délétère pour le soin. Enfin, j’ai découvert après la publication de cet article une analyse exceptionnelle , quoique parfois divergente de la mienne, et remarquablement documentée, des méfaits de la démarche qualité dans le monde de la santé.

[12] Evidence Based Medicine, traduite (mal) en français par Médecine fondée sur des preuves.

[13] Voir http://www.atoute.org/n/breve14.html.

[14] Il existe certes des questionnaires de satisfaction, mais leur prise en compte (en France) dans la modification des processus ou la valorisation de ses agents est modeste ou inexistante.

[15] La Haute Autorité de Santé, après avoir travaillé uniquement sur l’aspect qualitatif, s’est investie tout récemment dans l’évaluation médico-économique.

[16] Le système sanitaire n’est bien sûr par le seul concerné par cette dérive, mais nous resterons volontairement centrés sur le monde de la santé. Une psychologue travaillant dans le cadre de la formation professionnelle décrit très bien ici son aliénation progressive sous l’effet d’une démarche qualité interne envahissante.

[17] A l’exception notable de La loi de 2002 dite "Kouchner", dont le nom est significatif : "LOI no 2002-303 du 4 mars 2002 relative aux droits des malades et à la qualité du système de santé". Le ton était donné, ce sont les actes qui ont manqué.

[18] L’hôpital public croule sous les frais liés aux personnels administratifs, notamment ceux destinés à optimiser la dépense. Le temps croissant que les soignants doivent passer à gérer directement ou indirectement la mesure de la qualité est consommé au détriment de l’activité princeps de soin.

http://www.atoute.org/n/Qualite-et-sante-1-Qualite-des.html

Qualité et santé : 2) L’approche qualitative de Google

Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : longtemps centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur une subjectivité partagée et pondérée.
- Le premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
- Ce deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
- Dans le troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, trouve aujourd’hui ses limites et doit laisser coexister d’autres approches.
- La pairjectivité, thème central de ce dossier, est détaillée dans le quatrième article.
- Le cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.

"L’objet n’est rien, ses liens sont tout."
Pasteur 2.0

Google est incontournable dès que l’on aborde internet. Trop disent certains. L’objectif de ce deuxième article n’est pas de faire l’éloge du moteur de recherche vedette, mais de montrer que son mode de fonctionnement pourrait inspirer l’évaluation de la qualité dans le domaine de la santé. Nous allons nous intéresser plus spécifiquement à sa méthode de classement et de hiérarchisation de l’information. Cette méthode est fondée quasi exclusivement sur des critères de qualité externes, c’est-à-dire indépendants du contenu du document indexé.

Idées-forces
- Google n’a pas toujours existé, il y a eu un "avant Google" sur internet, dont les outils fonctionnaient avec des critères qualitatifs datant de plusieurs siècles.
- Google a introduit une rupture totale avec le passé.
- La mesure de la qualité/pertinence par Google fait appel à des critères extrinsèques et non plus intrinsèques.
- Les liens qui unissent les documents sont plus pertinents que l’analyse de leur contenu pour évaluer leur pertinence.
- Le défaut principal d’une norme utilisée pour mesurer la qualité est son caractère public.
- Les experts donnent des résultats moins pertinents qu’un réseau d’innombrables micro-expertises fédérées.
- La méthode Google n’a pas cherché à changer les anciennes méthodes. Google a rendu le passé obsolète.

Tout le monde connaît Google [1], tout le monde l’utilise, mais rares sont ceux qui ont compris à quel point son mode de tri de l’information a constitué une révolution aussi importante que le réseau internet lui-même. Ce tri nous permet d’accéder en une fraction de seconde aux informations que nous cherchons. Le moteur de recherche vedette a supplanté tous les autres en quelques années, tout simplement parce que nous, ses utilisateurs, jugeons ses résultats plus pertinents que ceux des autres moteurs ou des annuaires.

Dans cet article, nous allons rentrer dans le fonctionnement de Google. Il ne se contente pas, comme beaucoup le croient, de proposer les pages les plus populaires chez les internautes. L’évolution des méthodes de tri de l’information depuis l’époque du papier jusqu’aux moteurs de recherche constituera une bonne introduction. La notion de qualité reposant sur une expertise partagée, qui est le fondement de la méthode de classement de Google, sera l’objet d’une étude plus détaillée.

Aux débuts d’internet, pour trouver les bonnes pages sur un sujet précis, les internautes répétaient les méthodes de leurs ancêtres.

Comme les livres dans les bibliothèques, les sites des années 90 étaient classés par catégories dans des annuaires par genre, type, sous-type etc. Bref, ce que l’on faisait depuis l’invention des documents écrits, soigneusement rangés dans des étagères par des bibliothécaires [2].

Des catalogues ou des armoires de fiches permettaient de faire des recherches dans le contenu des bibliothèques ou dans les fonds des éditeurs. Il en était de même sur le web : le faible nombre de sites à ses débuts permettait d’envisager la création d’une table des matières, d’un catalogue global.

Yahoo, le pionnier des catalogues-annuaires

Le plus célèbre de ces catalogues de sites, initié par des étudiants débrouillards, portait [3] le joli nom deYahoo !. L’image ci-dessous représente le site Yahoo en 1996, soit la préhistoire du Web :

Les sites ou pages y étaient classés par des experts-indexeurs humains qui visitaient les sites, rédigeaient des notices et les intégraient dans la rubrique/sous-rubrique appropriée. Ils employaient une démarche classique de bibliothécaire.

Mais très vite, l’explosion du nombre des documents disponibles a rendu ingérable un tel annuaire qui ne reflétait qu’une faible partie du fond documentaire de la toile [4] et dont la mise à jour devenait ruineuse pour la société Yahoo. Des initiatives communautaires fondées sur des bonnes volontés sont apparues ensuite pour prendre le relais de Yahoo [5], mais elles n’ont pas eu plus de succès. Il devenait difficile de trouver des indexeurs indépendants, motivés, résistants aux critiques (nombreuses) des sites non retenus. De plus, il était impossible de classer une part significative d’une offre de documents en croissance exponentielle alors que les moteurs de recherche, plus exhaustifs, progressaient en pertinence et constituaient des concurrents de taille.

Après la "table des matières" Yahoo apparaissent les index : les moteurs de recherche

Les index sont apparus avec les livres volumineux et notamment les encyclopédies. En plus de la table des matières, un index permettait de chercher la page ou l’article utile à partir d’un mot-clé.

Quelques pionniers ont eu très tôt l’idée d’automatiser le processus d’indexation traditionnel : des ordinateurs connectés au réseau et appelés "spiders" (l’araignée qui explore la toile) ou "bot" (pour robot) vont explorer automatiquement le web en se comportant comme un internaute qui cliquerait au hasard sur tous les liens rencontrés sur chaque page. Chaque site ou presque étant lié à au moins un autre, l’exploration était quasi complète, d’autant que chaque gestionnaire d’un site nouveau pouvait signaler son existence au robot explorateur.

Lors du passage des ces robots explorateurs, chaque page est analysée et les mots contenus dans la page sont stockés dans un gigantesque index. Des requêtes (interrogations) faites ensuite sur cet index permettront de retrouver les sites visités, exactement comme l’index d’une encyclopédie permet de trouver le bon article au sein de 20 gros volumes. Les moteurs de recherche étaient nés : Wanderer, puis Lycos, Excite [6].

Mais nous sommes toujours dans des processus très classiques : malgré la lecture automatique des pages, les bases de données, les robots qui tentent de remplacer les opérateurs humains, ce n’est jamais que de l’indexation de mots dans un texte comme elle se faisait depuis l’invention des textes imprimés [7].

Les premiers moteurs de recherche automatisent l’indexation traditionnelle par mots-clés, mais n’inventent rien

Ces moteurs de recherche de première génération tentent de perfectionner leur indexation en apportant plus de poids aux mots répétés dans la même page ou présents dans les titres, les descriptions ou les mots-clés du site. Leur qualité culmine avec AltaVista, roi des moteurs de recherche des années 90. Mais il n’y a toujours aucune réelle nouveauté dans cette approche ; les encyclopédistes réalisaient cela manuellement depuis plusieurs siècles.

Les moteurs atteignent par ailleurs des limites infranchissables :
- Ils ne peuvent correctement indexer et classer que les pages bien rédigées par leurs auteurs : un titre mal choisi, une page mal organisée, et voila un document de référence qui ne sera proposé qu’en 50ème position dans les résultats de recherche ; autant dire invisible. Contrairement aux encyclopédies dont les rédacteurs sont coordonnés par l’éditeur, les webmasters sont libres d’organiser leurs sites et pages comme ils le souhaitent et ils génèrent un chaos bien difficile à indexer avec rigueur.
- Le commerce apparaît sur la toile, et les marchands comprennent que leur visibilité dans les moteurs de recherche est fondamentale. Ils ont tôt fait de s’intéresser aux méthodes d’indexation qu’ils manipulent à leur guise : comme les critères de pertinence utilisés par les moteurs sont uniquement [8] liés au contenu de la page, il est facile d’optimiser ou plutôt de truquer ses propres pages pour les faire sortir dans les premiers résultats des moteurs de recherche sur un requête donnée [9].

Dans le même temps, les annuaires gérés par des experts-indexeurs sont l’objet de nombreuses polémiques liées aux conflits d’intérêts souvent réels de ces experts avec leurs intérêts, croyances, opinions et autres facteurs qui éloignent leur activité d’une mesure objective de la qualité des sites.

Dans le monde sans pitié du web, la non-qualité ne survit pas. Yahoo a compris que pour durer, il devait s’adapter. Il a intégré très tôt, avant de l’identifier comme une menace, le moteur de recherche Google sur son site-annuaire. Il a ensuite développé son propre moteur s’inspirant de son allié initial devenu concurrent. Fait hautement significatif, l’annuaire de Yahoo, symbole de son expertise fondée sur l’humain et les méthodes traditionnelles, n’est plus présent sur son site principal , et la société est en voie d’être rachetée par Microsoft.

La qualité et les normes

Nous touchons là une problématique qui est au coeur de la qualité :
Lorsque les critères de qualité sont fondés sur l’objet lui-même et sur des normes prédéfinies (le plus souvent objectives), il est toujours possible et souvent facile de truquer la mesure de sa qualité en modifiant l’objet pour l’adapter au mieux à la norme. C’est d’autant plus facile et tentant lorsque la norme est connue de tous, ce qui est la norme de la norme... La multiplication des normes pour déjouer ces manipulations ne fait que rendre la mesure qualitative plus complexe et aboutit souvent à déqualifier des objets de qualité pour non-respect des normes, ce qui est un effet particulièrement pervers. L’énergie consacrée à adapter l’objet à la norme est souvent inversement proportionnelle à sa qualité intrinsèque [10]. Au final, la qualité fondée sur des normes sélectionne l’aptitude à s’adapter aux normes et non la qualité des objets. Il suffit à chacun de réfléchir aux normes de son environnement professionnel pour constater que si elles sont parfois fondées sur la logique et le bon sens, elles sont le plus souvent réductrices, obsolètes, parfois sclérosantes et surtout incapables de sélectionner avec pertinence les meilleurs agents.

La qualité de l’information peut s’évaluer grâce à des critères qu’elle ne contient pas !

Nous sommes arrivés à la limite d’un modèle millénaire de classement de la connaissance (rayons, étagères, annuaires, index, table des matières...) fondée sur l’analyse de son contenu.

C’est alors qu’entrent en scène Sergey Brin et Larry Page, deux étudiants en informatique de l’université Stanford. Ils ont 25 ans. Nous sommes en 1998.

JPEG - 61.5 ko
Cette photo des fondateurs de Google paraît ancienne. Elle n’a pourtant que 6 ans...

Ce qui n’était initialement qu’un simple projet de recherche propose une rupture totale avec le passé :

Les critères qui permettent d’apprécier la pertinence d’un document ne sont plus tant dans le document lui-même que dans l’usage que d’autres lecteurs ou bibliothécaires en font.

Avant 1998 : on analyse le contenu du document pour le classer et déterminer sa valeur :
- avec un expert : éditeur d’annuaire, bibliothécaire
- ou avec un indexeur automatique : robots des moteurs de recherche qui parcourent le web sans relâche et indexent automatiquement son contenu.

Après 1998 : Google analyse le comportement des hommes autour des documents, agrège ces comportements et en tire des informations sur la pertinence d’un document pour une recherche donnée. Ce sont les connexions créées par des hommes entre les documents qui permettent d’apprécier leur qualité, c’est-à-dire leur aptitude à répondre à la question posée [11].

Ce glissement de la pertinence vers la qualité (et vice-versa) est intéressant. En effet, il est bien difficile de définir la qualité de façon absolue. Le bon médicament, le bon médecin, le bon article le sont-ils dans l’absolu, pour tous et dans toutes les situations ? La qualité n’est-elle pas fondamentalement contextuelle, adaptée à chacun de nous, à nos désirs, nos déterminants et à ce que nous cherchons ou souhaitons ? Il est frappant de constater que les fondateurs de l’EBM [12] ont écrit dans leur article fondateur qu’ils "rejoindraient sur les barricades" ceux qui voudraient transformer leur approche rationnelle mais humaniste de la décision médicale en "recettes de cuisine" pour soigner les patients [13]. Ce glissement de l’EBM au service du patient vers le soin normalisé et imposé à tous est pourtant perceptible depuis quelques années, sous la pression conjointe des assureurs maladie et des autorités sanitaires françaises.

La mesure de la qualité extrinsèque de l’information est une rupture totale avec le passé

Avant d’étudier plus en avant le fonctionnement de Google, tordons le cou d’emblée à une idée aussi fausse que répandue : Google n’identifie pas les documents les plus "populaires" au sens de "documents les plus souvent consultés". Un tel critère n’aurait aucun intérêt et aboutirait rapidement à un nivellement de la qualité de l’information disponible, chaque éditeur de site cherchant alors à plaire au plus grand nombre. Ce serait "l’effet TF1" sur le Web.

Larry Page et Sergey Brin ont bâti leur outil sur une constatation : chaque fois que quelqu’un écrit une page pour internet, il crée des liens dans cette page pour indiquer au lecteur d’autres pages qui lui paraissent pertinentes, pour approfondir la réflexion sur le sujet traité ou pour étayer ses dires. C’est une micro-expertise : ces auteurs utilisent leurs capacités d’analyse et leur connaissance du sujet pour créer ces liens. Si l’on pouvait regrouper ce travail intelligent mais éparpillé en un tout cohérent, il y aurait émergence d’une expertise collective permettant d’identifier les documents intéressants.

Tel un cerveau dont l’intelligence repose sur des milliards de connexions entre ses neurones, les connexions (liens) entre les milliards de pages du web constituent une forme d’expertise diffuse qu’il serait intéressant de pouvoir agréger.

Les connexions neuronales de notre cerveau se sont créées au fur et à mesure de nos apprentissages et de nos expériences. Les liens internet se créent au fur et à mesure de la création des pages. Nous verrons aussi que Google "apprend" en examinant le comportement des lecteurs.

Page et Brin ont alors l’idée de créer une première règle d’indexation pour utiliser au mieux cette intelligence. Cette règle porte le nom de PageRank, du nom de son créateur. Ce sera leur sujet de mémoire de fin d’étude [14].

JPEG - 164.7 ko
Premier serveur Google, fabriqué avec des LEGOs (ce n’est pas une blague).

Le principe initial du PageRank est simple : une page internet est présumée intéressante si d’autres pages font des liens vers elle. Cela peut se traduire facilement dans l’ancienne représentation du classement de l’information : un livre est intéressant s’il remplit les conditions suivantes :
- Il est souvent cité en référence par d’autres livres ou articles [15]
- Il est souvent conseillé par un bibliothécaire.

Notez que le critère "il est souvent lu" n’est pas pris en compte : si un livre répondant aux deux critères précédents est certes plus souvent lu qu’un autre, il ne sera pas forcément le plus lu. Le nombre de lectures d’un livre ou d’un article n’est pas un facteur de qualité fiable (comme la taille de la clientèle d’un médecin).

Le schéma ci-dessous illustre bien le fonctionnement du PageRank ; la taille du petit symbole qui représente une page internet est proportionnelle à l’importance accordée à son contenu. Cette taille dépend de deux éléments :
- Le nombre de liens qui pointent vers lui.
- L’importance (qualité) de ceux qui font des liens vers lui.

Etre lié (pointé par) un éditeur de site de qualité augmente plus le PageRank qu’être lié par une page anonyme ou peu considérée par les autres. [16].

Pour résumer :
- Google propose une rupture totale avec l’indexation traditionnelle : ce n’est plus le contenu du document qui est le plus important, mais ce qu’en pensent les autres auteurs et les bibliothécaires.
- Google ne propose pas les liens les plus populaires, les plus lus, ou les mieux considérés par la foule des internautes car ces données ne sont pas pertinentes.
- Au contraire, Google met en valeur et vous propose les liens conseillés par d’autres auteurs car il considère qu’en faisant cela, il fédère l’expertise de tous ces auteurs et que cette expertise collective est plus rapide et étendue que toute autre. Google fonctionne comme un système neuronal [17].

Nos deux brillants sujets sont tellement sûrs de leur fait que la page d’accueil de leur nouveau site est une véritable provocation :

Jugez donc :
- aucun décor : un cadre de saisie et un titre, c’est tout. Pas d’options de recherche, de mode "avancé", ils insistent sur la rupture avec Altavista, le leader du marché des moteurs de recherche en 1998 dont la page d’accueil (ci-dessous) était déjà chargée pour l’époque.
- un bouton énigmatique "J’ai de la chance" affiche directement à l’écran le premier résultat de la recherche, sans passer par une page intermédiaire de liste de résultats. Dans la majorité des cas, ce premier résultat est le bon ! L’effet de saisissement est garanti alors qu’il fallait auparavant tester plusieurs résultats de recherche, voire plusieurs moteurs pour obtenir péniblement le document ou site recherché.

Malgré son succès immédiat, la première version de Google est assez primitive et se contente de trier l’information en examinant des liens entrants et en calculant un PageRank pour chaque page.

Voyons comment il va étendre ses capacités pour devenir la porte d’entrée principale sur le Web.

Amélioration du PageRank

Le PageRank n’était qu’une première étape. L’algorithme (la méthode de calcul) qui permet actuellement à Google de trier les ressources du Web repose sur une centaine de critères sur lesquels le secret est jalousement gardé pour éviter toute manipulation par les éditeurs de sites [18]. Certains de ces critères sont néanmoins suspectés ou connus et l’on se rapproche de plus en plus d’un fonctionnement neuronal :

JPEG - 132.9 ko
Réseau de neurones en 3D

Le PageRank s’appuiera désormais non plus sur des webmasters quelconques qui font un lien vers une page, mais sur les webmasters qui traitent du même sujet. C’est une modification importante car elle augmente la qualité de la sélection. Ce ne sont plus les bibliothécaires ou les auteurs en général qui conseillent un ouvrage ou un article, mais d’autres spécialistes du sujet traité. Ces "spécialistes" peuvent être réels ou autoproclamés, mais la loi du nombre pondère les extrêmes. On voit arriver le concept d’intelligence des foules [19], ou celui plus prudent d’Alchimie des multitudes de Pisani et Piotet.

Les liens sortants sont pris en compte. Il ne faut pas seulement être conseillé par d’autres auteurs (liens entrants), il faut soi-même conseiller de bons documents pour accroître sa réputation, ce qui est assez logique et conforme à ce qui se passe dans la vie réelle.

Google propose différents services additionnels, dont une barre d’outils qui permet à son utilisateur de stocker ses adresses de sites (favoris). La base de données est stockée sur les serveurs de Google. Il est probable que le moteur tient compte des sites sélectionnés pour leur donner un poids plus important. De plus, les internautes créent des dossiers (chez Google) pour ranger ces liens et le nom de ces dossiers est une information très importante [20].

Google n’analyse plus seulement le nombre de liens qui pointent vers un site, mais la dynamique d’apparition de ces liens. En effet, des liens artificiels créés pour l’influencer apparaissent généralement tous en même temps et à partir du même site. Au contraire, un contenu de qualité génère la création de liens spontanés dont la répartition dans le temps est progressive et étalée sur de nombreux sites.

Google tient compte de l’âge du document et de sa mise à jour. Un contenu ancien inséré dans un site qui ne bouge plus risque d’être moins pertinent qu’un article souvent modifié ou intégré dans un site dynamique.

Lorsque vous faites une recherche dans Google, celui-ci analyse votre comportement sur la page de résultat. Si vous allez voir une page indiquée et que vous revenez après quelques secondes, c’est que cette page ne correspondait pas à votre attente. Son PageRank sera abaissé. Au contraire, la page consultée en dernier aura un PageRank augmenté : si vous avez cessé vos recherches après cette page, c’est sans doute parce qu’elle a répondu à votre attente.

Il existe des dizaines d’autres critères destinés à reconnaître la bonne information sans la moindre analyse du contenu. Ces règles fonctionnent aussi bien pour du français que de l’anglais ou du chinois. Google met en oeuvre des techniques de détection de la fraude si pointue que le principal conseil actuellement pour être bien classé dans le moteur est "créez des contenus intéressants". Peut-on imaginer meilleure consécration pour le moteur de recherche ?

Google ne peut trouver que ce qui existe

Bien sûr, tout n’est pas parfait et le moteur vedette est parfois décevant sur certaines requêtes difficiles [21] ou très commerciales. Il faut néanmoins avoir à l’esprit une contrainte importante : Google comme tous les moteurs, ne peut trouver que ce qui est accessible. Autant le Web est riche en langue anglaise, autant le monde francophone tarde à libérer ses contenus. L’absence de lien de qualité dans une requête ne fait souvent que refléter (dans le monde médical francophone notamment) la pauvreté des contenus en accès libre disponibles.

En corollaire, sachant que Google est la porte d’entrée sur Internet pour la grande majorité des internautes, tout document qui n’est pas indexé par Google "n’existe pas", mais ceci une autre histoire [22].

Nous venons de passer en revue la façon dont Google s’appuie sur le travail intellectuel des webmasters et sur le comportement des internautes pour agréger ce "jus de cervelle virtuel" en une forme d’expertise neuronale très primitive. C’est à notre avis un des plus beaux exemples de ce que nous pourrions appeler la mesure extrinsèque de la pertinence :
- Google ne demande d’effort à personne, il utilise un travail déjà réalisé par d’autres.
- Google met en forme des données publiques, mais que lui seul parvient à agréger correctement.
- Google est ouvert à tous et ne coûte rien à ceux qui utilisent ses services, tout en gagnant énormément d’argent avec d’autres (l’innovation n’est en rien synonyme de bénévolat).
- Google sépare clairement le service qu’il apporte (trouver l’information) et son gagne-pain (la publicité). S’il ne le faisait pas, il disparaîtrait en quelques années faute d’utilisateurs, tant la crédibilité de ses résultats serait altérée.
- Google touche à un domaine clé de la civilisation de l’information : l’accès à la bonne information au sein d’un "bruit" phénoménal.
- Google se fonde sur un réseau mais il ne le crée pas : il utilise le maillage constitué par les auteurs-lecteurs du Web.

Les autres articles de cette série développeront la notion de mesure extrinsèque de la qualité [23]. Le principal reproche qui lui est souvent fait est son caractère subjectif, et cet aspect sera particulièrement développé. Le concept de "pairjectivité" à la Google, agrégat de subjectivités émanant d’individus ayant un trait commun (pairs) est sans doute la clé qui peut permettre de s’abstraire de ce paradoxe : la mesure la plus pertinente de la qualité s’appuie sur des éléments subjectifs et non objectifs, extrinsèques et non intrinsèques. Nous verrons d’ailleurs dans d’autres articles que c’est ainsi que nous fonctionnons au quotidien : l’avis de ceux qui connaissent un domaine et en qui nous avons confiance est le critère de qualité que nous plaçons au-dessus de tous les autres.

Vous pouvez réagir à cet article sur le Forum

Vers l’article suivant du dossier

Remarque : cet article avait déjà été publié sous une forme légèrement différente destinée à illustrer le concept de web 2.0

Notes

[1] En 2008, Google est devenu la marque la plus connue dans le monde, après seulement 10 ans d’existence Source Millwardbrown 2008

[2] http://etablissements.ac-amiens.fr/...

[3] Cet annuaire existe toujours.

[4] Toile est un terme souvent employé pour décrire le web, c’est-à-dire les pages consultables sur internet. Les trois "w" signifient World Wide Web, ce qui peut être traduit par "La grande toile d’araignée mondiale"

[5] Notamment l’annuaire DMOZ qui existe toujours

[6] Tous ces moteurs ont disparu ou ont été remplacés par d’autres services.

[7] Ce processus avait d’ailleurs été déjà automatisé pour les ouvrages imprimés depuis de nombreuses années

[8] Pour être honnête, il faut reconnaître que quelques critères extérieurs sont aussi pris en compte dans les dernières versions des moteurs "1.0", notamment le fait que le site contenant la page ait été indexé dans des annuaires gérés manuellement comme Yahoo

[9] Ces techniques d’optimisation portent désormais le nom de "référencement" et sont devenues un métier à part entière

[10] Observations répétées à comparer à votre expérience personnelle.

[11] Cette vision tranchée de l’apparition de facteurs extrinsèques de mesure de la qualité néglige bien sûr d’autres expériences du même type et notamment le "facteur d’impact" utilisé avec les publications sur papier. Merci de nous pardonner ces approximations destinées à faciliter la lecture du texte.

[12] Evidence Based Médecine ou médecine fondée sur des preuves. Il s’agit d’une approche scientifique mais aussi humaniste de la médecine qui consiste à fonder ses décisions sur les meilleurs éléments probants disponibles

[13] http://www.atoute.org/n/breve14.html

[14] Pour simplifier la compréhension du fonctionnement de Google, nous ne tenons pas compte de l’évolution progressive des algorithmes au cours du temps et décrivons un fonctionnement global actuel.

[15] Principe proche du "facteur d’impact"(déjà cité), utilisé avec les publications sur papier et né quelques années avant le PageRank.

[16] Les plus attentifs d’entre vous ont remarqué la similitude avec l’histoire de la poule et de l’oeuf ! Comment commencer ? Quels sont les premiers sites de qualité ? Ce problème a été géré par l’identification initiale de sites présents dans les annuaires (et donc déjà sélectionnés par un cerveau humain) et par ce qu’on appelle la récursivité : Google analyse régulièrement les liens entre les sites de son index pendant une courte période joliment appelée "Google Dance" et modifie le PageRank de chaque site en fonction notamment de ses liens entrants (qui pointent vers lui). Cette remise à niveau permanente du PageRank permet un ajustement de la place de chaque site ou page dans les résultats du moteur de recherche en fonction de la progression (ou baisse) de sa réputation.

[17] Nous parlons bien de système neuronal et non de "réseau neuronal", terme informatique ayant un sens différent. Voir aussi ce document surl’hyperscience

[18] On peut assimiler le passage des spiders indexeurs de Google sur les sites à un examen ; pour qu’un examen soit juste et discriminant pour sélectionner les candidats, il vaut mieux que le sujet n’en soit pas connu à l’avance

[19] Traduit de l’anglais Wisdom of crowds

[20] Ce concept classification libre est appelé Folksonomie.

[21] C’est sur les concepts fumeux ou ésotériques que Google est le plus fragile car il va mettre en valeur non pas le site le plus scientifique, mais parfois le site le plus représentatif de cette théorie ou de ce mouvement, surtout si aucune page ne fait un point sérieux sur le sujet

[22] Ce phénomène en train de naître est une réédition du problème de l’anglais dans les publications scientifiques : dès les années 60, il est devenu évident (autant qu’injuste), que ce qui était publié en français "n’existait pas" pour le monde scientifique

[23] Le concept de qualité intriqué avec celui de pertinence, impliquant la variabilité de la qualité en fonction de son contexte, pourrait porter le nom de "qualinence". Dans un esprit de simplification du texte, nous parlerons souvent de qualité sans indiquer à chaque fois ce distinguo contextuel

http://www.atoute.org/n/Qualite-et-sante-2-L-approche.html

Qualité et santé : 3) Médecine scientifique et objectivité

Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : longtemps centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur un partage et une pondération de la subjectivité.
- Le premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
- Le deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
- Dans ce troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, trouve aujourd’hui ses limites et doit laisser coexister d’autres approches.
- La pairjectivité, thème central de ce dossier, est détaillée dans le quatrième article.
- Le cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.

Idées-forces :
- La subjectivité a longtemps aveuglé la médecine.
- A la subjectivité du patient s’ajoute celle du soignant : effet placebo et biais de vérification d’hypothèse.
- L’introduction d’une approche objective et expérimentale de la médecine a permis les immenses progrès sanitaires du XXe siècle.
- Mais l’objectivité se prête mal à l’étude des phénomènes humains et conduit la médecine dans une impasse.
- Avec l’objectivité est née la fraude qui est rapidement devenue inextirpable de la science.
- L’approche purement objective de la thérapeutique était une étape importante qu’il faut accepter de dépasser.

"Qui d’entre nous, au moment d’aider celui qui s’est confié à lui, ne souhaiterait que la science fût encore plus avancée ? Mais ce qu’on nous présente comme “connaissances scientifiques” évoque bien souvent le bric-à-brac qu’un brocanteur aurait qualifié de salon artistique..."
Pr Alain Froment

"Il n’y a aucune limite (son, lumière, zéro absolu, principe d’exclusion de Pauli) que l’esprit de l’homme ne puisse franchir dans un calcul foireux"
Anonyme - Les perles du bac

Guérir est longtemps resté une affaire de magie.

Hippocrate fut le premier à tenter, en créant la médecine, de s’appuyer sur la raison en matière de santé.
Il s’inscrivait ainsi dans la continuité des philosophes naturalistes, suivi par Erasistrate, Celse, Galien, Avicenne...

Cependant, comme les progrès furent lents !

Car les médecins, comme les autres scientifiques de l’antiquité, étaient handicapés par leur subjectivité propre, ce qu’on appelle à présent le biais de confirmation d’hypothèse.

Ce biais est une tendance naturelle qui nous pousse à trouver dans nos observations ce qui confirme nos théories ou croyances : nos yeux ne voient pas, notre cerveau ne croit pas, ce qui va à l’encontre des idées que nous cherchons à vérifier. Alors nous les écartons sans procès. Ainsi, le chercheur-expérimentateur rejette inconsciemment les résultats qui le dérangent.
Au contraire, nous mettons en exergue les observations qui vont dans le sens de notre démonstration : le médecin qui teste un médicament, écoute ses patients d’une oreille très différente selon qu’il croit ou non en l’intérêt de sa prescription. Les effets positifs seront attribués au médicament alors que les ressentis négatifs seront "à coup sûr" dûs à une cause extérieure, voire à une autre maladie.

Pourtant, à étudier de près l’acte de guérison, le médecin n’est pas le seul être subjectif bien au contraire.

A cette subjectivité côté médecin s’ajoute une subjectivité côté patient : l’effet placebo

L’effet placebo constitue l’autre grand biais thérapeutique. La foi dans ce qui soigne mobilise des mécanismes d’atténuation de la douleur, mais aussi de baisse de la tension artérielle ou du cholestérol ! Une substance inerte présentée comme un médicament salvateur va guérir un pourcentage important de patients. Encore aujourd’hui l’effet placebo intervient de façon considérable dans l’effet des médicaments, y compris pour ceux dont l’activité intrinsèque est incontestable. L’effet placebo touche les enfants comme les adultes, les scientifiques comme les illettrés. Il concerne même les animaux, preuve s’il en était besoin de la puissance de la communication non verbale. Il existe aussi en miroir un effet nocebo : nous ressentons des effets indésirables avec une substance inerte, surtout si elle nous a été présentée comme potentiellement mal supportée.

Le plus bel exemple d’effet placebo-nocebo a été matérialisé par un très beau protocole à double détente : dans un service de personnes âgées, un produit inerte (gélule de sucre glace) est présenté aux infirmières comme un bon antidouleur à utiliser si nécessaire chez leurs patients. Elles sont mises en garde contre le risque de diarrhée que ce nouveau médicament peut provoquer, mais il leur est demandé de ne pas parler de ce problème aux patients. Ce médicament est pourtant un pur placebo dénué de toute activité biologique.
Après un mois, les infirmières ont demandé à ce qu’on leur fournisse un autre médicament : elles le trouvaient très efficace sur les douleurs, mais le service était désorganisé par les nombreuses diarrhées qu’il provoquait chez les pensionnaires de l’établissement [1]. Effet placebo et nocebo s’intriquaient sans que l’on sache qui influençait qui...

Les subjectivités s’ajoutent, comme les erreurs de mesure s’additionnent dans une expérience de physique. Faute de savoir détecter et corriger ce biais majeur, la médecine n’a que très peu progressé sur le plan thérapeutique pendant deux mille ans. Les remèdes les plus fantaisistes se sont succédés sans qu’un outil d’évaluation objectif et fiable puisse permettre de trier l’illusion de la réalité.

Le philosophe Michel Henry situe au début du XVIIème siècle avec Galilée l’irruption de l’objectivité dans le champ scientifique [2]. Le célèbre astronome serait le précurseur de la modernité et l’un des premiers à dénoncer la subjectivité comme frein à la connaissance rationnelle. On connaît ses démêlés avec l’Eglise : les remises en cause des dogmes provoquent généralement de fortes réactions.

Dans le champ médical, la découverte de la circulation sanguine par Harvey à la même époque amorce une accélération du progrès scientifique en médecine, facilité par de nouveaux outils comme le microscope de l’étonnant van Leeuwenhoek.

Un siècle plus tard, la première expérience médicale scientifique est sans doute celle de James Lind. Ce médecin écossais étudie l’action de divers produits pour soigner le scorbut. Il crée six groupes de marins et leur attribue un produit différent. Ceux qui prennent les citrons guérissent. C’est sans doute la première étude comparant simultanément des traitement dans des groupes de patients différents ; ces études seront appelées plus tard "contrôlées" par référence à un groupe de contrôle qui ne reçoit pas le traitement à étudier. Il s’agit d’un application parfaite de la méthode expérimentale. La gravité de la maladie, l’absence d’effet placebo significatif dans le scorbut, l’absence de guérison dans les autres groupes, se conjuguaient pour démontrer formellement de l’efficacité d’un composant des agrumes.

Le XIXe siècle voit se généraliser la méthode expérimentale

L’expérience de Lind n’était qu’un premier pas vers la médecine scientifique qui va progresser à grands pas grâce à la généralisation de la méthode expérimentale, sous l’influence notable de Claude Bernard :
- Le scientifique observe un phénomène et conçoit une hypothèse qui s’y rattache ou l’explique.
- Il imagine ensuite une expérience qui ne pourra fonctionner que si cette hypothèse est vraie.
- En cas d’échec de l’expérience, l’hypothèse est réfutée.
- En cas de succès, il poursuit de nouvelles expériences pour confirmer son hypothèse et communique sur ce qui pourrait devenir une "loi de la nature" [3].

La mise en oeuvre de la méthode expérimentale coïncide avec d’immenses progrès dans la compréhension des phénomènes biologiques avec leur cortège de retombées diagnostiques et surtout thérapeutiques.

C’est par sa célèbre expérience de la cornue stérilisée [4] que Louis Pasteur arrive à convaincre l’Académie de Sciences de l’impossibilité de la génération spontanée de la vie. Pour autant, et malgré l’élégance de la démonstration, son adversaire Pouchet continue à croire jusqu’à sa mort à la génération spontanée.

JPEG - 13.9 ko
Expérience de Pasteur
Après chauffage et donc stérilisation, la solution ne fermente pas. En revanche, si l’on casse le serpentin, les germes pénètrent et la solution fermente.

source

C’est donc l’expérimentation qui devient le nouveau standard de la science médicale. L’expérimentation permet de prouver objectivement la justesse d’une nouvelle théorie, l’erreur de ses contradicteurs, ou l’intérêt d’un nouveau traitement. Elle vise à protéger le scientifique de sa propre subjectivité.

Une période féconde en découvertes majeures s’ouvre alors, apportant notamment la vaccination et l’hygiène, deux moteurs majeurs de l’augmentation de l’espérance de vie et de la lutte contre les fléaux sanitaires.

Mais la thérapeutique est le parent pauvre du progrès et la médecine scientifique reste essentiellement descriptive. La compréhension des mécanismes biologiques progresse beaucoup plus vite que les traitements. Le XIXe siècle et le début du XXe font encore la part belle à l’homéopathie et aux extraits de plantes dont les effets sont modestes sur les maladies graves.

Si la méthode expérimentale constitue la voie royale en physique et un outil de choix en biologie, il en est autrement en médecine. L’effet placebo, c’est-à-dire la subjectivité côté patient, est toujours aussi puissant et déroutant ; il fausse les tentatives d’évaluation thérapeutique. De plus, ce qui est vrai pour un patient ne l’est pas pour un autre et la variabilité des réactions individuelles rend hasardeuse l’extrapolation des résultats observés. Enfin, la "protocolisation expérimentale" des remèdes traditionnels issus de plantes nécessite l’extraction des principes actifs et l’anéantissement d’un savoir ancestral empirique faisant intervenir de nombreux éléments de complexité [5]. Seuls les produits dont l’efficacité est flagrante et qui guérissent ou préviennent des maladies graves sortent du lot. Les vaccins en constituent un bon exemple.

Après avoir combattu la subjectivité de l’expérimentateur par la méthode expérimentale, la médecine invente d’autres procédés pour tendre vers l’objectivité et la rigueur scientifique :
- La randomisation, utilisée pour la première fois par Ronald A Fischer dans l’agriculture, s’impose comme un moyen aussi efficace que déroutant par sa simplicité pour créer des échantillons de patients comparables : il suffit de tirer au sort.
- L’essai clinique contrôlé en aveugle contre placebo : un groupe de patients reçoit le principe actif à étudier, l’autre un placebo indiscernable. Les résultats sont comparés dans les deux groupes. La subjectivité du patient est annulée [6] par le fait qu’il ne sait pas s’il prend le principe actif ou le placebo.
- Le double aveugle [7] : étude contrôlée dans laquelle ni le patient ni le médecin ne connaissent la nature du médicament délivré. L’analyse des résultats finaux doit idéalement être réalisée également en aveugle, la nature du traitement A et du traitement B comparés n’étant dévoilée qu’à la fin du traitement des données (pour éviter un biais de vérification d’hypothèse - rejet ou interprétation des données défavorables - à cette phase cruciale).

Garantissant apparemment une double protection contre la subjectivité de l’expérimentateur et celle du patient, l’essai clinique contrôlé (ECC) va devenir le parangon de vertu scientifique dans le domaine médical.

Naissance des essais cliniques contrôlés

(source La course aux molécules, Sébastien Dalgalarrondo)

"L’histoire des essais cliniques randomisés commence aux États-Unis après la seconde guerre mondiale, lorsque des médecins, des chercheurs et des responsables de revues médicales, persuadés du pouvoir de la science et de la preuve statistique, décident de lutter à la fois contre l’hétérogénéité des prescriptions thérapeutiques et l’influence néfaste des publicités de l’industrie pharmaceutique, jugées peu scientifiques voire mensongères.

Ces « réformateurs thérapeutiques » entreprennent donc la mise en place d’essais dans lesquels les patients sont répartis de manière aléatoire (randomisation) dans deux groupes d’analyse, le premier recevant un placebo et le deuxième le traitement testé.

Cette nouvelle façon d’apporter la preuve de l’efficacité d’un médicament ne s’imposa pas sans quelques réticences au sein de la communauté médicale. Certains cliniciens refusèrent d’attribuer des médicaments au hasard et de priver ainsi, pendant la période de l’essai, leurs malades de tout traitement au nom de la science et de la rigueur statistique, pratique qu’ils jugeaient contraire à l’éthique médicale et au devoir de soin.

Cette nouvelle méthodologie imposait par ailleurs que ni le patient ni le médecin ne sachent dans quel groupe le patient était enrôlé, procédure dite du double aveugle, qui se heurtait elle aussi aux pratiques ancestrales de la médecine.

Parallèlement à la naissance et à la constitution de ce groupe de réformateurs, à la tête duquel on trouve des patrons de médecine prestigieux, d’autres acteurs de la communauté médicale oeuvraient pour un meilleur contrôle des médicaments. Dès 1906, le Conseil de pharmacie et de chimie de l’Association médicale américaine (AMA) mit en place un réseau d’experts, notamment des pharmacologues, chargés de vérifier et d’évaluer l’intérêt thérapeutique des nouvelles molécules. Ces pharmacologues allaient jusqu’à réaliser leurs propres études afin de lutter contre le discours parfois proche du « charlatanisme » de certains groupes industriels. Le modèle de cette expertise sera repris par la Food and Drug Administration (FDA) en 1938 lorsqu’elle commença à vérifier l’innocuité et l’efficacité thérapeutique des médicaments.

Mais malgré tous les efforts du groupe des réformateurs et l’apparition progressive d’études randomisées dans la presse médicale, il fallut attendre deux événements cruciaux pour voir les ECC véritablement s’imposer.

Le premier est d’ordre réglementaire. En 1962 est voté aux États-Unis un amendement à la loi fédérale sur l’alimentation, les médicaments et les cosmétiques, le Kefauver-Harris Amendement.
Il imposa aux firmes de démontrer en suivant « une méthode statistique appropriée » et une « investigation contrôlée » l’efficacité d’un nouveau médicament avant qu’il ne soit mis sur le marché. Les industriels durent donc appliquer les ECC pour pouvoir satisfaire ces nouvelles exigences réglementaires.

Deuxième élément, l’adoption au milieu des années 1970 d’une nouvelle réglementation destinée à protéger les patients inclus dans des protocoles de recherche clinique. Initiée conjointement par le National Institute of Health (NIH) et la FDA, elle faisait suite à la dénonciation de dérives et notamment à l’inclusion dans certains essais de personnes n’étant pas en possession de toutes leurs facultés mentales. Le concept-clé de cette nouvelle réglementation était celui du consentement éclairé des patients, qui devaient être en mesure, avant d’être inclus dans un essai, d’apprécier les risques et d’évaluer les conséquences de l’utilisation d’un placebo et d’une répartition aléatoire.(...)"

La pratique des ECC est donc toute récente. Erigée en dogme méthodologique, elle est censée apporter l’objectivité nécessaire à une évaluation rationnelle des médicaments et des stratégies thérapeutiques. Malheureusement, si ses débuts ont énormément apporté à l’évaluation du fatras thérapeutique hérité du XIXe siècle, les ECC souffrent d’un défaut rédhibitoire : ils ne peuvent étudier que ce qui est objectivable et mesurable [8].

Comment étudier un sujet avec objectivité ?

La science expérimentale a abouti à une "objectivation du sujet", à un réductionnisme cartésien de l’invidu réduit à une somme d’organes, de mécanismes biologiques où à un "sujet-type" dont le destin sera applicable à ses semblables.

L’objectivisation de la médecine a bien sûr permis de réels progrès en mesurant précisément l’impact de nos interventions sur des phénomènes bien définis. Mais elle a aussi été terriblement sclérosante en excluant du champs de la science médicale l’essentiel de ce qui caractérise l’Homme, à savoir les émotions, les affects, la complexité, ou encore la versatilité et l’oubli. Michel Maffesoli décrit très bien ce phénomène dans son "éloge de la raison sensible". Dans un registre un peu différent, Sophie Ernst, une philosophe de l’éducation s’interroge sur "l’image ambivalente de la science chez les jeunes : triomphante et asséchante"("subjectivité et objectivité dans l’enseignement des sciences" ).

Pour rester centré sur la médecine, Alain Froment, dans "la science et la compassion" [9] analysait avant l’apparition de la "médecine fondée sur les preuves" le double écueil consistant soit à négliger les apports de la science, soit à vouloir les imposer au patient sans se préoccuper de sa singularité :

Nous serions peut-être alors encouragés à tenir compte des limites de nos connaissances biologiques pour réfréner notre tendance naturelle au dogmatisme, dans nos paroles et nos décisions médicales, et à confronter l’argumentation biologique boiteuse à d’autres éléments qui mériteraient tout autant, sinon plus, d’être pris en considération.
Combien d’ouvrages médicaux, d’articles, de présentations de congrès, et pire encore de décisions thérapeutiques “sur dossier”, réduisent l’individu, comme s’il était un quelconque organisme animal, à un ensemble de chiffres, d’images et de signes, en omettant complètement que cet organisme est habité par l’affection, la joie, la peine, l’angoisse, le désir, qu’il se comporte comme membre d’un groupe et a besoin d’y conserver sa place et sa fonction, que sa vie a d’autres dimensions que sa durée et peut être fondée sur des valeurs profondément différentes des nôtres, mais tout aussi valables qu’elles.
Ces réalités sont-elles méprisables parce qu’elles ne sont pas mesurables, ou n’est-ce pas nos connaissances qui sont méprisables de ne pas pouvoir les prendre en compte ? Qui connaît d’ailleurs les conséquences biologiques à long terme de la souffrance morale, de l’angoisse, du bien-être, de l’affection ? On a quelques raisons de les croire importantes : est-ce véritablement la marque d’une attitude scientifique que de ne pas tenir compte de cette éventualité, et est-ce la marque du progrès scientifique que d’anéantir ce que des millénaires de civilisation ont fait de l’Homme ?

Si l’individualisation de certains paramètres humains et leur étude isolée est grisante pour l’esprit scientifique, elle est frustrante pour l’humaniste. Pire, il arrive de plus en plus souvent que le scientifique souhaite imposer sa vision étriquée de la réalité de l’homme à ceux dont l’approche holiste est pourtant plus fidèle, à défaut d’être mesurable, reproductible ou tout simplement explicable. C’est tout le drame de la "norme" appliquée à la santé [10].

L’objectivité scientifique constitue un Graal inaccessible, voire un miroir aux alouettes. Mal utilisée, elle peut aboutir à détruire de précieux équilibres et faire paradoxalement régresser la qualité là où des imprudents tentent de l’imposer en dogme.

Elle présente un autre défaut important : sa sensibilité aux biais cachés. La subjectivité indissociable de l’humain a rapidement refait surface, sous une autre forme : la fraude scientifique. Or cette subjectivité dissimulée est beaucoup plus préoccupante que la subjectivité affichée des savants du XVIIIe siècle.

La fraude atténue progressivement les bénéfices apportés par la méthode expérimentale et les essais cliniques contrôlés

Dans leur célèbre Souris truquée [11], W. Broad et N. Wade rappellent que la fraude est aussi vieille que la science : Ptolémée, Galilée, Newton, Dalton ont inventé ou "arrangé" leurs résultats pour mieux valider leurs théories. Avant même que n’apparaissent les intérêts financiers qui rongent actuellement l’éthique médicale [12], la recherche de la gloire suffit à conduire nos savants les plus prestigieux à de petites "corrections" pour améliorer l’aspect de leur travaux. Il apparaît que les grands découvreurs sont parfois des scientifiques qui excellaient surtout dans l’art de mettre en valeur des travaux dont ils n’étaient pas les auteurs ; d’autres enjolivaient ou inventaient certains résultats d’expériences difficiles pour être sûrs de s’en faire attribuer la paternité : l’Histoire ne retient que le nom des découvreurs et la course contre le temps fait mauvais ménage avec la rigueur.

Depuis que la carrière des chercheurs est intimement liée au nombre de leurs publications, la fraude est devenue une part intégrante de la recherche. Broad et Wade commencent leur livre [13] (nous sommes en 1981) par la description d’une audition du Congrès américain :

D’un coup de marteau sur le bureau, le jeune représentant du Tennessee ramena le silence dans l’imposante salle d’audience du Congrès. Je suis forcé de conclure, dit-il, que la persistance de ce genre de problème résulte de la réticence des scientifiques à prendre cette affaire très au sérieux.

Le problème auquel Albert Gore Jr. faisait allusion était celui de la fraude dans la recherche scientifique.

Le jeune Al Gore (il avait alors 33 ans) aura l’occasion de faire parler de lui 20 ans plus tard en offrant au monde la base de données bibliographiques Medline jusqu’alors réservée aux abonnés. Pied-de-nez de l’Histoire, il sera battu aux élections présidentielles américaines de 2000 par Georges Bush grâce à une fraude électorale... Un prix Nobel lui sera attribué pour son action en faveur de l’écologie, domaine où la fraude scientifique est caricaturale aux USA.

La fraude est si bien ancrée dans les comportements scientifiques qu’elle en devient un sujet de dérision :

Traduction des termes employés dans les publications scientifiques :

IL EST BIEN ÉTABLI QUE...
"Je ne me suis pas donné la peine de vérifier, mais il me semble bien possible que..."

QUOIQU’IL N’AIT PAS ÉTÉ POSSIBLE DE DONNER UNE RÉPONSE DÉFINITIVE
"L’expérience échoua, mais il me semble tout de même pouvoir en tirer une publication"

LA TECHNIQUE X FUT CHOISIE CAR PARTICULIÈREMENT ADÉQUATE
"Le copain du labo d’à côté avait déjà mis la technique X au point"

3 ÉCHANTILLONS FURENT CHOISIS POUR UNE ÉTUDE EXHAUSTIVE
"Les résultats obtenus à partir des autres échantillons n’ont rien donné de cohérent"

MANIPULÉ AVEC LA PLUS GRANDE PRÉCAUTION DURANT TOUTE L’EXPÉRIMENTATION
"Ne fut pas jeté à l’égout"

LE COMPOSE ALANINE-ARGININE Z455 A ETE CHOISI POUR SA CAPACITE A DEMONTRER L’EFFET PREVU.
"Le gars du labo d’à côté en avait en rab"

HAUTE PURETE, TRES HAUTE PURETE, PURETE EXTREMEMENT ELEVEE, ULTRAPUR, SPECTROSCOPIQUEMENT PUR.
"Composition inconnue, mises à part les prétentions exagérées du fournisseur".

LA CONCORDANCE DE L’EXPERIENCE AVEC LA THÉORIE EST :
- EXCELLENTE = passable
- TRÈS BONNE = faible
- SATISFAISANTE = douteuse
- PASSABLE = totalement imaginaire

IL EST ADMIS QUE
"Je crois que"

IL EST GÉNÉRALEMENT ADMIS QUE
"2 collègues penseraient comme moi"

IL EST ÉVIDENT QUE DES TRAVAUX COMPLÉMENTAIRES SERONT UTILES
"Je n’ai rien compris à ce qui s’est passé"

VOICI QUELQUES RÉSULTATS TYPIQUES
"Voici les meilleurs résultats"

SIGNIFICATIF DANS UN INTERVALLE DE CONFIANCE DE...
"Non significatif"

MALHEUREUSEMENT, LES BASES QUANTITATIVES PERMETTANT DE TIRER PROFIT DES RÉSULTATS N’ONT PAS ENCORE ÉTÉ FORMULÉES
"Personne n’est arrivé à comprendre quoi que ce soit"

NOUS REMERCIONS X POUR SA PRÉCIEUSE COLLABORATION ET Y POUR SES CONSEILS
"X a fait le travail et Y m’a expliqué ce que signifiaient les résultats." [14]

Le méthode expérimentale, si elle a permis de grands progrès, a été indirectement responsable de la naissance d’une fraude plus élaborée. Auparavant, les scientifiques se contentaient, comme Ptolémée, "d’emprunter" le travail de leurs prédécesseurs, ou comme Newton et Galton, d’arranger quelques calculs pour "tomber juste". Désormais, il leur faut truquer, voire inventer de toute pièce des expériences complexes pour franchir les barrières de la reconnaissance par les collègues avant d’être publié.

Pour en finir avec l’humour attaché à la fraude scientifique, voici un dernier texte raillant les expériences un peu trop parfaites du père de la génétique, le moine Gregor Mendel :

Au commencement était Mendel, perdu dans ses pensées.

Et il dit : Qu’il y ait des pois.
Et il y eut des pois, et cela était bon.

Et il planta les pois dans son jardin et leur dit : Croissez et multipliez et répartissez-vous.
Ainsi firent-ils et cela était bon.

Puis il advint que Mendel regroupa ses pois et sépara ceux qui étaient lisses de ceux qui étaient ridés. Il appela les lisses dominants et les ridés récessifs, et cela était bon.

Mais Mendel vit alors qu’il y avait 450 pois lisses et 102 pois ridés. Ce n’était pas bon car la loi stipule qu’il doit y avoir trois ronds pour un ridé.

Et Mendel se dit en lui-même : Gott in Himmel, c’est là l’oeuvre d’un ennemi qui aura semé les mauvais pois dans mon jardin à la faveur de la nuit !

Et Mendel, pris d’une juste colère, frappa sur la table et dit : Eloignez-vous de moi, diaboliques pois maudits, retournez aux ténèbres où vous serez dévorés par les souris et les rats !

Et il en fut ainsi : il ne resta plus que 300 pois lisses et 100 poids ridés, et cela fut bon. Cela fut vraiment, vraiment bon.

Et Mendel publia ses travaux [15].

Savoir apprécier l’ubiquité de la fraude scientifique est important pour comprendre l’évolution de la médecine scientifique au XXè siècle. En effet, des mécanismes de prévention sont rapidement mis en place pour contenir la fraude. Il s’agit essentiellement des relecteurs scientifiques attachés aux revues les plus prestigieuses. Ces "referees" ont pour rôle de vérifier avant publication que les règles de bonnes pratiques scientifiques ont été respectées, que les sources sont citées et que les conclusions tirées par les auteurs coïncident bien avec les travaux décrits. Malheureusement, si ce filtre fonctionne pour les fraudes les plus grossières, il est souvent pris en défaut par des fraudes minimes, voire par des fraudes à grande échelle organisées par des falsificateurs de génie [16]. De plus, la relecture par les pairs introduit un biais éminement subjectif dans une science qui se veut désormais objective : ces referees sont des hommes comme les autres habités par la jalousie, l’amitié ou le déni. Ils peuvent être en concurrence avec des collègues dont ils évaluent les travaux ou être rémunérés par des entreprises pharmaceutiques menacées par les travaux qu’ils relisent.

Des affaires récentes ont mis ces pratiques en lumière. Citons le retrait du médicament antiinflammatoire Vioxx suivi de plaintes pénales qui ont permis l’accès à la totalité des documents concernant ce produit, et une polémique sur un médicament du diabète (Avandia). Toutes les facettes de la fraude sont réunies dans ces affaires [17] : referees qui transmettent des articles (confidentiels) à des firmes qui les emploient, dissimulation d’informations gênantes par les industriels, fortes pressions sur les lanceurs d’alertes, non-publication de travaux négatifs, manipulation des résultats d’études cliniques.
Ces affaires illustrent un défaut de la méthode expérimentale : sa mise en avant peut apporter une apparence d’objectivité à des données qui sont en pratique parfaitement subjectives car triées, publiées, manipulées et financées par des humains ou des lobbies. Elles ne constituent en rien des exceptions au sein d’un monde vertueux ; elles représentent simplement des parties visibles car "démaquillées" à l’occasion de procédures judiciaires. Rien ne permet de penser que les dossiers des autres médicaments développés depuis ne contiennent pas les mêmes errances. Ces derniers sont simplement inaccessibles à l’investigation.

La méthode expérimentale ne souffre pas de biais : une petite erreur, volontaire ou non, peut inverser le sens d’une expérience et mener à des conclusions fausses et lourdes de conséquences quand elles impactent la santé de millions de patients. Actuellement, l’immense majorité de la recherche thérapeutique mondiale est financée, pilotée, et publiée par l’industrie pharmaceutique dont les chercheurs deviennent progressivement et plus ou moins consciemment les vassaux. Seuls les esprits les plus optimistes peuvent encore croire, contre les preuves qui s’amoncellent, que la recherche thérapeutique est toujours une science objective.

Le dernier scandale porte le nom de "ghostwriting" ; littéralement "rédaction par des fantômes". Il résulte de la convergence de deux problèmes : les firmes ont du mal à faire écrire par les scientifiques exactement ce qu’elles veulent, et les scientifiques n’ont pas le temps d’écrire. Qu’à cela ne tienne : des agences de communication spécialisées rédigent des articles scientifiques sous le contrôle du marketing pharmaceutique. Des médecins réputés sont ensuite contactés pour signer ces articles qu’ils n’ont pas écrits. Les véritables auteurs ne sont pas cités (les fantômes). Il n’est pas toujours nécessaire de rémunérer les médecins pour cette entorse éthique : accumuler des publications dans des revues prestigieuses est important pour leur carrière.

Si la méthode expérimentale traditionnelle a fait progresser la médecine à pas de géant au XXe siècle, ce n’est plus le cas aujourd’hui. La thérapeutique stagne et très peu de médicaments utiles ont été découverts depuis 20 ans.

La subjectivité a atteint un tel degré dans les publications scientifiques elles-mêmes, surtout quand des intérêts financiers sont en jeu, que les étudiants sont désormais formés à la lecture critique de l’information médicale. En pratique, cette lecture critique est fastidieuse, et elle suppose que la totalité des données nécessaires à cette analyse suspicieuse soient disponibles dans le document étudié, ce qui est rarement le cas. Une lecture vraiment exigeante et pointilleuse aboutirait à éliminer une grande partie des publications portant l’évaluation d’interventions thérapeutiques chez l’homme.

Un dernier extrait de La souris truquée [18] constitue un parfait résumé de la situation actuelle

La fraude agit comme révélateur de l’activité scientifique normale, montrant à quel point la recherche s’écarte des normes éthiques et épistémologiques qui sont censées la régir. Comme le champ des autres activités sociales, elle est le champ des ambitions, des rivalités, des illusions. Cet ouvrage à la fois ironique et sérieux ne vise pas à défigurer l’image de la science, mais à mieux faire connaître son vrai visage - humain, trop humain. A ce titre, il devrait aider à construire une nouvelle morale des rapports entre la science et le public.

Quant à l’avant-dernier chapitre du livre, il s’intitule L’échec de l’objectivité et nous invitons les lecteurs intéressés par le débat à le lire en intégralité.

Comme Broad et Wade, nous ne cherchons pas à défigurer l’image de la science médicale. Nous constatons que ce livre au retentissement international n’a eu aucun impact sur la situation qu’il dénonce. Aucune "nouvelle morale" n’est venue assainir les rapports entre la science et le public, bien au contraire, l’éthique scientifique continue de se désagréger. En France, nous en sommes à tenter de faire déclarer aux experts leurs conflits d’intérêts [19]. Aux USA où cette pratique est courante, il devient évident que cette déclaration ne règle rien.

Pour notre entreprise, cette question soulève à la fois un grave problème éthique et un problème économique.
Si personne n’y voit d’objection, passons directement au problème économique.
Voutch

Notre but, à partir de ce dossier, est de proposer des solutions concrètes et réalisables qui imposent néanmoins une nouvelle rupture de paradigme et une relativisation de la place de l’objectivité.

Richard Rorty, dans Solidarité ou objectivité [20] exprime l’échec du "tout objectif" dans une phrase lapidaireLa quête de l’objectivité des Lumières a souvent tourné au vinaigre qui ne saurait résumer la réflexion passionnante qu’il nous propose sur les liens entre l’objectivité et les relations interhumaines.

Edgar Morin [21] est encore plus sévère avec le réductionnisme :

Le dogme réductionniste mène à une « intelligence parcellaire, compartimentée, mécaniste, disjonctive, qui brise le complexe du monde en fragments disjoints, fractionne les problèmes, sépare ce qui est relié, unidimensionnalise le multidimensionnel. Qu’il s’agit là, d’une intelligence à la fois myope, presbyte, daltonienne, borgne ; qui finit le plus souvent par être aveugle. Elle détruit dans l’œuf toutes les possibilités de compréhension et de réflexion, éliminant aussi toutes chances d’un jugement correctif ou d’une vue à long terme. Ainsi, plus les problèmes deviennent multidimensionnels, plus il y a incapacité à penser leur multidimensionnalité ; plus progresse la crise, plus progresse l’incapacité à penser la crise ; plus les problèmes deviennent planétaires, plus ils deviennent impensés. Incapable d’envisager le contexte et le complexe planétaire, l’intelligence réductionniste aveugle rend inconscient et irresponsable. »

Déplorer les dégâts de l’objectivisme et du réductionnisme est une chose. De nombreux esprits s’y sont employés avec talent. Mais il faut proposer d’autres solutions pour résoudre les problèmes qui ont mis en vedette ces oeillères de l’esprit.

Nous pensons que les nouveaux outils technologiques, et notamment internet, peuvent permette une évolution majeure de la science médicale, et partant, de la qualité des soins. Si la subjectivité est inextirpable de la médecine, essayons de réfléchir à la façon dont nous pourrions l’utiliser plutôt que de la combattre sans succès, ou pire de lui permettre de se déguiser en objectivité, postiche qui la rend encore plus dangereuse.

C’est l’objet du chapitre suivant. Le concept d’une nouvelle forme de subjectivité y sera développé, elle aussi bâtie sur des "pairs", mais utilisant l’interactivité permise par le réseau internet : la pairjectivité.

Ce mariage entre une subjectivité transparente et le concept (au sens large) du "pair à pair" [22] ouvre des portes qui fascinent ou effraient. L’étude du fonctionnement de Google dans le deuxième article nous a montré comment une approche totalement subjective avait révolutionné la pertinence de la recherche et le classement de l’information sur internet. Il ne s’agit pas d’un rêve ou d’une nouvelle utopie mais d’une réalité qui a transformé la recherche documentaire et connu le succès que l’on sait. Nous allons voir comment la pairjectivité pourrait nous sortir de l’ornière objectiviste dans laquelle la médecine s’embourbe depuis une vingtaine d’années.

Vers l’article suivant du dossier

Vous pouvez réagir à cet article sur le Forum

Notes

[1] référence à retrouver... Merci à ceux qui se souviendraient de la référence de ce travail

[2] La barbarie, 1987. Michel Henry développe un concept qui nous est cher : la négation de la sensibilité aboutit à une nouvelle forme de barbarie qui menace notre civilisation après en avoir permis la progression.

[3] Pour être encore plus certain de la validité de sa "loi", le scientifique devrait aussi concevoir une expérience qui ne peut pas fonctionner si son hypothèse est vraie. C’est d’ailleurs le principe du test de l’hypothèse nulle dans les essais contrôlés : le "p" traduit la probabilité pour que la différence d’efficacité observée soit due au seul hasard si les médicaments comparés ont une efficacité identique

[4] Dans une cornue au long bec de verre, Pasteur stérilisa une solution nutritive par chauffage, puis permit à l’air de rentrer par le bec allongé de la cornue. Aucune fermentation ne survint car les germes de l’air ne pouvaient accéder à la solution du fait de la longueur du bec. En cassant ce bec, les germes pouvaient pénétrer plus facilement dans la cornue et se reproduire dans la solution.

[5] Lire Le moment est venu d’être modeste de Philippe Pignarre qui analyse avec pertinence la "captation scientifique" de la thérapeutique par les "réformateurs thérapeutiques".

[6] En pratique, elle n’est pas totalement annulée, car le fait de savoir que l’on prend peut-être un placebo modifie l’image du traitement et l’espoir que l’on met en lui.

[7] Devenu rapidement indispensable : le simple fait que l’expérimentateur connaisse la nature du traitement faussait le recueil des données, tant le biais de vérification d’hypothèse est puissant.

[8] C’est de la pratique des ECC qu’est née l’habitude de tout quantifier en médecine par des échelles, des tests, des outils de mesure variés. Ayant pris l’habitude d’utiliser ces outils lors de protocoles de recherche, de nombreux médecins hospitaliers prônent leur usage pour les soins courants. Le dialogue entre le médecin et le patient tend à être remplacé par une mesure standardisée. Au lieu de demander au patient comment il se sent et si le médicament le soulage, le médecin envoie un stagiaire qui demande au patient "combien il a mal" sur une règle graduée. Il se trouve des médecins pour assimiler cette évolution à un progrès.

[9] De l’hypertension à l’hypertendu - Tome I - Editions Boeringer-Ingelheim 1982. Extrait dans cet article

[10] Malgré les exhortations des fondateurs de l’EBM, les gestionnaires de la santé s’orientent de plus en plus vers des stratégies thérapeutiques validées par des experts plus ou moins objectifs et qui s’imposeraient aux patients et aux prescripteurs.

[11] Seuil, 1987 pour la version française (1982 pour l’édition originale). Une lecture indispensable pour qui croit encore que la fraude est un phénomène scientifique marginal.

[12] Voir http://www.atoute.org/n/article69.html.

[13] op. cit.

[14] Compilation réalisée à partir de diverses sources anonymes.

[15] Texte anonyme publié en anglais dans "Peas on Earth," Horticultural Science 7 : 5 (1972). Pour être tout à fait honnête, il faut accorder à Mendel le bénéfice du doute ; des travaux récents tendent à prouver qu’il n’aurait finalement pas "amélioré" le résultat de ses expériences.

[16] La Souris truquée op. cit.

[17] Un bon résumé ici.

[18] op. cit. Rappelons que ce texte a été écrit en 1981.

[19] L’association Formindep lance une action dans ce sens, un an après la publication du décret censé la mettre en oeuvre.

[20] Premier essai contenu dans Objectivisme, relativisme et vérité PUF 1994

[21] Le besoin d’une pensée complexe, in 1966-1996, La passions des idées », Magazine littéraire, Hors Série, décembre 1996

[22] Le peer to peer ou pair à pair est un concept informatique popularisé par les réseaux de téléchargement de musique ou de films. La pairjectivité pourra s’appeler peerjectivity en langue anglaise

http://www.atoute.org/n/Qualite-et-sante-3-Medecine.html

Qualité et santé : 4) La pairjectivité, une nouvelle approche scientifique ?

Une version plus récente et plus claire de cet article est disponible à cette adresse.

Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : longtemps centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur un partage et une pondération de la subjectivité.
- Le premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
- Le deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
- Dans le troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, trouve aujourd’hui ses limites et doit laisser coexister d’autres approches.
- La pairjectivité, thème central de ce dossier, est détaillée dans ce quatrième article.
- Le cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.

"Unus pro omnibus, omnes pro uno" (un pour tous, tous pour un).
Devise traditionnelle mais non officielle de la Suisse

Toute connaissance (et conscience) qui ne peut concevoir l’individualité, la subjectivité, qui ne peut inclure l’observateur dans son observation, est infirme pour penser tous problèmes, surtout les problèmes éthiques. Elle peut être efficace pour la domination des objets matériels, le contrôle des énergies et les manipulations sur le vivant. Mais elle est devenue myope pour appréhender les réalités humaines et elle devient une menace pour l’avenir humain.
Edgar Morin

Dans l’article précédent nous avons étudié les limites de l’objectivité en tant que support exclusif de la médecine scientifique. Elle montre depuis quelques années ses travers qui en limitent la portée et ne lui permettent plus de faire progresser la santé.

Cette quatrième partie de notre dossier s’intéresse à certaines approches subjectives ou considérées comme telles [1] qui décrivent assez bien la réalité. La jonction pondérée de nombreuses subjectivités fournit déjà des outils efficaces dans de nombreux domaines. Nous avons choisi pour désigner ce concept le terme de"pairjectivité" par référence à la notion de pairs. Il évoque à la fois la pratique de la "relecture par les pairs" et les réseaux "pair à pair" [2].

Idées-Forces

- La fédération de très nombreuses micro-expertises peut aboutir à une expertise de grande qualité.
- Cette fédération est permise à grande échelle par le réseau internet.
- Toutes les subjectivités ne se valent pas et leur pertinence varie en fonction de l’intérêt à agir.
- Il ne suffit pas d’additionner les subjectivités, il faut les pondérer.
- Une revalidation régulière est nécessaire pour éviter les dérives et les manipulations.

Les exemples de subjectivités rationnelles et efficaces que nous allons aborder s’appuient sur quelques lois ou principes simples.
- En premier lieu, la loi des grands nombres qui permet de créer des groupes comparables par tirage au sort, des sondages fiables, des évaluations précises par mesures multiples moyennées.
- Ensuite, l’intérêt à agir : cet intérêt personnel peut être source de conflits, mais aussi facteur de qualité [3].
- Enfin, la pondération qualitative et récursive qui permet de ne pas réduire une foule à une somme d’individus identiques, mais de la considérer comme un groupe social régi par des interactions complexes et dynamiques.

La loi des grands nombres

La loi des grands nombres est une loi mathématique, donc réputée objective. Pourtant, son utilisation en médecine choque parfois les esprits cartésiens ; l’intérêt de la randomisation par exemple, qui nous paraît une évidence aujourd’hui, n’a pas été facile à faire accepter aux médecins du début du XXe siècle (voir l’encadré).

Cette loi peut s’énoncer sous plusieurs formes. Deux de ces formulations (simplifiées) nous intéressent plus particulièrement :
- La moyenne des résultats de mesures répétées tend vers sa réalité mathématique ou physique : 1000 tirages à pile ou face aboutissent à une proportion de 500/500 avec une précision remarquable, sauf si l’expérience est faussée ou truquée. L’expérience empirique permet d’établir des conjectures avant de les démontrer. De même, la moyenne de nombreuses évaluations métriques indépendantes fournit un résultat d’une grande précision (mesure d’une longueur avec des outils et des opérateurs différents par exemple).
- Le résultat d’une mesure réalisée dans un échantillon vaut pour la population dont l’échantillon est issu, à condition que la taille de cet échantillon soit suffisante, et qu’il soit représentatif de cette population (c’est-à-dire qu’il reproduise, dans les mêmes proportions, la diversité de cette population). Cet aspect est le fondement des sondages et surtout des essais cliniques contrôlés [4], piliers de la médecine scientifique et objective du XXe siècle.

Francis Galton fut un des pères de la statistique appliquée aux populations [5] mais aussi un élitiste. Il souhaita prouver qu’un expert donne une meilleure estimation du poids d’un boeuf que n’importe quel quidam de passage dans une foire agricole. Cette expérience s’inscrit dans un courant de remise en cause de la démocratie à la fin du XIXe siècle : comment confier le sort d’un pays aux choix d’individus à courte vue et globalement incultes ! En pratique, si l’expert donna la meilleure estimation du poids de la bête, la moyenne des estimations du public se révèla plus précise et exacte à une livre près. Cette moyenne des évaluations du public correspond tout simplement à une mesure répétée à l’aide d’un outil imprécis : l’appréciation subjective de chaque individu. C’est la moyenne de ces nombreuses mesures subjectives qui, grâce à la loi des grands nombres, devient un résultat d’une grande précision à défaut d’être objectif.

L’autre aspect de la loi des grands nombres qui nous permet de transformer des données subjectives en résultats objectifs est le travail sur des échantillons de population. La meilleure illustration en est le sondage d’opinion. En politique par exemple, le recueil d’intentions de votes (données subjectives) dans un échantillon suffisant permet de décrire la réalité du résultat final des d’élections (fait objectif) avec un intervalle de confiance qui tient compte des fondements subjectifs de cette évaluation. Cette subjectivité réside dans l’information donnée par le sondé (qui peut mentir) et dans la constitution de l’échantillon interrogé, constitution qui fait aussi intervenir une part de subjectivité par le sondeur. D’une certaine façon, la statistique est l’art de rapprocher de nombreuses données subjectives d’une valeur réelle sans passer par la "case objectivité".

Pour revenir à la santé, l’essai clinique contrôlé [6], est une méthode qui tente de prédire une réalité dans une population, comme la différence d’efficacité entre deux médicaments, à partir de son évaluation limitée à deux échantillons d’individus comparables. Là encore, le résultat objectif dérive de la loi des grands nombres. L’intervalle de confiance [7] qui entoure le résultat ne tient plus compte de la subjectivité de la mesure, réputée objective [8], mais de la probabilité de constater une différence due au seul hasard et de conclure à tort à la supériorité d’un des deux médicaments.

Si l’essai clinique contrôlé est devenu un standard scientifique en médecine, c’est parce qu’il est censé ne laisser aucune place à la subjectivité. Nous avons vu dans le troisième article qu’il n’en est rien et qu’après une période de progrès aussi brève que remarquable, la subjectivité est réapparue massivement au sein même de la médecine scientifique.

Histoire de la randomisation

Pourquoi aborder la randomisation dans un article sur la subjectivité ? Tout simplement parce qu’il s’agit d’une méthode statistique qui s’est montrée supérieure à une méthode scientifique traditionnelle. La randomisation n’est pas subjective, mais elle a peiné à s’imposer car elle était perçue comme trop simple et surtout comme empirique.

Pour étudier l’effet d’un médicament, il est nécessaire d’obtenir deux populations de sujets comparables pour évaluer l’effet du produit testé. L’un des groupes reçoit le médicament à étudier et l’autre un médicament différent ou un placebo inactif et indiscernable. L’objectivité traditionnelle (telle que les scientifiques la conçoivent habituellement) veut que l’on répartisse équitablement dans chaque groupe les différents porteurs de déterminants significatifs : sexe, âge, maladies, ethnie, niveau social etc. C’est ce qui était fait dans les études rétrospectives, considérées comme peu fiables car la comparaison a posteriori de patients déjà traités avec des patients témoins ou prenant d’autres médicaments pouvait subir de nombreuses influences et donc biaiser significativement le résultat de l’analyse.

L’étalon-or en terme de qualité scientifique est l’essai prospectif randomisé : ce type d’étude s’intéresse à l’évolution de deux groupes de patients, préalablement constitués (contrairement aux essais rétrospectifs) et recevant deux traitements différents assignés par tirage au sort. La loi des grands nombres est mise à contribution car elle démontre que lorsque l’effectif est suffisant, une répartition aléatoire des sujets dans les deux groupes assure une homogénéité correcte des déterminants au sein des groupes. Il sera alors possible d’attribuer la différence d’effet observée aux traitements [9].

Cette objectivité liée au hasard et fondée sur une loi mathématique constitue peut-être l’un des rares outils vraiment objectif utilisé dans le domaine des sciences humaines. Or si elle nous paraît évidente actuellement, elle est en fait très récente. Introduite par Sir Ronald A Fischerdans les années 20 [10] et appliquée initialement à l’agriculture, elle a d’abord rencontré une vive opposition car sa simplicité apparente et son image subjective heurtaient les collègues de Fischer. C’est l’évidence de son efficacité qui l’a imposée comme nouveau standard dans les années 50. Comme souvent, c’est grâce à une double compétence (ici biologique et mathématique) que Fischer parvint à cette solution aussi simple que révolutionnaire à son époque pour créer deux groupes comparables.

La loi des grands nombres et les outils statistiques permettent donc dans une certaine mesure de traiter des données subjectives pour en tirer des résultats objectifs. Mais en conclure que l’avis dominant pourrait être synonyme de qualité serait bien sûr une erreur. Il suffit qu’un biais touche toutes les évaluations pour que l’on observe la multiplication d’une erreur identique, plutôt que la correction d’erreurs différentes et aléatoires par la loi des grands nombres.

Nous en avons une très belle illustration avec cet extrait d’un jeu télévisé :

Dans cet exemple, les membres du public commettent majoritairement l’erreur de faire confiance à leur observation qui donne l’impression que le soleil tourne autour de la terre. La taille de l’échantillon n’est pas en cause : un public dix fois plus nombreux donnerait sans doute le même pourcentage de mauvaises réponses. Au passage, notons que ce sondage n’est pas transposable à la population française, mais à la sous-population d’individus prêts à venir assister à ce type d’émission ; cette dernière restriction s’applique aussi aux essais cliniques contrôlés : le résultat de l’essai clinique contrôlé est transposable aux patients proches de ceux étudiés, traités par des médecins proches de ceux ayant mené l’essai.

Hors quelques cas particuliers, la loi des grands nombres ne saurait donc suffire à elle seule à transformer des données subjectives en faits décrivant la réalité.

Tout au long de cette argumentation, nous utiliserons un exemple concret pour illustrer notre propos : la lutte contre le spam.

Le spam, cette masse de courriers publicitaires indésirables qui envahissent nos boîtes aux lettres électroniques, a constitué dans les années 2000-2005 une perversion majeure de la communication par internet. Nous allons voir comment ce problème a été résolu par l’utilisation conjointe de la loi des grands nombres, l’intérêt à agir et la pondération récursive qui constituent le trépied de la pairjectivité. Commençons par la loi des grands nombres pour conclure ce chapitre.

L’email (courriel) permet une communication simple et instantanée avec de nombreux correspondants, fédère les minorités et rapproche les familles ou les équipes de recherche dispersées. Des escrocs opportunistes flairent rapidement la possibilité de détourner ce merveilleux outil en un outil de promotion massive et quasiment gratuite. Certes, ce ne fut pas inintéressant sur le plan sociologique, et nous avons pu apprendre avant l’heure que les nord-américains étaient très préoccupés par leurs prêts hypothécaires, mais avaient aussi de fréquents problèmes d’érection et des difficultés à se procurer des photos d’adolescentes nues.

C’est d’ailleurs le caractère très stéréotypé du thème de ces courriels publicitaires qui permet l’apparition des premiers "filtres antispams", suivant une approche objective traditionnelle combinée à une étude statistique. Les messages sont analysés par ces programmes pour y chercher les "mots du spam" les plus fréquents afin de supprimer ces courriels avant même qu’ils n’arrivent dans votre boîte aux lettres. Hélas, les escrocs trouvent la parade en commettant des fautes d’orthographe volontaires ou en postant des images dont le contenu écrit, lisible par l’oeil, ne peut l’être par la machine "trieuse". Dans le même temps, ces antispams primitifs et peu spécifiques détruisent injustement le courrier de vos amis ou collègues. L’analyse objective traditionnelle et statistique de "l’objet courrier" pour détecter le spam, suivant des règles préétablies et rationnelles, était donc mise en échec par les faussaires. Nous retrouvons là le mécanisme d’échec de la norme : comme celle-ci est connue et qu’elle ne porte que sur la qualité interne, intrinsèque, de l’objet étudié [11], elle favorise les faussaires et les opportunistes qui sortent toujours gagnants de ce combat où ils excellent, de ce concours dont le sujet est connu à l’avance. Les perdants sont des éléments de qualité (votre courrier non publicitaire en l’occurrence) qui échouent au "passage" de la norme parce qu’ils n’ont pas été conçus dans cet objectif ; leur grande variété naturelle conduit à un pourcentage faible mais significatif assimilé à tort à du spam par un tri statistique portant sur leur contenu. Cet élément fondamental se retrouve dans de nombreux autres domaines. Si une norme s’applique à des actions un tant soit peu complexes et variées, elle aboutit inexorablement à sélectionner l’aptitude à passer la norme et non la qualité de l’action elle-même. De plus en imposant une diminution de la diversité, elle met hors-jeu certaines actions dont la qualité est pourtant exceptionnelle, "hors-norme" [12]. En pratique, la loi des grands nombres n’a pas permis à elle seule de lutter efficacement contre le spam. Nous allons voir que d’autres éléments doivent la compléter pour permettre d’évaluer la qualité des courriers électroniques.

L’intérêt à agir

Nos actions sont le plus souvent dictées par un intérêt, personnel ou altruiste, financier ou intellectuel, ou encore affectif. Leur subjectivité se trouve donc orientée dans un sens qui peut être éloigné de la qualité (jalousie, corruption, corporatisme, honte...) ou s’en rapprocher (concours [13], crainte des conséquences d’un mauvais choix, nécessité d’aboutir à un accord équitable...) [14].

Nous sommes plus attentifs lorsque nous travaillons pour nous que lorsque nous le faisons pour un tiers ou pour la collectivité. Les dégradations subies par les biens communs le démontrent tous les jours.

Dans l’expérience de Galton, le public évaluant le poids du boeuf ne subit pas de biais faussant sa mesure. Chacun cherche à faire la meilleure évaluation. Le seul biais pourrait provenir d’un boeuf beaucoup plus lourd ou léger qu’il n’y paraît ; toutes les estimations seraient alors, comme leur moyenne finale, biaisées dans un sens ou dans l’autre. En l’absence de biais, la moyenne des mesures tend vers la réalité : le véritable poids du boeuf.

Dans le jeu télévisé, chacun cherche aussi à donner la bonne réponse, mais avec un biais majeur qui correspond à son observation faussée, laissant penser que c’est le soleil qui tourne autour de la terre. Le public ne cherche pas à tromper le candidat, il n’a néamoins aucun intérêt personnel à donner la bonne réponse, intérêt qui aurait pu le conduire à mieux fouiller dans ses souvenirs scolaires.

Quand l’intérêt trahit la réalité

Les sondages politiques illustrent l’impact négatif de l’intérêt personnel dans des résultats statistiques présentés comme objectifs. En s’appuyant sur la loi des grands nombres, ces sondages prédisent souvent les résultats finaux avec une étonnante précision, mais il existe des exceptions. Lors du premier tour de l’élection présidentielle française de 2002 aucune des grandes sociétés de sondage ne prédit l’arrivée de Jean-Marie Le Pen devant Lionel Jospin, 4 jours avant l’élection. L’origine de cette erreur est connue : elle consiste en laréticence des sondés à assumer un choix non consensuel. Les sociétés de sondage avaient pourtant effectué descorrections pour tenir compte de ce biais constaté lors d’élections précédentes, corrections qui se sont révélées insuffisantes pour cette élection en particulier.

De façon générale, les intérêts à agir créent ce que l’on appelle des conflits d’intérêts, qui sont une des plaies de notre système de santé.

Avoir plusieurs conflits d’intérêts ne les annule pas. Il est fréquent d’entendre dire que la pluralité des conflits d’intérêt chez un même individu (médecin prescripteur, expert) en annulerait les conséquences. Malheureusement il n’en est rien : ces conflits s’additionnent car ils ne sont pas antinomiques, l’individu favorisera, consciemment, ou non les produits ou concepts auxquels il est lié, et sera plus critique (ou seulement muet) au sujet des autres. Une annulation des conflits par un effet miroir voudrait que l’individu présente un lien (financier ou intellectuel) identique avec la totalité des acteurs de son domaine, ce qui n’est envisageable que s’il est salarié d’une structure financée collectivement par tous les acteurs [15].

Quand l’intérêt va dans le sens de la qualité/réalité

L’intérêt personnel n’aboutit pas obligatoirement à un conflit et à un biais. Il peut au contraire permettre qu’une subjectivité tende vers la réalité.

Intéressons-nous aux paris, qui font pendant aux sondages. Lorsque des individus parient sur une situation dans l’espoir d’un gain si leur choix se réalise, leur expertise ne subit aucun conflit [16] car leur intérêt est de ne pas se tromper (ce qui n’est pas le cas dans un sondage). La cote des options est souvent le meilleur outil de prédiction de celle qui l’emportera au final. Tout récemment, la victoire de Barak Obama aux primaires démocrates a été prédite par les bookmakers bien avant les instituts de sondage ou les experts politiques [17]. La moyenne des paris peut donc constituer une sorte de subjectivité optimisée par le nombre des parieurs et leur intérêt à ne pas se tromper [18].

Si vous voulez optimiser vos investissements, il est intéressant de savoir quelles sont les actions que les analystes financiers ont achetées pour leur propre patrimoine. Cette information pourrait être plus pertinente que leurs recommandations publiques [19].

Si vous voulez savoir quel est le meilleur traitement de l’hypertension artérielle, il est intéressant de savoir ce qu’utilisent les médecins pour leur propre hypertension. Cette information pourrait être plus pertinente que les recommandations publiques [20].

Un exemple issu d’une des périodes les plus noires de notre Histoire illustre peut être mieux la force de la subjectivité lorsqu’elle tend vers un l’intérêt de l’acteur (et un équilibre entre intérêts divergents). Primo Levi raconte [21] comment un morceau de pain était partagé dans les camps de la mort ; les déportés avaient trouvé le procédé subjectif le plus efficace pour couper équitablement leur maigre ration : l’un coupait et l’autre choisissait sa moitié le premier, incitant ainsi son compagnon à une découpe la plus égale possible.

Citons l’évaluation du cours des actions en bourse. Une approche objective pourrait consister à mesurer la valeur des actifs de la société, ainsi que ses perspectives d’avenir. Les achat et ventes s’effectueraient alors au prix fixé par des experts. La méthode qui a été retenue [22] est au contraire subjective : le prix d’une action correspond au prix le plus bas auquel un possesseur est prêt à vendre son action, s’il correspond au prix qu’au moins un acheteur est prêt à payer. Nous avons des raisons de penser que ce prix est juste. Dans notre économie de marché, le prix de nombreux services est fixé par le marché de l’offre et de la demande, qui n’est pas le plus mauvais système. Si cela vous paraît une évidence, interrogez vous sur votre réaction si l’on décidait d’appliquer ce principe au prix des prestations médicales [23].

Reprenons notre exemple du spam là où nous l’avons laissé. L’analyse objective des courriers électroniques, fondée sur leur contenu et utilisant des méthodes statistiques, n’avait pas permis de séparer le spam des courriels de vos correspondants. Nous sommes au milieu des années 2000 et la situation est préoccupante car elle rend pénible la communication par email.

Après ce premier échec, certains ont l’idée de créer des systèmes intelligents qui améliorent leur aptitude à trier le spam du non-spam après un apprentissage. Cette approche statistique élaborée consiste à indiquer au logiciel quelques centaines de messages considérés comme du spam (et autant de non-spam) afin qu’il détecte des éléments communs dans ces courriers (contenu, format, émetteur, syntaxe). Le résultat, un peu meilleur, reste néanmoins insuffisamment fiable et définir un spam avec précision à partir de son contenu est toujours aussi difficile. L’introduction d’intelligence artificielle dans l’évaluation de la qualité intrinsèque du courrier ne suffit pas à la rendre pertinente.

La solution, relativement récente, émane d’une approche totalement subjective. Cette méthode associe un intérêt commun et majoritaire : supprimer le spam, et la mutualisation d’actions convergentes grâce au réseau internet et à des agents permettant un traitement statistique de l’information.

Elle est d’une simplicité biblique et repose sur un élément statistique combiné à l’intérêt personnel d’agir pour la qualité : un spam est un courrier que de nombreux internautes considèrent comme un spam et que peu d’autres considèrent comme un courrier normal. Cette régle peut s’appliquer car le spam présente une caractéristique qui le perd : il est multiplié à l’identique et toutes les "victimes" reçoivent le même message [24]. Il se trouve que cette subjectivité mutualisée que nous appelons pairjectivité (en référence aupair à pair et au peer rewieving [25]) a permis à la fois de définir avec une grande précision un objet, et de résoudre un problème qui résistait à une approche objective traditionnelle. Chaque fois qu’un internaute lisant son courrier à l’aide d’un service web [26] qualifie un courrier reçu comme un spam, ce courrier est identifié et entré dans une base de données commune à tous les utilisateurs. Dès que quelques dizaines d’internautes classent ce courrier comme du spam, il est automatiquement évincé de la boîte de réception des millions d’autres abonnés. Ces derniers reçoivent tout de même ces spams, mais ils sont déjà rangés dans une sorte de dossier/poubelle provisoire. En cas d’erreur de tri, les internautes peuvent inspecter ce dossier et requalifier le courrier en non-spam, modifiant les données générales communes concernant ce courriel.

Le spam est vaincu par une méthode subjective s’appuyant sur la loi des grands nombres et une action intéressée de l’internaute guidée par la seule recherche de la qualité de son action :
- Un spam est adressé à de très nombreux destinataires, permettant à ceux-ci de mutualiser leur analyse sur un objet unique et de faire jouer la loi des grands nombres.
- Il est dans l’intérêt de l’internaute de trier correctement son courrier.

Plus accessoirement, il est bien sûr important que l’internaute soit capable de déterminer en lisant un courrier si celui-ci est un spam ou un courrier normal [27]. Nous sommes là dans une situation idéale où chaque acteur est un quasi expert, et aussi un pair : c’est-à-dire un utilisateur de courrier électronique et non un quelconque quidam.

Cette technique antispam est une sorte de peer-review du courrier électronique, réalisée par des millions de pairs dénués de conflits d’intérêt avec leur mission, bien au contraire. C’est pourquoi nous parlons de pairjectivité pour ces succès résultant de la fédération de subjectivités.

Si nous analysons les raisons du succès de l’antispam pairjectif, nous recensons :
- Un problème commun à des millions de personnes : le spam.
- Un acte réalisé par un individu qui peut intéresser presque tous les autres : classer un courrier comme spam.
- Un outil qui agrège tous ces actes et en fait une synthèse en temps réel : un site de lecture de mails en ligne (webmail).
- Une mise en minorité de ceux qui cherchent à pervertir le système : les escrocs spammeurs.
- Un bénéfice en retour pour tous ceux qui sont connectés à ce réseau : utiliser les choix des autres pour pré-trier son propre courrier.
- Une validation permanente pour éviter les dérives : chacun peut requalifier dans son propre courrier un spam en non-spam et cette requalification est prise en compte par le système antispam.
- Une prise en compte de la qualité externe ou extrinsèque remplaçant les critères de qualité interne : le contenu du message n’a plus d’importance pour le qualifier.

Il reste certes les spammeurs, mais ceux-ci n’ont aucune chance de pouvoir manipuler l’outil car ils sont trop peu nombreux par rapport à la masse des internautes honnêtes et désireux de trier correctement leur courrier.

Notez qu’après l’exemple de la qualification de l’information par Google détaillée dans le deuxième article, la mise en réseau de microexpertises est encore dans cet exemple un élément fondamental du succès de la pairjectivité.

En pratique, lorsque des parties ont un intérêt personnel ou commun à faire un choix allant vers la qualité, certaines méthodes subjectives peuvent apporter une aide précieuse pour évaluer un objet ou un service.

Deux éléments supplémentaires et souvent liés vont néanmoins permettre d’améliorer encore l’efficacité du couple grands nombres - intérêt à agir vers la qualité.

La pondération et la validation récursive

Les opinions subjectives sont-elles toutes d’égale valeur ? Non, bien sûr. Pour optimiser la pairjectivité, nous devons attribuer un poids différent aux opinions, qui tienne compte de celui qui les émets.

Fréquentant une liste de discussion de gynécologues, nous constatons que, comme sur toutes les listes professionnelles, il s’y échange de nombreux avis et points de vue médicaux. Cette liste est très ancienne, ses membres se connaissent bien et constituent une communauté virtuelle.

Nous avons réalisé en 2007 un sondage sur cette liste : A qui (quoi) faites-vous le plus confiance pour la réponse à une question que vous vous posez :
- Un orateur dans un congrès
- Une recommandation de la Haute Autorité de Santé (HAS) reposant sur le travail d’un collège d’experts
- L’avis majoritaire de vos confrères sur la liste ? Merci de donner une note sur 10 à chacun de ces trois canaux d’information.

Le résultat [28] est le suivant :
- orateur 5/10
- HAS 6,2/10
- Avis majoritaire des confrères de la liste 7,6/10

Ce qui est frappant, c’est que les sondés ayant bien noté la troisième option ont tenu à préciser qu’il ne s’agissait pas pour eux de l’avis majoritaire, mais d’un avis global pondéré par la personnalité des émetteurs de conseils.

Cette pondération, consciente ou non, correspond à notre comportement quotidien. Nous recevons en permanence une masse d’informations subjectives concernant tous les aspects de notre vie (achats, précautions, santé, assurances, éducation de nos enfants, comportement...). Nous n’accordons pas le même poids à toutes ces informations et les confrontons en permanence à l’image que nous avons de leurs émetteurs. Cette image est liée à des facteurs aussi variés que leur qualification, la justesse d’autres conseils donnés précédemment, les recommandations dont bénéficie cet émetteur au sein de notre réseau de contacts.

La notion de confiance qui sous-tend notre évaluation qualitative est finalement fondée :
- Sur le nombre (des avis concordants) ;
- L’intérêt à agir pour notre bien (le visiteur médical est-il crédible lorsqu’il nous parle de son médicament ?) ;
- La pondération directe (ce médecin doit savoir ce qu’il dit) ou maillée (ce chirurgien m’a été recommandé par mon généraliste et par mon kinésithérapeute).

Ce fonctionnement pairjectif qui nous paraît naturel est bien éloigné de la mesure officielle de la qualité telle qu’elle fonctionne dans le monde de la santé.

Pairjectivité : choisir un chirurgien recommandé par des amis, ses médecins et son kinésithérapeute.

Qualité interne : obtenir un annuaire de chirurgiens, examiner leurs titres et qualifications, noter le score [29] et vérifier l’accréditation de la clinique où il opère, vérifier le nombre de plaintes dont il a été l’objet [30].

Nous avons vu dans le deuxième article que la première application à grande échelle de la pairjectivité est l’algorithme de recherche du moteur de recherche Google et notamment le système de pondération PageRank. Cet algorithme est récursif, c’est-à-dire que le poids de chaque recommandation est augmenté lorsque son émetteur est lui-même recommandé par d’autres émetteurs. Nous avons nous aussi un fonctionnement récursif et accordons plus de confiance à ceux qui sont recommandés par d’autres membres de notre réseau relationnel.

Lors des sondages d’intention de vote, les sociétés appliquent aux prévisions un facteur de correction déduit des élections précédentes, tenant compte des principaux biais connus. Notamment, ils savent que les intentions de vote pour le Front National sont souvent sous-déclarées. Il s’agit bien d’une correction récursive, permise par la comparaison pour chaque élection de la réalité (le résultat de l’élection) avec leurs prévisions fondées sur des moyennes d’avis subjectifs.

La récursivité et la revalidation régulière sont des éléments fondamentaux du succès de la pairjectivité.

Internet permet de multiplier par un facteur mille la taille du réseau pairjectif que nous utilisons intuitivement pour évaluer la qualité dans notre vie quotidienne.

Reprenons une dernière fois notre fil rouge, l’exemple de notre lutte contre le spam. L’outil pairjectif a réussi à nous débarrasser du spam en se désintéressant de son contenu (qualité interne) pour se concentrer sur un classement réalisé par des milliers d’utilisateurs (qualité externe). Il reste une possibilité pour affiner le service et le rendre encore plus performant : tenir compte de la qualité des utilisateurs. Celui qui se trompe souvent et classe comme spam un message requalifié en courrier normal par les autres utilisateurs verra sa "réputation" décotée. Au contraire, l’utilisateur qui classe de nombreux spams à bon escient sera plus crédible et surpondéré par le logiciel antispam. Il est même possible d’envisager un classement flou : certains courriers d’annonces commerciales sont qualifiés comme spams pour certains utilisateurs, mais pas pour d’autres. Le service devient alors complètement personnalisé et adapté à chacun. Le spam permet très facilement de confronter le classement subjectif à la réalité : face à la présélection réalisée par l’algorithme, l’utilisateur requalifie en permanence ce choix en examinant son courrier et sa poubelle à spam. Là encore, aucune dérive n’est donc possible du fait de cette revalidation permanente.

Bien sûr, le soin et la santé sont bien plus compliqués que le spam ou les sondages d’opinion. Il vous est facile de déterminer si un de vos courriers est un spam ; en revanche, une grande part de la médecine étant préventive, il est bien plus difficile de se fier au résultat immédiat du soin ou d’un régime alimentaire par exemple. Le risque est de se laisser influencer par la qualité externe ressentie à court terme alors qu’elle pourrait être associée à une qualité externe réelle déplorable [31].

C’est pour échapper à cette appréciation erronée fondée sur le court terme que notre système de santé privilégie la mesure de la qualité interne. Mais notre erreur a été d’abandonner totalement la qualité externe et d’ériger la qualité interne en dogme, appliquant à l’humain une approche industrielle obsolète singeant l’économie collectiviste. La gestion de la santé en France est très proche de la gestion soviétique planifiée :
- Définition des besoins et de la qualité par des experts plus ou moins indépendants [
32].
- Production uniformisée, laissant peu de place aux variantes nées de besoins particuliers [33].
- Contrôles tatillons, envahissants et paralysants [34].
- Convocation des agents hors-norme pour les remettre dans le "droit chemin" [35].
- Inflation de l’administration du service, au détriment de ses acteurs [36].
- Produits et services dépassés, évoluant peu [37].
- Valorisation des procédures (qualité interne) et des produits "bien conçus" à défaut d’être utiles [38].
- Déconnexion du client et de ses besoins (qualité externe) [39].
- Files d’attente, délais [40].
- Produits ou services chroniquement indisponibles ou mal répartis [41].
- Démotivation des agents les plus brillants [42].
- Institutionnalisation de la corruption [43].
- Apparition d’une économie parallèle inaccessible aux plus démunis [44].
- Grands chantiers à la gloire du Secrétaire général Président [45].

Faudra-t-il une "Santestroïka" pour s’évader du cul-de-sac objectivité/qualité interne qui étouffe la santé ?

La pairjectivité sera-t-elle l’outil qui permettra d’explorer de nouveaux domaines féconds et porteurs de progrès ?

Pour connecter la pairjectivité avec d’autres éléments concrets, nous allons étudier dans le cinquième article un système pairjectif qui a fait ses preuves depuis 500 millions d’années.

Vers l’article suivant du dossier

Vous pouvez réagir à cet article sur le Forum

Notes

[1] La définition exacte de la subjectivité est complexe et ses limites sont floues.

[2] Respectivement peer review et peer to peer, et peerjectivity en anglais.

[3] Cet "intérêt à agir" est différent du concept juridique.

[4] Voir le troisième article qui concerne l’objectivité.

[5] Il fut aussi et malheureusement le père de l’eugénisme et du darwinisme social, dévoiement de la théorie de l’évolution, destiné à justifier le colonialisme puis plus tard l’eugénisme nazi.

[6] Comparaison de deux médicaments, ou d’un médicaments par rapport à un placebo, à l’aide de deux groupes de patients semblables traités différemment. La différence de résultat observée entre les deux groupes reflète la différence d’effet des traitements si le protocole élimine correctement les causes de biais.

[7] Intervalle dans lequel le résultat a une forte probabilité de se trouver. Lorsqu’on lit que X sera élu avec 54 à 56% des voix avec un intervalle de confiance de 95%, cela signifie qu’il n’y a que 5% de chance pour que X recueille moins de 54 ou plus de 56% des voix.

[8] Quoique... Nous avons vu dans l’article précédent que la fraude ou le biais de confirmation d’hypothèse sont omniprésents en science.

[9] D’autres conditions sont nécessaires pour évaluer le plus objectivement possible un médicament lors d’un essai clinique mais sortent du cadre de cet article.

[10] Extrait malheureusement incomplet mais émouvant disponible sur GoogleBooks.

[11] Notion développée dans l’article introductif.

[12] Certains y voient une nouvelle forme de barbarie.

[13] Notez que de nombreux concours sont uniquement destinés à inciter le candidat à documenter soigneusement ses coordonnées sur le bon de participation. Ces données seront utilisées pour des opérations de marketing. En faisant miroiter un des lots, l’opérateur s’assure des milliers de fiches de contact qui auraient été bâclées ou jetées en l’absence de concours.

[14] Adam Smith a popularisé au XVIIIe siècle la notion de main invisible qui est un des fondements du libéralisme. Cette main invisible souffre d’un optimisme exagéré comme l’avenir l’a démontré : une grande partie de nos actes spontanés aboutissent à affaiblir le groupe à notre avantage. Le libéralisme sans limite aboutit aux deux cents familles et à une paupérisation massive de la population.

[15] Ce fonctionnement est celui du service public. Dans l’expertise sanitaire, de nombreux experts sont des fonctionnaires ou assimilés. Malheureusement, ils sont aussi impliqués intellectuellement ou financièrement à titre privé dans les projets sur lesquels ils donnent leur opinion. Si nous transposions ce principe, cela pourrait correspondre à un contrôleur du fisc qui serait par ailleurs consultant pour la société qu’il contrôle, ou pour sa concurrente.

[16] Aucun conflit, mais bien sûr de nombreux biais comme l’expression de toute opinion personnelle.

[17] Lire à ce sujet cet article des Echos.

[18] Il existe alors un biais d’échantillonnage : une population n’est pas constituée que de parieurs.

[19] Les conflits d’intérêts des analystes financiers constituent une situation très proche de celle rencontrée en médecine.

[20] Cette information est contenue dans les bases de données de l’assurance maladie française. A ma connaissance, elle n’a jamais été traitée ni publiée.

[21] Dans Si c’est un homme

[22] Méthode retenue dans le cadre de l’économie de marché. Le modèle soviétique par exemple était différent et s’apparentait plus au fonctionnement actuel de notre système de santé(cfs infra).

[23] En dehors de la chirurgie esthétique, qui l’applique déjà.

[24] Les spammeurs ont bien tenté de créer des messages au contenu variable, mais il existe au moins une partie commune : le lien vers le service dont le spam fait la promotion.

[25] En français : Comité de lecture. En France, un comité de lecture est parfois un filtre permettant de s’assurer de la qualité d’une publication (appréciation éminament subjective) et trop souvent un aéropage de noms permettant de donner de la crédibilité à une information fausse ou sans intérêt.

[26] Le système fonctionne au mieux avec les internautes qui lisent leur courrier en ligne sur un site web comme Yahoo ou Gmail, et non avec un programme de leur ordinateur (Outlook). En effet, c’est l’action en ligne de l’utilisateur qui permet au service une réactivité ultrarapide, alors qu’un courrier préalablement téléchargé perd ses interactions avec le serveur.

[27] Le taux de bon classement n’est pas de 100%. Nous retrouvons le concept de qualité/pertinence de Google, évoqué dans le deuxième article : un spam n’est pas un spam pour tout le monde, et un courrier valide ne l’est pas non plus pour tout le monde. D’où la nécessité d’un service qui s’affine en fonction de l’utilisateur, comme nous le verrons au paragraphe suivant, et qui est à l’opposé d’un nivellement qui fait si peur à ceux qui connaissent mal le Web 2.0.

[28] Une dizaine de réponses seulement, mais très homogènes. Ce sondage sera répété sur d’autres listes.

[29] Score établi par des magazines à partir de données objectives sur la formation du personnel, la consommation de désinfectants ou le nombre d’infections nosocomiales.

[30] Données non disponibles en France.

[31] Un exemple caricatural : traiter un asthme sur le long terme avec de la cortisone en comprimé donne un résultat brillant, mais des effets à long terme dramatiques. Au contraire, un dérivé de cortisone par spray agira moins vite et moins brillamment, mais ses effets indésirables à long terme sont minimes. Plus banalement : certains traitements pour l’excès de cholestérol vont permettre de faire baisser votre taux sanguin et donc normaliser vos analyses ; mais un effet délétère sur un autre équilibre, non mesurable, va augmenter votre risque d’infarctus, qui est en fait la seule chose importante.

[32] En France, les conseillers des ministres et les experts des agences gouvernementales peuvent sans difficulté ni honte être rémunérés comme consultants par les firmes pharmaceutiques.

[33] L’assurance maladie française veille à ce que les prescription des médecins ne s’éloignent pas des recommandations de la Haute Autorité de Santé.

[34] L’assurance maladie renforce ses contrôles sur les prescripteurs pour vérifier les respect des normes édictées par les autorités sanitaires.

[35] Forte pression sur les médecins, convocations et menaces de poursuite en cas de prescription hors "cadre".

[36] Les effectifs administratifs à l’hôpital ont dépassé ceux des soignants.

[37] Le progrès thérapeutique est en panne depuis 20 ans, à l’exception de la chirurgie, peu encadrée.

[38] L’autosatisfaction, caractéristique de l’économie collectiviste, est une constante dans le monde des institutions sanitaires.

[39] Le "client" est d’ailleurs le plus souvent un usager et/ou un patient. N’étant pas client au sens commercial et contractuel du terme, l’usager/patient n’a pas voix au chapitre.

[40] Retards fréquents, demande supérieure à l’offre dans certaines spécialités.

[41] Délais de rendez-vous pouvant atteindre un an dans certaines spécialités.

[42] Phénomène surtout visible à l’hôpital où le carcan administratif est le plus étouffant.

[43] Voir la loi anti-cadeaux et la lettre-pétition contre la corruption, restée sans réponse à ce jour.

[44] Les médecins spécialistes sont majoritairement en "secteur II" et pratiquent des dépassements d’honoraires qui les rendent inaccessibles aux revenus modestes.

[45] Cancer, Alzheimer...

http://www.atoute.org/n/Qualite-et-sante-4-La.html

Qualité et santé : 5) La Vie est pairjective, elle ne connaît ni norme ni expert à vie

Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : longtemps centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur une subjectivité partagée et pondérée.
- Le premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
- Le deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
- Dans le troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, trouve aujourd’hui ses limites et doit laisser coexister d’autres approches.
- La pairjectivité, thème central de ce dossier, est détaillée dans le quatrième article.
- Ce cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.

Dans l’article précédent, nous avons présenté la pairjectivité, connexion pondérée de multiples subjectivités orientées vers la qualité. Notre expérience montre que malgré des réussites concrètes (la lutte contre le spam, le fonctionnement des moteurs de recherche, nos comportements sociaux) nombreux sont ceux qui rejettent cette approche jugée empirique, au mieux approximative et donc par principe sans valeur. Il se trouve que la Vie, en tant que système qui a donné naissance aux espèces terrestres, n’a pas retenu l’approche objective dans laquelle la santé s’enlise en voulant copier la méthodologie des sciences fondamentales. Au contraire, elle a sélectionné une approche parfaitement pairjective.

Idées-Forces

- La vie progresse sans se soucier de qualité interne.
- L’ADN ne contient pas le plan détaillé des organismes vivants.
- La Vie valorise le progrès sans chercher à le programmer.
- La Vie entretient une savante diversité, garante de sa propre survie.

"The best thing that governments can do to encourage innovation is get out of the way [1]."
R.E. Anderson

Que ce soit dans l’organisation sociale des bactéries et leurs extraordinaires capacités adaptatives, dans le fonctionnement de notre système immunitaire ou de notre cerveau, le moteur de la réussite et du progrès est toujours le même. Les procédures objectives de mesure de la qualité interne n’y tiennent quasiment aucune place.

Certains pensent que notre ADN contient le programme qui régit notre fonctionnement et le décrit dans ses détails. Tel le plan d’une parfaite organisation ou d’une usine, il contiendrait la liste des meilleures stratégies, après des années de sélection naturelle ayant permis de l’affiner, d’en éliminer les imperfections et de l’adapter à notre milieu. Seuls notre caractère ou notre éducation seraient influencés par notre environnement et notre parcours personnel.

D’ailleurs, un des principaux modèles humains de l’amélioration de la qualité paraît s’inspirer de cette illusion. Il teste des procédures et les améliore sans cesse :

PNG - 50.9 ko
Roue de Deming illustrant la méthode PDCA

Cette roue représente graphiquement le concept qualité PDCA qui décrit les quatre étapes successives de la démarche d’amélioration de la qualité :
- Identifier un problème puis programmer, préparer une méthode pour le résoudre.
- Faire, agir suivant le plan que l’on vient de préparer à l’étape précédente (to do en anglais)
- Vérifier, valider l’effet de la solution mise en oeuvre (to check en anglais)
- Intégrer la solution (to act en anglais) si elle a été validée par l’étape précédente. Repartir pour un tour de roue pour progresser encore ou pour réétudier une solution non validée. Le système qualité est le cliquet qui empêche le retour en arrière.

En pratique la méthode qualité PDCA est très répandue. Elle y est considérée comme un modèle d’approche objective et scientifique pour résoudre les problèmes. Elle est utilisée en entreprise, dans les administrations, les hôpitaux et pour l’évaluation des pratiques professionnelle des soignants.

L’ADN ne contient pas le plan de notre organisme

La Vie n’a pas sélectionné la méthode PDCA. La sienne est à la fois plus simple dans son principe et plus complexe dans sa mise en oeuvre.

Notre génome ne comporte pas plus de 100000 gènes c’est-à-dire quasiment rien quand on sait que le programme qui a permis d’écrire ce texte contient des centaines milliers de lignes de code.

Le principe qualitatif qui permet à la Vie de progresser s’articule sur 5 étapes proches de la pairjectivité [2] :
- Favoriser la multiplication d’agents présentant des points communs : cellules, bactéries, immunoglobulines, espèce, tribu.
- Favoriser une grande diversité au sein de ces groupes, sur un mode aléatoire : recombinaisons et mutations de l’ADN, protéines aléatoires ; variété des comportements et des caractères dans les espèces supérieures.
- Identifier les agents qui semblent résoudre des problèmes : c’est-à-dire ceux qui améliorent leur propre condition ou qui améliorent la capacité du groupe à progresser.
- Privilégier ces agents efficaces : améliorer leurs ressources, augmenter leur nombre en gardant un peu de diversité. Cette diversité conservée permet d’affiner la résolution du problème par un cycle supplémentaire (le plus souvent en augmentant leur descendance et en incitant les membres de leur groupe à les soutenir).
- Diminuer les ressources des agents qui échouent de façon répétée ou les inciter à l’autodestruction afin de pouvoir mobiliser les ressources libérées au profit des agents qui réussissent (apoptose cellulaire, maladie, exclusion du groupe, dépression, accès restreint à la nourriture commune, baisse de libido, refus de l’accouplement par les autres membres du groupe).

Par le mot agent, il faut comprendre individu ou surtout groupe d’individus : tribu, colonie, essaim, meute, horde, espèce...

Comme le rappelle Bloom, la compétition darwinienne concerne au moins autant les groupes que les individus. Cet aspect souvent oublié de la théorie de l’évolution permet de comprendre que des sentiments comme la compassion, la solidarité ou la générosité aient pu se développer au sein des espèces sociales : ces comportements sont utiles pour le groupe. Le darwinisme n’est pas synonyme d’une compétition sans merci entre individus, c’est le plus souvent une compétition entre groupes.

La Vie est à la fois bienveillante avec l’initiative et peu indulgente pour l’échec, sauf si ce dernier fait partie d’un processus d’apprentissage nécessaire. Elle est l’arbitre d’une compétition profondément juste : pas de conflits d’intérêts, de despotes, d’experts à vie, de normes. C’est un combat stimulant qui permet à chaque agent seul ou regroupé en équipe de développer ses propres stratégies et de les tester. La Vie se contente d’être un arbitre impartial, de multiplier les gagnants, et de raréfier les perdants, sans jamais les faire disparaître : elle sait que le perdant d’un jour pourra être le gagnant de demain. Elle entretient donc une savante diversité, tout en privilégiant les agents les plus performants à un moment donné, agents dont la position priviligiée est remise en cause en permanence, par exemple à chaque cycle reproductif.

La Vie entretient des hiérarchies dans les groupes sociaux, hiérarchies qui peuvent être très élaborées. Mais ces hiérarchies sont labiles, remises en cause en permanence. Il n’y a pas d’académie, de "haut comité", de situation définitivement acquise. La hiérarchie n’existe que parce que le groupe la valide en permanence et les positions dominantes ne sont pas transmissibles. L’existence de ces hiérarchies, nécessaires au fonctionnement social, explique aussi pourquoi la Vie ne favorise pas la création exclusive d’élites. C’est par un savant dosage de nos aptitudes (et inaptitudes) que nos groupes ou nations fonctionnent.

En revanche, contrairement à la méthode PDCA, la Vie ne planifie pas, ne prépare presque rien : elle laisse l’initiative à ses agents. Cette souplesse lui permet de gérer un nombre infini de problèmes simultanément. Notre ADN ne contient pas le plan de notre intelligence mais les outils qui vont lui permettre de se développer. Pour la Vie, il est inutile d’identifier les problèmes à résoudre : les agents s’en chargent et tentent des solutions en temps réel. Elle ne connaît ni norme, ni recommandation, ni procédure : elle se contente d’amplifier le succès et d’entretenir avec soin la diversité.

La méthode PDCA est lente et n’analyse qu’un problème à la fois

La méthode PDCA qui analyse objectivement UN problème, réunit des experts, rémunère des consultants, puis tente de construire une stratégie globale, est désormais obsolète. Il nous faut accepter l’idée qu’elle n’est efficace que pour résoudre des problèmes simples et ponctuels, plutôt mécaniques qu’humains. Elle est apparue à une période de développement scientifique intense, mais est incapable de résoudre les problèmes complexes qui concernent les sciences de l’Homme, et notamment la médecine. De plus, dans un monde aussi mouvant que le nôtre, sa lenteur la conduit à générer des solutions périmées avant même d’être finalisées. Face à 500 millions d’années d’évolution darwinienne, la méthode PDCA n’est même pas une étape, c’est un instant dans la quête de la qualité et la recherche du progrès qui anime tout ce qui vit.

Le fait que la Vie n’ait pas retenu la méthode PDCA devrait interpeller les sceptiques et les partisans de la qualité interne fondée sur l’évaluation des processus et non des résultats. La question qui se pose est de savoir pourquoi nous nous sommes enfermés si longtemps dans cette impasse. Sont-ce les errances du nauséabond darwinisme social [3] ? Est-ce la quête de l’objectivité, Graal de scientifiques grisés par les succès indéniables de la méthode expérimentale ? Est-ce la peur d’une remise en cause de situations personnelles ? Ou est-ce tout simplement le refus viscéral d’un retour à la qualité externe, validant les résultats et non la méthode ?

Nous en sommes arrivés, avec l’avènement de la qualité interne, au règne de la norme et du faire-savoir et à la fin de celui du savoir-faire, forgé par des centaines de millions d’années d’évolution.

Parallèlement, un nouveau système évolutif est en train d’émerger. Il ne constitue pas un retour en arrière mais une reconstruction. La transmission des idées complète la transmission des gènes, et obéit aussi à des lois darwiniennes ; la mémétique est désormais le moteur évolutif de l’espèce humaine : elle décrit une transmission des organisations et des compétences qui échappe désormais à l’ADN (génétique) et utilise les canaux de l’éducation et de la communication.

La Vie a fait son choix : l’empirisme non planifié qui valorise la réussite spontanée

La Vie a donc choisi l’empirisme et a renoncé à programmer le succès. La subjectivité y est la règle. Il serait très réducteur de penser que la sélection darwinienne fonctionne avec une règle objective unique et simple : "le meilleur individu survit et se reproduit". C’est le plus souvent le groupe qui est l’unité évolutive [4]. Son fonctionnement interne s’appuyant sur des hiérarchies complexes et la valorisation des éléments qui le font progresser constitue un modèle de pairjectivité.

Il est temps d’abandonner ces notions trompeuses de subjectivité et d’objectivité : une stratégie est efficace (elle résoud des problèmes ou permet le progrès) ou elle ne l’est pas. Son mode opératoire n’a qu’un intérêt anecdotique.

La méthode PDCA présente de graves défauts qui expliquent sans doute pourquoi elle n’a pas été retenue pour faire progresser la Vie :
- Elle implique d’avoir identifié un problème au préalable ; la prise en charge d’un problème imprévu provoque au mieux un délai important nécessaire pour sa caractérisation, au pire une panique.
- Elle est lente et incapable de s’adapter à un problème qui évolue rapidement et pour lequel les solutions planifiées sont obsolètes avant même leur mise en oeuvre.
- Elle repose sur des experts, qui peuvent se tromper, choisir de mauvaises solutions, subir des influences parasites, ignorer ou masquer le résultat d’une validation négative de leur plan, voire modifier ou interpréter les résultats des tests de validation pour corroborer leur stratégie et conforter leur position [5].
- Elle ne valorise pas les sujets qui trouvent spontanément et rapidement des solutions aux problèmes. Au contraire, elle parvient souvent à les décourager en leur imposant des procédures inadéquates qui ruinent la qualité de leur travail et leur productivité.

Francisco Varela, philosophe et spécialiste des sciences cognitives, fait une analyse intéressante [6] de l’échec de cette approche dans le domaine de la modélisation informatique de l’intelligence [7]. Il attribue cet échec à deux défauts rédhibitoires de la méthode PDCA :
- Elle est séquentielle, c’est-à-dire qu’elle résoud les problèmes les uns après les autres. Or dès que le système est compliqué et nécessite de nombreux enchaînements d’actions, le temps nécessaire à la résolution globale du problème devient excessif car il est impossible de prévoir tous les cas de figure.
- Elle est localisée : toute la réflexion est réunie au même endroit (réunion, service ministériel, direction d’entreprise) et donc peu propice à la diversité.

Lente et centralisée, la méthode PDCA n’est valable que pour améliorer des processus simples et stables dans le temps, et donc en pratique très peu de problèmes humains.

Cette critique de la méthode PDCA serait injuste si elle ne mentionnait pas un de ses aspects positifs. En l’absence de mesure de la qualité externe, conduire des agents à s’interroger sur leurs procédures et à les remettre en cause est un facteur de progrès. Nous avons eu l’occasion de mettre en oeuvre cette méthode avec un certain bénéfice lors de l’évaluation des pratiques professionnelles des médecins au début des années 2000.
Malheureusement, cette approche minimaliste mais utile est souvent dévoyée et cherche à pousser l’individu à s’approprier une norme présentée comme une procédure idéale.

La bonne approche en terme de qualité interne consisterait à pousser les agents dans une réflexion spontanée sur leur activité et à trouver eux-mêmes de bonnes procédures amenant au progrès, c’est-à-dire améliorant leur qualité externe. Cela supposerai que cette qualité externe soit enfin mesurée équitablement et valorisée, ce qui n’est pas le cas aujourd’hui.

Quelques exemples illustrent cet échec :
- Les réformes diverses et successives de l’enseignement ou de la santé : les énormes systèmes que constituent l’éducation nationale française, les hôpitaux ou la sécurité sociale sont bien trop complexes pour se prêter à une action réfléchie et planifiée. Ils ne peuvent évoluer que par une approche pairjective : identifier les succès, les valoriser, s’en servir de tête de pont pour propager d’autres succès, réduire ou supprimer ce qui ne marche pas.
- Le programme Sesame Vitale. Conçu par l’assurance maladie française pour remplacer la facture en papier (feuille de maladie), il consiste à envoyer par voie électronique une facture aux organismes de sécurité sociale. La réflexion préalable des organismes d’assurance a été plus lente que l’évolution technologique : à peine un projet était-il validé qu’il était technologiquement dépassé. La solution retenue a finalement été de créer l’équivalent d’un email à partir de l’ordinateur du professionnel et de l’envoyer au centre de paiement. Cette simplicité apparente (dont la seule conception a tout de même coûté près d’un milliard d’euros du fait de ses errements) a néanmoins été fortement complexifiée dans sa mise en oeuvre ; plus d’un tiers des médecins refusent de l’utiliser [8].
- La mauvaise santé de nombreuses grandes entreprises. La direction des entreprises géantes devient trop complexe. Les groupes employant des dizaines de milliers de salariés sont désormais ingérables avec la méthode PDCA, d’autant que le monde accélère ses mutations. Comme pour les deux exemples précédents, la lenteur des adaptations et la complexité des problèmes à résoudre condamne à la disparition les mastodontes au pouvoir centralisé.

Dilbert par Scott Adams - "Dis-le avec ton corps". Dargaud Ed Dilbert par Scott Adams - "Dis-le avec ton corps". Dargaud Editeurs

Plus que partout ailleurs, le faire-savoir a remplacé le savoir-faire dans l’entreprise. Le cadre baigne dans un climat d’urgence permanent aggravé par la communication de masse dévoyée que permet l’email [9] ; il se place alors en "mode survie", ne gérant que l’urgence du moment et perd la capacité d’analyser la situation absurde dans laquelle il se trouve [10].

Certains s’adaptent très bien à ce chaos et gèrent prioritairement leur carrière. Ceux qui créent la valeur croulent sous le travail [11] ; ils perdent pied les uns après les autres et l’entreprise devient une coquille vide prête à être absorbée par une firme concurrente. La sélection darwinienne individuelle traditionnelle est inversée : ceux qui produisent sont défavorisés alors que ceux qui ne produisent pas, voire bloquent la production, réussissent. En revanche, grâce à l’économie de marché, la sélection darwinienne des groupes s’opère correctement : une entreprise qui ne redresse pas la barre par la valorisation des ses agents productifs disparaît et laisse le marché disponible pour d’autres entreprises ayant su innover ou mieux satisfaire leur marché.

Ce travers est spécifique des organisations complexes dans lesquelles les hiérarchies ne sont pas revalidées en permanence [12].

Quelques exemples biologiques pairjectifs

La pairjectivité est observable dans de nombreux systèmes biologiques :

- Les bactéries. Elles s’adaptent à une vitesse impressionnante aux nouveaux milieux, y compris contenant un poison comme un antibiotique. Elle échangent des messages chimiques, des gènes d’adaptation au poison, puis se reproduisent à partir de la nouvelle configuration qu’elles ont validée. Quelques jours leur suffisent pour identifier et privilégier les bons enchaînements évolutifs que le seul hasard aurait mis des milliers d’années à reproduire. Planifier par avance la réponse à tous les poisons existant ou à venir, serait tout simplement impossible. Une simple sélection des mutations favorables serait trop lente. C’est la conjonction de la diversité et de la communication permettant aux bactéries d’échanger leurs réponses ou fragments de réponse qui permet au groupe (et non à l’individu) de s’adapter si rapidement à l’adversité. Il n’existe pas de bactérie experte dans la colonie, l’expertise est diffuse et apparentée au "brainstorming" des humains.

- Notre système immunitaire. Nous naissons sans autres anticorps que ceux de notre mère qui resteront quelques mois dans notre sang de nourrisson. Nous héritons en revanche d’une fantastique machine adaptative : le système immunitaire. Nous fabriquons spontanément des lymphocytes (varitété de globule blanc) d’une extraordinaire diversité. Le système immunitaire fonctionne comme un serrurier qui aurait construit des millions de clés différentes en prévision de l’ouverture d’une serrure inconnue. Chaque lymphocyte sécrète une protéine différente, un anticorps, clé qui pourra peut-être s’adapter aux serrures (antigènes) que nous rencontrerons chez les microbes envahisseurs.

A partir des fragments d’un intrus dévoré par des sentinelles (macrophages), les quelques lymphocytes qui fabriquent un anticorps capable de s’adapter grossièrement à ce fragment (antigène) étranger vont se multiplier à grande vitesse. Cette multiplication s’accompagnera d’une légère diversité qui va permettre de sélectionner dans leur descendance ceux qui fabriquent un anticorps encore mieux adapté à l’antigène. En quelques générations de lymphocytes, c’est à dire en quelques jours, nous avons fabriqué des défenses sélectives qui assurent notre guérison. Le corollaire amusant est qu’il n’y a pas deux humains qui fabriquent les mêmes anticorps contre la rougeole par exemple : chacun ayant créé une protéine sur mesure, faite à partir de milliers d’acides aminés, il existe une probabilité quasi nulle d’aboutir à deux protéines identiques.

En disposant tous d’un système immunitaire identique dans son principe, mais différent dans ses outils, nous augmentons notre diversité et donc la probabilité que quelques-uns d’entre nous puissent s’adapter à une infection particulièrement violente ou sournoise [13].

Le système immunitaire est un outil, une usine d’armement ultramoderne et autogérée et non un arsenal figé créé par des militaires.

Dans ces deux exemples, la rapidité de la résolution du problème est liée à un catalyseur qui est l’échange d’informations. Les bactéries communiquent chimiquement. Le système immunitaire dispose lui aussi d’un système de communication complexe qui lui permet d’identifier le lymphocyte qui a trouvé la bonne clé-anticorps pour neutraliser le microbe qui nous attaque. Dans ces deux cas, l’agent victorieux sera multiplié et servira de tête de pont pour progresser vers la survie [14].

Du "Un pour tous" au "Tous pour tous"

Le concept de pairjectivité est indissociable d’une communication diffuse entre les "pairs". C’est une des raisons pour lesquelles le réseau internet est un élément fondamental du progrès pairjectif : il permet de passer de la communication de masse de type "un à plusieurs" (livre, radio, télévision), à une communication "plusieurs à plusieurs" (réseau pair à pair ou peer to peer).

JPEG - 32.1 ko
Pair à pair

Cette notion de liens multiples entre agents nous amène naturellement au plus bel exemple biologique de pairjectivité : notre cerveau.

Il n’est pas anodin que l’un des plus grands neurobiologistes actuels, Gerald Edelman, ait reçu le prix Nobel pour sa découverte du fonctionnement... du système immunitaire ! Le fait que la théorie d’Edelman [15] soit parfois appelée darwinisme neuronal n’est pas inintéressant non plus.

Edelman démontre que le cerveau n’est, à notre naissance, pas grand-chose d’autre qu’un amas de neurones reliés entre eux et structurés dans le cortex en couches (horizontales) et colonnes (verticales) : plusieurs dizaines de milliards de neurones connectés chacun avec des dizaines de milliers d’autres. La structure est en place, mais la connaissance reste à acquérir. Tout notre développement, amenant à des apprentissages et fonctions complexes et jusqu’à la conscience, résulte de la sélection des groupes et circuits identifiés par les autres comme pertinents. Chacun de ces groupes émet des informations vers les autres et en reçoit. Fondé sur la bonne vieille qualité externe, la magie de la fonction puis de la pensée se bâtit sur une sélection darwinienne couplée à un gigantesque réseau de communication.

L’objet le plus fascinant de notre univers se construit sur la base d’un empirisme pragmatique fondé sur l’évaluation mutuelle et massive de ses agents. Il n’y a aucun expert, aucune norme dans le cerveau. Ce système permet :
- L’adaptation de chaque humain à son milieu de naissance puisqu’il s’y construit.
- Une variété savamment entretenue et propice à une adaptation du groupe aux situations nouvelles imprévisibles. Il est des crises où seuls les anxieux survivent, d’autres qui favorisent les seuls audacieux.
- Une vitesse de construction exceptionnelle par résolution de multiples problèmes simultanément.

Nous ne nous étendrons pas plus sur le fonctionnement darwinien et pairjectif du cerveau. Outre les ouvrages d’Edelman, le lecteur intéressé pourra lire ou relire l’homme neuronal de Jean-Pierre Changeux : les groupes neuronaux sont appelés "cristaux", mais la thèse est la même : pas de plan, d’architecte supérieur, mais une validation permanente du succès.

Comment ne pas être tenté de comparer ce que nous enseigne la neurobiologie moderne avec les connexions directes et potentiellement innombrables entre individus permises par internet ? Certes, le raccourci est audacieux et nous sommes loin de l’efficience du cerveau de l’animal le plus primitif [16]. Mais cette voie apporte un espoir considérable à ceux qui pensent que la résolution des situations humaines vastes et complexes ne peut plus résider uniquement dans un schéma traditionnel de type PDCA, certification ISO ou autres normes. Le progrès doit suivre de nouveaux chemins.

La société que nous allons construire avec et pour nos enfants sera neuronale et la santé pourrait en être le premier terrain d’expérimentation. Nous vous ferons des propositions concrètes dans les mois qui viennent.

Vous êtes vivement encouragé à faire vos remarques, critiques et suggestions sur le forum. Ces articles ne sont pas figés et évolueront en permanence. D’autres articles faisant suite à cette série initiale seront publiés à la rentrée.

Notes

[1] "La meilleure chose que les gouvernements puissent faire pour encourager l’innovation est de dégager le terrain".

[2] Ces étapes sont celles que décrit l’étonnant Howard Bloom dans le tome 2 du Principe de Lucifer intitulé "Le cerveau global". La lecture du prologue en accès libre donne une idée de la richesse de l’ouvrage étayé par plus de 1000 références bibliographiques.

[3] Le darwinisme social constitue une déformation des travaux de Charles Darwin, qui a toujours été étranger à l’utilisation de sa théorie pour justifier l’injustifiable.

[4] Bloom op. cit.

[5] Lire à ce sujet l’étonnant et peu médiatisé rapport de la DREES, montrant comment et pourquoi les "notables de la ménopause" ont continué à défendre bec et ongles l’innocuité du traitement hormonal de la ménopause contre les évidences scientifiques qui menaçaient leurs théories et leur positions.

[6] Dans : Invitation aux sciences cognitives 1988

[7] Varela (op. cit.) explique très bien comment la "haute église" cognitiviste, qui voulait assimiler le fonctionnement du cerveau à celui d’un ordinateur, a bloqué la recherche sur l’intelligence artificielle pendant des dizaines d’années. Ceux qui pensaient que le cerveau fonctionnait avec un code pré-écrit étaient enfermés dans une théorie sans avenir. Ce n’est qu’en introduisant un mode de fonctionnement auto-organisationnel et pairjectif que les sciences de la cognition ont pu de nouveau progresser ; or le monde, et notamment le monde de la santé, fonctionne actuellement sur un modèle cognitiviste : penser, préparer, créer des procédures, puis seulement agir.

[8] Une des raisons de ce refus a été la brutalité avec laquelle l’administration de la sécurité sociale a tenté d’imposer son système, croyant naïvement que les patients déserteraient les cabinets médicaux non équipés.

[9] L’email est une forme de communication pairjective totalement dérégulée. L’email en entreprise produit un "bruit" insupportable car il ne bénéficie d’aucune validation : on ne peut considérer comme du spam les courriels de ses collègues, et pourtant...

[10] Situation superposable à celle du médecin à la fois débordé et submergé de procédures. Certains d’entre eux avouent publiquement être débordés par ce climat kafkaïen et baisser les bras au détriment de la qualité de leur travail : extrait d’un message posté sur une liste de discussion publique "le généraliste (le spécialiste aussi) perçoit de plus en plus une menace latente avec de petites phrases du genre "mais vous n’avez rien vu ?" ; la médecine actuelle ne devrait pas permettre de mourir avant 90 ans, ne pas avoir de cancer ni d’Alzheimer ou en tout cas les guérir, ne pas avoir de séquelle douloureuse d’un banal traumatisme, bientôt de pas attraper d’angine ou de cors aux pieds. Cela traduit bien un malaise plus que profond de la société. A l’occasion de la sortie du fameux Gardasil (vaccin à faire chez les adolescentes en prévention du cancer du col utérin) nous avons eu, les médecins de mon coin, une discussion sur ces sujets comprenant le Gardasil, le dépistage du cancer prostatique, le traitement de la maladie d’Alzheimer, 3 sujets où il est évident que les implications financières sont phénoménales ; il en est ressorti que ce n’est pas a nous généralistes, à décider du bien-fondé des attitudes préconisées, d’une part du fait du premier argument cité plus haut, d’autre part du fait que notre activitéest de plus en plus complexe et qu’il ne sert à rien d’en rajouter en voulant lutter contre des moulins à vent, les pales largement recouvertes de toiles pouvant aussi bien vous envoyer dans la boue que dans les étoiles. Souvenez-vous aux débuts du traitement de l’Alzheimer : une gentille dame parisienne, qui doit sans doute encore sévir, avait créé une association qui portait systématiquement plainte devant tout retard diagnostic de la maladie. L’attitude pragmatique consiste donc pour nous :
- à rappeler systématiquement à bien faire les mammo. de dépistage même si la majorité est convaincue de son inutilité
- à proposer le PSA (et faire le toucher rectal bien sûr) chez tout homme de 50 ans
- à systématiquement proposer le Gardasil dès 14 ans. Ce n’est qu’avec cette attitude que nous dégageons notre esprit de toute interrogation sur ces sujets, et que nous conservons un minimum de neurones pour essayer de régler ... tout le reste ! Comme je crois l’avoir lu sur la liste, si la CPAM lance une campagne de dépistage par PSA, ce sera parfait. Ce n’est pas à nous généraliste, à faire la guerre aux laboratoires ; si mon payeur (la CPAM) ne sait pas ou ne veut pas, me donner des consignes précises au sujet de ce PSA elle sait certainement par contre, ce que va lui coûter, en effets secondaires, son dosage systématique.

[11] Ce sont le plus souvent des femmes, génétiquement peu préparées à cette guerre sans merci, car il s’agit bien d’un combat, d’une guerre de pouvoir dans laquelle l’objectif de production de biens ou de services a quasiment disparu.

[12] Dans l’entreprise ou l’administration, l’évaluation et la promotion viennent de l’échelon supérieur, encourageant la séduction du supérieur par le subordonné. Dans la nature, la hiérarchie est remise en cause à chaque instant par la base, et c’est face à ses pairs ou ses subordonnés que le dominant doit justifier sont statut.

[13] Il existe un faible pourcentage d’humains résistant naturellement au sida. Ils sont en effet dépourvus d’une protéine indispensable à l’infection des lymphocytes par le HIV.

[14] Pour être plus précis, il existe aussi des mécanismes internes de valorisation : le sujet victorieux va développer lui-même ses capacités tandis que celui qui est en échec va s’autolimiter voire s’autodétruire. Nous le constatons nous-mêmes : le succès donne de l’énergie physique (et sexuelle...), de la confiance en soi et du coeur à l’ouvrage. Au contraire, l’échec conduit à l’aboulie, à l’isolement et à la dépression. L’apoptose, mécanisme d’autodestruction cellulaire, concerne aussi les organismes supérieurs.

[15] Edelman l’avait dénommée plus précisément "sélection des groupes neuronaux". Un résumé est accessible ici, mais la lecture de son magistral biologie de la conscience est vivement recommandée pour qui s’intéresse à la pairjectivité.

[16] Et encore plus loin de l’éveil à la conscience du réseau, thématique récurrente en science-fiction.

http://www.atoute.org/n/Qualite-et-sante-5-La-Vie-est.html

00:58 Publié dans Numérisation de la société, Science | Lien permanent | Commentaires (0) | |  del.icio.us | | Digg! Digg |  Facebook | |  Imprimer | |