Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

vendredi, 22 novembre 2013

Les rois-dragons contre les cygnes-noirs.

Une théorie scientifique capable de mesurer les instabilités internes d’un système complexe avant une “catastrophe”, et d’en tirer des prédictions qui devrait permettre– au moins en l’absence d’autres perturbations extérieures -  d’éviter les pertes de contrôles qui se produisent quand on a affaire à des mécanismes de rétroactions positives (1) qui se cumulent et s’amplifient de manière exponentielle voire super exponentielle, comme les bulles financières.

  • Si un un jour elle est entreprise, l’étude du système BITCOIN selon cet axe théorique, pourrait s’avérer extrêmement féconde.
  • On peut se demander aussi si ce genre d’études pourrait améliorer la stabilité des centrales nucléaires ? Dans ce dernier cas ce n’est pas seulement le système limité à la centrale qu’il conviendrait d’étudier mais la centrale et toutes les perturbations de son environnement.

En espérant que les extrapolations du couplage de 2 systèmes oscillants puissent s’élargir à des cas moins bien formalisés…

Références

Internet ACTU.net : La quête des rois dragons
WIRED : Using Chaos Theory to predict and prevent catastrophics  “Dragon Kings” events
DUKE Physics – Publications et collaboration 2013, du Dan GAUTHIER Group
   L’article publié par le l’équipe de SORNETTE :
                  Predictability and Suppression of extreme events in a chaotic system 
   Didier SORNETTE 2009 : Dragon-Kings, Black Swans and the Prediction of Crises
   Ce qu’en dit SLATE.fr
                  Cet homme peut prévoir les krachs boursiers. Et si les financiers l’écoutaient enfin ?
   Ce qu’en dit MIT Technology Review :
                  How Dragon Kings Could Trump Black Swans
ETH ZURICH D-METC : Chaire des risques entrepreneuriaux
American Physical Society : Viewpoint – How to control your Dragons ?   (lois de puissance (2))

Glossaire

(1) rétroaction positive ou négative : en automatique, désigne un mécanisme de contrôle d’une machine ou d’un processus automatique plus complexe. Une rétrocession négative met en œuvre un mécanisme itératif qui analyse la divergence d’une mesure par rapport à une valeur nominale fixée par un opérateur, et qui opère sur les commandes de la machine ou du processus pour ramener cet écart à zéro. Les rétroactions négatives sont donc mise en place par l’homme dès la conception de la machine ou du processus. A l’inverse une rétroaction positive est une boucle d’interaction qui produit une divergence sur les mesures en les écartant de plus en plus de la valeur nominale souhaitée par l’opérateur. Les commandes de l’opérateur deviennent inefficace, il perd de façon inéluctable le contrôle de sa machine et le processus se termine de façon chaotique par une catastrophe.

(2) Power low : A power law is a mathematical relationship between two quantities. When the frequency of an event varies as a power of some attribute of that event (e.g. its size), the frequency is said to follow a power law.
For instance, the number of cities having a certain population size is found to vary as a power of the size of the population, and hence follows a power law.
There is evidence that the distributions of a wide variety of physical, biological, and man-made phenomena follow a power law, including the sizes of earthquakes, craters on the moon and of solar flares, the foraging pattern of various species, the sizes of activity patterns of neuronal populations, the frequencies of words in most languages, frequencies of family names, the species richness in clades of organisms, the sizes of power outages and wars, and many other quantities.

vendredi, 05 juillet 2013

Jean-Pierre PETIT : "Les Z-machines permettent d'envisager une fusion nucléaire pratiquement sans déchets

Jean-Pierre PETIT : "Les Z-machines permettent d'envisager une fusion nucléaire pratiquement sans déchets"

Z machine : conférence de Jean-Pierre Petit à Polytechnique

La fusion nucléaire par laser est elle une fausse piste ?

Jean Pierre Petit - Radio Ici et Maintenant - Armes micro-ondes contre les civils

1 contribution

Publié le 16 janvier 2013.

Suite à la publication de notre article sur le laser MegaJoule, des lecteurs nous ont réclamé des précisions sur le concept de Z-Machine. Nous avons demandé à Jean-Pierre PETIT, ancien directeur de recherche au CNRS, de nous présenter cette troisième voie en matière de fusion nucléaire…

Jean-Pierre PETIT, bonjour, que reprochez vous à des projets comme ITER ou au laser Mega-Joule ?

Jean Pierre PETITJean-Pierre PETIT – Sensibilisé par la catastrophe de Fukushima, j’ai réalisé, en participant à une manifestation à Aix en Provence en 2011, que j’étais le seul scientifique présent. J’ai pris conscience de l’absence en général de la communauté scientifique sur ce terrain du nucléaire, si on excepte quelques anti-nucléaires traditionnels (déjà âgés maintenant), se limitant au domaine de la fission, militant, à juste titre, contre ce projet dément de surgénérateur à neutrons rapides (Superphénix). Comme d’ailleurs les courageux militants anti-nucléaires de la première heure, qui se montrèrent conscients, à une époque où nous, scientifiques sommeillions dans nos bureaux. Certain laissèrent leur vie dans ce combat, d’où nous étions, nous, scientifiques, absents.

Ce que beaucoup de gens ignorent c’est que le premier geste de François Hollande, quand il prit ses fonctions de Président,  fut de signer l’accord pour la construction du réacteur expérimental Astrid, qui est un surgénérateur à neutrons rapides, refroidi au sodium, fer de lance d’une option rebaptisée « réacteurs de IV° génération ». Or Astrid n’est rien d’autre que Superphénix, « amélioré ». Personne ne réagit. Personne ne proteste. Pas plus qu’on ne proteste contre les idées démentielles appuyées par nos nucléo-députés Bataille et Vido : peupler le pays, d’ici la fin du siècle, de surgénérateurs à neutrons rapides, hyper dangereux, générateurs de déchets, fonctionnant au plutonium 239 pur, de manière à exploiter les 300.000 tonnes d’uranium 238 , issues de 50 années d’enrichissement isotopique, pour extraire du minerai l’uranium 235, fissile. Devenir ainsi « autonomes énergétiquement pour les 5000 ans à venir ».

J’ai aussi réalisé que face au projet ITER, il n’y avait pas de prises de position solidement appuyées sur des considérations réellement scientifiques. Je me suis donc plongé dans ce domaine, pendant deux années, aidé par des gens du milieu (mais tenant à garder un prudent anonymat). J’ai réalisé alors avec stupeur les failles béantes du projet ITER, qui ne découlaient ni du risque sismique, ni de la dangerosité du tritium, mais simplement du fait que ces machines, les tokamaks, étaient foncièrement instables. Pour faire court : ces instabilités appelées disruptions sont l’équivalent, dans ces machines, des … éruptions solaires (ce qui étaient d’ailleurs signalé noir sur blanc dans un rapport produit en 2007 par l’Académie des Sciences de Paris, sous la direction de l’académicien Guy Laval). Depuis que j’ai soulevé ce lièvre, les chantres du projets sont moins enclins à comparer ITER à « un soleil en bouteille ».

J’ai aussi créé une gêne en révélant que Putvinky, (avec qui j’avais dîné), « monsieur disruption » à ITER-Organization, réalisant que le problème était insoluble, avait rendu son tablier en juin 2012, abandonnant non seulement ITER (il avait rejoint l’équipe en 2009, achetant une propriété dans la région) mais la formule tokamak. Il est reparti travailler aux USA.

J’ai aussi découvert que ces questions, ainsi que bien d’autres, avaient été totalement passées sous silence dans le dossier de 7000 pages qu’ITER Organization avait mis en consultation libre durant l’été 2011, à l’occasion de d’Enquête Publique, devant déboucher sur une autorisation ou une non autorisation de l’implantation de « l’installation nucléaire de base ITER » (c’était le nom retenu). Une enquête publique qui avait été gérée comme si cette opération avait concerné l’implantation d’une station d’incinération à proximité d’un village. Je n’ai obtenu, cet été là, qu’un report de quelques mois de la décision, qui étaient déjà prise avant que cette commission fantoche, dirigée par André Grégoire « ne commence ses travaux ». Négligeant mes avertissements, celui-ci a signé le rapport final, se concluant par « avis favorable avec recommandations ». Et il m’a dit en substance « ils auront deux ans pour résoudre le problème des disruptions ». A noter que le mot « disruption » était tout simplement absent des 7000 pages mises en libre consultation !

Là j’ai compris que cette conclusion donnant le feu vert à ITER avait déjà été rédigée avant que cette pseudo enquête publique, complètement truquée,  ne démarre, en plein été 2011. Mais cela n’étonnera personne.

J’ai commencé à écrire des textes sur ces problèmes. L’un ‘eux a été repris et diffusé au sein de la Commission Européenne par la députée Michèle Rivasi, en français et en anglais. En même temps la revue NEXUS a publié la copie de ce texte dans ses colonnes. Ceci a suscité l’ire du CEA, qui a publié une « réfutation » dans son site, en français et en anglais, dont je n’ai pu connaître le ou les auteurs, apprenant seulement qu’il s’agissait d’un groupe de gens qui ne tenaient pas à révéler leur identité (…). Cette « réfutation » se trouve toujours sur le site. Evidemment, ma tentative d’obtenir un légitime droit de réponse pour  démonter ces arguments est restée sans réponse (voir ceci sur mon site http://www.jp-petit.org).

laser mega joulePlus récemment, dans son numéro de janvier-février 2013 la revue Nexus a publié une interview où je pointe le doigts sur le fiasco du NIF américain, en en expliquant les raisons, Mégajoule étant pratiquement la copie conforme du NIF, à quelques dizaines de lasers près (176 contre 192). J’ai donc pronostiqué (comme le font outre Atlantique nombre de scientifiques américains) que le NIF ne permettra pas d’obtenir la fusion, et que par conséquent le projet Mégajoule serait de l’argent (6,6 milliards d’euros), dépensés en pure perte. Le CEA publiera-t-il une seconde réfutation de mes dires dans son site ? Affaire à suivre.

Vous prônez une 3e voie pour la fusion nucléaire : celle des Z-machines. Comment fonctionnent-elles ?

Jean-Pierre PETIT - A l’issue de ce périple de deux années dans les domaines de la fission et de la fusion, en incluant le problème dramatique de la gestion des déchets, ma conclusion est que la façon actuelle de tirer de l’énergie du nucléaire apporte plus de maux que de bienfaits. Et que ces maux, dans les décennies à venir, créeront des drames horribles dont les catastrophes de Tchernobyl, puis de Fukushima ne sont que les pâles prémices. Le redémarrage des réacteurs japonais montre la puissance des lobbies, contre tout souci de la santé publique et des vies humaines.

En 2006 j’ai découvert, dans un article publié par mon vieil ami, le grand spécialiste des plasmas  Malcom Haines (hélas très malade) que les Américains, au laboratoire  Sandia, Nouveau Mexique, avaient obtenu des températures de plus de deux milliards de degrés dans un machine que j’avais vue en 1976, construite par Gerold Yonas. Cette découverte était fortuite (comme nombre de découvertes importantes dans l’histoire des sciences). J’ai immédiatement compris l’importance de ce saut incroyable effectué en 2005, la température maximale atteinte dès cette époque étant de 3,7 milliards de degrés. Ces valeurs ont suscité des réactions de scepticisme chez « les spécialistes français des plasmas chauds ».

Je suis allé à plusieurs congrès scientifiques internationaux, au top niveau. Il a fallu quatre années pour que l’interprétation des expériences, donnée par Haines, finisse par s’imposer, au congrès de Biarritz, 2011, consacré aux Z-machine, où il fit un exposé magistral, en tant que « personnalité invitée », communication appuyée par la publication d’un papier de 196 pages, sur le sujet, dans une revue à comité de lecture, devenu la Bible dans ce domaine.

En peu de mots, les plasmas de fusion  sont sujets à toute une palette d’instabilités. Dans les tokamaks, celles-ci finissent par donner des disruptions, décharges de dizaines de millions d’ampères, venant frapper la paroi (en tous point comparables aux jets de plasma des éruptions solaires). Dans les manips de fusion par laser, elle condamnent la filière (il s’agit alors  » de l’instabilité de Raleigh Taylor »). Dans les Z-machines elles … accroissent la température du plasma !

Ainsi le malheur des uns fait le bonheur des autres.

A Biarritz, j’appris de la bouche de Valentin Smirnov, directeur du département fusion à l’Institut des Hautes Températures de Moscou, qu’il dirigeait la construction d’une Z-machine russe, Baïkal, qui sera plus puissante que le ZR américain ( successeur de la Z-machine ). Après les Américains, les Russes se lancent aussi dans ce domaine, pied au plancher.

Schématiquement, on pourrait dire que la Z-machines (et maintenant ses multiples variantes, comme MAGlif) est à des machines comme ITER,( où on s’efforce de maintenir constante la température du plasma de fusion), ce que sont les moteurs à combustion interne, impulsionnelle, vis à vis des machines à vapeur. L’avantage des moteurs à combustion interne est de pouvoir faire brûler un mélange combustible-oxygène à une température de 1000°, obtenue pendant une fraction de seconde, la température générale du moteur restant inférieure à cette de l’eau bouillante.

Comme le moteur à explosion, des générateurs fondés sur le système des Z-machines seraient dotée d’un système de stockage d’énergie électrique, pendant du volant d’inertie de ce même moteur. Enfin ces générateurs exploiteraient un procédé de conversion directe de l’énergie, par MHD, opérationnel depuis les travaux d’Andréi Sakharov, des années cinquante. Pourquoi cette formule suscite-t-elle un tel rejet, en particulier en France ? Pour deux raisons. Elle rend obsoletes tous les efforts associés au générateurs à fission, au surgénérateurs, aux bancs laser et à ITER. Tout le nucléaire classique est remis en cause, et se trouve dans l’incapacité d’intégrer ce concept outsider dans ses plans.

La France dispose déjà d’une Z-machine : le Sphinx. Qu’est-ce qui la distingue des Z-machines américaines ou russes ?

sphinxJean-Pierre PETIT - La France possède effectivement sa Z-machine : le Sphinx, implantée dans un laboratoire de l’armée, à Gramat. Cette machine est hors course, hors jeu, de par sa conception même. Ca n’est qu’un bête générateur de rayons X, qui ne dépasse pas quelques dizaines de millions de degrés, et ne peut faire plus. Par ailleurs, une des caractéristiques essentielles, si ne qua non,  de ces machines « Z » est de devoir délivrer leur intensité en un temps très bref. Cent milliardièmes de seconde pour la machine américaine, 150 milliardièmes de seconde pour la monstrueuse machine russe, en construction : Baïkal. La machine française ayant un temps de décharge de 800 milliardièmes de seconde, est … trop lente. De part sa conception, on ne peut pas améliorer ses performances. Par ailleurs les gens qui la servent manquent de compétences en la matière, ne serait-ce que sur le plan théorique, qui est très pointu. Un domaine pratiquement neuf, défriché par des gens comme Haines, celui des plasmas hyper chauds, hors d’équilibre.

Le Sphinx est trop lent, ne peut être amélioré. Megajoule et le NIF sont aussi hors jeu. Dans les installations NIF et Mégajoule, il  manque un facteur 50 sur l’énergie focalisée sur cible (voire mon complément d’information dans mon site) . Inversement, les machines américaines et russes visent d’emblée ces 10-15 mégajoules sur cible (l’énergie contenue dans le fond d’une tasse de tisane, voir l’article complémentaire sur mon site, mais délivrée en 100-150 milliardièmes de seconde). Une énergie seuil issue des expériences secrètes Centurion Halite américaines (les Russes ayant mené de leur côté des campagnes similaires et étant parvenus aux mêmes résultats).

Les Z-machines russes et américaines permettent, potentiellement, du fait des températures atteintes, ce auquel jamais les autres filières ne pourront prétendre : envisager ce qui est véritablement le Graal de la physique nucléaire : la fusion Bore Hydrogene, aneutronique. Une fusion qui ne génère pratiquement pas de radioactivité et aucun déchet, sinon … de l’hélium. Cette réaction démarre à un milliard de degrés. Jusqu’en 2005 l’obtention d’une telle température aurait paru relever de la science fiction. Aujourd’hui ZR, avec son intensité portée de 18 à 26 Millions d’ampères, est très probablement passé de 3,7 à 8 milliards de degrés. Mais, comme me l’avait dit Malcom Haines à Biarritz en 2011 : « Je pense qu’ils l’ont fait, mais ils ne te le diront jamais, pour des raisons de secret défense.  »

Car, vous l’imaginez bien, cette percée comporte aussi son volet armement : les « bombes à fusion pure », où un mélange de fusion peut être mis à feu sans utiliser de bombe A, mais l’électricité fournie par un explosif, dérivé des premiers concepts expérimentés par Sakharov dès les années cinquante ( 100 millions d’ampères en 1954 ).

Ceci étant, une nouvelle percée, qui correspond au montage MagLif (une variante du montage « Z » ) montre que cette filière s’est maintenant imposée outre Atlantique, comme une nouvelle façon d’obtenir l’ICF (Inertial Confinement Fusion), la « fusion par confinement inertiel », qui est à la base des systèmes de recherche de fusion auto-entretenue, initiée par lasers.

La fusion par laser est hors course, comme démontré récemment sur le banc américain NIF. Mais, cela aurait-il fonctionné (l’ignition), ces systèmes n’auraient jamais pu donner des générateurs industriels, du fait du rendement des lauser, inférieur à 1,5 % . Ce ne furent jamais que des installations d’essai à visées militaires.

z-machine

Pensez vous que les américains ou les russes pourraient maitriser la fusion nucléaire civile plus rapidement que les Français ? A quel horizon ?

Jean-Pierre PETIT - Bien évidemment ! En s’accrochant à un dinosaure du nucléaire comme ITER, ou à une machine 50 fois trop peu puissante comme Mégajoule, les Français font de mauvais choix, ratent complètement le coche. Quand la fusion deviendra réalité, en Russie et en Amérique, avec cette filière Z, et son astucieuse variante MAGlif, les Français se retrouveront encombrés de véritables fossiles technico-scientifiques.

On pourra objecter que des réactions de fusion on été obtenues sur la machine JET, avec extraction de puissance. Mais, sur ce plan, je citerai ce que m’a écrit tout récemment Glenn Wurden, directeur de la fusion à Los Alamos (…) :   »Je ne pense pas qu’on parviendra un jour à transformer un tokamak en générateur de puissance, car on ne trouvera jamais ce matériau magique capable de résister à l’impact des neutrons de fusion, 7 fois plus énergétiques que les neutrons de fission. Ce matériau magique n’existe simplement pas et n’existera jamais ».

Vos écrits en matière d’ufologie ou sur les attentats du 11/09 vous ont décrédibilisé auprès de nombreuses personnes, en particulier en France. Que répondez-vous à vos détracteurs ?

Jean-Pierre PETIT - Vous me décrivez comme « décrédibilisé auprès de nombreuses personnes », sans citer la moindre d’entre elles. Récemment j’avais été interviewé par un journaliste de la revue Inrockuptible, qui s’était adressé à moi comme à un « complotiste ». J’avais demandé qui formulait cette opinion. Réponse du journaliste : « c’est ce qui émerge quand on consulte les forums ». Ainsi, à notre époque, voici comment émerge une réputation : à travers des propos tenus sur des forums, par des gens intervenant sous des pseudonymes ! A comparer avec l’absence de signature de la réfutation publiée par le CEA.

En vérité, cette situation de « discrédit auprès de certaines personnes » est bien étrange, ne trouvez-vous pas ? Je suis « discrédité par les gens qui, au CEA,  s’occupent de fusion » , mais aucun n’accepte d’être face à moi. Référez vous à la dérobade de Bernard Bigot et de ses adjoints, experts en matière de fusion, lors d’un face à face filmé, qui a donné cette interview où seule figure Michèle Rivasi, qui prend acte du fait que mes détracteurs ont déclaré forfait.

Je suis « discrédité » dans le monde de l’astrophysique et de la cosmologie, par des gens comme Riazuelo, par exemple, de l’Institut d’Astrophysique de Paris. Mais depuis des années lui et le directeur de son labo restent muets face à mes demandes successives d’exercice de droit de réponse en séminaire  où, scientifiquement, Riazuelo ne tiendrait pas dix minutes face à moi, et il le sait. Dans ce genre de face à face scientifiques je ne me suis jamais dérobé et je n’ai jamais perdu un combat.

J’aimerais d’abord connaître les noms de ces détracteurs et pouvoir leur faire face, leur répondre à découvert, ce débat étant filmé et mis aussitôt sur le net. Et cela dans tous les domaines.

Dans le domaine des plasmas, de la fusion et du nucléaire, interrogez à mon sujet Robert Dautray, ancien directeur des projets scientifiques du CEA, ainsi que Paul Henri Rebut, concepteur du tokamak français de Fontenay aux Roses, puis Guy Laval, membre de l’académie des sciences, qui a dirigé la composition du rapport de 2007 sur « l’énergie à partir de la fusion ». Notez leurs réponses à mon sujet et publiez les.

Dans le domaine de l’astrophysique, proposez à Alain Riazuelo, par exemple, d’accepter un face à face filmé, puis diffusé sur le net, où il pourra jouer les détracteurs de mes travaux, à ses risques et périls.

Enfin sur le sujet du 11 septembre, je suggère une rencontre semblable, nous opposant, Alix (qui s’occupe de reopen 9/11) à nos détracteurs. Rencontre également filmé et diffusée.

Je pense ainsi avoir répondu à vos questions  !

Jean-Pierre Petit, ancien directeur de recherche au Cnrs.


Z machine : conférence de Jean-Pierre Petit à... par UFO-Science

Gizmodo.fr en partenariat avec 20minutes.fr

AILLEURS SUR LE WEB

Quels sont les avantages du stress ? (Home Actu)

Mexique: découverte d'une importante cité maya(Culturebox)

Les dernières contributions

  • LoadedGun

    enfin on donne la parole a JPP ! ( ok il a déliré un peu avec les ovni ( proto us ) ...mais il n as jamais dis que le nuage de Tchernobyl c est arreté à la frontiere ... Je connais 4 cas de gens contaminés en france par le nuage , 3 amies de 40 a 63 ans auxquelles ont as retirer la thyroide , et un enfant né un peu apres ... pb circulatoire , nerveux , qui enchainent les sejours a l hosto . ce sont les medecins qui lui ont dis qu il etait victime de Tchernobyl , la maman n avais pas fait le rapprochement )
    L epr est un gouffre qui ne donnera jamais les resultats , c est un voie de garage pour les ingénieurs .
    pour le 11/09/2001 ...l aluminium ne coupe pas l acier , on ne fait pas fondre de l acier avec un feu de kerosene .

    16.01.2013 - 14h56 • 3 recommandations • RecommanderRépondre

jeudi, 04 juillet 2013

Qualité & Santé (Dominique DUPAGNE)

Mots clés eBuzzing : ,

Qualité et santé : 1) Qualité des moyens ou qualité des résultats ?

Re-publication d’un article sur la Qualité de 2008, à propos de l’affaire des prothèses PIP. À force de se concentrer sur les méthodes et les pratiques de fabrication, on a oublié de vérifier les qualités intrinsèques du produit final. Au sein des agences de régulation, personne n’a pensé à vérifier la composition et les caractéristiques du produit commercialisé. Le texte de l’article initial n’a pas été changé, j’ai juste ajouté cette introduction et l’encadré final. Cet article avait également été publié dans la revue Médecine

Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : initialement centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur un partage et une pondération de la subjectivité.
- Ce premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
- Le deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
- Dans le troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, atteint aujourd’hui ses limites et doit laisser coexister d’autres approches.
- La pairjectivité, thème central de ce dossier, est détaillée dans le quatrième article.
- Le cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.

Que la stratégie soit belle est une chose, mais n’oubliez pas de regarder le résultat.
Winston Churchill

Le concept de qualité s’est imposé dans l’organisation et la gestion de la santé publique depuis une vingtaine d’années. La qualité s’appelle accréditation, recommandation thérapeutique ou encore évaluation des pratiques professionnelles. Elle fait intervenir des normes, des référentiels et une logistique qui a pour objectif l’amélioration de la qualité des soins. Nous verrons dans ce premier article que cette évolution normative pourrait avoir des effets délétères qui vont à l’encontre de la qualité effective des soins. Les autres articles de ce dossier proposent des solutions pour sortir de cette impasse.

Idées-Forces

- Le concept de qualité dans le domaine de la santé a beaucoup évolué : initialement centré sur le résultat, il concerne désormais quasi-exclusivement les procédures de soin.

- Si c’est l’évaluation de la procédure qui est privilégiée, le risque est grand de voir l’amélioration de la santé des patients passer au deuxième plan.

- Le patient a cédé le pas à la population. Si la procédure est bonne pour la population, elle est censée être applicable à chaque patient. Cette approche réductrice nie la singularité de l’Humain.

- La subjectivité a été progressivement bannie de l’évaluation scientifique. Or la médecine est une science de l’Homme qui est fondamentalement un sujet et non unobjet.

De l’obligation de résultat à l’obligation de moyens

En matière de soins, la qualité a longtemps été synonyme d’efficacité. Un groupe de travail de l’ENA a publié en 2003 un document sur l’évaluation et la qualité en santé [1]. Une annexe regroupe des citations intéressantes au sujet de sa définition [2] :

1792-1750 av JC Si un médecin opère un homme pour blessure grave avec une lancette de bronze et cause la mort de l’homme ou s’il ouvre un abcès à l’oeil d’un homme avec une lancette de bronze et détruit l’oeil de l’homme, il aura les doigts coupés. Article 218 du Code d’Hammourabi.

1980 Les soins de haute qualité sont les soins visant à maximiser le bien-être des patients après avoir pris en compte le rapport bénéfices/ risques à chaque étape du processus de soins, Avedis Donabédian.

1990 Capacité des services de santé destinés aux individus et aux populations d’augmenter la probabilité d’atteindre les résultats de santé souhaités, en conformité avec les connaissances professionnelles du moment.Institute of Medecine.

2000 Aptitude d’un ensemble de caractéristiques intrinsèques à satisfaire des exigences. ISO 9000.

L’évolution de la notion de qualité est frappante :

- La première définition résume grossièrement (et brutalement...) le concept de qualité médicale tel qu’il a prévalu pendant des millénaires : seul le résultat du soin sur le patient est pris en compte
- La deuxième introduit conjointement la notion de rapport bénéfices/risques. Avec cette notion statistique, le pluriel apparaît aussi bien pour le soin que pour le patient dont la singularité s’estompe.
- La troisième définition se déconnecte du résultat : c’est la méthode, le processus qui sont importants, il devient possible d’associer des soins de qualité à un échec thérapeutique pourvu que la probabilité de succès ait été élevée a priori. C’est l’obligation de moyens qui prime et prodiguer des soins "appropriés" devient le principal critère de qualité. Le malade peut mourir pourvu qu’il ait été "bien soigné" [3]. Enfin, la définition n’est plus centrée sur l’individu, elle parle désormais de "populations".
- La dernière élude totalement la notion de résultat. C’est "l’exigence" qui compte désormais. Exigence du malade ou exigence de la norme ? La réponse a été apportée par la mise en pratique de la certification ISO : le malade (ou patient, ou client) est réputé avoir une forte probabilité d’être satisfait si les exigences de qualité du processus sont remplies. L’évaluation ne fait plus intervenir le destinataire du "service soin".

En vingt ans, la qualité a glissé de l’obligation de résultat vers celle de moyens, de l’appréciation extrinsèque du soin par le patient à l’analyse intrinsèque du mode opératoire au regard d’une norme. La qualité d’une action de soin est désormais déconnectée de son résultat [4].

Dans le même temps, l’introduction de notions statistiques conduit la qualité à s’éloigner de l’individu pour s’intéresser aux populations. La diversité des souffrants et des approches thérapeutiques est niée par la normalisation du soin.

La Qualité devenant une entité autonome a envahi le champ professionnel et notamment sanitaire [5] :démarche qualité, groupes qualité, accréditations et certifications sont omniprésents, s’accompagnant dereprésentants qualité, médecins habilités [6] et autres qualiticiens. Mais la démarche qualité en santé n’est pas simple à appliquer et ne génère pas l’enthousiasme des soignants [7].

La notion de progrès médical, omniprésente pendant les trente glorieuses, a subi un recul concomitant de l’irruption de la qualité dans le champ sanitaire.

Ce déplacement du progrès vers la qualité n’est pas anodin. Le progrès est palpable, visible par le public. C’est une notion concrète proche de celle du résultat. Si les octogénaires sont si friands de médicaments, c’est en partie parce qu’ils ont vu disparaître la polio et la diphtérie, guérir la tuberculose et les pneumonies. Ce progrès médical était d’une telle évidence depuis la dernière guerre mondiale que la notion de qualité n’avait pas de sens. Le prix de la santé paraissait justifié par ses progrès et l’augmentation de son coût accompagnait celle du niveau de vie des populations.

Malheureusement, le coût de la santé croît plus vite que le PIB, aboutissant à des prélèvements sociaux préoccupants qui conduisent désormais à s’interroger sur le rapport coût/efficacité des soins et donc à souhaiter évaluer leur qualité [8].

Les médecins se sont longtemps plaints de la dictature de la salle d’attente, dont la fréquentation était censée servir de baromètre à leur qualité. Ils sont désormais soumis à la dictature de la norme : peu importe le résultat final de leurs soins et le bien-être du patient. Il faut désormais passer sous les fourches caudines de la "recommandation" [9] érigée en recette de soin obligatoire et rédigée par des experts [10].

Ont-ils gagné au change ? Les patients en tirent-ils un bénéfice ? Rien n’est moins sûr et des voix s’élèvent de tous côtés [11] contre cette réduction de l’art médical à son plus petit dénominateur commun. Censée gommer les différences, la norme aboutit en fait à scléroser la part humaniste du soin et la richesse que constitue la variété des approches, tout en créant une fausse sécurité.

Il est d’ailleurs frappant de voir les partisans de la normalisation du soin se référer à l’EBM [12]. Les "inventeurs" de l’EBM déclaraient dans leur article fondateur leur opposition ferme à la transformation de l’EBM en "livre de recettes de cuisine médicales" [13], prémonition qui se révèle tristement d’actualité.

Qualité interne et qualité externe

La place croissante de la prise en compte des procédures dans l’évaluation de la qualité a conduit à sa segmentation en qualité interne et qualité externe

- La qualité externe, correspond à l’amélioration du sort des patients, individuellement ou en tant que groupe. C’est la qualité fondée sur des critères extérieurs au soin lui-même. Il s’agit de fournir des services conformes aux attentes des patients. Ce type de démarche passe ainsi par une nécessaire écoute des patients mais doit permettre également de prendre en compte des besoins implicites, non exprimés par les bénéficiaires.
- La qualité interne, correspond à l’amélioration du fonctionnement interne de la structure de soins. L’objet de la qualité interne est de mettre en oeuvre des moyens permettant de décrire au mieux l’organisation, de repérer et de limiter les dysfonctionnements et de soigner au meilleur coût. Les bénéficiaires de la qualité interne sont la direction et les personnels de la structure, ainsi que ses financeurs. Le destinataire final du soin, le patient, est le plus souvent exclu de la démarche [14].

L’imposition d’une évaluation qualitative fondée sur le respect de la norme est en grande partie imputable aux médecins. S’appuyant sur un siècle de progrès médical continu, ceux-ci ont toujours refusé toute forme d’évaluation de la qualité externe, c’est-à-dire de leur activité personnelle. Les financeurs, confrontés à des déficits sociaux croissants, ont donc investi le champ de la qualité interne et tentent actuellement de l’imposer comme principal mécanisme de régulation des dépenses [15].

Or nous sommes désormais arrivés à une évaluation de la qualité exclusivement interne, ce qui constitue un véritable piège dans lequel notre système de santé [16] s’enferme progressivement.

La médecine est un art autant qu’une science. Supprimer l’évaluation de la qualité externe au prétexte de sa subjectivité est une erreur. Cette erreur est issue d’une démarche scientifique ayant dépassé son objectif, tel le balancier dépassant son point d’équilibre. Exclu des processus décisionnels, le patient est également exclu de la mesure de la qualité [17].

Les redoutables effets latéraux de la mesure interne de la qualité

L’évaluation imparfaite de la qualité des soins par référence obligatoire à la norme aboutit à un nivellement par le bas du soin, car la norme est finalement le plus petit dénominateur commun de la qualité. Cette évaluation réductrice étant couplée à une contrainte croissante (financière, administrative, réglementaire), elle conduit à trois types d’effets latéraux redoutables :
- Les meilleurs soignants sont incités à abandonner leurs processus de qualité personnels pour respecter une norme qui dégrade leurs soins. De plus, ils vivent cette injonction comme profondément injuste et se découragent. Leur productivité diminue d’autant.
- Certains soignants médiocres apprennent à respecter la norme pour recevoir les ressources financières associées au "parcours vertueux". L’application de la norme n’est alors plus motivée par la recherche de la qualité et peut dissimuler une altération du soin. Ces acteurs de non-qualité parviennent à capter massivement les ressources par une intelligence dédiée à l’application de la norme et non à l’amélioration de la santé.
- Une part croissante des ressources de la structure de soin est monopolisée par les processus de mesure de la qualité interne. Ce détournement aboutit à une détérioration de la productivité globale de la structure de soin. La productivité est pourtant un élément réputé important de cette qualité interne [18]

La qualité des soins ne peut donc progresser à partir de la seule évaluation de la qualité interne. Cette évaluation aboutit à une baisse de la qualité globale et de la diversité des approches. La qualité interne exclusive réduit l’humain à un organisme standardisé en s’intéressant à des populations et nie la singularité de l’individu. Elle diminue la productivité des soignants et donc l’accès aux soins. Elle renchérit la santé par les frais administratifs qu’elle génère, affaiblissant les systèmes de santé fondés sur la solidarité qu’elle était censée préserver.

Dans la série d’articles de ce dossier, nous verrons qu’il est possible d’évaluer la qualité à l’aide d’indicateurs externes. Ces indicateurs subjectifs, s’ils sont gérés rationnellement, apportent des informations tout aussi pertinentes sur la qualité des soins que la mesure objective et interne traditionnelle. Le but de ces articles n’est pas d’asséner de nouvelles vérités, mais de lancer une réflexion sur une nouvelle évaluation de la qualité au sein de la santé. Ils ouvrent un espace de réflexion où chacun est convié à débattre.

Il est recommandé de lire ces articles dans l’ordre proposé :

Le deuxième article du dossier emprunte un détour et sort du champ de la santé : il s’appuie sur le fonctionnement intime du moteur de recherche Google. Nous verrons comment en quelques années, deux étudiants ont montré que la mesure de la qualité extrinsèque d’un document (liée à son usage) est plus pertinente que celle de sa qualité intrinsèque (liée à son contenu). Malgré son fonctionnement subjectif, Google est actuellement le système de recherche le plus efficace (ou le moins inefficace) pour trouver rapidement un document pertinent parmi les milliards de pages éparpillées sur le web. Tous les systèmes de classement et d’accès à l’information sur internet fondés sur la mesure de leur qualité interne ont été quasiment abandonnés par les utilisateurs, ou ne persistent que dans des niches.

Ces articles évolueront au gré des réactions, critiques et suggestions qu’ils susciteront. Sur internet, l’encre ne sèche jamais. La première publication doit être considérée comme un début, l’amorce d’un dialogue destiné à l’enrichir. Vouloir figer un article définitivement dès sa publication serait aux antipodes des stratégies qualitatives que nous allons détailler.

L’auteur a déclaré ses conflits d’intérêts ici.

Remerciements : Tous ceux qui ont contribué au débat sur la médecine 2.0, cités dans le désordre Campagnol,autresoir, mariammin, Sybille, à l’ouest..., marcan, somasimple, Pandore, Rapsody, SU(N), Randall, ravel,Jean-Jacques Fraslin et son avatar Dr Hy2.0, Verna, omedoc, Valerianne, letotor, orldiabolo, Groquik,pameline, radiohead, Stéphanie2, thyraguselo, Tin, Katleen, Terence, sepamoi, Annouck, cléo, mowak,Eristikos, Ln2, Ondine, Parrhèsia, delamare georges, jekyll, gustave, marcousse1941, Cafe_Sante, Parrhèsia, Serge et Catherine Frechet, Persouille, dolly_pran, Chéana ; et enfin ma chère épouse qui me reconnecte régulièrement à la réalité.

L’emploi de la première personne du pluriel n’est pas une figure de style : cette réflexion s’inscrit dans la continuité des échanges sur le site Atoute.org, observatoire privilégié de l’évolution du monde de la santé avec son million de visiteurs mensuels et ses forums dédiés à la médecine, la santé, leur évolution et leur éthique.

Ajout du 26 janvier 2012 à propos des prothèses mammaires PIP

Cette affaire de prothèses défectueuses illustre particulièrement bien le problème de la démarche qualité qui analyse les process et non le produit final.

Ces prothèses défectueuses ont été implantées chez des centaines de milliers de femmes. Les sommes en jeu se comptent en millions d’euros. Pourtant, à aucun moment, ni dans les agences de régulation, ni chez les sociétés d’audit qualité, personne n’a eu l’idée d’acheter une prothèse au détail et d’en analyser les caractéristiques et la composition.

En se contentant de contrôler les process de fabrication, on a permis au fabricant de tromper tout le monde. Un peu comme un étudiant qui ne passerait jamais d’examen et serai noté uniquement sur sa présence en cours et la tenue de ses cahiers.

C’est une aberration. La qualité se mesure aussi sur le produit final. J’aimerais être sûr que ces contrôles sont réalisés sur les médicaments et notamment les génériques.

Notez aussi que le pot-au-rose a été découvert lorsque les inspecteurs sont revenus à l’usine sans prévenir. Mais pourquoi prévenir au juste ? Donne-t-on aux étudiants le sujet de leur examen à l’avance ?

Ce sont les chirurgiens, et notamment ceux qui ont alerté en vain pendant deux ans sur les défauts de ces prothèses, qui ont décidé de prendre les choses en main et de pratiquer eux-mêmes des contrôles sur les produits finis.

Notes

[1] Le rapport du groupe de travail.

[2] ibid page 58.

[3] Cet aspect devenait nécessaire pour des raisons juridiques : l’apparition de procès en responsabilité médicale nécessitait de pouvoir définir la notion de faute. La faute devient l’aboutissement d’un processus (un moyen) qui n’assurait pas a priori de bonne chances de guérison au patient :l’insuffisance de moyens mis en oeuvre pour le soigner.

[4] A l’exception notable de la chirurgie esthétique, qui n’est pas considérée comme un soin.

[5] L’amélioration de l’espérance de vie depuis un siècle est bien sûr multifactorielle et ne se résume pas au progrès médical. Nous considérerons comme acquise l’importance des progrès de l’hygiène publique, de la nutrition ou de la conservation des aliments, pour centrer notre étude sur la qualité des soins.

[6] Médecins formés par la Haute Autorité de Santé pour accompagner leurs confrères dans une démarche d’auto-évaluation. L’auteur a fait partie de ce corps de "qualiticiens de la médecine libérale". L’humilité de la démarche (auto-évaluation non contraignante) et du titre l’avaient convaincu de tenter l’aventure. Cette approche individuelle et confraternelle est en cours d’abandon par les autorités sanitaires au profit de procédures plus contraignantes.

[7] [Antiguide des bonnes pratiques : http://ritaline.neufblog.com.

[8] Tout récemment, la Haute Autorité de Santé s’est investie officiellement dans l’évaluation médico-économique. Ses commissions vont désormais étudier le rapport coût/bénéfices des médicaments et stratégies thérapeutiques.

[9] Il s’agit des recommandations de bonnes pratiques de soin éditées par la haute autorité de santé. Ces recommandations sont utilisées par les assureurs pour valider les stratégies de soin et passent donc du statut de recommandation à celui d’obligation.

[10] Experts non exempts de conflits d’intérêts. Cet aspect sera développé dans le troisième article du dossier. Voir aussi le remarquable travail duFormindep qui montre que l’avis des experts n’est pas synonyme de qualité, loin s’en faut.

[11] Outre l’anti-guide des bonnes pratiques, déjà cité, lire cet article d’A Grimaldi dans le Monde Diplomatique qui s’élève contre une gestion économique inadaptée et contraire à l’éthique autant que délétère pour le soin. Enfin, j’ai découvert après la publication de cet article une analyse exceptionnelle , quoique parfois divergente de la mienne, et remarquablement documentée, des méfaits de la démarche qualité dans le monde de la santé.

[12] Evidence Based Medicine, traduite (mal) en français par Médecine fondée sur des preuves.

[13] Voir http://www.atoute.org/n/breve14.html.

[14] Il existe certes des questionnaires de satisfaction, mais leur prise en compte (en France) dans la modification des processus ou la valorisation de ses agents est modeste ou inexistante.

[15] La Haute Autorité de Santé, après avoir travaillé uniquement sur l’aspect qualitatif, s’est investie tout récemment dans l’évaluation médico-économique.

[16] Le système sanitaire n’est bien sûr par le seul concerné par cette dérive, mais nous resterons volontairement centrés sur le monde de la santé. Une psychologue travaillant dans le cadre de la formation professionnelle décrit très bien ici son aliénation progressive sous l’effet d’une démarche qualité interne envahissante.

[17] A l’exception notable de La loi de 2002 dite "Kouchner", dont le nom est significatif : "LOI no 2002-303 du 4 mars 2002 relative aux droits des malades et à la qualité du système de santé". Le ton était donné, ce sont les actes qui ont manqué.

[18] L’hôpital public croule sous les frais liés aux personnels administratifs, notamment ceux destinés à optimiser la dépense. Le temps croissant que les soignants doivent passer à gérer directement ou indirectement la mesure de la qualité est consommé au détriment de l’activité princeps de soin.

http://www.atoute.org/n/Qualite-et-sante-1-Qualite-des.html

Qualité et santé : 2) L’approche qualitative de Google

Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : longtemps centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur une subjectivité partagée et pondérée.
- Le premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
- Ce deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
- Dans le troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, trouve aujourd’hui ses limites et doit laisser coexister d’autres approches.
- La pairjectivité, thème central de ce dossier, est détaillée dans le quatrième article.
- Le cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.

"L’objet n’est rien, ses liens sont tout."
Pasteur 2.0

Google est incontournable dès que l’on aborde internet. Trop disent certains. L’objectif de ce deuxième article n’est pas de faire l’éloge du moteur de recherche vedette, mais de montrer que son mode de fonctionnement pourrait inspirer l’évaluation de la qualité dans le domaine de la santé. Nous allons nous intéresser plus spécifiquement à sa méthode de classement et de hiérarchisation de l’information. Cette méthode est fondée quasi exclusivement sur des critères de qualité externes, c’est-à-dire indépendants du contenu du document indexé.

Idées-forces
- Google n’a pas toujours existé, il y a eu un "avant Google" sur internet, dont les outils fonctionnaient avec des critères qualitatifs datant de plusieurs siècles.
- Google a introduit une rupture totale avec le passé.
- La mesure de la qualité/pertinence par Google fait appel à des critères extrinsèques et non plus intrinsèques.
- Les liens qui unissent les documents sont plus pertinents que l’analyse de leur contenu pour évaluer leur pertinence.
- Le défaut principal d’une norme utilisée pour mesurer la qualité est son caractère public.
- Les experts donnent des résultats moins pertinents qu’un réseau d’innombrables micro-expertises fédérées.
- La méthode Google n’a pas cherché à changer les anciennes méthodes. Google a rendu le passé obsolète.

Tout le monde connaît Google [1], tout le monde l’utilise, mais rares sont ceux qui ont compris à quel point son mode de tri de l’information a constitué une révolution aussi importante que le réseau internet lui-même. Ce tri nous permet d’accéder en une fraction de seconde aux informations que nous cherchons. Le moteur de recherche vedette a supplanté tous les autres en quelques années, tout simplement parce que nous, ses utilisateurs, jugeons ses résultats plus pertinents que ceux des autres moteurs ou des annuaires.

Dans cet article, nous allons rentrer dans le fonctionnement de Google. Il ne se contente pas, comme beaucoup le croient, de proposer les pages les plus populaires chez les internautes. L’évolution des méthodes de tri de l’information depuis l’époque du papier jusqu’aux moteurs de recherche constituera une bonne introduction. La notion de qualité reposant sur une expertise partagée, qui est le fondement de la méthode de classement de Google, sera l’objet d’une étude plus détaillée.

Aux débuts d’internet, pour trouver les bonnes pages sur un sujet précis, les internautes répétaient les méthodes de leurs ancêtres.

Comme les livres dans les bibliothèques, les sites des années 90 étaient classés par catégories dans des annuaires par genre, type, sous-type etc. Bref, ce que l’on faisait depuis l’invention des documents écrits, soigneusement rangés dans des étagères par des bibliothécaires [2].

Des catalogues ou des armoires de fiches permettaient de faire des recherches dans le contenu des bibliothèques ou dans les fonds des éditeurs. Il en était de même sur le web : le faible nombre de sites à ses débuts permettait d’envisager la création d’une table des matières, d’un catalogue global.

Yahoo, le pionnier des catalogues-annuaires

Le plus célèbre de ces catalogues de sites, initié par des étudiants débrouillards, portait [3] le joli nom deYahoo !. L’image ci-dessous représente le site Yahoo en 1996, soit la préhistoire du Web :

Les sites ou pages y étaient classés par des experts-indexeurs humains qui visitaient les sites, rédigeaient des notices et les intégraient dans la rubrique/sous-rubrique appropriée. Ils employaient une démarche classique de bibliothécaire.

Mais très vite, l’explosion du nombre des documents disponibles a rendu ingérable un tel annuaire qui ne reflétait qu’une faible partie du fond documentaire de la toile [4] et dont la mise à jour devenait ruineuse pour la société Yahoo. Des initiatives communautaires fondées sur des bonnes volontés sont apparues ensuite pour prendre le relais de Yahoo [5], mais elles n’ont pas eu plus de succès. Il devenait difficile de trouver des indexeurs indépendants, motivés, résistants aux critiques (nombreuses) des sites non retenus. De plus, il était impossible de classer une part significative d’une offre de documents en croissance exponentielle alors que les moteurs de recherche, plus exhaustifs, progressaient en pertinence et constituaient des concurrents de taille.

Après la "table des matières" Yahoo apparaissent les index : les moteurs de recherche

Les index sont apparus avec les livres volumineux et notamment les encyclopédies. En plus de la table des matières, un index permettait de chercher la page ou l’article utile à partir d’un mot-clé.

Quelques pionniers ont eu très tôt l’idée d’automatiser le processus d’indexation traditionnel : des ordinateurs connectés au réseau et appelés "spiders" (l’araignée qui explore la toile) ou "bot" (pour robot) vont explorer automatiquement le web en se comportant comme un internaute qui cliquerait au hasard sur tous les liens rencontrés sur chaque page. Chaque site ou presque étant lié à au moins un autre, l’exploration était quasi complète, d’autant que chaque gestionnaire d’un site nouveau pouvait signaler son existence au robot explorateur.

Lors du passage des ces robots explorateurs, chaque page est analysée et les mots contenus dans la page sont stockés dans un gigantesque index. Des requêtes (interrogations) faites ensuite sur cet index permettront de retrouver les sites visités, exactement comme l’index d’une encyclopédie permet de trouver le bon article au sein de 20 gros volumes. Les moteurs de recherche étaient nés : Wanderer, puis Lycos, Excite [6].

Mais nous sommes toujours dans des processus très classiques : malgré la lecture automatique des pages, les bases de données, les robots qui tentent de remplacer les opérateurs humains, ce n’est jamais que de l’indexation de mots dans un texte comme elle se faisait depuis l’invention des textes imprimés [7].

Les premiers moteurs de recherche automatisent l’indexation traditionnelle par mots-clés, mais n’inventent rien

Ces moteurs de recherche de première génération tentent de perfectionner leur indexation en apportant plus de poids aux mots répétés dans la même page ou présents dans les titres, les descriptions ou les mots-clés du site. Leur qualité culmine avec AltaVista, roi des moteurs de recherche des années 90. Mais il n’y a toujours aucune réelle nouveauté dans cette approche ; les encyclopédistes réalisaient cela manuellement depuis plusieurs siècles.

Les moteurs atteignent par ailleurs des limites infranchissables :
- Ils ne peuvent correctement indexer et classer que les pages bien rédigées par leurs auteurs : un titre mal choisi, une page mal organisée, et voila un document de référence qui ne sera proposé qu’en 50ème position dans les résultats de recherche ; autant dire invisible. Contrairement aux encyclopédies dont les rédacteurs sont coordonnés par l’éditeur, les webmasters sont libres d’organiser leurs sites et pages comme ils le souhaitent et ils génèrent un chaos bien difficile à indexer avec rigueur.
- Le commerce apparaît sur la toile, et les marchands comprennent que leur visibilité dans les moteurs de recherche est fondamentale. Ils ont tôt fait de s’intéresser aux méthodes d’indexation qu’ils manipulent à leur guise : comme les critères de pertinence utilisés par les moteurs sont uniquement [8] liés au contenu de la page, il est facile d’optimiser ou plutôt de truquer ses propres pages pour les faire sortir dans les premiers résultats des moteurs de recherche sur un requête donnée [9].

Dans le même temps, les annuaires gérés par des experts-indexeurs sont l’objet de nombreuses polémiques liées aux conflits d’intérêts souvent réels de ces experts avec leurs intérêts, croyances, opinions et autres facteurs qui éloignent leur activité d’une mesure objective de la qualité des sites.

Dans le monde sans pitié du web, la non-qualité ne survit pas. Yahoo a compris que pour durer, il devait s’adapter. Il a intégré très tôt, avant de l’identifier comme une menace, le moteur de recherche Google sur son site-annuaire. Il a ensuite développé son propre moteur s’inspirant de son allié initial devenu concurrent. Fait hautement significatif, l’annuaire de Yahoo, symbole de son expertise fondée sur l’humain et les méthodes traditionnelles, n’est plus présent sur son site principal , et la société est en voie d’être rachetée par Microsoft.

La qualité et les normes

Nous touchons là une problématique qui est au coeur de la qualité :
Lorsque les critères de qualité sont fondés sur l’objet lui-même et sur des normes prédéfinies (le plus souvent objectives), il est toujours possible et souvent facile de truquer la mesure de sa qualité en modifiant l’objet pour l’adapter au mieux à la norme. C’est d’autant plus facile et tentant lorsque la norme est connue de tous, ce qui est la norme de la norme... La multiplication des normes pour déjouer ces manipulations ne fait que rendre la mesure qualitative plus complexe et aboutit souvent à déqualifier des objets de qualité pour non-respect des normes, ce qui est un effet particulièrement pervers. L’énergie consacrée à adapter l’objet à la norme est souvent inversement proportionnelle à sa qualité intrinsèque [10]. Au final, la qualité fondée sur des normes sélectionne l’aptitude à s’adapter aux normes et non la qualité des objets. Il suffit à chacun de réfléchir aux normes de son environnement professionnel pour constater que si elles sont parfois fondées sur la logique et le bon sens, elles sont le plus souvent réductrices, obsolètes, parfois sclérosantes et surtout incapables de sélectionner avec pertinence les meilleurs agents.

La qualité de l’information peut s’évaluer grâce à des critères qu’elle ne contient pas !

Nous sommes arrivés à la limite d’un modèle millénaire de classement de la connaissance (rayons, étagères, annuaires, index, table des matières...) fondée sur l’analyse de son contenu.

C’est alors qu’entrent en scène Sergey Brin et Larry Page, deux étudiants en informatique de l’université Stanford. Ils ont 25 ans. Nous sommes en 1998.

JPEG - 61.5 ko
Cette photo des fondateurs de Google paraît ancienne. Elle n’a pourtant que 6 ans...

Ce qui n’était initialement qu’un simple projet de recherche propose une rupture totale avec le passé :

Les critères qui permettent d’apprécier la pertinence d’un document ne sont plus tant dans le document lui-même que dans l’usage que d’autres lecteurs ou bibliothécaires en font.

Avant 1998 : on analyse le contenu du document pour le classer et déterminer sa valeur :
- avec un expert : éditeur d’annuaire, bibliothécaire
- ou avec un indexeur automatique : robots des moteurs de recherche qui parcourent le web sans relâche et indexent automatiquement son contenu.

Après 1998 : Google analyse le comportement des hommes autour des documents, agrège ces comportements et en tire des informations sur la pertinence d’un document pour une recherche donnée. Ce sont les connexions créées par des hommes entre les documents qui permettent d’apprécier leur qualité, c’est-à-dire leur aptitude à répondre à la question posée [11].

Ce glissement de la pertinence vers la qualité (et vice-versa) est intéressant. En effet, il est bien difficile de définir la qualité de façon absolue. Le bon médicament, le bon médecin, le bon article le sont-ils dans l’absolu, pour tous et dans toutes les situations ? La qualité n’est-elle pas fondamentalement contextuelle, adaptée à chacun de nous, à nos désirs, nos déterminants et à ce que nous cherchons ou souhaitons ? Il est frappant de constater que les fondateurs de l’EBM [12] ont écrit dans leur article fondateur qu’ils "rejoindraient sur les barricades" ceux qui voudraient transformer leur approche rationnelle mais humaniste de la décision médicale en "recettes de cuisine" pour soigner les patients [13]. Ce glissement de l’EBM au service du patient vers le soin normalisé et imposé à tous est pourtant perceptible depuis quelques années, sous la pression conjointe des assureurs maladie et des autorités sanitaires françaises.

La mesure de la qualité extrinsèque de l’information est une rupture totale avec le passé

Avant d’étudier plus en avant le fonctionnement de Google, tordons le cou d’emblée à une idée aussi fausse que répandue : Google n’identifie pas les documents les plus "populaires" au sens de "documents les plus souvent consultés". Un tel critère n’aurait aucun intérêt et aboutirait rapidement à un nivellement de la qualité de l’information disponible, chaque éditeur de site cherchant alors à plaire au plus grand nombre. Ce serait "l’effet TF1" sur le Web.

Larry Page et Sergey Brin ont bâti leur outil sur une constatation : chaque fois que quelqu’un écrit une page pour internet, il crée des liens dans cette page pour indiquer au lecteur d’autres pages qui lui paraissent pertinentes, pour approfondir la réflexion sur le sujet traité ou pour étayer ses dires. C’est une micro-expertise : ces auteurs utilisent leurs capacités d’analyse et leur connaissance du sujet pour créer ces liens. Si l’on pouvait regrouper ce travail intelligent mais éparpillé en un tout cohérent, il y aurait émergence d’une expertise collective permettant d’identifier les documents intéressants.

Tel un cerveau dont l’intelligence repose sur des milliards de connexions entre ses neurones, les connexions (liens) entre les milliards de pages du web constituent une forme d’expertise diffuse qu’il serait intéressant de pouvoir agréger.

Les connexions neuronales de notre cerveau se sont créées au fur et à mesure de nos apprentissages et de nos expériences. Les liens internet se créent au fur et à mesure de la création des pages. Nous verrons aussi que Google "apprend" en examinant le comportement des lecteurs.

Page et Brin ont alors l’idée de créer une première règle d’indexation pour utiliser au mieux cette intelligence. Cette règle porte le nom de PageRank, du nom de son créateur. Ce sera leur sujet de mémoire de fin d’étude [14].

JPEG - 164.7 ko
Premier serveur Google, fabriqué avec des LEGOs (ce n’est pas une blague).

Le principe initial du PageRank est simple : une page internet est présumée intéressante si d’autres pages font des liens vers elle. Cela peut se traduire facilement dans l’ancienne représentation du classement de l’information : un livre est intéressant s’il remplit les conditions suivantes :
- Il est souvent cité en référence par d’autres livres ou articles [15]
- Il est souvent conseillé par un bibliothécaire.

Notez que le critère "il est souvent lu" n’est pas pris en compte : si un livre répondant aux deux critères précédents est certes plus souvent lu qu’un autre, il ne sera pas forcément le plus lu. Le nombre de lectures d’un livre ou d’un article n’est pas un facteur de qualité fiable (comme la taille de la clientèle d’un médecin).

Le schéma ci-dessous illustre bien le fonctionnement du PageRank ; la taille du petit symbole qui représente une page internet est proportionnelle à l’importance accordée à son contenu. Cette taille dépend de deux éléments :
- Le nombre de liens qui pointent vers lui.
- L’importance (qualité) de ceux qui font des liens vers lui.

Etre lié (pointé par) un éditeur de site de qualité augmente plus le PageRank qu’être lié par une page anonyme ou peu considérée par les autres. [16].

Pour résumer :
- Google propose une rupture totale avec l’indexation traditionnelle : ce n’est plus le contenu du document qui est le plus important, mais ce qu’en pensent les autres auteurs et les bibliothécaires.
- Google ne propose pas les liens les plus populaires, les plus lus, ou les mieux considérés par la foule des internautes car ces données ne sont pas pertinentes.
- Au contraire, Google met en valeur et vous propose les liens conseillés par d’autres auteurs car il considère qu’en faisant cela, il fédère l’expertise de tous ces auteurs et que cette expertise collective est plus rapide et étendue que toute autre. Google fonctionne comme un système neuronal [17].

Nos deux brillants sujets sont tellement sûrs de leur fait que la page d’accueil de leur nouveau site est une véritable provocation :

Jugez donc :
- aucun décor : un cadre de saisie et un titre, c’est tout. Pas d’options de recherche, de mode "avancé", ils insistent sur la rupture avec Altavista, le leader du marché des moteurs de recherche en 1998 dont la page d’accueil (ci-dessous) était déjà chargée pour l’époque.
- un bouton énigmatique "J’ai de la chance" affiche directement à l’écran le premier résultat de la recherche, sans passer par une page intermédiaire de liste de résultats. Dans la majorité des cas, ce premier résultat est le bon ! L’effet de saisissement est garanti alors qu’il fallait auparavant tester plusieurs résultats de recherche, voire plusieurs moteurs pour obtenir péniblement le document ou site recherché.

Malgré son succès immédiat, la première version de Google est assez primitive et se contente de trier l’information en examinant des liens entrants et en calculant un PageRank pour chaque page.

Voyons comment il va étendre ses capacités pour devenir la porte d’entrée principale sur le Web.

Amélioration du PageRank

Le PageRank n’était qu’une première étape. L’algorithme (la méthode de calcul) qui permet actuellement à Google de trier les ressources du Web repose sur une centaine de critères sur lesquels le secret est jalousement gardé pour éviter toute manipulation par les éditeurs de sites [18]. Certains de ces critères sont néanmoins suspectés ou connus et l’on se rapproche de plus en plus d’un fonctionnement neuronal :

JPEG - 132.9 ko
Réseau de neurones en 3D

Le PageRank s’appuiera désormais non plus sur des webmasters quelconques qui font un lien vers une page, mais sur les webmasters qui traitent du même sujet. C’est une modification importante car elle augmente la qualité de la sélection. Ce ne sont plus les bibliothécaires ou les auteurs en général qui conseillent un ouvrage ou un article, mais d’autres spécialistes du sujet traité. Ces "spécialistes" peuvent être réels ou autoproclamés, mais la loi du nombre pondère les extrêmes. On voit arriver le concept d’intelligence des foules [19], ou celui plus prudent d’Alchimie des multitudes de Pisani et Piotet.

Les liens sortants sont pris en compte. Il ne faut pas seulement être conseillé par d’autres auteurs (liens entrants), il faut soi-même conseiller de bons documents pour accroître sa réputation, ce qui est assez logique et conforme à ce qui se passe dans la vie réelle.

Google propose différents services additionnels, dont une barre d’outils qui permet à son utilisateur de stocker ses adresses de sites (favoris). La base de données est stockée sur les serveurs de Google. Il est probable que le moteur tient compte des sites sélectionnés pour leur donner un poids plus important. De plus, les internautes créent des dossiers (chez Google) pour ranger ces liens et le nom de ces dossiers est une information très importante [20].

Google n’analyse plus seulement le nombre de liens qui pointent vers un site, mais la dynamique d’apparition de ces liens. En effet, des liens artificiels créés pour l’influencer apparaissent généralement tous en même temps et à partir du même site. Au contraire, un contenu de qualité génère la création de liens spontanés dont la répartition dans le temps est progressive et étalée sur de nombreux sites.

Google tient compte de l’âge du document et de sa mise à jour. Un contenu ancien inséré dans un site qui ne bouge plus risque d’être moins pertinent qu’un article souvent modifié ou intégré dans un site dynamique.

Lorsque vous faites une recherche dans Google, celui-ci analyse votre comportement sur la page de résultat. Si vous allez voir une page indiquée et que vous revenez après quelques secondes, c’est que cette page ne correspondait pas à votre attente. Son PageRank sera abaissé. Au contraire, la page consultée en dernier aura un PageRank augmenté : si vous avez cessé vos recherches après cette page, c’est sans doute parce qu’elle a répondu à votre attente.

Il existe des dizaines d’autres critères destinés à reconnaître la bonne information sans la moindre analyse du contenu. Ces règles fonctionnent aussi bien pour du français que de l’anglais ou du chinois. Google met en oeuvre des techniques de détection de la fraude si pointue que le principal conseil actuellement pour être bien classé dans le moteur est "créez des contenus intéressants". Peut-on imaginer meilleure consécration pour le moteur de recherche ?

Google ne peut trouver que ce qui existe

Bien sûr, tout n’est pas parfait et le moteur vedette est parfois décevant sur certaines requêtes difficiles [21] ou très commerciales. Il faut néanmoins avoir à l’esprit une contrainte importante : Google comme tous les moteurs, ne peut trouver que ce qui est accessible. Autant le Web est riche en langue anglaise, autant le monde francophone tarde à libérer ses contenus. L’absence de lien de qualité dans une requête ne fait souvent que refléter (dans le monde médical francophone notamment) la pauvreté des contenus en accès libre disponibles.

En corollaire, sachant que Google est la porte d’entrée sur Internet pour la grande majorité des internautes, tout document qui n’est pas indexé par Google "n’existe pas", mais ceci une autre histoire [22].

Nous venons de passer en revue la façon dont Google s’appuie sur le travail intellectuel des webmasters et sur le comportement des internautes pour agréger ce "jus de cervelle virtuel" en une forme d’expertise neuronale très primitive. C’est à notre avis un des plus beaux exemples de ce que nous pourrions appeler la mesure extrinsèque de la pertinence :
- Google ne demande d’effort à personne, il utilise un travail déjà réalisé par d’autres.
- Google met en forme des données publiques, mais que lui seul parvient à agréger correctement.
- Google est ouvert à tous et ne coûte rien à ceux qui utilisent ses services, tout en gagnant énormément d’argent avec d’autres (l’innovation n’est en rien synonyme de bénévolat).
- Google sépare clairement le service qu’il apporte (trouver l’information) et son gagne-pain (la publicité). S’il ne le faisait pas, il disparaîtrait en quelques années faute d’utilisateurs, tant la crédibilité de ses résultats serait altérée.
- Google touche à un domaine clé de la civilisation de l’information : l’accès à la bonne information au sein d’un "bruit" phénoménal.
- Google se fonde sur un réseau mais il ne le crée pas : il utilise le maillage constitué par les auteurs-lecteurs du Web.

Les autres articles de cette série développeront la notion de mesure extrinsèque de la qualité [23]. Le principal reproche qui lui est souvent fait est son caractère subjectif, et cet aspect sera particulièrement développé. Le concept de "pairjectivité" à la Google, agrégat de subjectivités émanant d’individus ayant un trait commun (pairs) est sans doute la clé qui peut permettre de s’abstraire de ce paradoxe : la mesure la plus pertinente de la qualité s’appuie sur des éléments subjectifs et non objectifs, extrinsèques et non intrinsèques. Nous verrons d’ailleurs dans d’autres articles que c’est ainsi que nous fonctionnons au quotidien : l’avis de ceux qui connaissent un domaine et en qui nous avons confiance est le critère de qualité que nous plaçons au-dessus de tous les autres.

Vous pouvez réagir à cet article sur le Forum

Vers l’article suivant du dossier

Remarque : cet article avait déjà été publié sous une forme légèrement différente destinée à illustrer le concept de web 2.0

Notes

[1] En 2008, Google est devenu la marque la plus connue dans le monde, après seulement 10 ans d’existence Source Millwardbrown 2008

[2] http://etablissements.ac-amiens.fr/...

[3] Cet annuaire existe toujours.

[4] Toile est un terme souvent employé pour décrire le web, c’est-à-dire les pages consultables sur internet. Les trois "w" signifient World Wide Web, ce qui peut être traduit par "La grande toile d’araignée mondiale"

[5] Notamment l’annuaire DMOZ qui existe toujours

[6] Tous ces moteurs ont disparu ou ont été remplacés par d’autres services.

[7] Ce processus avait d’ailleurs été déjà automatisé pour les ouvrages imprimés depuis de nombreuses années

[8] Pour être honnête, il faut reconnaître que quelques critères extérieurs sont aussi pris en compte dans les dernières versions des moteurs "1.0", notamment le fait que le site contenant la page ait été indexé dans des annuaires gérés manuellement comme Yahoo

[9] Ces techniques d’optimisation portent désormais le nom de "référencement" et sont devenues un métier à part entière

[10] Observations répétées à comparer à votre expérience personnelle.

[11] Cette vision tranchée de l’apparition de facteurs extrinsèques de mesure de la qualité néglige bien sûr d’autres expériences du même type et notamment le "facteur d’impact" utilisé avec les publications sur papier. Merci de nous pardonner ces approximations destinées à faciliter la lecture du texte.

[12] Evidence Based Médecine ou médecine fondée sur des preuves. Il s’agit d’une approche scientifique mais aussi humaniste de la médecine qui consiste à fonder ses décisions sur les meilleurs éléments probants disponibles

[13] http://www.atoute.org/n/breve14.html

[14] Pour simplifier la compréhension du fonctionnement de Google, nous ne tenons pas compte de l’évolution progressive des algorithmes au cours du temps et décrivons un fonctionnement global actuel.

[15] Principe proche du "facteur d’impact"(déjà cité), utilisé avec les publications sur papier et né quelques années avant le PageRank.

[16] Les plus attentifs d’entre vous ont remarqué la similitude avec l’histoire de la poule et de l’oeuf ! Comment commencer ? Quels sont les premiers sites de qualité ? Ce problème a été géré par l’identification initiale de sites présents dans les annuaires (et donc déjà sélectionnés par un cerveau humain) et par ce qu’on appelle la récursivité : Google analyse régulièrement les liens entre les sites de son index pendant une courte période joliment appelée "Google Dance" et modifie le PageRank de chaque site en fonction notamment de ses liens entrants (qui pointent vers lui). Cette remise à niveau permanente du PageRank permet un ajustement de la place de chaque site ou page dans les résultats du moteur de recherche en fonction de la progression (ou baisse) de sa réputation.

[17] Nous parlons bien de système neuronal et non de "réseau neuronal", terme informatique ayant un sens différent. Voir aussi ce document surl’hyperscience

[18] On peut assimiler le passage des spiders indexeurs de Google sur les sites à un examen ; pour qu’un examen soit juste et discriminant pour sélectionner les candidats, il vaut mieux que le sujet n’en soit pas connu à l’avance

[19] Traduit de l’anglais Wisdom of crowds

[20] Ce concept classification libre est appelé Folksonomie.

[21] C’est sur les concepts fumeux ou ésotériques que Google est le plus fragile car il va mettre en valeur non pas le site le plus scientifique, mais parfois le site le plus représentatif de cette théorie ou de ce mouvement, surtout si aucune page ne fait un point sérieux sur le sujet

[22] Ce phénomène en train de naître est une réédition du problème de l’anglais dans les publications scientifiques : dès les années 60, il est devenu évident (autant qu’injuste), que ce qui était publié en français "n’existait pas" pour le monde scientifique

[23] Le concept de qualité intriqué avec celui de pertinence, impliquant la variabilité de la qualité en fonction de son contexte, pourrait porter le nom de "qualinence". Dans un esprit de simplification du texte, nous parlerons souvent de qualité sans indiquer à chaque fois ce distinguo contextuel

http://www.atoute.org/n/Qualite-et-sante-2-L-approche.html

Qualité et santé : 3) Médecine scientifique et objectivité

Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : longtemps centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur un partage et une pondération de la subjectivité.
- Le premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
- Le deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
- Dans ce troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, trouve aujourd’hui ses limites et doit laisser coexister d’autres approches.
- La pairjectivité, thème central de ce dossier, est détaillée dans le quatrième article.
- Le cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.

Idées-forces :
- La subjectivité a longtemps aveuglé la médecine.
- A la subjectivité du patient s’ajoute celle du soignant : effet placebo et biais de vérification d’hypothèse.
- L’introduction d’une approche objective et expérimentale de la médecine a permis les immenses progrès sanitaires du XXe siècle.
- Mais l’objectivité se prête mal à l’étude des phénomènes humains et conduit la médecine dans une impasse.
- Avec l’objectivité est née la fraude qui est rapidement devenue inextirpable de la science.
- L’approche purement objective de la thérapeutique était une étape importante qu’il faut accepter de dépasser.

"Qui d’entre nous, au moment d’aider celui qui s’est confié à lui, ne souhaiterait que la science fût encore plus avancée ? Mais ce qu’on nous présente comme “connaissances scientifiques” évoque bien souvent le bric-à-brac qu’un brocanteur aurait qualifié de salon artistique..."
Pr Alain Froment

"Il n’y a aucune limite (son, lumière, zéro absolu, principe d’exclusion de Pauli) que l’esprit de l’homme ne puisse franchir dans un calcul foireux"
Anonyme - Les perles du bac

Guérir est longtemps resté une affaire de magie.

Hippocrate fut le premier à tenter, en créant la médecine, de s’appuyer sur la raison en matière de santé.
Il s’inscrivait ainsi dans la continuité des philosophes naturalistes, suivi par Erasistrate, Celse, Galien, Avicenne...

Cependant, comme les progrès furent lents !

Car les médecins, comme les autres scientifiques de l’antiquité, étaient handicapés par leur subjectivité propre, ce qu’on appelle à présent le biais de confirmation d’hypothèse.

Ce biais est une tendance naturelle qui nous pousse à trouver dans nos observations ce qui confirme nos théories ou croyances : nos yeux ne voient pas, notre cerveau ne croit pas, ce qui va à l’encontre des idées que nous cherchons à vérifier. Alors nous les écartons sans procès. Ainsi, le chercheur-expérimentateur rejette inconsciemment les résultats qui le dérangent.
Au contraire, nous mettons en exergue les observations qui vont dans le sens de notre démonstration : le médecin qui teste un médicament, écoute ses patients d’une oreille très différente selon qu’il croit ou non en l’intérêt de sa prescription. Les effets positifs seront attribués au médicament alors que les ressentis négatifs seront "à coup sûr" dûs à une cause extérieure, voire à une autre maladie.

Pourtant, à étudier de près l’acte de guérison, le médecin n’est pas le seul être subjectif bien au contraire.

A cette subjectivité côté médecin s’ajoute une subjectivité côté patient : l’effet placebo

L’effet placebo constitue l’autre grand biais thérapeutique. La foi dans ce qui soigne mobilise des mécanismes d’atténuation de la douleur, mais aussi de baisse de la tension artérielle ou du cholestérol ! Une substance inerte présentée comme un médicament salvateur va guérir un pourcentage important de patients. Encore aujourd’hui l’effet placebo intervient de façon considérable dans l’effet des médicaments, y compris pour ceux dont l’activité intrinsèque est incontestable. L’effet placebo touche les enfants comme les adultes, les scientifiques comme les illettrés. Il concerne même les animaux, preuve s’il en était besoin de la puissance de la communication non verbale. Il existe aussi en miroir un effet nocebo : nous ressentons des effets indésirables avec une substance inerte, surtout si elle nous a été présentée comme potentiellement mal supportée.

Le plus bel exemple d’effet placebo-nocebo a été matérialisé par un très beau protocole à double détente : dans un service de personnes âgées, un produit inerte (gélule de sucre glace) est présenté aux infirmières comme un bon antidouleur à utiliser si nécessaire chez leurs patients. Elles sont mises en garde contre le risque de diarrhée que ce nouveau médicament peut provoquer, mais il leur est demandé de ne pas parler de ce problème aux patients. Ce médicament est pourtant un pur placebo dénué de toute activité biologique.
Après un mois, les infirmières ont demandé à ce qu’on leur fournisse un autre médicament : elles le trouvaient très efficace sur les douleurs, mais le service était désorganisé par les nombreuses diarrhées qu’il provoquait chez les pensionnaires de l’établissement [1]. Effet placebo et nocebo s’intriquaient sans que l’on sache qui influençait qui...

Les subjectivités s’ajoutent, comme les erreurs de mesure s’additionnent dans une expérience de physique. Faute de savoir détecter et corriger ce biais majeur, la médecine n’a que très peu progressé sur le plan thérapeutique pendant deux mille ans. Les remèdes les plus fantaisistes se sont succédés sans qu’un outil d’évaluation objectif et fiable puisse permettre de trier l’illusion de la réalité.

Le philosophe Michel Henry situe au début du XVIIème siècle avec Galilée l’irruption de l’objectivité dans le champ scientifique [2]. Le célèbre astronome serait le précurseur de la modernité et l’un des premiers à dénoncer la subjectivité comme frein à la connaissance rationnelle. On connaît ses démêlés avec l’Eglise : les remises en cause des dogmes provoquent généralement de fortes réactions.

Dans le champ médical, la découverte de la circulation sanguine par Harvey à la même époque amorce une accélération du progrès scientifique en médecine, facilité par de nouveaux outils comme le microscope de l’étonnant van Leeuwenhoek.

Un siècle plus tard, la première expérience médicale scientifique est sans doute celle de James Lind. Ce médecin écossais étudie l’action de divers produits pour soigner le scorbut. Il crée six groupes de marins et leur attribue un produit différent. Ceux qui prennent les citrons guérissent. C’est sans doute la première étude comparant simultanément des traitement dans des groupes de patients différents ; ces études seront appelées plus tard "contrôlées" par référence à un groupe de contrôle qui ne reçoit pas le traitement à étudier. Il s’agit d’un application parfaite de la méthode expérimentale. La gravité de la maladie, l’absence d’effet placebo significatif dans le scorbut, l’absence de guérison dans les autres groupes, se conjuguaient pour démontrer formellement de l’efficacité d’un composant des agrumes.

Le XIXe siècle voit se généraliser la méthode expérimentale

L’expérience de Lind n’était qu’un premier pas vers la médecine scientifique qui va progresser à grands pas grâce à la généralisation de la méthode expérimentale, sous l’influence notable de Claude Bernard :
- Le scientifique observe un phénomène et conçoit une hypothèse qui s’y rattache ou l’explique.
- Il imagine ensuite une expérience qui ne pourra fonctionner que si cette hypothèse est vraie.
- En cas d’échec de l’expérience, l’hypothèse est réfutée.
- En cas de succès, il poursuit de nouvelles expériences pour confirmer son hypothèse et communique sur ce qui pourrait devenir une "loi de la nature" [3].

La mise en oeuvre de la méthode expérimentale coïncide avec d’immenses progrès dans la compréhension des phénomènes biologiques avec leur cortège de retombées diagnostiques et surtout thérapeutiques.

C’est par sa célèbre expérience de la cornue stérilisée [4] que Louis Pasteur arrive à convaincre l’Académie de Sciences de l’impossibilité de la génération spontanée de la vie. Pour autant, et malgré l’élégance de la démonstration, son adversaire Pouchet continue à croire jusqu’à sa mort à la génération spontanée.

JPEG - 13.9 ko
Expérience de Pasteur
Après chauffage et donc stérilisation, la solution ne fermente pas. En revanche, si l’on casse le serpentin, les germes pénètrent et la solution fermente.

source

C’est donc l’expérimentation qui devient le nouveau standard de la science médicale. L’expérimentation permet de prouver objectivement la justesse d’une nouvelle théorie, l’erreur de ses contradicteurs, ou l’intérêt d’un nouveau traitement. Elle vise à protéger le scientifique de sa propre subjectivité.

Une période féconde en découvertes majeures s’ouvre alors, apportant notamment la vaccination et l’hygiène, deux moteurs majeurs de l’augmentation de l’espérance de vie et de la lutte contre les fléaux sanitaires.

Mais la thérapeutique est le parent pauvre du progrès et la médecine scientifique reste essentiellement descriptive. La compréhension des mécanismes biologiques progresse beaucoup plus vite que les traitements. Le XIXe siècle et le début du XXe font encore la part belle à l’homéopathie et aux extraits de plantes dont les effets sont modestes sur les maladies graves.

Si la méthode expérimentale constitue la voie royale en physique et un outil de choix en biologie, il en est autrement en médecine. L’effet placebo, c’est-à-dire la subjectivité côté patient, est toujours aussi puissant et déroutant ; il fausse les tentatives d’évaluation thérapeutique. De plus, ce qui est vrai pour un patient ne l’est pas pour un autre et la variabilité des réactions individuelles rend hasardeuse l’extrapolation des résultats observés. Enfin, la "protocolisation expérimentale" des remèdes traditionnels issus de plantes nécessite l’extraction des principes actifs et l’anéantissement d’un savoir ancestral empirique faisant intervenir de nombreux éléments de complexité [5]. Seuls les produits dont l’efficacité est flagrante et qui guérissent ou préviennent des maladies graves sortent du lot. Les vaccins en constituent un bon exemple.

Après avoir combattu la subjectivité de l’expérimentateur par la méthode expérimentale, la médecine invente d’autres procédés pour tendre vers l’objectivité et la rigueur scientifique :
- La randomisation, utilisée pour la première fois par Ronald A Fischer dans l’agriculture, s’impose comme un moyen aussi efficace que déroutant par sa simplicité pour créer des échantillons de patients comparables : il suffit de tirer au sort.
- L’essai clinique contrôlé en aveugle contre placebo : un groupe de patients reçoit le principe actif à étudier, l’autre un placebo indiscernable. Les résultats sont comparés dans les deux groupes. La subjectivité du patient est annulée [6] par le fait qu’il ne sait pas s’il prend le principe actif ou le placebo.
- Le double aveugle [7] : étude contrôlée dans laquelle ni le patient ni le médecin ne connaissent la nature du médicament délivré. L’analyse des résultats finaux doit idéalement être réalisée également en aveugle, la nature du traitement A et du traitement B comparés n’étant dévoilée qu’à la fin du traitement des données (pour éviter un biais de vérification d’hypothèse - rejet ou interprétation des données défavorables - à cette phase cruciale).

Garantissant apparemment une double protection contre la subjectivité de l’expérimentateur et celle du patient, l’essai clinique contrôlé (ECC) va devenir le parangon de vertu scientifique dans le domaine médical.

Naissance des essais cliniques contrôlés

(source La course aux molécules, Sébastien Dalgalarrondo)

"L’histoire des essais cliniques randomisés commence aux États-Unis après la seconde guerre mondiale, lorsque des médecins, des chercheurs et des responsables de revues médicales, persuadés du pouvoir de la science et de la preuve statistique, décident de lutter à la fois contre l’hétérogénéité des prescriptions thérapeutiques et l’influence néfaste des publicités de l’industrie pharmaceutique, jugées peu scientifiques voire mensongères.

Ces « réformateurs thérapeutiques » entreprennent donc la mise en place d’essais dans lesquels les patients sont répartis de manière aléatoire (randomisation) dans deux groupes d’analyse, le premier recevant un placebo et le deuxième le traitement testé.

Cette nouvelle façon d’apporter la preuve de l’efficacité d’un médicament ne s’imposa pas sans quelques réticences au sein de la communauté médicale. Certains cliniciens refusèrent d’attribuer des médicaments au hasard et de priver ainsi, pendant la période de l’essai, leurs malades de tout traitement au nom de la science et de la rigueur statistique, pratique qu’ils jugeaient contraire à l’éthique médicale et au devoir de soin.

Cette nouvelle méthodologie imposait par ailleurs que ni le patient ni le médecin ne sachent dans quel groupe le patient était enrôlé, procédure dite du double aveugle, qui se heurtait elle aussi aux pratiques ancestrales de la médecine.

Parallèlement à la naissance et à la constitution de ce groupe de réformateurs, à la tête duquel on trouve des patrons de médecine prestigieux, d’autres acteurs de la communauté médicale oeuvraient pour un meilleur contrôle des médicaments. Dès 1906, le Conseil de pharmacie et de chimie de l’Association médicale américaine (AMA) mit en place un réseau d’experts, notamment des pharmacologues, chargés de vérifier et d’évaluer l’intérêt thérapeutique des nouvelles molécules. Ces pharmacologues allaient jusqu’à réaliser leurs propres études afin de lutter contre le discours parfois proche du « charlatanisme » de certains groupes industriels. Le modèle de cette expertise sera repris par la Food and Drug Administration (FDA) en 1938 lorsqu’elle commença à vérifier l’innocuité et l’efficacité thérapeutique des médicaments.

Mais malgré tous les efforts du groupe des réformateurs et l’apparition progressive d’études randomisées dans la presse médicale, il fallut attendre deux événements cruciaux pour voir les ECC véritablement s’imposer.

Le premier est d’ordre réglementaire. En 1962 est voté aux États-Unis un amendement à la loi fédérale sur l’alimentation, les médicaments et les cosmétiques, le Kefauver-Harris Amendement.
Il imposa aux firmes de démontrer en suivant « une méthode statistique appropriée » et une « investigation contrôlée » l’efficacité d’un nouveau médicament avant qu’il ne soit mis sur le marché. Les industriels durent donc appliquer les ECC pour pouvoir satisfaire ces nouvelles exigences réglementaires.

Deuxième élément, l’adoption au milieu des années 1970 d’une nouvelle réglementation destinée à protéger les patients inclus dans des protocoles de recherche clinique. Initiée conjointement par le National Institute of Health (NIH) et la FDA, elle faisait suite à la dénonciation de dérives et notamment à l’inclusion dans certains essais de personnes n’étant pas en possession de toutes leurs facultés mentales. Le concept-clé de cette nouvelle réglementation était celui du consentement éclairé des patients, qui devaient être en mesure, avant d’être inclus dans un essai, d’apprécier les risques et d’évaluer les conséquences de l’utilisation d’un placebo et d’une répartition aléatoire.(...)"

La pratique des ECC est donc toute récente. Erigée en dogme méthodologique, elle est censée apporter l’objectivité nécessaire à une évaluation rationnelle des médicaments et des stratégies thérapeutiques. Malheureusement, si ses débuts ont énormément apporté à l’évaluation du fatras thérapeutique hérité du XIXe siècle, les ECC souffrent d’un défaut rédhibitoire : ils ne peuvent étudier que ce qui est objectivable et mesurable [8].

Comment étudier un sujet avec objectivité ?

La science expérimentale a abouti à une "objectivation du sujet", à un réductionnisme cartésien de l’invidu réduit à une somme d’organes, de mécanismes biologiques où à un "sujet-type" dont le destin sera applicable à ses semblables.

L’objectivisation de la médecine a bien sûr permis de réels progrès en mesurant précisément l’impact de nos interventions sur des phénomènes bien définis. Mais elle a aussi été terriblement sclérosante en excluant du champs de la science médicale l’essentiel de ce qui caractérise l’Homme, à savoir les émotions, les affects, la complexité, ou encore la versatilité et l’oubli. Michel Maffesoli décrit très bien ce phénomène dans son "éloge de la raison sensible". Dans un registre un peu différent, Sophie Ernst, une philosophe de l’éducation s’interroge sur "l’image ambivalente de la science chez les jeunes : triomphante et asséchante"("subjectivité et objectivité dans l’enseignement des sciences" ).

Pour rester centré sur la médecine, Alain Froment, dans "la science et la compassion" [9] analysait avant l’apparition de la "médecine fondée sur les preuves" le double écueil consistant soit à négliger les apports de la science, soit à vouloir les imposer au patient sans se préoccuper de sa singularité :

Nous serions peut-être alors encouragés à tenir compte des limites de nos connaissances biologiques pour réfréner notre tendance naturelle au dogmatisme, dans nos paroles et nos décisions médicales, et à confronter l’argumentation biologique boiteuse à d’autres éléments qui mériteraient tout autant, sinon plus, d’être pris en considération.
Combien d’ouvrages médicaux, d’articles, de présentations de congrès, et pire encore de décisions thérapeutiques “sur dossier”, réduisent l’individu, comme s’il était un quelconque organisme animal, à un ensemble de chiffres, d’images et de signes, en omettant complètement que cet organisme est habité par l’affection, la joie, la peine, l’angoisse, le désir, qu’il se comporte comme membre d’un groupe et a besoin d’y conserver sa place et sa fonction, que sa vie a d’autres dimensions que sa durée et peut être fondée sur des valeurs profondément différentes des nôtres, mais tout aussi valables qu’elles.
Ces réalités sont-elles méprisables parce qu’elles ne sont pas mesurables, ou n’est-ce pas nos connaissances qui sont méprisables de ne pas pouvoir les prendre en compte ? Qui connaît d’ailleurs les conséquences biologiques à long terme de la souffrance morale, de l’angoisse, du bien-être, de l’affection ? On a quelques raisons de les croire importantes : est-ce véritablement la marque d’une attitude scientifique que de ne pas tenir compte de cette éventualité, et est-ce la marque du progrès scientifique que d’anéantir ce que des millénaires de civilisation ont fait de l’Homme ?

Si l’individualisation de certains paramètres humains et leur étude isolée est grisante pour l’esprit scientifique, elle est frustrante pour l’humaniste. Pire, il arrive de plus en plus souvent que le scientifique souhaite imposer sa vision étriquée de la réalité de l’homme à ceux dont l’approche holiste est pourtant plus fidèle, à défaut d’être mesurable, reproductible ou tout simplement explicable. C’est tout le drame de la "norme" appliquée à la santé [10].

L’objectivité scientifique constitue un Graal inaccessible, voire un miroir aux alouettes. Mal utilisée, elle peut aboutir à détruire de précieux équilibres et faire paradoxalement régresser la qualité là où des imprudents tentent de l’imposer en dogme.

Elle présente un autre défaut important : sa sensibilité aux biais cachés. La subjectivité indissociable de l’humain a rapidement refait surface, sous une autre forme : la fraude scientifique. Or cette subjectivité dissimulée est beaucoup plus préoccupante que la subjectivité affichée des savants du XVIIIe siècle.

La fraude atténue progressivement les bénéfices apportés par la méthode expérimentale et les essais cliniques contrôlés

Dans leur célèbre Souris truquée [11], W. Broad et N. Wade rappellent que la fraude est aussi vieille que la science : Ptolémée, Galilée, Newton, Dalton ont inventé ou "arrangé" leurs résultats pour mieux valider leurs théories. Avant même que n’apparaissent les intérêts financiers qui rongent actuellement l’éthique médicale [12], la recherche de la gloire suffit à conduire nos savants les plus prestigieux à de petites "corrections" pour améliorer l’aspect de leur travaux. Il apparaît que les grands découvreurs sont parfois des scientifiques qui excellaient surtout dans l’art de mettre en valeur des travaux dont ils n’étaient pas les auteurs ; d’autres enjolivaient ou inventaient certains résultats d’expériences difficiles pour être sûrs de s’en faire attribuer la paternité : l’Histoire ne retient que le nom des découvreurs et la course contre le temps fait mauvais ménage avec la rigueur.

Depuis que la carrière des chercheurs est intimement liée au nombre de leurs publications, la fraude est devenue une part intégrante de la recherche. Broad et Wade commencent leur livre [13] (nous sommes en 1981) par la description d’une audition du Congrès américain :

D’un coup de marteau sur le bureau, le jeune représentant du Tennessee ramena le silence dans l’imposante salle d’audience du Congrès. Je suis forcé de conclure, dit-il, que la persistance de ce genre de problème résulte de la réticence des scientifiques à prendre cette affaire très au sérieux.

Le problème auquel Albert Gore Jr. faisait allusion était celui de la fraude dans la recherche scientifique.

Le jeune Al Gore (il avait alors 33 ans) aura l’occasion de faire parler de lui 20 ans plus tard en offrant au monde la base de données bibliographiques Medline jusqu’alors réservée aux abonnés. Pied-de-nez de l’Histoire, il sera battu aux élections présidentielles américaines de 2000 par Georges Bush grâce à une fraude électorale... Un prix Nobel lui sera attribué pour son action en faveur de l’écologie, domaine où la fraude scientifique est caricaturale aux USA.

La fraude est si bien ancrée dans les comportements scientifiques qu’elle en devient un sujet de dérision :

Traduction des termes employés dans les publications scientifiques :

IL EST BIEN ÉTABLI QUE...
"Je ne me suis pas donné la peine de vérifier, mais il me semble bien possible que..."

QUOIQU’IL N’AIT PAS ÉTÉ POSSIBLE DE DONNER UNE RÉPONSE DÉFINITIVE
"L’expérience échoua, mais il me semble tout de même pouvoir en tirer une publication"

LA TECHNIQUE X FUT CHOISIE CAR PARTICULIÈREMENT ADÉQUATE
"Le copain du labo d’à côté avait déjà mis la technique X au point"

3 ÉCHANTILLONS FURENT CHOISIS POUR UNE ÉTUDE EXHAUSTIVE
"Les résultats obtenus à partir des autres échantillons n’ont rien donné de cohérent"

MANIPULÉ AVEC LA PLUS GRANDE PRÉCAUTION DURANT TOUTE L’EXPÉRIMENTATION
"Ne fut pas jeté à l’égout"

LE COMPOSE ALANINE-ARGININE Z455 A ETE CHOISI POUR SA CAPACITE A DEMONTRER L’EFFET PREVU.
"Le gars du labo d’à côté en avait en rab"

HAUTE PURETE, TRES HAUTE PURETE, PURETE EXTREMEMENT ELEVEE, ULTRAPUR, SPECTROSCOPIQUEMENT PUR.
"Composition inconnue, mises à part les prétentions exagérées du fournisseur".

LA CONCORDANCE DE L’EXPERIENCE AVEC LA THÉORIE EST :
- EXCELLENTE = passable
- TRÈS BONNE = faible
- SATISFAISANTE = douteuse
- PASSABLE = totalement imaginaire

IL EST ADMIS QUE
"Je crois que"

IL EST GÉNÉRALEMENT ADMIS QUE
"2 collègues penseraient comme moi"

IL EST ÉVIDENT QUE DES TRAVAUX COMPLÉMENTAIRES SERONT UTILES
"Je n’ai rien compris à ce qui s’est passé"

VOICI QUELQUES RÉSULTATS TYPIQUES
"Voici les meilleurs résultats"

SIGNIFICATIF DANS UN INTERVALLE DE CONFIANCE DE...
"Non significatif"

MALHEUREUSEMENT, LES BASES QUANTITATIVES PERMETTANT DE TIRER PROFIT DES RÉSULTATS N’ONT PAS ENCORE ÉTÉ FORMULÉES
"Personne n’est arrivé à comprendre quoi que ce soit"

NOUS REMERCIONS X POUR SA PRÉCIEUSE COLLABORATION ET Y POUR SES CONSEILS
"X a fait le travail et Y m’a expliqué ce que signifiaient les résultats." [14]

Le méthode expérimentale, si elle a permis de grands progrès, a été indirectement responsable de la naissance d’une fraude plus élaborée. Auparavant, les scientifiques se contentaient, comme Ptolémée, "d’emprunter" le travail de leurs prédécesseurs, ou comme Newton et Galton, d’arranger quelques calculs pour "tomber juste". Désormais, il leur faut truquer, voire inventer de toute pièce des expériences complexes pour franchir les barrières de la reconnaissance par les collègues avant d’être publié.

Pour en finir avec l’humour attaché à la fraude scientifique, voici un dernier texte raillant les expériences un peu trop parfaites du père de la génétique, le moine Gregor Mendel :

Au commencement était Mendel, perdu dans ses pensées.

Et il dit : Qu’il y ait des pois.
Et il y eut des pois, et cela était bon.

Et il planta les pois dans son jardin et leur dit : Croissez et multipliez et répartissez-vous.
Ainsi firent-ils et cela était bon.

Puis il advint que Mendel regroupa ses pois et sépara ceux qui étaient lisses de ceux qui étaient ridés. Il appela les lisses dominants et les ridés récessifs, et cela était bon.

Mais Mendel vit alors qu’il y avait 450 pois lisses et 102 pois ridés. Ce n’était pas bon car la loi stipule qu’il doit y avoir trois ronds pour un ridé.

Et Mendel se dit en lui-même : Gott in Himmel, c’est là l’oeuvre d’un ennemi qui aura semé les mauvais pois dans mon jardin à la faveur de la nuit !

Et Mendel, pris d’une juste colère, frappa sur la table et dit : Eloignez-vous de moi, diaboliques pois maudits, retournez aux ténèbres où vous serez dévorés par les souris et les rats !

Et il en fut ainsi : il ne resta plus que 300 pois lisses et 100 poids ridés, et cela fut bon. Cela fut vraiment, vraiment bon.

Et Mendel publia ses travaux [15].

Savoir apprécier l’ubiquité de la fraude scientifique est important pour comprendre l’évolution de la médecine scientifique au XXè siècle. En effet, des mécanismes de prévention sont rapidement mis en place pour contenir la fraude. Il s’agit essentiellement des relecteurs scientifiques attachés aux revues les plus prestigieuses. Ces "referees" ont pour rôle de vérifier avant publication que les règles de bonnes pratiques scientifiques ont été respectées, que les sources sont citées et que les conclusions tirées par les auteurs coïncident bien avec les travaux décrits. Malheureusement, si ce filtre fonctionne pour les fraudes les plus grossières, il est souvent pris en défaut par des fraudes minimes, voire par des fraudes à grande échelle organisées par des falsificateurs de génie [16]. De plus, la relecture par les pairs introduit un biais éminement subjectif dans une science qui se veut désormais objective : ces referees sont des hommes comme les autres habités par la jalousie, l’amitié ou le déni. Ils peuvent être en concurrence avec des collègues dont ils évaluent les travaux ou être rémunérés par des entreprises pharmaceutiques menacées par les travaux qu’ils relisent.

Des affaires récentes ont mis ces pratiques en lumière. Citons le retrait du médicament antiinflammatoire Vioxx suivi de plaintes pénales qui ont permis l’accès à la totalité des documents concernant ce produit, et une polémique sur un médicament du diabète (Avandia). Toutes les facettes de la fraude sont réunies dans ces affaires [17] : referees qui transmettent des articles (confidentiels) à des firmes qui les emploient, dissimulation d’informations gênantes par les industriels, fortes pressions sur les lanceurs d’alertes, non-publication de travaux négatifs, manipulation des résultats d’études cliniques.
Ces affaires illustrent un défaut de la méthode expérimentale : sa mise en avant peut apporter une apparence d’objectivité à des données qui sont en pratique parfaitement subjectives car triées, publiées, manipulées et financées par des humains ou des lobbies. Elles ne constituent en rien des exceptions au sein d’un monde vertueux ; elles représentent simplement des parties visibles car "démaquillées" à l’occasion de procédures judiciaires. Rien ne permet de penser que les dossiers des autres médicaments développés depuis ne contiennent pas les mêmes errances. Ces derniers sont simplement inaccessibles à l’investigation.

La méthode expérimentale ne souffre pas de biais : une petite erreur, volontaire ou non, peut inverser le sens d’une expérience et mener à des conclusions fausses et lourdes de conséquences quand elles impactent la santé de millions de patients. Actuellement, l’immense majorité de la recherche thérapeutique mondiale est financée, pilotée, et publiée par l’industrie pharmaceutique dont les chercheurs deviennent progressivement et plus ou moins consciemment les vassaux. Seuls les esprits les plus optimistes peuvent encore croire, contre les preuves qui s’amoncellent, que la recherche thérapeutique est toujours une science objective.

Le dernier scandale porte le nom de "ghostwriting" ; littéralement "rédaction par des fantômes". Il résulte de la convergence de deux problèmes : les firmes ont du mal à faire écrire par les scientifiques exactement ce qu’elles veulent, et les scientifiques n’ont pas le temps d’écrire. Qu’à cela ne tienne : des agences de communication spécialisées rédigent des articles scientifiques sous le contrôle du marketing pharmaceutique. Des médecins réputés sont ensuite contactés pour signer ces articles qu’ils n’ont pas écrits. Les véritables auteurs ne sont pas cités (les fantômes). Il n’est pas toujours nécessaire de rémunérer les médecins pour cette entorse éthique : accumuler des publications dans des revues prestigieuses est important pour leur carrière.

Si la méthode expérimentale traditionnelle a fait progresser la médecine à pas de géant au XXe siècle, ce n’est plus le cas aujourd’hui. La thérapeutique stagne et très peu de médicaments utiles ont été découverts depuis 20 ans.

La subjectivité a atteint un tel degré dans les publications scientifiques elles-mêmes, surtout quand des intérêts financiers sont en jeu, que les étudiants sont désormais formés à la lecture critique de l’information médicale. En pratique, cette lecture critique est fastidieuse, et elle suppose que la totalité des données nécessaires à cette analyse suspicieuse soient disponibles dans le document étudié, ce qui est rarement le cas. Une lecture vraiment exigeante et pointilleuse aboutirait à éliminer une grande partie des publications portant l’évaluation d’interventions thérapeutiques chez l’homme.

Un dernier extrait de La souris truquée [18] constitue un parfait résumé de la situation actuelle

La fraude agit comme révélateur de l’activité scientifique normale, montrant à quel point la recherche s’écarte des normes éthiques et épistémologiques qui sont censées la régir. Comme le champ des autres activités sociales, elle est le champ des ambitions, des rivalités, des illusions. Cet ouvrage à la fois ironique et sérieux ne vise pas à défigurer l’image de la science, mais à mieux faire connaître son vrai visage - humain, trop humain. A ce titre, il devrait aider à construire une nouvelle morale des rapports entre la science et le public.

Quant à l’avant-dernier chapitre du livre, il s’intitule L’échec de l’objectivité et nous invitons les lecteurs intéressés par le débat à le lire en intégralité.

Comme Broad et Wade, nous ne cherchons pas à défigurer l’image de la science médicale. Nous constatons que ce livre au retentissement international n’a eu aucun impact sur la situation qu’il dénonce. Aucune "nouvelle morale" n’est venue assainir les rapports entre la science et le public, bien au contraire, l’éthique scientifique continue de se désagréger. En France, nous en sommes à tenter de faire déclarer aux experts leurs conflits d’intérêts [19]. Aux USA où cette pratique est courante, il devient évident que cette déclaration ne règle rien.

Pour notre entreprise, cette question soulève à la fois un grave problème éthique et un problème économique.
Si personne n’y voit d’objection, passons directement au problème économique.
Voutch

Notre but, à partir de ce dossier, est de proposer des solutions concrètes et réalisables qui imposent néanmoins une nouvelle rupture de paradigme et une relativisation de la place de l’objectivité.

Richard Rorty, dans Solidarité ou objectivité [20] exprime l’échec du "tout objectif" dans une phrase lapidaireLa quête de l’objectivité des Lumières a souvent tourné au vinaigre qui ne saurait résumer la réflexion passionnante qu’il nous propose sur les liens entre l’objectivité et les relations interhumaines.

Edgar Morin [21] est encore plus sévère avec le réductionnisme :

Le dogme réductionniste mène à une « intelligence parcellaire, compartimentée, mécaniste, disjonctive, qui brise le complexe du monde en fragments disjoints, fractionne les problèmes, sépare ce qui est relié, unidimensionnalise le multidimensionnel. Qu’il s’agit là, d’une intelligence à la fois myope, presbyte, daltonienne, borgne ; qui finit le plus souvent par être aveugle. Elle détruit dans l’œuf toutes les possibilités de compréhension et de réflexion, éliminant aussi toutes chances d’un jugement correctif ou d’une vue à long terme. Ainsi, plus les problèmes deviennent multidimensionnels, plus il y a incapacité à penser leur multidimensionnalité ; plus progresse la crise, plus progresse l’incapacité à penser la crise ; plus les problèmes deviennent planétaires, plus ils deviennent impensés. Incapable d’envisager le contexte et le complexe planétaire, l’intelligence réductionniste aveugle rend inconscient et irresponsable. »

Déplorer les dégâts de l’objectivisme et du réductionnisme est une chose. De nombreux esprits s’y sont employés avec talent. Mais il faut proposer d’autres solutions pour résoudre les problèmes qui ont mis en vedette ces oeillères de l’esprit.

Nous pensons que les nouveaux outils technologiques, et notamment internet, peuvent permette une évolution majeure de la science médicale, et partant, de la qualité des soins. Si la subjectivité est inextirpable de la médecine, essayons de réfléchir à la façon dont nous pourrions l’utiliser plutôt que de la combattre sans succès, ou pire de lui permettre de se déguiser en objectivité, postiche qui la rend encore plus dangereuse.

C’est l’objet du chapitre suivant. Le concept d’une nouvelle forme de subjectivité y sera développé, elle aussi bâtie sur des "pairs", mais utilisant l’interactivité permise par le réseau internet : la pairjectivité.

Ce mariage entre une subjectivité transparente et le concept (au sens large) du "pair à pair" [22] ouvre des portes qui fascinent ou effraient. L’étude du fonctionnement de Google dans le deuxième article nous a montré comment une approche totalement subjective avait révolutionné la pertinence de la recherche et le classement de l’information sur internet. Il ne s’agit pas d’un rêve ou d’une nouvelle utopie mais d’une réalité qui a transformé la recherche documentaire et connu le succès que l’on sait. Nous allons voir comment la pairjectivité pourrait nous sortir de l’ornière objectiviste dans laquelle la médecine s’embourbe depuis une vingtaine d’années.

Vers l’article suivant du dossier

Vous pouvez réagir à cet article sur le Forum

Notes

[1] référence à retrouver... Merci à ceux qui se souviendraient de la référence de ce travail

[2] La barbarie, 1987. Michel Henry développe un concept qui nous est cher : la négation de la sensibilité aboutit à une nouvelle forme de barbarie qui menace notre civilisation après en avoir permis la progression.

[3] Pour être encore plus certain de la validité de sa "loi", le scientifique devrait aussi concevoir une expérience qui ne peut pas fonctionner si son hypothèse est vraie. C’est d’ailleurs le principe du test de l’hypothèse nulle dans les essais contrôlés : le "p" traduit la probabilité pour que la différence d’efficacité observée soit due au seul hasard si les médicaments comparés ont une efficacité identique

[4] Dans une cornue au long bec de verre, Pasteur stérilisa une solution nutritive par chauffage, puis permit à l’air de rentrer par le bec allongé de la cornue. Aucune fermentation ne survint car les germes de l’air ne pouvaient accéder à la solution du fait de la longueur du bec. En cassant ce bec, les germes pouvaient pénétrer plus facilement dans la cornue et se reproduire dans la solution.

[5] Lire Le moment est venu d’être modeste de Philippe Pignarre qui analyse avec pertinence la "captation scientifique" de la thérapeutique par les "réformateurs thérapeutiques".

[6] En pratique, elle n’est pas totalement annulée, car le fait de savoir que l’on prend peut-être un placebo modifie l’image du traitement et l’espoir que l’on met en lui.

[7] Devenu rapidement indispensable : le simple fait que l’expérimentateur connaisse la nature du traitement faussait le recueil des données, tant le biais de vérification d’hypothèse est puissant.

[8] C’est de la pratique des ECC qu’est née l’habitude de tout quantifier en médecine par des échelles, des tests, des outils de mesure variés. Ayant pris l’habitude d’utiliser ces outils lors de protocoles de recherche, de nombreux médecins hospitaliers prônent leur usage pour les soins courants. Le dialogue entre le médecin et le patient tend à être remplacé par une mesure standardisée. Au lieu de demander au patient comment il se sent et si le médicament le soulage, le médecin envoie un stagiaire qui demande au patient "combien il a mal" sur une règle graduée. Il se trouve des médecins pour assimiler cette évolution à un progrès.

[9] De l’hypertension à l’hypertendu - Tome I - Editions Boeringer-Ingelheim 1982. Extrait dans cet article

[10] Malgré les exhortations des fondateurs de l’EBM, les gestionnaires de la santé s’orientent de plus en plus vers des stratégies thérapeutiques validées par des experts plus ou moins objectifs et qui s’imposeraient aux patients et aux prescripteurs.

[11] Seuil, 1987 pour la version française (1982 pour l’édition originale). Une lecture indispensable pour qui croit encore que la fraude est un phénomène scientifique marginal.

[12] Voir http://www.atoute.org/n/article69.html.

[13] op. cit.

[14] Compilation réalisée à partir de diverses sources anonymes.

[15] Texte anonyme publié en anglais dans "Peas on Earth," Horticultural Science 7 : 5 (1972). Pour être tout à fait honnête, il faut accorder à Mendel le bénéfice du doute ; des travaux récents tendent à prouver qu’il n’aurait finalement pas "amélioré" le résultat de ses expériences.

[16] La Souris truquée op. cit.

[17] Un bon résumé ici.

[18] op. cit. Rappelons que ce texte a été écrit en 1981.

[19] L’association Formindep lance une action dans ce sens, un an après la publication du décret censé la mettre en oeuvre.

[20] Premier essai contenu dans Objectivisme, relativisme et vérité PUF 1994

[21] Le besoin d’une pensée complexe, in 1966-1996, La passions des idées », Magazine littéraire, Hors Série, décembre 1996

[22] Le peer to peer ou pair à pair est un concept informatique popularisé par les réseaux de téléchargement de musique ou de films. La pairjectivité pourra s’appeler peerjectivity en langue anglaise

http://www.atoute.org/n/Qualite-et-sante-3-Medecine.html

Qualité et santé : 4) La pairjectivité, une nouvelle approche scientifique ?

Une version plus récente et plus claire de cet article est disponible à cette adresse.

Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : longtemps centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur un partage et une pondération de la subjectivité.
- Le premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
- Le deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
- Dans le troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, trouve aujourd’hui ses limites et doit laisser coexister d’autres approches.
- La pairjectivité, thème central de ce dossier, est détaillée dans ce quatrième article.
- Le cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.

"Unus pro omnibus, omnes pro uno" (un pour tous, tous pour un).
Devise traditionnelle mais non officielle de la Suisse

Toute connaissance (et conscience) qui ne peut concevoir l’individualité, la subjectivité, qui ne peut inclure l’observateur dans son observation, est infirme pour penser tous problèmes, surtout les problèmes éthiques. Elle peut être efficace pour la domination des objets matériels, le contrôle des énergies et les manipulations sur le vivant. Mais elle est devenue myope pour appréhender les réalités humaines et elle devient une menace pour l’avenir humain.
Edgar Morin

Dans l’article précédent nous avons étudié les limites de l’objectivité en tant que support exclusif de la médecine scientifique. Elle montre depuis quelques années ses travers qui en limitent la portée et ne lui permettent plus de faire progresser la santé.

Cette quatrième partie de notre dossier s’intéresse à certaines approches subjectives ou considérées comme telles [1] qui décrivent assez bien la réalité. La jonction pondérée de nombreuses subjectivités fournit déjà des outils efficaces dans de nombreux domaines. Nous avons choisi pour désigner ce concept le terme de"pairjectivité" par référence à la notion de pairs. Il évoque à la fois la pratique de la "relecture par les pairs" et les réseaux "pair à pair" [2].

Idées-Forces

- La fédération de très nombreuses micro-expertises peut aboutir à une expertise de grande qualité.
- Cette fédération est permise à grande échelle par le réseau internet.
- Toutes les subjectivités ne se valent pas et leur pertinence varie en fonction de l’intérêt à agir.
- Il ne suffit pas d’additionner les subjectivités, il faut les pondérer.
- Une revalidation régulière est nécessaire pour éviter les dérives et les manipulations.

Les exemples de subjectivités rationnelles et efficaces que nous allons aborder s’appuient sur quelques lois ou principes simples.
- En premier lieu, la loi des grands nombres qui permet de créer des groupes comparables par tirage au sort, des sondages fiables, des évaluations précises par mesures multiples moyennées.
- Ensuite, l’intérêt à agir : cet intérêt personnel peut être source de conflits, mais aussi facteur de qualité [3].
- Enfin, la pondération qualitative et récursive qui permet de ne pas réduire une foule à une somme d’individus identiques, mais de la considérer comme un groupe social régi par des interactions complexes et dynamiques.

La loi des grands nombres

La loi des grands nombres est une loi mathématique, donc réputée objective. Pourtant, son utilisation en médecine choque parfois les esprits cartésiens ; l’intérêt de la randomisation par exemple, qui nous paraît une évidence aujourd’hui, n’a pas été facile à faire accepter aux médecins du début du XXe siècle (voir l’encadré).

Cette loi peut s’énoncer sous plusieurs formes. Deux de ces formulations (simplifiées) nous intéressent plus particulièrement :
- La moyenne des résultats de mesures répétées tend vers sa réalité mathématique ou physique : 1000 tirages à pile ou face aboutissent à une proportion de 500/500 avec une précision remarquable, sauf si l’expérience est faussée ou truquée. L’expérience empirique permet d’établir des conjectures avant de les démontrer. De même, la moyenne de nombreuses évaluations métriques indépendantes fournit un résultat d’une grande précision (mesure d’une longueur avec des outils et des opérateurs différents par exemple).
- Le résultat d’une mesure réalisée dans un échantillon vaut pour la population dont l’échantillon est issu, à condition que la taille de cet échantillon soit suffisante, et qu’il soit représentatif de cette population (c’est-à-dire qu’il reproduise, dans les mêmes proportions, la diversité de cette population). Cet aspect est le fondement des sondages et surtout des essais cliniques contrôlés [4], piliers de la médecine scientifique et objective du XXe siècle.

Francis Galton fut un des pères de la statistique appliquée aux populations [5] mais aussi un élitiste. Il souhaita prouver qu’un expert donne une meilleure estimation du poids d’un boeuf que n’importe quel quidam de passage dans une foire agricole. Cette expérience s’inscrit dans un courant de remise en cause de la démocratie à la fin du XIXe siècle : comment confier le sort d’un pays aux choix d’individus à courte vue et globalement incultes ! En pratique, si l’expert donna la meilleure estimation du poids de la bête, la moyenne des estimations du public se révèla plus précise et exacte à une livre près. Cette moyenne des évaluations du public correspond tout simplement à une mesure répétée à l’aide d’un outil imprécis : l’appréciation subjective de chaque individu. C’est la moyenne de ces nombreuses mesures subjectives qui, grâce à la loi des grands nombres, devient un résultat d’une grande précision à défaut d’être objectif.

L’autre aspect de la loi des grands nombres qui nous permet de transformer des données subjectives en résultats objectifs est le travail sur des échantillons de population. La meilleure illustration en est le sondage d’opinion. En politique par exemple, le recueil d’intentions de votes (données subjectives) dans un échantillon suffisant permet de décrire la réalité du résultat final des d’élections (fait objectif) avec un intervalle de confiance qui tient compte des fondements subjectifs de cette évaluation. Cette subjectivité réside dans l’information donnée par le sondé (qui peut mentir) et dans la constitution de l’échantillon interrogé, constitution qui fait aussi intervenir une part de subjectivité par le sondeur. D’une certaine façon, la statistique est l’art de rapprocher de nombreuses données subjectives d’une valeur réelle sans passer par la "case objectivité".

Pour revenir à la santé, l’essai clinique contrôlé [6], est une méthode qui tente de prédire une réalité dans une population, comme la différence d’efficacité entre deux médicaments, à partir de son évaluation limitée à deux échantillons d’individus comparables. Là encore, le résultat objectif dérive de la loi des grands nombres. L’intervalle de confiance [7] qui entoure le résultat ne tient plus compte de la subjectivité de la mesure, réputée objective [8], mais de la probabilité de constater une différence due au seul hasard et de conclure à tort à la supériorité d’un des deux médicaments.

Si l’essai clinique contrôlé est devenu un standard scientifique en médecine, c’est parce qu’il est censé ne laisser aucune place à la subjectivité. Nous avons vu dans le troisième article qu’il n’en est rien et qu’après une période de progrès aussi brève que remarquable, la subjectivité est réapparue massivement au sein même de la médecine scientifique.

Histoire de la randomisation

Pourquoi aborder la randomisation dans un article sur la subjectivité ? Tout simplement parce qu’il s’agit d’une méthode statistique qui s’est montrée supérieure à une méthode scientifique traditionnelle. La randomisation n’est pas subjective, mais elle a peiné à s’imposer car elle était perçue comme trop simple et surtout comme empirique.

Pour étudier l’effet d’un médicament, il est nécessaire d’obtenir deux populations de sujets comparables pour évaluer l’effet du produit testé. L’un des groupes reçoit le médicament à étudier et l’autre un médicament différent ou un placebo inactif et indiscernable. L’objectivité traditionnelle (telle que les scientifiques la conçoivent habituellement) veut que l’on répartisse équitablement dans chaque groupe les différents porteurs de déterminants significatifs : sexe, âge, maladies, ethnie, niveau social etc. C’est ce qui était fait dans les études rétrospectives, considérées comme peu fiables car la comparaison a posteriori de patients déjà traités avec des patients témoins ou prenant d’autres médicaments pouvait subir de nombreuses influences et donc biaiser significativement le résultat de l’analyse.

L’étalon-or en terme de qualité scientifique est l’essai prospectif randomisé : ce type d’étude s’intéresse à l’évolution de deux groupes de patients, préalablement constitués (contrairement aux essais rétrospectifs) et recevant deux traitements différents assignés par tirage au sort. La loi des grands nombres est mise à contribution car elle démontre que lorsque l’effectif est suffisant, une répartition aléatoire des sujets dans les deux groupes assure une homogénéité correcte des déterminants au sein des groupes. Il sera alors possible d’attribuer la différence d’effet observée aux traitements [9].

Cette objectivité liée au hasard et fondée sur une loi mathématique constitue peut-être l’un des rares outils vraiment objectif utilisé dans le domaine des sciences humaines. Or si elle nous paraît évidente actuellement, elle est en fait très récente. Introduite par Sir Ronald A Fischerdans les années 20 [10] et appliquée initialement à l’agriculture, elle a d’abord rencontré une vive opposition car sa simplicité apparente et son image subjective heurtaient les collègues de Fischer. C’est l’évidence de son efficacité qui l’a imposée comme nouveau standard dans les années 50. Comme souvent, c’est grâce à une double compétence (ici biologique et mathématique) que Fischer parvint à cette solution aussi simple que révolutionnaire à son époque pour créer deux groupes comparables.

La loi des grands nombres et les outils statistiques permettent donc dans une certaine mesure de traiter des données subjectives pour en tirer des résultats objectifs. Mais en conclure que l’avis dominant pourrait être synonyme de qualité serait bien sûr une erreur. Il suffit qu’un biais touche toutes les évaluations pour que l’on observe la multiplication d’une erreur identique, plutôt que la correction d’erreurs différentes et aléatoires par la loi des grands nombres.

Nous en avons une très belle illustration avec cet extrait d’un jeu télévisé :

Dans cet exemple, les membres du public commettent majoritairement l’erreur de faire confiance à leur observation qui donne l’impression que le soleil tourne autour de la terre. La taille de l’échantillon n’est pas en cause : un public dix fois plus nombreux donnerait sans doute le même pourcentage de mauvaises réponses. Au passage, notons que ce sondage n’est pas transposable à la population française, mais à la sous-population d’individus prêts à venir assister à ce type d’émission ; cette dernière restriction s’applique aussi aux essais cliniques contrôlés : le résultat de l’essai clinique contrôlé est transposable aux patients proches de ceux étudiés, traités par des médecins proches de ceux ayant mené l’essai.

Hors quelques cas particuliers, la loi des grands nombres ne saurait donc suffire à elle seule à transformer des données subjectives en faits décrivant la réalité.

Tout au long de cette argumentation, nous utiliserons un exemple concret pour illustrer notre propos : la lutte contre le spam.

Le spam, cette masse de courriers publicitaires indésirables qui envahissent nos boîtes aux lettres électroniques, a constitué dans les années 2000-2005 une perversion majeure de la communication par internet. Nous allons voir comment ce problème a été résolu par l’utilisation conjointe de la loi des grands nombres, l’intérêt à agir et la pondération récursive qui constituent le trépied de la pairjectivité. Commençons par la loi des grands nombres pour conclure ce chapitre.

L’email (courriel) permet une communication simple et instantanée avec de nombreux correspondants, fédère les minorités et rapproche les familles ou les équipes de recherche dispersées. Des escrocs opportunistes flairent rapidement la possibilité de détourner ce merveilleux outil en un outil de promotion massive et quasiment gratuite. Certes, ce ne fut pas inintéressant sur le plan sociologique, et nous avons pu apprendre avant l’heure que les nord-américains étaient très préoccupés par leurs prêts hypothécaires, mais avaient aussi de fréquents problèmes d’érection et des difficultés à se procurer des photos d’adolescentes nues.

C’est d’ailleurs le caractère très stéréotypé du thème de ces courriels publicitaires qui permet l’apparition des premiers "filtres antispams", suivant une approche objective traditionnelle combinée à une étude statistique. Les messages sont analysés par ces programmes pour y chercher les "mots du spam" les plus fréquents afin de supprimer ces courriels avant même qu’ils n’arrivent dans votre boîte aux lettres. Hélas, les escrocs trouvent la parade en commettant des fautes d’orthographe volontaires ou en postant des images dont le contenu écrit, lisible par l’oeil, ne peut l’être par la machine "trieuse". Dans le même temps, ces antispams primitifs et peu spécifiques détruisent injustement le courrier de vos amis ou collègues. L’analyse objective traditionnelle et statistique de "l’objet courrier" pour détecter le spam, suivant des règles préétablies et rationnelles, était donc mise en échec par les faussaires. Nous retrouvons là le mécanisme d’échec de la norme : comme celle-ci est connue et qu’elle ne porte que sur la qualité interne, intrinsèque, de l’objet étudié [11], elle favorise les faussaires et les opportunistes qui sortent toujours gagnants de ce combat où ils excellent, de ce concours dont le sujet est connu à l’avance. Les perdants sont des éléments de qualité (votre courrier non publicitaire en l’occurrence) qui échouent au "passage" de la norme parce qu’ils n’ont pas été conçus dans cet objectif ; leur grande variété naturelle conduit à un pourcentage faible mais significatif assimilé à tort à du spam par un tri statistique portant sur leur contenu. Cet élément fondamental se retrouve dans de nombreux autres domaines. Si une norme s’applique à des actions un tant soit peu complexes et variées, elle aboutit inexorablement à sélectionner l’aptitude à passer la norme et non la qualité de l’action elle-même. De plus en imposant une diminution de la diversité, elle met hors-jeu certaines actions dont la qualité est pourtant exceptionnelle, "hors-norme" [12]. En pratique, la loi des grands nombres n’a pas permis à elle seule de lutter efficacement contre le spam. Nous allons voir que d’autres éléments doivent la compléter pour permettre d’évaluer la qualité des courriers électroniques.

L’intérêt à agir

Nos actions sont le plus souvent dictées par un intérêt, personnel ou altruiste, financier ou intellectuel, ou encore affectif. Leur subjectivité se trouve donc orientée dans un sens qui peut être éloigné de la qualité (jalousie, corruption, corporatisme, honte...) ou s’en rapprocher (concours [13], crainte des conséquences d’un mauvais choix, nécessité d’aboutir à un accord équitable...) [14].

Nous sommes plus attentifs lorsque nous travaillons pour nous que lorsque nous le faisons pour un tiers ou pour la collectivité. Les dégradations subies par les biens communs le démontrent tous les jours.

Dans l’expérience de Galton, le public évaluant le poids du boeuf ne subit pas de biais faussant sa mesure. Chacun cherche à faire la meilleure évaluation. Le seul biais pourrait provenir d’un boeuf beaucoup plus lourd ou léger qu’il n’y paraît ; toutes les estimations seraient alors, comme leur moyenne finale, biaisées dans un sens ou dans l’autre. En l’absence de biais, la moyenne des mesures tend vers la réalité : le véritable poids du boeuf.

Dans le jeu télévisé, chacun cherche aussi à donner la bonne réponse, mais avec un biais majeur qui correspond à son observation faussée, laissant penser que c’est le soleil qui tourne autour de la terre. Le public ne cherche pas à tromper le candidat, il n’a néamoins aucun intérêt personnel à donner la bonne réponse, intérêt qui aurait pu le conduire à mieux fouiller dans ses souvenirs scolaires.

Quand l’intérêt trahit la réalité

Les sondages politiques illustrent l’impact négatif de l’intérêt personnel dans des résultats statistiques présentés comme objectifs. En s’appuyant sur la loi des grands nombres, ces sondages prédisent souvent les résultats finaux avec une étonnante précision, mais il existe des exceptions. Lors du premier tour de l’élection présidentielle française de 2002 aucune des grandes sociétés de sondage ne prédit l’arrivée de Jean-Marie Le Pen devant Lionel Jospin, 4 jours avant l’élection. L’origine de cette erreur est connue : elle consiste en laréticence des sondés à assumer un choix non consensuel. Les sociétés de sondage avaient pourtant effectué descorrections pour tenir compte de ce biais constaté lors d’élections précédentes, corrections qui se sont révélées insuffisantes pour cette élection en particulier.

De façon générale, les intérêts à agir créent ce que l’on appelle des conflits d’intérêts, qui sont une des plaies de notre système de santé.

Avoir plusieurs conflits d’intérêts ne les annule pas. Il est fréquent d’entendre dire que la pluralité des conflits d’intérêt chez un même individu (médecin prescripteur, expert) en annulerait les conséquences. Malheureusement il n’en est rien : ces conflits s’additionnent car ils ne sont pas antinomiques, l’individu favorisera, consciemment, ou non les produits ou concepts auxquels il est lié, et sera plus critique (ou seulement muet) au sujet des autres. Une annulation des conflits par un effet miroir voudrait que l’individu présente un lien (financier ou intellectuel) identique avec la totalité des acteurs de son domaine, ce qui n’est envisageable que s’il est salarié d’une structure financée collectivement par tous les acteurs [15].

Quand l’intérêt va dans le sens de la qualité/réalité

L’intérêt personnel n’aboutit pas obligatoirement à un conflit et à un biais. Il peut au contraire permettre qu’une subjectivité tende vers la réalité.

Intéressons-nous aux paris, qui font pendant aux sondages. Lorsque des individus parient sur une situation dans l’espoir d’un gain si leur choix se réalise, leur expertise ne subit aucun conflit [16] car leur intérêt est de ne pas se tromper (ce qui n’est pas le cas dans un sondage). La cote des options est souvent le meilleur outil de prédiction de celle qui l’emportera au final. Tout récemment, la victoire de Barak Obama aux primaires démocrates a été prédite par les bookmakers bien avant les instituts de sondage ou les experts politiques [17]. La moyenne des paris peut donc constituer une sorte de subjectivité optimisée par le nombre des parieurs et leur intérêt à ne pas se tromper [18].

Si vous voulez optimiser vos investissements, il est intéressant de savoir quelles sont les actions que les analystes financiers ont achetées pour leur propre patrimoine. Cette information pourrait être plus pertinente que leurs recommandations publiques [19].

Si vous voulez savoir quel est le meilleur traitement de l’hypertension artérielle, il est intéressant de savoir ce qu’utilisent les médecins pour leur propre hypertension. Cette information pourrait être plus pertinente que les recommandations publiques [20].

Un exemple issu d’une des périodes les plus noires de notre Histoire illustre peut être mieux la force de la subjectivité lorsqu’elle tend vers un l’intérêt de l’acteur (et un équilibre entre intérêts divergents). Primo Levi raconte [21] comment un morceau de pain était partagé dans les camps de la mort ; les déportés avaient trouvé le procédé subjectif le plus efficace pour couper équitablement leur maigre ration : l’un coupait et l’autre choisissait sa moitié le premier, incitant ainsi son compagnon à une découpe la plus égale possible.

Citons l’évaluation du cours des actions en bourse. Une approche objective pourrait consister à mesurer la valeur des actifs de la société, ainsi que ses perspectives d’avenir. Les achat et ventes s’effectueraient alors au prix fixé par des experts. La méthode qui a été retenue [22] est au contraire subjective : le prix d’une action correspond au prix le plus bas auquel un possesseur est prêt à vendre son action, s’il correspond au prix qu’au moins un acheteur est prêt à payer. Nous avons des raisons de penser que ce prix est juste. Dans notre économie de marché, le prix de nombreux services est fixé par le marché de l’offre et de la demande, qui n’est pas le plus mauvais système. Si cela vous paraît une évidence, interrogez vous sur votre réaction si l’on décidait d’appliquer ce principe au prix des prestations médicales [23].

Reprenons notre exemple du spam là où nous l’avons laissé. L’analyse objective des courriers électroniques, fondée sur leur contenu et utilisant des méthodes statistiques, n’avait pas permis de séparer le spam des courriels de vos correspondants. Nous sommes au milieu des années 2000 et la situation est préoccupante car elle rend pénible la communication par email.

Après ce premier échec, certains ont l’idée de créer des systèmes intelligents qui améliorent leur aptitude à trier le spam du non-spam après un apprentissage. Cette approche statistique élaborée consiste à indiquer au logiciel quelques centaines de messages considérés comme du spam (et autant de non-spam) afin qu’il détecte des éléments communs dans ces courriers (contenu, format, émetteur, syntaxe). Le résultat, un peu meilleur, reste néanmoins insuffisamment fiable et définir un spam avec précision à partir de son contenu est toujours aussi difficile. L’introduction d’intelligence artificielle dans l’évaluation de la qualité intrinsèque du courrier ne suffit pas à la rendre pertinente.

La solution, relativement récente, émane d’une approche totalement subjective. Cette méthode associe un intérêt commun et majoritaire : supprimer le spam, et la mutualisation d’actions convergentes grâce au réseau internet et à des agents permettant un traitement statistique de l’information.

Elle est d’une simplicité biblique et repose sur un élément statistique combiné à l’intérêt personnel d’agir pour la qualité : un spam est un courrier que de nombreux internautes considèrent comme un spam et que peu d’autres considèrent comme un courrier normal. Cette régle peut s’appliquer car le spam présente une caractéristique qui le perd : il est multiplié à l’identique et toutes les "victimes" reçoivent le même message [24]. Il se trouve que cette subjectivité mutualisée que nous appelons pairjectivité (en référence aupair à pair et au peer rewieving [25]) a permis à la fois de définir avec une grande précision un objet, et de résoudre un problème qui résistait à une approche objective traditionnelle. Chaque fois qu’un internaute lisant son courrier à l’aide d’un service web [26] qualifie un courrier reçu comme un spam, ce courrier est identifié et entré dans une base de données commune à tous les utilisateurs. Dès que quelques dizaines d’internautes classent ce courrier comme du spam, il est automatiquement évincé de la boîte de réception des millions d’autres abonnés. Ces derniers reçoivent tout de même ces spams, mais ils sont déjà rangés dans une sorte de dossier/poubelle provisoire. En cas d’erreur de tri, les internautes peuvent inspecter ce dossier et requalifier le courrier en non-spam, modifiant les données générales communes concernant ce courriel.

Le spam est vaincu par une méthode subjective s’appuyant sur la loi des grands nombres et une action intéressée de l’internaute guidée par la seule recherche de la qualité de son action :
- Un spam est adressé à de très nombreux destinataires, permettant à ceux-ci de mutualiser leur analyse sur un objet unique et de faire jouer la loi des grands nombres.
- Il est dans l’intérêt de l’internaute de trier correctement son courrier.

Plus accessoirement, il est bien sûr important que l’internaute soit capable de déterminer en lisant un courrier si celui-ci est un spam ou un courrier normal [27]. Nous sommes là dans une situation idéale où chaque acteur est un quasi expert, et aussi un pair : c’est-à-dire un utilisateur de courrier électronique et non un quelconque quidam.

Cette technique antispam est une sorte de peer-review du courrier électronique, réalisée par des millions de pairs dénués de conflits d’intérêt avec leur mission, bien au contraire. C’est pourquoi nous parlons de pairjectivité pour ces succès résultant de la fédération de subjectivités.

Si nous analysons les raisons du succès de l’antispam pairjectif, nous recensons :
- Un problème commun à des millions de personnes : le spam.
- Un acte réalisé par un individu qui peut intéresser presque tous les autres : classer un courrier comme spam.
- Un outil qui agrège tous ces actes et en fait une synthèse en temps réel : un site de lecture de mails en ligne (webmail).
- Une mise en minorité de ceux qui cherchent à pervertir le système : les escrocs spammeurs.
- Un bénéfice en retour pour tous ceux qui sont connectés à ce réseau : utiliser les choix des autres pour pré-trier son propre courrier.
- Une validation permanente pour éviter les dérives : chacun peut requalifier dans son propre courrier un spam en non-spam et cette requalification est prise en compte par le système antispam.
- Une prise en compte de la qualité externe ou extrinsèque remplaçant les critères de qualité interne : le contenu du message n’a plus d’importance pour le qualifier.

Il reste certes les spammeurs, mais ceux-ci n’ont aucune chance de pouvoir manipuler l’outil car ils sont trop peu nombreux par rapport à la masse des internautes honnêtes et désireux de trier correctement leur courrier.

Notez qu’après l’exemple de la qualification de l’information par Google détaillée dans le deuxième article, la mise en réseau de microexpertises est encore dans cet exemple un élément fondamental du succès de la pairjectivité.

En pratique, lorsque des parties ont un intérêt personnel ou commun à faire un choix allant vers la qualité, certaines méthodes subjectives peuvent apporter une aide précieuse pour évaluer un objet ou un service.

Deux éléments supplémentaires et souvent liés vont néanmoins permettre d’améliorer encore l’efficacité du couple grands nombres - intérêt à agir vers la qualité.

La pondération et la validation récursive

Les opinions subjectives sont-elles toutes d’égale valeur ? Non, bien sûr. Pour optimiser la pairjectivité, nous devons attribuer un poids différent aux opinions, qui tienne compte de celui qui les émets.

Fréquentant une liste de discussion de gynécologues, nous constatons que, comme sur toutes les listes professionnelles, il s’y échange de nombreux avis et points de vue médicaux. Cette liste est très ancienne, ses membres se connaissent bien et constituent une communauté virtuelle.

Nous avons réalisé en 2007 un sondage sur cette liste : A qui (quoi) faites-vous le plus confiance pour la réponse à une question que vous vous posez :
- Un orateur dans un congrès
- Une recommandation de la Haute Autorité de Santé (HAS) reposant sur le travail d’un collège d’experts
- L’avis majoritaire de vos confrères sur la liste ? Merci de donner une note sur 10 à chacun de ces trois canaux d’information.

Le résultat [28] est le suivant :
- orateur 5/10
- HAS 6,2/10
- Avis majoritaire des confrères de la liste 7,6/10

Ce qui est frappant, c’est que les sondés ayant bien noté la troisième option ont tenu à préciser qu’il ne s’agissait pas pour eux de l’avis majoritaire, mais d’un avis global pondéré par la personnalité des émetteurs de conseils.

Cette pondération, consciente ou non, correspond à notre comportement quotidien. Nous recevons en permanence une masse d’informations subjectives concernant tous les aspects de notre vie (achats, précautions, santé, assurances, éducation de nos enfants, comportement...). Nous n’accordons pas le même poids à toutes ces informations et les confrontons en permanence à l’image que nous avons de leurs émetteurs. Cette image est liée à des facteurs aussi variés que leur qualification, la justesse d’autres conseils donnés précédemment, les recommandations dont bénéficie cet émetteur au sein de notre réseau de contacts.

La notion de confiance qui sous-tend notre évaluation qualitative est finalement fondée :
- Sur le nombre (des avis concordants) ;
- L’intérêt à agir pour notre bien (le visiteur médical est-il crédible lorsqu’il nous parle de son médicament ?) ;
- La pondération directe (ce médecin doit savoir ce qu’il dit) ou maillée (ce chirurgien m’a été recommandé par mon généraliste et par mon kinésithérapeute).

Ce fonctionnement pairjectif qui nous paraît naturel est bien éloigné de la mesure officielle de la qualité telle qu’elle fonctionne dans le monde de la santé.

Pairjectivité : choisir un chirurgien recommandé par des amis, ses médecins et son kinésithérapeute.

Qualité interne : obtenir un annuaire de chirurgiens, examiner leurs titres et qualifications, noter le score [29] et vérifier l’accréditation de la clinique où il opère, vérifier le nombre de plaintes dont il a été l’objet [30].

Nous avons vu dans le deuxième article que la première application à grande échelle de la pairjectivité est l’algorithme de recherche du moteur de recherche Google et notamment le système de pondération PageRank. Cet algorithme est récursif, c’est-à-dire que le poids de chaque recommandation est augmenté lorsque son émetteur est lui-même recommandé par d’autres émetteurs. Nous avons nous aussi un fonctionnement récursif et accordons plus de confiance à ceux qui sont recommandés par d’autres membres de notre réseau relationnel.

Lors des sondages d’intention de vote, les sociétés appliquent aux prévisions un facteur de correction déduit des élections précédentes, tenant compte des principaux biais connus. Notamment, ils savent que les intentions de vote pour le Front National sont souvent sous-déclarées. Il s’agit bien d’une correction récursive, permise par la comparaison pour chaque élection de la réalité (le résultat de l’élection) avec leurs prévisions fondées sur des moyennes d’avis subjectifs.

La récursivité et la revalidation régulière sont des éléments fondamentaux du succès de la pairjectivité.

Internet permet de multiplier par un facteur mille la taille du réseau pairjectif que nous utilisons intuitivement pour évaluer la qualité dans notre vie quotidienne.

Reprenons une dernière fois notre fil rouge, l’exemple de notre lutte contre le spam. L’outil pairjectif a réussi à nous débarrasser du spam en se désintéressant de son contenu (qualité interne) pour se concentrer sur un classement réalisé par des milliers d’utilisateurs (qualité externe). Il reste une possibilité pour affiner le service et le rendre encore plus performant : tenir compte de la qualité des utilisateurs. Celui qui se trompe souvent et classe comme spam un message requalifié en courrier normal par les autres utilisateurs verra sa "réputation" décotée. Au contraire, l’utilisateur qui classe de nombreux spams à bon escient sera plus crédible et surpondéré par le logiciel antispam. Il est même possible d’envisager un classement flou : certains courriers d’annonces commerciales sont qualifiés comme spams pour certains utilisateurs, mais pas pour d’autres. Le service devient alors complètement personnalisé et adapté à chacun. Le spam permet très facilement de confronter le classement subjectif à la réalité : face à la présélection réalisée par l’algorithme, l’utilisateur requalifie en permanence ce choix en examinant son courrier et sa poubelle à spam. Là encore, aucune dérive n’est donc possible du fait de cette revalidation permanente.

Bien sûr, le soin et la santé sont bien plus compliqués que le spam ou les sondages d’opinion. Il vous est facile de déterminer si un de vos courriers est un spam ; en revanche, une grande part de la médecine étant préventive, il est bien plus difficile de se fier au résultat immédiat du soin ou d’un régime alimentaire par exemple. Le risque est de se laisser influencer par la qualité externe ressentie à court terme alors qu’elle pourrait être associée à une qualité externe réelle déplorable [31].

C’est pour échapper à cette appréciation erronée fondée sur le court terme que notre système de santé privilégie la mesure de la qualité interne. Mais notre erreur a été d’abandonner totalement la qualité externe et d’ériger la qualité interne en dogme, appliquant à l’humain une approche industrielle obsolète singeant l’économie collectiviste. La gestion de la santé en France est très proche de la gestion soviétique planifiée :
- Définition des besoins et de la qualité par des experts plus ou moins indépendants [
32].
- Production uniformisée, laissant peu de place aux variantes nées de besoins particuliers [33].
- Contrôles tatillons, envahissants et paralysants [34].
- Convocation des agents hors-norme pour les remettre dans le "droit chemin" [35].
- Inflation de l’administration du service, au détriment de ses acteurs [36].
- Produits et services dépassés, évoluant peu [37].
- Valorisation des procédures (qualité interne) et des produits "bien conçus" à défaut d’être utiles [38].
- Déconnexion du client et de ses besoins (qualité externe) [39].
- Files d’attente, délais [40].
- Produits ou services chroniquement indisponibles ou mal répartis [41].
- Démotivation des agents les plus brillants [42].
- Institutionnalisation de la corruption [43].
- Apparition d’une économie parallèle inaccessible aux plus démunis [44].
- Grands chantiers à la gloire du Secrétaire général Président [45].

Faudra-t-il une "Santestroïka" pour s’évader du cul-de-sac objectivité/qualité interne qui étouffe la santé ?

La pairjectivité sera-t-elle l’outil qui permettra d’explorer de nouveaux domaines féconds et porteurs de progrès ?

Pour connecter la pairjectivité avec d’autres éléments concrets, nous allons étudier dans le cinquième article un système pairjectif qui a fait ses preuves depuis 500 millions d’années.

Vers l’article suivant du dossier

Vous pouvez réagir à cet article sur le Forum

Notes

[1] La définition exacte de la subjectivité est complexe et ses limites sont floues.

[2] Respectivement peer review et peer to peer, et peerjectivity en anglais.

[3] Cet "intérêt à agir" est différent du concept juridique.

[4] Voir le troisième article qui concerne l’objectivité.

[5] Il fut aussi et malheureusement le père de l’eugénisme et du darwinisme social, dévoiement de la théorie de l’évolution, destiné à justifier le colonialisme puis plus tard l’eugénisme nazi.

[6] Comparaison de deux médicaments, ou d’un médicaments par rapport à un placebo, à l’aide de deux groupes de patients semblables traités différemment. La différence de résultat observée entre les deux groupes reflète la différence d’effet des traitements si le protocole élimine correctement les causes de biais.

[7] Intervalle dans lequel le résultat a une forte probabilité de se trouver. Lorsqu’on lit que X sera élu avec 54 à 56% des voix avec un intervalle de confiance de 95%, cela signifie qu’il n’y a que 5% de chance pour que X recueille moins de 54 ou plus de 56% des voix.

[8] Quoique... Nous avons vu dans l’article précédent que la fraude ou le biais de confirmation d’hypothèse sont omniprésents en science.

[9] D’autres conditions sont nécessaires pour évaluer le plus objectivement possible un médicament lors d’un essai clinique mais sortent du cadre de cet article.

[10] Extrait malheureusement incomplet mais émouvant disponible sur GoogleBooks.

[11] Notion développée dans l’article introductif.

[12] Certains y voient une nouvelle forme de barbarie.

[13] Notez que de nombreux concours sont uniquement destinés à inciter le candidat à documenter soigneusement ses coordonnées sur le bon de participation. Ces données seront utilisées pour des opérations de marketing. En faisant miroiter un des lots, l’opérateur s’assure des milliers de fiches de contact qui auraient été bâclées ou jetées en l’absence de concours.

[14] Adam Smith a popularisé au XVIIIe siècle la notion de main invisible qui est un des fondements du libéralisme. Cette main invisible souffre d’un optimisme exagéré comme l’avenir l’a démontré : une grande partie de nos actes spontanés aboutissent à affaiblir le groupe à notre avantage. Le libéralisme sans limite aboutit aux deux cents familles et à une paupérisation massive de la population.

[15] Ce fonctionnement est celui du service public. Dans l’expertise sanitaire, de nombreux experts sont des fonctionnaires ou assimilés. Malheureusement, ils sont aussi impliqués intellectuellement ou financièrement à titre privé dans les projets sur lesquels ils donnent leur opinion. Si nous transposions ce principe, cela pourrait correspondre à un contrôleur du fisc qui serait par ailleurs consultant pour la société qu’il contrôle, ou pour sa concurrente.

[16] Aucun conflit, mais bien sûr de nombreux biais comme l’expression de toute opinion personnelle.

[17] Lire à ce sujet cet article des Echos.

[18] Il existe alors un biais d’échantillonnage : une population n’est pas constituée que de parieurs.

[19] Les conflits d’intérêts des analystes financiers constituent une situation très proche de celle rencontrée en médecine.

[20] Cette information est contenue dans les bases de données de l’assurance maladie française. A ma connaissance, elle n’a jamais été traitée ni publiée.

[21] Dans Si c’est un homme

[22] Méthode retenue dans le cadre de l’économie de marché. Le modèle soviétique par exemple était différent et s’apparentait plus au fonctionnement actuel de notre système de santé(cfs infra).

[23] En dehors de la chirurgie esthétique, qui l’applique déjà.

[24] Les spammeurs ont bien tenté de créer des messages au contenu variable, mais il existe au moins une partie commune : le lien vers le service dont le spam fait la promotion.

[25] En français : Comité de lecture. En France, un comité de lecture est parfois un filtre permettant de s’assurer de la qualité d’une publication (appréciation éminament subjective) et trop souvent un aéropage de noms permettant de donner de la crédibilité à une information fausse ou sans intérêt.

[26] Le système fonctionne au mieux avec les internautes qui lisent leur courrier en ligne sur un site web comme Yahoo ou Gmail, et non avec un programme de leur ordinateur (Outlook). En effet, c’est l’action en ligne de l’utilisateur qui permet au service une réactivité ultrarapide, alors qu’un courrier préalablement téléchargé perd ses interactions avec le serveur.

[27] Le taux de bon classement n’est pas de 100%. Nous retrouvons le concept de qualité/pertinence de Google, évoqué dans le deuxième article : un spam n’est pas un spam pour tout le monde, et un courrier valide ne l’est pas non plus pour tout le monde. D’où la nécessité d’un service qui s’affine en fonction de l’utilisateur, comme nous le verrons au paragraphe suivant, et qui est à l’opposé d’un nivellement qui fait si peur à ceux qui connaissent mal le Web 2.0.

[28] Une dizaine de réponses seulement, mais très homogènes. Ce sondage sera répété sur d’autres listes.

[29] Score établi par des magazines à partir de données objectives sur la formation du personnel, la consommation de désinfectants ou le nombre d’infections nosocomiales.

[30] Données non disponibles en France.

[31] Un exemple caricatural : traiter un asthme sur le long terme avec de la cortisone en comprimé donne un résultat brillant, mais des effets à long terme dramatiques. Au contraire, un dérivé de cortisone par spray agira moins vite et moins brillamment, mais ses effets indésirables à long terme sont minimes. Plus banalement : certains traitements pour l’excès de cholestérol vont permettre de faire baisser votre taux sanguin et donc normaliser vos analyses ; mais un effet délétère sur un autre équilibre, non mesurable, va augmenter votre risque d’infarctus, qui est en fait la seule chose importante.

[32] En France, les conseillers des ministres et les experts des agences gouvernementales peuvent sans difficulté ni honte être rémunérés comme consultants par les firmes pharmaceutiques.

[33] L’assurance maladie française veille à ce que les prescription des médecins ne s’éloignent pas des recommandations de la Haute Autorité de Santé.

[34] L’assurance maladie renforce ses contrôles sur les prescripteurs pour vérifier les respect des normes édictées par les autorités sanitaires.

[35] Forte pression sur les médecins, convocations et menaces de poursuite en cas de prescription hors "cadre".

[36] Les effectifs administratifs à l’hôpital ont dépassé ceux des soignants.

[37] Le progrès thérapeutique est en panne depuis 20 ans, à l’exception de la chirurgie, peu encadrée.

[38] L’autosatisfaction, caractéristique de l’économie collectiviste, est une constante dans le monde des institutions sanitaires.

[39] Le "client" est d’ailleurs le plus souvent un usager et/ou un patient. N’étant pas client au sens commercial et contractuel du terme, l’usager/patient n’a pas voix au chapitre.

[40] Retards fréquents, demande supérieure à l’offre dans certaines spécialités.

[41] Délais de rendez-vous pouvant atteindre un an dans certaines spécialités.

[42] Phénomène surtout visible à l’hôpital où le carcan administratif est le plus étouffant.

[43] Voir la loi anti-cadeaux et la lettre-pétition contre la corruption, restée sans réponse à ce jour.

[44] Les médecins spécialistes sont majoritairement en "secteur II" et pratiquent des dépassements d’honoraires qui les rendent inaccessibles aux revenus modestes.

[45] Cancer, Alzheimer...

http://www.atoute.org/n/Qualite-et-sante-4-La.html

Qualité et santé : 5) La Vie est pairjective, elle ne connaît ni norme ni expert à vie

Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : longtemps centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur une subjectivité partagée et pondérée.
- Le premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
- Le deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
- Dans le troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, trouve aujourd’hui ses limites et doit laisser coexister d’autres approches.
- La pairjectivité, thème central de ce dossier, est détaillée dans le quatrième article.
- Ce cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.

Dans l’article précédent, nous avons présenté la pairjectivité, connexion pondérée de multiples subjectivités orientées vers la qualité. Notre expérience montre que malgré des réussites concrètes (la lutte contre le spam, le fonctionnement des moteurs de recherche, nos comportements sociaux) nombreux sont ceux qui rejettent cette approche jugée empirique, au mieux approximative et donc par principe sans valeur. Il se trouve que la Vie, en tant que système qui a donné naissance aux espèces terrestres, n’a pas retenu l’approche objective dans laquelle la santé s’enlise en voulant copier la méthodologie des sciences fondamentales. Au contraire, elle a sélectionné une approche parfaitement pairjective.

Idées-Forces

- La vie progresse sans se soucier de qualité interne.
- L’ADN ne contient pas le plan détaillé des organismes vivants.
- La Vie valorise le progrès sans chercher à le programmer.
- La Vie entretient une savante diversité, garante de sa propre survie.

"The best thing that governments can do to encourage innovation is get out of the way [1]."
R.E. Anderson

Que ce soit dans l’organisation sociale des bactéries et leurs extraordinaires capacités adaptatives, dans le fonctionnement de notre système immunitaire ou de notre cerveau, le moteur de la réussite et du progrès est toujours le même. Les procédures objectives de mesure de la qualité interne n’y tiennent quasiment aucune place.

Certains pensent que notre ADN contient le programme qui régit notre fonctionnement et le décrit dans ses détails. Tel le plan d’une parfaite organisation ou d’une usine, il contiendrait la liste des meilleures stratégies, après des années de sélection naturelle ayant permis de l’affiner, d’en éliminer les imperfections et de l’adapter à notre milieu. Seuls notre caractère ou notre éducation seraient influencés par notre environnement et notre parcours personnel.

D’ailleurs, un des principaux modèles humains de l’amélioration de la qualité paraît s’inspirer de cette illusion. Il teste des procédures et les améliore sans cesse :

PNG - 50.9 ko
Roue de Deming illustrant la méthode PDCA

Cette roue représente graphiquement le concept qualité PDCA qui décrit les quatre étapes successives de la démarche d’amélioration de la qualité :
- Identifier un problème puis programmer, préparer une méthode pour le résoudre.
- Faire, agir suivant le plan que l’on vient de préparer à l’étape précédente (to do en anglais)
- Vérifier, valider l’effet de la solution mise en oeuvre (to check en anglais)
- Intégrer la solution (to act en anglais) si elle a été validée par l’étape précédente. Repartir pour un tour de roue pour progresser encore ou pour réétudier une solution non validée. Le système qualité est le cliquet qui empêche le retour en arrière.

En pratique la méthode qualité PDCA est très répandue. Elle y est considérée comme un modèle d’approche objective et scientifique pour résoudre les problèmes. Elle est utilisée en entreprise, dans les administrations, les hôpitaux et pour l’évaluation des pratiques professionnelle des soignants.

L’ADN ne contient pas le plan de notre organisme

La Vie n’a pas sélectionné la méthode PDCA. La sienne est à la fois plus simple dans son principe et plus complexe dans sa mise en oeuvre.

Notre génome ne comporte pas plus de 100000 gènes c’est-à-dire quasiment rien quand on sait que le programme qui a permis d’écrire ce texte contient des centaines milliers de lignes de code.

Le principe qualitatif qui permet à la Vie de progresser s’articule sur 5 étapes proches de la pairjectivité [2] :
- Favoriser la multiplication d’agents présentant des points communs : cellules, bactéries, immunoglobulines, espèce, tribu.
- Favoriser une grande diversité au sein de ces groupes, sur un mode aléatoire : recombinaisons et mutations de l’ADN, protéines aléatoires ; variété des comportements et des caractères dans les espèces supérieures.
- Identifier les agents qui semblent résoudre des problèmes : c’est-à-dire ceux qui améliorent leur propre condition ou qui améliorent la capacité du groupe à progresser.
- Privilégier ces agents efficaces : améliorer leurs ressources, augmenter leur nombre en gardant un peu de diversité. Cette diversité conservée permet d’affiner la résolution du problème par un cycle supplémentaire (le plus souvent en augmentant leur descendance et en incitant les membres de leur groupe à les soutenir).
- Diminuer les ressources des agents qui échouent de façon répétée ou les inciter à l’autodestruction afin de pouvoir mobiliser les ressources libérées au profit des agents qui réussissent (apoptose cellulaire, maladie, exclusion du groupe, dépression, accès restreint à la nourriture commune, baisse de libido, refus de l’accouplement par les autres membres du groupe).

Par le mot agent, il faut comprendre individu ou surtout groupe d’individus : tribu, colonie, essaim, meute, horde, espèce...

Comme le rappelle Bloom, la compétition darwinienne concerne au moins autant les groupes que les individus. Cet aspect souvent oublié de la théorie de l’évolution permet de comprendre que des sentiments comme la compassion, la solidarité ou la générosité aient pu se développer au sein des espèces sociales : ces comportements sont utiles pour le groupe. Le darwinisme n’est pas synonyme d’une compétition sans merci entre individus, c’est le plus souvent une compétition entre groupes.

La Vie est à la fois bienveillante avec l’initiative et peu indulgente pour l’échec, sauf si ce dernier fait partie d’un processus d’apprentissage nécessaire. Elle est l’arbitre d’une compétition profondément juste : pas de conflits d’intérêts, de despotes, d’experts à vie, de normes. C’est un combat stimulant qui permet à chaque agent seul ou regroupé en équipe de développer ses propres stratégies et de les tester. La Vie se contente d’être un arbitre impartial, de multiplier les gagnants, et de raréfier les perdants, sans jamais les faire disparaître : elle sait que le perdant d’un jour pourra être le gagnant de demain. Elle entretient donc une savante diversité, tout en privilégiant les agents les plus performants à un moment donné, agents dont la position priviligiée est remise en cause en permanence, par exemple à chaque cycle reproductif.

La Vie entretient des hiérarchies dans les groupes sociaux, hiérarchies qui peuvent être très élaborées. Mais ces hiérarchies sont labiles, remises en cause en permanence. Il n’y a pas d’académie, de "haut comité", de situation définitivement acquise. La hiérarchie n’existe que parce que le groupe la valide en permanence et les positions dominantes ne sont pas transmissibles. L’existence de ces hiérarchies, nécessaires au fonctionnement social, explique aussi pourquoi la Vie ne favorise pas la création exclusive d’élites. C’est par un savant dosage de nos aptitudes (et inaptitudes) que nos groupes ou nations fonctionnent.

En revanche, contrairement à la méthode PDCA, la Vie ne planifie pas, ne prépare presque rien : elle laisse l’initiative à ses agents. Cette souplesse lui permet de gérer un nombre infini de problèmes simultanément. Notre ADN ne contient pas le plan de notre intelligence mais les outils qui vont lui permettre de se développer. Pour la Vie, il est inutile d’identifier les problèmes à résoudre : les agents s’en chargent et tentent des solutions en temps réel. Elle ne connaît ni norme, ni recommandation, ni procédure : elle se contente d’amplifier le succès et d’entretenir avec soin la diversité.

La méthode PDCA est lente et n’analyse qu’un problème à la fois

La méthode PDCA qui analyse objectivement UN problème, réunit des experts, rémunère des consultants, puis tente de construire une stratégie globale, est désormais obsolète. Il nous faut accepter l’idée qu’elle n’est efficace que pour résoudre des problèmes simples et ponctuels, plutôt mécaniques qu’humains. Elle est apparue à une période de développement scientifique intense, mais est incapable de résoudre les problèmes complexes qui concernent les sciences de l’Homme, et notamment la médecine. De plus, dans un monde aussi mouvant que le nôtre, sa lenteur la conduit à générer des solutions périmées avant même d’être finalisées. Face à 500 millions d’années d’évolution darwinienne, la méthode PDCA n’est même pas une étape, c’est un instant dans la quête de la qualité et la recherche du progrès qui anime tout ce qui vit.

Le fait que la Vie n’ait pas retenu la méthode PDCA devrait interpeller les sceptiques et les partisans de la qualité interne fondée sur l’évaluation des processus et non des résultats. La question qui se pose est de savoir pourquoi nous nous sommes enfermés si longtemps dans cette impasse. Sont-ce les errances du nauséabond darwinisme social [3] ? Est-ce la quête de l’objectivité, Graal de scientifiques grisés par les succès indéniables de la méthode expérimentale ? Est-ce la peur d’une remise en cause de situations personnelles ? Ou est-ce tout simplement le refus viscéral d’un retour à la qualité externe, validant les résultats et non la méthode ?

Nous en sommes arrivés, avec l’avènement de la qualité interne, au règne de la norme et du faire-savoir et à la fin de celui du savoir-faire, forgé par des centaines de millions d’années d’évolution.

Parallèlement, un nouveau système évolutif est en train d’émerger. Il ne constitue pas un retour en arrière mais une reconstruction. La transmission des idées complète la transmission des gènes, et obéit aussi à des lois darwiniennes ; la mémétique est désormais le moteur évolutif de l’espèce humaine : elle décrit une transmission des organisations et des compétences qui échappe désormais à l’ADN (génétique) et utilise les canaux de l’éducation et de la communication.

La Vie a fait son choix : l’empirisme non planifié qui valorise la réussite spontanée

La Vie a donc choisi l’empirisme et a renoncé à programmer le succès. La subjectivité y est la règle. Il serait très réducteur de penser que la sélection darwinienne fonctionne avec une règle objective unique et simple : "le meilleur individu survit et se reproduit". C’est le plus souvent le groupe qui est l’unité évolutive [4]. Son fonctionnement interne s’appuyant sur des hiérarchies complexes et la valorisation des éléments qui le font progresser constitue un modèle de pairjectivité.

Il est temps d’abandonner ces notions trompeuses de subjectivité et d’objectivité : une stratégie est efficace (elle résoud des problèmes ou permet le progrès) ou elle ne l’est pas. Son mode opératoire n’a qu’un intérêt anecdotique.

La méthode PDCA présente de graves défauts qui expliquent sans doute pourquoi elle n’a pas été retenue pour faire progresser la Vie :
- Elle implique d’avoir identifié un problème au préalable ; la prise en charge d’un problème imprévu provoque au mieux un délai important nécessaire pour sa caractérisation, au pire une panique.
- Elle est lente et incapable de s’adapter à un problème qui évolue rapidement et pour lequel les solutions planifiées sont obsolètes avant même leur mise en oeuvre.
- Elle repose sur des experts, qui peuvent se tromper, choisir de mauvaises solutions, subir des influences parasites, ignorer ou masquer le résultat d’une validation négative de leur plan, voire modifier ou interpréter les résultats des tests de validation pour corroborer leur stratégie et conforter leur position [5].
- Elle ne valorise pas les sujets qui trouvent spontanément et rapidement des solutions aux problèmes. Au contraire, elle parvient souvent à les décourager en leur imposant des procédures inadéquates qui ruinent la qualité de leur travail et leur productivité.

Francisco Varela, philosophe et spécialiste des sciences cognitives, fait une analyse intéressante [6] de l’échec de cette approche dans le domaine de la modélisation informatique de l’intelligence [7]. Il attribue cet échec à deux défauts rédhibitoires de la méthode PDCA :
- Elle est séquentielle, c’est-à-dire qu’elle résoud les problèmes les uns après les autres. Or dès que le système est compliqué et nécessite de nombreux enchaînements d’actions, le temps nécessaire à la résolution globale du problème devient excessif car il est impossible de prévoir tous les cas de figure.
- Elle est localisée : toute la réflexion est réunie au même endroit (réunion, service ministériel, direction d’entreprise) et donc peu propice à la diversité.

Lente et centralisée, la méthode PDCA n’est valable que pour améliorer des processus simples et stables dans le temps, et donc en pratique très peu de problèmes humains.

Cette critique de la méthode PDCA serait injuste si elle ne mentionnait pas un de ses aspects positifs. En l’absence de mesure de la qualité externe, conduire des agents à s’interroger sur leurs procédures et à les remettre en cause est un facteur de progrès. Nous avons eu l’occasion de mettre en oeuvre cette méthode avec un certain bénéfice lors de l’évaluation des pratiques professionnelles des médecins au début des années 2000.
Malheureusement, cette approche minimaliste mais utile est souvent dévoyée et cherche à pousser l’individu à s’approprier une norme présentée comme une procédure idéale.

La bonne approche en terme de qualité interne consisterait à pousser les agents dans une réflexion spontanée sur leur activité et à trouver eux-mêmes de bonnes procédures amenant au progrès, c’est-à-dire améliorant leur qualité externe. Cela supposerai que cette qualité externe soit enfin mesurée équitablement et valorisée, ce qui n’est pas le cas aujourd’hui.

Quelques exemples illustrent cet échec :
- Les réformes diverses et successives de l’enseignement ou de la santé : les énormes systèmes que constituent l’éducation nationale française, les hôpitaux ou la sécurité sociale sont bien trop complexes pour se prêter à une action réfléchie et planifiée. Ils ne peuvent évoluer que par une approche pairjective : identifier les succès, les valoriser, s’en servir de tête de pont pour propager d’autres succès, réduire ou supprimer ce qui ne marche pas.
- Le programme Sesame Vitale. Conçu par l’assurance maladie française pour remplacer la facture en papier (feuille de maladie), il consiste à envoyer par voie électronique une facture aux organismes de sécurité sociale. La réflexion préalable des organismes d’assurance a été plus lente que l’évolution technologique : à peine un projet était-il validé qu’il était technologiquement dépassé. La solution retenue a finalement été de créer l’équivalent d’un email à partir de l’ordinateur du professionnel et de l’envoyer au centre de paiement. Cette simplicité apparente (dont la seule conception a tout de même coûté près d’un milliard d’euros du fait de ses errements) a néanmoins été fortement complexifiée dans sa mise en oeuvre ; plus d’un tiers des médecins refusent de l’utiliser [8].
- La mauvaise santé de nombreuses grandes entreprises. La direction des entreprises géantes devient trop complexe. Les groupes employant des dizaines de milliers de salariés sont désormais ingérables avec la méthode PDCA, d’autant que le monde accélère ses mutations. Comme pour les deux exemples précédents, la lenteur des adaptations et la complexité des problèmes à résoudre condamne à la disparition les mastodontes au pouvoir centralisé.

Dilbert par Scott Adams - "Dis-le avec ton corps". Dargaud Ed Dilbert par Scott Adams - "Dis-le avec ton corps". Dargaud Editeurs

Plus que partout ailleurs, le faire-savoir a remplacé le savoir-faire dans l’entreprise. Le cadre baigne dans un climat d’urgence permanent aggravé par la communication de masse dévoyée que permet l’email [9] ; il se place alors en "mode survie", ne gérant que l’urgence du moment et perd la capacité d’analyser la situation absurde dans laquelle il se trouve [10].

Certains s’adaptent très bien à ce chaos et gèrent prioritairement leur carrière. Ceux qui créent la valeur croulent sous le travail [11] ; ils perdent pied les uns après les autres et l’entreprise devient une coquille vide prête à être absorbée par une firme concurrente. La sélection darwinienne individuelle traditionnelle est inversée : ceux qui produisent sont défavorisés alors que ceux qui ne produisent pas, voire bloquent la production, réussissent. En revanche, grâce à l’économie de marché, la sélection darwinienne des groupes s’opère correctement : une entreprise qui ne redresse pas la barre par la valorisation des ses agents productifs disparaît et laisse le marché disponible pour d’autres entreprises ayant su innover ou mieux satisfaire leur marché.

Ce travers est spécifique des organisations complexes dans lesquelles les hiérarchies ne sont pas revalidées en permanence [12].

Quelques exemples biologiques pairjectifs

La pairjectivité est observable dans de nombreux systèmes biologiques :

- Les bactéries. Elles s’adaptent à une vitesse impressionnante aux nouveaux milieux, y compris contenant un poison comme un antibiotique. Elle échangent des messages chimiques, des gènes d’adaptation au poison, puis se reproduisent à partir de la nouvelle configuration qu’elles ont validée. Quelques jours leur suffisent pour identifier et privilégier les bons enchaînements évolutifs que le seul hasard aurait mis des milliers d’années à reproduire. Planifier par avance la réponse à tous les poisons existant ou à venir, serait tout simplement impossible. Une simple sélection des mutations favorables serait trop lente. C’est la conjonction de la diversité et de la communication permettant aux bactéries d’échanger leurs réponses ou fragments de réponse qui permet au groupe (et non à l’individu) de s’adapter si rapidement à l’adversité. Il n’existe pas de bactérie experte dans la colonie, l’expertise est diffuse et apparentée au "brainstorming" des humains.

- Notre système immunitaire. Nous naissons sans autres anticorps que ceux de notre mère qui resteront quelques mois dans notre sang de nourrisson. Nous héritons en revanche d’une fantastique machine adaptative : le système immunitaire. Nous fabriquons spontanément des lymphocytes (varitété de globule blanc) d’une extraordinaire diversité. Le système immunitaire fonctionne comme un serrurier qui aurait construit des millions de clés différentes en prévision de l’ouverture d’une serrure inconnue. Chaque lymphocyte sécrète une protéine différente, un anticorps, clé qui pourra peut-être s’adapter aux serrures (antigènes) que nous rencontrerons chez les microbes envahisseurs.

A partir des fragments d’un intrus dévoré par des sentinelles (macrophages), les quelques lymphocytes qui fabriquent un anticorps capable de s’adapter grossièrement à ce fragment (antigène) étranger vont se multiplier à grande vitesse. Cette multiplication s’accompagnera d’une légère diversité qui va permettre de sélectionner dans leur descendance ceux qui fabriquent un anticorps encore mieux adapté à l’antigène. En quelques générations de lymphocytes, c’est à dire en quelques jours, nous avons fabriqué des défenses sélectives qui assurent notre guérison. Le corollaire amusant est qu’il n’y a pas deux humains qui fabriquent les mêmes anticorps contre la rougeole par exemple : chacun ayant créé une protéine sur mesure, faite à partir de milliers d’acides aminés, il existe une probabilité quasi nulle d’aboutir à deux protéines identiques.

En disposant tous d’un système immunitaire identique dans son principe, mais différent dans ses outils, nous augmentons notre diversité et donc la probabilité que quelques-uns d’entre nous puissent s’adapter à une infection particulièrement violente ou sournoise [13].

Le système immunitaire est un outil, une usine d’armement ultramoderne et autogérée et non un arsenal figé créé par des militaires.

Dans ces deux exemples, la rapidité de la résolution du problème est liée à un catalyseur qui est l’échange d’informations. Les bactéries communiquent chimiquement. Le système immunitaire dispose lui aussi d’un système de communication complexe qui lui permet d’identifier le lymphocyte qui a trouvé la bonne clé-anticorps pour neutraliser le microbe qui nous attaque. Dans ces deux cas, l’agent victorieux sera multiplié et servira de tête de pont pour progresser vers la survie [14].

Du "Un pour tous" au "Tous pour tous"

Le concept de pairjectivité est indissociable d’une communication diffuse entre les "pairs". C’est une des raisons pour lesquelles le réseau internet est un élément fondamental du progrès pairjectif : il permet de passer de la communication de masse de type "un à plusieurs" (livre, radio, télévision), à une communication "plusieurs à plusieurs" (réseau pair à pair ou peer to peer).

JPEG - 32.1 ko
Pair à pair

Cette notion de liens multiples entre agents nous amène naturellement au plus bel exemple biologique de pairjectivité : notre cerveau.

Il n’est pas anodin que l’un des plus grands neurobiologistes actuels, Gerald Edelman, ait reçu le prix Nobel pour sa découverte du fonctionnement... du système immunitaire ! Le fait que la théorie d’Edelman [15] soit parfois appelée darwinisme neuronal n’est pas inintéressant non plus.

Edelman démontre que le cerveau n’est, à notre naissance, pas grand-chose d’autre qu’un amas de neurones reliés entre eux et structurés dans le cortex en couches (horizontales) et colonnes (verticales) : plusieurs dizaines de milliards de neurones connectés chacun avec des dizaines de milliers d’autres. La structure est en place, mais la connaissance reste à acquérir. Tout notre développement, amenant à des apprentissages et fonctions complexes et jusqu’à la conscience, résulte de la sélection des groupes et circuits identifiés par les autres comme pertinents. Chacun de ces groupes émet des informations vers les autres et en reçoit. Fondé sur la bonne vieille qualité externe, la magie de la fonction puis de la pensée se bâtit sur une sélection darwinienne couplée à un gigantesque réseau de communication.

L’objet le plus fascinant de notre univers se construit sur la base d’un empirisme pragmatique fondé sur l’évaluation mutuelle et massive de ses agents. Il n’y a aucun expert, aucune norme dans le cerveau. Ce système permet :
- L’adaptation de chaque humain à son milieu de naissance puisqu’il s’y construit.
- Une variété savamment entretenue et propice à une adaptation du groupe aux situations nouvelles imprévisibles. Il est des crises où seuls les anxieux survivent, d’autres qui favorisent les seuls audacieux.
- Une vitesse de construction exceptionnelle par résolution de multiples problèmes simultanément.

Nous ne nous étendrons pas plus sur le fonctionnement darwinien et pairjectif du cerveau. Outre les ouvrages d’Edelman, le lecteur intéressé pourra lire ou relire l’homme neuronal de Jean-Pierre Changeux : les groupes neuronaux sont appelés "cristaux", mais la thèse est la même : pas de plan, d’architecte supérieur, mais une validation permanente du succès.

Comment ne pas être tenté de comparer ce que nous enseigne la neurobiologie moderne avec les connexions directes et potentiellement innombrables entre individus permises par internet ? Certes, le raccourci est audacieux et nous sommes loin de l’efficience du cerveau de l’animal le plus primitif [16]. Mais cette voie apporte un espoir considérable à ceux qui pensent que la résolution des situations humaines vastes et complexes ne peut plus résider uniquement dans un schéma traditionnel de type PDCA, certification ISO ou autres normes. Le progrès doit suivre de nouveaux chemins.

La société que nous allons construire avec et pour nos enfants sera neuronale et la santé pourrait en être le premier terrain d’expérimentation. Nous vous ferons des propositions concrètes dans les mois qui viennent.

Vous êtes vivement encouragé à faire vos remarques, critiques et suggestions sur le forum. Ces articles ne sont pas figés et évolueront en permanence. D’autres articles faisant suite à cette série initiale seront publiés à la rentrée.

Notes

[1] "La meilleure chose que les gouvernements puissent faire pour encourager l’innovation est de dégager le terrain".

[2] Ces étapes sont celles que décrit l’étonnant Howard Bloom dans le tome 2 du Principe de Lucifer intitulé "Le cerveau global". La lecture du prologue en accès libre donne une idée de la richesse de l’ouvrage étayé par plus de 1000 références bibliographiques.

[3] Le darwinisme social constitue une déformation des travaux de Charles Darwin, qui a toujours été étranger à l’utilisation de sa théorie pour justifier l’injustifiable.

[4] Bloom op. cit.

[5] Lire à ce sujet l’étonnant et peu médiatisé rapport de la DREES, montrant comment et pourquoi les "notables de la ménopause" ont continué à défendre bec et ongles l’innocuité du traitement hormonal de la ménopause contre les évidences scientifiques qui menaçaient leurs théories et leur positions.

[6] Dans : Invitation aux sciences cognitives 1988

[7] Varela (op. cit.) explique très bien comment la "haute église" cognitiviste, qui voulait assimiler le fonctionnement du cerveau à celui d’un ordinateur, a bloqué la recherche sur l’intelligence artificielle pendant des dizaines d’années. Ceux qui pensaient que le cerveau fonctionnait avec un code pré-écrit étaient enfermés dans une théorie sans avenir. Ce n’est qu’en introduisant un mode de fonctionnement auto-organisationnel et pairjectif que les sciences de la cognition ont pu de nouveau progresser ; or le monde, et notamment le monde de la santé, fonctionne actuellement sur un modèle cognitiviste : penser, préparer, créer des procédures, puis seulement agir.

[8] Une des raisons de ce refus a été la brutalité avec laquelle l’administration de la sécurité sociale a tenté d’imposer son système, croyant naïvement que les patients déserteraient les cabinets médicaux non équipés.

[9] L’email est une forme de communication pairjective totalement dérégulée. L’email en entreprise produit un "bruit" insupportable car il ne bénéficie d’aucune validation : on ne peut considérer comme du spam les courriels de ses collègues, et pourtant...

[10] Situation superposable à celle du médecin à la fois débordé et submergé de procédures. Certains d’entre eux avouent publiquement être débordés par ce climat kafkaïen et baisser les bras au détriment de la qualité de leur travail : extrait d’un message posté sur une liste de discussion publique "le généraliste (le spécialiste aussi) perçoit de plus en plus une menace latente avec de petites phrases du genre "mais vous n’avez rien vu ?" ; la médecine actuelle ne devrait pas permettre de mourir avant 90 ans, ne pas avoir de cancer ni d’Alzheimer ou en tout cas les guérir, ne pas avoir de séquelle douloureuse d’un banal traumatisme, bientôt de pas attraper d’angine ou de cors aux pieds. Cela traduit bien un malaise plus que profond de la société. A l’occasion de la sortie du fameux Gardasil (vaccin à faire chez les adolescentes en prévention du cancer du col utérin) nous avons eu, les médecins de mon coin, une discussion sur ces sujets comprenant le Gardasil, le dépistage du cancer prostatique, le traitement de la maladie d’Alzheimer, 3 sujets où il est évident que les implications financières sont phénoménales ; il en est ressorti que ce n’est pas a nous généralistes, à décider du bien-fondé des attitudes préconisées, d’une part du fait du premier argument cité plus haut, d’autre part du fait que notre activitéest de plus en plus complexe et qu’il ne sert à rien d’en rajouter en voulant lutter contre des moulins à vent, les pales largement recouvertes de toiles pouvant aussi bien vous envoyer dans la boue que dans les étoiles. Souvenez-vous aux débuts du traitement de l’Alzheimer : une gentille dame parisienne, qui doit sans doute encore sévir, avait créé une association qui portait systématiquement plainte devant tout retard diagnostic de la maladie. L’attitude pragmatique consiste donc pour nous :
- à rappeler systématiquement à bien faire les mammo. de dépistage même si la majorité est convaincue de son inutilité
- à proposer le PSA (et faire le toucher rectal bien sûr) chez tout homme de 50 ans
- à systématiquement proposer le Gardasil dès 14 ans. Ce n’est qu’avec cette attitude que nous dégageons notre esprit de toute interrogation sur ces sujets, et que nous conservons un minimum de neurones pour essayer de régler ... tout le reste ! Comme je crois l’avoir lu sur la liste, si la CPAM lance une campagne de dépistage par PSA, ce sera parfait. Ce n’est pas à nous généraliste, à faire la guerre aux laboratoires ; si mon payeur (la CPAM) ne sait pas ou ne veut pas, me donner des consignes précises au sujet de ce PSA elle sait certainement par contre, ce que va lui coûter, en effets secondaires, son dosage systématique.

[11] Ce sont le plus souvent des femmes, génétiquement peu préparées à cette guerre sans merci, car il s’agit bien d’un combat, d’une guerre de pouvoir dans laquelle l’objectif de production de biens ou de services a quasiment disparu.

[12] Dans l’entreprise ou l’administration, l’évaluation et la promotion viennent de l’échelon supérieur, encourageant la séduction du supérieur par le subordonné. Dans la nature, la hiérarchie est remise en cause à chaque instant par la base, et c’est face à ses pairs ou ses subordonnés que le dominant doit justifier sont statut.

[13] Il existe un faible pourcentage d’humains résistant naturellement au sida. Ils sont en effet dépourvus d’une protéine indispensable à l’infection des lymphocytes par le HIV.

[14] Pour être plus précis, il existe aussi des mécanismes internes de valorisation : le sujet victorieux va développer lui-même ses capacités tandis que celui qui est en échec va s’autolimiter voire s’autodétruire. Nous le constatons nous-mêmes : le succès donne de l’énergie physique (et sexuelle...), de la confiance en soi et du coeur à l’ouvrage. Au contraire, l’échec conduit à l’aboulie, à l’isolement et à la dépression. L’apoptose, mécanisme d’autodestruction cellulaire, concerne aussi les organismes supérieurs.

[15] Edelman l’avait dénommée plus précisément "sélection des groupes neuronaux". Un résumé est accessible ici, mais la lecture de son magistral biologie de la conscience est vivement recommandée pour qui s’intéresse à la pairjectivité.

[16] Et encore plus loin de l’éveil à la conscience du réseau, thématique récurrente en science-fiction.

http://www.atoute.org/n/Qualite-et-sante-5-La-Vie-est.html

00:58 Publié dans Numérisation de la société, Science | Lien permanent | Commentaires (0) | |  del.icio.us | | Digg! Digg |  Facebook | |  Imprimer | |