mardi, 22 avril 2014
Collecte de mes données personnelles : est-ce que j'ai des raisons de m'inquiéter ?
Vous pensez :
- je n’ai rien à cacher. Ni à Google, ni à Facebook, ni à PRISM (mais pas peut-être pas à mes proches…).
- je n’ai aucune raison de m’inquiéter :
- je ne suis pas quelqu’un de suspect, si on doit surveiller quelqu’un en tout cas ça ne sera pas moi,
- je veux qu’on me surveille pour me protéger et surtout qu’on surveille les autres pour et faire respecter la loi,
- j’ai confiance en mon gouvernement,
- je n’ai pas à me cacher, je ne fais rien d’illégal,
- je suis prêt à tout pour ma sécurité et celle de mes proches, peu m’importe tant que ce ne sont que des méta-données utilisées pour construire des graphes sociaux et constituer mon profil en agrégeant automatiquement des données.
Vous vous trompez ! Vous allez comprendre de façon très simple et très claire, pourquoi :
- On ignore quelles erreurs de collecte peuvent être faites.
- On ne connait pas les règles qui peuvent faire de nous un suspect idéal.
- Les connaitrait-on, elles devraient être changées pour anticiper de nouveaux comportements.
- Les policiers eux-même refusent d’être surveillés.
- L’absence de confidentialité m’interdit dans certaines circonstances, de témoigner sans me mettre en péril.
- Je ne peux plus un seul instant blaguer, transgresser, déraper, sans que ça puisse un jour m’être reproché.
- Les lois doivent pouvoir ne pas être respectées pour évoluer.
- La vie privée est un besoin humain fondamental.
15:15 Publié dans Numérisation de la société | Lien permanent | Commentaires (0) | | del.icio.us | | Digg | Facebook | | Imprimer |
mercredi, 16 avril 2014
Production et analyse de données de masse contre enfermement dans des techniques de surveillance.
“Nous exportons nos données, des données brutes, que nous réimportons sous forme de services. Et ce faisant, nous perdons le cœur de notre valeur ajoutée, le cœur de nos emplois, le cœur de nos services. On est dans une logique d’éviscération par le pillage des données.” Pierre Bellanger
Données personnelles : sortir des injonctions contradictoires
Source http://vecam.org/article1289.html - Valérie Peugeot - Creative Commons
- La première nous a fait scintiller les merveilles associées aux big data, source inépuisable de nouveaux gisements de richesse de l’économie numérique - déluge de données, nouvel or noir, fin de la science… - l’escalade métaphorique semblait sans fin.
- La seconde a été liée au coup de tonnerre déclenché par la suite des révélations d’Edward Snowden : en quelques heures, les cris d’alarme négligés des associations de défense des libertés devenaient réalité, en pire. Nul n’avait anticipé l’ampleur et la diversité des données collectées par la NSA. Si big data il y a, ce sont bien celles interceptées et analysé par les autorités américaines, dans une logique de « big surveillance ».
- Aujourd’hui, troisième vague, nous voyons se multiplier les articles qui tentent de dégonfler l’enthousiasme exagéré suscité par le projet big data, entre démonstration de l’inexactitude des Google Flue Trends et analyse des biais méthodologique du big data (iciet là).
Mais ces critiques ne disent rien du problème précédent : comment dénouer le lien entre production, analyse de données de masse d’une part et logique de surveillance de l’autre. Car c’est bien de cela qu’il s’agit : plus notre économie inventera des services qui auront besoin de s’appuyer sur de la donnée pour fonctionner – et nous en voyons fleurir tous les jours – plus nous mettrons en place les infrastructures passives qui rendent les logiques de surveillance techniquement possibles, quel que soit le tiers qui décide de s’en servir.
De fait, si les critiques du big data se gardent bien d’attaquer la question de la surveillance c’est que, comme beaucoup, ils se trouvent confrontés à un nœud apparemment gordien : vouloir empêcher le recueil de données, c’est bloquer l’innovation, et donc freiner l’économie numérique. Tous les lobbys qui se pressent à Bruxelles autour de la négociation du nouveau règlement en matière de données personnelles ne disent pas autre chose : ne nous empêchez pas d’innover ! Et en l’état, ils ont raison : tout renforcement de la protection des données personnelles peut apparaître comme un frein à la création de nouveaux services. À moins que nous ne changions radicalement notre manière d’aborder le problème.
* * *
Pour commencer, rappelons-nous que de plus en plus de ce qui constitue les big data est et sera de fait de données coproduites par des individus et des services, ce qui signifie que la problématique de la donnée personnelle sera de plus en plus prégnante. Au fur et à mesure que nos objets se mettront à communiquer – compteur, balance, montre, porte d’entrée, voiture etc – nous participeront à cette inflation de la masse de données. Toutes les données ne sont certes pas personnelles (ex : les données météos ne le sont pas), mais de plus en plus de données entreront dans ce régime, ce qui renforce le risque de surveillance.
Face à cela, il nous faut tout d’abord éviter plusieurs impasses.
La première consisterait à rester dans ce que l’on peut qualifier de « faible régime » actuel : de fait nous sommes dans une zone d’incertitude juridique, qui encourage les logiques de « prédation » de la donnée par les plates-formes pour les monétiser, avec des approches plus ou moins délicates (opt in / opt out). Cette situation accule à une vision « innovation contre vie privée », qui pousse le droit, dans une course sans fin, à galoper derrière l’innovation sans jamais être à temps pour protéger les utilisateurs. C’est une approche défensive peu efficace dans une période d’affaiblissement de la puissance publique face aux acteurs du marché. Nous ne pouvons que saluer les dernières prises de position du Parlement européen avec l’adoption en mars dernier du rapport Albrecht concernant le règlement général sur la protection des données, rapport qui rejette les propositions préjudiciables à la vie privée. Mais de fait le rythme du politique et du droit ne sont pas celui de la technologie, et même si le prochain règlement constitue une avancée, il peut en quelques années se révéler impuissants face à de nouveaux dispositifs techniques.
La seconde impasse consisterait à vouloir glisser vers un régime de propriété (intellectuelle et/ ou commerciale) des données par l’utilisateur. Fleurissent actuellement les prises de positions qui vont en ce sens (cf. par exemple la tribune conjointe de Babinet et Bellangerou les prises de position répétées de l’avocat Bensousan). Cette approche me semble à combattre car elle soulève plusieurs problèmes imbriqués :
- un problème de conception politique d’une part : en renvoyant sur l’individu la responsabilité de gérer et protéger ses données, au lieu de trouver des réponses collectives à un problème de société, elle participe d’une vision qui renforce l’individualisme et nie les rapports de force entre les consommateurs et les entreprises
- conséquence du point précédent, surgit un problème très concret : ceci déboucherait sur un renforcement des inégalités entre citoyens numériques, entre ceux en capacité de gérer leurs données, de les protéger, les monétiser, et ceux qui par manque de littératie, de temps, ou toute autre raison, laisserait faire par défaut le marché.
Le scénario plausible qui se met en place est celui d’une société numérique dans laquelle les personnes en bas de l’échelle économique et/où culturelle commercialisent leurs données (pas forcément sous forme monétaire, mais en échange de services), pendant que ceux qui disposent de moyens économiques et/où culturels les enferment à double tour numérique. C’est déjà ce qui se met en place (ex : Doodle) ou se profile (ex : YouTube, Apple) avec des services premiums payants sans publicité.
Finalement ce choix entre deux moyens de paiement pour l’accès à un même service (monétisation directe versus attention) ne serait pas un problème en soi si la circulation des données de l’utilisateur ne soulevait pas chaque jour un peu plus des problèmes de vie privée.
Sans compter que ce régime n’offre pas de garantie de non traçage à l’image de ce qui se pratique avec le « do not track » (dont l’interprétation par les grands opérateurs publicitaire laisse dubitatif : la collecte de données reste active, certes sans utilisation directe par la publicité sur le navigateur concerné, ce qui n’empêche pas à leurs yeux la revente sur des places de marché de données).
- Ce scénario de la propriété sur les données est poussé par des acteurs qui y voient une opportunité d’affaires plus qu’une sortie par le haut dans une économie numérique en recherche d’équilibre. On voit ainsi apparaître des entreprises qui promettent aux internautes une monétisation directe de leurs données en les louant à des tiers (ex : Yesprofile). Ces acteurs ont pour l’heure un positionnement ambigu : ils promettent simultanément une reprise de contrôle sur les données par l’utilisateur et une source de revenus. S’ils partagent avec les acteurs du VRM (Vendor Relationship Management) le premier objectif, la promesse financière les en démarquent. Cette promesse financière semble illusoire, les simulations montrant un taux de retour de quelques euros, mais ce n’est pas la question essentielle. Dans cette approche, la régulation ne passe que par un modèle commercial, entre entités en situation d’asymétrie informationnelle et de rapport de force, ce qui se traduit inévitablement au désavantage du consommateur/utilisateur.
- À l’inverse, si comme nous le pensons, cette monétisation directe des données par les individus génère des revenus anecdotiques, on peut imaginer de voir émerger un autre type d’intermédiaires qui se chargeraient non plus de la commercialisation mais de la « gestion protectrice de données numériques », c’est à dire de la vérification de qui collecte, qui en fait quoi. De la même manière que des entreprises se sont positionnées sur le marché de la réputation et proposent aux internautes des services de « nettoyage » de réputation (ex : RéputationVIP), d’autres pourrons se positionner sur la gestion protectrice. Là encore, certains utilisateurs pourraient se payer les services de ces « gestionnaires de données », pendant que d’autres devraient laisser leurs données circuler au bon vouloir des plates-formes et de leur marché secondaire de la donnée. Nous rebouclons ainsi avec la question des nouvelles inégalités numériques induites par un glissement d’un régime de droit vers un régime de propriété.
- Par ailleurs, scénario du pire, si le choix était fait d’un passage en régime de propriété intellectuelle, cela supposerait, par analogie avec le droit d’auteur ou le brevet, que le droit exclusif de l’individu sur ses données soit temporaire. En effet par définition les régimes de propriété intellectuelle sont des exceptions de monopole concédées à un créateur ou un innovateur, délai au terme duquel les données passeraient dans le domaine public. On voit bien ici qu’un régime de propriété intellectuelle est totalement inapproprié : au bout de quel délai les données sortiraient-elles de la propriété de leur (co)producteur qu’est l’utilisateur ? Au moment où elles n’ont plus de valeur sur le marché de l’économie de l’attention ? De plus le droit d’auteur ne fonctionne que parce qu’il est assorti de nombreuses limites et exceptions pour des usages dits légitimes (recherche, éducation…). Est-ce que l’usage des données serait lui aussi « légitime » quand il est fait sous forme de statistiques agrégées (génomique par exemple ?).
- De plus cela risque de pervertir la logique du droit de propriété intellectuelle : actuellement les informations brutes et les données ne sont pas couvertes ; le droit d’auteur ne concerne que la forme que l’on donne aux informations, et en Europe, le droit sui generis rend propriétaire la cohérence dans une base de donnée, et non les données elles-mêmes. En élargissant aux données personnelles, on risque de provoquer un glissement général vers une mise sous propriété de toutes les données et informations brutes, ce qui aurait des conséquences sur les données scientifiques, publiques… Très exactement l’inverse de ce que nous défendons avec l’open data, la science ouverte etc.
- Une alternative avancée par certains serait la mise en place de sociétés de gestions des droits sur les données, à l’image des sociétés de gestion de droits d’auteurs. Outre le fait que les sociétés de gestion de droits d’auteurs sont loin d’être la panacée et sont régulièrement critiquées (cf. par exemple JF Bert), cette solution semble totalement irréaliste. Alors que sur les œuvres, les coûts de transaction pour la redistribution des droits aux auteurs sont tels que par exemple 68% des sociétaires de la SACEM ne reçoive aucune rémunération, on a du mal à imaginer un système de redistribution, même numérique, de quelques euros entre des millions d’utilisateurs.
La troisième fausse piste, réside dans les solutions techniques de type cryptographie
Pour l’heure plusieurs acteurs poussent aux solutions techniques. Il s’agit essentiellement des acteurs institutionnels (cf. les déclarations du premier ministre à l’ANSSI en février) et des acteurs venus des communautés technologiques (IETF, W3C, etc.) dont c’est le métier (cf. les nombreux papiers scientifiques proposés à la rencontre STRINT de Londres). Si pour ces derniers, il est cohérent d’aller dans cette direction puisque c’est là que réside leur savoir-faire et leur gagne-pain, il est plus surprenant de voir des acteurs politiques dépolitiser ainsi une question aussi centrale. • La réponse technique à un problème rendu possible par la technique est une course en avant sans fin, qui tend à éluder le fait que le numérique est un produit éminemment socio-technique. Pas plus que les DRM ne sauvent des industries culturelles qui refusent de prendre la mesure de la profondeur de la mutation à l’œuvre en matière de circulation des œuvres, la cryptographie ou autre solution technique ne saurait être une réponse à une problématique socio-économique. • Il y aura toujours une technologie capable de défaire la précédente. Jusqu’à présent aucun verrou numérique n’a su résister. De plus, comme le rappelle très justement Snowden « « Le chiffrement fonctionne […]. Malheureusement, la sécurité au point de départ et d’arrivée [d’un courriel] est si dramatiquement faible que la NSA arrive très souvent à la contourner. » Et rappelons-nous que la NSA (ou ses consœurs) installe des backdoors dans les logiciels de chiffrement eux-mêmes.
* * *
Alors que pouvons-nous envisager pour nous prémunir de la société de surveillance tout en continuant à créer, inventer ?
Voici quatre pistes, qui sont autant d’invitation à débattre.
La première piste consiste à orienter l’économie numérique le plus loin possible de l’économie de l’attention pour revenir à une économie servicielle. Aujourd’hui l’économie du Web repose en très grande partie sur une monétisation de « notre temps de cerveau disponible » via de la publicité pour nous inciter à consommer. Google, Facebook, Twitter, et même Amazon qui pourtant commercialise des biens, vivent sur des marchés dits bifaces ou multifaces : d’une main ils offrent un service non monétisé (moteur de recherche, microblogging, réseau social…), de l’autre ils revendent les traces de leurs utilisateurs soit en direct à des annonceurs, soit via des places de marché de la donnée sur lesquelles opèrent des data brokers. Parmi les plus gros opérateurs aux États-Unis on peut citer Axicom, dont on estime qu’elle dispose d’environ 1500 informations sur 200 millions d’américains ou encore Epsilon, BlueKai, V12 Group, Datalogix. Ce déport d’une part croissante de l’économie semble sans fin : un jour c’est un banquier qui émet l’idée de ne plus faire payer les frais de carte bancaire aux clients en échange d’un droit de réutilisation de leurs données ; demain ce sera un organisateur de concert qui vendra des entrées à bas prix en échange d’un accès aux données du spectateur, etc. En raisonnant par l’extrême, si des secteurs entiers de l’économie pré numérique se mettent à basculer vers cette illusion du gratuit et à commercialiser de la donnée en sus et place d’un bien ou d’un service, à qui les data brokers revendront-ils leurs données ? Cette information ne perdra-t-elle pas progressivement de la valeur au fur et à mesure que des pans entiers de l’économie basculeront vers des marchés bifaces basés sur l’attention ? Sans aller jusqu’à cet extrême, il nous faut aujourd’hui inverser trois choses : sortir de l’illusion que ce qui est gratuit pour le consommateur est bon pour lui ; revenir autant que faire se peut à de la commercialisation de services, ce qui participe à désenfler la tentation de captation des données personnelles (en ce sens, les services dits d’économie collaborative, en se rémunérant pour la plupart par un pourcentage sur la prestation sur le covoiturage, sur l’hébergement…, au lieu de pratiquer l’illusion de la gratuité assortie de publicité, participent à une forme d’assainissement de l’économie numérique) ; encadrer très fortement les marchés de data brokers, qui sont aujourd’hui totalement opaques et non régulés. Le marketing prédictif est le meilleur ami de la surveillance car il recueille et traite les données toujours plus fines sur l’individu qui rendent cette dernière techniquement possible. Tout ce qui peut contribuer à affaiblir ce marché est bon pour notre société et les libertés individuelles.
Plus généralement, une régulation du marché des données, si l’on considère la transparence comme élément d’un contrôle social de l’usage des données, peut passer par une obligation de documentation technique très forte – quelles données collectées, où sont-elles stockées, combien de temps sont-elles conservées, … ? –. Cette documentation serait le support à l’intervention d’un corps d’inspecteurs des données, dont les prérogatives iraient bien au-delà de celles de la CNIL. C’est, dans un tout autre domaine, ce qui vient d’être fait par la justice américaine, qui a condamné Apple à être surveillé pendant 2 ans, suite à des pratiques d’entente illicite sur les livres numériques. Le principe met toutes les entreprises à égalité puisque celles-ci ont la responsabilité d’appliquer par défaut le bundle of rights, mais peuvent être soumises à des audits aléatoires.
La seconde piste est certes technique, mais à l’opposé de la cryptographie, va chercher du côté des infrastructures ouvertes et libres (au sens logiciel du terme). Il s’agit, première brique, autant que possible d’utiliser des logiciels libres car ils assurent une surveillance horizontale par les communautés de ce que fait et comment peut être utilisé un logiciel, comme le rappel l’APRIL dans sa tribune dans Libération du 25 février 2014. La transparence du logiciel libre et sa capacité d’appropriation par d’autres que ses concepteurs initiaux en fait une brique d’une reconstruction d’une relation de confiance entre l’utilisateur et un logiciel. Mais au-delà des logiciels, ce sont aussi les normes qui doivent être pensées sur un modèle ouvert, pour qu’elles ne deviennent pas de nouvelles boites noires génératrice d’insécurité sur les données (en laissant une poignée d’acteurs nord-américains prendre le leadership de cette normalisation, nous n’en prenons pas le chemin). Ceci est particulièrement vrai pour les normes encore à construire pour l’internet des objets. Si nous laissons s’installer des standards propriétaires, nous donnons le fer pour nous faire battre. On peut aller plus loin en suivant les pistes de Van Kranenburg dans son rapport sur l’internet des objets où il propose d’aller vers des infrastructures globales ouvertes, depuis le RFID jusqu’au GPS (page 50 du rapport). Sur la base de ces infrastructures on peut alors imaginer des outils de gestion de sa vie privée comme ce RFID Guardian, imaginé par Melanie Rieback (page 49 du rapport) qui permet de régler l’usage du RFID quand on circule dans un environnement connecté (supermarché, ville…). Il s’agit enfin et surtout pour protéger nos données personnelles, de construire des infrastructures de management de ces données qui redonnent la main et le contrôle à l’utilisateur, infrastructures que certains appellent les PIMS – Personal information mangement systems, à l’instar de ce que développement une entreprise comme Cozy cloud.
La troisième piste, qui déborde le cadre stricte des données personnelles pour s’intéresser aux données numériques en général, consiste, en s’inspirant des travaux d’Elinor Ostrom et de l’école de Bloomington autour des biens communs, à développer une sphère de données en Communs, c’est-à-dire de données qui peuvent être considérées comme une ressource collective, et qui n’entrent ni dans le régime des biens gérés par la puissance publique strico sensu, ni dans un régime de marché. Ce régime de Communs repose sur une gestion par une communauté de la ressource considérée, qui organise ses règles de gouvernance, en s’appuyant sur un « faisceau de droits » (bundle of rights »). Ces faisceaux de droits rendent possibles des régimes de propriété partagée. Un faisceau de droit c’est un ensemble de relations sociales codifiées autour de quelque chose à protéger comme le rappelle Silvère Mercier. Ils permettent de penser les usages indépendamment de la notion de « propriété », et d’adapter les règles de droit pour servir au mieux les usages en protégeant les ressources mises en partage. La grande force des Communs est d’ouvrir une troisième voix à côté de la propriété privée et de la propriété publique, un espace dans lequel des ressources, ici des données, ne sont pas soumises à un régime de droits exclusifs, mais peuvent être réutilisées selon certaines conditions fixées par la communauté qui en a la gestion et qui veille à leur protection. Il ouvre un espace protégé dans lequel les individus et les collectifs peuvent choisir de placer leurs données.
Ces ressources sont ainsi soustraites au marché stricto sensu et aux logiques oligopolistiques qui sous-tendent le capitalisme que nous connaissons dans sa forme actuelle. Ce qui ne signifie pas que des porosités n’existent pas avec le marché ou que les Communs se font contre le marché. Les deux peuvent non seulement cohabiter mais également se compléter. Ainsi Flickr, plateforme de partage de photos, filiale de Yahoo !, héberge des photos placées par des internautes en régime de Communs via une licence Creative Commons, de même que des fonds d’archives photographiques du domaine public placées là par des institutions publiques (musées, bibliothèques...). De même ces ressources échappent au régime de pure administration publique qui laisse reposer l’entière responsabilité de leur gestion et de leur protection sur les épaules de la puissance publique. Les Communs impliquent une co-responsabilité de la part des acteurs qui en assurent la gouvernance, permettant ainsi un glissement de logiques purement délégatives à des approches plus contributives. De la même manière que pour le marché, sphère publique et Communs n’ont pas vocation à s’opposer mais à se compléter. Ainsi lorsqu’une communauté d’habitants en Bretagne décide de mettre en place et d’autofinancer en crowdfunding une éoliennesur leur territoire pour assurer une fourniture d’énergie autonome et durable au village, tout en utilisant un terrain de la municipalité, le Commun est coproduit par cette dernière et par les habitants, et se réalise en partenariat avec les entreprises privées qui vont construire l’éolienne et gérer les flux électriques sur les réseaux, sous le contrôle des citoyens qui auront financé le projet.
Pour éviter que l’ensemble des données ne soient pas aspirées dans cette course à la marchandisation de la donnée et favorise ainsi une société de surveillance, il est essentiel qu’une sphère de données « en Communs » puisse fleurir, s’enrichir et être protégée contre des tentatives d’enclosures.
L’existence de cette sphère de données en Communs présente plusieurs avantages : elle constitue un gisement d’informations dans laquelle d’autres acteurs extérieurs à la communauté des producteurs peuvent puiser pour créer, innover, proposer d’autres services ; elle permet de tirer parti des spécificités contributives du monde numérique
* * *
Quelles données pourraient appartenir à cette sphère des communs ?
Trois catégories semblent possibles en premier regard :
- Des données produites par la sphère publique et partagées en open data, sous réserve qu’elles soient assorties d’une licence de partage à l’identique (share alike). C’est déjà le cas de la licence choisie par un grand nombre de collectivités locales mais à notre grand regret pas par Etalab, ce qui veut dire que ces données peuvent être à nouveau « encloses ». Les données produites pas la puissance publique avec l’argent public doivent rester libres de réutilisation.
- La seconde catégorie est constituée des données produites par les individus qui désirent placer ces ressources en bien commun. C’est déjà le cas des données produites dans OpenStreetMap, dans Wikipédia, qui de fait constituent une œuvre collective, pour lesquelles les communautés ont choisi un régime juridique qui protège les ressources en biens communs. Sur Wikipédia la communauté a fait le choix de deux licences compatibles, la licence CC by-sa et la licence de documentation libre GNU, qui dans les deux cas contiennent cette obligation du partage aux mêmes conditions.
- Dans une moindre mesure, des données produites par des entreprises pour les besoins de leur activité – un catalogue de magasin, une liste de point de vente, un taux de fréquentation de ses magasins – et qui choisissent de les mettre à disposition de tiers dans une logique écosystémique. C’est ce qu’ont commencé à faire la SNCF ou La Poste, qui expérimentent autour de l’open data. Je dis dans une moindre mesure, car les données des entreprises peuvent à tout moment être ré-enfermées (ex : via une fermeture d’API comme l’a fait Twitter) et ne font pas l’objet d’une gouvernance collective, mais d’une gouvernance privée par l’entreprise qui décide de les mettre à disposition. On peut craindre, comme cela s’est déjà passé pour d’autres services numériques, qu’une fois l’écosystème constitué, les données ne redeviennent privées, l’ouverture ne constituant alors qu’une phase transitoire, un « produit d’appel ».
La quatrième piste, proche dans sa source d’inspiration de la précédente, consiste à imaginer une gestion des données personnelles par un régime de « bundle of rights ». Le Bundle of rights, ou « faisceaux de droits » puise à un courant juridique qui a émergé aux États-Unis au début du XXe siècle et qui trouve ses racines dans la pensée juridique américain dite du « legal realism » (ou réalisme juridique) qui conçoit la propriété comme un ensemble complexe de relations légales entre des personnes, ainsi que l’explique Fabienne Orsi. Cette approche par le « faisceau de droits » permet, autour d’une même ressource matérielle ou immatérielle, d’identifier différents droits : ex : droit de posséder, d’utiliser, de gérer, de monétiser, de transmettre, de modifier… Cette approche est un des piliers de la pensée des Communs.
Appliqué aux données produites sur le web par les actions des individus, les faisceaux ou bouquets de droits permettraient d’imaginer trois ensembles de droits :
- Certains usages assortis de droits sont garantis par défaut à l’utilisateur, comme par exemple, le droit de savoir ce que l’on collecte sur lui ; le droit de rectification de ses données ; le droit à la portabilité des données ; le droit de placer ses données en Communs (cf. supra).
- D’autres usages peuvent être à l’inverse garantis à la plate-forme, au producteur du service, comme par exemple le droit de gestion pour une amélioration de la relation client ;
- Enfin, les usages intermédiaires qui sont ceux qui dégagent le plus de valeur d’usage à la fois pour l’entreprise et pour l’individu (ex : le graphe social) peuvent quant à eux faire l’objet d’un usage par l’entreprise sous deux régimes possibles :
- Une ouverture de la donnée individuelle à un tiers sur base d’une autorisation explicite de la part de l’individu coproducteur, en échange d’un service ex : j’autorise une marque d’électroménager à accéder à mes données pour me proposer une machine à laver qui correspond à mes besoins, dans une approche dite VRM – Vendor relationship management. Cette approche fait l’objet d’une expérimentation à travers le projet MesInfos, porté par la FING.
- Une ouverture de la donnée agrégée et anonymisée à des tiers sous condition de partage limité dans le temps. Sur une très courte période, quand la donnée est « chaude », la plateforme aurait le droit de monétiser celle-ci agrégée à d’autres, mais à l’expiration de cette période, la donnée ne pourrait plus être mobilisée directement ou indirectement par la plateforme productrice. La donnée devrait alors soit être détruite (pas de possibilité de stockage) soit être transférée vers un espace de type cloud personnel où l’individu pourrait la conserver s’il la juge utile, voire la partager s’il le souhaite.
Cette approche par une discrimination à la fois temporelle des droits (donnée chaude, droits d’usage à l’entreprise, donnée froide, exclusivité de l’usager) et spatiale (stockage dans la plateforme, stockage dans un espace contrôlé par l’individu) pourrait ouvrir la voir à un bundle of rights positif, c’est-à-dire à la fois protecteur pour l’individu et en même temps ne tuant pas d’entrée de jeu le modèle d’affaires des entreprises du web qui proposent des services (hors marketing) construits autour de la donnée (ex : trouver un vélib).
Enfin, de façon encore plus prospective, pour aller plus loin dans la réflexion, nous ne voulons pas placer ce régime d’usage sous le signe de la propriété partagée mais sous celui d’un nouveau « droit du travail contributif ». En 1936 Jean Zay avait défendu dans une loiqui n’a pas pu voir le jour à cause d’une opposition des éditeurs puis de l’explosion de la Seconde guerre mondiale, une conception du droit d’auteur basée non pas sur un régime de propriété intellectuelle mais sur la reconnaissance du travail accompli. Cette approche avait pour objectif de protéger les créateurs tout en défendant le domaine public, source de renouvellement créatif dans lequel puisent les nouvelles générations d’artistes (domaine public que l’on peut considérer comme l’une des composantes d’une sphère des Communs). En considérant l’auteur non plus comme un propriétaire, mais comme un travailleur, cette approche permettait à Jean Zay de dissocier les droits des descendants sur d’une part le droit moral à longue durée, et d’autre part les droits patrimoniaux pour lesquels il séparait (forme de bundle of rights) le droit à percevoir des revenus par les ayant-droits, qui devaient durer jusqu’à ce que l’œuvre entre dans le domaine public, de l’existence d’un monopole sur l’usage de l’œuvre, qui pour sa part était limité à dix ans après le décès de l’auteur, permettant ainsi aux œuvres de faire l’objet de nouvelles exploitations rapidement.
Dans le cas qui nous occupe, si l’on accepte les hypothèses suivantes :
- que le Web des données est le fruit du labeur conjoint des plates-formes et des utilisateurs, comme c’est affirmé entre autres dans le rapport Colin et Collin ;
- que le travail est en train de muter profondément à l’heure du numérique, effaçant la frontière entre amateur et professionnel ;
- que les travailleurs vivant hors du système classique du salariat vont se massifier …alors nous devons inventer ce droit du travail contributif qui pourrait s’appuyer sur un bundle of rights adapté à la nouvelle situation.
*****
Refus de la propriétarisation de la donnée, déplacement du capitalisme informationnel vers une économie servicielle, montée en puissance des infrastructures ouvertes de recueil et traitement des données personnelles, développement d’une sphère des données en régime de Communs, construction d’un droit des données personnelles appuyé sur un « faisceau de droits d’usage »... Chacune de ces pistes vise à empêcher la construction d’une société de surveillance. Certaines sont déjà en cours d’exploration. A nous de multiplier les recherches et de faire se rencontrer les acteurs qui œuvrent à une sortie par le haut de la société des données de masse. Pour que données puisse rimer avec libertés.
* * *
Posté le 13 avril 2014
©© Vecam, article sous licence creative common
Articles cités
1) Eight (No, Nine!) Problems With Big Data
- The first thing to note is that although big data is very good at detecting correlations, especially subtle correlations that an analysis of smaller data sets might miss, it never tells us which correlations are meaningful.
- Second, big data can work well as an adjunct to scientific inquiry but rarely succeeds as a wholesale replacement.
- Third, many tools that are based on big data can be easily gamed. For example, big data programs for grading student essays often rely on measures like sentence length and word sophistication, which are found to correlate well with the scores given by human graders. But once students figure out how such a program works, they start writing long sentences and using obscure words, rather than learning how to actually formulate and write clear, coherent text. Even Google’s celebrated search engine, rightly seen as a big data success story, is not immune to “Google bombing” and “spamdexing,” wily techniques for artificially elevating website search placement.
- Fourth, even when the results of a big data analysis aren’t intentionally gamed, they often turn out to be less robust than they initially seem. Consider Google Flu Trends…
- A fifth concern might be called the echo-chamber effect, which also stems from the fact that much of big data comes from the web. Whenever the source of information for a big data analysis is itself a product of big data, opportunities for vicious cycles abound.
- A sixth worry is the risk of too many correlations. If you look 100 times for correlations between two variables, you risk finding, purely by chance, about five bogus correlations that appear statistically significant — even though there is no actual meaningful connection between the variables.
- Seventh, big data is prone to giving scientific-sounding solutions to hopelessly imprecise questions.
[…] Big data can reduce anything to a single number, but you shouldn’t be fooled by the appearance of exactitude. - FINALLY, big data is at its best when analyzing things that are extremely common, but often falls short when analyzing things that are less common. {…] But no existing body of data will ever be large enough to include all the trigrams that people might use, because of the continuing inventiveness of language (à moins que d’abondantes inventions soient proposées par des machiutomates , et que les humains se contentent d’adopter certains choix des machines …).
2) Big data: are we making a big mistake?
3) Les Échos : La propriété des données, défi majeur du XXIe siècle par Benoît Georges (13 février 2014)
Si les données sont l’or de l’ère numérique, comment contrôler leur exploitation par les géants d’Internet ? Pierre Bellanger, PDG de Skyrock, et Gilles Babinet, représentant de la France à Bruxelles pour les enjeux numériques, viennent de publier deux livres sur ce sujet. Le premier milite pour une souveraineté nationale, quand le second préfère une régulation mondiale.
Selon vous, est-ce que l’on est encore au tout début de cette histoire ?
- […]
- GB : Si on fait des comparaisons avec la première ou la deuxième révolution industrielle, nous ne sommes qu’au tout début, c’est-à-dire au moment où les masses commencent à adopter les techniques, ce qui entraîne une accélération de l’innovation. Le phénomène est exponentiel, et c’est un moment unique de l’histoire de l’humanité.
Aux Etats-Unis, cette notion d’exponentiel s’accompagne souvent d’un discours expliquant qu’il ne sert à rien de réguler un mouvement si rapide. Or la nécessité d’une régulation est au cœur de vos deux livres…
-
[…]
-
P. B. : Dans ce que dit Gilles, il y a deux choses qui m’arrêtent. D’abord l’affirmation, comme une évidence, de la fin des souverainetés nationales. Je pense qu’il n’y a pas de liberté sans droit, et qu’il n’y a pas de droit sans souveraineté. Or la souveraineté est géographique, au sens que l’expression de la souveraineté est le droit d’une population qui vote démocratiquement ses lois sur un territoire donné.
La deuxième chose concerne le laisser faire. Quand on étudie le complexe militaro-numérique américain, dont les intérêts de recherche scientifique, de subventions, d’aides sont coordonnés, on a affaire à une logique qui est bien plus administrée qu’elle ne l’est en Europe. L’attrape-bobo libertaire fait que l’on s’émerveille devant des start-up qui seraient nées dans des garages. On oublie juste de dire que le garage se trouve en fait sur un porte-avions !
Quelle peut être la place de l’Europe aujourd’hui, alors que les plates-formes logicielles sont développées aux Etats-Unis et que les appareils pour y accéder viennent d’Asie ?
- P. B. : Aujourd’hui, la place de l’Europe, c’est le buffet gratuit où l’on vient se servir. L’image qu’on peut reprendre, c’est celle de la bataille qu’a menée l’Inde au début du XXe siècle pour retrouver sa souveraineté sur le coton.
L’Inde était un grand producteur de coton et, lorsque les Britanniques ont conquis l’Inde, ils ont rapatrié l’industrie en Grande-Bretagne pour réexporter le coton tissé vers l’Inde. Toute la bataille de Gandhi a été de récupérer ce filage du coton et cette souveraineté. Aujourd’hui, le coton du XXIe iècle, ce sont les données.
Nous exportons nos données, des données brutes, que nous réimportons sous forme de services. Et ce faisant, nous perdons le cœur de notre valeur ajoutée, le cœur de nos emplois, le cœur de nos services. On est dans une logique d’éviscération par le pillage des données.
4) Blog du Figaro : La propriété des données par Alain Bensoussan (18 mai 2010)
Majoritairement, les individus s’expriment en marquant leur possession sur leurs données personnelles en disant « mon nom, mon adresse, mes informations ». Cette pratique est en quelque sorte « orthogonale » aux règles de droit.
En France, comme dans de nombreux pays, la notion de propriété des données n'a pas de statut juridique en tant que tel.
La propriété ne peut porter que sur la création intellectuelle de ces données (propriété intellectuelle telle que droit d'auteur, droit des marques, brevet), relever du domaine des informations « réservées » (car confidentielles), ou encore appartenir à des personnes physiques parce que constituant des données sur leur personne ou sur leur vie privée, et faire précisément l’objet d’une protection à partir des droits de la personnalité, à l’exclusion de tous droits de propriété. Il en est ainsi notamment du droit à l’image, du droit à la voix et du droit à la protection de sa vie privée.
Les droits de la personnalité ont été renforcés par la loi Informatique et libertés et la directive 95/46 relative à la protection des données à caractère personnel.
5) L’inexactitude des Google Flue Trends
Google n'a pas voulu commenter les difficultés de cette année. Mais plusieurs chercheurs suggèrent que les problèmes seraient dus à une large couverture médiatique de la grippe US cette année, y compris la déclaration d'une urgence de santé publique par l’État de New York le mois dernier. Les rapports de presse ont peut-être déclenché de nombreuses recherches liées à la grippe par des gens qui ne sont pas malades. Peu de doute que Google Flu va rebondir dès que ses modèles seront raffinées.
"Vous devez être en constante adaptation de ces modèles, ils ne fonctionnent pas dans le vide», dit John Brownstein, un épidémiologiste à la Harvard Medical School à Boston, Massachusetts. "Vous avez besoin de les recalibrer chaque année."
6) Adoption en mars dernier du rapport Albrech
- Paris, 12 mars 2014 — Le Parlement européen vient d'adopter en première lecture le rapport de Jan Philipp Albrecht concernant le règlement général sur la protection des données.
- Les eurodéputés sont finalement parvenus à résister aux pressions des lobbys et ont rejeté la plupart de leurs propositions préjudiciables.
- Bien que d'importants progrès ait été réalisés aujourd'hui, les dangereuses notions d'« intérêt légitime » et de « données pseudonymisées » ont été conservées, et pourraient empêcher le texte définitif de protéger les citoyens de manière effective.
7) Les Echos : La propriété des données, défi majeur du XXIe siècle
Une société numérique dans laquelle les personnes en bas de l’échelle économique et/où culturelle commercialisent leurs données , pendant que ceux qui disposent de moyens économiques et/où culturels les enferment à double tour numérique :
- Doodle (http://fr.wikipedia.org/wiki/Doodle.com) Doodle.com permet la création de sondages dont les options peuvent être quelconques ou des dates. C'est dans cette dernière fonction, dite encore de "synchronidateur", que le site est le plus utilisé, afin de déterminer une date ou horaire convenant à un maximum de participants. Une des caractéristiques du site est l'accès sans inscription ni connexion, tant pour le créateur du sondage que pour les participants.
Modèle économique[modifier | modifier le code] Doodle.com a plusieurs sources de revenus :
- Les annonces publicitaires présentes sur le site3.
- Un service premium à destination des particuliers et des entreprises4. - YouTube : Les utilisateurs de YouTube pourraient toujours accéder gratuitement au vaste catalogue de musique et de vidéos musicales du site mais ils auraient l'option de payer pour un service "premium", sans publicité, qui offrirait en outre des extras, comme la possibilité de stocker les morceaux pour pouvoir les écouter sans être connecté à Internet.
- Apple :La société négocie avec les opérateurs du câble et les chaînes de TV pour mettre sur pied un service qui permettrait de regarder ses programmes, sans publicité, moyennant un abonnement. {…] Ces abonnements seraient ensuite en partie reversés aux groupes médias et opérateurs du câble. Un business model freemium qui n'est pas sans rappeler celui mis au point pour son service de streaming musical, iTunes Radio, qui sera disponible dans une version gratuite financée par la publicité et une version payante, à 24,99 euros par an, dépourvue de toute publicité.
8) Yesprofile : Monétisation directe des données en les louant à des tiers. Redevenez propriétaire de vos données personnelles.
9) VRM (Vendor Relationship Management)
10) RéputationVIP Service de « nettoyage » de réputation.
11) Solutions techniques de cryptage :
- déclarations du premier ministre à l’ANSSI en février
- papiers scientifiques proposés à la rencontre STRINT de Londres
15:59 Publié dans Gouvernance, Numérisation de la société, Rapports de force | Lien permanent | Commentaires (0) | | del.icio.us | | Digg | Facebook | | Imprimer |
jeudi, 17 octobre 2013
Brillant et fougueux commentaire de Nicolas Colin sur l’innovation
Brillant et fougueux commentaire de Nicolas Colin sur l’innovation
http://colin-verdier.com/les-fossoyeurs-de-l-innovation/Peut-être la valeur pédagogique du billet reproduit ci-dessous, donnera-t-elle envie aux modestes et simples citoyens que nous sommes de réfléchir aux façons réellement pragmatiques de bâtir ensemble un avenir moins morne que celui dont on nous rebat les oreilles à longueur de temps.
Les fossoyeurs de l’innovation
http://colin-verdier.com/les-fossoyeurs-de-l-innovation/...
Publié le 15 octobre 2013 par Nicolas Colin
Tout commence comme une sorte de message à caractère informatif. Un collaborateur vient voir le patron d’Orange et lui présente une idée dont il n’est pas peu fier : « Patron, comme nous sommes à la fois une entreprise de média et une entreprise innovante, nous pourrions consacrer une émission de télévision sur notre chaîne Orange Innovation TV aux grands patrons qui innovent dans les grandes entreprises. Ca consisterait à interviewer des dirigeants hyper-innovants et à mettre en valeur leurs innovations par rapport à celles des startups, qui nous donnent beaucoup de leçons mais dont on ne voit pas beaucoup les résultats. D’ailleurs on a déjà trouvé le titre, ça s’appellerait Les décideurs de l’innovation. On a mis au point un super générique à la Top Gun. »
Video http://www.youtube.com/watch?feature=player_embedded&...
Ravi, le patron d’Orange soutient cette idée : « Mon vieux, votre idée est géniale. Je fais banco, vous avez ma carte blanche. J’ai d’ailleurs quelques idées pour les premiers invités, regardons ensemble mon carnet d’adresses pour voir à qui je dois rendre service. »
Video http://www.youtube.com/watch?v=Ps7r26EgdAc&feature=pl...
Parmi ces premiers invités figure justement Nicolas Rousselet, patron des taxis G7 (qui n’opèrent pas que des taxis d’ailleurs, mais aussi une activité de location de voitures, des activités de logistique, de stockage, etc.). Qu’il soit un invité d’une émission aussi audacieuse et disruptive que Les décideurs de l’innovation est un paradoxe : après tout, il est aujourd’hui engagé dans un vaste effort de lobbying pour contrer l’innovation dans le transport individuel de personnes en ville, dans des conditions abondamment détaillées ICIou LA. Quoiqu’il en soit, dans une récente et exceptionnelle édition des Décideurs de l’innovation, Nicolas Rousselet nous expose sa vision de l’innovation.
Video (devenue privée semble-t-il ) http://www.youtube.com/watch?feature=player_embedded&...
Video de remplacement : https://www.decideurstv.com/video/nicolas-rousselet-group...
Et à ce point du billet, mieux vaut en finir avec l’ironie : l’innovation vue par Nicolas Rousselet mérite qu’on s’y attarde tant est elle est dérisoire et erronée à peu près du début à la fin. Voici quelques extraits et mes commentaires :
-
« l’innovation prend deux formes : l’innovation technologique, technique et l’innovation en termes de services, de nouveaux services » (1’50″) – eh bien non, à l’âge entrepreneurial, l’innovation ne prend qu’une seule forme, celle d’une offre nouvelle amorcée et valorisée sur un marché de masse grâce à la mise au point d’un nouveau modèle d’affaires. Les progrès technologiques sans changement de modèle d’affaires ni traction auprès de la multitude s’appellent simplement des gains de productivité… et se commoditisent en un clin d’oeil, sans permettre à l’entreprise de se différencier ;
-
« pour les GPS, tout ça, là on est vraiment à la pointe, ça fait très longtemps qu’on géolocalise tous nos taxis » (3’05″) – non non, si ça fait longtemps qu’on fait quelque chose, alors on n’est pas vraiment à la pointe. Ces derniers temps, les choses changent vite en matière de géolocalisation et de services associés ;
-
« rapprocher le client du taxi, du chauffeur, nécessite de la haute technologie » (3’18″) – pas du tout, ça nécessite tout au plus de l’amabilité de la part du chauffeur et, éventuellement, une application mobile, qui est quasiment à la portée du premier venu d’un point de vue technologique. Bien sûr, ça peut aussi nécessiter de l’innovation, c’est-à-dire un changement du modèle d’affaires : on rapproche d’autant mieux les taxis des clients qu’on fait alliance avec ces derniers, qu’ils sont ainsi incités à être actifs et donc producteurs de données. Cela, ça suppose de la confiance et ça se valorise d’autant mieux que les clients sont nombreux, bien au-delà de la clientèle premium (j’y reviendrai) ;
-
« chaque filiale dans le groupe est gérée de manière autonome, indépendante, par un manager intéressé sur ses résultats » (4’12″) – ce qui est précisément la caractéristique des entreprises non innovantes. L’innovation consiste à combiner de façon différente les composantes de l’activité de l’entreprise, quitte à ce que certaines déclinent si c’est le prix à payer pour le développement de l’entreprise tout entière. Un manager de filiale intéressé sur ses résultats fera tout pour tuer l’innovation dans sa filiale comme dans l’entreprise en général, de façon à protéger sa rente. C’est pourquoi – si du moins l’objectif est d’innover – un manager de filiale ne peut être intéressé au mieux qu’aux résultats de l’ensemble du groupe. Steve Jobs, traumatisé par sa lecture de The Innovator’s Dilemma, l’avait bien compris et mis en pratique depuis longtemps chez Apple, notamment avec la notion de unified P&L ;
-
« nous avons gagné le prix de l’innovation 2010 de la chambre professionnelle du self-stockage » (5’00″) – c’est bien pratique de se créer ses petits prix de l’innovation maison pour faire croire au monde extérieur qu’on est innovant. Mais non, ça ne prend pas. L’innovation, à l’âge de la multitude, ça se mesure aux rendements d’échelle exponentiels et aux positions dominantes sur des marchés globaux. Aucune autre innovation ne contribue de manière significative au développement de l’économie française. Au contraire, le renforcement des situations de rente contribue de manière décisive à la stagnation du revenu par tête et à l’aggravation des inégalités;
-
« on gère les taxis depuis pas loin de vingt ans de manière totalement numérique, avec le GPS » (6’50″) – si les taxis étaient gérés de manière totalement numérique, ils ne s’en tiendraient pas au GPS et auraient inventé Uber avant Uber. Souvenez-vous de cette citation fameuse de The Social Network sur les frères Winklevoss ;
Vidéo http://www.youtube.com/watch?v=ROS0B2q96Xo&feature=pl...
-
« nos chauffeurs de taxi sont tous des indépendants. C’est un vrai partenariat, où la qualité de service est un leitmotiv » (8’00″) – des forums entiers sur la mauvaise expérience des taxis parisiens vécue par les touristes étrangers et les Parisiens eux-mêmes témoignent du contraire – ce qui prouve, par ailleurs, que le fait que les chauffeurs de taxi soient tous indépendants n’est pas forcément la meilleure formule pour assurer une qualité de service maximale. Comme le triomphe d’Apple nous l’a amplement démontré depuis 10 ans, l’unification de l’expérience utilisateur (ou une plateforme bien conçue, comme Amazon) sont les meilleures options pour garantir une qualité de service élevée ;
-
« on a lancé en décembre 2011 le club affaires premium, et là on a même un iPad mis à disposition, on a de l’eau, on a des lingettes » (8’10″) – nous sommes tous très impressionnés, mais il n’y a pas beaucoup d’innovation dans le fait d’enrichir l’offre de service pour les seuls clients qui paient très cher leur abonnement affaires premium. La fuite vers le premium – et le délaissement corrélatif des marchés de masse – est l’un des phénomènes qui détourne les entreprises françaises de l’innovation à l’âge de la multitude – et il y a bien d’autres exemples que les taxis G7. C’est heureux que Nicolas Rousselet assume sans fard qu’il ne s’agit que de fournir aux clients que quelques lingettes et bouteilles d’eau en plus : nous sommes décidément très loin de l’innovation ;
-
« on voit que ça ne roule pas très bien, il y a des gros progrès à faire pour améliorer les conditions de circulation dans Paris » (8’40″) – précisément, on ne roule pas bien dans Paris parce que trop de gens, insatisfaits du fonctionnement des transports en commun et ne pouvant s’offrir les services Affaires Premium Excellence Platine des taxis G7, choisissent de prendre leur véhicule personnel pour leurs déplacements en ville. Le développement des nouveaux modèles d’affaires autour de l’automobile en ville (auto-partage, VTC, etc.) vise en partie à dissuader les individus de prendre leur voiture et peut donc se traduire, à terme, par une décongestion de la circulation à Paris. Que les taxis G7 trouvent que les conditions actuelles sont mauvaises pour les affaires est un comble : d’abord les mauvaises conditions de circulation leur permettent de plus faire tourner le compteur (les taxis ont tout leur temps, ce sont les clients qui sont pressés) ; ensuite, les barrières réglementaires qu’ils défendent à toute force sont précisément la raison pour laquelle il est impossible d’améliorer les conditions de circulation dans cette ville de plus en plus difficile à vivre.
Bref, comme le résume si brillamment ce journaliste particulièrement dur en interview, avec les taxis G7, « ça roule pour l’innovation ». J’ajouterai deux choses sur Nicolas Rousselet et les conditions réglementaires de l’innovation dans les transports urbains :
-
« il faut que les VTC restent sur le métier pour lesquels ils ont été créés » déclarait-il au mois de juillet, cité par un article du Figaro. Wrong again : encore une fois, quand il s’agit d’innovation, l’objectif est précisément de faire bouger les lignes qui séparent les différentes activités et d’en faire la synthèse dans un nouveau modèle d’affaires, centrée autour de l’utilisateur – condition de l’alliance avec la multitude. Le déploiement d’une offre de qualité à très grande échelle est l’objectif stratégique à l’âge entrepreneurial et le seul coeur de métier des startups innovantes, comme nous le rappellent Steve Blank et Paul Graham. Ca n’a aucun sens, dans un monde où la technologie évolue en permanence et où la multitude révèle sans cesse de nouveaux besoins, de demander à une entreprise de rester sur le métier pour lequel elle a été initialement créée. On peut le faire bien sûr, mais il faut assumer alors qu’on renonce à l’innovation – moteur du développement économique, facteur de création d’emplois et de réduction des inégalités et, accessoirement, contribution décisive à l’amélioration du quotidien des consommateurs ;
-
on apprend aujourd’hui, dans un article du Monde, que « le délai de 15 minutes [entre la commande d'un VTC et la prise en charge] s’appliquera à tous les clients des VTC, hormis les hôtels haut de gamme et les salons professionnels ». Belle victoire de lobbying, en tous points contraire à l’intérêt général, et stupéfiante si l’on songe qu’elle a été consentie par un gouvernement de gauche. Si l’on résume la situation, les riches clients du Royal Monceau et les VIP du salon de l’automobile seront servis sans attendre ; par contre, les moins riches attendront ou prendront le bus et les entrepreneurs innovants seront noyés dans la baignoire. (Rappelons encore une fois que l’innovation de rupture arrive toujours ou presque par les activités à faibles marges sur les marchés à faible marge. Si l’on restreint les offres innovantes aux seuls clients premium, il n’y a pas la masse critique pour imposer une innovation de rupture.)
L’innovation meurt d’être mal comprise. Il n’y a pas meilleur contrepoint à la vision de Nicolas Rousselet que les rappels ci-après sur ce qu’est l’innovation, pourquoi elle est importante et comment la favoriser.
L’innovation ne peut pas prospérer en présence de verrous qui rigidifient l’économie et protègent les positions existantes. La seule existence de ces verrous, notamment législatifs et réglementaires, dissuade toute allocation du capital à des activités qui font bouger les lignes dans les secteurs concernés. Quel intérêt d’investir dans une entreprise innovante se développant en France dans le secteur des VTC, puisque le rendement sur capital investi sera dégradé voire annulé par le verrou réglementaire qui protège la rente des taxis ? Il est beaucoup plus rentable d’allouer du capital à une entreprise américaine qui, elle, va triompher des obstacles réglementaires et conquérir un immense marché.
Dans ces conditions, les entreprises américaines prospèrent, tandis que les françaises sont littéralement empêchées de naître. Et lorsque les utilisateurs français (ou les touristes) n’en pourront plus de la mauvaise qualité du service de transport individuel de personnes à Paris et qu’ils obtiendront enfin l’abaissement de la barrière réglementaire, seules les entreprises américaines auront la qualité de service et l’infrastructure nécessaires pour prendre le marché français. (De même que quand la chronologie des médias sera enfin adaptée aux nouveaux modes de consommation des contenus cinématographiques et audiovisuels en ligne, seule Netflix, pas Canal+, sera en mesure de se déployer auprès des utilisateurs français).
Dans un cadre juridique hostile à l’innovation, on voit bien qu’une politique publique de soutien financier à l’innovation est vaine. On peut allouer tout l’argent qu’on veut à OSEO, à BPI France, à la sanctuarisation du CIR et du statut de jeune entreprise innovante, les entreprises ainsi financées ne parviennent pas à lever du capital puisque les gestionnaires de fonds identifient parfaitement les barrières juridiques à l’entrée sur les différents marchés et en déduisent qu’un investissement dans les entreprises concernées ne pourra jamais être rentable. En présence de verrous juridiques protégeant la rente des entreprises en place, l’argent public dépensé pour soutenir l’innovation est comme de l’eau froide qu’on verserait sur une plaque chauffée à blanc : elle s’évapore instantanément.
Le problème serait circonscrit si de tels verrous législatifs n’existaient que pour les VTC. Mais, loin de se cantonner à un seul secteur, ils se multiplient. Les industries créatives sont déjà affectées depuis longtemps par les entraves à l’innovation. Les hôteliers déploient un lobbying à grande échelle pour que la loi soit durcie et les protège sur trois fronts : celui des intermédiaires déjà en place sur le marché de la réservation de chambres d’hôtels ; celui de Google, qui rentre sur ce marché avec Hotel Finder ; celui d’AirBnB, qui intensifie la concurrence sur le marché de l’hébergement en faisant arriver sur le marché les chambres et habitations mises sur le marché par les particuliers. Les libraires semblent en passe d’obtenir une interdiction de livrer gratuitement à domicile les livres commandés via les applications de vente à distance. Bref, à mesure que le numérique dévore le monde, les incendies se déclarent un peu partout et la réponse est toujours la même : on érige une barrière réglementaire qui dissuade l’allocation de capital à des activités innovantes et empêche donc à terme l’émergence de champions français dans ces secteurs.
Sur tous ces dossiers, nous payons très cher l’inexistence d’un lobby français de l’innovation. Il n’est pas du tout évident qu’un tel lobby puisse exister. Aux Etats-Unis, il s’est constitué et il déploie sa puissance en raison d’une double anomalie : les entreprises ont le droit de financer les campagnes électorales ; et les entreprises les plus riches, dont la capitalisation boursière est la plus élevée, sont aussi les plus innovantes. Au lobbying de ces entreprises s’ajoute celui d’une organisation, la National Venture Capital Association, qui défend les intérêts des fonds de capital-risque, y compris contre les intérêts du private equity, des banques d’affaires et des banques de dépôt.
Il n’existe rien de tel chez nous : aucune de nos plus grande entreprises n’est une entreprise innovante, une valeur de croissance comme le sont les géants californiens du numérique ; nos fonds de capital-risque sont rares, dispersés, dilués sur le front institutionnel dans l’Association française du capital investissement ; enfin, les entrepreneurs innovants comme les gestionnaires de fonds de capital-risque sont largement méconnus ou ignorés par les hauts fonctionnaires de la direction générale du Trésor, les membres des cabinets ministériels et, évidemment, les parlementaires.
Il ne peut exister qu’une seule politique publique de l’innovation. Son motif est que l’innovation est le principal facteur de la croissance et moteur du développement économique. Sa règle cardinale est que toutes les décisions de politique publique, sans exception, doivent être prises dans un sens favorable à l’innovation : en matière de financement de l’économie ; en matière de réglementation sectorielle ; en matière de fiscalité et de protection sociale. Aucune autre politique publique que celle-là ne peut être favorable à l’innovation.
Si les exceptions se multiplient, si l’innovation n’est plus qu’une priorité parmi d’autres, si l’on n’abaisse pas les barrières réglementaires à l’innovation de modèle d’affaires, alors notre destin est scellé : notre économie sera bientôt tenue exclusivement par des gens qui, bien qu’ils se prétendent décideurs de l’innovation, en sont en réalité les fossoyeurs.
Nicolas Rousselet, les taxis G7 et tous ceux qui les soutiennent au Parlement ou dans l’administration ne sont qu’un avant-goût de ce sombre avenir : bientôt, notre économie ressemblera à celle de ces pays du Tiers-Monde où l’homme le plus riche du pays, par ailleurs frère ou beau-frère du chef de l’Etat, a fait une immense fortune grâce à un monopole mal acquis sur l’importation des Mercedes d’occasion. Dans une telle configuration, on a tout gagné : des distorsions de marché, l’atrophie de la production locale, une valeur ajoutée réduite à néant, une croissance au ralenti et des inégalités de plus en plus insupportables.
Est-ce cela que nous voulons ? Et sinon, qu’attendons-nous pour agir ?
13:16 Publié dans Économie, Innovation, Numérisation de la société, Régulation | Lien permanent | Commentaires (0) | | del.icio.us | | Digg | Facebook | | Imprimer |
jeudi, 04 juillet 2013
Qualité & Santé (Dominique DUPAGNE)
Qualité et santé : 1) Qualité des moyens ou qualité des résultats ?
Re-publication d’un article sur la Qualité de 2008, à propos de l’affaire des prothèses PIP. À force de se concentrer sur les méthodes et les pratiques de fabrication, on a oublié de vérifier les qualités intrinsèques du produit final. Au sein des agences de régulation, personne n’a pensé à vérifier la composition et les caractéristiques du produit commercialisé. Le texte de l’article initial n’a pas été changé, j’ai juste ajouté cette introduction et l’encadré final. Cet article avait également été publié dans la revue Médecine
Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : initialement centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur un partage et une pondération de la subjectivité.
Ce premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
Le deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
Dans le troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, atteint aujourd’hui ses limites et doit laisser coexister d’autres approches.
La pairjectivité, thème central de ce dossier, est détaillée dans le quatrième article.
Le cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.
Que la stratégie soit belle est une chose, mais n’oubliez pas de regarder le résultat.
Winston Churchill
Le concept de qualité s’est imposé dans l’organisation et la gestion de la santé publique depuis une vingtaine d’années. La qualité s’appelle accréditation, recommandation thérapeutique ou encore évaluation des pratiques professionnelles. Elle fait intervenir des normes, des référentiels et une logistique qui a pour objectif l’amélioration de la qualité des soins. Nous verrons dans ce premier article que cette évolution normative pourrait avoir des effets délétères qui vont à l’encontre de la qualité effective des soins. Les autres articles de ce dossier proposent des solutions pour sortir de cette impasse.
Idées-Forces
Le concept de qualité dans le domaine de la santé a beaucoup évolué : initialement centré sur le résultat, il concerne désormais quasi-exclusivement les procédures de soin.
Si c’est l’évaluation de la procédure qui est privilégiée, le risque est grand de voir l’amélioration de la santé des patients passer au deuxième plan.
Le patient a cédé le pas à la population. Si la procédure est bonne pour la population, elle est censée être applicable à chaque patient. Cette approche réductrice nie la singularité de l’Humain.
La subjectivité a été progressivement bannie de l’évaluation scientifique. Or la médecine est une science de l’Homme qui est fondamentalement un sujet et non unobjet.
De l’obligation de résultat à l’obligation de moyens
En matière de soins, la qualité a longtemps été synonyme d’efficacité. Un groupe de travail de l’ENA a publié en 2003 un document sur l’évaluation et la qualité en santé [1]. Une annexe regroupe des citations intéressantes au sujet de sa définition [2] :
1792-1750 av JC Si un médecin opère un homme pour blessure grave avec une lancette de bronze et cause la mort de l’homme ou s’il ouvre un abcès à l’oeil d’un homme avec une lancette de bronze et détruit l’oeil de l’homme, il aura les doigts coupés. Article 218 du Code d’Hammourabi.
1980 Les soins de haute qualité sont les soins visant à maximiser le bien-être des patients après avoir pris en compte le rapport bénéfices/ risques à chaque étape du processus de soins, Avedis Donabédian.
1990 Capacité des services de santé destinés aux individus et aux populations d’augmenter la probabilité d’atteindre les résultats de santé souhaités, en conformité avec les connaissances professionnelles du moment.Institute of Medecine.
2000 Aptitude d’un ensemble de caractéristiques intrinsèques à satisfaire des exigences. ISO 9000.
L’évolution de la notion de qualité est frappante :
La première définition résume grossièrement (et brutalement...) le concept de qualité médicale tel qu’il a prévalu pendant des millénaires : seul le résultat du soin sur le patient est pris en compte
La deuxième introduit conjointement la notion de rapport bénéfices/risques. Avec cette notion statistique, le pluriel apparaît aussi bien pour le soin que pour le patient dont la singularité s’estompe.
La troisième définition se déconnecte du résultat : c’est la méthode, le processus qui sont importants, il devient possible d’associer des soins de qualité à un échec thérapeutique pourvu que la probabilité de succès ait été élevée a priori. C’est l’obligation de moyens qui prime et prodiguer des soins "appropriés" devient le principal critère de qualité. Le malade peut mourir pourvu qu’il ait été "bien soigné" [3]. Enfin, la définition n’est plus centrée sur l’individu, elle parle désormais de "populations".
La dernière élude totalement la notion de résultat. C’est "l’exigence" qui compte désormais. Exigence du malade ou exigence de la norme ? La réponse a été apportée par la mise en pratique de la certification ISO : le malade (ou patient, ou client) est réputé avoir une forte probabilité d’être satisfait si les exigences de qualité du processus sont remplies. L’évaluation ne fait plus intervenir le destinataire du "service soin".
En vingt ans, la qualité a glissé de l’obligation de résultat vers celle de moyens, de l’appréciation extrinsèque du soin par le patient à l’analyse intrinsèque du mode opératoire au regard d’une norme. La qualité d’une action de soin est désormais déconnectée de son résultat [4].
Dans le même temps, l’introduction de notions statistiques conduit la qualité à s’éloigner de l’individu pour s’intéresser aux populations. La diversité des souffrants et des approches thérapeutiques est niée par la normalisation du soin.
La Qualité devenant une entité autonome a envahi le champ professionnel et notamment sanitaire [5] :démarche qualité, groupes qualité, accréditations et certifications sont omniprésents, s’accompagnant dereprésentants qualité, médecins habilités [6] et autres qualiticiens. Mais la démarche qualité en santé n’est pas simple à appliquer et ne génère pas l’enthousiasme des soignants [7].
La notion de progrès médical, omniprésente pendant les trente glorieuses, a subi un recul concomitant de l’irruption de la qualité dans le champ sanitaire.
Ce déplacement du progrès vers la qualité n’est pas anodin. Le progrès est palpable, visible par le public. C’est une notion concrète proche de celle du résultat. Si les octogénaires sont si friands de médicaments, c’est en partie parce qu’ils ont vu disparaître la polio et la diphtérie, guérir la tuberculose et les pneumonies. Ce progrès médical était d’une telle évidence depuis la dernière guerre mondiale que la notion de qualité n’avait pas de sens. Le prix de la santé paraissait justifié par ses progrès et l’augmentation de son coût accompagnait celle du niveau de vie des populations.
Malheureusement, le coût de la santé croît plus vite que le PIB, aboutissant à des prélèvements sociaux préoccupants qui conduisent désormais à s’interroger sur le rapport coût/efficacité des soins et donc à souhaiter évaluer leur qualité [8].
Les médecins se sont longtemps plaints de la dictature de la salle d’attente, dont la fréquentation était censée servir de baromètre à leur qualité. Ils sont désormais soumis à la dictature de la norme : peu importe le résultat final de leurs soins et le bien-être du patient. Il faut désormais passer sous les fourches caudines de la "recommandation" [9] érigée en recette de soin obligatoire et rédigée par des experts [10].
Ont-ils gagné au change ? Les patients en tirent-ils un bénéfice ? Rien n’est moins sûr et des voix s’élèvent de tous côtés [11] contre cette réduction de l’art médical à son plus petit dénominateur commun. Censée gommer les différences, la norme aboutit en fait à scléroser la part humaniste du soin et la richesse que constitue la variété des approches, tout en créant une fausse sécurité.
Il est d’ailleurs frappant de voir les partisans de la normalisation du soin se référer à l’EBM [12]. Les "inventeurs" de l’EBM déclaraient dans leur article fondateur leur opposition ferme à la transformation de l’EBM en "livre de recettes de cuisine médicales" [13], prémonition qui se révèle tristement d’actualité.
Qualité interne et qualité externe
La place croissante de la prise en compte des procédures dans l’évaluation de la qualité a conduit à sa segmentation en qualité interne et qualité externe
La qualité externe, correspond à l’amélioration du sort des patients, individuellement ou en tant que groupe. C’est la qualité fondée sur des critères extérieurs au soin lui-même. Il s’agit de fournir des services conformes aux attentes des patients. Ce type de démarche passe ainsi par une nécessaire écoute des patients mais doit permettre également de prendre en compte des besoins implicites, non exprimés par les bénéficiaires.
La qualité interne, correspond à l’amélioration du fonctionnement interne de la structure de soins. L’objet de la qualité interne est de mettre en oeuvre des moyens permettant de décrire au mieux l’organisation, de repérer et de limiter les dysfonctionnements et de soigner au meilleur coût. Les bénéficiaires de la qualité interne sont la direction et les personnels de la structure, ainsi que ses financeurs. Le destinataire final du soin, le patient, est le plus souvent exclu de la démarche [14].
L’imposition d’une évaluation qualitative fondée sur le respect de la norme est en grande partie imputable aux médecins. S’appuyant sur un siècle de progrès médical continu, ceux-ci ont toujours refusé toute forme d’évaluation de la qualité externe, c’est-à-dire de leur activité personnelle. Les financeurs, confrontés à des déficits sociaux croissants, ont donc investi le champ de la qualité interne et tentent actuellement de l’imposer comme principal mécanisme de régulation des dépenses [15].
Or nous sommes désormais arrivés à une évaluation de la qualité exclusivement interne, ce qui constitue un véritable piège dans lequel notre système de santé [16] s’enferme progressivement.
La médecine est un art autant qu’une science. Supprimer l’évaluation de la qualité externe au prétexte de sa subjectivité est une erreur. Cette erreur est issue d’une démarche scientifique ayant dépassé son objectif, tel le balancier dépassant son point d’équilibre. Exclu des processus décisionnels, le patient est également exclu de la mesure de la qualité [17].
Les redoutables effets latéraux de la mesure interne de la qualité
L’évaluation imparfaite de la qualité des soins par référence obligatoire à la norme aboutit à un nivellement par le bas du soin, car la norme est finalement le plus petit dénominateur commun de la qualité. Cette évaluation réductrice étant couplée à une contrainte croissante (financière, administrative, réglementaire), elle conduit à trois types d’effets latéraux redoutables :
Les meilleurs soignants sont incités à abandonner leurs processus de qualité personnels pour respecter une norme qui dégrade leurs soins. De plus, ils vivent cette injonction comme profondément injuste et se découragent. Leur productivité diminue d’autant.
Certains soignants médiocres apprennent à respecter la norme pour recevoir les ressources financières associées au "parcours vertueux". L’application de la norme n’est alors plus motivée par la recherche de la qualité et peut dissimuler une altération du soin. Ces acteurs de non-qualité parviennent à capter massivement les ressources par une intelligence dédiée à l’application de la norme et non à l’amélioration de la santé.
Une part croissante des ressources de la structure de soin est monopolisée par les processus de mesure de la qualité interne. Ce détournement aboutit à une détérioration de la productivité globale de la structure de soin. La productivité est pourtant un élément réputé important de cette qualité interne [18]
La qualité des soins ne peut donc progresser à partir de la seule évaluation de la qualité interne. Cette évaluation aboutit à une baisse de la qualité globale et de la diversité des approches. La qualité interne exclusive réduit l’humain à un organisme standardisé en s’intéressant à des populations et nie la singularité de l’individu. Elle diminue la productivité des soignants et donc l’accès aux soins. Elle renchérit la santé par les frais administratifs qu’elle génère, affaiblissant les systèmes de santé fondés sur la solidarité qu’elle était censée préserver.
Dans la série d’articles de ce dossier, nous verrons qu’il est possible d’évaluer la qualité à l’aide d’indicateurs externes. Ces indicateurs subjectifs, s’ils sont gérés rationnellement, apportent des informations tout aussi pertinentes sur la qualité des soins que la mesure objective et interne traditionnelle. Le but de ces articles n’est pas d’asséner de nouvelles vérités, mais de lancer une réflexion sur une nouvelle évaluation de la qualité au sein de la santé. Ils ouvrent un espace de réflexion où chacun est convié à débattre.
Il est recommandé de lire ces articles dans l’ordre proposé :
Le deuxième article du dossier emprunte un détour et sort du champ de la santé : il s’appuie sur le fonctionnement intime du moteur de recherche Google. Nous verrons comment en quelques années, deux étudiants ont montré que la mesure de la qualité extrinsèque d’un document (liée à son usage) est plus pertinente que celle de sa qualité intrinsèque (liée à son contenu). Malgré son fonctionnement subjectif, Google est actuellement le système de recherche le plus efficace (ou le moins inefficace) pour trouver rapidement un document pertinent parmi les milliards de pages éparpillées sur le web. Tous les systèmes de classement et d’accès à l’information sur internet fondés sur la mesure de leur qualité interne ont été quasiment abandonnés par les utilisateurs, ou ne persistent que dans des niches.
Ces articles évolueront au gré des réactions, critiques et suggestions qu’ils susciteront. Sur internet, l’encre ne sèche jamais. La première publication doit être considérée comme un début, l’amorce d’un dialogue destiné à l’enrichir. Vouloir figer un article définitivement dès sa publication serait aux antipodes des stratégies qualitatives que nous allons détailler.
L’auteur a déclaré ses conflits d’intérêts ici.
Remerciements : Tous ceux qui ont contribué au débat sur la médecine 2.0, cités dans le désordre Campagnol,autresoir, mariammin, Sybille, à l’ouest..., marcan, somasimple, Pandore, Rapsody, SU(N), Randall, ravel,Jean-Jacques Fraslin et son avatar Dr Hy2.0, Verna, omedoc, Valerianne, letotor, orldiabolo, Groquik,pameline, radiohead, Stéphanie2, thyraguselo, Tin, Katleen, Terence, sepamoi, Annouck, cléo, mowak,Eristikos, Ln2, Ondine, Parrhèsia, delamare georges, jekyll, gustave, marcousse1941, Cafe_Sante, Parrhèsia, Serge et Catherine Frechet, Persouille, dolly_pran, Chéana ; et enfin ma chère épouse qui me reconnecte régulièrement à la réalité.
L’emploi de la première personne du pluriel n’est pas une figure de style : cette réflexion s’inscrit dans la continuité des échanges sur le site Atoute.org, observatoire privilégié de l’évolution du monde de la santé avec son million de visiteurs mensuels et ses forums dédiés à la médecine, la santé, leur évolution et leur éthique.
Ajout du 26 janvier 2012 à propos des prothèses mammaires PIP
Cette affaire de prothèses défectueuses illustre particulièrement bien le problème de la démarche qualité qui analyse les process et non le produit final.
Ces prothèses défectueuses ont été implantées chez des centaines de milliers de femmes. Les sommes en jeu se comptent en millions d’euros. Pourtant, à aucun moment, ni dans les agences de régulation, ni chez les sociétés d’audit qualité, personne n’a eu l’idée d’acheter une prothèse au détail et d’en analyser les caractéristiques et la composition.
En se contentant de contrôler les process de fabrication, on a permis au fabricant de tromper tout le monde. Un peu comme un étudiant qui ne passerait jamais d’examen et serai noté uniquement sur sa présence en cours et la tenue de ses cahiers.
C’est une aberration. La qualité se mesure aussi sur le produit final. J’aimerais être sûr que ces contrôles sont réalisés sur les médicaments et notamment les génériques.
Notez aussi que le pot-au-rose a été découvert lorsque les inspecteurs sont revenus à l’usine sans prévenir. Mais pourquoi prévenir au juste ? Donne-t-on aux étudiants le sujet de leur examen à l’avance ?
Ce sont les chirurgiens, et notamment ceux qui ont alerté en vain pendant deux ans sur les défauts de ces prothèses, qui ont décidé de prendre les choses en main et de pratiquer eux-mêmes des contrôles sur les produits finis.
Notes
[1] Le rapport du groupe de travail.
[2] ibid page 58.
[3] Cet aspect devenait nécessaire pour des raisons juridiques : l’apparition de procès en responsabilité médicale nécessitait de pouvoir définir la notion de faute. La faute devient l’aboutissement d’un processus (un moyen) qui n’assurait pas a priori de bonne chances de guérison au patient :l’insuffisance de moyens mis en oeuvre pour le soigner.
[4] A l’exception notable de la chirurgie esthétique, qui n’est pas considérée comme un soin.
[5] L’amélioration de l’espérance de vie depuis un siècle est bien sûr multifactorielle et ne se résume pas au progrès médical. Nous considérerons comme acquise l’importance des progrès de l’hygiène publique, de la nutrition ou de la conservation des aliments, pour centrer notre étude sur la qualité des soins.
[6] Médecins formés par la Haute Autorité de Santé pour accompagner leurs confrères dans une démarche d’auto-évaluation. L’auteur a fait partie de ce corps de "qualiticiens de la médecine libérale". L’humilité de la démarche (auto-évaluation non contraignante) et du titre l’avaient convaincu de tenter l’aventure. Cette approche individuelle et confraternelle est en cours d’abandon par les autorités sanitaires au profit de procédures plus contraignantes.
[7] [Antiguide des bonnes pratiques : http://ritaline.neufblog.com.
[8] Tout récemment, la Haute Autorité de Santé s’est investie officiellement dans l’évaluation médico-économique. Ses commissions vont désormais étudier le rapport coût/bénéfices des médicaments et stratégies thérapeutiques.
[9] Il s’agit des recommandations de bonnes pratiques de soin éditées par la haute autorité de santé. Ces recommandations sont utilisées par les assureurs pour valider les stratégies de soin et passent donc du statut de recommandation à celui d’obligation.
[10] Experts non exempts de conflits d’intérêts. Cet aspect sera développé dans le troisième article du dossier. Voir aussi le remarquable travail duFormindep qui montre que l’avis des experts n’est pas synonyme de qualité, loin s’en faut.
[11] Outre l’anti-guide des bonnes pratiques, déjà cité, lire cet article d’A Grimaldi dans le Monde Diplomatique qui s’élève contre une gestion économique inadaptée et contraire à l’éthique autant que délétère pour le soin. Enfin, j’ai découvert après la publication de cet article une analyse exceptionnelle , quoique parfois divergente de la mienne, et remarquablement documentée, des méfaits de la démarche qualité dans le monde de la santé.
[12] Evidence Based Medicine, traduite (mal) en français par Médecine fondée sur des preuves.
[13] Voir http://www.atoute.org/n/breve14.html.
[14] Il existe certes des questionnaires de satisfaction, mais leur prise en compte (en France) dans la modification des processus ou la valorisation de ses agents est modeste ou inexistante.
[15] La Haute Autorité de Santé, après avoir travaillé uniquement sur l’aspect qualitatif, s’est investie tout récemment dans l’évaluation médico-économique.
[16] Le système sanitaire n’est bien sûr par le seul concerné par cette dérive, mais nous resterons volontairement centrés sur le monde de la santé. Une psychologue travaillant dans le cadre de la formation professionnelle décrit très bien ici son aliénation progressive sous l’effet d’une démarche qualité interne envahissante.
[17] A l’exception notable de La loi de 2002 dite "Kouchner", dont le nom est significatif : "LOI no 2002-303 du 4 mars 2002 relative aux droits des malades et à la qualité du système de santé". Le ton était donné, ce sont les actes qui ont manqué.
[18] L’hôpital public croule sous les frais liés aux personnels administratifs, notamment ceux destinés à optimiser la dépense. Le temps croissant que les soignants doivent passer à gérer directement ou indirectement la mesure de la qualité est consommé au détriment de l’activité princeps de soin.
http://www.atoute.org/n/Qualite-et-sante-1-Qualite-des.html
Qualité et santé : 2) L’approche qualitative de Google
Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : longtemps centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur une subjectivité partagée et pondérée.
Le premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
Ce deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
Dans le troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, trouve aujourd’hui ses limites et doit laisser coexister d’autres approches.
La pairjectivité, thème central de ce dossier, est détaillée dans le quatrième article.
Le cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.
"L’objet n’est rien, ses liens sont tout."
Pasteur 2.0
Google est incontournable dès que l’on aborde internet. Trop disent certains. L’objectif de ce deuxième article n’est pas de faire l’éloge du moteur de recherche vedette, mais de montrer que son mode de fonctionnement pourrait inspirer l’évaluation de la qualité dans le domaine de la santé. Nous allons nous intéresser plus spécifiquement à sa méthode de classement et de hiérarchisation de l’information. Cette méthode est fondée quasi exclusivement sur des critères de qualité externes, c’est-à-dire indépendants du contenu du document indexé.
Idées-forces
Google n’a pas toujours existé, il y a eu un "avant Google" sur internet, dont les outils fonctionnaient avec des critères qualitatifs datant de plusieurs siècles.
Google a introduit une rupture totale avec le passé.
La mesure de la qualité/pertinence par Google fait appel à des critères extrinsèques et non plus intrinsèques.
Les liens qui unissent les documents sont plus pertinents que l’analyse de leur contenu pour évaluer leur pertinence.
Le défaut principal d’une norme utilisée pour mesurer la qualité est son caractère public.
Les experts donnent des résultats moins pertinents qu’un réseau d’innombrables micro-expertises fédérées.
La méthode Google n’a pas cherché à changer les anciennes méthodes. Google a rendu le passé obsolète.
Tout le monde connaît Google [1], tout le monde l’utilise, mais rares sont ceux qui ont compris à quel point son mode de tri de l’information a constitué une révolution aussi importante que le réseau internet lui-même. Ce tri nous permet d’accéder en une fraction de seconde aux informations que nous cherchons. Le moteur de recherche vedette a supplanté tous les autres en quelques années, tout simplement parce que nous, ses utilisateurs, jugeons ses résultats plus pertinents que ceux des autres moteurs ou des annuaires.
Dans cet article, nous allons rentrer dans le fonctionnement de Google. Il ne se contente pas, comme beaucoup le croient, de proposer les pages les plus populaires chez les internautes. L’évolution des méthodes de tri de l’information depuis l’époque du papier jusqu’aux moteurs de recherche constituera une bonne introduction. La notion de qualité reposant sur une expertise partagée, qui est le fondement de la méthode de classement de Google, sera l’objet d’une étude plus détaillée.
Aux débuts d’internet, pour trouver les bonnes pages sur un sujet précis, les internautes répétaient les méthodes de leurs ancêtres.
Comme les livres dans les bibliothèques, les sites des années 90 étaient classés par catégories dans des annuaires par genre, type, sous-type etc. Bref, ce que l’on faisait depuis l’invention des documents écrits, soigneusement rangés dans des étagères par des bibliothécaires [2].
Des catalogues ou des armoires de fiches permettaient de faire des recherches dans le contenu des bibliothèques ou dans les fonds des éditeurs. Il en était de même sur le web : le faible nombre de sites à ses débuts permettait d’envisager la création d’une table des matières, d’un catalogue global.
Yahoo, le pionnier des catalogues-annuaires
Le plus célèbre de ces catalogues de sites, initié par des étudiants débrouillards, portait [3] le joli nom deYahoo !. L’image ci-dessous représente le site Yahoo en 1996, soit la préhistoire du Web :
Les sites ou pages y étaient classés par des experts-indexeurs humains qui visitaient les sites, rédigeaient des notices et les intégraient dans la rubrique/sous-rubrique appropriée. Ils employaient une démarche classique de bibliothécaire.
Mais très vite, l’explosion du nombre des documents disponibles a rendu ingérable un tel annuaire qui ne reflétait qu’une faible partie du fond documentaire de la toile [4] et dont la mise à jour devenait ruineuse pour la société Yahoo. Des initiatives communautaires fondées sur des bonnes volontés sont apparues ensuite pour prendre le relais de Yahoo [5], mais elles n’ont pas eu plus de succès. Il devenait difficile de trouver des indexeurs indépendants, motivés, résistants aux critiques (nombreuses) des sites non retenus. De plus, il était impossible de classer une part significative d’une offre de documents en croissance exponentielle alors que les moteurs de recherche, plus exhaustifs, progressaient en pertinence et constituaient des concurrents de taille.
Après la "table des matières" Yahoo apparaissent les index : les moteurs de recherche
Les index sont apparus avec les livres volumineux et notamment les encyclopédies. En plus de la table des matières, un index permettait de chercher la page ou l’article utile à partir d’un mot-clé.
Quelques pionniers ont eu très tôt l’idée d’automatiser le processus d’indexation traditionnel : des ordinateurs connectés au réseau et appelés "spiders" (l’araignée qui explore la toile) ou "bot" (pour robot) vont explorer automatiquement le web en se comportant comme un internaute qui cliquerait au hasard sur tous les liens rencontrés sur chaque page. Chaque site ou presque étant lié à au moins un autre, l’exploration était quasi complète, d’autant que chaque gestionnaire d’un site nouveau pouvait signaler son existence au robot explorateur.
Lors du passage des ces robots explorateurs, chaque page est analysée et les mots contenus dans la page sont stockés dans un gigantesque index. Des requêtes (interrogations) faites ensuite sur cet index permettront de retrouver les sites visités, exactement comme l’index d’une encyclopédie permet de trouver le bon article au sein de 20 gros volumes. Les moteurs de recherche étaient nés : Wanderer, puis Lycos, Excite [6].
Mais nous sommes toujours dans des processus très classiques : malgré la lecture automatique des pages, les bases de données, les robots qui tentent de remplacer les opérateurs humains, ce n’est jamais que de l’indexation de mots dans un texte comme elle se faisait depuis l’invention des textes imprimés [7].
Les premiers moteurs de recherche automatisent l’indexation traditionnelle par mots-clés, mais n’inventent rien
Ces moteurs de recherche de première génération tentent de perfectionner leur indexation en apportant plus de poids aux mots répétés dans la même page ou présents dans les titres, les descriptions ou les mots-clés du site. Leur qualité culmine avec AltaVista, roi des moteurs de recherche des années 90. Mais il n’y a toujours aucune réelle nouveauté dans cette approche ; les encyclopédistes réalisaient cela manuellement depuis plusieurs siècles.
Les moteurs atteignent par ailleurs des limites infranchissables :
Ils ne peuvent correctement indexer et classer que les pages bien rédigées par leurs auteurs : un titre mal choisi, une page mal organisée, et voila un document de référence qui ne sera proposé qu’en 50ème position dans les résultats de recherche ; autant dire invisible. Contrairement aux encyclopédies dont les rédacteurs sont coordonnés par l’éditeur, les webmasters sont libres d’organiser leurs sites et pages comme ils le souhaitent et ils génèrent un chaos bien difficile à indexer avec rigueur.
Le commerce apparaît sur la toile, et les marchands comprennent que leur visibilité dans les moteurs de recherche est fondamentale. Ils ont tôt fait de s’intéresser aux méthodes d’indexation qu’ils manipulent à leur guise : comme les critères de pertinence utilisés par les moteurs sont uniquement [8] liés au contenu de la page, il est facile d’optimiser ou plutôt de truquer ses propres pages pour les faire sortir dans les premiers résultats des moteurs de recherche sur un requête donnée [9].
Dans le même temps, les annuaires gérés par des experts-indexeurs sont l’objet de nombreuses polémiques liées aux conflits d’intérêts souvent réels de ces experts avec leurs intérêts, croyances, opinions et autres facteurs qui éloignent leur activité d’une mesure objective de la qualité des sites.
Dans le monde sans pitié du web, la non-qualité ne survit pas. Yahoo a compris que pour durer, il devait s’adapter. Il a intégré très tôt, avant de l’identifier comme une menace, le moteur de recherche Google sur son site-annuaire. Il a ensuite développé son propre moteur s’inspirant de son allié initial devenu concurrent. Fait hautement significatif, l’annuaire de Yahoo, symbole de son expertise fondée sur l’humain et les méthodes traditionnelles, n’est plus présent sur son site principal , et la société est en voie d’être rachetée par Microsoft.
La qualité et les normes
Nous touchons là une problématique qui est au coeur de la qualité :
Lorsque les critères de qualité sont fondés sur l’objet lui-même et sur des normes prédéfinies (le plus souvent objectives), il est toujours possible et souvent facile de truquer la mesure de sa qualité en modifiant l’objet pour l’adapter au mieux à la norme. C’est d’autant plus facile et tentant lorsque la norme est connue de tous, ce qui est la norme de la norme... La multiplication des normes pour déjouer ces manipulations ne fait que rendre la mesure qualitative plus complexe et aboutit souvent à déqualifier des objets de qualité pour non-respect des normes, ce qui est un effet particulièrement pervers. L’énergie consacrée à adapter l’objet à la norme est souvent inversement proportionnelle à sa qualité intrinsèque [10]. Au final, la qualité fondée sur des normes sélectionne l’aptitude à s’adapter aux normes et non la qualité des objets. Il suffit à chacun de réfléchir aux normes de son environnement professionnel pour constater que si elles sont parfois fondées sur la logique et le bon sens, elles sont le plus souvent réductrices, obsolètes, parfois sclérosantes et surtout incapables de sélectionner avec pertinence les meilleurs agents.
La qualité de l’information peut s’évaluer grâce à des critères qu’elle ne contient pas !
Nous sommes arrivés à la limite d’un modèle millénaire de classement de la connaissance (rayons, étagères, annuaires, index, table des matières...) fondée sur l’analyse de son contenu.
C’est alors qu’entrent en scène Sergey Brin et Larry Page, deux étudiants en informatique de l’université Stanford. Ils ont 25 ans. Nous sommes en 1998.
- Cette photo des fondateurs de Google paraît ancienne. Elle n’a pourtant que 6 ans...
Ce qui n’était initialement qu’un simple projet de recherche propose une rupture totale avec le passé :
Les critères qui permettent d’apprécier la pertinence d’un document ne sont plus tant dans le document lui-même que dans l’usage que d’autres lecteurs ou bibliothécaires en font.
Avant 1998 : on analyse le contenu du document pour le classer et déterminer sa valeur :
avec un expert : éditeur d’annuaire, bibliothécaire
ou avec un indexeur automatique : robots des moteurs de recherche qui parcourent le web sans relâche et indexent automatiquement son contenu.
Après 1998 : Google analyse le comportement des hommes autour des documents, agrège ces comportements et en tire des informations sur la pertinence d’un document pour une recherche donnée. Ce sont les connexions créées par des hommes entre les documents qui permettent d’apprécier leur qualité, c’est-à-dire leur aptitude à répondre à la question posée [11].
Ce glissement de la pertinence vers la qualité (et vice-versa) est intéressant. En effet, il est bien difficile de définir la qualité de façon absolue. Le bon médicament, le bon médecin, le bon article le sont-ils dans l’absolu, pour tous et dans toutes les situations ? La qualité n’est-elle pas fondamentalement contextuelle, adaptée à chacun de nous, à nos désirs, nos déterminants et à ce que nous cherchons ou souhaitons ? Il est frappant de constater que les fondateurs de l’EBM [12] ont écrit dans leur article fondateur qu’ils "rejoindraient sur les barricades" ceux qui voudraient transformer leur approche rationnelle mais humaniste de la décision médicale en "recettes de cuisine" pour soigner les patients [13]. Ce glissement de l’EBM au service du patient vers le soin normalisé et imposé à tous est pourtant perceptible depuis quelques années, sous la pression conjointe des assureurs maladie et des autorités sanitaires françaises.
La mesure de la qualité extrinsèque de l’information est une rupture totale avec le passé
Avant d’étudier plus en avant le fonctionnement de Google, tordons le cou d’emblée à une idée aussi fausse que répandue : Google n’identifie pas les documents les plus "populaires" au sens de "documents les plus souvent consultés". Un tel critère n’aurait aucun intérêt et aboutirait rapidement à un nivellement de la qualité de l’information disponible, chaque éditeur de site cherchant alors à plaire au plus grand nombre. Ce serait "l’effet TF1" sur le Web.
Larry Page et Sergey Brin ont bâti leur outil sur une constatation : chaque fois que quelqu’un écrit une page pour internet, il crée des liens dans cette page pour indiquer au lecteur d’autres pages qui lui paraissent pertinentes, pour approfondir la réflexion sur le sujet traité ou pour étayer ses dires. C’est une micro-expertise : ces auteurs utilisent leurs capacités d’analyse et leur connaissance du sujet pour créer ces liens. Si l’on pouvait regrouper ce travail intelligent mais éparpillé en un tout cohérent, il y aurait émergence d’une expertise collective permettant d’identifier les documents intéressants.
Tel un cerveau dont l’intelligence repose sur des milliards de connexions entre ses neurones, les connexions (liens) entre les milliards de pages du web constituent une forme d’expertise diffuse qu’il serait intéressant de pouvoir agréger.
Les connexions neuronales de notre cerveau se sont créées au fur et à mesure de nos apprentissages et de nos expériences. Les liens internet se créent au fur et à mesure de la création des pages. Nous verrons aussi que Google "apprend" en examinant le comportement des lecteurs.
Page et Brin ont alors l’idée de créer une première règle d’indexation pour utiliser au mieux cette intelligence. Cette règle porte le nom de PageRank, du nom de son créateur. Ce sera leur sujet de mémoire de fin d’étude [14].
- Premier serveur Google, fabriqué avec des LEGOs (ce n’est pas une blague).
Le principe initial du PageRank est simple : une page internet est présumée intéressante si d’autres pages font des liens vers elle. Cela peut se traduire facilement dans l’ancienne représentation du classement de l’information : un livre est intéressant s’il remplit les conditions suivantes :
Il est souvent cité en référence par d’autres livres ou articles [15]
Il est souvent conseillé par un bibliothécaire.
Notez que le critère "il est souvent lu" n’est pas pris en compte : si un livre répondant aux deux critères précédents est certes plus souvent lu qu’un autre, il ne sera pas forcément le plus lu. Le nombre de lectures d’un livre ou d’un article n’est pas un facteur de qualité fiable (comme la taille de la clientèle d’un médecin).
Le schéma ci-dessous illustre bien le fonctionnement du PageRank ; la taille du petit symbole qui représente une page internet est proportionnelle à l’importance accordée à son contenu. Cette taille dépend de deux éléments :
Le nombre de liens qui pointent vers lui.
L’importance (qualité) de ceux qui font des liens vers lui.
Etre lié (pointé par) un éditeur de site de qualité augmente plus le PageRank qu’être lié par une page anonyme ou peu considérée par les autres. [16].
Pour résumer :
Google propose une rupture totale avec l’indexation traditionnelle : ce n’est plus le contenu du document qui est le plus important, mais ce qu’en pensent les autres auteurs et les bibliothécaires.
Google ne propose pas les liens les plus populaires, les plus lus, ou les mieux considérés par la foule des internautes car ces données ne sont pas pertinentes.
Au contraire, Google met en valeur et vous propose les liens conseillés par d’autres auteurs car il considère qu’en faisant cela, il fédère l’expertise de tous ces auteurs et que cette expertise collective est plus rapide et étendue que toute autre. Google fonctionne comme un système neuronal [17].
Nos deux brillants sujets sont tellement sûrs de leur fait que la page d’accueil de leur nouveau site est une véritable provocation :
Jugez donc :
aucun décor : un cadre de saisie et un titre, c’est tout. Pas d’options de recherche, de mode "avancé", ils insistent sur la rupture avec Altavista, le leader du marché des moteurs de recherche en 1998 dont la page d’accueil (ci-dessous) était déjà chargée pour l’époque.
un bouton énigmatique "J’ai de la chance" affiche directement à l’écran le premier résultat de la recherche, sans passer par une page intermédiaire de liste de résultats. Dans la majorité des cas, ce premier résultat est le bon ! L’effet de saisissement est garanti alors qu’il fallait auparavant tester plusieurs résultats de recherche, voire plusieurs moteurs pour obtenir péniblement le document ou site recherché.
Malgré son succès immédiat, la première version de Google est assez primitive et se contente de trier l’information en examinant des liens entrants et en calculant un PageRank pour chaque page.
Voyons comment il va étendre ses capacités pour devenir la porte d’entrée principale sur le Web.
Amélioration du PageRank
Le PageRank n’était qu’une première étape. L’algorithme (la méthode de calcul) qui permet actuellement à Google de trier les ressources du Web repose sur une centaine de critères sur lesquels le secret est jalousement gardé pour éviter toute manipulation par les éditeurs de sites [18]. Certains de ces critères sont néanmoins suspectés ou connus et l’on se rapproche de plus en plus d’un fonctionnement neuronal :
- Réseau de neurones en 3D
Le PageRank s’appuiera désormais non plus sur des webmasters quelconques qui font un lien vers une page, mais sur les webmasters qui traitent du même sujet. C’est une modification importante car elle augmente la qualité de la sélection. Ce ne sont plus les bibliothécaires ou les auteurs en général qui conseillent un ouvrage ou un article, mais d’autres spécialistes du sujet traité. Ces "spécialistes" peuvent être réels ou autoproclamés, mais la loi du nombre pondère les extrêmes. On voit arriver le concept d’intelligence des foules [19], ou celui plus prudent d’Alchimie des multitudes de Pisani et Piotet.
Les liens sortants sont pris en compte. Il ne faut pas seulement être conseillé par d’autres auteurs (liens entrants), il faut soi-même conseiller de bons documents pour accroître sa réputation, ce qui est assez logique et conforme à ce qui se passe dans la vie réelle.
Google propose différents services additionnels, dont une barre d’outils qui permet à son utilisateur de stocker ses adresses de sites (favoris). La base de données est stockée sur les serveurs de Google. Il est probable que le moteur tient compte des sites sélectionnés pour leur donner un poids plus important. De plus, les internautes créent des dossiers (chez Google) pour ranger ces liens et le nom de ces dossiers est une information très importante [20].
Google n’analyse plus seulement le nombre de liens qui pointent vers un site, mais la dynamique d’apparition de ces liens. En effet, des liens artificiels créés pour l’influencer apparaissent généralement tous en même temps et à partir du même site. Au contraire, un contenu de qualité génère la création de liens spontanés dont la répartition dans le temps est progressive et étalée sur de nombreux sites.
Google tient compte de l’âge du document et de sa mise à jour. Un contenu ancien inséré dans un site qui ne bouge plus risque d’être moins pertinent qu’un article souvent modifié ou intégré dans un site dynamique.
Lorsque vous faites une recherche dans Google, celui-ci analyse votre comportement sur la page de résultat. Si vous allez voir une page indiquée et que vous revenez après quelques secondes, c’est que cette page ne correspondait pas à votre attente. Son PageRank sera abaissé. Au contraire, la page consultée en dernier aura un PageRank augmenté : si vous avez cessé vos recherches après cette page, c’est sans doute parce qu’elle a répondu à votre attente.
Il existe des dizaines d’autres critères destinés à reconnaître la bonne information sans la moindre analyse du contenu. Ces règles fonctionnent aussi bien pour du français que de l’anglais ou du chinois. Google met en oeuvre des techniques de détection de la fraude si pointue que le principal conseil actuellement pour être bien classé dans le moteur est "créez des contenus intéressants". Peut-on imaginer meilleure consécration pour le moteur de recherche ?
Google ne peut trouver que ce qui existe
Bien sûr, tout n’est pas parfait et le moteur vedette est parfois décevant sur certaines requêtes difficiles [21] ou très commerciales. Il faut néanmoins avoir à l’esprit une contrainte importante : Google comme tous les moteurs, ne peut trouver que ce qui est accessible. Autant le Web est riche en langue anglaise, autant le monde francophone tarde à libérer ses contenus. L’absence de lien de qualité dans une requête ne fait souvent que refléter (dans le monde médical francophone notamment) la pauvreté des contenus en accès libre disponibles.
En corollaire, sachant que Google est la porte d’entrée sur Internet pour la grande majorité des internautes, tout document qui n’est pas indexé par Google "n’existe pas", mais ceci une autre histoire [22].
Nous venons de passer en revue la façon dont Google s’appuie sur le travail intellectuel des webmasters et sur le comportement des internautes pour agréger ce "jus de cervelle virtuel" en une forme d’expertise neuronale très primitive. C’est à notre avis un des plus beaux exemples de ce que nous pourrions appeler la mesure extrinsèque de la pertinence :
Google ne demande d’effort à personne, il utilise un travail déjà réalisé par d’autres.
Google met en forme des données publiques, mais que lui seul parvient à agréger correctement.
Google est ouvert à tous et ne coûte rien à ceux qui utilisent ses services, tout en gagnant énormément d’argent avec d’autres (l’innovation n’est en rien synonyme de bénévolat).
Google sépare clairement le service qu’il apporte (trouver l’information) et son gagne-pain (la publicité). S’il ne le faisait pas, il disparaîtrait en quelques années faute d’utilisateurs, tant la crédibilité de ses résultats serait altérée.
Google touche à un domaine clé de la civilisation de l’information : l’accès à la bonne information au sein d’un "bruit" phénoménal.
Google se fonde sur un réseau mais il ne le crée pas : il utilise le maillage constitué par les auteurs-lecteurs du Web.
Les autres articles de cette série développeront la notion de mesure extrinsèque de la qualité [23]. Le principal reproche qui lui est souvent fait est son caractère subjectif, et cet aspect sera particulièrement développé. Le concept de "pairjectivité" à la Google, agrégat de subjectivités émanant d’individus ayant un trait commun (pairs) est sans doute la clé qui peut permettre de s’abstraire de ce paradoxe : la mesure la plus pertinente de la qualité s’appuie sur des éléments subjectifs et non objectifs, extrinsèques et non intrinsèques. Nous verrons d’ailleurs dans d’autres articles que c’est ainsi que nous fonctionnons au quotidien : l’avis de ceux qui connaissent un domaine et en qui nous avons confiance est le critère de qualité que nous plaçons au-dessus de tous les autres.
Vous pouvez réagir à cet article sur le Forum
Vers l’article suivant du dossier
Remarque : cet article avait déjà été publié sous une forme légèrement différente destinée à illustrer le concept de web 2.0
Notes
[1] En 2008, Google est devenu la marque la plus connue dans le monde, après seulement 10 ans d’existence Source Millwardbrown 2008
[2] http://etablissements.ac-amiens.fr/...
[3] Cet annuaire existe toujours.
[4] Toile est un terme souvent employé pour décrire le web, c’est-à-dire les pages consultables sur internet. Les trois "w" signifient World Wide Web, ce qui peut être traduit par "La grande toile d’araignée mondiale"
[5] Notamment l’annuaire DMOZ qui existe toujours
[6] Tous ces moteurs ont disparu ou ont été remplacés par d’autres services.
[7] Ce processus avait d’ailleurs été déjà automatisé pour les ouvrages imprimés depuis de nombreuses années
[8] Pour être honnête, il faut reconnaître que quelques critères extérieurs sont aussi pris en compte dans les dernières versions des moteurs "1.0", notamment le fait que le site contenant la page ait été indexé dans des annuaires gérés manuellement comme Yahoo
[9] Ces techniques d’optimisation portent désormais le nom de "référencement" et sont devenues un métier à part entière
[10] Observations répétées à comparer à votre expérience personnelle.
[11] Cette vision tranchée de l’apparition de facteurs extrinsèques de mesure de la qualité néglige bien sûr d’autres expériences du même type et notamment le "facteur d’impact" utilisé avec les publications sur papier. Merci de nous pardonner ces approximations destinées à faciliter la lecture du texte.
[12] Evidence Based Médecine ou médecine fondée sur des preuves. Il s’agit d’une approche scientifique mais aussi humaniste de la médecine qui consiste à fonder ses décisions sur les meilleurs éléments probants disponibles
[13] http://www.atoute.org/n/breve14.html
[14] Pour simplifier la compréhension du fonctionnement de Google, nous ne tenons pas compte de l’évolution progressive des algorithmes au cours du temps et décrivons un fonctionnement global actuel.
[15] Principe proche du "facteur d’impact"(déjà cité), utilisé avec les publications sur papier et né quelques années avant le PageRank.
[16] Les plus attentifs d’entre vous ont remarqué la similitude avec l’histoire de la poule et de l’oeuf ! Comment commencer ? Quels sont les premiers sites de qualité ? Ce problème a été géré par l’identification initiale de sites présents dans les annuaires (et donc déjà sélectionnés par un cerveau humain) et par ce qu’on appelle la récursivité : Google analyse régulièrement les liens entre les sites de son index pendant une courte période joliment appelée "Google Dance" et modifie le PageRank de chaque site en fonction notamment de ses liens entrants (qui pointent vers lui). Cette remise à niveau permanente du PageRank permet un ajustement de la place de chaque site ou page dans les résultats du moteur de recherche en fonction de la progression (ou baisse) de sa réputation.
[17] Nous parlons bien de système neuronal et non de "réseau neuronal", terme informatique ayant un sens différent. Voir aussi ce document surl’hyperscience
[18] On peut assimiler le passage des spiders indexeurs de Google sur les sites à un examen ; pour qu’un examen soit juste et discriminant pour sélectionner les candidats, il vaut mieux que le sujet n’en soit pas connu à l’avance
[19] Traduit de l’anglais Wisdom of crowds
[20] Ce concept classification libre est appelé Folksonomie.
[21] C’est sur les concepts fumeux ou ésotériques que Google est le plus fragile car il va mettre en valeur non pas le site le plus scientifique, mais parfois le site le plus représentatif de cette théorie ou de ce mouvement, surtout si aucune page ne fait un point sérieux sur le sujet
[22] Ce phénomène en train de naître est une réédition du problème de l’anglais dans les publications scientifiques : dès les années 60, il est devenu évident (autant qu’injuste), que ce qui était publié en français "n’existait pas" pour le monde scientifique
[23] Le concept de qualité intriqué avec celui de pertinence, impliquant la variabilité de la qualité en fonction de son contexte, pourrait porter le nom de "qualinence". Dans un esprit de simplification du texte, nous parlerons souvent de qualité sans indiquer à chaque fois ce distinguo contextuel
http://www.atoute.org/n/Qualite-et-sante-2-L-approche.html
Qualité et santé : 3) Médecine scientifique et objectivité
Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : longtemps centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur un partage et une pondération de la subjectivité.
Le premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
Le deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
Dans ce troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, trouve aujourd’hui ses limites et doit laisser coexister d’autres approches.
La pairjectivité, thème central de ce dossier, est détaillée dans le quatrième article.
Le cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.
Idées-forces :
La subjectivité a longtemps aveuglé la médecine.
A la subjectivité du patient s’ajoute celle du soignant : effet placebo et biais de vérification d’hypothèse.
L’introduction d’une approche objective et expérimentale de la médecine a permis les immenses progrès sanitaires du XXe siècle.
Mais l’objectivité se prête mal à l’étude des phénomènes humains et conduit la médecine dans une impasse.
Avec l’objectivité est née la fraude qui est rapidement devenue inextirpable de la science.
L’approche purement objective de la thérapeutique était une étape importante qu’il faut accepter de dépasser.
"Qui d’entre nous, au moment d’aider celui qui s’est confié à lui, ne souhaiterait que la science fût encore plus avancée ? Mais ce qu’on nous présente comme “connaissances scientifiques” évoque bien souvent le bric-à-brac qu’un brocanteur aurait qualifié de salon artistique..."
Pr Alain Froment
"Il n’y a aucune limite (son, lumière, zéro absolu, principe d’exclusion de Pauli) que l’esprit de l’homme ne puisse franchir dans un calcul foireux"
Anonyme - Les perles du bac
Guérir est longtemps resté une affaire de magie.
Hippocrate fut le premier à tenter, en créant la médecine, de s’appuyer sur la raison en matière de santé.
Il s’inscrivait ainsi dans la continuité des philosophes naturalistes, suivi par Erasistrate, Celse, Galien, Avicenne...
Cependant, comme les progrès furent lents !
Car les médecins, comme les autres scientifiques de l’antiquité, étaient handicapés par leur subjectivité propre, ce qu’on appelle à présent le biais de confirmation d’hypothèse.
Ce biais est une tendance naturelle qui nous pousse à trouver dans nos observations ce qui confirme nos théories ou croyances : nos yeux ne voient pas, notre cerveau ne croit pas, ce qui va à l’encontre des idées que nous cherchons à vérifier. Alors nous les écartons sans procès. Ainsi, le chercheur-expérimentateur rejette inconsciemment les résultats qui le dérangent.
Au contraire, nous mettons en exergue les observations qui vont dans le sens de notre démonstration : le médecin qui teste un médicament, écoute ses patients d’une oreille très différente selon qu’il croit ou non en l’intérêt de sa prescription. Les effets positifs seront attribués au médicament alors que les ressentis négatifs seront "à coup sûr" dûs à une cause extérieure, voire à une autre maladie.
Pourtant, à étudier de près l’acte de guérison, le médecin n’est pas le seul être subjectif bien au contraire.
A cette subjectivité côté médecin s’ajoute une subjectivité côté patient : l’effet placebo
L’effet placebo constitue l’autre grand biais thérapeutique. La foi dans ce qui soigne mobilise des mécanismes d’atténuation de la douleur, mais aussi de baisse de la tension artérielle ou du cholestérol ! Une substance inerte présentée comme un médicament salvateur va guérir un pourcentage important de patients. Encore aujourd’hui l’effet placebo intervient de façon considérable dans l’effet des médicaments, y compris pour ceux dont l’activité intrinsèque est incontestable. L’effet placebo touche les enfants comme les adultes, les scientifiques comme les illettrés. Il concerne même les animaux, preuve s’il en était besoin de la puissance de la communication non verbale. Il existe aussi en miroir un effet nocebo : nous ressentons des effets indésirables avec une substance inerte, surtout si elle nous a été présentée comme potentiellement mal supportée.
Le plus bel exemple d’effet placebo-nocebo a été matérialisé par un très beau protocole à double détente : dans un service de personnes âgées, un produit inerte (gélule de sucre glace) est présenté aux infirmières comme un bon antidouleur à utiliser si nécessaire chez leurs patients. Elles sont mises en garde contre le risque de diarrhée que ce nouveau médicament peut provoquer, mais il leur est demandé de ne pas parler de ce problème aux patients. Ce médicament est pourtant un pur placebo dénué de toute activité biologique.
Après un mois, les infirmières ont demandé à ce qu’on leur fournisse un autre médicament : elles le trouvaient très efficace sur les douleurs, mais le service était désorganisé par les nombreuses diarrhées qu’il provoquait chez les pensionnaires de l’établissement [1]. Effet placebo et nocebo s’intriquaient sans que l’on sache qui influençait qui...
Les subjectivités s’ajoutent, comme les erreurs de mesure s’additionnent dans une expérience de physique. Faute de savoir détecter et corriger ce biais majeur, la médecine n’a que très peu progressé sur le plan thérapeutique pendant deux mille ans. Les remèdes les plus fantaisistes se sont succédés sans qu’un outil d’évaluation objectif et fiable puisse permettre de trier l’illusion de la réalité.
Le philosophe Michel Henry situe au début du XVIIème siècle avec Galilée l’irruption de l’objectivité dans le champ scientifique [2]. Le célèbre astronome serait le précurseur de la modernité et l’un des premiers à dénoncer la subjectivité comme frein à la connaissance rationnelle. On connaît ses démêlés avec l’Eglise : les remises en cause des dogmes provoquent généralement de fortes réactions.
Dans le champ médical, la découverte de la circulation sanguine par Harvey à la même époque amorce une accélération du progrès scientifique en médecine, facilité par de nouveaux outils comme le microscope de l’étonnant van Leeuwenhoek.
Un siècle plus tard, la première expérience médicale scientifique est sans doute celle de James Lind. Ce médecin écossais étudie l’action de divers produits pour soigner le scorbut. Il crée six groupes de marins et leur attribue un produit différent. Ceux qui prennent les citrons guérissent. C’est sans doute la première étude comparant simultanément des traitement dans des groupes de patients différents ; ces études seront appelées plus tard "contrôlées" par référence à un groupe de contrôle qui ne reçoit pas le traitement à étudier. Il s’agit d’un application parfaite de la méthode expérimentale. La gravité de la maladie, l’absence d’effet placebo significatif dans le scorbut, l’absence de guérison dans les autres groupes, se conjuguaient pour démontrer formellement de l’efficacité d’un composant des agrumes.
Le XIXe siècle voit se généraliser la méthode expérimentale
L’expérience de Lind n’était qu’un premier pas vers la médecine scientifique qui va progresser à grands pas grâce à la généralisation de la méthode expérimentale, sous l’influence notable de Claude Bernard :
Le scientifique observe un phénomène et conçoit une hypothèse qui s’y rattache ou l’explique.
Il imagine ensuite une expérience qui ne pourra fonctionner que si cette hypothèse est vraie.
En cas d’échec de l’expérience, l’hypothèse est réfutée.
En cas de succès, il poursuit de nouvelles expériences pour confirmer son hypothèse et communique sur ce qui pourrait devenir une "loi de la nature" [3].
La mise en oeuvre de la méthode expérimentale coïncide avec d’immenses progrès dans la compréhension des phénomènes biologiques avec leur cortège de retombées diagnostiques et surtout thérapeutiques.
C’est par sa célèbre expérience de la cornue stérilisée [4] que Louis Pasteur arrive à convaincre l’Académie de Sciences de l’impossibilité de la génération spontanée de la vie. Pour autant, et malgré l’élégance de la démonstration, son adversaire Pouchet continue à croire jusqu’à sa mort à la génération spontanée.
- Expérience de Pasteur
- Après chauffage et donc stérilisation, la solution ne fermente pas. En revanche, si l’on casse le serpentin, les germes pénètrent et la solution fermente.
C’est donc l’expérimentation qui devient le nouveau standard de la science médicale. L’expérimentation permet de prouver objectivement la justesse d’une nouvelle théorie, l’erreur de ses contradicteurs, ou l’intérêt d’un nouveau traitement. Elle vise à protéger le scientifique de sa propre subjectivité.
Une période féconde en découvertes majeures s’ouvre alors, apportant notamment la vaccination et l’hygiène, deux moteurs majeurs de l’augmentation de l’espérance de vie et de la lutte contre les fléaux sanitaires.
Mais la thérapeutique est le parent pauvre du progrès et la médecine scientifique reste essentiellement descriptive. La compréhension des mécanismes biologiques progresse beaucoup plus vite que les traitements. Le XIXe siècle et le début du XXe font encore la part belle à l’homéopathie et aux extraits de plantes dont les effets sont modestes sur les maladies graves.
Si la méthode expérimentale constitue la voie royale en physique et un outil de choix en biologie, il en est autrement en médecine. L’effet placebo, c’est-à-dire la subjectivité côté patient, est toujours aussi puissant et déroutant ; il fausse les tentatives d’évaluation thérapeutique. De plus, ce qui est vrai pour un patient ne l’est pas pour un autre et la variabilité des réactions individuelles rend hasardeuse l’extrapolation des résultats observés. Enfin, la "protocolisation expérimentale" des remèdes traditionnels issus de plantes nécessite l’extraction des principes actifs et l’anéantissement d’un savoir ancestral empirique faisant intervenir de nombreux éléments de complexité [5]. Seuls les produits dont l’efficacité est flagrante et qui guérissent ou préviennent des maladies graves sortent du lot. Les vaccins en constituent un bon exemple.
Après avoir combattu la subjectivité de l’expérimentateur par la méthode expérimentale, la médecine invente d’autres procédés pour tendre vers l’objectivité et la rigueur scientifique :
La randomisation, utilisée pour la première fois par Ronald A Fischer dans l’agriculture, s’impose comme un moyen aussi efficace que déroutant par sa simplicité pour créer des échantillons de patients comparables : il suffit de tirer au sort.
L’essai clinique contrôlé en aveugle contre placebo : un groupe de patients reçoit le principe actif à étudier, l’autre un placebo indiscernable. Les résultats sont comparés dans les deux groupes. La subjectivité du patient est annulée [6] par le fait qu’il ne sait pas s’il prend le principe actif ou le placebo.
Le double aveugle [7] : étude contrôlée dans laquelle ni le patient ni le médecin ne connaissent la nature du médicament délivré. L’analyse des résultats finaux doit idéalement être réalisée également en aveugle, la nature du traitement A et du traitement B comparés n’étant dévoilée qu’à la fin du traitement des données (pour éviter un biais de vérification d’hypothèse - rejet ou interprétation des données défavorables - à cette phase cruciale).
Garantissant apparemment une double protection contre la subjectivité de l’expérimentateur et celle du patient, l’essai clinique contrôlé (ECC) va devenir le parangon de vertu scientifique dans le domaine médical.
Naissance des essais cliniques contrôlés
(source La course aux molécules, Sébastien Dalgalarrondo)
"L’histoire des essais cliniques randomisés commence aux États-Unis après la seconde guerre mondiale, lorsque des médecins, des chercheurs et des responsables de revues médicales, persuadés du pouvoir de la science et de la preuve statistique, décident de lutter à la fois contre l’hétérogénéité des prescriptions thérapeutiques et l’influence néfaste des publicités de l’industrie pharmaceutique, jugées peu scientifiques voire mensongères.
Ces « réformateurs thérapeutiques » entreprennent donc la mise en place d’essais dans lesquels les patients sont répartis de manière aléatoire (randomisation) dans deux groupes d’analyse, le premier recevant un placebo et le deuxième le traitement testé.
Cette nouvelle façon d’apporter la preuve de l’efficacité d’un médicament ne s’imposa pas sans quelques réticences au sein de la communauté médicale. Certains cliniciens refusèrent d’attribuer des médicaments au hasard et de priver ainsi, pendant la période de l’essai, leurs malades de tout traitement au nom de la science et de la rigueur statistique, pratique qu’ils jugeaient contraire à l’éthique médicale et au devoir de soin.
Cette nouvelle méthodologie imposait par ailleurs que ni le patient ni le médecin ne sachent dans quel groupe le patient était enrôlé, procédure dite du double aveugle, qui se heurtait elle aussi aux pratiques ancestrales de la médecine.
Parallèlement à la naissance et à la constitution de ce groupe de réformateurs, à la tête duquel on trouve des patrons de médecine prestigieux, d’autres acteurs de la communauté médicale oeuvraient pour un meilleur contrôle des médicaments. Dès 1906, le Conseil de pharmacie et de chimie de l’Association médicale américaine (AMA) mit en place un réseau d’experts, notamment des pharmacologues, chargés de vérifier et d’évaluer l’intérêt thérapeutique des nouvelles molécules. Ces pharmacologues allaient jusqu’à réaliser leurs propres études afin de lutter contre le discours parfois proche du « charlatanisme » de certains groupes industriels. Le modèle de cette expertise sera repris par la Food and Drug Administration (FDA) en 1938 lorsqu’elle commença à vérifier l’innocuité et l’efficacité thérapeutique des médicaments.
Mais malgré tous les efforts du groupe des réformateurs et l’apparition progressive d’études randomisées dans la presse médicale, il fallut attendre deux événements cruciaux pour voir les ECC véritablement s’imposer.
Le premier est d’ordre réglementaire. En 1962 est voté aux États-Unis un amendement à la loi fédérale sur l’alimentation, les médicaments et les cosmétiques, le Kefauver-Harris Amendement.
Il imposa aux firmes de démontrer en suivant « une méthode statistique appropriée » et une « investigation contrôlée » l’efficacité d’un nouveau médicament avant qu’il ne soit mis sur le marché. Les industriels durent donc appliquer les ECC pour pouvoir satisfaire ces nouvelles exigences réglementaires.
Deuxième élément, l’adoption au milieu des années 1970 d’une nouvelle réglementation destinée à protéger les patients inclus dans des protocoles de recherche clinique. Initiée conjointement par le National Institute of Health (NIH) et la FDA, elle faisait suite à la dénonciation de dérives et notamment à l’inclusion dans certains essais de personnes n’étant pas en possession de toutes leurs facultés mentales. Le concept-clé de cette nouvelle réglementation était celui du consentement éclairé des patients, qui devaient être en mesure, avant d’être inclus dans un essai, d’apprécier les risques et d’évaluer les conséquences de l’utilisation d’un placebo et d’une répartition aléatoire.(...)"
La pratique des ECC est donc toute récente. Erigée en dogme méthodologique, elle est censée apporter l’objectivité nécessaire à une évaluation rationnelle des médicaments et des stratégies thérapeutiques. Malheureusement, si ses débuts ont énormément apporté à l’évaluation du fatras thérapeutique hérité du XIXe siècle, les ECC souffrent d’un défaut rédhibitoire : ils ne peuvent étudier que ce qui est objectivable et mesurable [8].
Comment étudier un sujet avec objectivité ?
La science expérimentale a abouti à une "objectivation du sujet", à un réductionnisme cartésien de l’invidu réduit à une somme d’organes, de mécanismes biologiques où à un "sujet-type" dont le destin sera applicable à ses semblables.
L’objectivisation de la médecine a bien sûr permis de réels progrès en mesurant précisément l’impact de nos interventions sur des phénomènes bien définis. Mais elle a aussi été terriblement sclérosante en excluant du champs de la science médicale l’essentiel de ce qui caractérise l’Homme, à savoir les émotions, les affects, la complexité, ou encore la versatilité et l’oubli. Michel Maffesoli décrit très bien ce phénomène dans son "éloge de la raison sensible". Dans un registre un peu différent, Sophie Ernst, une philosophe de l’éducation s’interroge sur "l’image ambivalente de la science chez les jeunes : triomphante et asséchante"("subjectivité et objectivité dans l’enseignement des sciences" ).
Pour rester centré sur la médecine, Alain Froment, dans "la science et la compassion" [9] analysait avant l’apparition de la "médecine fondée sur les preuves" le double écueil consistant soit à négliger les apports de la science, soit à vouloir les imposer au patient sans se préoccuper de sa singularité :
Nous serions peut-être alors encouragés à tenir compte des limites de nos connaissances biologiques pour réfréner notre tendance naturelle au dogmatisme, dans nos paroles et nos décisions médicales, et à confronter l’argumentation biologique boiteuse à d’autres éléments qui mériteraient tout autant, sinon plus, d’être pris en considération.
Combien d’ouvrages médicaux, d’articles, de présentations de congrès, et pire encore de décisions thérapeutiques “sur dossier”, réduisent l’individu, comme s’il était un quelconque organisme animal, à un ensemble de chiffres, d’images et de signes, en omettant complètement que cet organisme est habité par l’affection, la joie, la peine, l’angoisse, le désir, qu’il se comporte comme membre d’un groupe et a besoin d’y conserver sa place et sa fonction, que sa vie a d’autres dimensions que sa durée et peut être fondée sur des valeurs profondément différentes des nôtres, mais tout aussi valables qu’elles.
Ces réalités sont-elles méprisables parce qu’elles ne sont pas mesurables, ou n’est-ce pas nos connaissances qui sont méprisables de ne pas pouvoir les prendre en compte ? Qui connaît d’ailleurs les conséquences biologiques à long terme de la souffrance morale, de l’angoisse, du bien-être, de l’affection ? On a quelques raisons de les croire importantes : est-ce véritablement la marque d’une attitude scientifique que de ne pas tenir compte de cette éventualité, et est-ce la marque du progrès scientifique que d’anéantir ce que des millénaires de civilisation ont fait de l’Homme ?
Si l’individualisation de certains paramètres humains et leur étude isolée est grisante pour l’esprit scientifique, elle est frustrante pour l’humaniste. Pire, il arrive de plus en plus souvent que le scientifique souhaite imposer sa vision étriquée de la réalité de l’homme à ceux dont l’approche holiste est pourtant plus fidèle, à défaut d’être mesurable, reproductible ou tout simplement explicable. C’est tout le drame de la "norme" appliquée à la santé [10].
L’objectivité scientifique constitue un Graal inaccessible, voire un miroir aux alouettes. Mal utilisée, elle peut aboutir à détruire de précieux équilibres et faire paradoxalement régresser la qualité là où des imprudents tentent de l’imposer en dogme.
Elle présente un autre défaut important : sa sensibilité aux biais cachés. La subjectivité indissociable de l’humain a rapidement refait surface, sous une autre forme : la fraude scientifique. Or cette subjectivité dissimulée est beaucoup plus préoccupante que la subjectivité affichée des savants du XVIIIe siècle.
La fraude atténue progressivement les bénéfices apportés par la méthode expérimentale et les essais cliniques contrôlés
Dans leur célèbre Souris truquée [11], W. Broad et N. Wade rappellent que la fraude est aussi vieille que la science : Ptolémée, Galilée, Newton, Dalton ont inventé ou "arrangé" leurs résultats pour mieux valider leurs théories. Avant même que n’apparaissent les intérêts financiers qui rongent actuellement l’éthique médicale [12], la recherche de la gloire suffit à conduire nos savants les plus prestigieux à de petites "corrections" pour améliorer l’aspect de leur travaux. Il apparaît que les grands découvreurs sont parfois des scientifiques qui excellaient surtout dans l’art de mettre en valeur des travaux dont ils n’étaient pas les auteurs ; d’autres enjolivaient ou inventaient certains résultats d’expériences difficiles pour être sûrs de s’en faire attribuer la paternité : l’Histoire ne retient que le nom des découvreurs et la course contre le temps fait mauvais ménage avec la rigueur.
Depuis que la carrière des chercheurs est intimement liée au nombre de leurs publications, la fraude est devenue une part intégrante de la recherche. Broad et Wade commencent leur livre [13] (nous sommes en 1981) par la description d’une audition du Congrès américain :
D’un coup de marteau sur le bureau, le jeune représentant du Tennessee ramena le silence dans l’imposante salle d’audience du Congrès. Je suis forcé de conclure, dit-il, que la persistance de ce genre de problème résulte de la réticence des scientifiques à prendre cette affaire très au sérieux.
Le problème auquel Albert Gore Jr. faisait allusion était celui de la fraude dans la recherche scientifique.
Le jeune Al Gore (il avait alors 33 ans) aura l’occasion de faire parler de lui 20 ans plus tard en offrant au monde la base de données bibliographiques Medline jusqu’alors réservée aux abonnés. Pied-de-nez de l’Histoire, il sera battu aux élections présidentielles américaines de 2000 par Georges Bush grâce à une fraude électorale... Un prix Nobel lui sera attribué pour son action en faveur de l’écologie, domaine où la fraude scientifique est caricaturale aux USA.
La fraude est si bien ancrée dans les comportements scientifiques qu’elle en devient un sujet de dérision :
Traduction des termes employés dans les publications scientifiques :
IL EST BIEN ÉTABLI QUE...
"Je ne me suis pas donné la peine de vérifier, mais il me semble bien possible que..."
QUOIQU’IL N’AIT PAS ÉTÉ POSSIBLE DE DONNER UNE RÉPONSE DÉFINITIVE
"L’expérience échoua, mais il me semble tout de même pouvoir en tirer une publication"
LA TECHNIQUE X FUT CHOISIE CAR PARTICULIÈREMENT ADÉQUATE
"Le copain du labo d’à côté avait déjà mis la technique X au point"
3 ÉCHANTILLONS FURENT CHOISIS POUR UNE ÉTUDE EXHAUSTIVE
"Les résultats obtenus à partir des autres échantillons n’ont rien donné de cohérent"
MANIPULÉ AVEC LA PLUS GRANDE PRÉCAUTION DURANT TOUTE L’EXPÉRIMENTATION
"Ne fut pas jeté à l’égout"
LE COMPOSE ALANINE-ARGININE Z455 A ETE CHOISI POUR SA CAPACITE A DEMONTRER L’EFFET PREVU.
"Le gars du labo d’à côté en avait en rab"
HAUTE PURETE, TRES HAUTE PURETE, PURETE EXTREMEMENT ELEVEE, ULTRAPUR, SPECTROSCOPIQUEMENT PUR.
"Composition inconnue, mises à part les prétentions exagérées du fournisseur".
LA CONCORDANCE DE L’EXPERIENCE AVEC LA THÉORIE EST :
EXCELLENTE = passable
TRÈS BONNE = faible
SATISFAISANTE = douteuse
PASSABLE = totalement imaginaire
IL EST ADMIS QUE
"Je crois que"
IL EST GÉNÉRALEMENT ADMIS QUE
"2 collègues penseraient comme moi"
IL EST ÉVIDENT QUE DES TRAVAUX COMPLÉMENTAIRES SERONT UTILES
"Je n’ai rien compris à ce qui s’est passé"
VOICI QUELQUES RÉSULTATS TYPIQUES
"Voici les meilleurs résultats"
SIGNIFICATIF DANS UN INTERVALLE DE CONFIANCE DE...
"Non significatif"
MALHEUREUSEMENT, LES BASES QUANTITATIVES PERMETTANT DE TIRER PROFIT DES RÉSULTATS N’ONT PAS ENCORE ÉTÉ FORMULÉES
"Personne n’est arrivé à comprendre quoi que ce soit"
NOUS REMERCIONS X POUR SA PRÉCIEUSE COLLABORATION ET Y POUR SES CONSEILS
"X a fait le travail et Y m’a expliqué ce que signifiaient les résultats." [14]
Le méthode expérimentale, si elle a permis de grands progrès, a été indirectement responsable de la naissance d’une fraude plus élaborée. Auparavant, les scientifiques se contentaient, comme Ptolémée, "d’emprunter" le travail de leurs prédécesseurs, ou comme Newton et Galton, d’arranger quelques calculs pour "tomber juste". Désormais, il leur faut truquer, voire inventer de toute pièce des expériences complexes pour franchir les barrières de la reconnaissance par les collègues avant d’être publié.
Pour en finir avec l’humour attaché à la fraude scientifique, voici un dernier texte raillant les expériences un peu trop parfaites du père de la génétique, le moine Gregor Mendel :
Au commencement était Mendel, perdu dans ses pensées.
Et il dit : Qu’il y ait des pois.
Et il y eut des pois, et cela était bon.
Et il planta les pois dans son jardin et leur dit : Croissez et multipliez et répartissez-vous.
Ainsi firent-ils et cela était bon.
Puis il advint que Mendel regroupa ses pois et sépara ceux qui étaient lisses de ceux qui étaient ridés. Il appela les lisses dominants et les ridés récessifs, et cela était bon.
Mais Mendel vit alors qu’il y avait 450 pois lisses et 102 pois ridés. Ce n’était pas bon car la loi stipule qu’il doit y avoir trois ronds pour un ridé.
Et Mendel se dit en lui-même : Gott in Himmel, c’est là l’oeuvre d’un ennemi qui aura semé les mauvais pois dans mon jardin à la faveur de la nuit !
Et Mendel, pris d’une juste colère, frappa sur la table et dit : Eloignez-vous de moi, diaboliques pois maudits, retournez aux ténèbres où vous serez dévorés par les souris et les rats !
Et il en fut ainsi : il ne resta plus que 300 pois lisses et 100 poids ridés, et cela fut bon. Cela fut vraiment, vraiment bon.
Et Mendel publia ses travaux [15].
Savoir apprécier l’ubiquité de la fraude scientifique est important pour comprendre l’évolution de la médecine scientifique au XXè siècle. En effet, des mécanismes de prévention sont rapidement mis en place pour contenir la fraude. Il s’agit essentiellement des relecteurs scientifiques attachés aux revues les plus prestigieuses. Ces "referees" ont pour rôle de vérifier avant publication que les règles de bonnes pratiques scientifiques ont été respectées, que les sources sont citées et que les conclusions tirées par les auteurs coïncident bien avec les travaux décrits. Malheureusement, si ce filtre fonctionne pour les fraudes les plus grossières, il est souvent pris en défaut par des fraudes minimes, voire par des fraudes à grande échelle organisées par des falsificateurs de génie [16]. De plus, la relecture par les pairs introduit un biais éminement subjectif dans une science qui se veut désormais objective : ces referees sont des hommes comme les autres habités par la jalousie, l’amitié ou le déni. Ils peuvent être en concurrence avec des collègues dont ils évaluent les travaux ou être rémunérés par des entreprises pharmaceutiques menacées par les travaux qu’ils relisent.
Des affaires récentes ont mis ces pratiques en lumière. Citons le retrait du médicament antiinflammatoire Vioxx suivi de plaintes pénales qui ont permis l’accès à la totalité des documents concernant ce produit, et une polémique sur un médicament du diabète (Avandia). Toutes les facettes de la fraude sont réunies dans ces affaires [17] : referees qui transmettent des articles (confidentiels) à des firmes qui les emploient, dissimulation d’informations gênantes par les industriels, fortes pressions sur les lanceurs d’alertes, non-publication de travaux négatifs, manipulation des résultats d’études cliniques.
Ces affaires illustrent un défaut de la méthode expérimentale : sa mise en avant peut apporter une apparence d’objectivité à des données qui sont en pratique parfaitement subjectives car triées, publiées, manipulées et financées par des humains ou des lobbies. Elles ne constituent en rien des exceptions au sein d’un monde vertueux ; elles représentent simplement des parties visibles car "démaquillées" à l’occasion de procédures judiciaires. Rien ne permet de penser que les dossiers des autres médicaments développés depuis ne contiennent pas les mêmes errances. Ces derniers sont simplement inaccessibles à l’investigation.
La méthode expérimentale ne souffre pas de biais : une petite erreur, volontaire ou non, peut inverser le sens d’une expérience et mener à des conclusions fausses et lourdes de conséquences quand elles impactent la santé de millions de patients. Actuellement, l’immense majorité de la recherche thérapeutique mondiale est financée, pilotée, et publiée par l’industrie pharmaceutique dont les chercheurs deviennent progressivement et plus ou moins consciemment les vassaux. Seuls les esprits les plus optimistes peuvent encore croire, contre les preuves qui s’amoncellent, que la recherche thérapeutique est toujours une science objective.
Le dernier scandale porte le nom de "ghostwriting" ; littéralement "rédaction par des fantômes". Il résulte de la convergence de deux problèmes : les firmes ont du mal à faire écrire par les scientifiques exactement ce qu’elles veulent, et les scientifiques n’ont pas le temps d’écrire. Qu’à cela ne tienne : des agences de communication spécialisées rédigent des articles scientifiques sous le contrôle du marketing pharmaceutique. Des médecins réputés sont ensuite contactés pour signer ces articles qu’ils n’ont pas écrits. Les véritables auteurs ne sont pas cités (les fantômes). Il n’est pas toujours nécessaire de rémunérer les médecins pour cette entorse éthique : accumuler des publications dans des revues prestigieuses est important pour leur carrière.
Si la méthode expérimentale traditionnelle a fait progresser la médecine à pas de géant au XXe siècle, ce n’est plus le cas aujourd’hui. La thérapeutique stagne et très peu de médicaments utiles ont été découverts depuis 20 ans.
La subjectivité a atteint un tel degré dans les publications scientifiques elles-mêmes, surtout quand des intérêts financiers sont en jeu, que les étudiants sont désormais formés à la lecture critique de l’information médicale. En pratique, cette lecture critique est fastidieuse, et elle suppose que la totalité des données nécessaires à cette analyse suspicieuse soient disponibles dans le document étudié, ce qui est rarement le cas. Une lecture vraiment exigeante et pointilleuse aboutirait à éliminer une grande partie des publications portant l’évaluation d’interventions thérapeutiques chez l’homme.
Un dernier extrait de La souris truquée [18] constitue un parfait résumé de la situation actuelle
La fraude agit comme révélateur de l’activité scientifique normale, montrant à quel point la recherche s’écarte des normes éthiques et épistémologiques qui sont censées la régir. Comme le champ des autres activités sociales, elle est le champ des ambitions, des rivalités, des illusions. Cet ouvrage à la fois ironique et sérieux ne vise pas à défigurer l’image de la science, mais à mieux faire connaître son vrai visage - humain, trop humain. A ce titre, il devrait aider à construire une nouvelle morale des rapports entre la science et le public.
Quant à l’avant-dernier chapitre du livre, il s’intitule L’échec de l’objectivité et nous invitons les lecteurs intéressés par le débat à le lire en intégralité.
Comme Broad et Wade, nous ne cherchons pas à défigurer l’image de la science médicale. Nous constatons que ce livre au retentissement international n’a eu aucun impact sur la situation qu’il dénonce. Aucune "nouvelle morale" n’est venue assainir les rapports entre la science et le public, bien au contraire, l’éthique scientifique continue de se désagréger. En France, nous en sommes à tenter de faire déclarer aux experts leurs conflits d’intérêts [19]. Aux USA où cette pratique est courante, il devient évident que cette déclaration ne règle rien.
Pour notre entreprise, cette question soulève à la fois un grave problème éthique et un problème économique.
Si personne n’y voit d’objection, passons directement au problème économique. Voutch
Notre but, à partir de ce dossier, est de proposer des solutions concrètes et réalisables qui imposent néanmoins une nouvelle rupture de paradigme et une relativisation de la place de l’objectivité.
Richard Rorty, dans Solidarité ou objectivité [20] exprime l’échec du "tout objectif" dans une phrase lapidaireLa quête de l’objectivité des Lumières a souvent tourné au vinaigre qui ne saurait résumer la réflexion passionnante qu’il nous propose sur les liens entre l’objectivité et les relations interhumaines.
Edgar Morin [21] est encore plus sévère avec le réductionnisme :
Le dogme réductionniste mène à une « intelligence parcellaire, compartimentée, mécaniste, disjonctive, qui brise le complexe du monde en fragments disjoints, fractionne les problèmes, sépare ce qui est relié, unidimensionnalise le multidimensionnel. Qu’il s’agit là, d’une intelligence à la fois myope, presbyte, daltonienne, borgne ; qui finit le plus souvent par être aveugle. Elle détruit dans l’œuf toutes les possibilités de compréhension et de réflexion, éliminant aussi toutes chances d’un jugement correctif ou d’une vue à long terme. Ainsi, plus les problèmes deviennent multidimensionnels, plus il y a incapacité à penser leur multidimensionnalité ; plus progresse la crise, plus progresse l’incapacité à penser la crise ; plus les problèmes deviennent planétaires, plus ils deviennent impensés. Incapable d’envisager le contexte et le complexe planétaire, l’intelligence réductionniste aveugle rend inconscient et irresponsable. »
Déplorer les dégâts de l’objectivisme et du réductionnisme est une chose. De nombreux esprits s’y sont employés avec talent. Mais il faut proposer d’autres solutions pour résoudre les problèmes qui ont mis en vedette ces oeillères de l’esprit.
Nous pensons que les nouveaux outils technologiques, et notamment internet, peuvent permette une évolution majeure de la science médicale, et partant, de la qualité des soins. Si la subjectivité est inextirpable de la médecine, essayons de réfléchir à la façon dont nous pourrions l’utiliser plutôt que de la combattre sans succès, ou pire de lui permettre de se déguiser en objectivité, postiche qui la rend encore plus dangereuse.
C’est l’objet du chapitre suivant. Le concept d’une nouvelle forme de subjectivité y sera développé, elle aussi bâtie sur des "pairs", mais utilisant l’interactivité permise par le réseau internet : la pairjectivité.
Ce mariage entre une subjectivité transparente et le concept (au sens large) du "pair à pair" [22] ouvre des portes qui fascinent ou effraient. L’étude du fonctionnement de Google dans le deuxième article nous a montré comment une approche totalement subjective avait révolutionné la pertinence de la recherche et le classement de l’information sur internet. Il ne s’agit pas d’un rêve ou d’une nouvelle utopie mais d’une réalité qui a transformé la recherche documentaire et connu le succès que l’on sait. Nous allons voir comment la pairjectivité pourrait nous sortir de l’ornière objectiviste dans laquelle la médecine s’embourbe depuis une vingtaine d’années.
Vers l’article suivant du dossier
Vous pouvez réagir à cet article sur le Forum
Notes
[1] référence à retrouver... Merci à ceux qui se souviendraient de la référence de ce travail
[2] La barbarie, 1987. Michel Henry développe un concept qui nous est cher : la négation de la sensibilité aboutit à une nouvelle forme de barbarie qui menace notre civilisation après en avoir permis la progression.
[3] Pour être encore plus certain de la validité de sa "loi", le scientifique devrait aussi concevoir une expérience qui ne peut pas fonctionner si son hypothèse est vraie. C’est d’ailleurs le principe du test de l’hypothèse nulle dans les essais contrôlés : le "p" traduit la probabilité pour que la différence d’efficacité observée soit due au seul hasard si les médicaments comparés ont une efficacité identique
[4] Dans une cornue au long bec de verre, Pasteur stérilisa une solution nutritive par chauffage, puis permit à l’air de rentrer par le bec allongé de la cornue. Aucune fermentation ne survint car les germes de l’air ne pouvaient accéder à la solution du fait de la longueur du bec. En cassant ce bec, les germes pouvaient pénétrer plus facilement dans la cornue et se reproduire dans la solution.
[5] Lire Le moment est venu d’être modeste de Philippe Pignarre qui analyse avec pertinence la "captation scientifique" de la thérapeutique par les "réformateurs thérapeutiques".
[6] En pratique, elle n’est pas totalement annulée, car le fait de savoir que l’on prend peut-être un placebo modifie l’image du traitement et l’espoir que l’on met en lui.
[7] Devenu rapidement indispensable : le simple fait que l’expérimentateur connaisse la nature du traitement faussait le recueil des données, tant le biais de vérification d’hypothèse est puissant.
[8] C’est de la pratique des ECC qu’est née l’habitude de tout quantifier en médecine par des échelles, des tests, des outils de mesure variés. Ayant pris l’habitude d’utiliser ces outils lors de protocoles de recherche, de nombreux médecins hospitaliers prônent leur usage pour les soins courants. Le dialogue entre le médecin et le patient tend à être remplacé par une mesure standardisée. Au lieu de demander au patient comment il se sent et si le médicament le soulage, le médecin envoie un stagiaire qui demande au patient "combien il a mal" sur une règle graduée. Il se trouve des médecins pour assimiler cette évolution à un progrès.
[9] De l’hypertension à l’hypertendu - Tome I - Editions Boeringer-Ingelheim 1982. Extrait dans cet article
[10] Malgré les exhortations des fondateurs de l’EBM, les gestionnaires de la santé s’orientent de plus en plus vers des stratégies thérapeutiques validées par des experts plus ou moins objectifs et qui s’imposeraient aux patients et aux prescripteurs.
[11] Seuil, 1987 pour la version française (1982 pour l’édition originale). Une lecture indispensable pour qui croit encore que la fraude est un phénomène scientifique marginal.
[12] Voir http://www.atoute.org/n/article69.html.
[13] op. cit.
[14] Compilation réalisée à partir de diverses sources anonymes.
[15] Texte anonyme publié en anglais dans "Peas on Earth," Horticultural Science 7 : 5 (1972). Pour être tout à fait honnête, il faut accorder à Mendel le bénéfice du doute ; des travaux récents tendent à prouver qu’il n’aurait finalement pas "amélioré" le résultat de ses expériences.
[16] La Souris truquée op. cit.
[18] op. cit. Rappelons que ce texte a été écrit en 1981.
[19] L’association Formindep lance une action dans ce sens, un an après la publication du décret censé la mettre en oeuvre.
[20] Premier essai contenu dans Objectivisme, relativisme et vérité PUF 1994
[21] Le besoin d’une pensée complexe, in 1966-1996, La passions des idées », Magazine littéraire, Hors Série, décembre 1996
[22] Le peer to peer ou pair à pair est un concept informatique popularisé par les réseaux de téléchargement de musique ou de films. La pairjectivité pourra s’appeler peerjectivity en langue anglaise
http://www.atoute.org/n/Qualite-et-sante-3-Medecine.html
Qualité et santé : 4) La pairjectivité, une nouvelle approche scientifique ?
Une version plus récente et plus claire de cet article est disponible à cette adresse.
Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : longtemps centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur un partage et une pondération de la subjectivité.
Le premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
Le deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
Dans le troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, trouve aujourd’hui ses limites et doit laisser coexister d’autres approches.
La pairjectivité, thème central de ce dossier, est détaillée dans ce quatrième article.
Le cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.
"Unus pro omnibus, omnes pro uno" (un pour tous, tous pour un).
Devise traditionnelle mais non officielle de la Suisse
Toute connaissance (et conscience) qui ne peut concevoir l’individualité, la subjectivité, qui ne peut inclure l’observateur dans son observation, est infirme pour penser tous problèmes, surtout les problèmes éthiques. Elle peut être efficace pour la domination des objets matériels, le contrôle des énergies et les manipulations sur le vivant. Mais elle est devenue myope pour appréhender les réalités humaines et elle devient une menace pour l’avenir humain.
Edgar Morin
Dans l’article précédent nous avons étudié les limites de l’objectivité en tant que support exclusif de la médecine scientifique. Elle montre depuis quelques années ses travers qui en limitent la portée et ne lui permettent plus de faire progresser la santé.
Cette quatrième partie de notre dossier s’intéresse à certaines approches subjectives ou considérées comme telles [1] qui décrivent assez bien la réalité. La jonction pondérée de nombreuses subjectivités fournit déjà des outils efficaces dans de nombreux domaines. Nous avons choisi pour désigner ce concept le terme de"pairjectivité" par référence à la notion de pairs. Il évoque à la fois la pratique de la "relecture par les pairs" et les réseaux "pair à pair" [2].
Idées-Forces
La fédération de très nombreuses micro-expertises peut aboutir à une expertise de grande qualité.
Cette fédération est permise à grande échelle par le réseau internet.
Toutes les subjectivités ne se valent pas et leur pertinence varie en fonction de l’intérêt à agir.
Il ne suffit pas d’additionner les subjectivités, il faut les pondérer.
Une revalidation régulière est nécessaire pour éviter les dérives et les manipulations.
Les exemples de subjectivités rationnelles et efficaces que nous allons aborder s’appuient sur quelques lois ou principes simples.
En premier lieu, la loi des grands nombres qui permet de créer des groupes comparables par tirage au sort, des sondages fiables, des évaluations précises par mesures multiples moyennées.
Ensuite, l’intérêt à agir : cet intérêt personnel peut être source de conflits, mais aussi facteur de qualité [3].
Enfin, la pondération qualitative et récursive qui permet de ne pas réduire une foule à une somme d’individus identiques, mais de la considérer comme un groupe social régi par des interactions complexes et dynamiques.
La loi des grands nombres
La loi des grands nombres est une loi mathématique, donc réputée objective. Pourtant, son utilisation en médecine choque parfois les esprits cartésiens ; l’intérêt de la randomisation par exemple, qui nous paraît une évidence aujourd’hui, n’a pas été facile à faire accepter aux médecins du début du XXe siècle (voir l’encadré).
Cette loi peut s’énoncer sous plusieurs formes. Deux de ces formulations (simplifiées) nous intéressent plus particulièrement :
La moyenne des résultats de mesures répétées tend vers sa réalité mathématique ou physique : 1000 tirages à pile ou face aboutissent à une proportion de 500/500 avec une précision remarquable, sauf si l’expérience est faussée ou truquée. L’expérience empirique permet d’établir des conjectures avant de les démontrer. De même, la moyenne de nombreuses évaluations métriques indépendantes fournit un résultat d’une grande précision (mesure d’une longueur avec des outils et des opérateurs différents par exemple).
Le résultat d’une mesure réalisée dans un échantillon vaut pour la population dont l’échantillon est issu, à condition que la taille de cet échantillon soit suffisante, et qu’il soit représentatif de cette population (c’est-à-dire qu’il reproduise, dans les mêmes proportions, la diversité de cette population). Cet aspect est le fondement des sondages et surtout des essais cliniques contrôlés [4], piliers de la médecine scientifique et objective du XXe siècle.
Francis Galton fut un des pères de la statistique appliquée aux populations [5] mais aussi un élitiste. Il souhaita prouver qu’un expert donne une meilleure estimation du poids d’un boeuf que n’importe quel quidam de passage dans une foire agricole. Cette expérience s’inscrit dans un courant de remise en cause de la démocratie à la fin du XIXe siècle : comment confier le sort d’un pays aux choix d’individus à courte vue et globalement incultes ! En pratique, si l’expert donna la meilleure estimation du poids de la bête, la moyenne des estimations du public se révèla plus précise et exacte à une livre près. Cette moyenne des évaluations du public correspond tout simplement à une mesure répétée à l’aide d’un outil imprécis : l’appréciation subjective de chaque individu. C’est la moyenne de ces nombreuses mesures subjectives qui, grâce à la loi des grands nombres, devient un résultat d’une grande précision à défaut d’être objectif.
L’autre aspect de la loi des grands nombres qui nous permet de transformer des données subjectives en résultats objectifs est le travail sur des échantillons de population. La meilleure illustration en est le sondage d’opinion. En politique par exemple, le recueil d’intentions de votes (données subjectives) dans un échantillon suffisant permet de décrire la réalité du résultat final des d’élections (fait objectif) avec un intervalle de confiance qui tient compte des fondements subjectifs de cette évaluation. Cette subjectivité réside dans l’information donnée par le sondé (qui peut mentir) et dans la constitution de l’échantillon interrogé, constitution qui fait aussi intervenir une part de subjectivité par le sondeur. D’une certaine façon, la statistique est l’art de rapprocher de nombreuses données subjectives d’une valeur réelle sans passer par la "case objectivité".
Pour revenir à la santé, l’essai clinique contrôlé [6], est une méthode qui tente de prédire une réalité dans une population, comme la différence d’efficacité entre deux médicaments, à partir de son évaluation limitée à deux échantillons d’individus comparables. Là encore, le résultat objectif dérive de la loi des grands nombres. L’intervalle de confiance [7] qui entoure le résultat ne tient plus compte de la subjectivité de la mesure, réputée objective [8], mais de la probabilité de constater une différence due au seul hasard et de conclure à tort à la supériorité d’un des deux médicaments.
Si l’essai clinique contrôlé est devenu un standard scientifique en médecine, c’est parce qu’il est censé ne laisser aucune place à la subjectivité. Nous avons vu dans le troisième article qu’il n’en est rien et qu’après une période de progrès aussi brève que remarquable, la subjectivité est réapparue massivement au sein même de la médecine scientifique.
Histoire de la randomisation
Pourquoi aborder la randomisation dans un article sur la subjectivité ? Tout simplement parce qu’il s’agit d’une méthode statistique qui s’est montrée supérieure à une méthode scientifique traditionnelle. La randomisation n’est pas subjective, mais elle a peiné à s’imposer car elle était perçue comme trop simple et surtout comme empirique.
Pour étudier l’effet d’un médicament, il est nécessaire d’obtenir deux populations de sujets comparables pour évaluer l’effet du produit testé. L’un des groupes reçoit le médicament à étudier et l’autre un médicament différent ou un placebo inactif et indiscernable. L’objectivité traditionnelle (telle que les scientifiques la conçoivent habituellement) veut que l’on répartisse équitablement dans chaque groupe les différents porteurs de déterminants significatifs : sexe, âge, maladies, ethnie, niveau social etc. C’est ce qui était fait dans les études rétrospectives, considérées comme peu fiables car la comparaison a posteriori de patients déjà traités avec des patients témoins ou prenant d’autres médicaments pouvait subir de nombreuses influences et donc biaiser significativement le résultat de l’analyse.
L’étalon-or en terme de qualité scientifique est l’essai prospectif randomisé : ce type d’étude s’intéresse à l’évolution de deux groupes de patients, préalablement constitués (contrairement aux essais rétrospectifs) et recevant deux traitements différents assignés par tirage au sort. La loi des grands nombres est mise à contribution car elle démontre que lorsque l’effectif est suffisant, une répartition aléatoire des sujets dans les deux groupes assure une homogénéité correcte des déterminants au sein des groupes. Il sera alors possible d’attribuer la différence d’effet observée aux traitements [9].
Cette objectivité liée au hasard et fondée sur une loi mathématique constitue peut-être l’un des rares outils vraiment objectif utilisé dans le domaine des sciences humaines. Or si elle nous paraît évidente actuellement, elle est en fait très récente. Introduite par Sir Ronald A Fischerdans les années 20 [10] et appliquée initialement à l’agriculture, elle a d’abord rencontré une vive opposition car sa simplicité apparente et son image subjective heurtaient les collègues de Fischer. C’est l’évidence de son efficacité qui l’a imposée comme nouveau standard dans les années 50. Comme souvent, c’est grâce à une double compétence (ici biologique et mathématique) que Fischer parvint à cette solution aussi simple que révolutionnaire à son époque pour créer deux groupes comparables.
La loi des grands nombres et les outils statistiques permettent donc dans une certaine mesure de traiter des données subjectives pour en tirer des résultats objectifs. Mais en conclure que l’avis dominant pourrait être synonyme de qualité serait bien sûr une erreur. Il suffit qu’un biais touche toutes les évaluations pour que l’on observe la multiplication d’une erreur identique, plutôt que la correction d’erreurs différentes et aléatoires par la loi des grands nombres.
Nous en avons une très belle illustration avec cet extrait d’un jeu télévisé :
Dans cet exemple, les membres du public commettent majoritairement l’erreur de faire confiance à leur observation qui donne l’impression que le soleil tourne autour de la terre. La taille de l’échantillon n’est pas en cause : un public dix fois plus nombreux donnerait sans doute le même pourcentage de mauvaises réponses. Au passage, notons que ce sondage n’est pas transposable à la population française, mais à la sous-population d’individus prêts à venir assister à ce type d’émission ; cette dernière restriction s’applique aussi aux essais cliniques contrôlés : le résultat de l’essai clinique contrôlé est transposable aux patients proches de ceux étudiés, traités par des médecins proches de ceux ayant mené l’essai.
Hors quelques cas particuliers, la loi des grands nombres ne saurait donc suffire à elle seule à transformer des données subjectives en faits décrivant la réalité.
Tout au long de cette argumentation, nous utiliserons un exemple concret pour illustrer notre propos : la lutte contre le spam.
Le spam, cette masse de courriers publicitaires indésirables qui envahissent nos boîtes aux lettres électroniques, a constitué dans les années 2000-2005 une perversion majeure de la communication par internet. Nous allons voir comment ce problème a été résolu par l’utilisation conjointe de la loi des grands nombres, l’intérêt à agir et la pondération récursive qui constituent le trépied de la pairjectivité. Commençons par la loi des grands nombres pour conclure ce chapitre.
L’email (courriel) permet une communication simple et instantanée avec de nombreux correspondants, fédère les minorités et rapproche les familles ou les équipes de recherche dispersées. Des escrocs opportunistes flairent rapidement la possibilité de détourner ce merveilleux outil en un outil de promotion massive et quasiment gratuite. Certes, ce ne fut pas inintéressant sur le plan sociologique, et nous avons pu apprendre avant l’heure que les nord-américains étaient très préoccupés par leurs prêts hypothécaires, mais avaient aussi de fréquents problèmes d’érection et des difficultés à se procurer des photos d’adolescentes nues.
C’est d’ailleurs le caractère très stéréotypé du thème de ces courriels publicitaires qui permet l’apparition des premiers "filtres antispams", suivant une approche objective traditionnelle combinée à une étude statistique. Les messages sont analysés par ces programmes pour y chercher les "mots du spam" les plus fréquents afin de supprimer ces courriels avant même qu’ils n’arrivent dans votre boîte aux lettres. Hélas, les escrocs trouvent la parade en commettant des fautes d’orthographe volontaires ou en postant des images dont le contenu écrit, lisible par l’oeil, ne peut l’être par la machine "trieuse". Dans le même temps, ces antispams primitifs et peu spécifiques détruisent injustement le courrier de vos amis ou collègues. L’analyse objective traditionnelle et statistique de "l’objet courrier" pour détecter le spam, suivant des règles préétablies et rationnelles, était donc mise en échec par les faussaires. Nous retrouvons là le mécanisme d’échec de la norme : comme celle-ci est connue et qu’elle ne porte que sur la qualité interne, intrinsèque, de l’objet étudié [11], elle favorise les faussaires et les opportunistes qui sortent toujours gagnants de ce combat où ils excellent, de ce concours dont le sujet est connu à l’avance. Les perdants sont des éléments de qualité (votre courrier non publicitaire en l’occurrence) qui échouent au "passage" de la norme parce qu’ils n’ont pas été conçus dans cet objectif ; leur grande variété naturelle conduit à un pourcentage faible mais significatif assimilé à tort à du spam par un tri statistique portant sur leur contenu. Cet élément fondamental se retrouve dans de nombreux autres domaines. Si une norme s’applique à des actions un tant soit peu complexes et variées, elle aboutit inexorablement à sélectionner l’aptitude à passer la norme et non la qualité de l’action elle-même. De plus en imposant une diminution de la diversité, elle met hors-jeu certaines actions dont la qualité est pourtant exceptionnelle, "hors-norme" [12]. En pratique, la loi des grands nombres n’a pas permis à elle seule de lutter efficacement contre le spam. Nous allons voir que d’autres éléments doivent la compléter pour permettre d’évaluer la qualité des courriers électroniques.
L’intérêt à agir
Nos actions sont le plus souvent dictées par un intérêt, personnel ou altruiste, financier ou intellectuel, ou encore affectif. Leur subjectivité se trouve donc orientée dans un sens qui peut être éloigné de la qualité (jalousie, corruption, corporatisme, honte...) ou s’en rapprocher (concours [13], crainte des conséquences d’un mauvais choix, nécessité d’aboutir à un accord équitable...) [14].
Nous sommes plus attentifs lorsque nous travaillons pour nous que lorsque nous le faisons pour un tiers ou pour la collectivité. Les dégradations subies par les biens communs le démontrent tous les jours.
Dans l’expérience de Galton, le public évaluant le poids du boeuf ne subit pas de biais faussant sa mesure. Chacun cherche à faire la meilleure évaluation. Le seul biais pourrait provenir d’un boeuf beaucoup plus lourd ou léger qu’il n’y paraît ; toutes les estimations seraient alors, comme leur moyenne finale, biaisées dans un sens ou dans l’autre. En l’absence de biais, la moyenne des mesures tend vers la réalité : le véritable poids du boeuf.
Dans le jeu télévisé, chacun cherche aussi à donner la bonne réponse, mais avec un biais majeur qui correspond à son observation faussée, laissant penser que c’est le soleil qui tourne autour de la terre. Le public ne cherche pas à tromper le candidat, il n’a néamoins aucun intérêt personnel à donner la bonne réponse, intérêt qui aurait pu le conduire à mieux fouiller dans ses souvenirs scolaires.
Quand l’intérêt trahit la réalité
Les sondages politiques illustrent l’impact négatif de l’intérêt personnel dans des résultats statistiques présentés comme objectifs. En s’appuyant sur la loi des grands nombres, ces sondages prédisent souvent les résultats finaux avec une étonnante précision, mais il existe des exceptions. Lors du premier tour de l’élection présidentielle française de 2002 aucune des grandes sociétés de sondage ne prédit l’arrivée de Jean-Marie Le Pen devant Lionel Jospin, 4 jours avant l’élection. L’origine de cette erreur est connue : elle consiste en laréticence des sondés à assumer un choix non consensuel. Les sociétés de sondage avaient pourtant effectué descorrections pour tenir compte de ce biais constaté lors d’élections précédentes, corrections qui se sont révélées insuffisantes pour cette élection en particulier.
De façon générale, les intérêts à agir créent ce que l’on appelle des conflits d’intérêts, qui sont une des plaies de notre système de santé.
Avoir plusieurs conflits d’intérêts ne les annule pas. Il est fréquent d’entendre dire que la pluralité des conflits d’intérêt chez un même individu (médecin prescripteur, expert) en annulerait les conséquences. Malheureusement il n’en est rien : ces conflits s’additionnent car ils ne sont pas antinomiques, l’individu favorisera, consciemment, ou non les produits ou concepts auxquels il est lié, et sera plus critique (ou seulement muet) au sujet des autres. Une annulation des conflits par un effet miroir voudrait que l’individu présente un lien (financier ou intellectuel) identique avec la totalité des acteurs de son domaine, ce qui n’est envisageable que s’il est salarié d’une structure financée collectivement par tous les acteurs [15].
Quand l’intérêt va dans le sens de la qualité/réalité
L’intérêt personnel n’aboutit pas obligatoirement à un conflit et à un biais. Il peut au contraire permettre qu’une subjectivité tende vers la réalité.
Intéressons-nous aux paris, qui font pendant aux sondages. Lorsque des individus parient sur une situation dans l’espoir d’un gain si leur choix se réalise, leur expertise ne subit aucun conflit [16] car leur intérêt est de ne pas se tromper (ce qui n’est pas le cas dans un sondage). La cote des options est souvent le meilleur outil de prédiction de celle qui l’emportera au final. Tout récemment, la victoire de Barak Obama aux primaires démocrates a été prédite par les bookmakers bien avant les instituts de sondage ou les experts politiques [17]. La moyenne des paris peut donc constituer une sorte de subjectivité optimisée par le nombre des parieurs et leur intérêt à ne pas se tromper [18].
Si vous voulez optimiser vos investissements, il est intéressant de savoir quelles sont les actions que les analystes financiers ont achetées pour leur propre patrimoine. Cette information pourrait être plus pertinente que leurs recommandations publiques [19].
Si vous voulez savoir quel est le meilleur traitement de l’hypertension artérielle, il est intéressant de savoir ce qu’utilisent les médecins pour leur propre hypertension. Cette information pourrait être plus pertinente que les recommandations publiques [20].
Un exemple issu d’une des périodes les plus noires de notre Histoire illustre peut être mieux la force de la subjectivité lorsqu’elle tend vers un l’intérêt de l’acteur (et un équilibre entre intérêts divergents). Primo Levi raconte [21] comment un morceau de pain était partagé dans les camps de la mort ; les déportés avaient trouvé le procédé subjectif le plus efficace pour couper équitablement leur maigre ration : l’un coupait et l’autre choisissait sa moitié le premier, incitant ainsi son compagnon à une découpe la plus égale possible.
Citons l’évaluation du cours des actions en bourse. Une approche objective pourrait consister à mesurer la valeur des actifs de la société, ainsi que ses perspectives d’avenir. Les achat et ventes s’effectueraient alors au prix fixé par des experts. La méthode qui a été retenue [22] est au contraire subjective : le prix d’une action correspond au prix le plus bas auquel un possesseur est prêt à vendre son action, s’il correspond au prix qu’au moins un acheteur est prêt à payer. Nous avons des raisons de penser que ce prix est juste. Dans notre économie de marché, le prix de nombreux services est fixé par le marché de l’offre et de la demande, qui n’est pas le plus mauvais système. Si cela vous paraît une évidence, interrogez vous sur votre réaction si l’on décidait d’appliquer ce principe au prix des prestations médicales [23].
Reprenons notre exemple du spam là où nous l’avons laissé. L’analyse objective des courriers électroniques, fondée sur leur contenu et utilisant des méthodes statistiques, n’avait pas permis de séparer le spam des courriels de vos correspondants. Nous sommes au milieu des années 2000 et la situation est préoccupante car elle rend pénible la communication par email.
Après ce premier échec, certains ont l’idée de créer des systèmes intelligents qui améliorent leur aptitude à trier le spam du non-spam après un apprentissage. Cette approche statistique élaborée consiste à indiquer au logiciel quelques centaines de messages considérés comme du spam (et autant de non-spam) afin qu’il détecte des éléments communs dans ces courriers (contenu, format, émetteur, syntaxe). Le résultat, un peu meilleur, reste néanmoins insuffisamment fiable et définir un spam avec précision à partir de son contenu est toujours aussi difficile. L’introduction d’intelligence artificielle dans l’évaluation de la qualité intrinsèque du courrier ne suffit pas à la rendre pertinente.
La solution, relativement récente, émane d’une approche totalement subjective. Cette méthode associe un intérêt commun et majoritaire : supprimer le spam, et la mutualisation d’actions convergentes grâce au réseau internet et à des agents permettant un traitement statistique de l’information.
Elle est d’une simplicité biblique et repose sur un élément statistique combiné à l’intérêt personnel d’agir pour la qualité : un spam est un courrier que de nombreux internautes considèrent comme un spam et que peu d’autres considèrent comme un courrier normal. Cette régle peut s’appliquer car le spam présente une caractéristique qui le perd : il est multiplié à l’identique et toutes les "victimes" reçoivent le même message [24]. Il se trouve que cette subjectivité mutualisée que nous appelons pairjectivité (en référence aupair à pair et au peer rewieving [25]) a permis à la fois de définir avec une grande précision un objet, et de résoudre un problème qui résistait à une approche objective traditionnelle. Chaque fois qu’un internaute lisant son courrier à l’aide d’un service web [26] qualifie un courrier reçu comme un spam, ce courrier est identifié et entré dans une base de données commune à tous les utilisateurs. Dès que quelques dizaines d’internautes classent ce courrier comme du spam, il est automatiquement évincé de la boîte de réception des millions d’autres abonnés. Ces derniers reçoivent tout de même ces spams, mais ils sont déjà rangés dans une sorte de dossier/poubelle provisoire. En cas d’erreur de tri, les internautes peuvent inspecter ce dossier et requalifier le courrier en non-spam, modifiant les données générales communes concernant ce courriel.
Le spam est vaincu par une méthode subjective s’appuyant sur la loi des grands nombres et une action intéressée de l’internaute guidée par la seule recherche de la qualité de son action :
Un spam est adressé à de très nombreux destinataires, permettant à ceux-ci de mutualiser leur analyse sur un objet unique et de faire jouer la loi des grands nombres.
Il est dans l’intérêt de l’internaute de trier correctement son courrier.
Plus accessoirement, il est bien sûr important que l’internaute soit capable de déterminer en lisant un courrier si celui-ci est un spam ou un courrier normal [27]. Nous sommes là dans une situation idéale où chaque acteur est un quasi expert, et aussi un pair : c’est-à-dire un utilisateur de courrier électronique et non un quelconque quidam.
Cette technique antispam est une sorte de peer-review du courrier électronique, réalisée par des millions de pairs dénués de conflits d’intérêt avec leur mission, bien au contraire. C’est pourquoi nous parlons de pairjectivité pour ces succès résultant de la fédération de subjectivités.
Si nous analysons les raisons du succès de l’antispam pairjectif, nous recensons :
Un problème commun à des millions de personnes : le spam.
Un acte réalisé par un individu qui peut intéresser presque tous les autres : classer un courrier comme spam.
Un outil qui agrège tous ces actes et en fait une synthèse en temps réel : un site de lecture de mails en ligne (webmail).
Une mise en minorité de ceux qui cherchent à pervertir le système : les escrocs spammeurs.
Un bénéfice en retour pour tous ceux qui sont connectés à ce réseau : utiliser les choix des autres pour pré-trier son propre courrier.
Une validation permanente pour éviter les dérives : chacun peut requalifier dans son propre courrier un spam en non-spam et cette requalification est prise en compte par le système antispam.
Une prise en compte de la qualité externe ou extrinsèque remplaçant les critères de qualité interne : le contenu du message n’a plus d’importance pour le qualifier.
Il reste certes les spammeurs, mais ceux-ci n’ont aucune chance de pouvoir manipuler l’outil car ils sont trop peu nombreux par rapport à la masse des internautes honnêtes et désireux de trier correctement leur courrier.
Notez qu’après l’exemple de la qualification de l’information par Google détaillée dans le deuxième article, la mise en réseau de microexpertises est encore dans cet exemple un élément fondamental du succès de la pairjectivité.
En pratique, lorsque des parties ont un intérêt personnel ou commun à faire un choix allant vers la qualité, certaines méthodes subjectives peuvent apporter une aide précieuse pour évaluer un objet ou un service.
Deux éléments supplémentaires et souvent liés vont néanmoins permettre d’améliorer encore l’efficacité du couple grands nombres - intérêt à agir vers la qualité.
La pondération et la validation récursive
Les opinions subjectives sont-elles toutes d’égale valeur ? Non, bien sûr. Pour optimiser la pairjectivité, nous devons attribuer un poids différent aux opinions, qui tienne compte de celui qui les émets.
Fréquentant une liste de discussion de gynécologues, nous constatons que, comme sur toutes les listes professionnelles, il s’y échange de nombreux avis et points de vue médicaux. Cette liste est très ancienne, ses membres se connaissent bien et constituent une communauté virtuelle.
Nous avons réalisé en 2007 un sondage sur cette liste : A qui (quoi) faites-vous le plus confiance pour la réponse à une question que vous vous posez :
Un orateur dans un congrès
Une recommandation de la Haute Autorité de Santé (HAS) reposant sur le travail d’un collège d’experts
L’avis majoritaire de vos confrères sur la liste ? Merci de donner une note sur 10 à chacun de ces trois canaux d’information.
Le résultat [28] est le suivant :
orateur 5/10
HAS 6,2/10
Avis majoritaire des confrères de la liste 7,6/10
Ce qui est frappant, c’est que les sondés ayant bien noté la troisième option ont tenu à préciser qu’il ne s’agissait pas pour eux de l’avis majoritaire, mais d’un avis global pondéré par la personnalité des émetteurs de conseils.
Cette pondération, consciente ou non, correspond à notre comportement quotidien. Nous recevons en permanence une masse d’informations subjectives concernant tous les aspects de notre vie (achats, précautions, santé, assurances, éducation de nos enfants, comportement...). Nous n’accordons pas le même poids à toutes ces informations et les confrontons en permanence à l’image que nous avons de leurs émetteurs. Cette image est liée à des facteurs aussi variés que leur qualification, la justesse d’autres conseils donnés précédemment, les recommandations dont bénéficie cet émetteur au sein de notre réseau de contacts.
La notion de confiance qui sous-tend notre évaluation qualitative est finalement fondée :
Sur le nombre (des avis concordants) ;
L’intérêt à agir pour notre bien (le visiteur médical est-il crédible lorsqu’il nous parle de son médicament ?) ;
La pondération directe (ce médecin doit savoir ce qu’il dit) ou maillée (ce chirurgien m’a été recommandé par mon généraliste et par mon kinésithérapeute).
Ce fonctionnement pairjectif qui nous paraît naturel est bien éloigné de la mesure officielle de la qualité telle qu’elle fonctionne dans le monde de la santé.
Pairjectivité : choisir un chirurgien recommandé par des amis, ses médecins et son kinésithérapeute.
Qualité interne : obtenir un annuaire de chirurgiens, examiner leurs titres et qualifications, noter le score [29] et vérifier l’accréditation de la clinique où il opère, vérifier le nombre de plaintes dont il a été l’objet [30].
Nous avons vu dans le deuxième article que la première application à grande échelle de la pairjectivité est l’algorithme de recherche du moteur de recherche Google et notamment le système de pondération PageRank. Cet algorithme est récursif, c’est-à-dire que le poids de chaque recommandation est augmenté lorsque son émetteur est lui-même recommandé par d’autres émetteurs. Nous avons nous aussi un fonctionnement récursif et accordons plus de confiance à ceux qui sont recommandés par d’autres membres de notre réseau relationnel.
Lors des sondages d’intention de vote, les sociétés appliquent aux prévisions un facteur de correction déduit des élections précédentes, tenant compte des principaux biais connus. Notamment, ils savent que les intentions de vote pour le Front National sont souvent sous-déclarées. Il s’agit bien d’une correction récursive, permise par la comparaison pour chaque élection de la réalité (le résultat de l’élection) avec leurs prévisions fondées sur des moyennes d’avis subjectifs.
La récursivité et la revalidation régulière sont des éléments fondamentaux du succès de la pairjectivité.
Internet permet de multiplier par un facteur mille la taille du réseau pairjectif que nous utilisons intuitivement pour évaluer la qualité dans notre vie quotidienne.
Reprenons une dernière fois notre fil rouge, l’exemple de notre lutte contre le spam. L’outil pairjectif a réussi à nous débarrasser du spam en se désintéressant de son contenu (qualité interne) pour se concentrer sur un classement réalisé par des milliers d’utilisateurs (qualité externe). Il reste une possibilité pour affiner le service et le rendre encore plus performant : tenir compte de la qualité des utilisateurs. Celui qui se trompe souvent et classe comme spam un message requalifié en courrier normal par les autres utilisateurs verra sa "réputation" décotée. Au contraire, l’utilisateur qui classe de nombreux spams à bon escient sera plus crédible et surpondéré par le logiciel antispam. Il est même possible d’envisager un classement flou : certains courriers d’annonces commerciales sont qualifiés comme spams pour certains utilisateurs, mais pas pour d’autres. Le service devient alors complètement personnalisé et adapté à chacun. Le spam permet très facilement de confronter le classement subjectif à la réalité : face à la présélection réalisée par l’algorithme, l’utilisateur requalifie en permanence ce choix en examinant son courrier et sa poubelle à spam. Là encore, aucune dérive n’est donc possible du fait de cette revalidation permanente.
Bien sûr, le soin et la santé sont bien plus compliqués que le spam ou les sondages d’opinion. Il vous est facile de déterminer si un de vos courriers est un spam ; en revanche, une grande part de la médecine étant préventive, il est bien plus difficile de se fier au résultat immédiat du soin ou d’un régime alimentaire par exemple. Le risque est de se laisser influencer par la qualité externe ressentie à court terme alors qu’elle pourrait être associée à une qualité externe réelle déplorable [31].
C’est pour échapper à cette appréciation erronée fondée sur le court terme que notre système de santé privilégie la mesure de la qualité interne. Mais notre erreur a été d’abandonner totalement la qualité externe et d’ériger la qualité interne en dogme, appliquant à l’humain une approche industrielle obsolète singeant l’économie collectiviste. La gestion de la santé en France est très proche de la gestion soviétique planifiée :
Définition des besoins et de la qualité par des experts plus ou moins indépendants [32].
Production uniformisée, laissant peu de place aux variantes nées de besoins particuliers [33].
Contrôles tatillons, envahissants et paralysants [34].
Convocation des agents hors-norme pour les remettre dans le "droit chemin" [35].
Inflation de l’administration du service, au détriment de ses acteurs [36].
Produits et services dépassés, évoluant peu [37].
Valorisation des procédures (qualité interne) et des produits "bien conçus" à défaut d’être utiles [38].
Déconnexion du client et de ses besoins (qualité externe) [39].
Files d’attente, délais [40].
Produits ou services chroniquement indisponibles ou mal répartis [41].
Démotivation des agents les plus brillants [42].
Institutionnalisation de la corruption [43].
Apparition d’une économie parallèle inaccessible aux plus démunis [44].
Grands chantiers à la gloire du Secrétaire général Président [45].
Faudra-t-il une "Santestroïka" pour s’évader du cul-de-sac objectivité/qualité interne qui étouffe la santé ?
La pairjectivité sera-t-elle l’outil qui permettra d’explorer de nouveaux domaines féconds et porteurs de progrès ?
Pour connecter la pairjectivité avec d’autres éléments concrets, nous allons étudier dans le cinquième article un système pairjectif qui a fait ses preuves depuis 500 millions d’années.
Vers l’article suivant du dossier
Vous pouvez réagir à cet article sur le Forum
Notes
[1] La définition exacte de la subjectivité est complexe et ses limites sont floues.
[2] Respectivement peer review et peer to peer, et peerjectivity en anglais.
[3] Cet "intérêt à agir" est différent du concept juridique.
[4] Voir le troisième article qui concerne l’objectivité.
[5] Il fut aussi et malheureusement le père de l’eugénisme et du darwinisme social, dévoiement de la théorie de l’évolution, destiné à justifier le colonialisme puis plus tard l’eugénisme nazi.
[6] Comparaison de deux médicaments, ou d’un médicaments par rapport à un placebo, à l’aide de deux groupes de patients semblables traités différemment. La différence de résultat observée entre les deux groupes reflète la différence d’effet des traitements si le protocole élimine correctement les causes de biais.
[7] Intervalle dans lequel le résultat a une forte probabilité de se trouver. Lorsqu’on lit que X sera élu avec 54 à 56% des voix avec un intervalle de confiance de 95%, cela signifie qu’il n’y a que 5% de chance pour que X recueille moins de 54 ou plus de 56% des voix.
[8] Quoique... Nous avons vu dans l’article précédent que la fraude ou le biais de confirmation d’hypothèse sont omniprésents en science.
[9] D’autres conditions sont nécessaires pour évaluer le plus objectivement possible un médicament lors d’un essai clinique mais sortent du cadre de cet article.
[10] Extrait malheureusement incomplet mais émouvant disponible sur GoogleBooks.
[11] Notion développée dans l’article introductif.
[12] Certains y voient une nouvelle forme de barbarie.
[13] Notez que de nombreux concours sont uniquement destinés à inciter le candidat à documenter soigneusement ses coordonnées sur le bon de participation. Ces données seront utilisées pour des opérations de marketing. En faisant miroiter un des lots, l’opérateur s’assure des milliers de fiches de contact qui auraient été bâclées ou jetées en l’absence de concours.
[14] Adam Smith a popularisé au XVIIIe siècle la notion de main invisible qui est un des fondements du libéralisme. Cette main invisible souffre d’un optimisme exagéré comme l’avenir l’a démontré : une grande partie de nos actes spontanés aboutissent à affaiblir le groupe à notre avantage. Le libéralisme sans limite aboutit aux deux cents familles et à une paupérisation massive de la population.
[15] Ce fonctionnement est celui du service public. Dans l’expertise sanitaire, de nombreux experts sont des fonctionnaires ou assimilés. Malheureusement, ils sont aussi impliqués intellectuellement ou financièrement à titre privé dans les projets sur lesquels ils donnent leur opinion. Si nous transposions ce principe, cela pourrait correspondre à un contrôleur du fisc qui serait par ailleurs consultant pour la société qu’il contrôle, ou pour sa concurrente.
[16] Aucun conflit, mais bien sûr de nombreux biais comme l’expression de toute opinion personnelle.
[17] Lire à ce sujet cet article des Echos.
[18] Il existe alors un biais d’échantillonnage : une population n’est pas constituée que de parieurs.
[19] Les conflits d’intérêts des analystes financiers constituent une situation très proche de celle rencontrée en médecine.
[20] Cette information est contenue dans les bases de données de l’assurance maladie française. A ma connaissance, elle n’a jamais été traitée ni publiée.
[21] Dans Si c’est un homme
[22] Méthode retenue dans le cadre de l’économie de marché. Le modèle soviétique par exemple était différent et s’apparentait plus au fonctionnement actuel de notre système de santé(cfs infra).
[23] En dehors de la chirurgie esthétique, qui l’applique déjà.
[24] Les spammeurs ont bien tenté de créer des messages au contenu variable, mais il existe au moins une partie commune : le lien vers le service dont le spam fait la promotion.
[25] En français : Comité de lecture. En France, un comité de lecture est parfois un filtre permettant de s’assurer de la qualité d’une publication (appréciation éminament subjective) et trop souvent un aéropage de noms permettant de donner de la crédibilité à une information fausse ou sans intérêt.
[26] Le système fonctionne au mieux avec les internautes qui lisent leur courrier en ligne sur un site web comme Yahoo ou Gmail, et non avec un programme de leur ordinateur (Outlook). En effet, c’est l’action en ligne de l’utilisateur qui permet au service une réactivité ultrarapide, alors qu’un courrier préalablement téléchargé perd ses interactions avec le serveur.
[27] Le taux de bon classement n’est pas de 100%. Nous retrouvons le concept de qualité/pertinence de Google, évoqué dans le deuxième article : un spam n’est pas un spam pour tout le monde, et un courrier valide ne l’est pas non plus pour tout le monde. D’où la nécessité d’un service qui s’affine en fonction de l’utilisateur, comme nous le verrons au paragraphe suivant, et qui est à l’opposé d’un nivellement qui fait si peur à ceux qui connaissent mal le Web 2.0.
[28] Une dizaine de réponses seulement, mais très homogènes. Ce sondage sera répété sur d’autres listes.
[29] Score établi par des magazines à partir de données objectives sur la formation du personnel, la consommation de désinfectants ou le nombre d’infections nosocomiales.
[30] Données non disponibles en France.
[31] Un exemple caricatural : traiter un asthme sur le long terme avec de la cortisone en comprimé donne un résultat brillant, mais des effets à long terme dramatiques. Au contraire, un dérivé de cortisone par spray agira moins vite et moins brillamment, mais ses effets indésirables à long terme sont minimes. Plus banalement : certains traitements pour l’excès de cholestérol vont permettre de faire baisser votre taux sanguin et donc normaliser vos analyses ; mais un effet délétère sur un autre équilibre, non mesurable, va augmenter votre risque d’infarctus, qui est en fait la seule chose importante.
[32] En France, les conseillers des ministres et les experts des agences gouvernementales peuvent sans difficulté ni honte être rémunérés comme consultants par les firmes pharmaceutiques.
[33] L’assurance maladie française veille à ce que les prescription des médecins ne s’éloignent pas des recommandations de la Haute Autorité de Santé.
[34] L’assurance maladie renforce ses contrôles sur les prescripteurs pour vérifier les respect des normes édictées par les autorités sanitaires.
[35] Forte pression sur les médecins, convocations et menaces de poursuite en cas de prescription hors "cadre".
[36] Les effectifs administratifs à l’hôpital ont dépassé ceux des soignants.
[37] Le progrès thérapeutique est en panne depuis 20 ans, à l’exception de la chirurgie, peu encadrée.
[38] L’autosatisfaction, caractéristique de l’économie collectiviste, est une constante dans le monde des institutions sanitaires.
[39] Le "client" est d’ailleurs le plus souvent un usager et/ou un patient. N’étant pas client au sens commercial et contractuel du terme, l’usager/patient n’a pas voix au chapitre.
[40] Retards fréquents, demande supérieure à l’offre dans certaines spécialités.
[41] Délais de rendez-vous pouvant atteindre un an dans certaines spécialités.
[42] Phénomène surtout visible à l’hôpital où le carcan administratif est le plus étouffant.
[43] Voir la loi anti-cadeaux et la lettre-pétition contre la corruption, restée sans réponse à ce jour.
[44] Les médecins spécialistes sont majoritairement en "secteur II" et pratiquent des dépassements d’honoraires qui les rendent inaccessibles aux revenus modestes.
http://www.atoute.org/n/Qualite-et-sante-4-La.html
Qualité et santé : 5) La Vie est pairjective, elle ne connaît ni norme ni expert à vie
Dans le domaine de la santé, le concept de qualité a subi une profonde évolution : longtemps centré sur le résultat, il concerne désormais les procédures de soin, aboutissant à leur normalisation.
Ce dossier, divisé en cinq articles, propose une nouvelle approche de la qualité fondée sur une subjectivité partagée et pondérée.
Le premier article rappelle la définition de la qualité en santé et son évolution au cours des âges.
Le deuxième article fait un détour par le moteur de recherche Google qui a révolutionné le classement de l’information grâce à son approche subjective des critères de qualité.
Dans le troisième article, nous verrons que l’objectivité scientifique, moteur de progrès et de qualité au XXe siècle, trouve aujourd’hui ses limites et doit laisser coexister d’autres approches.
La pairjectivité, thème central de ce dossier, est détaillée dans le quatrième article.
Ce cinquième article compare nos procédures qualitatives actuelles à un système pairjectif qui a fait ses preuves depuis 500 millions d’années.
Dans l’article précédent, nous avons présenté la pairjectivité, connexion pondérée de multiples subjectivités orientées vers la qualité. Notre expérience montre que malgré des réussites concrètes (la lutte contre le spam, le fonctionnement des moteurs de recherche, nos comportements sociaux) nombreux sont ceux qui rejettent cette approche jugée empirique, au mieux approximative et donc par principe sans valeur. Il se trouve que la Vie, en tant que système qui a donné naissance aux espèces terrestres, n’a pas retenu l’approche objective dans laquelle la santé s’enlise en voulant copier la méthodologie des sciences fondamentales. Au contraire, elle a sélectionné une approche parfaitement pairjective.
Idées-Forces
La vie progresse sans se soucier de qualité interne.
L’ADN ne contient pas le plan détaillé des organismes vivants.
La Vie valorise le progrès sans chercher à le programmer.
La Vie entretient une savante diversité, garante de sa propre survie.
"The best thing that governments can do to encourage innovation is get out of the way [1]."
R.E. Anderson
Que ce soit dans l’organisation sociale des bactéries et leurs extraordinaires capacités adaptatives, dans le fonctionnement de notre système immunitaire ou de notre cerveau, le moteur de la réussite et du progrès est toujours le même. Les procédures objectives de mesure de la qualité interne n’y tiennent quasiment aucune place.
Certains pensent que notre ADN contient le programme qui régit notre fonctionnement et le décrit dans ses détails. Tel le plan d’une parfaite organisation ou d’une usine, il contiendrait la liste des meilleures stratégies, après des années de sélection naturelle ayant permis de l’affiner, d’en éliminer les imperfections et de l’adapter à notre milieu. Seuls notre caractère ou notre éducation seraient influencés par notre environnement et notre parcours personnel.
D’ailleurs, un des principaux modèles humains de l’amélioration de la qualité paraît s’inspirer de cette illusion. Il teste des procédures et les améliore sans cesse :
- Roue de Deming illustrant la méthode PDCA
Cette roue représente graphiquement le concept qualité PDCA qui décrit les quatre étapes successives de la démarche d’amélioration de la qualité :
Identifier un problème puis programmer, préparer une méthode pour le résoudre.
Faire, agir suivant le plan que l’on vient de préparer à l’étape précédente (to do en anglais)
Vérifier, valider l’effet de la solution mise en oeuvre (to check en anglais)
Intégrer la solution (to act en anglais) si elle a été validée par l’étape précédente. Repartir pour un tour de roue pour progresser encore ou pour réétudier une solution non validée. Le système qualité est le cliquet qui empêche le retour en arrière.
En pratique la méthode qualité PDCA est très répandue. Elle y est considérée comme un modèle d’approche objective et scientifique pour résoudre les problèmes. Elle est utilisée en entreprise, dans les administrations, les hôpitaux et pour l’évaluation des pratiques professionnelle des soignants.
L’ADN ne contient pas le plan de notre organisme
La Vie n’a pas sélectionné la méthode PDCA. La sienne est à la fois plus simple dans son principe et plus complexe dans sa mise en oeuvre.
Notre génome ne comporte pas plus de 100000 gènes c’est-à-dire quasiment rien quand on sait que le programme qui a permis d’écrire ce texte contient des centaines milliers de lignes de code.
Le principe qualitatif qui permet à la Vie de progresser s’articule sur 5 étapes proches de la pairjectivité [2] :
Favoriser la multiplication d’agents présentant des points communs : cellules, bactéries, immunoglobulines, espèce, tribu.
Favoriser une grande diversité au sein de ces groupes, sur un mode aléatoire : recombinaisons et mutations de l’ADN, protéines aléatoires ; variété des comportements et des caractères dans les espèces supérieures.
Identifier les agents qui semblent résoudre des problèmes : c’est-à-dire ceux qui améliorent leur propre condition ou qui améliorent la capacité du groupe à progresser.
Privilégier ces agents efficaces : améliorer leurs ressources, augmenter leur nombre en gardant un peu de diversité. Cette diversité conservée permet d’affiner la résolution du problème par un cycle supplémentaire (le plus souvent en augmentant leur descendance et en incitant les membres de leur groupe à les soutenir).
Diminuer les ressources des agents qui échouent de façon répétée ou les inciter à l’autodestruction afin de pouvoir mobiliser les ressources libérées au profit des agents qui réussissent (apoptose cellulaire, maladie, exclusion du groupe, dépression, accès restreint à la nourriture commune, baisse de libido, refus de l’accouplement par les autres membres du groupe).
Par le mot agent, il faut comprendre individu ou surtout groupe d’individus : tribu, colonie, essaim, meute, horde, espèce...
Comme le rappelle Bloom, la compétition darwinienne concerne au moins autant les groupes que les individus. Cet aspect souvent oublié de la théorie de l’évolution permet de comprendre que des sentiments comme la compassion, la solidarité ou la générosité aient pu se développer au sein des espèces sociales : ces comportements sont utiles pour le groupe. Le darwinisme n’est pas synonyme d’une compétition sans merci entre individus, c’est le plus souvent une compétition entre groupes.
La Vie est à la fois bienveillante avec l’initiative et peu indulgente pour l’échec, sauf si ce dernier fait partie d’un processus d’apprentissage nécessaire. Elle est l’arbitre d’une compétition profondément juste : pas de conflits d’intérêts, de despotes, d’experts à vie, de normes. C’est un combat stimulant qui permet à chaque agent seul ou regroupé en équipe de développer ses propres stratégies et de les tester. La Vie se contente d’être un arbitre impartial, de multiplier les gagnants, et de raréfier les perdants, sans jamais les faire disparaître : elle sait que le perdant d’un jour pourra être le gagnant de demain. Elle entretient donc une savante diversité, tout en privilégiant les agents les plus performants à un moment donné, agents dont la position priviligiée est remise en cause en permanence, par exemple à chaque cycle reproductif.
La Vie entretient des hiérarchies dans les groupes sociaux, hiérarchies qui peuvent être très élaborées. Mais ces hiérarchies sont labiles, remises en cause en permanence. Il n’y a pas d’académie, de "haut comité", de situation définitivement acquise. La hiérarchie n’existe que parce que le groupe la valide en permanence et les positions dominantes ne sont pas transmissibles. L’existence de ces hiérarchies, nécessaires au fonctionnement social, explique aussi pourquoi la Vie ne favorise pas la création exclusive d’élites. C’est par un savant dosage de nos aptitudes (et inaptitudes) que nos groupes ou nations fonctionnent.
En revanche, contrairement à la méthode PDCA, la Vie ne planifie pas, ne prépare presque rien : elle laisse l’initiative à ses agents. Cette souplesse lui permet de gérer un nombre infini de problèmes simultanément. Notre ADN ne contient pas le plan de notre intelligence mais les outils qui vont lui permettre de se développer. Pour la Vie, il est inutile d’identifier les problèmes à résoudre : les agents s’en chargent et tentent des solutions en temps réel. Elle ne connaît ni norme, ni recommandation, ni procédure : elle se contente d’amplifier le succès et d’entretenir avec soin la diversité.
La méthode PDCA est lente et n’analyse qu’un problème à la fois
La méthode PDCA qui analyse objectivement UN problème, réunit des experts, rémunère des consultants, puis tente de construire une stratégie globale, est désormais obsolète. Il nous faut accepter l’idée qu’elle n’est efficace que pour résoudre des problèmes simples et ponctuels, plutôt mécaniques qu’humains. Elle est apparue à une période de développement scientifique intense, mais est incapable de résoudre les problèmes complexes qui concernent les sciences de l’Homme, et notamment la médecine. De plus, dans un monde aussi mouvant que le nôtre, sa lenteur la conduit à générer des solutions périmées avant même d’être finalisées. Face à 500 millions d’années d’évolution darwinienne, la méthode PDCA n’est même pas une étape, c’est un instant dans la quête de la qualité et la recherche du progrès qui anime tout ce qui vit.
Le fait que la Vie n’ait pas retenu la méthode PDCA devrait interpeller les sceptiques et les partisans de la qualité interne fondée sur l’évaluation des processus et non des résultats. La question qui se pose est de savoir pourquoi nous nous sommes enfermés si longtemps dans cette impasse. Sont-ce les errances du nauséabond darwinisme social [3] ? Est-ce la quête de l’objectivité, Graal de scientifiques grisés par les succès indéniables de la méthode expérimentale ? Est-ce la peur d’une remise en cause de situations personnelles ? Ou est-ce tout simplement le refus viscéral d’un retour à la qualité externe, validant les résultats et non la méthode ?
Nous en sommes arrivés, avec l’avènement de la qualité interne, au règne de la norme et du faire-savoir et à la fin de celui du savoir-faire, forgé par des centaines de millions d’années d’évolution.
Parallèlement, un nouveau système évolutif est en train d’émerger. Il ne constitue pas un retour en arrière mais une reconstruction. La transmission des idées complète la transmission des gènes, et obéit aussi à des lois darwiniennes ; la mémétique est désormais le moteur évolutif de l’espèce humaine : elle décrit une transmission des organisations et des compétences qui échappe désormais à l’ADN (génétique) et utilise les canaux de l’éducation et de la communication.
La Vie a fait son choix : l’empirisme non planifié qui valorise la réussite spontanée
La Vie a donc choisi l’empirisme et a renoncé à programmer le succès. La subjectivité y est la règle. Il serait très réducteur de penser que la sélection darwinienne fonctionne avec une règle objective unique et simple : "le meilleur individu survit et se reproduit". C’est le plus souvent le groupe qui est l’unité évolutive [4]. Son fonctionnement interne s’appuyant sur des hiérarchies complexes et la valorisation des éléments qui le font progresser constitue un modèle de pairjectivité.
Il est temps d’abandonner ces notions trompeuses de subjectivité et d’objectivité : une stratégie est efficace (elle résoud des problèmes ou permet le progrès) ou elle ne l’est pas. Son mode opératoire n’a qu’un intérêt anecdotique.
La méthode PDCA présente de graves défauts qui expliquent sans doute pourquoi elle n’a pas été retenue pour faire progresser la Vie :
Elle implique d’avoir identifié un problème au préalable ; la prise en charge d’un problème imprévu provoque au mieux un délai important nécessaire pour sa caractérisation, au pire une panique.
Elle est lente et incapable de s’adapter à un problème qui évolue rapidement et pour lequel les solutions planifiées sont obsolètes avant même leur mise en oeuvre.
Elle repose sur des experts, qui peuvent se tromper, choisir de mauvaises solutions, subir des influences parasites, ignorer ou masquer le résultat d’une validation négative de leur plan, voire modifier ou interpréter les résultats des tests de validation pour corroborer leur stratégie et conforter leur position [5].
Elle ne valorise pas les sujets qui trouvent spontanément et rapidement des solutions aux problèmes. Au contraire, elle parvient souvent à les décourager en leur imposant des procédures inadéquates qui ruinent la qualité de leur travail et leur productivité.
Francisco Varela, philosophe et spécialiste des sciences cognitives, fait une analyse intéressante [6] de l’échec de cette approche dans le domaine de la modélisation informatique de l’intelligence [7]. Il attribue cet échec à deux défauts rédhibitoires de la méthode PDCA :
Elle est séquentielle, c’est-à-dire qu’elle résoud les problèmes les uns après les autres. Or dès que le système est compliqué et nécessite de nombreux enchaînements d’actions, le temps nécessaire à la résolution globale du problème devient excessif car il est impossible de prévoir tous les cas de figure.
Elle est localisée : toute la réflexion est réunie au même endroit (réunion, service ministériel, direction d’entreprise) et donc peu propice à la diversité.
Lente et centralisée, la méthode PDCA n’est valable que pour améliorer des processus simples et stables dans le temps, et donc en pratique très peu de problèmes humains.
Cette critique de la méthode PDCA serait injuste si elle ne mentionnait pas un de ses aspects positifs. En l’absence de mesure de la qualité externe, conduire des agents à s’interroger sur leurs procédures et à les remettre en cause est un facteur de progrès. Nous avons eu l’occasion de mettre en oeuvre cette méthode avec un certain bénéfice lors de l’évaluation des pratiques professionnelles des médecins au début des années 2000.
Malheureusement, cette approche minimaliste mais utile est souvent dévoyée et cherche à pousser l’individu à s’approprier une norme présentée comme une procédure idéale.
La bonne approche en terme de qualité interne consisterait à pousser les agents dans une réflexion spontanée sur leur activité et à trouver eux-mêmes de bonnes procédures amenant au progrès, c’est-à-dire améliorant leur qualité externe. Cela supposerai que cette qualité externe soit enfin mesurée équitablement et valorisée, ce qui n’est pas le cas aujourd’hui.
Quelques exemples illustrent cet échec :
Les réformes diverses et successives de l’enseignement ou de la santé : les énormes systèmes que constituent l’éducation nationale française, les hôpitaux ou la sécurité sociale sont bien trop complexes pour se prêter à une action réfléchie et planifiée. Ils ne peuvent évoluer que par une approche pairjective : identifier les succès, les valoriser, s’en servir de tête de pont pour propager d’autres succès, réduire ou supprimer ce qui ne marche pas.
Le programme Sesame Vitale. Conçu par l’assurance maladie française pour remplacer la facture en papier (feuille de maladie), il consiste à envoyer par voie électronique une facture aux organismes de sécurité sociale. La réflexion préalable des organismes d’assurance a été plus lente que l’évolution technologique : à peine un projet était-il validé qu’il était technologiquement dépassé. La solution retenue a finalement été de créer l’équivalent d’un email à partir de l’ordinateur du professionnel et de l’envoyer au centre de paiement. Cette simplicité apparente (dont la seule conception a tout de même coûté près d’un milliard d’euros du fait de ses errements) a néanmoins été fortement complexifiée dans sa mise en oeuvre ; plus d’un tiers des médecins refusent de l’utiliser [8].
La mauvaise santé de nombreuses grandes entreprises. La direction des entreprises géantes devient trop complexe. Les groupes employant des dizaines de milliers de salariés sont désormais ingérables avec la méthode PDCA, d’autant que le monde accélère ses mutations. Comme pour les deux exemples précédents, la lenteur des adaptations et la complexité des problèmes à résoudre condamne à la disparition les mastodontes au pouvoir centralisé.
Dilbert par Scott Adams - "Dis-le avec ton corps". Dargaud Editeurs
Plus que partout ailleurs, le faire-savoir a remplacé le savoir-faire dans l’entreprise. Le cadre baigne dans un climat d’urgence permanent aggravé par la communication de masse dévoyée que permet l’email [9] ; il se place alors en "mode survie", ne gérant que l’urgence du moment et perd la capacité d’analyser la situation absurde dans laquelle il se trouve [10].
Certains s’adaptent très bien à ce chaos et gèrent prioritairement leur carrière. Ceux qui créent la valeur croulent sous le travail [11] ; ils perdent pied les uns après les autres et l’entreprise devient une coquille vide prête à être absorbée par une firme concurrente. La sélection darwinienne individuelle traditionnelle est inversée : ceux qui produisent sont défavorisés alors que ceux qui ne produisent pas, voire bloquent la production, réussissent. En revanche, grâce à l’économie de marché, la sélection darwinienne des groupes s’opère correctement : une entreprise qui ne redresse pas la barre par la valorisation des ses agents productifs disparaît et laisse le marché disponible pour d’autres entreprises ayant su innover ou mieux satisfaire leur marché.
Ce travers est spécifique des organisations complexes dans lesquelles les hiérarchies ne sont pas revalidées en permanence [12].
Quelques exemples biologiques pairjectifs
La pairjectivité est observable dans de nombreux systèmes biologiques :
Les bactéries. Elles s’adaptent à une vitesse impressionnante aux nouveaux milieux, y compris contenant un poison comme un antibiotique. Elle échangent des messages chimiques, des gènes d’adaptation au poison, puis se reproduisent à partir de la nouvelle configuration qu’elles ont validée. Quelques jours leur suffisent pour identifier et privilégier les bons enchaînements évolutifs que le seul hasard aurait mis des milliers d’années à reproduire. Planifier par avance la réponse à tous les poisons existant ou à venir, serait tout simplement impossible. Une simple sélection des mutations favorables serait trop lente. C’est la conjonction de la diversité et de la communication permettant aux bactéries d’échanger leurs réponses ou fragments de réponse qui permet au groupe (et non à l’individu) de s’adapter si rapidement à l’adversité. Il n’existe pas de bactérie experte dans la colonie, l’expertise est diffuse et apparentée au "brainstorming" des humains.
Notre système immunitaire. Nous naissons sans autres anticorps que ceux de notre mère qui resteront quelques mois dans notre sang de nourrisson. Nous héritons en revanche d’une fantastique machine adaptative : le système immunitaire. Nous fabriquons spontanément des lymphocytes (varitété de globule blanc) d’une extraordinaire diversité. Le système immunitaire fonctionne comme un serrurier qui aurait construit des millions de clés différentes en prévision de l’ouverture d’une serrure inconnue. Chaque lymphocyte sécrète une protéine différente, un anticorps, clé qui pourra peut-être s’adapter aux serrures (antigènes) que nous rencontrerons chez les microbes envahisseurs.
A partir des fragments d’un intrus dévoré par des sentinelles (macrophages), les quelques lymphocytes qui fabriquent un anticorps capable de s’adapter grossièrement à ce fragment (antigène) étranger vont se multiplier à grande vitesse. Cette multiplication s’accompagnera d’une légère diversité qui va permettre de sélectionner dans leur descendance ceux qui fabriquent un anticorps encore mieux adapté à l’antigène. En quelques générations de lymphocytes, c’est à dire en quelques jours, nous avons fabriqué des défenses sélectives qui assurent notre guérison. Le corollaire amusant est qu’il n’y a pas deux humains qui fabriquent les mêmes anticorps contre la rougeole par exemple : chacun ayant créé une protéine sur mesure, faite à partir de milliers d’acides aminés, il existe une probabilité quasi nulle d’aboutir à deux protéines identiques.
En disposant tous d’un système immunitaire identique dans son principe, mais différent dans ses outils, nous augmentons notre diversité et donc la probabilité que quelques-uns d’entre nous puissent s’adapter à une infection particulièrement violente ou sournoise [13].
Le système immunitaire est un outil, une usine d’armement ultramoderne et autogérée et non un arsenal figé créé par des militaires.
Dans ces deux exemples, la rapidité de la résolution du problème est liée à un catalyseur qui est l’échange d’informations. Les bactéries communiquent chimiquement. Le système immunitaire dispose lui aussi d’un système de communication complexe qui lui permet d’identifier le lymphocyte qui a trouvé la bonne clé-anticorps pour neutraliser le microbe qui nous attaque. Dans ces deux cas, l’agent victorieux sera multiplié et servira de tête de pont pour progresser vers la survie [14].
Du "Un pour tous" au "Tous pour tous"
Le concept de pairjectivité est indissociable d’une communication diffuse entre les "pairs". C’est une des raisons pour lesquelles le réseau internet est un élément fondamental du progrès pairjectif : il permet de passer de la communication de masse de type "un à plusieurs" (livre, radio, télévision), à une communication "plusieurs à plusieurs" (réseau pair à pair ou peer to peer).
- Pair à pair
Cette notion de liens multiples entre agents nous amène naturellement au plus bel exemple biologique de pairjectivité : notre cerveau.
Il n’est pas anodin que l’un des plus grands neurobiologistes actuels, Gerald Edelman, ait reçu le prix Nobel pour sa découverte du fonctionnement... du système immunitaire ! Le fait que la théorie d’Edelman [15] soit parfois appelée darwinisme neuronal n’est pas inintéressant non plus.
Edelman démontre que le cerveau n’est, à notre naissance, pas grand-chose d’autre qu’un amas de neurones reliés entre eux et structurés dans le cortex en couches (horizontales) et colonnes (verticales) : plusieurs dizaines de milliards de neurones connectés chacun avec des dizaines de milliers d’autres. La structure est en place, mais la connaissance reste à acquérir. Tout notre développement, amenant à des apprentissages et fonctions complexes et jusqu’à la conscience, résulte de la sélection des groupes et circuits identifiés par les autres comme pertinents. Chacun de ces groupes émet des informations vers les autres et en reçoit. Fondé sur la bonne vieille qualité externe, la magie de la fonction puis de la pensée se bâtit sur une sélection darwinienne couplée à un gigantesque réseau de communication.
L’objet le plus fascinant de notre univers se construit sur la base d’un empirisme pragmatique fondé sur l’évaluation mutuelle et massive de ses agents. Il n’y a aucun expert, aucune norme dans le cerveau. Ce système permet :
L’adaptation de chaque humain à son milieu de naissance puisqu’il s’y construit.
Une variété savamment entretenue et propice à une adaptation du groupe aux situations nouvelles imprévisibles. Il est des crises où seuls les anxieux survivent, d’autres qui favorisent les seuls audacieux.
Une vitesse de construction exceptionnelle par résolution de multiples problèmes simultanément.
Nous ne nous étendrons pas plus sur le fonctionnement darwinien et pairjectif du cerveau. Outre les ouvrages d’Edelman, le lecteur intéressé pourra lire ou relire l’homme neuronal de Jean-Pierre Changeux : les groupes neuronaux sont appelés "cristaux", mais la thèse est la même : pas de plan, d’architecte supérieur, mais une validation permanente du succès.
Comment ne pas être tenté de comparer ce que nous enseigne la neurobiologie moderne avec les connexions directes et potentiellement innombrables entre individus permises par internet ? Certes, le raccourci est audacieux et nous sommes loin de l’efficience du cerveau de l’animal le plus primitif [16]. Mais cette voie apporte un espoir considérable à ceux qui pensent que la résolution des situations humaines vastes et complexes ne peut plus résider uniquement dans un schéma traditionnel de type PDCA, certification ISO ou autres normes. Le progrès doit suivre de nouveaux chemins.
La société que nous allons construire avec et pour nos enfants sera neuronale et la santé pourrait en être le premier terrain d’expérimentation. Nous vous ferons des propositions concrètes dans les mois qui viennent.
Vous êtes vivement encouragé à faire vos remarques, critiques et suggestions sur le forum. Ces articles ne sont pas figés et évolueront en permanence. D’autres articles faisant suite à cette série initiale seront publiés à la rentrée.
Notes
[1] "La meilleure chose que les gouvernements puissent faire pour encourager l’innovation est de dégager le terrain".
[2] Ces étapes sont celles que décrit l’étonnant Howard Bloom dans le tome 2 du Principe de Lucifer intitulé "Le cerveau global". La lecture du prologue en accès libre donne une idée de la richesse de l’ouvrage étayé par plus de 1000 références bibliographiques.
[3] Le darwinisme social constitue une déformation des travaux de Charles Darwin, qui a toujours été étranger à l’utilisation de sa théorie pour justifier l’injustifiable.
[4] Bloom op. cit.
[5] Lire à ce sujet l’étonnant et peu médiatisé rapport de la DREES, montrant comment et pourquoi les "notables de la ménopause" ont continué à défendre bec et ongles l’innocuité du traitement hormonal de la ménopause contre les évidences scientifiques qui menaçaient leurs théories et leur positions.
[6] Dans : Invitation aux sciences cognitives 1988
[7] Varela (op. cit.) explique très bien comment la "haute église" cognitiviste, qui voulait assimiler le fonctionnement du cerveau à celui d’un ordinateur, a bloqué la recherche sur l’intelligence artificielle pendant des dizaines d’années. Ceux qui pensaient que le cerveau fonctionnait avec un code pré-écrit étaient enfermés dans une théorie sans avenir. Ce n’est qu’en introduisant un mode de fonctionnement auto-organisationnel et pairjectif que les sciences de la cognition ont pu de nouveau progresser ; or le monde, et notamment le monde de la santé, fonctionne actuellement sur un modèle cognitiviste : penser, préparer, créer des procédures, puis seulement agir.
[8] Une des raisons de ce refus a été la brutalité avec laquelle l’administration de la sécurité sociale a tenté d’imposer son système, croyant naïvement que les patients déserteraient les cabinets médicaux non équipés.
[9] L’email est une forme de communication pairjective totalement dérégulée. L’email en entreprise produit un "bruit" insupportable car il ne bénéficie d’aucune validation : on ne peut considérer comme du spam les courriels de ses collègues, et pourtant...
[10] Situation superposable à celle du médecin à la fois débordé et submergé de procédures. Certains d’entre eux avouent publiquement être débordés par ce climat kafkaïen et baisser les bras au détriment de la qualité de leur travail : extrait d’un message posté sur une liste de discussion publique "le généraliste (le spécialiste aussi) perçoit de plus en plus une menace latente avec de petites phrases du genre "mais vous n’avez rien vu ?" ; la médecine actuelle ne devrait pas permettre de mourir avant 90 ans, ne pas avoir de cancer ni d’Alzheimer ou en tout cas les guérir, ne pas avoir de séquelle douloureuse d’un banal traumatisme, bientôt de pas attraper d’angine ou de cors aux pieds. Cela traduit bien un malaise plus que profond de la société. A l’occasion de la sortie du fameux Gardasil (vaccin à faire chez les adolescentes en prévention du cancer du col utérin) nous avons eu, les médecins de mon coin, une discussion sur ces sujets comprenant le Gardasil, le dépistage du cancer prostatique, le traitement de la maladie d’Alzheimer, 3 sujets où il est évident que les implications financières sont phénoménales ; il en est ressorti que ce n’est pas a nous généralistes, à décider du bien-fondé des attitudes préconisées, d’une part du fait du premier argument cité plus haut, d’autre part du fait que notre activitéest de plus en plus complexe et qu’il ne sert à rien d’en rajouter en voulant lutter contre des moulins à vent, les pales largement recouvertes de toiles pouvant aussi bien vous envoyer dans la boue que dans les étoiles. Souvenez-vous aux débuts du traitement de l’Alzheimer : une gentille dame parisienne, qui doit sans doute encore sévir, avait créé une association qui portait systématiquement plainte devant tout retard diagnostic de la maladie. L’attitude pragmatique consiste donc pour nous :
à rappeler systématiquement à bien faire les mammo. de dépistage même si la majorité est convaincue de son inutilité
à proposer le PSA (et faire le toucher rectal bien sûr) chez tout homme de 50 ans
à systématiquement proposer le Gardasil dès 14 ans. Ce n’est qu’avec cette attitude que nous dégageons notre esprit de toute interrogation sur ces sujets, et que nous conservons un minimum de neurones pour essayer de régler ... tout le reste ! Comme je crois l’avoir lu sur la liste, si la CPAM lance une campagne de dépistage par PSA, ce sera parfait. Ce n’est pas à nous généraliste, à faire la guerre aux laboratoires ; si mon payeur (la CPAM) ne sait pas ou ne veut pas, me donner des consignes précises au sujet de ce PSA elle sait certainement par contre, ce que va lui coûter, en effets secondaires, son dosage systématique.
[11] Ce sont le plus souvent des femmes, génétiquement peu préparées à cette guerre sans merci, car il s’agit bien d’un combat, d’une guerre de pouvoir dans laquelle l’objectif de production de biens ou de services a quasiment disparu.
[12] Dans l’entreprise ou l’administration, l’évaluation et la promotion viennent de l’échelon supérieur, encourageant la séduction du supérieur par le subordonné. Dans la nature, la hiérarchie est remise en cause à chaque instant par la base, et c’est face à ses pairs ou ses subordonnés que le dominant doit justifier sont statut.
[13] Il existe un faible pourcentage d’humains résistant naturellement au sida. Ils sont en effet dépourvus d’une protéine indispensable à l’infection des lymphocytes par le HIV.
[14] Pour être plus précis, il existe aussi des mécanismes internes de valorisation : le sujet victorieux va développer lui-même ses capacités tandis que celui qui est en échec va s’autolimiter voire s’autodétruire. Nous le constatons nous-mêmes : le succès donne de l’énergie physique (et sexuelle...), de la confiance en soi et du coeur à l’ouvrage. Au contraire, l’échec conduit à l’aboulie, à l’isolement et à la dépression. L’apoptose, mécanisme d’autodestruction cellulaire, concerne aussi les organismes supérieurs.
[15] Edelman l’avait dénommée plus précisément "sélection des groupes neuronaux". Un résumé est accessible ici, mais la lecture de son magistral biologie de la conscience est vivement recommandée pour qui s’intéresse à la pairjectivité.
[16] Et encore plus loin de l’éveil à la conscience du réseau, thématique récurrente en science-fiction.
00:58 Publié dans Numérisation de la société, Science | Lien permanent | Commentaires (0) | | del.icio.us | | Digg | Facebook | | Imprimer |
dimanche, 04 novembre 2012
R2I : la Révolution Industrielle Informatique
http://nauges.googlepages.com/biofrance
http://www.revevol.eu
01/11/2012 - Cinquième partie : DSI (Direction des Systèmes Services d’Information)
Rappel des « chapitres » précédents :
- Première partie : les bases de la R2I.
- Deuxième partie : les infrastructures.
- Troisième partie : les usages.
- Quatrième partie : les fournisseurs.
(En anglais, DSI = CIO, Chief Information Officer)
La R2I, Révolution Industrielle Informatique est en marche et rien ne peut plus l’arrêter : infrastructures et usages industriels sont disponibles, des fournisseurs innovants proposent des solutions industrielles ; il ne reste plus qu’à faire profiter de cette R2I toutes les organisations, privées ou publiques, grandes ou petites !
Le nouveau rôle, passionnant, d’une DSI, c’est d’en faire bénéficier l’organisation où elle travaille, ses clients et ses collaborateurs en déployant (vous l’aviez deviné)... un Système d’Information Industriel.
Les nouveaux métiers d’une DSI industrielle
Infrastructures Cloud, usages en SaaS, ce sont d’excellentes nouvelles pour les entreprises, donc pour les DSI dont le métier principal est de fournir aux clients de l’entreprise et à ses collaborateurs un Système d’Information ergonomique, accessible en permanence, flexible, fiable et à faible coût.
Ce schéma présente le contexte d’une DSI, gestionnaire d’un Système d’Information que je définis comme : IT as a Service.
Quelques explications s’imposent :
- La DSI sert d’intermédiaire entre ses « clients » et les solutions qu’elle propose. Elle s’organise en quatre équipes principales, pour ses activités métiers :
- Infrastructures
- Usages transverses
- Usages métiers
- Informatique flexible
- Pour les clients, ce sont des « services » et ils vont juger la qualité des services, pas « comment » ils sont fournis. Clouds publics, communautaires ou privés, ils ne se posent même pas la question.
- L’équipe « infrastructures » a la responsabilité de définir quels seront les serveurs, réseaux et postes de travail qui permettent de fournir et utiliser les services proposés. Les choix d’infrastructures (tous les nouveaux usages par navigateur, HTML5...)s’imposent maintenant aux fournisseurs de services applicatifs.
- L’équipe « usages transverses » (Participatique et fonctions support) recherche en permanence les meilleures applications disponibles, les options SaaS étant toujours privilégiées. Elle fait son « marché » parmi les éditeurs de solutions, en n’hésitant pas à privilégier les offres « best of breed » au détriment des solutions intégrées.
- L’équipe « usages métiers » se concentre sur les 3 à 5 processus cœur métiers clefs qui font que Total n’est pas la BNP ou Axa le groupe Bouygues. La construction industrielle, sur mesure, d’applications métiers spécifiques est souvent la meilleure réponse !
- Toutes les réponses aux spécificités d’une entreprise ne se trouvent pas sur étagère. C’est là qu’intervient « l’équipe informatique flexible », décisionnel et BPM (Business Process Modeling), bien évidemment en mode SaaS, pour construire sur mesure, et vite, les réponses aux très nombreuses demandes des métiers pour des processus simples.
- Dans ce monde « IT as a Service », l’une des nouvelles fonctions les plus importantes, les plus nobles devient celle d’agrégateur de solutions. Elle peut être réalisée en interne ou par de nouvelles générations de sociétés de services qui remplacent les anciens « intégrateurs ».
Voilà un beau programme de transformation des modes de fonctionnement et d’organisation d’une DSI industrielle ; le chemin est tout tracé pour les actions à démarrer en 2013 !
Il reste un volet fondamental, les liens avec... les clients de la DSI.
Un Système d’Information au service des clients... internes
Les dimensions marketing et commerciale font trop rarement partie des compétences d’une DSI ; c’est pour cela que je propose la création d’une équipe « relation clients » au sein de la DSI.
Dans ce monde R2I, où une majorité de solutions sont opérationnelles et prêtes à l’emploi, cette fonction est encore plus essentielle qu’auparavant.
Si la majorité des responsables informatiques ignorent encore trop souvent la richesse et la variété des solutions Cloud/SaaS existantes, cette non-connaissance est encore plus forte du coté des « clients internes », des directions métiers. La DSI doit donc aller vers eux, vendre ces nouvelles approches, faire le marketing des solutions SaaS existantes...
Les modes anciens de fonctionnement, cahier des charges, appel d’offres, maîtrise d’ouvrage, maîtrise d’œuvre sont... devenus obsolètes |
Scandale des scandales, ce sont les outils et les solutions existantes qui prennent le pouvoir et non plus les « besoins ».
Encore une fois, l’exemple de l’industrie l’automobile est utile pour comprendre cette nouvelle démarche R2I. Le salon de l’automobile 2012 de Paris vient de fermer ses portes avec environ 2 millions de visiteurs et des milliers de « solutions voitures » présentées. Rares sont les visiteurs qui sont allés sur les stands de Renault, Mercedes ou Ferrari avec un « cahier des charges » pour demander qu’on leur construise la voiture qui correspond à leurs attentes !
Une DSI moderne doit, progressivement, suivre une démarche similaire :
- Organiser périodiquement en interne des « salons solutions ».
- Faire venir ses « prospects » sur ces salons pour qu’ils puissent choisir les outils qui s’adaptent raisonnablement bien à leurs attentes.
- Planifier des démonstrations d’usages professionnels avec les nouveaux objets d’accès « autorisés », smartphones, tablettes, PC portables, Chromebooks...
- Montrer quelques réalisations récentes en SaaS, BI et BPM pour donner envie à d’autres directions métiers d’aller dans la même direction. Ces réalisations peuvent venir de l’interne ou d’autres entreprises.
Cette démarche s’applique rarement aux applications « cœur métiers ». Dans ce cas, une approche projet, avec des équipes venant des métiers, travaillant avec des professionnels de la DSI qui maîtrisent les outils de construction d’applications sur mesure (en mode Web-HTML5) s’impose.
Un Système d’Information au service des clients... externes
Répondre efficacement aux attentes de ses clients internes, c’est bien, mais cela ne doit pas faire oublier que la priorité absolue reste... les clients externes, qui achètent les produits et services de nos entreprises. De plus en plus de clients utilisent le Web et internet pour dialoguer ou commercer avec les entreprises.
- IT as a Service représente l’IT interne, définie précédemment avec ses usages métiers et tous les composants transverses, génériques.
- Business as IT Services : vu par les clients externes, ce sont toutes les interactions possibles avec l’entreprise, pour commander des produits ou des services, dialoguer avec des collaborateurs, répondre à des enquêtes...
- Infrastructures as a Service : toutes les interactions numériques entre les clients et l’entreprise se font sur la base des standards Internet. Ce point est fondamental : tout le monde comprend que les clients externes vont se servir d’objets, mobiles à 80 %; pour accéder par navigateur aux services proposés par les entreprises ; il ne viendrait plus à l’idée de personne d’imposer des choix d’OS ou de navigateurs aux clients externes. Le même raisonnement s’applique aussi aux ... clients internes !
Il y a de moins en moins de raison pour que les clients internes de l’entreprise soient« punis » en étant obligés d’accéder au SI par des applications archaïques, moches, non ergonomiques et qui leurs imposent des choix réduits d’outils d’accès.
Les choix d’infrastructures modernes, navigateurs, HTML5... s’imposent aux entreprises pour répondre aux exigences de leurs clients externes ; autant en profiter pour que ces mêmes choix techniques soient faits pour les applications destinées aux clients internes.
Les challenges « non techniques » d’une DSI industrielle
Les challenges que doit affronter une DSI ne sont plus :
- Techniques : les infrastructures Cloud, les solutions SaaS fonctionnent très bien.
- Financiers : les infrastructures Cloud, les solutions SaaS réduisent rapidement et fortement les coûts du Système d’information.
Restent par contre de nombreux challenges majeurs :
- Gérer la réduction des budgets de la DSI : si le pouvoir d’une DSI se mesure encore au nombre de serveurs, d’informaticiens dans les équipes ou de millions dans les budgets, il ne faudra pas s’étonner que les résistances internes à une migration vers des solutions industrielles soient fortes.
- Le refus de voir l’importance des changements qui s’annoncent, faire l’autruche, pour ne pas affronter les changements qui s’imposent.
- Ne pas s’appuyer sur les alibis traditionnels de la « néphophobie », sécurité, confidentialité des données, difficultés de travailler « off-line »... pour bloquer les innovations nécessaires.
- Ouvrir son Système d’Information au maximum, et ne fermer que ce qui est vraiment indispensable. Toute la politique de sécurité actuelle doit souvent être mise à plat, en abandonnant les utopies dangereuses d’une sécurité parfaite ou de la même sécurité pour tous les usages.
- Ne plus considérer les utilisateurs internes comme des dangers, des fraudeurs en puissance ou des pirates dangereux, leur faire confiance et s’appuyer sur leur intelligence pour déployer des applications plus simples et plus performantes.
- Se libérer, dès que possible, du joug de la Direction Financière dont dépend encore trop souvent la DSI. Une vision exclusivement « financière » d’un SI n’a plus beaucoup de sens aujourd’hui.
- Préparer immédiatement tous les collaborateurs de la DSI aux nouveaux métiers d’une DSI industrielle. C’est la priorité numéro un, car il n’y aura pas un seul métier historique de l’informatique qui ne sera pas impacté par cette R2I.
Résumé : DSI = Direction des Services d’Information
Dans DSI, je propose de remplacer le S, Systèmes, par le S, Services.
Une DSI industrielle se transforme en prestataire de « services », en majorité achetés, certains construits sur mesure.
DSI en 2015 : ce sera, plus que jamais, un métier passionnant, porteur d’innovation pour les entreprises et... plein d’avenir pour tous ceux et celles qui sauront s’adapter à ce monde informatique industriel.
Reste un point clef pour réussir : faire partager aux dirigeants de l’entreprise une même compréhension les potentiels de cette Révolution Industrielle Informatique.
Ce sera le thème du sixième et dernier texte de cette série.
Rédigé à 23:35 | Lien permanent
19:06 Publié dans Compétition, Informatisation, Innovation, Numérisation de la société | Lien permanent | Commentaires (0) | | del.icio.us | | Digg | Facebook | | Imprimer |