Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

mercredi, 04 janvier 2017

Le futur du travail et la mutation des emplois

Par Yves Caseau, chef de l'Agence numérique du Groupe AXA
http://www.frenchweb.fr/le-futur-du-travail-et-la-mutatio...

Par Les Experts | le 5 décembre 2016 | 1 Comment

Business Communication Les Experts Recrutement Recrutement Talents Une - Carrousel 2

Futuristic female android at digital background

Le billet de ce jour rassemble un certain nombre de réflexions autour du «futur du travail». Ce sujet est particulièrement d’actualité en ce moment, qu’il s’agisse de la presse ou de la préparation de la campagne présidentielle. En ce qui me concerne, j’ai eu la chance de passer une semaine à la Singularity University dans le cadre du Singularity University Executive Program, ce qui m’a permis d’approfondir mes idées sur le sujet. Ce billet reprend les points principaux que j’ai développé le 12 octobre lors du séminaire de l’Académie des Technologies, lors d’une conférence intitulée «Emploi et travail dans un monde envahi par les robots et les systèmes intelligents». Il s’inscrit dans la continuité d’un premier billet écrit il y a deux ans, mais j’ai affiné mon diagnostic et j’ai donc des convictions plus fortes et plus précises.

La première partie fait le point sur la question de l’automatisation – des robots à l’intelligence artificielle – et de son impact sur les emplois. Depuis la publication du rapport de Frey-Osborne en 2012, il y a eu de nombreuses réactions. La plupart sont conservatrices et prudentes, qu’il s’agisse du rapport de l’OCDE ou du livre récent de Luc Ferry. Je ne partage pas ce revirement comme je vais l’exprimer, particulièrement après avoir passé cette semaine à la Singularity University. Je vais au contraire développer une vision de l’évolution du travail dans laquelle l’homme est complémentaire de ces nouvelles formes automatisées de production et de création de valeur.

La seconde partie est une réflexion sur la société à la quelle conduit cette nouvelle vision du travail. C’est, par construction, une contribution à l’iconomie, c’est-à-dire l’organisation de l’économie dans le cadre d’une exploitation pleine et entière des bénéfices de la technologie de l’information, y compris dans ces capacités d’automatisation (lire la définition de Michel Volle). Je propose une vision «fractale / multi-echelle» de l’ iconomie qui réconcilie la domination des plateformeswinners take all») et le retour de la «localisation» (la priorité donnée à la communauté et au territoire ) face au désarroi (pour rester mesuré) que cette rupture de paradigme va produire. Dans la tradition des «power laws» de la nouvelle économie, les bassins d’opportunité créés par le progrès technologique ont une structure maillée et multi-échelle qui contient une «longue traine» de micro-opportunités pour microentreprises.

La troisième partie porte sur cette rupture, la transition de phase entre le modèle actuel de l’emploi qui est clairement à bout de souffle et un modèle possible, correspondant à la vision développée dans les deux premières parties. C’est la question fondamentale, et la plus difficile : même pour les partisans d’une vision optimiste du progrès technologique dont je fais partie, la transition qui s’annonce est complexe, voire brutale. Même si le titre du livre de Bernard Stiegler « L’emploi est mort, vive le travail ! » contient un message positif, ce changement n’est pas moins qu’une révolution, qui est par ailleurs déjà engagée. Face à un changement qui s’accélère et des vagues d’automatisation nouvelles qui se dessinent, je suis persuadé que le monde politique a un rendez-vous avec l’Histoire, et qu’un certain nombre de mesures sont nécessaires pour éviter des scénarios noirs qui sont fort bien décrits dans des ouvrages de science-fiction. Il est possible de construire une société équilibrée autour de l’iconomie, mais la tendance naturelle du techno-système, sans intervention et régulation, est d’aller vers la polarisation et l’affrontement.

J’ai résisté à la tentation facétieuse et opportuniste de nommer ce billet « comprendre les causes profondes de l’élection de Donald Trump », mais je pense néanmoins qu’une des causes essentielles de cette élection, qui semble défier le sens commun, est qu’une grande partie des électeurs sentent plus ou moins confusément qu’un monde est en train de se construire dans lequel ils n’ont plus de place. Ce n’est pas une « simple » réaction à la désindustrialisation, c’est une peur de se retrouver « assignés à résidence », pour reprendre les mots d’Emmanuel Macron, sans utilité pour cette nouvelle société technologique et automatisée. Le défi qui est devant nous est de rendre l’iconomie « inclusive », c’est-à-dire avec une place pour chacun qui lui permette de contribuer au travers de son activité.

Automatisation, Intelligence Artificielle et destruction d’emploi : état des lieux

Une révolution numérique qui détruit plus d’emplois qu’elle n’en crée

Depuis l’étude « The Future of Employment » de Carl B.Frey et Michael A. Osborne, qui a annoncé que 47% des emplois seraient menacés aux US par l’automatisation, le débat est intense. D’un côté, il existe de nombreuses études similaires, comme par exemple celle sur le marché UK qui arrive à des résultats du même ordre de grandeur (au UK ou aux US). D’un autre côté, on trouve des études plus nuancées et moins pessimistes, comme celle de l’OCDE ou celle de McKinsey. C’est ce qui fait prendre à Luc Ferry une position plus rassurante dans son livre « La révolution transhumanisme ».  Je ne partage pas ce nouvel optimisme. Un des arguments est qu’une partie des tâches, et non pas des emplois, sont touchés. Mon expérience est que les entreprises ont acquis la capacité à redistribuer les tâches pour transformer les gains en efficacité en réduction de coûts salariaux, en dehors d’une hypothèse de croissance.

yves-caseau-20161

Ce qui me range dans le camp de l’étude Frey-Osborne, c’est que les arguments des conservateurs reposent sur une analyse du passé sur ce qu’on peut attendre des progrès de l’Intelligence Artificielle. Il me semble imprudent de s’appuyer sur toutes les promesses non-tenues des décennies précédentes pour en conclure que l’automatisation poursuit une lente progression « as usal ». Je vous renvoie au deuxième livre de Erik Brynjolfsson et Andrew McAfee, « The Second Machine Age », pour vous convaincre qu’une nouvelle vague d’automatisation arrive à grand pas, avec une accélération spectaculaire lors des dernières années de ce qui est possible. Les auteurs reviennent en détail sur des avancées telles que les diagnostics médicaux par une intelligence artificielle, les véhicules autonomes ou les robots qui écrivent des articles pour les journaux. Pour reprendre une de leurs citations : « Computers and robots are acquiring our ordinary skills at an extraordinary rate”. Je viens de passer une semaine à la Singularity Universityet les exemples plus récents présentés pendant cet “executive program” renforcent et amplifient les messages du “Second Machine Age”. Il est assez juste de remarquer, comme le fait Erik Brynjolfson dans un de ses exposés récents, que nous nous ne sommes pas « en crise, mais en transformation », mais cela ne change pas grand-chose au défi qui nous est posé. Dans ce même livre les auteurs nous disent que la transformation produite par la technologie est bénéfique … mais pose des « défis épineux ».

Les usines « sans humains » sont déjà là, les exemples sont multiples, de différentes tailles et dans différents domaines. L’exemple de l’usine de Sharp pour produire des dalles LCD, que j’ai pu visiter personnellement, est spectaculaire : moins de 20 personnes pour plus d’un kilomètre carré d’usine, cette visite, qui date déjà de plusieurs années, m’a profondément marquée. L’exemple de l’usine de fabrication de Tesla est non moins exemplaire, à la fois par le choix de la relocalisation et l’automatisation la plus poussée possible. Le cas de l’usine de Sélestat du groupe SALM est un peu moins spectaculaire, mais tout aussi instructif.  Le fait que le monde change aussi vite sous nos yeux doit d’ailleurs nous conduire à beaucoup de prudence sur les études que je viens de citer. Comme le remarque Neil Jacobstein, que j’ai eu le plaisir d’écouter sur ce sujet à la Singularity University, ces études s’appuient sur une continuité des types de tâches à effectuer (ce qui permet d’appliquer le peigne de l’analyse de la future capacité à automatiser), une sorte de « everything being equal », qui est probablement valide sur une courte échelle (quelques années) mais beaucoup plus discutable sur quelques décennies.

Il va falloir du temps pour remplacer complètement les humains dans les processus

Comme je le remarquais dans mon billet précédent, la route vers l’automatisation n’est pas simple. Les annonces célèbres de Foxcon qui  voulait remplacer ses 300 000 employés par un million de robots n’ont pas été suivies d’effets notables pour l’instant. En revanche, l’automatisation des entrepôts d’Amazon avec des robot KIVA  est une réalité, tout comme celle des usines « sans humains » que nous avons mentionnées. Cette réalité contrastée s’explique par le fait que l’automatisation des tâches non répétitives reste complexe. Plus précisément, les progrès en apprentissage – en particulier le deep learningsont spectaculaires lorsque la question à résoudre est précise et lorsqu’il existe beaucoup de données pour apprendre. En revanche, s’il y a peu de données (s’il faut extrapoler sur peu de faits, le « sens commun » devient fondamental et cela reste un sujet difficile) et surtout si l’objectif est mal défini (et encore plus lorsqu’il s’agit de définir ses propres objectifs), l’être humain conserve pour quelques temps un avantage sur la machine. Ceci conduit à un article récent de McKinsey intitulé  « Where machines could replace humans—and where they can’t (yet) » qui aboutit au même ordre de grandeur sur ce qui est substituable et ce qui ne l’est pas. Pour comprendre ce qui est déjà possible et ce qui ne l’est pas encore, je vous recommande « What Artificial Intelligence Can and Can’t Do Right Now » de Andrew Ng. Mais les limites d’aujourd’hui ne sont pas celles de demain !

Une des conséquences de l’état de l’art en IA est que l’automatisation des emplois peut commencer par des emplois d’experts et non de généralistes. C’est ce qu’expliquent Brynjolfson et McAffe : «  As the cognitive scientist Steven Pinker puts it, “The main lesson of thirty-five years of AI research is that the hard problems are easy and the easy problems are hard. . . . As the new generation of intelligent devices appears, it will be the stock analysts and petrochemical engineers and parole board members who are in danger of being replaced by machines. The gardeners, receptionists, and cooks are secure in their jobs for decades to come.”  C’est précisément ce qui m’a frappé pendant ma semaine à la Singularity University : les exemples abondent de domaines pour lesquels l’algorithme fait mieux que l’humain, mais ce sont précisément des domaines d’experts avec une question bien définie (quel portefeuille d’investissement construire, quel diagnostic sur une tumeur possiblement cancéreuse, …) et une très grande volumétrie de données disponibles. Grace au groupe de travail de l’Académie des Technologies qui poursuit son enquête sur les avancées “récentes” de l’IA et de l’apprentissage, ma conviction se conforte que, même si la date est incertaine, la tendance à l’automatisation des emplois du rapport Frey-Osborne est la bonne.

Cette notion d’automatisation des emplois est un raccourci qui est probablement trompeur, dans le sens que plutôt d’avoir des robots et des logiciels d’intelligence artificielle qui vont remplacer des humains un par un, c’est l’environnement complet qui devient “intelligent”. La combinaison de robots, d’objets connectés, de senseurs, et de logiciels “intelligents” ubiquitaires (répartis depuis le cloud jusque dans l’ensemble des processeurs invisibles qui nous entourent) crée l’environnement de travail “assisté” dans lequel moins d’humains réalisent plus de choses, mieux et plus vite.  L’article de McKinsey, « Four fundamentals of workplace automation » explique que « Jobs will be redefined before they are eliminated » et insiste sur cette transformation progressive des activités dans ce nouvel environment. Cette transformation par l’automatisation ubiquitaire est plus “douce”, mais elle n’en est pas moins disruptive.

Transformation du paysage de l’emploi

Dans le précédent billet j’ai déjà cité abondamment l’article de Susan Lund, James Manyika et Sree Ramaswamy, intitulé « Preparing for a new era of work » (Kc Kinsey Global Institute), qui me semble profondément pertinent. Pour simplifier voire caricaturer, il propose de séparer les emplois en trois catégories : la production, les transactions et les interactions. Les deux premières catégories sont celles qui vont être massivement touchées par l’automatisation : les emplois de production sont – dans leur grande majorité – remplacé par des robots tandis que les emplois liés aux transactions vont être décimés par l’utilisation de l’intelligence artificielle, même si cela prendra un peu plus de temps – cf.la section précédente. Il reste, pour un temps plus long, le domaine des métiers d’interaction qui peut résister plus longtemps. Ce mot « interaction » serait complexe à définir puisqu’il fait référence aux interactions entre humains et s’oppose à la catégorie précédente par un contenu « non-transactionnel » sur un registre émotionnel (il y a une certaine circularité dans l’argument, et des spécialistes de robotique m’ont fait remarquer que de nombreux robots ont précisément un objectif d’interaction, y compris avec des humains). Je trouve néanmoins cette distinction intéressante, et je suis plutôt d’accord avec la proposition des auteurs. Les emplois de demain seront très probablement caractérisés par les échanges entre humain dans des dimensions émotionnelles, affectives, artistiques qui dépasseront le cadre de l’automatisation tout en profitant de ce nouvel « environnement intelligent ». Par exemple, le jardinier, le masseur ou le plombier de demain seront des métiers technologiques, collaboratifs et sociaux, dans le sens ou l’environnement intelligent déchargera de certaines activités pour se concentrer sur l’essentiel (par exemple, le sens et le plaisir du jardin).

yves-caseau-20162

Dans cet univers qui se dessine, tout ce qui s’automatise devient une commodité, la valeur perçue se trouve dans les émotions et les interactions. C’est précisément une des thèses du best-seller déjà ancien de Daniel Pink, « A Whole New Mind », qui caractérise les métiers de demain par une « prévalence du cerveau droit sur le cerveau gauche » – à ne pas prendre au pied de la lettre mais dans le sens communément admis même si discutable. On retrouve dans son livre les talents de demain comme le « story telling », le « design », la « créativité », l’empathie ou le jeu. Ces métiers d’interaction de demain ne sont pas issus de nouveaux domaines à créer, mais pour leur grande majorité la continuité des métiers d’interaction d’aujourd’hui.  Santé, bien-être, ordre public, éducation et distraction vont continuer à être les principaux fournisseurs de travail pour les décennies à venir.

Le jardinier du futur utilise probablement un ou plusieurs robots, mais il vend une « expérience » – dans le sens où il raconte une histoire. Ce jardinier n’est pas forcément isolé, il peut profiter d’une communauté qui lui fournit du contenu – une éducation permanente – qui lui permet de vous toucher en faisant le lien entre votre jardin et vos vacances. Il peut également profiter d’une plateforme technologique qui lui fournit les robots autonomes qui vont tondre la pelouse ou tailler la haie. Il est probable également que ce jardinier « programme » le système (jardin + robots + environnement) avec la parole. Pour reprendre une citation d’un des membres de Singularity University : « We won’t program computers we’ll train them like dogs”.  Je crois beaucoup plus à cette vision qu’à la théorie selon laquelle nous aurons des ordinateurs tellement intelligents que cela signifierait la fin de la programmation. Ce qui est sûr, c’est que le sens de “programmer” et de qu’est le “code” va évoluer, mais l’activité de programmation d’expérience va au contraire se développer de plus en plus au fur et à mesure que l’environnement devient intelligent. Le robot que le jardiner va utiliser sera connecté et le dialogue avec le jardinier sera plus riche qu’une simple séquence d’opérations contextuelles. Pour rester dans la veine du Clue Train Manisfesto, je propose l’aphorisme suivant pour représenter la programmation de demain : « experiences are grown from conversations ».

Iconomie: Vision cible positive d’une société très fortement automatisée

Un maillage de plateformes et de micro-entreprises

Ma vision du paysage de l’emploi est un réseau multi-échelle maillé de structures de toutes tailles, depuis les grandes entreprises multinationales d’aujourd’hui jusqu’aux autoentrepreneurs, dans lequel le mouvement de polarisation (consolidation des grandes plateformes et multiplication des pico-entreprises) se poursuit et s’amplifie. Le point de départ de mon raisonnement est que nous aurons toujours des entreprises dans 20 ou 30 ans, et que le phénomène d’ubérisation du travail n’aura pas dissout le concept de l’entreprise. Je n’y reviens pas, j’ai traité en détail ce sujet dans mon billet précédent. Pour résumer, la complexité croissante du monde exige le travail synchrone, ce que remarquent tous les auteurs de la Silicon Valley, d’Eric Ries à Eric Schmitt. Ce sujet fait débat, ma position consiste à dire que les coûts de transaction, pour reprendre l’analyse de Coase et Williamson, reste minimisé lorsque les équipes cross-fonctionnelles modernes de développement produit sont co-localisées, synchronisées par des rituels et une vision « incarnée » commune et unifiée par un ensemble de techniques qui font des lieux un espace collaboratif (le « visual management » étant un exemple). L’évolution des technologies de communication (de la téléprésence à Hololens) déplace les frontières de ce qui est possible à distance en « mode plateforme », mais le même progrès technologique renforce le potentiel de l’environnement intelligent comme outil collaboratif.

yves-caseau-20163

La mondialisation et la numérisation conduisent à la concentration. Ceci est très bien expliqué par les penseurs de l’iconomie comme Michel Volle. Les raisons sont multiples et profondes. L’économie numérique est principalement une économie de coûts fixes, ce qui favorise l’économie d’échelle. Bien plus important encore, les effets de réseaux – en particulier dans les marchés biface et dans le développement d’écosystèmes autour de plateformes – et les lois de réseau de type Metcalfe donnent un avantage important au plus gros joueur (souvent le premier mais pas forcément). Je vous renvoie à l’analyse de la valeur des réseaux sociaux pour voir un exemple ou les équations de renforcement de la position dominante sont encore plus forte que la loi de Metcalfe.  Dans le livre de Brynjolfson et McAffee, on lit: “Each time a market becomes more digital, these winner-take-all economics become a little more compelling”. Cette concentration ne produit pas plus d’emplois, d’autant plus qu’elle est nourrie par l’augmentation exponentielle des capacités technologiques et par l’automatisation que nous venons d’évoquer dans la partie précédente.

Heureusement, la concentration des plateformes conduit également à la croissance des écosystèmes qui leur sont associés, ce qui peut créer des opportunités pour une multiplicité d’acteurs locaux, tout comme un arbre qui grandit porte plus de feuilles. Cette croissance de la « frontière » peut poser question – elle peut sembler marquée par un optimisme technophile naïf -, mais elle est nourrie par l’explosion exponentielles des capacités technologiques et sur la tendance de fond (qui est liée à cette explosion) de mieux servir les individus (le mythique « segment of one ») et les communautés. Le second point va être développé dans le reste de cette deuxième partie, revenons donc sur le premier. Prenons justement l’exemple des capacités d’Intelligence Artificielle développées et exposées par Google (cf. TensorFlow). Il est plus que probable que si cette démarche est couronnée de succès, elle va contribuer à la croissance forte de Google. Mais elle va également ouvrir des champs possibles à un rythme supérieur que ce que Google peut produire, ce qui signifie qu’une partie encore plus importante de valeur va apparaitre « à la frontière », lorsque d’autres acteurs vont utiliser ces technologies mise à disposition par Google pour résoudre d’autres problèmes que ceux qui intéressent Google. On voit la même chose avec la croissance d’iOS comme plateforme mobile : au fur et à mesure que les capacités sont ajoutées dans la plateforme de développement de l’iPhone – on pense ici bien sûr à Siri – le domaine fonctionnel rendu possible à la communauté des applications mobiles augmente plus vite que ce qu’Apple en retire pour ses propres fonctions.

Economie Quaternaire et services à la personne

L’économie quaternaire, un concept que nous devons en particulier à Michelle Debonneuil, propose une extension des trois secteurs traditionnels – primaire pour les matières premières, secondaire pour la fabrication et tertiaire pour les services – à un nouveau domaine dont les produits ne sont ni des biens, ni des services, mais « de nouveaux services incorporant des biens, la mise à disposition temporaire de biens, de personnes, ou de combinaisons de biens et de personnes ». L’évolution vers l’économie quaternaire est fort logiquement liée, comme le souligne Michelle Debonneuil, aux progrès des TIC qui permettent d’apporter des services véritablement personnalisés sur le lieu précis où ils sont nécessaires, y compris dans gestions des femmes et des hommes qui rendent ces services de façon courte et ponctuelle. Le développement de l’économie quaternaire est indissociable du domaine des « services à la personne », dont l’essor est l’aboutissement naturel d’une société post-industrielle. Cet essor est fort logiquement accéléré par l’automatisation telle que décrite dans la première partie puisque ces « services à la personne » sont les domaines dans lesquels les humains peuvent exercer une supériorité sur la machine.

Ces domaines sont fort nombreux et peuvent, sous certaines conditions, permettre la pleine occupation, sinon le plein emploi, de la population déplacée par l’automatisation. Listons les plus évidents : l’alimentation (dans sa phase « finale » de service à la personne, de la cuisine au restaurant), l’habillement, l’aménagement des habitations, la médecine, le bien-être, l’éducation et la culture, la distraction, l’art, etc. Pour la plupart de ces domaines, le 20esiècle a été un siècle d’industrialisation et d’orientation vers les produits. L’économie quaternaire remet le client au centre de l’expérience et s’intéresse plus au service reçu et perçu qu’aux produits sous-jacents. C’est cette remise au centre de l’interaction entre l’utilisateur et le fournisseur qui permet de « réinventer » des métiers de services à la personne. Cette analyse est partagée par Erik Brynjolfson et Andrew McAffee qui écrivent:  « Results like these indicate that cooks, gardeners, repairmen, carpenters, dentists, and home health aides are not about to be replaced by machines in the short term ».

On pourrait me faire remarquer que cette vision de l’emploi en 2030, qui recoupe fortement des domaines de « service publics », conduit plutôt à l’augmentation du nombre de « fonctionnaires » qu’à leur diminution. Si le terme de fonctionnaire désigne de façon très large une personne financée par la collectivité, c’est probablement exact. Cela ne signifie pas que le nombre de personne ayant le statut de fonctionnaire doive augmenter, ni que le budget correspondant doive faire de même (ce qui semble clairement impossible de toute façon). Il a de nombreuses façons de contourner ce paradoxe, par exemple en appliquant à l’Etat les principes de l’Entreprise 3.0  pour réduire le poids de l’appareil de contrôle par rapport à l’appareil opérationnel. Ce n’est pas utopique, il existe de multiples exemples d’application des nouvelles structures de management dans les services publics dans d’autres pays. On peut également penser que les nouveaux modes de travail que nous allons continuer à décrire s’appliquent parfaitement à un grand nombre de services publics, à l’exception d’un tout petit nombre de fonctions régaliennes. Je pourrais pousser la malice à faire l’hypothèse que le déséquilibre du budget de l’Etat vient du trop grand nombre de personnes « payées pour leur cerveau gauche » (une autre façon de parler de ceux qui analysent et contrôlent au lieu de faire). Enfin, le grand mouvement de l’automatisation des fonctions transactionnelles évoqué dans la première partie offre une possibilité à l’Etat de redistribuer ces économies de fonctionnement vers des rôles d’interaction et de lien social.


L’artisanat et la personnalisation de masse

Je reviens ici sur une idée profonde d'Avi Reichental – dont j’ai déjà recommandé l’exposé TED – : La production de masse est une parenthèse historique, et nous allons pouvoir revenir au confort du sur-mesure dans de nombreux domaines grâce aux progrès de la technologie, en particulier l’impression 3D. Avi Reichental illustre cette idée sur le principe d’une chaussure qui combine l’impression 3D d’une semelle uniquement adaptée à la bio-morphologie de l’utilisateur avec l’assemblage/fabrication locale. La personnalisation de masse est due à la fois au progrès technologique (numérisation de la conception, impression 3D, automatisation de l’assemblage, …) qui fait émerger des plateformes mise à disposition du plus grand nombre, et le besoin de retrouver une expérience sociale de proximité. Il n’y a donc pas que l’approche technologique : un certain nombre de métiers d’artisanat d’art pourraient redevenir pertinents.

L’idée que nous allons tous vivre de notre créativité tandis que les machines s’occuperont de la production est naïve et probablement fausse. Le tissu de multinationales évoqué dans la première partie a besoin de nouveaux talents, et en particulier de créatifs et de designers, mais dans un petit nombre par rapport aux laissés pour compte de l’automatisation. En revanche, le monde « frontière » des opportunités de services, qu’il s’agisse d’adaptation au besoin d’une communauté ou d’un individu, ou encore d’accompagnement et de mise en scène –  par exemple, l’art de la parole a toujours été associé à la vente de vêtements – a une structure beaucoup plus riche et étendue que l’on pourrait qualifier de « fractale » ou de « multi-échelle ». Dans ce monde de l’interaction, il existe des opportunités à différents niveaux de talents, qui peuvent coexister. Le service d’interaction se déplace difficilement (en tout cas avec un coût) contrairement à une expérience digitale. Un service moyen fourni par un talent médiocre peut coexister avec un service plus élaboré. Les « artisans de la personnalisation » de masse peuvent opérer sur des échelles géographiques différentes selon leur talent, dessinant une « power law »  des bassins de chalandise. Cette coexistence ouvre la voie, surtout avec le support économique de l’état sur lequel nous allons revenir, à un marché abondant de services à la personne de toutes sorte. Cette renaissance de « l’artisan de proximité » risque de se trouver facilité par une pression communautaire – que l’on commence déjà à voir à l’œuvre – et une priorisation de ce qui est local sur ce qui est global, en contre-réaction à la mondialisation.

yves-caseau-20164

Cette personnalisation des services à la personne est donc une double conséquence du progrès technologique : à la fois parce que le monde numérique facilite la personnalisation (dimension technique) mais aussi parce que la transformation due à l’automatisation (première partie) va rendre les services personnalisés d’interaction à la fois nécessaires et accessibles (nous reviendrons sur la dimension économique dans la dernière partie).  Si l’on applique cette idée de la personnalisation de masse à l’ensemble des domaines de services de la section précédente, on voit émerger ce qu’on pourrait qualifier de démocratisation de « privilèges aristocratiques du 19e siècle ». Non seulement l’accès aux vêtements, aux meubles sur mesure pourrait redevenir courant (ce qui était le cas il y a un siècle), mais les services d’un cuisinier, d’un tuteur, d’un coiffeur ou d’un masseur à domicile pourraient se démocratiser. De façon plus spectaculaire, la contribution d’un revenu universel pourrait permettre de rendre les métiers et les œuvres d’art accessible à (presque) tous. Dans un système économique qui permet à chacun de disposer d’un premier niveau de revenu garanti, il est possible à un beaucoup plus grand nombre d’artistes amateurs de vivre de leur art, et donc de permettre de la sorte à des citoyens ordinaires d’avoir le plaisir de posséder un tableau – par exemple – unique.

Les défis de la transition : accompagner le choc d’un changement de civilisation

La menace des robots de compagnie anthropomorphes  

yves-caseau-20165

L’essor de la robotique au Japon montre que l’interaction émotionnelle avec des humains n’est pas un champ exclu aux robots. En fait ce domaine n’est pas particulièrement complexe, il n’est pas très difficile de donner des émotions aux robots et aux programmes – c’est un champ de recherche et d’expérimentation en plein essor – et il est encore moins difficile d’apprendre aux programmes à « lire nos émotions ». Comprendre nos émotions à partir d’un signal sonore (notre voix) ou visuel (la vidéo de notre visage) est un exemple type de problème de reconnaissance que nous avons évoqué dans la première partie, avec des réponses claires et des milliards d’exemple. Ce n’est pas une surprise de constater que le deep learning donne déjà d’excellent résultats, que chacun peut tester grâce à des API ouvertes (ou en téléchargeant « Moodies » sur son smartphone). Pire encore, il est très facile de tromper nos neurones miroirs avec des têtes artificielles qui s’adaptent à nos expressions faciales. J’en ai fait l’expérience surréaliste avec une tête artificielle fort simple il y a déjà 10 ans dans un laboratoire IBM. Pour résumer, il ne faut pas considérer que le domaine « emploi d’interaction » est hors de portée des progrès de l’automatisation.

En revanche, il y a un enjeu majeur de société car l’automatisation de l’interaction n’est pas un progrès en soi. Contrairement à la production et aux transactions, les gains en vitesse et précision qui sont souvent les objectifs de l’automatisation ne sont pas des enjeux majeurs. Il y a donc plus de liberté pour faire de l’automatisation un choix de société. L’enjeu est tout simplement d’accompagner une transformation plus harmonieuse vers l’iconomie en conservant pour de nombreuses décennies la primauté de l’humain dans les métiers de l’interaction. Si la société laisse le domaine de l’interaction être envahi par la robotisation, nous allons au-devant d’une véritable crise. Laissés à la loi du marché et du possible technologique, ces robots vont apparaitre et nous obtiendrons dans le meilleur des cas une société à deux vitesses et une multitude d’exclus. Dans le pire des cas, les tensions sociales seront insupportables et cela nous conduira à la guerre civile. Le Japon est un cas particulier car il y a un fort déficit démographique à cause du vieillissement de la population, mais de façon générale et simplifiée, il faut réserver les métiers d’interaction aux humains déplacés des fonctions de production et de transaction.

De fait, étant plutôt optimiste de nature, je pense que les pays démocratiques se protégeront en réglementant l’utilisation de robots humanoïdes. Cette réglementation n’est pas forcément une simple interdiction, cela peut être une forme de taxation qui permet à l’humain de rester compétitif par rapport à la machine. Il y a probablement un équilibre entre une pression sociale de conserver des humains dans ces emplois – et on peut s’attendre à des réactions violentes face aux robots s’ils sont introduits dans des « customer-facing jobs » dans une société en crise du travail –, une fiscalité du travail qui reconnait l’interaction et la substitution de la machine par l’homme, et la réduction du coût du travail humain au moyen du revenu universel sur lequel je reviens dans la section suivante. Ce scénario de contrôle de l’utilisation de robots humanoïdes n’est ni simple ni tranquille, la protection qui sera réclamée par la population face à l’automatisation des fonctions de production et de transaction peut prendre des formes de protestations régressives, allant jusqu’à des surprises importantes lors d’élections J Au risque de me répéter, vouloir freiner les robots humanoïdes n’est pas un jugement technologique (le développement de ce type de robots est non seulement possible, il est inévitable), ni moral (il n’y a rien de répréhensible en soi à vouloir créer des machines avec lesquelles il est plus facile de communiquer car elles nous ressemblent) mais systémique. Il ne s’agit que d’un réglage de vitesse de flux, au sein d’un écosystème avec des activités qui disparaissent et apparaissent, mais qui me semble essentiel. Il faut se donner le temps sur plusieurs générations pour absorber les transformations que la technologie va rendre possible. Notons également qu’il est quasi-impossible de lutter contre l’automatisation des fonctions de production et de transaction dans une économie mondialisée (il y aura toujours un acteur quelque part pour tirer le meilleur parti économique de la technologie), tandis que l’activité d’interaction n’est pas dé-localisable par définition et reste donc sous la juridiction économique des états.

Un revenu universel pour permettre à chacun d’exister

Le revenu universel – ou revenu de base, en suivant l’expression anglaise « Universal Basic Income » – apparait naturellement comme solution pour faciliter la transition vers l’iconomie. Un des spécialistes mondiaux du sujet, Guy Standing, a introduit le revenu universel pour éviter le « précariat » qui est précisément la condition des homme déclassés dans une société qui n’a plus besoin de leur activité : « [precariat] specifically, is the condition of lack of job security, including intermittent employment or underemployment and the resultant precarious existence ». Le revenu universel consiste à garantir à chacun un niveau minimum de ressources, sans conditions, pour permettre à tous de vivre dignement. Il est souvent présenté, comme par exemple par Gaspard Koenig qui est un des spécialistes français, comme un « nouveau droit de l’homme ». Je vous renvoie au site « Génération libre » pour plus de détails sur LIBER. Le sujet du revenu universel s’est d’ailleurs invité fort logiquement dans la campagne politique, avec des prises de positions de Bruno Hamon et de Nathalie Kosciusko-Morizet, ainsi que de notre premier ministre.  En suivant les pas de Guy Standing, ces femmes et hommes politiques constatent l’éclatement du marché du travail – sur lequel nous reviendrons dans la prochaine section-, la désindustrialisation et la création de laissés pour compte par une vague d’automatisation qui ne fait que s’amplifier. Le revenu universel est donc un premier réflexe de protection par la solidarité, ainsi, dans le cas de la France, une remise à plat d’un système de protection sociale complexe qui contient déjà les germes d’un revenu universel de base.

D’un point de vue systémique, l’objectif du revenu universel n’est pas de permettre l’oisiveté pour tous, mais de déplacer les contraintes de rentabilité des activités humaines. Très logiquement, c’est une façon de redonner au travail humain un peu de compétitivité vis-à-vis de celui de la machine. Il est donc logique de penser au revenu universel pour lutter contre les effets indésirables d’une automatisation trop rapide. De fait, l’objectif du revenu universel est de déplacer « une barrière de potentiel » pour permettre au plus grand nombre d’accéder et de réussir dans un statut d’entrepreneur.

Cette idée de « barrière de potentiel » est une métaphore qui illustre le fait qu’il existe des multiples opportunités de travail – en particulier dans les services à la personne pour tous – mais nous n’avons pas tous le talent d’en faire une activité rentable économiquement. Le revenu universel « déplace la barrière de potentiel » dans le sens où il permet à un plus grand nombre d’autoentrepreneurs de produire un complément de revenu à partir de leurs talents, à la fois en diminuant la prise de risque et le volume d’affaire à générer pour que l’autoentreprise soit viable. Cette position qui voit le revenu universel non pas comme une nouvelle forme d’assistance mais comme un démultiplicateur est l’objet de nombreux débats voire de nombreuses critiques. Je reste cependant convaincu qu’il y a une véritable adéquation avec le concept de la distribution « multi-échelle » (ou de « power law ») des talents et des opportunités, évoqué dans la deuxième partie. Autrement dit, pour que le « gisement des services à la personne » représente un « bassin d’activité suffisamment vaste » pour offrir du travail à la majorité des citoyens, il faut un modèle économique qui permette de vivre dès que le service fonctionne sur une micro-communauté, ce qui est rendu possible par le revenu de base universel. Je conjecture que la structure cible des services à la personne dans une iconomie de pleine activité est une structure de petits mondes au sens de Duncan Watts (ce qui nous renvoie à des billets très anciens de ce blog).

En effet, il ne s’agit pas d’assurer « simplement » à chacun un revenu de base, mais véritablement une opportunité de « Universal Inclusive Contribution » – pour faire le parallèle avec le concept original de « Universal Basic Income » : permettre à chacun de contribuer à la collectivité, de trouver sa « place » par un travail qui contribue à la société, ce que permet le modèle fractal des services d’interaction. Autrement dit, le revenu universel doit être l’opposé de l’assignement à résidence dont parle Emmanuel Macron, sans être non plus un travail « bénévole forcé ». Lors de mon intervention du 12 Octobre, je me suis permis d’utiliser l’image du statut « d’intermittent du spectacle » pour tous J Le débat en France autour de ce statut fait que cet emprunt n’est probablement pas judicieux, mais il y pourtant dans ce statut de nombreux points positifs puisqu’il joue précisément, avec succès, un rôle incitatif en fournissant un complément de revenu. Ce statut permet d’avoir une population active employées dans les métiers du spectacle qui est nettement supérieure à ce que la loi du marché produirait (une autre forme de « déplacement de barrière de potentiel »). Il y a aujourd’hui environ un million d’auto-entrepreneurs, il faut créer les conditions pour une augmentation de presque un ordre de grandeur. Je n’ai pas de « boule de cristal », mais il me semble clair que la répartition des statuts entre employés, « freelance » (cf. la section suivante) et autoentrepreneurs va devenir beaucoup plus équilibrée en 2030 qu’elle ne l’est aujourd’hui.


Fin de l’emploi, vive le travail ! Un nouveau contrat social

yves-caseau-20166

La diminution des emplois salariés a déjà commencé. J’emprunte le titre de cette dernière section au livre deBernard Stiegler.  L’exemple du « cuisinier à domicile » permet de comprendre ce concept un peu théorique de « talent multi-échelle ». Le cuisinier médiocre est condamné à ne faire souffrir que ses proches de son absence de talents, mais celui qui a un petit talent peut l’exercer dans son voisinage proche (par exemple son immeuble) comme un service de proximité – pour dépanner. L’échelle suivante, d’autoentrepreneur non rentable est de procurer ses services dans son quartier. Plus le domaine grandit, plus on se rapproche d’un véritable statut d’artisan-entrepreneur. Un talent reconnu à l’échelle d’une ville permet de créer une entreprise traditionnelle, et on passe ensuite dans le domaine du professionnel reconnu. Compte-tenu du niveau de vie des Français, il y a peu d’emplois de cuisinier à domicile – même si l’on introduit des plateformes d’intermédiation de type Uber – mais si l’on regarde les opportunités créées par les vies complexes des salariés, il y a beaucoup de travail. C’est l’enjeu du modèle « intermittent du service à la personne ».

S’il est possible de fournir un travail pour tous, il semble en revanche probable que le modèle économique que je viens d’esquisser s’accompagne d’une décroissance des emplois, ce qui est la thèse du livre de Stiegler.  Thierry Breton lors de son intervention pendant le même séminaire du 12 Octobre nous a parlé de la « Gig economy ». Le président d’ATOS constate qu’un nombre croissant des jeunes recrutés ne souhaitent plus un emploi salarié et préfère la liberté d’un mode « freelance ». Pendant la semaine à la Singularity University, j’ai entendu le même message : le « freelance » représente déjà 35% de la force de travail en 2015 et les spécialistes prévoient 50% en 2020. Cette transformation illustre la complexité et la richesse des entreprises qui combinent la force des « liens forts » – des noyaux de permanents unis par les valeurs de la marque – et des « liens faibles » – l’appel à la richesse encore plus grande des talents extérieurs à l’entreprise. J’utilise ici bien évidemment l’appellation de liens forts et faible en référence à la sociologie, un emprunt que j’ai fait de nombreuses fois.

Il ne faut pas se crisper sur cette dualité des statuts : elle correspond à des aspirations différentes pour ceux qui travaille et à un besoin des nouvelles formes d’entreprises. Dans le best-seller « Exponential Organizations », les auteurs décrivent l’organisation idéale, celle qui permet de s’adapter aux flux continu du changement exponentiel des technologies, avec des modes de travail qui reflètent une partie des idées exprimées ici. Nathaniel Calhoun a reconnu pendant cette semaine à la Singularity University que ce nouveau mode d’organisation crée une contrainte sur les employés:  «  Exponential Organizations worsens the fate of labor ». Les auteurs de « Exponential Organizations » proposent l’acronyme SCALE qui signifie : "Staff" à la demande, Communautés, Algorithmes, effet de Levier sur les ressources et Engagement. IDEAS reflète les principes fondateurs : Interfaces (pour attirer les contributions externes),  Dashboards (pour décider à partir des mesures), Expérimentation, Autonomie et Social (Enterprise 2.0). Ces nouveaux modes d’organisation sont des leviers d’adaptabilité et de flexibilité, mais je rejoins Luc Ferry lorsqu’il souligne le besoin de régulation à cause de la brutalité du capitalisme à l’œuvre dans la révolution digitale (depuis les conditions Uber/Amazon jusqu’aux politiques d’évasion fiscale des GAFAs).

Pour conclure, il convient de souligner que ce nouveau mode de vie, en dehors du statut « traditionnel » de salarié, peut être aspirationnel.  Le travail de cuisinier à domicile est un travail noble, qui demande un goût de l’interaction avec les personnes en permettant de nourrir sa passion pour l’art culinaire. En revanche, une telle transformation de la société et de la culture représente un défi formidable qu’il faut accompagner. La réalisation de soi à travers une position salariée dans une entreprise, même si elle est récente dans l’histoire de l’humanité, a suffisamment marqué les dernières générations pour que l’adoption d’un modèle différent soit une révolution. Il y a de multiples éléments favorables. Comme l’a souligné Joël de Rosnay, les jeunes portent un regard différent que celui de leurs aînés sur le travail. Ils sont volontiers des « slashers », à la recherche de la passion et des interactions dans leurs activités professionnelles. Ils sont plus à la recherche de projets qui se renouvellent fréquemment (ce qui nourrit la « gig economy ») et vivent plus confortablement que les générations précédentes l’intrication entre la vie personnelle et la vie professionnelle. Néanmoins, à l’échelle de la société, cette évolution doit être accompagnée par la formation et l’éducation. Je termine en vous renvoyant à Michel Volle que j’avais déjà cité dans mon billet précédent : cette nouvelle économie des microentreprises et des services à la personne nécessite une revalorisation des compétences gestuelles et relationnelles.

  • L’expert

yves-caseau-2016

Yves Caseau est le chef de l'Agence numérique du Groupe AXA . L'Agence numérique, en ligne avec la stratégie numérique d'AXA, développe des produits et services numériques pour les entités du Groupe, avec un accent sur les applications mobiles et les objets connectés, une innovation favorise centrée sur le client suivant les Lean Startup principes.

Lire aussi: Relire et revoir la semaine spéciale emploi dans le numérique

mercredi, 04 mai 2016

TAFTA : ce que révèlent les documents dévoilés par Greenpeace

http://www.telerama.fr/monde/tafta-ce-que-revelent-les-do...

     

    Sur le même thème

    Salle de lecture mis en place par Greenpeace devant le Bundestag à Berlin, pour faciliter la consultation des documents divulgués.
L’organisation non gouvernementale a mis en ligne, lundi 2 mai, des dizaines de documents confidentiels concernant les négociations autour du traité transatlantique.
    Avec ces “TTIP leaks”, Greenpeace souhaite tirer le signal d’alarme. La mode est décidément aux lanceurs d'alerte et aux documents qui fuitent. Ce lundi 2 mai à 11h précises, Greenpeace a mis en ligne une quinzaine de documents confidentiels et inédits, soit la moitié des chapitres du Trans-Atlantic Free Trade Agreement – le fameux TAFTA, ou TTIP – discuté par les Etats-Unis et l’Union européenne du 25 au 29 avril dernier.

    L’organisation écologiste révèle ainsi la base des discussions finales du TAFTA, ce traité censé faciliter les échanges commerciaux et douaniers entre les deux continents. Les 248 pages brutes, inédites, secrètes et regroupées en 16 documents PDF, couvrent quasiment tous les aspects des négociations : agriculture, télécommunications, mesures sanitaires, etc.

    Les documents, que s’est procuré Greenpeace Pays-Bas sans en révéler la provenance, mettent en lumière quatre points qui « menacent d’avoir des implication dans l’environnement et la vie de plus de 800 millions de citoyens européens et américains ». « Que vous soyez sensibles aux problèmes environnementaux, au bien-être animal, au droit du travail ou à la vie privée sur Internet, vous devriez vous sentir concernés par ce qui figure dans ces documents : le TTIP est un énorme transfert de pouvoir des mains du peuple à celles du “big business”. » Greenpeace met d’ailleurs quatre points saillants dans ces documents fuités.

    • Les mesures de protection de l’environnement au long cours abandonné

    Selon ce que l’on peut lire dans ces documents, il semble que le traité transatlantique abandonne la règle d’exception générale, en vigueur depuis l’accord du GATT de 1947, qui régule le marché afin de « protéger la vie humaine, animale, végétale et la santé » et d’« œuvrer pour la conservation des ressources naturelles épuisables ».

    « L’omission de cette régulation suggère que les deux parties du traité créent un système dans lequel le profit et placé au-dessus de la vie humaine, animale et végétale », dénonce Greenpeace.

    • Fin du principe de précaution

    Autre omission dans les documents, le sacrosaint principe de précaution, qui permet à l’UE de refuser l’introduction sur son sol de certains produits ou pratiques qu’elle jugerait dangereux pour la santé et l’environnement. Pas une seule fois le principe n’est cité dans les douze chapitres. Par contre, note Greenpeace, c’est l’inverse qui semble vouloir être introduit par les Etats-Unis : il faudra apporter les preuves de la dangerosité d’un produit pour le voir interdit.

    • La protection du climat, promesse bien pieuse

    Quelques mois à peine après les accords de Paris, qui statuent sur le 1,5 degré de réchauffement à ne pas dépasser pour éviter une crise climatique majeure, le TTIP ne s’embarrasse guère de l’environnement. « Pis, note Greenpeace, le champ d'application des mesures de régulation se trouverait limitée par des dispositions » mises en lumières par ces documents rendus publics.

    • Le « big business » au milieu des décisions

    Autre cheval de bataille de Greenpeace contre le TAFTA, la mainmise des grandes entreprises sur les décisions. « Le big business obtient ce qu’il veut », ironise l’ONG. « L’opportunité de participer aux décisions est permis aux grandes entreprises. Elle pourront intervenir dans les discussions préliminaires », contrairement « à la société civile, qui n’aura qu’un petit droit d’accès aux négociations ».

    Les documents leakés par Greenpeace révèlent en outre le poids des Etats-Unis par rapport à l’Union européenne : par exemple, plutôt que d’harmoniser les réglementations, les accords TAFTA prévoieraient de reconnaître, à part égale, les réglementations des deux côtés de l’Atlantique. En d’autres termes, on nivelle par le bas : la norme américaine est reconnue comme équivalente à l’européenne, elle est donc acceptable.

    On remarque en outre que c’est l’UE qui se montre plus engagée dans les propositions et dans les négociations que les Etats-Unis. Car elle a théoriquement plus à y gagner : l’Europe peut ainsi s’ouvrir, entre autres, les portes des marchés américains, notamment publics.

    Ces documents, inédits, sont toutefois ceux qui ont servi de base aux discussions de fin avril, qui se sont déroulées à New York. Il se peut alors que certaines lignes aient bougé entre temps. « Chacun campe sur ses positions, et il est évidemment impossible de préjuger du résultat final », note d’ailleurs Le Monde.

        Vos avis 6

       

      Michael Weasel Michael Weasel 03/05/2016 à 16h00

      Bon, aujourd'hui la réaction de notre président ne s'est pas fait attendre -- un bon point pour une fois --, pour minimiser l'impact de ces « pseudo-révélations », car tout le monde se doutait depuis le départ que ce traité devait être en faveur des entreprises américaines. Comme on dit chez Microsoft : "It's the door open to all Windows". FH n'avait pas besoin d'accrocher une casserole supplémentaire à sa fin de règne. On le comprend. Espérons que le successeur ne signera pas n'importe quoi. Ni l'UE bien sûr. Cela dit, j'aimerais bien que Télérama se paie le luxe d'un correcteur, car ses articles font mal aux yeux. « Les documents, que s’est procuré...Greenpeace met d’ailleurs (?) quatre...le profit et placé au-dessus...le champ d'application des mesures de régulation se trouverait limitée...L’opportunité de participer aux décisions est permis ». Et la meilleure dans le contexte : « Les documents leakés par Greenpeace révèlent en outre le poids des Etats-Unis par rapport à l’Union européenne ». N'oubliez pas que la colonisation, ça commence par la langue.

      En outre, les commentaires sont déformés (perte des apostrophes par exemple) par votre logiciel si on fait un copié-collé de votre texte pour citation. La trahison du TAFTA va-t-elle jusque là ? ;-)

      2 internautes sur 3 ont trouvé cet avis intéressant.

      Trouvez vous cet avis intéressant ?

      Naile Naile 03/05/2016 à 15h26

      Sur le fond, L'association ATTAC dénonce ces traités depuis des années, sans grand écho de la part des médias durant tout ce temps. Sur la forme : alors même Télérama fait fi du C.O.D. placé avant le verbe pour écrire : "Les documents, que s’est procuré ......" bravo !!

      3 internautes sur 3 ont trouvé cet avis intéressant.

      Trouvez vous cet avis intéressant ?

      zeliet zeliet 03/05/2016 à 10h00

      Les entreprises ne pourraient pas exister sans les infrastructures construites grâce aux impôts de la société civile. Voies ferrées navigables aéroports etc. Elles ne pourraient exister sans l'éducation les formations des peuples. Écoles, universités permettent aux entreprises de recruter des personnels compétents sans obérer leurs leurs comptes sociaux. Les citoyens sont de facto les actionnaires "bénévoles" des entreprises. Et malgré cela ils sont exclus avec un parfait mépris d'une négociation qui les concerne au premier chef. Dans tous les sens du terme. Quel déni de démocratie. Mais suis je naïve. Le 21eme siècle est celui du fric. Des profits à se distribuer entre pairs. Quelle tristesse.

      24 internautes sur 24 ont trouvé cet avis intéressant.

      Trouvez vous cet avis intéressant ?

      Stefcra Stefcra 03/05/2016 à 09h04

      A un moment, il va falloir arrêter de prendre les gens pour des idiots. A force de continuer a diriger la politique et l’économie selon le bon vouloir des entreprises et des intérêts américains, j'ose espérer que le peuple se lèvera (et pas qu'en France) pour dire ce qu'il pense de toutes ces histoires.

      24 internautes sur 24 ont trouvé cet avis intéressant.

      Trouvez vous cet avis intéressant ?

      la grenouille la grenouille 03/05/2016 à 08h49

      J'ai deux questions naïves : 1 qui (Bruxelles, des représentants d'état - quels ministres -, autres instances) décide et signe ce traité 2 pourquoi ce traité est-il secret et bafoue-t-il donc la démocratie Pourquoi M. Tout le monde n'a pas droit de cité alors que ce traité impacte la vie de tout le monde (même la nature et les animaux) et ne profitera qu'aux poids lourds de l'industrie........... Je suis scandalisée par cette affaire! Que peut faire le citoyen lambda à part signer des pétitions, ce que j'ai d'ailleurs fait!

      29 internautes sur 29 ont trouvé cet avis intéressant.

      Trouvez vous cet avis intéressant ?

      mercredi, 16 avril 2014

      Production et analyse de données de masse contre enfermement dans des techniques de surveillance.

      Nous exportons nos données, des données brutes, que nous réimportons sous forme de services. Et ce faisant, nous perdons le cœur de notre valeur ajoutée, le cœur de nos emplois, le cœur de nos services. On est dans une logique d’éviscération par le pillage des données.” Pierre Bellanger

      Données personnelles : sortir des injonctions contradictoires

      Source http://vecam.org/article1289.html - Valérie Peugeot -  Creative Commons

      Imprimer la page Imprimer la page

      En matière de données numériques, trois vagues médiatiques se sont succédé sous nos yeux en l’espace de moins de 3 ans.
      • La première nous a fait scintiller les merveilles associées aux big data, source inépuisable de nouveaux gisements de richesse de l’économie numérique - déluge de données, nouvel or noir, fin de la science… - l’escalade métaphorique semblait sans fin.
      • La seconde a été liée au coup de tonnerre déclenché par la suite des révélations d’Edward Snowden : en quelques heures, les cris d’alarme négligés des associations de défense des libertés devenaient réalité, en pire. Nul n’avait anticipé l’ampleur et la diversité des données collectées par la NSA. Si big data il y a, ce sont bien celles interceptées et analysé par les autorités américaines, dans une logique de « big surveillance ».
      • Aujourd’hui, troisième vague, nous voyons se multiplier les articles qui tentent de dégonfler l’enthousiasme exagéré suscité par le projet big data, entre démonstration de l’inexactitude des Google Flue Trends et analyse des biais méthodologique du big data (iciet ).

      Mais ces critiques ne disent rien du problème précédent : comment dénouer le lien entre production, analyse de données de masse d’une part et logique de surveillance de l’autre. Car c’est bien de cela qu’il s’agit : plus notre économie inventera des services qui auront besoin de s’appuyer sur de la donnée pour fonctionner – et nous en voyons fleurir tous les jours – plus nous mettrons en place les infrastructures passives qui rendent les logiques de surveillance techniquement possibles, quel que soit le tiers qui décide de s’en servir.

      De fait, si les critiques du big data se gardent bien d’attaquer la question de la surveillance c’est que, comme beaucoup, ils se trouvent confrontés à un nœud apparemment gordien : vouloir empêcher le recueil de données, c’est bloquer l’innovation, et donc freiner l’économie numérique. Tous les lobbys qui se pressent à Bruxelles autour de la négociation du nouveau règlement en matière de données personnelles ne disent pas autre chose : ne nous empêchez pas d’innover ! Et en l’état, ils ont raison : tout renforcement de la protection des données personnelles peut apparaître comme un frein à la création de nouveaux services. À moins que nous ne changions radicalement notre manière d’aborder le problème.

      * * *

      Pour commencer, rappelons-nous que de plus en plus de ce qui constitue les big data est et sera de fait de données coproduites par des individus et des services, ce qui signifie que la problématique de la donnée personnelle sera de plus en plus prégnante. Au fur et à mesure que nos objets se mettront à communiquer – compteur, balance, montre, porte d’entrée, voiture etc – nous participeront à cette inflation de la masse de données. Toutes les données ne sont certes pas personnelles (ex : les données météos ne le sont pas), mais de plus en plus de données entreront dans ce régime, ce qui renforce le risque de surveillance.

      Face à cela, il nous faut tout d’abord éviter plusieurs impasses.

      La première consisterait à rester dans ce que l’on peut qualifier de « faible régime » actuel : de fait nous sommes dans une zone d’incertitude juridique, qui encourage les logiques de « prédation » de la donnée par les plates-formes pour les monétiser, avec des approches plus ou moins délicates (opt in / opt out). Cette situation accule à une vision « innovation contre vie privée », qui pousse le droit, dans une course sans fin, à galoper derrière l’innovation sans jamais être à temps pour protéger les utilisateurs. C’est une approche défensive peu efficace dans une période d’affaiblissement de la puissance publique face aux acteurs du marché. Nous ne pouvons que saluer les dernières prises de position du Parlement européen avec l’adoption en mars dernier du rapport Albrecht concernant le règlement général sur la protection des données, rapport qui rejette les propositions préjudiciables à la vie privée. Mais de fait le rythme du politique et du droit ne sont pas celui de la technologie, et même si le prochain règlement constitue une avancée, il peut en quelques années se révéler impuissants face à de nouveaux dispositifs techniques.

      La seconde impasse consisterait à vouloir glisser vers un régime de propriété (intellectuelle et/ ou commerciale) des données par l’utilisateur. Fleurissent actuellement les prises de positions qui vont en ce sens (cf. par exemple la tribune conjointe de Babinet et Bellangerou les prises de position répétées de l’avocat Bensousan). Cette approche me semble à combattre car elle soulève plusieurs problèmes imbriqués :

      • un problème de conception politique d’une part : en renvoyant sur l’individu la responsabilité de gérer et protéger ses données, au lieu de trouver des réponses collectives à un problème de société, elle participe d’une vision qui renforce l’individualisme et nie les rapports de force entre les consommateurs et les entreprises
      • conséquence du point précédent, surgit un problème très concret : ceci déboucherait sur un renforcement des inégalités entre citoyens numériques, entre ceux en capacité de gérer leurs données, de les protéger, les monétiser, et ceux qui par manque de littératie, de temps, ou toute autre raison, laisserait faire par défaut le marché.
        Le scénario plausible qui se met en place est celui d’une société numérique dans laquelle les personnes en bas de l’échelle économique et/où culturelle commercialisent leurs données (pas forcément sous forme monétaire, mais en échange de services), pendant que ceux qui disposent de moyens économiques et/où culturels les enferment à double tour numérique. C’est déjà ce qui se met en place (ex : Doodle) ou se profile (ex : YouTube, Apple) avec des services premiums payants sans publicité.

      Finalement ce choix entre deux moyens de paiement pour l’accès à un même service (monétisation directe versus attention) ne serait pas un problème en soi si la circulation des données de l’utilisateur ne soulevait pas chaque jour un peu plus des problèmes de vie privée.

      Sans compter que ce régime n’offre pas de garantie de non traçage à l’image de ce qui se pratique avec le « do not track » (dont l’interprétation par les grands opérateurs publicitaire laisse dubitatif : la collecte de données reste active, certes sans utilisation directe par la publicité sur le navigateur concerné, ce qui n’empêche pas à leurs yeux la revente sur des places de marché de données).

      • Ce scénario de la propriété sur les données est poussé par des acteurs qui y voient une opportunité d’affaires plus qu’une sortie par le haut dans une économie numérique en recherche d’équilibre. On voit ainsi apparaître des entreprises qui promettent aux internautes une monétisation directe de leurs données en les louant à des tiers (ex : Yesprofile). Ces acteurs ont pour l’heure un positionnement ambigu : ils promettent simultanément une reprise de contrôle sur les données par l’utilisateur et une source de revenus. S’ils partagent avec les acteurs du VRM (Vendor Relationship Management) le premier objectif, la promesse financière les en démarquent. Cette promesse financière semble illusoire, les simulations montrant un taux de retour de quelques euros, mais ce n’est pas la question essentielle. Dans cette approche, la régulation ne passe que par un modèle commercial, entre entités en situation d’asymétrie informationnelle et de rapport de force, ce qui se traduit inévitablement au désavantage du consommateur/utilisateur.
      • À l’inverse, si comme nous le pensons, cette monétisation directe des données par les individus génère des revenus anecdotiques, on peut imaginer de voir émerger un autre type d’intermédiaires qui se chargeraient non plus de la commercialisation mais de la « gestion protectrice de données numériques », c’est à dire de la vérification de qui collecte, qui en fait quoi. De la même manière que des entreprises se sont positionnées sur le marché de la réputation et proposent aux internautes des services de « nettoyage » de réputation (ex : RéputationVIP), d’autres pourrons se positionner sur la gestion protectrice. Là encore, certains utilisateurs pourraient se payer les services de ces « gestionnaires de données », pendant que d’autres devraient laisser leurs données circuler au bon vouloir des plates-formes et de leur marché secondaire de la donnée. Nous rebouclons ainsi avec la question des nouvelles inégalités numériques induites par un glissement d’un régime de droit vers un régime de propriété.
      • Par ailleurs, scénario du pire, si le choix était fait d’un passage en régime de propriété intellectuelle, cela supposerait, par analogie avec le droit d’auteur ou le brevet, que le droit exclusif de l’individu sur ses données soit temporaire. En effet par définition les régimes de propriété intellectuelle sont des exceptions de monopole concédées à un créateur ou un innovateur, délai au terme duquel les données passeraient dans le domaine public. On voit bien ici qu’un régime de propriété intellectuelle est totalement inapproprié : au bout de quel délai les données sortiraient-elles de la propriété de leur (co)producteur qu’est l’utilisateur ? Au moment où elles n’ont plus de valeur sur le marché de l’économie de l’attention ? De plus le droit d’auteur ne fonctionne que parce qu’il est assorti de nombreuses limites et exceptions pour des usages dits légitimes (recherche, éducation…). Est-ce que l’usage des données serait lui aussi « légitime » quand il est fait sous forme de statistiques agrégées (génomique par exemple ?).
      • De plus cela risque de pervertir la logique du droit de propriété intellectuelle : actuellement les informations brutes et les données ne sont pas couvertes ; le droit d’auteur ne concerne que la forme que l’on donne aux informations, et en Europe, le droit sui generis rend propriétaire la cohérence dans une base de donnée, et non les données elles-mêmes. En élargissant aux données personnelles, on risque de provoquer un glissement général vers une mise sous propriété de toutes les données et informations brutes, ce qui aurait des conséquences sur les données scientifiques, publiques… Très exactement l’inverse de ce que nous défendons avec l’open data, la science ouverte etc.
      • Une alternative avancée par certains serait la mise en place de sociétés de gestions des droits sur les données, à l’image des sociétés de gestion de droits d’auteurs. Outre le fait que les sociétés de gestion de droits d’auteurs sont loin d’être la panacée et sont régulièrement critiquées (cf. par exemple JF Bert), cette solution semble totalement irréaliste. Alors que sur les œuvres, les coûts de transaction pour la redistribution des droits aux auteurs sont tels que par exemple 68% des sociétaires de la SACEM ne reçoive aucune rémunération, on a du mal à imaginer un système de redistribution, même numérique, de quelques euros entre des millions d’utilisateurs.

      La troisième fausse piste, réside dans les solutions techniques de type cryptographie

      Pour l’heure plusieurs acteurs poussent aux solutions techniques. Il s’agit essentiellement des acteurs institutionnels (cf. les déclarations du premier ministre à l’ANSSI en février) et des acteurs venus des communautés technologiques (IETF, W3C, etc.) dont c’est le métier (cf. les nombreux papiers scientifiques proposés à la rencontre STRINT de Londres). Si pour ces derniers, il est cohérent d’aller dans cette direction puisque c’est là que réside leur savoir-faire et leur gagne-pain, il est plus surprenant de voir des acteurs politiques dépolitiser ainsi une question aussi centrale. • La réponse technique à un problème rendu possible par la technique est une course en avant sans fin, qui tend à éluder le fait que le numérique est un produit éminemment socio-technique. Pas plus que les DRM ne sauvent des industries culturelles qui refusent de prendre la mesure de la profondeur de la mutation à l’œuvre en matière de circulation des œuvres, la cryptographie ou autre solution technique ne saurait être une réponse à une problématique socio-économique. • Il y aura toujours une technologie capable de défaire la précédente. Jusqu’à présent aucun verrou numérique n’a su résister. De plus, comme le rappelle très justement Snowden « « Le chiffrement fonctionne […]. Malheureusement, la sécurité au point de départ et d’arrivée [d’un courriel] est si dramatiquement faible que la NSA arrive très souvent à la contourner. » Et rappelons-nous que la NSA (ou ses consœurs) installe des backdoors dans les logiciels de chiffrement eux-mêmes.

      * * *

      Alors que pouvons-nous envisager pour nous prémunir de la société de surveillance tout en continuant à créer, inventer ?

      Voici quatre pistes, qui sont autant d’invitation à débattre.

      La première piste consiste à orienter l’économie numérique le plus loin possible de l’économie de l’attention pour revenir à une économie servicielle. Aujourd’hui l’économie du Web repose en très grande partie sur une monétisation de « notre temps de cerveau disponible » via de la publicité pour nous inciter à consommer. Google, Facebook, Twitter, et même Amazon qui pourtant commercialise des biens, vivent sur des marchés dits bifaces ou multifaces : d’une main ils offrent un service non monétisé (moteur de recherche, microblogging, réseau social…), de l’autre ils revendent les traces de leurs utilisateurs soit en direct à des annonceurs, soit via des places de marché de la donnée sur lesquelles opèrent des data brokers. Parmi les plus gros opérateurs aux États-Unis on peut citer Axicom, dont on estime qu’elle dispose d’environ 1500 informations sur 200 millions d’américains ou encore Epsilon, BlueKai, V12 Group, Datalogix. Ce déport d’une part croissante de l’économie semble sans fin : un jour c’est un banquier qui émet l’idée de ne plus faire payer les frais de carte bancaire aux clients en échange d’un droit de réutilisation de leurs données ; demain ce sera un organisateur de concert qui vendra des entrées à bas prix en échange d’un accès aux données du spectateur, etc. En raisonnant par l’extrême, si des secteurs entiers de l’économie pré numérique se mettent à basculer vers cette illusion du gratuit et à commercialiser de la donnée en sus et place d’un bien ou d’un service, à qui les data brokers revendront-ils leurs données ? Cette information ne perdra-t-elle pas progressivement de la valeur au fur et à mesure que des pans entiers de l’économie basculeront vers des marchés bifaces basés sur l’attention ? Sans aller jusqu’à cet extrême, il nous faut aujourd’hui inverser trois choses : sortir de l’illusion que ce qui est gratuit pour le consommateur est bon pour lui ; revenir autant que faire se peut à de la commercialisation de services, ce qui participe à désenfler la tentation de captation des données personnelles (en ce sens, les services dits d’économie collaborative, en se rémunérant pour la plupart par un pourcentage sur la prestation sur le covoiturage, sur l’hébergement…, au lieu de pratiquer l’illusion de la gratuité assortie de publicité, participent à une forme d’assainissement de l’économie numérique) ; encadrer très fortement les marchés de data brokers, qui sont aujourd’hui totalement opaques et non régulés. Le marketing prédictif est le meilleur ami de la surveillance car il recueille et traite les données toujours plus fines sur l’individu qui rendent cette dernière techniquement possible. Tout ce qui peut contribuer à affaiblir ce marché est bon pour notre société et les libertés individuelles.

      Plus généralement, une régulation du marché des données, si l’on considère la transparence comme élément d’un contrôle social de l’usage des données, peut passer par une obligation de documentation technique très forte – quelles données collectées, où sont-elles stockées, combien de temps sont-elles conservées, … ? –. Cette documentation serait le support à l’intervention d’un corps d’inspecteurs des données, dont les prérogatives iraient bien au-delà de celles de la CNIL. C’est, dans un tout autre domaine, ce qui vient d’être fait par la justice américaine, qui a condamné Apple à être surveillé pendant 2 ans, suite à des pratiques d’entente illicite sur les livres numériques. Le principe met toutes les entreprises à égalité puisque celles-ci ont la responsabilité d’appliquer par défaut le bundle of rights, mais peuvent être soumises à des audits aléatoires.

      La seconde piste est certes technique, mais à l’opposé de la cryptographie, va chercher du côté des infrastructures ouvertes et libres (au sens logiciel du terme). Il s’agit, première brique, autant que possible d’utiliser des logiciels libres car ils assurent une surveillance horizontale par les communautés de ce que fait et comment peut être utilisé un logiciel, comme le rappel l’APRIL dans sa tribune dans Libération du 25 février 2014. La transparence du logiciel libre et sa capacité d’appropriation par d’autres que ses concepteurs initiaux en fait une brique d’une reconstruction d’une relation de confiance entre l’utilisateur et un logiciel. Mais au-delà des logiciels, ce sont aussi les normes qui doivent être pensées sur un modèle ouvert, pour qu’elles ne deviennent pas de nouvelles boites noires génératrice d’insécurité sur les données (en laissant une poignée d’acteurs nord-américains prendre le leadership de cette normalisation, nous n’en prenons pas le chemin). Ceci est particulièrement vrai pour les normes encore à construire pour l’internet des objets. Si nous laissons s’installer des standards propriétaires, nous donnons le fer pour nous faire battre. On peut aller plus loin en suivant les pistes de Van Kranenburg dans son rapport sur l’internet des objets où il propose d’aller vers des infrastructures globales ouvertes, depuis le RFID jusqu’au GPS (page 50 du rapport). Sur la base de ces infrastructures on peut alors imaginer des outils de gestion de sa vie privée comme ce RFID Guardian, imaginé par Melanie Rieback (page 49 du rapport) qui permet de régler l’usage du RFID quand on circule dans un environnement connecté (supermarché, ville…). Il s’agit enfin et surtout pour protéger nos données personnelles, de construire des infrastructures de management de ces données qui redonnent la main et le contrôle à l’utilisateur, infrastructures que certains appellent les PIMS – Personal information mangement systems, à l’instar de ce que développement une entreprise comme Cozy cloud.

      La troisième piste, qui déborde le cadre stricte des données personnelles pour s’intéresser aux données numériques en général, consiste, en s’inspirant des travaux d’Elinor Ostrom et de l’école de Bloomington autour des biens communs, à développer une sphère de données en Communs, c’est-à-dire de données qui peuvent être considérées comme une ressource collective, et qui n’entrent ni dans le régime des biens gérés par la puissance publique strico sensu, ni dans un régime de marché. Ce régime de Communs repose sur une gestion par une communauté de la ressource considérée, qui organise ses règles de gouvernance, en s’appuyant sur un « faisceau de droits » (bundle of rights »). Ces faisceaux de droits rendent possibles des régimes de propriété partagée. Un faisceau de droit c’est un ensemble de relations sociales codifiées autour de quelque chose à protéger comme le rappelle Silvère Mercier. Ils permettent de penser les usages indépendamment de la notion de « propriété », et d’adapter les règles de droit pour servir au mieux les usages en protégeant les ressources mises en partage. La grande force des Communs est d’ouvrir une troisième voix à côté de la propriété privée et de la propriété publique, un espace dans lequel des ressources, ici des données, ne sont pas soumises à un régime de droits exclusifs, mais peuvent être réutilisées selon certaines conditions fixées par la communauté qui en a la gestion et qui veille à leur protection. Il ouvre un espace protégé dans lequel les individus et les collectifs peuvent choisir de placer leurs données.

      Ces ressources sont ainsi soustraites au marché stricto sensu et aux logiques oligopolistiques qui sous-tendent le capitalisme que nous connaissons dans sa forme actuelle. Ce qui ne signifie pas que des porosités n’existent pas avec le marché ou que les Communs se font contre le marché. Les deux peuvent non seulement cohabiter mais également se compléter. Ainsi Flickr, plateforme de partage de photos, filiale de Yahoo !, héberge des photos placées par des internautes en régime de Communs via une licence Creative Commons, de même que des fonds d’archives photographiques du domaine public placées là par des institutions publiques (musées, bibliothèques...). De même ces ressources échappent au régime de pure administration publique qui laisse reposer l’entière responsabilité de leur gestion et de leur protection sur les épaules de la puissance publique. Les Communs impliquent une co-responsabilité de la part des acteurs qui en assurent la gouvernance, permettant ainsi un glissement de logiques purement délégatives à des approches plus contributives. De la même manière que pour le marché, sphère publique et Communs n’ont pas vocation à s’opposer mais à se compléter. Ainsi lorsqu’une communauté d’habitants en Bretagne décide de mettre en place et d’autofinancer en crowdfunding une éoliennesur leur territoire pour assurer une fourniture d’énergie autonome et durable au village, tout en utilisant un terrain de la municipalité, le Commun est coproduit par cette dernière et par les habitants, et se réalise en partenariat avec les entreprises privées qui vont construire l’éolienne et gérer les flux électriques sur les réseaux, sous le contrôle des citoyens qui auront financé le projet.

      Pour éviter que l’ensemble des données ne soient pas aspirées dans cette course à la marchandisation de la donnée et favorise ainsi une société de surveillance, il est essentiel qu’une sphère de données « en Communs » puisse fleurir, s’enrichir et être protégée contre des tentatives d’enclosures.

      L’existence de cette sphère de données en Communs présente plusieurs avantages : elle constitue un gisement d’informations dans laquelle d’autres acteurs extérieurs à la communauté des producteurs peuvent puiser pour créer, innover, proposer d’autres services ; elle permet de tirer parti des spécificités contributives du monde numérique

      * * *

      Quelles données pourraient appartenir à cette sphère des communs ?

      Trois catégories semblent possibles en premier regard :

      • Des données produites par la sphère publique et partagées en open data, sous réserve qu’elles soient assorties d’une licence de partage à l’identique (share alike). C’est déjà le cas de la licence choisie par un grand nombre de collectivités locales mais à notre grand regret pas par Etalab, ce qui veut dire que ces données peuvent être à nouveau « encloses ». Les données produites pas la puissance publique avec l’argent public doivent rester libres de réutilisation.
      • La seconde catégorie est constituée des données produites par les individus qui désirent placer ces ressources en bien commun. C’est déjà le cas des données produites dans OpenStreetMap, dans Wikipédia, qui de fait constituent une œuvre collective, pour lesquelles les communautés ont choisi un régime juridique qui protège les ressources en biens communs. Sur Wikipédia la communauté a fait le choix de deux licences compatibles, la licence CC by-sa et la licence de documentation libre GNU, qui dans les deux cas contiennent cette obligation du partage aux mêmes conditions.
      • Dans une moindre mesure, des données produites par des entreprises pour les besoins de leur activité – un catalogue de magasin, une liste de point de vente, un taux de fréquentation de ses magasins – et qui choisissent de les mettre à disposition de tiers dans une logique écosystémique. C’est ce qu’ont commencé à faire la SNCF ou La Poste, qui expérimentent autour de l’open data. Je dis dans une moindre mesure, car les données des entreprises peuvent à tout moment être ré-enfermées (ex : via une fermeture d’API comme l’a fait Twitter) et ne font pas l’objet d’une gouvernance collective, mais d’une gouvernance privée par l’entreprise qui décide de les mettre à disposition. On peut craindre, comme cela s’est déjà passé pour d’autres services numériques, qu’une fois l’écosystème constitué, les données ne redeviennent privées, l’ouverture ne constituant alors qu’une phase transitoire, un « produit d’appel ».

      La quatrième piste, proche dans sa source d’inspiration de la précédente, consiste à imaginer une gestion des données personnelles par un régime de « bundle of rights ». Le Bundle of rights, ou « faisceaux de droits » puise à un courant juridique qui a émergé aux États-Unis au début du XXe siècle et qui trouve ses racines dans la pensée juridique américain dite du « legal realism » (ou réalisme juridique) qui conçoit la propriété comme un ensemble complexe de relations légales entre des personnes, ainsi que l’explique Fabienne Orsi. Cette approche par le « faisceau de droits » permet, autour d’une même ressource matérielle ou immatérielle, d’identifier différents droits : ex : droit de posséder, d’utiliser, de gérer, de monétiser, de transmettre, de modifier… Cette approche est un des piliers de la pensée des Communs.

      Appliqué aux données produites sur le web par les actions des individus, les faisceaux ou bouquets de droits permettraient d’imaginer trois ensembles de droits :

      • Certains usages assortis de droits sont garantis par défaut à l’utilisateur, comme par exemple, le droit de savoir ce que l’on collecte sur lui ; le droit de rectification de ses données ; le droit à la portabilité des données ; le droit de placer ses données en Communs (cf. supra).
      • D’autres usages peuvent être à l’inverse garantis à la plate-forme, au producteur du service, comme par exemple le droit de gestion pour une amélioration de la relation client ;
      • Enfin, les usages intermédiaires qui sont ceux qui dégagent le plus de valeur d’usage à la fois pour l’entreprise et pour l’individu (ex : le graphe social) peuvent quant à eux faire l’objet d’un usage par l’entreprise sous deux régimes possibles :
        • Une ouverture de la donnée individuelle à un tiers sur base d’une autorisation explicite de la part de l’individu coproducteur, en échange d’un service ex : j’autorise une marque d’électroménager à accéder à mes données pour me proposer une machine à laver qui correspond à mes besoins, dans une approche dite VRM – Vendor relationship management. Cette approche fait l’objet d’une expérimentation à travers le projet MesInfos, porté par la FING.
        • Une ouverture de la donnée agrégée et anonymisée à des tiers sous condition de partage limité dans le temps. Sur une très courte période, quand la donnée est « chaude », la plateforme aurait le droit de monétiser celle-ci agrégée à d’autres, mais à l’expiration de cette période, la donnée ne pourrait plus être mobilisée directement ou indirectement par la plateforme productrice. La donnée devrait alors soit être détruite (pas de possibilité de stockage) soit être transférée vers un espace de type cloud personnel où l’individu pourrait la conserver s’il la juge utile, voire la partager s’il le souhaite.

      Cette approche par une discrimination à la fois temporelle des droits (donnée chaude, droits d’usage à l’entreprise, donnée froide, exclusivité de l’usager) et spatiale (stockage dans la plateforme, stockage dans un espace contrôlé par l’individu) pourrait ouvrir la voir à un bundle of rights positif, c’est-à-dire à la fois protecteur pour l’individu et en même temps ne tuant pas d’entrée de jeu le modèle d’affaires des entreprises du web qui proposent des services (hors marketing) construits autour de la donnée (ex : trouver un vélib).

      Enfin, de façon encore plus prospective, pour aller plus loin dans la réflexion, nous ne voulons pas placer ce régime d’usage sous le signe de la propriété partagée mais sous celui d’un nouveau « droit du travail contributif ». En 1936 Jean Zay avait défendu dans une loiqui n’a pas pu voir le jour à cause d’une opposition des éditeurs puis de l’explosion de la Seconde guerre mondiale, une conception du droit d’auteur basée non pas sur un régime de propriété intellectuelle mais sur la reconnaissance du travail accompli. Cette approche avait pour objectif de protéger les créateurs tout en défendant le domaine public, source de renouvellement créatif dans lequel puisent les nouvelles générations d’artistes (domaine public que l’on peut considérer comme l’une des composantes d’une sphère des Communs). En considérant l’auteur non plus comme un propriétaire, mais comme un travailleur, cette approche permettait à Jean Zay de dissocier les droits des descendants sur d’une part le droit moral à longue durée, et d’autre part les droits patrimoniaux pour lesquels il séparait (forme de bundle of rights) le droit à percevoir des revenus par les ayant-droits, qui devaient durer jusqu’à ce que l’œuvre entre dans le domaine public, de l’existence d’un monopole sur l’usage de l’œuvre, qui pour sa part était limité à dix ans après le décès de l’auteur, permettant ainsi aux œuvres de faire l’objet de nouvelles exploitations rapidement.

      Dans le cas qui nous occupe, si l’on accepte les hypothèses suivantes :

      • que le Web des données est le fruit du labeur conjoint des plates-formes et des utilisateurs, comme c’est affirmé entre autres dans le rapport Colin et Collin ;
      • que le travail est en train de muter profondément à l’heure du numérique, effaçant la frontière entre amateur et professionnel ;
      • que les travailleurs vivant hors du système classique du salariat vont se massifier …alors nous devons inventer ce droit du travail contributif qui pourrait s’appuyer sur un bundle of rights adapté à la nouvelle situation.
      *****

      Refus de la propriétarisation de la donnée, déplacement du capitalisme informationnel vers une économie servicielle, montée en puissance des infrastructures ouvertes de recueil et traitement des données personnelles, développement d’une sphère des données en régime de Communs, construction d’un droit des données personnelles appuyé sur un « faisceau de droits d’usage »... Chacune de ces pistes vise à empêcher la construction d’une société de surveillance. Certaines sont déjà en cours d’exploration. A nous de multiplier les recherches et de faire se rencontrer les acteurs qui œuvrent à une sortie par le haut de la société des données de masse. Pour que données puisse rimer avec libertés.

      * * *

      Valérie Peugeot

      Posté le 13 avril 2014

      ©© Vecam, article sous licence creative common



      Articles cités

      1) Eight (No, Nine!) Problems With Big Data

      • The first thing to note is that although big data is very good at detecting correlations, especially subtle correlations that an analysis of smaller data sets might miss, it never tells us which correlations are meaningful.
      • Second, big data can work well as an adjunct to scientific inquiry but rarely succeeds as a wholesale replacement.
      • Third, many tools that are based on big data can be easily gamed. For example, big data programs for grading student essays often rely on measures like sentence length and word sophistication, which are found to correlate well with the scores given by human graders. But once students figure out how such a program works, they start writing long sentences and using obscure words, rather than learning how to actually formulate and write clear, coherent text. Even Google’s celebrated search engine, rightly seen as a big data success story, is not immune to “Google bombing” and “spamdexing,” wily techniques for artificially elevating website search placement.
      • Fourth, even when the results of a big data analysis aren’t intentionally gamed, they often turn out to be less robust than they initially seem. Consider Google Flu Trends…
      • A fifth concern might be called the echo-chamber effect, which also stems from the fact that much of big data comes from the web. Whenever the source of information for a big data analysis is itself a product of big data, opportunities for vicious cycles abound.
      • A sixth worry is the risk of too many correlations. If you look 100 times for correlations between two variables, you risk finding, purely by chance, about five bogus correlations that appear statistically significant — even though there is no actual meaningful connection between the variables.
      • Seventh, big data is prone to giving scientific-sounding solutions to hopelessly imprecise questions.
        […] Big data can reduce anything to a single number, but you shouldn’t be fooled by the appearance of exactitude.
      • FINALLY, big data is at its best when analyzing things that are extremely common, but often falls short when analyzing things that are less common. {…] But no existing body of data will ever be large enough to include all the trigrams that people might use, because of the continuing inventiveness of language (à moins que d’abondantes inventions soient proposées par des machiutomates , et que les humains se contentent d’adopter certains choix des machines …).

      2) Big data: are we making a big mistake?

      3) Les Échos : La propriété des données, défi majeur du XXIe siècle par Benoît Georges (13 février 2014)

      Si les données sont l’or de l’ère numérique, comment contrôler leur exploitation par les géants d’Internet ? Pierre Bellanger, PDG de Skyrock, et Gilles Babinet, représentant de la France à Bruxelles pour les enjeux numériques, viennent de publier deux livres sur ce sujet. Le premier milite pour une souveraineté nationale, quand le second préfère une régulation mondiale.

      Selon vous, est-ce que l’on est encore au tout début de cette histoire ?

      • […]
      • GB : Si on fait des comparaisons avec la première ou la deuxième révolution industrielle, nous ne sommes qu’au tout début, c’est-à-dire au moment où les masses commencent à adopter les techniques, ce qui entraîne une accélération de l’innovation. Le phénomène est exponentiel, et c’est un moment unique de l’histoire de l’humanité.

      Aux Etats-Unis, cette notion ­d’exponentiel s’accompagne souvent d’un discours expliquant qu’il ne sert à rien de réguler un mouvement si rapide. Or la nécessité d’une régulation est au cœur de vos deux livres…

      • […]

      • P. B. : Dans ce que dit Gilles, il y a deux choses qui m’arrêtent. D’abord l’affirmation, comme une évidence, de la fin des souverainetés nationales. Je pense qu’il n’y a pas de liberté sans droit, et qu’il n’y a pas de droit sans souveraineté. Or la souveraineté est géographique, au sens que l’expression de la souveraineté est le droit d’une population qui vote démocratiquement ses lois sur un territoire donné.

        La deuxième chose concerne le laisser faire. Quand on étudie le complexe militaro-numérique américain, dont les intérêts de recherche scientifique, de subventions, d’aides sont coordonnés, on a affaire à une logique qui est bien plus administrée qu’elle ne l’est en Europe. L’attrape-bobo libertaire fait que l’on s’émerveille devant des start-up qui seraient nées dans des garages. On oublie juste de dire que le garage se trouve en fait sur un porte-avions !

      Quelle peut être la place de l’Europe aujourd’hui, alors que les ­plates-formes logicielles sont ­développées aux Etats-Unis et que les appareils pour y accéder viennent d’Asie ?

      • P. B. : Aujourd’hui, la place de l’Europe, c’est le buffet gratuit où l’on vient se servir. L’image qu’on peut reprendre, c’est celle de la bataille qu’a menée l’Inde au début du XXe siècle pour retrouver sa souveraineté sur le coton.

        L’Inde était un grand producteur de coton et, lorsque les Britanniques ont conquis l’Inde, ils ont rapatrié l’industrie en Grande-Bretagne pour réexporter le coton tissé vers l’Inde. Toute la bataille de Gandhi a été de récupérer ce filage du coton et cette souveraineté. Aujourd’hui, le coton du XXIe iècle, ce sont les données.

        Nous exportons nos données, des données brutes, que nous réimportons sous forme de services. Et ce faisant, nous perdons le cœur de notre valeur ajoutée, le cœur de nos emplois, le cœur de nos services. On est dans une logique d’éviscération par le pillage des données.

      4) Blog du Figaro : La propriété des données par Alain Bensoussan (18 mai 2010)

        Majoritairement, les individus s’expriment en marquant leur possession sur leurs données personnelles en disant « mon nom, mon adresse, mes informations ». Cette pratique est en quelque sorte « orthogonale » aux règles de droit.

        En France, comme dans de nombreux pays, la notion de propriété des données n'a pas de statut juridique en tant que tel.

        La propriété ne peut porter que sur la création intellectuelle de ces données (propriété intellectuelle telle que droit d'auteur, droit des marques, brevet), relever du domaine des informations « réservées » (car confidentielles), ou encore appartenir à des personnes physiques parce que constituant des données sur leur personne ou sur leur vie privée, et faire précisément l’objet d’une protection à partir des droits de la personnalité, à l’exclusion de tous droits de propriété. Il en est ainsi notamment du droit à l’image, du droit à la voix et du droit à la protection de sa vie privée.

        Les droits de la personnalité ont été renforcés par la loi Informatique et libertés et la directive 95/46 relative à la protection des données à caractère personnel.

      5) L’inexactitude des Google Flue Trends

        Google n'a pas voulu commenter les difficultés de cette année. Mais plusieurs chercheurs suggèrent que les problèmes seraient dus à une large couverture médiatique de la grippe US cette année, y compris la déclaration d'une urgence de santé publique par l’État de New York le mois dernier. Les rapports de presse ont peut-être déclenché de nombreuses recherches liées à la grippe par des gens qui ne sont pas malades. Peu de doute que Google Flu va rebondir dès que ses modèles seront raffinées.

        "Vous devez être en constante adaptation de ces modèles, ils ne fonctionnent pas dans le vide», dit John Brownstein, un épidémiologiste à la Harvard Medical School à Boston, Massachusetts. "Vous avez besoin de les recalibrer chaque année."

      6) Adoption en mars dernier du rapport Albrech

      • Paris, 12 mars 2014 — Le Parlement européen vient d'adopter en première lecture le rapport de Jan Philipp Albrecht concernant le règlement général sur la protection des données.
      • Les eurodéputés sont finalement parvenus à résister aux pressions des lobbys et ont rejeté la plupart de leurs propositions préjudiciables.
      • Bien que d'importants progrès ait été réalisés aujourd'hui, les dangereuses notions d'« intérêt légitime » et de « données pseudonymisées » ont été conservées, et pourraient empêcher le texte définitif de protéger les citoyens de manière effective.

      7) Les Echos : La propriété des données, défi majeur du XXIe siècle

      Une société numérique dans laquelle les personnes en bas de l’échelle économique et/où culturelle commercialisent leurs données , pendant que ceux qui disposent de moyens économiques et/où culturels les enferment à double tour numérique :

      • Doodle (http://fr.wikipedia.org/wiki/Doodle.com)  Doodle.com permet la création de sondages dont les options peuvent être quelconques ou des dates. C'est dans cette dernière fonction, dite encore de "synchronidateur", que le site est le plus utilisé, afin de déterminer une date ou horaire convenant à un maximum de participants. Une des caractéristiques du site est l'accès sans inscription ni connexion, tant pour le créateur du sondage que pour les participants.

        Modèle économique[modifier | modifier le code] Doodle.com a plusieurs sources de revenus :
        - Les annonces publicitaires présentes sur le site3.
        - Un service premium à destination des particuliers et des entreprises4.

      • YouTube : Les utilisateurs de YouTube pourraient toujours accéder gratuitement au vaste catalogue de musique et de vidéos musicales du site mais ils auraient l'option de payer pour un service "premium", sans publicité, qui offrirait en outre des extras, comme la possibilité de stocker les morceaux pour pouvoir les écouter sans être connecté à Internet.
      • Apple :La société négocie avec les opérateurs du câble et les chaînes de TV pour mettre sur pied un service qui permettrait de regarder ses programmes, sans publicité, moyennant un abonnement. {…]  Ces abonnements seraient ensuite en partie reversés aux groupes médias et opérateurs du câble. Un business model freemium qui n'est pas sans rappeler celui mis au point pour son service de streaming musical, iTunes Radio, qui sera disponible dans une version gratuite financée par la publicité et une version payante, à 24,99 euros par an, dépourvue de toute publicité.

      8) YesprofileMonétisation directe des données en les louant à des tiers. Redevenez propriétaire de vos données personnelles.

      9) VRM (Vendor Relationship Management)

      10) RéputationVIP Service de « nettoyage » de réputation.

      11) Solutions techniques de cryptage :

      samedi, 22 mars 2014

      Allez voter, mais méditez …

      "Alexandre Dorna, professeur à l’université de Caen et élu local, analyse le pouvoir politique local comme porteur par essence de l’abus de pouvoir.

      Par sa structure oligarchique et « pseudo-pluraliste », par la manière dont est organisé le processus politico-administratif, le pouvoir municipal est analysé comme un potentat de fait, sans possibilité de contre-pouvoir réel et où le respect de l’esprit démocratique au niveau local ne dépend finalement que de la personnalité du maire.

      En effet, dans une Municipalité le pouvoir est concentré autour :

      • du Directeur Général des Services
      • des Responsables Financiers de la Mairie
      • et de l'Adjoint aux finances, s'il s'entend bien avec le Maire

      Alexandre Dorna esquisse des mesures institutionnelles pour démocratiser la vie politique locale :

      • lutte contre le cumul de mandats et le carriérisme politique,
      • instauration d’une proportionnelle intégrale,
      • renforcement du statut de l’opposition"


      Le Citoyen face aux abus de pouvoir (Dorna) par fameli
      http://www.dailymotion.com/video/k752wlseVnBK8khDZM?start...


      Une série de vidéos sur l’abus de pouvoir (2007) avec la participation d'Anticor à retrouver sur http://www.agoravox.fr/actualites/citoyennete/article/le-citoyen-face-aux-abus-de-33209

      dimanche, 23 juin 2013

      Laurent PINSOLLE - Quand l’Allemagne n’a plus besoin de l’euro

      dimanche 23 juin 2013 http://networkedblogs.com/MrLbW

      Le groupe Xerfi vient de lancer des synthèses économiques qui rappellent un peu les travaux de Patrick Artus pour Natixis. La première étude, « L’UE, plateforme de production de l’économie allemande », décrit une Allemagne qui n’a désormais plus besoin de la monnaie unique.

      Le grand basculement commercial

      C’est une étude passionnante qui peut se résumer à quelques chiffres. En 2007, l’Allemagne ne réalisait que 35% de son excédent commercial hors de l’UE, 36% dans la zone euro et 29% dans le reste de l’UE. Sur les douze derniers mois, 74% de son excédent commercial est réalisé hors de l’UE, contre 5% dans la zone euro et 21% dans le reste de l’UE. Le solde intra-UE s’est réduit de 77 milliards d’euros, et a progressé de 70 milliards d’euros hors de la zone euro. Il faut noter que la zone euro ne représente plus que 37% des débouchés pour l’Allemagne (contre 47% pour la France).

      Ce grand basculement n’est pas neutre pour la monnaie unique. En effet, quand l’Allemagne réalisait l’essentiel de son commerce et de ses excédents en Europe, Berlin pouvait avoir des réticences à quitter la monnaie unique et accepter la dévaluation consécutive des autres pays (même si elle l’avait supporté dans les années 1990). Mais aujourd’hui, 95% de l’excédent commercial allemand est réalisé en dehors de la zone euro, donc une fin de la monnaie unique, si elle aurait sans doute des répercussions commerciales sur l’Allemagne, n’aurait pas des conséquences insurmontables pour le pays.

      Pourquoi l’excédent allemand en zone euro baisse ?

      La baisse de 77 milliards d’euros de l’excédent allemand sur la zone euro en cinq ans semble paradoxale alors qu’on ne cesse de vanter le modèle commercial d’outre-Rhin. En fait, un tableau donné par Xerfi permet d’avoir un bon éclairage. Depuis 1999, la part de l’Allemagne dans les exportations au sein de l’UE est restée complètement stable, à 22%. En revanche, la part de la France, la Grande-Bretagne et l’Italie est passée de 33% à 24% de 1999 à 2008, et se stabilise à 23% en 2012. Il faut noter que la part des PECO (Est) est passée de 6 à 15% entre temps (12% en 2008).

      Un autre tableau montre que l’Allemagne n’exporte pas plus dans l’UE depuis 2007 alors qu’elle importe 79 milliards de plus. Deux raisons expliquent ce phénomène. Il y a tout d’abord un décalage de croissance entre l’Allemagne, qui a rebondi après la crise, et le reste de la zone euro, en récession. Du coup, alors que le marché intérieur de la zone euro baisse, le marché intérieur allemand a un peu progressé, créant un décalage bénéficiant aux exportateurs des autres pays qui vendent en Allemagne, alors que les entreprises allemandes voient leurs débouchés européens baisser.

      Vers la constitution d’une hégémonie industrielle ?

      Mais le deuxième facteur, avancé par cette étude, c’est que l’Allemagne construit une position dominante d’un point de vue industrielle en Europe, utilisant les autres pays comme sous-traitants de son outil industriel pour en améliorer la compétitivité globale, et ne se souciant plus du marché européen puisque désormais, la croissance et les excédents sont réalisés ailleurs. L’intégration de l’Europe de l’Est a été mise en avant par Jacques Sapir, mais celle de l’ensemble du continent l’est davantage. Il faut noter qu’une sortie de l’euro permettrait de baisser le coût des pièces détachées venues d’Europe.

      Cela accompagne une marginalisation des trois autres grandes puissances industrielles, France, Grande-Bretagne et Italie, dont la part de marché intra-UE s’est effondrée, respectivement de 13 à 9%, de 10 à 6% et de 9 à 7% en seulement 13 ans, quand celle de l’Allemagne est restée stable à 22%, et les pays d’Europe de l’Est (sous-traitants de l’Allemagne) de 6 à 15%. Pour Olivier Passet, « l’Allemagne est en passe de transformer l’espace européen en base arrière d’exportation hors des frontières de l’Europe » en s’appuyant sur la réduction des coûts salariaux unitaires au sein de la zone euro.

      L’étude conclut en parlant de « l’impossible dialogue entre la France et l’Allemagne » et le caractère intenable du modèle allemand qui vassalise ses partenaires européens en détruisant leur intégrité productive. Elle rend aussi l’Allemagne indifférente à la fin de la monnaie unique.

      Libellés : Allemagne, euro, Jacques Sapir, Olivier Passet, Xerfi

      23 commentaires:
      1. Anonyme23 juin 2013 08:52

        Merci Laurent de mettre l'accent sur ce point essentiel pour l'avenir de la zone euro et de l'U.E. Le "grand dessein" s'accomplit jour après jour dans une logique implacable..
        Encore 3 ans et la situation industrielle sera tellement détériorée pour les "grands" pays de l'UE (hors Allemagne) qu'un éclatement subi de l'€uro provoquera des mouvements de capitaux tels que la seule issue qui leur sera proposée sera tout logiquement l'intégration au grand marché transatlantique... avec une Allemagne suzeraine du Vieux Continent et les autres "pays" européens définitivement en vassaux de l'Empire...
        Pimo29
        Le tournage de ce film écrit depuis longtemps se poursuit chaque jour, image par image, sans que les citoyens aient le réflexe de les repasser en accéléré pour prendre pleinement conscience du scenario...

      2. Anonyme23 juin 2013 09:43

        Citation de cette synthèse du xerfi :
        « A contrario, près de l’intégralité du solde commercial français(en l’occurrence du déficit) se forme au sein de la zone euro... avant, comme après crise ».
        Ce qui signifie que ce n’est pas la Chine ou autre pays hors UE qui est principalement responsable du déficit commercial français mais bien et essentiellement la seule participation de l’économie peu compétitive française à l’euro : une union monétaire sans fédéralisme et sans union de transferts où les États ont été mis en concurrence, fiscale, sociale, etc.
        L’euro a été très utile à l’Allemagne car ses excédents ont été les déficits des autres. Ce qui ne signifie pas que l’euro est devenu inutile pour l’Allemagne. Selon Patrick Artus : « l'Allemagne a prêté 3 000 milliards d'euros aux autres pays de la zone euro, d'où une énorme perte en capital si l'euro éclatait et si le "mark" se réévaluait » (je suppose qu'il s'agit surtout de prêts du secteur privé):
        http://www.lepoint.fr/invites-du-point/patrick-artus/pourquoi-l-allemagne-a-peur-de-la-france-04-06-2013-1676089_1448.php
        Mais il est clair que l’Allemagne qui fait maintenant la plus grande partie de son commerce extérieur hors zone euro ne peut pas se permettre de mettre en cause son modèle de compétitivité en augmentant brutalement les salaires pour devenir une pompe à consommation des productions des pays en crise de la zone euro qui auraient choisi de faire de la modération salariale. C’est pourquoi le système des dévaluations internes appliquées aux pays en crise de l’euro est actuellement la moins mauvaise solution pour l’Allemagne alors que pour les pays en crise c’est la pire des solutions car il est, c’est prouvé par les chiffres, très destructeur d’emplois et d’entreprises, même s’il parvient à réduire ou à faire disparaitre le déficit commercial en cassant la demande interne. Au vu de la destruction des capacités productives de ces pays en crise, dès que leur demande interne repartirait, elle repartirait en creusant leurs déficits commerciaux et de balance des paiements au profits d’excédents allemands et d'autres, s’ils restent dans l’euro.Ce n'est pas l'Allemagne mais les pays en crise qui ont intérêt à sortir de l'euro.
        Saul

      3. Rieux23 juin 2013 11:06

        Je crois que Saul oriente bien la réflexion. Il me semble qu'on ne peut pas se contenter d'observer la balance commerciale de l'Allemagne avec la zone euro pour voir l'intérêt qu'elle a à s'y trouver. L'appartenance à la zone euro permet à l'Allemagne de bénéficier d'une monnaie sous évaluée par rapport aux caractéristiques de son économie. Même si l'Allemagne dit l'euro sous évalué, le retour au mark produirait une réevaluation potentiellement néfaste à l'industrie allemande. La réévaluation par rapport à l'euro ne serait pas dramatique mais la réévaluation par rapport au franc, à la lire, à la pesete... serait très importante. Se cumulent la réévaluation du mark et la dévaluation des autres monnaies. Donc la balance commerciale allemande intra zone euro, c'est nada, mais si l'euro sautait aujourd'hui, ça pourrait être un joli petit déficit. Il vaut sûrement mieux que l'Allemagne s'assure d'avoir bien détruit les capacités productives de ses voisins avant de procéder à l'inéluctable.

      4. olaf23 juin 2013 11:07

        Ce qui n'est pas mentionné, c'est la différence colossale entre le nombre de robots en France et celui de l'Allemagne :
        Quand on compare le parc de robots installés en Allemagne, en Italie et en France, les industriels tricolores sont très nettement en retard. Alors qu'il y a 34.495 robots en France, il y a deux fois plus en Italie (62.378) et surtout quatre fois plus en Allemagne (148.195). Et l'écart tend à se creuser. Quand les industriels français installaient un peu plus de 3.000 nouveaux robots en 2011, outre-Rhin ils en ont acheté 19.500.
        http://www.latribune.fr/entreprises-finance/20120604trib000701958/la-france-manque-cruellement-de-robots.html
        Ce genre de détail, plus d'autres comme le nombre de brevets déposés montre une stratégie globale de positionnement dans la chaine de valeur.

      5. TeoNeo23 juin 2013 11:16

        L'UMP et PS (je ne parlerais pas de l’épouvantable MODEM) ne semblent absolument pas conscients de ce desastre, ou pire s'en accomodent car ils squattent le pouvoir et les bons postes bien remunérés. Et je ne vois pas trop comment se debarrasser de ce reseau oligarchique dans le calme.
        L'Empire americain va s'organiser en deux pôles USA et l'Allemagne qui a récupéré son pouvoir politique. (souvenez vous qu'auparavant on parlait de l'Allemagne comme un "nain politique") et les autres seront priés de suivre les directives.
        C'est pas la premiere fois que nos elites donnent les clés de la France aux etrangers. Je ne dis pas ca parce qu'ils sont etrangers mais qu'ils n'ont pas les mêmes interêts que nous donc ne doivent pas nous gouverner.

        1. Anonyme23 juin 2013 13:35

          Curieux hasard donc que ce projet d'accord USA-UE, non ?
          Avec un Barroso, prêt à tout pour obtenir un poste à l'ONU grâce à Obama, et un président français ordinaire, pleutre et mollasson, qui est disposé à tout accepter et même pire, l'avenir est radieux pour nous.

      6. olaf23 juin 2013 11:28

        Je crois aussi que les dirigeants d'entreprises françaises ont une grande part de responsabilité dans la débâcle dont la liste non exhaustive serait : mode de management, faible culture de l'innovation, faible investissement dans l'outil productif au profit des dividendes, parachutage de PDG issus de l'ENA par le gouvernement et ne connaissant rien au domaine concerné, pas de cogestion avec les syndicats, dévalorisation des métiers techniques au profit des HEC ou autres écoles, peu de considération des diplômes universitaires au profit des grandes écoles, faible filière de l'apprentissage, pas de rémunération complémentaire des inventeurs salariés du privé, faible progression de carrière au sein des entreprises...
        On peu aussi rajouter un système judiciaire français en sous effectifs qui déstabilise la sécurité juridique des acteurs économiques.
        Ca va être du boulot de changer tout ça, car même une dévaluation monétaire ne suffira pas à elle seule si tout le reste des handicaps est oublié.

        1. Anonyme23 juin 2013 11:46

          Bonjour,
          Je suis bien d'accord avec vos remarques. Lorsque le Medef parle a la tv ou radio c'est toujours pour parler finance, reclamer moins de taxes, plus de flexibilite, mais jamais strategie industrielle/innovation...
          Malheureusement, cela va avec le discours ambient fascine par la finance et des "elites" qui font la navette entre Bercy/haute fonction publique/PDG de tout et n'importe quoi par copinage..
          D'ailleurs, je trouve exasperant d'entendre sans arret ces patrons defendre leurs enormes salaires (pour le CAC40) au nom de leur pseudo "responsabilites ecrasantes", mais par contre ils ne sont jamais responsables de rien lorsque des boites vont mal...
          Je ne dis pas que si l'industrie va mal c'est seulement la faute des patrons/managers, mais il me semble qu'ils devraient au moins assumer une part de responsabilite, sinon autant mettre une femme de menage au smic a leur poste...

        2. Abdel23 juin 2013 12:17

          Olaf,
          Jamais un patron allemand du grande entreprise aurait sorti une idiotie comme celle-ci :
          "L' entreprise sans usine" de Serge Tchuruk
          http://www.marianne.net/Symbole-de-la-faillite-neoliberale-la-descente-aux-enfers-d-Alcatel_a194361.html
          Sans oublier la vente de Saft par Alcatel à un fond d' investissements britannique.
          C' est vrai qu 'aujourd' hui les batteries est un secteur inutile ( telephonie, vehicule hybride et electrique ) ;-)
          Oui, Olaf, la France peut retrouver le Franc , mais cela ne fera pas d' elle une nouvelle puissance industrielle.
          Ici, en Allemagne, où je vis ,mon nom est sur mes brevets.
          En France lorsque j' inventais quelque chose, étaient apposés dans les brevets les noms de la direction.
          Sinon , il faut être vraiment costauds psychologiquement en France lorsqu' on voit les parachutages dû au copinage .
          J' ai connu des entreprises où fallait être de Centrale pour faire carrière, de Sup Elec pour celle-ci , de Polytechnique pour celle-ci :
          On pouvait être bon, intelligent, ambitieux si on n' avait pas fait une de ces écoles dans sa jeunesse , on était foutu.
          PS: pour info, faites Sup Aero si vous entrez chez Airbus

        3. TeoNeo23 juin 2013 13:02

          La dévaluation et le protectionnisme ne suffiront pas à eux seuls certes mais sont un préalable aux bonnes politiques de redressement productif.
          Changer les mentalités des patrons français sera probablement long. Dans les années 60 deja, ils réclamaient de la main d’œuvre immigrée plutôt que d'investir dans la mécanisation.
          Si les industriels ne disposent plus du levier de la délocalisation pour baisser leurs couts grace au protectionnisme ils seront forcés de mecaniser leur production. Les usines citroen de la premiere guerre mondiale étaient remarquablement mecanisées parce que les patrons n'avaient pas le choix, il n'y avait plus d'hommes et beaucoup de commandes.
          Refermer un peu l’économie sur une zone qui dispose des mêmes salaires et législations va la remettre dans le bon sens, celui de l'innovation et de la mécanisation plutôt que de délocalisation et le blocage des salaires.
          Une fois cela fait on sera en position de force pour voir ce qu'on peut faire pour recompenser les inventeurs et pour supprimer l'E.N.A et autres grandes écoles non techniques qui produisent ce monolithisme intellectuel.

        4. olaf23 juin 2013 13:31

          Abdel
          Je vois que nous avons un angle d'analyse similaire, puisque nous avons l'expérience française et allemande dans l'industrie et la recherche.
          "En France lorsque j' inventais quelque chose, étaient apposés dans les brevets les noms de la direction."
          Pareil pour moi, j'ai dû en passer par la justice et moult frais d'avocats pour faire valoir mes droits d'inventeur en France et les procédures sont encore cours après plusieurs années. C'est absolument scandaleux et personne n'en parle en France, aucun parti politique non plus sauf un peu Bayrou, et après ils nous répètent en boucle le mantra de l'innovation sans jamais proposer l'équivalent allemand de :
          http://de.wikipedia.org/wiki/Arbeitnehmererfindung
          La France est dirigée par des autruches Tartuffe.
          Combien d'inventeurs chercheurs du privé dans la commission présidée par Lauvergeon ? Quasiment aucun... Ce sont toujours les mêmes petits cercles d'opérette qui se réunissent pour traiter de questions auxquelles ils ne connaissent rien.
          La France a encore des scientifiques et ingénieurs du privé aptes, mais l'oligarchie s'en moque, donc les premiers n'ont plus qu'à s'expatrier pour avoir une reconnaissance et un avenir.
          Il est clair que des entreprises sans usine, voire sans labo, est une crétinerie.
          C'est dans les labos et en allant sur les chaines de production proches que j'ai souvent trouvé des idées d'amélioration juteuses, en allant observer sur place, regarder ce qui se passe pendant la fabrication pour trouver les problèmes et les solutions, travail de détective qui n'a jamais été récompensé en France, mais l'est en Allemagne. Les ingénieurs sont pris pour des ploucs en France, la voilà la situation, quelques soient leurs apports.

      7. gilco5623 juin 2013 13:13

        Le doigt sur la vérité. Bien sur la force de l'Allemagne se constate dans pression sur l'europe : elle détient la clef, et nous pauvres français, nous devons nous "coucher"
        Dans le fond, que ferions nous si nous étions l'Allemagne ?
        Si nous avions des gouvernances patriotes ????
        Tout le problème est là ?

      8. Anonyme23 juin 2013 13:34

        C'est donc bien l'Allemagne qui sifflera la "fin de la récré euro" une fois qu'elle aura bien liquidé toute notre industrie grâce au PS et à l'UMP, toute l'oligarchie néolibérale. Le pire est le maintien du statu quo politique mais pas celui de l'arrivée au pouvoir du FN version MLP. Dupont-Aignan préférera le statu-quo!

        olaf23 juin 2013 14:32

      9. L'idée de Tchuruk est à l'inverse de l'entreprise allemande où je suis.
        Celle ci, au lieu d'externaliser, internalise des technologies existantes, se les approprie selon ses marchés, un travail d'orfèvre, pas de bucheron.
        A savoir qu'elle achète les machines à des sous traitants, puis adapte en interne ces machines à sa production créant ainsi une nouvelle forme d'expertise sur un marché plus ciblé à partir de technos externes plus génériques nécessitant des adaptations. Cela montre que les dirigeants allemands sont plus stratégiques car ayant une connaissance technique de ce qu'ils dirigent. Les dirigeants français tapent dans le vide car ils ne pensent qu'en termes de généralités, à la hache, et selon le proverbe : Der Teufel steckt im Detail.

      10. Gaston23 juin 2013 14:49

        L’Allemagne gagne, car elle est dans une ascendance constructive depuis la fin de la guerre et, elle a su prévoir le combat économique moderne. L’Allemagne est stratège.
        Elle a opté depuis l’époque des chevaliers teutoniques pour le pragmatisme, la qualité, la constance, le rationnel, l’émulation interne et la fibre nationale. Ils se sont donné le champ du possible pour être des vainqueurs.
        Ils ne copient pas les autres mais innovent et s’adaptent intelligemment.
        Ils méritent leur rôle de leader. Ils ont su construire des forces, des moteurs d’enrichissement créant ainsi, à l’intérieur de leurs territoires, une émulation régionale, indépendante et responsable, constituée par la diversité de ses lands. C’est le cœur de leur force.
        L’école allemande, est avant tout, l’école du réalisme. Ils ont su anticiper les paramètres économiques prévisibles plus de vingt ans avant les autres. Ils ont compris que pour lutter, face à cette vague chinoise et autres pays émergents, il fallait se rendre efficace par la qualité du produit, une marque référente, une méthode et des normes de techniques spécifiques, le tout dans une application courageuse et intelligente.
        La France vît de ses acquis, elle est bloquée par ce système jacobin et administratif qui exige sans devoir. Cette fragilité est notoire, nous sommes considérés comme des gens pas sérieux, imprévisibles, violents, inconstants, magouilleurs bref une mauvaise image. Ce qui fait dire à pas mal d’étrangers que le pays France ne mérite pas de ses occupants.
        Un Japonais investisseur dans le Centre de notre cher pays m’avait signalé la lourdeur de l’administration et la multitude de papiers pour s’installer au point qu’il envisageait de s’installer ailleurs.
        On a fait de la France un pays d’assistés, ces derniers sont dans une exigence insupportable, que nos élites de Gauche, du Centre et de la Droite ont créée et maintenue. On a oublié qu’à trop aider on se fait mordre un jour ... Déjà des maires compétents arrêtent leur mandat, en raison d’une responsabilité unique et des revendications incessantes des concitoyens. Rien ne va mais personne ne fait l’effort pour que cela aille mieux. On a rendu la France malade par un totalitarisme politique qu’on appelle aussi la Pensée unique.
        Notre centralisation nationale a fait croire aux gens que l’Etat, cette entité anonyme selon certains français, était responsable de tout. Il suffisait de demander. Ces braves gens oublient que l’Etat, c’est nous et c’est l’impôt qu’un tiers de français paient seulement. Tout le monde devrait d’ailleurs payer l’impôt, même si cela concerne une somme de 50 euros. C’est une responsabilité citoyenne, sinon nous sommes dans l’arbitraire.
        La France centralisée a fait un pays où les régions sont dépendantes et irresponsables dans les dépenses. Un gâchis national où l’on en constate les stigmates dans l’application onéreuse de certains chantiers exubérants.
        Cette France construite par les Rois devrait être libérée de cet assemblage subalterne que la République centralisée a faite. L’indépendance des régions comme les allemands avec leurs lands, est la clé pour retrouver une âme, une cohésion responsable.

        1. Anonyme23 juin 2013 17:26

          Bonjour les caricatures et préjugés réciproques sur nos 2 pays. Comme l' a dit Emmanuel Todd dans une émission de "ce soir ou jamais" l'Allemagne pense monde, nos élites pensent amitié franco-allemande.

        2. TeoNeo23 juin 2013 19:38

          Il ne faut pas oublier que l'Allemagne s'est retrouvée dévastée à plusieurs reprises par sa seule faute. A chaque fois que leurs élites ont voulu abuser du poids démographique et économique de leur pays ca s'est mal terminé pour eux.
          Ca peut s'expliquer par le fait que c'est une nation très récente qui s'est retrouvée avec trop de puissance et pas le recul nécessaire pour ne pas en abuser.
          Le fait que cet Etat existe encore en un seul morceau est un coup de chance du aux circonstances de la guerre froide.

      11. Anonyme23 juin 2013 17:35

        Attention à ne pas tomber dans la fascination irrationnelle du modèle allemand. Le texte de Gaston notamment s'inscrit dans une tradition de la haine française de soi qui n'a jamais utilisé l'Allemagne que comme le contre-modèle idéalisé de ce que l'on voulait condamner. Outre le fait que l'Allemagne ne connaît pas que des succès, il ne suffit pas de noter les réussites allemandes pour recommander ensuite de les singer. Encore faut-il s’interroger sur ce qui est transposable d’un pays à l’autre, compte-tenu de l’histoire, de la démographie, de la géographie même. La réussite du modèle décentralisé allemand ne peut pas être interprétée comme le succès d’une recette technique dont il suffirait de recopier en France les ingrédients et le mode opératoire pour y obtenir les mêmes résultats. L’unification Bismarckienne est un fait récent au regard de l’histoire de l’État-nation centralisé français. La Bavière, par exemple, est forte aujourd’hui d’un sentiment d’identité qui s’est construit au cours de plusieurs siècles d’existence comme entité politique indépendante.
        Le processus historique de construction de la nation français est très différent et explique qu’il n’existe aujourd’hui en France rien qui soit comparable aux identités régionales que l’on observe en ailleurs en Europe. Le dernier prince à avoir pu s’appuyer sur une puissance territoriale et militaire significative pour défier le roi de France a été Charles le Téméraire, au XVe siècle. Encore l’État princier bourguignon était-il d’une remarquable hétérogénéité. Le Connétable de Bourbon, un demi-siècle plus tard, n’était qu’un grand seigneur révolté contre François Ier, pas le chef d’un État féodal (de manière significative, il ne tente même pas en 1523 de lutter contre le pouvoir royal sur ses propres terres, mais s’enfuit auprès de Charles Quint). La France moderne n'’a donc connu dans ses provinces aucune forme d’autonomie qui soit comparable à la situatio, à la même époque, des États allemands, des États de la Péninsule italienne, ou même, en dépit des progrès de la centralisation en Espagne du XVIe au XVIIIe s., à celle issue des anciens fueros des provinces espagnoles.
        Les comparaisons entre la France et d’autres pays européens perdent de vue ce fait essentiel : la France est un pays tout à fait à part dans l’histoire politique de l’Occident, du fait de l’ancienneté de sa construction politique et territoriale. Cela ne signifie pas qu’il faille accepter en bloc tout ce qui nous vient du passé. Mais on ne peut pas construire l’avenir en faisant fi de l’histoire, en méconnaissant la manière dont nous sommes devenus ce que nous sommes. L’hypercentralisation française et la faiblesse des identités régionales sont sans doute excessives, appellent incontestablement à un travail de rééquilibrage sur le long terme ; mais il s’agit d’un héritage multiséculaire, structurant de notre identité politique et sociale. Imaginer qu’il serait possible de s’en débarrasser aisément au profit d’un mode de fonctionnement issus d’expériences historiques radicalement différentes est une illusion technocratique dangereuse.
        YPB

      12.  Laurent Pinsolle23 juin 2013 19:06

        @ Pimo29
        Grand dessein ? Pas convaincu. Je crois que les Allemands se sont adaptés à une monnaie dont ils n’avaient pas vraiment envie. Je crois que tout cela devrait au contraire nous pousser à une désintégration de l’UE et un éloignement des USA.
        @ Saul
        Nous avons un déficit de plus de 20 Mds avec la Chine tout de même. Si notre déficit reste très important, c’est aussi du fait que nous avons plus de croissance que tous les pays du Sud…
        Pas faux sur les pertes en capital, mais il faut voir que les banques allemandes équilibrent leur bilan en dehors de leur territoire, ce qui limiterait en partie les pertes.
        @ Olaf
        Merci pour ce rappel. C’est clair qu’il y a beaucoup de choses à reconstruire.
        Sur l’invention, il y a beaucoup à faire. Heureusement, notre pays a beaucoup d’ingénieurs de grande qualité mais il faudrait qu’ils aillent là où ce serait le plus utile (pas la finance) et qu’ils soient davantage intéressés et valorisés quand ils créent.
        @ TeoNeo
        Bien d’accord sur l’UMP, le PS, les centristes et les écolos. L’inconscience de nos élites est sidérante. Sur les patrons, il ne faut pas non plus exagérer. Je ne pense pas qu’ils soient plus mauvais qu’ailleurs. Ils font aussi avec les règles du jeu que leur donnent les politiques.
        @ Anonyme
        C’est un problème particulièrement fort dans la finance où on privatise les profits et on collectivise les pertes, comme même The Economist l’avait souligné.
        @ Abdel
        Pas faux sur Tchuruk. Mais sa logique reste en action dans bien des domaines (cf scandale Findus…), et pas qu’en France.
        @ Anonyme
        Pas forcément car elle ne voudra sans doute pas détruire l’euro, mais peut pousser les autres à le faire. Une grande majorité des Français ne veulent pas du FN
        @ Gaston
        Vision trop pessimiste à mon sens. Il ne faut pas exagérer. Notre pays est encore la 5ème puissance économique.
        @ YPB
        Merci pour votre réponse. Je suis bien d’accord.

        1. Anonyme23 juin 2013 22:27

          Oui effectivement sachant qu’en 2012 le déficit commercial de la France avec la zone euro n’est que total 41,07 milliards d’euros si on peut dire, un déficit de plus de 20 milliards avec la Chine est loin d’être négligeable en comparaison.
          http://www.atlantico.fr/decryptage/pourquoi-euro-est-pas-coupable-60-notre-deficit-commercial-vient-zone-euro-acrithene-641350.html
          Cet article de l’expansion indique : « Cela fait dix ans que la France est en déficit commercial - le dernier excédent remonte à 2002, à 3,5 milliards. »
          http://lexpansion.lexpress.fr/economie/ce-que-cache-la-baisse-du-deficit-commercial-de-la-france_371773.html
          Je ne connais pas un historique du déficit commercial français, mais il est peu probable que dans les décennies précédentes elle ait connue une aussi longue période de déficit commercial :
          Patrick Artus, dans la vidéo" La France sans ses usines" indique :
          http://www.youtube.com/watch?v=iazP6mudqRk
          « Quand l'euro s'apprécie fortement entre 2002 et 2008, la part de marché de la France dans le commerce mondial s'effondre, la part de marché de l'Allemagne ne bouge absolument pas. Econométriquement quand l'euro s'apprécie de 10 % par rapport à toutes les monnaies les allemands perdent 1 % de leurs exportations et les français 9 % de leurs exportations, ce qui révèle que la demande pour les produits français est très sensible à leur prix, ce qui normalement révèle qu'ils sont trop bas en gamme ».
          Saul

      13. Démos23 juin 2013 20:02

        Ce commentaire a été supprimé par l'auteur.

      14. Démos23 juin 2013 20:07

        Au-delà de l'Histoire, ce qui façonne les Nations, ce sont la culture, les mentalités, les rapports sociaux qui sont en jeu et, de ce point de vue, la France et l'Allemagne sont des Nations complètement différentes. Rien à voir.

      15. BA23 juin 2013 21:38

        Vendredi 21 juin 2013 :
        Plans de sauvetage de la Grèce : 77 % des fonds sont allés à la finance.
        Une étude d’Attac montre que les «plans de sauvetage» mis en oeuvre par les institutions de l'Union européenne et les gouvernements européens sauvent les banques, pas la population.
        Depuis mars 2010, l’Union européenne (UE) et le Fonds monétaire international (FMI) ont attribué 23 tranches de financement au prétendu « sauvetage de la Grèce », pour un total de 206,9 milliards d’Euros. Ils n’ont cependant fourni presque aucune précision sur l’utilisation exacte de ces énormes sommes, provenant de fonds publics.
        C’est pourquoi Attac Autriche a entrepris une étude sur cette question : au moins 77% de l’argent du plan de sauvetage ont bénéficié directement ou indirectement au secteur de la finance.
        http://www.france.attac.org/articles/plans-de-sauvetage-de-la-grece-77-des-fonds-sont-alles-la-finance
        En clair :
        Sur 206,9 milliards d'euros pour le soi-disant "sauvetage de la Grèce", 159,5 milliards d'euros sont allés directement ou indirectement au secteur de la finance.
        Quant au peuple grec, il a vu la destruction des services publics de la Grèce.
        La finance a reçu l'argent, et le peuple grec a reçu la misère.
        Le système actuel est complètement pourri.