Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

mercredi, 11 janvier 2017

L’Intelligence Artificielle forte émerge

http://informationsystemsbiology.blogspot.fr/2015/06/stro...

Le «retour de l' intelligence artificielle" est une tendance impressionnante de la blogosphère. J'ai passé un certain temps et le plaisir de lire les deux grands messages de blog WaitButWhy de Tim Urban intitulé «La Révolution AI: The Road to Superintelligence" et "La Révolution AI: Immortalité ou extinction" ( partie 1 et partie 2 ).

Le coeur de ces articles est la différence entre ANI (Artificial Narrowl Intelligence, que l'on appelle AI faible), AGI (Artificial General Intelligence , ou AI forte) et ASI (Artificial SuperIntelligence). Ces articles sont fortement influencés par Ray Kurzweil et ses nombreux livres, mais font un excellent travail de collecte et de tri des opinions contradictoires. Ils montrent un consensus en faveur de l'émergence d'AGI entre 2040 et 2060. Je recommande fortement la lecture de ces messages parce qu'ils sont amusants, en fait assez profonde et offrent une très bonne introduction aux concepts que je développerai plus tard. Mais, ils manquent l'importance de la perception, les émotions et la conscience, que je vais aborder dans ce billet.

La diversité des opinions est frappante. D'une part, nous avons des avocats très enthousiastes, comme Ray Kurzweil et son livre " Comment créer un esprit " dont je parlerai plus tard, ou Kevin Kelly avec ce grand article de Wired: " Les Trois Percées qui ont enfin Unleashed AI sur le monde ". Pour ce camp, AI forte est faisable, il est à venir et il est bon. De toute évidence , Larry Page est dans ce camp . De l'autre côté, on trouve soit des gens qui ne croient tout simplement pas dans la faisabilité de l' IA forte, comme Gérard Berry, célèbre pour dire que « les ordinateurs sont stupides ", ou des gens qui sont très inquiets de ce que cela pourrait signifier pour l' humanité tels que Stephen Hawking , Bill Gates ou Elon Musk , pour neciter que quelques - uns. Une des raisons à ce sujet est si chaud dans le Web est que la course d'investissement a commencé. Chaque grande entreprise de logiciel investit massivement dans AI, comme cela est expliqué par Kevin Kelly dans son journal. IBM et Watson ont commencé la course, alors que Google faisait l' acquisition de sociétés massivement dans les domaines de l' intelligence artificielle et de la robotique. Facebook a un programme d' IA massif qui a attiré beaucoup d'attention. Kevin Kelly cite Yahoo, Twitter, LinkedIn ou Pinterest pour avoir investi dans des capacités AI récemment. Il n'y a pas de débat sur la vague de l' ANI (forme faible de l' IA), qui est à la fois représenté par Kevin Kelly ou Tim Urban. Il est déjà là, ça fonctionne très bien et il est l' amélioration rapide. La grande course (et ceux qui investissent croient qu'il ya un changeur de jeu à l' avance) est d'obtenir d' abord à la prochaine génération de l' intelligence artificielle.

Je décidai d'écrire ma propre opinion , il y a quelques mois, d' abord parce que je suis fatigué d'entendre les mêmes vieux arguments au sujet de pourquoi AI forte était impossible, et aussi parce que je trouve tout en lisant Tim Urban ou Kevin Kelly (pour ne citer que quelques - uns) qui quelques - uns des ingrédients clés pour y arriver ont été portées disparues. Par exemple, il est trop l' accent sur la puissance de calcul, ce qui est un facteur clé , mais ne suffit pas, à mon avis, pour produire AGI, même si je l' ai lu et apprécié les livres de Ray Kurzweil. Je dois dire que je suis parti trop loin de l'informatique pour être considéré comme un expert dans une forme quelconque. Laissez dire que je suis un amateur instruit, parce que je commencé ma carrière et mon doctorat dans les domaines de la représentation des connaissances, des systèmes basés sur des règles et des systèmes soi-disant experts. Je travaille depuis longtemps sur l' apprentissage automatique appliqué à l' algorithme génération , puis plus récemment sur agent intelligent d' apprentissage avec le cadre GTES . Il y a une certaine ironie pour moi lors de l' écriture de ces pages, puisque l' un de ma première conférence quand j'étais étudiant à l'Ecole Normale Supérieure en 1984 était sur le thème de l' IA en remplaçant la main - d'œuvre d'aujourd'hui (à comparer avec un de mes messages sur le même sujet de l' année dernière).

Dans ce post, je vais explorer quatre idées, ce qui semble être, à mon avis, manque de ce que j'ai lu au cours des derniers mois:

  • Spéculer sur les algorithmes AI aujourd'hui comme un moyen d'atteindre l'IA forte est dangereuse car ces algorithmes seront synthétisés.
  • La vraie intelligence nécessite sens, il exige de percevoir et de l'expérience du monde. Ceci est l'une des principales leçons de la biologie en général et les neurosciences, en particulier à partir des dernières décennies, je ne vois pas pourquoi l'ordinateur AI serait échapper à ce destin.
  • Un cas similaire peut être faite à propos de la nécessité d'émotions informatiques. Contrairement à ce que je l'ai entendu, les émotions artificielles ne sont pas plus complexes à intégrer que l'ordinateur raisonnement.
  • La conscience de soi peut être difficile de code, mais il sera probablement émerger comme une propriété des systèmes complexes de prochaine génération. Nous ne prenons pas de donner une «âme à un ordinateur", mais en laissant le libre arbitre et la conscience de soi-même par rapport au temps et à l'environnement deviennent une clé caractéristique perçue des systèmes autonomes intelligents de demain, dans le sens du test de Turing.
1. Intelligence artificielle est Grown, Non Conçu


Ce n'est pas une nouvelle idée. J'ai fait le livre de Kevin Kelly " Out of Control " , une référence majeure pour ce blog . L'idée centrale de son livre est que dans le but de créer des systèmes vraiment intelligents, vous devez abandonner le contrôle. Cela est vrai pour l' IA faible et fort semblables. Ce qui rend cette idée plus pertinente aujourd'hui est la disponibilité combinée de puissance de calcul massive, le stockage massif et des quantités massives de données.Comme je l' ai expliqué dans mon Big poste de données où je citais Thomas Hofmann , « Big Data devient au cœur de l'informatique », la nouvelle façon de concevoir des algorithmes est de les développer à partir de quantités massives de données. Ces nouveaux algorithmes sont généralement "simple" (pièces ou ensemble sont sous-linéaire) afin d'absorber des quantités très importantes de données (peta-octets aujourd'hui, beaucoup plus demain). Une chose que nous avons appris des dernières années est que les algorithmes simples formés à vraiment énorme corpus de preuves font mieux que des algorithmes plus complexes formés sur deséchantillons plus petits. Cela a été démontré dans la traduction automatique, la vérification grammaticale et d' autres domaines d'apprentissage de la machine.

L' un des principaux AI technologie algorithmique du moment est convolution Neural Networks(CNN) et l'accent est mis sur « l' apprentissage en profondeur ». CNN sont une famille de réseaux neuronaux - en essayant de reproduire le mécanisme du cerveau pour se pencher àpartir de couches de neurones - caractérisé par le contrôle de back-propagation del'information de la formation prévue dans le réseau de neurones. Par exemple, vous pouvez lire l' entrée Mark Montgomery sur " les tendances récentes dans les algorithmes d'intelligence artificielle ". Apprentissage en profondeur a reçu beaucoup d'attention des médias grâce au succès de esprit profond et son fondateur Demis Hassabis. Les réseaux de neurones , sont un bon exemple des systèmes qui sont cultivés, ne sont pas conçus.

Si vous lisez attentivement sur les meilleures méthodes pour la reconnaissance vocale et la génération de la langue, vous verrez que vous avez besoin de plus de puissance du processeur et de grands ensembles de formation, vous avez réellement besoin de beaucoup de mémoire pour garder cette information "vivante". J'emprunte de Mark Montgomery de la citation de Sepp Hochreiter parce qu'il fait un point très important: " L'avènement de Big Data avec les architectures matérielles avancées et parallèles a donné ces vieux filets un coup de pouce de telle sorte qu'elles révolutionnent actuellement la parole et la vision sous l'apprentissage de la marque profonde . En particulier , le réseau "long mémoire àcourt-terme" (LSTM), développé par nous il y a 25 ans, est aujourd'hui l' un des reconnaissance de la parole et degénération de langage méthodes les plus efficaces ". Kevin Kelly attribue la «arrivée tant attendue de l' IA" à trois facteurs: calcul parallèle pas cher, les grandes données et de meilleurs algorithmes. Je suis évidemment d' accord avec ces trois, mais sa vision de «données volumineuses» , comme la disponibilité d' un grand ensemble de la formation est trop étroite.

Je ne crois pas non plus que les algorithmes actuels de 2015 sont révélateurs de ce que nous allons croître en 2040 lorsque nous avons calcul et de stockage des capacités massivement supérieures. L' histoire montre que l'esprit suit l'outil et que les scientifiques adapter en permanence aux nouvelles capacités de leurs outils. Nous sommes encore au stade de l'enfance, parce que nos capacités de calcul sont vraiment très limitées (plus à ce sujet dans la section suivante). Parmi les sceptiques de la communauté de l' informatique sont des gens qui pensent - et je dois convenir - que d' être en mesure de jouer de vieux jeux d'arcade à un "niveau de génie» est encore très loin d'une véritable étape vers AGI. La capacité de concevoir et d' explorer la recherche et de jeux de stratégies a été autour depuis longtemps dans la communauté AI (ie, jouer à un jeu sans règles). Beaucoup de critiques au sujet de la possibilité d'AI cite la difficulté de créer, de produire l' art ou d'inventer de nouveaux concepts. Ici , je tends à penser le contraire, sur la base de la dernière décennie de voir lesordinateurs utilisés dans la musique ou les mathématiques (comme un indice, je voudrais citer Henri Poincaré: « Lesmathématiques sont l'art de donner le même nom à des choses différentes»). La création est pas difficile à exprimer en tant que programme, il est en fait étonnamment facile et efficace d'écrire un programme qui explore un énorme espace abstrait qui représentent de nouvelles idées, de nouvelles images ou de nouvelles musiques. La partie difficile est évidemment de reconnaître la valeur de la création, mais les ordinateurs deviennent de mieux en mieux.

2. Une intelligence artificielle vraiment intelligente Doit Découvrez le monde

L'argument le plus commun contre l'IA forte et "vrai" traitement du langage naturel, quand j'étais encore proche de la communauté AI scientifique, était le «problème sémantique», qui est, la difficulté d'associer un sens à des mots dans un programme informatique. Ce que nous avons appris au cours des dernières décennies est que le langage naturel ne peut être compris par le biais de méthodes formelles. Grammaire, règles syntaxiques, lexicographie ne peut pas vous aider à bien sans une «référence sémantique» qui est nécessaire pour comprendre, même pour désambiguïser, beaucoup de phrases qui font de notre vie quotidienne. D'une certaine manière, il faut une base de phénoménologie pour comprendre l'homme et d'être en mesure de discuter de façon convaincante.

La véritable révolution qui se passe progressivement est que le Web peut être utilisé comme cette « fondation phénoménologique ». Cela a été expliqué à moi il y a de nombreuses années par Claude Kirchner lors d' une conférence à l'NATF : si vous êtes un ordinateur et devez penser "de l' expérience" d'un chien, pourquoi ne pas utiliser le réseau de millions de documents retournés par une recherche Google avec la requête «chien» comme référence de laphénoménologie? Elle nécessite d' énormes quantités de calcul et de stockage, mais il est de plus en plus réalisable. Dans toute sa richesse, la diversité et des liens avec d' autres expériences, ce nuage de documents (texte / image / vidéo / ..) fait une base solide pour répondre à bon savoir-questions sur les chiens. Ceci est un départ des approches précédentes où l'énorme quantité de sources disponibles sur le web est utilisé pour produire des «abstractions» (concepts qui sont représentés par les vecteurs de bits produits par des techniques telles que l' indexation sémantique latente de mon défunt ami Thomas Landauer ). L'idée ici est de garder l'ensemble du réseau de document en mémoire comme un substitut à l'expérience d' un chien. Je suis un peu lourd ici -one pourrait dire qu'il est un apprentissage en profondeur paresseux -, car il est un point clé lorsque l' on veut comprendre quand nous pouvons obtenir AI forte largement disponible: il est pas la même chose d'avoir l'ensemble des documents stockés dans votre cerveau d'ordinateur ou de construire un modèle grâce à laformation. Ceci est, pour moi, un point clé puisque nous avons appris d'autres scientifiques qu'il est très difficile de laperception et de la pensée séparée, car il est difficile de séparer le corps et l' esprit. Une référence évidente qui vient à l'esprit est Alain Berthoz et son travail sur la vue (par exemple, vous pouvez lire son livre sur décision ).

Dans un premier indice que l'accès à énorme quantité de données construit la capacité de comprendre des textes, nous avons commencé à voir des progrès significatifs dans le traitement du langage naturel (NLP) et nous sommes tenus de voir beaucoup plus quand plus de stockage et plus de puissance de traitement deviennent disponibles . La PNL est l' une des principales priorités pour le programme Facebook AI que je l' ai mentionné plus tôt . Il est également une priorité pour Google, d' Apple et beaucoup, beaucoup d' autres.Il existe déjà un certain nombre de signes passionnants que nous faisons des progrès. Par exemple, les ordinateurs peuvent maintenant jouer avec les mots jeux, tels que celui qui fait les tests de QI, mieux que la plupart des humains .Ce n'est pas encore un exemple de garder tous " l' expérience desconnaissances en mémoire», mais un signe que l' apprentissage en profondeur appliquée à quantité massive de données peut fonctionner assez bien. Un autre signe que la course vers la PNL fait rage est l'apparition de services qui sont principalement basées sur la réponse à desquestions. La référence évidente ici est IBM Watson, mais il y a beaucoup d' autres services innovants qui surgissent, tels que les textos services au - dessus de WeChat . Beaucoup de ces services SMS / concierge utilisent un hybride d'assistance humaine / robot, attendant la technologie pour devenir pleinement suffisante. J'entends aussi beaucoup de frustration dans mon entourage proche des lacunes de Google translate ou Apple Siri, mais le taux de progression est très impressionnant.Si vous n'êtes pas convaincu, lisez cet article passionnant sur la formation d'IBM Watson . Au cours d' une conférence que j'ai assisté le mois dernier, Andrew McAffee utilisé le graphique (Figure 9) où vous voyez le niveau de couverture / précision atteint par les versions Watson après les versions, comme une grande illustration de la puissance de la croissance de latechnologie exponentielle.

Ceci étant dit, l' une des raisons pour lesquelles je mets l' accent sur la nécessité de la mémoire est que le ralentissement de la DRAM augmentation de capacité peut se produire plus rapidement que le déclin présumé de la loi de Moore . Il se trouve qu'il ya beaucoup de façons de continuer à augmenter la puissance de traitement, même si la vitesse est fermée à sa limite et si l' intégration (réduction du transistor dimension) est également, dans sa version à deux dimensions, pas si loin de frapper des limites strictes. D'autre part, les performances DRAM semble progresser plus lentement et avec moins deroutes pour poursuivre sa croissance. Vous pouvez jeter un oeil à la table ou le tableau suivant pour voir que la mémoire de l' ordinateur progresse plus lentement que les processeurs, qui progressent plus lentement que les disques (cette dernière partie est très bien expliqué dans " The Dilemma Innovator "). Une autre façon de voir les choses est la suivante. J'ai attendu de 1 Pb (peta-octets) de mémoire sur mon PC depuis de nombreuses années ... au début des années 90, j'ai eu quelques mégaoctets, aujourd'hui j'avoir un couple de gigaoctets. Même au TCAC précédent de 35%, il peut prendre 50 ans pour y arriver, ce qui explique pourquoi je suis plus avec le groupe de penseurs qui prédisent l' AGI survenue en 2060, parrapport au groupe optimiste (2040). D'une part, on pourrait dire que demander un Pb est beaucoup demander (il y a plusieurs façons d'obtenir ce nombre , la mienne était tout simplement 100K expériences temps 10 Go de données réelles), mais étant donné clairement que la mémoire va continuer à croître au même taux est trop optimiste.

Liaison d' un ordinateur à un très grand nombre de «expériences» en une seule étape, l'approche suivante consiste à construire des robots autonomes avec leurs propres sens. Je parle souvent le bras robotique de l'Université de Tokyo , qui est sur le point d'attraper un oeuf qui est lancé vers elle à pleine vitesse, et qui est également capable de jouer au baseball avec la précision d'un joueur professionnel. La raison de cette fête d'ingénierie est pas un algorithme incroyable, il est la vitesse incroyable à laquelle le robot voit le monde, à 50 milliers d' images par seconde. A cette vitesse, la balle ou l'œuf se déplace très lentement et l'algorithme de commande pour le bras a un travail beaucoup plus facile à réaliser. En raison de l'importance des sens, des expériences et la perception, il peut être le cas que nous voyons des progrès plus rapides des robots autonomes que cloud AI jusqu'à atteindre AGI est concerné. On pourrait dire que la meilleure façon de former une intelligence artificielle est de le laisser apprendre par la pratique, en agissant et en explorant avec un cercle complet de rétroaction ( ce qui est précisément ce qui se passe avec les DeepMind expériences de jeux d'arcade ). Cela peut signifier que les robots autonomes, qui seront clairement être équipés avec des sens de perception exceptionnelles - on peut penser à Google voiture autonome , par exemple - seront dans la meilleure situation de se développer une forme forte émergence de l' intelligence artificielle.

3. Apprentissage et décisions exigent Emotions

Pour continuer sur ce que nous pouvons apprendre de la biologie et de neurosciences, il semble clair que les ordinateurs doivent équilibrer les différents types de penser à prendre des décisions sur un large éventail de sujets, d'une manière qui apparaîtra «intelligente» à nous , les humains. Beaucoup de ma pensée pour cette section a été influencé par le livre de Michio Kaku " L'avenir de l'esprit ", mais beaucoup d' autres références pourrait être cité ici, à partir de best - seller de Damasio " l'erreur de Descartes ". L'idée clé des neurosciences est que nous avons besoin à la fois la pensée rationnelle du cortex et de la pensée émotionnelle à prendre des décisions. Les émotions semblent déclenchées principalement par " lareconnaissance des formes" circuits bas niveau du cerveau et du système nerveux. Cette distinction est également liée à laDescription du système 1 / système 2 de Kahneman . Il semble être conçu pour mélanger la logique inductive et déductive.

Michio Kaku a une façon très élégante de regarder le rôle des émotions dans le processus de la pensée. Les émotions sont une fonction «coût / évaluation» qui est câblé (grâce à l'ADN) et a évolué lentement à travers l'évolution (grâce à l'ADN), de jouer deux rôles clés. D'une part, les émotions sont une fonction d'évaluation qui est utilisée comme une méta-stratégie de recherche et d'apprendre quand on nous l'déductive, la pensée rationnelle façon. Pour les personnes formées à des problèmes d'optimisation, les émotions définissent le premier niveau de la fonction "objective". Cependant, en tant que créatures ont évolué, nous construisons nos propres objectifs, nos propres désirs et nos propres fonctions de coût pour des situations nouvelles, qui est, comment nous apprécions de nouvelles expériences. Le deuxième rôle des émotions est d'être le fondement (on pourrait dire, les ancres) pour la fonction de coût que nous cultivons par l'expérience.

Ceci est étroitement lié à un cycle clé dans la biologie que nous pourrions appeler le «cycle d'apprentissage pour les êtres vivants»: le plaisir conduit au désir, désir de la planification, de laplanification à l' action, les actions conduisent à éprouver des émotions, comme le plaisir, lapeur, la douleur, etc. J'ai entendu parler de ce cycle , il y a quelques années , alors qu'il assistait à une conférence de systèmes complexes. Il semble décrire la boucle d'apprentissage pour un grand nombre d'êtres vivants, de très simple à nous les humains. Les émotions, à lafois comme positif que le plaisir et négatifs tels que la peur, jouent un rôle clé dans ce cycle, à partir de l' évaluation des situations et la formulation de plans. Nous pouvons voir qu'une conception similaire est pertinente pour l'objectif o f générer une forte intelligence artificielle. Il est clair qu'un véritable système intelligent doit être capable de générer ses propres objectifs, ce qui est effectivement facile, comme expliqué précédemment. Simuler "volonté libre" de l'aléatoire est une tâche simple (très discutable du point de vue de la philosophie , mais efficace d'un pragmatique).Cependant, l' intelligence dans la production d'objectif , il faut utiliser une fonction objective qui peut évoluer en tant que système intelligent apprend. Émotions informatiques peuvent être utilisés comme semences (ancres) de cette fonction objectif. F ou Michio Kaku, les émotions sont heuristiques basées sur des cas qui ont été finement réglé grâce à l' évolution darwinienne pour nous faire une espèce plus adaptatives . Le mélange des émotions et le raisonnement est pas vraiment un nouveau concept dans l' IA. Il est un moyen de mélange raisonnement par cas, dans une "forme compilée" qui a été appris précédemment par la génération précédente d'instances de logiciels avec la logique duraisonnement déductif qui est «interprété» et unique à chaque instance. Ceci est clairement un modèle multi-agents (system1 vs sysytem2) qui nous rappelle « La Société de l' esprit » proposée par Marvin Minsky en 1986.

Une grande illustration de cette idée proposée par Mikio Kaku est le sens de l' humour , qui peut être décrit comme notre capacité à apprécier la différence entre ce que nous attendons (le résultat de notre propre modèle de simulation du monde) et ce qui se passe. Voici comment des farces et attrapes magiques fonctionnent. Parce que nous apprécions cette différence, nous sommes des créatures ludiques: nous aimons à explorer, d'être surpris, de jouer le jeu. Kaku fait un argument convaincant que le sens de l' humour est un  trait d'évolution clé qui favorise notre capacité d'apprentissage comme une espèce vivante. Il est également très naturel de penser que smart AIs, avec une capacité similaire à planifier et simuler en permanence ce qu'ils attendent de se produire, devrait être donné un «sens de l' humour" similaire (par exemple, l' affinité pour l'inattendu) comme une recherche "méta -stratégie". Cette remarque ramène aussi à la nécessité de «émotions» pour éviter le danger ( par exemple, la façon dont nous apprenons à ne pas jouer avec le feu). Kaku voit également l'utilisation du libre arbitre, dans le sens d'exploiter une certaine forme de hasard - avec le même débat si elle est "true" la liberté ou une astuce pour utiliser une certaine forme de générateur pseudo-aléatoire biologique -, en tant que méta-stratégie évolué comme un avantage darwinienne pour la compétition des espèces. Il prend le lièvre , par exemple, qui avait besoin de développer des chemins aléatoires pour éviter le renard. Mais un cas plus général peut être fabriqué àpartir de la théorie des jeux où l' on sait que les stratégies mixtes (qui combinent une certaine forme de choix ou «libre arbitre») sortent mieux dans une compétition que des stratégies pures (déterministes). Un point similaire et plus technique pourrait être faite à propos de l'utilisation de la randomisation dans les algorithmes de recherche , qui a fait ses preuves dans la dernière décennie comme une méta-stratégie efficace.

Je recommande fortement la lecture du livre de Michio Kaku, qui a une portée beaucoup plus grande que ce qui est discuté ici. Par exemple, les pages sur des expériences à Berkeley pour lire les pensées sont très intéressantes. Ses idées sur le rôle des émotions sont tout à fait fascinant, et faire un bon complément au livre de Kurweil que je vais discuter dans la section suivante. Pour résumer et conclure cette section, la conception des émotions informatiques est probablement la meilleure façon d'introduire une certaine forme de contrôle dans un système autonome de raisonnement émergent . Les émotions sont à la fois une amorce et un mécanisme d'échafaudage pour la culture libre arbitre. Ils constituent notre premier niveau de la fonction objective, câblé en même temps que les sens des signaux plus primitifs tels que la douleur. Comme nous apprenons à tirer des objectifs plus complexes, les plans et les ambitions, les émotions sont un mécanisme de contrôle pour garder la nouvelle fonction objective dans des limites stables. Les émotions sont en quelque sorte un mécanisme de traitement de l' information plus simple que la pensée déductive du cortex ( ce qui est la raison pourlaquelle ils travaillent plus vite dans notre corps) et ils évoluent au niveau des espèces, beaucoup plus que le niveau individuel (nous apprenons à les contrôler, de ne pas les changer) . Cela rend les émotions d'ordinateur un mécanisme qui est beaucoup plus facile à contrôler que l' intelligence émergente. Mon intuition est que cela va devenir un domaine clé pour robots intelligents autonomes.

4. La conscience est une propriété émergente de systèmes de pensée complexe

Un autre argument classique des sceptiques quant à la possibilité de l'IA forte est que les ordinateurs, contrairement à l'homme, ne seront jamais conscients de leur pensée, donc pas conscients de leurs actions. Je suis en désaccord avec cette affirmation car je pense que la conscience émergera progressivement à mesure que nous construisons des systèmes d'IA plus complexes avec un raisonnement plus profond et capacités percevoir (cf. Section 2: percevoir est aussi important que le raisonnement). Je suis conscient (jeu de mots) qu'il ya beaucoup de façons de comprendre cette déclaration et que la définition précise est l'endroit où le débat reste chaud. Ici, ma propre pensée a été influencé par le livre de Ray Kurzweil "Comment créer un esprit». Même si je ne souscris avec l'histoire complète (à savoir que tout ce dont vous avez besoin pour créer un esprit est expliqué dans ce livre), je trouve ce livre une excellente lecture pour deux raisons: il contient beaucoup de points de vue et de la substance sur l'histoire de la PNL et l'IA, et il propose un modèle de raisonnement conscient, qui est à la fois pratique et convaincante. Comme vous l'aurez deviné, ma principale préoccupation avec l'approche proposée par Kurzweil est le faible rôle joué par les sens et les émotions est sa conception d'esprit.

Ce que je prévois est un cheminement progressif vers la conscience:

  • Auto contre environnement : le robot, ou AI autonome, est en mesure de comprendre son environnement, à voir et à se reconnaître comme partie du monde (le fameux "test du miroir»).
  • Sensibilisation des pensées : le robot peut dire ce qu'il fait, pourquoi et comment - elle peut expliquer ses traitements / étapes de raisonnement
  • Sensibilisation Temps : le robot peut penser à son passé, son présent et son avenir. Il est en mesure de formuler des scénarios, de définir des objectifs et d'apprendre de ce qui se passe réellement par rapport à sa prévision
  • Conscience Choix : le robot est conscient de sa capacité à faire des choix et crée un récit (sur ses objectifs, ses aspirations, ses émotions et ses expériences) qui est une base pour ces choix. "Narrative" (histoire) est un terme vague, dont je me sers pour englober déductif / inductif / raisonnement causal.

Bien que je vois une progression, ce n'est pas une hiérarchie étape par étape. I t est un ensemble intégré de capacités qui émergent lors de la détection, la modélisation et les capacités de raisonnement se développent . L' émergence de la conscience est un élément clé du livre de Kurzweil, comme le montre cette citation: « À mon avis, ce qui est peut - être un subschool de panprotopsychism, est que la conscience est une propriété émergente d'un système physique complexe. Dans ce point de vue le chien est également conscient , mais un peu moins d'un humain ". La caractéristique émergente implique également qu'il est difficile de caractériser, et encore plus difficile de comprendre comment il se fait d'être. Cependant, une fois qu'une AI a atteint les quatre niveaux de capacités conscientes que je viens de décrire, il est capable de nous parler de la conscience de soi d'une manière très convaincante. On pourrait objecter que ce soit, une étroite  définition pratique de la conscience, mais je dirais qu'il est celui qui compte pratiquement, pour l' IA forte et applications robotiques autonomes. Je ne vais pas toucher à ce poste la question clé de savoir si la conscience humaine est de la même nature (une propriété émergente de nous - mêmes comme un système complexe, une caractéristique essentiellement différente de notre espèce, ou un attribut de notre âme immortelle). L' une des questions chaudes au sujet de l' IA forte est le « problème difficile de la conscience » défini par David Chambers. Les «problèmes faciles de conscience» sont des capacités d' auto-sensibilisation qui Chambers et beaucoup d' autres voient aussi facilement accessibles aux robots. " Les problèmes difficiles" qualifie pensées de réflexion à propos de ses expériences qui semblent plus difficiles à capturer avec un programme d'ordinateur / Sans essayer de répondre à cette question difficile, il est clair pour moi que la conscience exige de l' expérience, d' où l'accent que je l' ai mis sur les sens, les perceptions et les émotions . Je crois aussi que, la complexité, de détection et de raisonnement des capacités suffisantes données, l' émergence peuvent se développer "consciences artificielles» qui viendront fermer le «niveau difficile de la conscience". Il est également clair que cela va ouvrir un certain nombre de questions éthiques sur ce que nous pouvons et ne pouvons pas faire quand on expérimente avec ce type de programme AI forte. Par manque de temps, je vous renvoie au livre de James Hughes "Citizen Cyborg ", où les droits des êtres conscients émergents sont discutés.

5. Réflexions finales

Il y a beaucoup plus qui doit être dit, en particulier sur le plan philosophique de la conscience et le niveau politique sur les risques sociétaux. Donc , je ne vais pas risquer une "conclusion", je vais conclure avec quelques réflexions. Mon post précédent sur ce sujet  est âgé de près de 10 ans , mais j'ai une intuition aiguë que beaucoup suivront plus tôt que 2025 :)

  • Premièrement, il est clair maintenant que la faiblesse de l' IA, ou ANI, est déjà là dans nos vies, et a progressé au cours des vingt dernières années , rendant ces vies plus faciles. Les deux articles de Tim Urban et Kevin Kelly que je l'ai mentionné à ce poste donnent un compte rendu détaillé avec beaucoup de preuves. Je peux aussi souligner après James Haight " Quelle est la prochaine pour l' intelligence artificielle dans l'entreprise ?". Kevin Kelly souligne l'avènement de "AI en tant que service", délivré à partir du nuage par un petit ensemble de leaders mondiaux. Je pense qu'il a un point juste, il y a clairement un premier avantage mouvement / échelle qui favorisera IBM, Google et quelques autres grands joueurs.
  • Cependant, il ar e plus de possibilités que la «pensée intelligente dans le nuage», (faible) AI est partout et continuera d'être omniprésente. L' apprentissage de la machine est déjà là dans notre smartphone et les prochaines décennies de la loi de Moore signifie que les objets connectés et appareils intelligents seront vraiment intelligent.
  • La course à la forte (ou au moins fort) AI est, comme illustré par les investissements massifs réalisés par de grands acteurs dans ce domaine. La prochaine cible est la PNL (traitement du langage naturel) qui est à notre portée en raison des progrès exponentiels de puissance de calcul, les grandes données (capacité de stockage et des données de façon disponible) et l'algorithme d'apprentissage en profondeur.
  • Ceci est sujet très perturbateur. Je ne suis pas d' accord avec la vision optimiste de Kelly dans son papier, ni avec Ray Kurzweil. La perturbation va commencer beaucoup plus tôt que l'avènement de la scène AI forte. Par exemple, la vague de ANI peut provoquer un tel chaos à rendre AGI impossible pendant des décennies . Cela pourrait être soit pour des raisons éthiques (lois ralentir l'accès aux ressources AGI en raison des préoccupations avec ce «faible» AI sera déjà en mesure de le faire en dix ans) ou pour des raisons politiques (la tourmente créée par les emplois massives destructions dues à automatisation ).
  • L'émotion et les sens font partie de la feuille de route vers AI forte (AGI). La mise au point d'aujourd'hui est sur la simulation du cortex comme un modèle pour AI avenir, mais tout, de la science cognitive à la biologie, suggère qu'il est le système nerveux complet du cerveau au corps qui va nous apprendre à développer une pensée autonome efficace. Ceci est effectivement plus facile de l'Etat sous une forme négative: AI conçu sans émotions, grâce à une focalisation étroite sur la croissance de la pensée cognitive et déductive par l'apprentissage émergent sera très probablement moins efficace qu'une "société des esprits» plus équilibré et presque certainement très difficile à contrôle.
  • La conscience émergera le  long de la voie vers l' IA forte. Cela arrivera plus vite que nous le pensons, mais il sera plus progressive (niveau chien, niveau enfant, niveau adulte, dieu-sait-quoi-niveau, ...). Forte AI ne se développera pas "dans une boîte", il se développera à partir des interactions constantes et ouvertes avec un vaste environnement.

Publié par Yves Caseau à 00h59

mercredi, 04 janvier 2017

Le futur du travail et la mutation des emplois

Par Yves Caseau, chef de l'Agence numérique du Groupe AXA
http://www.frenchweb.fr/le-futur-du-travail-et-la-mutatio...

Par Les Experts | le 5 décembre 2016 | 1 Comment

Business Communication Les Experts Recrutement Recrutement Talents Une - Carrousel 2

Futuristic female android at digital background

Le billet de ce jour rassemble un certain nombre de réflexions autour du «futur du travail». Ce sujet est particulièrement d’actualité en ce moment, qu’il s’agisse de la presse ou de la préparation de la campagne présidentielle. En ce qui me concerne, j’ai eu la chance de passer une semaine à la Singularity University dans le cadre du Singularity University Executive Program, ce qui m’a permis d’approfondir mes idées sur le sujet. Ce billet reprend les points principaux que j’ai développé le 12 octobre lors du séminaire de l’Académie des Technologies, lors d’une conférence intitulée «Emploi et travail dans un monde envahi par les robots et les systèmes intelligents». Il s’inscrit dans la continuité d’un premier billet écrit il y a deux ans, mais j’ai affiné mon diagnostic et j’ai donc des convictions plus fortes et plus précises.

La première partie fait le point sur la question de l’automatisation – des robots à l’intelligence artificielle – et de son impact sur les emplois. Depuis la publication du rapport de Frey-Osborne en 2012, il y a eu de nombreuses réactions. La plupart sont conservatrices et prudentes, qu’il s’agisse du rapport de l’OCDE ou du livre récent de Luc Ferry. Je ne partage pas ce revirement comme je vais l’exprimer, particulièrement après avoir passé cette semaine à la Singularity University. Je vais au contraire développer une vision de l’évolution du travail dans laquelle l’homme est complémentaire de ces nouvelles formes automatisées de production et de création de valeur.

La seconde partie est une réflexion sur la société à la quelle conduit cette nouvelle vision du travail. C’est, par construction, une contribution à l’iconomie, c’est-à-dire l’organisation de l’économie dans le cadre d’une exploitation pleine et entière des bénéfices de la technologie de l’information, y compris dans ces capacités d’automatisation (lire la définition de Michel Volle). Je propose une vision «fractale / multi-echelle» de l’ iconomie qui réconcilie la domination des plateformeswinners take all») et le retour de la «localisation» (la priorité donnée à la communauté et au territoire ) face au désarroi (pour rester mesuré) que cette rupture de paradigme va produire. Dans la tradition des «power laws» de la nouvelle économie, les bassins d’opportunité créés par le progrès technologique ont une structure maillée et multi-échelle qui contient une «longue traine» de micro-opportunités pour microentreprises.

La troisième partie porte sur cette rupture, la transition de phase entre le modèle actuel de l’emploi qui est clairement à bout de souffle et un modèle possible, correspondant à la vision développée dans les deux premières parties. C’est la question fondamentale, et la plus difficile : même pour les partisans d’une vision optimiste du progrès technologique dont je fais partie, la transition qui s’annonce est complexe, voire brutale. Même si le titre du livre de Bernard Stiegler « L’emploi est mort, vive le travail ! » contient un message positif, ce changement n’est pas moins qu’une révolution, qui est par ailleurs déjà engagée. Face à un changement qui s’accélère et des vagues d’automatisation nouvelles qui se dessinent, je suis persuadé que le monde politique a un rendez-vous avec l’Histoire, et qu’un certain nombre de mesures sont nécessaires pour éviter des scénarios noirs qui sont fort bien décrits dans des ouvrages de science-fiction. Il est possible de construire une société équilibrée autour de l’iconomie, mais la tendance naturelle du techno-système, sans intervention et régulation, est d’aller vers la polarisation et l’affrontement.

J’ai résisté à la tentation facétieuse et opportuniste de nommer ce billet « comprendre les causes profondes de l’élection de Donald Trump », mais je pense néanmoins qu’une des causes essentielles de cette élection, qui semble défier le sens commun, est qu’une grande partie des électeurs sentent plus ou moins confusément qu’un monde est en train de se construire dans lequel ils n’ont plus de place. Ce n’est pas une « simple » réaction à la désindustrialisation, c’est une peur de se retrouver « assignés à résidence », pour reprendre les mots d’Emmanuel Macron, sans utilité pour cette nouvelle société technologique et automatisée. Le défi qui est devant nous est de rendre l’iconomie « inclusive », c’est-à-dire avec une place pour chacun qui lui permette de contribuer au travers de son activité.

Automatisation, Intelligence Artificielle et destruction d’emploi : état des lieux

Une révolution numérique qui détruit plus d’emplois qu’elle n’en crée

Depuis l’étude « The Future of Employment » de Carl B.Frey et Michael A. Osborne, qui a annoncé que 47% des emplois seraient menacés aux US par l’automatisation, le débat est intense. D’un côté, il existe de nombreuses études similaires, comme par exemple celle sur le marché UK qui arrive à des résultats du même ordre de grandeur (au UK ou aux US). D’un autre côté, on trouve des études plus nuancées et moins pessimistes, comme celle de l’OCDE ou celle de McKinsey. C’est ce qui fait prendre à Luc Ferry une position plus rassurante dans son livre « La révolution transhumanisme ».  Je ne partage pas ce nouvel optimisme. Un des arguments est qu’une partie des tâches, et non pas des emplois, sont touchés. Mon expérience est que les entreprises ont acquis la capacité à redistribuer les tâches pour transformer les gains en efficacité en réduction de coûts salariaux, en dehors d’une hypothèse de croissance.

yves-caseau-20161

Ce qui me range dans le camp de l’étude Frey-Osborne, c’est que les arguments des conservateurs reposent sur une analyse du passé sur ce qu’on peut attendre des progrès de l’Intelligence Artificielle. Il me semble imprudent de s’appuyer sur toutes les promesses non-tenues des décennies précédentes pour en conclure que l’automatisation poursuit une lente progression « as usal ». Je vous renvoie au deuxième livre de Erik Brynjolfsson et Andrew McAfee, « The Second Machine Age », pour vous convaincre qu’une nouvelle vague d’automatisation arrive à grand pas, avec une accélération spectaculaire lors des dernières années de ce qui est possible. Les auteurs reviennent en détail sur des avancées telles que les diagnostics médicaux par une intelligence artificielle, les véhicules autonomes ou les robots qui écrivent des articles pour les journaux. Pour reprendre une de leurs citations : « Computers and robots are acquiring our ordinary skills at an extraordinary rate”. Je viens de passer une semaine à la Singularity Universityet les exemples plus récents présentés pendant cet “executive program” renforcent et amplifient les messages du “Second Machine Age”. Il est assez juste de remarquer, comme le fait Erik Brynjolfson dans un de ses exposés récents, que nous nous ne sommes pas « en crise, mais en transformation », mais cela ne change pas grand-chose au défi qui nous est posé. Dans ce même livre les auteurs nous disent que la transformation produite par la technologie est bénéfique … mais pose des « défis épineux ».

Les usines « sans humains » sont déjà là, les exemples sont multiples, de différentes tailles et dans différents domaines. L’exemple de l’usine de Sharp pour produire des dalles LCD, que j’ai pu visiter personnellement, est spectaculaire : moins de 20 personnes pour plus d’un kilomètre carré d’usine, cette visite, qui date déjà de plusieurs années, m’a profondément marquée. L’exemple de l’usine de fabrication de Tesla est non moins exemplaire, à la fois par le choix de la relocalisation et l’automatisation la plus poussée possible. Le cas de l’usine de Sélestat du groupe SALM est un peu moins spectaculaire, mais tout aussi instructif.  Le fait que le monde change aussi vite sous nos yeux doit d’ailleurs nous conduire à beaucoup de prudence sur les études que je viens de citer. Comme le remarque Neil Jacobstein, que j’ai eu le plaisir d’écouter sur ce sujet à la Singularity University, ces études s’appuient sur une continuité des types de tâches à effectuer (ce qui permet d’appliquer le peigne de l’analyse de la future capacité à automatiser), une sorte de « everything being equal », qui est probablement valide sur une courte échelle (quelques années) mais beaucoup plus discutable sur quelques décennies.

Il va falloir du temps pour remplacer complètement les humains dans les processus

Comme je le remarquais dans mon billet précédent, la route vers l’automatisation n’est pas simple. Les annonces célèbres de Foxcon qui  voulait remplacer ses 300 000 employés par un million de robots n’ont pas été suivies d’effets notables pour l’instant. En revanche, l’automatisation des entrepôts d’Amazon avec des robot KIVA  est une réalité, tout comme celle des usines « sans humains » que nous avons mentionnées. Cette réalité contrastée s’explique par le fait que l’automatisation des tâches non répétitives reste complexe. Plus précisément, les progrès en apprentissage – en particulier le deep learningsont spectaculaires lorsque la question à résoudre est précise et lorsqu’il existe beaucoup de données pour apprendre. En revanche, s’il y a peu de données (s’il faut extrapoler sur peu de faits, le « sens commun » devient fondamental et cela reste un sujet difficile) et surtout si l’objectif est mal défini (et encore plus lorsqu’il s’agit de définir ses propres objectifs), l’être humain conserve pour quelques temps un avantage sur la machine. Ceci conduit à un article récent de McKinsey intitulé  « Where machines could replace humans—and where they can’t (yet) » qui aboutit au même ordre de grandeur sur ce qui est substituable et ce qui ne l’est pas. Pour comprendre ce qui est déjà possible et ce qui ne l’est pas encore, je vous recommande « What Artificial Intelligence Can and Can’t Do Right Now » de Andrew Ng. Mais les limites d’aujourd’hui ne sont pas celles de demain !

Une des conséquences de l’état de l’art en IA est que l’automatisation des emplois peut commencer par des emplois d’experts et non de généralistes. C’est ce qu’expliquent Brynjolfson et McAffe : «  As the cognitive scientist Steven Pinker puts it, “The main lesson of thirty-five years of AI research is that the hard problems are easy and the easy problems are hard. . . . As the new generation of intelligent devices appears, it will be the stock analysts and petrochemical engineers and parole board members who are in danger of being replaced by machines. The gardeners, receptionists, and cooks are secure in their jobs for decades to come.”  C’est précisément ce qui m’a frappé pendant ma semaine à la Singularity University : les exemples abondent de domaines pour lesquels l’algorithme fait mieux que l’humain, mais ce sont précisément des domaines d’experts avec une question bien définie (quel portefeuille d’investissement construire, quel diagnostic sur une tumeur possiblement cancéreuse, …) et une très grande volumétrie de données disponibles. Grace au groupe de travail de l’Académie des Technologies qui poursuit son enquête sur les avancées “récentes” de l’IA et de l’apprentissage, ma conviction se conforte que, même si la date est incertaine, la tendance à l’automatisation des emplois du rapport Frey-Osborne est la bonne.

Cette notion d’automatisation des emplois est un raccourci qui est probablement trompeur, dans le sens que plutôt d’avoir des robots et des logiciels d’intelligence artificielle qui vont remplacer des humains un par un, c’est l’environnement complet qui devient “intelligent”. La combinaison de robots, d’objets connectés, de senseurs, et de logiciels “intelligents” ubiquitaires (répartis depuis le cloud jusque dans l’ensemble des processeurs invisibles qui nous entourent) crée l’environnement de travail “assisté” dans lequel moins d’humains réalisent plus de choses, mieux et plus vite.  L’article de McKinsey, « Four fundamentals of workplace automation » explique que « Jobs will be redefined before they are eliminated » et insiste sur cette transformation progressive des activités dans ce nouvel environment. Cette transformation par l’automatisation ubiquitaire est plus “douce”, mais elle n’en est pas moins disruptive.

Transformation du paysage de l’emploi

Dans le précédent billet j’ai déjà cité abondamment l’article de Susan Lund, James Manyika et Sree Ramaswamy, intitulé « Preparing for a new era of work » (Kc Kinsey Global Institute), qui me semble profondément pertinent. Pour simplifier voire caricaturer, il propose de séparer les emplois en trois catégories : la production, les transactions et les interactions. Les deux premières catégories sont celles qui vont être massivement touchées par l’automatisation : les emplois de production sont – dans leur grande majorité – remplacé par des robots tandis que les emplois liés aux transactions vont être décimés par l’utilisation de l’intelligence artificielle, même si cela prendra un peu plus de temps – cf.la section précédente. Il reste, pour un temps plus long, le domaine des métiers d’interaction qui peut résister plus longtemps. Ce mot « interaction » serait complexe à définir puisqu’il fait référence aux interactions entre humains et s’oppose à la catégorie précédente par un contenu « non-transactionnel » sur un registre émotionnel (il y a une certaine circularité dans l’argument, et des spécialistes de robotique m’ont fait remarquer que de nombreux robots ont précisément un objectif d’interaction, y compris avec des humains). Je trouve néanmoins cette distinction intéressante, et je suis plutôt d’accord avec la proposition des auteurs. Les emplois de demain seront très probablement caractérisés par les échanges entre humain dans des dimensions émotionnelles, affectives, artistiques qui dépasseront le cadre de l’automatisation tout en profitant de ce nouvel « environnement intelligent ». Par exemple, le jardinier, le masseur ou le plombier de demain seront des métiers technologiques, collaboratifs et sociaux, dans le sens ou l’environnement intelligent déchargera de certaines activités pour se concentrer sur l’essentiel (par exemple, le sens et le plaisir du jardin).

yves-caseau-20162

Dans cet univers qui se dessine, tout ce qui s’automatise devient une commodité, la valeur perçue se trouve dans les émotions et les interactions. C’est précisément une des thèses du best-seller déjà ancien de Daniel Pink, « A Whole New Mind », qui caractérise les métiers de demain par une « prévalence du cerveau droit sur le cerveau gauche » – à ne pas prendre au pied de la lettre mais dans le sens communément admis même si discutable. On retrouve dans son livre les talents de demain comme le « story telling », le « design », la « créativité », l’empathie ou le jeu. Ces métiers d’interaction de demain ne sont pas issus de nouveaux domaines à créer, mais pour leur grande majorité la continuité des métiers d’interaction d’aujourd’hui.  Santé, bien-être, ordre public, éducation et distraction vont continuer à être les principaux fournisseurs de travail pour les décennies à venir.

Le jardinier du futur utilise probablement un ou plusieurs robots, mais il vend une « expérience » – dans le sens où il raconte une histoire. Ce jardinier n’est pas forcément isolé, il peut profiter d’une communauté qui lui fournit du contenu – une éducation permanente – qui lui permet de vous toucher en faisant le lien entre votre jardin et vos vacances. Il peut également profiter d’une plateforme technologique qui lui fournit les robots autonomes qui vont tondre la pelouse ou tailler la haie. Il est probable également que ce jardinier « programme » le système (jardin + robots + environnement) avec la parole. Pour reprendre une citation d’un des membres de Singularity University : « We won’t program computers we’ll train them like dogs”.  Je crois beaucoup plus à cette vision qu’à la théorie selon laquelle nous aurons des ordinateurs tellement intelligents que cela signifierait la fin de la programmation. Ce qui est sûr, c’est que le sens de “programmer” et de qu’est le “code” va évoluer, mais l’activité de programmation d’expérience va au contraire se développer de plus en plus au fur et à mesure que l’environnement devient intelligent. Le robot que le jardiner va utiliser sera connecté et le dialogue avec le jardinier sera plus riche qu’une simple séquence d’opérations contextuelles. Pour rester dans la veine du Clue Train Manisfesto, je propose l’aphorisme suivant pour représenter la programmation de demain : « experiences are grown from conversations ».

Iconomie: Vision cible positive d’une société très fortement automatisée

Un maillage de plateformes et de micro-entreprises

Ma vision du paysage de l’emploi est un réseau multi-échelle maillé de structures de toutes tailles, depuis les grandes entreprises multinationales d’aujourd’hui jusqu’aux autoentrepreneurs, dans lequel le mouvement de polarisation (consolidation des grandes plateformes et multiplication des pico-entreprises) se poursuit et s’amplifie. Le point de départ de mon raisonnement est que nous aurons toujours des entreprises dans 20 ou 30 ans, et que le phénomène d’ubérisation du travail n’aura pas dissout le concept de l’entreprise. Je n’y reviens pas, j’ai traité en détail ce sujet dans mon billet précédent. Pour résumer, la complexité croissante du monde exige le travail synchrone, ce que remarquent tous les auteurs de la Silicon Valley, d’Eric Ries à Eric Schmitt. Ce sujet fait débat, ma position consiste à dire que les coûts de transaction, pour reprendre l’analyse de Coase et Williamson, reste minimisé lorsque les équipes cross-fonctionnelles modernes de développement produit sont co-localisées, synchronisées par des rituels et une vision « incarnée » commune et unifiée par un ensemble de techniques qui font des lieux un espace collaboratif (le « visual management » étant un exemple). L’évolution des technologies de communication (de la téléprésence à Hololens) déplace les frontières de ce qui est possible à distance en « mode plateforme », mais le même progrès technologique renforce le potentiel de l’environnement intelligent comme outil collaboratif.

yves-caseau-20163

La mondialisation et la numérisation conduisent à la concentration. Ceci est très bien expliqué par les penseurs de l’iconomie comme Michel Volle. Les raisons sont multiples et profondes. L’économie numérique est principalement une économie de coûts fixes, ce qui favorise l’économie d’échelle. Bien plus important encore, les effets de réseaux – en particulier dans les marchés biface et dans le développement d’écosystèmes autour de plateformes – et les lois de réseau de type Metcalfe donnent un avantage important au plus gros joueur (souvent le premier mais pas forcément). Je vous renvoie à l’analyse de la valeur des réseaux sociaux pour voir un exemple ou les équations de renforcement de la position dominante sont encore plus forte que la loi de Metcalfe.  Dans le livre de Brynjolfson et McAffee, on lit: “Each time a market becomes more digital, these winner-take-all economics become a little more compelling”. Cette concentration ne produit pas plus d’emplois, d’autant plus qu’elle est nourrie par l’augmentation exponentielle des capacités technologiques et par l’automatisation que nous venons d’évoquer dans la partie précédente.

Heureusement, la concentration des plateformes conduit également à la croissance des écosystèmes qui leur sont associés, ce qui peut créer des opportunités pour une multiplicité d’acteurs locaux, tout comme un arbre qui grandit porte plus de feuilles. Cette croissance de la « frontière » peut poser question – elle peut sembler marquée par un optimisme technophile naïf -, mais elle est nourrie par l’explosion exponentielles des capacités technologiques et sur la tendance de fond (qui est liée à cette explosion) de mieux servir les individus (le mythique « segment of one ») et les communautés. Le second point va être développé dans le reste de cette deuxième partie, revenons donc sur le premier. Prenons justement l’exemple des capacités d’Intelligence Artificielle développées et exposées par Google (cf. TensorFlow). Il est plus que probable que si cette démarche est couronnée de succès, elle va contribuer à la croissance forte de Google. Mais elle va également ouvrir des champs possibles à un rythme supérieur que ce que Google peut produire, ce qui signifie qu’une partie encore plus importante de valeur va apparaitre « à la frontière », lorsque d’autres acteurs vont utiliser ces technologies mise à disposition par Google pour résoudre d’autres problèmes que ceux qui intéressent Google. On voit la même chose avec la croissance d’iOS comme plateforme mobile : au fur et à mesure que les capacités sont ajoutées dans la plateforme de développement de l’iPhone – on pense ici bien sûr à Siri – le domaine fonctionnel rendu possible à la communauté des applications mobiles augmente plus vite que ce qu’Apple en retire pour ses propres fonctions.

Economie Quaternaire et services à la personne

L’économie quaternaire, un concept que nous devons en particulier à Michelle Debonneuil, propose une extension des trois secteurs traditionnels – primaire pour les matières premières, secondaire pour la fabrication et tertiaire pour les services – à un nouveau domaine dont les produits ne sont ni des biens, ni des services, mais « de nouveaux services incorporant des biens, la mise à disposition temporaire de biens, de personnes, ou de combinaisons de biens et de personnes ». L’évolution vers l’économie quaternaire est fort logiquement liée, comme le souligne Michelle Debonneuil, aux progrès des TIC qui permettent d’apporter des services véritablement personnalisés sur le lieu précis où ils sont nécessaires, y compris dans gestions des femmes et des hommes qui rendent ces services de façon courte et ponctuelle. Le développement de l’économie quaternaire est indissociable du domaine des « services à la personne », dont l’essor est l’aboutissement naturel d’une société post-industrielle. Cet essor est fort logiquement accéléré par l’automatisation telle que décrite dans la première partie puisque ces « services à la personne » sont les domaines dans lesquels les humains peuvent exercer une supériorité sur la machine.

Ces domaines sont fort nombreux et peuvent, sous certaines conditions, permettre la pleine occupation, sinon le plein emploi, de la population déplacée par l’automatisation. Listons les plus évidents : l’alimentation (dans sa phase « finale » de service à la personne, de la cuisine au restaurant), l’habillement, l’aménagement des habitations, la médecine, le bien-être, l’éducation et la culture, la distraction, l’art, etc. Pour la plupart de ces domaines, le 20esiècle a été un siècle d’industrialisation et d’orientation vers les produits. L’économie quaternaire remet le client au centre de l’expérience et s’intéresse plus au service reçu et perçu qu’aux produits sous-jacents. C’est cette remise au centre de l’interaction entre l’utilisateur et le fournisseur qui permet de « réinventer » des métiers de services à la personne. Cette analyse est partagée par Erik Brynjolfson et Andrew McAffee qui écrivent:  « Results like these indicate that cooks, gardeners, repairmen, carpenters, dentists, and home health aides are not about to be replaced by machines in the short term ».

On pourrait me faire remarquer que cette vision de l’emploi en 2030, qui recoupe fortement des domaines de « service publics », conduit plutôt à l’augmentation du nombre de « fonctionnaires » qu’à leur diminution. Si le terme de fonctionnaire désigne de façon très large une personne financée par la collectivité, c’est probablement exact. Cela ne signifie pas que le nombre de personne ayant le statut de fonctionnaire doive augmenter, ni que le budget correspondant doive faire de même (ce qui semble clairement impossible de toute façon). Il a de nombreuses façons de contourner ce paradoxe, par exemple en appliquant à l’Etat les principes de l’Entreprise 3.0  pour réduire le poids de l’appareil de contrôle par rapport à l’appareil opérationnel. Ce n’est pas utopique, il existe de multiples exemples d’application des nouvelles structures de management dans les services publics dans d’autres pays. On peut également penser que les nouveaux modes de travail que nous allons continuer à décrire s’appliquent parfaitement à un grand nombre de services publics, à l’exception d’un tout petit nombre de fonctions régaliennes. Je pourrais pousser la malice à faire l’hypothèse que le déséquilibre du budget de l’Etat vient du trop grand nombre de personnes « payées pour leur cerveau gauche » (une autre façon de parler de ceux qui analysent et contrôlent au lieu de faire). Enfin, le grand mouvement de l’automatisation des fonctions transactionnelles évoqué dans la première partie offre une possibilité à l’Etat de redistribuer ces économies de fonctionnement vers des rôles d’interaction et de lien social.


L’artisanat et la personnalisation de masse

Je reviens ici sur une idée profonde d'Avi Reichental – dont j’ai déjà recommandé l’exposé TED – : La production de masse est une parenthèse historique, et nous allons pouvoir revenir au confort du sur-mesure dans de nombreux domaines grâce aux progrès de la technologie, en particulier l’impression 3D. Avi Reichental illustre cette idée sur le principe d’une chaussure qui combine l’impression 3D d’une semelle uniquement adaptée à la bio-morphologie de l’utilisateur avec l’assemblage/fabrication locale. La personnalisation de masse est due à la fois au progrès technologique (numérisation de la conception, impression 3D, automatisation de l’assemblage, …) qui fait émerger des plateformes mise à disposition du plus grand nombre, et le besoin de retrouver une expérience sociale de proximité. Il n’y a donc pas que l’approche technologique : un certain nombre de métiers d’artisanat d’art pourraient redevenir pertinents.

L’idée que nous allons tous vivre de notre créativité tandis que les machines s’occuperont de la production est naïve et probablement fausse. Le tissu de multinationales évoqué dans la première partie a besoin de nouveaux talents, et en particulier de créatifs et de designers, mais dans un petit nombre par rapport aux laissés pour compte de l’automatisation. En revanche, le monde « frontière » des opportunités de services, qu’il s’agisse d’adaptation au besoin d’une communauté ou d’un individu, ou encore d’accompagnement et de mise en scène –  par exemple, l’art de la parole a toujours été associé à la vente de vêtements – a une structure beaucoup plus riche et étendue que l’on pourrait qualifier de « fractale » ou de « multi-échelle ». Dans ce monde de l’interaction, il existe des opportunités à différents niveaux de talents, qui peuvent coexister. Le service d’interaction se déplace difficilement (en tout cas avec un coût) contrairement à une expérience digitale. Un service moyen fourni par un talent médiocre peut coexister avec un service plus élaboré. Les « artisans de la personnalisation » de masse peuvent opérer sur des échelles géographiques différentes selon leur talent, dessinant une « power law »  des bassins de chalandise. Cette coexistence ouvre la voie, surtout avec le support économique de l’état sur lequel nous allons revenir, à un marché abondant de services à la personne de toutes sorte. Cette renaissance de « l’artisan de proximité » risque de se trouver facilité par une pression communautaire – que l’on commence déjà à voir à l’œuvre – et une priorisation de ce qui est local sur ce qui est global, en contre-réaction à la mondialisation.

yves-caseau-20164

Cette personnalisation des services à la personne est donc une double conséquence du progrès technologique : à la fois parce que le monde numérique facilite la personnalisation (dimension technique) mais aussi parce que la transformation due à l’automatisation (première partie) va rendre les services personnalisés d’interaction à la fois nécessaires et accessibles (nous reviendrons sur la dimension économique dans la dernière partie).  Si l’on applique cette idée de la personnalisation de masse à l’ensemble des domaines de services de la section précédente, on voit émerger ce qu’on pourrait qualifier de démocratisation de « privilèges aristocratiques du 19e siècle ». Non seulement l’accès aux vêtements, aux meubles sur mesure pourrait redevenir courant (ce qui était le cas il y a un siècle), mais les services d’un cuisinier, d’un tuteur, d’un coiffeur ou d’un masseur à domicile pourraient se démocratiser. De façon plus spectaculaire, la contribution d’un revenu universel pourrait permettre de rendre les métiers et les œuvres d’art accessible à (presque) tous. Dans un système économique qui permet à chacun de disposer d’un premier niveau de revenu garanti, il est possible à un beaucoup plus grand nombre d’artistes amateurs de vivre de leur art, et donc de permettre de la sorte à des citoyens ordinaires d’avoir le plaisir de posséder un tableau – par exemple – unique.

Les défis de la transition : accompagner le choc d’un changement de civilisation

La menace des robots de compagnie anthropomorphes  

yves-caseau-20165

L’essor de la robotique au Japon montre que l’interaction émotionnelle avec des humains n’est pas un champ exclu aux robots. En fait ce domaine n’est pas particulièrement complexe, il n’est pas très difficile de donner des émotions aux robots et aux programmes – c’est un champ de recherche et d’expérimentation en plein essor – et il est encore moins difficile d’apprendre aux programmes à « lire nos émotions ». Comprendre nos émotions à partir d’un signal sonore (notre voix) ou visuel (la vidéo de notre visage) est un exemple type de problème de reconnaissance que nous avons évoqué dans la première partie, avec des réponses claires et des milliards d’exemple. Ce n’est pas une surprise de constater que le deep learning donne déjà d’excellent résultats, que chacun peut tester grâce à des API ouvertes (ou en téléchargeant « Moodies » sur son smartphone). Pire encore, il est très facile de tromper nos neurones miroirs avec des têtes artificielles qui s’adaptent à nos expressions faciales. J’en ai fait l’expérience surréaliste avec une tête artificielle fort simple il y a déjà 10 ans dans un laboratoire IBM. Pour résumer, il ne faut pas considérer que le domaine « emploi d’interaction » est hors de portée des progrès de l’automatisation.

En revanche, il y a un enjeu majeur de société car l’automatisation de l’interaction n’est pas un progrès en soi. Contrairement à la production et aux transactions, les gains en vitesse et précision qui sont souvent les objectifs de l’automatisation ne sont pas des enjeux majeurs. Il y a donc plus de liberté pour faire de l’automatisation un choix de société. L’enjeu est tout simplement d’accompagner une transformation plus harmonieuse vers l’iconomie en conservant pour de nombreuses décennies la primauté de l’humain dans les métiers de l’interaction. Si la société laisse le domaine de l’interaction être envahi par la robotisation, nous allons au-devant d’une véritable crise. Laissés à la loi du marché et du possible technologique, ces robots vont apparaitre et nous obtiendrons dans le meilleur des cas une société à deux vitesses et une multitude d’exclus. Dans le pire des cas, les tensions sociales seront insupportables et cela nous conduira à la guerre civile. Le Japon est un cas particulier car il y a un fort déficit démographique à cause du vieillissement de la population, mais de façon générale et simplifiée, il faut réserver les métiers d’interaction aux humains déplacés des fonctions de production et de transaction.

De fait, étant plutôt optimiste de nature, je pense que les pays démocratiques se protégeront en réglementant l’utilisation de robots humanoïdes. Cette réglementation n’est pas forcément une simple interdiction, cela peut être une forme de taxation qui permet à l’humain de rester compétitif par rapport à la machine. Il y a probablement un équilibre entre une pression sociale de conserver des humains dans ces emplois – et on peut s’attendre à des réactions violentes face aux robots s’ils sont introduits dans des « customer-facing jobs » dans une société en crise du travail –, une fiscalité du travail qui reconnait l’interaction et la substitution de la machine par l’homme, et la réduction du coût du travail humain au moyen du revenu universel sur lequel je reviens dans la section suivante. Ce scénario de contrôle de l’utilisation de robots humanoïdes n’est ni simple ni tranquille, la protection qui sera réclamée par la population face à l’automatisation des fonctions de production et de transaction peut prendre des formes de protestations régressives, allant jusqu’à des surprises importantes lors d’élections J Au risque de me répéter, vouloir freiner les robots humanoïdes n’est pas un jugement technologique (le développement de ce type de robots est non seulement possible, il est inévitable), ni moral (il n’y a rien de répréhensible en soi à vouloir créer des machines avec lesquelles il est plus facile de communiquer car elles nous ressemblent) mais systémique. Il ne s’agit que d’un réglage de vitesse de flux, au sein d’un écosystème avec des activités qui disparaissent et apparaissent, mais qui me semble essentiel. Il faut se donner le temps sur plusieurs générations pour absorber les transformations que la technologie va rendre possible. Notons également qu’il est quasi-impossible de lutter contre l’automatisation des fonctions de production et de transaction dans une économie mondialisée (il y aura toujours un acteur quelque part pour tirer le meilleur parti économique de la technologie), tandis que l’activité d’interaction n’est pas dé-localisable par définition et reste donc sous la juridiction économique des états.

Un revenu universel pour permettre à chacun d’exister

Le revenu universel – ou revenu de base, en suivant l’expression anglaise « Universal Basic Income » – apparait naturellement comme solution pour faciliter la transition vers l’iconomie. Un des spécialistes mondiaux du sujet, Guy Standing, a introduit le revenu universel pour éviter le « précariat » qui est précisément la condition des homme déclassés dans une société qui n’a plus besoin de leur activité : « [precariat] specifically, is the condition of lack of job security, including intermittent employment or underemployment and the resultant precarious existence ». Le revenu universel consiste à garantir à chacun un niveau minimum de ressources, sans conditions, pour permettre à tous de vivre dignement. Il est souvent présenté, comme par exemple par Gaspard Koenig qui est un des spécialistes français, comme un « nouveau droit de l’homme ». Je vous renvoie au site « Génération libre » pour plus de détails sur LIBER. Le sujet du revenu universel s’est d’ailleurs invité fort logiquement dans la campagne politique, avec des prises de positions de Bruno Hamon et de Nathalie Kosciusko-Morizet, ainsi que de notre premier ministre.  En suivant les pas de Guy Standing, ces femmes et hommes politiques constatent l’éclatement du marché du travail – sur lequel nous reviendrons dans la prochaine section-, la désindustrialisation et la création de laissés pour compte par une vague d’automatisation qui ne fait que s’amplifier. Le revenu universel est donc un premier réflexe de protection par la solidarité, ainsi, dans le cas de la France, une remise à plat d’un système de protection sociale complexe qui contient déjà les germes d’un revenu universel de base.

D’un point de vue systémique, l’objectif du revenu universel n’est pas de permettre l’oisiveté pour tous, mais de déplacer les contraintes de rentabilité des activités humaines. Très logiquement, c’est une façon de redonner au travail humain un peu de compétitivité vis-à-vis de celui de la machine. Il est donc logique de penser au revenu universel pour lutter contre les effets indésirables d’une automatisation trop rapide. De fait, l’objectif du revenu universel est de déplacer « une barrière de potentiel » pour permettre au plus grand nombre d’accéder et de réussir dans un statut d’entrepreneur.

Cette idée de « barrière de potentiel » est une métaphore qui illustre le fait qu’il existe des multiples opportunités de travail – en particulier dans les services à la personne pour tous – mais nous n’avons pas tous le talent d’en faire une activité rentable économiquement. Le revenu universel « déplace la barrière de potentiel » dans le sens où il permet à un plus grand nombre d’autoentrepreneurs de produire un complément de revenu à partir de leurs talents, à la fois en diminuant la prise de risque et le volume d’affaire à générer pour que l’autoentreprise soit viable. Cette position qui voit le revenu universel non pas comme une nouvelle forme d’assistance mais comme un démultiplicateur est l’objet de nombreux débats voire de nombreuses critiques. Je reste cependant convaincu qu’il y a une véritable adéquation avec le concept de la distribution « multi-échelle » (ou de « power law ») des talents et des opportunités, évoqué dans la deuxième partie. Autrement dit, pour que le « gisement des services à la personne » représente un « bassin d’activité suffisamment vaste » pour offrir du travail à la majorité des citoyens, il faut un modèle économique qui permette de vivre dès que le service fonctionne sur une micro-communauté, ce qui est rendu possible par le revenu de base universel. Je conjecture que la structure cible des services à la personne dans une iconomie de pleine activité est une structure de petits mondes au sens de Duncan Watts (ce qui nous renvoie à des billets très anciens de ce blog).

En effet, il ne s’agit pas d’assurer « simplement » à chacun un revenu de base, mais véritablement une opportunité de « Universal Inclusive Contribution » – pour faire le parallèle avec le concept original de « Universal Basic Income » : permettre à chacun de contribuer à la collectivité, de trouver sa « place » par un travail qui contribue à la société, ce que permet le modèle fractal des services d’interaction. Autrement dit, le revenu universel doit être l’opposé de l’assignement à résidence dont parle Emmanuel Macron, sans être non plus un travail « bénévole forcé ». Lors de mon intervention du 12 Octobre, je me suis permis d’utiliser l’image du statut « d’intermittent du spectacle » pour tous J Le débat en France autour de ce statut fait que cet emprunt n’est probablement pas judicieux, mais il y pourtant dans ce statut de nombreux points positifs puisqu’il joue précisément, avec succès, un rôle incitatif en fournissant un complément de revenu. Ce statut permet d’avoir une population active employées dans les métiers du spectacle qui est nettement supérieure à ce que la loi du marché produirait (une autre forme de « déplacement de barrière de potentiel »). Il y a aujourd’hui environ un million d’auto-entrepreneurs, il faut créer les conditions pour une augmentation de presque un ordre de grandeur. Je n’ai pas de « boule de cristal », mais il me semble clair que la répartition des statuts entre employés, « freelance » (cf. la section suivante) et autoentrepreneurs va devenir beaucoup plus équilibrée en 2030 qu’elle ne l’est aujourd’hui.


Fin de l’emploi, vive le travail ! Un nouveau contrat social

yves-caseau-20166

La diminution des emplois salariés a déjà commencé. J’emprunte le titre de cette dernière section au livre deBernard Stiegler.  L’exemple du « cuisinier à domicile » permet de comprendre ce concept un peu théorique de « talent multi-échelle ». Le cuisinier médiocre est condamné à ne faire souffrir que ses proches de son absence de talents, mais celui qui a un petit talent peut l’exercer dans son voisinage proche (par exemple son immeuble) comme un service de proximité – pour dépanner. L’échelle suivante, d’autoentrepreneur non rentable est de procurer ses services dans son quartier. Plus le domaine grandit, plus on se rapproche d’un véritable statut d’artisan-entrepreneur. Un talent reconnu à l’échelle d’une ville permet de créer une entreprise traditionnelle, et on passe ensuite dans le domaine du professionnel reconnu. Compte-tenu du niveau de vie des Français, il y a peu d’emplois de cuisinier à domicile – même si l’on introduit des plateformes d’intermédiation de type Uber – mais si l’on regarde les opportunités créées par les vies complexes des salariés, il y a beaucoup de travail. C’est l’enjeu du modèle « intermittent du service à la personne ».

S’il est possible de fournir un travail pour tous, il semble en revanche probable que le modèle économique que je viens d’esquisser s’accompagne d’une décroissance des emplois, ce qui est la thèse du livre de Stiegler.  Thierry Breton lors de son intervention pendant le même séminaire du 12 Octobre nous a parlé de la « Gig economy ». Le président d’ATOS constate qu’un nombre croissant des jeunes recrutés ne souhaitent plus un emploi salarié et préfère la liberté d’un mode « freelance ». Pendant la semaine à la Singularity University, j’ai entendu le même message : le « freelance » représente déjà 35% de la force de travail en 2015 et les spécialistes prévoient 50% en 2020. Cette transformation illustre la complexité et la richesse des entreprises qui combinent la force des « liens forts » – des noyaux de permanents unis par les valeurs de la marque – et des « liens faibles » – l’appel à la richesse encore plus grande des talents extérieurs à l’entreprise. J’utilise ici bien évidemment l’appellation de liens forts et faible en référence à la sociologie, un emprunt que j’ai fait de nombreuses fois.

Il ne faut pas se crisper sur cette dualité des statuts : elle correspond à des aspirations différentes pour ceux qui travaille et à un besoin des nouvelles formes d’entreprises. Dans le best-seller « Exponential Organizations », les auteurs décrivent l’organisation idéale, celle qui permet de s’adapter aux flux continu du changement exponentiel des technologies, avec des modes de travail qui reflètent une partie des idées exprimées ici. Nathaniel Calhoun a reconnu pendant cette semaine à la Singularity University que ce nouveau mode d’organisation crée une contrainte sur les employés:  «  Exponential Organizations worsens the fate of labor ». Les auteurs de « Exponential Organizations » proposent l’acronyme SCALE qui signifie : "Staff" à la demande, Communautés, Algorithmes, effet de Levier sur les ressources et Engagement. IDEAS reflète les principes fondateurs : Interfaces (pour attirer les contributions externes),  Dashboards (pour décider à partir des mesures), Expérimentation, Autonomie et Social (Enterprise 2.0). Ces nouveaux modes d’organisation sont des leviers d’adaptabilité et de flexibilité, mais je rejoins Luc Ferry lorsqu’il souligne le besoin de régulation à cause de la brutalité du capitalisme à l’œuvre dans la révolution digitale (depuis les conditions Uber/Amazon jusqu’aux politiques d’évasion fiscale des GAFAs).

Pour conclure, il convient de souligner que ce nouveau mode de vie, en dehors du statut « traditionnel » de salarié, peut être aspirationnel.  Le travail de cuisinier à domicile est un travail noble, qui demande un goût de l’interaction avec les personnes en permettant de nourrir sa passion pour l’art culinaire. En revanche, une telle transformation de la société et de la culture représente un défi formidable qu’il faut accompagner. La réalisation de soi à travers une position salariée dans une entreprise, même si elle est récente dans l’histoire de l’humanité, a suffisamment marqué les dernières générations pour que l’adoption d’un modèle différent soit une révolution. Il y a de multiples éléments favorables. Comme l’a souligné Joël de Rosnay, les jeunes portent un regard différent que celui de leurs aînés sur le travail. Ils sont volontiers des « slashers », à la recherche de la passion et des interactions dans leurs activités professionnelles. Ils sont plus à la recherche de projets qui se renouvellent fréquemment (ce qui nourrit la « gig economy ») et vivent plus confortablement que les générations précédentes l’intrication entre la vie personnelle et la vie professionnelle. Néanmoins, à l’échelle de la société, cette évolution doit être accompagnée par la formation et l’éducation. Je termine en vous renvoyant à Michel Volle que j’avais déjà cité dans mon billet précédent : cette nouvelle économie des microentreprises et des services à la personne nécessite une revalorisation des compétences gestuelles et relationnelles.

  • L’expert

yves-caseau-2016

Yves Caseau est le chef de l'Agence numérique du Groupe AXA . L'Agence numérique, en ligne avec la stratégie numérique d'AXA, développe des produits et services numériques pour les entités du Groupe, avec un accent sur les applications mobiles et les objets connectés, une innovation favorise centrée sur le client suivant les Lean Startup principes.

Lire aussi: Relire et revoir la semaine spéciale emploi dans le numérique

mercredi, 14 décembre 2016

Les Echos - Ces 7 mutations qui redessinent l'entreprise

JEAN-MARC VITTORI / Editorialiste Le 08/12 à 06:00
http://www.lesechos.fr/idees-debats/editos-analyses/02115...http://www.lesechos.fr/idees-debats/editos-analyses/0211567234285-ces-7-mutations-qui-redessinent-lentreprise-2048838.php

C'est une tendance lourde du XXI e  siècle : pour prospérer l'entreprise doit travailler « avec » et non plus « sans » ou « contre ». Une évolution rendue possible par les technologies de l'information.

« Tous ensemble... » Ce slogan de la grève des cheminots en 1995 est devenu le mantra de l'économie d'aujourd'hui. Bien sûr, la guerre continue. Des start-up taillent des croupières à des firmes centenaires, des salariés perdent leur emploi, des fonctionnaires considèrent toujours le secteur privé comme un ennemi. Mais un signe ne trompe pas : le vocabulaire, avec la place croissante qu'y tient le mot « avec », non sous sa forme actuelle mais dans sa version latine « co ». Coentreprise, coproduction, covoiturage...
« Réunion, adjonction, simultanéité », indique le dictionnaire. Au-delà des modes de management et du rôle déjà ancien joué par ce préfixe dans la formation de mots essentiels (« commun » qui indique le partage de la chose publique et engendrera « communisme », « concurrence » qui veut dire « courir ensemble »), ce formidable essor traduit un bouleversement économique.

Au XXe siècle, l'entreprise rêvait d'autarcie. Produire tout seul puis imposer au client. Beaucoup de patrons voyaient « Rouge » comme un idéal. L'immense site de Ford basé à Dearborn, dans le Michigan, fut le plus grand centre industriel au monde de l'entre-deux-guerres. Le constructeur automobile possédait des mines de charbon dans le Kentucky pour produire son énergie, des plantations d'hévéas au Brésil pour les pneus, des navires et une compagnie ferroviaire pour transporter ses matériaux, des forêts pour fournir le bois nécessaire pour l'habitacle des voitures. A Rouge même, Henry Ford avait implanté autour de l'usine d'assemblage une aciérie, une centrale électrique, une fonderie, un hôpital et une caserne de pompiers qui s'occupaient de la lingerie quand ils n'éteignaient pas des incendies. Pour lui, cette intégration verticale était « une assurance contre la non-offre ». Il fallait se protéger des ruptures d'approvisionnement, des fournisseurs négligents, des pouvoirs publics fichus de décréter que l'industrie automobile n'était pas prioritaire en cas de pénurie d'électricité. Et selon sa célèbre formule, son client pouvait « avoir une voiture de la couleur de son choix pourvu que ce soit le noir ».

Au XXIe siècle, c'est l'inverse. Pour prospérer, l'entreprise doit travailler « avec » et non plus « sans » ou « contre ». Chez le concessionnaire automobile, le client s'assied à côté du commercial pour composer sa voiture. Des progrès invisibles mais bien réels de management et d'organisation permettent à un producteur de commander des pièces ou des tâches précises en limitant les risques de retard ou de mauvaise qualité. Des progrès plus visibles dans les technologies de l'information permettent aux entreprises de détecter des clients et des fournisseurs à l'autre bout du monde ou parfois juste à côté d'elles, mais jusque-là ignorés. Les grands groupes vont de plus en plus chercher à l'extérieur de leurs murs les innovations qu'ils ne parviennent plus à générer en interne. Pour passer du produit au service, du service à la solution, de la solution à l'expérience, le producteur doit à chaque fois élargir le champ de ses partenaires. Faire avec eux. La révolution va encore au-delà en chamboulant toutes les oppositions qui traversent les organisations : haut et bas, intérieur et extérieur, payant et gratuit, capital et travail. La preuve par sept « co ».

Cobot

Le robot devait remplacer l'homme, le chasser de l'Eden productif. Peur ancestrale, que l'on retrouve aussi bien chez la reine Elisabeth Ier(1533-1603) que dans les prédictions récentes de la disparition d'un emploi sur deux. Mais ce n'est qu'une partie de l'histoire. Dans les usines les plus modernes, il y a beaucoup de machines qui travaillent toutes seules... mais il y en a aussi de plus en plus qui travaillent avec les ouvriers. L'idée du « cobot » est née d'un programme de recherche lancé par le constructeur automobile GM en 1995. Le mot a été forgé l'année suivante par un étudiant de l'université de Northwestern et défini par trois professeurs du département d'ingénierie mécanique de la même université comme « un appareil robotique qui manipule des objets en collaboration avec un opérateur humain ». Dans l'usine, le cobot donne à la fois plus de force et plus de précision à l'ouvrier. Il lui permet aussi de travailler en milieu hostile (chaleur élevée, liquide corrosif...). Et il n'est pas dangereux pour lui, contrairement à d'autres machines. Le binôme que forme l'opérateur avec le cobot donne le meilleur des deux mondes. « Avec » et non plus « ou ». Jusqu'au jour où, peut-être, les machines apprenantes parviendront à tout concilier toutes seules.

Coopétition

Au contact du client, les entreprises sont en compétition. Mais en amont, elles peuvent travailler ensemble - non pas pour fixer les prix, mais pour développer un nouveau procédé, bâtir une plate-forme, établir une norme, concevoir un logiciel libre. Quitte à se livrer ensuite une bataille féroce à armes égales. C'est la « coopétition ». Le terme a été repéré pour la première fois dans un livre en 1913. Le principe relève de la théorie des jeux, développée après-guerre. Son application a été l'une des clefs du succès de l'électronique japonaise dans les années 1980, sous la houlette du mythique Miti (ministère du Commerce et de l'Industrie). En 1996, deux professeurs de management, Adam Brandenburger, de la Harvard Business School, et Barry Nalebuff, de l'université de Yale, ont publié un livre devenu best-seller, « Coopétition : un état d'esprit révolutionnaire, qui combine compétition et coopération ». La pratique s'est largement diffusée. Dans l'automobile, le français PSA a partagé avec Toyota les coûts de développement de nombreux composants de développement de sa Peugeot 107, sa Citroën C1 et la Toyota Aygo. Dans la finance, Amundi, leader européen de la gestion d'actifs, est né du rapprochement des filiales spécialisées du Crédit Agricole et de la Société Générale, etc.

Coconstruction

Nous ne sommes pas ici dans le bâtiment, mais plutôt dans l'action publique ou sociale. Une action longtemps menée d'en haut, dans une approche « top down », mais de plus en plus souvent construite avec ceux qu'elle vise, en « bottom up ». Le « Dictionnaire critique et interdisciplinaire de la participation » en résume l'esprit : « Ceux qui figurent d'ordinaire parmi les destinataires d'actions engagées par des autorités compétentes se trouvent réinvestis de la capacité d'intervenir sur la définition de ces actions au même titre que ces autorités. » C'est la reconnaissance d'une évidence. L'éducation ne peut pas se limiter à l'action d'un professeur sur un élève. Elle dépend de la relation qui s'établit entre l'enseigné (et ses parents) et l'enseignant. Il en va de même dans la relation entre un psychologue et son patient, entre un chômeur et son interlocuteur chez Pôle emploi. C'est aussi la reconnaissance d'un monde qui change, où une municipalité ne peut par exemple plus imposer un projet de rénovation urbaine aux habitants. Elle doit de plus en plus les associer à la définition des outils, voire des objectifs. La frontière entre producteurs et consommateurs ou utilisateurs s'estompe.

Co-working

Pas question de travailler seul... même quand on travaille tout seul. L'indépendant d'autrefois, commerçant ou artisan, était inséré dans un réseau de relations et des clients passaient à son échoppe. L'indépendant d'aujourd'hui peut passer des journées sans croiser âme qui vive après avoir pris ses commandes via son smartphone. Humainement insupportable et professionnellement nuisible. Voilà pourquoi ont commencé à émerger, il y a une décennie, des espaces de co-working (le terme « cotravail », publié au « Journal officiel » en août dernier, n'a pas vraiment percé). Dans la lignée des ateliers d'artistes du XIXe siècle, on y partage un lieu, des ressources, pour quelques heures, quelques journées ou des années. On y apporte ses idées, ses réseaux, ses projets. Tout se passe ici (en principe du moins) d'égal à égal. Pas de hiérarchie, pas d'horaires, juste des règles élémentaires de savoir-vivre et un esprit en phase avec la fameuse organisation en mode projet. Les professionnels de l'immobilier s'y mettent et surveillent de près de nouveaux concurrents. Comme l'américain Wework, fondé en 2010, qui a levé 400 millions de dollars l'été dernier et propose à ses 30.000 membres non seulement des locaux mais aussi une assurance santé, des ateliers de réflexion et une université d'été.

Collaborative (économie)

Travailler ou labourer ensemble : c'est l'étymologie du mot « collaboration » et le coeur de la révolution en cours. Loin, très loin de l'attitude des Français souhaitée par l'occupant allemand pendant la Seconde Guerre mondiale ou de la qualification méprisante de « collaborateur » accolée par un président à son Premier ministre François Fillon ! Dans son sens le plus large, l'économie collaborative (« sharing economy » en anglais, économie du partage) est une construction permanente où chacun apporte sa pierre, petite ou grande, payante ou gratuite. Covoiture, co-working, crowdfunding... il n'y a plus d'individus passifs. Les technologies de l'information jouent un rôle essentiel, car elles permettent d'organiser la rencontre entre offre et demande à un niveau infiniment plus fin que les organisations classiques. En employant les ressources des mégadonnées, de puissantes plates-formes émergent et tentent de prélever les marges des entreprises en les transformant en sous-traitants. Ici se cache le paradoxe de l'économie collaborative : c'est une alternative au marché (et beaucoup de militants de l'économie du partage font de cette alternative leur étendard), mais aussi « l'extension du domaine du marché » dans des interstices où il ne parvenait pas autrefois à pénétrer.

Codétermination (ou cogestion)

L'information circule de plus en plus dans l'entreprise, avec des hiérarchies raccourcies et des courts-circuits multipliés sous la forme de réseaux sociaux. Cette fluidité est précieuse, à la fois pour rendre l'entreprise plus agile et impliquer davantage les salariés. Cela ne suffit pas. Pour aller plus loin, faut-il partager non seulement l'information mais aussi le pouvoir ? Les entreprises allemandes ont organisé ce partage de manière formelle avec la codétermination, mise en place depuis un siècle. « Le but est de remettre les salariés au coeur des processus de décision dans l'entreprise », expliquent le chef d'entreprise Jean-Louis Beffa et l'avocat Christophe Clerc. La loi de 2013 sur la sécurisation de l'emploi impose aux entreprises employant plus de 5.000 salariés en France (ou plus de 10.000 dans le monde) d'avoir un ou deux administrateurs salariés dans le conseil d'administration, avec droit de vote. Au Royaume-Uni, la Première ministre Theresa May avait proposé une mesure similaire à son arrivée au 10 Downing Street. Même si elle l'a ensuite retirée, la question du partage du pouvoir est un enjeu essentiel de l'avenir des entreprises.

Coopérative

Le mot fleure bon les utopies du XIXe siècle ou de la franc-maçonnerie. Et pourtant... Le mot, d'abord, décrit bien ce qui se joue aujourd'hui. Coopérer, c'est oeuvrer ensemble (sans la notion de peine, présente dans le mot « collaboration »). Le concept, ensuite, implique un partage plus grand que la cogestion : il porte non plus seulement sur l'information et le pouvoir, mais aussi sur le capital. Les anciennes coopératives ont souvent débouché sur des gouvernances touffues, voire inefficaces. Mais pour vraiment travailler « tous ensemble », leur idée de partage radical a un bel avenir.

Jean-Marc Vittori, Les Echos

LES POINTS À RETENIR

  • Au XXe siècle, l'entreprise rêvait d'autarcie. C'est l'inverse au XXIesiècle : ouverte sur l'extérieur, elle multiplie les partenaires.
  • Côté production, le robot a connu une évolution inattendue avec le cobot, qui collabore avec l'homme.
  • Désormais l'entraide précède la compétition, toujours de mise vis-à-vis du client, c'est la coopétition.
  • Du producteur au consommateur ou utilisateur, les frontières s'estompent avec la coconstruction.
  • Pour ne plus travailler seul... même quand on travaille seul, rien de tel que le co-working.
  • Offre et demande se rencontrent sur de puissantes plates-formes : l'économie collaborative est née.
  • Rendre l'organisation plus agile avec la cogestion : la question du partage du pouvoir se pose à l'entreprise. Voire du partage du capital pour faire du neuf avec le concept ancien de coopérative.

@jmvittori

En savoir plus sur http://www.lesechos.fr/idees-debats/editos-analyses/0211567234285-ces-7-mutations-qui-redessinent-lentreprise-2048838.php#Zg3KoKV3yH3aWlhe.99

vendredi, 05 juillet 2013

Jean-Pierre PETIT : "Les Z-machines permettent d'envisager une fusion nucléaire pratiquement sans déchets

Jean-Pierre PETIT : "Les Z-machines permettent d'envisager une fusion nucléaire pratiquement sans déchets"

Z machine : conférence de Jean-Pierre Petit à Polytechnique

La fusion nucléaire par laser est elle une fausse piste ?

Jean Pierre Petit - Radio Ici et Maintenant - Armes micro-ondes contre les civils

1 contribution

Publié le 16 janvier 2013.

Suite à la publication de notre article sur le laser MegaJoule, des lecteurs nous ont réclamé des précisions sur le concept de Z-Machine. Nous avons demandé à Jean-Pierre PETIT, ancien directeur de recherche au CNRS, de nous présenter cette troisième voie en matière de fusion nucléaire…

Jean-Pierre PETIT, bonjour, que reprochez vous à des projets comme ITER ou au laser Mega-Joule ?

Jean Pierre PETITJean-Pierre PETIT – Sensibilisé par la catastrophe de Fukushima, j’ai réalisé, en participant à une manifestation à Aix en Provence en 2011, que j’étais le seul scientifique présent. J’ai pris conscience de l’absence en général de la communauté scientifique sur ce terrain du nucléaire, si on excepte quelques anti-nucléaires traditionnels (déjà âgés maintenant), se limitant au domaine de la fission, militant, à juste titre, contre ce projet dément de surgénérateur à neutrons rapides (Superphénix). Comme d’ailleurs les courageux militants anti-nucléaires de la première heure, qui se montrèrent conscients, à une époque où nous, scientifiques sommeillions dans nos bureaux. Certain laissèrent leur vie dans ce combat, d’où nous étions, nous, scientifiques, absents.

Ce que beaucoup de gens ignorent c’est que le premier geste de François Hollande, quand il prit ses fonctions de Président,  fut de signer l’accord pour la construction du réacteur expérimental Astrid, qui est un surgénérateur à neutrons rapides, refroidi au sodium, fer de lance d’une option rebaptisée « réacteurs de IV° génération ». Or Astrid n’est rien d’autre que Superphénix, « amélioré ». Personne ne réagit. Personne ne proteste. Pas plus qu’on ne proteste contre les idées démentielles appuyées par nos nucléo-députés Bataille et Vido : peupler le pays, d’ici la fin du siècle, de surgénérateurs à neutrons rapides, hyper dangereux, générateurs de déchets, fonctionnant au plutonium 239 pur, de manière à exploiter les 300.000 tonnes d’uranium 238 , issues de 50 années d’enrichissement isotopique, pour extraire du minerai l’uranium 235, fissile. Devenir ainsi « autonomes énergétiquement pour les 5000 ans à venir ».

J’ai aussi réalisé que face au projet ITER, il n’y avait pas de prises de position solidement appuyées sur des considérations réellement scientifiques. Je me suis donc plongé dans ce domaine, pendant deux années, aidé par des gens du milieu (mais tenant à garder un prudent anonymat). J’ai réalisé alors avec stupeur les failles béantes du projet ITER, qui ne découlaient ni du risque sismique, ni de la dangerosité du tritium, mais simplement du fait que ces machines, les tokamaks, étaient foncièrement instables. Pour faire court : ces instabilités appelées disruptions sont l’équivalent, dans ces machines, des … éruptions solaires (ce qui étaient d’ailleurs signalé noir sur blanc dans un rapport produit en 2007 par l’Académie des Sciences de Paris, sous la direction de l’académicien Guy Laval). Depuis que j’ai soulevé ce lièvre, les chantres du projets sont moins enclins à comparer ITER à « un soleil en bouteille ».

J’ai aussi créé une gêne en révélant que Putvinky, (avec qui j’avais dîné), « monsieur disruption » à ITER-Organization, réalisant que le problème était insoluble, avait rendu son tablier en juin 2012, abandonnant non seulement ITER (il avait rejoint l’équipe en 2009, achetant une propriété dans la région) mais la formule tokamak. Il est reparti travailler aux USA.

J’ai aussi découvert que ces questions, ainsi que bien d’autres, avaient été totalement passées sous silence dans le dossier de 7000 pages qu’ITER Organization avait mis en consultation libre durant l’été 2011, à l’occasion de d’Enquête Publique, devant déboucher sur une autorisation ou une non autorisation de l’implantation de « l’installation nucléaire de base ITER » (c’était le nom retenu). Une enquête publique qui avait été gérée comme si cette opération avait concerné l’implantation d’une station d’incinération à proximité d’un village. Je n’ai obtenu, cet été là, qu’un report de quelques mois de la décision, qui étaient déjà prise avant que cette commission fantoche, dirigée par André Grégoire « ne commence ses travaux ». Négligeant mes avertissements, celui-ci a signé le rapport final, se concluant par « avis favorable avec recommandations ». Et il m’a dit en substance « ils auront deux ans pour résoudre le problème des disruptions ». A noter que le mot « disruption » était tout simplement absent des 7000 pages mises en libre consultation !

Là j’ai compris que cette conclusion donnant le feu vert à ITER avait déjà été rédigée avant que cette pseudo enquête publique, complètement truquée,  ne démarre, en plein été 2011. Mais cela n’étonnera personne.

J’ai commencé à écrire des textes sur ces problèmes. L’un ‘eux a été repris et diffusé au sein de la Commission Européenne par la députée Michèle Rivasi, en français et en anglais. En même temps la revue NEXUS a publié la copie de ce texte dans ses colonnes. Ceci a suscité l’ire du CEA, qui a publié une « réfutation » dans son site, en français et en anglais, dont je n’ai pu connaître le ou les auteurs, apprenant seulement qu’il s’agissait d’un groupe de gens qui ne tenaient pas à révéler leur identité (…). Cette « réfutation » se trouve toujours sur le site. Evidemment, ma tentative d’obtenir un légitime droit de réponse pour  démonter ces arguments est restée sans réponse (voir ceci sur mon site http://www.jp-petit.org).

laser mega joulePlus récemment, dans son numéro de janvier-février 2013 la revue Nexus a publié une interview où je pointe le doigts sur le fiasco du NIF américain, en en expliquant les raisons, Mégajoule étant pratiquement la copie conforme du NIF, à quelques dizaines de lasers près (176 contre 192). J’ai donc pronostiqué (comme le font outre Atlantique nombre de scientifiques américains) que le NIF ne permettra pas d’obtenir la fusion, et que par conséquent le projet Mégajoule serait de l’argent (6,6 milliards d’euros), dépensés en pure perte. Le CEA publiera-t-il une seconde réfutation de mes dires dans son site ? Affaire à suivre.

Vous prônez une 3e voie pour la fusion nucléaire : celle des Z-machines. Comment fonctionnent-elles ?

Jean-Pierre PETIT - A l’issue de ce périple de deux années dans les domaines de la fission et de la fusion, en incluant le problème dramatique de la gestion des déchets, ma conclusion est que la façon actuelle de tirer de l’énergie du nucléaire apporte plus de maux que de bienfaits. Et que ces maux, dans les décennies à venir, créeront des drames horribles dont les catastrophes de Tchernobyl, puis de Fukushima ne sont que les pâles prémices. Le redémarrage des réacteurs japonais montre la puissance des lobbies, contre tout souci de la santé publique et des vies humaines.

En 2006 j’ai découvert, dans un article publié par mon vieil ami, le grand spécialiste des plasmas  Malcom Haines (hélas très malade) que les Américains, au laboratoire  Sandia, Nouveau Mexique, avaient obtenu des températures de plus de deux milliards de degrés dans un machine que j’avais vue en 1976, construite par Gerold Yonas. Cette découverte était fortuite (comme nombre de découvertes importantes dans l’histoire des sciences). J’ai immédiatement compris l’importance de ce saut incroyable effectué en 2005, la température maximale atteinte dès cette époque étant de 3,7 milliards de degrés. Ces valeurs ont suscité des réactions de scepticisme chez « les spécialistes français des plasmas chauds ».

Je suis allé à plusieurs congrès scientifiques internationaux, au top niveau. Il a fallu quatre années pour que l’interprétation des expériences, donnée par Haines, finisse par s’imposer, au congrès de Biarritz, 2011, consacré aux Z-machine, où il fit un exposé magistral, en tant que « personnalité invitée », communication appuyée par la publication d’un papier de 196 pages, sur le sujet, dans une revue à comité de lecture, devenu la Bible dans ce domaine.

En peu de mots, les plasmas de fusion  sont sujets à toute une palette d’instabilités. Dans les tokamaks, celles-ci finissent par donner des disruptions, décharges de dizaines de millions d’ampères, venant frapper la paroi (en tous point comparables aux jets de plasma des éruptions solaires). Dans les manips de fusion par laser, elle condamnent la filière (il s’agit alors  » de l’instabilité de Raleigh Taylor »). Dans les Z-machines elles … accroissent la température du plasma !

Ainsi le malheur des uns fait le bonheur des autres.

A Biarritz, j’appris de la bouche de Valentin Smirnov, directeur du département fusion à l’Institut des Hautes Températures de Moscou, qu’il dirigeait la construction d’une Z-machine russe, Baïkal, qui sera plus puissante que le ZR américain ( successeur de la Z-machine ). Après les Américains, les Russes se lancent aussi dans ce domaine, pied au plancher.

Schématiquement, on pourrait dire que la Z-machines (et maintenant ses multiples variantes, comme MAGlif) est à des machines comme ITER,( où on s’efforce de maintenir constante la température du plasma de fusion), ce que sont les moteurs à combustion interne, impulsionnelle, vis à vis des machines à vapeur. L’avantage des moteurs à combustion interne est de pouvoir faire brûler un mélange combustible-oxygène à une température de 1000°, obtenue pendant une fraction de seconde, la température générale du moteur restant inférieure à cette de l’eau bouillante.

Comme le moteur à explosion, des générateurs fondés sur le système des Z-machines seraient dotée d’un système de stockage d’énergie électrique, pendant du volant d’inertie de ce même moteur. Enfin ces générateurs exploiteraient un procédé de conversion directe de l’énergie, par MHD, opérationnel depuis les travaux d’Andréi Sakharov, des années cinquante. Pourquoi cette formule suscite-t-elle un tel rejet, en particulier en France ? Pour deux raisons. Elle rend obsoletes tous les efforts associés au générateurs à fission, au surgénérateurs, aux bancs laser et à ITER. Tout le nucléaire classique est remis en cause, et se trouve dans l’incapacité d’intégrer ce concept outsider dans ses plans.

La France dispose déjà d’une Z-machine : le Sphinx. Qu’est-ce qui la distingue des Z-machines américaines ou russes ?

sphinxJean-Pierre PETIT - La France possède effectivement sa Z-machine : le Sphinx, implantée dans un laboratoire de l’armée, à Gramat. Cette machine est hors course, hors jeu, de par sa conception même. Ca n’est qu’un bête générateur de rayons X, qui ne dépasse pas quelques dizaines de millions de degrés, et ne peut faire plus. Par ailleurs, une des caractéristiques essentielles, si ne qua non,  de ces machines « Z » est de devoir délivrer leur intensité en un temps très bref. Cent milliardièmes de seconde pour la machine américaine, 150 milliardièmes de seconde pour la monstrueuse machine russe, en construction : Baïkal. La machine française ayant un temps de décharge de 800 milliardièmes de seconde, est … trop lente. De part sa conception, on ne peut pas améliorer ses performances. Par ailleurs les gens qui la servent manquent de compétences en la matière, ne serait-ce que sur le plan théorique, qui est très pointu. Un domaine pratiquement neuf, défriché par des gens comme Haines, celui des plasmas hyper chauds, hors d’équilibre.

Le Sphinx est trop lent, ne peut être amélioré. Megajoule et le NIF sont aussi hors jeu. Dans les installations NIF et Mégajoule, il  manque un facteur 50 sur l’énergie focalisée sur cible (voire mon complément d’information dans mon site) . Inversement, les machines américaines et russes visent d’emblée ces 10-15 mégajoules sur cible (l’énergie contenue dans le fond d’une tasse de tisane, voir l’article complémentaire sur mon site, mais délivrée en 100-150 milliardièmes de seconde). Une énergie seuil issue des expériences secrètes Centurion Halite américaines (les Russes ayant mené de leur côté des campagnes similaires et étant parvenus aux mêmes résultats).

Les Z-machines russes et américaines permettent, potentiellement, du fait des températures atteintes, ce auquel jamais les autres filières ne pourront prétendre : envisager ce qui est véritablement le Graal de la physique nucléaire : la fusion Bore Hydrogene, aneutronique. Une fusion qui ne génère pratiquement pas de radioactivité et aucun déchet, sinon … de l’hélium. Cette réaction démarre à un milliard de degrés. Jusqu’en 2005 l’obtention d’une telle température aurait paru relever de la science fiction. Aujourd’hui ZR, avec son intensité portée de 18 à 26 Millions d’ampères, est très probablement passé de 3,7 à 8 milliards de degrés. Mais, comme me l’avait dit Malcom Haines à Biarritz en 2011 : « Je pense qu’ils l’ont fait, mais ils ne te le diront jamais, pour des raisons de secret défense.  »

Car, vous l’imaginez bien, cette percée comporte aussi son volet armement : les « bombes à fusion pure », où un mélange de fusion peut être mis à feu sans utiliser de bombe A, mais l’électricité fournie par un explosif, dérivé des premiers concepts expérimentés par Sakharov dès les années cinquante ( 100 millions d’ampères en 1954 ).

Ceci étant, une nouvelle percée, qui correspond au montage MagLif (une variante du montage « Z » ) montre que cette filière s’est maintenant imposée outre Atlantique, comme une nouvelle façon d’obtenir l’ICF (Inertial Confinement Fusion), la « fusion par confinement inertiel », qui est à la base des systèmes de recherche de fusion auto-entretenue, initiée par lasers.

La fusion par laser est hors course, comme démontré récemment sur le banc américain NIF. Mais, cela aurait-il fonctionné (l’ignition), ces systèmes n’auraient jamais pu donner des générateurs industriels, du fait du rendement des lauser, inférieur à 1,5 % . Ce ne furent jamais que des installations d’essai à visées militaires.

z-machine

Pensez vous que les américains ou les russes pourraient maitriser la fusion nucléaire civile plus rapidement que les Français ? A quel horizon ?

Jean-Pierre PETIT - Bien évidemment ! En s’accrochant à un dinosaure du nucléaire comme ITER, ou à une machine 50 fois trop peu puissante comme Mégajoule, les Français font de mauvais choix, ratent complètement le coche. Quand la fusion deviendra réalité, en Russie et en Amérique, avec cette filière Z, et son astucieuse variante MAGlif, les Français se retrouveront encombrés de véritables fossiles technico-scientifiques.

On pourra objecter que des réactions de fusion on été obtenues sur la machine JET, avec extraction de puissance. Mais, sur ce plan, je citerai ce que m’a écrit tout récemment Glenn Wurden, directeur de la fusion à Los Alamos (…) :   »Je ne pense pas qu’on parviendra un jour à transformer un tokamak en générateur de puissance, car on ne trouvera jamais ce matériau magique capable de résister à l’impact des neutrons de fusion, 7 fois plus énergétiques que les neutrons de fission. Ce matériau magique n’existe simplement pas et n’existera jamais ».

Vos écrits en matière d’ufologie ou sur les attentats du 11/09 vous ont décrédibilisé auprès de nombreuses personnes, en particulier en France. Que répondez-vous à vos détracteurs ?

Jean-Pierre PETIT - Vous me décrivez comme « décrédibilisé auprès de nombreuses personnes », sans citer la moindre d’entre elles. Récemment j’avais été interviewé par un journaliste de la revue Inrockuptible, qui s’était adressé à moi comme à un « complotiste ». J’avais demandé qui formulait cette opinion. Réponse du journaliste : « c’est ce qui émerge quand on consulte les forums ». Ainsi, à notre époque, voici comment émerge une réputation : à travers des propos tenus sur des forums, par des gens intervenant sous des pseudonymes ! A comparer avec l’absence de signature de la réfutation publiée par le CEA.

En vérité, cette situation de « discrédit auprès de certaines personnes » est bien étrange, ne trouvez-vous pas ? Je suis « discrédité par les gens qui, au CEA,  s’occupent de fusion » , mais aucun n’accepte d’être face à moi. Référez vous à la dérobade de Bernard Bigot et de ses adjoints, experts en matière de fusion, lors d’un face à face filmé, qui a donné cette interview où seule figure Michèle Rivasi, qui prend acte du fait que mes détracteurs ont déclaré forfait.

Je suis « discrédité » dans le monde de l’astrophysique et de la cosmologie, par des gens comme Riazuelo, par exemple, de l’Institut d’Astrophysique de Paris. Mais depuis des années lui et le directeur de son labo restent muets face à mes demandes successives d’exercice de droit de réponse en séminaire  où, scientifiquement, Riazuelo ne tiendrait pas dix minutes face à moi, et il le sait. Dans ce genre de face à face scientifiques je ne me suis jamais dérobé et je n’ai jamais perdu un combat.

J’aimerais d’abord connaître les noms de ces détracteurs et pouvoir leur faire face, leur répondre à découvert, ce débat étant filmé et mis aussitôt sur le net. Et cela dans tous les domaines.

Dans le domaine des plasmas, de la fusion et du nucléaire, interrogez à mon sujet Robert Dautray, ancien directeur des projets scientifiques du CEA, ainsi que Paul Henri Rebut, concepteur du tokamak français de Fontenay aux Roses, puis Guy Laval, membre de l’académie des sciences, qui a dirigé la composition du rapport de 2007 sur « l’énergie à partir de la fusion ». Notez leurs réponses à mon sujet et publiez les.

Dans le domaine de l’astrophysique, proposez à Alain Riazuelo, par exemple, d’accepter un face à face filmé, puis diffusé sur le net, où il pourra jouer les détracteurs de mes travaux, à ses risques et périls.

Enfin sur le sujet du 11 septembre, je suggère une rencontre semblable, nous opposant, Alix (qui s’occupe de reopen 9/11) à nos détracteurs. Rencontre également filmé et diffusée.

Je pense ainsi avoir répondu à vos questions  !

Jean-Pierre Petit, ancien directeur de recherche au Cnrs.


Z machine : conférence de Jean-Pierre Petit à... par UFO-Science

Gizmodo.fr en partenariat avec 20minutes.fr

AILLEURS SUR LE WEB

Quels sont les avantages du stress ? (Home Actu)

Mexique: découverte d'une importante cité maya(Culturebox)

Les dernières contributions

  • LoadedGun

    enfin on donne la parole a JPP ! ( ok il a déliré un peu avec les ovni ( proto us ) ...mais il n as jamais dis que le nuage de Tchernobyl c est arreté à la frontiere ... Je connais 4 cas de gens contaminés en france par le nuage , 3 amies de 40 a 63 ans auxquelles ont as retirer la thyroide , et un enfant né un peu apres ... pb circulatoire , nerveux , qui enchainent les sejours a l hosto . ce sont les medecins qui lui ont dis qu il etait victime de Tchernobyl , la maman n avais pas fait le rapprochement )
    L epr est un gouffre qui ne donnera jamais les resultats , c est un voie de garage pour les ingénieurs .
    pour le 11/09/2001 ...l aluminium ne coupe pas l acier , on ne fait pas fondre de l acier avec un feu de kerosene .

    16.01.2013 - 14h56 • 3 recommandations • RecommanderRépondre

samedi, 29 septembre 2012

XERFI : Passage de l’économie à l’Iconomie

“[…] Nous sommes en crise, parce que comme le disait Gramsci, « le vieux ne veut pas mourir et que le neuf ne peut pas naître ». Dans cet entre deux surgissent les monstres de la prédation économique et financière, du délitement du système productif, du chômage de masse.
On ne reconstruira pas le système productif par de simples mesures macro-économiques. Il ne s’agit pas non plus de copier des pays qui ont su habilement tirer parti des faiblesses des autres. Il faut réviser nos modes de pensée et d’action. Penser la mutation, la rendre intelligible, c’est le but que s’est fixé le groupe de travail de l’association Institut Xerfi. Il s’agit d’impulser le passage de l’économie à l’Iconomie, avec un nouveau modèle de compréhension de l’économie pour penser le monde d’après, la France d’après, éclairer les voies d’une nouvelle compétitivité et d’une nouvelle manière de créer des richesses et des et des emplois.
Or, nous sommes confrontés à un vide, un vide de la pensée et de l’action stratégique. La stratégie, ce n’est pas un ensemble de solutions techniques. Ce n’est pas l’organisation efficace de moyens pour atteindre un but comme on l’enseigne à nos futures élites. En 35 ans de métier, je n’ai jamais vu une grande stratégie sortir d’une analyse stratégique. Je n’ai jamais vu un futur se dessiner dans un modèle économétrique. Non, une stratégie exige une vision, un dessein, une ambition, qui se concrétise dans une orientation. Oui, depuis plusieurs dizaines d’année la France est dans un vide stratégique. L’Iconomie, c’est d’abord la volonté de penser le neuf, c’est aussi une ambition pour la renaissance de la France. […]

Conférence de l'institut Xerfi

Voici les exposés lors de la conférence de l'institut Xerfi le 19 septembre 2012 :

Laurent Faibis, "
Introduction : passer de l'économie à l'Iconomie, pour la renaissance de la France" :

Alexandre Mirlicourtois, "L'état des lieux : les chiffres-clés d'une révolution productive manquée" :

Michel Volle, "L'Iconomie, l'élan du nouveau « système technique » pour reconquérir la compétitivité" :

4) Philippe Moati, "La fourniture d’effets-utiles et l’émergence d'un modèle économique serviciel" :

5) Alain Marbach, "Investir massivement dans l'Iconomie pour créer les conditions d'une nouvelle compétitivité" :

6) Jean-Pierre Corniou, "Comment l'Iconomie va provoquer une nouvelle organisation productive plus performante" :

7) Christian Saint-Etienne, "Pour le retour d’un Etat stratège,
pour une reconstruction du tissu productif
" :