Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

mercredi, 11 janvier 2017

L’Intelligence Artificielle forte émerge

http://informationsystemsbiology.blogspot.fr/2015/06/stro...

Le «retour de l' intelligence artificielle" est une tendance impressionnante de la blogosphère. J'ai passé un certain temps et le plaisir de lire les deux grands messages de blog WaitButWhy de Tim Urban intitulé «La Révolution AI: The Road to Superintelligence" et "La Révolution AI: Immortalité ou extinction" ( partie 1 et partie 2 ).

Le coeur de ces articles est la différence entre ANI (Artificial Narrowl Intelligence, que l'on appelle AI faible), AGI (Artificial General Intelligence , ou AI forte) et ASI (Artificial SuperIntelligence). Ces articles sont fortement influencés par Ray Kurzweil et ses nombreux livres, mais font un excellent travail de collecte et de tri des opinions contradictoires. Ils montrent un consensus en faveur de l'émergence d'AGI entre 2040 et 2060. Je recommande fortement la lecture de ces messages parce qu'ils sont amusants, en fait assez profonde et offrent une très bonne introduction aux concepts que je développerai plus tard. Mais, ils manquent l'importance de la perception, les émotions et la conscience, que je vais aborder dans ce billet.

La diversité des opinions est frappante. D'une part, nous avons des avocats très enthousiastes, comme Ray Kurzweil et son livre " Comment créer un esprit " dont je parlerai plus tard, ou Kevin Kelly avec ce grand article de Wired: " Les Trois Percées qui ont enfin Unleashed AI sur le monde ". Pour ce camp, AI forte est faisable, il est à venir et il est bon. De toute évidence , Larry Page est dans ce camp . De l'autre côté, on trouve soit des gens qui ne croient tout simplement pas dans la faisabilité de l' IA forte, comme Gérard Berry, célèbre pour dire que « les ordinateurs sont stupides ", ou des gens qui sont très inquiets de ce que cela pourrait signifier pour l' humanité tels que Stephen Hawking , Bill Gates ou Elon Musk , pour neciter que quelques - uns. Une des raisons à ce sujet est si chaud dans le Web est que la course d'investissement a commencé. Chaque grande entreprise de logiciel investit massivement dans AI, comme cela est expliqué par Kevin Kelly dans son journal. IBM et Watson ont commencé la course, alors que Google faisait l' acquisition de sociétés massivement dans les domaines de l' intelligence artificielle et de la robotique. Facebook a un programme d' IA massif qui a attiré beaucoup d'attention. Kevin Kelly cite Yahoo, Twitter, LinkedIn ou Pinterest pour avoir investi dans des capacités AI récemment. Il n'y a pas de débat sur la vague de l' ANI (forme faible de l' IA), qui est à la fois représenté par Kevin Kelly ou Tim Urban. Il est déjà là, ça fonctionne très bien et il est l' amélioration rapide. La grande course (et ceux qui investissent croient qu'il ya un changeur de jeu à l' avance) est d'obtenir d' abord à la prochaine génération de l' intelligence artificielle.

Je décidai d'écrire ma propre opinion , il y a quelques mois, d' abord parce que je suis fatigué d'entendre les mêmes vieux arguments au sujet de pourquoi AI forte était impossible, et aussi parce que je trouve tout en lisant Tim Urban ou Kevin Kelly (pour ne citer que quelques - uns) qui quelques - uns des ingrédients clés pour y arriver ont été portées disparues. Par exemple, il est trop l' accent sur la puissance de calcul, ce qui est un facteur clé , mais ne suffit pas, à mon avis, pour produire AGI, même si je l' ai lu et apprécié les livres de Ray Kurzweil. Je dois dire que je suis parti trop loin de l'informatique pour être considéré comme un expert dans une forme quelconque. Laissez dire que je suis un amateur instruit, parce que je commencé ma carrière et mon doctorat dans les domaines de la représentation des connaissances, des systèmes basés sur des règles et des systèmes soi-disant experts. Je travaille depuis longtemps sur l' apprentissage automatique appliqué à l' algorithme génération , puis plus récemment sur agent intelligent d' apprentissage avec le cadre GTES . Il y a une certaine ironie pour moi lors de l' écriture de ces pages, puisque l' un de ma première conférence quand j'étais étudiant à l'Ecole Normale Supérieure en 1984 était sur le thème de l' IA en remplaçant la main - d'œuvre d'aujourd'hui (à comparer avec un de mes messages sur le même sujet de l' année dernière).

Dans ce post, je vais explorer quatre idées, ce qui semble être, à mon avis, manque de ce que j'ai lu au cours des derniers mois:

  • Spéculer sur les algorithmes AI aujourd'hui comme un moyen d'atteindre l'IA forte est dangereuse car ces algorithmes seront synthétisés.
  • La vraie intelligence nécessite sens, il exige de percevoir et de l'expérience du monde. Ceci est l'une des principales leçons de la biologie en général et les neurosciences, en particulier à partir des dernières décennies, je ne vois pas pourquoi l'ordinateur AI serait échapper à ce destin.
  • Un cas similaire peut être faite à propos de la nécessité d'émotions informatiques. Contrairement à ce que je l'ai entendu, les émotions artificielles ne sont pas plus complexes à intégrer que l'ordinateur raisonnement.
  • La conscience de soi peut être difficile de code, mais il sera probablement émerger comme une propriété des systèmes complexes de prochaine génération. Nous ne prenons pas de donner une «âme à un ordinateur", mais en laissant le libre arbitre et la conscience de soi-même par rapport au temps et à l'environnement deviennent une clé caractéristique perçue des systèmes autonomes intelligents de demain, dans le sens du test de Turing.
1. Intelligence artificielle est Grown, Non Conçu


Ce n'est pas une nouvelle idée. J'ai fait le livre de Kevin Kelly " Out of Control " , une référence majeure pour ce blog . L'idée centrale de son livre est que dans le but de créer des systèmes vraiment intelligents, vous devez abandonner le contrôle. Cela est vrai pour l' IA faible et fort semblables. Ce qui rend cette idée plus pertinente aujourd'hui est la disponibilité combinée de puissance de calcul massive, le stockage massif et des quantités massives de données.Comme je l' ai expliqué dans mon Big poste de données où je citais Thomas Hofmann , « Big Data devient au cœur de l'informatique », la nouvelle façon de concevoir des algorithmes est de les développer à partir de quantités massives de données. Ces nouveaux algorithmes sont généralement "simple" (pièces ou ensemble sont sous-linéaire) afin d'absorber des quantités très importantes de données (peta-octets aujourd'hui, beaucoup plus demain). Une chose que nous avons appris des dernières années est que les algorithmes simples formés à vraiment énorme corpus de preuves font mieux que des algorithmes plus complexes formés sur deséchantillons plus petits. Cela a été démontré dans la traduction automatique, la vérification grammaticale et d' autres domaines d'apprentissage de la machine.

L' un des principaux AI technologie algorithmique du moment est convolution Neural Networks(CNN) et l'accent est mis sur « l' apprentissage en profondeur ». CNN sont une famille de réseaux neuronaux - en essayant de reproduire le mécanisme du cerveau pour se pencher àpartir de couches de neurones - caractérisé par le contrôle de back-propagation del'information de la formation prévue dans le réseau de neurones. Par exemple, vous pouvez lire l' entrée Mark Montgomery sur " les tendances récentes dans les algorithmes d'intelligence artificielle ". Apprentissage en profondeur a reçu beaucoup d'attention des médias grâce au succès de esprit profond et son fondateur Demis Hassabis. Les réseaux de neurones , sont un bon exemple des systèmes qui sont cultivés, ne sont pas conçus.

Si vous lisez attentivement sur les meilleures méthodes pour la reconnaissance vocale et la génération de la langue, vous verrez que vous avez besoin de plus de puissance du processeur et de grands ensembles de formation, vous avez réellement besoin de beaucoup de mémoire pour garder cette information "vivante". J'emprunte de Mark Montgomery de la citation de Sepp Hochreiter parce qu'il fait un point très important: " L'avènement de Big Data avec les architectures matérielles avancées et parallèles a donné ces vieux filets un coup de pouce de telle sorte qu'elles révolutionnent actuellement la parole et la vision sous l'apprentissage de la marque profonde . En particulier , le réseau "long mémoire àcourt-terme" (LSTM), développé par nous il y a 25 ans, est aujourd'hui l' un des reconnaissance de la parole et degénération de langage méthodes les plus efficaces ". Kevin Kelly attribue la «arrivée tant attendue de l' IA" à trois facteurs: calcul parallèle pas cher, les grandes données et de meilleurs algorithmes. Je suis évidemment d' accord avec ces trois, mais sa vision de «données volumineuses» , comme la disponibilité d' un grand ensemble de la formation est trop étroite.

Je ne crois pas non plus que les algorithmes actuels de 2015 sont révélateurs de ce que nous allons croître en 2040 lorsque nous avons calcul et de stockage des capacités massivement supérieures. L' histoire montre que l'esprit suit l'outil et que les scientifiques adapter en permanence aux nouvelles capacités de leurs outils. Nous sommes encore au stade de l'enfance, parce que nos capacités de calcul sont vraiment très limitées (plus à ce sujet dans la section suivante). Parmi les sceptiques de la communauté de l' informatique sont des gens qui pensent - et je dois convenir - que d' être en mesure de jouer de vieux jeux d'arcade à un "niveau de génie» est encore très loin d'une véritable étape vers AGI. La capacité de concevoir et d' explorer la recherche et de jeux de stratégies a été autour depuis longtemps dans la communauté AI (ie, jouer à un jeu sans règles). Beaucoup de critiques au sujet de la possibilité d'AI cite la difficulté de créer, de produire l' art ou d'inventer de nouveaux concepts. Ici , je tends à penser le contraire, sur la base de la dernière décennie de voir lesordinateurs utilisés dans la musique ou les mathématiques (comme un indice, je voudrais citer Henri Poincaré: « Lesmathématiques sont l'art de donner le même nom à des choses différentes»). La création est pas difficile à exprimer en tant que programme, il est en fait étonnamment facile et efficace d'écrire un programme qui explore un énorme espace abstrait qui représentent de nouvelles idées, de nouvelles images ou de nouvelles musiques. La partie difficile est évidemment de reconnaître la valeur de la création, mais les ordinateurs deviennent de mieux en mieux.

2. Une intelligence artificielle vraiment intelligente Doit Découvrez le monde

L'argument le plus commun contre l'IA forte et "vrai" traitement du langage naturel, quand j'étais encore proche de la communauté AI scientifique, était le «problème sémantique», qui est, la difficulté d'associer un sens à des mots dans un programme informatique. Ce que nous avons appris au cours des dernières décennies est que le langage naturel ne peut être compris par le biais de méthodes formelles. Grammaire, règles syntaxiques, lexicographie ne peut pas vous aider à bien sans une «référence sémantique» qui est nécessaire pour comprendre, même pour désambiguïser, beaucoup de phrases qui font de notre vie quotidienne. D'une certaine manière, il faut une base de phénoménologie pour comprendre l'homme et d'être en mesure de discuter de façon convaincante.

La véritable révolution qui se passe progressivement est que le Web peut être utilisé comme cette « fondation phénoménologique ». Cela a été expliqué à moi il y a de nombreuses années par Claude Kirchner lors d' une conférence à l'NATF : si vous êtes un ordinateur et devez penser "de l' expérience" d'un chien, pourquoi ne pas utiliser le réseau de millions de documents retournés par une recherche Google avec la requête «chien» comme référence de laphénoménologie? Elle nécessite d' énormes quantités de calcul et de stockage, mais il est de plus en plus réalisable. Dans toute sa richesse, la diversité et des liens avec d' autres expériences, ce nuage de documents (texte / image / vidéo / ..) fait une base solide pour répondre à bon savoir-questions sur les chiens. Ceci est un départ des approches précédentes où l'énorme quantité de sources disponibles sur le web est utilisé pour produire des «abstractions» (concepts qui sont représentés par les vecteurs de bits produits par des techniques telles que l' indexation sémantique latente de mon défunt ami Thomas Landauer ). L'idée ici est de garder l'ensemble du réseau de document en mémoire comme un substitut à l'expérience d' un chien. Je suis un peu lourd ici -one pourrait dire qu'il est un apprentissage en profondeur paresseux -, car il est un point clé lorsque l' on veut comprendre quand nous pouvons obtenir AI forte largement disponible: il est pas la même chose d'avoir l'ensemble des documents stockés dans votre cerveau d'ordinateur ou de construire un modèle grâce à laformation. Ceci est, pour moi, un point clé puisque nous avons appris d'autres scientifiques qu'il est très difficile de laperception et de la pensée séparée, car il est difficile de séparer le corps et l' esprit. Une référence évidente qui vient à l'esprit est Alain Berthoz et son travail sur la vue (par exemple, vous pouvez lire son livre sur décision ).

Dans un premier indice que l'accès à énorme quantité de données construit la capacité de comprendre des textes, nous avons commencé à voir des progrès significatifs dans le traitement du langage naturel (NLP) et nous sommes tenus de voir beaucoup plus quand plus de stockage et plus de puissance de traitement deviennent disponibles . La PNL est l' une des principales priorités pour le programme Facebook AI que je l' ai mentionné plus tôt . Il est également une priorité pour Google, d' Apple et beaucoup, beaucoup d' autres.Il existe déjà un certain nombre de signes passionnants que nous faisons des progrès. Par exemple, les ordinateurs peuvent maintenant jouer avec les mots jeux, tels que celui qui fait les tests de QI, mieux que la plupart des humains .Ce n'est pas encore un exemple de garder tous " l' expérience desconnaissances en mémoire», mais un signe que l' apprentissage en profondeur appliquée à quantité massive de données peut fonctionner assez bien. Un autre signe que la course vers la PNL fait rage est l'apparition de services qui sont principalement basées sur la réponse à desquestions. La référence évidente ici est IBM Watson, mais il y a beaucoup d' autres services innovants qui surgissent, tels que les textos services au - dessus de WeChat . Beaucoup de ces services SMS / concierge utilisent un hybride d'assistance humaine / robot, attendant la technologie pour devenir pleinement suffisante. J'entends aussi beaucoup de frustration dans mon entourage proche des lacunes de Google translate ou Apple Siri, mais le taux de progression est très impressionnant.Si vous n'êtes pas convaincu, lisez cet article passionnant sur la formation d'IBM Watson . Au cours d' une conférence que j'ai assisté le mois dernier, Andrew McAffee utilisé le graphique (Figure 9) où vous voyez le niveau de couverture / précision atteint par les versions Watson après les versions, comme une grande illustration de la puissance de la croissance de latechnologie exponentielle.

Ceci étant dit, l' une des raisons pour lesquelles je mets l' accent sur la nécessité de la mémoire est que le ralentissement de la DRAM augmentation de capacité peut se produire plus rapidement que le déclin présumé de la loi de Moore . Il se trouve qu'il ya beaucoup de façons de continuer à augmenter la puissance de traitement, même si la vitesse est fermée à sa limite et si l' intégration (réduction du transistor dimension) est également, dans sa version à deux dimensions, pas si loin de frapper des limites strictes. D'autre part, les performances DRAM semble progresser plus lentement et avec moins deroutes pour poursuivre sa croissance. Vous pouvez jeter un oeil à la table ou le tableau suivant pour voir que la mémoire de l' ordinateur progresse plus lentement que les processeurs, qui progressent plus lentement que les disques (cette dernière partie est très bien expliqué dans " The Dilemma Innovator "). Une autre façon de voir les choses est la suivante. J'ai attendu de 1 Pb (peta-octets) de mémoire sur mon PC depuis de nombreuses années ... au début des années 90, j'ai eu quelques mégaoctets, aujourd'hui j'avoir un couple de gigaoctets. Même au TCAC précédent de 35%, il peut prendre 50 ans pour y arriver, ce qui explique pourquoi je suis plus avec le groupe de penseurs qui prédisent l' AGI survenue en 2060, parrapport au groupe optimiste (2040). D'une part, on pourrait dire que demander un Pb est beaucoup demander (il y a plusieurs façons d'obtenir ce nombre , la mienne était tout simplement 100K expériences temps 10 Go de données réelles), mais étant donné clairement que la mémoire va continuer à croître au même taux est trop optimiste.

Liaison d' un ordinateur à un très grand nombre de «expériences» en une seule étape, l'approche suivante consiste à construire des robots autonomes avec leurs propres sens. Je parle souvent le bras robotique de l'Université de Tokyo , qui est sur le point d'attraper un oeuf qui est lancé vers elle à pleine vitesse, et qui est également capable de jouer au baseball avec la précision d'un joueur professionnel. La raison de cette fête d'ingénierie est pas un algorithme incroyable, il est la vitesse incroyable à laquelle le robot voit le monde, à 50 milliers d' images par seconde. A cette vitesse, la balle ou l'œuf se déplace très lentement et l'algorithme de commande pour le bras a un travail beaucoup plus facile à réaliser. En raison de l'importance des sens, des expériences et la perception, il peut être le cas que nous voyons des progrès plus rapides des robots autonomes que cloud AI jusqu'à atteindre AGI est concerné. On pourrait dire que la meilleure façon de former une intelligence artificielle est de le laisser apprendre par la pratique, en agissant et en explorant avec un cercle complet de rétroaction ( ce qui est précisément ce qui se passe avec les DeepMind expériences de jeux d'arcade ). Cela peut signifier que les robots autonomes, qui seront clairement être équipés avec des sens de perception exceptionnelles - on peut penser à Google voiture autonome , par exemple - seront dans la meilleure situation de se développer une forme forte émergence de l' intelligence artificielle.

3. Apprentissage et décisions exigent Emotions

Pour continuer sur ce que nous pouvons apprendre de la biologie et de neurosciences, il semble clair que les ordinateurs doivent équilibrer les différents types de penser à prendre des décisions sur un large éventail de sujets, d'une manière qui apparaîtra «intelligente» à nous , les humains. Beaucoup de ma pensée pour cette section a été influencé par le livre de Michio Kaku " L'avenir de l'esprit ", mais beaucoup d' autres références pourrait être cité ici, à partir de best - seller de Damasio " l'erreur de Descartes ". L'idée clé des neurosciences est que nous avons besoin à la fois la pensée rationnelle du cortex et de la pensée émotionnelle à prendre des décisions. Les émotions semblent déclenchées principalement par " lareconnaissance des formes" circuits bas niveau du cerveau et du système nerveux. Cette distinction est également liée à laDescription du système 1 / système 2 de Kahneman . Il semble être conçu pour mélanger la logique inductive et déductive.

Michio Kaku a une façon très élégante de regarder le rôle des émotions dans le processus de la pensée. Les émotions sont une fonction «coût / évaluation» qui est câblé (grâce à l'ADN) et a évolué lentement à travers l'évolution (grâce à l'ADN), de jouer deux rôles clés. D'une part, les émotions sont une fonction d'évaluation qui est utilisée comme une méta-stratégie de recherche et d'apprendre quand on nous l'déductive, la pensée rationnelle façon. Pour les personnes formées à des problèmes d'optimisation, les émotions définissent le premier niveau de la fonction "objective". Cependant, en tant que créatures ont évolué, nous construisons nos propres objectifs, nos propres désirs et nos propres fonctions de coût pour des situations nouvelles, qui est, comment nous apprécions de nouvelles expériences. Le deuxième rôle des émotions est d'être le fondement (on pourrait dire, les ancres) pour la fonction de coût que nous cultivons par l'expérience.

Ceci est étroitement lié à un cycle clé dans la biologie que nous pourrions appeler le «cycle d'apprentissage pour les êtres vivants»: le plaisir conduit au désir, désir de la planification, de laplanification à l' action, les actions conduisent à éprouver des émotions, comme le plaisir, lapeur, la douleur, etc. J'ai entendu parler de ce cycle , il y a quelques années , alors qu'il assistait à une conférence de systèmes complexes. Il semble décrire la boucle d'apprentissage pour un grand nombre d'êtres vivants, de très simple à nous les humains. Les émotions, à lafois comme positif que le plaisir et négatifs tels que la peur, jouent un rôle clé dans ce cycle, à partir de l' évaluation des situations et la formulation de plans. Nous pouvons voir qu'une conception similaire est pertinente pour l'objectif o f générer une forte intelligence artificielle. Il est clair qu'un véritable système intelligent doit être capable de générer ses propres objectifs, ce qui est effectivement facile, comme expliqué précédemment. Simuler "volonté libre" de l'aléatoire est une tâche simple (très discutable du point de vue de la philosophie , mais efficace d'un pragmatique).Cependant, l' intelligence dans la production d'objectif , il faut utiliser une fonction objective qui peut évoluer en tant que système intelligent apprend. Émotions informatiques peuvent être utilisés comme semences (ancres) de cette fonction objectif. F ou Michio Kaku, les émotions sont heuristiques basées sur des cas qui ont été finement réglé grâce à l' évolution darwinienne pour nous faire une espèce plus adaptatives . Le mélange des émotions et le raisonnement est pas vraiment un nouveau concept dans l' IA. Il est un moyen de mélange raisonnement par cas, dans une "forme compilée" qui a été appris précédemment par la génération précédente d'instances de logiciels avec la logique duraisonnement déductif qui est «interprété» et unique à chaque instance. Ceci est clairement un modèle multi-agents (system1 vs sysytem2) qui nous rappelle « La Société de l' esprit » proposée par Marvin Minsky en 1986.

Une grande illustration de cette idée proposée par Mikio Kaku est le sens de l' humour , qui peut être décrit comme notre capacité à apprécier la différence entre ce que nous attendons (le résultat de notre propre modèle de simulation du monde) et ce qui se passe. Voici comment des farces et attrapes magiques fonctionnent. Parce que nous apprécions cette différence, nous sommes des créatures ludiques: nous aimons à explorer, d'être surpris, de jouer le jeu. Kaku fait un argument convaincant que le sens de l' humour est un  trait d'évolution clé qui favorise notre capacité d'apprentissage comme une espèce vivante. Il est également très naturel de penser que smart AIs, avec une capacité similaire à planifier et simuler en permanence ce qu'ils attendent de se produire, devrait être donné un «sens de l' humour" similaire (par exemple, l' affinité pour l'inattendu) comme une recherche "méta -stratégie". Cette remarque ramène aussi à la nécessité de «émotions» pour éviter le danger ( par exemple, la façon dont nous apprenons à ne pas jouer avec le feu). Kaku voit également l'utilisation du libre arbitre, dans le sens d'exploiter une certaine forme de hasard - avec le même débat si elle est "true" la liberté ou une astuce pour utiliser une certaine forme de générateur pseudo-aléatoire biologique -, en tant que méta-stratégie évolué comme un avantage darwinienne pour la compétition des espèces. Il prend le lièvre , par exemple, qui avait besoin de développer des chemins aléatoires pour éviter le renard. Mais un cas plus général peut être fabriqué àpartir de la théorie des jeux où l' on sait que les stratégies mixtes (qui combinent une certaine forme de choix ou «libre arbitre») sortent mieux dans une compétition que des stratégies pures (déterministes). Un point similaire et plus technique pourrait être faite à propos de l'utilisation de la randomisation dans les algorithmes de recherche , qui a fait ses preuves dans la dernière décennie comme une méta-stratégie efficace.

Je recommande fortement la lecture du livre de Michio Kaku, qui a une portée beaucoup plus grande que ce qui est discuté ici. Par exemple, les pages sur des expériences à Berkeley pour lire les pensées sont très intéressantes. Ses idées sur le rôle des émotions sont tout à fait fascinant, et faire un bon complément au livre de Kurweil que je vais discuter dans la section suivante. Pour résumer et conclure cette section, la conception des émotions informatiques est probablement la meilleure façon d'introduire une certaine forme de contrôle dans un système autonome de raisonnement émergent . Les émotions sont à la fois une amorce et un mécanisme d'échafaudage pour la culture libre arbitre. Ils constituent notre premier niveau de la fonction objective, câblé en même temps que les sens des signaux plus primitifs tels que la douleur. Comme nous apprenons à tirer des objectifs plus complexes, les plans et les ambitions, les émotions sont un mécanisme de contrôle pour garder la nouvelle fonction objective dans des limites stables. Les émotions sont en quelque sorte un mécanisme de traitement de l' information plus simple que la pensée déductive du cortex ( ce qui est la raison pourlaquelle ils travaillent plus vite dans notre corps) et ils évoluent au niveau des espèces, beaucoup plus que le niveau individuel (nous apprenons à les contrôler, de ne pas les changer) . Cela rend les émotions d'ordinateur un mécanisme qui est beaucoup plus facile à contrôler que l' intelligence émergente. Mon intuition est que cela va devenir un domaine clé pour robots intelligents autonomes.

4. La conscience est une propriété émergente de systèmes de pensée complexe

Un autre argument classique des sceptiques quant à la possibilité de l'IA forte est que les ordinateurs, contrairement à l'homme, ne seront jamais conscients de leur pensée, donc pas conscients de leurs actions. Je suis en désaccord avec cette affirmation car je pense que la conscience émergera progressivement à mesure que nous construisons des systèmes d'IA plus complexes avec un raisonnement plus profond et capacités percevoir (cf. Section 2: percevoir est aussi important que le raisonnement). Je suis conscient (jeu de mots) qu'il ya beaucoup de façons de comprendre cette déclaration et que la définition précise est l'endroit où le débat reste chaud. Ici, ma propre pensée a été influencé par le livre de Ray Kurzweil "Comment créer un esprit». Même si je ne souscris avec l'histoire complète (à savoir que tout ce dont vous avez besoin pour créer un esprit est expliqué dans ce livre), je trouve ce livre une excellente lecture pour deux raisons: il contient beaucoup de points de vue et de la substance sur l'histoire de la PNL et l'IA, et il propose un modèle de raisonnement conscient, qui est à la fois pratique et convaincante. Comme vous l'aurez deviné, ma principale préoccupation avec l'approche proposée par Kurzweil est le faible rôle joué par les sens et les émotions est sa conception d'esprit.

Ce que je prévois est un cheminement progressif vers la conscience:

  • Auto contre environnement : le robot, ou AI autonome, est en mesure de comprendre son environnement, à voir et à se reconnaître comme partie du monde (le fameux "test du miroir»).
  • Sensibilisation des pensées : le robot peut dire ce qu'il fait, pourquoi et comment - elle peut expliquer ses traitements / étapes de raisonnement
  • Sensibilisation Temps : le robot peut penser à son passé, son présent et son avenir. Il est en mesure de formuler des scénarios, de définir des objectifs et d'apprendre de ce qui se passe réellement par rapport à sa prévision
  • Conscience Choix : le robot est conscient de sa capacité à faire des choix et crée un récit (sur ses objectifs, ses aspirations, ses émotions et ses expériences) qui est une base pour ces choix. "Narrative" (histoire) est un terme vague, dont je me sers pour englober déductif / inductif / raisonnement causal.

Bien que je vois une progression, ce n'est pas une hiérarchie étape par étape. I t est un ensemble intégré de capacités qui émergent lors de la détection, la modélisation et les capacités de raisonnement se développent . L' émergence de la conscience est un élément clé du livre de Kurzweil, comme le montre cette citation: « À mon avis, ce qui est peut - être un subschool de panprotopsychism, est que la conscience est une propriété émergente d'un système physique complexe. Dans ce point de vue le chien est également conscient , mais un peu moins d'un humain ". La caractéristique émergente implique également qu'il est difficile de caractériser, et encore plus difficile de comprendre comment il se fait d'être. Cependant, une fois qu'une AI a atteint les quatre niveaux de capacités conscientes que je viens de décrire, il est capable de nous parler de la conscience de soi d'une manière très convaincante. On pourrait objecter que ce soit, une étroite  définition pratique de la conscience, mais je dirais qu'il est celui qui compte pratiquement, pour l' IA forte et applications robotiques autonomes. Je ne vais pas toucher à ce poste la question clé de savoir si la conscience humaine est de la même nature (une propriété émergente de nous - mêmes comme un système complexe, une caractéristique essentiellement différente de notre espèce, ou un attribut de notre âme immortelle). L' une des questions chaudes au sujet de l' IA forte est le « problème difficile de la conscience » défini par David Chambers. Les «problèmes faciles de conscience» sont des capacités d' auto-sensibilisation qui Chambers et beaucoup d' autres voient aussi facilement accessibles aux robots. " Les problèmes difficiles" qualifie pensées de réflexion à propos de ses expériences qui semblent plus difficiles à capturer avec un programme d'ordinateur / Sans essayer de répondre à cette question difficile, il est clair pour moi que la conscience exige de l' expérience, d' où l'accent que je l' ai mis sur les sens, les perceptions et les émotions . Je crois aussi que, la complexité, de détection et de raisonnement des capacités suffisantes données, l' émergence peuvent se développer "consciences artificielles» qui viendront fermer le «niveau difficile de la conscience". Il est également clair que cela va ouvrir un certain nombre de questions éthiques sur ce que nous pouvons et ne pouvons pas faire quand on expérimente avec ce type de programme AI forte. Par manque de temps, je vous renvoie au livre de James Hughes "Citizen Cyborg ", où les droits des êtres conscients émergents sont discutés.

5. Réflexions finales

Il y a beaucoup plus qui doit être dit, en particulier sur le plan philosophique de la conscience et le niveau politique sur les risques sociétaux. Donc , je ne vais pas risquer une "conclusion", je vais conclure avec quelques réflexions. Mon post précédent sur ce sujet  est âgé de près de 10 ans , mais j'ai une intuition aiguë que beaucoup suivront plus tôt que 2025 :)

  • Premièrement, il est clair maintenant que la faiblesse de l' IA, ou ANI, est déjà là dans nos vies, et a progressé au cours des vingt dernières années , rendant ces vies plus faciles. Les deux articles de Tim Urban et Kevin Kelly que je l'ai mentionné à ce poste donnent un compte rendu détaillé avec beaucoup de preuves. Je peux aussi souligner après James Haight " Quelle est la prochaine pour l' intelligence artificielle dans l'entreprise ?". Kevin Kelly souligne l'avènement de "AI en tant que service", délivré à partir du nuage par un petit ensemble de leaders mondiaux. Je pense qu'il a un point juste, il y a clairement un premier avantage mouvement / échelle qui favorisera IBM, Google et quelques autres grands joueurs.
  • Cependant, il ar e plus de possibilités que la «pensée intelligente dans le nuage», (faible) AI est partout et continuera d'être omniprésente. L' apprentissage de la machine est déjà là dans notre smartphone et les prochaines décennies de la loi de Moore signifie que les objets connectés et appareils intelligents seront vraiment intelligent.
  • La course à la forte (ou au moins fort) AI est, comme illustré par les investissements massifs réalisés par de grands acteurs dans ce domaine. La prochaine cible est la PNL (traitement du langage naturel) qui est à notre portée en raison des progrès exponentiels de puissance de calcul, les grandes données (capacité de stockage et des données de façon disponible) et l'algorithme d'apprentissage en profondeur.
  • Ceci est sujet très perturbateur. Je ne suis pas d' accord avec la vision optimiste de Kelly dans son papier, ni avec Ray Kurzweil. La perturbation va commencer beaucoup plus tôt que l'avènement de la scène AI forte. Par exemple, la vague de ANI peut provoquer un tel chaos à rendre AGI impossible pendant des décennies . Cela pourrait être soit pour des raisons éthiques (lois ralentir l'accès aux ressources AGI en raison des préoccupations avec ce «faible» AI sera déjà en mesure de le faire en dix ans) ou pour des raisons politiques (la tourmente créée par les emplois massives destructions dues à automatisation ).
  • L'émotion et les sens font partie de la feuille de route vers AI forte (AGI). La mise au point d'aujourd'hui est sur la simulation du cortex comme un modèle pour AI avenir, mais tout, de la science cognitive à la biologie, suggère qu'il est le système nerveux complet du cerveau au corps qui va nous apprendre à développer une pensée autonome efficace. Ceci est effectivement plus facile de l'Etat sous une forme négative: AI conçu sans émotions, grâce à une focalisation étroite sur la croissance de la pensée cognitive et déductive par l'apprentissage émergent sera très probablement moins efficace qu'une "société des esprits» plus équilibré et presque certainement très difficile à contrôle.
  • La conscience émergera le  long de la voie vers l' IA forte. Cela arrivera plus vite que nous le pensons, mais il sera plus progressive (niveau chien, niveau enfant, niveau adulte, dieu-sait-quoi-niveau, ...). Forte AI ne se développera pas "dans une boîte", il se développera à partir des interactions constantes et ouvertes avec un vaste environnement.

Publié par Yves Caseau à 00h59

dimanche, 04 novembre 2012

R2I : la Révolution Industrielle Informatique

http://nauges.googlepages.com/biofrance
http://www.revevol.eu

Wikio Mots clés : , ,

01/11/2012 - Cinquième partie : DSI (Direction des Systèmes Services d’Information)

Rappel des « chapitres » précédents :

(En anglais, DSI = CIO, Chief Information Officer)

La R2I, Révolution Industrielle Informatique est en marche et rien ne peut plus l’arrêter : infrastructures et usages industriels sont disponibles, des fournisseurs innovants proposent des solutions industrielles ; il ne reste plus qu’à faire profiter de cette R2I toutes les organisations, privées ou publiques, grandes ou petites !

Le nouveau rôle, passionnant, d’une DSI, c’est d’en faire bénéficier l’organisation où elle travaille, ses clients et ses collaborateurs en déployant (vous l’aviez deviné)... un Système d’Information Industriel.

Les nouveaux métiers d’une DSI industrielle

Infrastructures Cloud, usages en SaaS, ce sont d’excellentes nouvelles pour les entreprises, donc pour les DSI dont le métier principal est de fournir aux clients de l’entreprise et à ses collaborateurs un Système d’Information ergonomique, accessible en permanence, flexible, fiable et à faible coût.

IT as a Service
Ce schéma présente le contexte d’une DSI, gestionnaire d’un Système d’Information que je définis comme  : IT as a Service.

Quelques explications s’imposent :

- La DSI sert d’intermédiaire entre ses « clients » et les solutions qu’elle propose. Elle s’organise en quatre équipes principales, pour ses activités métiers :

  • Infrastructures
  • Usages transverses
  • Usages métiers
  • Informatique flexible

Structure DSI Industrielle- Pour les clients, ce sont des « services » et ils vont juger la qualité des services, pas « comment » ils sont fournis. Clouds publics, communautaires ou privés, ils ne se posent même pas la question.

- L’équipe « infrastructures » a la responsabilité de définir quels seront les serveurs, réseaux et postes de travail qui permettent de fournir et utiliser les services proposés. Les choix d’infrastructures (tous les nouveaux usages par navigateur, HTML5...)s’imposent maintenant aux fournisseurs de services applicatifs.

- L’équipe « usages transverses » (Participatique et fonctions support) recherche en permanence les meilleures applications disponibles, les options SaaS étant toujours privilégiées. Elle fait son « marché » parmi les éditeurs de solutions, en n’hésitant pas à privilégier les offres « best of breed » au détriment des solutions intégrées.

- L’équipe « usages métiers » se concentre sur les 3 à 5 processus cœur métiers clefs qui font que Total n’est pas la BNP ou Axa le groupe Bouygues. La construction industrielle, sur mesure, d’applications métiers spécifiques est souvent la meilleure réponse !

- Toutes les réponses aux spécificités d’une entreprise ne se trouvent pas sur étagère. C’est là qu’intervient « l’équipe informatique flexible », décisionnel et BPM (Business Process Modeling), bien évidemment en mode SaaS, pour construire sur mesure, et vite, les réponses aux très nombreuses demandes des métiers pour des processus simples.

- Dans ce monde « IT as a Service », l’une des nouvelles fonctions les plus importantes, les plus nobles devient celle d’agrégateur de solutions. Elle peut être réalisée en interne ou par de nouvelles générations de sociétés de services qui remplacent les anciens « intégrateurs ».

Voilà un beau programme de transformation des modes de fonctionnement et d’organisation d’une DSI industrielle ; le chemin est tout tracé pour les actions à démarrer en 2013 !

Il reste un volet fondamental, les liens avec... les clients de la DSI.

Un Système d’Information au service des clients... internes

Les dimensions marketing et commerciale font trop rarement partie des compétences d’une DSI ; c’est pour cela que je propose la création d’une équipe « relation clients » au sein de la DSI.

Dans ce monde R2I, où une majorité de solutions sont opérationnelles et prêtes à l’emploi, cette fonction est encore plus essentielle qu’auparavant.

Si la majorité des responsables informatiques ignorent encore trop souvent la richesse et la variété des solutions Cloud/SaaS existantes, cette non-connaissance est encore plus forte du coté des « clients internes », des directions métiers. La DSI doit donc aller vers eux, vendre ces nouvelles approches, faire le marketing des solutions SaaS existantes...

Les modes anciens de fonctionnement, cahier des charges, appel d’offres, maîtrise d’ouvrage, maîtrise d’œuvre sont... devenus obsolètes

Scandale des scandales, ce sont les outils et les solutions existantes qui prennent le pouvoir et non plus les « besoins ».

Encore une fois, l’exemple de l’industrie l’automobile est utile pour comprendre cette nouvelle démarche R2I. Le salon de l’automobile 2012 de Paris vient de fermer ses portes avec environ 2 millions de visiteurs et des milliers de « solutions voitures » présentées. Rares sont les visiteurs qui sont allés sur les stands de Renault, Mercedes ou Ferrari avec un « cahier des charges » pour demander qu’on leur construise la voiture qui correspond à leurs attentes !

Une DSI moderne doit, progressivement, suivre une démarche similaire :

  • Organiser périodiquement en interne des « salons solutions ».
  • Faire venir ses « prospects » sur ces salons pour qu’ils puissent choisir les outils qui s’adaptent raisonnablement bien à leurs attentes.
  • Planifier des démonstrations d’usages professionnels avec les nouveaux objets d’accès « autorisés », smartphones, tablettes, PC portables, Chromebooks...
  • Montrer quelques réalisations récentes en SaaS, BI et BPM pour donner envie à d’autres directions métiers d’aller dans la même direction. Ces réalisations peuvent venir de l’interne ou d’autres entreprises.

Cette démarche s’applique rarement aux applications « cœur métiers ». Dans ce cas, une approche projet, avec des équipes venant des métiers, travaillant avec des professionnels de la DSI qui maîtrisent les outils de construction d’applications sur mesure (en mode Web-HTML5) s’impose.

Un Système d’Information au service des clients... externes

Répondre efficacement aux attentes de ses clients internes, c’est bien, mais cela ne doit pas faire oublier que la priorité absolue reste... les clients externes, qui achètent les produits et services de nos entreprises. De plus en plus de clients utilisent le Web et internet pour dialoguer ou commercer avec les entreprises.

Business as an IT service
Sur ce schéma :

- IT as a Service représente l’IT interne, définie précédemment avec ses usages métiers et tous les composants transverses, génériques.

- Business as IT Services : vu par les clients externes, ce sont toutes les interactions possibles avec l’entreprise, pour commander des produits ou des services, dialoguer avec des collaborateurs, répondre à des enquêtes...

- Infrastructures as a Service : toutes les interactions numériques entre les clients et l’entreprise se font sur la base des standards Internet. Ce point est fondamental : tout le monde comprend que les clients externes vont se servir d’objets, mobiles à 80 %; pour accéder par navigateur aux services proposés par les entreprises ; il ne viendrait plus à l’idée de personne d’imposer des choix d’OS ou de navigateurs aux clients externes. Le même raisonnement s’applique aussi aux ... clients internes !

3270 screenIl y a de moins en moins de raison pour que les clients internes de l’entreprise soient« punis » en étant obligés d’accéder au SI par des applications archaïques, moches, non ergonomiques et qui leurs imposent des choix réduits d’outils d’accès.

Les choix d’infrastructures modernes, navigateurs, HTML5... s’imposent aux entreprises pour répondre aux exigences de leurs clients externes ; autant en profiter pour que ces mêmes choix techniques soient faits pour les applications destinées aux clients internes.

Les challenges « non techniques » d’une DSI industrielle

Les challenges que doit affronter une DSI ne sont plus :

  • Techniques : les infrastructures Cloud, les solutions SaaS fonctionnent très bien.
  • Financiers : les infrastructures Cloud, les solutions SaaS réduisent rapidement et fortement les coûts du Système d’information.

Restent par contre de nombreux challenges majeurs :

- Gérer la réduction des budgets de la DSI : si le pouvoir d’une DSI se mesure encore au nombre de serveurs, d’informaticiens dans les équipes ou de millions dans les budgets, il ne faudra pas s’étonner que les résistances internes à une migration vers des solutions industrielles soient fortes.

- Le refus de voir l’importance des changements qui s’annoncent, faire l’autruche, pour ne pas affronter les changements qui s’imposent.

- Ne pas s’appuyer sur les alibis traditionnels de la « néphophobie », sécurité, confidentialité des données, difficultés de travailler « off-line »... pour bloquer les innovations nécessaires.

- Ouvrir son Système d’Information au maximum, et ne fermer que ce qui est vraiment indispensable. Toute la politique de sécurité actuelle doit souvent être mise à plat, en abandonnant les utopies dangereuses d’une sécurité parfaite ou de la même sécurité pour tous les usages.

- Ne plus considérer les utilisateurs internes comme des dangers, des fraudeurs en puissance ou des pirates dangereux, leur faire confiance et s’appuyer sur leur intelligence pour déployer des applications plus simples et plus performantes.

- Se libérer, dès que possible, du joug de la Direction Financière dont dépend encore trop souvent la DSI. Une vision exclusivement « financière » d’un SI n’a plus beaucoup de sens aujourd’hui.

- Préparer immédiatement tous les collaborateurs de la DSI aux nouveaux métiers d’une DSI industrielle. C’est la priorité numéro un, car il n’y aura pas un seul métier historique de l’informatique qui ne sera pas impacté par cette R2I.

Résumé : DSI = Direction des Services d’Information

Dans DSI, je propose de remplacer le S, Systèmes, par le S, Services.

Une DSI industrielle se transforme en prestataire de « services », en majorité achetés, certains construits sur mesure.

DSI en 2015 : ce sera, plus que jamais, un métier passionnant, porteur d’innovation pour les entreprises et... plein d’avenir pour tous ceux et celles qui sauront s’adapter à ce monde informatique industriel.

Reste un point clef pour réussir : faire partager aux dirigeants de l’entreprise une même compréhension les potentiels de cette Révolution Industrielle Informatique.
Ce sera le thème du sixième et dernier texte de cette série.

Rédigé à 23:35 | Lien permanent

dimanche, 11 décembre 2011

Risque systémique du système financier

http://www.lemonde.fr/economie/article/2011/12/10/dans-le...

LEMONDE | 10.12.11 | 15h04   •  Mis à jour le 10.12.11 | 15h51

 

Dans les entrailles des cygnes noirs,
par Cédric Villani

[…] La France peut se féliciter d'avoir accueilli le jeune Rama Cont : vingt-cinq ans plus tard, c'est notamment grâce à lui qu'elle est à la pointe de la recherche en finance. Cont se passionne pour le risque systémique : le risque d'une catastrophe touchant tout le système financier. Il en va en finance comme dans la société : ce qui est bon pour l'individu n'est pas forcément bon pour le groupe.

"EPIDÉMIES FINANCIÈRES"

Ainsi la diversification systématique des portefeuilles, minimisant les risques individuels, accroît en revanche le risque systémique en créant de nouvelles interdépendances entre différents marchés.
Même les mécanismes de régulation, censés garantir les individus contre les investissements trop risqués, peuvent devenir de redoutables facteurs de déstabilisation collective, entraînant parfois dans une spirale infernale toutes les banques, qui, contaminées les unes après les autres, sont forcées de refuser le crédit aux individus ou aux Etats qui en ont le plus besoin.

Pour prévenir ces "épidémies financières", l'équipe de Cont  fait le pari d'analyser mathématiquement leurs mécanismes de contagion.
Dans la finance moderne s'affrontent des ordinateurs qui chaque seconde, selon des algorithmes secrets, échangent des milliers d'ordres d'achat et de vente aussitôt annulés, dans un gigantesque jeu collectif que seuls quelques-uns maîtrisent et que les régulateurs publics, faute de moyens, sont incapables de surveiller.
Un monde qui paraîtrait aux financiers de 1950 aussi étrange que la physique quantique a pu l'être aux physiciens de 1900 !

Lors du mystérieux "krach éclair" du 6 mai 2010, l'indice Dow Jones avait plongé de près de 10 % en quelques minutes, avant de revenir à la normale. Cette mini-catastrophe, aussi fascinante qu'effrayante, est l'un des phénomènes que Cont et ses élèves dissèquent pour concevoir des mécanismes afin de stabiliser le système.

Une taxe sur les échanges financiers ? L'idée, soutenue par de nombreux universitaires, est rejetée par beaucoup pour des raisons idéologiques. Mais que vaut l'idéologie face à une réflexion scientifique rationnelle ?


Mathématicien, professeur à l'université de Lyon-I, directeur de l'Institut Henri-Poincaré (CNRS/UPMC)

Médaille Fields 2010

Cédric Villani

00:06 Publié dans Finance, Informatisation, Techno-Sciences | Lien permanent | Commentaires (0) | |  del.icio.us | | Digg! Digg |  Facebook | |  Imprimer | |

dimanche, 05 juin 2011

Jean- Michel BILLAUT : Éloge du très haut débit

La France peut devenir le pivot de l'économie numérique mondiale ! n°2

Qu'amènerait une stratégie "sarkofibre", annoncée ubi et orbi comme Sarkozy saurait le faire ?

Voir mon post de dimanche dernier : la France pourrait devenir le pivot de l'économie numérique mondiale. Ce dernier a entraîné pas mal de discussions à la fois sur mon blog, et sur mon wall Facebook (et même sur Twitter..)... La plupart des commentaires sont positifs - heureusement ! -. Mais il y a quelques irréductibles gaulois qui trouvent que fibrer la France est une ineptie. Certains pensent toutefois que dans les villes.. ? Mais dans les campagnes !... Les bouseux, dont je fais partie, n'ont nul besoin de cela, disent-ils.. Et vous ne vous rendez pas compte du coût ? ..  A mon humble avis, ce sont les rats des champs qui en ont en le plus besoin, avec le recul des services publics qui va s'accentuer, là où il y a moins de monde... Remarquez qu'avant guerre, il y avait des zigotos qui ne voulaient pas de l'électricité, ni de gares de chemin de fer dans leur ville ... On ne se refait pas... Depuis Vercingétorix, y'a ceux qui sont contre ce qui est pour, et vice versa...

Mais revenons à nos moutons... Financement et création d'emplois du sarkofibre...

Comment kon finance le "Sarkofibre" ?

Une idée que vous trouverez certainement saugrenue, mais qui à mon avis demande à être fouillée..Si l'on remplace dans les fourreaux de France Telecom et sur ses 15 millions de poteaux, comme notre aimable autorité de tutelle vient de l'autoriser, si l'on remplace donc les fils de cuivre par des fibres optiques, aura-t-on encore besoin du cuivre ? A mon avis, pas besoin de 2 réseaux. Un seul suffit... Donc on peut retirer le cuivre, vu qu'avec la fibre on peut faire beaucoup mieux en matière de débit, et donc de services ... Et que va-t-on faire de ce cuivre ? Le jettera-t-on à la poubelle ? Que nenni...

Il y a environ 35 millions de lignes de cuivre en France, à la louche... Une ligne (une paire) a en moyenne en France une longueur de 2,5 à 3 kms entre le Noeud de Raccordement d'abonnés (NRA - 13.000 NRA environ sur le territoire) et l'abonné, en passant par le Sous-Répartiteur (SR - 130.000 environ, soit une dizaine de SR par NRA).

Pour la simplicité de la chose, supposons qu'un km de fil de cuivre de la ligne (la paire donc) - hors sa gaine - pèse 1 kg. Là aussi ne nous compliquons pas la vie... Car il y a plusieurs sections de fil de cuivre dans le réseau (du 4/10e, du 6/10e, du 8/10e). Et 2 fils de cuivre par ligne. A mon avis on ne doit pas être trop loin de la vérité avec cette hypothèse, probablement même en-dessous...

Les puristes, naturellement pourront nous faire un calcul plus exact. Merci en tout cas à David El Fassy d'Altitude Infrastructure, et à ceux, notamment Sébastien Massabuau, qui ont réfléchi au problème sur mon wall Facebook...

35 millions de lignes, 2,5 km par ligne, 1 kilo par km. Ce qui fait 87,5 millions de kms, et donc 87.500 tonnes de cuivre qui sont enfouis dans nos sous-sols, ou qui servent de perchoir aux hirondelles dans nos campagnes.. (merci de vérifier mes calculs.. n'ayant pas fait de Grandes Ecoles Gauloises, il arrive souvent que je me gourre).

Le cours du cuivre varie ces derniers jours autour de 7.000 € la tonne.

Soit une valeur estimée d'un peu plus d'un demi-milliard d'€ (612,5 millions). Certes, ce cours peut évoluer à la baisse, mais aussi à la hausse... Il est d'ailleurs en progression constante depuis 10 ans. Il peut donc encore augmenter vu les besoins de l'industrie dans les pays émergeants notamment. Le métal rouge est en effet très utilisé dans un grand nombre de secteurs d'activité, et sa demande est ultra-sensible à l'évolution de la conjoncture. Certains économistes l'utilisent d'ailleurs comme indicateur avancé de l'évolution conjoncturelle à venir..

Ce qui fait beaucoup de sous... Mais pas suffisant pour financer le fibrage du pays que j'estime en ce qui me concerne dans le cadre d'un "Sarkofibre" à 20 milliards d'€, peut-être moins.. L'Idate (des gens qui savent) avait fixé la chose il y a 3 ou 4 ans, à 45 milliards et encore pour une partie seulement du territoire.. L'Arcep elle, plus récemment estime que la chose ne dépasserait pas 25 à 30 milliards... Tout cela montre qu'il n'y a pas eu de réflexions sérieuses... On s'est enfumé avec des tas d'études diverses, des colloques avec des Ministres, des conférences avec des consultants spécialisés, etc...

Ce trésor rouge ne pourrait-il pas amorcer la pompe du sarkofibre, avec une mécanique financière ad hoc ? Coopérative locale de télécoms (voir mon précédent post), prêts bancaires, hypothèque sur le cuivre enfoui et pendouillant en l'air...

Pourquoi France Télécom, assis sur ce beau demi-millard d'euros, n'hypothèque-t-il pas ce trésor pour commencer à fibrer en grand le pays ? Avec un 1/2 milliard en hypothèque, il pourrait obenir un prêt d'un consortium bancaires d'une dizaine de millards. Compte tenu des arguties diverses autant que variées dans ce pays, France Telecom serait-il libre d'hypothéquer son trésor de guerre ? Qu'en pense les bons esprits ?

Mais au fait, tout ce cuivre appartient-il vraiment à France Telecom ? Peut-être faut-il distinguer le fourreau, de la ligne que l'on glisse dans le fourreau ? A qui appartiennent les fourreaux (et les poteaux) et à qui appartient le cuivre ?

Jospin 1er, notre bon roi, a obéi à son suzerain Bruque Xel XII... Qui voulait, allez savoir pourquoi, démonopoliser les infrastructures publiques. Il a démonopolise le réseau (fourreau-ligne-NRA..) ET les services rendus par France Telecom sur le dit réseau.. Et dire que chez nous c'est un Gouvernement de Gauche qui a fait cela..On croit rêver... Pas étonnant que la Droite s'en fout..

A part cela, si j'étais France Télécom, je ferais un test de ripage cuivre vers fibre... à Villiers-le-Mahieu (c'est là où j'habite - il paraîtrait que l'on y a volé le réseau téléphonique..).. En proposant aux 220 habitants la solution... En étudiant convenablement la chose, les travaux pourraient se faire en un mois... Bref, Villiers le Mahieu pourrait rester dans l'Histoire des Gaulois comme le nouveau Vélizy (pour les plus jeunes d'entre nous, je rappelle qu'en 1982 la DGT - l'ancien nom de France Telecom - avait testé le vidéotex dans cette petite ville de l'Ouest Parisien...).

Les grincheux me feront remarquer avec raison que la fibre a aussi un coût... Les spécialistes me disent que le km de fibre coûte moins de 1 €...

Bref, on peut mettre en place un "sarkofibre" si l'on veut... Le tout est de savoir si on le veut ...  Mais continuons si vous le voulez bien nos élucubrations dominicales...

Combien d'emplois kon créerait pour mettre en oeuvre le sarkofibre ?

Remplacer tout le cuivre par de la fibre sur 5 ans (c'est l'hypothèse de départ : voir mon post de la semaine dernière) ne va pas se faire par une opération du Saint Esprit... Il faudra former des "agents". 35 millions de lignes cuivre à remplacer par de la fibre... Reprenons si vous le voulez bien nos calculs idiots... Supposons que pour remplacer une seule ligne cuivre par une ligne fibre il faille 5 jours ouvrés à un "agent"... Il faudrait donc à cet agent 175 millions de jours ouvrés pour fibrer le pays. Quelque chose comme 795.000 ans, ce qui est pour l'instant incompatible avec l'OS biologique des Homo Sapiens, fût-il "agent de France Telecom".. Comme notre Président est un homme pressé, et veut voir son oeuvre avant la fin de son (2ème ?) mandat pour partir le coeur léger "en dolce vita", il nous faudrait environ 200.000 agents pour fibrer le territoire en 5 ans... N'hésitez pas naturellement à refaire les calculs avec vos hypothèses.. Ou me dire où je me suis trompé...

Naturellement il faut ajouter à cela, les emplois créés chez Acome, qui est le seul fabricant français de fibres qui nous reste.. Là, je suis un peu sec... Je ne sais pas trop combien de personnes qualifiées il faudrait pour fabriquer en 5 ans 35 millions de kilomètres fibres.. Voir plus, car certains veulent amener 4 fibres au logement du gaulois qui vit dans une mégapole... On se demande bien pourquoi.. Gabegie de la main invisible chére à notre Adam Smith ?

N'oublions pas non plus les emplois à créer pour fabriquer le hardware nécessaire (routeurs, etc) ... Certes, ces matos sont généralement fabriqués ailleurs... Mais notre Président, qui a tout compris, pourraient inciter les grands fournisseurs de matériels à les faire fabriquer en France..  Même si le coût salarial est plus élevé... On se souviendra que dans les temps anciens, Jean Louis Gassée, alors Directeur d'Apple France, avait organisé une réunion avec Steve Jobs et le grand chambellan mitterandien Fabius. Cela dans le cadre du Plan Informatique pour Tous.. Steve avait accepté d'installer une usine de fabrication de Mac en France, si le Mac était retenu dans ce Plan... On sait ce qu'il en est advenu.. L'intelligenstia gauloise a rué dans les brancards pour bouter Steve hors de France... Et on a fait le TO7... Mais Sarkozy est un type intelligent... Il ne va pas faire la même erreur...

Et alors, qu'est ce kon fait avec tout ce bazar ?

La première chose que notre Président pourrait faire lors de son discours inaugural devant les télés du monde entier, serait d'inciter toutes les entreprises mondiales ayant intérêt au trés haut débit pour leur business, de venir s'installer en France. Puisque nous serions le premier pays au Monde à le faire avec une stratégie très volontariste.. Nos braves têtes d'oeuf pourraient même concocter diverses mesures incitatives...Certes, certains pays asiatiques sont en train de se fibrer mais plutôt à petite vitesse. De plus, comme ils n'ont pas la même culture, on peut penser que les applications trés haut débit qu'ils pourraient mettre en oeuvre ne sortiraient pas de leur pays...

Et en France aussi, malgré ce que notre élite 1.0 pourrait croire, on pourrait nous-mêmes faire des choses tout a fait intéressantes... Vu que nos "digital natives" n'ont rien à envier à ceux d'ailleurs... Je les vois chaque jour devant ma webcam... Ils sont en train, consciemment ou non, d'adapter notre système économique sur la plateforme Internet... Ils sont en train de réformer la France... De fabriquer la France 2.0.

Comment et que pourrions nous faire dans ce cadre ?

A Dimanche prochain pour la suite de notre grand feuileton du sarkofibre... "La France doit devenir le pivot de l'économie nuémérique mondiale..." n°3...

PS... On a cru comprendre cette semaine qu'il y avait quelques réunions secrètes entre notre France Telecom et Google... L'objectif semble-t-il étant de réfléchir à la mise en oeuvre d'un réseau Internet à 2 vitesses, voire plus ... Mais si nous avions un réseau de télécommunications à 1G symétrique, aurions-nous besoin d'un réseau à 2 vitesses ? Par ailleurs, une alliance France Telecom et Google ne serait qu'un marché de dupe. Google va ouvrir le 1G gratuit à Kansas City... A mon avis, pour se faire la main à la fois sur la technique de mise en oeuvre, et à la fois sur les applications.. Et quand cela sera fait, Google sera tout a fait capable de fibrer les USA. Pour commencer.. Propriétaire d'un réseau à TRES haut débit, propriétaires d'applications nécessitant des tuyaux à fort débit (rien qu'avec youtube aujourd'hui...), out les opérateurs 1.0 ???

15:52 Publié dans Compétition, Informatisation | Lien permanent | Commentaires (0) | |  del.icio.us | | Digg! Digg |  Facebook | |  Imprimer | |

mercredi, 09 février 2011

Budget IT de la Chine 1/5 de celui des USA

"Maitriser l'Informatisation" défend Michel VOLLE dans cet article http://michelvolle.blogspot.com/2011/01/maitriser-linform...
Barack Obama lui-même” – déclare-t-il – “dit que c'est l'informatisation qui a changé le monde, et non la finance ni la politique. Mais comme son propos manque de précision les conséquences pratiques qu'il convient d'en tirer n'apparaissent pas clairement (voir « L'ordre économique mondial a changé, selon Obama », Challenges, 27 janvier 2011).
Or c'est de précision que nous avons besoin pour agir de façon judicieuse dans un monde que l'informatisation a bouleversé. Pour voir la présentation en vidéo, cliquer sur Maîtriser l'informatisation - vidéo (dix minutes). Pour voir toutes les vidéos relatives à cet ouvrage, cliquer sur La France et ses multinationales - vidéos.”

L’article suivant du Monde du Cloud, montre toute l’importance que la Chine apporte à cette maîtrise de l’Informatisation à l’aurore de la “révolution 2.0 du Cloud”, et le dernier rappelle que la guerre technologique se fait avec l'outil informatique!

Le Monde du Cloud : « Cloud City » : La Chine construit une ville pour le cloud computing

Edition du 08/02/2011 - par Jean Elyan avec IDG NS

« Cloud City » : La Chine construit une ville pour le cloud computing

Avec le concours d'IBM, la Chine a mis en chantier dans la province de Hebei, une ville dédiée au cloud computing, laquelle comprendra des immeubles de bureau et un méga datacenter.

Ces investissements dans le domaine des technologies de l'information reflètent typiquement le genre de projets qui contribuent à la croissance à deux chiffres de ce pays. L'ensemble du complexe  de Hebei couvrira environ 2 millions de mètres carrés, le centre de calcul occupant à lui seul 200 000 mètres carrés, selon IBM, qui collabore avec une compagnie chinoise pour le construire.

Une croissance rapide, mais des investissements en deçà du niveau américain

 

L'ampleur de ce projet, annoncé le mois dernier, est à peu près équivalent à la taille du Pentagone, sauf que, dans le cas chinois, il est réparti sur plusieurs bâtiments regroupés dans un parc de bureaux et, d'après les plans, pourrait inclure certaines zones résidentielles. Il se peut aussi que l'approche très spécifique et unique vise à réunir sur un même lieu des datacenters et des développeurs. Ces grands projets, que ce soit la construction de superordinateurs ou des zones de bureaux tentaculaires destinées au développement de logiciels, suscitent à coup sûr beaucoup d'attention. Néanmoins, le niveau global de dépenses IT en Chine, bien qu'en croissance rapide, est seulement le cinquième de celui des États-Unis. Selon IDC, les dépenses de la Chine, qui comprennent le matériel, les logiciels et les services, devraient s'élever à environ 112 milliards de dollars cette année, en hausse de 15,6% par rapport en 2010 où elles étaient de 97 milliards de dollars. Comparativement, les dépenses des États-Unis devraient atteindre pour leur part 564 milliards de dollars cette année, en augmentation de 5,9% par rapport à 2010.

Efficacité énergétique : la normalisation reste à faire

 

Selon Dale Sartor, ingénieur au Département Américain de l'Énergie du Lawrence Berkeley National Laboratory, qui a visité environ huit datacenters en Chine l'année dernière, l'industrie technologique chinoise n'est pas aussi importante que cela, et « dépend à plus d'un titre des vendeurs » pour la conception des centres de calcul. L'ingénieur évalue, avec son équipe d'experts spécialisés dans le domaine de l'efficacité énergétique des salles informatiques, la possibilité d'aider les Chinois sur cette question, une entreprise que le Département de l'énergie a déjà effectuée en Inde pendant plusieurs années. Dale Sartor travaille notamment à l'élaboration de normes pour les datacenters, en collaboration  avec l'Institut de normalisation électronique de Chine. Car, s'il existe une importante réglementation en matière de conception de centres de calcul en Chine, elle est beaucoup plus diluée pour ce qui concerne l'efficacité énergétique. L'ingénieur s'attend à une accélération du développement des datacenters en Chine, en particulier de très grands centres destinés à offrir d'importants services de cloud computing, et qui risquent bien de devenir la norme. « J'ai le sentiment que le cloud va prendre une place énorme en Chine, à la fois pour des raisons d'efficacité, mais aussi pour la capacité de contrôle qu'il apporte, » a déclaré Dale Sartor. « Si tout est dans le cloud et si le cloud appartient au gouvernement, alors il est beaucoup plus facile de garder un oeil sur l'Internet et d'autres choses qu'avec un modèle distribué. » La Chine utilisera, entre autres,  les services d'IBM pour la conception du complexe en construction dans la province du Hebei, en collaboration avec Range Technology Development.

IBM : une activité en croissance de 25% en Chine

La rapide croissance de la Chine en matière d'IT a été un atout pour IBM, qui a déclaré que son activité avait augmenté de 25% dans ce pays en 2010 par rapport à l'année précédente. La première phase du chantier concerne la construction de sept datacenters surbaissés. Mais l'espace occupé par le centre de calcul de Hebei pourrait facilement s'étendre à plus de 300 000 mètres carrés. Le projet prévoit en effet, si nécessaire, une autre tranche de six datacenters, qui viendront s'ajouter au complexe initial. Selon IBM, Cloud City devrait être achevé en 2016. En terme de taille, ces centres de calcul seront parmi les plus grands du monde. Selon le classement des datacenters établi par Data Center Knowledge, les centres de calcul chinois dépasseront la taille du plus grand complexe connu situé à Chicago : une installation de 330 000 mètres carrés détenue par Digital Realty Trust.

Illustration principale : Plan de la « Cloud City » en cours de construction en Chine, crédit photo IBM

Des groupes pétroliers piratés par des hackers de Chine

http://www.lefigaro.fr/hightech/2011/02/10/01007-20110210...
Mots clés : cyberattaque, McAfee
Par Benjamin Ferran
10/02/2011 | Mise à jour : 13:30 Réactions (4)

Les réseaux informatiques de cinq multinationales du gaz et du pétrole ont été infiltrés par des pirates agissant depuis la Chine, révèle le groupe de sécurité informatique McAfee. Le FBI a ouvert une enquête.

[...] Plusieurs gigaoctets de documents confidentiels sur des appels d'offres pour des contrats de forages et des équipements industriels ont été dérobés. [...]

Selon les travaux de McAfee, qui n'a pas précisé les noms des entreprises visées, ces attaques durent depuis au moins deux ans et sont toujours en cours. En combinant plusieurs techniques d'intrusion, les hackers sont parvenus à pénétrer dans le système informatique de leurs cibles, puis à remonter jusqu'aux postes des dirigeants afin d'y télécharger des archives de courrier électronique et d'autres données sensibles.

«Des abeilles ouvrières»

Les assaillants n'ont pas cherché à supprimer leurs traces, remarque McAfee. L'un d'entre eux, qui a fourni des outils pour contrôler à distance les serveurs piratés, a agi depuis la ville de Heze, dans la province de Shandong, tandis que les téléchargements de données ont été lancés depuis des adresses IP de Pékin, à des heures de bureau. «Ces gens ressemblent plus à des abeilles ouvrières qu'à des hackers épris de liberté», affirme Dmitri Alperovicth, vice-président de McAfee chargé des recherches sur les menaces informatiques.

De l'aveu de McAfee, ce type d'attaque est «relativement peu sophistiqué». Il n'est pas au niveau de l'offensive lancée contre Google et d'autres entreprises américaines en décembre 2009, où des pirates chinois étaient déjà incriminés. Il n'a pas non plus le degré de sophistication du virus informatique Stuxnet, qui a ciblé les infrastructures nucléaires de l'Iran. Il s'agissait d'espionner, plutôt que de saboter. Rien n'indique que ce piratage a été orchestré par un État.

Cette nouvelle offensive, baptisée «Night Dragon» («Dragon de nuit») par McAfee, illustre l'évolution récente du piratage informatique. Les spécialistes de la sécurité, habitués à alerter sur les risques des virus, du spam et du phishing, se disputent maintenant des révélations sur des intrusions spectaculaires et ciblées. Ces attaques ne touchent plus directement le commun des internautes, mais des gouvernements et des entreprises, qui sont aussi leurs clients.

Par Benjamin Ferran
Journaliste, Le Figaro.fr

13:12 Publié dans Compétition, Informatisation | Lien permanent | Commentaires (0) | Tags : ibm, chine, hebei, datacenter | |  del.icio.us | | Digg! Digg |  Facebook | |  Imprimer | |