Le cyberspace : du loup solitaire à la meute

meuteLes moutons et le loup solitaire

L’histoire du système d’information numérique peut se décomposer en trois ères principales.
La première fut celle du Mainframe. Les ordinateurs étaient d’énormes machines, possédées par des Etats ou de grandes firmes (banques, compagnies aériennes). Les utilisateurs étaient connectés via des terminaux passifs, avec un écran et un clavier. Ils envoyaient ou recevaient les instructions d’une machine centrale. Les utilisateurs étaient des moutons obéissant à l’algorithme qui pilotait la machine, lequel avait été programmé par une poignée de concepteurs-développeurs.
La deuxième commence durant les années 70, c’est l’ère du micro-ordinateur. Chaque utilisateur a son ordinateur, ses programmes, ses données. C’est le moment où l’utilisateur ressemble le plus au Saint-Denis de Michel Serres. Il dialogue avec sa machine, qui est comme une deuxième tête, un prolongement de son propre cerveau, avec une deuxième mémoire, une autre capacité de calculer et d’imaginer. Selon son niveau de compétence ce dialogue est plus ou moins riche. Les moins compétents se contente d’entrer et de lire des données, comme les moutons du mainframe. Les meilleurs rédigent eux-mêmes les logiciels et pilotent la machine. Les plus anciens se souviennent d’un temps où l’utilisateur devait connaître un peu de programmation. Dans cette génération, tous les utilisateurs ont fait un peu d’ASCII pour que le micro fonctionne. Chaque utilisateur devenait un loup solitaire, maîtrisant son propre univers.
Ces anciens se rappellent qu’à l’époque, pour échanger des données, il fallait échanger matériellement les mémoires des machines. Disques, floppy, disquettes, cassettes, les moyens étaient multiples, avec des risques de perte, de détérioration. Le système d’information pouvait constituer un ensemble intellectuellement cohérent. Mais il n’était pas matériellement organisé, ce qui était source de perte de productivité et d’incohérences.
C’est pourquoi les techniciens entreprirent de créer des dispositifs permettant de créer un réseau : protocole FTP, Ethernet, etc. Progressivement les ordinateurs dialoguèrent entre eux et avec leurs périphériques (écrans, imprimantes, robots, etc.). C’est ainsi qu’est apparu un cyberespace dans lequel toutes les machines sont connectées. Ce cyberspace, cette toile ou encore internet comme certains l’appellent abusivement, est constitué principalement de trois éléments : l’internet proprement dit, le World Wide Web, le Cloud.

C’est quoi internet ?

Internet stricto désigne trois choses : un protocole technique d’échange des données sur un réseau, un système normalisé d’adressage sur ce réseau, le réseau physique qui utilise ce protocole technique et ce système d’adressage.
Le protocole technique visait à pallier les limites des réseaux analogiques (téléphone, fax) : lorsque sur une ligne communiquaient deux interlocuteurs, aucun autre échange n’était possible ; si cette ligne était coupée, la communication était interrompue. La nouvelle technologie de commutation par paquet utilisait le fait que les messages sont composés d’une série de chiffres 0 ou 1. Chaque message (qu’il s’agisse d’un mail, d’une page web, d’un échange WhatsApp par exemple) est découpé en paquets, auquel sont ajouté un en-tête et une fin. Chaque paquet est envoyé dans le réseau, via des serveurs de routage, et circule en fonction des adresses qui sont définies sur l’en-tête et la fin.
Le système d’adressage assure que les paquets arrivent à destination, et que l’on puisse reconstituer le message d’origine. Ces adresses peuvent être les adresses de machines physiques (les adresses IP – Internet Protocol), ou des adresses virtuelles qui concernent une ou plusieurs machines (nom de domaine, adresses mail). La cohérence de l’ensemble de ces adresses physiques ou virtuelles est assurée par une société de droit californien, l’Internet Corporation for Assigned Names and Numbers (ICANN). Les paquets ainsi constitués peuvent circuler en train sur n’importe quelle partie du réseau. En cas de coupure, ils peuvent suivre un autre chemin, chaque serveur étant capable d’adresser n’importe quel autre point du réseau.
Ce réseau décentralisé a été développé pour le besoin des universités américaines dans le cadre de financements du Ministère de la Défense des Etats-Unis. Celui-ci cherchait à développer un système de communication capable de résister à une attaque nucléaire. En 1993, à l’initiative du sénateur Al Gore, une loi fédérale américaine ouvrit l’accès au réseau Internet aux sociétés commerciales et par leur intermédiaire au grand public.

World Wide Web (la « toile d’araignée mondiale »)

Internet faisait communiquer les machines entre elles, encore fallait-il qu’elles disposent d’un langage commun. L’initiative est encore venue du monde universitaire. C’est un chercheur rattaché au CERN en Suisse, Tim Berners-Lee, qui inventa le Web, au début des années 90. Les pages internet peuvent être liées entre elles par des liens hypertexte (c’est à dire de courts programmes qui donne l’ordre à l’ordinateur qui les lit d’aller chercher la page citée sur un autre serveur afin de la rapatrier sur l’ordinateur qui appelle). Ces pages utilisent toute le même langage de programmation, HTML, qui présente l’avantage d’être facilement copiable, modifiable et facilite la production rapide de nouvelles pages à partir de celles qui existent. Le World Wide Web de Berners-Lee devint rapidement le principal standard d’échange sur internet.

Cloud computing (« l’informatique en nuage »)

Le terme vaporeux par lequel est désigné ce troisième concept peut prêter à confusion. Il est souvent traité à part car il n’est pas le résultat de travaux universitaires et il est apparu plus tard qu’internet et le World Wide Web, dans les années 2000.
Jusqu’aux années 2000, les ordinateurs, loués ou achetés, étaient dans les locaux de leurs utilisateurs. Cette situation conduisait à une sous-utilisation des machines. Au départ cette situation ne posait pas de problèmes particuliers. Le coût de fonctionnement des ordinateurs paraissait faible si on le comparait à celui d’une machine-outil, d’une voiture ou même d’une simple machine à laver. Peu d’énergie consommée, peu de frais de réparation.
L’expansion du système numérique mondial a changé la donne. Aujourd’hui l’énergie consommée par ce système représenterait environ 10% de l’énergie électrique consommée dans le monde. A ce stade, la question de l’optimisation devient importante et c’est là qu’interviennent les industriels du Cloud. Ils ne louent plus des machines, mais du temps machine, de l’espace machine, sur des ordinateurs dont ils assurent l’entretien, la gestion des sauvegardes, dans d’immenses fermes de serveurs.
Consommateurs et entreprises n’ont plus que des terminaux miniaturisés (smartphones, tablettes, montres connectées). L’essentiel des traitements et des données sont partagés sur ces machines réparties partout dans le monde.

La meute

Les utilisateurs du système d’information numérique ne sont plus des loups solitaires. C’est une meute qui ne cesse d’échanger sur le cyberspace. Tout le monde n’est pas égal sur ce système. Il y a des utilisateurs plus adroits, plus compétents que d’autre. Mais tout le monde peut à un moment ou un autre prendre la main, composer quelques lignes de programme. Il y a une sorte de démocratie directe de ces utilisateurs qui collaborent ensemble. Elle est en partie illusoire, mais en partie seulement. Etre citoyen aujourd’hui, c’est aussi faire parti de cette meute, et pour cela avoir été formé, et ne cesser de dialoguer avec les autres membres de la horde.

Bibliographie

Alain Lefebvre et Laurent Poulain : Cow-boys contre chemin de fer ou que savez vous vraiment de l’histoire de l’informatique (Amazon-2012-2013)
Walter Isaacson : Les innovateurs (Jean-Claude Lattès-2015)

Publié dans Ecologie, informatique, internet, système d'information | Tagué , , | Laisser un commentaire

La pensée magique du Bitcoin

monnaie d'orLe bitcoin est le dernier sujet à la mode de la blogosphère. Le Monde et les Echos lui ont consacrés chacun un dossier. Plusieurs Prix Nobel d’économie, (Tirole, Stiglitz, Krugman) ont produit des tribunes sur cette monnaie.

Small is (not) beautiful

Pour les théoriciens de l’économie de marché, plus c’est petit, mieux c’est. Le petit est plus souple, plus réactif, plus à l’écoute, c’est le petit poucet contre l’ogre, David contre Goliath. Les Etats et les multinationales sont nécessairement bureaucratiques, ennemis de l’innovation, incarnations potentielles de Big Brother, ce géant totalitaire et opprimant. L’économie de marché porte en elle le rêve toujours réactualisé d’un marché fait d’artisans, de boutiquiers et de consommateurs familiaux, aucun ne pouvant prendre la place de la « main invisible », imaginée comme nécessairement bienveillante.
Le bitcoin, cette nouvelle monnaie algorithmique est un produit de ce rêve, ses thuriféraires cherchant à se débarrasser grâce aux algorithmes de l’emprise de l’Etat.

C’est quoi une monnaie ?

Vous recevez de la monnaie en contrepartie de la vente d’un bien ou d’un service. Elle permet d’éviter le troc, qui devient difficile lorsqu’il s’agit d’un échange entre un maçon constructeur de maison et un fabricant de savates.
Celui qui a reçu de la monnaie souhaite qu’elle conserve sa valeur d’échange. Il veut pouvoir acheter une quantité de biens égale à la valeur de celui qu’il a cédé.
C’est pourquoi, la valeur de la monnaie a bénéficié pendant longtemps de deux garanties :

  • L’Etat ; depuis Crésus d’après Hérodote, c’est l’Etat qui bat monnaie et chasse la fausse monnaie ; le privilège de faire la monnaie, est une caractéristique parmi les plus constantes du pouvoir régalien ;
  • L’usage d’un métal précieux pour faire la monnaie ; la monnaie a ainsi une valeur intrinsèque égale à sa valeur comme objet d’échange ; pas besoin d’Etat pour vérifier la valeur de la monnaie ; il suffit de la balance du changeur.

Cette double garantie a existé tant que les monnaies ont été basées sur l’étalon or. Certes la monnaie papier existe depuis la lettre de change du moyen-âge, mais, elle était toujours censée pouvoir être échangée contre de l’or.
En même temps, plus le volume d’échanges augmente, plus il faut de monnaie. La découverte de l’or des Amériques a permis le développement des échanges et la croissance économique tout en conservant l’étalon or.
Cela change au XX siècle. Les pays européens vendent leur stock d’or pour financer la guerre de 14, et abandonnent l’étalon or (ils ne sont plus capables de donner du métal précieux en contrepartie de la monnaie papier qu’ils ont émise pour financer leur dette).
Les Etats-Unis abandonnent en 1972, suite à l’accumulation de dettes pour financer la guerre du Viet Nam et leur déficit extérieur. Depuis cette date, toutes les monnaies se sont dématérialisées, et leur trace dans les échanges sont de simples écritures dans des comptes électroniques. Le « bas de laine » n’existe plus que virtuellement, et le maintien de sa valeur dépend des seules banques centrales. Pour tous les libertariens et libertaires du monde, c’est une insupportable main mise sur la monnaie par l’Etat. Les banques centrales sont seules maîtres de la valeur de la monnaie, et peuvent décider suivant la vieille expression de « faire tourner la planche à billet », provoquant l’inflation et la perte de valeur de la monnaie.

Le bitcoin

En février 2009, un dénommé Satoshi Nakamoto (son identité exacte n’est pas connue) déposa un programme sur un site internet. Ce programme, lorsqu’il tourne sur un ordinateur, génère des unités de monnaies, des bitcoins. Ceux-ci rétribuent les opérateurs qui ont accepté de faire tourner le programme sur leur ordinateur. Le programme génère le bitcoin dans un registre virtuel partagé par tous ceux qui acceptent de faire fonctionner le programme. En même temps il sécurise la transaction en la partageant avec tous ceux qui acceptent d’utiliser ce logiciel. L’activité de création d’unités est appelée le minage, la chaine informatique permettant la génération du registre virtuel est appelée la blockchain.
Le système est totalement décentralisé. Il n’y a pas d’administrateur central vérifiant la réalité et la validité des transactions. C’est la construction du programme et le jeu des échanges entre les mineurs qui assurent seuls la sécurisation des bitcoins. La contrepartie de cette décentralisation est la nécessité de faire tourner la chaine en permanence, et de ce fait, le maintien de la blockchain génère une dépense énergétique importante. Un calcul récent considère que cette dépense est de 26 térawatts/heures par ans, soit l’équivalent de la consommation électrique d’une ville française de 3700 habitants.
Pour que le bitcoin soit autre chose qu’une monnaie de Monopoly, il faut qu’il puisse être utilisé comme moyen de paiement. WordPress, Paypal, des opérateurs chinois ont accepté que des paiements soient effectués en bitcoin. La commission électorale des Etats Unis a accepté en 2014 que les campagnes soient financées en bitcoin.
Par ailleurs un certain nombre de places de changes acceptent l’échange de bitcoin contre d’autres monnaies. Bref sans être un moyen d’échange courant, le bitcoin devient progressivement une monnaie insérée dans le système monétaire mondial.

Un système sans outil de pilotage

Parce qu’il est totalement décentralisé, le système du bitcoin n’a pas de pilote.
Or, comme dit précédemment, la quantité disponible d’une monnaie (dit masse monétaire) est une fonction du volume d’échange réel effectué avec elle. Et l’évolution de cette masse monétaire nécessite un réglage fin. Si la masse monétaire augmente plus vite que le volume d’échange, la valeur de la monnaie diminue : c’est l’inflation qui peut muter en hyperinflation (les économies des épargnants disparaissent). Si le volume des échanges augmente plus vite que la masse monétaire, le prix des biens diminue, c’est la déflation, qui mute en récession (les entreprises cessent de produire des biens dont la valeur diminue). Pour surveiller ce rapport essentiel au fonctionnement d’une économie, les banques centrales disposent de tout une batterie d’indicateurs, indices de prix, Produit Intérieur Brut (PIB), cours de changes, suivi des échanges extérieurs. La production de ces indicateurs suppose tout un système statistique, à base d’enquêtes, de relevés, de traitements de l’information.
Rien de tel n’existe pour le bitcoin, et ceci explique largement les variations erratiques de sa valeur. Personne ne vérifie que la création de bitcoin répond à un besoin d’échange réel. La masse monétaire qui se crée ainsi est sans rapport avec l’évolution de l’économie réelle.
C’est précisément ce point que marque Jean Tirole dans sa tribune contre le Bitcoin. « Le bitcoin est peut-être un rêve libertarien mais c’est aussi un authentique casse-tête pour quiconque considère la politique publique comme un complément nécessaire de l’économie de marché. …. Et comment les banques centrales peuvent-elles mener des politiques contre-cycliques dans un monde de crypto-monnaies privées ? »
Tel est le paradoxe du bitcoin. C’est un pur produit du système d’information numérique, mais il n’a pas lui-même de système d’information permettant de le piloter, et ses afficionados ne souhaitent pas qu’il y en ai. La théorie sous-jacente au Bitcoin, c’est une forme de pensée magique : en l’absence d’un responsable, et d’un mécanisme de régulation, les décisions de l’ensemble des acteurs aboutiront à un bien commun. Le monde n’est pas aussi bien fait.

Bibliographie

Clarisse Herrenschmidt : Les trois écritures : Langue, nombre, code (Gallimard-2010)
Jean Tirole : There are many reasons to be cautious about bitcoin (Financial Times-5/12/2017-traduction publiée sur le site Le nouvel économiste.fr)

 

Publié dans commerce, finance, système d'information | Tagué , | Laisser un commentaire

Le Réveillon et le supermarché

REVEILLONLe serveur du Réveillon

Une fois par an, nous allons fêter le réveillon du nouvel an avec des amis. Les filles mettent leur petite robe noire, passent deux heures au maquillage, autant chez le coiffeur, enfilent leurs escarpins à talon haut. Les garçons ont mis leur plus belle chemise, une veste, une cravate ou même un nœud papillon. Et nous voilà au meilleurs restaurant de la ville.
Les serveurs s’agitent autour de nous pendant trois heures. Nous retrouvons l’origine des restaurants. Le plaisir de se faire servir, comme le noble dans son château.
Le restaurant français est né du départ des aristocrates. Guillotinés ou émigrés à l’étranger, ils ont laissés leurs cuisiniers et leurs domestiques sans travail. Ceux-ci se sont reconvertis dans la restauration. Il y a une centaine de restaurants dans Paris en 1789, environ 3000 trente ans après.
En même temps, le serveur du restaurant est devenu l’une des énigmes de l’intelligence artificielle et de la robotique. Il est multitâche : il reçoit les clients, les place, leur donne le menu, prend leur commande, les aide à choisir les plats et les boissons, adapte en fonction des spécificités de certains clients, diabétiques, végétariens, musulmans, transmet à la cuisine, apporte les plats, le café, fait payer le client, dessert la table, remet le couvert. Chaque tache suppose un savoir faire particulier qu’il faut mémoriser et savoir utiliser en fonction du contexte. Tout cela, il le fait pour plusieurs tables, en surveillant en permanence qu’il n’y a pas d’impatience, d’énervement, que personne n’attend excessivement. Il le fait aussi dans un environnement hostile. Dans la salle il n’y a pas que des gens assis. Il y a aussi d’autres serveurs, des clients qui se lèvent, pour aller aux toilettes, fumer une cigarette ou téléphoner, ou simplement partir, le ventre plein et satisfait. Tout cela le serveur le fait avec une dépense énergétique extraordinairement faible. On considère que le cerveau humain a une capacité mémoire de l’ordre de un Pétabit (soit 1015) et a besoin de 20W pour fonctionner. Une carte mémoire standard a une capacité mémoire de l’ordre de un Terabit (1012) et a besoin de 200W pour extraire ou introduire des données. La machine a donc une capacité mémoire 1000 fois inférieure pour une consommation énergétique dix fois supérieure. Les superordinateurs qui sont capables de battre les champions d’échec, de Go et bientôt de poker, ont une capacité mémoire largement supérieure, mais une consommation énergétique à l’avenant. Le remplacement du serveur par un robot piloté par une intelligence artificielle n’est pas à l’ordre du jour.

McDonald’s

Une entreprise s’est attaquée depuis soixante-cinq ans au problème de la suppression du serveur. C’est McDonald’s. Le client qui entre doit trouver lui-même sa table, choisir son menu au moyen des tableaux affichés aux murs, puis faire la queue pour se faire servir. Le serveur est toujours là mais il n’a pas le droit de bouger. Il est coincé derrière sa caisse enregistreuse, prend les commandes, passe les plats. Le client se chargera lui-même d’apporter le plateau à la table, puis de débarrasser. Le serveur n’a plus à se déplacer dans l’environnement hostile de la salle sauf pour aller chercher les sac-poubelles que le client a rempli. Le travail du serveur n’a pas disparu. Aucune tache n’a été confiée à une machine. Pour l’essentiel, le travail a été transféré au client, qui a du accepter de prendre une partie du travail en contrepartie de la baisse du coût du repas. Certaines taches ont été mutualisées (plus besoin de porter le menu puisqu’il est affiché au mur). Pour les taches que doit faire le serveur, le client devient le manager. Le serveur a devant lui la file d’attente, pleine de gens impatients qui s’attendent à ce qu’il fasse son travail le plus vite possible, il est mis sous la surveillance permanente du client. Et dans la salle épurée il devient possible de faire entrer des machines : maintenant, dans certains restaurants, plus besoin d’attendre pour que la commande soit prise. Des panneaux électroniques permettent de remplir la commande et même de payer. Il ne reste à faire la queue que pour récupérer le plateau. La transformation opérée par McDonald’s a permis d’apporter de nouveaux services. Il est possible de se faire servir dans sa voiture par exemple.
Mais elle pose des questions sur notre imaginaire collectif. Sommes nous prêts le jour du Réveillon, à ne plus être servi comme des princesses et des princes ? McDonald’s existe depuis pratiquement aussi longtemps que l’ordinateur, son modèle économique a montré son efficacité, et pourtant, il n’a pas remplacé totalement la restauration classique.

Du serveur à l’hôtesse

Le cas du serveur est emblématique de la révolution sociale qu’induit le numérique. Nous ne pouvons profiter des atouts de la machine que si nous acceptons de modifier profondément la manière dont nous échangeons.
Lorsque nous commandons sur internet, la machine n’invente pas ce qui doit être payé, le client qui dit qui il est, ce qu’il veut, où le produit doit être livré. Il fait le travail qui incombait à l’hôtesse d’accueil, à l’employé d’agence, de spectacle ou de voyage.
La miniaturisation a permis d’augmenter encore cette tendance. Aujourd’hui dans les supermarchés, les commerçants vous donne des terminaux de saisie portable, ou mettent à disposition des bornes de scénarisation. Vous faites vous même la saisie des codes barres, et même dans certain cas, la procédure de paiement. Les hôtesses n’ont pas disparues, mais leur métier a changé. Elles contrôlent la démarque inconnue (autrement dit le vol par les clients), elles forment les clients à utiliser les appareils. Elles traitent les problèmes spécifiques (par exemple erreur d’étiquetage). Elles proposent les cartes de fidélisation. Tout cela sans changement officiel des qualifications ni revalorisation des émoluments. Elles sont toujours vues comme les caissières de notre enfance, dont le métier était de rédiger ou taper une facture, et rendre la monnaie.

Changer la vie

La machine fait bien ce qui est répétitif, en environnement stable. Elle permet de faire des choses nouvelles, d’accélérer certains processus. Mais cela n’est possible que si l’on écarte le contingent, l’accidentel, le désordre dans lequel l’humain reste encore aujourd’hui le plus efficace. Cela suppose de reconfigurer complètement les processus (voir aussi la chronique Dactylo Rock). Mais ce n’est seulement la réalité matérielle des processus à laquelle nous touchons. C’est aussi l’image culturelle que nous mettons derrière ce processus, qu’il faut accepter de changer.
Nous avons accepté, sans même y faire attention, la révolution qu’a connu la profession des hôtesses de supermarché. Nous sommes moins prêts à admettre de ne plus être servis à table, à la lueur des bougies d’une hôtellerie de campagne, comme des princes et des princesses.

Bibliographie

Philippe Askenazy : Tous rentiers (Odile Jacob-2016)
Nicolas Le Ru : L’effet de l’automatisation sur l’emploi : ce qu’on sait et ce qu’on ignore (France Stratégie : note d’analyse juillet 2016)
https://www.sciencesetavenir.fr/sante/cerveau-et-psy/video-notre-cerveau-aurait-une-capacite-de-stockage-equivalente-a-celle-du-web_19515
Jean-Gabriel Ganascia : Le mythe de la Singularité (Le Seuil, 2017)

Publié dans developpement, informatique, intelligence artificielle, maitrise d'ouvrage, système d'information | Tagué , | Laisser un commentaire

Santons et village global

santons remouleurC’est encore le temps de Noël où les santons de Provence sont sortis. Ils font parti de mon univers depuis l’enfance. Ils incarnent des idées importantes pour moi, et qui ont un écho avec le monde d’aujourd’hui.

Les santons : la nostalgie du village

Ces idées sur le village de la crèche provençale sont au nombre de trois :

  • Il est le lieu du don ; chaque santon porte un cadeau au petit Jésus ; ce cadeau (le sac du meunier, le lapin du chasseur, le panier de la marchande) l’inscrit dans un processus d’échanges avec les autres ; même le Ravi avec ses bras levés apporte sa bonne humeur, et donne son air de gaité à cette communauté industrieuse ;
  • à l’image des bourgs d’antan, ce village doit être capable de répondre à tous ses besoins ; tous les métiers existent, du berger au boulanger ; tout le monde se connaît, et attend que chacun fasse son travail ;
  • pas de machines, pas d’automobile ; il n’existe que la force des hommes et celles des animaux ; depuis le rémouleur qui aiguise les couteaux, jusqu’au chiffonnier, chacun s’efforce d’éviter tout gaspillage.

En même temps, l’industrie des santons nait avec l’ère industrielle au début du XIX siècle. Deux aspects sont importants :

  • La fabrication en série ; les santons sont fait à partir d’un moule qui permet de les reproduire en grande quantité ; inventés par un dénommé Lagnel, les santons font parti des premier objets produits de manière industrielle ; le Ravi encore lui, avec ses bras dans le même plan que son corps et sa tête, porte la trace de son mode de fabrication ;
  • L’usage en famille ; jusque là la crèche se construit dans l’église du village ; seules quelques famille riches peuvent en avoir une chez eux au XVIIIs ; avec la fabrication en série arrive la démocratisation ; la crèche dans la maison marque la désagrégation de la communauté ; la religion devient affaire privée.

La première foire aux santons a lieu à Marseille en 1803, et déjà ils sont le signe d’une nostalgie. L’exode rural vide le village, le chemin de fer va apporter de nouveaux produits, qui concurrencent les produits locaux. Les vieux métiers, comme le faïencier, le vannier, le bourrelier disparaissent. Même le meunier et son moulin à vent s’effacent remplacés par la minoterie et sa machine à vapeur.
Les habitants s’installent en ville, la famille se réduit à sa plus simple expression ; les gens emportent les santons, en même temps qu’ils quittent le village. Les santons, en même temps qu’ils représentent la communauté ancienne, sont le fait d’un repli individualiste, et le début de la production industrielle.

Le temps de l’abondance

L’ère industrielle qui arrive est l’ère de l’abondance. La machine à vapeur, puis le moteur à combustion interne et l’électricité permettent de disposer d’une énergie apparemment inépuisable. Tout ce dont l’humanité a besoin est produit en grande quantité, nourriture, vêtements, biens de toutes nature.
Cela permet une croissance démographique jamais connue. 1 milliards d’individus sur terre en 1800, 1,6 en 1900, environ 2,5 milliard en 1950 lorsque l’ordinateur apparaît, 5,5 avec l’arrivée d’internet, 7,5 milliard aujourd’hui.
Cette époque de l’abondance est aussi celle du gaspillage. Les meilleurs moteurs thermiques on un rendement d’à peine 30 à 50%, le reste de l’énergie étant perdu. Les sociétés occidentales consomment plus de viande, or il faut 7 fois plus de calories pour produire de la nourriture animale que de la nourriture végétale. « Dans le monde, le tiers des aliments destinés à la consommation humaine est gaspillé. En France, on estime que  près de 10 millions de tonnes de nourriture consommable sont jetées chaque année. » (site de l’Ademe). Ce gaspillage touche tous les secteurs, et pas seulement la nourriture.

Le retour au village

Nous sommes donc 7,5 milliards d’humains dont 10% vivent encore en dessous du seuil d’extrême pauvreté (moins de 1,9 $ par jour selon la Banque Mondiale). Les estimations varient entre 9 et 10 milliards à l’horizon 2050 (l’essentiel de l’accroissement venant de l’allongement de la vie). La nouveauté est que l’on commence à s’interroger sur la soutenabilité de cette croissance. Les experts s’accordent pour penser qu’il n’y a rien d’impossible à faire vivre toute cette population avec un mode de vie décent sur cette terre. Mais si le mode de vie qui s’impose partout est celui de l’occident et du gaspillage, il devient plus improbable.
C’est là qu’intervient le système d’information numérique. Faire mieux avec moins. Le moment est celui de la régulation. Elle apparaît dès que l’ordinateur permet de contrôler les processus industriels. Juste-à-temps, gestion des stocks, il faut réduire le délai de fabrication et les matières consommées. La dématérialisation des échanges se justifie par le nombre de forets sauvegardés.
Et aujourd’hui cela envahit la vie quotidienne. Les compteurs intelligents permettent réguler la consommation d’énergie, de produire au plus près des besoins. Priceminister, Airbnb, Blablacar permettent de réutiliser les biens devenus inutiles ou d’optimiser l’emploi des logements ou des transports. Internet permet aux AMAP (association pour le maintien d’une agriculture paysanne) et aux SEL (Systèmes d’Échange locaux), de vendre sans intermédiaires inutiles. Nous sommes entrés dans un espace collaboratif où chacun est conscient de sa responsabilité vis à vis des autres. Le soupçon d’obsolescence programmée qui pèse sur Apple devient un scandale mondial.
Nous retrouvons les valeurs du village de la crèche, solidarité et frugalité. Ceci a des bons comme de mauvais aspects. La solidarité c’est l’entraide, mais être solidaire, c’est aussi être soudés les uns aux autres. Les processus de production et d’échanges deviennent cybernétiques, nous dépendons des machines et les machines dépendent de nous. Nous cherchons à moins consommer, ce qui impose du pilotage, des outils de suivi et de surveillance. Et il sera impossible de trier entre bons et mauvais cotés de la solidarité. Comme les habitants du vieux village nous connaissons tout de nos voisins.

Piloter une transition pacifique

Le système d’information numérique bouleverse incontestablement nos vies. Pour beaucoup c’est une contrainte moderne, dont il faudrait se débarrasser.
Certes, le système d’information numérique est né de la guerre, l’ordinateur et internet répondaient d’abord à des besoins militaires. L’accumulation de capital permise par la dérégulation reaganienne a financé son développement en même temps qu’elle faisait croitre les inégalités.   Mais l’augmentation du nombre des humains dans un monde fini imposera la régulation que permet le numérique. Les seules alternatives sont la guerre ou la pandémie. Dans une chronique précédente, j’ai dis que le premier système d’information est peut-être né pour répondre à un changement climatique. Sans doute le sens du numérique est de nous permettre de faire pacifiquement cette nouvelle transition.

Publié dans developpement, Ecologie, gouverner, système d'information | Tagué , , , | Laisser un commentaire

Hippocrate

stethoscopeUne organisation est généralement destinée à rassembler des compétences variées autour d’un objectif commun. il peut arriver que certaines organisations oublient leur objectif.
La démonstration du film Hippocrate est à cet égard exemplaire.

Le pitch

La fiction médicale est un genre répandu à la télévision. De House à Urgence en passant par Grey Anatomy, ce genre a eu de nombreuses déclinaisons. Le film Hippocrate appartient à ce genre et a eu un succès d’estime lors de sa sortie en 2014 (il se trouve facilement en DVD). Pas d’histoire d’amour, pas d’actions spectaculaires, des acteurs peu connus, un réalisateur dont c’est seulement le deuxième film.
Mais le scénario est une mécanique de précision et dépasse le cadre de la fiction médicale. Il présente une institution, ici l’hôpital, qui a oublié sa raison d’être, et ne fonctionne plus qu’au profit des membres de l’institution, et plus de ses objectifs.
Résumons le « pitch » de Hippocrate.
Deux internes rejoignent le service de Médecine Générale d’un hôpital de banlieue parisienne. Benjamin est un jeune tout juste sorti de l’école et le fils du chef de service. Abdel est un immigré ayant déjà quelques années de pratique.
Ils vont chacun être confronté à un cas aigue se terminant par la mort du patient. Les critères principaux de l’assurance qualité permettent de juger leur démarche :

  • Ont-ils compris les besoins du client (ici le patient) ?
  • Tous les moyens matériels et humains sont-ils mis en œuvre pour répondre aux besoins du client ?
  • La réponse aux besoins du client est-elle correctement tracée ?

Voyons d’abord Benjamin :

  • Le client lui explique qu’il a mal, mais il choisit de ne pas l’écouter car le client arrive avec un dossier présentant une cirrhose du foie ; il est plus simple et moins dérangeant de penser que c’est cette cirrhose qui cause la douleur ;
  • Pour vérifier, il faudrait faire un électrocardiogramme (ECG) ; celui du service est en panne, et Benjamin n’a pas le courage de demander à l’infirmier d’aller en chercher un dans un autre service ;
  • Le patient meurt ; l’hôpital évite de montrer son dossier à la famille pour ne pas montrer l’erreur commise.

Passons à Abdel :

  • Le dossier de la patiente suivante lui est transmis par Benjamin ; Abdel l’examine et constate qu’elle a un cancer en phase terminale, non soignable ; il demande sa volonté à la patiente ; elle répond qu’elle souhaite surtout ne pas souffrir ;
  • Abdel met en place un protocole adapté à ce souhait, en prescrivant une injection de morphine ; comme Benjamin il se heurte au manque de matériel dans le service, mais il impose au personnel d’aller en chercher dans un autre service ; il s’oppose même à l’adjointe du chef de service qui s’inquiète du coût du maintien en vie d’une personne ; Enfin il met dans le dossier une note demandant qu’on ne réanime pas la patiente en cas d’attaque pour lui permettre de mourir dignement ;
  • Dans la nuit la patiente a une attaque ; elle est transférée au service de Réanimation, ramenée à la vie et renvoyée au service de Médicine Générale ; Abdel à son retour ne peut que constater les dégâts ; il demande l’avis de la famille présente ; avec son accord et conformément avec les vœux exprimés par la patiente il débranche le traitement entrainant le décès de celle-ci en douceur.

La comparaison des deux traitements du point de vu des critères de base de l’assurance qualité ne laisse pas de doute sur qui a correctement travaillé et qui s’est trompé. Pourtant l’institution hospitalière va réagir pour défendre Benjamin et éjecter Abdel. La volonté de l’institution de se défendre explique cette option surprenante.
Mettre en cause Benjamin c’est s’attaquer au fils du chef de service, mais en même temps c’est risquer de mettre à jour les failles de l’hôpital, économies sur le matériel, refus des infirmiers de répondre aux demandes de l’interne. C’est pourquoi, le chef de service lui-même ment à la famille en affirmant que l’ECG a été effectué.
Au contraire Abdel, n’a pas d’amis dans le service à part Benjamin, est rejeté par l’institution. Plus vieux, marié et chargé de famille, il ne s’est pas fait d’amis auprès de ses condisciples, qui ont peu de liens avec lui. Il a également irrité ses supérieurs en refuser de se plier au moment à la discipline budgétaire. Il se retrouve seul lors qu’il faut choisir entre respecter la volonté du malade ou celle de ses collègues. Il va transgresser la règle de collégialité pour ce type de décision, mais ses confrères lui ont-ils laissé le choix ?
Lors de la forme de procès qui lui est fait, on lui reproche de ne pas avoir respecté le budget, mais surtout, d’avoir remis en cause le traitement proposé par le service de Réanimation. Or la Réa, c’est le service noble, où se trouvent les meilleurs éléments. Mettre en cause ses décisions, c’est contester la hiérarchie de l’hôpital, refuser d’être solidaire du corps médical dans son ensemble et refuser de reconnaître la hiérarchie.

Morale de l’histoire

Laissons à ceux qui n’ont pas vu le film le plaisir de découvrir la dernière péripétie.
Le film a été vu comme une critique de l’hôpital, d’autant plus rude qu’elle vient de l’intérieur (le réalisateur est lui même médecin). Mais si le milieu médical apporte une touche de dramatisation, avec la proximité de la mort, la portée du film va au delà. Toute organisation peut oublier ses objectifs. Les spécialistes du management ne cessent de créer de nouveaux outils pour améliorer le pilotage des organisations, taylorisme, gestion de projet, contrôle de gestion, assurances qualité. Mais toute institution (école, entreprise, église, Etat) court le risque d’oublier sa raison d’être et de cesser d’y répondre. Elle finit alors par ne survivre pour que les besoins de ceux qui lui appartiennent.

Publié dans gouverner | Tagué , , , | Laisser un commentaire

« Tears in rain » : le souvenir de Blade Runner

Blade Runner 2A l’occasion de la sortie de Blade Runner 2049, faisons un retour sur un classique de la culture Geek, le premier Blade Runner.

Rappel de l’intrigue

Blade Runner est un film du cinéaste Ridley Scott paru en 1982 d’après un roman de Philip.K.Dick. L’action se passe en 2019, à Los Angeles. Les humains ont commencé à émigrer dans des colonies sur de nouvelles planètes. Pour préparer le terrain de ces colonies, la société Tyrell Corporation a créé des répliquants, créatures artificielles dotées de superpouvoirs. Il leur est interdit de revenir sur terre. Bravant l’interdiction, un groupe de répliquants a débarqué à Los Angeles. En effet leur code génétique les programme pour mourir jeune. Ils espèrent que Tyrell Corporation pourra allonger leur durée de vie.

No future

Le film Blade Runner fut d’abord remarqué pour son esthétique. Outre leur beauté, les décors étaient marqués par leur crasse. Le spectateur ne sait pas s’il est dans des ruines ou un paysage futuriste. Harrison Ford est habillé comme un détective des années 30, les répliquants ressemblent à des punks (le mouvement avait à peine cinq ans d’existence à la sortie du film). Décors et costumes des personnages mélangent l’ancien et le moderne. Est-ce une fin du monde ou les nouvelles colonies annoncent-elles un éternel nouveau monde vers lequel iront les colons. Blade Runner n’annonce rien, ne prédit rien de ce que sera le futur. Les personnages vivent, ou plutôt survivent dans l’instant, le moment présent.

It’s better to burn out than to fade away

La quète des répliquants, pour laquelle ils ont pris des risques s’avère sans issue. Ils parviennent à Eldon Tyrell, le patron de la société. Mais celui-ci leur révèle que ce n’est pas possible de prolonger leur vie. Ils ne sont fondamentalement que des humains, avec la même réserve d’énergie à la naissance. Leurs pouvoirs augmentés se payent d’un raccourcissement de leur vie.
Quelque part les répliquants sont comme les membres des équipes projets. Les répliquants ont des superpouvoirs, les concepteurs développeurs ont des super-compétences, qui elles aussi inquiètent leur entourage. Les répliquants explorent des planètes nouvelles, les concepteurs-développeurs découvrent de nouveaux outils, de nouvelles façons de travailler, ils participent à l’aventure de leur temps, celle du numérique. Ils sont loin de la vie routinière de ceux qui vivent dans des processus répétitifs. Mais tout cela se paye de tress, de fatigue, de dépressions lorsque les projets s’arrêtent. « It’s better to burn out than to fade away » (il vaut mieux bruler que se consumer doucement) chantait Neil Young, dans son hommage aux Punks. Kurt Cobain le leader de Nirvana laissera ces paroles pour expliquer son suicide. Nombre de concepteurs-développeurs en fin de projet ont sans doute envie de reprendre ces paroles.

Test de Turing

Le personnage d’Harrison Ford est engagé pour pourchasser les répliquants. Pour les repérer il leur fait passer une sorte de test de Turing. Si ce sont des créatures artificielles le souvenir de leur naissance, leur enfance est factice. La mémoire fait l’humain, dit le film.
A l’issue du combat final qui l’oppose à Harrison Ford, le chef des répliquant joué par Rudger Hauer meurt. Il n’est pas vaincu par son adversaire, mais il décède de la mort jeune qu’a programmé Eldon Tyrell. Avant de mourir, il prononce une sorte de testament final :
« I’ve… seen things you people wouldn’t believe… Attack ships on fire off the shoulder of Orion. I watched c-beams glitter in the dark near the Tannhäuser Gate. All those… moments… will be lost in time, like …tears… in… rain. Time… to die… » « J’ai vu tant de choses que vous, humains, ne pourriez pas croire. De grands navires en feu surgissant de l’épaule d’Orion. J’ai vu des rayons-C briller dans l’ombre de la Porte de Tannhäuser. Tous ces moments se perdront dans l’oubli, comme les larmes dans la pluie… Il est temps de mourir. »
Les répliquants n’ont pas que des souvenirs artificiels. Ils ont aussi des souvenirs propres, issus des aventures qu’ils sont seuls à avoir vécus. Le répliquant est devenu un humain, avec sa destinée tragique. P.K.Dick ne croyait sans doute guère à la promesse d’éternité du transhumanisme.

Un océan de larmes

Lorsque Blade Runner est paru, les systèmes d’informations tiennent encore une place limitée dans la vie quotidienne. Il est donc encore possible de penser que l’essentiel des souvenirs sont éphémères.
Aujourd’hui, les mémoires artificielles ont envahies l’espace. Elles conservent la marque de notre passage. Elles contiennent non seulement des textes, mais aussi des sons et des images, demain peut-être des odeurs, des sensations tactiles que l’on pourra reproduire et faire revenir grâce à l’impression 3D. Elles conservent également des traces plus impalpables : ouvertures de pages internet, nombre de modifications réalisées sur des données, géolocalisation.
Progressivement les larmes de souvenir dont parle le répliquant forment des lacs que l’orage du temps ne parvient plus à diluer. Rien ne disparaît et nous nous y habituons.
Les séries policières nous familiarisent à cette conservation, et celle-ci nous devient naturelle. C’est devenu une facilité habituelle des scénarios au cinéma comme à la télévision, que d’utiliser nos traces numériques. Les restes d’ADN sous les ongles de la victime, les messages téléphoniques, les comptes bancaires, les cameras de vidéo-surveillance…Tout cela remonte dans le Cloud Computing et permet in fine de confondre l’assassin.
Toute cette masse d’information devient de nouvelles planètes à explorer. Comme les répliquants, les concepteurs-développeurs traversent les Portes de Tannhauser. Ils ont de nouveaux problèmes à traiter, de nouveaux algorithmes à créer. En même temps, les questions posées sont de plus en plus complexes. Nous sommes toujours plus nombreux, plus vieux et plus malades, dans un environnement pollué et aux ressources de plus en plus rares. Le système d’information numérique nous aide à trouver de nouvelles solutions. Il nous permet de survivre, mais nous ne savons pas si nous allons vers l’aube ou le crépuscule.

Publié dans cinema, gouverner, système d'information | Tagué , | Laisser un commentaire

Contentieux : les défaites de la propriété intellectuelle du numérique

procèsLa propriété intellectuelle est une construction juridique, un droit garanti par l’Etat aux inventeurs.
Comme tout système juridique, elle génère du contentieux. Elle donne du travail aux juristes, aux avocats, aux juges, et à toutes les professions juridiques.
Dans le domaine du numérique, quatre procès majeurs ont joués un rôle dans le développement de cette industrie : les procès Honeywell/Sperry Rand, Apple/ Microsoft, Unix System/Berkeley Software, et Apple/Samsung.

Honeywell/Sperry Rand

L’invention de l’ordinateur a été un processus itératif, faisant intervenir un grand nombre d’acteurs. De plus, des étapes décisives furent faites pendant la deuxième guerre mondiale. Le décryptage des codes secrets, les calculs balistiques d’engins de plus en plus rapides, les simulations de la bombe atomique, imposèrent de développer de nouvelles machines, pour effectuer des calculs de plus en plus complexes. Ces travaux étaient couverts par le secret et ne purent faire l’objet de publications permettant de déposer un brevet.
L’ENIAC a été considéré comme le premier ordinateur. Cette machine est développée par l’équipe de John Mauchly et J.Presper Eckert, et constitue l’aboutissement des travaux antérieurs, Les travaux avait commencé pendant la guerre, au sein de l’université de Pennsylvanie, et était poursuivis au sein d’une société commerciale. En 1950, Mauchly et Eckert vendirent leur société à Remington Rand. Pour protéger leur invention et pouvoir commercialiser leurs machines, Ils déposèrent une demande de brevet, dès 1949, qui aboutit en 1964. A partir de là Sperry Rand, la société héritière de Remington pouvait avoir le monopole de l’ordinateur ou demander des royalties à tous ses concurrents. L’un d’entre eux, Honeywell engagea un avocat, Charles Call pour contester le brevet. Call fit une recherche approfondie, et ressuscita en particulier le travail de Cyril Atanasoff, un inventeur qui avait construit avant L’ENIAC, une machine à calculer électronique. Que cette machine n’ai jamais servi importait peu. Le procès dura 135 jours, nécessita l’audition de 77 témoins (plus la déposition lu de 80 autres), aboutissant à 20 667 pages de minutes. A l’issue, le 19 octobre 1973, le juge Earl R.Larsson invalida le brevet de Mauchly et Eckert et fit tomber dans le domaine public les principes de l’ordinateur.

Apple/Microsoft

L’interface graphique, avec sa souris, ses icones, ses fenêtres, a été un élément clé de la popularisation des microordinateurs. Il est le résultat des travaux de diverses équipes, celle de Douglas Engelbert, puis celle du Xerox Park, enfin celles d’Apple. Les deux premières équipes ne trouvèrent pas d’applications pratiques à leur invention, et il fallut attendre Steve Jobs pour que l’interface graphique passe au stade de l’innovation industrielle.
Peu de temps après, Jobs eut la mauvaise surprise de voir qu’un de ses sous-traitants, Microsoft, proposait son propre interface graphique, Windows. Jobs reconnaissait lui-même la dette qu’il devait à Xerox « …quand on lui reprocha d’avoir pillé les idées de Xerox, Jobs cita Picasso : « les bon artistes copient, les grands artistes volent. » et il ajouta nous « nous n’avons jamais eu honte de piquer des bonnes idées. »(cité par Isaacson). Mais il n’admettait pas l’emprunt de Gates et il l’attaqua donc en contrefaçon..
Gates gagna le procès haut la main, en s’appuyant sur l’antériorité de Engelbert et Xerox. Le Juge Ferdinand F.Fernandez le 11 juillet 1994 lui donna raison et fit tomber l’interface graphique dans le domaine public.

Unix System/Berkeley Software

Bell avait vendu à un prix dérisoire à des Universités la licence d’utilisation UNIX. L’université créa une société Berkeley Software pour commercialiser la version améliorée qu’elle avait développé. La filiale de Bell créée pour commercialiser Unix, Unix System Laboratories (USL), attaqua donc cette nouvelle société. Elle perdit à son tour en 1994 le procès. Berkeley continua a commercialiser   avant que tout le code ayant été réécrit, les version libres d’Unix devint un logiciel libre (aujourd’hui UNIX est la marque déposée d’une organisation fondée par les fabricants de systèmes UNIX).

Apple/Samsung

Le contentieux Apple/Samsung est en fait partiellement un contentieux Apple/Google.
Avec l’iPhone sorti en 2007, et l’iPad sorti en 2010, Apple fit une percée décisive dans l’informatique mobile. Elle a été rendue possible par l’utilisation des écrans tactiles, qui permettaient de se passer de clavier et de stylets. Mais en 2007, Google sortait également Android, un système d’exploitation optimisé pour les écrans tactiles. Le produit étant gratuit et de qualité, il fut largement utilisé par les fabricants de smartphone. Steve Jobs, pas vraiment connu pour sa sobriété verbale s’écria : « je vais détruire Android, car c’est un produit volé. Je vais mener une guerre thermonucléaire contre cela.”
En fait Google était difficilement attaquable. Le noyau de son système était Linux qui existait depuis longtemps, et il ne le vendait pas, ayant choisi d’en faire un logiciel libre.
Apple attaqua donc Samsung, principal fabricant de Smart Phone utilisant Android.
La cible n’était guère plus facile. Le fabricant coréen était le principal sous-traitant d’Apple en même temps que son concurrent. Il produit les écrans rétina qui assurent la fluidité de l’écran tactile et dispose de brevets dessus. La bataille Apple Samsung est toujours en cours. Il est plus que probable qu’elle terminera par un accord amiable entre les parties, qui éviteront de se couler l’un l’autre.

Moralité

Le progrès technique et la protection juridique de la propriété intellectuelle ont permis l’enrichissement de quelques uns. Mais ces défaites dans les prétoires ont permis que le numérique ne soit pas seulement le jouet de quelques uns, vendu à prix d’or. Les procès perdus ont permis le développement de l’ordinateur et de toutes les machines basées sur l’architecture Von Neumann. Ils ont aussi permis le déploiement de l’interface graphique, des logiciels libres, et maintenant de l’interface tactile. Sans ces victoires, le numérique serait encore un produit de niche, destiné aux entreprises et à quelques riches amateurs. Elles ont transformé cette industrie en industrie de masse. Comme le dit Isacsson « Mais la principale leçon qu’on peut tirer … est que l’innovation est d’ordinaire un effort collectif, qui implique la collaboration entre des visionnaires et des ingénieurs, et que la créativité provient de nombreuses sources. Ce n’est que dans les livres d’images que les inventions se présentent sous la forme d’un éclair tombant du ciel ou d’une ampoule électrique jaillissant de la tête d’un individu solitaire dans un sous-sol, un grenier ou un garage. »

Bibliographie

  • Walter Isaacson : Les innovateurs (Jean-Claude Lattès-2015)
  • Article Wikipedia : UNIX (état au 27 septembre 2017)
Publié dans informatique, propriété intellectuelle, système d'information | Tagué , , , , , , , | Laisser un commentaire