Les règles d’Elinor 3 : le partage du bien commun

20180517 POIGNÉE DE MAINIl est indéniable que le développement des technologies numériques d’information s’est accompagné d’une augmentation des inégalités de patrimoine et de revenu dans le monde. La révolution conservatrice promue par Reagan a permis une concentration massive du capital disponible. Son investissement dans les technologies nouvelles a dégagé des profits colossaux. Le résultat c’est une concentration unique de la richesse dans les mains de quelques uns.
Pour les laissés-pour-compte de cette révolution, il fallait s’organiser pour survivre. En s’appuyant sur le numérique et sur des règles d’organisation communes, par idéalisme ou par nécessité, des communautés se sont créées dans des domaines les plus variées.
Elinor Ostrom, prix Nobel d’économie 2009 a démontré théoriquement qu’une communauté auto-organisée pouvait développer des richesses. Des milliers d’expériences ont montré la pertinence de cette analyse.

Fondations

Ainsi les structures qui gèrent les logiciels libres ou Wikipédia. Parce qu’elles visent à un partage gratuit des connaissances, elles ont été perçues comme des espaces de non-droit, des lieux libertaires où des cow-boys s’amuseraient à écrire des programmes en toute liberté. Ceci ne pourrait aboutir qu’à du code au mètre, empli de malfaçons voire de malveillance.
Des fondations proposent des logiciels comme Linux, Mozilla (gestionnaire entre autre du navigateur Firefox), Apache (gestionnaire d’OpenOffice), WorldPress (gestionnaire de l’éditeur et hébergeur internet). Elles sont des communautés organisées, avec des règles, des rôles répartis, des systèmes de formation, des moments et des lieux d’échanges, un système d’entrée dans la communauté.
Elles se financent par des dons, les utilisateurs étant régulièrement appelés à participer au fonctionnement (et a priori les dons volontaires ont permis jusqu’à présent à ces communautés de survivre). Les utilisateurs y voient le moyen d’améliorer leur activité sans financer la rente capitaliste, et jusqu’à présent le système a pu se développer au point d’amener les fournisseurs traditionnels à baisser leurs prix.

Coopératives

Mais l’économie de la collaboration ne se résume pas à l’activité numérique. L’économie coopérative existe depuis longtemps et a connu un développement nouveau. Internet leur permet de vendre directement et de se passer d’intermédiaire. Les coopérateurs créent un site marchand, font une peu de publicité, généralement par le bouche à oreille, Facebook et les réseaux sociaux, la participation à des marchés ou des manifestations diverses, et ainsi se développe une économie se passant d’intermédiaires marchands. Les AMAP (Associations pour le Maintien d’une Agriculture Paysanne) sont un premier exemple de ces communautés. Développant généralement une agriculture « bio », limitant l’emploi des pesticides, herbicides et autres. Elles étaient 1200 en France. en 2012, regroupant environ 200 000 personnes. Il y a aussi les SEL (Système d’Echanges Locaux) et les Accorderies (forme de SEL importées du Canada) qui développent la même logique de lien direct entre le producteur et le consommateur.  Les gens s’organisent pour échanger des services entre eux, sur un mode non marchand, privilégiant plutôt le troc, l’usage de monnaies locales.
Sur Facebook se développent des communautés d’échange, comme Wanted qui permet d’échanger des biens ou des services. Toutes ces structures ne sont pas fondamentalement nouvelles dans leurs principes. Des entreprises comme Essilor, leader mondial du verre correctif  ont commencé comme des coopératives ouvrières. En 2012 encore un quart des salariés étaient actionnaires de l’entreprise. Corporation Mondragon, groupe industriel et commercial localisé dans le Pays Basque espagnol est aujourd’hui la plus grande coopérative ouvrière au monde avec plus de 40 000 salariés, démontrant ainsi que ce mode d’organisation est capable de gérer un nombre considérable d’individus.

CoWhat ?

A un niveau plus modeste, progressent des formes mineures de coopération. De moins en moins de jeunes peuvent éviter de passer par une phase de colocation, où ils s’organisent autour de la gestion d’un logement commun. Le Coworking, partage de bureau et de locaux professionnels permet aux start-up et travailleurs indépendants. Enfin se développe maintenant le crowdfunding, le financement participatif qui permet de se passer d’intermédiaires financiers pour démarrer un projet. Toutes ces formes se caractérisent par l’absence d’un leader capitaliste, et l ‘emploi massif des outils de transmission de la connaissance permis par le système numérique

Ainsi l’hypercapitalisme a généré son contraire, un système sans capital, de coopération entre pairs, défiant le principe de la tragédie des communs. Le livre « Utopies Réelles » de Erik Olin Wright, le film « Demain » de Cyril Dion et Mélanie Laurent s’essaient à recenser toutes ces initiatives locales, qui permettent d’espérer aller vers un monde plus coopératif et plus solidaire.
Ils représentent aujourd’hui une part limitée de l’activité économique (on parle de quelques centaines de milliers d’emploi).  Mais près d’un français sur deux a été confronté à cette économie solidaire.  Elle devient doucement une réalité incontournable de notre monde.

Publié dans developpement, propriété intellectuelle, système d'information | Tagué | Laisser un commentaire

Vie privée

vie privée Mater DolorosaVie privée et propriété intellectuelle

Dans les années 80, Mme Thatcher avait constaté que l’inégal accès à la propriété immobilière favorisait le développement des idées socialistes.  Elle développa une politique d’accès à la propriété pour les petites gens. Cela ne changeait pas fondamentalement les inégalités de la société anglaise, mais ces milliers de petits propriétaires pensaient défendre leurs maigres biens en défendant les politiques de droite.
La vie privée joue le même rôle vis à vis de la propriété intellectuelle.
La vie privée apparait entre XVII et XVIII°. Elle nait en même temps que l’auteur, le droit d’auteur et tous les concepts de base de la propriété intellectuelle. Papa et maman ont droit à leur chambre familiale, où ils protègent leur vie sexuelle. Chacun a droit à ses secrets dans les villes de grandes solitudes. Le citoyen sort de l’époque du village, où tout le monde connaît tout sur tout le monde.
La parenté entre vie privée et propriété intellectuelle est évidente. Dans les deux cas, il s’agit d’un droit d’interdire. Parce qu’il s’agit de mes images, mes comportements, mes idées, j’ai le droit d’interdire de les utiliser ou de les reproduire. Comme dans la propriété intellectuelle, le droit de reproduire, le «copyright»est au cœur de la notion de vie privée.

Tous pour la vie privée

Les politiques de droite ont bien compris leur intérêt. Leur fonds de commerce, c’est la défense de la propriété. Ces mêmes politiques ne cessent de défendre la vie privée. Droit de retrait, droit à l’oubli, l’arsenal législatif ne cesse d’augmenter. Ceci permet de faire passer que le montant des actifs immatériels ne cesse d’augmenter dans le monde et que celui-ci est de moins en moins taxé (voir la récente réforme de l’impôt sur la fortune). Même les politiques de gauche se fourvoient dans cette défense forcenée des libertés privées. Au lieu de promouvoir la coopération, la collaboration, la solidarité, ils se battent contre Big Brother. Leur philosophie est entièrement contre, au lieu de défendre des valeurs positives.
Les littérateurs et intellectuels de tous poils, ne cessent également de défendre la vie privée. Face aux agressions du monde moderne, le citoyen, l’individu doit être défendu. Avec le talent de Philip K.Dick, ou la prose bavarde de tel journaliste ou philosophe, innombrables sont les partisans de la vie privée. Il est difficile de ne pas penser que cette défense est intéressée. Tous espèrent gagner le gros lot. Ils se voient faire le bestseller qui répendra sur eux le pactole des droits d’auteur.
Même les géants du cyberspace sont des partisans autoproclamés de la vie privée. Ils ont tous emboité les pas de Tim Cook lorsque celui se battit contre le FBI pour défendre la non communication de messages cryptés. Ils admettent tous qu’ils ont un devoir de protéger les données que nous leur confions dans le Cloud. Ils rivalisent d’imagination pour crypter les informations, complexifier les mots de passe, nous proposer des systèmes de protection à deux niveaux, basés sur l’empreinte digitale, l’iris de l’œil.
Promouvoir la transparence, le partage, le collaboratif, c’est toujours défendre l’Autre. Cet Autre s’appelle Big Brother, Léviathan, Bolchevicks, grand méchant capitaliste. Mais cette paranoïa généralisée est une illusion.

Tous coupables

L’interdiction de reproduire, le copyright avait pour objectif de protéger l’auteur, mais aussi les investissements de l’éditeur qui reproduit, le coût du travail de composition et d’impression.
Or le développement du numérique fait que le coût de reproduction s’effondre. Il est possible de faire d’aussi bonnes photos avec son smartphone, qu’avec un reflex argentique d’antan. Il y aura peut-être moins de pixels, mais plus de spontanéité. Tout le monde peut prendre des photos de tout le monde et les diffuser à la terre entière. Les plus grands musées du monde contiennent des œuvres protégées par le copyright, mais les gardiens ont cessé de courir après les touristes qui font des selfies devant ces œuvres. Il est également facile de publier un site internet, encore plus simple de tchatcher sur un réseau social quelconque, Facebook ou tweeter.  Les sites marchands nous invitent à liker les livres ou les séries vidéos que nous lisons ou que nous regardons, et même à apporter sur eux des commentaires laudatifs ou désobligeants.
Sommes-nous sur de n’avoir jamais rien dit ou rien fait qui  n’empiète sur la vie privée des autres, sur leur droit à l’image, qu’il s’agisse d’un ami, d’une connaissance ou simplement d’un inconnu qui passait sur la photo en tenant par la main, sa femme, sa maîtresse ou la petite amie d’un copain.  En bref, dans un monde où il est si facile de publier et reproduire des images et des textes, nous risquons à tout moment d’empiéter sur le droit d’un autre, à moins de vivre une vie monacale au fond d’un désert inconnu. Comme les lois sur la prohibition avait fait de milliers d’américains les complices des bootleggers, le durcissement des règles sur la vie privée fait d’innocents internautes de potentiels coupables.
Comment les politiques peuvent-ils décider des politiques sanitaires sans disposer de données sur notre âge, nos maladies,  nos addictions. Il serait possible de dire la même chose en matière sécuritaire, d’équipement, etc. Certains ont vu dans l’anonymisation des données le moyen de résoudre l’équation. Les chercheurs reçoivent des données pour mener ces analyses, mais celles-ci sont  agrégées, regroupées à un niveau empêchant de connaître les données personnelles. Une telle rupture de la chaine de traçabilité pose des problèmes de nature à perturber les analyses. Prenons un exemple simple, voire simpliste. Au premier trimestre du championnat de football 2017-18, les commentateurs constatèrent une hausse de la fréquentation moyenne des stades. Ils parlèrent d’  « effet Neymar ». La politique d’acquisition de vedettes du Paris Saint-Germain expliquerait se nouvel engouement des spectateurs. Un journaliste du monde alla regarder derrière la moyenne. La hausse du nombre de spectateurs ne touchait que deux stades : Strasbourg, place forte historique du football qui venait de monter de 2èmedivision et remplaçait un stade de moindre fréquentation ; Marseille venait de changer de propriétaire, et le nouveau avait pratiqué une politique nouvelle de recrutement.
Enfin le métier de base des entreprises du cyberspace consiste à faire circuler l’information. Assurer la diffusion des données, les analyser en permanence est leur cœur de compétence. La schizophrénie entre ce métier de base et la volonté de protection des données individuelles ne peut aboutir qu’à des catastrophes. L’affaire Facebook, n’est qu’un épisode parmi d’autre de cette liste de catastrophe (Wikileaks, vols de données de Yahoo…).

Confidentiel défense

Surtout cette vie privée est une illusion parce qu’elle perturbe le fonctionnement de l’essentiel.
Il ne s’agit pas ici que nous devons être totalement transparents. Il y a bien des informations dont la divulgation met en cause notre sécurité. Par exemple il n’est pas question que des terroristes prennent le contrôle d’appareils comme les pacemakers (ils sont pilotés numériquement), ou demain les voitures autonomes. Nous ne voulons pas que des mafias puissent siphonner nos comptes bancaires.
Mais toute politique de protection des données commence par une classification : les données qui peuvent être connues de tous, celles qui doivent être connues par un cercle limité, celles auxquelles seules des personnes autorisées peuvent accéder. Avoir un nombre limité de données à protéger, et un nombre réduit de personnes à surveiller est la clé d’une politique de protection des données, beaucoup plus que la force des algorithmes de cryptologie.
C’est cette classification que perturbe le discours sur la vie privée. La prétention que les individus peuvent garder le contrôle de toutes les informations les concernant génère un flou. Certains se ruent dans cette zone grise pour pratiquer tous les piratages possibles. Cela fait oublier que ce droit d’interdire l’utilisation de données, permet à certains de bénéficier d’une  croissance folle des actifs immatériels qui est l’une des causes des inégalités et des tensions dans le monde.

Bibliographie

Philippe Askenazy : Tous rentiers ! Pour une autre répartition des richesses (Odile Jacob ; 2016)

Publié dans propriété intellectuelle, système d'information | Tagué , | 2 commentaires

Inégalités

camembert et épicerieLe bruissement du monde

Ma tante Suzanne était épicière au centre de son village. L’épicerie était au bord de la Nationale 7, face à la Mairie et près de l’église. Suzanne commençait la journée en lisant le journal local. Elle faisait ainsi provision de sujet à discuter avec ses clientes. Il parait que votre fille vient d’accoucher d’un petit dernier ? Mes condoléances pour la mort de votre père. Vous savez qu’il y a loto demain soir au Secours Catholique ? Les informations s’échangeaient en même temps que les laitues, les camemberts, ou les bouteilles de Cinzano.
A l’heure de la globalisation, lorsque les familles et les amis sont parfois séparés par des milliers de kilomètres, Facebook a remplacé ma tante. Ses utilisateurs n’échangent rien d’essentiel. S’ils veulent demander quelque chose à quelqu’un, le mail et le Short Message Service (SMS) ont remplacé la lettre et le coup de téléphone. Les plus branchés utilisent Skype, WhatsApps ou Telegram.
Ils utilisent Facebook comme ils auraient envoyé une carte postale. Les évènements pour lequel il est utilisé sont les mêmes : anniversaires, naissances, mariage, décès, vacances. Des évènements importants mais en quelques sorte impersonnels. Pour la plupart nous avons des enfants, nous nous sommes mariés, et nous prenons des congés. Parler de tout cela ne trahi pas notre vie privée. Les utilisateurs se sont disciplinés. Le temps où l’on pouvait trouver des révélations croustillantes sur la voisine de chambrée est passé. Facebook y veille aussi. Chaque jour des internautes publient n’importe quoi : « homophobie, xénophobie, antisémitisme, propos haineux, pédopornographie, zoophilie, viols, décapitations djihadistes, fétichisme sadique, cruauté envers les animaux, torture, etc. » Des modérateurs sont chargés de vérifier, supprimer toutes ces informations, qu’il s’agisse de textes, de photos ou de vidéos. Des centaines de personnes dans le monde effectuent cette tâche qui permet à Facebook de conserver son caractère de divertissement familial.
C’est aussi un moyen de partager ses centres d’intérêt. Vous saurez ainsi si untel aime le chant, la peinture ou la confection de macramé, si tel autre est un militant pour Mélenchon ou Sarkozy, ou si votre voisin est amateur du PSG. Vous pourrez aussi partager les spectacles que vous avez vus, les expositions auxquelles vous voulez inviter les autres à venir.
Il n’y a rien dans tout cela qui ne se serait trouvé sur une carte postale, un tract distribué à la sortie du marché, ou le journal local, moyens de communication tout aussi indiscrets que Facebook, car ouverts à la vue des autres. Mais Facebook apporte une productivité nouvelle. Vous pouvez communiquer d’un coup à des dizaines voire des centaines d’amis, parfois à l’autre bout du monde.
Enfin les plus paresseux se contentent de partager les informations des autres. Vous voyez ainsi circuler des bons mots, les problèmes de robinet insolubles, les gags vidéo,…
Ainsi Facebook fait entendre le bruissement du monde. Un bruit familier, amical, qui nous rassure. Un partage entre amis vaguement familier. Certains se sont étonnés que Facebook ne leur ait pas permis d’anticiper des crises comme l’élection de Donald Trump. Mais depuis quand la conversation entre amis au Café du Commerce est un moyen fiable de s’informer sur l’état du monde ?

Droit d’usage

Cette rapidité de circulation de l’information a sa contrepartie. Pour que les données puissent s’en aller d’un bout du monde à l’autre, être partagées par tous et toutes, voici ce que disent les conditions d’utilisation de Facebook que vous pouvez consulter en cliquant en haut à droite sur l’écran :
Pour le contenu protégé par les droits de propriété intellectuelle, comme les photos ou vidéos, vous nous donnez spécifiquement l’autorisation suivante, conformément à vos paramètres de confidentialité et des applications : vous nous accordez une licence non exclusive, transférable, sous-licenciable, sans redevance et mondiale pour l’utilisation des contenus de propriété intellectuelle que vous publiez sur Facebook ou en relation avec Facebook (licence de propriété intellectuelle). Cette licence de propriété intellectuelle vise à rendre disponibles les Services Facebook qui vous sont proposés ainsi qu’aux autres personnes qui les utilisent ou y accèdent, et se termine lorsque vous supprimez vos contenus de propriété intellectuelle ou votre compte, sauf si votre compte est partagé avec d’autres personnes qui ne l’ont pas supprimé.
Sur ce que vous mettez sur Facebook vous abandonnez toute propriété intellectuelle et morale. Vous acceptez que les images fassent l’objet de commentaires étranges ou déplaisants, que les idées soient déformées.
Vous acceptez aussi que Facebook soit addictif. Vous avez constitué un réseau d’amis. Si vous décidez de quitter ce réseau social, il est improbable que tous vos amis vous accompagnent. Ils ont leur propre réseau sur Facebook, ils n’ont pas toujours envie de le quitter pour vous suivre.

La perte de la confiance

Ces caractéristiques d’usage font que l’affaire Cambridge Analytica est grave pour Facebook. Il tire ses revenus de la publicité en proposant aux annonceurs des messages ciblés visant des populations particulières. Les publicitaires ont une certaine garantie d’atteindre des cibles précises (vous pouvez à tout instant faire le test, en payant votre propre publicité pour un évènement ou une publication qui vous tient à cœur).
Mais la fiabilité des informations sur Facebook est moindre que celles sur d’autres réseaux d’information.
Votre banquier sait tout de vous. Il connait vos revenus et leurs origines, vos dépenses, vos relevés carte bleu et vos paiements par virement. Il sait ainsi les magasins dans lesquels vous êtes rentré, les associations auxquelles vous cotisez, les pensions alimentaires que vous versez. Grace à cela il peut déterminer le niveau des prêts qu’il vous accordera, cibler les placements qu’il vous proposera.
Amazon, si vous l’utilisez régulièrement sait aussi beaucoup de vous. Les livres que vous lisez, les disques que vous écoutez, les jeux auxquels vous jouez, les vêtements que vous portez.
Les informations sur Facebook sont purement déclaratives. Vous pouvez mentir sur votre sexe, votre âge, votre origine, votre métier ou vos goûts, cela ne portera pas à conséquence. Beaucoup d’utilisateurs, au lieu de leur photo mettent des vues de dauphin, de chat, de fleurs. Ces comportements restent atypiques. En masse, les données de Facebook restent fiables. Si individuellement, les données de chaque utilisateur doivent être prises avec précaution, globalement elles restent d’une qualité acceptable pour les annonceurs.
Mais en acceptant et en permettant à Cambridge Analytica et ses filiales d’accéder à ces données, Facebook a brisé le pacte de confiance qu’il avait avec ses utilisateurs.
Il risque non seulement des désabonnements, mais aussi que les utilisateurs mettent moins d’informations ou trichent sur celles qu’ils indiquent. Ceci touche le cœur de son modèle économique. Et c’est pour cela que Mark Zukerberg a accepté de participer à une audition humiliante devant le congrès américain.

Asymétrie d’information

Mais le problème de Facebook, s’il est crucial pour lui, ne lui est pas spécifique.
Il y a une asymétrie d’information de plus en plus grande entre les opérateurs du cyberspace numérique et leurs utilisateurs. Ces derniers laissent de plus en plus de trace, et leur comportement est de mieux en mieux connu. Au contraire, nous savons mal ce que ces opérateurs font de ces informations.
La solution parfois envisagé est le droit au retrait ou le droit à l’oubli pour les utilisateurs. Mais cette proposition est inadaptée à la situation. La globalisation fait que nous allons chercher nos biens, nos services de plus en plus loin. Nous nous déplaçons de plus en plus en plus. Nos enfants s’éloignent ou nous nous éloignons de nos familles et de nos parents. Nous avons besoin du cyberspace pour communiquer, et ceci nous empêchera de pratiquer le droit de retrait. De plus, l’addiction empêchera de changer d’opérateur.
La réponse est donc inverse. Les opérateurs doivent communiquer de plus en plus sur leurs objectifs, leurs méthodes, leurs résultats. Cet échange nouveau apportera de nouvelles solutions, de nouvelles options pour traiter les problèmes futurs. Aujourd’hui les opérateurs du numérique privilégient le secret sur leurs pratiques en espérant ainsi en tirer un avantage concurrentiel. Mais ainsi ils minent la créativité globale. C’est l’échange d’idées et de faits qui permet la naissance de solutions nouvelles. La transparence n’est pas seulement une obligation démocratique, c’est aussi une condition du futur de l’humanité.
Il est symptomatique que l’affaire Cambridge Analytica éclate lorsque se discute au Parlement l’application d’une directive sur le secret des affaires. Les députés devraient y réfléchir avant de voter.

Bibliographie

http://hightech.bfmtv.com/epoque/le-travail-sordide-des-moderateurs-de-contenus-pour-facebook-1071480.html

Publié dans écriture, big data, internet, système d'information | Laisser un commentaire

Big Data : Mémoire de bruts

squelette biblioLe Big data est avec l’intelligence artificielle un des sujets à la mode dans les medias concernant le système d’information. Il soulève de multiples craintes. Ne risquons nous pas par ce moyen l’espionnage par un Big Brother malveillant ? Essayons de démythifier le sujet.

Qualité des données

La plupart des données qui entrent dans un système d’information sont saisies par les utilisateurs. La machine est capable de deviner l’heure et la date de la saisie et éventuellement la géolocalisation.  Tout le reste est déclaratif, et celui qui donne l’information peut se tromper ou vouloir tromper les autres.
Les concepteurs-développeurs mettent en place des contrôles pour limiter ces erreurs. Vérifier le format des dates, proposer un nombre limité de choix dans des menus déroulant.
Pourquoi acceptons nous d’entrer des données dans ce système, et de respecter les contraintes de saisie imposés par les concepteurs-développeurs ? Le  système d’information, numérique ou non, est d’abord un outil d’accompagnement des échanges de biens, de services ou d’heures de travail. Il produit des documents dont nous avons besoin (factures, bon de commande, bulletin de salaires, quittance de loyers, etc.).  De la qualité de ces documents dépend la propriété des biens, leur droit d’usage, leurs garanties, les impôts que nous payons, éventuellement la retraite à laquelle nous aurons droit. Et nous souhaitons que le système garde la mémoire de ces informations. Nous avons intérêt à leur conservation. Ceci est vrai que le système d’information soit fait d’encre et de papier, ou dématérialisé par le numérique. C’est dans les crises que la mémorisation des données apparaît la plus essentielle. Lorsqu’une entreprise diffuse un produit contaminé, tout le monde souhaite que ces produits soient rapidement retrouvés, et que le système d’information ait conservé la trace de leur circuit de distribution.
Ces données liées aux échanges sont le véritable trésor du système d’information. Elles contiennent l’histoire des pratiques, des envies, des besoins des utilisateurs.

Contrôleurs de gestion et marqueteurs

Ces données collectées sont surtout dans les systèmes d’information des entreprises qui ont produit ou distribués ces biens et ces services.  Ici affirmons qu’une entreprise est une entité socialement responsable. Par là, il faut entendre qu’elle est responsable vis à vis de ses actionnaires mais aussi de ses clients, de son personnel, et de son environnement naturel ou social. Cette responsabilité implique que le dirigeant soit capable de se projeter dans le futur. Est-ce que l’usine sera là dans dix ou vingt ans ? Est-ce que j’aurais encore un travail, et je pourrais me marier, faire des enfants, acheter une maison, payer les études. Telles sont les questions venues de son personnel auxquelles un entrepreneur responsable doit répondre.
Dans l’entreprise, deux catégories d’employés travaillent sur cette projection : les contrôleurs de gestion qui surveillent le budget, et les marqueteurs qui cherchent les besoins des clients. Ces deux espèces de fouineurs ont mauvaise réputation, sont réputés attenter à la liberté individuelle, et être les séides de Big Brother. Mais une entreprise qui fait des pertes financières met la clé sous la porte, et celle qui n’a plus de client disparaît également.  La survie de l’unité de production dépend donc de leur travail (qui existe depuis bien plus longtemps que le numérique.

Les débuts de l’analyse de donnée

Dès que  les statisticiens de tout poil  ont compris la richesse de données qu’il y avait dans le système d’information numérique, ils demandèrent à y accéder. Les concepteurs-développeurs essayèrent de répondre au besoin de ces analystes qui avaient l’oreille des patrons. Ils comprirent qu’il n’y avait pas de limite à la curiosité de leurs interlocuteurs. Les concepteurs développeurs s’épuisaient à coder ces requêtes. Ils leur donnèrent donc les clés du camion. Des droits d’accès spéciaux furent donnés à ces utilisateurs leur permettant de rédiger des programmes d’analyse. Cette manière d’agir s’avéra à risque élevé. D’abord, d’un statisticien à l’autre, la manière de faire les programmes différait, et à partir d’une même base de donnée on pouvait obtenir des résultats diamétralement opposés. Ensuite laisser des amateurs la possibilité de programmer dans le système s’avéra dangereux. Ensuite, ils pouvaient construire des programmes d’analyse tellement complexes qu’ils empêchaient tous les autres utilisateurs de travailler. Enfin ils pouvaient par erreur écrire des programmes qui modifiaient les données au lieu de les analyser.
Ce fut l’ère des infocentres. Les concepteurs-développeurs créèrent des bases de données qui étaient des répliques des bases d’origine. Elles devaient permettre à ces acharnés du chiffre de jouer en tous sens. Mais rien n’était véritablement réglé. En effet la taille des bases de données ne cessait d’augmenter. Les analyses faites jusque là consistaient en gros à spécifier ce qu’on voulait analyser, à demander au programme d’aller chercher les données en parcourant les bases de donnée puis d’attendre le résultat. En programmant de cette manière, même en confiant le travail à des professionnels, l’exécution du programme pouvait prendre des heures avec un résultat plus ou moins aléatoires. Le statisticien, après avoir lancé la recherche pouvait faire plusieurs tours à la machine à café avant d’avoir sa réponse.

Former-informer

Les concepteurs-développeurs comprirent qu’il fallait procéder autrement. Une information ce sont des faits, des idées, des images formés pour être communiqué. Cette mise en forme varie selon l’interlocuteur, ce que vous voulez qu’il fasse ou qu’il sache. Il faut lui donner toute l’information nécessaire et rien que cela pour éviter de le perdre.
Le statisticien étant un autre utilisateur, ayant d’autres besoins, il faut remettre en forme les informations. La donnée brute, immédiatement utilisable n’existe pas  dans le système d’information.
Il faut d’abord  sélectionner les données pertinentes, construire un périmètre utile à l’analyse.
Puis il faut apurer les données, retirer les couleurs, les caractères ou les mots parasite. Prenons l’exemple suivant : l’expression jeudi 12 avril 2018 est pertinente pour les acteurs opérationnels, en leur permettant de savoir sans doute possible que c’est bien dans trois jours qu’ils devront travailler. Le statisticien a juste besoin de la donnée 12/04/2018, qui dit la même chose sans redondance et dans une forme chiffrée plus facilement analysable.
Enfin il faut peut-être modifier les données pour les rendre pertinentes. Prenons deux exemples simplistes. Un collègue d’une entreprise de réseau m’expliquait qu’ils avaient cherché à recenser les clients ayant plusieurs points de connexion. « Monsieur le Maire » était arrivé en tète ce qui avec 36000 communes et quelques mairies annexes n’avait rien de surprenant.  Mais on pouvait douter qu’il s’agisse du même client. En rapprochant le nom de l’adresse de la commune vous avez une approximation meilleure. L’analyste peut supposer que tous les ponts de connexions ayant les données Maire/33980/Triffouillis correspondent au même client. Mais ce n’est qu’une approximation permettant d’aller vite (rien ne dit que la commune d’à coté n’a pas acheté un local à Triffouillis).  Maire/33980/Triffouillis est une information exploitable mais moins certaine que Maire seul ou Triffouillis seul.
Autre exemple, si vous allez dans le système documentaire d’une entreprise vous trouverez facilement des centaines de fichiers dont le nom est compte-rendu.docx. Les données qu’ils contiennent sont sans doute passionnantes pour connaître le processus de décision de l’entreprise, son organisation, et in fine à qui vous porterez des oranges en prison si une mauvaise décision a été prise. Mais, sans la date, le lieu, l’objet, le nom des acteurs présents à la réunion dont ce fichier est le compte-rendu, il est difficilement exploitable. C’est pourquoi tous les grands du Big Data emploie des armées de troufions aux Indes, en Chine, en Afrique ou en Amérique du Sud. Ces salariés mal payés vérifient des données, les saisissent, les remettent en forme, lisent des photos mal scannées, contrôlent des bases de données. Ces services ne passent pas devant un douanier.  Mais Czi Manuel continue son travail silencieux.
Ensuite le résultat peut être bluffant. Avec des réseaux en fibre où l’information  circule à la vitesse de la lumière, des processeurs avec des vitesses d’horloge à 2Ghz (deux milliards d’opérations par seconde), des modèles mathématiques sophistiqués permettant de paralléliser les taches, vous avez une puissance de calcul comme l’humanité n’en a jamais eu.
Auparavant, vous avez du périmétrer/apurer/modifier. Si l’analyse permettant d’y arriver a mal été pensée, ou mal exécutée (un salarié mal payé n’a jamais été un gage de qualité), votre résultat sera bon pour la poubelle. Et cela dépend de la compétence sociétale, politique ethnographique, des concepteurs-développeurs autant que leur capacité à définir des modèles mathématiques complexes. Le système d’information, numérique ou non, c’est encore de la sueur et des larmes. Le temps où Big Brother saura tout de vous n’est pas pour demain.

Publié dans big data, système d'information | Laisser un commentaire

Industrie lourde : les fermes de Google

Blade RunnerLe nouveau documentaliste

Apple vend des machines et des logiciels.  Microsoft vend des logiciels.  Google ne vend rien, il rend des services.
Il aide ceux qui cherchent des informations à les trouver. Il permet à ceux qui veulent transmettre leurs informations de les faire connaître. Il a donc deux types de clients les demandeurs d’informations et les offreurs d’informations. Pour faciliter cette recherche il a complété son offre en permettant de traduire l’information (Google Traduction), à les localiser (Google Maps), éventuellement même il aide à la stocker (YouTube, Google+).
Ces métiers n’ont rien de nouveau.  Depuis que l’écriture s’est développée, des documentalistes et des bibliothécaires aident les lecteurs, des traducteurs facilitent l’échange avec l’étranger, des guides et des pilotes  conduisent les autres.
Mais le travail est désormais fait par un code dans lequel est introduite la question. Google a commencé en inventant un code de recherche dont l’algorithme était largement supérieur à celui de ses concurrents comme Yahoo. Contrairement à Microsoft ou Apple, qui vendaient leurs matériels et leurs logiciels, Google a fait tourner ses algorithmes sur des machines lui appartenant et ne délivre que la réponse à la question.

Les fermes de serveurs

Pour faire cela Google a besoin d’un énorme parc de machines. Wikipédia nous dit « En 2011, Google possédait un parc de plus de 900 000 serveurs, …,  ce qui en fait le parc de serveurs le plus important au monde (2 % du nombre total de machines), avec des appareils répartis sur 32 sites. » L’article référence sur lequel s’appuie Wikipedia ajoute que ces serveurs consomment 1,1% à 1,5% de l’énergie électrique mondiale.  Ces chiffres sont à prendre avec précaution. Google ne fait pas de publication officielle sur son parc de machines. Ce parc doit varier régulièrement en fonction du trafic qui passe dessus. Il peut comporter des machines dont Google est propriétaire et d’autres qu’il loue à d’autres. Mais la taille colossale de ce parc est certaine.

De l’industrie légère à l’industrie lourde

Et cela change profondément le modèle de l’économie numérique qui s’appuie dessus. L’actif principal de Apple et Microsoft n’est pas leur outil industriel, mais la propriété intellectuelle des machines et des logiciels qu’ils conçoivent (et qu’ils de fabriquent pas vraiment, puisque la quasi totalité de la fabrication est sous-traitée). Ce bien est un actif non rival (tout personne qui les installe sur ses propres machines peut les utiliser).
Au contraire Google assoit son modèle industriel sur l’administration et l’utilisation de ces milliers de serveurs informatiques donc sur un actif rival. Pour pouvoir le concurrencer il faut disposer d’un parc de machines équivalent, ce qui place la barre très haut. C’est une différence majeure. Bill Gates peut ne disposer d’aucune machine, il continuera à être rétribué par les royalties sur les logiciels qu’il a conçu jusqu’à épuisement des droits qu’il a acquis. Au contraire, Google, s’il n’a plus de machines, ne peut plus rendre de service et cesse de percevoir des revenus.
Google fait le travail les documentalistes d’antan, mais les remplaçant par des machines. C’est typiquement un modèle industriel qui substitue le travail par du capital, suivant la formulation des économistes. Et elle le fait à un niveau jamais vu auparavant. L’économie numérique de Google est une industrie lourde, nécessitant un outil industriel gigantesque.  Certes l’algorithme de recherche est au cœur de cet outil, mais il est inutile sans les fermes de serveurs qu’utilise l’entreprise tout autour du monde.

Des clients asymétriques

J’ai commencé en disant que Google a deux types de clients, ceux qui cherchent des informations et ceux qui offrent des informations. Il faut bien financer son parc de machines et donc faire payer des clients. Le choix est totalement asymétrique. Ceux qui offrent des informations payent s’ils veulent qu’elles soient connues. Google est devenu la première agence publicitaire mondiale, écrasant tous les autres médias. C’est qu’il offre à ses clients une tarification adapté. Il demande à être payé en fonction du nombre de vues de la publicité. Contrairement à ce qui se passe pour les autres médias (journaux, affiches, prospectus), il offre donc une garantie de visibilité à ses clients payants. Il a donc intérêt pour assurer cette visibilité d’avoir le plus grand nombre de clients qui cherchent des informations. Google est l’un de ceux qui ont supposé qu’il fallait s’appuyer sur la multitude pour gagner de l’argent. Il ne fait donc pas payer ceux qui cherchent. Il va même plus loin.
Pour éviter que certains autres industriels cherchent à compartimenter le marché de l’information (c’est en particulier le cas de quelqu’un comme Apple qui a tendance à obliger ses utilisateurs à n’utiliser que les produits qu’il fabrique). Google va donc offrir gratuitement certains produits. Il déploie Android,  concurrent de Windows et de l’OS d’Apple, Chrome qui concurrence Internet Explorer ou Safari. Il finance aussi les logiciels libres ; il emploie certains des développeurs de Linux, Il est un partenaire majeur de Mozilla, la fondation qui développe le navigateur Firefox. C’est un modèle économique radicalement opposé à celui de Steve Jobs qui souhaitait lui déclarer une guerre thermonucléaire.
Il n’y a là dedans aucune philanthropie. C’est parce que les offreurs qu’il fait payer souhaitent avoir le plus de prospects possibles qu’il développe la gratuité pour les chercheurs.
Il va plus loin. Il donne la possibilité aux chercheurs de devenir offreurs. Tout le monde peut utiliser son application de Cloud, Google Drive pour stocker de ses images, ses vidéos ou ses documents et les diffuser à des amis ou des connaissance. Mais dans ce cas, le chercheur devient offreur d’information. Après l’offre promotionnelle de quelques Giga bits, il faudra payer le stockage et la possibilité d’échanger. Un chercheur qui devient diffuseur est donc un offreur comme un autre qui devra financer l’outil industriel de Google.

Un capitaliste responsable

Il ne faudrait pas conclure qu’Alphabet, le groupe propriétaire de Google est un thuriféraire du logiciel libre, un partisan de la gratuité de l’information et un doctrinaire opposé aux principes de la propriété intellectuelle. C’est d’abord un entrepreneur capitaliste qui adaptera sa stratégie à la maximisation de son profit. L’algorithme du PageRank, le logiciel de son moteur de recherche est breveté depuis l’origine pour éviter toute copie. Google, utilise aussi le secret industriel. On ne peut connaître le code exact des programmes qu’il fait tourner sur ses serveurs.  Il n’hésite pas à attaquer en contrefaçon les industriels qui  copient les résultats de ses laboratoire de recherche (il a ainsi attaqué UBER qui cherchait à rattraper son retard dans le véhicule autonome en débauchant des chercheurs de Google). Le paiement de royalties d’une filiale par une autre, basés sur ces droits de propriété intellectuelle lui permet aussi de faire circuler ses profits d’un pays à l’autre et de les héberger in fine dans des paradis fiscaux.
Par contre on peut parier que son modèle économique serait viable même sans droit de propriété intellectuel. Il est d’abord basé sur l’usage de ces milliers de serveurs, qui constituent la base de son outil industriel. La propriété intellectuelle a permis à Larry Page et Serguei Brin d’entrer dans le cercle fermé des plus grandes fortunes mondiales, mais ils auraient sans doute vécu confortablement si elle n’existait pas.

Bibliographie

Article Google de Wikipedia (état au 13 novembre 2017)
Nil Sanyas, « Google : le nombre et la consommation de ses serveurs », sur pcinpact.com, 2 août 2011
David Evans Richard Schmalensee : de précieux intermédiaires (Odile Jacob ; 2017)

Publié dans big data, maitrise d'ouvrage, propriété intellectuelle, système d'information | Tagué , , , , , | Laisser un commentaire

Les règles d’Elinor 2 : un monde de service

Ostrom2Elinor Ostrom, prix Nobel d’économie 2009 a démontré que même dans un environnement naturel chaotique, une communauté organisée n’avait pas besoin de l’appropriation des biens par un capitaliste pour augmenter la valeur de ses actifs. Elle peut aussi fonctionner sans régulation par l’Etat. Ni capitalisme, ni collectivisme dans ces  communautés auto-organisées.

Le monde incertain du système d’information numérique

En quoi la démonstration d’Ostrom sur les communautés traditionnelles exploitants des ressources naturelles est-elle pertinente dans le monde ultra-moderne des projets numériques.
D’abord, parce que l’un et l’autre fonctionnent dans un environnement incertain. Le changement actuel, c’est l’application de nouvelles technologies à des processus anciens. Cela génère trois inconnues majeures.
La première est que le processus ancien est inconnu. Pour faire réaliser à une machine ce qui était fait par un humain, il faut décrire complètement et en détail le processus opérationnel. Certes celui-ci est souvent encadré par des lois et des règlements intérieurs, mais il ne faut pas présupposer qu’ils sont respectés. Pour permettre au processus de vivre, les acteurs adaptent, s’arrangent avec les règles. L’analyse fonctionnelle devra décrire non seulement le processus théorique décrit par les textes, mais aussi la réalité du travail par les acteurs de terrain. D’où de nombreuses heures d’entretiens et de lectures. Et bien souvent, les concepteurs-développeurs ne seront certains d’avoir tout compris qu’après le démarrage.
Deuxième inconnue, les technologies nouvelles. La loi de Moore conduit à une évolution permanente de l’environnement matériel. La science du logiciel est toute nouvelle et ses possibilités sont infinies. Le concepteur-réalisateur se trouve dans un environnement mouvant. Il espérait utiliser des outils déjà rodés par d’autres projets, dans d’autres contextes. Il découvre en cours de réalisation que ces merveilleux systèmes que lui ont ventés ses fournisseurs ou ses techniciens sont encore en version d’essai (remercions l’inépuisable imagination des ingénieurs systèmes et des architectes techniques). Lorsqu’il a terminé le projet, il découvrira peut-être que ce qu’il a fait est déjà dépassé par d’autres technologies.
Troisième inconnue le changement lui-même. Rien n’indique que ce changement sera accepté par les acteurs. Ceux-ci savent que dans un changement, il y a souvent des gagnants et des perdants. Ces derniers subiront plus de contraintes et de stress qu’auparavant, ou même perdront leur emploi. Leurs routines, leurs habitudes les rassuraient, leur garantissait une autonomie qu’ils risquent de perdre. Ils vont donc résister au changement.
Et cette incertitude liée aux trois inconnues a conduit à l’utilisation systématique des structures projets dans le monde du numérique.

Le projet et les règles d’Elinor

Pour les connaisseurs du fonctionnement des projets et de l’assurance qualité, les règles d’Elinor Ostrom ont quelque chose de familier :

  • choix des membres de l’équipe projet, les gens doivent se connaître, avoir des compétences complémentaires (ce qui suppose que chacun sache ce que doit faire l’autre), un objectif commun ;
  • établissement de règles précises via les contrats, le plan d’assurance qualité, le planning l’analyse de risque ;
  • existence d’un système de surveillance (gloire au PMO) qui contrôle, vérifie en permanence l’atteinte des objectifs ; comme la communauté villageoise tout le monde se connaît dans l’équipe projet, et est capable de dire si l’autre travaille ou profite de ses semblables ; le système de sanction existe mais le mot d’ordre général est « ne chercher pas de coupables, chercher la solution »
  • existence d’instances de pilotage hiérarchisés (Directoire, comité de pilotage, comité de contrats) ; ils permettent aux membres de l’équipe et à ceux qui les entourent de faire évoluer en permanence les règles du projet ; celles-ci ne sont pas un carcan, mais un cadre mouvant qui évolue en fonction des difficultés auxquelles le projet doit faire face.

Tous les projets qui associent un maître d’ouvrage et un maître d’œuvre respectent plus ou moins les règles d’Elinor.

Qui paie ?

Comme le soulignait Bill Gates dans ses débats avec la communauté des hackers californiens, à un moment il faut payer les concepteurs-développeurs. C’est la justification habituelle de la propriété intellectuelle, elle permet au propriétaire fait payer ceux qui veulent utiliser ce bien. Mais elle s’accompagne de multiples inconvénients, elle génère une rente, qui peut largement dépasser le simple retour d’investissement. Elle limite l’échange de connaissance, en autorisant le propriétaire à refuser l’accès aux informations dont il a la propriété. Elle est donc en définitive un frein à l’innovation comme à la concurrence.
Mais si elle est supprimée, comment rémunérer les concepteurs développeurs ?
Certains préconisent de revenir aux vieilles recettes du temps de la guerre froide et de l’ardente obligation du Plan : faire payer l’Etat. Un Système d’information efficace est un bien public comme un autre, comme les routes ou les écoles ; son entretien et son développement devrait être de la responsabilité de l’état ; après tout, l’ordinateur, l’internet ont bien été créés au départ pour des besoins militaires sur des deniers publics.
Cette option se heurte à deux  objections l’une théorique, l’autre pratique.
D’abord, un Etat ne financera pas une activité sans intervenir dans sa gouvernance ; Dans la démonstration d’Ostrom, les participants à la communauté connaissent mieux que tout autre ce qu’ils veulent et la façon d’y parvenir : la gouvernance par un externe, fonctionnaire de l’Etat ou mandataire d’un propriétaire actionnaire sera toujours moins efficace que celle par les membres de la communauté auto-organisée.
Ensuite les Etats ont entrepris depuis trente ans de se retirer des services publics, pour concentrer les dépenses sur les pouvoirs régaliens (police, armée, justice…) et les services sociaux (santé, chômage, revenu minimum, retraites…), il est improbable qu’ils reviennent en arrière pour financer le système d’information numérique.

Une économie de services

L’outil numérique sert principalement à échanger et  à produire des services.
C’est l’utilisation première de ces outils pour les maîtres d’ouvrages classiques. Par exemple, lorsque les banquiers font développer du système d’information, ce n’est pas pour vendre des algorithmes ou du code (ou alors très marginalement). C’est pour mieux faire leur métier, augmenter leur volume de vente de prêts d’actions et tout autre produit financier.
De même, les nouveaux acteurs du numérique, Google, Facebook, Uber, Airbnb, Blablacar, vendent du service et non du code. Le cyberespace a modifié le modèle industriel de base du système d’information numérique. Auparavant, les fabricants vendaient des logiciels et des machines. Maintenant, ils proposent d’utiliser des logiciels sur leurs machines dans le Cloud, auxquelles  l’utilisateur accède via internet. La propriété intellectuelle ne joue plus un rôle central dans leur modèle économique contrairement celui de leurs prédécesseurs, Apple ou Microsoft. Elle s’efface lentement.

Bibliographie

Elinor Ostrom : Gouvernance des biens communs (De Boeck ; 2010)
Benjamin Coriat et autres : Le retour des communs : la crise de l’idéologie propriétaire (les liens qui libèrent ; 2015)

Publié dans gouverner, propriété intellectuelle, système d'information | Tagué , , , , | Laisser un commentaire

Les règles d’Elinor 1 : Y-a-t-il un propriétaire dans l’avion ?

Ostrom 1J’ai consacré plusieurs chroniques à parler d’Oliver Williamson, Prix Nobel d’économie 2009. Je n’ai pas parlé d’Elinor Ostrom qui a été honorée en même temps que lui. Pourtant elle peut nous apprendre beaucoup sur la gouvernance d’un système d’information.

Retour sur les coûts de transaction

En m’appuyant sur les travaux de Williamson j’ai essayé de montrer que la fabrication d’un système d’information numérique ne répond pas aux règles de l’économie classique. Ni l’économie de marché, ni l’économie planifiée à la soviétique ne permettent de faire un programme performant pour un coût acceptable. Il ne suffit pas de commander un travail à un prestataire après l’avoir mis en concurrence. Il ne suffit pas non plus de donner un ordre à un salarié.
La réalisation d’un système d’information adapté, demande un délai, et pendant ce délai, il faudra faire travailler ensemble différents acteurs aux compétences pointues (concepteurs, développeurs, architectes et urbanistes, testeurs, chargés de reprise ou de la conduite du changement, PMO). Ces acteurs devront échanger de multiples informations pour créer ensemble le nouveau système : connaissance du processus que l’outil numérique doit aider à réaliser, connaissances des possibilités permises par ces outils numériques, compétences des acteurs du projet). Tant que ces informations n’auront pas été toutes échangées, il ne sera pas possible d’établir un prix définitif (alors que le signal prix est la base de la mise en concurrence en économie de marché). C’est ce travail d’échange d’information que Williamson appelle les coûts de transaction, qui empêchent l’établissement d’un prix crédible.
C’est pourquoi ces échanges doivent être organisés par un contrat, dans lequel les différents partenaires s’entendent sur l’objectif à atteindre, les règles du jeu à respecter et la manière dont se partageront les bénéfices.
Il y a une question à laquelle Williamson ne répond pas vraiment : à qui doit appartenir le produit terminé ?
La question de la propriété des biens est au contraire l’objet des travaux de l’économiste américaine Elinor Ostrom.
Avant de venir à l’impact des travaux d’Ostrom sur le numérique, il faut présenter ces travaux qui portent sur l’utilisation des ressources naturelles, l’eau, la foret, les bancs de poissons.

Opportunisme

Ostrom part des mêmes présupposés anthropologiques que Williamson :

  • l’être humain cherche toujours à tirer le plus d’avantage d’une situation (l’économiste dit qu’il cherche à maximiser son profit),
  • En même temps, il ne dispose pas de toutes les informations lui permettant de connaître son intérêt véritable, et surtout il ne sait pas comment agiront les autres acteurs économiques (il est dit en situation de rationalité limitée).

La conjonction de ces deux facteurs fait qu’il y a un risque de comportement opportuniste des acteurs. Ceux-ci profiteront de l’insuffisance d’informations des autres. Ils chercheront à tirer le maximum d’avantage, au détriment de leurs semblables et de la collectivité. Orstrom montre que ce comportement est quasi-inéluctable. Pour cela elle s’appuie sur la théorie des jeux et le fameux dilemme du prisonnier (voir l’article très explicatif de Wikipédia sur le dilemme du prisonnier).

La tragédie des communs

Que se passe-t-il lorsque ces acteurs opportunistes doivent partager une ressource naturelle : prairie, eau, foret, bancs de poissons. Ne risquent-ils pas de l’exploiter jusqu’à l’épuisement, à la disparition du moindre brin d’herbe, de la moindre goutte, de tous les arbres ou tous les poissons. Ce risque est d’autant plus grand, que l’étendue exacte de ces ressources est inconnue. Suivant la météo, les maladies, la nature du sous-sol et toute sorte d’aléas, ces ressources peuvent disparaître et chacun s’efforcera d’en prendre la plus grande partie. La réponse classique est qu’il faut un pilote dans l’avion. Il faut un propriétaire, privé ou public de cette ressource naturelle qui protégera ce bien et régulera son utilisation.
Le biologiste Garrett Hardin, a dans les années 60 formalisé cela dans ce qu’il a appelé la tragédie des biens communs. Des terres mises en commun sans régulation par un propriétaire ou un Etat, sont exploitées jusqu’à leur épuisement par ceux qui les utilisent, du fait de leur comportement opportuniste. En somme, entre la propriété privée et le collectivisme soviétique, il n’y aurait pas de milieu, pas de solution qui permette la protection des actifs dont tout le monde a besoin. La tragédie des biens communs apporte une justification théorique à l’appropriation des biens par des capitalistes ou par l’Etat.

Les critiques d’Ostrom

Ostrom fait diverses critiques à cette justification de la propriété, dont deux principales :

  • Ceci ne correspond pas à l’expérience réelle. Il existe sur Terre des exemples de ressources naturelles qui ne font pas l’objet d’appropriation par une personne ou par l’Etat, et qui pourtant sont exploitées de manière raisonnée parfois depuis plusieurs siècles ; que ce soit dans les zones irriguées du pourtour méditerranéen ou du Sud-Est asiatique, dans les forets du Japon, les réserves d’eau de la Californie, ou dans les pêcheries de la Nouvelle Angleterre, partout dans le monde se trouvent des exemples où les gens ont réussi à s’entendre sans présence d’un suzerain propriétaire ;
  • La théorie de la tragédie des communs répond au pourquoi et non au comment se fait l’optimisation de la gestion des ressources. Elle affirme que le propriétaire a intérêt à faire fructifier son bien et donc qu’il fera ce qu’il faut pour qu’il ne soit pas surexploité ; cela ne dit pas comment il s’y prend pour obtenir cette régulation ; et même comment s’assurer le propriétaire souhaite conserver son bien. Il peut très bien avoir lui-même un comportement opportuniste, visant à épuiser son bien sans soucis de ce qu’il transmettra à sa descendance ; « Après moi le déluge » ; il peut aussi se conduire en prédateur nullement préoccupé de la conservation du bien.

Les règles d’Ostrom

A partir de ces exemples, Elinor Ostrom entreprend de refonder l’analyse du fonctionnement de la gouvernance.
Elle dégage plusieurs constances :

  • Toutes ces communautés qui s’autogouvernent rassemblent des agents économiques ayant des comportements et des intérêts communs ; Dans ces communautés villageoises le comportement opportuniste de l’un se voit immédiatement ;
  • Les règles que ces communautés se donnent sont à chaque fois adaptées au contexte ; elles ne sont pas toujours optimales par rapport à la situation, mais, ont été faites par les membres de la communautés dans un processus d’essais et d’erreurs ; le résultat sont des règles acceptées par tous, et permettant un fonctionnement minimal de la communauté ;
  • Chaque communauté s’est dotée d’un système de surveillance et de sanctions permettant de gérer les comportements opportunistes. La surveillance est caractérisé par son intégration dans le processus de production (au minimum les surveillants font partis des membres de la communauté, au mieux, la surveillance se fait à travers le processus de production) ; les sanctions sont très progressives ; l’idée est moins de punir ceux qui ont eu un comportement opportuniste que de leur rappeler les règles auxquelles ils doivent obéir ;
  • Chaque communauté s’est dotée d’un système structuré d’arbitrage, qui permet à la fois de régler les conflits et d’adapter les règles aux évolutions de la situation.
  • Les communautés ainsi constituées peuvent aussi échanger avec d’autres communautés constituant des chaines de communauté, liées entre elles par des règles respectant que celles qui viennent d’être exposées.

Ces règles ont un double effet pour le personnage opportuniste. Certes l’environnement naturel, économique et social, reste incertain, mais il sait que la surveillance permettra de détecter et sanctionner le comportement opportuniste qu’il pourrait avoir. Il sait aussi que les autres membres de la communauté sont également contraints par ce réseau de lois, de surveillance, de sanction et de mécanisme d’arbitrage. Ainsi le comportement des uns et les autres devient prévisible et permet des décisions informées.

Les règles que propose Ostrom n’ont rien de spécifique aux communautés auto organisées. Elles peuvent être mises en œuvre par un propriétaire pour gérer son actif ou un Etat pour gérer son domaine public. Mais elles montrent surtout que l’efficacité de la gouvernance n’est pas liée à la présence d’un chef de droit divin (chef d’Etat ou propriétaire tout puissant). L’appropriation du bien collectif par une personne ou par un Etat n’est plus la condition d’une bonne gouvernance.

Bibliographie

Elinor Ostrom : Gouvernance des biens communs (De Boeck ; 2010)

Publié dans gouverner, propriété intellectuelle, système d'information | Tagué , , , | Laisser un commentaire

Les métamorphoses d’Hendrix

GABI GUITARES 2Cette chronique échappe par son format et son sujet aux habituelles chroniques de ce blog consacré au numérique. Elle est l’occasion pour un fan de se faire plaisir, tout en s’excusant de sa longueur inusitée. Elle n’est cependant pas complètement hors sujet.
Un nouvel album d’Hendrix, Both Sides of the Sky, paraît en ce mois de mars 2018. Quarante-huit ans après sa mort, le guitariste continue de publier des œuvres originales. Cet exploit ne doit rien au spiritisme, aux techniques d’Alan Kardec ou de l’art de faire tourner les tables pour écouter l’âme des morts. Mais il doit beaucoup aux techniques du numérique et aux méandres du droit de propriété intellectuelle, sujets de ce blog.
Cette histoire mérite d’être contée.

Les enregistrements d’Hendrix

L’ancien bassiste du groupe The Animals, Chas Chandler décide en 1966 de se reconvertir. Son groupe a connu un énorme succès en 1964 avec House of the rising sun, mais il est en perte de vitesse. Chas souhaite devenir manager. En octobre 1966, il débarque à l’aéroport de Londres avec un guitariste prodige qu’il a rencontré à New York, James Marshall Hendrix.
Il lui donne un nom de scène, Jimi Hendrix, et réunit autour de lui une petite équipe. L’ancien manager du groupe The Animals, Mike Jeffery l’épaule pour la partie administrative et commerciale. Mitch Mitchell et Noel Redding deviennent respectivement batteur et bassiste du groupe. Au cours des premiers enregistrements le groupe est rejoint par un ingénieur du son, Eddy Kramer. Celui-ci va jouer un rôle important dans le processus créatif. Seul membre de l’équipe à avoir une véritable éducation musicale (Hendrix lui même ne sait ni lire ni écrire la musique), le sud-africain Eddy Kramer apportera un surcroit de compétence important pour l’équilibre général.
La formule musicale est novatrice. Les Who ont été le premier groupe à succès composé d’un chanteur, d’une guitare, d’une basse, et d’une batterie, Depuis Armstrong, la section rythmique comprenait trois à quatre musiciens, batterie, basse, piano et ou guitariste, devant lesquels s’agitaient un chanteur et un ou plusieurs solistes. Cette formule est encore celle des Beatles, des Stones ou des Animals. Les Who simplifient radicalement le groupe, plus de guitariste rythmique ou de clavier. Cela impose plus de rigueur aux membres, pour tenir le tempo ou l’harmonie. Mais elle apporte aussi beaucoup de liberté aux musiciens. Les Who deviennent célèbres avec leur batteur fou, Keith Moon, qui apporte un contrepoint riche au chanteur Roger Daltrey et au guitariste, Pete Thomsen. Leur bassiste John Entwistle n’hésite pas à faire un solo, comme sur le premier succès du groupe, My Generation en 1965, et lui aussi, au lieu de se contenter de tenir le rythme fournit un complexe contrepoint.
Un autre groupe, Cream est formé en 1966 autour d’Eric Clapton. Il adopte la même formule instrumentale, mais avec plus de virtuosité (Jack Bruce et Ginger Baker qui tiennent la basse et la batterie sont à l’origine des musiciens de jazz).
Le Jimi Hendrix Experience est dans la continuité des Who et de Cream. A la formule novatrice du groupe, il ajoute la personnalité d’Hendrix lui même. C’est un homme jeune (il a 24 ans en 1966). Il n’hésite pas aussi bien en studio que sur scène à utiliser tous les ressources que permet l’amplification de l’instrument : distorsion, larsen, pédales d’effet, empruntant à Pete Thomsen et à Eric Clapton. En même temps il est un noir américain. Il apporte une voix, une compétence dans le blues, qui donne une profondeur humaine inusitée au groupe, l’impression d’entendre la musique d’une autre époque et d’un autre lieu (beaucoup de vieux bluesmen reconnaîtront Hendrix comme l’un des leurs).
La petite équipe ainsi constituée, avec des remaniements va enregistrer jusqu’à la mort du guitariste en septembre 1970. Elle a signé un contrat avec Track Record, la compagnie d ‘enregistrement des Who et de leurs managers Chris Stamp et Kit Lambert.
Les enregistrements réalisés par cette équipe peuvent se classer en trois groupes :

  • studio : cela comprend les morceaux destinés à être publiés, des essais préalables, parfois avec d’autres musiciens, des répétitions pour préparer les concerts, des séances parfois interminables où Hendrix tente de créer des formes musicales. Se rattachent à ce bloc des enregistrements de travail, avec une guitare acoustique pour créer de nouveaux morceaux, ou les enregistrements de la BBC (pour éviter de payer des droits aux maisons de disque, la chaine publique anglaise faisait réengistrer aux groupes leurs morceaux) ; ne sachant pas lire la musique, et en même temps perfectionniste maladif, Hendrix ne cesse d’enregistrer pour s’écouter et écouter le travail de ses accompagnateurs ;
  • publics : Le groupe va donner du 13 octobre 1966 au 6 septembre 1970, 527 concerts répertoriés. Il a sans arrêt besoin d’argent. Pour soutenir un train de vie échevelé, mais aussi pour financer les séances d’enregistrement, et à partir de 1969, la construction de son propre studio à New York. Les concerts sont un moyen rapide pour faire rentrer de l’argent. Outre les enregistrements pirates de qualité incertaine, une vingtaine de ces concerts ont été enregistrés de manière professionnelle, soit pour préparer la publication d’un éventuel album public, soit parce qu’ils avaient lieu dans le cadre d’un festival dont les promoteurs espéraient tirer documentaires et disques souvenirs ; la connaissance de la musique d’Hendrix passe beaucoup par ces concerts, car l’interprétation pouvait beaucoup changer d’un concert à l’autre et par rapport aux enregistrements studio. D’autre part, le groupe faisait beaucoup de reprises de morceaux d’autres artistes qui n’existent que dans les version concert ;
  • Les enregistrements d’avant la gloire : Hendrix lorsqu’il est découvert a déjà plusieurs années de carrière. C’est un musicien compétent qui a beaucoup tourné dans le Chitlin Circuit, le circuit des salles destinées au public afro-américain. Il a travaillé avec des gens comme Little Richard ou les Isley Brother. Il a aussi enregistré pour des musiciens moins connus comme Lonny Youngblood ou Curtis Knight. Dans tous ces enregistrements, Hendrix est un simple collaborateur, mais les artistes et producteurs qui les ont fait s’efforceront ensuite de profiter de sa gloire. Surtout les séances avec Knight font l’objet d’un contrat d’exclusivité pour trois ans avec le producteur Ed Chalpin, signé le 15 octobre 1965. Ce document va jouer un rôle majeur dans la publication des enregistrements.

A partir du moment ou Hendrix sera devenu célèbre, Chalpin se rappellera à son souvenir pour réclamer sa part du gâteau. Il possède le droit d’édition sur tout enregistrement du musicien du fait de ce contrat. Les producteurs et managers qui ont financé ces enregistrements n’entendent pas se faire voler par ce coucou venu de nulle part, et vont longuement négocier avec lui pour limiter ses prétentions.
Pour compliquer encore un peu plus la situation, l’équipe a besoin de faire rentrer de l’argent. Contre des avances financières, Mike Jeffery cède les droits des concerts enregistrés.
En synthèse, au moment de la mort du guitariste il existe une montagne d’enregistrements, dont seulement une partie est publiée, et dont la propriété intellectuelle se repartit entre une multitude d’intervenants.

Les publications du vivant d’Hendrix

On résume généralement les publications du vivant d’Hendrix à trois albums studio etGabi guitare un live. C’est une vue réductrice qui rend mal compte de la réalité.

L’ère Chandler

De octobre 1966 à avril 1968, Chas Chandler est aux commandes. C’est à l’époque de la transition entre le 45T et le 33T. Les artistes sont invités à publier des 45T avant d’être autoriser à sortir des albums, plus onéreux à produire.
Le groupe publie un premier 45T le 16 décembre 1966, avec en face A Hey Joe qui est un succès immédiat. Ils enchainent avec deux autres 45T, dont le premier contient Purple Haze qui est aussi un succès. Enfin le premier album Are you experienced paraît le 12 mai 1967. Il ne contient aucun des titres des 45T. Cependant c’est un succès (2ème au classement des ventes au Royaume Uni). Mais le distributeur américain demande que les faces A des trois 45T soient réintroduits sur l’album, au détriment d’autres morceaux (en particulier de Red House qui sera un des titres les plus joués en concert). Cette version aménagée est publiée en aout 1967 et connaît aussi le succès (en juin, Hendrix vient de voler la vedette à tous les groupes présents au Monterey Pop Festival). Un autre 45T parait en août, avec le titre Burning of the Midnight Lamp.
Un deuxième album est publié en décembre 1967, Axis : Bold as Love. Le son est enrichi par l’apport d’instruments extérieurs comme le piano, la flute, ou le glockenspiel. Des effets stéreo sont ajoutés. Mais globalement ce deuxième album produit par Chas Chandler est dans la lignée du précédent (et il ne contient pas toujours les titres du 45T)
Le groupe a à peine plus d’un an d’existence, mais il publie une compilation des meilleurs titres. Smash Hits sort en avril 1968 en Grande-Bretagne. Il contient tous les titres de 45T, plus quelques titres de Are you Experienced. Les fans américains devront attendre juillet 1969 pour avoir cet album dans une version très remaniée. Elle contient les titres retirés de la version américaine de Are you Experienced, dont Red House dans une version différente de celle de l’album original. Sont aussi ajoutés des titres de Electric Ladyland.
A ce stade, le Jimi Hendrix Experience a enregistré 3 albums dont deux dans des versions différentes selon les continents. Les fans britanniques qui ont les deux premiers albums, sont obligés d’acheter la compilation s’ils veulent avoir les plus gros succès du groupe.

Electric Ladyland

En 1968, Chandler et Hendrix ne peuvent plus se supporter. La rigueur de l’un fait mauvais ménage avec l’indiscipline et le perfectionnisme maniaque de l’autre. Le manager part pendant les séances d’enregistrement de la nouvelle œuvre. Electric Ladyland sort en octobre 1968 et est un énorme succès. C’est un double album, même si la maison de disque Tracks Record publie une version en un seul disque (avec la face 2 et 4 de l’album original). Il est considéré, à raison comme l’acmé de l’œuvre d’Hendrix. C’est en même temps une œuvre à part.
Les enregistrements de l’époque Chandler ont été fait, à Londres par une très petite équipe, les trois musiciens, Chandler et Eddy Kramer et un ou deux ingénieurs du son différents. Electric Ladyland voit intervenir de nombreux musiciens additionnels comme Stevie Winwood ou Buddy Miles. Redding est écarté de beaucoup de séances d’enregistrements (il obtient cependant d’avoir une de ses compositions enregistrée). Le studio est le quatrième instrument du groupe. Il permet de faire des effets spéciaux, d’ajouter des instruments en réenregistrant sur les bandes, de faire tourner les bandes à l’envers… Quasiment aucun des morceaux ne sera joué en public. Sur les 16 titres de l’album seulement trois seront joués en concert : Burning of the Midnight Lamp, mais c’est un titre de la période Chandler, et il n’est joué régulièrement sur scène que pendant ces deux premières années ; All along the watchtower, le hit du disque, mais il n’est joué que dans les tous derniers concerts en 1970 ; Voodoo Child (Slight Return) sera le seul morceau à s’imposer durablement dans la liste des morceaux joués en concert.
Electric Ladyland est une œuvre de studio où les techniques d’enregistrement comptent autant que les instruments joués, et donc difficilement reproductible sur scène (à l’époque les Beatles ont totalement arrêté de jouer sur scène).

Les albums publics publiés du vivant d’Hendrix

1969 est une année blanche en matière de publication. Le groupe tourne sur scène pour faire rentrer de l’argent. En Juin, Noel Redding s’en va, remplacé par un ancien ami d’Hendrix, Billy Cox. Par ailleurs les avocats s’agitent pour régler le problème Ed Chalpin.
Un accord est trouvé pour désintéresser le producteur. Hendrix publiera un album en public, dont Chalpin aura les droits en contrepartie de l’abandon de ses autres exigences. Band of gypsys sort en mars 1970. C’est le résultat d’une série de concerts publics au Fillmore East. Il ne contient que des titres originaux, joués par un groupe d’afro-américains, habitués du Chitlin Circuit. Hendrix est accompagné par Billy Cox et Buddy Miles, deux anciens amis. C’est loin d’être un disque bâclé. Certes le choix de l’enregistrement public vise à limiter la location de studio, certes aussi deux titres de Buddy Miles sont introduits, limitant la part d’Hendrix. Mais ces titres ne sont pas mauvais et l’enregistrement fait l’objet une travail important de post-production en studio. En mars, le groupe se sépare. De nombreuses explications ont été avancées, mais le plus probable est que l’association avec Buddy Miles n’était pas viable. Miles était une forte personnalité, leader de groupe. Le timide Hendrix ne devait pas parvenir à contrôler. Si Hendrix voulait rester la vedette principale, le départ de Miles était nécessaire.
Mais l’album le plus important de cette période, c’est le documentaire de Woodstock.
En aout 1969, le festival a été un désastre artistique pour Hendrix.
Hendrix a beaucoup préparé le concert, prévoyant sans doute d’en faire le point de départ d’une nouvelle carrière. Il s’achète une superbe tenue de scène, une veste à franche rappelant ses origines indiennes. Il recrute un groupe ad hoc, le Gypsy Sun and Rainbow. Celui ci comprend à coté du trio habituel, composé de Billy Cox et Mitch Mitchell et lui même, un guitariste rythmique, Larry Lee et deux percussionnistes, Juma Sultan et Jerry Velez. Le groupe répète un répertoire totalement différent de celui de l’Experience.
Le concert d’Hendrix doit être le point d’orgue final du festival. Mais du fait des retards pris, il n’arrive sur scène que le lundi matin, alors que presque tous les festivaliers sont partis. Faute de répétitions, fatigué par l’attente, le groupe joue mal. Le public est sans doute surpris par un répertoire qu’il ne connaît pas, et finalement Hendrix le récompense en jouant ses succès habituels.
Le concert a aussi été un désastre commercial pour les organisateurs, la plupart des spectateurs n’ayant pas payé. Le documentaire (film et disque) doit permettre aux organisateurs de se refaire. Le film sera le documentaire musical le plus vendu de l’histoire. Le triple album, Woodstock: Music from the Original Soundtrack and More paraît en mai 1970, il se vend bien aussi et se termine par quinze minutes extraites du concert d’Hendrix. Elles ont fait l’objet d’un travail de post production important. Les musiciens additionnels sont effacés (il n’est possible d’entendre que le trio de base). De la séquence finale sur concert sont extraits, avec plusieurs coupures, l’hymne américain, Star Spangled Banner, Purple Haze, et une longue ballade Villanova Jonction. L’ensemble doit beaucoup au travail en studio et les spectateurs n’ont pas du entendre la même chose.
Mais ces quinze minutes ont le mérite d’être un résumé exceptionnel de l’époque. A la fureur bruitiste entre free jazz et musique contemporaine de l’interprétation de l’hymne américain succède le rock ouvertement sexuel de Purple Haze. Le tout termine par le blues mélancolique de Villanova Jonction. Bien que n’étant sur aucune publication officielle d’Hendrix, cet enregistrement est sans doute la plus célèbre du musicien.
Ce documentaire étant un succès et l’album studio n’étant pas prêt, les producteurs décident de refaire le coup avec le festival de Monterey. Historic Performances Recorded at the Monterey International Pop Festival est publié en août 1970 (deux ans après l’événement). Il comprend une face avec le Jimi Hendrix Experience et une face avec Otis Redding, artiste de soul mort dans un accident d’avion en décembre 1967. C’est un mariage curieux entre deux artistes ayant des publics très différents, malgré des racines communes. Il comprend la célèbre interprétation de Wild Thing des Troggs, qui clôture le concert avec l’incendie et la destruction de la guitare.
A ce stade il existe donc quatre album studio (Experienced, Axis, Smash Hits, Electric Ladyland) et trois album en public (Band of Gypsys, Woodstock et Monterey) indispensables pour connaître l’œuvre d’Hendrix.
A coté Chalpin a sorti ses disques avec Curtis Knight en les ornant de magnifiques photos de concert de l’Experience n’ayant pas grand rapport avec le contenu.
Mais l’album studio qui doit succéder à Electric Ladyland n’est toujours pas paru.

L’ère Jeffery

Hendrix meurt le 18 septembre 1970 à Londres d’une overdose de somnifères.
Mike Jeffery, son manager, n’a plus d’artiste mais il est toujours engagé à sortir deux albums. Il demande donc à l’équipe restante, Eddy Kramer, Mitch Mitchell et Billy Cox, de finir le travail.
Cry of Love sort en mars 1971. Ce n’est certainement pas l’album qu’aurait sorti Hendrix. Il ne comprend pas le titre évident qui aurait pu tourner sur les radios. Il ne comprend pas non plus la grande suite comme il en avait fait avec la troisième face d’Electric Ladyland. Mais tel quel il est un témoignage de l’évolution d’Hendrix. Une plus grande complexité rythmique, l’emploi de percussions additionnelles, l’utilisation de figures rythmiques et harmoniques s’enchevêtrant montre un profond changement, en ligne avec l’évolution d’un groupe comme Santana et surtout ce que feront les musiciens noirs avec des albums comme What’s going on, ou les disques du Miles Davis électrique. On comprend mieux ce qu’il a essayé de faire à Woodstock, avec son groupe de six musiciens, sans être sur qu’il aurait été capable de parvenir à une formalisation définitive sur scène.
Le deuxième album annoncé est Rainbow Bridge paru en octobre 1971. Le stock d’enregistrement studio apparaît déjà n’être pas inépuisable. A coté de trois enregistrements venant des séances préparatoires au futur album, il y a une chute des séances avec Noel Redding (Look over younder), un morceau enregistré avec le Band of Gypsys (Room full of mirrors), un morceau en public (Hear my train is coming), et deux instrumentaux (Pali Gap et une version studio de l’arrangement du Star Spangled Banner). Il n’est déjà plus possible de produire un album cohérent avec ce qui reste. C’est cependant encore un très bon album.
Cette même année 1971, Jeffery publie deux disques extraits de concert, Expérience qui présente quatre titres du concert de la formation avec Noel Redding à l’Albert Hall, et Isle of Wight, qui présente une partie de la prestation réalisée à l’occasion du festival tenu sur cette ile en 1970.
L’année qui suit la mort d’Hendrix est donc celle où se publient le plus d’album du guitariste.
Jeffery aurait pu s’en tenir là. Il a publié l’essentiel des titres studios proches de l’achèvement et il n’a pas tous les droits sur les concerts. Il décide de continuer cependant sur un rythme équivalent en 1972. Sortent In the West, extraits de concerts divers, dont Jeffery masque l’origine car il n’a pas tous les droits sur les enregistrements, More Expérience, un autre extrait des concert de l’Albert Hall, et un dernier album studio produit par Eddy Kramer, War Heroes.
En 1973 il commence l’année avec Loose Ends. Eddy Kramer a jeté l’éponge et est remplacé par son ancien assistant , John Jansen qui signe d’un pseudonyme. On commence à faire dans le glauque et l’inutile. Paraît aussi en août 1973 Soundtrack Recordings from the Film Jimi Hendrix, bande son d’un film sur le musicien. Ce double album, peut contenter les amateurs de concerts.
En parallèle les anciens patrons d’Hendrix s’efforcent de profiter de la gloire de ce collaborateur qu’ils ont un peu fréquenté. Little Richard, Lonny Youngblood, les inévitables Chalpin et Knight publient des albums avec de superbes photos ou dessins de Hendrix. Des pirates réussissent à avoir accès à des bandes de concert. Le concert de Stockholm, celui de l’Olympia circulent parfois de manière quasi-officielle.
La période Jeffery s’achève brutalement le 5 mars 1973 avec la collision de deux avions au dessus de Nantes. Le manager qui avait embarqué dans le vol d’Iberia meurt sur le coup.

Les débuts de l’ère Douglas

Jeffery est maintenant décédé, mais il reste une montagne de bandes magnétiques non publiée. La compagnie de disque demande au producteur Alan Douglas de valoriser ce qui reste. Douglas (1931-2014) est un producteur connu dans le jazz. Son fait d’arme le plus célèbre est Money Jungle, publié en février 1963 par un trio composé de trois grands du jazz, Duke Ellington, Charles Mingus et Max Roach. Il a un peu travaillé avec Hendrix dans sa période Band of Gypsys.
Douglas plonge dans la montagne et comprend rapidement que l’essentiel est déjà exploité. Il ne reste que des prises différentes de titres déjà publiés, des morceaux pas terminés ou comportant des fautes grossières des musiciens.
Douglas va alors effectuer l’irréparable. Il ne garde que les pistes de la voix d’Hendrix et de sa guitare, et demande à des musiciens de compléter l’enregistrement. De plus, comme il a du totalement réarrangé ces morceaux, il les cosigne en tant qu’auteur au coté d’Hendrix. Il publie avec ce procédé deux albums, Crash Landing en mars 1975 et Midnight Lighting en novembre de la même année. Le succès est au rendez-vous à nouveau mais le scandale est énorme parmi les fans, au point que Douglas et la maison de disque ne publient plus rien pendant cinq ans.
Il recommence les publications à partir de 1980. Mais il ne s’agit plus alors que d’enregistrements plus confidentiels. Il travaille pour des amateurs de musique pour qui l’authenticité à de l’importance. Il publie ainsi en 1980 Nine to the Universe, un album instrumental avec des musiciens de jazz, donne des versions plus complètes des concerts, dont la maison de disque rachète progressivement les droits pour pouvoir les éditer.

GABI GUITARES 3L’arrivée du numérique

Surtout à partir de l’arrivée du compact disc en 1982 il se charge de la réédition du catalogue original. Le Compact est un format numérique, plus petit, plus maniable, avec moins de souffle. Il est au départ refusé par les amateurs de musique car la bande passante est souvent compressée, donnant des publications moins brillantes, moins claires que les disques analogiques. Mais les techniques du numériques permettent également remastériser les bandes, et de faire ressortir des détails disparus, et d’allonger la durée des disques. Il republie ainsi les trois albums originaux. Il ajoute à Are You Experienced les titres des trois 45T originaux, ce qui évite de devoir rééditer Smash Hits. Electric Ladyland sort dans une version sur un CD. Il ajoute aussi des titres au disque Band of gypsys, annonçant la mode des suppléments que toute l’industrie musicale va adopter. Les titres sont remastérisés. On entend désormais le moindre halètement. S’il avait connu les nouvelles techniques Hendrix aurait-il voulu cela ? Le brouillard sonore qui entourait l’édition originale de Purple Haze n’était-il pas un effet recherché, ou une limite de la technique analogique ?
Il fait aussi le choix de ne pas rééditer les disques de l’ère Jeffery. Il justifie cela par des choix musicaux, mais le plus probable est que les héritiers de Jeffery pouvaient avoir des prétentions sur ces disques posthumes et qu’il n’était pas question de partager le magot.
Enfin en 1995, il réussit un coup de maître. Il publie l’album Blues, sans doute le disque posthume ayant eu le plus grand succès. Blues rassemble des morceaux de blues joués à diverses époques par Hendrix. Les deux morceaux principaux sont l’enregistrement public de Hear my train is coming déjà publié sur Rainbow Bridge, et une nouvelle version de Voodoo Chile, le grand blues qui se trouve sur la première plage d’Electric Ladyland. Cette version est faite à partir de plusieurs versions de travail. Mais, la technique ayant évoluée, il n’y a plus besoin de musiciens additionnels pour raccorder les morceaux. Comme un logiciel de retouche photo permet de traiter séparément la lumière le contraste et la couleur, le numérique permet de retoucher séparément la tonalité, le timbre et le tempo. Cela était impossible en analogique. En accélérant un bande on pouvait mettre toutes les pièces au même tempo, mais le raccord se voyait car alors la partie accélérée avait une tonalité plus aigue. Ce tripatouillage numérique est beaucoup moins voyant car il évite d’avoir à faire appel à des musiciens additionnels comme sur Crash Landing.
Enfin en avril 1995 il publie Voodoo Soup, sa version de l’album posthume. Celle-ci est d’un esprit différent de celui de Cry of Love. Ce dernier regroupait uniquement des enregistrements de la dernière équipe qui entourait Hendrix. Alan Douglas se sert plus largement dans les titres enregistrés après Electric Ladyland. C’est de peu d’importance car la carrière de ce disque va être très courte.

L’Experience Hendrix LLC

En effet, le 26 juillet 1995, une cours de justice reconnaît à Al Hendrix, le père du musicien les droits sur l’image et la musique de son fils. Le père se battait depuis la mort de Jimi.
Désormais les droits sont gérés par une structure familiale, Experience Hendrix LLC, qui sera seule juge de ce qui peut être publié, et avec laquelle les compagnies de disque doivent négocier. En 2002 à la mort du patriarche, la direction passe à Janie Hendrix, sa fille adoptive, née d’un premier mariage de sa deuxième femme. Suit un procès avec Leon, le frère biologique de Jimi. Celui sera débouté en 2004, le tribunal reconnaissant que son père l’avait déshérité.
Les différentes manipulations, réarrangements faites sur les enregistrements dans la période posthume pouvaient donner des droits de création à ceux qui les avaient effectué. Afin d’éviter tout risque de nouveaux recours juridiques, Experience Hendrix LLC décide de ne rééditer aucuns des albums posthumes. Exit donc les publications de la période Jeffery, mais aussi la quinzaine d’albums publiés par Alan Douglas (dont deux quadruples). Seuls échappent au massacre Blues, qui a été un immense succès, et Soundtrack Recordings from the Film Jimi Hendrix, le film d’où elle est tirée restant le meilleurs témoignage d’Hendrix sur scène. On repart donc balle neuve.
Al et Janie s’entourent de John McDermott, un musicologue, et de Eddy Kramer pour tout republier. La nouvelle équipe comprend la famille, un spécialiste connu de sa musique, et un vétéran ayant longuement travaillé avec le guitariste. Elle choisit de publier sous deux formats : les publications « grand public » sont pris en charge par une grande entreprise (MCA puis Legacy, division de Sony chargée des republications du catalogue de la maison de disque) ; celles qui s’adressent aux spécialistes et amateurs éclairés paraissent sur un label créé ad hoc, Dagger Record, à la distribution plus confidentielle. La composition de l’équipe comme la politique éditoriale apporte donc caution morale, et sérieux de l’approche.
Cette nouvelle équipe publie en avril 1997 First Rays of the New Rising Sun, la nouvelle version de l’album posthume d’Hendrix. C’est donc la troisième tentative après Cry of love et Voodoo Soup. En fait c’est une version étendue de Cry of Love, avec les mêmes options : titres venus des sessions de l’été 1970, mêmes prises, mêmes arrangements. C’est aussi le même producteur (Eddy Kramer). Il ajoute donc aux titres de Cry of Love, quatre titres de Rainbow Bridge, et trois de War Heroes (Ce sont les albums posthumes qu’il avait produit). Manifestement, vingt ans avaient passés, mais Kramer était resté fidèle à ses options.
Les amateurs d’inédits purent se rattraper avec l’album suivant South Saturn Delta, qui sur 15 titres comportait 5 inédits et trois versions différentes de titres parus du vivant du guitariste. Mais le disque manque de cohérence artistique. Certains titres sont des morceaux déjà publiés mais quasiment achevés par Hendrix, d’autres étaient des versions de travail, d’autres enfin étaient des chimères, des compositions recréées en raboutant des morceaux comme cela avait été fait pour Blues.
Entretemps, les pirates continuent à publier massivement. La disparition progressive des éditions d’Alan Douglas laissait la place pour contenter les amateurs. Il circule encore beaucoup de bandes, malgré le travail de rachat de droit qu’avait du faire l’équipe Douglas. La législation italienne particulièrement laxiste permis à de petits éditeurs de publier des bandes de concert ou même de studio dont ils n’avaient pas toujours les droits.
Experience Hendrix LLC entreprend donc de tout republier (dans la mesure où il a tous les droits sur les bandes). Aux albums de concert s’ajoutent des albums de versions alternatives. Le plus connu est the Jimi Hendrix Experience Box Set, un coffret de 4 CD sous couverture pourpre paru en septembre 2000 et mélangeant versions studio alternatives et enregistrement de concert (il sera suivi en novembre 2010, par un autre coffret West Coast Seattle Boy: The Jimi Hendrix Anthology)
Les concerts sont progressivement republiés dans des versions plus ou moins complètes. A ce jour tous les concerts connus pour être correctement enregistrés ne sont pas publiés. Les fans attendent toujours une version complète du concert de Woodstock ; le concert au Albert Hall n’existe toujours pas dans une version officielle définitive.
De nouveaux disques originaux composés d’enregistrement studios paraissent, Valley of Neptune en 2010,   People, Hell and Angels en 2013 et donc Both side of the sky en mars 2018. Il y a peu de titres nouveaux dans ces albums. Il s’agit principalement de nouvelles versions de titres déjà connus, plus ou moins retravaillées numériquement pour être publiables, comme cela était le cas avec Blues. Ces disques ne sont sans intérêt, mais ils ne modifient pas fondamentalement notre connaissance de l’art du musicien.

Rééditions

Il faut dire un mot de la politique de réédition des titres anciens.
Are you experienced, a été republié en 1995 en revenant à un mixage plus proche de la version d’origine et en ajoutant les titres de 45 T comme l’avait fait Alan Douglas.
Puis en 2002, Experience Hendrix LLC décide de republier Smash Hits. Les éditions ultérieures de Are you Experienced reviennent à la version anglaise d’origine. Pour avoir tous les titres studios il faut donc acheter 4 disques (Experienced, Axis, Smash Hits, et Electric Lady land) au lieu de trois (Experienced augmenté, Axis, Electric Ladyland). De manière générale, contrairement à ce qui se fait pour d’autres auteurs du catalogue (Doors, Who, Velvet Underground, Cream, ect), Experience Hendrix LLC n’ajoute aucun bonus aux titres déjà publiés. Si vous souhaitez écouter d’autres versions, il faut acheter de nouveaux albums.
L’exemple type est Band of Gypsys. Le disque est republié sans supplément. En février 1999, sort Live at the Fillmore East, album double composé d’autres titres des mêmes concerts. Puis en septembre 2016 sort Machine Gun: The Fillmore East First Show. Ce disque reprend uniquement le contenu du premier des quatre concerts donnés au Fillmore East. Sans doute un moment la totalité des concerts et des répétitions seront publiées officiellement.
Enfin, à la surprise générale, la compagnie familiale décide de rééditer les publications de la période Jeffery. Sortent successivement In the West, dans une version augmentée, Cry of Love (l’album posthume existe donc dans deux versions au catalogue, celle-ci et First Rays of the New Rising Sun) et Rainbow Bridge (dont les morceaux ont presque tous été réédités sur différents albums).
A ce stade, l’image d’Experience Hendrix LLC s’est brouillée. La confiance des fans s’est effritée. La logique artistique n’apparaît plus. Un même morceau dans la même version existe plusieurs fois au catalogue. A part, obliger les amateurs de passer plusieurs fois devant le tiroir-caisse, il n’y a plus de justification compréhensible de la politique de publication menée. La différence entre ce que faisait Alan Douglas et la famille a disparu.

La tentation du purisme

Il est temps d’essayer de tirer la leçon de cette étonnante odyssée, qui fait de Jimi Hendrix l’un des artistes ayant publiés le plus de disques après sa mort. Il y a quelque chose de scandaleux dans cette exploitation systématique de l’image d’un mort. Le purisme consisterait à considérer que tous ce qui n’a pas reçu l’accord formel de l’artiste, soit retiré du catalogue officiel, et ne soit plus proposé à l’achat par les fans.
Le respect absolu de la volonté de l’artiste créateur devrait être la règle de conduite.

Les paradoxes de la propriété intellectuelle

La propriété intellectuelle est l’outil juridique qui doit normalement permettre ce respect de la volonté de l’artiste. Elle lui donne le droit d’interdire la publication ou l’usage de son œuvre. C’est ce droit d’interdire qui permet ensuite de se faire payer pour la reproduction de l’œuvre, mais il permet aussi de se défendre contre les caricatures, ou les mauvais usages. Dans le cas d’Hendrix, il y a un double paradoxe.
Nous ne connaissons pas le détail des contrats signés sur ces enregistrements, ni l’histoire de leurs rachats. Mais ce que l’on sait montre que le droit de propriété intellectuel a joué un rôle essentiel dans la publication de son œuvre.
Parce qu’il avait cédé une partie de ses droits à Charlin, il a été empêché de publier sa musique pendant les deux dernières années de sa vie. A l’époque, un artiste majeur produisait deux albums par an. Même en tenant compte des autres difficultés qu’a connu Hendrix pendant ces deux années (dépression, arrestation et procès pour drogue), il aurait pu et du publier plus. Sur la même période, les Doors, autre groupe majeur dirigé par un leader caractériel et dépressif, a réussi à sortir six albums studios et un double album public, composé pour moitié de titres originaux.
Les publications posthumes permettent de mesurer l’évolution du musicien pendant ces deux ans, mais nous ne saurons jamais ce qu’il aurait véritablement fait s’il n’avait pas été confronté à ces difficultés.
De même, le fait que la famille a du attendre 25 ans pour obtenir le contrôle des droits, explique le caractère erratique des publications posthumes.
Jimi Hendrix était un génie musical, mais ni lui ni son père Al n’avaient fait des études qui les préparent à discuter avec des armées d’avocats. A jamais cela nous a privé de l’œuvre artistique qu’il aurait du faire.

Collaboration

Hendrix était un virtuose doté d’une imagination exceptionnelle, et un compositeur remarquable. Mais il n’était pas vraiment fait pour être un leader de groupe. Sa seule tentative pour élargir son groupe a été faite à l’occasion de Woodstock. Elle a été un échec sans lendemain. Le groupe élargi de 6 personnes a fait quelques concerts dans le mois qui suivit, puis l’expérience s’arrêta.
Le guitariste laissa une grande liberté créatrice à ses collaborateurs. On reconnaît bien la différence entre la frappe de Mitchell et celle de Buddy Miles, la basse de Redding et celle de Cox. Les enregistrements fait par Chandler se reconnaissent aussi bien de ceux qui suivent, et les quelques musiciens extérieurs au groupes ont été choisi pour leur apport musical. Enfin j’ai dit l’importance du rôle d’Eddy Kramer.
La musique d’Hendrix était celle d’une équipe (ce qui laissa quelques regrets à quelqu’un comme Redding qui estimait que sa contribution n’était pas reconnue à sa juste valeur). Ajoutant que cette équipe travaille dans un milieu particulier, le Swinging London qui est train de bouleverser la musique, en créant ce format du Power trio, mais aussi en développant tout un instrumentarium nouveau dont va se servir Hendrix : amplis Marshall, pédales d’effet (fuzz, octavia, Wahwah).
Il n’est donc pas étonnant que les musiciens qui entouraient Hendrix et ceux qui leur ont succédé se considèrent légitime, pour compléter, modifier corriger sa musique. La musique d’Hendrix n’est simplement l’œuvre d’un génie, mais celle d’une équipe et d’une époque. Et ce n’est pas nouveau ou particulier à lui. Sans le travail de Sussmayer, le Requiem de Mozart ne serait pas connu, car il a été achevé par ce compositeur après la mort du divin Wolfgang. Sans Friedrich Cerha, l’opéra Lulu d’Alban Berg ne pourrait pas être représenté, car il n’était pas terminé. Enfin, si Maurice Ravel avait trop respecté les Tableaux d’une exposition, il n’aurait pas écrit son orchestration, quarante ans après la mort de Modeste Moussorgski. Hendrix et ses continuateurs sont en bonne compagnie.

Trop célèbre pour être respecté

Les fans aimeraient bien au moins qu’il y ai une cohérence globale de ces publications. Que comme cela se fait pour les grands jazzmen, les publications soient dans l’ordre chronologiques, que les concerts soient tous publiés dans leur intégralité, les enregistrements de studios préparatoires soient publiés de manières cohérentes et en lien avec leur résultat.
Mais c’est sans doute demander trop. Hendrix, comme les Beatles, excède le genre auquel, il appartient. Il est devenu l’incarnation du guitariste moderne. Il n’y a qu’à voir les hommages. Des chanteurs pop, des bluesmen, des jazzmen, des musiciens classiques, des rappers se sont risqués à reprendre des morceaux ou même à enregistrer des albums complets à la gloire d’Hendrix.
Une publication systématique destinée aux fans n’intéresserait que les fans. Les disques d’Hendrix continuent a être présents dans les bacs des disquaires, souvent en tète de gondole. Sur Amazon, il y a 18 pages de présentations de teeshirt, sans compter les posters, les médiators siglés, etc.
Le dessinateur Uderzo pensait qu’il était le seul à pouvoir dessiner Astérix, et que son petit personnage ne devait pas lui survivre. Puis il s’aperçu que c’était le meilleurs moyen d’être oublié. Il décida donc d’autoriser la reprise de la série par d’autres dessinateurs. De même, le travail de Kramer et de son équipe, leur politique d’édition étrange contribue à maintenir la mémoire du guitariste. C’était sans doute inévitable.

Bibliographie

La bibliographie concernant Hendrix est au moins aussi importante que sa discographie.
Extrayons deux livres en français :

  • Regis Canselier : Jimi Hendrix : le rêve inachevé (Le mot et le reste ; 2010) analyse très détaillée des enregistrements ; Canselier ne s’est pas risqué à expliquer le jeu des publications qui aurait condamné son livre à devoir être perpétuellement mis à jour ;
  • Jean-Pierre Filiu : Jimi Hendrix : le gaucher magnifique (Mille et une nuits ; 2008), courte mais très riche biographie.

Signalons aussi que Hendrix est un héro de Wikipédia, avec biographies, analyse détaillée de chaque disque publié et des principaux titres.

Illustrations

Les illustrations de cette chronique sont des œuvres de Gabi Jimenez.

Publié dans musique, propriété intellectuelle, système d'information | Tagué , , , | Laisser un commentaire

Gavés

réseauxDepuis la décision d’ouverture d’internet aux sociétés commerciales et au grand public en 1993, celui-ci a remplacé tous les outils de transmission des données. Les entreprises chargées de gérer ce réseau firent des investissements massifs en installant partout des répartiteurs et en posant des câbles. Aujourd’hui 90% des flux se font via des câbles, la partie liée au flux hertzien et aux satellites étant largement minoritaire (à part le GPS).
Le développement s’accompagne d’une explosion des contenus. La copies illégale, l’open source, l’open data permettent de proposer « gratuitement » des contenus. Gratuitement voulant dire de l’argent donné par le consommateur sert en priorité à fabriquer les appareils et enfouir des câbles.
Ce réseau a deux composantes : les porteurs du réseau matériels (Orange, SFR, et des entreprises moins connues comme Cisco), les porteurs le réseau logique permettant de s’orienter, de rechercher les produits, de dialoguer (Google, Amazon, Facebook). Il permet ainsi d’accéder aux porteurs de contenus qu’ils soient immatériels comme des enregistrements ou des livres (portés par des société comme Universal, Netflix, Hachette) ou matériels (Peugeot, Nestlé)
Comme souvent, le changement fait des heureux mais aussi des perdants, et en premier lieu l’industrie culturelle. Au sein de l’industrie culturelle c’est l’industrie musicale qui prend le choc principal. Elle avait connu une croissance extraordinaire avec le développement du 33T pour le marché des baby boomers. Elle avait trouvé un relais de croissance avec le compact disc (CD), qui avait proposé un support plus pratique et moins fragile, et poussé les utilisateurs à renouveler totalement leur médiathèque.
Avec le téléchargement, elle découvrit que les clients en avaient assez de donner leurs économies à des vedettes surpayées, qui utilisaient cet argent à s’acheter des parcs d’attraction, ou des châteaux dans le Val-de-Loire.
L’industrie musicale réagit. Elle demanda à l’Etat de la défendre (le capitaliste n’aime pas l’Etat, sauf qu’il s’agit de défendre ses droits). Partout des Hadopi apparurent pour protéger la propriété intellectuelle. Mais ces mesures avaient pour effet principal de transformer en délinquants les clients de cette industrie, ce qui la conduisit à demander de la modération. Elle entreprit de diversifier son offre. Le spectacle vivant devint une source majeure de revenu. Elle proposa des bonus, des versions de luxe aux clients qui justifiaient d’acheter tout de même la version CD.

Jobs

C’est Apple qui trouva le moyen pour l’industrie musicale de refaire des profits avec le numérique. La société inventa l’IPod, un terminal de lecture de fichier musicaux permettant de télécharger des centaines de titre et de les écouter dans des conditions de confort inégalées tout en pratiquant une autre activité.
« D’un point de vue purement commercial, le patron d’Apple aurait eu intérêt à encourager le téléchargement illégal. Ses clients auraient rempli leurs iPod à bas coût. Mais il respectait la propriété intellectuelle et pensait que les artistes devaient retirer des bénéfices des ventes de leurs albums. Donc, alors que le processus le processus de développement touchait à sa fin, il décréta que la synchronisation serait à sens unique. Les utilisateurs pourraient déplacer de la musique de leur ordinateur vers leur iPod, mais pas de leur iPod vers un autre ordinateur. Cela les empêcherait de remplir leur baladeur de morceaux copiés illégalement, puis de les transférer à tous leurs amis. Jobs décida que l’emballage en plastique transparent de l’iPod porterait un message simple : « ne volez pas la musique. »
A lire Walter Isaacson, Jobs était un protecteur désintéressé de l’industrie musicale. C’est oublier un peu vite que tout le modèle industriel d’Apple est basé sur la protection par la propriété intellectuelle. C’est aussi omettre qu’Apple prend une marge sur chaque titre téléchargé. La négociation sur cette marge fit l’objet de débat sévères (voir ses conflits avec l’industrie musicale bien décrit plus loin dans le livre d’Isaacson, et les débat actuels qu’il peut y avoir avec des artistes comme Taylor Swift).
Mais surtout Apple ouvrait une brèche dans l’un des principes de base d’internet. L’information devait pouvoir circuler en tout sens, sans restriction,  d’afin d’assurer que celui qui en a besoin pourrait toujours rapidement en disposer. Là, le système imposait que l’utilisateur d’iPod passe toujours par Apple pour recharger son appareil.

Kindle et autres

La brèche ouverte par Apple dans le principe de libre circulation sur le réseau fut exploitée par d’autres. Amazon fit de même avec son lecteur Kindle. Pour le charger en livres dématérialisés, il faut forcement passer par d’autres. La Fnac et d’autres distributeurs firent de même.
Facebook proposa une offre d’internet gratuit aux Indes. Les utilisateurs avaient accès à internet, mais uniquement en passant par le réseau de Facebook (cette offre fut refusée par le gouvernement indien en 2016, celui-ci ayant bien compris qu’elle revenait à une inféodation complète des utilisateurs à un seul fournisseur).
Par ailleurs les gestionnaires de réseaux ont obtenu en 2017 du président Trump, qu’il accepte de remettre en cause le principe de neutralité du net.

La poule aux œufs d’or

Tous les changements ci-dessus posent le problème de la pérennité du net et derrière des profits qu’il engendre.
En effet, la bourse du consommateur final n’est pas extensible. Chacun des dispositifs ci-dessus n’augmente pas l’offre, mais au contraire la restreint pour orienter différemment le chiffre d’affaire qu’il génère. Tout revient à une combat entre les différents acteurs industriels pour savoir qui captera le plus de marge possible : les porteurs du réseau matériel, les porteur le réseau logique, les producteurs de contenu.
Le combat entre TF1 et Orange est emblématique des enjeux.  TF1 est plutôt un producteur de contenu télévisuel, Orange est un opérateur de réseau internet. En pratique, ils sont aussi directement concurrents. Orange a enrichi son offre avec des chaines télévisuelles propres dans lequel il propose des films et des séries (chaines OCS). TF1 est une filiale du groupe Bouygues qui est aussi un opérateur internet.
TF1 réclame plus d’argent pour que Orange puisse diffuser ses différentes chaines (TF1, mais aussi TMC, TFX, LCI, TV Breiz…). Celui refuse. Chacun représente de l’ordre de 20% de la diffusion de l’autre. Cette donnée fait l’objet d’une bataille de chiffres entre les deux groupes, aucun ne voulant apparaître comme dépendant de l’autre. Mais la réalité est que l’absence d’accord se traduira probablement par une perte de chiffre d’affaires.
Ils auront tué la poule aux œufs d’or. Et si les tentatives de découpage du net par les différents acteurs aboutissaient, il en serait de même. Les différents acteurs du système avaient su s’organiser pour que le marché puisse s’étendre au grand public. Maintenant qu’il semble ne plus pouvoir se passer d’internet, chacun éssaie de s’approprier le maximum de marge, au détriment des autres acteurs et au risque de voir les consommateurs se détourner d’un outil devenu moins performant.

Bibliographie

Walter Isaacson : Steve Jobs (2011 ; JC Lattes)
http://www.lemonde.fr/entreprises/article/2015/06/23/streaming-musical-taylor-swift-fait-plier-apple_
http://internetactu.blog.lemonde.fr/2018/02/16/de-la-neutralite-du-net-a-celle-des-terminaux/
http://abonnes.lemonde.fr/pixels/article/2018/02/27/tout-passe-par-internet-et-ceux-qui-en-sont-exclus-sont-comme-ecartes-de-la-societe_5263146_4408996.html#xtor=AL-32280270
http://www.lemonde.fr/sciences/article/2018/02/22/menaces-sur-internet_5260737_1650684.html

Publié dans commerce, internet, système d'information | Tagué , , , , , , , | Laisser un commentaire

Gratuits ?

boite à livreNous vivons au temps du cyberspace. Les techniques d’Internet, du World Wide Web, et du Cloud ont abaissé le coût d’accès et accelerer la vitesse de circulation de l’information.
Mais, pour vraiment abaisser le coût du cyberspace, il fallait qu’il devienne un produit de grande consommation. Cela supposait que le grand public trouve sur la toile des informations utiles ou distrayantes.
Pour les thuriféraires de la propriété intellectuelle, il ne pouvait y avoir d’information pertinente que payante. Mais, pour accéder au Cyberspace, l’utilisateur a déjà acheté un terminal numérique, et payé un abonnement à un Fournisseur d’Accès à Internet (FAI). Les fabricants d’ordinateurs et les FAI ont fait de lourds investissements pour construire ce réseau. Ils entendent bien que les utilisateurs payent le plus cher possible cet accès. Et ensuite la maigre bourse de l’utilisateur est largement ponctionnée.
C’est particulièrement vrai des jeunes, lycéens, étudiants, chômeurs, apprentis. Or, ils constituent une cible privilégiée du système d’information numérique, car ils sont prêts à apprendre, et ne sont pas encore trop pris dans les habitudes d’utilisation du système d’information ancien.
Il y avait donc de fait une alliance objective entre les industriels du Hard (fabricants de matériel, constructeurs de réseau) et des utilisateurs finaux désargentés pour qu’il y ai le plus possible de contenu gratuit sur la Toile.

Le temps des pirates

C’est un étudiant de l’Université de Boston, Shawn Fanning, âgé de 18 ans, qui met en œuvre le premier système d’échange de fichiers gratuit en 1999, Napster. Tout de suite, celui-ci connaît des milliers d’adhérents. Les responsables des Universités découvrent que l’essentiel de la bande passante de leur réseau est utilisée à échanger des fichiers musicaux.
L’industrie musicale, représentée par son syndicat américain, attaque le site tout de suite. Parmi les réactions des artistes citons celle d’Elton John : « Les opportunités ouvertes par Internet sont excitantes, car les artistes peuvent désormais communiquer directement avec leurs fans. Mais il ne faudrait pas oublier le respect du travail et sa rémunération. Je suis contre le piratage sur Internet et il n’est pas correct que Napster et d’autres puissent promouvoir le vol d’œuvre en ligne. » Après 2 ans, Napster fut fermé (la version actuelle est issue du rachat de la marque par une autre société).
Mais, la machine était lancée. Il était difficile d’expliquer à des jeunes désargentés que les sommes demandées pour les produits culturels relevaient seulement de la juste rémunération d’un travail.
Comment expliquer qu’un Paul MacCartney ait en 2017 une fortune égale à 44 000 années de SMIC ? Comment justifier que l’acteur le mieux payé en 2016 a reçu plus de 3800 années de SMIC ?
En France le chanteur le plus populaire du XX siècle a eu des funérailles nationales. Les chaines de radio et télévision étaient focalisées sur l’évènement pendant plusieurs jours. Ensuite, la « plus grande avenue du monde » bloquée pendant une demi-journée pour faire passer le cortège funéraire et une cérémonie à la Madeleine en présence du Président de la République. Cet événement est de fait à la fois un hommage et la plus grande opération de promotion commerciale, qui permettra de vendre ensuite inédits et rééditions. Et dès la dépouille enterrée, les fans abasourdis voient la famille se déchirer pour le partage de la rente générée par ces ventes.
L’industrie culturelle ne fait donc pas pitié, et des milliers de Robins des Bois ont repris le flambeau de Napster.
Celui-ci était un système centralisé, l’arrivée du logiciel BitTorrent fit sauter une limite technique. Ce protocole d’échange est mis au point en 2002 par Bram Cohen. BitTorrent fut le premier peer to peer (pair à pair). Dans ce système, les ordinateurs sont tour à tour clients et serveurs. Un premier ordinateur (serveur) envoie un fichier à plusieurs autres ordinateurs (clients). Si l’accès à ce premier est embouteillé, le nouvel arrivant peut aller chercher le fichier sur les ordinateurs déjà servis qui deviennent à leur tour serveurs. En utilisant la technologie par paquet, BitTorrent, et les autres protocoles d’échanges ont permis que le nouveau client puisse recevoir le fichier d’origine de plusieurs sources et le reconstituer. Ceci a permis de diffuser tous types de fichier, musicaux, textes, films… Le relais fut ensuite pris par le streaming, Youtube et d’autres réseaux sociaux. Des artistes comme Lily Allen ou Arctic Monkeys font leur promotion via les réseaux et sont découverts grâce à la diffusion gratuite sur le réseau de leurs chansons.

Les libertariens

Une deuxième source de contenu gratuit fut l’activité de ce qu’on appellera les libertariens. Anciens hippies, baba cool, geek avaient développés une contre-culture opposée à l’Etat et aux grand capital, alliés objectifs et oppressifs. Ils étaient aussi liés à un milieu universitaire pour qui l’accès massif à la connaissance est la clé de la réussite et de la création. Logiciels libres, Wikipédia, la blockchain et les criptomonnaies comme le bitcoin constituent autant d’actifs immatériels et gratuits qui justifient d’acheter des ordinateurs et payer un abonnement à internet.

La neutralité du net

Elle est la troisième conséquence du besoin de contenu à bas prix. Il a été admis que les fournisseurs de contenu ne payaient pas de droit de passage pour que les utilisateurs puissent accéder à ces produits. Ils pouvaient donc choisir entre Google, Yahoo, ou d’autre pour chercher des informations. Ils pouvaient utiliser eBay, le BonCoin ou Price Minister pour vendre leurs objets d’occasion. La neutralité du net garantissait que tous ces contenus étaient également accessibles.

Open Data

L’Open Data fut la quatrième source de contenu gratuit. Les Etats étaient propriétaires de milliers de données, dont la production avait été payée par nos impôts. Il semblait donc normal qu’accès à ces données soient gratuits. De même il y avait toutes les œuvres dont les droits avaient fini par tomber dans le domaine public. Cartographies, contenus des bibliothèques, archives publiques devinrent la proie de la Toile.
« Déjà en 1789, la déclaration des droits de l’homme et citoyen stipule dans son article 15 que « la société a le droit de demander compte à tout Agent public de son administration » faisant de l’accès à l’information publique un des fondements de la démocratie naissante » (voir Big Data et traçabilité numérique)
De multiples déclarations politiques, lois et réglementations dans tous les pays prolongèrent ces déclarations.
« Le 18 juin 2013, les chefs d’État du G8 ont adopté et signé une Charte du G8 pour l’ouverture des données publiques ; Dans un esprit d’ouverture et de transparence, cette charte pose les principes d’une donnée publique à désormais considérer comme « ouvertes par défaut » (sauf cas particulier liés à la défense et à la sécurité) ; cette donnée doit être mise à disposition « de qualité et en quantité ; accessibles et réutilisables par tous », gratuitement et avec une libre réutilisation pour tous. Les formats ouverts et non-propriétaires seront privilégiés et la charte encourage l’accès de tous à cette information, tout en promouvant l’innovation (entrepreneuriale, citoyenne et sociale). »
Cet accès massif à l’information a été la clé de la démocratisation de la Toile. Echanger, stocker, traiter des informations ne vaut plus rien. Jamais il n’a été aussi facile d’accéder à une information.
La preuve de cela est que le transfert physique d’information ne vaut plus rien. Auparavant chacun pouvait revendre ses livres, ses disques, ses DVD à des bouquinistes, dans des foires aux livres ou aux disques. Aujourd’hui ils sont mis dans la rue, dans des boites, des microbibliothèques, pour que les passants intéressés les ramassent. Sur ces échanges, l’industrie culturelle ne reçoit aucune rémunération.
Mais entretemps nous avons tous financé le développement d’infrastructures géantes

Bibliographie

Daniel Ihbiah : Les 4 vies de Steve Jobs (Leduc Editions ; 2011)
Big Data et traçabilité numérique
https://www.evous.fr/Les-artistes-chanteurs-les-mieux-payes-de-l-annee,1180327.html
http://www.parismatch.com/People/Qui-sont-les-acteurs-les-mieux-payes-au-monde-en-2017-1331366
Ouvrage collectif piloté par Pierre-Michel Menger : Big data et traçabilité numérique : Les sciences sociales face à la quantification massive des individus (édition du Collège de France ; 2017)
Wikipedia : sommet du G8 de 2013 (état de l’article au 24 octobre 2017)

Publié dans commerce, internet, musique, système d'information | Tagué , , , , , | Laisser un commentaire

Le cyberspace : du loup solitaire à la meute

meuteLes moutons et le loup solitaire

L’histoire du système d’information numérique peut se décomposer en trois ères principales.
La première fut celle du Mainframe. Les ordinateurs étaient d’énormes machines, possédées par des Etats ou de grandes firmes (banques, compagnies aériennes). Les utilisateurs étaient connectés via des terminaux passifs, avec un écran et un clavier. Ils envoyaient ou recevaient les instructions d’une machine centrale. Les utilisateurs étaient des moutons obéissant à l’algorithme qui pilotait la machine, lequel avait été programmé par une poignée de concepteurs-développeurs.
La deuxième commence durant les années 70, c’est l’ère du micro-ordinateur. Chaque utilisateur a son ordinateur, ses programmes, ses données. C’est le moment où l’utilisateur ressemble le plus au Saint-Denis de Michel Serres. Il dialogue avec sa machine, qui est comme une deuxième tête, un prolongement de son propre cerveau, avec une deuxième mémoire, une autre capacité de calculer et d’imaginer. Selon son niveau de compétence ce dialogue est plus ou moins riche. Les moins compétents se contente d’entrer et de lire des données, comme les moutons du mainframe. Les meilleurs rédigent eux-mêmes les logiciels et pilotent la machine. Les plus anciens se souviennent d’un temps où l’utilisateur devait connaître un peu de programmation. Dans cette génération, tous les utilisateurs ont fait un peu d’ASCII pour que le micro fonctionne. Chaque utilisateur devenait un loup solitaire, maîtrisant son propre univers.
Ces anciens se rappellent qu’à l’époque, pour échanger des données, il fallait échanger matériellement les mémoires des machines. Disques, floppy, disquettes, cassettes, les moyens étaient multiples, avec des risques de perte, de détérioration. Le système d’information pouvait constituer un ensemble intellectuellement cohérent. Mais il n’était pas matériellement organisé, ce qui était source de perte de productivité et d’incohérences.
C’est pourquoi les techniciens entreprirent de créer des dispositifs permettant de créer un réseau : protocole FTP, Ethernet, etc. Progressivement les ordinateurs dialoguèrent entre eux et avec leurs périphériques (écrans, imprimantes, robots, etc.). C’est ainsi qu’est apparu un cyberespace dans lequel toutes les machines sont connectées. Ce cyberspace, cette toile ou encore internet comme certains l’appellent abusivement, est constitué principalement de trois éléments : l’internet proprement dit, le World Wide Web, le Cloud.

C’est quoi internet ?

Internet stricto désigne trois choses : un protocole technique d’échange des données sur un réseau, un système normalisé d’adressage sur ce réseau, le réseau physique qui utilise ce protocole technique et ce système d’adressage.
Le protocole technique visait à pallier les limites des réseaux analogiques (téléphone, fax) : lorsque sur une ligne communiquaient deux interlocuteurs, aucun autre échange n’était possible ; si cette ligne était coupée, la communication était interrompue. La nouvelle technologie de commutation par paquet utilisait le fait que les messages sont composés d’une série de chiffres 0 ou 1. Chaque message (qu’il s’agisse d’un mail, d’une page web, d’un échange WhatsApp par exemple) est découpé en paquets, auquel sont ajouté un en-tête et une fin. Chaque paquet est envoyé dans le réseau, via des serveurs de routage, et circule en fonction des adresses qui sont définies sur l’en-tête et la fin.
Le système d’adressage assure que les paquets arrivent à destination, et que l’on puisse reconstituer le message d’origine. Ces adresses peuvent être les adresses de machines physiques (les adresses IP – Internet Protocol), ou des adresses virtuelles qui concernent une ou plusieurs machines (nom de domaine, adresses mail). La cohérence de l’ensemble de ces adresses physiques ou virtuelles est assurée par une société de droit californien, l’Internet Corporation for Assigned Names and Numbers (ICANN). Les paquets ainsi constitués peuvent circuler en train sur n’importe quelle partie du réseau. En cas de coupure, ils peuvent suivre un autre chemin, chaque serveur étant capable d’adresser n’importe quel autre point du réseau.
Ce réseau décentralisé a été développé pour le besoin des universités américaines dans le cadre de financements du Ministère de la Défense des Etats-Unis. Celui-ci cherchait à développer un système de communication capable de résister à une attaque nucléaire. En 1993, à l’initiative du sénateur Al Gore, une loi fédérale américaine ouvrit l’accès au réseau Internet aux sociétés commerciales et par leur intermédiaire au grand public.

World Wide Web (la « toile d’araignée mondiale »)

Internet faisait communiquer les machines entre elles, encore fallait-il qu’elles disposent d’un langage commun. L’initiative est encore venue du monde universitaire. C’est un chercheur rattaché au CERN en Suisse, Tim Berners-Lee, qui inventa le Web, au début des années 90. Les pages internet peuvent être liées entre elles par des liens hypertexte (c’est à dire de courts programmes qui donne l’ordre à l’ordinateur qui les lit d’aller chercher la page citée sur un autre serveur afin de la rapatrier sur l’ordinateur qui appelle). Ces pages utilisent toute le même langage de programmation, HTML, qui présente l’avantage d’être facilement copiable, modifiable et facilite la production rapide de nouvelles pages à partir de celles qui existent. Le World Wide Web de Berners-Lee devint rapidement le principal standard d’échange sur internet.

Cloud computing (« l’informatique en nuage »)

Le terme vaporeux par lequel est désigné ce troisième concept peut prêter à confusion. Il est souvent traité à part car il n’est pas le résultat de travaux universitaires et il est apparu plus tard qu’internet et le World Wide Web, dans les années 2000.
Jusqu’aux années 2000, les ordinateurs, loués ou achetés, étaient dans les locaux de leurs utilisateurs. Cette situation conduisait à une sous-utilisation des machines. Au départ cette situation ne posait pas de problèmes particuliers. Le coût de fonctionnement des ordinateurs paraissait faible si on le comparait à celui d’une machine-outil, d’une voiture ou même d’une simple machine à laver. Peu d’énergie consommée, peu de frais de réparation.
L’expansion du système numérique mondial a changé la donne. Aujourd’hui l’énergie consommée par ce système représenterait environ 10% de l’énergie électrique consommée dans le monde. A ce stade, la question de l’optimisation devient importante et c’est là qu’interviennent les industriels du Cloud. Ils ne louent plus des machines, mais du temps machine, de l’espace machine, sur des ordinateurs dont ils assurent l’entretien, la gestion des sauvegardes, dans d’immenses fermes de serveurs.
Consommateurs et entreprises n’ont plus que des terminaux miniaturisés (smartphones, tablettes, montres connectées). L’essentiel des traitements et des données sont partagés sur ces machines réparties partout dans le monde.

La meute

Les utilisateurs du système d’information numérique ne sont plus des loups solitaires. C’est une meute qui ne cesse d’échanger sur le cyberspace. Tout le monde n’est pas égal sur ce système. Il y a des utilisateurs plus adroits, plus compétents que d’autre. Mais tout le monde peut à un moment ou un autre prendre la main, composer quelques lignes de programme. Il y a une sorte de démocratie directe de ces utilisateurs qui collaborent ensemble. Elle est en partie illusoire, mais en partie seulement. Etre citoyen aujourd’hui, c’est aussi faire parti de cette meute, et pour cela avoir été formé, et ne cesser de dialoguer avec les autres membres de la horde.

Bibliographie

Alain Lefebvre et Laurent Poulain : Cow-boys contre chemin de fer ou que savez vous vraiment de l’histoire de l’informatique (Amazon-2012-2013)
Walter Isaacson : Les innovateurs (Jean-Claude Lattès-2015)

Publié dans Ecologie, informatique, internet, système d'information | Tagué , , | Laisser un commentaire

La pensée magique du Bitcoin

monnaie d'orLe bitcoin est le dernier sujet à la mode de la blogosphère. Le Monde et les Echos lui ont consacrés chacun un dossier. Plusieurs Prix Nobel d’économie, (Tirole, Stiglitz, Krugman) ont produit des tribunes sur cette monnaie.

Small is (not) beautiful

Pour les théoriciens de l’économie de marché, plus c’est petit, mieux c’est. Le petit est plus souple, plus réactif, plus à l’écoute, c’est le petit poucet contre l’ogre, David contre Goliath. Les Etats et les multinationales sont nécessairement bureaucratiques, ennemis de l’innovation, incarnations potentielles de Big Brother, ce géant totalitaire et opprimant. L’économie de marché porte en elle le rêve toujours réactualisé d’un marché fait d’artisans, de boutiquiers et de consommateurs familiaux, aucun ne pouvant prendre la place de la « main invisible », imaginée comme nécessairement bienveillante.
Le bitcoin, cette nouvelle monnaie algorithmique est un produit de ce rêve, ses thuriféraires cherchant à se débarrasser grâce aux algorithmes de l’emprise de l’Etat.

C’est quoi une monnaie ?

Vous recevez de la monnaie en contrepartie de la vente d’un bien ou d’un service. Elle permet d’éviter le troc, qui devient difficile lorsqu’il s’agit d’un échange entre un maçon constructeur de maison et un fabricant de savates.
Celui qui a reçu de la monnaie souhaite qu’elle conserve sa valeur d’échange. Il veut pouvoir acheter une quantité de biens égale à la valeur de celui qu’il a cédé.
C’est pourquoi, la valeur de la monnaie a bénéficié pendant longtemps de deux garanties :

  • L’Etat ; depuis Crésus d’après Hérodote, c’est l’Etat qui bat monnaie et chasse la fausse monnaie ; le privilège de faire la monnaie, est une caractéristique parmi les plus constantes du pouvoir régalien ;
  • L’usage d’un métal précieux pour faire la monnaie ; la monnaie a ainsi une valeur intrinsèque égale à sa valeur comme objet d’échange ; pas besoin d’Etat pour vérifier la valeur de la monnaie ; il suffit de la balance du changeur.

Cette double garantie a existé tant que les monnaies ont été basées sur l’étalon or. Certes la monnaie papier existe depuis la lettre de change du moyen-âge, mais, elle était toujours censée pouvoir être échangée contre de l’or.
En même temps, plus le volume d’échanges augmente, plus il faut de monnaie. La découverte de l’or des Amériques a permis le développement des échanges et la croissance économique tout en conservant l’étalon or.
Cela change au XX siècle. Les pays européens vendent leur stock d’or pour financer la guerre de 14, et abandonnent l’étalon or (ils ne sont plus capables de donner du métal précieux en contrepartie de la monnaie papier qu’ils ont émise pour financer leur dette).
Les Etats-Unis abandonnent en 1972, suite à l’accumulation de dettes pour financer la guerre du Viet Nam et leur déficit extérieur. Depuis cette date, toutes les monnaies se sont dématérialisées, et leur trace dans les échanges sont de simples écritures dans des comptes électroniques. Le « bas de laine » n’existe plus que virtuellement, et le maintien de sa valeur dépend des seules banques centrales. Pour tous les libertariens et libertaires du monde, c’est une insupportable main mise sur la monnaie par l’Etat. Les banques centrales sont seules maîtres de la valeur de la monnaie, et peuvent décider suivant la vieille expression de « faire tourner la planche à billet », provoquant l’inflation et la perte de valeur de la monnaie.

Le bitcoin

En février 2009, un dénommé Satoshi Nakamoto (son identité exacte n’est pas connue) déposa un programme sur un site internet. Ce programme, lorsqu’il tourne sur un ordinateur, génère des unités de monnaies, des bitcoins. Ceux-ci rétribuent les opérateurs qui ont accepté de faire tourner le programme sur leur ordinateur. Le programme génère le bitcoin dans un registre virtuel partagé par tous ceux qui acceptent de faire fonctionner le programme. En même temps il sécurise la transaction en la partageant avec tous ceux qui acceptent d’utiliser ce logiciel. L’activité de création d’unités est appelée le minage, la chaine informatique permettant la génération du registre virtuel est appelée la blockchain.
Le système est totalement décentralisé. Il n’y a pas d’administrateur central vérifiant la réalité et la validité des transactions. C’est la construction du programme et le jeu des échanges entre les mineurs qui assurent seuls la sécurisation des bitcoins. La contrepartie de cette décentralisation est la nécessité de faire tourner la chaine en permanence, et de ce fait, le maintien de la blockchain génère une dépense énergétique importante. Un calcul récent considère que cette dépense est de 26 térawatts/heures par ans, soit l’équivalent de la consommation électrique d’une ville française de 3700 habitants.
Pour que le bitcoin soit autre chose qu’une monnaie de Monopoly, il faut qu’il puisse être utilisé comme moyen de paiement. WordPress, Paypal, des opérateurs chinois ont accepté que des paiements soient effectués en bitcoin. La commission électorale des Etats Unis a accepté en 2014 que les campagnes soient financées en bitcoin.
Par ailleurs un certain nombre de places de changes acceptent l’échange de bitcoin contre d’autres monnaies. Bref sans être un moyen d’échange courant, le bitcoin devient progressivement une monnaie insérée dans le système monétaire mondial.

Un système sans outil de pilotage

Parce qu’il est totalement décentralisé, le système du bitcoin n’a pas de pilote.
Or, comme dit précédemment, la quantité disponible d’une monnaie (dit masse monétaire) est une fonction du volume d’échange réel effectué avec elle. Et l’évolution de cette masse monétaire nécessite un réglage fin. Si la masse monétaire augmente plus vite que le volume d’échange, la valeur de la monnaie diminue : c’est l’inflation qui peut muter en hyperinflation (les économies des épargnants disparaissent). Si le volume des échanges augmente plus vite que la masse monétaire, le prix des biens diminue, c’est la déflation, qui mute en récession (les entreprises cessent de produire des biens dont la valeur diminue). Pour surveiller ce rapport essentiel au fonctionnement d’une économie, les banques centrales disposent de tout une batterie d’indicateurs, indices de prix, Produit Intérieur Brut (PIB), cours de changes, suivi des échanges extérieurs. La production de ces indicateurs suppose tout un système statistique, à base d’enquêtes, de relevés, de traitements de l’information.
Rien de tel n’existe pour le bitcoin, et ceci explique largement les variations erratiques de sa valeur. Personne ne vérifie que la création de bitcoin répond à un besoin d’échange réel. La masse monétaire qui se crée ainsi est sans rapport avec l’évolution de l’économie réelle.
C’est précisément ce point que marque Jean Tirole dans sa tribune contre le Bitcoin. « Le bitcoin est peut-être un rêve libertarien mais c’est aussi un authentique casse-tête pour quiconque considère la politique publique comme un complément nécessaire de l’économie de marché. …. Et comment les banques centrales peuvent-elles mener des politiques contre-cycliques dans un monde de crypto-monnaies privées ? »
Tel est le paradoxe du bitcoin. C’est un pur produit du système d’information numérique, mais il n’a pas lui-même de système d’information permettant de le piloter, et ses afficionados ne souhaitent pas qu’il y en ai. La théorie sous-jacente au Bitcoin, c’est une forme de pensée magique : en l’absence d’un responsable, et d’un mécanisme de régulation, les décisions de l’ensemble des acteurs aboutiront à un bien commun. Le monde n’est pas aussi bien fait.

Bibliographie

Clarisse Herrenschmidt : Les trois écritures : Langue, nombre, code (Gallimard-2010)
Jean Tirole : There are many reasons to be cautious about bitcoin (Financial Times-5/12/2017-traduction publiée sur le site Le nouvel économiste.fr)

 

Publié dans commerce, finance, système d'information | Tagué , | Laisser un commentaire

Le Réveillon et le supermarché

REVEILLONLe serveur du Réveillon

Une fois par an, nous allons fêter le réveillon du nouvel an avec des amis. Les filles mettent leur petite robe noire, passent deux heures au maquillage, autant chez le coiffeur, enfilent leurs escarpins à talon haut. Les garçons ont mis leur plus belle chemise, une veste, une cravate ou même un nœud papillon. Et nous voilà au meilleurs restaurant de la ville.
Les serveurs s’agitent autour de nous pendant trois heures. Nous retrouvons l’origine des restaurants. Le plaisir de se faire servir, comme le noble dans son château.
Le restaurant français est né du départ des aristocrates. Guillotinés ou émigrés à l’étranger, ils ont laissés leurs cuisiniers et leurs domestiques sans travail. Ceux-ci se sont reconvertis dans la restauration. Il y a une centaine de restaurants dans Paris en 1789, environ 3000 trente ans après.
En même temps, le serveur du restaurant est devenu l’une des énigmes de l’intelligence artificielle et de la robotique. Il est multitâche : il reçoit les clients, les place, leur donne le menu, prend leur commande, les aide à choisir les plats et les boissons, adapte en fonction des spécificités de certains clients, diabétiques, végétariens, musulmans, transmet à la cuisine, apporte les plats, le café, fait payer le client, dessert la table, remet le couvert. Chaque tache suppose un savoir faire particulier qu’il faut mémoriser et savoir utiliser en fonction du contexte. Tout cela, il le fait pour plusieurs tables, en surveillant en permanence qu’il n’y a pas d’impatience, d’énervement, que personne n’attend excessivement. Il le fait aussi dans un environnement hostile. Dans la salle il n’y a pas que des gens assis. Il y a aussi d’autres serveurs, des clients qui se lèvent, pour aller aux toilettes, fumer une cigarette ou téléphoner, ou simplement partir, le ventre plein et satisfait. Tout cela le serveur le fait avec une dépense énergétique extraordinairement faible. On considère que le cerveau humain a une capacité mémoire de l’ordre de un Pétabit (soit 1015) et a besoin de 20W pour fonctionner. Une carte mémoire standard a une capacité mémoire de l’ordre de un Terabit (1012) et a besoin de 200W pour extraire ou introduire des données. La machine a donc une capacité mémoire 1000 fois inférieure pour une consommation énergétique dix fois supérieure. Les superordinateurs qui sont capables de battre les champions d’échec, de Go et bientôt de poker, ont une capacité mémoire largement supérieure, mais une consommation énergétique à l’avenant. Le remplacement du serveur par un robot piloté par une intelligence artificielle n’est pas à l’ordre du jour.

McDonald’s

Une entreprise s’est attaquée depuis soixante-cinq ans au problème de la suppression du serveur. C’est McDonald’s. Le client qui entre doit trouver lui-même sa table, choisir son menu au moyen des tableaux affichés aux murs, puis faire la queue pour se faire servir. Le serveur est toujours là mais il n’a pas le droit de bouger. Il est coincé derrière sa caisse enregistreuse, prend les commandes, passe les plats. Le client se chargera lui-même d’apporter le plateau à la table, puis de débarrasser. Le serveur n’a plus à se déplacer dans l’environnement hostile de la salle sauf pour aller chercher les sac-poubelles que le client a rempli. Le travail du serveur n’a pas disparu. Aucune tache n’a été confiée à une machine. Pour l’essentiel, le travail a été transféré au client, qui a du accepter de prendre une partie du travail en contrepartie de la baisse du coût du repas. Certaines taches ont été mutualisées (plus besoin de porter le menu puisqu’il est affiché au mur). Pour les taches que doit faire le serveur, le client devient le manager. Le serveur a devant lui la file d’attente, pleine de gens impatients qui s’attendent à ce qu’il fasse son travail le plus vite possible, il est mis sous la surveillance permanente du client. Et dans la salle épurée il devient possible de faire entrer des machines : maintenant, dans certains restaurants, plus besoin d’attendre pour que la commande soit prise. Des panneaux électroniques permettent de remplir la commande et même de payer. Il ne reste à faire la queue que pour récupérer le plateau. La transformation opérée par McDonald’s a permis d’apporter de nouveaux services. Il est possible de se faire servir dans sa voiture par exemple.
Mais elle pose des questions sur notre imaginaire collectif. Sommes nous prêts le jour du Réveillon, à ne plus être servi comme des princesses et des princes ? McDonald’s existe depuis pratiquement aussi longtemps que l’ordinateur, son modèle économique a montré son efficacité, et pourtant, il n’a pas remplacé totalement la restauration classique.

Du serveur à l’hôtesse

Le cas du serveur est emblématique de la révolution sociale qu’induit le numérique. Nous ne pouvons profiter des atouts de la machine que si nous acceptons de modifier profondément la manière dont nous échangeons.
Lorsque nous commandons sur internet, la machine n’invente pas ce qui doit être payé, le client qui dit qui il est, ce qu’il veut, où le produit doit être livré. Il fait le travail qui incombait à l’hôtesse d’accueil, à l’employé d’agence, de spectacle ou de voyage.
La miniaturisation a permis d’augmenter encore cette tendance. Aujourd’hui dans les supermarchés, les commerçants vous donne des terminaux de saisie portable, ou mettent à disposition des bornes de scénarisation. Vous faites vous même la saisie des codes barres, et même dans certain cas, la procédure de paiement. Les hôtesses n’ont pas disparues, mais leur métier a changé. Elles contrôlent la démarque inconnue (autrement dit le vol par les clients), elles forment les clients à utiliser les appareils. Elles traitent les problèmes spécifiques (par exemple erreur d’étiquetage). Elles proposent les cartes de fidélisation. Tout cela sans changement officiel des qualifications ni revalorisation des émoluments. Elles sont toujours vues comme les caissières de notre enfance, dont le métier était de rédiger ou taper une facture, et rendre la monnaie.

Changer la vie

La machine fait bien ce qui est répétitif, en environnement stable. Elle permet de faire des choses nouvelles, d’accélérer certains processus. Mais cela n’est possible que si l’on écarte le contingent, l’accidentel, le désordre dans lequel l’humain reste encore aujourd’hui le plus efficace. Cela suppose de reconfigurer complètement les processus (voir aussi la chronique Dactylo Rock). Mais ce n’est seulement la réalité matérielle des processus à laquelle nous touchons. C’est aussi l’image culturelle que nous mettons derrière ce processus, qu’il faut accepter de changer.
Nous avons accepté, sans même y faire attention, la révolution qu’a connu la profession des hôtesses de supermarché. Nous sommes moins prêts à admettre de ne plus être servis à table, à la lueur des bougies d’une hôtellerie de campagne, comme des princes et des princesses.

Bibliographie

Philippe Askenazy : Tous rentiers (Odile Jacob-2016)
Nicolas Le Ru : L’effet de l’automatisation sur l’emploi : ce qu’on sait et ce qu’on ignore (France Stratégie : note d’analyse juillet 2016)
https://www.sciencesetavenir.fr/sante/cerveau-et-psy/video-notre-cerveau-aurait-une-capacite-de-stockage-equivalente-a-celle-du-web_19515
Jean-Gabriel Ganascia : Le mythe de la Singularité (Le Seuil, 2017)

Publié dans developpement, informatique, intelligence artificielle, maitrise d'ouvrage, système d'information | Tagué , | Laisser un commentaire

Santons et village global

santons remouleurC’est encore le temps de Noël où les santons de Provence sont sortis. Ils font parti de mon univers depuis l’enfance. Ils incarnent des idées importantes pour moi, et qui ont un écho avec le monde d’aujourd’hui.

Les santons : la nostalgie du village

Ces idées sur le village de la crèche provençale sont au nombre de trois :

  • Il est le lieu du don ; chaque santon porte un cadeau au petit Jésus ; ce cadeau (le sac du meunier, le lapin du chasseur, le panier de la marchande) l’inscrit dans un processus d’échanges avec les autres ; même le Ravi avec ses bras levés apporte sa bonne humeur, et donne son air de gaité à cette communauté industrieuse ;
  • à l’image des bourgs d’antan, ce village doit être capable de répondre à tous ses besoins ; tous les métiers existent, du berger au boulanger ; tout le monde se connaît, et attend que chacun fasse son travail ;
  • pas de machines, pas d’automobile ; il n’existe que la force des hommes et celles des animaux ; depuis le rémouleur qui aiguise les couteaux, jusqu’au chiffonnier, chacun s’efforce d’éviter tout gaspillage.

En même temps, l’industrie des santons nait avec l’ère industrielle au début du XIX siècle. Deux aspects sont importants :

  • La fabrication en série ; les santons sont fait à partir d’un moule qui permet de les reproduire en grande quantité ; inventés par un dénommé Lagnel, les santons font parti des premier objets produits de manière industrielle ; le Ravi encore lui, avec ses bras dans le même plan que son corps et sa tête, porte la trace de son mode de fabrication ;
  • L’usage en famille ; jusque là la crèche se construit dans l’église du village ; seules quelques famille riches peuvent en avoir une chez eux au XVIIIs ; avec la fabrication en série arrive la démocratisation ; la crèche dans la maison marque la désagrégation de la communauté ; la religion devient affaire privée.

La première foire aux santons a lieu à Marseille en 1803, et déjà ils sont le signe d’une nostalgie. L’exode rural vide le village, le chemin de fer va apporter de nouveaux produits, qui concurrencent les produits locaux. Les vieux métiers, comme le faïencier, le vannier, le bourrelier disparaissent. Même le meunier et son moulin à vent s’effacent remplacés par la minoterie et sa machine à vapeur.
Les habitants s’installent en ville, la famille se réduit à sa plus simple expression ; les gens emportent les santons, en même temps qu’ils quittent le village. Les santons, en même temps qu’ils représentent la communauté ancienne, sont le fait d’un repli individualiste, et le début de la production industrielle.

Le temps de l’abondance

L’ère industrielle qui arrive est l’ère de l’abondance. La machine à vapeur, puis le moteur à combustion interne et l’électricité permettent de disposer d’une énergie apparemment inépuisable. Tout ce dont l’humanité a besoin est produit en grande quantité, nourriture, vêtements, biens de toutes nature.
Cela permet une croissance démographique jamais connue. 1 milliards d’individus sur terre en 1800, 1,6 en 1900, environ 2,5 milliard en 1950 lorsque l’ordinateur apparaît, 5,5 avec l’arrivée d’internet, 7,5 milliard aujourd’hui.
Cette époque de l’abondance est aussi celle du gaspillage. Les meilleurs moteurs thermiques on un rendement d’à peine 30 à 50%, le reste de l’énergie étant perdu. Les sociétés occidentales consomment plus de viande, or il faut 7 fois plus de calories pour produire de la nourriture animale que de la nourriture végétale. « Dans le monde, le tiers des aliments destinés à la consommation humaine est gaspillé. En France, on estime que  près de 10 millions de tonnes de nourriture consommable sont jetées chaque année. » (site de l’Ademe). Ce gaspillage touche tous les secteurs, et pas seulement la nourriture.

Le retour au village

Nous sommes donc 7,5 milliards d’humains dont 10% vivent encore en dessous du seuil d’extrême pauvreté (moins de 1,9 $ par jour selon la Banque Mondiale). Les estimations varient entre 9 et 10 milliards à l’horizon 2050 (l’essentiel de l’accroissement venant de l’allongement de la vie). La nouveauté est que l’on commence à s’interroger sur la soutenabilité de cette croissance. Les experts s’accordent pour penser qu’il n’y a rien d’impossible à faire vivre toute cette population avec un mode de vie décent sur cette terre. Mais si le mode de vie qui s’impose partout est celui de l’occident et du gaspillage, il devient plus improbable.
C’est là qu’intervient le système d’information numérique. Faire mieux avec moins. Le moment est celui de la régulation. Elle apparaît dès que l’ordinateur permet de contrôler les processus industriels. Juste-à-temps, gestion des stocks, il faut réduire le délai de fabrication et les matières consommées. La dématérialisation des échanges se justifie par le nombre de forets sauvegardés.
Et aujourd’hui cela envahit la vie quotidienne. Les compteurs intelligents permettent réguler la consommation d’énergie, de produire au plus près des besoins. Priceminister, Airbnb, Blablacar permettent de réutiliser les biens devenus inutiles ou d’optimiser l’emploi des logements ou des transports. Internet permet aux AMAP (association pour le maintien d’une agriculture paysanne) et aux SEL (Systèmes d’Échange locaux), de vendre sans intermédiaires inutiles. Nous sommes entrés dans un espace collaboratif où chacun est conscient de sa responsabilité vis à vis des autres. Le soupçon d’obsolescence programmée qui pèse sur Apple devient un scandale mondial.
Nous retrouvons les valeurs du village de la crèche, solidarité et frugalité. Ceci a des bons comme de mauvais aspects. La solidarité c’est l’entraide, mais être solidaire, c’est aussi être soudés les uns aux autres. Les processus de production et d’échanges deviennent cybernétiques, nous dépendons des machines et les machines dépendent de nous. Nous cherchons à moins consommer, ce qui impose du pilotage, des outils de suivi et de surveillance. Et il sera impossible de trier entre bons et mauvais cotés de la solidarité. Comme les habitants du vieux village nous connaissons tout de nos voisins.

Piloter une transition pacifique

Le système d’information numérique bouleverse incontestablement nos vies. Pour beaucoup c’est une contrainte moderne, dont il faudrait se débarrasser.
Certes, le système d’information numérique est né de la guerre, l’ordinateur et internet répondaient d’abord à des besoins militaires. L’accumulation de capital permise par la dérégulation reaganienne a financé son développement en même temps qu’elle faisait croitre les inégalités.   Mais l’augmentation du nombre des humains dans un monde fini imposera la régulation que permet le numérique. Les seules alternatives sont la guerre ou la pandémie. Dans une chronique précédente, j’ai dis que le premier système d’information est peut-être né pour répondre à un changement climatique. Sans doute le sens du numérique est de nous permettre de faire pacifiquement cette nouvelle transition.

Publié dans developpement, Ecologie, gouverner, système d'information | Tagué , , , | Laisser un commentaire

Hippocrate

stethoscopeUne organisation est généralement destinée à rassembler des compétences variées autour d’un objectif commun. il peut arriver que certaines organisations oublient leur objectif.
La démonstration du film Hippocrate est à cet égard exemplaire.

Le pitch

La fiction médicale est un genre répandu à la télévision. De House à Urgence en passant par Grey Anatomy, ce genre a eu de nombreuses déclinaisons. Le film Hippocrate appartient à ce genre et a eu un succès d’estime lors de sa sortie en 2014 (il se trouve facilement en DVD). Pas d’histoire d’amour, pas d’actions spectaculaires, des acteurs peu connus, un réalisateur dont c’est seulement le deuxième film.
Mais le scénario est une mécanique de précision et dépasse le cadre de la fiction médicale. Il présente une institution, ici l’hôpital, qui a oublié sa raison d’être, et ne fonctionne plus qu’au profit des membres de l’institution, et plus de ses objectifs.
Résumons le « pitch » de Hippocrate.
Deux internes rejoignent le service de Médecine Générale d’un hôpital de banlieue parisienne. Benjamin est un jeune tout juste sorti de l’école et le fils du chef de service. Abdel est un immigré ayant déjà quelques années de pratique.
Ils vont chacun être confronté à un cas aigue se terminant par la mort du patient. Les critères principaux de l’assurance qualité permettent de juger leur démarche :

  • Ont-ils compris les besoins du client (ici le patient) ?
  • Tous les moyens matériels et humains sont-ils mis en œuvre pour répondre aux besoins du client ?
  • La réponse aux besoins du client est-elle correctement tracée ?

Voyons d’abord Benjamin :

  • Le client lui explique qu’il a mal, mais il choisit de ne pas l’écouter car le client arrive avec un dossier présentant une cirrhose du foie ; il est plus simple et moins dérangeant de penser que c’est cette cirrhose qui cause la douleur ;
  • Pour vérifier, il faudrait faire un électrocardiogramme (ECG) ; celui du service est en panne, et Benjamin n’a pas le courage de demander à l’infirmier d’aller en chercher un dans un autre service ;
  • Le patient meurt ; l’hôpital évite de montrer son dossier à la famille pour ne pas montrer l’erreur commise.

Passons à Abdel :

  • Le dossier de la patiente suivante lui est transmis par Benjamin ; Abdel l’examine et constate qu’elle a un cancer en phase terminale, non soignable ; il demande sa volonté à la patiente ; elle répond qu’elle souhaite surtout ne pas souffrir ;
  • Abdel met en place un protocole adapté à ce souhait, en prescrivant une injection de morphine ; comme Benjamin il se heurte au manque de matériel dans le service, mais il impose au personnel d’aller en chercher dans un autre service ; il s’oppose même à l’adjointe du chef de service qui s’inquiète du coût du maintien en vie d’une personne ; Enfin il met dans le dossier une note demandant qu’on ne réanime pas la patiente en cas d’attaque pour lui permettre de mourir dignement ;
  • Dans la nuit la patiente a une attaque ; elle est transférée au service de Réanimation, ramenée à la vie et renvoyée au service de Médicine Générale ; Abdel à son retour ne peut que constater les dégâts ; il demande l’avis de la famille présente ; avec son accord et conformément avec les vœux exprimés par la patiente il débranche le traitement entrainant le décès de celle-ci en douceur.

La comparaison des deux traitements du point de vu des critères de base de l’assurance qualité ne laisse pas de doute sur qui a correctement travaillé et qui s’est trompé. Pourtant l’institution hospitalière va réagir pour défendre Benjamin et éjecter Abdel. La volonté de l’institution de se défendre explique cette option surprenante.
Mettre en cause Benjamin c’est s’attaquer au fils du chef de service, mais en même temps c’est risquer de mettre à jour les failles de l’hôpital, économies sur le matériel, refus des infirmiers de répondre aux demandes de l’interne. C’est pourquoi, le chef de service lui-même ment à la famille en affirmant que l’ECG a été effectué.
Au contraire Abdel, n’a pas d’amis dans le service à part Benjamin, est rejeté par l’institution. Plus vieux, marié et chargé de famille, il ne s’est pas fait d’amis auprès de ses condisciples, qui ont peu de liens avec lui. Il a également irrité ses supérieurs en refuser de se plier au moment à la discipline budgétaire. Il se retrouve seul lors qu’il faut choisir entre respecter la volonté du malade ou celle de ses collègues. Il va transgresser la règle de collégialité pour ce type de décision, mais ses confrères lui ont-ils laissé le choix ?
Lors de la forme de procès qui lui est fait, on lui reproche de ne pas avoir respecté le budget, mais surtout, d’avoir remis en cause le traitement proposé par le service de Réanimation. Or la Réa, c’est le service noble, où se trouvent les meilleurs éléments. Mettre en cause ses décisions, c’est contester la hiérarchie de l’hôpital, refuser d’être solidaire du corps médical dans son ensemble et refuser de reconnaître la hiérarchie.

Morale de l’histoire

Laissons à ceux qui n’ont pas vu le film le plaisir de découvrir la dernière péripétie.
Le film a été vu comme une critique de l’hôpital, d’autant plus rude qu’elle vient de l’intérieur (le réalisateur est lui même médecin). Mais si le milieu médical apporte une touche de dramatisation, avec la proximité de la mort, la portée du film va au delà. Toute organisation peut oublier ses objectifs. Les spécialistes du management ne cessent de créer de nouveaux outils pour améliorer le pilotage des organisations, taylorisme, gestion de projet, contrôle de gestion, assurances qualité. Mais toute institution (école, entreprise, église, Etat) court le risque d’oublier sa raison d’être et de cesser d’y répondre. Elle finit alors par ne survivre pour que les besoins de ceux qui lui appartiennent.

Publié dans gouverner | Tagué , , , | Laisser un commentaire