Big Data : Mémoire de bruts

squelette biblioLe Big data est avec l’intelligence artificielle un des sujets à la mode dans les medias concernant le système d’information. Il soulève de multiples craintes. Ne risquons nous pas par ce moyen l’espionnage par un Big Brother malveillant ? Essayons de démythifier le sujet.

Qualité des données

La plupart des données qui entrent dans un système d’information sont saisies par les utilisateurs. La machine est capable de deviner l’heure et la date de la saisie et éventuellement la géolocalisation.  Tout le reste est déclaratif, et celui qui donne l’information peut se tromper ou vouloir tromper les autres.
Les concepteurs-développeurs mettent en place des contrôles pour limiter ces erreurs. Vérifier le format des dates, proposer un nombre limité de choix dans des menus déroulant.
Pourquoi acceptons nous d’entrer des données dans ce système, et de respecter les contraintes de saisie imposés par les concepteurs-développeurs ? Le  système d’information, numérique ou non, est d’abord un outil d’accompagnement des échanges de biens, de services ou d’heures de travail. Il produit des documents dont nous avons besoin (factures, bon de commande, bulletin de salaires, quittance de loyers, etc.).  De la qualité de ces documents dépend la propriété des biens, leur droit d’usage, leurs garanties, les impôts que nous payons, éventuellement la retraite à laquelle nous aurons droit. Et nous souhaitons que le système garde la mémoire de ces informations. Nous avons intérêt à leur conservation. Ceci est vrai que le système d’information soit fait d’encre et de papier, ou dématérialisé par le numérique. C’est dans les crises que la mémorisation des données apparaît la plus essentielle. Lorsqu’une entreprise diffuse un produit contaminé, tout le monde souhaite que ces produits soient rapidement retrouvés, et que le système d’information ait conservé la trace de leur circuit de distribution.
Ces données liées aux échanges sont le véritable trésor du système d’information. Elles contiennent l’histoire des pratiques, des envies, des besoins des utilisateurs.

Contrôleurs de gestion et marqueteurs

Ces données collectées sont surtout dans les systèmes d’information des entreprises qui ont produit ou distribués ces biens et ces services.  Ici affirmons qu’une entreprise est une entité socialement responsable. Par là, il faut entendre qu’elle est responsable vis à vis de ses actionnaires mais aussi de ses clients, de son personnel, et de son environnement naturel ou social. Cette responsabilité implique que le dirigeant soit capable de se projeter dans le futur. Est-ce que l’usine sera là dans dix ou vingt ans ? Est-ce que j’aurais encore un travail, et je pourrais me marier, faire des enfants, acheter une maison, payer les études. Telles sont les questions venues de son personnel auxquelles un entrepreneur responsable doit répondre.
Dans l’entreprise, deux catégories d’employés travaillent sur cette projection : les contrôleurs de gestion qui surveillent le budget, et les marqueteurs qui cherchent les besoins des clients. Ces deux espèces de fouineurs ont mauvaise réputation, sont réputés attenter à la liberté individuelle, et être les séides de Big Brother. Mais une entreprise qui fait des pertes financières met la clé sous la porte, et celle qui n’a plus de client disparaît également.  La survie de l’unité de production dépend donc de leur travail (qui existe depuis bien plus longtemps que le numérique.

Les débuts de l’analyse de donnée

Dès que  les statisticiens de tout poil  ont compris la richesse de données qu’il y avait dans le système d’information numérique, ils demandèrent à y accéder. Les concepteurs-développeurs essayèrent de répondre au besoin de ces analystes qui avaient l’oreille des patrons. Ils comprirent qu’il n’y avait pas de limite à la curiosité de leurs interlocuteurs. Les concepteurs développeurs s’épuisaient à coder ces requêtes. Ils leur donnèrent donc les clés du camion. Des droits d’accès spéciaux furent donnés à ces utilisateurs leur permettant de rédiger des programmes d’analyse. Cette manière d’agir s’avéra à risque élevé. D’abord, d’un statisticien à l’autre, la manière de faire les programmes différait, et à partir d’une même base de donnée on pouvait obtenir des résultats diamétralement opposés. Ensuite laisser des amateurs la possibilité de programmer dans le système s’avéra dangereux. Ensuite, ils pouvaient construire des programmes d’analyse tellement complexes qu’ils empêchaient tous les autres utilisateurs de travailler. Enfin ils pouvaient par erreur écrire des programmes qui modifiaient les données au lieu de les analyser.
Ce fut l’ère des infocentres. Les concepteurs-développeurs créèrent des bases de données qui étaient des répliques des bases d’origine. Elles devaient permettre à ces acharnés du chiffre de jouer en tous sens. Mais rien n’était véritablement réglé. En effet la taille des bases de données ne cessait d’augmenter. Les analyses faites jusque là consistaient en gros à spécifier ce qu’on voulait analyser, à demander au programme d’aller chercher les données en parcourant les bases de donnée puis d’attendre le résultat. En programmant de cette manière, même en confiant le travail à des professionnels, l’exécution du programme pouvait prendre des heures avec un résultat plus ou moins aléatoires. Le statisticien, après avoir lancé la recherche pouvait faire plusieurs tours à la machine à café avant d’avoir sa réponse.

Former-informer

Les concepteurs-développeurs comprirent qu’il fallait procéder autrement. Une information ce sont des faits, des idées, des images formés pour être communiqué. Cette mise en forme varie selon l’interlocuteur, ce que vous voulez qu’il fasse ou qu’il sache. Il faut lui donner toute l’information nécessaire et rien que cela pour éviter de le perdre.
Le statisticien étant un autre utilisateur, ayant d’autres besoins, il faut remettre en forme les informations. La donnée brute, immédiatement utilisable n’existe pas  dans le système d’information.
Il faut d’abord  sélectionner les données pertinentes, construire un périmètre utile à l’analyse.
Puis il faut apurer les données, retirer les couleurs, les caractères ou les mots parasite. Prenons l’exemple suivant : l’expression jeudi 12 avril 2018 est pertinente pour les acteurs opérationnels, en leur permettant de savoir sans doute possible que c’est bien dans trois jours qu’ils devront travailler. Le statisticien a juste besoin de la donnée 12/04/2018, qui dit la même chose sans redondance et dans une forme chiffrée plus facilement analysable.
Enfin il faut peut-être modifier les données pour les rendre pertinentes. Prenons deux exemples simplistes. Un collègue d’une entreprise de réseau m’expliquait qu’ils avaient cherché à recenser les clients ayant plusieurs points de connexion. « Monsieur le Maire » était arrivé en tète ce qui avec 36000 communes et quelques mairies annexes n’avait rien de surprenant.  Mais on pouvait douter qu’il s’agisse du même client. En rapprochant le nom de l’adresse de la commune vous avez une approximation meilleure. L’analyste peut supposer que tous les ponts de connexions ayant les données Maire/33980/Triffouillis correspondent au même client. Mais ce n’est qu’une approximation permettant d’aller vite (rien ne dit que la commune d’à coté n’a pas acheté un local à Triffouillis).  Maire/33980/Triffouillis est une information exploitable mais moins certaine que Maire seul ou Triffouillis seul.
Autre exemple, si vous allez dans le système documentaire d’une entreprise vous trouverez facilement des centaines de fichiers dont le nom est compte-rendu.docx. Les données qu’ils contiennent sont sans doute passionnantes pour connaître le processus de décision de l’entreprise, son organisation, et in fine à qui vous porterez des oranges en prison si une mauvaise décision a été prise. Mais, sans la date, le lieu, l’objet, le nom des acteurs présents à la réunion dont ce fichier est le compte-rendu, il est difficilement exploitable. C’est pourquoi tous les grands du Big Data emploie des armées de troufions aux Indes, en Chine, en Afrique ou en Amérique du Sud. Ces salariés mal payés vérifient des données, les saisissent, les remettent en forme, lisent des photos mal scannées, contrôlent des bases de données. Ces services ne passent pas devant un douanier.  Mais Czi Manuel continue son travail silencieux.
Ensuite le résultat peut être bluffant. Avec des réseaux en fibre où l’information  circule à la vitesse de la lumière, des processeurs avec des vitesses d’horloge à 2Ghz (deux milliards d’opérations par seconde), des modèles mathématiques sophistiqués permettant de paralléliser les taches, vous avez une puissance de calcul comme l’humanité n’en a jamais eu.
Auparavant, vous avez du périmétrer/apurer/modifier. Si l’analyse permettant d’y arriver a mal été pensée, ou mal exécutée (un salarié mal payé n’a jamais été un gage de qualité), votre résultat sera bon pour la poubelle. Et cela dépend de la compétence sociétale, politique ethnographique, des concepteurs-développeurs autant que leur capacité à définir des modèles mathématiques complexes. Le système d’information, numérique ou non, c’est encore de la sueur et des larmes. Le temps où Big Brother saura tout de vous n’est pas pour demain.

Publié dans big data, système d'information | Laisser un commentaire

Industrie lourde : les fermes de Google

Blade RunnerLe nouveau documentaliste

Apple vend des machines et des logiciels.  Microsoft vend des logiciels.  Google ne vend rien, il rend des services.
Il aide ceux qui cherchent des informations à les trouver. Il permet à ceux qui veulent transmettre leurs informations de les faire connaître. Il a donc deux types de clients les demandeurs d’informations et les offreurs d’informations. Pour faciliter cette recherche il a complété son offre en permettant de traduire l’information (Google Traduction), à les localiser (Google Maps), éventuellement même il aide à la stocker (YouTube, Google+).
Ces métiers n’ont rien de nouveau.  Depuis que l’écriture s’est développée, des documentalistes et des bibliothécaires aident les lecteurs, des traducteurs facilitent l’échange avec l’étranger, des guides et des pilotes  conduisent les autres.
Mais le travail est désormais fait par un code dans lequel est introduite la question. Google a commencé en inventant un code de recherche dont l’algorithme était largement supérieur à celui de ses concurrents comme Yahoo. Contrairement à Microsoft ou Apple, qui vendaient leurs matériels et leurs logiciels, Google a fait tourner ses algorithmes sur des machines lui appartenant et ne délivre que la réponse à la question.

Les fermes de serveurs

Pour faire cela Google a besoin d’un énorme parc de machines. Wikipédia nous dit « En 2011, Google possédait un parc de plus de 900 000 serveurs, …,  ce qui en fait le parc de serveurs le plus important au monde (2 % du nombre total de machines), avec des appareils répartis sur 32 sites. » L’article référence sur lequel s’appuie Wikipedia ajoute que ces serveurs consomment 1,1% à 1,5% de l’énergie électrique mondiale.  Ces chiffres sont à prendre avec précaution. Google ne fait pas de publication officielle sur son parc de machines. Ce parc doit varier régulièrement en fonction du trafic qui passe dessus. Il peut comporter des machines dont Google est propriétaire et d’autres qu’il loue à d’autres. Mais la taille colossale de ce parc est certaine.

De l’industrie légère à l’industrie lourde

Et cela change profondément le modèle de l’économie numérique qui s’appuie dessus. L’actif principal de Apple et Microsoft n’est pas leur outil industriel, mais la propriété intellectuelle des machines et des logiciels qu’ils conçoivent (et qu’ils de fabriquent pas vraiment, puisque la quasi totalité de la fabrication est sous-traitée). Ce bien est un actif non rival (tout personne qui les installe sur ses propres machines peut les utiliser).
Au contraire Google assoit son modèle industriel sur l’administration et l’utilisation de ces milliers de serveurs informatiques donc sur un actif rival. Pour pouvoir le concurrencer il faut disposer d’un parc de machines équivalent, ce qui place la barre très haut. C’est une différence majeure. Bill Gates peut ne disposer d’aucune machine, il continuera à être rétribué par les royalties sur les logiciels qu’il a conçu jusqu’à épuisement des droits qu’il a acquis. Au contraire, Google, s’il n’a plus de machines, ne peut plus rendre de service et cesse de percevoir des revenus.
Google fait le travail les documentalistes d’antan, mais les remplaçant par des machines. C’est typiquement un modèle industriel qui substitue le travail par du capital, suivant la formulation des économistes. Et elle le fait à un niveau jamais vu auparavant. L’économie numérique de Google est une industrie lourde, nécessitant un outil industriel gigantesque.  Certes l’algorithme de recherche est au cœur de cet outil, mais il est inutile sans les fermes de serveurs qu’utilise l’entreprise tout autour du monde.

Des clients asymétriques

J’ai commencé en disant que Google a deux types de clients, ceux qui cherchent des informations et ceux qui offrent des informations. Il faut bien financer son parc de machines et donc faire payer des clients. Le choix est totalement asymétrique. Ceux qui offrent des informations payent s’ils veulent qu’elles soient connues. Google est devenu la première agence publicitaire mondiale, écrasant tous les autres médias. C’est qu’il offre à ses clients une tarification adapté. Il demande à être payé en fonction du nombre de vues de la publicité. Contrairement à ce qui se passe pour les autres médias (journaux, affiches, prospectus), il offre donc une garantie de visibilité à ses clients payants. Il a donc intérêt pour assurer cette visibilité d’avoir le plus grand nombre de clients qui cherchent des informations. Google est l’un de ceux qui ont supposé qu’il fallait s’appuyer sur la multitude pour gagner de l’argent. Il ne fait donc pas payer ceux qui cherchent. Il va même plus loin.
Pour éviter que certains autres industriels cherchent à compartimenter le marché de l’information (c’est en particulier le cas de quelqu’un comme Apple qui a tendance à obliger ses utilisateurs à n’utiliser que les produits qu’il fabrique). Google va donc offrir gratuitement certains produits. Il déploie Android,  concurrent de Windows et de l’OS d’Apple, Chrome qui concurrence Internet Explorer ou Safari. Il finance aussi les logiciels libres ; il emploie certains des développeurs de Linux, Il est un partenaire majeur de Mozilla, la fondation qui développe le navigateur Firefox. C’est un modèle économique radicalement opposé à celui de Steve Jobs qui souhaitait lui déclarer une guerre thermonucléaire.
Il n’y a là dedans aucune philanthropie. C’est parce que les offreurs qu’il fait payer souhaitent avoir le plus de prospects possibles qu’il développe la gratuité pour les chercheurs.
Il va plus loin. Il donne la possibilité aux chercheurs de devenir offreurs. Tout le monde peut utiliser son application de Cloud, Google Drive pour stocker de ses images, ses vidéos ou ses documents et les diffuser à des amis ou des connaissance. Mais dans ce cas, le chercheur devient offreur d’information. Après l’offre promotionnelle de quelques Giga bits, il faudra payer le stockage et la possibilité d’échanger. Un chercheur qui devient diffuseur est donc un offreur comme un autre qui devra financer l’outil industriel de Google.

Un capitaliste responsable

Il ne faudrait pas conclure qu’Alphabet, le groupe propriétaire de Google est un thuriféraire du logiciel libre, un partisan de la gratuité de l’information et un doctrinaire opposé aux principes de la propriété intellectuelle. C’est d’abord un entrepreneur capitaliste qui adaptera sa stratégie à la maximisation de son profit. L’algorithme du PageRank, le logiciel de son moteur de recherche est breveté depuis l’origine pour éviter toute copie. Google, utilise aussi le secret industriel. On ne peut connaître le code exact des programmes qu’il fait tourner sur ses serveurs.  Il n’hésite pas à attaquer en contrefaçon les industriels qui  copient les résultats de ses laboratoire de recherche (il a ainsi attaqué UBER qui cherchait à rattraper son retard dans le véhicule autonome en débauchant des chercheurs de Google). Le paiement de royalties d’une filiale par une autre, basés sur ces droits de propriété intellectuelle lui permet aussi de faire circuler ses profits d’un pays à l’autre et de les héberger in fine dans des paradis fiscaux.
Par contre on peut parier que son modèle économique serait viable même sans droit de propriété intellectuel. Il est d’abord basé sur l’usage de ces milliers de serveurs, qui constituent la base de son outil industriel. La propriété intellectuelle a permis à Larry Page et Serguei Brin d’entrer dans le cercle fermé des plus grandes fortunes mondiales, mais ils auraient sans doute vécu confortablement si elle n’existait pas.

Bibliographie

Article Google de Wikipedia (état au 13 novembre 2017)
Nil Sanyas, « Google : le nombre et la consommation de ses serveurs », sur pcinpact.com, 2 août 2011
David Evans Richard Schmalensee : de précieux intermédiaires (Odile Jacob ; 2017)

Publié dans big data, maitrise d'ouvrage, propriété intellectuelle, système d'information | Tagué , , , , , | Laisser un commentaire

Les règles d’Elinor 2 : un monde de service

Ostrom2Elinor Ostrom, prix Nobel d’économie 2009 a démontré que même dans un environnement naturel chaotique, une communauté organisée n’avait pas besoin de l’appropriation des biens par un capitaliste pour augmenter la valeur de ses actifs. Elle peut aussi fonctionner sans régulation par l’Etat. Ni capitalisme, ni collectivisme dans ces  communautés auto-organisées.

Le monde incertain du système d’information numérique

En quoi la démonstration d’Ostrom sur les communautés traditionnelles exploitants des ressources naturelles est-elle pertinente dans le monde ultra-moderne des projets numériques.
D’abord, parce que l’un et l’autre fonctionnent dans un environnement incertain. Le changement actuel, c’est l’application de nouvelles technologies à des processus anciens. Cela génère trois inconnues majeures.
La première est que le processus ancien est inconnu. Pour faire réaliser à une machine ce qui était fait par un humain, il faut décrire complètement et en détail le processus opérationnel. Certes celui-ci est souvent encadré par des lois et des règlements intérieurs, mais il ne faut pas présupposer qu’ils sont respectés. Pour permettre au processus de vivre, les acteurs adaptent, s’arrangent avec les règles. L’analyse fonctionnelle devra décrire non seulement le processus théorique décrit par les textes, mais aussi la réalité du travail par les acteurs de terrain. D’où de nombreuses heures d’entretiens et de lectures. Et bien souvent, les concepteurs-développeurs ne seront certains d’avoir tout compris qu’après le démarrage.
Deuxième inconnue, les technologies nouvelles. La loi de Moore conduit à une évolution permanente de l’environnement matériel. La science du logiciel est toute nouvelle et ses possibilités sont infinies. Le concepteur-réalisateur se trouve dans un environnement mouvant. Il espérait utiliser des outils déjà rodés par d’autres projets, dans d’autres contextes. Il découvre en cours de réalisation que ces merveilleux systèmes que lui ont ventés ses fournisseurs ou ses techniciens sont encore en version d’essai (remercions l’inépuisable imagination des ingénieurs systèmes et des architectes techniques). Lorsqu’il a terminé le projet, il découvrira peut-être que ce qu’il a fait est déjà dépassé par d’autres technologies.
Troisième inconnue le changement lui-même. Rien n’indique que ce changement sera accepté par les acteurs. Ceux-ci savent que dans un changement, il y a souvent des gagnants et des perdants. Ces derniers subiront plus de contraintes et de stress qu’auparavant, ou même perdront leur emploi. Leurs routines, leurs habitudes les rassuraient, leur garantissait une autonomie qu’ils risquent de perdre. Ils vont donc résister au changement.
Et cette incertitude liée aux trois inconnues a conduit à l’utilisation systématique des structures projets dans le monde du numérique.

Le projet et les règles d’Elinor

Pour les connaisseurs du fonctionnement des projets et de l’assurance qualité, les règles d’Elinor Ostrom ont quelque chose de familier :

  • choix des membres de l’équipe projet, les gens doivent se connaître, avoir des compétences complémentaires (ce qui suppose que chacun sache ce que doit faire l’autre), un objectif commun ;
  • établissement de règles précises via les contrats, le plan d’assurance qualité, le planning l’analyse de risque ;
  • existence d’un système de surveillance (gloire au PMO) qui contrôle, vérifie en permanence l’atteinte des objectifs ; comme la communauté villageoise tout le monde se connaît dans l’équipe projet, et est capable de dire si l’autre travaille ou profite de ses semblables ; le système de sanction existe mais le mot d’ordre général est « ne chercher pas de coupables, chercher la solution »
  • existence d’instances de pilotage hiérarchisés (Directoire, comité de pilotage, comité de contrats) ; ils permettent aux membres de l’équipe et à ceux qui les entourent de faire évoluer en permanence les règles du projet ; celles-ci ne sont pas un carcan, mais un cadre mouvant qui évolue en fonction des difficultés auxquelles le projet doit faire face.

Tous les projets qui associent un maître d’ouvrage et un maître d’œuvre respectent plus ou moins les règles d’Elinor.

Qui paie ?

Comme le soulignait Bill Gates dans ses débats avec la communauté des hackers californiens, à un moment il faut payer les concepteurs-développeurs. C’est la justification habituelle de la propriété intellectuelle, elle permet au propriétaire fait payer ceux qui veulent utiliser ce bien. Mais elle s’accompagne de multiples inconvénients, elle génère une rente, qui peut largement dépasser le simple retour d’investissement. Elle limite l’échange de connaissance, en autorisant le propriétaire à refuser l’accès aux informations dont il a la propriété. Elle est donc en définitive un frein à l’innovation comme à la concurrence.
Mais si elle est supprimée, comment rémunérer les concepteurs développeurs ?
Certains préconisent de revenir aux vieilles recettes du temps de la guerre froide et de l’ardente obligation du Plan : faire payer l’Etat. Un Système d’information efficace est un bien public comme un autre, comme les routes ou les écoles ; son entretien et son développement devrait être de la responsabilité de l’état ; après tout, l’ordinateur, l’internet ont bien été créés au départ pour des besoins militaires sur des deniers publics.
Cette option se heurte à deux  objections l’une théorique, l’autre pratique.
D’abord, un Etat ne financera pas une activité sans intervenir dans sa gouvernance ; Dans la démonstration d’Ostrom, les participants à la communauté connaissent mieux que tout autre ce qu’ils veulent et la façon d’y parvenir : la gouvernance par un externe, fonctionnaire de l’Etat ou mandataire d’un propriétaire actionnaire sera toujours moins efficace que celle par les membres de la communauté auto-organisée.
Ensuite les Etats ont entrepris depuis trente ans de se retirer des services publics, pour concentrer les dépenses sur les pouvoirs régaliens (police, armée, justice…) et les services sociaux (santé, chômage, revenu minimum, retraites…), il est improbable qu’ils reviennent en arrière pour financer le système d’information numérique.

Une économie de services

L’outil numérique sert principalement à échanger et  à produire des services.
C’est l’utilisation première de ces outils pour les maîtres d’ouvrages classiques. Par exemple, lorsque les banquiers font développer du système d’information, ce n’est pas pour vendre des algorithmes ou du code (ou alors très marginalement). C’est pour mieux faire leur métier, augmenter leur volume de vente de prêts d’actions et tout autre produit financier.
De même, les nouveaux acteurs du numérique, Google, Facebook, Uber, Airbnb, Blablacar, vendent du service et non du code. Le cyberespace a modifié le modèle industriel de base du système d’information numérique. Auparavant, les fabricants vendaient des logiciels et des machines. Maintenant, ils proposent d’utiliser des logiciels sur leurs machines dans le Cloud, auxquelles  l’utilisateur accède via internet. La propriété intellectuelle ne joue plus un rôle central dans leur modèle économique contrairement celui de leurs prédécesseurs, Apple ou Microsoft. Elle s’efface lentement.

Bibliographie

Elinor Ostrom : Gouvernance des biens communs (De Boeck ; 2010)
Benjamin Coriat et autres : Le retour des communs : la crise de l’idéologie propriétaire (les liens qui libèrent ; 2015)

Publié dans gouverner, propriété intellectuelle, système d'information | Tagué , , , , | Laisser un commentaire

Les règles d’Elinor 1 : Y-a-t-il un propriétaire dans l’avion ?

Ostrom 1J’ai consacré plusieurs chroniques à parler d’Oliver Williamson, Prix Nobel d’économie 2009. Je n’ai pas parlé d’Elinor Ostrom qui a été honorée en même temps que lui. Pourtant elle peut nous apprendre beaucoup sur la gouvernance d’un système d’information.

Retour sur les coûts de transaction

En m’appuyant sur les travaux de Williamson j’ai essayé de montrer que la fabrication d’un système d’information numérique ne répond pas aux règles de l’économie classique. Ni l’économie de marché, ni l’économie planifiée à la soviétique ne permettent de faire un programme performant pour un coût acceptable. Il ne suffit pas de commander un travail à un prestataire après l’avoir mis en concurrence. Il ne suffit pas non plus de donner un ordre à un salarié.
La réalisation d’un système d’information adapté, demande un délai, et pendant ce délai, il faudra faire travailler ensemble différents acteurs aux compétences pointues (concepteurs, développeurs, architectes et urbanistes, testeurs, chargés de reprise ou de la conduite du changement, PMO). Ces acteurs devront échanger de multiples informations pour créer ensemble le nouveau système : connaissance du processus que l’outil numérique doit aider à réaliser, connaissances des possibilités permises par ces outils numériques, compétences des acteurs du projet). Tant que ces informations n’auront pas été toutes échangées, il ne sera pas possible d’établir un prix définitif (alors que le signal prix est la base de la mise en concurrence en économie de marché). C’est ce travail d’échange d’information que Williamson appelle les coûts de transaction, qui empêchent l’établissement d’un prix crédible.
C’est pourquoi ces échanges doivent être organisés par un contrat, dans lequel les différents partenaires s’entendent sur l’objectif à atteindre, les règles du jeu à respecter et la manière dont se partageront les bénéfices.
Il y a une question à laquelle Williamson ne répond pas vraiment : à qui doit appartenir le produit terminé ?
La question de la propriété des biens est au contraire l’objet des travaux de l’économiste américaine Elinor Ostrom.
Avant de venir à l’impact des travaux d’Ostrom sur le numérique, il faut présenter ces travaux qui portent sur l’utilisation des ressources naturelles, l’eau, la foret, les bancs de poissons.

Opportunisme

Ostrom part des mêmes présupposés anthropologiques que Williamson :

  • l’être humain cherche toujours à tirer le plus d’avantage d’une situation (l’économiste dit qu’il cherche à maximiser son profit),
  • En même temps, il ne dispose pas de toutes les informations lui permettant de connaître son intérêt véritable, et surtout il ne sait pas comment agiront les autres acteurs économiques (il est dit en situation de rationalité limitée).

La conjonction de ces deux facteurs fait qu’il y a un risque de comportement opportuniste des acteurs. Ceux-ci profiteront de l’insuffisance d’informations des autres. Ils chercheront à tirer le maximum d’avantage, au détriment de leurs semblables et de la collectivité. Orstrom montre que ce comportement est quasi-inéluctable. Pour cela elle s’appuie sur la théorie des jeux et le fameux dilemme du prisonnier (voir l’article très explicatif de Wikipédia sur le dilemme du prisonnier).

La tragédie des communs

Que se passe-t-il lorsque ces acteurs opportunistes doivent partager une ressource naturelle : prairie, eau, foret, bancs de poissons. Ne risquent-ils pas de l’exploiter jusqu’à l’épuisement, à la disparition du moindre brin d’herbe, de la moindre goutte, de tous les arbres ou tous les poissons. Ce risque est d’autant plus grand, que l’étendue exacte de ces ressources est inconnue. Suivant la météo, les maladies, la nature du sous-sol et toute sorte d’aléas, ces ressources peuvent disparaître et chacun s’efforcera d’en prendre la plus grande partie. La réponse classique est qu’il faut un pilote dans l’avion. Il faut un propriétaire, privé ou public de cette ressource naturelle qui protégera ce bien et régulera son utilisation.
Le biologiste Garrett Hardin, a dans les années 60 formalisé cela dans ce qu’il a appelé la tragédie des biens communs. Des terres mises en commun sans régulation par un propriétaire ou un Etat, sont exploitées jusqu’à leur épuisement par ceux qui les utilisent, du fait de leur comportement opportuniste. En somme, entre la propriété privée et le collectivisme soviétique, il n’y aurait pas de milieu, pas de solution qui permette la protection des actifs dont tout le monde a besoin. La tragédie des biens communs apporte une justification théorique à l’appropriation des biens par des capitalistes ou par l’Etat.

Les critiques d’Ostrom

Ostrom fait diverses critiques à cette justification de la propriété, dont deux principales :

  • Ceci ne correspond pas à l’expérience réelle. Il existe sur Terre des exemples de ressources naturelles qui ne font pas l’objet d’appropriation par une personne ou par l’Etat, et qui pourtant sont exploitées de manière raisonnée parfois depuis plusieurs siècles ; que ce soit dans les zones irriguées du pourtour méditerranéen ou du Sud-Est asiatique, dans les forets du Japon, les réserves d’eau de la Californie, ou dans les pêcheries de la Nouvelle Angleterre, partout dans le monde se trouvent des exemples où les gens ont réussi à s’entendre sans présence d’un suzerain propriétaire ;
  • La théorie de la tragédie des communs répond au pourquoi et non au comment se fait l’optimisation de la gestion des ressources. Elle affirme que le propriétaire a intérêt à faire fructifier son bien et donc qu’il fera ce qu’il faut pour qu’il ne soit pas surexploité ; cela ne dit pas comment il s’y prend pour obtenir cette régulation ; et même comment s’assurer le propriétaire souhaite conserver son bien. Il peut très bien avoir lui-même un comportement opportuniste, visant à épuiser son bien sans soucis de ce qu’il transmettra à sa descendance ; « Après moi le déluge » ; il peut aussi se conduire en prédateur nullement préoccupé de la conservation du bien.

Les règles d’Ostrom

A partir de ces exemples, Elinor Ostrom entreprend de refonder l’analyse du fonctionnement de la gouvernance.
Elle dégage plusieurs constances :

  • Toutes ces communautés qui s’autogouvernent rassemblent des agents économiques ayant des comportements et des intérêts communs ; Dans ces communautés villageoises le comportement opportuniste de l’un se voit immédiatement ;
  • Les règles que ces communautés se donnent sont à chaque fois adaptées au contexte ; elles ne sont pas toujours optimales par rapport à la situation, mais, ont été faites par les membres de la communautés dans un processus d’essais et d’erreurs ; le résultat sont des règles acceptées par tous, et permettant un fonctionnement minimal de la communauté ;
  • Chaque communauté s’est dotée d’un système de surveillance et de sanctions permettant de gérer les comportements opportunistes. La surveillance est caractérisé par son intégration dans le processus de production (au minimum les surveillants font partis des membres de la communauté, au mieux, la surveillance se fait à travers le processus de production) ; les sanctions sont très progressives ; l’idée est moins de punir ceux qui ont eu un comportement opportuniste que de leur rappeler les règles auxquelles ils doivent obéir ;
  • Chaque communauté s’est dotée d’un système structuré d’arbitrage, qui permet à la fois de régler les conflits et d’adapter les règles aux évolutions de la situation.
  • Les communautés ainsi constituées peuvent aussi échanger avec d’autres communautés constituant des chaines de communauté, liées entre elles par des règles respectant que celles qui viennent d’être exposées.

Ces règles ont un double effet pour le personnage opportuniste. Certes l’environnement naturel, économique et social, reste incertain, mais il sait que la surveillance permettra de détecter et sanctionner le comportement opportuniste qu’il pourrait avoir. Il sait aussi que les autres membres de la communauté sont également contraints par ce réseau de lois, de surveillance, de sanction et de mécanisme d’arbitrage. Ainsi le comportement des uns et les autres devient prévisible et permet des décisions informées.

Les règles que propose Ostrom n’ont rien de spécifique aux communautés auto organisées. Elles peuvent être mises en œuvre par un propriétaire pour gérer son actif ou un Etat pour gérer son domaine public. Mais elles montrent surtout que l’efficacité de la gouvernance n’est pas liée à la présence d’un chef de droit divin (chef d’Etat ou propriétaire tout puissant). L’appropriation du bien collectif par une personne ou par un Etat n’est plus la condition d’une bonne gouvernance.

Bibliographie

Elinor Ostrom : Gouvernance des biens communs (De Boeck ; 2010)

Publié dans gouverner, propriété intellectuelle, système d'information | Tagué , , , | Laisser un commentaire

Les métamorphoses d’Hendrix

GABI GUITARES 2Cette chronique échappe par son format et son sujet aux habituelles chroniques de ce blog consacré au numérique. Elle est l’occasion pour un fan de se faire plaisir, tout en s’excusant de sa longueur inusitée. Elle n’est cependant pas complètement hors sujet.
Un nouvel album d’Hendrix, Both Sides of the Sky, paraît en ce mois de mars 2018. Quarante-huit ans après sa mort, le guitariste continue de publier des œuvres originales. Cet exploit ne doit rien au spiritisme, aux techniques d’Alan Kardec ou de l’art de faire tourner les tables pour écouter l’âme des morts. Mais il doit beaucoup aux techniques du numérique et aux méandres du droit de propriété intellectuelle, sujets de ce blog.
Cette histoire mérite d’être contée.

Les enregistrements d’Hendrix

L’ancien bassiste du groupe The Animals, Chas Chandler décide en 1966 de se reconvertir. Son groupe a connu un énorme succès en 1964 avec House of the rising sun, mais il est en perte de vitesse. Chas souhaite devenir manager. En octobre 1966, il débarque à l’aéroport de Londres avec un guitariste prodige qu’il a rencontré à New York, James Marshall Hendrix.
Il lui donne un nom de scène, Jimi Hendrix, et réunit autour de lui une petite équipe. L’ancien manager du groupe The Animals, Mike Jeffery l’épaule pour la partie administrative et commerciale. Mitch Mitchell et Noel Redding deviennent respectivement batteur et bassiste du groupe. Au cours des premiers enregistrements le groupe est rejoint par un ingénieur du son, Eddy Kramer. Celui-ci va jouer un rôle important dans le processus créatif. Seul membre de l’équipe à avoir une véritable éducation musicale (Hendrix lui même ne sait ni lire ni écrire la musique), le sud-africain Eddy Kramer apportera un surcroit de compétence important pour l’équilibre général.
La formule musicale est novatrice. Les Who ont été le premier groupe à succès composé d’un chanteur, d’une guitare, d’une basse, et d’une batterie, Depuis Armstrong, la section rythmique comprenait trois à quatre musiciens, batterie, basse, piano et ou guitariste, devant lesquels s’agitaient un chanteur et un ou plusieurs solistes. Cette formule est encore celle des Beatles, des Stones ou des Animals. Les Who simplifient radicalement le groupe, plus de guitariste rythmique ou de clavier. Cela impose plus de rigueur aux membres, pour tenir le tempo ou l’harmonie. Mais elle apporte aussi beaucoup de liberté aux musiciens. Les Who deviennent célèbres avec leur batteur fou, Keith Moon, qui apporte un contrepoint riche au chanteur Roger Daltrey et au guitariste, Pete Thomsen. Leur bassiste John Entwistle n’hésite pas à faire un solo, comme sur le premier succès du groupe, My Generation en 1965, et lui aussi, au lieu de se contenter de tenir le rythme fournit un complexe contrepoint.
Un autre groupe, Cream est formé en 1966 autour d’Eric Clapton. Il adopte la même formule instrumentale, mais avec plus de virtuosité (Jack Bruce et Ginger Baker qui tiennent la basse et la batterie sont à l’origine des musiciens de jazz).
Le Jimi Hendrix Experience est dans la continuité des Who et de Cream. A la formule novatrice du groupe, il ajoute la personnalité d’Hendrix lui même. C’est un homme jeune (il a 24 ans en 1966). Il n’hésite pas aussi bien en studio que sur scène à utiliser tous les ressources que permet l’amplification de l’instrument : distorsion, larsen, pédales d’effet, empruntant à Pete Thomsen et à Eric Clapton. En même temps il est un noir américain. Il apporte une voix, une compétence dans le blues, qui donne une profondeur humaine inusitée au groupe, l’impression d’entendre la musique d’une autre époque et d’un autre lieu (beaucoup de vieux bluesmen reconnaîtront Hendrix comme l’un des leurs).
La petite équipe ainsi constituée, avec des remaniements va enregistrer jusqu’à la mort du guitariste en septembre 1970. Elle a signé un contrat avec Track Record, la compagnie d ‘enregistrement des Who et de leurs managers Chris Stamp et Kit Lambert.
Les enregistrements réalisés par cette équipe peuvent se classer en trois groupes :

  • studio : cela comprend les morceaux destinés à être publiés, des essais préalables, parfois avec d’autres musiciens, des répétitions pour préparer les concerts, des séances parfois interminables où Hendrix tente de créer des formes musicales. Se rattachent à ce bloc des enregistrements de travail, avec une guitare acoustique pour créer de nouveaux morceaux, ou les enregistrements de la BBC (pour éviter de payer des droits aux maisons de disque, la chaine publique anglaise faisait réengistrer aux groupes leurs morceaux) ; ne sachant pas lire la musique, et en même temps perfectionniste maladif, Hendrix ne cesse d’enregistrer pour s’écouter et écouter le travail de ses accompagnateurs ;
  • publics : Le groupe va donner du 13 octobre 1966 au 6 septembre 1970, 527 concerts répertoriés. Il a sans arrêt besoin d’argent. Pour soutenir un train de vie échevelé, mais aussi pour financer les séances d’enregistrement, et à partir de 1969, la construction de son propre studio à New York. Les concerts sont un moyen rapide pour faire rentrer de l’argent. Outre les enregistrements pirates de qualité incertaine, une vingtaine de ces concerts ont été enregistrés de manière professionnelle, soit pour préparer la publication d’un éventuel album public, soit parce qu’ils avaient lieu dans le cadre d’un festival dont les promoteurs espéraient tirer documentaires et disques souvenirs ; la connaissance de la musique d’Hendrix passe beaucoup par ces concerts, car l’interprétation pouvait beaucoup changer d’un concert à l’autre et par rapport aux enregistrements studio. D’autre part, le groupe faisait beaucoup de reprises de morceaux d’autres artistes qui n’existent que dans les version concert ;
  • Les enregistrements d’avant la gloire : Hendrix lorsqu’il est découvert a déjà plusieurs années de carrière. C’est un musicien compétent qui a beaucoup tourné dans le Chitlin Circuit, le circuit des salles destinées au public afro-américain. Il a travaillé avec des gens comme Little Richard ou les Isley Brother. Il a aussi enregistré pour des musiciens moins connus comme Lonny Youngblood ou Curtis Knight. Dans tous ces enregistrements, Hendrix est un simple collaborateur, mais les artistes et producteurs qui les ont fait s’efforceront ensuite de profiter de sa gloire. Surtout les séances avec Knight font l’objet d’un contrat d’exclusivité pour trois ans avec le producteur Ed Chalpin, signé le 15 octobre 1965. Ce document va jouer un rôle majeur dans la publication des enregistrements.

A partir du moment ou Hendrix sera devenu célèbre, Chalpin se rappellera à son souvenir pour réclamer sa part du gâteau. Il possède le droit d’édition sur tout enregistrement du musicien du fait de ce contrat. Les producteurs et managers qui ont financé ces enregistrements n’entendent pas se faire voler par ce coucou venu de nulle part, et vont longuement négocier avec lui pour limiter ses prétentions.
Pour compliquer encore un peu plus la situation, l’équipe a besoin de faire rentrer de l’argent. Contre des avances financières, Mike Jeffery cède les droits des concerts enregistrés.
En synthèse, au moment de la mort du guitariste il existe une montagne d’enregistrements, dont seulement une partie est publiée, et dont la propriété intellectuelle se repartit entre une multitude d’intervenants.

Les publications du vivant d’Hendrix

On résume généralement les publications du vivant d’Hendrix à trois albums studio etGabi guitare un live. C’est une vue réductrice qui rend mal compte de la réalité.

L’ère Chandler

De octobre 1966 à avril 1968, Chas Chandler est aux commandes. C’est à l’époque de la transition entre le 45T et le 33T. Les artistes sont invités à publier des 45T avant d’être autoriser à sortir des albums, plus onéreux à produire.
Le groupe publie un premier 45T le 16 décembre 1966, avec en face A Hey Joe qui est un succès immédiat. Ils enchainent avec deux autres 45T, dont le premier contient Purple Haze qui est aussi un succès. Enfin le premier album Are you experienced paraît le 12 mai 1967. Il ne contient aucun des titres des 45T. Cependant c’est un succès (2ème au classement des ventes au Royaume Uni). Mais le distributeur américain demande que les faces A des trois 45T soient réintroduits sur l’album, au détriment d’autres morceaux (en particulier de Red House qui sera un des titres les plus joués en concert). Cette version aménagée est publiée en aout 1967 et connaît aussi le succès (en juin, Hendrix vient de voler la vedette à tous les groupes présents au Monterey Pop Festival). Un autre 45T parait en août, avec le titre Burning of the Midnight Lamp.
Un deuxième album est publié en décembre 1967, Axis : Bold as Love. Le son est enrichi par l’apport d’instruments extérieurs comme le piano, la flute, ou le glockenspiel. Des effets stéreo sont ajoutés. Mais globalement ce deuxième album produit par Chas Chandler est dans la lignée du précédent (et il ne contient pas toujours les titres du 45T)
Le groupe a à peine plus d’un an d’existence, mais il publie une compilation des meilleurs titres. Smash Hits sort en avril 1968 en Grande-Bretagne. Il contient tous les titres de 45T, plus quelques titres de Are you Experienced. Les fans américains devront attendre juillet 1969 pour avoir cet album dans une version très remaniée. Elle contient les titres retirés de la version américaine de Are you Experienced, dont Red House dans une version différente de celle de l’album original. Sont aussi ajoutés des titres de Electric Ladyland.
A ce stade, le Jimi Hendrix Experience a enregistré 3 albums dont deux dans des versions différentes selon les continents. Les fans britanniques qui ont les deux premiers albums, sont obligés d’acheter la compilation s’ils veulent avoir les plus gros succès du groupe.

Electric Ladyland

En 1968, Chandler et Hendrix ne peuvent plus se supporter. La rigueur de l’un fait mauvais ménage avec l’indiscipline et le perfectionnisme maniaque de l’autre. Le manager part pendant les séances d’enregistrement de la nouvelle œuvre. Electric Ladyland sort en octobre 1968 et est un énorme succès. C’est un double album, même si la maison de disque Tracks Record publie une version en un seul disque (avec la face 2 et 4 de l’album original). Il est considéré, à raison comme l’acmé de l’œuvre d’Hendrix. C’est en même temps une œuvre à part.
Les enregistrements de l’époque Chandler ont été fait, à Londres par une très petite équipe, les trois musiciens, Chandler et Eddy Kramer et un ou deux ingénieurs du son différents. Electric Ladyland voit intervenir de nombreux musiciens additionnels comme Stevie Winwood ou Buddy Miles. Redding est écarté de beaucoup de séances d’enregistrements (il obtient cependant d’avoir une de ses compositions enregistrée). Le studio est le quatrième instrument du groupe. Il permet de faire des effets spéciaux, d’ajouter des instruments en réenregistrant sur les bandes, de faire tourner les bandes à l’envers… Quasiment aucun des morceaux ne sera joué en public. Sur les 16 titres de l’album seulement trois seront joués en concert : Burning of the Midnight Lamp, mais c’est un titre de la période Chandler, et il n’est joué régulièrement sur scène que pendant ces deux premières années ; All along the watchtower, le hit du disque, mais il n’est joué que dans les tous derniers concerts en 1970 ; Voodoo Child (Slight Return) sera le seul morceau à s’imposer durablement dans la liste des morceaux joués en concert.
Electric Ladyland est une œuvre de studio où les techniques d’enregistrement comptent autant que les instruments joués, et donc difficilement reproductible sur scène (à l’époque les Beatles ont totalement arrêté de jouer sur scène).

Les albums publics publiés du vivant d’Hendrix

1969 est une année blanche en matière de publication. Le groupe tourne sur scène pour faire rentrer de l’argent. En Juin, Noel Redding s’en va, remplacé par un ancien ami d’Hendrix, Billy Cox. Par ailleurs les avocats s’agitent pour régler le problème Ed Chalpin.
Un accord est trouvé pour désintéresser le producteur. Hendrix publiera un album en public, dont Chalpin aura les droits en contrepartie de l’abandon de ses autres exigences. Band of gypsys sort en mars 1970. C’est le résultat d’une série de concerts publics au Fillmore East. Il ne contient que des titres originaux, joués par un groupe d’afro-américains, habitués du Chitlin Circuit. Hendrix est accompagné par Billy Cox et Buddy Miles, deux anciens amis. C’est loin d’être un disque bâclé. Certes le choix de l’enregistrement public vise à limiter la location de studio, certes aussi deux titres de Buddy Miles sont introduits, limitant la part d’Hendrix. Mais ces titres ne sont pas mauvais et l’enregistrement fait l’objet une travail important de post-production en studio. En mars, le groupe se sépare. De nombreuses explications ont été avancées, mais le plus probable est que l’association avec Buddy Miles n’était pas viable. Miles était une forte personnalité, leader de groupe. Le timide Hendrix ne devait pas parvenir à contrôler. Si Hendrix voulait rester la vedette principale, le départ de Miles était nécessaire.
Mais l’album le plus important de cette période, c’est le documentaire de Woodstock.
En aout 1969, le festival a été un désastre artistique pour Hendrix.
Hendrix a beaucoup préparé le concert, prévoyant sans doute d’en faire le point de départ d’une nouvelle carrière. Il s’achète une superbe tenue de scène, une veste à franche rappelant ses origines indiennes. Il recrute un groupe ad hoc, le Gypsy Sun and Rainbow. Celui ci comprend à coté du trio habituel, composé de Billy Cox et Mitch Mitchell et lui même, un guitariste rythmique, Larry Lee et deux percussionnistes, Juma Sultan et Jerry Velez. Le groupe répète un répertoire totalement différent de celui de l’Experience.
Le concert d’Hendrix doit être le point d’orgue final du festival. Mais du fait des retards pris, il n’arrive sur scène que le lundi matin, alors que presque tous les festivaliers sont partis. Faute de répétitions, fatigué par l’attente, le groupe joue mal. Le public est sans doute surpris par un répertoire qu’il ne connaît pas, et finalement Hendrix le récompense en jouant ses succès habituels.
Le concert a aussi été un désastre commercial pour les organisateurs, la plupart des spectateurs n’ayant pas payé. Le documentaire (film et disque) doit permettre aux organisateurs de se refaire. Le film sera le documentaire musical le plus vendu de l’histoire. Le triple album, Woodstock: Music from the Original Soundtrack and More paraît en mai 1970, il se vend bien aussi et se termine par quinze minutes extraites du concert d’Hendrix. Elles ont fait l’objet d’un travail de post production important. Les musiciens additionnels sont effacés (il n’est possible d’entendre que le trio de base). De la séquence finale sur concert sont extraits, avec plusieurs coupures, l’hymne américain, Star Spangled Banner, Purple Haze, et une longue ballade Villanova Jonction. L’ensemble doit beaucoup au travail en studio et les spectateurs n’ont pas du entendre la même chose.
Mais ces quinze minutes ont le mérite d’être un résumé exceptionnel de l’époque. A la fureur bruitiste entre free jazz et musique contemporaine de l’interprétation de l’hymne américain succède le rock ouvertement sexuel de Purple Haze. Le tout termine par le blues mélancolique de Villanova Jonction. Bien que n’étant sur aucune publication officielle d’Hendrix, cet enregistrement est sans doute la plus célèbre du musicien.
Ce documentaire étant un succès et l’album studio n’étant pas prêt, les producteurs décident de refaire le coup avec le festival de Monterey. Historic Performances Recorded at the Monterey International Pop Festival est publié en août 1970 (deux ans après l’événement). Il comprend une face avec le Jimi Hendrix Experience et une face avec Otis Redding, artiste de soul mort dans un accident d’avion en décembre 1967. C’est un mariage curieux entre deux artistes ayant des publics très différents, malgré des racines communes. Il comprend la célèbre interprétation de Wild Thing des Troggs, qui clôture le concert avec l’incendie et la destruction de la guitare.
A ce stade il existe donc quatre album studio (Experienced, Axis, Smash Hits, Electric Ladyland) et trois album en public (Band of Gypsys, Woodstock et Monterey) indispensables pour connaître l’œuvre d’Hendrix.
A coté Chalpin a sorti ses disques avec Curtis Knight en les ornant de magnifiques photos de concert de l’Experience n’ayant pas grand rapport avec le contenu.
Mais l’album studio qui doit succéder à Electric Ladyland n’est toujours pas paru.

L’ère Jeffery

Hendrix meurt le 18 septembre 1970 à Londres d’une overdose de somnifères.
Mike Jeffery, son manager, n’a plus d’artiste mais il est toujours engagé à sortir deux albums. Il demande donc à l’équipe restante, Eddy Kramer, Mitch Mitchell et Billy Cox, de finir le travail.
Cry of Love sort en mars 1971. Ce n’est certainement pas l’album qu’aurait sorti Hendrix. Il ne comprend pas le titre évident qui aurait pu tourner sur les radios. Il ne comprend pas non plus la grande suite comme il en avait fait avec la troisième face d’Electric Ladyland. Mais tel quel il est un témoignage de l’évolution d’Hendrix. Une plus grande complexité rythmique, l’emploi de percussions additionnelles, l’utilisation de figures rythmiques et harmoniques s’enchevêtrant montre un profond changement, en ligne avec l’évolution d’un groupe comme Santana et surtout ce que feront les musiciens noirs avec des albums comme What’s going on, ou les disques du Miles Davis électrique. On comprend mieux ce qu’il a essayé de faire à Woodstock, avec son groupe de six musiciens, sans être sur qu’il aurait été capable de parvenir à une formalisation définitive sur scène.
Le deuxième album annoncé est Rainbow Bridge paru en octobre 1971. Le stock d’enregistrement studio apparaît déjà n’être pas inépuisable. A coté de trois enregistrements venant des séances préparatoires au futur album, il y a une chute des séances avec Noel Redding (Look over younder), un morceau enregistré avec le Band of Gypsys (Room full of mirrors), un morceau en public (Hear my train is coming), et deux instrumentaux (Pali Gap et une version studio de l’arrangement du Star Spangled Banner). Il n’est déjà plus possible de produire un album cohérent avec ce qui reste. C’est cependant encore un très bon album.
Cette même année 1971, Jeffery publie deux disques extraits de concert, Expérience qui présente quatre titres du concert de la formation avec Noel Redding à l’Albert Hall, et Isle of Wight, qui présente une partie de la prestation réalisée à l’occasion du festival tenu sur cette ile en 1970.
L’année qui suit la mort d’Hendrix est donc celle où se publient le plus d’album du guitariste.
Jeffery aurait pu s’en tenir là. Il a publié l’essentiel des titres studios proches de l’achèvement et il n’a pas tous les droits sur les concerts. Il décide de continuer cependant sur un rythme équivalent en 1972. Sortent In the West, extraits de concerts divers, dont Jeffery masque l’origine car il n’a pas tous les droits sur les enregistrements, More Expérience, un autre extrait des concert de l’Albert Hall, et un dernier album studio produit par Eddy Kramer, War Heroes.
En 1973 il commence l’année avec Loose Ends. Eddy Kramer a jeté l’éponge et est remplacé par son ancien assistant , John Jansen qui signe d’un pseudonyme. On commence à faire dans le glauque et l’inutile. Paraît aussi en août 1973 Soundtrack Recordings from the Film Jimi Hendrix, bande son d’un film sur le musicien. Ce double album, peut contenter les amateurs de concerts.
En parallèle les anciens patrons d’Hendrix s’efforcent de profiter de la gloire de ce collaborateur qu’ils ont un peu fréquenté. Little Richard, Lonny Youngblood, les inévitables Chalpin et Knight publient des albums avec de superbes photos ou dessins de Hendrix. Des pirates réussissent à avoir accès à des bandes de concert. Le concert de Stockholm, celui de l’Olympia circulent parfois de manière quasi-officielle.
La période Jeffery s’achève brutalement le 5 mars 1973 avec la collision de deux avions au dessus de Nantes. Le manager qui avait embarqué dans le vol d’Iberia meurt sur le coup.

Les débuts de l’ère Douglas

Jeffery est maintenant décédé, mais il reste une montagne de bandes magnétiques non publiée. La compagnie de disque demande au producteur Alan Douglas de valoriser ce qui reste. Douglas (1931-2014) est un producteur connu dans le jazz. Son fait d’arme le plus célèbre est Money Jungle, publié en février 1963 par un trio composé de trois grands du jazz, Duke Ellington, Charles Mingus et Max Roach. Il a un peu travaillé avec Hendrix dans sa période Band of Gypsys.
Douglas plonge dans la montagne et comprend rapidement que l’essentiel est déjà exploité. Il ne reste que des prises différentes de titres déjà publiés, des morceaux pas terminés ou comportant des fautes grossières des musiciens.
Douglas va alors effectuer l’irréparable. Il ne garde que les pistes de la voix d’Hendrix et de sa guitare, et demande à des musiciens de compléter l’enregistrement. De plus, comme il a du totalement réarrangé ces morceaux, il les cosigne en tant qu’auteur au coté d’Hendrix. Il publie avec ce procédé deux albums, Crash Landing en mars 1975 et Midnight Lighting en novembre de la même année. Le succès est au rendez-vous à nouveau mais le scandale est énorme parmi les fans, au point que Douglas et la maison de disque ne publient plus rien pendant cinq ans.
Il recommence les publications à partir de 1980. Mais il ne s’agit plus alors que d’enregistrements plus confidentiels. Il travaille pour des amateurs de musique pour qui l’authenticité à de l’importance. Il publie ainsi en 1980 Nine to the Universe, un album instrumental avec des musiciens de jazz, donne des versions plus complètes des concerts, dont la maison de disque rachète progressivement les droits pour pouvoir les éditer.

GABI GUITARES 3L’arrivée du numérique

Surtout à partir de l’arrivée du compact disc en 1982 il se charge de la réédition du catalogue original. Le Compact est un format numérique, plus petit, plus maniable, avec moins de souffle. Il est au départ refusé par les amateurs de musique car la bande passante est souvent compressée, donnant des publications moins brillantes, moins claires que les disques analogiques. Mais les techniques du numériques permettent également remastériser les bandes, et de faire ressortir des détails disparus, et d’allonger la durée des disques. Il republie ainsi les trois albums originaux. Il ajoute à Are You Experienced les titres des trois 45T originaux, ce qui évite de devoir rééditer Smash Hits. Electric Ladyland sort dans une version sur un CD. Il ajoute aussi des titres au disque Band of gypsys, annonçant la mode des suppléments que toute l’industrie musicale va adopter. Les titres sont remastérisés. On entend désormais le moindre halètement. S’il avait connu les nouvelles techniques Hendrix aurait-il voulu cela ? Le brouillard sonore qui entourait l’édition originale de Purple Haze n’était-il pas un effet recherché, ou une limite de la technique analogique ?
Il fait aussi le choix de ne pas rééditer les disques de l’ère Jeffery. Il justifie cela par des choix musicaux, mais le plus probable est que les héritiers de Jeffery pouvaient avoir des prétentions sur ces disques posthumes et qu’il n’était pas question de partager le magot.
Enfin en 1995, il réussit un coup de maître. Il publie l’album Blues, sans doute le disque posthume ayant eu le plus grand succès. Blues rassemble des morceaux de blues joués à diverses époques par Hendrix. Les deux morceaux principaux sont l’enregistrement public de Hear my train is coming déjà publié sur Rainbow Bridge, et une nouvelle version de Voodoo Chile, le grand blues qui se trouve sur la première plage d’Electric Ladyland. Cette version est faite à partir de plusieurs versions de travail. Mais, la technique ayant évoluée, il n’y a plus besoin de musiciens additionnels pour raccorder les morceaux. Comme un logiciel de retouche photo permet de traiter séparément la lumière le contraste et la couleur, le numérique permet de retoucher séparément la tonalité, le timbre et le tempo. Cela était impossible en analogique. En accélérant un bande on pouvait mettre toutes les pièces au même tempo, mais le raccord se voyait car alors la partie accélérée avait une tonalité plus aigue. Ce tripatouillage numérique est beaucoup moins voyant car il évite d’avoir à faire appel à des musiciens additionnels comme sur Crash Landing.
Enfin en avril 1995 il publie Voodoo Soup, sa version de l’album posthume. Celle-ci est d’un esprit différent de celui de Cry of Love. Ce dernier regroupait uniquement des enregistrements de la dernière équipe qui entourait Hendrix. Alan Douglas se sert plus largement dans les titres enregistrés après Electric Ladyland. C’est de peu d’importance car la carrière de ce disque va être très courte.

L’Experience Hendrix LLC

En effet, le 26 juillet 1995, une cours de justice reconnaît à Al Hendrix, le père du musicien les droits sur l’image et la musique de son fils. Le père se battait depuis la mort de Jimi.
Désormais les droits sont gérés par une structure familiale, Experience Hendrix LLC, qui sera seule juge de ce qui peut être publié, et avec laquelle les compagnies de disque doivent négocier. En 2002 à la mort du patriarche, la direction passe à Janie Hendrix, sa fille adoptive, née d’un premier mariage de sa deuxième femme. Suit un procès avec Leon, le frère biologique de Jimi. Celui sera débouté en 2004, le tribunal reconnaissant que son père l’avait déshérité.
Les différentes manipulations, réarrangements faites sur les enregistrements dans la période posthume pouvaient donner des droits de création à ceux qui les avaient effectué. Afin d’éviter tout risque de nouveaux recours juridiques, Experience Hendrix LLC décide de ne rééditer aucuns des albums posthumes. Exit donc les publications de la période Jeffery, mais aussi la quinzaine d’albums publiés par Alan Douglas (dont deux quadruples). Seuls échappent au massacre Blues, qui a été un immense succès, et Soundtrack Recordings from the Film Jimi Hendrix, le film d’où elle est tirée restant le meilleurs témoignage d’Hendrix sur scène. On repart donc balle neuve.
Al et Janie s’entourent de John McDermott, un musicologue, et de Eddy Kramer pour tout republier. La nouvelle équipe comprend la famille, un spécialiste connu de sa musique, et un vétéran ayant longuement travaillé avec le guitariste. Elle choisit de publier sous deux formats : les publications « grand public » sont pris en charge par une grande entreprise (MCA puis Legacy, division de Sony chargée des republications du catalogue de la maison de disque) ; celles qui s’adressent aux spécialistes et amateurs éclairés paraissent sur un label créé ad hoc, Dagger Record, à la distribution plus confidentielle. La composition de l’équipe comme la politique éditoriale apporte donc caution morale, et sérieux de l’approche.
Cette nouvelle équipe publie en avril 1997 First Rays of the New Rising Sun, la nouvelle version de l’album posthume d’Hendrix. C’est donc la troisième tentative après Cry of love et Voodoo Soup. En fait c’est une version étendue de Cry of Love, avec les mêmes options : titres venus des sessions de l’été 1970, mêmes prises, mêmes arrangements. C’est aussi le même producteur (Eddy Kramer). Il ajoute donc aux titres de Cry of Love, quatre titres de Rainbow Bridge, et trois de War Heroes (Ce sont les albums posthumes qu’il avait produit). Manifestement, vingt ans avaient passés, mais Kramer était resté fidèle à ses options.
Les amateurs d’inédits purent se rattraper avec l’album suivant South Saturn Delta, qui sur 15 titres comportait 5 inédits et trois versions différentes de titres parus du vivant du guitariste. Mais le disque manque de cohérence artistique. Certains titres sont des morceaux déjà publiés mais quasiment achevés par Hendrix, d’autres étaient des versions de travail, d’autres enfin étaient des chimères, des compositions recréées en raboutant des morceaux comme cela avait été fait pour Blues.
Entretemps, les pirates continuent à publier massivement. La disparition progressive des éditions d’Alan Douglas laissait la place pour contenter les amateurs. Il circule encore beaucoup de bandes, malgré le travail de rachat de droit qu’avait du faire l’équipe Douglas. La législation italienne particulièrement laxiste permis à de petits éditeurs de publier des bandes de concert ou même de studio dont ils n’avaient pas toujours les droits.
Experience Hendrix LLC entreprend donc de tout republier (dans la mesure où il a tous les droits sur les bandes). Aux albums de concert s’ajoutent des albums de versions alternatives. Le plus connu est the Jimi Hendrix Experience Box Set, un coffret de 4 CD sous couverture pourpre paru en septembre 2000 et mélangeant versions studio alternatives et enregistrement de concert (il sera suivi en novembre 2010, par un autre coffret West Coast Seattle Boy: The Jimi Hendrix Anthology)
Les concerts sont progressivement republiés dans des versions plus ou moins complètes. A ce jour tous les concerts connus pour être correctement enregistrés ne sont pas publiés. Les fans attendent toujours une version complète du concert de Woodstock ; le concert au Albert Hall n’existe toujours pas dans une version officielle définitive.
De nouveaux disques originaux composés d’enregistrement studios paraissent, Valley of Neptune en 2010,   People, Hell and Angels en 2013 et donc Both side of the sky en mars 2018. Il y a peu de titres nouveaux dans ces albums. Il s’agit principalement de nouvelles versions de titres déjà connus, plus ou moins retravaillées numériquement pour être publiables, comme cela était le cas avec Blues. Ces disques ne sont sans intérêt, mais ils ne modifient pas fondamentalement notre connaissance de l’art du musicien.

Rééditions

Il faut dire un mot de la politique de réédition des titres anciens.
Are you experienced, a été republié en 1995 en revenant à un mixage plus proche de la version d’origine et en ajoutant les titres de 45 T comme l’avait fait Alan Douglas.
Puis en 2002, Experience Hendrix LLC décide de republier Smash Hits. Les éditions ultérieures de Are you Experienced reviennent à la version anglaise d’origine. Pour avoir tous les titres studios il faut donc acheter 4 disques (Experienced, Axis, Smash Hits, et Electric Lady land) au lieu de trois (Experienced augmenté, Axis, Electric Ladyland). De manière générale, contrairement à ce qui se fait pour d’autres auteurs du catalogue (Doors, Who, Velvet Underground, Cream, ect), Experience Hendrix LLC n’ajoute aucun bonus aux titres déjà publiés. Si vous souhaitez écouter d’autres versions, il faut acheter de nouveaux albums.
L’exemple type est Band of Gypsys. Le disque est republié sans supplément. En février 1999, sort Live at the Fillmore East, album double composé d’autres titres des mêmes concerts. Puis en septembre 2016 sort Machine Gun: The Fillmore East First Show. Ce disque reprend uniquement le contenu du premier des quatre concerts donnés au Fillmore East. Sans doute un moment la totalité des concerts et des répétitions seront publiées officiellement.
Enfin, à la surprise générale, la compagnie familiale décide de rééditer les publications de la période Jeffery. Sortent successivement In the West, dans une version augmentée, Cry of Love (l’album posthume existe donc dans deux versions au catalogue, celle-ci et First Rays of the New Rising Sun) et Rainbow Bridge (dont les morceaux ont presque tous été réédités sur différents albums).
A ce stade, l’image d’Experience Hendrix LLC s’est brouillée. La confiance des fans s’est effritée. La logique artistique n’apparaît plus. Un même morceau dans la même version existe plusieurs fois au catalogue. A part, obliger les amateurs de passer plusieurs fois devant le tiroir-caisse, il n’y a plus de justification compréhensible de la politique de publication menée. La différence entre ce que faisait Alan Douglas et la famille a disparu.

La tentation du purisme

Il est temps d’essayer de tirer la leçon de cette étonnante odyssée, qui fait de Jimi Hendrix l’un des artistes ayant publiés le plus de disques après sa mort. Il y a quelque chose de scandaleux dans cette exploitation systématique de l’image d’un mort. Le purisme consisterait à considérer que tous ce qui n’a pas reçu l’accord formel de l’artiste, soit retiré du catalogue officiel, et ne soit plus proposé à l’achat par les fans.
Le respect absolu de la volonté de l’artiste créateur devrait être la règle de conduite.

Les paradoxes de la propriété intellectuelle

La propriété intellectuelle est l’outil juridique qui doit normalement permettre ce respect de la volonté de l’artiste. Elle lui donne le droit d’interdire la publication ou l’usage de son œuvre. C’est ce droit d’interdire qui permet ensuite de se faire payer pour la reproduction de l’œuvre, mais il permet aussi de se défendre contre les caricatures, ou les mauvais usages. Dans le cas d’Hendrix, il y a un double paradoxe.
Nous ne connaissons pas le détail des contrats signés sur ces enregistrements, ni l’histoire de leurs rachats. Mais ce que l’on sait montre que le droit de propriété intellectuel a joué un rôle essentiel dans la publication de son œuvre.
Parce qu’il avait cédé une partie de ses droits à Charlin, il a été empêché de publier sa musique pendant les deux dernières années de sa vie. A l’époque, un artiste majeur produisait deux albums par an. Même en tenant compte des autres difficultés qu’a connu Hendrix pendant ces deux années (dépression, arrestation et procès pour drogue), il aurait pu et du publier plus. Sur la même période, les Doors, autre groupe majeur dirigé par un leader caractériel et dépressif, a réussi à sortir six albums studios et un double album public, composé pour moitié de titres originaux.
Les publications posthumes permettent de mesurer l’évolution du musicien pendant ces deux ans, mais nous ne saurons jamais ce qu’il aurait véritablement fait s’il n’avait pas été confronté à ces difficultés.
De même, le fait que la famille a du attendre 25 ans pour obtenir le contrôle des droits, explique le caractère erratique des publications posthumes.
Jimi Hendrix était un génie musical, mais ni lui ni son père Al n’avaient fait des études qui les préparent à discuter avec des armées d’avocats. A jamais cela nous a privé de l’œuvre artistique qu’il aurait du faire.

Collaboration

Hendrix était un virtuose doté d’une imagination exceptionnelle, et un compositeur remarquable. Mais il n’était pas vraiment fait pour être un leader de groupe. Sa seule tentative pour élargir son groupe a été faite à l’occasion de Woodstock. Elle a été un échec sans lendemain. Le groupe élargi de 6 personnes a fait quelques concerts dans le mois qui suivit, puis l’expérience s’arrêta.
Le guitariste laissa une grande liberté créatrice à ses collaborateurs. On reconnaît bien la différence entre la frappe de Mitchell et celle de Buddy Miles, la basse de Redding et celle de Cox. Les enregistrements fait par Chandler se reconnaissent aussi bien de ceux qui suivent, et les quelques musiciens extérieurs au groupes ont été choisi pour leur apport musical. Enfin j’ai dit l’importance du rôle d’Eddy Kramer.
La musique d’Hendrix était celle d’une équipe (ce qui laissa quelques regrets à quelqu’un comme Redding qui estimait que sa contribution n’était pas reconnue à sa juste valeur). Ajoutant que cette équipe travaille dans un milieu particulier, le Swinging London qui est train de bouleverser la musique, en créant ce format du Power trio, mais aussi en développant tout un instrumentarium nouveau dont va se servir Hendrix : amplis Marshall, pédales d’effet (fuzz, octavia, Wahwah).
Il n’est donc pas étonnant que les musiciens qui entouraient Hendrix et ceux qui leur ont succédé se considèrent légitime, pour compléter, modifier corriger sa musique. La musique d’Hendrix n’est simplement l’œuvre d’un génie, mais celle d’une équipe et d’une époque. Et ce n’est pas nouveau ou particulier à lui. Sans le travail de Sussmayer, le Requiem de Mozart ne serait pas connu, car il a été achevé par ce compositeur après la mort du divin Wolfgang. Sans Friedrich Cerha, l’opéra Lulu d’Alban Berg ne pourrait pas être représenté, car il n’était pas terminé. Enfin, si Maurice Ravel avait trop respecté les Tableaux d’une exposition, il n’aurait pas écrit son orchestration, quarante ans après la mort de Modeste Moussorgski. Hendrix et ses continuateurs sont en bonne compagnie.

Trop célèbre pour être respecté

Les fans aimeraient bien au moins qu’il y ai une cohérence globale de ces publications. Que comme cela se fait pour les grands jazzmen, les publications soient dans l’ordre chronologiques, que les concerts soient tous publiés dans leur intégralité, les enregistrements de studios préparatoires soient publiés de manières cohérentes et en lien avec leur résultat.
Mais c’est sans doute demander trop. Hendrix, comme les Beatles, excède le genre auquel, il appartient. Il est devenu l’incarnation du guitariste moderne. Il n’y a qu’à voir les hommages. Des chanteurs pop, des bluesmen, des jazzmen, des musiciens classiques, des rappers se sont risqués à reprendre des morceaux ou même à enregistrer des albums complets à la gloire d’Hendrix.
Une publication systématique destinée aux fans n’intéresserait que les fans. Les disques d’Hendrix continuent a être présents dans les bacs des disquaires, souvent en tète de gondole. Sur Amazon, il y a 18 pages de présentations de teeshirt, sans compter les posters, les médiators siglés, etc.
Le dessinateur Uderzo pensait qu’il était le seul à pouvoir dessiner Astérix, et que son petit personnage ne devait pas lui survivre. Puis il s’aperçu que c’était le meilleurs moyen d’être oublié. Il décida donc d’autoriser la reprise de la série par d’autres dessinateurs. De même, le travail de Kramer et de son équipe, leur politique d’édition étrange contribue à maintenir la mémoire du guitariste. C’était sans doute inévitable.

Bibliographie

La bibliographie concernant Hendrix est au moins aussi importante que sa discographie.
Extrayons deux livres en français :

  • Regis Canselier : Jimi Hendrix : le rêve inachevé (Le mot et le reste ; 2010) analyse très détaillée des enregistrements ; Canselier ne s’est pas risqué à expliquer le jeu des publications qui aurait condamné son livre à devoir être perpétuellement mis à jour ;
  • Jean-Pierre Filiu : Jimi Hendrix : le gaucher magnifique (Mille et une nuits ; 2008), courte mais très riche biographie.

Signalons aussi que Hendrix est un héro de Wikipédia, avec biographies, analyse détaillée de chaque disque publié et des principaux titres.

Illustrations

Les illustrations de cette chronique sont des œuvres de Gabi Jimenez.

Publié dans musique, propriété intellectuelle, système d'information | Tagué , , , | Laisser un commentaire

Gavés

réseauxDepuis la décision d’ouverture d’internet aux sociétés commerciales et au grand public en 1993, celui-ci a remplacé tous les outils de transmission des données. Les entreprises chargées de gérer ce réseau firent des investissements massifs en installant partout des répartiteurs et en posant des câbles. Aujourd’hui 90% des flux se font via des câbles, la partie liée au flux hertzien et aux satellites étant largement minoritaire (à part le GPS).
Le développement s’accompagne d’une explosion des contenus. La copies illégale, l’open source, l’open data permettent de proposer « gratuitement » des contenus. Gratuitement voulant dire de l’argent donné par le consommateur sert en priorité à fabriquer les appareils et enfouir des câbles.
Ce réseau a deux composantes : les porteurs du réseau matériels (Orange, SFR, et des entreprises moins connues comme Cisco), les porteurs le réseau logique permettant de s’orienter, de rechercher les produits, de dialoguer (Google, Amazon, Facebook). Il permet ainsi d’accéder aux porteurs de contenus qu’ils soient immatériels comme des enregistrements ou des livres (portés par des société comme Universal, Netflix, Hachette) ou matériels (Peugeot, Nestlé)
Comme souvent, le changement fait des heureux mais aussi des perdants, et en premier lieu l’industrie culturelle. Au sein de l’industrie culturelle c’est l’industrie musicale qui prend le choc principal. Elle avait connu une croissance extraordinaire avec le développement du 33T pour le marché des baby boomers. Elle avait trouvé un relais de croissance avec le compact disc (CD), qui avait proposé un support plus pratique et moins fragile, et poussé les utilisateurs à renouveler totalement leur médiathèque.
Avec le téléchargement, elle découvrit que les clients en avaient assez de donner leurs économies à des vedettes surpayées, qui utilisaient cet argent à s’acheter des parcs d’attraction, ou des châteaux dans le Val-de-Loire.
L’industrie musicale réagit. Elle demanda à l’Etat de la défendre (le capitaliste n’aime pas l’Etat, sauf qu’il s’agit de défendre ses droits). Partout des Hadopi apparurent pour protéger la propriété intellectuelle. Mais ces mesures avaient pour effet principal de transformer en délinquants les clients de cette industrie, ce qui la conduisit à demander de la modération. Elle entreprit de diversifier son offre. Le spectacle vivant devint une source majeure de revenu. Elle proposa des bonus, des versions de luxe aux clients qui justifiaient d’acheter tout de même la version CD.

Jobs

C’est Apple qui trouva le moyen pour l’industrie musicale de refaire des profits avec le numérique. La société inventa l’IPod, un terminal de lecture de fichier musicaux permettant de télécharger des centaines de titre et de les écouter dans des conditions de confort inégalées tout en pratiquant une autre activité.
« D’un point de vue purement commercial, le patron d’Apple aurait eu intérêt à encourager le téléchargement illégal. Ses clients auraient rempli leurs iPod à bas coût. Mais il respectait la propriété intellectuelle et pensait que les artistes devaient retirer des bénéfices des ventes de leurs albums. Donc, alors que le processus le processus de développement touchait à sa fin, il décréta que la synchronisation serait à sens unique. Les utilisateurs pourraient déplacer de la musique de leur ordinateur vers leur iPod, mais pas de leur iPod vers un autre ordinateur. Cela les empêcherait de remplir leur baladeur de morceaux copiés illégalement, puis de les transférer à tous leurs amis. Jobs décida que l’emballage en plastique transparent de l’iPod porterait un message simple : « ne volez pas la musique. »
A lire Walter Isaacson, Jobs était un protecteur désintéressé de l’industrie musicale. C’est oublier un peu vite que tout le modèle industriel d’Apple est basé sur la protection par la propriété intellectuelle. C’est aussi omettre qu’Apple prend une marge sur chaque titre téléchargé. La négociation sur cette marge fit l’objet de débat sévères (voir ses conflits avec l’industrie musicale bien décrit plus loin dans le livre d’Isaacson, et les débat actuels qu’il peut y avoir avec des artistes comme Taylor Swift).
Mais surtout Apple ouvrait une brèche dans l’un des principes de base d’internet. L’information devait pouvoir circuler en tout sens, sans restriction,  d’afin d’assurer que celui qui en a besoin pourrait toujours rapidement en disposer. Là, le système imposait que l’utilisateur d’iPod passe toujours par Apple pour recharger son appareil.

Kindle et autres

La brèche ouverte par Apple dans le principe de libre circulation sur le réseau fut exploitée par d’autres. Amazon fit de même avec son lecteur Kindle. Pour le charger en livres dématérialisés, il faut forcement passer par d’autres. La Fnac et d’autres distributeurs firent de même.
Facebook proposa une offre d’internet gratuit aux Indes. Les utilisateurs avaient accès à internet, mais uniquement en passant par le réseau de Facebook (cette offre fut refusée par le gouvernement indien en 2016, celui-ci ayant bien compris qu’elle revenait à une inféodation complète des utilisateurs à un seul fournisseur).
Par ailleurs les gestionnaires de réseaux ont obtenu en 2017 du président Trump, qu’il accepte de remettre en cause le principe de neutralité du net.

La poule aux œufs d’or

Tous les changements ci-dessus posent le problème de la pérennité du net et derrière des profits qu’il engendre.
En effet, la bourse du consommateur final n’est pas extensible. Chacun des dispositifs ci-dessus n’augmente pas l’offre, mais au contraire la restreint pour orienter différemment le chiffre d’affaire qu’il génère. Tout revient à une combat entre les différents acteurs industriels pour savoir qui captera le plus de marge possible : les porteurs du réseau matériel, les porteur le réseau logique, les producteurs de contenu.
Le combat entre TF1 et Orange est emblématique des enjeux.  TF1 est plutôt un producteur de contenu télévisuel, Orange est un opérateur de réseau internet. En pratique, ils sont aussi directement concurrents. Orange a enrichi son offre avec des chaines télévisuelles propres dans lequel il propose des films et des séries (chaines OCS). TF1 est une filiale du groupe Bouygues qui est aussi un opérateur internet.
TF1 réclame plus d’argent pour que Orange puisse diffuser ses différentes chaines (TF1, mais aussi TMC, TFX, LCI, TV Breiz…). Celui refuse. Chacun représente de l’ordre de 20% de la diffusion de l’autre. Cette donnée fait l’objet d’une bataille de chiffres entre les deux groupes, aucun ne voulant apparaître comme dépendant de l’autre. Mais la réalité est que l’absence d’accord se traduira probablement par une perte de chiffre d’affaires.
Ils auront tué la poule aux œufs d’or. Et si les tentatives de découpage du net par les différents acteurs aboutissaient, il en serait de même. Les différents acteurs du système avaient su s’organiser pour que le marché puisse s’étendre au grand public. Maintenant qu’il semble ne plus pouvoir se passer d’internet, chacun éssaie de s’approprier le maximum de marge, au détriment des autres acteurs et au risque de voir les consommateurs se détourner d’un outil devenu moins performant.

Bibliographie

Walter Isaacson : Steve Jobs (2011 ; JC Lattes)
http://www.lemonde.fr/entreprises/article/2015/06/23/streaming-musical-taylor-swift-fait-plier-apple_
http://internetactu.blog.lemonde.fr/2018/02/16/de-la-neutralite-du-net-a-celle-des-terminaux/
http://abonnes.lemonde.fr/pixels/article/2018/02/27/tout-passe-par-internet-et-ceux-qui-en-sont-exclus-sont-comme-ecartes-de-la-societe_5263146_4408996.html#xtor=AL-32280270
http://www.lemonde.fr/sciences/article/2018/02/22/menaces-sur-internet_5260737_1650684.html

Publié dans commerce, internet, système d'information | Tagué , , , , , , , | Laisser un commentaire

Gratuits ?

boite à livreNous vivons au temps du cyberspace. Les techniques d’Internet, du World Wide Web, et du Cloud ont abaissé le coût d’accès et accelerer la vitesse de circulation de l’information.
Mais, pour vraiment abaisser le coût du cyberspace, il fallait qu’il devienne un produit de grande consommation. Cela supposait que le grand public trouve sur la toile des informations utiles ou distrayantes.
Pour les thuriféraires de la propriété intellectuelle, il ne pouvait y avoir d’information pertinente que payante. Mais, pour accéder au Cyberspace, l’utilisateur a déjà acheté un terminal numérique, et payé un abonnement à un Fournisseur d’Accès à Internet (FAI). Les fabricants d’ordinateurs et les FAI ont fait de lourds investissements pour construire ce réseau. Ils entendent bien que les utilisateurs payent le plus cher possible cet accès. Et ensuite la maigre bourse de l’utilisateur est largement ponctionnée.
C’est particulièrement vrai des jeunes, lycéens, étudiants, chômeurs, apprentis. Or, ils constituent une cible privilégiée du système d’information numérique, car ils sont prêts à apprendre, et ne sont pas encore trop pris dans les habitudes d’utilisation du système d’information ancien.
Il y avait donc de fait une alliance objective entre les industriels du Hard (fabricants de matériel, constructeurs de réseau) et des utilisateurs finaux désargentés pour qu’il y ai le plus possible de contenu gratuit sur la Toile.

Le temps des pirates

C’est un étudiant de l’Université de Boston, Shawn Fanning, âgé de 18 ans, qui met en œuvre le premier système d’échange de fichiers gratuit en 1999, Napster. Tout de suite, celui-ci connaît des milliers d’adhérents. Les responsables des Universités découvrent que l’essentiel de la bande passante de leur réseau est utilisée à échanger des fichiers musicaux.
L’industrie musicale, représentée par son syndicat américain, attaque le site tout de suite. Parmi les réactions des artistes citons celle d’Elton John : « Les opportunités ouvertes par Internet sont excitantes, car les artistes peuvent désormais communiquer directement avec leurs fans. Mais il ne faudrait pas oublier le respect du travail et sa rémunération. Je suis contre le piratage sur Internet et il n’est pas correct que Napster et d’autres puissent promouvoir le vol d’œuvre en ligne. » Après 2 ans, Napster fut fermé (la version actuelle est issue du rachat de la marque par une autre société).
Mais, la machine était lancée. Il était difficile d’expliquer à des jeunes désargentés que les sommes demandées pour les produits culturels relevaient seulement de la juste rémunération d’un travail.
Comment expliquer qu’un Paul MacCartney ait en 2017 une fortune égale à 44 000 années de SMIC ? Comment justifier que l’acteur le mieux payé en 2016 a reçu plus de 3800 années de SMIC ?
En France le chanteur le plus populaire du XX siècle a eu des funérailles nationales. Les chaines de radio et télévision étaient focalisées sur l’évènement pendant plusieurs jours. Ensuite, la « plus grande avenue du monde » bloquée pendant une demi-journée pour faire passer le cortège funéraire et une cérémonie à la Madeleine en présence du Président de la République. Cet événement est de fait à la fois un hommage et la plus grande opération de promotion commerciale, qui permettra de vendre ensuite inédits et rééditions. Et dès la dépouille enterrée, les fans abasourdis voient la famille se déchirer pour le partage de la rente générée par ces ventes.
L’industrie culturelle ne fait donc pas pitié, et des milliers de Robins des Bois ont repris le flambeau de Napster.
Celui-ci était un système centralisé, l’arrivée du logiciel BitTorrent fit sauter une limite technique. Ce protocole d’échange est mis au point en 2002 par Bram Cohen. BitTorrent fut le premier peer to peer (pair à pair). Dans ce système, les ordinateurs sont tour à tour clients et serveurs. Un premier ordinateur (serveur) envoie un fichier à plusieurs autres ordinateurs (clients). Si l’accès à ce premier est embouteillé, le nouvel arrivant peut aller chercher le fichier sur les ordinateurs déjà servis qui deviennent à leur tour serveurs. En utilisant la technologie par paquet, BitTorrent, et les autres protocoles d’échanges ont permis que le nouveau client puisse recevoir le fichier d’origine de plusieurs sources et le reconstituer. Ceci a permis de diffuser tous types de fichier, musicaux, textes, films… Le relais fut ensuite pris par le streaming, Youtube et d’autres réseaux sociaux. Des artistes comme Lily Allen ou Arctic Monkeys font leur promotion via les réseaux et sont découverts grâce à la diffusion gratuite sur le réseau de leurs chansons.

Les libertariens

Une deuxième source de contenu gratuit fut l’activité de ce qu’on appellera les libertariens. Anciens hippies, baba cool, geek avaient développés une contre-culture opposée à l’Etat et aux grand capital, alliés objectifs et oppressifs. Ils étaient aussi liés à un milieu universitaire pour qui l’accès massif à la connaissance est la clé de la réussite et de la création. Logiciels libres, Wikipédia, la blockchain et les criptomonnaies comme le bitcoin constituent autant d’actifs immatériels et gratuits qui justifient d’acheter des ordinateurs et payer un abonnement à internet.

La neutralité du net

Elle est la troisième conséquence du besoin de contenu à bas prix. Il a été admis que les fournisseurs de contenu ne payaient pas de droit de passage pour que les utilisateurs puissent accéder à ces produits. Ils pouvaient donc choisir entre Google, Yahoo, ou d’autre pour chercher des informations. Ils pouvaient utiliser eBay, le BonCoin ou Price Minister pour vendre leurs objets d’occasion. La neutralité du net garantissait que tous ces contenus étaient également accessibles.

Open Data

L’Open Data fut la quatrième source de contenu gratuit. Les Etats étaient propriétaires de milliers de données, dont la production avait été payée par nos impôts. Il semblait donc normal qu’accès à ces données soient gratuits. De même il y avait toutes les œuvres dont les droits avaient fini par tomber dans le domaine public. Cartographies, contenus des bibliothèques, archives publiques devinrent la proie de la Toile.
« Déjà en 1789, la déclaration des droits de l’homme et citoyen stipule dans son article 15 que « la société a le droit de demander compte à tout Agent public de son administration » faisant de l’accès à l’information publique un des fondements de la démocratie naissante » (voir Big Data et traçabilité numérique)
De multiples déclarations politiques, lois et réglementations dans tous les pays prolongèrent ces déclarations.
« Le 18 juin 2013, les chefs d’État du G8 ont adopté et signé une Charte du G8 pour l’ouverture des données publiques ; Dans un esprit d’ouverture et de transparence, cette charte pose les principes d’une donnée publique à désormais considérer comme « ouvertes par défaut » (sauf cas particulier liés à la défense et à la sécurité) ; cette donnée doit être mise à disposition « de qualité et en quantité ; accessibles et réutilisables par tous », gratuitement et avec une libre réutilisation pour tous. Les formats ouverts et non-propriétaires seront privilégiés et la charte encourage l’accès de tous à cette information, tout en promouvant l’innovation (entrepreneuriale, citoyenne et sociale). »
Cet accès massif à l’information a été la clé de la démocratisation de la Toile. Echanger, stocker, traiter des informations ne vaut plus rien. Jamais il n’a été aussi facile d’accéder à une information.
La preuve de cela est que le transfert physique d’information ne vaut plus rien. Auparavant chacun pouvait revendre ses livres, ses disques, ses DVD à des bouquinistes, dans des foires aux livres ou aux disques. Aujourd’hui ils sont mis dans la rue, dans des boites, des microbibliothèques, pour que les passants intéressés les ramassent. Sur ces échanges, l’industrie culturelle ne reçoit aucune rémunération.
Mais entretemps nous avons tous financé le développement d’infrastructures géantes

Bibliographie

Daniel Ihbiah : Les 4 vies de Steve Jobs (Leduc Editions ; 2011)
Big Data et traçabilité numérique
https://www.evous.fr/Les-artistes-chanteurs-les-mieux-payes-de-l-annee,1180327.html
http://www.parismatch.com/People/Qui-sont-les-acteurs-les-mieux-payes-au-monde-en-2017-1331366
Ouvrage collectif piloté par Pierre-Michel Menger : Big data et traçabilité numérique : Les sciences sociales face à la quantification massive des individus (édition du Collège de France ; 2017)
Wikipedia : sommet du G8 de 2013 (état de l’article au 24 octobre 2017)

Publié dans commerce, internet, musique, système d'information | Tagué , , , , , | Laisser un commentaire