Hippocrate

stethoscopeUne organisation est généralement destinée à rassembler des compétences variées autour d’un objectif commun. il peut arriver que certaines organisations oublient leur objectif.
La démonstration du film Hippocrate est à cet égard exemplaire.

Le pitch

La fiction médicale est un genre répandu à la télévision. De House à Urgence en passant par Grey Anatomy, ce genre a eu de nombreuses déclinaisons. Le film Hippocrate appartient à ce genre et a eu un succès d’estime lors de sa sortie en 2014 (il se trouve facilement en DVD). Pas d’histoire d’amour, pas d’actions spectaculaires, des acteurs peu connus, un réalisateur dont c’est seulement le deuxième film.
Mais le scénario est une mécanique de précision et dépasse le cadre de la fiction médicale. Il présente une institution, ici l’hôpital, qui a oublié sa raison d’être, et ne fonctionne plus qu’au profit des membres de l’institution, et plus de ses objectifs.
Résumons le « pitch » de Hippocrate.
Deux internes rejoignent le service de Médecine Générale d’un hôpital de banlieue parisienne. Benjamin est un jeune tout juste sorti de l’école et le fils du chef de service. Abdel est un immigré ayant déjà quelques années de pratique.
Ils vont chacun être confronté à un cas aigue se terminant par la mort du patient. Les critères principaux de l’assurance qualité permettent de juger leur démarche :

  • Ont-ils compris les besoins du client (ici le patient) ?
  • Tous les moyens matériels et humains sont-ils mis en œuvre pour répondre aux besoins du client ?
  • La réponse aux besoins du client est-elle correctement tracée ?

Voyons d’abord Benjamin :

  • Le client lui explique qu’il a mal, mais il choisit de ne pas l’écouter car le client arrive avec un dossier présentant une cirrhose du foie ; il est plus simple et moins dérangeant de penser que c’est cette cirrhose qui cause la douleur ;
  • Pour vérifier, il faudrait faire un électrocardiogramme (ECG) ; celui du service est en panne, et Benjamin n’a pas le courage de demander à l’infirmier d’aller en chercher un dans un autre service ;
  • Le patient meurt ; l’hôpital évite de montrer son dossier à la famille pour ne pas montrer l’erreur commise.

Passons à Abdel :

  • Le dossier de la patiente suivante lui est transmis par Benjamin ; Abdel l’examine et constate qu’elle a un cancer en phase terminale, non soignable ; il demande sa volonté à la patiente ; elle répond qu’elle souhaite surtout ne pas souffrir ;
  • Abdel met en place un protocole adapté à ce souhait, en prescrivant une injection de morphine ; comme Benjamin il se heurte au manque de matériel dans le service, mais il impose au personnel d’aller en chercher dans un autre service ; il s’oppose même à l’adjointe du chef de service qui s’inquiète du coût du maintien en vie d’une personne ; Enfin il met dans le dossier une note demandant qu’on ne réanime pas la patiente en cas d’attaque pour lui permettre de mourir dignement ;
  • Dans la nuit la patiente a une attaque ; elle est transférée au service de Réanimation, ramenée à la vie et renvoyée au service de Médicine Générale ; Abdel à son retour ne peut que constater les dégâts ; il demande l’avis de la famille présente ; avec son accord et conformément avec les vœux exprimés par la patiente il débranche le traitement entrainant le décès de celle-ci en douceur.

La comparaison des deux traitements du point de vu des critères de base de l’assurance qualité ne laisse pas de doute sur qui a correctement travaillé et qui s’est trompé. Pourtant l’institution hospitalière va réagir pour défendre Benjamin et éjecter Abdel. La volonté de l’institution de se défendre explique cette option surprenante.
Mettre en cause Benjamin c’est s’attaquer au fils du chef de service, mais en même temps c’est risquer de mettre à jour les failles de l’hôpital, économies sur le matériel, refus des infirmiers de répondre aux demandes de l’interne. C’est pourquoi, le chef de service lui-même ment à la famille en affirmant que l’ECG a été effectué.
Au contraire Abdel, n’a pas d’amis dans le service à part Benjamin, est rejeté par l’institution. Plus vieux, marié et chargé de famille, il ne s’est pas fait d’amis auprès de ses condisciples, qui ont peu de liens avec lui. Il a également irrité ses supérieurs en refuser de se plier au moment à la discipline budgétaire. Il se retrouve seul lors qu’il faut choisir entre respecter la volonté du malade ou celle de ses collègues. Il va transgresser la règle de collégialité pour ce type de décision, mais ses confrères lui ont-ils laissé le choix ?
Lors de la forme de procès qui lui est fait, on lui reproche de ne pas avoir respecté le budget, mais surtout, d’avoir remis en cause le traitement proposé par le service de Réanimation. Or la Réa, c’est le service noble, où se trouvent les meilleurs éléments. Mettre en cause ses décisions, c’est contester la hiérarchie de l’hôpital, refuser d’être solidaire du corps médical dans son ensemble et refuser de reconnaître la hiérarchie.

Morale de l’histoire

Laissons à ceux qui n’ont pas vu le film le plaisir de découvrir la dernière péripétie.
Le film a été vu comme une critique de l’hôpital, d’autant plus rude qu’elle vient de l’intérieur (le réalisateur est lui même médecin). Mais si le milieu médical apporte une touche de dramatisation, avec la proximité de la mort, la portée du film va au delà. Toute organisation peut oublier ses objectifs. Les spécialistes du management ne cessent de créer de nouveaux outils pour améliorer le pilotage des organisations, taylorisme, gestion de projet, contrôle de gestion, assurances qualité. Mais toute institution (école, entreprise, église, Etat) court le risque d’oublier sa raison d’être et de cesser d’y répondre. Elle finit alors par ne survivre pour que les besoins de ceux qui lui appartiennent.

Publié dans gouverner | Tagué , , , | Laisser un commentaire

« Tears in rain » : le souvenir de Blade Runner

Blade Runner 2A l’occasion de la sortie de Blade Runner 2049, faisons un retour sur un classique de la culture Geek, le premier Blade Runner.

Rappel de l’intrigue

Blade Runner est un film du cinéaste Ridley Scott paru en 1982 d’après un roman de Philip.K.Dick. L’action se passe en 2019, à Los Angeles. Les humains ont commencé à émigrer dans des colonies sur de nouvelles planètes. Pour préparer le terrain de ces colonies, la société Tyrell Corporation a créé des répliquants, créatures artificielles dotées de superpouvoirs. Il leur est interdit de revenir sur terre. Bravant l’interdiction, un groupe de répliquants a débarqué à Los Angeles. En effet leur code génétique les programme pour mourir jeune. Ils espèrent que Tyrell Corporation pourra allonger leur durée de vie.

No future

Le film Blade Runner fut d’abord remarqué pour son esthétique. Outre leur beauté, les décors étaient marqués par leur crasse. Le spectateur ne sait pas s’il est dans des ruines ou un paysage futuriste. Harrison Ford est habillé comme un détective des années 30, les répliquants ressemblent à des punks (le mouvement avait à peine cinq ans d’existence à la sortie du film). Décors et costumes des personnages mélangent l’ancien et le moderne. Est-ce une fin du monde ou les nouvelles colonies annoncent-elles un éternel nouveau monde vers lequel iront les colons. Blade Runner n’annonce rien, ne prédit rien de ce que sera le futur. Les personnages vivent, ou plutôt survivent dans l’instant, le moment présent.

It’s better to burn out than to fade away

La quète des répliquants, pour laquelle ils ont pris des risques s’avère sans issue. Ils parviennent à Eldon Tyrell, le patron de la société. Mais celui-ci leur révèle que ce n’est pas possible de prolonger leur vie. Ils ne sont fondamentalement que des humains, avec la même réserve d’énergie à la naissance. Leurs pouvoirs augmentés se payent d’un raccourcissement de leur vie.
Quelque part les répliquants sont comme les membres des équipes projets. Les répliquants ont des superpouvoirs, les concepteurs développeurs ont des super-compétences, qui elles aussi inquiètent leur entourage. Les répliquants explorent des planètes nouvelles, les concepteurs-développeurs découvrent de nouveaux outils, de nouvelles façons de travailler, ils participent à l’aventure de leur temps, celle du numérique. Ils sont loin de la vie routinière de ceux qui vivent dans des processus répétitifs. Mais tout cela se paye de tress, de fatigue, de dépressions lorsque les projets s’arrêtent. « It’s better to burn out than to fade away » (il vaut mieux bruler que se consumer doucement) chantait Neil Young, dans son hommage aux Punks. Kurt Cobain le leader de Nirvana laissera ces paroles pour expliquer son suicide. Nombre de concepteurs-développeurs en fin de projet ont sans doute envie de reprendre ces paroles.

Test de Turing

Le personnage d’Harrison Ford est engagé pour pourchasser les répliquants. Pour les repérer il leur fait passer une sorte de test de Turing. Si ce sont des créatures artificielles le souvenir de leur naissance, leur enfance est factice. La mémoire fait l’humain, dit le film.
A l’issue du combat final qui l’oppose à Harrison Ford, le chef des répliquant joué par Rudger Hauer meurt. Il n’est pas vaincu par son adversaire, mais il décède de la mort jeune qu’a programmé Eldon Tyrell. Avant de mourir, il prononce une sorte de testament final :
« I’ve… seen things you people wouldn’t believe… Attack ships on fire off the shoulder of Orion. I watched c-beams glitter in the dark near the Tannhäuser Gate. All those… moments… will be lost in time, like …tears… in… rain. Time… to die… » « J’ai vu tant de choses que vous, humains, ne pourriez pas croire. De grands navires en feu surgissant de l’épaule d’Orion. J’ai vu des rayons-C briller dans l’ombre de la Porte de Tannhäuser. Tous ces moments se perdront dans l’oubli, comme les larmes dans la pluie… Il est temps de mourir. »
Les répliquants n’ont pas que des souvenirs artificiels. Ils ont aussi des souvenirs propres, issus des aventures qu’ils sont seuls à avoir vécus. Le répliquant est devenu un humain, avec sa destinée tragique. P.K.Dick ne croyait sans doute guère à la promesse d’éternité du transhumanisme.

Un océan de larmes

Lorsque Blade Runner est paru, les systèmes d’informations tiennent encore une place limitée dans la vie quotidienne. Il est donc encore possible de penser que l’essentiel des souvenirs sont éphémères.
Aujourd’hui, les mémoires artificielles ont envahies l’espace. Elles conservent la marque de notre passage. Elles contiennent non seulement des textes, mais aussi des sons et des images, demain peut-être des odeurs, des sensations tactiles que l’on pourra reproduire et faire revenir grâce à l’impression 3D. Elles conservent également des traces plus impalpables : ouvertures de pages internet, nombre de modifications réalisées sur des données, géolocalisation.
Progressivement les larmes de souvenir dont parle le répliquant forment des lacs que l’orage du temps ne parvient plus à diluer. Rien ne disparaît et nous nous y habituons.
Les séries policières nous familiarisent à cette conservation, et celle-ci nous devient naturelle. C’est devenu une facilité habituelle des scénarios au cinéma comme à la télévision, que d’utiliser nos traces numériques. Les restes d’ADN sous les ongles de la victime, les messages téléphoniques, les comptes bancaires, les cameras de vidéo-surveillance…Tout cela remonte dans le Cloud Computing et permet in fine de confondre l’assassin.
Toute cette masse d’information devient de nouvelles planètes à explorer. Comme les répliquants, les concepteurs-développeurs traversent les Portes de Tannhauser. Ils ont de nouveaux problèmes à traiter, de nouveaux algorithmes à créer. En même temps, les questions posées sont de plus en plus complexes. Nous sommes toujours plus nombreux, plus vieux et plus malades, dans un environnement pollué et aux ressources de plus en plus rares. Le système d’information numérique nous aide à trouver de nouvelles solutions. Il nous permet de survivre, mais nous ne savons pas si nous allons vers l’aube ou le crépuscule.

Publié dans cinema, gouverner, système d'information | Tagué , | Laisser un commentaire

Contentieux : les défaites de la propriété intellectuelle du numérique

procèsLa propriété intellectuelle est une construction juridique, un droit garanti par l’Etat aux inventeurs.
Comme tout système juridique, elle génère du contentieux. Elle donne du travail aux juristes, aux avocats, aux juges, et à toutes les professions juridiques.
Dans le domaine du numérique, quatre procès majeurs ont joués un rôle dans le développement de cette industrie : les procès Honeywell/Sperry Rand, Apple/ Microsoft, Unix System/Berkeley Software, et Apple/Samsung.

Honeywell/Sperry Rand

L’invention de l’ordinateur a été un processus itératif, faisant intervenir un grand nombre d’acteurs. De plus, des étapes décisives furent faites pendant la deuxième guerre mondiale. Le décryptage des codes secrets, les calculs balistiques d’engins de plus en plus rapides, les simulations de la bombe atomique, imposèrent de développer de nouvelles machines, pour effectuer des calculs de plus en plus complexes. Ces travaux étaient couverts par le secret et ne purent faire l’objet de publications permettant de déposer un brevet.
L’ENIAC a été considéré comme le premier ordinateur. Cette machine est développée par l’équipe de John Mauchly et J.Presper Eckert, et constitue l’aboutissement des travaux antérieurs, Les travaux avait commencé pendant la guerre, au sein de l’université de Pennsylvanie, et était poursuivis au sein d’une société commerciale. En 1950, Mauchly et Eckert vendirent leur société à Remington Rand. Pour protéger leur invention et pouvoir commercialiser leurs machines, Ils déposèrent une demande de brevet, dès 1949, qui aboutit en 1964. A partir de là Sperry Rand, la société héritière de Remington pouvait avoir le monopole de l’ordinateur ou demander des royalties à tous ses concurrents. L’un d’entre eux, Honeywell engagea un avocat, Charles Call pour contester le brevet. Call fit une recherche approfondie, et ressuscita en particulier le travail de Cyril Atanasoff, un inventeur qui avait construit avant L’ENIAC, une machine à calculer électronique. Que cette machine n’ai jamais servi importait peu. Le procès dura 135 jours, nécessita l’audition de 77 témoins (plus la déposition lu de 80 autres), aboutissant à 20 667 pages de minutes. A l’issue, le 19 octobre 1973, le juge Earl R.Larsson invalida le brevet de Mauchly et Eckert et fit tomber dans le domaine public les principes de l’ordinateur.

Apple/Microsoft

L’interface graphique, avec sa souris, ses icones, ses fenêtres, a été un élément clé de la popularisation des microordinateurs. Il est le résultat des travaux de diverses équipes, celle de Douglas Engelbert, puis celle du Xerox Park, enfin celles d’Apple. Les deux premières équipes ne trouvèrent pas d’applications pratiques à leur invention, et il fallut attendre Steve Jobs pour que l’interface graphique passe au stade de l’innovation industrielle.
Peu de temps après, Jobs eut la mauvaise surprise de voir qu’un de ses sous-traitants, Microsoft, proposait son propre interface graphique, Windows. Jobs reconnaissait lui-même la dette qu’il devait à Xerox « …quand on lui reprocha d’avoir pillé les idées de Xerox, Jobs cita Picasso : « les bon artistes copient, les grands artistes volent. » et il ajouta nous « nous n’avons jamais eu honte de piquer des bonnes idées. »(cité par Isaacson). Mais il n’admettait pas l’emprunt de Gates et il l’attaqua donc en contrefaçon..
Gates gagna le procès haut la main, en s’appuyant sur l’antériorité de Engelbert et Xerox. Le Juge Ferdinand F.Fernandez le 11 juillet 1994 lui donna raison et fit tomber l’interface graphique dans le domaine public.

Unix System/Berkeley Software

Bell avait vendu à un prix dérisoire à des Universités la licence d’utilisation UNIX. L’université créa une société Berkeley Software pour commercialiser la version améliorée qu’elle avait développé. La filiale de Bell créée pour commercialiser Unix, Unix System Laboratories (USL), attaqua donc cette nouvelle société. Elle perdit à son tour en 1994 le procès. Berkeley continua a commercialiser   avant que tout le code ayant été réécrit, les version libres d’Unix devint un logiciel libre (aujourd’hui UNIX est la marque déposée d’une organisation fondée par les fabricants de systèmes UNIX).

Apple/Samsung

Le contentieux Apple/Samsung est en fait partiellement un contentieux Apple/Google.
Avec l’iPhone sorti en 2007, et l’iPad sorti en 2010, Apple fit une percée décisive dans l’informatique mobile. Elle a été rendue possible par l’utilisation des écrans tactiles, qui permettaient de se passer de clavier et de stylets. Mais en 2007, Google sortait également Android, un système d’exploitation optimisé pour les écrans tactiles. Le produit étant gratuit et de qualité, il fut largement utilisé par les fabricants de smartphone. Steve Jobs, pas vraiment connu pour sa sobriété verbale s’écria : « je vais détruire Android, car c’est un produit volé. Je vais mener une guerre thermonucléaire contre cela.”
En fait Google était difficilement attaquable. Le noyau de son système était Linux qui existait depuis longtemps, et il ne le vendait pas, ayant choisi d’en faire un logiciel libre.
Apple attaqua donc Samsung, principal fabricant de Smart Phone utilisant Android.
La cible n’était guère plus facile. Le fabricant coréen était le principal sous-traitant d’Apple en même temps que son concurrent. Il produit les écrans rétina qui assurent la fluidité de l’écran tactile et dispose de brevets dessus. La bataille Apple Samsung est toujours en cours. Il est plus que probable qu’elle terminera par un accord amiable entre les parties, qui éviteront de se couler l’un l’autre.

Moralité

Le progrès technique et la protection juridique de la propriété intellectuelle ont permis l’enrichissement de quelques uns. Mais ces défaites dans les prétoires ont permis que le numérique ne soit pas seulement le jouet de quelques uns, vendu à prix d’or. Les procès perdus ont permis le développement de l’ordinateur et de toutes les machines basées sur l’architecture Von Neumann. Ils ont aussi permis le déploiement de l’interface graphique, des logiciels libres, et maintenant de l’interface tactile. Sans ces victoires, le numérique serait encore un produit de niche, destiné aux entreprises et à quelques riches amateurs. Elles ont transformé cette industrie en industrie de masse. Comme le dit Isacsson « Mais la principale leçon qu’on peut tirer … est que l’innovation est d’ordinaire un effort collectif, qui implique la collaboration entre des visionnaires et des ingénieurs, et que la créativité provient de nombreuses sources. Ce n’est que dans les livres d’images que les inventions se présentent sous la forme d’un éclair tombant du ciel ou d’une ampoule électrique jaillissant de la tête d’un individu solitaire dans un sous-sol, un grenier ou un garage. »

Bibliographie

  • Walter Isaacson : Les innovateurs (Jean-Claude Lattès-2015)
  • Article Wikipedia : UNIX (état au 27 septembre 2017)
Publié dans informatique, propriété intellectuelle, système d'information | Tagué , , , , , , , | Laisser un commentaire

Le fou et le professeur

« The professor and the madman » est un film dont la sortie est annoncée fin 2017. Les acteurs principaux sont Sean Penn et Mel Gibson. Il est basé sur un roman lui même inspiré d’une histoire vraie.
Voici l’intrigue. Au milieu du XIXe, des intellectuels d’Oxford mettent en chantier un Dictionnaire de la langue anglaise. La première version de l’Oxford English Dictionnary sera finie d’éditer en 1928, soit soixante-dix ans après le début de l’aventure. Les promoteurs avaient demandé au public britannique d’envoyer des contributions à ce travail. Le deuxième responsable James Murray élargit les demandes de participation aux Etats-Unis et aux différentes colonies britannique.
L’un des contributeurs les plus prolifiques était un américain, William Chester Minor. Celui-ci envoyait régulièrement des propositions de réponses à James Murray. La qualité et la quantité de ces réponses firent qu’il devint le deuxième plus important contributeur du dictionnaire.
Lorsque Murray rencontra Minor pour la première fois après plusieurs années de correspondance, il découvrit qu’il était en fait enfermé dans un hôpital psychiatrique. Chirurgien de profession, il avait assassiné un ouvrier dans une crise de démence paranoïaque. Enfermé à vie, il avait trouvé dans la rédaction des notes du dictionnaire à la fois un passe-temps et le moyen de retrouver une utilité sociale.
Les amateurs de Wikipédia et des logiciels libres voient bien la morale financière de cette histoire : il faut être fou pour contribuer bénévolement à une œuvre. Pourtant une partie de l’histoire du numérique est celle de personnes mal payées ou pas payées du tout, qui, comme Minor, rédigèrent des milliers de pages d’écriture.

Travaux féminins

Au début de l’informatique, la fabrication des machines était au centre de l’attention. Le câblage des réseaux et le soudage des cartes imprimés, voilà ce qui étaient vus comme les taches essentielles.
On laissa aux femmes l’écriture du code et la perforation des cartes qui servaient à introduire ces programmes dans l’ordinateur. Comme la dentelle de Calais, les bracelets en macramé, ou les paniers en rotin, la réalisation des logiciels était un art féminin. C’est à l’amiral Grace Hopper (1906-1992) que nous devons le premier programme de compilation et les bases du COBOL (premier langage de programmation plus proche du langage courant que du langage machine). Avec elle, une nuée de femmes, développèrent des programmes et firent de la saisie de données.
Est-ce cela qui donna l’idée qu’un programme ne valait rien ? Les informaticiens étaient prêts à acheter des machines, moins à payer pour des lignes de programmes. Le travail réalisé ne paraissait pas avoir de valeur.

Copier n’est pas voler

Un autre phénomène intervient. Les économistes disent de l’information qu’elle est un bien non rival. En effet, lorsque vous voler un bien matériel comme un marteau ou un ordinateur, le volé ne peut plus l’utiliser, ne peut plus effectuer certaines tâches. Il a réellement perdu quelque chose. Si vous copiez une information comme un programme installé sur ce même ordinateur, pour l’installer sur un autre ordinateur, le premier propriétaire peut encore l’utiliser. Quelque part il n’a rien perdu.

Les hackers

Il y avait donc une double considération, d’une part les premiers ingénieurs n’avaient pas compris la centralité du programme dans le numérique, d’autre part et il s’agissait d’un bien non rival, dont la copie n’empêchait personne de travailler. Cela fit que personne n’attacha d’importance particulière au développement de programmes. Par exemple, les laboratoires Bell développèrent le système d’exploitation UNIX pour leurs propres besoins et le vendirent pour un prix dérisoire aux Universités à partir de 1975, concentrant leurs efforts commerciaux sur la vente d’équipements téléphoniques. Ils laissèrent ces Universités développer des clones de leur programme.
Ces mêmes Universités avaient permis à leurs étudiants de développer des programmes sur leurs ordinateurs dès les années 50. Partout, aux Etats-Unis des étudiants se lancèrent dans la rédaction et l’échange de codes. Attrait de la modernité, plaisir de se confronter à des problèmes logiques complexes, quelque soient les motivations profondes de ceux qui se lancent dans cette activité, le hacking est presque aussi ancien que l’industrie numérique.
Le hacker est devenu une figure familière de notre culture. Il apparait régulièrement au cinéma comme en littérature : Millenium, Die Hard 3, WarGames, Matrix, etc.

Il faut payer

C’est à cette atmosphère libertaire que s’attaqua Bill Gates.
Au milieu des années 70, le vent avait commencé à tourner. D’abord, les industriels comprirent que le programme jouait un rôle central. C’est lui qui permettait de multiplier les nouveaux usages de cette machine à calculer universelle qu’était l’ordinateur. De plus, il devenait évident que son développement demandait des heures de travail, et que le bien soit rival ou non, il avait une valeur qu’il fallait protéger.
Microsoft avait développé un système d’exploitation pour l’Altaïr, et constatait que ce programme était régulièrement copié sans rétribution. En 1976, dans une lettre ouverte qu’il fit publier dans plusieurs revues destinées aux geeks il écrivit : « Comme la majorité des amateurs devraient le savoir, la plupart d’entre vous volent leurs logiciels. Le matériel doit être acheté, mais les logiciels sont une chose que l’on partage. Qui se soucie de savoir si les personnes qui ont travaillé dessus seront payées ? » En conséquence il demandait aux lecteurs qui disposaient d’un logiciel copié de lui envoyer le paiement.
A partir de ce moment là, le logiciel devint une marchandise comme une autre qu’il fallait payer si on voulait pouvoir l’utiliser.

Les enfants des hackers

Gates n’a pas cependant convaincu tout le monde. Il put d’autant moins convaincre qu’il bâtît une fortune colossale sur les droits de ses logiciels. Il apparut rapidement que dans le paiement du programme, il y avait, indissolublement liés, la rémunération d’un travail, et une rente de situation.
C’est pourquoi se développèrent face à l’offre de Microsoft des solutions de logiciels libres, open-source, que l’on pouvait acquérir sans payer des sommes astronomiques. Linux, système développé par Richard Stallman et Linus Torvalds est le prototype de ce type de logiciel, mais il est possible de citer aussi Mozilla, OpenOffice, WorldPress, etc. Tous ces outils sont le résultat de la collaboration de hackers, regroupés dans des communautés plus ou moins informelles.
Le logiciel libre cassa les monopoles de Microsoft et Apple, les obligeant à baisser leurs prix. Il proposa un nouveau modèle économique basé sur la collaboration d’une multitude d’acteurs.
Non seulement ces acteurs ne sont pas fous, mais ils jouent un rôle essentiel dans notre économie.

Bibliographie

    • Walter Isaacson : Les innovateurs (Jean-Claude Lattès-2015)
    • James Gleick : L’information, l’histoire, La théorie, Le déluge (Cassini-2015)
    • Article Wikipedia : Hacker (sécurité informatique) (état au 7 septembre 2017)
    • Article Wikipedia : The professor and the madman (état au 23 aout 2017)

 

Publié dans écriture, informatique, propriété intellectuelle, système d'information | Tagué , , | Laisser un commentaire

L’homme le plus riche du monde

santons 291Quick and dirty

Au début des années 1970, l’industrie de l’information est appelée Big Blue and the seven dawrfs (Grosse Bleu et les sept nains). Cette formule disait la domination d’IBM (Big Blue,) sur un oligopole de grandes entreprises. IBM avait assit sa suprématie grâce à de grands systèmes comme SABRE (réservation d’avion). C’était une société de service qui louait (cher) des ordinateurs à des clients aussi grands que lui (Etats, banques, grands industriels), et en assurait la maintenance (encore plus cher).
Il regarda avec condescendance l’arrivée d’Altaïr, Atari ou Apple, ces geeks qui proposaient des machines et des jeux au grand public.
L’informatique grand public est un autre modèle économique. Elle nécessite des frais commerciaux plutôt que l’innovation. Il faut fabriquer des produits simples, ne nécessitant pas d’apprentissage complexe, mais vendu grâce à des campagnes publicitaires gigantesques. Ce n’était pas définitivement pas la tasse de thé d’IBM. Son domaine, c’étaient des systèmes complexes, fortement intégrés, répondant aux besoins de contrôle des directions des grands groupes.
Et au début, les possibilités des micro-ordinateurs justifiaient son mépris. Ces appareils ne permettaient que de faire de la programmation ou de jouer à des jeux simples.
L’arrivée de Visicalc changea la donne. Visicalc fut le premier tableur et plus généralement la première application bureautique. Une nuée de contrôleurs de gestion trouva ainsi le moyen de vérifier et d’actualiser son budget de façon simple. Des hommes proches des Top Managers découvrirent qu’il existait une autre informatique que celle de Grosse Bleu, plus simple, plus réactive, plus adaptée à une monde où il faut répondre rapidement à la concurrence. IBM pris un coup de vieux.
Il lui fallait réagir vite. La firme lança la conception du premier Personal Computer.
Elle n’avait pas le temps de développer l’ensemble des composants. Elle décida d’acheter sur étagère à des intervenants extérieurs les pièces essentielles de la machine. C’est ainsi qu’il sous-traita à Intel la fabrication du microprocesseur et à Microsoft le logiciel d’exploitation.

Le roi du soft

Le monde des fondus d’informatique était encore le domaine du fer à souder autant que celui de la programmation. L’aventure de Jobs et Wozniak, les créateurs d’Apple est emblématique. Ils ne concevaient pas de livrer un programme sans la machine qui allait avec. Le logiciel n’était qu’un accessoire indissociable de l’ordinateur.
Manifestement Bill Gates n’avait aucun goût pour les travaux manuels. Le nom de la société qu’il crée, Microsoft (logiciel pour microordinateur ?) montre assez son ambition.
Son objectif n’était pas de créer de nouvelles machines (les bricoleurs pullulaient sur le marché), mais de leur fournir les programmes qu’ils n’avaient pas le temps ou les compétences de faire.
C’est ainsi qu’il débuta en fournissant à Altaïr, un des premiers créateurs de micro-ordinateur, un système d’exploitation qui optimisait le fonctionnement de l’appareil. Jeune homme pressé, Bill s’appuya sur les travaux préexistants d’un autre concepteur de logiciel qui avait créé un outil appelé Quick and Dirty Opérational System (QDOS- système d’exploitation vite fait mal fait).

Smart Bill

La notoriété d’IBM et un produit correct sorti dans les délais firent le succès de l’opération. IBM pris pour un temps la tète du marché de la micro-informatique.
Mais, Bill Gates mena une politique commerciale astucieuse.
D’abord, ce fils d’avocat savait l’importance de la propriété intellectuelle. Il avait cédé à IBM le droit d’usage de Q/DOS mais gardait le droit de licence. Bill Gates put donc vendre à d’autres fabricants d’ordinateurs son système d’exploitation.
La deuxième astuce fut de proposer des contrats long terme aux fabricants d’ordinateur. Microsoft proposa à partir de 1995 des contrats avec de fortes remises aux fabricants de micro-ordinateurs. En contrepartie ceux-ci s’engageaient à utiliser exclusivement ses logiciels. Dès lors les utilisateurs finaux avaient tout intérêt à utiliser les produits Microsoft, optimisés pour son système d’exploitation Windows. Alors que le marché de la bureautique était encore très concurrentiel au début des années 90 avec des produits comme WordPerfect, Lotus 123, Netscape, la suite Office balaya le monde et équipa 90% des PC.
Autre point fort, son API (Application Programming Interface), destiné aux éditeurs de logiciels. Celui-ci était fortement standardisé. Quelque soit la machine qui ferait tourner son système d’exploitation, les éditeurs de logiciels étaient assurés que leur programme fonctionnerait s’il était compatible avec Windows.
Face au splendide isolement d’Apple, campé sur une synergie machine/programme, toute l’industrie du numérique avait intérêt au succès de Microsoft. Les fabricants d’ordinateur avaient un logiciel d’exploitation à bas coût, les éditeurs de logiciel avaient un vaste marché ouvert à leurs produits, les utilisateurs de bureautique avaient des produits à cout limité grâce à l’allongement des séries. Au centre de la toile collaborative ainsi tissée, Microsoft vit sa trésorerie grossir, grossir…

L’homme le plus riche du monde

C’est ainsi que Bill Gates devint l’homme le plus riche du monde.
Depuis, Microsoft a pris moins vite que d’autres le virage des objets connectés et des Big Datas et sa position est moins dominante qu’elle n’a été.
Mais la fortune de Bill Gates est restée la première du monde. Il en semble lui même honteux. Il a décidé de n’en laisser qu’une petite partie à ses héritiers et cédera l’essentiel à une fondation destinée à redistribuer cette fortune.
Sans doute, plus que d’autres est-il conscient de l’ambiguïté sur laquelle est construite cette fortune.
Grace à une bonne gestion des droits de propriété intellectuelle, une part massive de la marge (le surtravail diraient les marxistes) générée par l’industrie du numérique entre dans sa poche. En même temps, c’est la collaboration de ses employés, des éditeurs et des autres industriels qui permet cette croissance massive du chiffre d’affaires. La collaboration de tous est la condition nécessaire à la génération de la valeur, la protection par le droit permet son accaparement par un petit nombre. Il y a sans doute des moyens plus simples que la création de fondations caritatives pour assurer une rémunération plus équitable de tous.

Bibliographie

– Alain Lefebvre et Laurent Poulain : Cow-boys contre chemin de fer ou que savez vous vraiment de l’histoire de l’informatique (Amazon-2012-2013)
– Walter Isaacson : Les innovateurs (Jean-Claude Lattès-2015)

Publié dans informatique, propriété intellectuelle, système d'information | Tagué , , | Laisser un commentaire

Dépenses incontrôlées et Défense nationale

DÉFENSE NATIONALELes vacances sont finies, je suis revenu des terres déconnectées. Je retrouve mon ordinateur, ma box, mon opérateur. Aujourd’hui reprenons le lien avec les amateurs de mes chroniques.
Je propose un retour sur le sujet de la gouvernance économique et un regard sur l’actualité.

La chose et le prix

Le contrat et les prix

Le projet est le mode habituel de création ou de modification d’un système d’information numérique. Des personnes compétentes sont réunies pour produire le nouveau système. Des contrats permettent de définir les règles du jeu entre elles. Comme expliqué dans plusieurs chroniques, cette organisation échappe à l’économie de marché, faute de pouvoir définir a priori le prix du système final.
Certains contesteront cette conception. Les contrats liés aux projets sont pleins de prix, prix unitaires, avec ou sans variation de prix, accompagnés de pénalités ou de primes. Ces prix s’appliquent à des unités d’œuvre détaillées (heures d’ingénieurs, jours de techniciens, nombre de documents repris, etc.).
Le suivi de ces prix et de ces unités d’œuvre occupe la conduite de projet. Le PMO (Projet Management Office), chargé de suivre l’avancement du projet, consacre un temps considérable à collecter ces éléments. Les acteurs du projet sont même agacés par ces intrusions incessantes, et voient là la mise en œuvre d’une logique financière, et donc l’emprise de l’économie de marché.
Mais il serait erroné de confondre le besoin de mesurer l’impact financier des travaux et et l’appel au marché. La mise en concurrence des prestataires potentiels s’est faite en amont de la définition du coût définitif du projet, et les prix unitaires ne peuvent le remplacer.
Pour nous en persuader, examinons l’avis du Ministère des Finances et de l’Economie.

L’avis du Ministère des Finances

En France, le Ministère des Finances est un tenant de l’économie de marché. La supériorité du marché sur toute autre forme de gouvernance des échanges (planification, contrat) constitue son socle idéologique. Trois raisons à cela : ses cadres ont été formés dans les meilleures écoles d’économie où cette théorie reste dominante ; la régulation des marchés est l’une de ses compétences principales (il a même une direction, la Direction de la Concurrence entièrement dédiée à cela) ; enfin il est en lutte permanente contre les ministères dépensiers. Sont dénommés ainsi tous les autres ministères sauf lui. Le Ministère des Finance est un Harpagon moderne qui protège le Trésor Public. Pour justifier ce comportement d’avare, il explique à ses collègues, qu’ils feraient mieux de laisser faire le marché, plutôt que d’intervenir dans l’économie.
Dans ses attributions, le Ministère des Finances est le garant du Code des Marchés Publics, épais volume de règles qui s’imposent aux acteurs publics pour passer des contrats. Ces règles sont assez défavorables à des contrats utilisant des Unités d’œuvre.. La terminologie change selon les époques, marchés en régie, marché en dépense contrôlée, marchés à prix unitaires, marchés à prix indicatifs… Les spécialistes et les amateurs se régaleront des subtiles différences entre ces différentes catégories, dans tous les cas, il s’agit de contrats où le montant à payer n’est connu qu’après exécution et contrôle de la réalisation. Ce type de contrat est même interdit aux collectivités locales, seul l’Etat a le droit d’utiliser ce type de prix et encore dans des conditions exceptionnelles.
Pourquoi cette méfiance vis à vis des prix unitaires et des unités d’œuvre ?
La principale raison est la dilution de la responsabilité des participants au projet.
Le concept d’unité d’œuvre vient de la comptabilité analytique. Une unité d’œuvre c’est d’abord un moyen de découper les coûts d’une entreprise pour les attribuer à un produit sortant. Dans un contrat faisant intervenir des unités d’œuvre, client et fournisseur procèdent à un contrôle conjoint des dépenses réalisées et du produit sorti. De fait même avec les clauses les mieux rédigées ce mode de régulation conduit le client à s’introduire dans le fonctionnement interne de la firme qui réalise, et la nature du produit sorti.
Qui est responsable de ce qui a été fait, qui est responsable du pilotage des équipes ? Il existe une abondante législation pour empêcher cette confusion (interdiction du prêt de main d’œuvre, délit de marchandage), mais ce type de contrat fonctionne toujours sur le fil du rasoir, les responsabilités respectives du le maître d’ouvrage et le maître d’œuvre n’étant pas toujours facile à établir.
Irresponsabilité, la cause devrait être entendue, l’utilisation des dépenses contrôlées doit être éradiquée, au profit de prix forfaitaires, obtenu par mise en concurrence sur la base de cahiers des charges clairs et détaillés.
Pourtant, cette éradication n’a jamais eu lieu, et quelque soit le nom que l’on leur donne, les dépenses contrôlées continuent à exister. Pourquoi ce maintien ?

Comment faire du nouveau ?

Avant de s’interroger sur les responsabilités et le juste prix, il faut savoir ce que l’on veut acheter. Un échange suppose que son objet soit connu. Or un projet est destiné à produire un objet nouveau et il faut passer par tout un processus pour s’assurer que l’objet imaginé corresponde au besoin souhaité. Il faut définir le besoin, la réponse du besoin,  effectuer le développement, et tester le résultat obtenu. A chacune de ces étapes, il peut y avoir des erreurs, des retours arrière, et ce n’est qu’à la fin du projet que le prix exact sera connu. Bien entendu le facteur Pi que certains affectent aux coûts des projets est une exagération, mais en même temps, un projet qui tient précisément ses coûts et ses délais est le plus souvent un projet qui ne prend pas le risque.
Voilà qui ne fait pas plaisir aux agents du ministère des Finances mais qui explique que les dépenses contrôlées existent toujours.

Le président et le militaire

Pour illustrer ce qui vient d’être dit prenons un exemple sorti de l’actualité de l’été.
Les français viennent d’élire un président issu du Ministère des Finances. Inspecteur des finances, ex-fonctionnaire de ce ministère, ex-banquier (une profession sous tutelle du Ministère des Finances), ex-ministre de l’économie, monsieur Macron n’a jamais montré qu’il s’éloignerait de l’orthodoxie de ce département de l’Etat. Un prix est un prix, une dépense est une dépense.
Le département ministériel de la Défense est dans un contexte nouveau. Le président des Etats-Unis, comme son prédécesseur, explique que son pays ne veut plus jouer le rôle de gendarme du monde, et que les européens doivent se prendre en main. Dans son programme électoral, le nouveau président français prenait en compte cette nouvelle réalité, et affirmait qu’il fallait aller vers le mythique seuil de 2% du PIB pour les dépenses de Défense, et vers une vraie défense européenne pour partager les coûts.
Les militaires virent donc arriver avec plaisir cet homme qui les comprenait si bien. La douche froide arriva, lorsqu’il s’avera que la main était toujours à la Direction du Budget qui passait le rabot sur tous les ministères dépensiers, y compris les armées. Il y eut un début de révolte des militaires, vite calmée par le départ du chef d’Etat-Major. Le président ajouta que le montant des dépenses est une question sérieuse qui se traite entre politiques (cela tombe bien, la nouvelle ministre des armée, Florence Parly est une ancienne du ministère des Finances).
Ce raisonnement semble avoir peu d’avenir. Si véritablement le contexte impose de mutualiser le dispositif de Défense, il faudra le partager avec les allemands. Or, depuis la seconde guerre mondiale, leur politique est celle d’une « Grande Suisse ». Les armées sont là pour défendre le territoire, et évitent d’inquiéter les voisins. La politique française, issue de la doctrine gaullienne, est exactement opposée. La meilleure défense est l’attaque, et donc la Défense française est basée sur la riposte nucléaire et une force d’intervention rapide capable d’agir sur n’importe quel théâtre d’opération. On ne voit pas comment cette politique pourra être imposée à des partenaires qui viennent d’abandonner le nucléaire civil et qui gardent le souvenir de la mort de leurs pères ou leurs grands-pères à Stalingrad ou El Alamein.
Il faudra donc bien réfléchir à une nouvelle politique de Défense, ce qui sera difficile à faire uniquement entre fonctionnaires du ministère des Finances. Politiques et militaires devront passer un contrat, définir une règle du jeu pour construire cette nouvelle politique, française ou européenne, si un compromis est trouvé avec les autres européens. Si ce contrat est bon, les deux partenaires seront également mécontents du résultat (il est improbable que tous les objectifs des partenaires au contrat soient atteints), et le prix de tout cela sera connu bien des années après.

Publié dans developpement, finance, gouverner, système d'information | Tagué , , | Laisser un commentaire

Le grand homme

05 grand hommeEn France, un grand homme, c’est un homme politique (Louis XIV, Clémenceau), ou un intellectuel (Voltaire ou Hugo), un prince ou son conseiller. Les deux plus admirés sont des militaires, Napoléon et De Gaulle. Aux Etats-Unis, les capitaines d’industrie peuvent être des grands hommes. Les deux plus importants dans cette catégorie sont Thomas Edison et Henri Ford. En somme, celui qui modifie la vie des gens est aussi important que celui qui les dirige. Il peut avoir là une des raisons des difficultés actuelles de la France. Lorsque le chiffre d’affaires des entreprises dépasse le PIB des Nations, les ambitieux se dirigent vers ces métiers, plutôt que vers la politique ou la littérature.
Steve Jobs est le plus admiré des capitaines d’industrie de notre temps. Deux films, un nombre incalculable de livres, sa statue, déjà immense de son vivant, ne cesse de grandir depuis sa mort en 2011.
Il y a à cela de bonnes et de mauvaises raisons. Commençons par les bonnes.

L’interface homme-machine

« Less is more », telle a été la ligne de conduite constante de Steve Jobs. Plus un appareil est simple et beau à regarder, plus il est facile d’emploi et accessible au plus grand nombre.
Plutôt animateur que concepteur, Jobs a poussé constamment ses équipes à faire plus simple et dépouillé.
Apple débute sa carrière d’entreprise innovante avec l’Apple II premier ordinateur packagé, qui ne ressemblait pas à un kit pour bricoleur (1977). Totalement industrialisé, simple à utiliser, il détrôna les appareils qui le précédait comme l’Altaïr. Il fut suivi du Macintosh, premier ordinateur doté d’un interface graphique d’une série (1984).
Viré de son entreprise, Jobs investit chez Pixar, inventeur du dessin animé numérique.
Il reprend véritablement son rôle de novateur avec son retour chez Apple. L’IMAC (1998) était une drôle de chose translucide aux couleurs étranges. Ses ventes ont sauvé Apple, mais son design n’a pas fait école. Par contre, c’est le premier ordinateur personnel livré sans lecteur de disquette ni graveur. Il était totalement pensé pour fonctionner avec internet, qui permettait de sauvegarder les données et de charger les applications.
Cette stratégie basée sur internet fut poursuivie avec l’invention suivante. L’IPod, lancé en 2001, permit de télécharger jusqu’à 1000 morceaux de musique depuis internet, et remplaça tous les baladeurs basés sur des technologies antérieures. Le pas suivant furent les Smartphones et tablettes. Quand Apple se lance dans la bataille, de nombreux concurrents sont déjà sur le sujet et se heurtent au problème posé par la taille de l’appareil. Comment concilier la meilleure visibilité des informations reçues avec la faciliter à saisir les informations envoyées. Les fabricants essayèrent toutes les formes de clavier, de stylets. Jobs fit le pari de l’écran tactile. Avec vos doigts vous pouvez écrire, dessiner sur l’écran. Plus besoin de clavier ni d’accessoires, et l’écran est le plus grand. Au moment où il prit ce pari, la technologie n’était pas encore au point. Mais, à la sortie, il inonda le marché avant ses concurrents.

Le rapace

Jobs était un maniaque du contrôle, « ce qui est à moi est à moi, ce qui est à toi est à moi ». Son business model se résume à la formule « Je vous donne le meilleur de la technologie et vous le payez au prix fort. » Cette philosophie marque toute sa démarche technique et commerciale.
Techniquement Jobs a toujours été partisan d’une intégration la plus forte possible entre matériel et logiciel. Il n’a jamais accepté de vendre son système d’exploitation à un autre fabricant de matériel. Ceci explique peut-être sa capacité à innover. Sony aurait du inventé l’iPod avant Apple. Il disposait de toutes les compétences techniques, il a l’un des plus grands catalogues de musique à exploité. Il avait invité les premiers baladeurs non numériques. Il disposait donc de la meilleure expérience et de l’intérêt à faire. Pourtant, incapable d’assurer l’intégration de ses départements autour d’un projet, il se fit dépasser par Apple.
Autre avantage à cette stratégie d’intégration forte, le faible nombre de virus attaquant l’écosystème d’Apple.

Les paradoxes de Steve

Mais cette stratégie a des inconvénients et surtout génère des paradoxes qui pèsent sur le fonctionnement d’Apple.
Un inconvénient est l’insuffisance des synergies avec l’extérieur. Apple profite moins et plus tard que ses concurrents des avancées technologiques lorsque ce n’est pas lui qui les initie. Cela l’a d’ailleurs obligé à faire plusieurs entorses à ses principes.
Surtout il provoque deux paradoxes.
Techniquement, aucune entreprise n’a apporté autant de soin à l’expérience utilisateur. Tout est fait pour que n’importe qui puisse prendre en main ses outils sans même une formation.
En même temps son perfectionnisme fait que sa stratégie commerciale est basée sur la différenciation. Michael Porter intitule ainsi une stratégie ou le fabricant ne cherche pas à la plus grande volumétrie des ventes, mais de proposer une différence par rapport à ses concurrents qui justifie que ses clients payent plus cher. Apple produit le meilleur et demande qu’on le paye en fonction. La communication du groupe est cohérente avec cette vision. Steve Jobs a constamment mis en scène son statut de grand homme dans des shows dont il était le principal acteur. Sobrement vêtu d’un jean et d’un pull à col roulé, dans une débauche de lumières, de musiques et de vidéos, il présentait ses nouveaux produits au monde, garantissant ainsi à ses clients de participer à une expérience unique. Cette stratégie a survécu à la mort du fondateur, Tim Cook le nouveau président ayant endossé le rôle du génie se battant pour offrir le meilleur à ses clients (voir la querelle avec le FBI).
Ainsi techniquement Jobs a fait la démocratisation du numérique, mais commercialement ce sont les prix bas de ses concurrents qui ont permis aux gens de se payer ces appareils. Apple fait 25% de marge de plus que ses concurrents mais, il n’a que 5% du marché.
En raison de ce paradoxe la vision industrielle d’Apple est à haut risque. Elle fonctionne tant que l’entreprise est constamment à la pointe de la technologie. La démonstration a déjà été faite au début des années 90 lorsque Jobs était absent. Après l’Apple II et le Macintosh, elle n’a pas réussi à proposer de nouveaux produits suffisamment innovants et a failli disparaître. Le problème peut revenir à tout moment.
Ensuite il y a le rapport à la propriété intellectuelle. Seule l’avance technologique garantit les profits et même la survie de l’entreprise. Il faut donc éviter que ces innovations soient copiées. Or les produits d’Apple sont des produits de grande consommation que tout le monde peut voir, manipuler et même démonter. C’est vrai de ses clients et encore plus de ses sous-traitants. Apple ne fabrique plus rien lui-même mais sous-traite à des entreprises ayant des coûts de main d’œuvre plus faible.
C’est pourquoi il a protégé ses innovations par une masse impressionnante de brevets en tous genres. Steve Jobs, bien que n’étant pas lui même un grand technicien a déposé plus de 300 brevets en son nom propre.
L’histoire de Apple est faites d’avancées technologiques mais aussi de retentissants procès, contre Microsoft ou Samsung en particulier qui travaillaient et travaillent toujours pour lui.
La protection par la propriété intellectuelle suppose des tribunaux, une police des douaniers, bref un Etat fort pour protéger les innovateurs. Or, et c’est là le deuxième paradoxe de Jobs, Apple est une des entreprises qui pratique le plus l’optimisation fiscale. Elle place ses profits dans des pays qui sont des paradis fiscaux. Il va même jusqu’à emprunter dans son pays d’origine pour financer sa recherche, plutôt que de rapatrier ces profits. La Commission Européenne a chiffré à 13 milliards les profits illicites obtenus en Irlande par ces moyens.
Dit autrement, le contribuable lambda paie chaque jour des impôts qui servent en partie à financer un arsenal policier et juridique assurant la protection des profits d’Apple. Chercher l’erreur !
Jobs et Apple sont l’homme et l’entreprise qui ont le plus modifié notre façon de vivre. Mais ils ont voulu en profiter au maximum, en s’appuyant sur le droit de propriété intellectuelle. Ils demandent donc aux Etats de protéger leur monopole, via leur justice et leur police. En même temps ils sont contraints d’être toujours les plus innovants, les plus visionnaires, sous peine de perdre leur position. Combien de temps parviendront-ils à conserver leur équilibre ?

Bibliographie

site de la journée mondiale de l’innovation industrielle 2012 (http://www.wipo.int/export/sites/www/pressroom/fr/documents/steve_jobs_brochure_2012.pdf)
Walter Isaacson : Steve Jobs (2011 ; JC Lattes)
Michael E Porter : Choix stratégique et concurrence (1988 ; Economica)

Publié dans informatique, propriété intellectuelle, système d'information | Tagué , , | Laisser un commentaire