L’homme le plus riche du monde

santons 291Quick and dirty

Au début des années 1970, l’industrie de l’information est appelée Big Blue and the seven dawrfs (Grosse Bleu et les sept nains). Cette formule disait la domination d’IBM (Big Blue,) sur un oligopole de grandes entreprises. IBM avait assit sa suprématie grâce à de grands systèmes comme SABRE (réservation d’avion). C’était une société de service qui louait (cher) des ordinateurs à des clients aussi grands que lui (Etats, banques, grands industriels), et en assurait la maintenance (encore plus cher).
Il regarda avec condescendance l’arrivée d’Altaïr, Atari ou Apple, ces geeks qui proposaient des machines et des jeux au grand public.
L’informatique grand public est un autre modèle économique. Elle nécessite des frais commerciaux plutôt que l’innovation. Il faut fabriquer des produits simples, ne nécessitant pas d’apprentissage complexe, mais vendu grâce à des campagnes publicitaires gigantesques. Ce n’était pas définitivement pas la tasse de thé d’IBM. Son domaine, c’étaient des systèmes complexes, fortement intégrés, répondant aux besoins de contrôle des directions des grands groupes.
Et au début, les possibilités des micro-ordinateurs justifiaient son mépris. Ces appareils ne permettaient que de faire de la programmation ou de jouer à des jeux simples.
L’arrivée de Visicalc changea la donne. Visicalc fut le premier tableur et plus généralement la première application bureautique. Une nuée de contrôleurs de gestion trouva ainsi le moyen de vérifier et d’actualiser son budget de façon simple. Des hommes proches des Top Managers découvrirent qu’il existait une autre informatique que celle de Grosse Bleu, plus simple, plus réactive, plus adaptée à une monde où il faut répondre rapidement à la concurrence. IBM pris un coup de vieux.
Il lui fallait réagir vite. La firme lança la conception du premier Personal Computer.
Elle n’avait pas le temps de développer l’ensemble des composants. Elle décida d’acheter sur étagère à des intervenants extérieurs les pièces essentielles de la machine. C’est ainsi qu’il sous-traita à Intel la fabrication du microprocesseur et à Microsoft le logiciel d’exploitation.

Le roi du soft

Le monde des fondus d’informatique était encore le domaine du fer à souder autant que celui de la programmation. L’aventure de Jobs et Wozniak, les créateurs d’Apple est emblématique. Ils ne concevaient pas de livrer un programme sans la machine qui allait avec. Le logiciel n’était qu’un accessoire indissociable de l’ordinateur.
Manifestement Bill Gates n’avait aucun goût pour les travaux manuels. Le nom de la société qu’il crée, Microsoft (logiciel pour microordinateur ?) montre assez son ambition.
Son objectif n’était pas de créer de nouvelles machines (les bricoleurs pullulaient sur le marché), mais de leur fournir les programmes qu’ils n’avaient pas le temps ou les compétences de faire.
C’est ainsi qu’il débuta en fournissant à Altaïr, un des premiers créateurs de micro-ordinateur, un système d’exploitation qui optimisait le fonctionnement de l’appareil. Jeune homme pressé, Bill s’appuya sur les travaux préexistants d’un autre concepteur de logiciel qui avait créé un outil appelé Quick and Dirty Opérational System (QDOS- système d’exploitation vite fait mal fait).

Smart Bill

La notoriété d’IBM et un produit correct sorti dans les délais firent le succès de l’opération. IBM pris pour un temps la tète du marché de la micro-informatique.
Mais, Bill Gates mena une politique commerciale astucieuse.
D’abord, ce fils d’avocat savait l’importance de la propriété intellectuelle. Il avait cédé à IBM le droit d’usage de Q/DOS mais gardait le droit de licence. Bill Gates put donc vendre à d’autres fabricants d’ordinateurs son système d’exploitation.
La deuxième astuce fut de proposer des contrats long terme aux fabricants d’ordinateur. Microsoft proposa à partir de 1995 des contrats avec de fortes remises aux fabricants de micro-ordinateurs. En contrepartie ceux-ci s’engageaient à utiliser exclusivement ses logiciels. Dès lors les utilisateurs finaux avaient tout intérêt à utiliser les produits Microsoft, optimisés pour son système d’exploitation Windows. Alors que le marché de la bureautique était encore très concurrentiel au début des années 90 avec des produits comme WordPerfect, Lotus 123, Netscape, la suite Office balaya le monde et équipa 90% des PC.
Autre point fort, son API (Application Programming Interface), destiné aux éditeurs de logiciels. Celui-ci était fortement standardisé. Quelque soit la machine qui ferait tourner son système d’exploitation, les éditeurs de logiciels étaient assurés que leur programme fonctionnerait s’il était compatible avec Windows.
Face au splendide isolement d’Apple, campé sur une synergie machine/programme, toute l’industrie du numérique avait intérêt au succès de Microsoft. Les fabricants d’ordinateur avaient un logiciel d’exploitation à bas coût, les éditeurs de logiciel avaient un vaste marché ouvert à leurs produits, les utilisateurs de bureautique avaient des produits à cout limité grâce à l’allongement des séries. Au centre de la toile collaborative ainsi tissée, Microsoft vit sa trésorerie grossir, grossir…

L’homme le plus riche du monde

C’est ainsi que Bill Gates devint l’homme le plus riche du monde.
Depuis, Microsoft a pris moins vite que d’autres le virage des objets connectés et des Big Datas et sa position est moins dominante qu’elle n’a été.
Mais la fortune de Bill Gates est restée la première du monde. Il en semble lui même honteux. Il a décidé de n’en laisser qu’une petite partie à ses héritiers et cédera l’essentiel à une fondation destinée à redistribuer cette fortune.
Sans doute, plus que d’autres est-il conscient de l’ambiguïté sur laquelle est construite cette fortune.
Grace à une bonne gestion des droits de propriété intellectuelle, une part massive de la marge (le surtravail diraient les marxistes) générée par l’industrie du numérique entre dans sa poche. En même temps, c’est la collaboration de ses employés, des éditeurs et des autres industriels qui permet cette croissance massive du chiffre d’affaires. La collaboration de tous est la condition nécessaire à la génération de la valeur, la protection par le droit permet son accaparement par un petit nombre. Il y a sans doute des moyens plus simples que la création de fondations caritatives pour assurer une rémunération plus équitable de tous.

Bibliographie

– Alain Lefebvre et Laurent Poulain : Cow-boys contre chemin de fer ou que savez vous vraiment de l’histoire de l’informatique (Amazon-2012-2013)
– Walter Isaacson : Les innovateurs (Jean-Claude Lattès-2015)

Publié dans informatique, propriété intellectuelle, système d'information | Tagué , , | Laisser un commentaire

Dépenses incontrôlées et Défense nationale

DÉFENSE NATIONALELes vacances sont finies, je suis revenu des terres déconnectées. Je retrouve mon ordinateur, ma box, mon opérateur. Aujourd’hui reprenons le lien avec les amateurs de mes chroniques.
Je propose un retour sur le sujet de la gouvernance économique et un regard sur l’actualité.

La chose et le prix

Le contrat et les prix

Le projet est le mode habituel de création ou de modification d’un système d’information numérique. Des personnes compétentes sont réunies pour produire le nouveau système. Des contrats permettent de définir les règles du jeu entre elles. Comme expliqué dans plusieurs chroniques, cette organisation échappe à l’économie de marché, faute de pouvoir définir a priori le prix du système final.
Certains contesteront cette conception. Les contrats liés aux projets sont pleins de prix, prix unitaires, avec ou sans variation de prix, accompagnés de pénalités ou de primes. Ces prix s’appliquent à des unités d’œuvre détaillées (heures d’ingénieurs, jours de techniciens, nombre de documents repris, etc.).
Le suivi de ces prix et de ces unités d’œuvre occupe la conduite de projet. Le PMO (Projet Management Office), chargé de suivre l’avancement du projet, consacre un temps considérable à collecter ces éléments. Les acteurs du projet sont même agacés par ces intrusions incessantes, et voient là la mise en œuvre d’une logique financière, et donc l’emprise de l’économie de marché.
Mais il serait erroné de confondre le besoin de mesurer l’impact financier des travaux et et l’appel au marché. La mise en concurrence des prestataires potentiels s’est faite en amont de la définition du coût définitif du projet, et les prix unitaires ne peuvent le remplacer.
Pour nous en persuader, examinons l’avis du Ministère des Finances et de l’Economie.

L’avis du Ministère des Finances

En France, le Ministère des Finances est un tenant de l’économie de marché. La supériorité du marché sur toute autre forme de gouvernance des échanges (planification, contrat) constitue son socle idéologique. Trois raisons à cela : ses cadres ont été formés dans les meilleures écoles d’économie où cette théorie reste dominante ; la régulation des marchés est l’une de ses compétences principales (il a même une direction, la Direction de la Concurrence entièrement dédiée à cela) ; enfin il est en lutte permanente contre les ministères dépensiers. Sont dénommés ainsi tous les autres ministères sauf lui. Le Ministère des Finance est un Harpagon moderne qui protège le Trésor Public. Pour justifier ce comportement d’avare, il explique à ses collègues, qu’ils feraient mieux de laisser faire le marché, plutôt que d’intervenir dans l’économie.
Dans ses attributions, le Ministère des Finances est le garant du Code des Marchés Publics, épais volume de règles qui s’imposent aux acteurs publics pour passer des contrats. Ces règles sont assez défavorables à des contrats utilisant des Unités d’œuvre.. La terminologie change selon les époques, marchés en régie, marché en dépense contrôlée, marchés à prix unitaires, marchés à prix indicatifs… Les spécialistes et les amateurs se régaleront des subtiles différences entre ces différentes catégories, dans tous les cas, il s’agit de contrats où le montant à payer n’est connu qu’après exécution et contrôle de la réalisation. Ce type de contrat est même interdit aux collectivités locales, seul l’Etat a le droit d’utiliser ce type de prix et encore dans des conditions exceptionnelles.
Pourquoi cette méfiance vis à vis des prix unitaires et des unités d’œuvre ?
La principale raison est la dilution de la responsabilité des participants au projet.
Le concept d’unité d’œuvre vient de la comptabilité analytique. Une unité d’œuvre c’est d’abord un moyen de découper les coûts d’une entreprise pour les attribuer à un produit sortant. Dans un contrat faisant intervenir des unités d’œuvre, client et fournisseur procèdent à un contrôle conjoint des dépenses réalisées et du produit sorti. De fait même avec les clauses les mieux rédigées ce mode de régulation conduit le client à s’introduire dans le fonctionnement interne de la firme qui réalise, et la nature du produit sorti.
Qui est responsable de ce qui a été fait, qui est responsable du pilotage des équipes ? Il existe une abondante législation pour empêcher cette confusion (interdiction du prêt de main d’œuvre, délit de marchandage), mais ce type de contrat fonctionne toujours sur le fil du rasoir, les responsabilités respectives du le maître d’ouvrage et le maître d’œuvre n’étant pas toujours facile à établir.
Irresponsabilité, la cause devrait être entendue, l’utilisation des dépenses contrôlées doit être éradiquée, au profit de prix forfaitaires, obtenu par mise en concurrence sur la base de cahiers des charges clairs et détaillés.
Pourtant, cette éradication n’a jamais eu lieu, et quelque soit le nom que l’on leur donne, les dépenses contrôlées continuent à exister. Pourquoi ce maintien ?

Comment faire du nouveau ?

Avant de s’interroger sur les responsabilités et le juste prix, il faut savoir ce que l’on veut acheter. Un échange suppose que son objet soit connu. Or un projet est destiné à produire un objet nouveau et il faut passer par tout un processus pour s’assurer que l’objet imaginé corresponde au besoin souhaité. Il faut définir le besoin, la réponse du besoin,  effectuer le développement, et tester le résultat obtenu. A chacune de ces étapes, il peut y avoir des erreurs, des retours arrière, et ce n’est qu’à la fin du projet que le prix exact sera connu. Bien entendu le facteur Pi que certains affectent aux coûts des projets est une exagération, mais en même temps, un projet qui tient précisément ses coûts et ses délais est le plus souvent un projet qui ne prend pas le risque.
Voilà qui ne fait pas plaisir aux agents du ministère des Finances mais qui explique que les dépenses contrôlées existent toujours.

Le président et le militaire

Pour illustrer ce qui vient d’être dit prenons un exemple sorti de l’actualité de l’été.
Les français viennent d’élire un président issu du Ministère des Finances. Inspecteur des finances, ex-fonctionnaire de ce ministère, ex-banquier (une profession sous tutelle du Ministère des Finances), ex-ministre de l’économie, monsieur Macron n’a jamais montré qu’il s’éloignerait de l’orthodoxie de ce département de l’Etat. Un prix est un prix, une dépense est une dépense.
Le département ministériel de la Défense est dans un contexte nouveau. Le président des Etats-Unis, comme son prédécesseur, explique que son pays ne veut plus jouer le rôle de gendarme du monde, et que les européens doivent se prendre en main. Dans son programme électoral, le nouveau président français prenait en compte cette nouvelle réalité, et affirmait qu’il fallait aller vers le mythique seuil de 2% du PIB pour les dépenses de Défense, et vers une vraie défense européenne pour partager les coûts.
Les militaires virent donc arriver avec plaisir cet homme qui les comprenait si bien. La douche froide arriva, lorsqu’il s’avera que la main était toujours à la Direction du Budget qui passait le rabot sur tous les ministères dépensiers, y compris les armées. Il y eut un début de révolte des militaires, vite calmée par le départ du chef d’Etat-Major. Le président ajouta que le montant des dépenses est une question sérieuse qui se traite entre politiques (cela tombe bien, la nouvelle ministre des armée, Florence Parly est une ancienne du ministère des Finances).
Ce raisonnement semble avoir peu d’avenir. Si véritablement le contexte impose de mutualiser le dispositif de Défense, il faudra le partager avec les allemands. Or, depuis la seconde guerre mondiale, leur politique est celle d’une « Grande Suisse ». Les armées sont là pour défendre le territoire, et évitent d’inquiéter les voisins. La politique française, issue de la doctrine gaullienne, est exactement opposée. La meilleure défense est l’attaque, et donc la Défense française est basée sur la riposte nucléaire et une force d’intervention rapide capable d’agir sur n’importe quel théâtre d’opération. On ne voit pas comment cette politique pourra être imposée à des partenaires qui viennent d’abandonner le nucléaire civil et qui gardent le souvenir de la mort de leurs pères ou leurs grands-pères à Stalingrad ou El Alamein.
Il faudra donc bien réfléchir à une nouvelle politique de Défense, ce qui sera difficile à faire uniquement entre fonctionnaires du ministère des Finances. Politiques et militaires devront passer un contrat, définir une règle du jeu pour construire cette nouvelle politique, française ou européenne, si un compromis est trouvé avec les autres européens. Si ce contrat est bon, les deux partenaires seront également mécontents du résultat (il est improbable que tous les objectifs des partenaires au contrat soient atteints), et le prix de tout cela sera connu bien des années après.

Publié dans developpement, finance, gouverner, système d'information | Tagué , , | Laisser un commentaire

Le grand homme

05 grand hommeEn France, un grand homme, c’est un homme politique (Louis XIV, Clémenceau), ou un intellectuel (Voltaire ou Hugo), un prince ou son conseiller. Les deux plus admirés sont des militaires, Napoléon et De Gaulle. Aux Etats-Unis, les capitaines d’industrie peuvent être des grands hommes. Les deux plus importants dans cette catégorie sont Thomas Edison et Henri Ford. En somme, celui qui modifie la vie des gens est aussi important que celui qui les dirige. Il peut avoir là une des raisons des difficultés actuelles de la France. Lorsque le chiffre d’affaires des entreprises dépasse le PIB des Nations, les ambitieux se dirigent vers ces métiers, plutôt que vers la politique ou la littérature.
Steve Jobs est le plus admiré des capitaines d’industrie de notre temps. Deux films, un nombre incalculable de livres, sa statue, déjà immense de son vivant, ne cesse de grandir depuis sa mort en 2011.
Il y a à cela de bonnes et de mauvaises raisons. Commençons par les bonnes.

L’interface homme-machine

« Less is more », telle a été la ligne de conduite constante de Steve Jobs. Plus un appareil est simple et beau à regarder, plus il est facile d’emploi et accessible au plus grand nombre.
Plutôt animateur que concepteur, Jobs a poussé constamment ses équipes à faire plus simple et dépouillé.
Apple débute sa carrière d’entreprise innovante avec l’Apple II premier ordinateur packagé, qui ne ressemblait pas à un kit pour bricoleur (1977). Totalement industrialisé, simple à utiliser, il détrôna les appareils qui le précédait comme l’Altaïr. Il fut suivi du Macintosh, premier ordinateur doté d’un interface graphique d’une série (1984).
Viré de son entreprise, Jobs investit chez Pixar, inventeur du dessin animé numérique.
Il reprend véritablement son rôle de novateur avec son retour chez Apple. L’IMAC (1998) était une drôle de chose translucide aux couleurs étranges. Ses ventes ont sauvé Apple, mais son design n’a pas fait école. Par contre, c’est le premier ordinateur personnel livré sans lecteur de disquette ni graveur. Il était totalement pensé pour fonctionner avec internet, qui permettait de sauvegarder les données et de charger les applications.
Cette stratégie basée sur internet fut poursuivie avec l’invention suivante. L’IPod, lancé en 2001, permit de télécharger jusqu’à 1000 morceaux de musique depuis internet, et remplaça tous les baladeurs basés sur des technologies antérieures. Le pas suivant furent les Smartphones et tablettes. Quand Apple se lance dans la bataille, de nombreux concurrents sont déjà sur le sujet et se heurtent au problème posé par la taille de l’appareil. Comment concilier la meilleure visibilité des informations reçues avec la faciliter à saisir les informations envoyées. Les fabricants essayèrent toutes les formes de clavier, de stylets. Jobs fit le pari de l’écran tactile. Avec vos doigts vous pouvez écrire, dessiner sur l’écran. Plus besoin de clavier ni d’accessoires, et l’écran est le plus grand. Au moment où il prit ce pari, la technologie n’était pas encore au point. Mais, à la sortie, il inonda le marché avant ses concurrents.

Le rapace

Jobs était un maniaque du contrôle, « ce qui est à moi est à moi, ce qui est à toi est à moi ». Son business model se résume à la formule « Je vous donne le meilleur de la technologie et vous le payez au prix fort. » Cette philosophie marque toute sa démarche technique et commerciale.
Techniquement Jobs a toujours été partisan d’une intégration la plus forte possible entre matériel et logiciel. Il n’a jamais accepté de vendre son système d’exploitation à un autre fabricant de matériel. Ceci explique peut-être sa capacité à innover. Sony aurait du inventé l’iPod avant Apple. Il disposait de toutes les compétences techniques, il a l’un des plus grands catalogues de musique à exploité. Il avait invité les premiers baladeurs non numériques. Il disposait donc de la meilleure expérience et de l’intérêt à faire. Pourtant, incapable d’assurer l’intégration de ses départements autour d’un projet, il se fit dépasser par Apple.
Autre avantage à cette stratégie d’intégration forte, le faible nombre de virus attaquant l’écosystème d’Apple.

Les paradoxes de Steve

Mais cette stratégie a des inconvénients et surtout génère des paradoxes qui pèsent sur le fonctionnement d’Apple.
Un inconvénient est l’insuffisance des synergies avec l’extérieur. Apple profite moins et plus tard que ses concurrents des avancées technologiques lorsque ce n’est pas lui qui les initie. Cela l’a d’ailleurs obligé à faire plusieurs entorses à ses principes.
Surtout il provoque deux paradoxes.
Techniquement, aucune entreprise n’a apporté autant de soin à l’expérience utilisateur. Tout est fait pour que n’importe qui puisse prendre en main ses outils sans même une formation.
En même temps son perfectionnisme fait que sa stratégie commerciale est basée sur la différenciation. Michael Porter intitule ainsi une stratégie ou le fabricant ne cherche pas à la plus grande volumétrie des ventes, mais de proposer une différence par rapport à ses concurrents qui justifie que ses clients payent plus cher. Apple produit le meilleur et demande qu’on le paye en fonction. La communication du groupe est cohérente avec cette vision. Steve Jobs a constamment mis en scène son statut de grand homme dans des shows dont il était le principal acteur. Sobrement vêtu d’un jean et d’un pull à col roulé, dans une débauche de lumières, de musiques et de vidéos, il présentait ses nouveaux produits au monde, garantissant ainsi à ses clients de participer à une expérience unique. Cette stratégie a survécu à la mort du fondateur, Tim Cook le nouveau président ayant endossé le rôle du génie se battant pour offrir le meilleur à ses clients (voir la querelle avec le FBI).
Ainsi techniquement Jobs a fait la démocratisation du numérique, mais commercialement ce sont les prix bas de ses concurrents qui ont permis aux gens de se payer ces appareils. Apple fait 25% de marge de plus que ses concurrents mais, il n’a que 5% du marché.
En raison de ce paradoxe la vision industrielle d’Apple est à haut risque. Elle fonctionne tant que l’entreprise est constamment à la pointe de la technologie. La démonstration a déjà été faite au début des années 90 lorsque Jobs était absent. Après l’Apple II et le Macintosh, elle n’a pas réussi à proposer de nouveaux produits suffisamment innovants et a failli disparaître. Le problème peut revenir à tout moment.
Ensuite il y a le rapport à la propriété intellectuelle. Seule l’avance technologique garantit les profits et même la survie de l’entreprise. Il faut donc éviter que ces innovations soient copiées. Or les produits d’Apple sont des produits de grande consommation que tout le monde peut voir, manipuler et même démonter. C’est vrai de ses clients et encore plus de ses sous-traitants. Apple ne fabrique plus rien lui-même mais sous-traite à des entreprises ayant des coûts de main d’œuvre plus faible.
C’est pourquoi il a protégé ses innovations par une masse impressionnante de brevets en tous genres. Steve Jobs, bien que n’étant pas lui même un grand technicien a déposé plus de 300 brevets en son nom propre.
L’histoire de Apple est faites d’avancées technologiques mais aussi de retentissants procès, contre Microsoft ou Samsung en particulier qui travaillaient et travaillent toujours pour lui.
La protection par la propriété intellectuelle suppose des tribunaux, une police des douaniers, bref un Etat fort pour protéger les innovateurs. Or, et c’est là le deuxième paradoxe de Jobs, Apple est une des entreprises qui pratique le plus l’optimisation fiscale. Elle place ses profits dans des pays qui sont des paradis fiscaux. Il va même jusqu’à emprunter dans son pays d’origine pour financer sa recherche, plutôt que de rapatrier ces profits. La Commission Européenne a chiffré à 13 milliards les profits illicites obtenus en Irlande par ces moyens.
Dit autrement, le contribuable lambda paie chaque jour des impôts qui servent en partie à financer un arsenal policier et juridique assurant la protection des profits d’Apple. Chercher l’erreur !
Jobs et Apple sont l’homme et l’entreprise qui ont le plus modifié notre façon de vivre. Mais ils ont voulu en profiter au maximum, en s’appuyant sur le droit de propriété intellectuelle. Ils demandent donc aux Etats de protéger leur monopole, via leur justice et leur police. En même temps ils sont contraints d’être toujours les plus innovants, les plus visionnaires, sous peine de perdre leur position. Combien de temps parviendront-ils à conserver leur équilibre ?

Bibliographie

site de la journée mondiale de l’innovation industrielle 2012 (http://www.wipo.int/export/sites/www/pressroom/fr/documents/steve_jobs_brochure_2012.pdf)
Walter Isaacson : Steve Jobs (2011 ; JC Lattes)
Michael E Porter : Choix stratégique et concurrence (1988 ; Economica)

Publié dans informatique, propriété intellectuelle, système d'information | Tagué , , | Laisser un commentaire

Le droit d’interdire

04 signesLa propriété intellectuelle a longtemps été un sujet pour spécialistes. L’amateur évitait de se confronter à un droit complexe, truffé d’exceptions. De plus, il ne concernait que peu de personnes, les littérateurs et les artistes, les laboratoires de recherche.
Cette situation a changé.
D’abord, le coût de fabrication d’un produit est devenu une part faible du prix de vente. L’essentiel est destiné à couvrir les coûts de recherche, de promotion, de diffusion, donc le prix rémunère plus une activité intellectuelle que le travail manuel de l’ouvrier. Ensuite, les algorithmes et les programmes du numérique, sont des produits intellectuels comme les autres. C’est ainsi que ce qui s’appelle  les actifs immatériels prend une place essentielle dans la vie économique.

Protéger un actif immatériel

Fabriquer un algorithme et un programme, comme une œuvre d’art, demande du travail, et les participants d’un projet souhaitent protéger la valeur ainsi créée.
Il n’existe pour cela que deux moyens : la confidentialité et la propriété intellectuelle. Ces deux moyens ont la particularité d’être opposées. La confidentialité suppose que les concepteurs-développeurs gardent le secret de l’ouvrage fait. La propriété intellectuelle pour être revendiquée, suppose que l’ouvrage soit connu. C’est le premier inventeur d’une idée, d’un texte d’une œuvre qui génère le droit de propriété intellectuelle en le déclarant publiquement. Les formes de cette déclaration varient suivant le produit et le pays concerné et ont été compliquées avec l’arrivée du numérique. Un algorithme est une idée et relève plutôt du droit de la propriété industrielle, un programme est un texte et relève plutôt du droit d’auteur. Les entreprises du numérique ont appris à mixer les différents types de droits.
Dans un projet, les participants s’efforcent habituellement de combiner les deux méthodes. Le principe habituel est que maître d’œuvre et maître d’ouvrage demandent que la totalité des intervenants gardent la confidentialité la plus stricte sur les résultats tant que le projet n’est pas terminé, puis que les maîtres se partagent le résultat une fois qu’il est publié. Rédiger des clauses sur des besoins aussi différents, se révèle souvent difficile. Les clauses des contrats sont tarabiscotées, voire même contradictoires si elles ont été mal rédigées.

Le droit d’interdire

La propriété intellectuelle est le moyen principal qui permettra ensuite de générer un revenu à partir de cet actif créé. Mais en quoi consiste-t-elle ?
Le terme anglais de copyright, droit de copier est la formulation la plus explicite de la propriété intellectuelle. En effet celui qui possède un titre de propriété intellectuel a un droit d’interdire la copie de l’oeuvre. La copie prendre de multiples formes, éditer l’œuvre, la représenter, etc. Ce droit d’interdire permet ensuite d’autoriser cette copie sous des formes multiples, pour des contextes variés, des durées différentes, gratuitement ou contre rémunération. C’est le droit d’interdire qui permet les formes variées de l’exploitation.

Privilège

De fait, le droit de propriété intellectuelle donne donc un privilège, une loi privée, un droit exclusif accordé au créateur d’exploiter l’invention. La propriété intellectuelle suppose l’existence d’un Etat de droit. Dit autrement, pour faire respecter son privilège, l’inventeur s’appuie sur les tribunaux, la police, les douanes, éventuellement l’armée, qui le protègeront contre tous les pirates, et autres flibustiers. Et cet Etat de droit est payé par tous les contribuables, dont une partie des impôts est utilisé à cette fin.
Ce qui paraît curieux, c’est que ce droit apparaît en même temps que le droit de la concurrence. Ce dernier passe par la suppression de touts les privilèges et corporatismes (la nuit du quatre août 1789 étant le symbole absolu dans le cas français). Plus de barrières, plus de limites au commerce.
Et dans le même temps, l’information (toute œuvre de l’esprit est une information) est privatisée au profit de celui qui la formule le premier.
Remarquons aussi que les droits de propriété intellectuelle ne sont jamais sans exceptions ni limites. Il y a d’abord une limitation dans le temps : les inventions, les textes, les œuvres finissent toujours par tomber dans le domaine public, expression consacrée pour dire qu’à un moment tout le monde peut les copier. Mais d’autres limites existent, droit de citation, de pastiche, de copie pour sauvegarde… Aucun Etat ne s’estime capable de défendre la propriété intellectuelle à l’infini.
L’histoire du droit de propriété intellectuelle est un éternel débat entre les auteurs et leurs éditeurs de tout poil, les thuriféraires du droit de la concurrence, et les défenseurs du domaine public, qui comme Victor Hugo rappellent qu’une idée doit être utile à tous.

Incitation

Créer, concevoir une nouvelle solution, une œuvre originale demande du temps, et les génies les plus créatifs ont besoin de vivre au quotidien. C’est pourquoi l’essentiel des droits de propriété vont aux porteurs de capitaux. Les défenseurs de la propriété intellectuelle mettent souvent en avant des Van Gogh faméliques et des Géo Trouvetou, roi du concours Lépine. Ils nous expliquent que ce droit est une incitation puissante à inventer car il protège efficacement le travail du créateur. Mais, dans la pratique, le créateur cède la plupart du temps ses droits : dans le cadre d’un contrat de licence, d’un contrat de travail ou de tout autre dispositif. Les créateurs ayant le plus rapporté au monde sont sans doute les Beatles Lennon et Mac McCartney. Leurs chansons font le tour du monde. A tout moment, Yesterday et Let it be sont joués quelque part sur notre planète. Mais n’étant pas assurer de la poursuite de leur succès, ils ont cédé à forfait la propriété de leurs droits. C’est ainsi que Mac McCartney doit payer pour interpréter les chansons qu’il a lui même créées (n’ayons pas trop de compassion pour lui cependant, ses droits en temps qu’interprète lui ont permis de s’acheter le plus grand catalogue de chansons de pionniers du Rock). Le droit français a une disposition particulière, le droit moral, qui n’est pas cessible par le créateur. Mais la France n’a jamais réussi à exporter ce principe et son importance économique est assez limitée.
Dans les faits, le droit de propriété intellectuel est moins destiné à inciter les créateurs, qu’un droit qui incite les capitalistes à financer la création et l’innovation.

Loterie

Cette concentration des droits est renforcée par le caractère de loterie de toute création. Rien ne garantit a priori le succès une œuvre nouvelle, qu’il s’agisse d’un livre, d’une peinture, d’un programme ou d’un dispositif technique. Les meilleures études de marché sont des aides limitées à la prise de décision. Et le fait de chercher ne garantit pas que l’on trouve. Mais les lois de la probabilité sont formelles, celui qui mise le plus est aussi celui qui gagne le plus.
C’est pourquoi in fine le capitaliste gagne toujours.

Le système d’information numérique est toujours une création collective, faisant appel à des compétences multiples. Pourtant, le droit sur lequel il s’appuie est un droit individuel, favorisant quelques uns, pour autant qu’ils soient porteurs de capitaux. Ce paradoxe fait la joie des économistes.

Publié dans propriété intellectuelle, système d'information | Tagué , , | Laisser un commentaire

Le Voyant

03 auteurUn programme est un texte comme un autre. Il est destiné à être lu par une machine, éventuellement il a été rédigé par la machine. Mais comme un roman ou un essai, il n’est rien d’autre qu’une série d’informations mises en forme dans une langue précise. Et la façon dont nous le pensons, le droit qui s’applique à lui est le même. Et ce droit est nourri de plusieurs siècles d’images et de concepts dont nous nous déprenons difficilement.
Le droit des textes d’aujourd’hui a été forgé par la première industrialisation du système d’information, c’est à dire l’imprimerie.

Imprimerie et auteur

La naissance de l’imprimerie et l’augmentation soudaine du nombre de livres édités fut un formidable moyen de diffusion de la culture, mais amena des problèmes nouveaux à résoudre. Quelle orthographe adopter, quelle ponctuation, comment corriger les textes, comment s’assurer que d’un texte à l’autre les lecteurs conservent leurs repères. Tout un ensemble de métiers apparurent pour résoudre ces questions, l’éditeur, l’imprimeur, le correcteur, etc. Mais une question très pratique se posa avec la croissance du nombre des livres dans les bibliothèques : comment les classer, comment être sur de les retrouver facilement ?

C’est ainsi que naquit la notion d’auteur. Jusque là les manuscrits du moyen-âge ne se préoccupaient guère de cette cohérence. Un livre était souvent une compilation plus ou moins ordonnée de textes d’origines différentes, qui portaient tous sur le même sujet ou tout simplement, intéressaient celui qui payait les copistes.

A partir du XVème siècle, un livre devint progressivement l’œuvre d’un auteur.
Ceci n’avait rien d’une évidence.
Prenons l’exemple de Shakespeare. Il était à la fois auteur, acteur et copropriétaire de sa troupe. Il travaille a un moment où la coopération entre auteurs était fréquente (nous savons que plusieurs des pièces de Shakespeare ont été écrites en collaboration, que certaines sont des réécritures de pièces ou de contes étrangers, qu’il existe au moins deux versions d’Hamlet qui ne sont pas de la même main). Avant 1598, ses pièces sont publiées sous le nom de sa troupe, du seigneur qui la commandite. En 1598, son nom apparaît comme celui qui a corrigé et augmenté une pièce publiée. Ensuite son nom ayant commencé à être connu, il apparaît de plus sur les pages de titres (mais pas toujours : les premières éditions de Titus Andronicus ou Romeo et Juliette ne mentionnent pas son nom). C’est après sa mort, à partir de 1623, que ses anciens compagnons, appuyés par plusieurs imprimeurs et libraires commencerons à éditer le monument des œuvres complètes, en l’attribuant à Shakespeare (avec quelques difficultés semble-t-il, les pièces écrites en collaboration étaient censées être écartés, mais certaines pièces faites en coopération sont attribuées au seul Shakespeare dans ces éditions). Nous ignorerons toujours ce que ces pièces doivent au jeu des acteurs, à leurs improvisions devant le public. Mais, les éditeurs ont compris l’intérêt de faire du Grand William une marque de qualité, le signe que ce livre pouvait être acheté sans crainte de perdre son argent.

De l’auteur au sujet de droit

La notion d’auteur est théorisée à partir du XVIIe. Dans le Discours de la Méthode, René Descartes écrit « …je demeurais tout le jour enfermé seul dans un poêle, où j’avais tout le loisir de m’entretenir de mes pensées. Entre lesquelles l’une des premières fut que je m’avisai de considérer que souvent il n’y a pas tant de perfection dans les ouvrages composés de plusieurs pièces, et faits de la main de divers maîtres, qu’en ceux auxquels un seul a travaillé. Ainsi voit-on que les bâtiments qu’un seul architecte a entrepris et achevés ont coutume d’être plus beaux et mieux ordonnés que ceux que plusieurs ont tâché de raccommoder, en faisant servir de vieilles murailles qui avaient été bâties à d’autres fins. » En faisant du sujet le point de départ de la connaissance, il place celui qui écrit et met en forme seul une œuvre d’art ou un écrit au centre de la connaissance.
Les auteurs ont bien compris l’intérêt de cette autocélébration. Chez Rimbaud, l’auteur devient cet être surhumain capable d’aller plus loin que les simples mortels : « Je dis qu’il faut être voyant, se faire voyant.
Le Poète se fait voyant par un long, immense et raisonné dérèglement de tous les sens. Toutes les formes d’amour, de souffrance, de folie ; il cherche lui-même, il épuise en lui tous les poisons, pour n’en garder que les quintessences. Ineffable torture où il a besoin de toute la foi, de toute la force surhumaine, où il devient entre tous le grand malade, le grand criminel, le grand maudit, — et le suprême Savant — Car il arrive à l’inconnu ! »

Du génie au droit

Une fois affirmé le génie de l’auteur, il était temps de faire passer le client au tiroir-caisse. Le premier texte législatif fut le Statut de la Reine Anne adopté par la chambre des communes en 1710 (appelé aussi Copyright Act). Il accordait à l’auteur et son imprimeur un privilège de 28 ans d’être les seuls à pouvoir copier l’ouvrage qu’ils avaient été les premiers à éditer. Ainsi on protégeait à la fois le travail qu’avait fait l’auteur en écrivant, et l’investissement fait par l’imprimeur pour éditer le livre. La Révolution importa en France ce droit nouveau par deux lois de 1791 et 1793, qui donnaient à l’auteur l’exclusivité du droit de représentation et reproduction des œuvres qu’il avait créé.
Le tour était joué et le client n’avait plus qu’à payer.

Comment continuer à échanger

Mais tout de suite apparait une contradiction, dont la propriété intellectuelle n’est jamais sortie. Une idée arrive rarement toute seule, elle est le produit de l’échange avec d’autres idées. Or la propriété intellectuelle a pour objectif de faire payer pour découvrir les idées, elle est donc une barrière de fait aux échanges (seuls ceux qui peuvent payer bénéficient des idées protégées par la propriété intellectuelle). C’est le sens d’un célèbre passage d’un discours de Victor Hugo sur la propriété littéraire : « Le livre, comme livre, appartient à l’auteur, mais comme pensée, il appartient — le mot n’est pas trop vaste — au genre humain. Toutes les intelligences y ont droit. Si l’un des deux droits, le droit de l’écrivain et le droit de l’esprit humain, devait être sacrifié, ce serait, certes, le droit de l’écrivain, car l’intérêt public est notre préoccupation unique, et tous, je le déclare, doivent passer avant nous. »
Mais la difficulté augmente encore lorsqu’on applique tout cela à l’industrie du système d’information numérique. Le programme est un texte comme un autre, et à ce titre le droit de la propriété intellectuelle s’applique à lui. Mais sauf rares exceptions, c’est une œuvre collective, réalisée dans le cadre d’un projet, auquel participent ceux qui construisent l’algorithme, ceux qui rédigent le code, ceux qui testent son fonctionnement et ceux qui financent le tout. Et appliquer à cette collectivité les règles de la propriété intellectuelle, destinées à défendre le génie de l’auteur est une gageure dont nous ne sortons pas.

Bibliographie

Roger Chartier : la main de l’auteur et l’esprit de l’imprimeur (Gallimard ; 2015)
René Descartes : Discours de la méthode (publication de Gallimard ; 1991)
Rimbaud : lettre du Voyant (15 mai 1871- publié sur Wikisource)
Victor Hugo : Discours d’ouverture du Congrès littéraire international (7 juin 1878-publié sur Wikisource)
Françoise Benhamou, Joëlle Farchy : Droit d’auteur et Copyright (la Découverte ; 2014)

Publié dans propriété intellectuelle, système d'information | Tagué , , | Laisser un commentaire

« Ne confondons pas. Est-ce que ça vous chatouille, ou est-ce que ça vous gratouille ? »

02 medecinUn spécialiste irresponsable

La compétence du médecin suppose des années d’étude. Mais elle ne peut garantir le résultat de son travail, car la réussite de ses soins dépend de la santé du malade. D’où, une méfiance dont témoignent le Diafoirus de Molière, le Knock de Jules Renard, et d’autres encore. Les médecins n’ont pas bonne réputation dans la littérature française.
Est-ce pour cela qu’ils en rajoutent dans le coté mandarinal. Depuis Claude Bernard, la médecine française s’est raidie dans une position scientiste qui par moment relève du psychorigide.
Qu’est-ce que le numérique change à tout cela ?
D’abord, il apporte de nouveaux outils, scanners, séquenceur du génome, robots chirurgicaux, qui permettent d’aller plus loin pour soigner les patients. Il amène aussi de nouvelles prothèses comme le cœur artificiel. Mais depuis l’invention du stéthoscope par Laennec, les médecins sont habitués à l’arrivée de nouveaux outils. Et les prothèses existent depuis les dents à pivot dans l’Egypte Ancienne.
Ces outils et ces prothèses renforcent encore la prétention scientifique dont s’amusaient Molière et Jules Renard. Cela ne change pas vraiment la relation entre médecin et patient. Tout au plus l’augmentation exponentielle des coûts de ces outils pose un problème de soutenabilité. Pourrons nous continuer à soigner tout le monde, comme le prévoit le pacte social né de la création de la Sécurité sociale en 1945. Ou devront nous nous résoudre à une médecine à deux vitesses ? Il s’agit d’un problème comptable, certes, important, mais pas vraiment nouveau. Le débat sur le déficit de la sécurité sociale est un « marronnier » du journalisme et de la politique depuis plus de trente ans, auquel l’arrivée du numérique ne change pas grand chose.

Du médecin de famille au réseau

Plus intéressante est la question posée par l’arrivée des Big Datas et de l’Intelligence Artificielle. Plus intéressante car elle interroge cette prétention du médecin, et la relation ambiguë qu’il entretient avec le malade.
Nous restons accroché à l’idée du médecin de famille, ce spécialiste bienveillant à qui le patient confiait ses secrets concernant sa santé et celle de ses proches, qu’il conservait pieusement dans sa mémoire ou dans ses classeurs. Cette image ne correspond plus à la réalité. Dès que le problème est un peu spécifique, le généraliste vous adresse à l’hôpital, à un spécialiste ou à une profession paramédicale. Le malade est devenu le centre d’un réseau, généraliste référant, cardiologue, pneumologue, diabétologue, diététicien, laboratoire, radiologue, pharmacien, infirmier, kinésithérapeute, etc. Entre ces spécialistes, le patient joue le porteur de valises. C’est à lui de transporter d’un spécialiste à l’autre les ordonnances, les mots entre collègues, les radios, les résultats de tests… Pour peu que le patient soit un peu tète en l’air, il manque toujours un papier, si au contraire il est hypocondriaque ce dossier devient un pavé dans lequel les praticiens se noient. D’où l’intérêt de construire un dossier numérique du patient que rempliraient les différents membres du réseau, qui serait alimenté des ordonnances, analyses, médicaments achetés, des actes des personnels paramédicaux. Ce dossier pourrait être complété des volontés du patient en matière par exemple de don d’organe ou d’acharnement thérapeutique. Un tel dossier faciliterait les transferts d’information si le patient choisi de changer de praticien, ou s’il doit être pris en charge par un service d’urgence.
Un tel dossier ne pose pas de problème technique majeur, la gestion de bases de données existe, chaque jour tous les géants d’internet nous proposent des capacités de stockage plus importantes. La cryptologie nous garantie de mieux en mieux la confidentialité sous réserve d’utiliser des outils de plus en plus complexes.
En fait, cette évolution a déjà commencé. Depuis 2004, le principe du dossier médical partagé a été acté par la loi en France. Des centaines de millions d’euros ont été dépensés pour le mettre en place. Des dizaines de logiciels des professions médicales ont été mis à jour pour leur permettre d’alimenter ce dossier. La création des dossiers a commencé depuis 2011 sur un périmètre géographique limité (9 départements). Et pour l’instant la généralisation n’est prévue qu’en 2019 (après plusieurs reculs successifs déjà de cette date).
Une fois collectée, la généralisation de ce dossier médical permettra de faire des études épidémiologiques nouvelles, s’appuyant sur une volumétrie inédite que seules les Big Datas permettront de traiter. Là aussi le sujet progresse. IBM et Apple se sont associés pour faire collecte et traitement. Google s’est associé avec le Service de la Santé britannique.
Ensuite les espoirs mis dans l’intelligence artificielle marquent les esprits.
Demander à la machine de faire des diagnostics aux machines à partir de l’analyse de milliers de cas, optimiser les traitements en tenant compte de tous les traitements antérieurs, permettre aux patients de faire de l’automédication contrôlée, c’est à dire de pouvoir demander des traitements sur la base du diagnostic fait avec la machine. Aujourd’hui les grands du numérique travaillent tous sur ces hypothèses, le domaine de la santé apparaissant de plus en plus comme un secteur porteur.

La peur de la machine

Face à cela, les utilisateurs, patients et médecin s’inquiètent. La lenteur incroyable de la mise en place du Dossier Médical Partagé est sans doute le symptôme le plus frappant du refus de franchir le pas d’une médecine numérique. Il y a la peur du bug informatique lors du diagnostic. Il est difficile de faire comprendre que les machines se trompent moins souvent que les hommes. Ensuite ce dossier ne risque-t-il pas d’être mis entre les mains des employeurs, des assureurs, des banquiers ? Avec la possibilité d’atteinte à la vie privée, mais surtout d’une intrusion de ce dossier dans la vie économique (absence d’avancement pour les mal-portants, refus de prêt ou d’assurance, etc.). Coté médecin, le mélange des Big Datas et de l’Intelligence Artificielle permettra enfin d’évaluer leur compétence, non sur tel ou tel cas isolé, mais sur des séries de plus en plus longue. Il deviendra de plus en plus envisageable de distinguer les véritables Maîtres des Diafoirus (avec le risque d’une médecine normée, incapable de s’adapter aux cas particulier).
Enfin, comme souvent, le problème est moins la cible, que le chemin à parcourir pour y parvenir. La reprise de donnée apparaît comme la première tache. Pour que ces dossiers soient utiles y faudra bien qu’il soit rempli par les différents spécialistes, ce qui occasionne un travail fastidieux d’initialisation
Aucune de ces questions n’est mineure, aucune n’a une réponse simple.

Eliminer la file d’attente

Mais en même temps avons nous le choix ? Aujourd’hui la médecine se gère comme l’approvisionnement aux plus belles heures du communisme kolkhozien : par la file d’attente.
Il faut trois heures à quatre heures pour être soigné aux urgences de l’hôpital, quatre mois pour un ophtalmologue, six mois pour un cardiologue, huit mois pour un pneumologue, neufs mois pour un diabétologue. Se faire soigner demande de la patience. Des voix s’élèvent pour supprimer les numérus clausus, première cause de la pénurie de soin. Mais il est douteux que cela suffise à résoudre le problème. Au 1er janvier 2016, la France compte 66,6 millions d’habitants, dont 18,8% âgés d’au moins 65 ans représentent 18,8 % de la population, soit une progression de 3,7 points en vingt ans. En 2060, une personne sur trois aura plus de 60 ans. Sans le gain de productivité que permettra le numérique il paraît improbable que nous soyons capable de seulement maintenir la qualité des soins actuelle.
Et même, l’intelligence artificielle nous permettra peut-être de faire mieux.
Après la victoire de l’ordinateur d’IBM aux jeux d’échec, il n’y a plus eu de tournoi opposant un grands-maître à une machine. Par contre des tests ont été fait opposant des machines seules , des grands maîtres, et des joueurs moyens collaborant avec des machines. Ce sont ces derniers qui ont gagné. La collaboration homme/machine est la plus performante. Débarrassés de taches fastidieuses d’analyse des résultats, le médecin pourra se concentrer sur l’écoute du malade, le dialogue avec lui, le soutien dans les changements de mode de vie (régime, sport). Une autre médecine, où la compétence comptera moins que la capacité de dialogue.

Bibliographie

Insee : Tableaux de l’économie française (site internet de l’Insee- édition 2016)

Publié dans système d'information | Laisser un commentaire

Du bœuf aux fraises

01 BoeufCet été 2016, nous visitions un village de l’Aveyron. A la retraite depuis longtemps, notre guide était le fils de l’ancien boucher du village. En ce temps lointain, celui-ci servait du bœuf uniquement au moment des fêtes (Noël, Pâques). Avant de les mettre à l’étal, il promenait les bœufs vivants dans les rues du village pour permettre aux habitants de juger de la santé des bêtes. Il les abattait ensuite, et au dessus de l’entrée de sa boutique, il exposait les cornes des bêtes abattues dont la viande était mise en vente. Il offrait ainsi une traçabilité à laquelle un spécialiste de l’assurance qualité n’aurait rien eu à redire.
Aujourd’hui, entre la bête vivante et le morceau de viande dans notre assiette se sont déroulées toute une série de transactions, dont nous n’avons qu’une idée lointaine. Ce n’est que lorsque cette chaine dysfonctionne que nous découvrons son existence. Prenons l’exemple de l’affaire Spanghero en 2013.
Etape 1 : Une société suédoise de commercialisation de plats surgelés, travaillant pour l’approvisionnement des marchés britanniques et français décide de sous-traiter à une société française implantée à Metz la fabrication de lasagnes aux bœufs;
Etape 2 : la société messine demande à sa filiale au Luxembourg de fabriquer ces plats surgelés ;
Etape 3 : La filiale n’a pas de viande de bœuf à disposition et s’adresse à l’entreprise Spanghero, située dans le Lauragais pour lui fournir ce composant ;
Etape 4 : Spanghero n’a pas lui-même de viande et recherche ce produit à bon prix sur le marché, pour cela il s’adresse à un commerçant chypriote ;
Etape 5 : celui-ci se tourne vers un homologue néerlandais qui lui propose de la viande de cheval d’origine roumaine ; celle-ci est particulièrement économique car la réglementation roumaine vient d’interdire aux voitures à cheval de circuler sur les routes nationales ; les paysans ont donc envoyé à l’abattoir des bêtes dont ils n’avaient plus l’usage ;
Etape 6 : l’abattoir roumain livre la viande de cheval à Spanghero ;
Etape 7 : L’entreprise du Lauragais envoie à l’usine du Luxembourg la viande, étiquetée bœuf au lieu de cheval ; celle-ci est utilisée pour la fabrication des lasagnes et envoyée chez les consommateurs anglais en barquettes congelées.
Ici trois remarques :

  • Jusqu’à l’étape 6, personne n’a vu le moindre morceau de viande ; les échanges sont dans une économie virtuelle, faite de fax, de mails, de coups de fils, entre des gens qui ne se voient pas et probablement ne se connaissent pas ;
  • Ce réseau d’échange a permis de savoir qu’il existait une occasion de profit grâce au changement du code de la route dans un pays lointain ;
  • Il y a tromperie sur la marchandise ; Mais ceux qui commettaient ce délit, pouvaient le voir comme mineur : pas de risque pour la santé, le gout de la viande était noyé dans la sauce et les lasagnes; ainsi un commerçant qui vit dans une région où chaque ville a sa boucherie chevaline a pu vendre de la viande à des consommateurs pour qui manger du cheval s’apparente à une pratique cannibale.

Ces trois points sont sans doute parmi les enjeux majeurs du changement apporté par le système d’information numérique.
Les interlocuteurs peuvent se croire dans un monde virtuel, parce qu’ils ne voient pas le produit échangé.
Il est possible d’échanger des biens ou des services, dont le client connaît peu de chose d’un bout à l’autre de la planète. Qui sait que la plupart des fraises consommées en Europe viennent de Chine. Non pas celles que nous achetons fraiches, mais celles qui servent à parfumer yaourts, desserts au sojas, boissons… Que savons nous de la manière dont elles sont cultivées, des produits phytosanitaires utilisés ?
Ensuite, ont été mis en relation des personnes de cultures différentes. Le seul fait qu’ils puissent communiquer a pu donner le sentiment qu’elles partageaient les mêmes références et les mêmes valeurs.
Ainsi trois éléments clés de tout échange sont mis en question : l’échange est-il réel ? Quel produit est échangé ? Qui est celui avec qui j’échange ?
La technique numérique est une partie de la réponse à la question : en apportant une traçabilité et une qualité d’identification inédite, elle aide à se retrouver dans les fake news (même si elle contribue aussi à les répandre).
Mais la technique ne peut à elle seule suffire à écarter ces risques. Une réponse complémentaire est organisationnelle, politique au sens le plus fort du terme. Chaque contrat passé doit contenir une exigence d’ouverture et d’honnêteté de la part des parties, chaque loi doit apporter la confiance aux interlocuteurs, chaque traité entre Nations doit garantir la transparence.
Enfin, il faut changer les mentalités de ceux qui échangent. Ils doivent en permanence avoir en tète que celui avec qui ils discutent n’a pas nécessairement les mêmes idées et même qu’il peut vouloir vous tromper. Il ne s’agit pas d’avoir une vision paranoïaque, complotiste du monde. Mais juste en permanence se rappeler que l’espace d’aujourd’hui est un monde ouvert, qu’il nous permet d’échanger avec d’autres, avec qui nous ne partageons pas nécessairement les valeurs.
Jamais la technologie n’a donné autant de moyens pour communiquer. Jamais autant d’hommes, n’ont parlé ensemble directement ou par l’intermédiaire de truchement divers. Mais, la technique évolue plus vite que les organisations et les mentalités. Nous n’avons pas les reflexes pour parler avec les autres, vérifier leurs identités, leurs cultures, et éviter les malentendus et les incompréhensions. Nous devrons être patients.

Publié dans écriture, commerce, internet, système d'information | Tagué , | Laisser un commentaire