Les nouvelles guerres de l’opium

Le réchauffement climatique est sans doute aujourd’hui le principal facteur de guerre. Il provoque une remontée des terres cultivables. Au Nord, la fonte du permafrost fera sans doute de la Sibérie et du Canada les nouveaux greniers à blé du monde.  Au Sud, le désert s’étend inexorablement, la terre est brulée, asséchée par le soleil. De la Sierra Leone à la Syrie, elle ne nourrit plus les hommes, provoquant guerres et migrations. Derrière l’habillage islamique, il y a le spectre de la famine, de la recherche de l’eau et du pétrole. Mad Max est là.

Le numérique peut-il être l’autre cause de déséquilibre mondial poussant à la guerre ?

La guerre pour la propriété intellectuelle

Le capitalisme est basé sur deux piliers contradictoires. Le libre échange des marchandises qui permet l’économie de marché, et l’appropriation privé des moyens de production qui permet la remontée de la rente vers le capital. La propriété intellectuelle qui autorise l’appropriation privée de la connaissance en est la conséquence ultime.

La guerre de l’opium fut une guerre pour le libre-échange. L’impératrice de Chine voulait protéger ses sujets des ravages  de la drogue en interdisant les importations d’opium. Les puissances occidentales imposèrent par la guerre le libre-échange,y compris de produits nuisibles pour la santé comme l’opium.

Peut-on craindre qu’une guerre équivalente puisse survenir dans un proche futur autour de la propriété intellectuelle ? Sans être Cassandre, il faut reconnaître que le futur est inquiétant.

La littérature pour faire des connaissances un bien commun ne cesse de croitre, mais il est improbable que les politiques des pays occidentaux se convertissent facilement à cette théorie. Prenons l’exemple de la France. C’est le pays de la liberté, de l’égalité et de la fraternité. Permettre à tous de partager les connaissances devrait être pour elle un objectif. Mais en même temps, ses exportations sont surtout faites de sacs Vuitton et de produits de luxe, de films d’auteurs et de missiles à guidage numérique, toutes activités où la lutte contre la contrefaçon et le secret industriel sont de mise. N’attendons donc pas de ses élites une politique active de réduction des barrières à la diffusion des connaissances.

Les Etats-Unis sont dans une situation similaire, mais en plus ils ont réinventé la dialectique du maître et de l’esclave qu’avait décrite Hegel.

Le maître américain et l’esclave chinois

Les Etats-Unis font un maître crédible. Ils sont la première puissance militaire au monde, avec un budget de la Défense largement supérieur à leurs suivants. Ce budget a partie liée avec l’industrie du numérique. Il a permis  de financer les premiers ordinateurs, internet, et dans un article éclairant, Tim Harford montre tout ce que les technologies du smartphone doivent au militaire.

Cette puissance militaire est la toile de fond des salaires de misère payés aux ouvriers chinois. Le numérique permet en plus de surveiller depuis New York ou la Silicon Valley l’état des stocks, l’avancement de la  fabrication, le respect des normes qualité, quel que soit le pays où se trouvent ces ouvriers. Les entreprises américaines ont transformé en sous-traitants tous les pays de l’est asiatique, de la Corée du Sud aux Philippines. Et sur chaque produit fabriqué et vendu par ces pays, des royalties sont versées à ces entreprises. La propriété intellectuelle sert de pompe à finance, rapatriant l’argent des esclaves chinois vers le maître américain.

Mais comme l’esclave hégélien, l’ouvrier chinois bénéficie de son travail. A force de les fabriquer, il comprend comment fonctionnent les produits. Il imagine des moyens de les améliorer, et prend des brevets pour protéger ses innovations. Le flux financier vers les Etats-Unis s’asphyxie lentement. Les asiatiques commencent à pouvoir se passer de l’aide de leur maître américain. Des entreprises comme Ali Baba concurrencent les GAFAM (Google-Apple-Facebook-Amazon-Microsoft).

Cette évolution inquiète les investisseurs américains. Pour se libérer de leur esclave, ils rapatrient vers le continent américain des productions. Afin de continuer à bénéficier d’une main d’œuvre bon marché, ce rapatriement se fait vers des pays comme le Mexique. Mais l’ouvrier mexicain n’est pas plus bête que le chinois, et il finira lui aussi par améliorer les produits qu’on lui donne à fabriquer et se passer des compétences des laboratoires américains.

Trump le va-en-guerre  

C’est dans ce contexte que Trump arrive à la Maison Blanche. Les commentateurs insistent beaucoup sur le soutien que lui apportèrent les ouvriers blancs américains, remplacés par les ouvriers chinois ou mexicains. Mais il faudrait parler des financements par des milieux d’affaires inquiets pour les superprofits que leurs apportait la pompe à finance. Du haut en bas de la société américaine certains sont prêts à partir en guerre.

Le nouveau POTUS (Président Of The United States) a lancé la guerre commerciale contre la Chine. Il l’accuse de voler les connaissances des entreprises américaines. Il menace de guerre tout court des pays satellites de la Chine comme l’Iran ou la Corée du Nord.

Face à lui, les gouvernants chinois organisent la riposte. 120 ans après la guerre de l’opium, ils sont devenus les champions du libre-échange. Ils mettent en place une organisation, avec sa banque, pour tous les pays riverains du Pacifique, de l’Asie à l’Amérique du Sud en passant par l’Océanie. Pour trouver de nouveaux clients, ils lancent des investissements aussi  grandioses que symboliques comme la route de la soie.

Il y a quelques chose d’absurde dans les bruits de bottes qui résonnent actuellement. Absurde, parce que la puissance des grandes entreprises américaine est basée sur l’étirement de la chaine de valeur et la dispersion à travers le monde de ses usines. Tout  serait détruit par un conflit armé. Absurde parce que la menace asiatique est à très long terme. Le chinois à un PIB par tête largement inférieur à celui de l’américain, la balance de la propriété intellectuelle est largement profitable aux Etats Unis, elle est excédentaire de 100 milliards $ pour les Etats-Unis alors qu’elle est déficitaire de 20 milliards $ pour la Chine. Il y a largement le temps pour construire un monde plus équilibré sans passer par une guerre.

Mais après tout  pour qu’ai lieu la « grande transformation » annoncée Karl Polanyi, celle de l’équilibrage  des excès du capitalisme par le Welfare State, l’Etat-Providence, il bien fallu passer par deux guerres mondiales.

Hegel en écrivant la dialectique du maître et de l’esclave pensait à l’opposition entre l’aristocratie nobiliaire et la nouvelle bourgeoisie capitaliste ainsi qu’aux guerres de la Révolution et de l’Empire. Elles firent des millions de morts.

Si la guerre se déclenche à nouveau, les combattants auront à leur disposition les armes nouvelles, des drones aux bombes nucléaires en passant par les grandes oreilles de la NSA. Elles pourront faire des milliards de morts.

Publié dans commerce, Ecologie, système d'information | Tagué , , | Laisser un commentaire

La peur des coupeurs de têtes

20181019_083610J’ai placé ces chroniques sous le signe de l’image de Saint Denis portant sa tête comme nous portons nos ordinateurs et nos tablettes sous le bras. Je souhaitais ainsi rappeler la peur qu’inspirent les technologies du numérique. Les concepteurs-développeurs seraient des coupeurs de tête modernes, arrachant notre raison et notre mémoire, les réduisant pour les entrer dans la machine, pour mieux contrôler les esprits, les soumettre à l’emprise des multinationales ou d’un Etat tentaculaire.

La peur de Linky ?

Les oppositions au déploiement des compteurs Linky sont un exemple assez frappant de cette peur du numérique. Des maires demandent son interdiction sur le territoire de leur commune.  Des pétitions circulent condamnant cet appareil. Il serait économiquement injustifié, dangereux pour la santé, pour l’environnement, pour les libertés publiques. Le journal Le Monde a publié une série d’articles faisant le point de ces peurs et montrant leur manque de fond.

Linky est un nouveau type de compteur d’électricité électronique, dont la relève est faite à distance par une communication par courant porteur (le signal est véhiculé par le réseau d’énergie électrique). Enedis, filiale d’Electricité de France, en charge de la distribution publique d’électricité a lancé un vaste programme de remplacement des compteurs anciens par ces compteurs.

La justification économique est sans doute discutable. Le déploiement de Linky était censé permettre des gains sur la relève, mais aussi par des économies d’énergie permises par une connaissance détaillée des consommations. En pratique peu d’utilisateurs exploitent cette possibilité, et les économies annoncées risquent bien de ne pas être au rendez-vous. Cela ne justifierait pas, un arrêt du programme, car vu les engagement déjà pris vis à vis des industriels et des prestataires de travaux,   le scandale financier serait sans doute équivalent à celui de l’arrêt de l’écotaxe où des millions d’euros d’indemnisation avaient du être payés aux prestataires concernés.

Le risque pour la santé est l’autre peur véhiculée. Mais les compteurs électroniques ont remplacés les compteurs électromécaniques dans les installations nouvelles, depuis plus de vingt ans, et des milliers d’appareils sont déjà posés. La technologie des courants porteurs est ancienne, utilisée pour déclencher les changements de tarifs sur des millions de compteurs et par les fournisseurs d’accès internet dans des logements anciens pour propager le signal numérique entre les différents appareils (box, télévisions, ordinateurs). Il est utile de s’intéresser à l’impact sur la santé de tout cela, mais nos maisons sont maintenant enserrées dans des réseaux utilisant de multiples technologies, filaires ou non, comme les courants porteurs, le Wi-Fi, le Bluetooth… Dans cette marée d’ondes et de capteurs les compteurs Linky sont marginaux.

Enfin notre consommation électrique sera sans doute mieux connue en dehors de nos foyers. Mais la bancarisation de l’économie fait que nos revenus et nos dépenses sont connus. Le déploiement des téléphones portables permet de connaître  nos déplacements. La carte vitale permet de savoir si nous sommes atteints d’une maladie grave. En somme des millions d’informations concernant nos comportements circulent déjà sur les réseaux sans que cela provoque une émotion publique particulière.

Alors pourquoi ces craintes particulières sur Linky ?

La peur de Big Brother ?

Ces appareils présentent les caractéristiques  d’être numérique, communiquant, et déployé par cette incarnation de Big Brother, le groupe Electricité de France. Celui est en effet à la fois une filiale de l’Etat, et une multinationale présente dans de nombreux pays.

Le numérique est encore une technologie considérée comme nouvelle permettant des choses que nous ne maitrisons pas. La communication permet de savoir beaucoup de choses sur nos habitudes. Tous cela nourrit la crainte d’un monde totalitaire, où nous serions soumis à une surveillance permanente et où nos libertés seraient menacées. L’arrivée de Trump et de politiciens populistes dans différents pays serait un autre indice, d’une évolution irrésistible vers le totalitarisme.

Ici rappelons quelques faits.

Big Brother, figure emblématique de cette crainte, est l’incarnation du dictateur totalitaire dans le roman 1984, paru dans les années 40. Georges Orwell, l’auteur de cette utopie voulait dénoncer les risques du stalinisme. Staline est mort, le 24 congrès du Parti Communiste de l’Union soviétique a condamné ses dérives et pourtant la peur du totalitarisme  a continué.

Lorsque j’ai commencé à voter en 1984, Mao dirigeait la Chine, Brejnev commandait d’une main de fer l’Union soviétique et les Républiques de l’Est de l’Europe. Au Sud de l’Europe, il y avait Franco en Espagne, Salazar au Portugal et le régime des colonels en Grèce. Les Etats du Sud des Etats Unis sortait tout juste de l’apartheid, et l’Afrique du Sud était en plein dedans. Au Moyen Orient ou en Afrique régnaient des autocrates sanguinaires de Kadhafi à Bokassa.

On ne peut pas dire malheureusement que la situation des libertés publiques se soit beaucoup améliorée dans le monde, mais pas non plus qu’elle se soit vraiment dégradée. Nous ne parlons plus de fascisme, de National-socialisme et le communisme paraît bien dépassé et malade. Mais derrière les néologismes de démocrature, de démocratie illibérale, c’est bien toujours la même « peste brune ». Mais celle-ci n’a pas envahi le monde même si la vigilance est toujours de mise, et si certains en souffrent malheureusement.

Au cours des dernières soixante années le numérique a envahi notre quotidien. Dans le même temps, la population mondiale a augmenté et la mondialisation des échanges n’a cessé de prendre plus de place. Il est possible de corréler ces trois phénomènes, et de considérer qu’ils font système. Mais il est difficile d’avoir une corrélation avec l’évolution des libertés publiques. Celles-ci ont évolué de manière erratique d’un pays à l’autre pendant cette période, passant par des moments d’immenses espoirs (le printemps portugais, la chute de l’Union Soviétique, la fin de l’apartheid,  les printemps arabes par exemple), et d’autres d’intenses dépressions. Si la démocratie représentative est aujourd’hui en crise face aux populismes, c’est bien plus parce que ses représentants ont été incapables d’endiguer la montée des inégalités que du fait du numérique. Si la technique a joué un rôle dans cette mise en cause, c’est surtout en libérant la parole des plus humbles, ce qui est loin d’être  un abandon des libertés.

Matrix et Mad Max

Hollywood a beaucoup brodé sur le thème du totalitarisme et de 1984. Matrix, Total Recall, Minority Report sont autant de variations sur ce même thème. Mais elle a aussi produit une utopie qui en est l’exact contraire, la série des Mad Max. Sur une terre ravagée, désertifiée par la pollution et ne nucléaire, l’Etat régulateur de la violence a disparu. Des seigneurs de la guerre, aux idéologies et aux costumes absurdes se battent pour la possession du pétrole ou de l’eau. En Syrie, en Lybie, au Yémen, dans la corne de l’Afrique, des hommes ont déjà connu l’enfer de Mad Max.

Publié dans système d'information | Laisser un commentaire

Derniers regrets

DSC01629Je n’ai pas vraiment parlé dans ces chroniques de la place du numérique dans l’industrie. C’est pourtant par là que j’ai découvert le monde du numérique. Les robots, les centres d’usinages, les trans-stockeurs, les centres de découpe ont fait mon quotidien bien avant que j’ai un ordinateur à mon bureau ou mon domicile, et bien avant de devenir chef de projet en système d’information. Nous parlions de productique, aujourd’hui d’industrie 3.0. Ces machines bouleversaient l’industrie et continuent à le faire. Elles changeaient d’outillages toutes seules, prenaient des décisions en fonction du programme de production, reproduisaient les dessins, les compositions chimiques les plus complexes sans l’intervention d’opérateurs humains. On ne parlait pas d’intelligence artificielle, mais déjà nous imaginions des usines sans hommes.

Nous voyions à l’époque dans cette évolution une réponse à la saturation des marchés. Il fallait pouvoir fabriquer une plus grande gamme de produits pour encourager les clients à consommer plus. Aujourd’hui nous y voyons un moyen de se passer de l’humain ou de protéger l’environnement.

Aujourd’hui surtout le contrôle des machines par le numérique a envahi tout notre espace. Après l’industrie, la voiture, la maison, la production agricole, l’hôpital ne fonctionnent plus qu’à travers les microprocesseurs et les logiciels.

J’ai parfaitement conscience de n’avoir parlé que d’une partie des applications du numérique. Le sujet est inépuisable.

En fait à y regarder de près, tous les auteurs écrivant sur le système d’information le voit à travers leur pratique. Prenons quelques exemples. Gérard Berry, le titulaire de la chaire sur le numérique du Collège de France parle surtout des usages techniques et scientifiques dans lesquels il a fait sa carrière (il est connu en particulier pour avoir développé le langage Esterel utilisé dans l’industrie). Le sociologue Dominique Cardon fait une typologie des algorithmes qui n’a de sens que pour les moteurs de recherche et les big datas, ce qui est une vue très réductrice de l’usage des algorithmes. Le journaliste Isacsson fait une Histoire du numérique qui ne parle que des utilisations grand public (il ignore des entreprises pourtant fondamentales comme Cisco, Oracle ou SAP). Jean-François Fogel et Bruno Patino, journalistes également parlent surtout du numérique comme média concurrent de la télévision, de la radio ou des journaux. Les rédacteurs de la rubrique Pixels du journal Le Monde font une fixation sur les jeux vidéos qui doivent représenter presque la moitié des articles parus. Camille Herrenschmidt est celle qui a la vue la plus surplombante, allant de Sumer à Alan Turing ou internet (ce qui donne parfois un coté planant à sa lecture du numérique). Chacun a une expérience personnelle du système d’information qui colore la vision qu’il en présente. C’est aussi ce qui donne une profondeur concrète à leur vision, qui leur permet de s’enraciner dans une expérience personnelle.

Ces chroniques n’échappent pas à cette remarque. Mon expérience principale du système d’information concerne l’informatique de gestion, celle qui produit des factures, des contrats, des ordres de fabrication ou de livraison, des calculs de stocks, des paiements et des écritures comptables ou fiscales. Elle permet la communication entre entreprises (Business to Business-B2B), et entre entreprises et consommateurs (Business to Consumers-B2C).

Je suis conscient que réduire à cela le système d’information serait erroné. Que cette branche n’est pas la plus avancée technologiquement et intellectuellement.

Mais elle reste pour moi le cœur des technologies de l’information. D’abord parce qu’elle est le plus ancien usage. L’écriture est née pour transcrire des contrats, mémoriser des états de stocks, bien avant de servir à raconter des histoires ou porter les enseignements des religions.

Ensuite parce que c’est là qu’il y a le plus d’usagers. Tout le monde reçoit des factures, passe des contrats ou paie ses impôts. Tout le monde ne fait pas des analyses scientifiques ou des jeux vidéos. Cette extension a permis l’allongement des séries et la chute des coûts des composants ou de l’écriture des progiciels. Sans ce cœur des usages, le numérique serait sans doute resté le jouet coûteux de quelques militaires.

Publié dans commerce, informatique, internet, système d'information | Laisser un commentaire

La fatigue et les paresseux : Amazon

98 courbe de rendement« Une étrange folie possède les classes ouvrières des nations où règne la civilisation capitaliste. Cette folie traîne à sa suite des misères individuelles et sociales qui, depuis deux siècles, torturent la triste humanité. Cette folie est l’amour du travail, la passion morbide du travail, poussée jusqu’à l’épuisement des forces vitales de l’individu et sa progéniture » Paul Lafargue (Le droit à la paresse)

La fatigue et les paresseux

Une hypothèse fondatrice de l’économie de marché est que le travail a un rendement décroissant. Elle est basée sur une observation triviale : tout le monde fatigue. Au-delà d’un certain temps et intensité de travail, nous fatiguons et mettons plus de temps à faire les choses (voir courbe ci-dessus). L’ économiste dit que notre rendement décroit. Le coût de fabrication d’un objet étant une fonction plus ou moins directe du temps de travail, il augmente lorsque l’ouvrier fatigue. La concurrence sur le marché pousse chacun à travailler à son meilleur rendement. Lorsqu’il commence à fatiguer l’ouvrier doit partir à la pèche à la ligne, car d’autres moins fatigués le remplacent. Le rendement décroissant permet que le marché offre du travail pour tous.
Une deuxième hypothèse est que l’homme est paresseux et n’aime pas se fatiguer. Il veut produire plus en travaillant moins. Les acteurs économiques vont chercher tous les artefacts qui leur permettent d’augmenter artificiellement leur force de travail. De la bèche du paysan au micro-ordinateur du concepteur-développeur, tous les outils sont destinés à améliorer notre rendement. Les économistes appellent cela des gains de productivité. Cette augmentation déplace constamment le point correspondant à l’utilisation optimale de la force de travail (flèche rouge sur le schéma). Il arrive un moment où un seul ouvrier se trouve en position de répondre à tous les besoins du marché.
Une autre des hypothèses fortes de l’économie de marché est que ceci n’arrive jamais. Si un producteur arrive en situation de monopole, c’est qu’il a eu des pratiques déloyales (dumping, dissimulation d’informations). Mais la réalité est que de plus en plus de marchés sont dominés par des monopoles ou des oligopoles (marché où il n’y plus que quelques fournisseurs qui peuvent s’entendre).
Prenons l’exemple d’Amazon pour illustrer cela.

Le chasseur de gains

« Nous sommes une entreprise habituée à fonctionner avec des marges faibles. Nous avons grandi comme cela. Nous n’avons jamais eu le luxe de marges élevées, il n’y a pas de raison de s’y habituer maintenant. Nous étions déterminés à proposer les meilleurs services du marché, mais à un prix que nos clients ne pourraient jamais trouver ailleurs, même en étant prêts à utiliser des produits de moindre qualité. Les entreprises technologiques ont toujours des marges élevées, sauf Amazon. Nous sommes la seule entreprise technologique à faibles marges. »
Jeff Bezos cité p151, par Nicolas Colin et Henri Verdier L’âge de la multitude
Cette citation de Jeff Bezos, le patron d’Amazon dit la philosophie de l’entreprise. Elle est tournée vers une recherche obsessionnelle de productivité.
En 1994, à sa naissance, Amazon est un libraire. Il vend des livres, des disques musicaux et des vidéos. Il vend via un site sur le cyberespace ce qui lui évite les frais en personnel et matériel d’une boutique. Il met en place une chaine logistique complète permettant de livrer dans des délais courts et garantis.
Ses diversifications auront constamment pour objectif d’augmenter la productivité et la qualité de service de ces deux briques de base (le site internet et la chaine logistique).
Le premier axe concerne les biens culturels par lesquels il a commencé.
D’abord il propose à d’autres d’utiliser sa chaine logistique. Sur le site d’Amazon vous pouvez acheter à des bouquinistes des livres ou des disques anciens. Vous pouvez aussi vendre ou revendre vos livres, vos disques ou vos cassettes. Enfin si vous voulez créer et vendre votre livre, Amazon se fait éditeur (éventuellement à compte d’auteur).
Tout cela fait d’Amazon le premier libraire du monde par le nombre de références à son catalogue.
Il permet aussi de se passer complètement de la chaine logistique en achetant des œuvres dématérialisées. Pour les livres, à partir de 2003, il propose des tablettes Kindle sur lesquelles le lecteur peut télécharger d’un simple clic. Il est aussi possible de télécharger sur tous autres formats de tablettes ou autres outils, des livres, des œuvres musicales ou des vidéos (il se place alors en concurrent de Netflix).
Le deuxième axe de diversification est de sortir des biens culturels, pour vendre de tout via sa plate-forme et sa chaine logistique. Matériels électroniques ou électroménagers, appareils photos, textiles, et maintenant aux Etats-Unis de la pharmacie et de la nourriture avec le rachat en 2017 des 460 magasins de Whole Foods Market. Alors qu’il est né de l’absence de boutique, Il alimente maintenant des magasins avec son réseau logistique. Amazon ne cesse de montrer ainsi son adaptabilité et son absence de dogmatisme.
La troisième diversification est en destination des services informatiques. Le marché des biens culturels étant très cyclique (le consommateur achète plus pour les fêtes de Noel), les serveurs d’hébergement de ses sites Web sont sous-employés la plus grande partie de l’année. Il les a loués à ceux qui ont besoin de capacité de calcul et de mémoires. Il a aussi dû créer une capacité de saisie pour mettre à jour son catalogue. Depuis 2005, il a mis cette capacité à disposition au travers de sa filiale Amazon Mechanical Turk. Il s’est aussi lancé dans les services de surveillance à domicile, et dans la production de services informatiques aux entreprises.
Ces diversifications ont fait d’Amazon la première entreprise du numérique par son effectif de plus de 540 000 personnes. Il est devenu le vaisseau amiral d’une flottille de sociétés commerciales basées sur internet (Airbnb, UBER…). Le commerce s’était révolutionné dans les années 60 et 70 avec les créations des super et hypermarchés. Les entreprises continentales qui avaient réalisé cette révolution, les Wal-Mart, Costco, Carrefour, Leclerc, sont obligés de revoir leurs processus, de découvrir le numérique et le Web. Tout cela dans une atmosphère de peur panique car ils savent qu’ils n’y survivront pas tous.
Amazon a fait ou envisagé des diversifications plus hasardeuses. Il a tenté de lancer son propre smartphone. Il cherche depuis plusieurs années à faire des livraisons par drones ou des entrepôts volants portés par des dirigeables. Le 28 septembre 2016, avec Google, Facebook, IBM, Microsoft, Amazon officialise la création du « Partnership on Artificial Intelligence to Benefit People and Society » (« partenariat pour l’intelligence artificielle au bénéfice des citoyens et de la société »). Tout cela lui permet d’apparaître comme une entreprise de haute technologie. Mais en même temps, revenons à la phrase de Jeff Bezos citée précédemment «Nous sommes la seule entreprise technologique à faibles marges. »  La formule est un oxymore. La recherche-développement coûte cher et il faut bien des marges fortes pour la financer.
Amazon n’est pas un grand inventeur de nouvelles technologies. C’est un acteur ayant une politique industrielle solide. Il s’appuie sur des technologies connues du Web et de la chaine logistique, et s’efforce de réduire ses coûts par l’utilisation de toutes les synergies possibles. Il n’invente rien mais exploite intelligemment les outils à sa disposition. Et après tout, il a raison. Les outils technologiques sont fait d’abord pour permettre des gains de productivité et éviter à l’homme de se fatiguer.

Retour des chasseurs-cueilleurs

Maintenant que nous avons expliqué comment Amazon a travaillé pour augmenter ses rendements, venons aux questions que cela pose.
La première question induite est liée à ce qu’Amazon a tellement déplacé la courbe de rendement que le commerce vers le consommateur sera sans doute dominé par un oligopole réduit au niveau mondial. Comment empêcher ces entreprises de profiter de leur domination pour se procurer des rentes indues ? Ce sujet a déjà été traité dans une précédente chronique (la chasse aux Dinosaures).
La deuxième est liée aux ouvriers et employés libérés du travail par ces gains de productivité. Les économistes reprochent au numérique de ne pas provoquer de « substitution schumpétérienne ». Cette formule signifie que les salariés libérés par les gains de productivité peuvent se retourner vers d’autres secteurs d’emploi, ce qui ne semble pas le cas actuellement.
D’abord la technologie seule ne créée pas d’emploi spontanément. Les précédentes révolutions industrielles ont bien créé des emplois dans l’industrie de la machine-outil ou des biens d’équipements, mais pas à due concurrence des emplois supprimés. C’est le développement des services (tourisme, voyage, industrie du divertissement) qui a créé du travail. Cette évolution est bloquée car la révolution technologique a été accompagnée par la révolution conservatrice impulsée par Reagan et Thatcher. Celle-ci a provoqué une augmentation brutale des inégalités de revenu. Il n’y a plus de demande solvable. Les quelques mogols qui s’accaparent la rente ne sont pas en situation de consommer suffisamment pour créer beaucoup d’emplois. Rééquilibrons les revenus et peut-être nous créérons plus d’emplois.
Et puis avons-nous vraiment besoin de travailler autant ? Pourquoi s’infliger autant de stress, de maladies musculo-squelettiques ?
Les recherches sur les peuples de chasseurs-cueilleurs montrent qu’ils ne travaillent pas plus de 3 à 4 heures par jour. Après ils fatiguent, le gibier est plus loin, les graines sont cueillies, et les besoins vitaux ont été rassasiés. C’est l’agriculture et le travail de la terre qui ont obligé à travailler beaucoup. La souffrance au travail a permis d’assurer la sécurité alimentaire. Mais elle n’a pas plus de 10 à 15 000 ans. Pendant des centaines de milliers d’années, l’homme a été plus paresseux.
Pourquoi ne pas revenir à cet état naturel comme le proposait le gendre de Marx, Paul Lafargue ?

Bibliographie

Paul Lafargue : Le droit à la paresse (1883 –Maspero-1979)
Wikipédia article Amazon (état au 23 octobre 2018)

Publié dans commerce, informatique, internet, système d'information | Tagué , , , | Laisser un commentaire

Architectures piranésiennes

20181103_023828780474268.jpgLe cycle en V est un marronnier de la formation aux projets et aux technologies de l’information. Il existe d’autres modèles mais celui-ci s’est imposé. Il semble difficile de dire quelque chose de neuf sur le sujet, mais en même temps, il est difficile d’y échapper si l’on veut faire comprendre comment travaillent des concepteurs-développeurs.

Les quatre étages d’un système numérique

Un système d’information numérique est toujours une construction à quatre étages.
Au rez-de-chaussée se trouvent les machines. C’est la partie la plus spectaculaire du système d’information. Elle est essentiellement composée de transistors qui ouvrent ou ferment l’arrivée du courant électrique, et de câbles dans lequel celui-ci passe. A ce stade l’information se réduit à des bits, des signaux oui/non, 1/0. L’assemblage des transistors et des câbles est devenu d’une extrême complexité. Nous sommes loin du temps de l’ordinateur machine universelle, avec une CPU, une mémoire, des périphériques d’entrée-sortie. Il y a des cartes graphiques, des tablettes, des smartphones, des périphériques dotés de capteurs, d’intelligence. Ces périphériques peuvent être imprimantes, écrans, modem, et maintenant, voitures, machines-outils, outils de surveillance, scanners médicaux… Seuls des spécialistes hautement qualifiés sont capables de se retrouver dans ce labyrinthe.
L’étage au-dessus est celui du code. Il est le plus spécifique au monde du numérique. Il est lui-même fait de multiples morceaux. Des codes qui transforment du texte presque normal en langage machine, le code qui surveille le fonctionnement de la machine, le code qui contient l’algorithme de ce que l’on veut faire avec la machine, le code qui permet de dialoguer avec d’autres machines (par exemple le logiciel pilote qui permet de lancer l’imprimante). Chacun de ces codes a son langage, ses spécificités. Là aussi il faudra des spécialistes pointus pour comprendre ce monde à part.
L’étage suivant est celui des opérateurs, qui vont utiliser ce système. Il est tellement familier qu’on l’oublie parfois. Il y a toujours eu des comptables, agents de banque, des caissières au supermarché, etc. Il faut bien comprendre la répartition des rôles entre les différents opérateurs, quel est le processus opérationnel dans lequel ils s’insèrent. Pour chacun, il faut analyser quelles sont les taches qu’ils exécutent, quelles sont celles que la machine exécutera à leur place, et celles où leur présence restera indispensable. Généralement ils saisissent des données d’entrées et ils utilisent les données sorties par le système. Il faut comprendre d’où viennent les données d’entrées, comment ils les connaissent, quelles erreurs ils peuvent faire dans la saisie pour aider à les corriger. Il faut aussi s’assurer qu’ils seront capables d’utiliser le nouveau système, de le comprendre et de l’accepter. C’est l’ensemble de cette analyse qui permettra de définir l’algorithme qui devra être transcrit dans le code. Là aussi vous avez besoin de gens compétents, capables de décrypter l’organisation sociale, les relations entre les hommes.
Le dernier étage est celui des métiers. Il est celui du milieu dans lequel interviennent les opérateurs. Ceux-ci sont pris dans des contraintes géographiques, des règles métiers, un encadrement légal auxquels ils ne peuvent déroger. Toutes ces règles impacteront l’algorithme mais aussi la manière dont il sera réalisé. Il faudra aussi s’entourer de professionnels, juristes, comptables, scientifiques différents selon le processus que vous souhaitez créer ou modifier.

97 cycle en V

Par où commencer l’immeuble ?

Il y a donc quatre étages qui ont deux caractéristiques : ils interagissent constamment entre eux ; chaque étage est maitrisé par des professionnels pointus. Personne n’est réellement compétent sur l’ensemble de l’immeuble. Bien sur les concepteurs-développeurs ont une connaissance globale de l’architecture de la bâtisse. Bien sûr des formations assurent un minimum de transversalité des compétences. Mais chacun sait qu’il ne maîtrise qu’imparfaitement l’ensemble, qu’il doit s’appuyer sur les autres pour fabriquer un système cohérent et opérationnel.
La question qui suit est de savoir par où commencer. Il faut certes d’abord recruter les spécialistes nécessaires des quatre étages, en fonction du métier impacté, du processus touché, du code et des machines à fabriquer ou à approvisionner. Ils constitueront Mais ensuite ? C’est là qu’intervient le cycle en V. Les règles canoniques de la conduite de projet disent qu’il faut partir du dernier étage pour descendre lentement.
Le Maitre d’ouvrage du métier définit le cahier des charges du projet, les règles qu’il devra respecter, les objectifs, le produit qui doit sortir de l’algorithme. Le concepteur écrira ensuite une spécification fonctionnelle qui décrit le processus mis en œuvre et l’algorithme qui l’accompagne. Le développeur rédige le code qui transcrit l’algorithme. L’architecte technique approvisionne les machines et les connecte entre elles.
Ensuite le travail consiste à remonter la pente en testant ce qui a été fait. Le développeur teste ce qu’il a rédigé pour s’assurer qu’il n’a pas fait d’erreur de syntaxe ou d’orthographe, que la machine ne peut interpréter. Le concepteur vérifie que ses spécifications ont été respectées avec l’aide d’utilisateurs témoins (key-users). Le maitre d’ouvrage effectue la recette par rapport à son cahier des charges.
Ainsi le cycle en V donne un guide, une règle de conduite qui permet de se retrouver dans le monde piranésien du système d’information. Il prend de multiples formes, depuis le micro-projet qui permettra une progression limitée mais qui s’enchainera avec d’autres micro-projets, jusqu’au projet géant, impliquant des centaines de personnes, qui provoquera un chamboule-tout, la disruption si à la mode.

Charybde ou Scylla

Dans tous les cas, il y a deux écueils à éviter.
Le premier est de croire que l’ordre de réalisation du projet est un ordre hiérarchique. Ce n’est pas parce qu’un maître d’ouvrage vous a donné un cahier des charges détaillé qu’il a une vue complète des impacts sociaux, des possibilités des machines et du code. A tous les niveaux du système, se rencontrent des amateurs du Yakafocon et du caporalisme obtus. Il faut résister, adopter la position du doute méthodologique permanent, et l’écoute des spécialistes. La collaboration est le maître mot. Sinon le système que vous créerez sera inefficace ou inadapté.
Le second écueil est la procrastination. Chacun des étages connait sa vie propre. Il sort toujours des versions nouvelles de machines et de logiciel, les compétences des opérateurs ne cessent d’évoluer, les lois et le contexte économique aussi. La tentation est grande de tout reprendre pour se mettre au gout du jour. Le projet entre alors dans le cycle dit « en escargot », où le cahier des charges est constamment repris, où l’on repart dans un cycle systématiquement de développements et de tests ? Il y a des amateurs de ce remake du « Jour sans fin », mais généralement ils ne sont pas aimés des financiers.

Publié dans developpement, informatique, système d'information | Laisser un commentaire

Qui est responsable ?

justice (2)Justice assistée par ordinateur

Une récente émission sur France Culture parlait de justice assistée par ordinateur.
De quoi s’agit-il ? Les décisions de justice sont habituellement publiques, et facilement consultables par n’importe qui. Elles contiennent les motifs de la décision et la sentence prononcée par le juge. Les outils de l’Intelligence Artificielle permettent d’envisager en faire une analyse. Ils peuvent lire le contenu des arrêts, discriminer les motifs et les sentences, faire une topologie des motifs, comparer avec les lois et réglementations en vigueur, et proposer pour chaque nouvelle affaire une sentence probable.
Un tel travail est-il justifié ? La justice est lente, et une partie de ses retards est due au travail documentaire préalable que juges, avocats, assistants doivent faire pour préparer les décisions de justice. Exécuter ce travail avec des machines accélére le processus et en améliore la qualité. Les machines pourront analyser plus de cas que n’importe quel documentaliste en beaucoup moins de temps. Les prévenus en maison d’arrêt apprécieront que leur jugement soit plus vite rendu.
Mais n’y a-t-il pas un risque au fait que la justice soit rendue par des machines ? Aujourd’hui ces travaux sont présentés comme une simple assistance, le juge restant décisionnaire en dernier ressort. Mais que se passe-t-il si le juge est paresseux, ou débordé par le flot d’affaires. Il risque d’entériner systématiquement les propositions de la machine. Et puis un jour ou l’autre il y aura un budgétaire pour trouver qu’il faut faire des économies, et laisser les machines décider (la porte a déjà été ouverte avec les radars automatiques qui contrôlent la vitesse et le respect des feux rouges).
La justice par les machines n’est plus une question de principe mais une question de temps.

Transparence et traçabilité

Comment s’assurer que la justice rendue par les machines respecte les lois et les pratiques entérinées par la jurisprudence.
L’explication que j’ai donnée en début de chronique peut sembler simple, mais les algorithmes seront complexes à définir, le code difficile à écrire et la collecte de données sera colossale, effectuée par des machines, mais avec l’assistance indispensable de Czi Manuel.
Il s’agit donc d’investissements financiers importants aujourd’hui pris en charge par des entreprises privées. Elles voudront protéger par le secret des affaires et la propriété intellectuelle, le travail qu’elles auront effectué. Redisons que s’il est normal que ce travail soit rétribué, les algorithmes, et les données qu’ils utilisent doivent être transparents, traçables et opposables. Sinon un des principes fondamental du droit serait bafoué. Un accusé doit savoir pourquoi il est condamné, connaître le raisonnement qui a conduit à la décision sur sa peine.
De plus, que ce soit par abonnements, par un paiement forfaitaire, les entreprises qui rendent ce service peuvent se faire rétribuer et n’ont pas à bénéficier de la rente apportée par la propriété intellectuelle et le secret.
Le deuxième risque est que la complexité des algorithmes les rende ingérables. Depuis longtemps, un programme n’est pas écrit de A à Z par la même équipe. Il s’appuie toujours sur des progiciels, un compilateur ou un interprétateur. Ces différentes couches, exécutées par différentes équipes, interagissent entre elles jusqu’à rendre illisible et ininterprétable le code.
Dans leur livre « Le temps des algorithmes », Serge Abiteboul et Gilles Dowek proposent de considérer l’algorithme comme un sujet de droit. L’idée n’est pas aussi loufoque qu’il le parait. Le droit a bien fait des personnes morales (sociétés, associations, Etat) des sujets de droits. Elles n’ont aucune réalité physique, ce ne sont que des créatures virtuelles issues de notre imagination collective. Pourtant, elles ont des droits, des devoirs et des sanctions possibles comme les personnes physiques.
Ceci est-il imaginable pour un algorithme ou un code. Cela parait encore compliqué. D’abord parce que l’algorithme ne choisit pas ses règles de gestion. Elles lui sont données et il ne peut véritablement y déroger. Ensuite parce qu’il ne maîtrise ni son environnement technique, ni les données qu’on y introduit. Si l’algorithme est un sujet de droit, il est pour longtemps un sujet mineur sous tutelle.

Les tutelles

L’expérience des logiciels libres a justifié l’intérêt d’une tutelle. Des fondations comme Apache permettait de faire travailler en commun une grande masse de développeurs tout en conservant des programmes efficaces, car respectant règles de gestion et de fabrication. L’expérience du Bitcoin montre aussi les limites d’un algorithme sans pilote. Sa valeur est totalement spéculative, son cours connait des variations erratiques, faute de lien avec l’économie réelle. Pour encore longtemps les algorithmes seront sous le contrôle d’entités humaines.
Et parce que l’humain peut aussi faire des erreurs, il serait intéressant de disposer d’organismes de contrôles. Comme il existe une Agence du Médicament, de l’Alimentation, ou de la Sécurité Nucléaire, il faudrait penser à une Agence de l’Algorithme et du Code. Son travail ne serait pas de protéger la propriété de nos données, mais de s’assurer que les règles de gestion introduites dans les algorithmes sont conformes aux lois en vigueur, ne posent pas de problème par rapport à la sécurité des personnes, des animaux (encore un sujet de droit récent) ou de l’environnement. Après tout, vue la place qu’ils ont pris dans notre vie, les algorithmes méritent bien la même attention que l’alimentation, les médicaments ou le nucléaire.

Du test, encore du test

Comment savoir si un logiciel respecte les lois, et ne pose pas de problème de sécurité. Bien sûr on peut faire une revue du code, lire les spécifications, pour savoir ce qu’ont voulu faire le maître d’ouvrage et le maître d’œuvre. Mais le résultat ne dépend pas que du programme, il dépend aussi des données qui sont entrées, de l’environnement technique sur lequel il tourne. Et puis les programmes actuels sont de moins en moins rationnels au sens classique du terme (un enchainement de cause et d’effet). Avec les réseaux de neurones et le deep learning, les programmes deviennent probabilistes. L’opérateur demande à la machine de faire simultanément un grand nombre d’opérations, puis celle-ci calcule la probabilité que tel résultat ou tel autre puisse arriver, pour décider celui qui est acceptable. Le fait que la machine ne soit pas capable de définir ses règles ne dit pas que nous soyons capables de prévoir le résultat de l’algorithme.
Alors la seule vrai réponse c’est le test, encore le test et toujours le test. Les concepteurs-développeurs sont comme les vieux paysans, ils ne cessent d’observer ce qui se passe pour essayer de savoir si la récolte sera bonne.

Bibliographie

Serge Abiteboul et Gilles Dowek : Le temps des algorithmes (le pommier-2017)

Publié dans big data, gouverner, intelligence artificielle, système d'information | Tagué , | Laisser un commentaire

A l’École Pratique des Hautes Études

SOCIOLOGIEJ’ai fait ma thèse avant que le numérique n’envahisse tout. Elle concernait le Moyen-Age chez les historiens de la Restauration et de la Monarchie de Juillet en France (1815 à 1848). Les plus connus, Augustin Thierry, Jules Michelet, ont consacrés des pages à cette période, mais j’ai voulu vérifier son importance par une mesure quantitative. Je recherchais la part des ouvrages consacrés au Moyen-Âge sur le nombre de livres d’Histoire publiés.
Techniquement, c’était fastidieux. A l’époque, il n’y a pas d’indexage numérique du catalogue de la Bibliothèque Nationale de France, tout doit être fait manuellement. Me voilà donc à faire des bâtonnets sur un cahier pendant des semaines.
La démarche se heurta bientôt à des problèmes méthodologiques. Ils intéressaient mon directeur de thèse, et il m’invita à les présenter dans son séminaire.

Histoire et calcul

En introduction, il expliqua aux autres élèves que la démarche répondait à un besoin du temps. Jusque là le calcul, les statistiques et les mathématiques étaient réservées soit aux sciences dures et aux techniques de l’ingénieur, soit aux matières financières et comptables. Ils ne tenaient pas tenu une grande place dans les études littéraires et sociales. L’informatique devait changer cela. L’ordinateur facilitait comme jamais le calcul et le traitement en masse de milliers de données. Désormais, il s’introduirait partout. Et cela poserait des problèmes de méthodologie nouveaux, jamais abordés, auxquels seuls les spécialistes des études sociales pourraient répondre.
Une réédition est-elle un livre nouveau, un livre en plusieurs tomes doit-il compter pour un livre ou plusieurs ? Autant de questions pratiques auxquelles je me heurtais, et dont il fallait inventer les réponses faute d’antériorité. Le numérique en entrant dans nos vies apportait une nouvelle manière de réfléchir le monde.

Nouvelles disciplines

Une des questions posées était la définition des termes de mon calcul. Le Moyen-Âge, c’était assez facile. La définition de cette période date de la Renaissance (le terme apparaît au XVe siècle). Elle était bien stabilisée à l’époque que j’étudiais.
Mais la définition du dénominateur posait problème : c’est quoi l’Histoire ? Dans le catalogue de la Bibliothèque Nationale de France (BNF), à la rubrique concernée, je trouvais la vie de Saint Louis, mais aussi des guides touristiques. Surtout la plupart des sciences sociales n’existaient pas alors. Elles allaient arriver avec l’accroissement des besoins de l’Etat. La géographie permit d’analyser la cartographie des territoires, de prolonger leur exploration. La sociologie apparut ensuite pour exploiter les recensements, ces enquêtes nationales destinées à connaître et comprendre la population française. L’ethnologie naquit pour mieux comprendre ces peuples que l’on -colonisait. Dans le catalogue de la BNF des années 1815-1848, toutes ces spécialités se confondaient dans le magma d’une matière indifférenciée, l’Histoire.
Aujourd’hui le numérique fait naître de nouveaux métiers. La mise en place des logiciels transactionnels supposent des spécialistes capables de décrire les processus sociaux mis en œuvre dans les algorithmes, l’interaction des acteurs, les règles et les lois qu’ils doivent respecter. Les Big Datas et tous les infocentres imposent de construire des modèles sociaux-économiques qui permettront d’interpréter les données. Alors que jusque là, de l’historien à l’ethnologue, ces métiers étaient surtout le fait d’universitaires et de serviteurs de l’Etat, ces nouveaux spécialistes se retrouvent dans tout types d’entreprises, Sociétés de Service informatiques, donneurs d’ordre, géants du Web, et même Etat.
Si les questions posées sont différentes, les méthodes n’ont pas vraiment changées depuis l’historien. Il faut toujours chercher sur quels documents baser son analyse, quelle est leur fiabilité, éventuellement effectuer des entretiens si les témoins sont toujours là. La masse documentaire une fois rassemblée, Il faut l’analyser. Les questions sont toujours les mêmes : qui a fait ou dit quoi, envers qui, pourquoi, comment, quand, où ? Qu’il s’agisse d’analyser un discours de Périclès ou le poste de travail d’une caissière de supermarché, les questions se répètent. Depuis que les ordinateurs sont entrés dans nos vies cela se double d’une analyse quantitative. Combien de fois ces actes ont-ils lieu ? Quelle est leur fréquence ? Le numérique impose ces questions car les machines ne font bien que le répétitif. Mais par un effet de retour elles impactent toutes les disciplines anciennes.

Le poids de l’organisation

Le troisième enseignement de cette thèse fut l’importance de l’organisation sociale sur le travail de l’historien.
Les historiens de la première moitié du XIXe sont pris entre deux contraintes :
• Les questions qui sont posées par le corps social. Elles se résument en fait à une seule : pourquoi la Révolution a-t-elle été possible ? L’Histoire enseignée auparavant n’était d’aucun secours. Elle était monarchiste et religieuse, vouée au culte du Christ et du Roi. Les philosophes des Lumières n’apportaient pas plus d’aide. Ils avaient poussé à la révolte contre l’ordre établi, à la défense de valeurs de liberté et de démocratie, mais à aucun moment, ils n’avaient avertis de la guerre civile et étrangère, des milliers de morts qui en suivraient, et du retour des réactionnaires lors de la Restauration ;
• La documentation dont ils disposent : la Révolution avait arrêté les études historiques, mais les nouveaux historiens pouvaient s’appuyer sur les travaux de la Monarchie finissante. Soucieuse d’expliciter son pouvoir et de lui donner une base juridique assurée, celle-ci avait mené un gros travail d’édition des chroniques historiques anciennes ainsi que des lois et ordonnances royales. Ce travail d’éditions des « Monuments », mené surtout par les bénédictins de la Congrégation de Saint Maur, était devenu partiellement inutile avec le remplacement du droit coutumier par les grands Codes législatifs (Code Civil, Code Pénal, etc.). Mais il fit le miel des historiens de ce temps.
Prise entre ces deux contraintes, leur Histoire est principalement politique et juridique. Pas d’Histoire des arts, des sciences, des mentalités, de l’économie. Mais elle permit la naissance de nouveaux concepts, la lutte des classes (Marx a dit la dette qu’il avait vis à vis d’eux), la Nation. Soucieux de s’inscrire dans le « temps long, », ces historiens appliquèrent ces concepts au Moyen Age et virent la source de la Révolution dans le mouvement des communes médiévales, dans la naissance de la bourgeoisie. Ils firent aussi un travail important d’organisation des études historiques et archivistique, permirent un mouvement d’édition des documents anciens, mouvement dont profitèrent leurs successeurs en particulier l’École des Annales).
Je découvris le monde numérique avec ce viatique. L’ordinateur introduit le calcul et le quantitatif partout, il modifie les méthodologies, il créée de nouveaux métiers. Et les processus opérationnels doivent toujours être pensé en fonction de l’organisation sociale dans laquelle ils s’inscrivent. Ce n’étaient pas de mauvais guides de travail.

Publié dans écriture, informatique, système d'information | Tagué , , , | Laisser un commentaire

Il faut suivre le progrès mais…

20180921_155624Beaucoup de discours sur l’arrivée du numérique prennent la forme du regret. Il s’agirait d’une évolution technologique inéluctable, sur laquelle nous n’avons pas de prise. Selon nos convictions, elle serait imposée par un destin immanent, par le complot des classes dirigeantes, par l’activité frénétique de quelques geeks activistes et irresponsables.
Aucune technique ne passe du stade de l’invention à celui de l’innovation (l’application dans des processus pratiques) sans correspondre à un besoin qu’il soit bon ou mauvais. La bombe atomique n’est pas un progrès pour l’humanité, mais elle répondait à un besoin, mettre fin à la guerre mondiale et vaincre les forces de l’Axe.
Si le système numérique remplace le système d’information classique fait d’encre et de papier, c’est qu’il répond à un besoin.

Le monde paysan
Pour comprendre ce besoin, il faut repartir loin dans le passé. Au début du XIXe nous étions tous des paysans. Ceux-ci représentent alors l’immense majorité de la population. L’aristocratie et la bourgeoisie des villes ne sont que des minorités négligeables.
Par paysan, nous entendons des agriculteurs, mais surtout des gens qui vivent en quasi autarcie. Les hommes produisaient le blé dont ils faisaient leur pain, le vin pour la boisson, l’huile pour la conservation. Ils élevaient quelques bêtes qui étaient leur instrument de travail et leur apport principal de protéine. Les femmes faisaient la cuisine, la lessive et la couture, entretenaient la basse-cour, accessoirement assuraient l’éducation des enfants. Les économistes parlent d’économie non-marchande, dans laquelle les besoins vitaux sont couverts par la famille et son cercle proche. L’économie marchande, le commerce, n’intervenait que marginalement pour quelques produits difficiles à faire soit même, le sel et les épices, du tissu, la carriole et la maison lorsqu’il fallait la construire.
Dans son ouvrage « c’était mieux avant », Michel Serres rappelle ce qu’était ce monde d’avant qu’il a personnellement connu. « Grand Papa Ronchon » regrette ce temps, mais oublie de dire que c’était l’époque des famines, des épidémies, du manque d’hygiène qui provoquait la chiasse et les furoncles.
L’un des souhaits les plus courants est de faire des enfants et de les aider à grandir. Mais ce souhait fut contrarié pendant des siècles par la famine et la maladie. La population n’augmentait que lentement et même parfois elle régressait.
Croitre et multiplier
Cette malédiction s’arrête avec la Révolution Industrielle. Le moteur thermique, la chimie (aussi bien agrochimie que pharmachimie), permettent une croissance exponentielle de la population mondiale. Celle-ci double de 1800 à 1900, double à nouveau de 1900 à 1950, et encore une fois de 1950 à 2000. Nous sommes aujourd’hui 7,5 milliards d’humains et malgré un fort ralentissement, cette croissance devrait nous amener autour de 10 milliards vers 2050. Le tout sur une planète Terre dont les ressources naturelles, renouvelables ou non, n’ont pas augmentées. Cela s’accompagne d’une évolution qualitative de cette population. Elle vieillit, demande plus de soins et de médicaments. De plus, les jeunes commencent à travailler plus tard afin de se former à des techniques de plus en plus complexes. En France sur 66 millions d’habitants, la population active n’est que de 24 millions. La charge de travail productif repose une part plus réduite de la population. Alors il a fallu sans cesse augmenter la productivité. Cela passait par une mécanisation de plus en plus grande des taches, mais aussi par une nouvelle division du travail entre humains. Nous faisons bien ce que nous faisons souvent comme l’annonçait déjà Adam Smith.
Cela a modifié les rapports sociaux. Doucement a disparu l’économie non marchande.
Aujourd’hui notre travail est le plus souvent tourné vers l’extérieur, et l’autarcie disparait. Pour notre subsistance, nous achetons des plats préparés en conserve, surgelés, lyophilisés. Nous nous habillons en prêt-à-porter, nous jetons plutôt que de réparer (l’obsolescence programmée et le recyclage nous donnent bonne conscience). Nous confions les enfants à la crèche, à l’école, au centre aéré, à l’université. A part le chat qui ronronne dans un coin, nous ignorons à quoi ressemble un animal domestique. En Occident, le paysan a disparu dans les années 60, l’essentiel de notre vie suppose de faire appel à l’économie marchande. Et l’ordinateur est apparu dans nos vies au même moment.
Mesurer les échanges
L’économie marchande est une économie de la traçabilité. Que l’échange se fasse dans le cadre du marché, de la firme et de l’Etat, ou dans une collaboration entre entreprises, il doit être accompagné d’une trace : facture, bulletin de salaire, bons de livraison, contrats, quittances. Ces traces assurent la confiance des partenaires entre eux, elles nous permettent de réclamer lorsqu’il y a un doute sur l’honneteté et de vérifier l’équitabilité de la transaction. Le double effet de l’augmentation du nombre d’humains et du remplacement d’une économie domestique par une économie marchande fit exploser la masse de papiers à calculer, rédiger, conserver, comptabiliser, transmettre. Les procédés pour traiter cette masse irrésistible se multiplièrent : téléphone, fax, télex, mécanographie, fiches perforées, caisses enregistreuses, microfilm. C’est une inventivité digne du concours Lépine qui tenta d’aider le back office à traiter cette masse. Ce jusqu’à ce que la dématérialisation par le numérique offre la solution.
Elle permettait d’accélérer les échanges d’informations, les traitements, d’augmenter les capacités mémoire.
C’est la disparition de l’économie domestique qui a rendu indispensable le numérique, par l’explosion du nombre de transactions à traiter. La mondialisation n’est qu’un sous-produit de ce fantastique
Nous sommes trop nombreux, trop interdépendants pour revenir en arrière. Le numérique a d’autres emplois, scientifiques, industriels, dans l’industrie du loisir et du divertissement, mais c’est son rôle dans le commerce et la gestion qui est le plus présent dans notre quotidien.
Comment l’accepter
Cette place démesurée du numérique dans notre vie nous perturbe.
Nous aimerions parfois revenir en arrière, au temps où l’épouse mijotait des petits plats, où le mari bêchait son jardin. Notre imaginaire ne s’est pas adapté à la nouvelle donne.
Il faut parfois, faire une cure sans internet ni téléphone pour conserver son équilibre personnel.
Mais, le numérique n’est ni une malédiction, ni le résultat d’un complot hourdi par des forces obscures. Il est la conséquence logique quoique inattendue de notre souhait de voir le plus longtemps possible nos enfants jouer.

Publié dans commerce, developpement, système d'information | Tagué , , | Laisser un commentaire

Golem

img_4990.jpg » Mais c’est Rilke, je crois qui a dit que la vie est un jeu auquel on doit commencer à jouer avant d’en connaître les règles. Les apprend-on jamais ? Y a-t-il vraiment des règles ? »
Roger Zelazny « 24 vues du mont Fuji, par Hokusai – 1985 »
Golem a été le nom du premier ordinateur israélien. Ces créatures mi-homme/mi- machine, Golem, Frankenstein, Terminator hantent l’imaginaire du numérique. Nous sommes terrorisés par la possibilité que les machines puissent nous remplacer. Des prophètes nous annoncent le jour de la singularité. Ce moment où l’intelligence des ordinateurs sera supérieure à la notre.
IA
Qu’est-ce que l’intelligence artificielle ? Des définitions sophistiquée existent mais voici la plus simple : des machines capables d’effectuer des taches dont seul l’esprit humain était capable. La lecture et la traduction de textes, la reconnaissance faciale, la réalisation de diagnostics médicaux, ou de jugements judiciaires, des jeux complexes comme les échecs, le go ou le poker. Chaque jour des sociétés nous annoncent que des programmes nouveaux ont permis de faire des choses inimaginables. Et encore s’agit-il de ce que les spécialistes appellent de l’intelligence faible. C’est à dire la capacité des machines de réaliser une tache dans un environnement aux règles stables. L’intelligence forte devrait permette aux machines de faire plusieurs taches dans un environnement incertain (par exemple marcher dans la rue tout en soutenant une conversation). Certains l’annoncent pour dans quelques années et des dirigeants de la Silicon Valley prédisent l’arrivée du moment de la singularité.
Et il n’y a pas que les machines qui s’améliorent. L’homme devient l’homme augmenté, avec un cœur artificiel, des électrodes dans le cerveau (plus besoin de chercher son smartphone). Cette évolution peut enthousiasmer ou effrayer. Les mêmes dirigeants soufflent le chaud et le froid, nous annoncent des découvertes formidables et nous avertissent des risques qu’ils nous font courir. Le point commun est de prédire que ce progrès est inéluctable et pour demain.
Quels doutes ?
Sans être péremptoire il est possible de mettre en doute ces prophéties pour au moins trois raisons.
D’abord l’objectif s’éloigne au fur et à mesure que l’on s’en approche. Les découvertes sur le cerveau humain n’ont jamais été aussi nombreuses que dans les vingt dernières années (voir le livre de Danièle Trisch et Jean Mariani). Nous sommes loin du temps où Marie Shelley pouvait croire que le docteur Frankenstein animerait sa créature en envoyant des décharges électriques. Nous savons que le cerveau met en œuvre des processus physico-chimiques plus complexes. C’est aussi une déception. Les maladies neuro-dégénératives sont devenues un problème de santé publique et les autorités sanitaires déremboursent les médicaments contre l’Alzheimer faute de pouvoir en démontrer les effets. Comment soigner alors que nous ne sommes pas capable de modéliser le fonctionnement du cerveau, ce à quoi aurait du servir aussi l’intelligence artificielle ?
Ensuite il y a une contradiction dans l’intelligence artificielle. Elle consiste à croire qu’une machine pourrait reproduire le cerveau humain sans tenir compte de ses relations avec le corps auquel il se rattache. En somme l’âme immortelle serait détachable de notre enveloppe charnelle, l’esprit cartésien de l’animal–machine qui est en nous. Le matérialisme de la démarche cohabite avec le dualisme idéaliste le plus absolu. Là aussi, les découvertes de la science sont allée dans une autre direction, montrant l’importance de l’epygénétique (l’interaction entre l’environnement et notre capital génétique) ; le rôle du bouillon de culture que nous transportons dans nos viscères, le macrobiote, sur notre humeur ou notre capacité à réfléchir.
Enfin, c’est ne pas tenir compte de la spécificité de l’espèce humaine. Nos cousins les grands primates s’éteignent avec la disparition de leur milieu naturel. Nous ne cessons de croitre malgré les bouleversements constants de notre environnement. Notre espèce a une capacité exceptionnelle à adapter ses règles et ses lois aux problèmes nouveaux qu’elle rencontre, au besoin de coloniser de nouveaux territoires. Aujourd’hui les machines savent appliquer des règles, les apprendre, optimiser les solutions en fonction de ces règles. Elles ne savent pas inventer et choisir ces règles pour optimiser leur solution. Certains imaginent qu’elles y arriveront prochainement. Encore faudrait-il savoir comment nous le faisons. Il y là un champ de recherche qui implique de comprendre aussi bien le fonctionnement du cerveau que celui des rapports sociaux. Il y a là des processus qui font intervenir le raisonnement rationnel, mais aussi l’empathie, l’amitié et l’amour. Nous sommes loin de maîtriser ces interactions.
Le bluff
Alors pourquoi ces prophéties inquiétantes ou enthousiasmantes sur la singularité et le transhumanisme ? Dans le numéro d’août 2018 du Monde diplomatique, Perragin et Renouard proposent une explication simple mais convaincante. La révolution numérique n’est pas séparable de l’évolution néoconservatrice depuis le reaganisme. Le financement de la recherche et du développement a été permis par la concentration massive du capital entre quelques mains. Elle l’a justifié, expliquant que les Steve Jobs, Bill Gates, Zukerberg, et autre Jeff Bezos méritaient leurs fortunes par la transformation de la société qu’ils avaient déclenchée.
Aujourd’hui ce moteur est en panne. La loi de Moore se ralentit. Notre cerveau et notre corps sont d’abord des usines chimiques, mais chaque nouveau médicament coûte un milliard d’euros et dix ans de recherche. Il y a encore à faire avec les technologies actuelles pour aider au fonctionnement de notre société, mais cela nécessite beaucoup de code à écrire, de formation, de conduite du changement, donc des coûts aux retours d’investissement incertains. Tout cela n’a rien pour enthousiasmer les décideurs financiers.
Alors, les experts du numérique disent n’importe quoi, la victoire des machines, la mort de la mort, la colonisation de Mars. Plus c’est gros plus ca passe. « Nombre de chercheurs et d’entrepreneurs qui se montrent très prudents dans un contexte universitaire ont tendance à faire des déclaration sensationnalistes lorsqu’ils parlent à la presse : un appel direct aux investisseurs, qui ont pour la plupart des connaissances techniques limitées et se fondent largement sur leur lecture du New York times ou du Wall Street Journal » (Zachary Chase Lipton cité par Perragin et Renouard)
Pygmalion
Toutes les histoires de Frankenstein à Terminator sont des variations sur le thème de Pygmalion et Galatée. Un homme invente une créature qu’il veut parfaite et s’aperçoit qu’elle échappe à son pouvoir. Ce mythe ne fait que répéter la vie. Nous faisons des enfants, qui invariablement font autre chose que ce que nous attendions.
Et là risquons une prophétie. Il y a aujourd’hui 7,5 milliards d’humains sur Terre. Cela fait beaucoup de cerveaux disponibles pour réfléchir aux problèmes du monde, trouver des solutions, inventer des techniques et définir de nouvelles règles. Ils peuvent s’appuyer sur des outils qu’ils seront les premiers à véritablement maitriser car ils sont nés avec pour communiquer, calculer, mémoriser tester ces solutions.
Sans avoir besoin de superpouvoirs, ils créeront un univers différent du nôtre. Il ne sera ni celui qu’imaginent les génies de la Silicon Valley et leurs investisseurs financiers, ni celui que nous espérons.

Publié dans intelligence artificielle, propriété intellectuelle, système d'information | Laisser un commentaire

La vrai liberté

20180705_182211Il est souvent reproché au Système d’Information Numérique d’attenter au libre-arbitre, d’enfermer l’individu dans un carcan technique aliénant. Une critique semblable été faite à la conception d’Ibn Rushd de la connaissance.
Thomas d’Aquin et le sujet cartésien
La thèse centrale d’Ibn Rushd, est l’unicité de l’intellect. Il n’existe qu’un intellect pour toute l’humanité. Ce que connait chaque homme, par ses sens et son imagination, n’est que le reflet partiel de cet intellect suprême.
Dès sa diffusion, cette théorie fit l’objet de critiques. Thomas d’Aquin, le théologien le plus influent de son temps, écrivit un traité pour récuser la thèse du philosophe andalou. Affirmer que l’intellect des hommes ne faisait qu’un, c’était récuser l’idée d’une âme attachée à chaque corps, immortelle, et qui au jour du jugement dernier serait envoyée en enfer ou au paradis.
Or toute la religion chrétienne est basée sur l’existence de l’âme, propre à chaque homme. Elle fonde sa responsabilité face à son destin. Après Thomas d’Aquin, d’autres philosophes européens, de Leibnitz à Renan combattront également le monopsychisme. Rien de surprenant à cela. Ibn Rushd présentait la caractéristique étrange d’être inacceptable pour les tenants de la tradition comme pour ceux de la modernité. Car en défendant l’âme immortelle de l’homme, Thomas d’Aquin défendait en même temps le libre arbitre, le sujet cartésien, base de la philosophie moderne et du droit de la liberté individuelle (et accessoirement de la propriété : c’est parce que nous sommes un individu responsable que la possession de biens est légitime, comme moyen d’exercer notre libre arbitre).
De Freud à la cybernétique
Le libre arbitre du sujet pensant a pris des coups sévères. Freud, Marx, et les structuralistes de toutes obédiences l’ont fait tomber de son piédestal. L’individu conscient est manipulé par son inconscient et son surmoi, par les rapports sociaux dans lesquels il s’insère, par les mythes, les représentations qui structurent son univers mental.
Mais ces théories n’étaient que des théories, qui pouvaient être qualifiées de rêveries méprisables par les tenants de la liberté de l’individu.
Le système numérique change cela, car la relation avec la machine et les liens qu’elle tisse entre les acteurs génèrent un ensemble cybernétique, dans lequel acteurs et machines interagissent perpétuellement entre eux.
De la connaissance à l’action
Le cyberespace crée un formidable puits de connaissance qui ressemble bien à l’intellect universel d’Ibn Rushd.
Wikipédia en est le meilleur exemple. Dans le chapitre qu’il lui consacre dans son ouvrage « les innovateurs », Isaacson explique les débats qui présidèrent à sa création. Certains estimaient qu’une encyclopédie devait être le recueil des avis des meilleurs spécialistes, sélectionnés pour leur compétence. Le choix fut inverse. N’importe qui pouvait intervenir, anonymement, sous réserve de respecter des règles élémentaires de traçabilité. L’expérience montra la supériorité de ce modèle, dans lequel sans arrêt, les opinions de la multitude se confrontent, se corrigent, interagissent. Wikipédia est devenu un stock de savoir sans équivalent, dépassant largement toutes les encyclopédies qui l’ont précédés.
Cette connaissance sur le cyberespace, est de plus interactive. Nous pouvons savoir des choses, mais aussi, acheter, vendre, transmettre, payer nos impôts, nos charges, etc.
Les machines nous aident et nous rendent plus efficaces sous réserve de respecter la réalité cybernétique où nous vivons, celle où les humains et les ordinateurs interagissent entre eux selon des règles communes.
Pour nombre de nos contemporains, cet encadrement paraît insupportable. « Je ne suis pas un numéro », suivant la formule paranoïaque d’un feuilleton télévisé des années 60, « Le Prisonnier ». Pour protéger notre libre-arbitre, des lois et des directives nous donnent le droit de retrait, de refuser d’utiliser ces outils, d’interdire l’utilisation de nos données personnelles. Et, cela s’accompagne de la possibilité de monnayer ces connaissances. Ces mêmes législateurs renforcent le secret des affaires, le droit d’auteur. Il y a quelque chose de cupide dans cette prétendue défense du libre arbitre et de la propriété de la connaissance.
Le Véhicule de l’information
Ces craintes me rappellent celles de mes certains collègues en début de carrière. Nous étions des experts chargés de transmettre des informations et de proposer des solutions à notre hiérarchie. Mes collègues plus anciens m’avaient mis en garde. Il ne fallait pas en dire trop. Si nous disions tout ce que nous savions, nos managers finiraient par en savoir autant que nous, ne plus avoir besoin de nous et feraient disparaître notre fonction.
Jeune recrue, j’étais assez perplexe. Si je ne transmettais pas le peu que je savais, mes écrits seraient creux et sans intérêt, ce qui ne pousserait pas les managers à faire appel à moi.
Je découvris vite que l’information appelle l’information. Si vous transmettez des informations, vous en aurez en retour. Et peu importe si la manière dont ces idées sont transmises est originale ou si elle se trouve encadrée dans un processus cybernétique.
Si vous refusez de communiquer votre savoir, les autres ne savent plus si c’est pour conserver le mystère, ou parce que vous ne savez pas. Ils finissent par ne plus vous consulter. Et alors les sources de connaissance s’étiolent. Non seulement vous n’êtes plus consulté, mais on ne vous dit plus rien. Votre savoir devient un stock mort qui décroche du réel.
L’expert est un passeur. Chaque expert finit par comprendre, que le plus important n’est pas de savoir, mais de savoir où trouver l’information. Votre valeur, c’est la qualité du carnet d’adresse, les témoins fiables, l’accès aux centres de documentation, et aujourd’hui, la virtuosité à utiliser les moteurs de recherche sur le cyberspace, à reconfigurer les données disponibles pour les rendre analysables.
Tim Hatford raconte que Charles Dickens fit une expérience similaire. Il s’était toujours battu contre les éditions pirates de ses romans par des imprimeurs américains. Sur le tard, il s’aperçut qu’elles lui avaient donné une extraordinaire notoriété. Il put faire des conférences auxquelles ses admirateurs payaient pour assister. L’information génère toujours de la valeur.
La vrai liberté
C’est là la vraie liberté. Non pas celle d’interdire et du repli sur soi, mais celui que donne la circulation de la connaissance. Elle génère toujours de nouvelles idées, de nouvelles solutions, qui augmentent notre capacité à répondre aux défis de notre temps.

Publié dans big data, informatique, intelligence artificielle, internet, propriété intellectuelle, système d'information | Laisser un commentaire

La sphère et le test

port algerAu XIIe siècle, Ibn Rushd, mieux connu par le nom d’Averroès professait que l’intellect était unique et que tous les hommes alimentaient une même pensée. Ses contradicteurs firent remarquer que les hommes peuvent avoir des opinions différentes, et que cet intellect unique devenait le lieu de toutes les contradictions sans qu’aucune vérité ne puisse en sortir. La même critique est faite au cyberspace. Jamais nous n’avons été autant informés, jamais autant de nouvelles contradictoires n’ont circulées en même temps, avec la même facilité.
Fake news
Fake news, le mot est récemment arrivé dans notre vocabulaire, mais il a envahi notre quotidien. A la radio, à la télévision, et même dans la conversation, il n’est plus question que de « fake news ». Le système d’information numérique serait un pourvoyeur inlassable d’informations fausses. Le sociologue Gérald Brunner en a même fait une théorie. La vérité est une, le mensonge multiple, il y a de multiples façons de déformer les faits et les idées. La facilité extraordinaire à créer et répandre des informations aide le développement des informations fausses. Le système ne fait pas de choix et donc répend de manière équivalente les vrais et les fausses nouvelles, ce qui quantitativement est à l’avantage du faux.
On s’inquiète à aussi des possibilités de manipulations que cette facilité à dire n’importe quoi permet. Nous avons tous en tête la propagande d’AL Quaida et de Daesh, les interventions russes dans l’élection américaine, les allusions complotistes de Marine Le Pen lors du débat présidentiel français, les mensonges de Donald Trump.
Oui, volontaire ou non, le cyberspace est le lieu d’opinions contradictoires, de rumeurs fondées ou infondées. Certains souhaitent même que l’Etat légifère pour faire condamner ceux qui répandent les fausses nouvelles.
La chute des autorités
L’époque Gutenberg vit le triomphe de l’auteur. Un livre coutait cher à fabriquer, même en multiples exemplaires, et seul l’amortissement sur des séries longues permettait de justifier cette dépense. L’écrivain publié fut proclamé auteur, c’est-à-dire une autorité (les deux mots viennent de la même racine).
Or en un siècle, les autorités se sont ridiculisées. Les journalistes sont devenus les bourreurs de cranes de la guerre de 14-18, les politiques après avoir poussé dans la guerre les citoyens (guerres mondiales ou coloniales) se sont déshonorés, livrant leurs concitoyens aux camps de concentration, aux fours crématoires, ou aux goulags ; les intellectuels ont suivis les politiques dans leurs errances, les professeurs se sont vendus aux industriels et aux laboratoires. Ils n’ont pas attendu l’arrivée du monde numérique pour perdre leur crédibilité.
Il faut tester
Mais est-ce important ? En réalité, depuis au moins la machine de Turing, nous savons que la machine et l’algorithme ne disent pas le vrai.
La machine dit le rationnel, l’enchainement des causes et des effets, le calcul des probabilités et à ce jeu elle est meilleure que nous. Mais elle ne dit pas si cet algorithme est adapté à la situation réelle. Le philosophe Peter Sloterdijk emploie une image frappante pour montrer cela. La Terre semble une sphère, c’est-à-dire la forme géométrique la plus parfaite qui soit sans début ni fin. Elle se meut dans l’espace selon les lois de la gravitation. Et ces lois sont si précises que qu’il a été possible de découvrir par le calcul des planètes inconnues dans le système auquel appartient cette Terre. Au XVIII les admirateurs de Newton étaient persuadés qu’une connaissance générale et cohérente du monde était à portée de main. Mais l’observation a permis de voir que la sphère terrestre était aplatie à ses deux pôles, couverte de montagnes et de mer, animée par d’autres forces que la gravitation. L’algorithme de Newton donnait une première approximation, mais ne disait pas la réalité ultime. Lorsque nous testons un code, nous ne nous contentons pas de vérifier sa cohérence et sa logique. Nous vérifions aussi son adéquation au besoin réel. Ce n’est pas pour rien que le concepteur-développeur se déguise en utilisateur lorsqu’il teste le code.
In fine, c’est toujours l’expérience, c’est-à-dire le test qui dit le vrai. C’est ce que Lévi-Strauss appelle la «pensée sauvage», ce moment où nous conceptualisons tout en ressentant les choses, leur odeur, leur couleur, leur gout, le froid et le chaud, ce moment où nous manipulons le réel, par nos sens mais aussi par nos actions, quand nous pétrissons la pâte, appuyons sur un bouton. Que nous fassions cela ou même que nous utilisions des machines, seul le test et l’expérience peuvent dire le vrai. Et cette expérience doit être partagée, pour nous assurer que nous ne sommes pas victimes d’illusions. Ceci pour dire que connaître le vrai demande du labeur, au sens premier du terme, où nous labourons notre environnement pour le connaître et produire.
Le stock
Mais alors si cela ne nous dit pas le vrai, à quoi sert le fatras d’informations auxquelles nous sommes confrontés, hier dans les livres, aujourd’hui sur le cyberespace. J’aime la réponse que donne le philosophe François Jullien, dans son livre sur l’identité culturelle. C’est un stock, un stock d’images, de concepts qui nous aident à penser. Ce que nous appelons une culture, c’est un stock d’informations. Nous n’appartenons pas à ce stock, nous ne sommes pas prisonnier d’une identité culturelle, qui nous obligerait à penser d’une certaine manière. Nous pouvons être nés dans une province de France, élevé dans la foi chrétienne et devenir bouddhiste, musulman ou athée. Et c’est la diversité du stock d’informations auxquelles nous avons accès qui permet ce vagabondage, qui nous permet de réfléchir autrement. C’est dans l’écart entre les différentes cultures auxquelles nous accédons que se trouvent des combinatoires inédites pour réfléchir le réel.
Nous sommes confrontés à des défis sociaux, économiques, écologiques nouveaux, auxquels l’humanité n’avait jamais pensé devoir faire face. Et le cyberspace nous permet d’accéder à une multiplicité d’options, de les combiner entre elles pour expérimenter des solutions à ces défis. En cela il est sans doute la plus grande chance du monde nouveau vers lequel nous allons.
Bibliographie
Jean-Baptiste Brenet : Averroès l’inquiétant (2015, Les belles lettres)
Peter Sloterdijk : Le Palais de cristal (2015, Arthème Fayard/Pluriel)
François Jullien : Il n’y a pas d’identité culturelle (2016, L’Herne)
Claude Levi-Strauss : la pensée sauvage ( 1990, Agora)

Publié dans système d'information | Laisser un commentaire

Ibn Rushd

20180705_182205Les restes de Saint Denis

Ces chroniques ont commencé avec une figure imaginée par Michel Serres : celle de Saint Denis et sa tête coupée, métaphore de la jeune poucette portant son ordinateur sous le bras, entourée de coupeurs de têtes. Les concepteurs-développeurs cherchent à reconstruire cette tête, à la remplir d’idées, d’images, de données qui lui permettent de nous guider, de nous fournir la direction à suivre, les taches à effectuer. La métaphore de Michel Serres disait bien la terreur qu’inspirent les technologies de l’information, la peur du sang, de la décapitation, de la prise de contrôle par la machine.
L’image de Saint Denis colle bien avec la philosophie assez individualiste de Michel Serres, représentant le sujet face à la machine. Mais elle correspond de moins en moins à la réalité du système d’information numérique. L’ordinateur portable, la tablette ou le Smartphone que nous tenons en main est de plus en plus vide. Il devient un simple interface, l’essentiel du travail se fait dans le Cloud, dans des fermes de serveurs dont nous ignorons où elles sont, comment elles sont connectées entre elles, et quels traitements elles supportent. La machine en main, de plus en plus miniaturisée, n’est qu’une porte vers le cyberspace, un moyen de dialoguer avec les autres et avec les machines. Elle est de plus en plus creuse de toute connaissance. L’homme ne dialogue plus avec la machine, mais avec le monde sans toujours savoir si l’homme  ou la machine est en face de lui. Test de Turing, Catchas ont envahis notre univers, qui ne se résume plus à une dialogue entre l’homme et sa machine.

Averroès l’inquiétant

C’est pourquoi je propose une métaphore plus actuelle, dont j’ai trouvé la source dans le livre « Averroès l’inquiétant » du philosophe  Jean-Baptiste Brenet.
Ibn Rushd, dit Averroès, était un philosophe arabe contemporain de Philippe Auguste. Il consacra sa vie à faire connaître Aristote, le syllogisme, et l’infinité du monde. Musulman, son influence s’étendit aux juifs  et aux chrétiens. Certains de ses livres ne sont plus connus que dans leur traduction hébraïque ou latine.
La thèse centrale d’ibn Rushd, est l’unicité de l’intellect, il n’existe qu’un intellect pour toute l’humanité, indéfiniment rationnel, éternel  et qui se confond avec Dieu. Ce que connait chaque homme, par ses sens et son imagination, n’est que le reflet partiel et déformé de ce qui est dans cet intellect suprême. Entre l’homme matériel, réduit à ses sens, mortel, et l’intellect immortel où vivent les concepts, il n’y a rien. Ibn Rushd ne nie pas l’immortalité. Mais l’immortalité de l’homme se fait par l’immortalité de l’humanité.
Une telle conception pouvait faire peur à ceux qui espéraient l’immortalité de l’âme et la résurrection des corps, il faudra y revenir. Mais n’est-elle pas qu’une fantasmagorie ? Comment les esprits dialoguent ? Par la télépathie, par le spiritisme? L’union avec les morts se fait-il par les tables qui tournent ? Ibn Rushd annonce-t-il l’inconscient collectif de Jung ?

Le système d’information des hommes de savoir

Dans la pratique, les hommes dialoguent, s’échangent des informations, se partagent le travail et les compétences. La somme des connaissances de l’humanité est supérieure à la connaissance de chacun. Il y a donc bien quelque chose qui dépasse chaque individu.
Déjà à l’époque d’Ibn Rushd, A son époque, existe le système  d’information que connaissait déjà Socrate : écriture manuscrite, abaques pour calculer. Ces outils nécessitaient un long entrainement. Ils ne permettaient qu’une diffusion limitée auprès des seuls hommes de savoir.
Ibn Rushd cherchait à réconcilier la religion avec la rationalité de la philosophie grecque, et s’opposait aux traditionnalistes. Ces derniers interprétaient ainsi le verset 7 de la sourate III  du Coran   » C’est Lui qui a fait descendre sur toi (Muhammad) le Livre. On y trouve des versets univoques, qui sont la Mère du Livre, et d’autres équivoques. Ceux dont les cœurs inclinent vers l’erreur s’attachent à ce qui est équivoque, car ils recherchent la discorde et sont avides d’interprétation mais nul n’en connait l’interprétation sinon Dieu. Et les hommes d’une science profonde disent : nous croyons en Lui, tout vient de notre Seigneur« . Dit autrement, être savant, c’est accepter l’idée que tout n’est pas compréhensible dans l’œuvre de Dieu.
Ibn Rushd proposa une autre lecture de la fin de ce verset : « mais nul n’en connait l’interprétation  sinon Dieu et les hommes d’une science profonde. Ils disent : nous croyons en Lui, tout vient de notre Seigneur. » 
Cette dernière version joue sur la ponctuation (le texte original ne contient pas de ponctuation et permet donc ces interprétations divergentes), mais surtout il admet que l’homme de science puisse comprendre l’Univers comme Dieu. Dit autrement l’univers est rationnel, et Dieu n’a pas cherché volontairement à tromper les hommes. Et surtout,  ce qui nous intéresse particulièrement, ceux qui maîtrisent les outils de l’information, disposent des moyens de comprendre la rationalité de l’univers.

Un intellect à l’échelle du monde

Aujourd’hui, la maitrise du système d’information s’est démocratisée. Les hommes sont quasiment tous alphabétisés. Ils disposent d’outils dont Ibn Rushd  n’aurait pas rêvé pour calculer, interpréter, mémoriser, transmettre l’information. Ces outils leurs permettent de collaborer en temps réel, et de conserver la mémoire des morts, de leurs actes et de leurs idées. Il n’est pas besoin de faire appel à la magie ou de pouvoirs extraordinaires, pour approcher l’image du Monde.
L’intellect universel d’Ibn Rushd correspond à la réalité du monde d’aujourd’hui.

Publié dans intelligence artificielle, internet, propriété intellectuelle, système d'information | Laisser un commentaire

Franziskaner

1976 salzburg franziskaner (1)En 1974, je suis entré dans cette église de Salzbourg.
C’était la Franziskaner, l’église  franciscaine. Les visiteurs entraient par la nef, une construction romane peu éclairée, aux voutes basses.  Au fond de l’église une tribune abaissait le plafond. A l’autre extrémité de la nef, le chœur était un puits de lumière. Il s’agissait  d’un gothique de type halle, où les bas cotés sont aussi hauts que la nef. Des colonnes élancées soutenaient une voute flamboyante, où s’entrecroisaient les arcs de pierre. De grandes fenêtres jetaient une lumière blanche. Au centre, un grand maître d’autel baroque formait une sorte de colonne dorée, où se mêlaient les anges, la Madone, le Saint-Esprit. Ce chef d’œuvre de Fischer Von Erlach, architecte du XVII°siècle, incluait la Madone de Michael Pacher du XV°siècle.
Un choc esthétique était provoqué par le contraste entre l’obscurité de la nef et la lumière du chœur, les dorures et les sculptures du maître-autel.
Je me suis assis, c’était l’heure de la messe, la cérémonie pour laquelle cet édifice a été construit. L’office était accompagné par des musiciens. Ils jouaient la Messe du Couronnement de Mozart, l’une des œuvres écrites par le musicien alors qu’il était konzertmeister dans la ville. Les chœurs et les solistes dialoguaient avec les prêtres comme cela devait être le cas du vivant du compositeur.
D’où vient l’émotion que j’ai ressenti ce jour là, qui fait de cette heure passée un souvenir des plus vivaces ? Et surtout qui en est l’auteur ?
Est-ce les compagnons qui ont fait la nef romane, ceux qui ont construit le chœur gothique, l’architecte baroque ou le sculpteur de la Renaissance, Mozart, les interprètes de la messe, les prêtres ? Est-ce fait que chacun de ceux qui ont ajouté une pièce du chef d’œuvre a respecté le travail de ses prédécesseurs ? Est-ce mon regard, celui d’un ancien du catéchisme, d’un étudiant d’Histoire, d’un amateur d’art qui a été très jeune entrainé par ses parents dans des châteaux et des églises.

Le système d’information est une œuvre

Un système d’information est une œuvre. Certes son objectif n’est pas l’art, quoique l’esthétique joue un rôle. La couleur d’un écran, la forme d’un clavier, la taille d’une icône peuvent faire la différence entre le refus et l’acceptation du système par ses utilisateurs.
Mais surtout cela nécessite autant de créativité, d’imagination qu’un tableau ou une symphonie musicale.
Mais comme la franciskaner nous ne connaissons pas l’auteur de cette oeuvre. La réalisation de cette symphonie nécessite la collaboration d’une multitude d’exécutants, le maître d’ouvrage qui pose les règles de gestion, le concepteur qui définit  l’algorithme, le développeur qui rédige le code, l’utilisateur clé (KeyUser) qui teste et vérifie le système livré, le repreneur de donnée, le formateur et le responsable de la conduite du changement. Il y aussi l’architecte technique ou l’urbaniste fonctionnel qui s’assurent que le nouvel outil s’intègrent bien  dans le système existant.
Et puis il y a longtemps que l’on ne crée plus un système d’information à partir de la feuille blanche. Les machines préexistent, les progiciels aussi. Ils apportent des économies financières, mais aussi de la solidité. Utilisés dans d’autres contextes, testés et retestés, ils font la robustesse du système. Un système d’information est toujours un patchwork réutilisant une multitude de morceaux.

Qui est le créateur de cette œuvre ?

Parmi la multitude d’intervenants qui ont participé dans la fabrication de ce système, qui est le créateur ? Comme le rappelle une tribune récente au sujet d’une directive en cours sur le droit d’auteur « ces logiciels, véritable moteur de la transformation numérique, ne tombent pas du ciel : ils sont développés par des êtres humains qui les écrivent dans une forme qu’on appelle le code source, en utilisant des langages de programmation. Nous, qui développons ces logiciels, sommes donc bien des auteurs : les codes sources des logiciels que nous créons sont couverts par le même droit d’auteur qui protège la musique, les livres ou les films. »
Les  concepteurs-développeurs doivent chercher la solution la plus éfficace pour répondre au besoin des utilisateurs. Cette solution peut être totalement originale ou au contraire être faite par le réemploi de solutions éprouvées.  « Aujourd’hui, la plupart des logiciels sont construits en réutilisant des composants préexistants, développés et distribués sur des plates-formes ouvertes de développement collaboratif. Tout comme Linux, qui est au cœur de plus de 80 % des téléphones portables, il y a des millions de logiciels construits par des auteurs qui ont choisi d’en faire des logiciels libres, ce qui veut dire que tout le monde peut lire, étudier, modifier, faire modifier et redistribuer leurs codes sources, sans restriction ni autorisation particulière. » Toute la logique de ces systèmes est basé sur la possibilité de réutiliser les connaissances, sans se préoccuper de savoir qui a eu l’idée première.
Et cette logique se heurte à celle du droit de propriété intellectuelle qui permet à certains d’interdire la copie et l’usage d’idées. Est-il légitime de donner à certains le droit d’interdire l’utilisation de connaissance ? Le droit de propriété intellectuelle fait d’une  connaissance un bien privé qui appartient au cerveau qui l’a conçu.  La pratique des concepteurs développeurs est qu’une connaissance est d’abord un bien commun qui  doit être utilisé et réutilisé au mieux des intérets de tous.

C’est l’écoute qui fait la qualité de l’œuvre. Dans le cas de la Franzikaner, c’est parce que chacun des participants a réfléchi comment s’intégrer dans l’œuvre préexistante que le résultat final est magnifique. C’est ce mélange de respect et d’audace qui en fait la qualité. Il en est de même dans le cas du système d’information. C’est la capacité de chacun d’écouter les autres, les problèmes qu’ils rencontrent, les idées qui circulent, qui permet de trouver la solution la plus adaptée.

Bibliographie

COLLECTIF « Nous, qui développons des logiciels, sommes donc bien des auteurs » LE MONDE SCIENCE ET TECHNO |  22.05.2018 à 16h53 • Mis à jour le 23.05.2018 à 13h21 |

Publié dans propriété intellectuelle, système d'information | Tagué , | Laisser un commentaire

Les limites de la générosité

Certains imaginent que le dévelopcasque-de-pompier-16656pement du numérique permettra de sortir du capitalisme ou de se débarrasser de l’Etat. Les hommes deviendront tous frères. L’heure sera à la multitude, tous les humains collaboreront entre eux.
Une lecture rapide des économistes Williamson et Ostrom peut faire espérer ce monde nouveau. Le contrat entre sujets libres et égaux remplacerait la firme, l’Etat et le marché. La propriété privée ou publique s’abolirait, tous les biens devenant bien commun, partagé par tous.
La perspective d’une fraternité généralisée a quelque chose de réjouissant. Mais cela est difficilement compatible avec les fondements de Williamson et d’Ostrom. Leurs théories sont basées sur deux hypothèses :

  • Nous avons besoin de temps pour comprendre les choses (ce que les économistes appellent être en rationalité limitée) ;
  • Nous sommes égoïstes et cherchons toujours à pousser notre avantage sur les autres (ce que les mêmes économistes appellent la maximisation du profit).

Selon ces hypothèses, nous avons tous un comportement opportuniste, profitant des limites  de la connaissance des autres. Les différents modes d’organisation ne sont qu’un moyen de limiter cet opportunisme, en fonction du contexte. En particulier le mode collaboratif suppose que les acteurs se connaissent, soient proches, adhèrent aux mêmes règles. Pour ces raisons, le groupe collaboratif est de taille limité, et ne peux prétendre à la fraternité universelle.
Est-il possible d’échapper à ces contraintes ?

La fin de la rationalité limitée ?

Pour acquérir une information, il faut trois choses :

  • Celui qui la reçoit doit en prendre connaissance, l’analyse et la comprenne, l’expérimente ;
  • Celui qui l’émet doit l’avoir mis en forme, vérifiée, transmis ;
  • Un système d’information a été mis en place entre l’émetteur et le récepteur.

Le numérique nous a doté d’outils extraordinaires.
La recherche universitaire fait des progrès grâce à eux : d’immenses bases de données sont disponibles, des moteurs de recherche nous permettent d’explorer ces bases, des outils de calcul  ultrarapides peuvent les analyser, des outils d’édition extraordinaires mettent en forme les analyses et les partagent avec le plus grand nombre.
Les échanges et le commerce se développent, nous pouvons trouver réponse à nos besoins à l’autre bout du monde, apprendre à s’en servir, à les réparer, à les transmettre à d’autres.
Nous pouvons prendre contact et converser avec des amis en permanence, les messageries, les réseaux sociaux nous permettent à tout moment d’être en contact avec d’autres.
Tous ceci permet d’imaginer le moment où nous pourrons instantanément agir vis à vis des autres en ayant toutes les informations pertinentes nécessaires. Certains imaginent aussi que le développement de la blockchain va nous donner tous les moyens pour nous assurer que l’information reçue n’a pu être falsifiée afin de nous tromper.
Il est certain que ces technologies ont donné des moyens nouveaux pour l’espace du collaboratif. Mais en même temps, il reste deux contraintes :

  • Pour utiliser une information, nous devons l’avoir comprise et expérimentée. Or nos facultés restent contraintes, notre mémoire oublie sans cesse des choses, nos capacités de calcul sont sans cesse parasitée par nos émotions, les soucis du quotidien ; nous sommes en intelligence forte comme le disent les spécialistes de l’intelligence artificielle, mais nous sommes loin d’être capables de tout comprendre ;
  • Les machines n’ont jamais été aussi puissantes, mais elles sont aussi limitées :
    • Elles savent appliquer des règles, les apprendre, en tirer toutes les conséquences rationnelles, mais elle ne savent pas les créer et les choisir ; le moment de la singularité, celui où les machines seront capables de remplacer l’intelligence humaine dans tous ses usages est encore loin ;
    • Les machines ont des parasites, des anomalies qui constamment les empêchent de transmettre correctement l’information ; le choix de passer par le numérique, de décomposer l’information en bits est un moyen de mesurer l’effet de ces parasites pas de les supprimer.

Les technologies du numérique ont permis de repousser les limites de la rationalité, pas de les annuler.

Egoïstes ? Le message du capitaine des pompiers

Pouvons nous imaginer un monde où nous cesserons d’être égoïstes, opportunistes.
L’économiste Weinstein dans sa contribution à l’ouvrage collectif « le retour des communs », propose de s’attaquer à cette hypothèse d’Ostrom, la volonté des individus de maximiser leur profit. Weinstein reproche à Ostrom de faire du comportement égoïste des acteurs une donnée ontologique de l’homme, absolue, intangible. Or notre comportement est conditionné par notre éducation (la formation fait partie intrinsèquement de ce qui construit notre rationalité limitée). Pourquoi celle-ci ne permettrait pas de faire des individus altruistes, généreux, tournés en priorité vers l’autre.
Je n’entrerais pas dans le débat pour savoir si notre comportement est lié à notre nature ou notre culture. Les travaux des biologistes et des anthropologues (citons D’Amasio et Descola) ont montré les limites floues entre ces deux notions.
Mais un capitaine des pompiers se doit dire à ses hommes avant d’aller lutter contre un sinistre : un héros mort ne combat pas l’incendie. Le premier devoir de chacun est de se préserver, c’est cela qui lui permet de contribuer à la communauté. En l’absence d’informations suffisantes, la maximisation de l’intérêt personnel est donc la règle pour des raisons pratiques et non morales.

Les combinatoires de la gouvernance

Orstrom et Williamson n’annoncent pas un monde nouveau où la propriété privée ou l’Etat n’aurait plus aucun rôle.  Et la réalité de l’économie collaborative n’est pas uniquement le développement de l’entraide.
Le collaboratif se sont aussi des gens qui disposent de ressources sous-exploitées (chambres vides dans des logements, véhicules au garage…) et qui proposent de les mettre à disposition des autres.
Des entreprises capitalistes ont bien compris que la mise en relation faisait faire des affaires. Ils proposent  des services enrichis par rapport à de simples  sites internet ou des marchés d’artisans : moteurs de recherche, systèmes d’évaluation, services d’intermédiation financière. Ces entreprises, qu’elles s’appellent  e-Bay, UBER, Blablacar, Airbnb ont le vent en poupe et mauvaise réputation. D’abord des pans entiers de l’économie traditionnelle sont mis en danger (hôtellerie, transport, restauration, brocante). Ensuite, ces sociétés profitent du malheur des gens. Il y a de la misère derrière cette économie du partage. Parce qu’ils n’ont pas de travail, les chauffeurs d’UBER acceptent des revenus qui ne permettent pas l’entretien de leur outil de travail, les logeurs de Airbnb acceptent de voir les visiteurs s’introduire chez eux, les vendeurs de e-Bay ou du Boncoin de vendre leurs derniers biens.
Mais elles apportent des services indispensables au développement du collaboratif et que celui-ci seul ne pourrait pas mettre en œuvre.
Le cas d’Uber est emblématique et caricatural. Lors de l’augmentation de capital réalisée à l’automne 2017 avec Soft Bank, sa capitalisation financière était de 48 milliards de dollar, pour un chiffre d’affaires estimé de 7,5 milliards de $ (hors rémunération des transporteurs) et une perte de 4,5 milliards de $ la même année. Aucune entreprise collaborative ne serait en mesure de lever autant de fonds, de supporter les coûts liés aux investissements en recherche et en machine, les besoins de fond de roulement. La réalité c’est l’hybridation des différentes formes de gouvernance économique.

Williamson et Ostrom ne sont pas les apôtres du collaboratif. Leur objectif n’est pas de défendre tel ou tel mode de fonctionnement social. Ils s’efforcent de rendre compte du réel, du fait que Etat, Marché, Collaboration cohabitent.  Chaque mode de gouvernance a un champ d’action privilégié. Les frontières entre modes varient en fonction des conditions sociales et technologiques.
Et rendre compte du réel, lui donner des explications qui peuvent servir de boussole à l’action est sans doute plus utile que de prétendre la prééminence de tel ou tel mode de régulation sociale.

Bibliographie

Jean-Gabriel Ganascia : Le mythe de la Singularité (Le Seuil, 2017)
Benjamin Coriat : Le retour des communs & la crise de l’idéologie propriétaire (LES LIENS QUI LIBERENT EDITIONS ; 2015)

 

Publié dans gouverner, propriété intellectuelle, système d'information | Tagué , , , | Laisser un commentaire

Réponse à Georges

vie privée Mater Dolorosa

Georges a bien voulu rédiger un commentaire détaillé sur l’une de mes chroniques. Ces chroniques ont pour but de susciter la réflexion, de permettre un dialogue.
C’est pourquoi je suis heureux lorsqu’il y a des commentaires. Georges n’est pas d’accord avec ce que j’ai écrit dans la chronique « Vie privée ». Cette chronique lui a paru « tout à fait effrayante », attaquant « un droit absolument fondamental ».Il m’interroge sur les limites que je mettrais à la transparence. « Voulez-vous qu’on vous mette une caméra dans votre chambre, si l’ordre social l’exige, pour maximiser la coopération et qu’on vous envoie au travail quand vous ne dormez pas ».

Limites de la vie privée

Je reconnais volontiers qu’il y avait de la provocation dans mon texte.
N’ayant pas de goût pour l’exhibition, je ne souhaite effectivement pas qu’une caméra surveille ce qui se passe dans ma chambre. Mais je mesure à quelle point ma réaction provient d’un conditionnement social : s’agit-il d’un droit fondamental, j’en suis moins sur. Pendant des siècles, les différentes pièces de l’habitation n’étaient pas distinguées. La séparation entre salon, salle à manger, chambres à coucher date des Temps Modernes (après le XVI°s). Pendant des siècles les parents vivaient et dormaient dans la même pièce avec les enfants. Si l’on enfermait les femmes, ce n’était pas pour protéger leur intimité mais pour s’assurer que leur progéniture venait bien de leur seigneur et maître. Le harem est une forme extrême de vie privée, mais il peut difficilement passer pour un droit fondamental.
Aujourd’hui, la protection de la vie privée devient un absolu derrière lequel certains se réfugient sans réfléchir à sa justification. Ce n’est pas le cas de Georges qui reconnaît que « le secret absolu est incompatible avec le simple fait de sortir dans la rue, le simple fait de dire son nom, etc. je vous rejoins sur ce point. » Si j’ai pris comme exemple de données devant être protégée « notre code de carte bancaire et au secret des systèmes d’accès aux pacemakers », c’est qu’il me semblait évident que leur divulgation met en cause notre intégrité personnelle.
Mon propos n’est pas de dire la limite entre vie privée et vie publique, mais de souligner le problème que pose l’extension sans contrôle ni limite de ce droit.

Le droit d’information

Car si j’ai un doute sur la justification du droit à la vie privée, j’en ai moins sur le droit d’information. Droit à recevoir toutes les informations possibles, droit à émettre librement toutes les opinions, même les plus dérangeantes. Ce droit a deux justifications.
D’abord c’est une condition de la sociabilité, du vivre ensemble. Il vaut mieux se dire les choses en face, que de les dissimuler. Pas de démocratie possible sans échange des opinions.
Ensuite, c’est une condition de la créativité. Les solutions à nos problèmes n’arrivent pas en chambre. Il faut échanger pour évaluer une situation et créer. Or nous en aurons absolument besoin. Nous étions 1,5 milliards au début du siècle précédent, nous sommes 7,5 milliards, bientôt entre 9 et 10, sur une planète dont les ressources restent limitées. Cela nous obligera à imaginer des solutions radicalement nouvelles, à partir de la meilleure connaissance de la réalité.

La privatisation de l’information

Or la privatisation de l’information menace cette libre circulation. Par information, s’entendent des concepts, des images, des textes (et donc des logiciels), mais aussi des couleurs ou des codes génétiques. Tout ce qui peut être transformé en un message communicable est information. Sa privatisation transforme l’information en actif immatériel. Le terme dit bien que l’enjeu est financier, avant de viser le bien public ou l’épanouissement personnel.
Cette privatisation se fait par divers mécanismes, droit d’auteur, brevets industriels, droit au secret des affaires, droit à l’image, protection des données personnelles. Mais, ils aboutissent tous au même résultat : interdire la reproduction et la diffusion des informations. Ce n’est pas faire des amalgames, de dire que tous ces dispositifs aboutissent à un même résultat, ralentir voire arrêter la diffusion de l’information.
La vie privée n’est pas le premier enjeu. La brevetabilité du vivant, l’allongement permanent des droits de propriété intellectuelle sont des questions plus cruciales. Mais le droit sur les données personnelles contribue à ce droit d’interdire, avec trois effets principaux.

Les effets indésirables de la privatisation des données personnelles

Le premier effet est de bloquer la circulation de l’information. C’est au nom de la protection des personnes que certains refusent la collecte des données concernant la consommation énergétique (voir le cas de Linky). Cela menace la transition énergétique : comment contrôler notre consommation si nous ne la mesurons pas ? C’est au même titre que des entraves sont mises au développement d’un dossier médical partagé des patients. Cela empêche des études épidémiologiques à grande échelle, cela contraint le travail des urgentistes. Il y a derrière la libre circulation de l’information des enjeux de service et de santé publique.
Le deuxième effet est de transformer tout le monde en délinquant. L’exemple du droit à l’image est parlant. Qui est le propriétaire d’une photographie : le photographe, le sujet photographié, le costumier qui a fait sa tenue, les personnes qui circulent derrière, l’architecte de l’immeuble à l’arrière plan ? Tous peuvent interdire la diffusion de l’image et réclamer une rémunération pour l’autoriser.
Le troisième effet est de mettre des barrières à l’entrée du secteur des technologies d’information. Personne ne conteste ouvertement le droit à l’information, tout le monde se proclame défenseur des données individuelles. La gestion simultanée de ces droits contradictoires génère un maquis de lois, de règlements, de traités internationaux, de contrats entre personnes. Peu d’entreprises sont capables d’en gérer tous les effets. Cela suppose aussi des moyens technologiques considérables : cryptologie, redondance des serveurs, blindage des réseaux, construction des DMZ (Delimitary Zone). Les géants des Technologies de l’Information ont bien compris. Ils ne se sont pas précipités pour défendre Facebook, lorsqu’il a été pris pour avoir donné des informations. « La vérité, c’est que nous pourrions gagner une tonne d’argent si nous monétisions notre client – si notre client était notre produit. Mais nous avons choisi de ne pas le faire « ,a affirmé Tim Cook le patron d’Apple. Confiez nous vos données, nous les garderons précieusement à l’abri dans l’Apple Cloud ; contrairement à Zukerberg, nous n’en ferons pas commerce. Mais la vérité c’est que peu d’entreprises pourront le faire. Pas de place pour les PME, les start-up, les licornes dans le monde de la gestion sécurisée des données. La rente sera pour quelques entreprises. Le Cloud sécurisé est une affaire de géants.
Et ne croyons pas que nous serons à l’abri d’intrusion. De plus en plus notre vie quotidienne inclue des échanges hommes-machines pilotés par des logiciels. Aux divers titres de la privatisation des données, ces codes ne sont pas accessibles. L’affaire APB a été emblématique. Ce logiciel permettait de confronter les demandes des futurs bacheliers avec les moyens de l’enseignement supérieur, pour orienter vers les filières d’études. Alors qu’il s’agissait d’un dispositif de nature à influer toute la vie future de ces étudiants, il a fallu des années pour que s’impose l’idée que le fonctionnement de ce code, ses règles de gestion devaient être publiques.
Le secret ne nous protégera pas de Big Brother et de l’arrivée de 1984. C’est un leurre qui n’avantage que ceux qui ont la capacité de le gérer.
Il ne s’agit pas de commencer par l’ouverture libre aux données personnelles des particuliers. La transparence doit être réciproque et s’appliquer d’abord à ceux dont l’influence est la plus importante, les grandes entreprises, les Etats. Cela a déjà commencé dans le domaine politique. Pour tous ceux qui gèrent les affaires publiques la barrière entre vie privée et vie publique a été pulvérisée par les affaires. Nous savons de plus en plus qui sont leurs compagnons et leurs compagnes, leur patrimoine. Ne croyons que cela s’arrêtera à quelques VIP (Very Important Person).
Pour revenir à ce qui se passe dans la chambre, l’homosexuel qui fait un coming out fait une entorse à la vie privée, il dévoile son intimité et celle de son compagnon. Mais il contribue à notre réflexion, il enrichit le débat, il nous oblige à nous interroger sur notre morale et nos préférences sexuelles. C’est la tolérance pour l’opinion des autres qui nous permet de réfléchir et non la dissimulation de notre réalité.
L’information de demain sera un bien commun. Préparons nous à ce monde ouvert.

Nota bene : Faisant de l’apnée du sommeil, je dois porter la nuit un appareil qui régule ma respiration. Une carte mémoire dans cet appareil contrôle les moments où je porte l’appareil, ceux où je dors paisiblement, et ceux où je suis reveillé. Il permet au pneumologue d’ajuster les réglages de l’appareil. Pour qui voudrait savoir à quel moment je me lève et quand je pourrait travailler, il n’y a donc pas besoin de mettre une caméra dans ma chambre. Récupérer les informations sur la carte suffirait. En attendant, cette surveillance a changé la qualité de mon sommeil. Ce n’est pas l’information qui est dangereuse c’est l’usage qu’on en fait.

Publié dans internet, propriété intellectuelle, système d'information | Tagué , | 2 commentaires