Du bœuf aux fraises

01 BoeufCet été 2016, nous visitions un village de l’Aveyron. A la retraite depuis longtemps, notre guide était le fils de l’ancien boucher du village. En ce temps lointain, celui-ci servait du bœuf uniquement au moment des fêtes (Noël, Pâques). Avant de les mettre à l’étal, il promenait les bœufs vivants dans les rues du village pour permettre aux habitants de juger de la santé des bêtes. Il les abattait ensuite, et au dessus de l’entrée de sa boutique, il exposait les cornes des bêtes abattues dont la viande était mise en vente. Il offrait ainsi une traçabilité à laquelle un spécialiste de l’assurance qualité n’aurait rien eu à redire.
Aujourd’hui, entre la bête vivante et le morceau de viande dans notre assiette se sont déroulées toute une série de transactions, dont nous n’avons qu’une idée lointaine. Ce n’est que lorsque cette chaine dysfonctionne que nous découvrons son existence. Prenons l’exemple de l’affaire Spanghero en 2013.
Etape 1 : Une société suédoise de commercialisation de plats surgelés, travaillant pour l’approvisionnement des marchés britanniques et français décide de sous-traiter à une société française implantée à Metz la fabrication de lasagnes aux bœufs;
Etape 2 : la société messine demande à sa filiale au Luxembourg de fabriquer ces plats surgelés ;
Etape 3 : La filiale n’a pas de viande de bœuf à disposition et s’adresse à l’entreprise Spanghero, située dans le Lauragais pour lui fournir ce composant ;
Etape 4 : Spanghero n’a pas lui-même de viande et recherche ce produit à bon prix sur le marché, pour cela il s’adresse à un commerçant chypriote ;
Etape 5 : celui-ci se tourne vers un homologue néerlandais qui lui propose de la viande de cheval d’origine roumaine ; celle-ci est particulièrement économique car la réglementation roumaine vient d’interdire aux voitures à cheval de circuler sur les routes nationales ; les paysans ont donc envoyé à l’abattoir des bêtes dont ils n’avaient plus l’usage ;
Etape 6 : l’abattoir roumain livre la viande de cheval à Spanghero ;
Etape 7 : L’entreprise du Lauragais envoie à l’usine du Luxembourg la viande, étiquetée bœuf au lieu de cheval ; celle-ci est utilisée pour la fabrication des lasagnes et envoyée chez les consommateurs anglais en barquettes congelées.
Ici trois remarques :

  • Jusqu’à l’étape 6, personne n’a vu le moindre morceau de viande ; les échanges sont dans une économie virtuelle, faite de fax, de mails, de coups de fils, entre des gens qui ne se voient pas et probablement ne se connaissent pas ;
  • Ce réseau d’échange a permis de savoir qu’il existait une occasion de profit grâce au changement du code de la route dans un pays lointain ;
  • Il y a tromperie sur la marchandise ; Mais ceux qui commettaient ce délit, pouvaient le voir comme mineur : pas de risque pour la santé, le gout de la viande était noyé dans la sauce et les lasagnes; ainsi un commerçant qui vit dans une région où chaque ville a sa boucherie chevaline a pu vendre de la viande à des consommateurs pour qui manger du cheval s’apparente à une pratique cannibale.

Ces trois points sont sans doute parmi les enjeux majeurs du changement apporté par le système d’information numérique.
Les interlocuteurs peuvent se croire dans un monde virtuel, parce qu’ils ne voient pas le produit échangé.
Il est possible d’échanger des biens ou des services, dont le client connaît peu de chose d’un bout à l’autre de la planète. Qui sait que la plupart des fraises consommées en Europe viennent de Chine. Non pas celles que nous achetons fraiches, mais celles qui servent à parfumer yaourts, desserts au sojas, boissons… Que savons nous de la manière dont elles sont cultivées, des produits phytosanitaires utilisés ?
Ensuite, ont été mis en relation des personnes de cultures différentes. Le seul fait qu’ils puissent communiquer a pu donner le sentiment qu’elles partageaient les mêmes références et les mêmes valeurs.
Ainsi trois éléments clés de tout échange sont mis en question : l’échange est-il réel ? Quel produit est échangé ? Qui est celui avec qui j’échange ?
La technique numérique est une partie de la réponse à la question : en apportant une traçabilité et une qualité d’identification inédite, elle aide à se retrouver dans les fake news (même si elle contribue aussi à les répandre).
Mais la technique ne peut à elle seule suffire à écarter ces risques. Une réponse complémentaire est organisationnelle, politique au sens le plus fort du terme. Chaque contrat passé doit contenir une exigence d’ouverture et d’honnêteté de la part des parties, chaque loi doit apporter la confiance aux interlocuteurs, chaque traité entre Nations doit garantir la transparence.
Enfin, il faut changer les mentalités de ceux qui échangent. Ils doivent en permanence avoir en tète que celui avec qui ils discutent n’a pas nécessairement les mêmes idées et même qu’il peut vouloir vous tromper. Il ne s’agit pas d’avoir une vision paranoïaque, complotiste du monde. Mais juste en permanence se rappeler que l’espace d’aujourd’hui est un monde ouvert, qu’il nous permet d’échanger avec d’autres, avec qui nous ne partageons pas nécessairement les valeurs.
Jamais la technologie n’a donné autant de moyens pour communiquer. Jamais autant d’hommes, n’ont parlé ensemble directement ou par l’intermédiaire de truchement divers. Mais, la technique évolue plus vite que les organisations et les mentalités. Nous n’avons pas les reflexes pour parler avec les autres, vérifier leurs identités, leurs cultures, et éviter les malentendus et les incompréhensions. Nous devrons être patients.

Publié dans écriture, commerce, internet, système d'information | Tagué , | Laisser un commentaire

Chercher une boite

Dédié à Michel D. et avec mes remerciement à Michel B. pour sa relecture

Le havre« Bon ! Quand il m’a demandé, quand c’est qu’on arrête la grève. Alors moi je lui ai répondu : « Ben… C’est quand vous voulez, c’est vous l’patron ! Ca dépend du stock ! ». Parce que moi, j’suis dans une usine où c’est que la grève dépend directement du stock ! Je vais vous expliquer… Y a des usines comme ça, que la grève dépend du stock… l’autre, il engage les chômeurs. Et puis alors, c’est là que le stock il intervient, parce que du coup, il fabrique encore plus qu’il ne vend ! Donc, le stock se remplit et quand le stock est plein, le patron, il peut plus bosser! Il se retourne vers son partenaire social, qu’est le syndicat et lui dit :
« – Mon pauv’gars, on va débaucher une certaine catégorie de personnel ! »
Le syndicat appelle à la grève :…
Bon. Alors la grève dure des fois trois semaines, des fois même trois semaines, voire même… Pendant les trois semaines, qu’est-ce qu’il fait le patron ? Il vend ce qu’il a dans son stock ! Il a pas besoin des ouvriers qui fabriquent, pour vendre. Alors, au bout de trois semaines, il a tout vendu. Il dit : « Voilà les mecs… vous avez gagné. Je rengage tout le monde ! » Et les mecs retournent bosser : « On a gagné ! On a gagné ! On a… à part les trois semaines qu’on a dans le cul ! ». »
Coluche (le syndicaliste)

C’est le père d’un ami, travaillant dans l’industrie automobile, qui m’avait raconté comment, le sketch de Coluche racontait une vérité ouvrière jusqu’aux années 1970.
Les usines géantes de la révolution industrielle avaient permis d’automatiser la production. Sortaient des chaines des milliers de voitures, et de biens de consommations divers. Avant de les vendre, il fallait d’abord les mettre en stock. Ils étaient confiés à des hommes en blouses grises qui se chargeaient de les ranger, et notaient leurs emplacements sur des fiches cartonnées. Et le stock grandissait. De temps en temps, il fallait bien gagner de la place et on recourrait à la méthode racontée par Coluche, ou aux soldes, ou aux promotions géantes.
Puis arrivèrent les japonais. Ils avaient réfléchis le sujet du stock, développé les méthodes de juste à temps. Les managers découvrirent que le stock coutait cher : en espace de stockage, en service de gardiennage, et surtout en fond de roulement et intérêts financiers.

L’informatisation du stock

Les managers demandèrent donc que le stock soit géré au plus juste. C’est là que tout le monde découvrit que gérer un stock, c’est très compliqué, et que le numérique était indispensable.
D’abord il y avait l’inventaire. S’assurer que le montant réel dans les stocks correspondait à ce qui était enregistré dans la comptabilité, que les pièces n’étaient perdues, volées, cassées. Il fallait éviter d’arrêter la production ou les ventes pour vérifier le stock. C’est ainsi que les techniciens inventèrent l’inventaire tournant.
Ensuite il fallait calculer le réapprovisionnement. Les entrepreneurs n’aiment pas manquer une vente. Il faut donc s’assurer en permanence que l’arrivée de matières, de pièces, soit suffisant pour répondre aux besoins sans remplir inutilement les stocks. C’est ainsi que dans les années 60 apparaît le MRP (Materials Requirements Planning), ou calcul des besoins. Gérer le flux d’un produit suppose de tenir compte de multiples paramètres. Le stock présent dans l’entreprise, le délais de fabrication et livraison par le fournisseur, le délais de traitement dans l’entrepôt et l’usine, le délais d’acheminement vers le client ou l’unité de production, le stock de sécurité pour tenir compte des aléas. De plus certaines pièces ne peuvent être utilisées qu’avec d’autres. Il faut donc gérer des gammes ou des nomenclatures pour coordonner l’approvisionnement de toutes ces pièces.
Enfin, il y a la gestion physique des pièces : leur taille, leur poids, leurs conditions de stockage (dans le froid, le noir, à température constante), leurs dates de péremption (pour les aliments, les médicaments, ou les plastiques), les lots de fabrication auxquels ils appartiennent, les numéro de série. Il faut savoir les ranger et les sortir au bon emplacement, au bon moment.
Une société comme SAP a fait sa fortune de sa capacité à gérer correctement l’ensemble de ces paramètres.

Vers la mondialisation

A partir du moment où les stocks pouvaient être géré juste à temps, les ingénieurs et les managers pensèrent que l’on pouvait faire plus avec la machine.
Les produits s’échangeaient entre entreprises, et il fallait organiser l’échange d’information qui l’accompagnait. Les standard ISO (International Organization for Standardization-Organisation Internationale de Normalisation) permirent d’assurer la cohérence du langage au niveau mondial : unités de quantité, devises, caractères d’écriture, etc. Les codes EAN (European Article Numbering) permirent d’avoir au niveau mondial une identification partagée de l’entreprise, de ses produits, et des caractéristiques de ces produits. Des développements techniques purent s’appuyer sur ces processus d’identification : codes à barre et terminaux de saisie portable, Échanges de Données Informatisées (EDI) entre les entreprises, puces RFID (radio frequency identification). Tous ces outils permettaient de gérer le flux d’échange entre les entreprises sans ressaisie d’information.
C’est ainsi qu’apparut la notion de chaine de valeur. Puisque les outils de suivi de stockage permettaient à tout moment de savoir où était le produit, sa valeur en cours et l’état d’avancement, il n’y avait plus besoin que toutes les opérations se fassent dans la même usine. On pouvait suivre aux différentes étapes de la chaine de fabrication et d’assemblage l’évolution de la valeur du produit, même si ces étapes se déroulaient à des milliers de kilomètres les unes des autres. L’économiste Michael Porter expliqua alors l’importance pour les donneurs d’ordre de gérer la totalité de la chaine de valeur, en interne mais aussi chez les approvisionneurs de matières et les sous-traitants. Là encore les japonais montraient l’exemple. Avec le « Kyoryokukai », sorte de club de fournisseurs d’une entreprise, ils organisaient la chaine de valeur pour obtenir le meilleurs avantage concurrentiel.
Il devenait dès lors possible que la chaine valeur soit transnationale et aille au delà des mers. Jusqu’aux années 70, les quais des ports étaient équipés de grues, permettant de débarquer des matières premières. Progressivement, elles firent place aux spreaders destinés à soulever les conteneurs emplis de produits finis et semi-finis. Les ports devinrent d’immenses entrepôts à conteneurs. En 2016, Le Havre a vu passer quelque 2,5 millions de conteneurs. Anvers et Rotterdam dépassent respectivement les 10 et 12 millions de conteneurs. Dans le même temps, Shanghaï traite 36 millions de « boîtes ». Grace au numérique, on sait à tout moment où se trouve chacune de ces boîtes, il est même possible de les échanger, les vendre ou les acheter.
Le système d’information numérique n’est pas responsable de la mondialisation des échanges. Mais il en a été la condition nécessaire.

Bibliographie

Daniel Cohen : Trois leçons sur la société post-industrielle (Seuil-la République des idées ; 2006)
Michael E.Porter : Choix stratégiques et concurrence (Economica ; 1982)
Thierry Fouque, Vincent Rigal : Limiter la concurrence pour augmenter la compétitivité (Annale des Mines-série Gérer et comprendre-1992)
Denis Cosnard A 500 ans, le port du Havre craint d’être rayé de la carte maritime mondiale (Le monde ; 2017)

Publié dans commerce, système d'information | Tagué , , , , , , | Laisser un commentaire

Dactylo Rock

Elles travaillent le jour et la nuit
Dactilo RockEt même parfois tous les samedis
Les dactylos rock
Elles sont les plus parfaites
Elles chantent en tapant à tue-tête
Be bop a Lula !
(Léo Missir Claude Lemoine)
La chanson d’Eddy Mitchell nous rappelle un temps que les moins de vingt ans ne peuvent pas connaître. Comme déjà dit, le premier objet du développement du numérique n’est pas de faire des romans ou d’échanger des cartes postales numériques, mais d’améliorer l’efficacité des échanges. Et les premiers à le comprendre furent les services administratifs des entreprises.
La construction des cathédrales ouvrières, typiques du capitalisme de la révolution industrielle s’accompagna de l’apparition de ces services administratifs. Des tâches, considérées comme subalternes, accomplies souvent par la femme du commerçant ou de l’artisan se développent : vente, achat, comptabilité, paiement des salaires. Autant de métiers qui n’apparaissaient qu’à peine dans le monde des artisans et des boutiquiers où ils étaient réalisés « après le travail ». La concentration des ouvriers, l’éloignement des lieux de consommation et d’approvisionnement en matière première, fit qu’ils prirent de plus en plus de place, nécessitant de véritables spécialistes, à l’ombre des cheminées des usines.
Ces services apparurent tout de suite comme une plaie. Alors que les machines et le taylorisme permettaient des gains de productivité sur la production des biens, la croissance de ces services « non productifs » apparaissait comme une contrepartie couteuse.

L’arrivée de la bureautique

Les ingénieurs inventèrent des machines pour retrouver une certaine productivité, machines à calculer, à écrire, telex, ronéo, photocopieuses… Une population, généralement féminine, de spécialistes de la conduite de ces machines peupla les services administratifs. Et commença le ballet des corrections en tout genre : fautes d’orthographe, de français, de calcul, de sens.
Jusqu’à ce qu’arrive le micro-ordinateur.
Je revois encore le regard troublé de la secrétaire lorsque que je lui annonce que désormais je me chargerais moi-même des corrections. Elle avait compris que la fin de son métier était proche.
Les dactylos sont devenues secrétaires, puis assistantes de service. Elles arrêtèrent le travail de frappe, de mise en page, de gestion des copies, et prirent en charge la gestion des fournitures, des voyages, des organisations de réunion ou de séminaire. Le tout sans revalorisation du salaire.

Gestion du répétitif

A coté des travaux quotidiens, il y avait les taches répétitives, bulletins de salaires, devis et factures clients, comptabilité, etc.
D’abord ce fut l’époque du batch. L’utilisateur de base remplissait un formulaire en triple ou quintuple exemplaires reliés par des carbones qui salissaient les doigts. Puis il envoyait quelques feuilles avec les documents justificatifs authentifiés avec signatures et tampons de rigueur. Ils arrivaient au service central où des perfo-verif créaient des cartes que des ingénieurs en blouse blanche faisaient avaler à la machine. Une fois par mois, le traitement sortait les documents demandés et des listings poussés dans des imprimantes à picots. Il fallait être patient.
Ensuite vint le transactionnel. Plus de monde travaillait avec la machine. Ils tapaient des données sur un clavier, et voyaient le résultat s’afficher en lettres vertes lumineuses sur fond noir. C’était le « temps réel », quasiment magique qui permettait de répondre immédiatement au client ou au collègue.
Puis apparut le client/serveur. Tout le monde avait un ordinateur personnel avec un écran graphique. Managers et concepteurs-développeurs constatèrent que les utilisateurs faisaient moins d’erreurs avec des icones, des cases à cocher et une souris, qu’en tapant des instructions sur un clavier. L’ordinateur du client gérait l’interface homme-machine, et les données étaient envoyées sur un serveur où elles étaient traitées puis classées dans des bases de données. Cet âge fit la gloire d’Oracle et la fortune de son patron Larry Ellison.
Aujourd’hui, nous en sommes à la mobilité. Le client passe sa commande directement sur internet, le chef de chantier remplit son compte-rendu sur sa tablette, bottes aux pieds, le contrôleur d’usine annonce la sortie d’une pièce avec un terminal de saisie portable, ect. Tous les traitements qui suivent sont automatisés, les factures partent par échanges électroniques de documents, la paye est virée directement sur votre compte et vous êtes averti par SMS. Les taches des anciens services administratifs ont été automatisées. Il leur reste des travaux non répétitifs comme la surveillance du marché, la veille règlementaire des nouvelles normes ou lois.

La catastrophe sociale arrive dans un certain temps

Tous ces travaux d’informatisation coutaient chers. A peine une étape terminée, tout était déjà périmé, et il fallait recommencer. Les nouvelles technologies permettaient de répondre à de nouveaux besoins mais obligeait à mettre au gout du jour les anciennes applications. Les managers demandèrent que l’on fasse les choses à l’économie. Il fallut réutiliser les anciennes applications autant que possible et le système d’information de l’entreprise devint un empilement désordonné de couches plus ou moins compatibles entre elles. Le déploiement coutait plus cher que la conception et le développement des nouvelles applications. Il fallait former les utilisateurs, les équiper d’ordinateurs, de scanners, d’imprimantes, installer les applicatifs clients sur les postes de travail, gérer les habilitations. Il fallut donc aussi faire à l’économie, limiter le nombre d’utilisateurs et de sites à équiper.
Ensuite il restait la question du plan B et de l’environnement.
Comment faire si la machine ne fonctionnait pas, comment répondre si le système génère des anomalies. Les meilleurs esprits rêvent au possible « retour en manuel ». On envisage le plan B, qui s’avère impraticable si les personnes compétentes ne sont pas conservées.
Et quelle sera la réponse de l’environnement, des clients, des fournisseurs, de l’administration, des personnes responsables de la production. Accepteront-ils de se passer du sourire d’un interlocuteur, de la possibilité de poser n’importe quelle question. Des armées de juristes s’employèrent à démontrer que le passage au numérique posait d’insolubles problèmes légaux et réglementaires.
La transformation se fit donc à l’économie. Chaque manager observait ce que faisaient les autres, ne souhaitant pas être le premier à prendre le risque de la dématérialisation. Dans les métiers de succursales, il gardait les agences, tout en développant un site internet.  Il conduisait un pied sur le frein et l’autre sur l’accélérateur.
Il n’est pas étonnant que les gains de productivité attendus n’aient pas été au rendez-vous. Les managers se sont plaints de dépenser sans compter pour un retour médiocre, de la perte de compétitivité induite.
Puis un jour arrive une nouvelle génération. Elle a l’habitude de dialoguer avec un écran, Michel Serres les appelle Petite Poucette, du fait de leur dextérité à saisir des données sur l’appareil. A force de redondance, les machines et les programmes sont devenus d’une fiabilité exceptionnelle. L’Etat s’est aperçu que la masse de données collectées lui permettait de lutter contre le terrorisme.
Il n’y a donc plus de raisons d’appuyer sur le frein, car les technologies sont là et acceptées. Cela fait que les services administratifs sont socialement la sidérurgie de demain.
En 2013, un rapport venu l’Université d’Oxford affirmait que 47% des emplois étaient menacés par le numérique. Il partait de l’hypothèse que si 70% d’un emploi avait un caractère répétitif, le salarié pouvait être remplacé par une machine. En partant de la même hypothèse, mais en tenant compte du fait qu’un même emploi peut être fait d’une manière différente d’une entreprise à l’autre, l’OCDE a produit en 2016 un rapport affirmant que le nombre d’emplois perdus n’est que de 9%. Le rapport de France Stratégie propose un chiffre de 15%.
La réponse réelle n’est pas liée à la technique mais à la capacité de changement des organisations. « …la comparaison du degré́ de robotisation de l’industrie dans d’Europe ou l’exemple du déploiement des caisses automatiques dans la grande distribution montrent que l’automatisation des emplois ne se résume pas qu’à une question technologique : un emploi n’est pas nécessairement remplacé par une machine des lors qu’il peut techniquement l’être. D’autres facteurs influencent le déploiement des automates comme le mode d’organisation du travail, l’acceptabilité́ sociale et la rentabilité́ économique. La révolution numérique étant à la fois source de destruction, de transformation et de création d’emplois, la seule analyse des emplois potentiellement remplaçables par des machines ou des logiciels ne permet pas de conclure sur l’effet global de l’automatisation sur l’emploi… »
Et donc à la question : En combien de temps l’automatisation de l’économie va-t-elle se faire ? La réponse est celle du sketch de Fernand Raynaud : Combien de temps le fût du canon met-il pour refroidir? « Un certain temps »
Ce qui ne nous avance guère.

Bibliographie

Philippe Askenazy : Tous rentiers (Odile Jacob-2016)
Nicolas Le Ru : L’effet de l’automatisation sur l’emploi : ce qu’on sait et ce qu’on ignore (France Stratégie : note d’analyse juillet 2016)
Alain Lefebvre et Laurent Poulain : Cow-boys contre chemin de fer ou que savez vous vraiment de l’histoire de l’informatique (Amazon-2012-2013)

Publié dans commerce, finance, informatique, système d'information | Tagué , , , , | Laisser un commentaire

La facture

avignon 385Virtuel, vraiment ?

« L’opposition entre réel et virtuel est devenu un cliché du langage. La vie, celle que l’on éprouve de façon directe par nos cinq sens, relèverait du réel et ce que médiatise le réseau appartiendrait au virtuel. Rien n’est plus faux : une part essentielle de l’activité professionnelle, des échanges économiques , de l’éducation et même des élans affectifs a désormais lieu sur le réseau. Le chômeur qui cherche une embauche, le patron guidant son entreprise, le citoyen participant à la vie publique, l’étudiant en mal de produire un devoir, l’acheteur à la recherche d’un produit ou le séducteur en quête d’une conquête ne fuient pas vers un monde virtuel. C’est leur volonté d’agir, de conclure qui les pousse vers un réseau où l’expérience devient dense, lisible, efficiente. Dans l’action, Internet est un espace aussi concret que le monde réel. » (Fogel, Patino)
« La troisième grande erreur de bien des politiques économiques est de considérer le numérique comme une filière et de le traiter comme tel. On parle de « filière numérique » comme on parle de « filière agricole ». …C’est oublier que l’essentiel de la création de valeurs et d’emplois proviendra de la puissance transformatrice de ces technologies dans les autres filières, de l’irruption de cette économie de la multitude dans d’innombrables secteurs cloisonnés, verrouillés et aujourd’hui trop tranquilles. » (Colin, Verdier)
Le système d’information a généré une vaste littérature, écrite par des philosophes, des romanciers, des sociologues, des économistes, des journalistes… Ces auteurs voient souvent le système d’information au travers l’usage qu’ils en ont. Littérateurs et journalistes s’interrogent sur le remplacement du livre et du journal par le Web et les réseaux sociaux. Economistes et autres spécialistes des sciences humaines sont fascinés par l’arrivée des Big Datas qui remplacent recensements, sondages et enquêtes de terrain.
Mais comme le disent les auteurs cités ci-dessus, la première fonction du système d’information est d’accompagner l’activité économique et sociale. Ceci est vrai qu’il s’agisse du système d’information classique ou du numérique. L’imprimerie a permis le développement du livre mais aussi des affiches, des tracs, des livres de comptes, des formulaires à remplir, du papier à en tète, etc. L’imprimerie de labeur a toujours pesé lourd dans l’activité de cette honorable profession. Dans un système d’information, la littérature est une distraction ou un entrainement (lire un roman d’amour, c’est un moyen de se préparer à l’amour), l’essentiel est d’accompagner et d’organiser les échanges.

La facture, objet roi du système d’information

C’est pourquoi sans doute aucun objet d’information n’est répandu comme la facture, et ses cousins proches, la facturette, le bulletin de salaire, la quittance de loyer, l’avis d’imposition. Si certains ne lisent pas de livres et n’ouvrent pas le journal, tout le monde reçoit des factures, est obligé de les lire, de les garder, de les classer.
Et comme la facture est l’objet d’information le plus répandu, c’est la facture qui définit la norme que doit respecter le système d’information.
Elle impose surtout de respecter deux principes forts : l’identification et la traçabilité.
Identification
Le contenu d’une facture peut se résumer à la formule suivante : « Qui a donné quoi à qui en échange de quoi à quelle date et où ».
Quoi ? Quel est le produit échangé, s’agit-il d’un bien, d’un service, d’argent. Nous avons besoin de savoir ce qui a été acheté, de contrôler la livraison, d’avoir une définition claire du service livré ? Qu’entend-on par donner ? Un don définitif (transfert de propriété), provisoire (prêt, location) ?
Qui donne à qui ? Quel est son nom, son adresse, son identifiant. Nous avons besoin de savoir qui donne pour pouvoir éventuellement réclamer s’il y a un problème. Et bien sur nous souhaitons que les livraisons arrivent au bon endroit. Plus nos sociétés sont complexes, plus nous avons besoin d’un identifiant univoque des personnes. L’Inde, qui n’avait pas cela, a lancé depuis 2010, un projet d’identification unique de l’ensemble des citoyens. Ce projet Aadhaar (« socle » en Indi) permettra aux programmes sociaux de fonctionner, de savoir à qui les aides sont versées. Il évitera les oublis comme les doubles paiements. Dans les sociétés occidentales tout cela est fait depuis longtemps, et nous avons du mal à nous rappeler à quel point une identification univoque est nécessaire pour les remboursements de la sécurité sociale ou le paiement des retraites, ou tout type de prestation ou de prélèvement par les pouvoirs publics.
Il existe bien des économies sans identification ni facture. Economie grise, travail au noir, marché noir, tout cela a un parfum de délinquance, entre Mafia et Camorra. L’identification est la preuve que nous participons à la société.
Traçabilité
Une fois une facture émise il faut la garder. D’abord pour montrer que le produit donné nous appartient ou que nous avons de droit de l’utiliser, que nous ne l’avons pas volé, ensuite pour faire valoir nos droits, à garantie en cas de défaut, à retraite, à remboursement, au bon de fidélité…
Et puis, tout simplement parce la loi nous y oblige. Les factures doivent être gardée 10 ans pour les entreprises commerciales, 3 ans pour les particuliers (en cas de contrôle fiscal), les bulletins de salaires doivent être gardés jusqu’à la retraite et au delà, etc. Ces durées sont proches de l’éternité pour un système d’information, qu’il soit classique ou numérique. Une fois le document classé, il est plus facile de le garder, que de le retrouver et le trier pour pouvoir le jeter.
Il en est de même de tout système d’information. Et le numérique a de ce point de vue une grande efficacité. Nos ancêtres ne nous ont souvent laissés que quelques tessons de poterie que retournent les archéologues, ou des photos jaunies de personnages dont nous ignorons l’identité. Nous laisserons à nos descendants des millions de documents sur la Toile (heureusement le coût de la mémoire électronique est en baisse constante).
Il peut paraître curieux de penser que cette traçabilité s’applique aussi à nos mails ou aux facéties que nous mettons sur FaceBook. C’est oublier que l’un comme l’autre peuvent servir à des usages commerciaux. De plus en plus, les commerçants même traditionnels se servent de la messagerie pour nous adresser les factures. Facebook propose des options permettant de vendre et faire du commerce. Et de toute manière, faire la différence entre activités économiques et le reste est souvent difficile. Cette photo de la famille autour de la tante Germaine postée sur Facebook pourra servir à montrer que le vase Ming hors de prix était bien sur le dessus de la cheminée et qu’il a été dissimulé lors de la succession.

Le devoir de mémoire

La traçabilité et la capacité d’identification que permet le numérique nous ont fait franchir un pas exceptionnel. Cela commence à faire peur. Certains parlent de droit à l’oubli, de droit de retrait, de protection des droits individuels. Ils craignent l’arrivée de Big Brother, l’emprise que donnerait sur nous cette capacité exceptionnelle de garder trace de nos actes.
Mais, comme le dit Platon dans Phèdre, l’écriture est un remède pour la mémoire. C’est sa première fonction. Tout système d’information est une écriture, et effectivement il est d’abord fait pour garder trace de ce qui s’est passé, de nos droits et de nos devoirs.
Dans son ouvrage «L’an Mil», Georges Duby nous rappellent le rôle essentiel des documents à la fois au moment de leur production, et pour les générations suivantes. Il parle ici de chartes du moyen-âge que les hasards de la conservation des archives ont permis de conserver.
« Certes, hormis les gens d’Église, personne en ce temps ne savait lire. Mais dans les assemblées où les monastères et les évêchés venaient plaider contre les usurpateurs de leurs possession, les chefs de bandes et leurs cavaliers n’osaient pas mépriser trop ouvertement des parchemins, que leurs yeux pouvaient voir ici et là marqués du signe de la croix, et où les hommes capables de les défricher trouvaient la mémoire précise des transactions anciennes et le nom des hommes qui en avaient été les témoins. »… « Ces écrits procurent des témoignages irremplaçables. Sans eux, on ne saurait presque rien des conditions économiques, sociales et juridiques ; ils permettent d’entrevoir comment s’établissait la hiérarchie des statuts personnels, comment se nouaient les liens de la vassalité, comment évoluaient les patrimoines, et ils jettent de rares lueurs sur l’exploitation des grandes fortunes foncières.  Mais les documents de ce type ne sont utiles que s’ils sont denses. C’est seulement en rassemblant en gerbe les indications laconiques que chacun d’eux contient que l’on peut,.. tenter de s’en servir pour reconstituer, non sans hésitations, et non sans d’énormes lacunes, le réseau des relations humaines. »
Le système d’information nous fait échapper à la barbarie, aux rapports basés sur la force, faute d’avoir garder la mémoire des engagements. Il structure nos rapports sociaux, et la conservation de la moindre facture, du moindre document, nous permet de nous souvenir des liens qui se sont noués, de l’organisation sociale dans laquelle nous vivons.

Bibliographie

Georges Duby : L’An Mil (paru en 1974 et réédité dans le volume Féodalité, Collection Quarto, Gallimard ; 1996)
Jean-François Fogel et Bruno Patino : La condition numérique (Grasset-2013)
Dominique Cardon : A quoi rêvent les algorithmes-Nos vies à l’heure des big data (Seuil-2015)
Nicolas Colin, Henri Verdier : L’âge de la multitude : entreprendre et gouverner après la révolution numérique (Armand Colin-2015)

Publié dans écriture, commerce, système d'information | Tagué , | Laisser un commentaire

Vers un nouveau Fordisme ?

cimetièreLa fin de la loi de Moore

Depuis l’invention du transistor, le système d’information numérique est basé sur l’usage des matériaux semi-conducteurs et particulièrement du silicium. La maitrise technologique n’a cessé de croitre, selon ce qui est appelée la loi de Moore. La puissance des micro-processeurs augmente par la miniaturisation des transistors et des circuits imprimés. Aujourd’hui, un transistor est dix fois plus petit que le virus de la grippe, la finesse de gravure des circuits approche la taille des molécules de matière.
Début 2016, un article du magazine Nature a posé la question de la fin de la loi de Moore. Les spécialistes estiment qu’à partir de 2020, la taille des circuits et des transistors rendra incertain le mouvement des électrons du fait des lois de la physique quantique.
Mais l’article de Nature montre que la loi de Moore pose déjà des problèmes techniques et économiques.

Changer de modèle technique ?

Jusqu’au début des années 2000, la miniaturisation des composants et des circuits s’accompagnait d’une augmentation de la fréquence d’horloge du processeur. La fréquence d’horloge cadence le rythme auquel le processeur lit le programme, et donc est un facteur essentiel de sa puissance de calcul.
A partir du début du millénaire, la miniaturisation posa des problèmes d’échauffement. Plus la vitesse est grande, plus le processeur s’échauffe. A partir de 2004, la vitesse d’horloge des microprocesseurs cessa d’augmenter, et elle est stable depuis. La loi de Moore a donc connu un premier coup d’arrêt. Les fabricants contournèrent le problème en divisant le processeur en plusieurs cœurs. Un micro-processeur avec quatre cœurs tournant à 250Mhz de vitesse d’horloge a théoriquement la même puissance qu’un processeur ayant un seul coeur tournant à 1 GHz. Mais cela reporte la difficulté sur les programmeurs. Chaque programme doit être divisé en plusieurs sous-programmes traités parallèlement par les différents cœurs. Outre la difficulté technique nouvelle, dans certains cas l’algorithme ne se prête pas à ce découpage.
Et ceci ne donne qu’un petit aperçu de la perplexité devant laquelle se trouvent les techniciens. On parle d’ordinateurs quantiques, d’ordinateurs neuronaux (imitant la structure du cerveau), du remplacement de la matière utilisée (remplacement du silicium par du carbone, par des protéines vivantes), du changement d’architecture (processeurs multicouches, dispositifs mélangeant processeurs et mémoires). Outre que beaucoup de ces solutions ne sont pas sorties des laboratoires, elles se heurtent à deux difficultés majeures. D’une part, aucune ne remplace totalement les outils antérieurs. Par exemple l’ordinateur quantique malgré les espoirs mis par certains ne semble pas capable de remplacer tous les usages de l’ordinateur actuel (il sera difficile à expliquer à des financiers que 0 et 1 puissent avoir la même valeur). D’autre part, les solutions nouvelles peuvent imposer de jeter à la poubelle les machines et programmes qui s’appuient sur les bases précédentes. Une perte d’actifs qui peut sembler insupportable aux financeurs de la recherche.

Changer de modèle économique

La loi de Moore affronte une deuxième difficulté.
Pendant des années l’industrie des semi-conducteurs a produits des micro-processeurs destinés à des besoins presque identiques. Qu’il s’agisse d’ordinateurs portables ou de super-computers, Il y avait plus ou moins de micro-processeurs dans la machine mais les composants étaient les mêmes, et permettaient de tirer de très longues séries.
Ceci change. Les calculs des algorithmes tendent à se concentrer dans les fermes de serveurs qu’on appelle le Cloud. Pour eux, la question de la réduction de la taille et de l’augmentation du nombre de transistors est assez subalterne.
A coté, se développent les smartphones et les tablettes pour lesquels la puissance de calcul devient un problème parmi d’autres. Ces appareils doivent être capable de communiquer vocalement, par Wifi, Bluetooth… en même temps ils doivent résister aux chocs, à la chaleur, aux ondes magnétiques…enfin, comme ces appareils sont destinés à être de plus en plus petits et fins, la limitation de la température de ces appareils continue à être un enjeu majeur (comme vient de le rappeler l’aventure du Galaxy 8 de Samsung).
Enfin il y a l’internet des objets, des véhicules connectés aux dispositifs intégrés dans le corps humain qui posent encore d’autres problèmes.
Il devient difficile de maintenir une feuille de route commune concernant la recherche et le développement quand les problématiques divergent autant. Il devient encore plus compliqué de produire de longues séries de micro-processeurs permettant d’amortir les investissements réalisés. Chaque problématique impose son type de puce électronique, son équipe de conception et sa chaine de production spécifique.
Dans ces conditions, deux effets apparaissent, d’un part l’industrie essaie de réduire le coût unitaire de conception et d’industrialisation de chaque type de puce créée, et peu importe si on cesse de respecter la loi de Moore ; d’autre part le nombre d’acteurs capables de supporter ces coûts se réduit drastiquement. Il reste Intel, Samsung, Taiwan Semi-conductors, et ensuite les autres sont irrésistiblement décrochés dans la course à la puissance, et ne survivront sans doute qu’en se spécialisant.
« Les coûts, sans surprise, sont dans la tête des producteurs de puces aujourd’hui. La fin de la loi de Moore n’est pas un problème technique c’est un problème économique. …Certaines entreprises en particulier Intel, continuent essayer de réduire la taille des composants avant de se cogner au mur des lois quantiques, mais plus nous réduisons, plus cela coûte”

Est-ce grave ?

Une technologie arrive toujours à maturité un jour. L’automobile vit depuis quasiment le début du XXs. sur les moteurs à piston, diesel ou à explosion. Les tentatives de technologies alternatives (moteurs rotatifs, turbines, moteur à piston libre) ont toutes échouées, et seule la contrainte climatique permet d’espérer le remplacement par le moteur électrique. L’aéronautique commerciale ne fait pas voler d’avions plus rapides que dans les années 60, et le supersonique a été une impasse.
La fin du progrès technique ne signifie pas que tous les usages d’une technologie sont traités. A la fin du XXème siècle, l’automobile n’a pas encore remplacé partout la traction hippomobile (la bonne vieille carriole à cheval). De même, le transport aérien de passager n’a pas cessé de croitre depuis les années 60 et de diversifier son offre.
La fin de la loi de Moore ne signifierait pas la fin de la croissance des usages du numérique. Il y a encore des milliers de lignes de codes à écrire, d’usages à inventer, de processus de fabrication ou d’échanges à revoir pour automatiser une partie des taches.
Mais cela signifie que les coûts de la recherche fondamentale ainsi que ceux de l’industrialisation du numérique risquent d’exploser.

Vers un nouveau Fordisme

Les investisseurs et les gouvernants sont confrontés à un dilemme nouveau. L’économiste spécialiste de stratégie industrielle Michael Porter avait rappelé à la fin des années 70 que l’objectif d’un capitaliste n’était pas la croissance du chiffre d’affaires mais l’augmentation de la marge sur le capital investi. Peu importe si l’activité n’augmentait pas, pour peu que le profit sur chaque produit vendu augmente.
Et la loi de Moore fit du numérique l’eldorado des capitalistes reaganiens. Par la magie de l’évolution technique, l’augmentation des marges accompagnait la croissance du chiffre d’affaires,
Il est sans doute trop tôt pour affirmer la fin de la loi de Moore. Mais elle finira par arriver.
Or, la course à la recherche et l’augmentation des coûts d’industrialisation risque d’aboutir à une impasse. La croissance des investissements pour franchir de nouveaux paliers technologiques se traduira par une baisse des marges. Le numérique pourrait faire la démonstration de la fameuse loi de régression du rendement du capital affirmée par Marx.
Le capitalisme était arrivé à une situation équivalente au début du XX siècle. Au début des années 20, les technologies des moteurs à combustion sont matures, toute augmentation de la fiabilité et du rendement passe par des investissements considérables. Henri Ford fait un double choix : tirer les prix en allongeant les séries, améliorer la rémunération de ses ouvriers pour avoir plus de consommateurs. Ce faisant, Ford réduisit le rendement de son capital mais augmenta son profit par la croissance du chiffre d’affaires. Il enclencha une politique distributive qui fonctionna jusqu’aux années 70.
Quelque part la situation a quelques analogies. L’industrie du silicium a atteint un niveau de maturité. Elle est loin d’avoir donné tous ses effets.
Pour augmenter la pénétration du numérique, il n’y a pas nécessairement besoin de développer des technologies nouvelles, mais surtout d’adapter leur usage et leur acceptation. Et aussi bien économiquement que socialement et politiquement, redistribuer autrement le rapport entre capital et travail apparaît comme une nécessité.

Bibliographie

Mitchell Waldrop : The chips are down for Moore’s law (http://www.nature.com/news/the-chips-are-down-for-moore-s-law-1.19338)
Thomas Piketty : « Le choc Sanders » (LE MONDE | 13.02.2016 à 07h38 • Mis à jour le 15.02.2016 à 09h31)

Publié dans developpement, gouverner, système d'information | Tagué , , | Laisser un commentaire

Financement de l’horloge

OLYMPUS DIGITAL CAMERATout le monde sait que le numérique est basée sur une logique binaire, oui/non, 0/1, ouvert/fermé. Cette logique est pilotée par des contacteurs qui ouvrent ou ferment un circuit électrique. Claude Shannon a démontré qu’il était possible de construire des circuits logiques pilotés par ces contacteurs. Plus la vitesse de réaction de ces contacteurs est grande, plus le code s’exécute rapidement.
L’histoire du système d’information jusqu’à aujourd’hui est celle d’une accélération constante de la vitesse d’exécution du code, et de l’afflux constant de capitaux pour financer ces développements.

Des relais au microprocesseur

Les relais avec lesquels travaille Shannon quand il écrit sa thèse étaient des dispositifs électromécaniques, développés pour permettre d’orienter des circuits téléphoniques. Un aimant pilote des pièces métalliques dont le contact permet l’ouverture et la fermeture physique du circuit. Le mouvement générait un délai qui ralentissait les calculs.
Lors de la fabrication du premier ordinateur, l’ENIAC, les ingénieurs passèrent à un dispositif statique, avec les lampes à vide. Un filament est chauffé comme dans une lampe à incandescence et génère des électrons, qui sont attirés par une plaque, et met ainsi en place un circuit fermé.
Plus fiables, plus rapides ces dispositifs sont la base des premiers ordinateurs. Mais ils avaient l’inconvénient d’être gros et chers.
Un pas supplémentaire est franchi avec le transistor. Il est inventé en 1947 dans les laboratoires Bell, le service de recherche du premier opérateur téléphonique. Il utilise l’injection d’un champ électrique dans une matière semi-conductrice (aujourd’hui, le semi-conducteur est le plus souvent du silicium). Il demande des tensions plus faibles que les lampes à vides, d’où un moindre échauffement, une plus grande rapidité de fonctionnement, une plus faible consommation et une miniaturisation de la pièce.
Le transistor reste aujourd’hui encore le composant de base du numérique.
La phase suivante fut l’optimisation des circuits électroniques réalisés en connectant entre eux les transistors. Un certain nombre d’équipes travaillèrent sur ce sujet et inventèrent le circuit intégré, c’est-à-dire des circuits assemblant un ensemble de transistors sur une même couche de matière semi-conductrice. L’invention, arrivée à la fin des années 50 permit une baisse significative des coûts et il devint possible de mettre de plus en plus de transistors sur une plaque.
Les premiers circuits intégrés étaient fabriqués en fonction des besoins des utilisateurs et reliés entre eux. Confronté à un problème particulièrement complexe posé par la société japonaise Biscome, Intel fabriqua un composant standard, intégrant un maximum de circuits logiques, répondant à tous les besoins du client et potentiellement réutilisable pour d’autres utilisateurs. Le microprocesseur était né. La standardisation ainsi générée permis un abaissement massif des coûts.

La loi de Moore

Dans un article parut dès avril 1965, Gordon Moore, un des dirigeant d’Intel, écrivit « la complexité pour un coût minimal des composants a augmenté jusqu’ici environ d’un facteur deux chaque année. Il n’y a pas de raison de croire que cela ne demeurera pas relativement constant pour au moins les dix prochaines années »
C’était la première formulation de la loi de Moore. Dix ans plus tard, Moore lui même affirma que la progression ne serait plus qu’un doublement tout les deux ans. En tout état de cause l’industrie du numérique put tabler sur une progression exponentielle de ce qui était le moteur des calculs L’application de la loi de Moore permis une augmentation extraordinaire du nombre de transistors. Ils étaient 2400 sur le premier microprocesseur de d’Intel, ils sont entre 1,5 et 2 milliards sur les dernières générations.

Feuille de route et financement de la recherche

Dans les premières années, la simple pression du marché suffit pour que les fabricants de puce suivent la loi de Moore. C’était le début de l’informatique personnelle. Les clients demandaient des ordinateurs toujours plus puissants et les constructeurs se précipitaient pour y répondre. Mais à partir d’un certain point cela ne suffit plus. Augmenter le nombre de transistors signifiait réduire leur taille, affiner la gravure des circuits les reliant. Le processus de fabrication se complexifiait chaque fois que la taille des composants diminuait. Il fallait plusieurs dizaines d’opérations pour réaliser un microprocesseur, et à chaque nouvelle étape, il fallait changer toute la chaine de fabrication. Il devint évident à un moment qu’une coordination étroite était nécessaire entre fabricants de micro-processeurs, constructeurs de machines, et fournisseurs de matière, pour continuer. L’industrie du microprocesseur nord-américaine s’organisa. La « Semiconductor Industry Association » groupement incluant des industriels aussi important que Intel, AMD, ou IBM publia à partir de 1991 une feuille de route (roadmap) qui coordonnait les efforts des industriels et universitaires pour suivre la loi de Moore. Elle devint en 1998 l’ « International Technology Roadmap for Semiconductors », une feuille de route pour l’industrie mondiale.
Tout cela nécessitait de plus en plus de capitaux pour financer la recherche et la construction de nouvelles chaines de fabrication.
Intel était une entreprise particulièrement innovante. Elle inventa le micro-processeurs, fut l’une des première entreprises à s’implanter dans ce qui allait devenir la Silicon Valley, inaugura un nouveau style de gestion (chemises à carreaux, bureaux paysagers, faible hiérarchie), elle fut aussi l’une des premières société fondées avec l’aide d’une société de capital-risque. Le concept de capital-risque existait déjà sur la cote Est depuis quelques années, le banquier Arthur Rock l’exporta sur la cote Ouest et fonda une société dont l’un des premiers objets fut d’apporter des capitaux à Intel.
Mais l’afflux de capitaux fut amplifié par le Reaganisme.
Au début des années 80 l’Amérique est confronté à un défi sans précédent. La défaite au Viet Nam, l’expédition malheureuse des soldats en Iran, la montée en puissance de l’industrie japonaise font craindre la perte de l’hégémonie mondiale des Etats-Unis.
Le New Deal de Roosevelt était considérée comme l’une des causes de cet affaiblissement. La politique distributive de l’Etat fédéral avait réduit les profits du capital.
Reagan et ses successeurs, républicains ou démocrates, menèrent alors une politique massive de transfert des profits vers le capital. « Le point d’orgue est la réforme fiscale de 1986, qui met fin à un demi-siècle de forte progressivité fiscale et abaisse à 28 % le taux applicable aux plus hauts revenus. » (Piketty)
Cette manne financière permit de d’accroitre le revenu des plus grandes fortunes, alors que le revenu des classes moyennes et des cols bleus stagnait voire régressait. Mais cela donna aux plus riches le courage d’utiliser une partie de leur argent pour financer du capital-risque.
L’aventure technique du numérique c’est aussi une accumulation de capital mis à profit pour financer l’industrie et la recherche, au détriment des consommateurs.

Bibliographie

Walter Isaacson : Les innovateurs (JCLattès ; 2015)
Alain Lefebvre et Laurent Poulain : Cow-boys contre chemin de fer ou que savez-vous vraiment de l’histoire de l‘informatique ? (Talking Heads-2013)
Mitchell Waldrop : The chips are down for Moore’s law (http://www.nature.com/news/the-chips-are-down-for-moore-s-law-1.19338)
Thomas Piketty : « Le choc Sanders » (LE MONDE | 13.02.2016 à 07h38 • Mis à jour le 15.02.2016 à 09h31)

Publié dans écriture, informatique, système d'information | Tagué , , , , | Laisser un commentaire

Bonacci

saint trophime« Et le roi dit à Joab, qui était chef de l’armée et qui se trouvait près de lui : Parcours toutes les tribus d’Israël, depuis Dan jusqu’à Beer Schéba; qu’on fasse le dénombrement du peuple, et que je sache à combien il s’élève. Joab dit au roi: Que l’Éternel, ton Dieu, rende le peuple cent fois plus nombreux, et que les yeux du roi mon seigneur le voient! …Joab remit au roi le rôle du dénombrement du peuple: il y avait en Israël huit cent mille hommes de guerre tirant l’épée, et en Juda cinq cent mille hommes. David sentit battre son coeur, après qu’il eut ainsi fait le dénombrement du peuple. Et il dit à l’Éternel : J’ai commis un grand péché en faisant cela. »

2 SAMUEL 24

Bonacci est moins connu que Gutenberg. Pourtant sa place est aussi importante dans la révolution que connaît le système d’information européen à l’aube des Temps Modernes.

Venus de l’Orient lointain

Né vers 1175, Léonard Bonacci, Dit Léonard de Pise, dit aussi Fibonacci, est le fils d’un marchand de Pise Gugliemo Bonacci. Il vit avec son père en Algérie, puis voyage en Egypte et en Syrie, pour affaires et pour sa formation.
En 1202, il publie le livre des calculs « Liber abaci ». C’est un traité sur les calculs et la comptabilité fondée sur l’utilisation des chiffres indo-arabes .
Ceux-ci sont connus en Occident depuis au moins le Xème siècle, mais ils ne parviennent pas à s’implanter. Refus d’une méthode venue de l’ennemi (la période est celle des croisades), défense d’un ancien système par une caste qui est la seule à maîtriser, peur d’un outil qui semble presque magique ? « Ainsi certaines autorités ecclésiastiques firent-elles courir le bruit que pour être si facile, si ingénieux, le calcul à la manière arabe devait surement avoir quelque chose de magique, voire de démoniaque ; il ne pouvait provenir que du diable lui même.
De là à envoyer des algoristes trop zélés au même bucher que les sorcières et les hérétiques, il n’y eut qu’un pas que certains inquisiteurs ne manquèrent pas de franchir par endroits »(Georges Ifrah)
Car les tenants de la nouvelle méthode étaient appelés les « algoristes », du nom de Al-Khwarizm, mathématicien persan qui avait joué également un rôle dans la diffusion de la nouvelle méthode.
En quoi consiste-t-elle ?
Jusque là, les européens comptent avec des abaques (autrement dit des bouliers et des systèmes de jetons). Les chiffres arabes sont basés sur trois idées simples:

  • L’utilisation d’un signe pour chaque chiffre de la dizaine,
  • L’utilisation de la position du chiffre dans le nombre : de droite à gauche, d’abord le chiffre des unités, puis le chiffre des dizaines, puis celui des centaines, et ainsi de suite,
  • L’ajout du zéro, il vient du sanscrit Shunya (« vide ») ; il est placé dans la colonne correspondante lorsqu’il n’y a pas d’unité, de dizaine, de centaine…

La combinaison du zéro et de l’ordre positionnel permet de compter jusqu’à l’infini avec 10 signes seulement et donc de disposer d’un système de notation simple pour faire tout type d’opérations. A partir de là il est possible poser une opération, addition, soustraction, multiplication ou division et calculer directement le résultat avec du papier et un crayon.
De plus, l’utilisation des logogrammes permet d’échappe à la langue. Les commerçants de tous les pays peuvent se comprendre et échanger sans même savoir parler entre eux.
Le livre des calculs de Bonacci complète en montrant comment calculer le profit des transactions, convertir les monnaies des différents pays entre elles.

Comptabiliser

Car le premier usage de la nouvelle méthode va être la gestion des échanges et la comptabilité. L’imprimerie qui arrive en Europe au XV siècle se combine avec les chiffres indo-arabes. Elle permet de faire du papier ligné, et donc des livres de comptes, elle permet aussi de créer et de répandre toutes sortes de tables de logarithme.
En 1494 Fra Luca Pacioli formalise la comptabilité en partie double dans sa summa de arythmetica, geométrica, proportioni e proportionalita éditée à Venise. Enregistrement systématique de toutes les opérations financières dans un mémorial (ou journal brouillard), définition des notions de débit (je dois) et crédit (j’ai), de recettes et de charges. Jusque là, la comptabilité en partie simple permet d’avoir une situation de la trésorerie et de savoir ce qu’il y a dans la caisse. La comptabilité en partie double permet de mesurer le chiffre d’affaires, les charges. Elle permet de connaître la valeur du patrimoine, et des dettes. Toute la finance moderne est en germe dans le système de Pacioli.
La mathématisation de la société est en route : « Combien ça vaut ? », « combien tu gagnes ? », « combien tu as ? » « T’as pas cent balles ? ». Les écritures comptables remplacent les Saintes Ecritures pour évaluer notre rapport aux autres. Cette façon de voir peut paraître intéressée, mais elle est un progrès par rapport à la situation antérieure.
La société médiévale était une société de castes, classant les hommes en fonction de l’ordre auquel ils appartenaient, les nobles, le clergé, les travailleurs, les esclaves, etc… Et tout pouvoir venait de Dieu. Le classement par la fortune suppose d’accepter que tous les hommes soient les mêmes, classés seulement par des écarts de fortune.
Il est aussi possible de dénombrer les hommes, et la puissance du souverain se mesure par le nombre de ses sujets. Les hommes échappe à la malédiction de David (voir l’extrait du deuxième livre de Samuel) et Machiavel démontre que le pouvoir du Prince est fonction de la multitude qu’il domine.
Désormais, jusqu’au numérique, le nombre va gouverner la société.

Bibliographie

Bible Segond (en ligne)
Georges Ifrah : Histoire universelle des chiffres (Robert Laffont ; 1994)
Olivier Rey : Quand le monde s’est fait nombre (Stock ; 2016)
Clarisse Herrenschmidt : Les trois écritures : Langue, nombre, code (Gallimard-2010)

Publié dans système d'information | Laisser un commentaire