Architectures piranésiennes

Le cycle en V est un marronnier de la formation aux projets et aux technologies de l’information. Il existe d’autres modèles mais celui-ci s’est imposé. Il semble difficile de dire quelque chose de neuf sur le sujet, mais en même temps, il est difficile d’y échapper si l’on veut faire comprendre comment travaillent des concepteurs-développeurs.

Les quatre étages d’un système numérique

Un système d’information numérique est toujours une construction à quatre étages.
Au rez-de-chaussée se trouvent les machines. C’est la partie la plus spectaculaire du système d’information. Elle est essentiellement composée de transistors qui ouvrent ou ferment l’arrivée du courant électrique, et de câbles dans lequel celui-ci passe. A ce stade l’information se réduit à des bits, des signaux oui/non, 1/0. L’assemblage des transistors et des câbles est devenu d’une extrême complexité. Nous sommes loin du temps de l’ordinateur machine universelle, avec une CPU, une mémoire, des périphériques d’entrée-sortie. Il y a des cartes graphiques, des tablettes, des smartphones, des périphériques dotés de capteurs, d’intelligence. Ces périphériques peuvent être imprimantes, écrans, modem, et maintenant, voitures, machines-outils, outils de surveillance, scanners médicaux… Seuls des spécialistes hautement qualifiés sont capables de se retrouver dans ce labyrinthe.
L’étage au-dessus est celui du code. Il est le plus spécifique au monde du numérique. Il est lui-même fait de multiples morceaux. Des codes qui transforment du texte presque normal en langage machine, le code qui surveille le fonctionnement de la machine, le code qui contient l’algorithme de ce que l’on veut faire avec la machine, le code qui permet de dialoguer avec d’autres machines (par exemple le logiciel pilote qui permet de lancer l’imprimante). Chacun de ces codes a son langage, ses spécificités. Là aussi il faudra des spécialistes pointus pour comprendre ce monde à part.
L’étage suivant est celui des opérateurs, qui vont utiliser ce système. Il est tellement familier qu’on l’oublie parfois. Il y a toujours eu des comptables, agents de banque, des caissières au supermarché, etc. Il faut bien comprendre la répartition des rôles entre les différents opérateurs, quel est le processus opérationnel dans lequel ils s’insèrent. Pour chacun, il faut analyser quelles sont les taches qu’ils exécutent, quelles sont celles que la machine exécutera à leur place, et celles où leur présence restera indispensable. Généralement ils saisissent des données d’entrées et ils utilisent les données sorties par le système. Il faut comprendre d’où viennent les données d’entrées, comment ils les connaissent, quelles erreurs ils peuvent faire dans la saisie pour aider à les corriger. Il faut aussi s’assurer qu’ils seront capables d’utiliser le nouveau système, de le comprendre et de l’accepter. C’est l’ensemble de cette analyse qui permettra de définir l’algorithme qui devra être transcrit dans le code. Là aussi vous avez besoin de gens compétents, capables de décrypter l’organisation sociale, les relations entre les hommes.
Le dernier étage est celui des métiers. Il est celui du milieu dans lequel interviennent les opérateurs. Ceux-ci sont pris dans des contraintes géographiques, des règles métiers, un encadrement légal auxquels ils ne peuvent déroger. Toutes ces règles impacteront l’algorithme mais aussi la manière dont il sera réalisé. Il faudra aussi s’entourer de professionnels, juristes, comptables, scientifiques différents selon le processus que vous souhaitez créer ou modifier.

Par où commencer l’immeuble ?

On a donc quatre étages qui ont deux caractéristiques : ils interagissent constamment entre eux ; chaque étage est maitrisé par des professionnels pointus. Personne n’est réellement compétent sur l’ensemble de l’immeuble. Bien sur les concepteurs-développeurs ont une connaissance globale de l’architecture de la bâtisse. Bien sûr des formations assurent un minimum de transversalité des compétences. Mais chacun sait qu’il ne maîtrise qu’imparfaitement l’ensemble, qu’il doit s’appuyer sur les autres pour fabriquer un système cohérent et opérationnel.
La question qui suit est de savoir par où commencer. Il faut certes d’abord recruter les spécialistes nécessaires des quatre étages, en fonction du métier impacté, du processus touché, du code et des machines à fabriquer ou à approvisionner. Ils constitueront Mais ensuite ? C’est là qu’intervient le cycle en V. Les règles canoniques de la conduite de projet disent qu’il faut partir du dernier étage pour descendre lentement.
Le Maitre d’ouvrage du métier définit le cahier des charges du projet, les règles qu’il devra respecter, les objectifs, le produit qui doit sortir de l’algorithme. Le concepteur écrira ensuite une spécification fonctionnelle qui décrit le processus mis en œuvre et l’algorithme qui l’accompagne. Le développeur rédige le code qui transcrit l’algorithme. L’architecte technique approvisionne les machines et les connecte entre elles.
Ensuite le travail consiste à remonter la pente en testant ce qui a été fait. Le développeur teste ce qu’il a rédigé pour s’assurer qu’il n’a pas fait d’erreur de syntaxe ou d’orthographe, que la machine ne peut interpréter. Le concepteur vérifie que ses spécifications ont été respectées avec l’aide d’utilisateurs témoins (key-users). Le maitre d’ouvrage effectue la recette par rapport à son cahier des charges.
Ainsi le cycle en V donne un guide, une règle de conduite qui permet de se retrouver dans le monde piranésien du système d’information. Il prend de multiples formes, depuis le micro-projet qui permettra une progression limitée mais qui s’enchainera avec d’autres micro-projets, jusqu’au projet géant, impliquant des centaines de personnes, qui provoquera un chamboule-tout, la disruption si à la mode.

Charybde ou Scylla

Dans tous les cas, il y a deux écueils à éviter.
Le premier est de croire que l’ordre de réalisation du projet est un ordre hiérarchique. Ce n’est pas parce qu’un maître d’ouvrage vous a donné un cahier des charges détaillé qu’il a une vue complète des impacts sociaux, des possibilités des machines et du code. A tous les niveaux du système, se rencontrent des amateurs du Yakafocon et du caporalisme obtus. Il faut résister, adopter la position du doute méthodologique permanent, et l’écoute des spécialistes. La collaboration est le maître mot. Sinon le système que vous créerez sera inefficace ou inadapté.
Le second écueil est la procrastination. Chacun des étages connait sa vie propre. Il sort toujours des versions nouvelles de machines et de logiciel, les compétences des opérateurs ne cessent d’évoluer, les lois et le contexte économique aussi. La tentation est grande de tout reprendre pour se mettre au gout du jour. Le projet entre alors dans le cycle dit « en escargot », où le cahier des charges est constamment repris, où l’on repart dans un cycle systématiquement de développements et de tests ? Il y a des amateurs de ce remake du « Jour sans fin », mais généralement ils ne sont pas aimés des financiers.

Publié dans système d'information | Laisser un commentaire

Qui est responsable ?

justice (2)Justice assistée par ordinateur

Une récente émission sur France Culture parlait de justice assistée par ordinateur.
De quoi s’agit-il ? Les décisions de justice sont habituellement publiques, et facilement consultables par n’importe qui. Elles contiennent les motifs de la décision et la sentence prononcée par le juge. Les outils de l’Intelligence Artificielle permettent d’envisager en faire une analyse. Ils peuvent lire le contenu des arrêts, discriminer les motifs et les sentences, faire une topologie des motifs, comparer avec les lois et réglementations en vigueur, et proposer pour chaque nouvelle affaire une sentence probable.
Un tel travail est-il justifié ? La justice est lente, et une partie de ses retards est due au travail documentaire préalable que juges, avocats, assistants doivent faire pour préparer les décisions de justice. Exécuter ce travail avec des machines accélére le processus et en améliore la qualité. Les machines pourront analyser plus de cas que n’importe quel documentaliste en beaucoup moins de temps. Les prévenus en maison d’arrêt apprécieront que leur jugement soit plus vite rendu.
Mais n’y a-t-il pas un risque au fait que la justice soit rendue par des machines ? Aujourd’hui ces travaux sont présentés comme une simple assistance, le juge restant décisionnaire en dernier ressort. Mais que se passe-t-il si le juge est paresseux, ou débordé par le flot d’affaires. Il risque d’entériner systématiquement les propositions de la machine. Et puis un jour ou l’autre il y aura un budgétaire pour trouver qu’il faut faire des économies, et laisser les machines décider (la porte a déjà été ouverte avec les radars automatiques qui contrôlent la vitesse et le respect des feux rouges).
La justice par les machines n’est plus une question de principe mais une question de temps.

Transparence et traçabilité

Comment s’assurer que la justice rendue par les machines respecte les lois et les pratiques entérinées par la jurisprudence.
L’explication que j’ai donnée en début de chronique peut sembler simple, mais les algorithmes seront complexes à définir, le code difficile à écrire et la collecte de données sera colossale, effectuée par des machines, mais avec l’assistance indispensable de Czi Manuel.
Il s’agit donc d’investissements financiers importants aujourd’hui pris en charge par des entreprises privées. Elles voudront protéger par le secret des affaires et la propriété intellectuelle, le travail qu’elles auront effectué. Redisons que s’il est normal que ce travail soit rétribué, les algorithmes, et les données qu’ils utilisent doivent être transparents, traçables et opposables. Sinon un des principes fondamental du droit serait bafoué. Un accusé doit savoir pourquoi il est condamné, connaître le raisonnement qui a conduit à la décision sur sa peine.
De plus, que ce soit par abonnements, par un paiement forfaitaire, les entreprises qui rendent ce service peuvent se faire rétribuer et n’ont pas à bénéficier de la rente apportée par la propriété intellectuelle et le secret.
Le deuxième risque est que la complexité des algorithmes les rende ingérables. Depuis longtemps, un programme n’est pas écrit de A à Z par la même équipe. Il s’appuie toujours sur des progiciels, un compilateur ou un interprétateur. Ces différentes couches, exécutées par différentes équipes, interagissent entre elles jusqu’à rendre illisible et ininterprétable le code.
Dans leur livre « Le temps des algorithmes », Serge Abiteboul et Gilles Dowek proposent de considérer l’algorithme comme un sujet de droit. L’idée n’est pas aussi loufoque qu’il le parait. Le droit a bien fait des personnes morales (sociétés, associations, Etat) des sujets de droits. Elles n’ont aucune réalité physique, ce ne sont que des créatures virtuelles issues de notre imagination collective. Pourtant, elles ont des droits, des devoirs et des sanctions possibles comme les personnes physiques.
Ceci est-il imaginable pour un algorithme ou un code. Cela parait encore compliqué. D’abord parce que l’algorithme ne choisit pas ses règles de gestion. Elles lui sont données et il ne peut véritablement y déroger. Ensuite parce qu’il ne maîtrise ni son environnement technique, ni les données qu’on y introduit. Si l’algorithme est un sujet de droit, il est pour longtemps un sujet mineur sous tutelle.

Les tutelles

L’expérience des logiciels libres a justifié l’intérêt d’une tutelle. Des fondations comme Apache permettait de faire travailler en commun une grande masse de développeurs tout en conservant des programmes efficaces, car respectant règles de gestion et de fabrication. L’expérience du Bitcoin montre aussi les limites d’un algorithme sans pilote. Sa valeur est totalement spéculative, son cours connait des variations erratiques, faute de lien avec l’économie réelle. Pour encore longtemps les algorithmes seront sous le contrôle d’entités humaines.
Et parce que l’humain peut aussi faire des erreurs, il serait intéressant de disposer d’organismes de contrôles. Comme il existe une Agence du Médicament, de l’Alimentation, ou de la Sécurité Nucléaire, il faudrait penser à une Agence de l’Algorithme et du Code. Son travail ne serait pas de protéger la propriété de nos données, mais de s’assurer que les règles de gestion introduites dans les algorithmes sont conformes aux lois en vigueur, ne posent pas de problème par rapport à la sécurité des personnes, des animaux (encore un sujet de droit récent) ou de l’environnement. Après tout, vue la place qu’ils ont pris dans notre vie, les algorithmes méritent bien la même attention que l’alimentation, les médicaments ou le nucléaire.

Du test, encore du test

Comment savoir si un logiciel respecte les lois, et ne pose pas de problème de sécurité. Bien sûr on peut faire une revue du code, lire les spécifications, pour savoir ce qu’ont voulu faire le maître d’ouvrage et le maître d’œuvre. Mais le résultat ne dépend pas que du programme, il dépend aussi des données qui sont entrées, de l’environnement technique sur lequel il tourne. Et puis les programmes actuels sont de moins en moins rationnels au sens classique du terme (un enchainement de cause et d’effet). Avec les réseaux de neurones et le deep learning, les programmes deviennent probabilistes. L’opérateur demande à la machine de faire simultanément un grand nombre d’opérations, puis celle-ci calcule la probabilité que tel résultat ou tel autre puisse arriver, pour décider celui qui est acceptable. Le fait que la machine ne soit pas capable de définir ses règles ne dit pas que nous soyons capables de prévoir le résultat de l’algorithme.
Alors la seule vrai réponse c’est le test, encore le test et toujours le test. Les concepteurs-développeurs sont comme les vieux paysans, ils ne cessent d’observer ce qui se passe pour essayer de savoir si la récolte sera bonne.

Bibliographie

Serge Abiteboul et Gilles Dowek : Le temps des algorithmes (le pommier-2017)

Publié dans big data, gouverner, intelligence artificielle, système d'information | Tagué , | Laisser un commentaire

A l’École Pratique des Hautes Études

SOCIOLOGIEJ’ai fait ma thèse avant que le numérique n’envahisse tout. Elle concernait le Moyen-Age chez les historiens de la Restauration et de la Monarchie de Juillet en France (1815 à 1848). Les plus connus, Augustin Thierry, Jules Michelet, ont consacrés des pages à cette période, mais j’ai voulu vérifier son importance par une mesure quantitative. Je recherchais la part des ouvrages consacrés au Moyen-Âge sur le nombre de livres d’Histoire publiés.
Techniquement, c’était fastidieux. A l’époque, il n’y a pas d’indexage numérique du catalogue de la Bibliothèque Nationale de France, tout doit être fait manuellement. Me voilà donc à faire des bâtonnets sur un cahier pendant des semaines.
La démarche se heurta bientôt à des problèmes méthodologiques. Ils intéressaient mon directeur de thèse, et il m’invita à les présenter dans son séminaire.

Histoire et calcul

En introduction, il expliqua aux autres élèves que la démarche répondait à un besoin du temps. Jusque là le calcul, les statistiques et les mathématiques étaient réservées soit aux sciences dures et aux techniques de l’ingénieur, soit aux matières financières et comptables. Ils ne tenaient pas tenu une grande place dans les études littéraires et sociales. L’informatique devait changer cela. L’ordinateur facilitait comme jamais le calcul et le traitement en masse de milliers de données. Désormais, il s’introduirait partout. Et cela poserait des problèmes de méthodologie nouveaux, jamais abordés, auxquels seuls les spécialistes des études sociales pourraient répondre.
Une réédition est-elle un livre nouveau, un livre en plusieurs tomes doit-il compter pour un livre ou plusieurs ? Autant de questions pratiques auxquelles je me heurtais, et dont il fallait inventer les réponses faute d’antériorité. Le numérique en entrant dans nos vies apportait une nouvelle manière de réfléchir le monde.

Nouvelles disciplines

Une des questions posées était la définition des termes de mon calcul. Le Moyen-Âge, c’était assez facile. La définition de cette période date de la Renaissance (le terme apparaît au XVe siècle). Elle était bien stabilisée à l’époque que j’étudiais.
Mais la définition du dénominateur posait problème : c’est quoi l’Histoire ? Dans le catalogue de la Bibliothèque Nationale de France (BNF), à la rubrique concernée, je trouvais la vie de Saint Louis, mais aussi des guides touristiques. Surtout la plupart des sciences sociales n’existaient pas alors. Elles allaient arriver avec l’accroissement des besoins de l’Etat. La géographie permit d’analyser la cartographie des territoires, de prolonger leur exploration. La sociologie apparut ensuite pour exploiter les recensements, ces enquêtes nationales destinées à connaître et comprendre la population française. L’ethnologie naquit pour mieux comprendre ces peuples que l’on -colonisait. Dans le catalogue de la BNF des années 1815-1848, toutes ces spécialités se confondaient dans le magma d’une matière indifférenciée, l’Histoire.
Aujourd’hui le numérique fait naître de nouveaux métiers. La mise en place des logiciels transactionnels supposent des spécialistes capables de décrire les processus sociaux mis en œuvre dans les algorithmes, l’interaction des acteurs, les règles et les lois qu’ils doivent respecter. Les Big Datas et tous les infocentres imposent de construire des modèles sociaux-économiques qui permettront d’interpréter les données. Alors que jusque là, de l’historien à l’ethnologue, ces métiers étaient surtout le fait d’universitaires et de serviteurs de l’Etat, ces nouveaux spécialistes se retrouvent dans tout types d’entreprises, Sociétés de Service informatiques, donneurs d’ordre, géants du Web, et même Etat.
Si les questions posées sont différentes, les méthodes n’ont pas vraiment changées depuis l’historien. Il faut toujours chercher sur quels documents baser son analyse, quelle est leur fiabilité, éventuellement effectuer des entretiens si les témoins sont toujours là. La masse documentaire une fois rassemblée, Il faut l’analyser. Les questions sont toujours les mêmes : qui a fait ou dit quoi, envers qui, pourquoi, comment, quand, où ? Qu’il s’agisse d’analyser un discours de Périclès ou le poste de travail d’une caissière de supermarché, les questions se répètent. Depuis que les ordinateurs sont entrés dans nos vies cela se double d’une analyse quantitative. Combien de fois ces actes ont-ils lieu ? Quelle est leur fréquence ? Le numérique impose ces questions car les machines ne font bien que le répétitif. Mais par un effet de retour elles impactent toutes les disciplines anciennes.

Le poids de l’organisation

Le troisième enseignement de cette thèse fut l’importance de l’organisation sociale sur le travail de l’historien.
Les historiens de la première moitié du XIXe sont pris entre deux contraintes :
• Les questions qui sont posées par le corps social. Elles se résument en fait à une seule : pourquoi la Révolution a-t-elle été possible ? L’Histoire enseignée auparavant n’était d’aucun secours. Elle était monarchiste et religieuse, vouée au culte du Christ et du Roi. Les philosophes des Lumières n’apportaient pas plus d’aide. Ils avaient poussé à la révolte contre l’ordre établi, à la défense de valeurs de liberté et de démocratie, mais à aucun moment, ils n’avaient avertis de la guerre civile et étrangère, des milliers de morts qui en suivraient, et du retour des réactionnaires lors de la Restauration ;
• La documentation dont ils disposent : la Révolution avait arrêté les études historiques, mais les nouveaux historiens pouvaient s’appuyer sur les travaux de la Monarchie finissante. Soucieuse d’expliciter son pouvoir et de lui donner une base juridique assurée, celle-ci avait mené un gros travail d’édition des chroniques historiques anciennes ainsi que des lois et ordonnances royales. Ce travail d’éditions des « Monuments », mené surtout par les bénédictins de la Congrégation de Saint Maur, était devenu partiellement inutile avec le remplacement du droit coutumier par les grands Codes législatifs (Code Civil, Code Pénal, etc.). Mais il fit le miel des historiens de ce temps.
Prise entre ces deux contraintes, leur Histoire est principalement politique et juridique. Pas d’Histoire des arts, des sciences, des mentalités, de l’économie. Mais elle permit la naissance de nouveaux concepts, la lutte des classes (Marx a dit la dette qu’il avait vis à vis d’eux), la Nation. Soucieux de s’inscrire dans le « temps long, », ces historiens appliquèrent ces concepts au Moyen Age et virent la source de la Révolution dans le mouvement des communes médiévales, dans la naissance de la bourgeoisie. Ils firent aussi un travail important d’organisation des études historiques et archivistique, permirent un mouvement d’édition des documents anciens, mouvement dont profitèrent leurs successeurs en particulier l’École des Annales).
Je découvris le monde numérique avec ce viatique. L’ordinateur introduit le calcul et le quantitatif partout, il modifie les méthodologies, il créée de nouveaux métiers. Et les processus opérationnels doivent toujours être pensé en fonction de l’organisation sociale dans laquelle ils s’inscrivent. Ce n’étaient pas de mauvais guides de travail.

Publié dans écriture, informatique, système d'information | Tagué , , , | Laisser un commentaire

Il faut suivre le progrès mais…

20180921_155624Beaucoup de discours sur l’arrivée du numérique prennent la forme du regret. Il s’agirait d’une évolution technologique inéluctable, sur laquelle nous n’avons pas de prise. Selon nos convictions, elle serait imposée par un destin immanent, par le complot des classes dirigeantes, par l’activité frénétique de quelques geeks activistes et irresponsables.
Aucune technique ne passe du stade de l’invention à celui de l’innovation (l’application dans des processus pratiques) sans correspondre à un besoin qu’il soit bon ou mauvais. La bombe atomique n’est pas un progrès pour l’humanité, mais elle répondait à un besoin, mettre fin à la guerre mondiale et vaincre les forces de l’Axe.
Si le système numérique remplace le système d’information classique fait d’encre et de papier, c’est qu’il répond à un besoin.

Le monde paysan
Pour comprendre ce besoin, il faut repartir loin dans le passé. Au début du XIXe nous étions tous des paysans. Ceux-ci représentent alors l’immense majorité de la population. L’aristocratie et la bourgeoisie des villes ne sont que des minorités négligeables.
Par paysan, nous entendons des agriculteurs, mais surtout des gens qui vivent en quasi autarcie. Les hommes produisaient le blé dont ils faisaient leur pain, le vin pour la boisson, l’huile pour la conservation. Ils élevaient quelques bêtes qui étaient leur instrument de travail et leur apport principal de protéine. Les femmes faisaient la cuisine, la lessive et la couture, entretenaient la basse-cour, accessoirement assuraient l’éducation des enfants. Les économistes parlent d’économie non-marchande, dans laquelle les besoins vitaux sont couverts par la famille et son cercle proche. L’économie marchande, le commerce, n’intervenait que marginalement pour quelques produits difficiles à faire soit même, le sel et les épices, du tissu, la carriole et la maison lorsqu’il fallait la construire.
Dans son ouvrage « c’était mieux avant », Michel Serres rappelle ce qu’était ce monde d’avant qu’il a personnellement connu. « Grand Papa Ronchon » regrette ce temps, mais oublie de dire que c’était l’époque des famines, des épidémies, du manque d’hygiène qui provoquait la chiasse et les furoncles.
L’un des souhaits les plus courants est de faire des enfants et de les aider à grandir. Mais ce souhait fut contrarié pendant des siècles par la famine et la maladie. La population n’augmentait que lentement et même parfois elle régressait.
Croitre et multiplier
Cette malédiction s’arrête avec la Révolution Industrielle. Le moteur thermique, la chimie (aussi bien agrochimie que pharmachimie), permettent une croissance exponentielle de la population mondiale. Celle-ci double de 1800 à 1900, double à nouveau de 1900 à 1950, et encore une fois de 1950 à 2000. Nous sommes aujourd’hui 7,5 milliards d’humains et malgré un fort ralentissement, cette croissance devrait nous amener autour de 10 milliards vers 2050. Le tout sur une planète Terre dont les ressources naturelles, renouvelables ou non, n’ont pas augmentées. Cela s’accompagne d’une évolution qualitative de cette population. Elle vieillit, demande plus de soins et de médicaments. De plus, les jeunes commencent à travailler plus tard afin de se former à des techniques de plus en plus complexes. En France sur 66 millions d’habitants, la population active n’est que de 24 millions. La charge de travail productif repose une part plus réduite de la population. Alors il a fallu sans cesse augmenter la productivité. Cela passait par une mécanisation de plus en plus grande des taches, mais aussi par une nouvelle division du travail entre humains. Nous faisons bien ce que nous faisons souvent comme l’annonçait déjà Adam Smith.
Cela a modifié les rapports sociaux. Doucement a disparu l’économie non marchande.
Aujourd’hui notre travail est le plus souvent tourné vers l’extérieur, et l’autarcie disparait. Pour notre subsistance, nous achetons des plats préparés en conserve, surgelés, lyophilisés. Nous nous habillons en prêt-à-porter, nous jetons plutôt que de réparer (l’obsolescence programmée et le recyclage nous donnent bonne conscience). Nous confions les enfants à la crèche, à l’école, au centre aéré, à l’université. A part le chat qui ronronne dans un coin, nous ignorons à quoi ressemble un animal domestique. En Occident, le paysan a disparu dans les années 60, l’essentiel de notre vie suppose de faire appel à l’économie marchande. Et l’ordinateur est apparu dans nos vies au même moment.
Mesurer les échanges
L’économie marchande est une économie de la traçabilité. Que l’échange se fasse dans le cadre du marché, de la firme et de l’Etat, ou dans une collaboration entre entreprises, il doit être accompagné d’une trace : facture, bulletin de salaire, bons de livraison, contrats, quittances. Ces traces assurent la confiance des partenaires entre eux, elles nous permettent de réclamer lorsqu’il y a un doute sur l’honneteté et de vérifier l’équitabilité de la transaction. Le double effet de l’augmentation du nombre d’humains et du remplacement d’une économie domestique par une économie marchande fit exploser la masse de papiers à calculer, rédiger, conserver, comptabiliser, transmettre. Les procédés pour traiter cette masse irrésistible se multiplièrent : téléphone, fax, télex, mécanographie, fiches perforées, caisses enregistreuses, microfilm. C’est une inventivité digne du concours Lépine qui tenta d’aider le back office à traiter cette masse. Ce jusqu’à ce que la dématérialisation par le numérique offre la solution.
Elle permettait d’accélérer les échanges d’informations, les traitements, d’augmenter les capacités mémoire.
C’est la disparition de l’économie domestique qui a rendu indispensable le numérique, par l’explosion du nombre de transactions à traiter. La mondialisation n’est qu’un sous-produit de ce fantastique
Nous sommes trop nombreux, trop interdépendants pour revenir en arrière. Le numérique a d’autres emplois, scientifiques, industriels, dans l’industrie du loisir et du divertissement, mais c’est son rôle dans le commerce et la gestion qui est le plus présent dans notre quotidien.
Comment l’accepter
Cette place démesurée du numérique dans notre vie nous perturbe.
Nous aimerions parfois revenir en arrière, au temps où l’épouse mijotait des petits plats, où le mari bêchait son jardin. Notre imaginaire ne s’est pas adapté à la nouvelle donne.
Il faut parfois, faire une cure sans internet ni téléphone pour conserver son équilibre personnel.
Mais, le numérique n’est ni une malédiction, ni le résultat d’un complot hourdi par des forces obscures. Il est la conséquence logique quoique inattendue de notre souhait de voir le plus longtemps possible nos enfants jouer.

Publié dans commerce, developpement, système d'information | Tagué , , | Laisser un commentaire

Golem

img_4990.jpg » Mais c’est Rilke, je crois qui a dit que la vie est un jeu auquel on doit commencer à jouer avant d’en connaître les règles. Les apprend-on jamais ? Y a-t-il vraiment des règles ? »
Roger Zelazny « 24 vues du mont Fuji, par Hokusai – 1985 »
Golem a été le nom du premier ordinateur israélien. Ces créatures mi-homme/mi- machine, Golem, Frankenstein, Terminator hantent l’imaginaire du numérique. Nous sommes terrorisés par la possibilité que les machines puissent nous remplacer. Des prophètes nous annoncent le jour de la singularité. Ce moment où l’intelligence des ordinateurs sera supérieure à la notre.
IA
Qu’est-ce que l’intelligence artificielle ? Des définitions sophistiquée existent mais voici la plus simple : des machines capables d’effectuer des taches dont seul l’esprit humain était capable. La lecture et la traduction de textes, la reconnaissance faciale, la réalisation de diagnostics médicaux, ou de jugements judiciaires, des jeux complexes comme les échecs, le go ou le poker. Chaque jour des sociétés nous annoncent que des programmes nouveaux ont permis de faire des choses inimaginables. Et encore s’agit-il de ce que les spécialistes appellent de l’intelligence faible. C’est à dire la capacité des machines de réaliser une tache dans un environnement aux règles stables. L’intelligence forte devrait permette aux machines de faire plusieurs taches dans un environnement incertain (par exemple marcher dans la rue tout en soutenant une conversation). Certains l’annoncent pour dans quelques années et des dirigeants de la Silicon Valley prédisent l’arrivée du moment de la singularité.
Et il n’y a pas que les machines qui s’améliorent. L’homme devient l’homme augmenté, avec un cœur artificiel, des électrodes dans le cerveau (plus besoin de chercher son smartphone). Cette évolution peut enthousiasmer ou effrayer. Les mêmes dirigeants soufflent le chaud et le froid, nous annoncent des découvertes formidables et nous avertissent des risques qu’ils nous font courir. Le point commun est de prédire que ce progrès est inéluctable et pour demain.
Quels doutes ?
Sans être péremptoire il est possible de mettre en doute ces prophéties pour au moins trois raisons.
D’abord l’objectif s’éloigne au fur et à mesure que l’on s’en approche. Les découvertes sur le cerveau humain n’ont jamais été aussi nombreuses que dans les vingt dernières années (voir le livre de Danièle Trisch et Jean Mariani). Nous sommes loin du temps où Marie Shelley pouvait croire que le docteur Frankenstein animerait sa créature en envoyant des décharges électriques. Nous savons que le cerveau met en œuvre des processus physico-chimiques plus complexes. C’est aussi une déception. Les maladies neuro-dégénératives sont devenues un problème de santé publique et les autorités sanitaires déremboursent les médicaments contre l’Alzheimer faute de pouvoir en démontrer les effets. Comment soigner alors que nous ne sommes pas capable de modéliser le fonctionnement du cerveau, ce à quoi aurait du servir aussi l’intelligence artificielle ?
Ensuite il y a une contradiction dans l’intelligence artificielle. Elle consiste à croire qu’une machine pourrait reproduire le cerveau humain sans tenir compte de ses relations avec le corps auquel il se rattache. En somme l’âme immortelle serait détachable de notre enveloppe charnelle, l’esprit cartésien de l’animal–machine qui est en nous. Le matérialisme de la démarche cohabite avec le dualisme idéaliste le plus absolu. Là aussi, les découvertes de la science sont allée dans une autre direction, montrant l’importance de l’epygénétique (l’interaction entre l’environnement et notre capital génétique) ; le rôle du bouillon de culture que nous transportons dans nos viscères, le macrobiote, sur notre humeur ou notre capacité à réfléchir.
Enfin, c’est ne pas tenir compte de la spécificité de l’espèce humaine. Nos cousins les grands primates s’éteignent avec la disparition de leur milieu naturel. Nous ne cessons de croitre malgré les bouleversements constants de notre environnement. Notre espèce a une capacité exceptionnelle à adapter ses règles et ses lois aux problèmes nouveaux qu’elle rencontre, au besoin de coloniser de nouveaux territoires. Aujourd’hui les machines savent appliquer des règles, les apprendre, optimiser les solutions en fonction de ces règles. Elles ne savent pas inventer et choisir ces règles pour optimiser leur solution. Certains imaginent qu’elles y arriveront prochainement. Encore faudrait-il savoir comment nous le faisons. Il y là un champ de recherche qui implique de comprendre aussi bien le fonctionnement du cerveau que celui des rapports sociaux. Il y a là des processus qui font intervenir le raisonnement rationnel, mais aussi l’empathie, l’amitié et l’amour. Nous sommes loin de maîtriser ces interactions.
Le bluff
Alors pourquoi ces prophéties inquiétantes ou enthousiasmantes sur la singularité et le transhumanisme ? Dans le numéro d’août 2018 du Monde diplomatique, Perragin et Renouard proposent une explication simple mais convaincante. La révolution numérique n’est pas séparable de l’évolution néoconservatrice depuis le reaganisme. Le financement de la recherche et du développement a été permis par la concentration massive du capital entre quelques mains. Elle l’a justifié, expliquant que les Steve Jobs, Bill Gates, Zukerberg, et autre Jeff Bezos méritaient leurs fortunes par la transformation de la société qu’ils avaient déclenchée.
Aujourd’hui ce moteur est en panne. La loi de Moore se ralentit. Notre cerveau et notre corps sont d’abord des usines chimiques, mais chaque nouveau médicament coûte un milliard d’euros et dix ans de recherche. Il y a encore à faire avec les technologies actuelles pour aider au fonctionnement de notre société, mais cela nécessite beaucoup de code à écrire, de formation, de conduite du changement, donc des coûts aux retours d’investissement incertains. Tout cela n’a rien pour enthousiasmer les décideurs financiers.
Alors, les experts du numérique disent n’importe quoi, la victoire des machines, la mort de la mort, la colonisation de Mars. Plus c’est gros plus ca passe. « Nombre de chercheurs et d’entrepreneurs qui se montrent très prudents dans un contexte universitaire ont tendance à faire des déclaration sensationnalistes lorsqu’ils parlent à la presse : un appel direct aux investisseurs, qui ont pour la plupart des connaissances techniques limitées et se fondent largement sur leur lecture du New York times ou du Wall Street Journal » (Zachary Chase Lipton cité par Perragin et Renouard)
Pygmalion
Toutes les histoires de Frankenstein à Terminator sont des variations sur le thème de Pygmalion et Galatée. Un homme invente une créature qu’il veut parfaite et s’aperçoit qu’elle échappe à son pouvoir. Ce mythe ne fait que répéter la vie. Nous faisons des enfants, qui invariablement font autre chose que ce que nous attendions.
Et là risquons une prophétie. Il y a aujourd’hui 7,5 milliards d’humains sur Terre. Cela fait beaucoup de cerveaux disponibles pour réfléchir aux problèmes du monde, trouver des solutions, inventer des techniques et définir de nouvelles règles. Ils peuvent s’appuyer sur des outils qu’ils seront les premiers à véritablement maitriser car ils sont nés avec pour communiquer, calculer, mémoriser tester ces solutions.
Sans avoir besoin de superpouvoirs, ils créeront un univers différent du nôtre. Il ne sera ni celui qu’imaginent les génies de la Silicon Valley et leurs investisseurs financiers, ni celui que nous espérons.

Publié dans intelligence artificielle, propriété intellectuelle, système d'information | Laisser un commentaire

La vrai liberté

20180705_182211Il est souvent reproché au Système d’Information Numérique d’attenter au libre-arbitre, d’enfermer l’individu dans un carcan technique aliénant. Une critique semblable été faite à la conception d’Ibn Rushd de la connaissance.
Thomas d’Aquin et le sujet cartésien
La thèse centrale d’Ibn Rushd, est l’unicité de l’intellect. Il n’existe qu’un intellect pour toute l’humanité. Ce que connait chaque homme, par ses sens et son imagination, n’est que le reflet partiel de cet intellect suprême.
Dès sa diffusion, cette théorie fit l’objet de critiques. Thomas d’Aquin, le théologien le plus influent de son temps, écrivit un traité pour récuser la thèse du philosophe andalou. Affirmer que l’intellect des hommes ne faisait qu’un, c’était récuser l’idée d’une âme attachée à chaque corps, immortelle, et qui au jour du jugement dernier serait envoyée en enfer ou au paradis.
Or toute la religion chrétienne est basée sur l’existence de l’âme, propre à chaque homme. Elle fonde sa responsabilité face à son destin. Après Thomas d’Aquin, d’autres philosophes européens, de Leibnitz à Renan combattront également le monopsychisme. Rien de surprenant à cela. Ibn Rushd présentait la caractéristique étrange d’être inacceptable pour les tenants de la tradition comme pour ceux de la modernité. Car en défendant l’âme immortelle de l’homme, Thomas d’Aquin défendait en même temps le libre arbitre, le sujet cartésien, base de la philosophie moderne et du droit de la liberté individuelle (et accessoirement de la propriété : c’est parce que nous sommes un individu responsable que la possession de biens est légitime, comme moyen d’exercer notre libre arbitre).
De Freud à la cybernétique
Le libre arbitre du sujet pensant a pris des coups sévères. Freud, Marx, et les structuralistes de toutes obédiences l’ont fait tomber de son piédestal. L’individu conscient est manipulé par son inconscient et son surmoi, par les rapports sociaux dans lesquels il s’insère, par les mythes, les représentations qui structurent son univers mental.
Mais ces théories n’étaient que des théories, qui pouvaient être qualifiées de rêveries méprisables par les tenants de la liberté de l’individu.
Le système numérique change cela, car la relation avec la machine et les liens qu’elle tisse entre les acteurs génèrent un ensemble cybernétique, dans lequel acteurs et machines interagissent perpétuellement entre eux.
De la connaissance à l’action
Le cyberespace crée un formidable puits de connaissance qui ressemble bien à l’intellect universel d’Ibn Rushd.
Wikipédia en est le meilleur exemple. Dans le chapitre qu’il lui consacre dans son ouvrage « les innovateurs », Isaacson explique les débats qui présidèrent à sa création. Certains estimaient qu’une encyclopédie devait être le recueil des avis des meilleurs spécialistes, sélectionnés pour leur compétence. Le choix fut inverse. N’importe qui pouvait intervenir, anonymement, sous réserve de respecter des règles élémentaires de traçabilité. L’expérience montra la supériorité de ce modèle, dans lequel sans arrêt, les opinions de la multitude se confrontent, se corrigent, interagissent. Wikipédia est devenu un stock de savoir sans équivalent, dépassant largement toutes les encyclopédies qui l’ont précédés.
Cette connaissance sur le cyberespace, est de plus interactive. Nous pouvons savoir des choses, mais aussi, acheter, vendre, transmettre, payer nos impôts, nos charges, etc.
Les machines nous aident et nous rendent plus efficaces sous réserve de respecter la réalité cybernétique où nous vivons, celle où les humains et les ordinateurs interagissent entre eux selon des règles communes.
Pour nombre de nos contemporains, cet encadrement paraît insupportable. « Je ne suis pas un numéro », suivant la formule paranoïaque d’un feuilleton télévisé des années 60, « Le Prisonnier ». Pour protéger notre libre-arbitre, des lois et des directives nous donnent le droit de retrait, de refuser d’utiliser ces outils, d’interdire l’utilisation de nos données personnelles. Et, cela s’accompagne de la possibilité de monnayer ces connaissances. Ces mêmes législateurs renforcent le secret des affaires, le droit d’auteur. Il y a quelque chose de cupide dans cette prétendue défense du libre arbitre et de la propriété de la connaissance.
Le Véhicule de l’information
Ces craintes me rappellent celles de mes certains collègues en début de carrière. Nous étions des experts chargés de transmettre des informations et de proposer des solutions à notre hiérarchie. Mes collègues plus anciens m’avaient mis en garde. Il ne fallait pas en dire trop. Si nous disions tout ce que nous savions, nos managers finiraient par en savoir autant que nous, ne plus avoir besoin de nous et feraient disparaître notre fonction.
Jeune recrue, j’étais assez perplexe. Si je ne transmettais pas le peu que je savais, mes écrits seraient creux et sans intérêt, ce qui ne pousserait pas les managers à faire appel à moi.
Je découvris vite que l’information appelle l’information. Si vous transmettez des informations, vous en aurez en retour. Et peu importe si la manière dont ces idées sont transmises est originale ou si elle se trouve encadrée dans un processus cybernétique.
Si vous refusez de communiquer votre savoir, les autres ne savent plus si c’est pour conserver le mystère, ou parce que vous ne savez pas. Ils finissent par ne plus vous consulter. Et alors les sources de connaissance s’étiolent. Non seulement vous n’êtes plus consulté, mais on ne vous dit plus rien. Votre savoir devient un stock mort qui décroche du réel.
L’expert est un passeur. Chaque expert finit par comprendre, que le plus important n’est pas de savoir, mais de savoir où trouver l’information. Votre valeur, c’est la qualité du carnet d’adresse, les témoins fiables, l’accès aux centres de documentation, et aujourd’hui, la virtuosité à utiliser les moteurs de recherche sur le cyberspace, à reconfigurer les données disponibles pour les rendre analysables.
Tim Hatford raconte que Charles Dickens fit une expérience similaire. Il s’était toujours battu contre les éditions pirates de ses romans par des imprimeurs américains. Sur le tard, il s’aperçut qu’elles lui avaient donné une extraordinaire notoriété. Il put faire des conférences auxquelles ses admirateurs payaient pour assister. L’information génère toujours de la valeur.
La vrai liberté
C’est là la vraie liberté. Non pas celle d’interdire et du repli sur soi, mais celui que donne la circulation de la connaissance. Elle génère toujours de nouvelles idées, de nouvelles solutions, qui augmentent notre capacité à répondre aux défis de notre temps.

Publié dans big data, informatique, intelligence artificielle, internet, propriété intellectuelle, système d'information | Laisser un commentaire

La sphère et le test

port algerAu XIIe siècle, Ibn Rushd, mieux connu par le nom d’Averroès professait que l’intellect était unique et que tous les hommes alimentaient une même pensée. Ses contradicteurs firent remarquer que les hommes peuvent avoir des opinions différentes, et que cet intellect unique devenait le lieu de toutes les contradictions sans qu’aucune vérité ne puisse en sortir. La même critique est faite au cyberspace. Jamais nous n’avons été autant informés, jamais autant de nouvelles contradictoires n’ont circulées en même temps, avec la même facilité.
Fake news
Fake news, le mot est récemment arrivé dans notre vocabulaire, mais il a envahi notre quotidien. A la radio, à la télévision, et même dans la conversation, il n’est plus question que de « fake news ». Le système d’information numérique serait un pourvoyeur inlassable d’informations fausses. Le sociologue Gérald Brunner en a même fait une théorie. La vérité est une, le mensonge multiple, il y a de multiples façons de déformer les faits et les idées. La facilité extraordinaire à créer et répandre des informations aide le développement des informations fausses. Le système ne fait pas de choix et donc répend de manière équivalente les vrais et les fausses nouvelles, ce qui quantitativement est à l’avantage du faux.
On s’inquiète à aussi des possibilités de manipulations que cette facilité à dire n’importe quoi permet. Nous avons tous en tête la propagande d’AL Quaida et de Daesh, les interventions russes dans l’élection américaine, les allusions complotistes de Marine Le Pen lors du débat présidentiel français, les mensonges de Donald Trump.
Oui, volontaire ou non, le cyberspace est le lieu d’opinions contradictoires, de rumeurs fondées ou infondées. Certains souhaitent même que l’Etat légifère pour faire condamner ceux qui répandent les fausses nouvelles.
La chute des autorités
L’époque Gutenberg vit le triomphe de l’auteur. Un livre coutait cher à fabriquer, même en multiples exemplaires, et seul l’amortissement sur des séries longues permettait de justifier cette dépense. L’écrivain publié fut proclamé auteur, c’est-à-dire une autorité (les deux mots viennent de la même racine).
Or en un siècle, les autorités se sont ridiculisées. Les journalistes sont devenus les bourreurs de cranes de la guerre de 14-18, les politiques après avoir poussé dans la guerre les citoyens (guerres mondiales ou coloniales) se sont déshonorés, livrant leurs concitoyens aux camps de concentration, aux fours crématoires, ou aux goulags ; les intellectuels ont suivis les politiques dans leurs errances, les professeurs se sont vendus aux industriels et aux laboratoires. Ils n’ont pas attendu l’arrivée du monde numérique pour perdre leur crédibilité.
Il faut tester
Mais est-ce important ? En réalité, depuis au moins la machine de Turing, nous savons que la machine et l’algorithme ne disent pas le vrai.
La machine dit le rationnel, l’enchainement des causes et des effets, le calcul des probabilités et à ce jeu elle est meilleure que nous. Mais elle ne dit pas si cet algorithme est adapté à la situation réelle. Le philosophe Peter Sloterdijk emploie une image frappante pour montrer cela. La Terre semble une sphère, c’est-à-dire la forme géométrique la plus parfaite qui soit sans début ni fin. Elle se meut dans l’espace selon les lois de la gravitation. Et ces lois sont si précises que qu’il a été possible de découvrir par le calcul des planètes inconnues dans le système auquel appartient cette Terre. Au XVIII les admirateurs de Newton étaient persuadés qu’une connaissance générale et cohérente du monde était à portée de main. Mais l’observation a permis de voir que la sphère terrestre était aplatie à ses deux pôles, couverte de montagnes et de mer, animée par d’autres forces que la gravitation. L’algorithme de Newton donnait une première approximation, mais ne disait pas la réalité ultime. Lorsque nous testons un code, nous ne nous contentons pas de vérifier sa cohérence et sa logique. Nous vérifions aussi son adéquation au besoin réel. Ce n’est pas pour rien que le concepteur-développeur se déguise en utilisateur lorsqu’il teste le code.
In fine, c’est toujours l’expérience, c’est-à-dire le test qui dit le vrai. C’est ce que Lévi-Strauss appelle la «pensée sauvage», ce moment où nous conceptualisons tout en ressentant les choses, leur odeur, leur couleur, leur gout, le froid et le chaud, ce moment où nous manipulons le réel, par nos sens mais aussi par nos actions, quand nous pétrissons la pâte, appuyons sur un bouton. Que nous fassions cela ou même que nous utilisions des machines, seul le test et l’expérience peuvent dire le vrai. Et cette expérience doit être partagée, pour nous assurer que nous ne sommes pas victimes d’illusions. Ceci pour dire que connaître le vrai demande du labeur, au sens premier du terme, où nous labourons notre environnement pour le connaître et produire.
Le stock
Mais alors si cela ne nous dit pas le vrai, à quoi sert le fatras d’informations auxquelles nous sommes confrontés, hier dans les livres, aujourd’hui sur le cyberespace. J’aime la réponse que donne le philosophe François Jullien, dans son livre sur l’identité culturelle. C’est un stock, un stock d’images, de concepts qui nous aident à penser. Ce que nous appelons une culture, c’est un stock d’informations. Nous n’appartenons pas à ce stock, nous ne sommes pas prisonnier d’une identité culturelle, qui nous obligerait à penser d’une certaine manière. Nous pouvons être nés dans une province de France, élevé dans la foi chrétienne et devenir bouddhiste, musulman ou athée. Et c’est la diversité du stock d’informations auxquelles nous avons accès qui permet ce vagabondage, qui nous permet de réfléchir autrement. C’est dans l’écart entre les différentes cultures auxquelles nous accédons que se trouvent des combinatoires inédites pour réfléchir le réel.
Nous sommes confrontés à des défis sociaux, économiques, écologiques nouveaux, auxquels l’humanité n’avait jamais pensé devoir faire face. Et le cyberspace nous permet d’accéder à une multiplicité d’options, de les combiner entre elles pour expérimenter des solutions à ces défis. En cela il est sans doute la plus grande chance du monde nouveau vers lequel nous allons.
Bibliographie
Jean-Baptiste Brenet : Averroès l’inquiétant (2015, Les belles lettres)
Peter Sloterdijk : Le Palais de cristal (2015, Arthème Fayard/Pluriel)
François Jullien : Il n’y a pas d’identité culturelle (2016, L’Herne)
Claude Levi-Strauss : la pensée sauvage ( 1990, Agora)

Publié dans système d'information | Laisser un commentaire