Vers un nouveau Fordisme ?

cimetièreLa fin de la loi de Moore

Depuis l’invention du transistor, le système d’information numérique est basé sur l’usage des matériaux semi-conducteurs et particulièrement du silicium. La maitrise technologique n’a cessé de croitre, selon ce qui est appelée la loi de Moore. La puissance des micro-processeurs augmente par la miniaturisation des transistors et des circuits imprimés. Aujourd’hui, un transistor est dix fois plus petit que le virus de la grippe, la finesse de gravure des circuits approche la taille des molécules de matière.
Début 2016, un article du magazine Nature a posé la question de la fin de la loi de Moore. Les spécialistes estiment qu’à partir de 2020, la taille des circuits et des transistors rendra incertain le mouvement des électrons du fait des lois de la physique quantique.
Mais l’article de Nature montre que la loi de Moore pose déjà des problèmes techniques et économiques.

Changer de modèle technique ?

Jusqu’au début des années 2000, la miniaturisation des composants et des circuits s’accompagnait d’une augmentation de la fréquence d’horloge du processeur. La fréquence d’horloge cadence le rythme auquel le processeur lit le programme, et donc est un facteur essentiel de sa puissance de calcul.
A partir du début du millénaire, la miniaturisation posa des problèmes d’échauffement. Plus la vitesse est grande, plus le processeur s’échauffe. A partir de 2004, la vitesse d’horloge des microprocesseurs cessa d’augmenter, et elle est stable depuis. La loi de Moore a donc connu un premier coup d’arrêt. Les fabricants contournèrent le problème en divisant le processeur en plusieurs cœurs. Un micro-processeur avec quatre cœurs tournant à 250Mhz de vitesse d’horloge a théoriquement la même puissance qu’un processeur ayant un seul coeur tournant à 1 GHz. Mais cela reporte la difficulté sur les programmeurs. Chaque programme doit être divisé en plusieurs sous-programmes traités parallèlement par les différents cœurs. Outre la difficulté technique nouvelle, dans certains cas l’algorithme ne se prête pas à ce découpage.
Et ceci ne donne qu’un petit aperçu de la perplexité devant laquelle se trouvent les techniciens. On parle d’ordinateurs quantiques, d’ordinateurs neuronaux (imitant la structure du cerveau), du remplacement de la matière utilisée (remplacement du silicium par du carbone, par des protéines vivantes), du changement d’architecture (processeurs multicouches, dispositifs mélangeant processeurs et mémoires). Outre que beaucoup de ces solutions ne sont pas sorties des laboratoires, elles se heurtent à deux difficultés majeures. D’une part, aucune ne remplace totalement les outils antérieurs. Par exemple l’ordinateur quantique malgré les espoirs mis par certains ne semble pas capable de remplacer tous les usages de l’ordinateur actuel (il sera difficile à expliquer à des financiers que 0 et 1 puissent avoir la même valeur). D’autre part, les solutions nouvelles peuvent imposer de jeter à la poubelle les machines et programmes qui s’appuient sur les bases précédentes. Une perte d’actifs qui peut sembler insupportable aux financeurs de la recherche.

Changer de modèle économique

La loi de Moore affronte une deuxième difficulté.
Pendant des années l’industrie des semi-conducteurs a produits des micro-processeurs destinés à des besoins presque identiques. Qu’il s’agisse d’ordinateurs portables ou de super-computers, Il y avait plus ou moins de micro-processeurs dans la machine mais les composants étaient les mêmes, et permettaient de tirer de très longues séries.
Ceci change. Les calculs des algorithmes tendent à se concentrer dans les fermes de serveurs qu’on appelle le Cloud. Pour eux, la question de la réduction de la taille et de l’augmentation du nombre de transistors est assez subalterne.
A coté, se développent les smartphones et les tablettes pour lesquels la puissance de calcul devient un problème parmi d’autres. Ces appareils doivent être capable de communiquer vocalement, par Wifi, Bluetooth… en même temps ils doivent résister aux chocs, à la chaleur, aux ondes magnétiques…enfin, comme ces appareils sont destinés à être de plus en plus petits et fins, la limitation de la température de ces appareils continue à être un enjeu majeur (comme vient de le rappeler l’aventure du Galaxy 8 de Samsung).
Enfin il y a l’internet des objets, des véhicules connectés aux dispositifs intégrés dans le corps humain qui posent encore d’autres problèmes.
Il devient difficile de maintenir une feuille de route commune concernant la recherche et le développement quand les problématiques divergent autant. Il devient encore plus compliqué de produire de longues séries de micro-processeurs permettant d’amortir les investissements réalisés. Chaque problématique impose son type de puce électronique, son équipe de conception et sa chaine de production spécifique.
Dans ces conditions, deux effets apparaissent, d’un part l’industrie essaie de réduire le coût unitaire de conception et d’industrialisation de chaque type de puce créée, et peu importe si on cesse de respecter la loi de Moore ; d’autre part le nombre d’acteurs capables de supporter ces coûts se réduit drastiquement. Il reste Intel, Samsung, Taiwan Semi-conductors, et ensuite les autres sont irrésistiblement décrochés dans la course à la puissance, et ne survivront sans doute qu’en se spécialisant.
« Les coûts, sans surprise, sont dans la tête des producteurs de puces aujourd’hui. La fin de la loi de Moore n’est pas un problème technique c’est un problème économique. …Certaines entreprises en particulier Intel, continuent essayer de réduire la taille des composants avant de se cogner au mur des lois quantiques, mais plus nous réduisons, plus cela coûte”

Est-ce grave ?

Une technologie arrive toujours à maturité un jour. L’automobile vit depuis quasiment le début du XXs. sur les moteurs à piston, diesel ou à explosion. Les tentatives de technologies alternatives (moteurs rotatifs, turbines, moteur à piston libre) ont toutes échouées, et seule la contrainte climatique permet d’espérer le remplacement par le moteur électrique. L’aéronautique commerciale ne fait pas voler d’avions plus rapides que dans les années 60, et le supersonique a été une impasse.
La fin du progrès technique ne signifie pas que tous les usages d’une technologie sont traités. A la fin du XXème siècle, l’automobile n’a pas encore remplacé partout la traction hippomobile (la bonne vieille carriole à cheval). De même, le transport aérien de passager n’a pas cessé de croitre depuis les années 60 et de diversifier son offre.
La fin de la loi de Moore ne signifierait pas la fin de la croissance des usages du numérique. Il y a encore des milliers de lignes de codes à écrire, d’usages à inventer, de processus de fabrication ou d’échanges à revoir pour automatiser une partie des taches.
Mais cela signifie que les coûts de la recherche fondamentale ainsi que ceux de l’industrialisation du numérique risquent d’exploser.

Vers un nouveau Fordisme

Les investisseurs et les gouvernants sont confrontés à un dilemme nouveau. L’économiste spécialiste de stratégie industrielle Michael Porter avait rappelé à la fin des années 70 que l’objectif d’un capitaliste n’était pas la croissance du chiffre d’affaires mais l’augmentation de la marge sur le capital investi. Peu importe si l’activité n’augmentait pas, pour peu que le profit sur chaque produit vendu augmente.
Et la loi de Moore fit du numérique l’eldorado des capitalistes reaganiens. Par la magie de l’évolution technique, l’augmentation des marges accompagnait la croissance du chiffre d’affaires,
Il est sans doute trop tôt pour affirmer la fin de la loi de Moore. Mais elle finira par arriver.
Or, la course à la recherche et l’augmentation des coûts d’industrialisation risque d’aboutir à une impasse. La croissance des investissements pour franchir de nouveaux paliers technologiques se traduira par une baisse des marges. Le numérique pourrait faire la démonstration de la fameuse loi de régression du rendement du capital affirmée par Marx.
Le capitalisme était arrivé à une situation équivalente au début du XX siècle. Au début des années 20, les technologies des moteurs à combustion sont matures, toute augmentation de la fiabilité et du rendement passe par des investissements considérables. Henri Ford fait un double choix : tirer les prix en allongeant les séries, améliorer la rémunération de ses ouvriers pour avoir plus de consommateurs. Ce faisant, Ford réduisit le rendement de son capital mais augmenta son profit par la croissance du chiffre d’affaires. Il enclencha une politique distributive qui fonctionna jusqu’aux années 70.
Quelque part la situation a quelques analogies. L’industrie du silicium a atteint un niveau de maturité. Elle est loin d’avoir donné tous ses effets.
Pour augmenter la pénétration du numérique, il n’y a pas nécessairement besoin de développer des technologies nouvelles, mais surtout d’adapter leur usage et leur acceptation. Et aussi bien économiquement que socialement et politiquement, redistribuer autrement le rapport entre capital et travail apparaît comme une nécessité.

Bibliographie

Mitchell Waldrop : The chips are down for Moore’s law (http://www.nature.com/news/the-chips-are-down-for-moore-s-law-1.19338)
Thomas Piketty : « Le choc Sanders » (LE MONDE | 13.02.2016 à 07h38 • Mis à jour le 15.02.2016 à 09h31)

Cet article, publié dans developpement, gouverner, système d'information, est tagué , , . Ajoutez ce permalien à vos favoris.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

w

Connexion à %s