Gordon Moore est mort

Le cofondateur et ex-PDG d’Intel s’est éteint à l’âge de 94 ans. On lui doit d’avoir imposé les processeurs x86 aux compatibles PC, ainsi qu’une fameuse loi qui décrit l’évolution des performances.

Gordon Moore, le cofondateur d’Intel et l’inventeur de la célèbre loi qui porte son nom, est décédé le 24 mars dernier à l’âge de 94 ans. À la retraite depuis 1 997, il était resté président émérite d’Intel jusqu’en 2006. Il a occupé le poste de PDG du fondeur de 1979 à 1987, avant de prendre la tête de son conseil d’administration. Il avait cofondé Intel en 1968 avec Robert Noyce.

« Gordon Moore a contribué à révéler la puissance des transistors et a inspiré les technologues et les entrepreneurs au fil des décennies. Chez Intel, nous restons inspirés par la loi de Moore et avons l’intention de la poursuivre jusqu’à ce que le tableau périodique soit épuisé. La vision de Gordon reste notre véritable objectif », écrit Pat Gelsinger, l’actuel PDG d’Intel, dans un communiqué. « C’est avec humilité que j’ai l’honneur et la responsabilité de perpétuer son héritage », ajoute-t-il.

Gordon Moore était aux commandes d’Intel lorsque celui-ci devint le fournisseur officiel du microprocesseur de l’IBM PC, la machine qui posa les standards de l’informatique actuelle. Il quitta son poste de PDG au moment où Intel et Microsoft décidèrent de s’allier pour créer un standard « Wintel » alternatif au PS/2 d’IBM et favorable aux cloneurs.

Gordon Moore était avant tout un chimiste. Diplômé d’un doctorat obtenu à l’université de Berkeley en 1954, il participait à cette époque au laboratoire de physique appliquée de l’université Johns Hopkins, dont les recherches étaient financées par les Bell Labs. C’est à cette occasion qu’il fait la connaissance du prix Nobel de physique William Shockley, l’inventeur du transistor.

Co-fondateur, puis PDG d’Intel

L’histoire retiendra surtout que la carrière de Gordon Moore a commencé de manière peu glorieuse. Il était l’un des fameux « Huit traîtres » qui, fraîchement embauchés par William Shockley, lui ont dérobé tous ses plans techniques pour aller les revendre à l’homme d’affaires Sherman Fairchild.

Nous sommes alors en 1957. Depuis le début de la décennie, l’US Air Force a compris, grâce à son projet de calculateur BINIAC, que le système binaire est le meilleur moyen de faire fonctionner un ordinateur. Les transistors de William Shockley, manager manifestement tyrannique, permettent d’implémenter ce système binaire dans des composants électroniques.

Sherman Fairchild, un proche des hauts gradés de l’armée américaine, est de fait emballé par les plans apportés par les huit traîtres : il leur confie la direction d’une nouvelle entreprise, la Fairchild Semiconductor, dont l’activité sera de fabriquer des composants électroniques qu’il vendra à ses amis militaires. Le premier gros client de Fairchild Semiconductor sera en l’occurrence la NASA, qui utilisera les composants électroniques pour équiper l’ordinateur de bord de ses missions lunaires Apollo.

Parmi les huit traîtres, le Suisse francophone Jean Hoerni, invente en 1958 le procédé MOS FET de gravure des transistors sur un wafer de silicium (metal-oxyde-semiconductor field-effect transistor), ce qui permet de « fondre » en une seule fois tout un circuit électronique. Et même plusieurs d’un coup : une loupe miniaturise le dessin du circuit, de sorte que l’on en grave autant d’exemplaires que le permet la surface du wafer. Le premier à acheter une licence de ce procédé est IBM, qui construit dans la foulée la toute première usine de semi-conducteurs.

Vers le milieu des années 60, une nouvelle recrue de Fairchild Semiconductor perfectionne le système en inventant la technique SGT (silicon-gate technology) qui améliore la conductivité des transistors en les immergeant dans un isolant. C’est à ce moment que Gordon Moore et Robert Noyce, un autre des huit traîtres, quittent Fairchild Semiconductor pour exploiter toutes ces inventions depuis leur propre compagnie, Intel. Ils en confient la direction à Andy Grove, l’employé de Fairchild Semiconductor qui s’occupait des relations commerciales avec IBM.

Tandis qu’Intel débute sa carrière en fabriquant des puces mémoires, IBM développe les prototypes des premiers microprocesseurs. Ce sont des métacomposants électroniques qui regroupent suffisamment de circuits pour offrir un jeu d’instructions, ce qui les rend programmables depuis la mémoire. Intel s’inspire des plans que rapporte Andy Grove pour développer le premier microprocesseur commercial, l’Intel 4004, l’ancêtre direct des processeurs x86 qu’Intel fabrique toujours.

Naissance et dérive de la Loi de Moore

C’est en 1965 que Gordon Moore, à l’occasion d’un numéro anniversaire de la revue Electronics, écrit que le nombre de transistors gravables sur un wafer devrait doubler tous les ans pendant dix ans. En 1975, lors du séminaire annuel IEDM organisé par les industriels américains de l’électronique, Gordon Moore révise sa prédiction en annonçant qu’à partir de 1980, il faudrait plutôt compter sur un doublement du nombre de transistors tous les deux ans.

Carver Mead, professeur de sciences au California Institute of Technology (abrégé en Caltech) baptise dès lors cette prédiction « la Loi de Moore ». Par rebondissement, le marché de l’informatique s’empare de cette appellation pour décrire l’évolution des ordinateurs dans les années à venir. La complexité des ordinateurs et assimilés ne dépendant pas seulement du nombre de transistors dans leurs composants électroniques, attribuer la Loi de Moore à tout produit informatique relève plus d’une stratégie marketing censée pérenniser la consommation que d’une réelle prédiction scientifique.

À ce titre, Intel lui-même tordra la prévision de son directeur de recherche à son avantage commercial : le doublement des transistors sur un wafer tous les deux ans correspondrait en pratique au doublement de la complexité des processeurs tous les dix-huit mois, déclare David House, l’un des cadres du fondeur, toujours en 1975. D’autres fabricants informatiques en profiteront pour annoncer à leur clientèle qu’ils mettront sur le marché des produits deux fois plus performants tous les dix-huit mois.

Au fil des années suivantes, l’évolution galopante des performances informatiques fera dire à des observateurs toujours plus nombreux que la Loi de Moore était réellement prophétique. Pour autant, ces observateurs ne sont jamais réellement capables de lier mathématiquement les mesures des performances des équipements informatiques – du smartphone au serveur – au nombre de transistors effectivement gravés sur un wafer. D’ailleurs, plus le temps passe, plus les deux valeurs s’éloignent, avec des performances qui stagnent de plus en plus, alors que la quantité de transistors double toujours.

Tacitement, il y a plusieurs lois de Moore, ou plutôt plusieurs phénomènes très différents que l’on assimile à la Loi de Moore.

La loi de Moore : entre prédiction et injonction

L’intention initiale de Gordon Moore était simplement de décrire l’évolution constante des capacités des équipements industriels utilisés dans les fonderies de semi-conducteurs. Basé sur des loupes toujours mieux réglées, des rayonnements avec des longueurs d’onde toujours plus raccourcies et des matériaux toujours plus optimisés, le processus industriel de fabrication des semi-conducteurs permet en effet de réduire régulièrement la finesse de gravure sur un wafer et, par conséquent, d’augmenter le nombre de transistors que l’on peut y dessiner. La Loi de Moore par Gordon Moore n’est ni plus ni moins qu’une prédiction industrielle.

Et elle fonctionne. Elle fonctionne même de mieux en mieux. Entre 1981 – finesse de gravure de 1 500 nanomètres – et 1999 – finesse de gravure de 180 nanomètres –, un transistor était deux fois plus petit tous les trois ans. Depuis 1999, sa taille est divisée par deux tous les deux ans. Plus exactement, la finesse de gravure se réduit d’un facteur racine carrée de 2 à chaque itération, ce qui, mathématiquement, permet de graver un carré avec une surface deux fois plus petite : (côté / Ö2) x (côté / Ö2) = surface / 2. En 2022, les usines de TSMC ont atteint une finesse de 3 nm soit plus de deux fois meilleure que les 7 nm atteints en 2018.

La loi de Moore de Carver Mead doit plutôt être vue comme une injonction commerciale : à partir du moment où il est possible de graver deux fois plus de transistors sur un wafer, il faut que les composants électroniques aient deux fois plus de transistors.

« Tout ce que j’essayais de faire, c’était de faire passer le message qu’en mettant de plus en plus de choses sur une puce, nous allions rendre toute l’électronique moins chère. »
Gordon MooreCofondateur et ex-PDG, Intel

Les fabricants de semiconducteurs auraient en effet très bien pu produire deux fois plus de microprocesseurs par wafer. Dans un premier temps, chaque miniaturisation permettait à elle seule de fabriquer des microprocesseurs supportant des fréquences deux fois plus élevées. De plus, fabriquer deux fois plus de microprocesseurs par wafer aurait permis de diviser leur prix par deux à chaque évolution. Et il s’agissait d’ailleurs bien là de l’idée que Gordon Moore voulait faire passer, comme il l’expliquera dans une interview accordée en 2008 : « Tout ce que j’essayais de faire, c’était de faire passer le message qu’en mettant de plus en plus de choses sur une puce, nous allions rendre toute l’électronique moins chère », avait-il alors dit.

Carver Mead incitait au contraire les fabricants de semiconducteurs à doubler la complexité des microprocesseurs à chaque itération. La complexité agit comme un multiplicateur de performances qui s’additionne à l’accélération de la fréquence apportée par la miniaturisation. Pour Carver Mead, il s’agissait surtout de maintenir le même prix par composant à chaque génération, donc de fabriquer des microprocesseurs qui occupent toujours la même surface de silicium.

2006 : fin de la loi de Moore « version grand public »

Carver Mead a plutôt été bien inspiré. D’une part, car la division par deux de la taille d’un transistor n’a jamais permis d’accélérer par deux la fréquence des processeurs. Il fallait donc trouver quelque chose en plus pour doubler les performances. D’autre part, car, à l’aube des années 2000, Intel s’est rendu compte que ses microprocesseurs ne pourraient de toute façon jamais dépasser 4 GHz. Cette fréquence a été atteinte la première fois sur un Pentium 4 gravé avec une finesse de 180 nanomètres. Au-delà de cette fréquence, les signaux sont si énergétiques qu’ils s’échappent des circuits avant même d’atteindre le prochain transistor. Et réduire encore la taille des circuits n’y change rien.

Reste que la Loi de Moore par Carver Mead – c’est-à-dire remplir une surface donnée de silicium avec deux fois plus de transistors à chaque génération – a posé un problème de conception aux fabricants de microprocesseurs.

Dans un premier temps, le champ des possibles était vaste : Intel et ses concurrents n’avaient qu’à agrandir la taille des registres, pour calculer d’un coup de plus grandes données et intégrer des circuits annexes. Parmi ces circuits, citons les accélérateurs de calculs réels (FPU), de calculs vectoriels (DSP), de calculs matriciels (GPU), mais aussi les unités de virtualisation de la mémoire (MMU), de gestion de la mémoire (Northbridge), voire directement de la mémoire (caches L2, cache L3, RAM HBM).

Mais cela n’a fonctionné qu’un temps. Arrivé en 2006, Intel n’avait plus rien d’autre à intégrer. Pour continuer à remplir la surface libérée à chaque évolution, le fondeur, rapidement suivi par ses concurrents, n’a plus eu d’autre choix que de dédoubler le circuit existant. C’est à ce moment que l’on a parlé de cœurs. Et que les processeurs x86 d’Intel ont pris la dénomination de Core.

Problème, si la multiplication des cœurs trouve tout son intérêt dans la virtualisation de serveurs – surtout chez les hébergeurs qui peuvent ainsi condenser plus de machines virtuelles sans occuper plus de surface au sol – elle n’apporte pas beaucoup de bénéfices sur les machines personnelles qui ne sont utilisables que par une personne à la fois.

Pire, selon les benchmarks publiés chaque année, les performances des cœurs n’évoluent quasiment plus. Dans les faits, la loi de Moore en tant qu’argument marketing pour pousser le grand public à la consommation est morte aux alentours de 2006.

2023 : début de la fin de la loi de Moore version Carver Mead

Depuis 2006, la loi de Moore s’était trouvé un autre intérêt : à chaque miniaturisation, l’énergie dépensée par cœur diminuait. Hélas, ce phénomène semble s’être arrêté en 2023. Cette année, les fabricants de serveurs n’ont pu que constater l’explosion de la consommation énergétique de leurs machines basées sur les toutes dernières puces d’Intel et d’AMD, alors qu’elles bénéficient d’une nouvelle finesse de gravure. Manifestement, l’effet calorifique du nombre d’unités de traitement dépasse désormais le bénéfice de la miniaturisation.

Dell reconnaissait même dans nos colonnes que les nouvelles machines chauffent tellement qu’il ne sera pas envisageable de les déployer ailleurs que dans des racks refroidis à l’eau. Comme ceux-ci ne se généraliseront pas avant 2024, les fabricants de serveurs estiment qu’ils vendront en 2023 leurs machines de génération précédente. Bref, cette année, c’est au tour de la loi de Moore version Carver Mead de mourir un peu à son tour, car son injonction s’est pour la première fois montrée contre-productive.

En définitive, il ne reste plus que la loi de Moore originelle, celle qui prédit le doublement du nombre de transistors sur un wafer. On ignore combien de temps elle tiendra encore. Reste à savoir si les fabricants de semi-conducteurs s’en serviront enfin pour simplement diviser par deux le prix des puces à chaque nouvelle génération. Une stratégie à laquelle ils se refusent jusque-là puisque, pour rentrer dans leurs frais, il faudrait aussi qu’ils vendent deux fois plus de puces à chaque génération. Avec un marché mondial désormais saturé en termes de smartphones et de PC, il est peu probable qu’ils y parviennent.

Pour approfondir sur Processeurs et composants

Close