Académique Documents
Professionnel Documents
Culture Documents
Prise de vue
1. Historique
Tout historique non exhaustif – et aucun ne peut l’être – est critiquable par le choix
des événements considérés comme essentiels par l’auteur, et par le choix des inventeurs et
des pionniers, puisqu’il est extrêmement rare qu’une découverte soit le fait d’un seul
chercheur. Au demeurant, nombre de découvertes n’ont pas eu de suite immédiate pour
force raisons, et d’autres, qui ne seront pas évoquées parce qu’elles n’apparaissent pas
aujourd’hui avoir reçu d’applications, en auront peut-être plus tard, par exemple lorsque
des découvertes de physico-chimie permettront de les utiliser de façon pratique.
Quoi qu’il en soit, on peut sans doute faire remonter le début de l’électronique à
l’année 1820, lorsque Hans Christian Œrsted découvre accidentellement l’effet d’un
courant électrique sur une aiguille aimantée, et lorsque, peu après, André-Marie Ampère
met en évidence l’effet d’un courant électrique sur une boucle parcourue par un courant
électrique, premières transmissions d’une information à (très courte) distance. Ce
phénomène est précisé en 1831 par Michael Faraday.
C’est en 1879 que William Crookes produit les premiers rayonnements que
Wilhelm Conrad Rœntgen – incertain qu’il était de leur véritable nature – baptisera
rayons X en 1895, essentiels aujourd’hui en diagnostic médical .
Une autre date clef se situe en 1887, lorsque Heinrich Rudolf Hertz explicite le fait
qu’il n’existe pas de différence essentielle entre les ondes électromagnétiques de grandes
longueurs d’onde et les ondes lumineuses, de très petites longueurs d’onde. Cette remarque
fondamentale conduira, bien plus tard, au radar et aux faisceaux hertziens. Moins tard
pourtant qu’on ne le pense couramment, puisque le premier « radar » exploitant la réflexion
des ondes électromagnétiques sur les obstacles – le « télémobiloscope » – a été conçu en
1904 par l’Allemand Christian Hülsmeyer, sans suite pratique cependant jusqu’au début
des années trente, lorsque des « radars » (qui ne s’appelaient pas encore ainsi) américains
(développés par A. H. Taylor, L. C. Young et L. A. Hyland), français (développés par
Pierre David, Maurice Ponte et Henri Gutton) et allemands seront réalisés ; ils étaient
capables de détecter le passage d’avions, sans toutefois mesurer directement leur distance.
La véritable origine de la télégraphie sans fil date de 1897 : Guglielmo Marconi ,
utilisant à la réception le « cohéreur » inventé par Édouard Branly en 1890 à
l’emplacement de l’actuel Institut supérieur d’électronique de Paris, établit la première
liaison radio, entre La Spezia et le navire militaire San Marino, distant de 16 kilomètres.
Les fondements de la théorie quantique sont jetés par Max Planck en 1900, sous une
forme très sommaire, il est vrai. Nombre de savants vont la perfectionner. Cette théorie est
à la base des lasers et de l’essentiel de l’optoélectronique.
Plusieurs découvertes essentielles ont lieu au début du XXe siècle, qui apportent les
outils nécessaires : la triode, inventée en 1906 par Lee De Forest, sera, jusqu’à l’invention
du transistor, l’organe essentiel de l’électronique ; elle est encore utilisée dans certains
émetteurs de très grande puissance (souvent sous la forme de tétrode).
Le premier magnétron est réalisé par Albert Wallace Hull en 1924 et perfectionné par
les Français Maurice Ponte et Henri Gutton entre 1935 et 1939 ; il contribuera à améliorer
les radars d’une manière décisive lors de la Seconde Guerre mondiale, car il était capable
de produire des puissances élevées à des longueurs d’onde décimétriques et centimétriques.
Le magnétron est aujourd’hui le composant essentiel des fours à micro-ondes.
Parmi les autres tubes O descendant du klystron, on trouve les tubes à onde
progressive (T.O.P.), qui équipent aujourd’hui nombre de radars et de satellites, et parmi
les tubes M, les tubes amplificateurs à champs croisés qui équipent également beaucoup de
radars.
Le Japonais Yagi Hidetsugu, qui avait par ailleurs travaillé immédiatement après Hull
sur le magnétron, est le chercheur dont l’invention est peut-être la plus familière à chacun,
pratiquement sous sa forme initiale, inchangée, puisque les antennes individuelles
constituées d’un certain nombre de dipôles, utilisées à l’entrée des récepteurs de télévision,
et que l’on trouve sur presque tous les toits, ont été réalisées pour la première fois par cet
inventeur en 1926. On les appelle d’ailleurs très souvent des yagis.
C’est sans doute Dauvilliers qui imagine pour la première fois, en 1928, l’utilisation
d’un oscilloscope pour transformer le signal électrique en image de télévision, en somme
ce que l’on fait toujours aujourd’hui.
Le premier magnétophone semble avoir été utilisé en Allemagne en 1938, par une
station de radiodiffusion.
C’est à la fin du conflit que John von Neumann met à profit, aux États-Unis, les idées
émises en 1936 par le Britannique Alan Turing. Aujourd’hui encore, la plupart des
calculateurs numériques universels (improprement appelés ordinateurs) fonctionnent
suivant les conceptions de von Neumann et, même si un Allemand, Konrad Zuse, a sans
doute réalisé en 1944 le premier calculateur numérique opérationnel, on s’accorde à donner
comme point de départ de l’informatique moderne la réalisation en 1945 de l’E.N.I.A.C.
(Electronic Numerical Integrator And Computer) construit par les Américains J. Presper
Eckert et John Mauchly, énorme machine de 30 tonnes contenant 18 000 tubes
électroniques dissipant une puissance énorme. À titre de comparaison, un microprocesseur
contient de 0,6 à 4 millions de composants sur une « puce » de 1 centimètre carré environ.
Mais il est probable que l’informatique n’aurait connu qu’un développement notable,
sans plus, si deux événements considérables n’étaient survenus : la réalisation, en 1948, du
premier transistor à pointe (par William Bradford Shockley, John Bardeen et Walter
H. Brattain) et la mise au point, en 1958, au sein de la firme Fairchild Semiconductors (par
Jean Hoerni), de la technologie « planar » conduisant aux circuits intégrés contenant
aujourd’hui jusqu’à environ un million de transistors sur le même (très) petit composant.
Le germanium, qui avait au début permis de réaliser les premiers transistors et les premiers
récepteurs radio à transistors, sera vite définitivement abandonné au profit du silicium, dont
l’extraordinaire stabilité de son dioxyde (en somme, le sable), très facile à élaborer,
permettra au physico-chimistes de progresser extrêmement rapidement dans la voie de la
densification des fonctions électroniques.
Ces outils, fournis par la physico-chimie moderne, ont petit à petit permis d’appliquer
les idées des spécialistes du traitement du signal (Claude Shannon, 1948 ; P.
M. Woodward, 1949) qui, à partir d’une réflexion sur la nature des problèmes à
résoudre, avaient souvent ouvert la voie à des solutions inédites de problèmes anciens, par
l’utilisation d’outils mathématiques parfois très anciens (transformations de Laplace-
Carson, de Fourier), parfois redécouverts (transformation de Fourier rapide, déjà utilisée en
fait par Butler de nombreuses années auparavant). C’est ainsi qu’ont été peu à peu utilisées
les notions de « compression d’impulsion » (en radar) ou de modulation à spectre étalé (la
même technique, mais appliquée aux télécommunications), de filtre adapté, de filtres
transverses, de filtrage auto-adaptatif, etc., qui ont changé le domaine d’application des
fonctions électroniques classiques ou encore ouvert la voie à des applications nouvelles
(compression de la parole, parole artificielle, réduction de la largeur de bande nécessaire à
la transmission des images, etc.).
Les spécialistes du traitement du signal ont même parfois incité les techniciens à
créer des composants inédits adaptés à leurs problèmes (filtres électro-acoustiques à ondes
de surface, inventés en France en 1967-1968 par Charles Maerfeld, Eugène Dieulesaint et
Pierre Harteman, de la société Thomson-C.S.F.).
Ces chercheurs, et bien d’autres, qui n’ont pas été cités, ont fait de l’industrie
électronique des années quatre-vingt-dix une industrie majeure.
Le problème devient alors d’interconnecter les quelques circuits intégrés qui seront
nécessaires pour réaliser l’équipement, chaque circuit intégré ayant d’autant plus de sorties
et d’entrées qu’il comporte de transistors internes (on atteint plusieurs centaines de
« pattes » lorsque le circuit intégré comporte plusieurs centaines de milliers de transistors).
La conception du schéma d’interconnexion et la façon pratique de le réaliser (multicouche,
câblage utilisant partiellement de l’optique) pourront être difficiles et nécessiteront de
puissantes aides informatiques. La réalisation pratique devra être effectuée le plus souvent
avec peu d’intervention humaine mais avec des outillages automatiques.
L’autre caractéristique essentielle a trait à la méthodologie des essais. Dans les années
cinquante, un équipement électronique était essayé à la main par un technicien qui testait
point par point le bon état de la « circuiterie » (et, au besoin, très souvent, faisait
l’éventuelle réparation).
Si l’on essaie de définir quel était à la fin des années quatre-vingt le taux
d’amélioration de la productivité d’un équipement électronique, on se rend vite compte de
la difficulté du problème, en particulier parce qu’on compare des choses difficilement
comparables entre elles (une calculette de poche est maintenant plus performante qu’un
calculateur de plusieurs mètres cubes de 1960), mais aussi parce que toutes les branches de
l’électronique n’ont pas évolué de la même façon (l’industrie téléphonique avait peu évolué
entre 1920 et 1970, avant de se précipiter, en se « numérisant », dans une révolution
technique et industrielle de 1975 à 1985).
Il n’est probablement pas faux de dire qu’en moyenne, à la fin des années quatre-
vingt, la productivité s’améliorait d’environ 6 p. 100 par an. Ce qui signifie, d’une certaine
façon, qu’une diminution de chiffre d’affaires de 6 p. 100 par an sur plusieurs années
correspond en fait à un nombre constant d’équipements vendus par an (de lignes
téléphoniques installées, etc.)
3. L’électronique professionnelle d’État
L’électronique professionnelle d’État est sans doute la première à avoir connu un réel
développement avec les applications militaires de la radio (effectuées par le général Ferrié
pendant la Première Guerre mondiale). Ce vocable regroupe essentiellement, dans les
statistiques, des équipements et des services vendus à des États ou à des organismes d’une
envergure analogue (grosses compagnies de transport aérien, constructeurs d’avions de
ligne, E.D.F. ou équivalents...).
– la détection des sous-marins par des sonars actifs (analogues aux radars mais
envoyant un signal sonore ou ultrasonore dans l’eau pour récupérer ensuite l’écho renvoyé
par le sous-marin) ou passifs (écoutant les bruits émis par les sous-marins pour les analyser
ensuite) ;
L’électronique professionnelle fait aussi usage des ultrasons, à la fois comme outils
de traitement du signal et comme signal de base (dans la détection et les transmissions
sous-marines).
Depuis peu, des rayonnements à fréquence relativement faible (de l’ordre de celles
qui sont employées en radiocommunications militaires ou acoustiques) sont utilisés dans
les appareils de résonance magnétique nucléaire.
À la fin des années quatre-vingt, la situation était la suivante : seuls avaient survécu
un petit nombre de groupes, puisque trois sociétés se partageaient 60 p. 100 du marché
mondial des imageurs médicaux (General Electric, après absorption de la société française
C.G.R., Philips, après absorption de la société britannique Pickers, et Siemens) ; elles
étaient suivies par deux firmes japonaises (Toshiba et Hitachi) qui couvraient surtout les
besoins du Japon ; les cinq premières sociétés couvraient pratiquement 80 p. 100 du
marché mondial, estimé à 60 ou 70 milliards de francs à la fin des années quatre-vingt.
L’électronique automobile en est à ses débuts : ce n’est qu’à la fin des années
soixante-dix que l’on a commencé à utiliser sur une échelle assez grande l’allumage
électronique dit intégral, les calculateurs de bord, les systèmes antidérapage (A.B.S., anti
blocking system) utilisés depuis longtemps sur les avions de ligne ; avant la fin du
XXe siècle, des systèmes d’aide à la navigation, à l’anticollision, etc., apparaîtront sur le
marché.
On notera aussi qu’il pourra être très difficile de pénétrer dans un domaine de
l’instrumentation lorsqu’un autre s’y est déjà fait un nom et dispose du réseau commercial
bien introduit.
On peut s’attendre à ce que le premier besoin voit ses solutions se décanter petit à
petit dans les années quatre-vingt-dix en faisant apparaître un catalogue d’un nombre réduit
de produits à fabriquer alors en grande série par un « électronicien grand public », alors que
le second restera beaucoup plus celui de solutions sophistiquées construites sur mesure par
les industriels professionnels d’État.
Hors tout, l’électronique professionnelle privée, dont on sent qu’elle ne constitue pas
un tout homogène, et dont les constituants ne sont pas encore bien stabilisés dans leur
définition, représentait à la fin des années quatre-vingt un chiffre d’affaires de
400 milliards de francs environ, réalisé à raison de 51 p. 100 aux États-Unis, de 29 p. 100
en Europe, de 18 p. 100 au Japon.
Ses productions n’ont pas grand besoin d’être décrites puisqu’elles sont connues de
chacun : les statistiques regroupent sous l’appellation d’électronique grand public les
téléviseurs, les chaînes hi-fi, les magnétophones et magnétoscopes, les lecteurs de disques,
les récepteurs radio et les autoradios, les caméras vidéo, ainsi que les disques et cassettes
enregistrées (qui constituent une branche à part, non de fabrication d’équipements, mais de
programmes artistiques).
À la fin des années quatre-vingt, les trois premiers groupes étaient le Japonais
Matsushita, avec 16 p. 100 de la production mondiale (toujours hors pays communistes), le
multinational (hollandais) Philips, avec 10 p. 100, et l’américano-européen Thomson, avec
10 p. 100 également, soit au total 36 p. 100 pour les trois premiers.
Les sept suivants (tous japonais) réalisaient ensemble le même volume que les trois
premiers : c’est dire que les sociétés japonaises produisaient pratiquement les deux tiers
(65 p. 100) de l’électronique grand public, contre 31 p. 100 pour l’ensemble Europe-États-
Unis.
6. L’informatique et la bureautique
Relativement tard venue par rapport aux branches précédentes de l’électronique,
puisque la plupart des machines informatiques utilisent le schéma de base défini par
l’Américain John von Neumann à la fin de la Seconde Guerre mondiale, l’industrie de
l’informatique et de la bureautique correspondait, à la fin des années quatre-vingt, à 40 p.
100 du chiffre d’affaires de l’industrie électronique, soit trois fois plus que l’électronique
grand public et autant que l’ensemble des trois branches évoquées ci-dessus.
La seule société I.B.M., pionnier du domaine, il est vrai (sa marque « ordinateur » est
devenue un nom commun), a un chiffre d’affaires du même ordre de grandeur que celui de
l’ensemble de l’électronique grand public ; ajoutons que ce chiffre d’affaires est le quart du
chiffre d’affaires total du domaine, de cinq à six fois plus élevé que celui de ses suivants
immédiats (les Américains Xerox, plus tourné vers la bureautique, et Digital Equipment,
essentiellement tourné vers l’informatique).
C’est ainsi qu’en traitement du signal (radar, sonar, parole, etc.) on a besoin de
calculer des transformées de Fourier ; on utilisera dans ce cas des calculateurs de structures
très différentes (effectuant les calculs en parallèle pour gagner du temps) à base de
composants spécifiques dits « papillons » F.F.T. (fast Fourier transform). On parlera
parfois pour certaines machines de traitement du signal de machines S.I.M.D. (single
instruction multiple data).
C’est ainsi également que lorsqu’un problème de calcul scientifique peut être traité
sous forme de calculs vectoriels, on aura avantage à utiliser des calculateurs vectoriels
(appelés souvent supercalculateurs).
Les performances de toutes ces machines de pur calcul mathématique ne sont plus
exprimées en M.I.P.S. mais en Flops (flotting point operations per second), ou plutôt en
mégaflops ou en gigaflops (un million ou un milliard de flops).
7. Les télécommunications
Les télécommunications, en fait la première grande application de l’électronique, ont
assez peu évolué jusqu’à la fin de la Seconde Guerre mondiale : le téléphone est longtemps
resté électromécanique, les voies téléphoniques transportant la parole sous forme
analogique dans des fils métalliques enterrés ou traversant les océans, et leur commutation
utilisant des relais.
Sans doute en est-il de même de l’utilisation des fibres de verre pour transporter
l’information, utilisation rendue possible par les progrès de la physico-chimie, qui donnent
les moyens de réaliser des fibres de verre de qualité parfaitement contrôlée du centre au
bord et les organes de transformation électrique-optique et optique-électrique performants
associés.
La répartition du chiffre d’affaires est la suivante : plus du tiers pour les trois
premières sociétés (la française Alcatel, l’américaine A.T.T. et l’allemande Siemens), un
petit tiers pour les sept suivantes (soit 42 p. 100 pour des sociétés contrôlées d’Europe,
32 p. 100 pour des sociétés contrôlées d’Amérique du Nord, 17 p. 100 pour des sociétés
contrôlées du Japon).
8. Les composants
Les composants étaient initialement des constituants élémentaires que l’on assemblait
pour réaliser des fonctions. On a déjà dit que l’évolution de la technique et particulièrement
des circuits intégrés avait étendu cette définition à des éléments de petite dimension
assurant des fonctions plus ou moins complètes voire très complexes (microprocesseurs).
On a coutume de classer les composants en trois catégories : les tubes à vide, les
composants passifs et les semiconducteurs.
Les tubes à vide – auxquels on ajoute certains composants « à l’état solide » à base de
semiconducteurs qui assurent aujourd’hui des fonctions assurées autrefois par des tubes à
vide – comportent essentiellement :
– les triodes et tétrodes, utilisées surtout dans les émetteurs lorsqu’on a besoin
d’émettre (radiodiffusion, accélérateurs de particules, générateurs de plasma) des
puissances élevées à faible fréquence (exemple : tétrodes en ondes longues et courtes
émettant des puissances de l’ordre de un mégawatt de façon continue) ;
– les tubes de prises de vue pour caméra vidéo (vidicons, orthicons, etc.), pour
caméra infrarouge (pyricons), pour « caméra » à rayons X ;
Les composants passifs proprement dits, auxquels on ajoutera les dispositifs électro-
acoustiques, comportent essentiellement :
– les résistances, de moins en moins utilisées seules ;
– les dispositifs utilisant du matériau magnétique (tel que des ferrites), pour les
déviateurs des tubes cathodiques, ou pour les équipements en micro-onde.
Même si l’on utilise des éléments semi-conducteurs dans les dispositifs de prise de
vue déjà évoqués, on ne regroupe le plus souvent sous le terme d’industrie des semi-
conducteurs que ce qui touche aux diodes, transistors et circuits intégrés au silicium d’une
part, et ce qui touche aux mêmes éléments en composés III-V d’autre part.
Les circuits intégrés se répartissent en circuits linéaires (tels que ceux qui sont utilisés
pour faire du codage analogique-numérique et sont donc essentiels avec l’évolution vers un
traitement du signal de plus en plus numérique) et en circuits numériques, utilisés en
traitement du signal en aval des précédents et, bien sûr, dans tous les dispositifs de calcul.
Sur le plan technologique, il existe deux grandes familles de circuits intégrés : les
circuits à base de transistors bipolaires, les premiers utilisés et industrialisés, et les circuits
à base de transistors M.O.S. (metal oxyde semiconductor), les premiers imaginés sans
doute, au début des années trente.
Les circuits bipolaires sont intrinsèquement plus rapides, mais dissipent plus de
puissance et ne permettent pas de mettre autant de fonctions sur la même surface de
silicium que les circuits M.O.S., moins rapides intrinsèquement mais dissipant moins de
puissance, surtout les circuits dits C.M.O.S. (le C pour complementary). Dans les deux
types de circuits, l’évolution de la technologie permet de faire des dessins de circuits de
plus en plus fins (et de les fabriquer avec un pourcentage suffisant de succès, grâce à
l’utilisation de précautions plus importantes dans des salles de plus en plus dépoussiérées),
et de ce fait d’obtenir des vitesses de fonctionnement de plus en plus grandes ainsi qu’un
nombre de transistors par pastille (par puce, en anglais chip) en augmentation constante.
L’état de l’art au début des années quatre-vingt-dix permettait de réaliser industriellement
des dessins où les détails les plus petits étaient de 1 micromètre et, au stade du laboratoire,
de 0,5 micromètre. Ces mêmes dimensions étaient respectivement de 6 et de 3 micromètres
à la fin des années soixante-dix.
La fabrication de circuits intégrés repose sur une série (de dix à quinze) d’opérations
successives (photographie, dite photogravure, qui peut utiliser des faisceaux d’électrons
plutôt que des rayons lumineux pour donner des dessins plus fins ; oxydation du silicium ;
implantation d’impuretés en nombre très contrôlé par projection très vigoureuse de ces
impuretés sur le substrat...) appelée filière, à partir de dessins réalisés par des
« concepteurs » grâce à l’aide d’outils informatiques (conception assistée par ordinateur, ou
C.A.O.). La C.A.O. utilise des simulateurs pour le calcul des résultats probables, aide à
définir les séquences de test qui permettront de vérifier (suffisamment) que le circuit final
est bon. Elle utilise des ordinateurs qui ont besoin d’être de plus en plus puissants à mesure
qu’il y a plus de fonctions différentes sur la même pastille, et des programmes qui ont
besoin d’être de mieux en mieux structurés.
Les utilisateurs cherchent souvent à réaliser eux-mêmes des circuits intégrés adaptés
à leurs besoins spécifiques en faisant leur propre conception en association avec un
« fondeur » qui, disposant de « filières » bien au point, peut à la fois fournir les données de
base nécessaires à la C.A.O. (outils de compilation) et ensuite effectuer physiquement sur
le silicium les opérations délicates de physico-chimie nécessaires pour obtenir le circuit
intégré final.
Les composés III-V sont variés, mais les premiers qui ont vu le jour industriellement
sont les composés à base d’arséniure de gallium (certains sont d’ailleurs fabriqués sur un
substrat de silicium). Quoique ne bénéficiant pas de l’avantage considérable que connaît le
silicium d’avoir un oxyde (la silice) extraordinairement stable et protecteur, les composés
III-V possèdent des propriétés intéressantes :
– ils permettent de faire des lasers (de très petite dimension) fournissant des
sources intenses de lumière pure ;
– ils sont enfin plus rapides intrinsèquement que leurs homologues au silicium.
En revanche, toutes choses égales par ailleurs, ils sont plus coûteux que leurs
homologues au silicium quand ceux-ci existent.
Il est utile d’en présenter une autre, selon laquelle l’électronique apparaît aujourd’hui
segmentée en trois branches finalement très différentes, tellement différentes qu’il est en
général tout à fait déconseillé d’en pratiquer deux dans la même unité (usine, division ou
petite filiale).
Dans la première branche, que l’on peut qualifier de branche grand public, on
fabrique des produits dont le prix unitaire est rarement supérieur à 7 000 francs et dont
plus d’un million d’exemplaires par an sortent de la même unité de production. Cette
importante quantité de produits peu coûteux est fabriquée avec des moyens très
automatisés, ce qui permet d’obtenir une excellente fiabilité, mise en évidence par le fait
que le rapport :
La troisième branche, enfin, est celle que l’on qualifie parfois d’électronique
institutionnelle. Le prix des équipements se situe entre 15 000 francs et quelques
millions de francs. La quantité fabriquée annuellement par unité de production varie de 1
000 à 100 000. Le coût de l’après-vente rapporté au coût de fabrication et
d’essais est élevé (pouvant atteindre 200 p. 100), car si les équipements fournis sont
d’assez bonne qualité, ils sont servis par des utilisateurs qui n’ont pas été formés à cet effet,
et qui disposent d’une documentation sommaire. Cette branche recouvre la téléphonie
privée, l’essentiel de l’instrumentation et, surtout, l’essentiel de l’informatique.
Une autre façon de distinguer ces trois branches est de dire que le mot clef en grand
public est usine, en professionnel, recherche et développement, en institutionnel, réseau : la
dernière chose à sacrifier en électronique grand public sont les investissements, en
électronique professionnelle la recherche et développement, en électronique
institutionnelle, l’après-vente.
Quant aux composants électroniques, on peut les classer en trois catégories de façon
un peu analogue : les composants d’emploi général ; les composants typiquement grand
public (tubes cathodiques shadow-mask ou équivalents pour téléviseurs couleurs grand
public, haut-parleurs de téléviseurs, etc.) ; les composants typiquement professionnels
(utilisés dans les satellites, dans les matériels militaires « durcis », c’est-à-dire protégés
contre les radiations, les tubes micro-ondes pour radars et faisceaux hertziens, etc.).
En schématisant, on peut dire que l’informatique serait restée une petite industrie si le
transistor planar n’avait pas été inventé, mais que l’essentiel des machines informatiques
utilisent le vieux schéma de von Neumann. À l’autre extrémité, les montres modernes (à
quartz, circuits intégrés et souvent affichage à cristaux liquides) n’ont existé que grâce aux
progrès de la technologie.
En schématisant toujours, on peut dire que l’important aujourd’hui n’est plus comme
dans les années cinquante d’inventer de nouveaux concepts mais de trouver les moyens
pratiques d’utiliser de vieux concepts pour réaliser des équipements plus performants, ou
moins coûteux.
Les nouveaux matériaux sont les fibres de carbone, les matériaux composites, le
nitrure d’aluminium, les cristaux liquides, le silicium amorphe, les pérovskites
supraconductrices à température pas trop basse et, bien sûr, la grande famille des
composés III-V, sans compter les polymères nouveaux (piézoélectriques) ; il ne s’agit là
que de quelques exemples de matériaux inédits (peu utilisés autrefois ou utilisés pour
d’autres raisons) qui ont permis des progrès essentiels en électronique.
La microlithographie, qui permet de graver les dessins très fins des circuits intégrés
très denses, après s’être contentée de lumière visible (jusqu’à des finesses de 1 micromètre
environ), puis de gravure à faisceau d’électrons (permettant de descendre à des finesses
d’environ 2 dixièmes de micromètre) devra ouvrir une place à la gravure par faisceau
d’ions ou par rayons X pour atteindre des finesses accrues.
Or il semble bien que les outils nécessaires demain en technologie seront beaucoup
plus chers que ceux d’aujourd’hui (en coût d’achat ou de production des outils eux-mêmes,
en coût de formation du personnel qui les utilisera). À titre d’exemple, le prix d’un appareil
de test de circuits intégrés performant (150 entrées/sorties) était de quelques millions de
francs. Il est maintenant (pour des circuits de 250 entrées/sorties) de quelques dizaines de
millions de francs. Il est probable qu’il atteindra à la fin des années quatre-vingt-dix des
sommes extraordinaires : peu pourront l’acheter en France (faut-il dire en Europe ?).
Il s’agit là, avec les coûts énormes des outils de développement des logiciels, de l’une
des raisons qui inciteront à de nouveaux regroupements industriels en électronique, et à des
accords de coopération internationale pour réduire les dépenses (fixes) de recherche et
développement.