Vous êtes sur la page 1sur 31

ÉLECTRONIQUE (INDUSTRIE)

Prise de vue

L’utilisation du mot électronique dans sa présente acception est relativement


récente : jusqu’aux années cinquante, ce vocable se rapportait le plus souvent à la seule
discipline qui traitait du mouvement des électrons dans le vide, et ce qu’on appelle
maintenant l’électronique était qualifié de radioélectricité, voire de télégraphie – ou de
téléphonie – sans fil, plus connue sous le sigle T.S.F.

La raison en est que, avant la Seconde Guerre mondiale, les applications de


l’électronique se limitaient, pour l’essentiel, à la transmission par ondes radio et à la
radiodiffusion.

Aujourd’hui, l’électronique intervient dans la vie quotidienne de chacun, et le


chiffre d’affaires de l’industrie électronique mondiale dépasse les quatre mille milliards de
francs, dans les domaines les plus variés.

On rappellera d’abord les principales étapes de cette révolution. Puis on


classera, de façon assez arbitraire mais néanmoins classique, les différents domaines de
l’électronique, qui seront examinés l’un après l’autre, à savoir : l’électronique
professionnelle d’État, l’électronique professionnelle privée, l’électronique grand public,
l’informatique et la bureautique, les télécommunications, les composants. Un autre mode
de classification, moins classique mais très utile, sera ensuite indiqué et analysé. Enfin,
l’évolution possible de l’industrie électronique ainsi que les conséquences qui en
résulteront seront évoquées.

1. Historique
Tout historique non exhaustif – et aucun ne peut l’être – est critiquable par le choix
des événements considérés comme essentiels par l’auteur, et par le choix des inventeurs et
des pionniers, puisqu’il est extrêmement rare qu’une découverte soit le fait d’un seul
chercheur. Au demeurant, nombre de découvertes n’ont pas eu de suite immédiate pour
force raisons, et d’autres, qui ne seront pas évoquées parce qu’elles n’apparaissent pas
aujourd’hui avoir reçu d’applications, en auront peut-être plus tard, par exemple lorsque
des découvertes de physico-chimie permettront de les utiliser de façon pratique.
Quoi qu’il en soit, on peut sans doute faire remonter le début de l’électronique à
l’année 1820, lorsque Hans Christian Œrsted découvre accidentellement l’effet d’un
courant électrique sur une aiguille aimantée, et lorsque, peu après, André-Marie Ampère
met en évidence l’effet d’un courant électrique sur une boucle parcourue par un courant
électrique, premières transmissions d’une information à (très courte) distance. Ce
phénomène est précisé en 1831 par Michael Faraday.

Vers 1860, un Français d’origine italienne, l’abbé Giovanni Caselli, imagine


l’analyse d’une image ligne par ligne, processus qui reste aujourd’hui la base d’une
transmission de télévision. On peut voir au Conservatoire national des arts et métiers de
Paris deux exemplaires de son « pantélégraphe ». Cet appareil sera exploité par la Société
des télégraphes, de 1867 à 1870 : il servait à expédier des ordres de Bourse, permettant
d’authentifier la signature du donneur d’ordre ; à la réception, on utilisait une feuille de
papier imbibée d’iodure de potassium sur laquelle le dessin apparaissait sous forme d’un
tracé marron. Le premier télécopieur, sans doute, et le début de la télématique !

James Clerk Maxwell résume quantitativement les lois de l’électromagnétisme à la


fin des années 1860 et Alexander Graham Bell invente la téléphonie sur fil en 1875 : il
utilise les propriétés conductrices des fils métalliques pour transporter les variations de
courant électrique produites par un microphone.

C’est en 1879 que William Crookes produit les premiers rayonnements que
Wilhelm Conrad Rœntgen – incertain qu’il était de leur véritable nature – baptisera
rayons X en 1895, essentiels aujourd’hui en diagnostic médical .

Une autre date clef se situe en 1887, lorsque Heinrich Rudolf Hertz explicite le fait
qu’il n’existe pas de différence essentielle entre les ondes électromagnétiques de grandes
longueurs d’onde et les ondes lumineuses, de très petites longueurs d’onde. Cette remarque
fondamentale conduira, bien plus tard, au radar et aux faisceaux hertziens. Moins tard
pourtant qu’on ne le pense couramment, puisque le premier « radar » exploitant la réflexion
des ondes électromagnétiques sur les obstacles – le « télémobiloscope » – a été conçu en
1904 par l’Allemand Christian Hülsmeyer, sans suite pratique cependant jusqu’au début
des années trente, lorsque des « radars » (qui ne s’appelaient pas encore ainsi) américains
(développés par A. H. Taylor, L. C. Young et L. A. Hyland), français (développés par
Pierre David, Maurice Ponte et Henri Gutton) et allemands seront réalisés ; ils étaient
capables de détecter le passage d’avions, sans toutefois mesurer directement leur distance.
La véritable origine de la télégraphie sans fil date de 1897 : Guglielmo Marconi ,
utilisant à la réception le « cohéreur » inventé par Édouard Branly en 1890 à
l’emplacement de l’actuel Institut supérieur d’électronique de Paris, établit la première
liaison radio, entre La Spezia et le navire militaire San Marino, distant de 16 kilomètres.

Jonathan Adolf Wilhelm Zenneck réalise en 1899 un véritable oscilloscope (d’après


les travaux de Ferdinand Braun en 1896) qui donnera naissance aux appareils de mesure et
d’analyse aujourd’hui utilisés dans tous les laboratoires d’électronique, aux écrans dont se
servent les contrôleurs du trafic aérien, et aux écrans de télévision.

Les fondements de la théorie quantique sont jetés par Max Planck en 1900, sous une
forme très sommaire, il est vrai. Nombre de savants vont la perfectionner. Cette théorie est
à la base des lasers et de l’essentiel de l’optoélectronique.

Cependant, il ne suffisait pas d’avoir énoncé les grandes lois de l’électromagnétisme


et d’avoir obtenu des liaisons à relativement courte distance ; il fallait disposer des organes
(composants) capables, à court terme, d’émettre des puissances élevées et d’améliorer la
sensibilité des récepteurs ; à plus long terme, de manipuler et de filtrer les signaux reçus.

Plusieurs découvertes essentielles ont lieu au début du XXe siècle, qui apportent les
outils nécessaires : la triode, inventée en 1906 par Lee De Forest, sera, jusqu’à l’invention
du transistor, l’organe essentiel de l’électronique ; elle est encore utilisée dans certains
émetteurs de très grande puissance (souvent sous la forme de tétrode).

La réception à réaction, inventée en 1913 par Edwin H. Armstrong, et, surtout, la


réception superhétérodyne, trouvée par Lucien Lévy en 1917-1918, vont permettre
d’obtenir une sensibilité meilleure. Tous les récepteurs de radio sont encore
superhétérodynes, comme les récepteurs de télévision, et la plupart des radars et des
faisceaux hertziens.

En ce qui concerne la prise de vue en télévision, il semble que la première conception


d’une caméra correspondant à celles que l’on réalise encore aujourd’hui se trouve dans un
brevet (sur un « iconoscope ») de Vladimir Kosma Zworykin déposé en 1923. Il faut
cependant noter que, sous sa forme primitive, ce dispositif n’était pas réalisable, et il faudra
attendre 1925 pour que l’iconoscope, développé dans les laboratoires de la firme R.C.A.,
devienne opérationnel.

Le premier magnétron est réalisé par Albert Wallace Hull en 1924 et perfectionné par
les Français Maurice Ponte et Henri Gutton entre 1935 et 1939 ; il contribuera à améliorer
les radars d’une manière décisive lors de la Seconde Guerre mondiale, car il était capable
de produire des puissances élevées à des longueurs d’onde décimétriques et centimétriques.
Le magnétron est aujourd’hui le composant essentiel des fours à micro-ondes.

Le klystron, qui est chronologiquement le deuxième type de tubes générateurs ou


amplificateurs de micro-ondes, est inventé en 1936 (en même temps donc que les
magnétrons modernes) par G. F. Metcalf et W. C. Hahn. Il s’agit du premier
des tubes dits à modulation de vitesse, ou tubes O, dans lesquels l’énergie électrique donne
aux électrons une énergie cinétique qui se transforme en énergie électromagnétique, alors
que dans les tubes M tels que le magnétron, l’énergie électrique communique aux électrons
de l’énergie potentielle, laquelle est transformée en énergie électromagnétique. Le klystron
est encore très largement utilisé dans les radars, dans les faisceaux hertziens, dans les
accélérateurs de particules, dans les lasers à électrons libres, etc.

Parmi les autres tubes O descendant du klystron, on trouve les tubes à onde
progressive (T.O.P.), qui équipent aujourd’hui nombre de radars et de satellites, et parmi
les tubes M, les tubes amplificateurs à champs croisés qui équipent également beaucoup de
radars.

Le Japonais Yagi Hidetsugu, qui avait par ailleurs travaillé immédiatement après Hull
sur le magnétron, est le chercheur dont l’invention est peut-être la plus familière à chacun,
pratiquement sous sa forme initiale, inchangée, puisque les antennes individuelles
constituées d’un certain nombre de dipôles, utilisées à l’entrée des récepteurs de télévision,
et que l’on trouve sur presque tous les toits, ont été réalisées pour la première fois par cet
inventeur en 1926. On les appelle d’ailleurs très souvent des yagis.

C’est sans doute Dauvilliers qui imagine pour la première fois, en 1928, l’utilisation
d’un oscilloscope pour transformer le signal électrique en image de télévision, en somme
ce que l’on fait toujours aujourd’hui.

Le premier magnétophone semble avoir été utilisé en Allemagne en 1938, par une
station de radiodiffusion.

Alors que jusqu’en 1930 les applications à grande échelle de la « radioélectricité »


étaient essentiellement les transmissions militaires (le général français Gustave Ferrié avait
beaucoup contribué au développement des transmissions « sans fil » pendant la Grande
Guerre), les années trente vont voir le début de l’électronique grand public, avec
l’apparition des récepteurs radio à haut-parleur et des « pick-up », les balbutiements de la
radionavigation à l’aide d’ondes radio, en même temps que les premiers développements
de la physique des solides, par Felix Bloch et Allan H. Wilson (le transistor M.O.S. – metal
oxyde semiconductor – a été imaginé dès le début des années trente).

La Seconde Guerre mondiale a pour conséquences un extraordinaire développement


du radar, des faisceaux hertziens, des moyens de radionavigation et de
radiocommunications ; on assiste, au début de la détection infrarouge, aux premiers
balbutiements de la théorie de l’information (par Norbert Wiener).

C’est à la fin du conflit que John von Neumann met à profit, aux États-Unis, les idées
émises en 1936 par le Britannique Alan Turing. Aujourd’hui encore, la plupart des
calculateurs numériques universels (improprement appelés ordinateurs) fonctionnent
suivant les conceptions de von Neumann et, même si un Allemand, Konrad Zuse, a sans
doute réalisé en 1944 le premier calculateur numérique opérationnel, on s’accorde à donner
comme point de départ de l’informatique moderne la réalisation en 1945 de l’E.N.I.A.C.
(Electronic Numerical Integrator And Computer) construit par les Américains J. Presper
Eckert et John Mauchly, énorme machine de 30 tonnes contenant 18 000 tubes
électroniques dissipant une puissance énorme. À titre de comparaison, un microprocesseur
contient de 0,6 à 4 millions de composants sur une « puce » de 1 centimètre carré environ.

Mais il est probable que l’informatique n’aurait connu qu’un développement notable,
sans plus, si deux événements considérables n’étaient survenus : la réalisation, en 1948, du
premier transistor à pointe (par William Bradford Shockley, John Bardeen et Walter
H. Brattain) et la mise au point, en 1958, au sein de la firme Fairchild Semiconductors (par
Jean Hoerni), de la technologie « planar » conduisant aux circuits intégrés contenant
aujourd’hui jusqu’à environ un million de transistors sur le même (très) petit composant.
Le germanium, qui avait au début permis de réaliser les premiers transistors et les premiers
récepteurs radio à transistors, sera vite définitivement abandonné au profit du silicium, dont
l’extraordinaire stabilité de son dioxyde (en somme, le sable), très facile à élaborer,
permettra au physico-chimistes de progresser extrêmement rapidement dans la voie de la
densification des fonctions électroniques.

Un autre groupe de matériaux semiconducteurs, les composés dits III-V – associant


des atomes à trois électrons périphériques, comme le gallium, l’indium et l’aluminium, à
des atomes à cinq électrons périphériques, comme le phosphore et l’arsenic – permettent de
réaliser les premiers circuits intégrés entre 1974 et 1976, avec à la fois, pour les premiers
circuits intégrés en arséniure de gallium, des propriétés de grande rapidité et de résistivité
élevée qui leur permettaient des applications au calcul rapide et/ou en micro-ondes, et des
possibilités d’utilisation en optoélectronique (réalisation de petits lasers aujourd’hui utilisés
en télécommunication sur fibres optiques ou sur des fusées de proximité). La possibilité de
réaliser avec ces matériaux, grâce à des méthodes nouvelles (épitaxie par jet moléculaire),
des couches superposées extrêmement fines (épaisseurs d’un ou de plusieurs atomes) de
matériaux différents, les moyens modernes de dopage par implantation (un matériau
semiconducteur doit souvent comprendre un pourcentage très faible, mais bien contrôlé,
d’impuretés que l’implantation injecte en force dans le matériau de base) permettent
d’élaborer des structures nouvelles (par rapport aux structures classiques de transistors), et,
par là, d’accéder à des performances, donc à des applications nouvelles.

Ces outils, fournis par la physico-chimie moderne, ont petit à petit permis d’appliquer
les idées des spécialistes du traitement du signal (Claude Shannon, 1948 ; P.
M. Woodward, 1949) qui, à partir d’une réflexion sur la nature des problèmes à
résoudre, avaient souvent ouvert la voie à des solutions inédites de problèmes anciens, par
l’utilisation d’outils mathématiques parfois très anciens (transformations de Laplace-
Carson, de Fourier), parfois redécouverts (transformation de Fourier rapide, déjà utilisée en
fait par Butler de nombreuses années auparavant). C’est ainsi qu’ont été peu à peu utilisées
les notions de « compression d’impulsion » (en radar) ou de modulation à spectre étalé (la
même technique, mais appliquée aux télécommunications), de filtre adapté, de filtres
transverses, de filtrage auto-adaptatif, etc., qui ont changé le domaine d’application des
fonctions électroniques classiques ou encore ouvert la voie à des applications nouvelles
(compression de la parole, parole artificielle, réduction de la largeur de bande nécessaire à
la transmission des images, etc.).

Les spécialistes du traitement du signal ont même parfois incité les techniciens à
créer des composants inédits adaptés à leurs problèmes (filtres électro-acoustiques à ondes
de surface, inventés en France en 1967-1968 par Charles Maerfeld, Eugène Dieulesaint et
Pierre Harteman, de la société Thomson-C.S.F.).

Les méthodes de physico-chimie développées pour l’industrie des semiconducteurs et


convenablement adaptées ont permis de réaliser des fibres de verre très pur et de
constitution bien contrôlée, rendant possible le transfert à longue distance d’une grande
quantité d’information sous forme lumineuse dans des fibres optiques grâce à l’utilisation
de dispositifs optoélectroniques.
Si les triodes et les klystrons peuvent aujourd’hui fournir des puissances énormes,
c’est grâce à l’utilisation de dispositifs de refroidissement nouveaux et performants (le
« vapotron », inventé en 1950 par Charles Beurtheret, de la société Thomson-C.S.F.), grâce
à la triode à grilles en graphite pyrolithique (Thomson-C.S.F., vers 1960), grâce aussi, pour
les klystrons et les tubes à onde progressive, à l’utilisation, sur des calculateurs très
puissants, de programmes de calculs importants.

Des programmes de même nature permettent de concevoir et de réaliser des antennes


de forme nouvelle, beaucoup plus performantes que les anciennes, et, sans la conception
assistée par ordinateur, personne ne pourrait sérieusement envisager de réaliser des
composants (microprocesseurs, etc.) comportant plusieurs millions de transistors par puce.

Ces chercheurs, et bien d’autres, qui n’ont pas été cités, ont fait de l’industrie
électronique des années quatre-vingt-dix une industrie majeure.

2. La révolution des circuits intégrés


Jusqu’au milieu des années soixante, les équipements électroniques ont été construits
essentiellement par association de composants individuels. Certaines fonctions complexes
(de filtrage, de commutation, etc.) pouvaient bien être réalisées, dans le domaine des
micro-ondes, par des « dispositifs », mais la très grande majorité des fonctions étaient
élaborées par association de composants actifs (diodes, triodes puis transistors) et de
composants passifs (condensateurs, inductances – ou selfs –, résistances, etc.) que l’on
reliait (interconnectait) par des conducteurs électriques. Jusqu’au milieu des années
cinquante, une fonction était réalisée sur un support rigide (le châssis) auquel étaient
accrochés les éléments interconnectés par des câblages filaires (fils de cuivre recouverts
d’un isolant). L’arrivée des transistors, moins encombrants et plus légers, a conduit petit à
petit à la généralisation des cartes imprimées (ou circuits imprimés), c’est-à-dire de
dispositifs supports, le plus souvent rigides, sur lesquels sont imprimées les
interconnexions métalliques qui permettent de réaliser les connexions convenables entre les
composants rapportés sur la carte. La complexité des circuits nécessitant souvent plusieurs
couches d’interconnexions, des circuits imprimés multicouches ont commencé à être
utilisés dès le début des années soixante ; ces circuits imprimés multicouches sont
constitués de plusieurs (jusqu’à 20) épaisseurs de feuilles isolantes imprimées
d’interconnexions métalliques ; ils sont percés de trous qui permettent d’enficher les
« queues » métalliques des composants soudés aux interconnexions métalliques.
Une énorme révolution est intervenue au milieu des années soixante, avec l’arrivée
des circuits intégrés, c’est-à-dire de pastilles – de silicium, d’abord, puis, au début des
années quatre-vingt, d’arséniure de gallium – de petite dimension (le plus souvent
inférieures à 1 cm2) comportant elles-mêmes d’abord une fonction complète, c’est-à-dire
plusieurs transistors et les composants passifs associés, puis un ensemble de fonctions,
enfin un véritable petit équipement (par exemple une matrice de commutation téléphonique
ou un calculateur complet dit microprocesseur).

Le problème devient alors d’interconnecter les quelques circuits intégrés qui seront
nécessaires pour réaliser l’équipement, chaque circuit intégré ayant d’autant plus de sorties
et d’entrées qu’il comporte de transistors internes (on atteint plusieurs centaines de
« pattes » lorsque le circuit intégré comporte plusieurs centaines de milliers de transistors).
La conception du schéma d’interconnexion et la façon pratique de le réaliser (multicouche,
câblage utilisant partiellement de l’optique) pourront être difficiles et nécessiteront de
puissantes aides informatiques. La réalisation pratique devra être effectuée le plus souvent
avec peu d’intervention humaine mais avec des outillages automatiques.

La fabrication des équipements électroniques à base de circuits intégrés effectuant


chacun un nombre de plus en plus grand de fonctions par des modes d’assemblage de
moins en moins manuels est la première caractéristique de l’évolution de l’électronique
dans les années soixante-dix et quatre-vingt, qui conduit clairement à une diminution
constante du temps de fabrication par fonction à remplir.

L’autre caractéristique essentielle a trait à la méthodologie des essais. Dans les années
cinquante, un équipement électronique était essayé à la main par un technicien qui testait
point par point le bon état de la « circuiterie » (et, au besoin, très souvent, faisait
l’éventuelle réparation).

Quatre phénomènes, se complétant et se « poussant », ont conduit, durant les années


quatre-vingt, à la généralisation de tests automatiques par des machines utilisant des
calculateurs ; il s’agit :

– du caractère plat et parfaitement reproductif des circuits imprimés, qui permet


de positionner automatiquement des testeurs par points ;

– de l’apparition de calculateurs performants et rapides, qui permettent de


répéter sans erreur des séquences de test mises au point une fois pour toutes (avec
beaucoup d’intelligence) par des ingénieurs concepteurs de test ;
– du plus grand nombre de mesures à faire (augmentation des performances des
équipements électroniques conçus), qui nécessite des « bancs de mesures » automatiques et
rapides ;

– de l’utilisation de plus en plus fréquente de l’électronique numérique, aux lieu


et place de l’électronique analogique (en numérique, à un instant et à un endroit donnés, il
n’y a que deux états possibles, alors qu’en analogique il y en a une infinité), qui facilite les
tests automatiques mais n’est guère compatible avec des tests manuels à cause du nombre
extrêmement grand de combinaisons des deux états possibles en chacun des points du
circuit.

Ainsi assiste-t-on à une diminution permanente du temps d’essai par fonction à


remplir.

L’industrie électronique correspond donc à une augmentation de la complication de la


conception des équipements et de leurs essais, en même temps qu’à une amélioration
permanente de la productivité (temps de fabrication et d’essai par fonction à remplir).

Les investissements importants de conception, d’outillage de fabrication et d’essais


devront s’amortir sur des fabrications en grand nombre (matériels grand public) ou pouvoir
servir à différents équipements (conception modulaire des équipements d’électronique
professionnelle, où les mêmes sous-ensembles sont utilisés dans différentes familles
d’équipements).

Si l’on essaie de définir quel était à la fin des années quatre-vingt le taux
d’amélioration de la productivité d’un équipement électronique, on se rend vite compte de
la difficulté du problème, en particulier parce qu’on compare des choses difficilement
comparables entre elles (une calculette de poche est maintenant plus performante qu’un
calculateur de plusieurs mètres cubes de 1960), mais aussi parce que toutes les branches de
l’électronique n’ont pas évolué de la même façon (l’industrie téléphonique avait peu évolué
entre 1920 et 1970, avant de se précipiter, en se « numérisant », dans une révolution
technique et industrielle de 1975 à 1985).

Il n’est probablement pas faux de dire qu’en moyenne, à la fin des années quatre-
vingt, la productivité s’améliorait d’environ 6 p. 100 par an. Ce qui signifie, d’une certaine
façon, qu’une diminution de chiffre d’affaires de 6 p. 100 par an sur plusieurs années
correspond en fait à un nombre constant d’équipements vendus par an (de lignes
téléphoniques installées, etc.)
3. L’électronique professionnelle d’État
L’électronique professionnelle d’État est sans doute la première à avoir connu un réel
développement avec les applications militaires de la radio (effectuées par le général Ferrié
pendant la Première Guerre mondiale). Ce vocable regroupe essentiellement, dans les
statistiques, des équipements et des services vendus à des États ou à des organismes d’une
envergure analogue (grosses compagnies de transport aérien, constructeurs d’avions de
ligne, E.D.F. ou équivalents...).

L’électronique professionnelle d’État concerne à 80 p. 100 le domaine militaire. Ses


différentes activités sont :

– les communications militaires et la téléphonie associée (les « transmissions »),


qui ont constitué sa première activité ;

– la détection et le contrôle de la navigation (radars de surface ou radars de


surveillance montés sur plates-formes volantes, et systèmes de manipulation des données
correspondantes, avec les « faces parlantes », écrans et informations tabulaires de toute
nature permettant aux contrôleurs de diriger les évolutions des avions, navires et autres
mobiles ;

– les aides à la navigation (systèmes permettant aux mobiles de se situer


géographiquement, à partir d’informations radioélectriques provenant du sol ou de
satellites) et à l’atterrissage (aides automatiques comme l’I.L.S. – instrument landing
system –, ou les plus récents M.L.S. – microwave landing system –, ou P.A.R. – precision
approach radar), permettant à des opérateurs au sol d’aider par la voix les pilotes d’avions
à se poser ;

– la détection des sous-marins par des sonars actifs (analogues aux radars mais
envoyant un signal sonore ou ultrasonore dans l’eau pour récupérer ensuite l’écho renvoyé
par le sous-marin) ou passifs (écoutant les bruits émis par les sous-marins pour les analyser
ensuite) ;

– l’armement des avions de combat (radars permettant d’indiquer au pilote la


position de l’adversaire et l’aidant à l’attaquer ou à se défendre, radars permettant le vol à
basse altitude, etc.) ;

– l’équipement des missiles (fusées de proximité, autodirecteurs), des obus


(fusées de proximité), des torpilles (guidage) ;
– les systèmes au sol permettant le guidage des missiles surface-air ;

– les équipements de simulation permettant de façon plus économique et sans


risque d’apprendre à piloter des avions, des chars, des centrales nucléaires ;

– les émetteurs radios et les émetteurs ou réémetteurs de télévision ;

– l’équipement des satellites scientifiques et d’application (photographie


aérienne en visible, en infrarouge, en radar).

Les techniques utilisées recouvrent très largement le domaine des ondes


électromagnétiques très longues (pour la transmission militaire, on va jusqu’à utiliser des
longueurs d’onde de 10 000 kilomètres), moyennes, courtes, pour les
radiocommunications, des micro-ondes (de quelques dizaines de centimètres à quelques
millimètres) pour la détection et les communications, des ondes micrométriques
(infrarouge et lumière visible) pour la détection et la transmission (sur fibres optiques).

L’électronique professionnelle fait aussi usage des ultrasons, à la fois comme outils
de traitement du signal et comme signal de base (dans la détection et les transmissions
sous-marines).

L’électronique professionnelle d’État utilise des équipements de plus en plus


sophistiqués, qui doivent pouvoir fonctionner dans n’importe quel contexte, en dépit des
perturbations atmosphériques, des signaux parasites et des contre-mesures de l’adversaire
(brouillages aveugles ou dispositifs de leurrage), qui cherchent à écouter en temps de paix
pour préparer la guerre (écoute stratégique), ou en temps de guerre pour neutraliser les
moyens adverses.

Les équipements de l’électronique professionnelle d’État, qui sont souvent amenés à


fonctionner dans des conditions climatiques difficiles, sont fabriqués en petit nombre (les
fabrications dépassent rarement quelques milliers d’unités par an, sauf pour les fusées de
proximité d’obus ; elles sont parfois de quelques unités par an, voire d’un équipement tous
les cinq ans). Ils ne peuvent donc pas être fabriqués sur des chaînes entièrement
automatiques équipées de machines-transferts ou matériel équivalent, mais plutôt dans des
ateliers flexibles, avec des machines capables de produire dans la même journée différents
types de produits. En raison de quoi et à cause de leur sophistication ultime, ils ne peuvent
pas avoir en fait la fiabilité des matériels grand public fabriqués à plusieurs millions
d’exemplaires par an de façon extrêmement automatisée. En revanche, ils sont très souvent
utilisés par du personnel extrêmement compétent, qui a reçu la formation nécessaire pour
connaître les équipements en question et savoir s’en servir, assurer une maintenance
préventive (mesures destinées à éviter les pannes), dépanner les équipements rapidement
(par changement de sous-ensembles).

Les équipements d’électronique professionnelle d’État sont le plus souvent organisés


en systèmes (systèmes d’armes, systèmes de contrôle, systèmes de communications...)
constitués d’un certain nombre d’équipements s’échangeant des informations (sous forme
de plus en plus numérique), informations simples ou complexes (images colorées), qui sont
stockées en plusieurs endroits mais accessibles à chaque instant. La part de traitement
numérique augmente chaque jour, ce qui permet une plus grande souplesse d’emploi, sous
réserve que les organes de calcul qui gèrent les systèmes et traitent l’information soient
pilotés par des programmes suffisamment complexes, leur permettant de réagir à temps en
cas d’événements imprévus : on dit qu’il s’agit d’informatique en « temps réel ». Les
programmes correspondants (les logiciels) sont de plus en plus gros, donc de plus en plus
difficiles à mettre en œuvre.

La structure de l’industrie électronique professionnelle d’État était extrêmement


dispersée après la Seconde Guerre mondiale, particulièrement en France, où il convenait de
reconstruire, et où toute bonne volonté un peu compétente trouvait sa place pour un temps.
Les industriels les plus importants des États-Unis (General Electric, R.C.A., Raytheon, etc.)
réalisant des matériels très sophistiqués au prix d’investissements énormes en recherche et
en développement (de 30 à 35 p. 100 du chiffre d’affaires), essentiellement financés (à un
niveau supérieur à 80 p. 100) par le ministère de la Défense, la structure dispersée s’est
progressivement révélée inefficace pour envisager de rester en France à un niveau
compétitif. Les années 1960 et 1970 ont vu une considérable réduction du nombre des
industriels français, dans le but de mieux utiliser les ressources disponibles pour la
recherche et le développement (environ 20 à 25 p. 100 de l’activité). Des évolutions
analogues se sont produites en R.F.A. et en Italie ainsi qu’à un niveau moindre en Grande-
Bretagne (où la tentative de rachat de Plessey par G.E.C. Marconi, société résultant elle-
même de la réunion de plusieurs sociétés notables, avorta).

La situation de l’électronique professionnelle d’État de la fin des années quatre-vingt


est caractérisée, en premier lieu, par l’absence de vrai « grand » (les cinquante premières
sociétés font 88 p. 100 du chiffre d’affaires, mais la première n’en fait que 8 p. 100), en
deuxième lieu, par la présence très importante des États-Unis (qui réalisent 75 p. 100 du
chiffre d’affaires, alors que l’Europe en réalise 22 p. 100 et le Japon 2 p. 100, toujours hors
pays communistes), avec huit sociétés américaines dans les dix premières contre deux
européennes (Thomson-C.S.F. et G.E.C. Marconi), enfin, par une faiblesse du Japon, due
en partie à la doctrine japonaise selon laquelle jusqu’en 1987 le budget militaire ne pouvait
dépasser 1 p. 100 du P.N.B., et aussi au fait que le Japon ne peut exporter d’armement (le
budget militaire du Japon dépasse 1 p. 100 du P.N.B. depuis 1987).

Enfin, il convient de rappeler que l’ensemble du chiffre d’affaires de l’électronique


professionnelle d’État représentait à la fin des années quatre-vingt un montant un peu
supérieur à 600 milliards de francs français, c’est-à-dire 15 p. 100 du chiffre d’affaires de
l’industrie électronique.

4. L’électronique professionnelle privée


On regroupe sous la rubrique électronique professionnelle privée – correspondant à
10 p. 100 du chiffre d’affaires mondial de l’électronique – un ensemble d’activités toutes
en expansion moyenne et de création relativement récente : l’électronique médicale,
l’électronique automobile, l’équipement des studios de télévision, le contrôle industriel et
l’instrumentation, la sécurité et la surveillance localisées.

L’électronique médicale comprend l’imagerie médicale d’aide au diagnostic, les


équipements de soins que sont les irradiateurs (par rayons X, par neutrons, etc.), les
équipements destinés à pallier des insuffisances cardiaques (tels que les cardiostimulateurs
portatifs appelés « pacemakers » ) ou les équipements utilisés pour combattre des
déficiences du muscle cardiaque (défibrillateurs).

L’imagerie médicale d’aide au diagnostic utilise trois types de rayonnements : les


rayonnements ultrasonores, dans des équipements d’imagerie analogues aux sonars et
baptisés échographes ; les rayonnements fournis par des éléments radioactifs ingérés par le
patient (médecine nucléaire) et fournissant par exemple des informations sur le
métabolisme ; les rayonnements X, rayonnements électromagnétiques de très courte
longueur d’onde.

Depuis peu, des rayonnements à fréquence relativement faible (de l’ordre de celles
qui sont employées en radiocommunications militaires ou acoustiques) sont utilisés dans
les appareils de résonance magnétique nucléaire.

Le marché de l’imagerie médicale a été complètement bouleversé lorsque les


premiers « scanners », inventés par des radaristes de la société britannique E.M.I., sont
apparus dans les années soixante-dix ; dans ces appareils, l’image est reconstituée par un
calculateur à partir d’un très grand nombre d’informations (grand nombre de capteurs de
rayons X, grand nombre de positions de l’émetteur de rayons X). De tels appareils sont
d’un niveau de sophistication très supérieur aux anciens imageurs X, avec un émetteur
hyperfréquence très soigné, une mécanique de haute précision, un traitement du signal très
élaboré ; ils ressemblent plus à un radar qu’à un imageur X ancien !

Le métier du fabricant d’imageurs X s’en est trouvé bouleversé, avec la nécessité de


procéder à des investissements considérables en recherche et développement (au regard du
chiffre d’affaires immédiat, voire attendu). Les grands du métier, filiales ou départements
de groupes importants, y ont perdu beaucoup d’argent, alors que de nouveaux venus
ambitieux essayaient de profiter de l’occasion pour s’implanter dans ce nouveau marché, le
plus souvent sans succès.

L’importance de l’imagerie médicale a été confirmée dans les années quatre-vingt


avec les imageurs utilisant la résonance magnétique nucléaire, appareils également d’un
degré élevé de sophistication et nécessitant un gros investissement en recherche et
développement.

À la fin des années quatre-vingt, la situation était la suivante : seuls avaient survécu
un petit nombre de groupes, puisque trois sociétés se partageaient 60 p. 100 du marché
mondial des imageurs médicaux (General Electric, après absorption de la société française
C.G.R., Philips, après absorption de la société britannique Pickers, et Siemens) ; elles
étaient suivies par deux firmes japonaises (Toshiba et Hitachi) qui couvraient surtout les
besoins du Japon ; les cinq premières sociétés couvraient pratiquement 80 p. 100 du
marché mondial, estimé à 60 ou 70 milliards de francs à la fin des années quatre-vingt.

L’électronique automobile en est à ses débuts : ce n’est qu’à la fin des années
soixante-dix que l’on a commencé à utiliser sur une échelle assez grande l’allumage
électronique dit intégral, les calculateurs de bord, les systèmes antidérapage (A.B.S., anti
blocking system) utilisés depuis longtemps sur les avions de ligne ; avant la fin du
XXe siècle, des systèmes d’aide à la navigation, à l’anticollision, etc., apparaîtront sur le
marché.

À l’inverse des équipements d’électronique médicale, les équipements d’électronique


automobile sont fabriqués en très grande série ; de ce point de vue, ils s’apparentent aux
équipements d’électronique grand public, avec en plus des impératifs de sécurité qui
n’existent évidemment pas pour l’électronique grand public (aux États-Unis, des systèmes
électroniques de commande de freinage ont été mis en panne par le rayonnement de radars
de contrôle de vitesse, ce qui est évidemment intolérable).
En pratique, une partie significative de l’industrie de l’électronique automobile est
incorporée chez les fabricants d’automobiles, ou chez des sous-traitants en dépendant
étroitement.

L’électronique automobile verra son importance croître, ce qui nécessitera, afin


d’éviter des interférences catastrophiques, l’utilisation de câblage en fibres optiques.

Alors que l’électronique automobile s’apparente définitivement à l’électronique grand


public, l’équipement des studios de télévision et des moyens mobiles de reportage constitue
un ensemble d’équipements et de services hésitant entre la physionomie « professionnelle »
d’équipements sophistiqués faits en petit nombre (caméras lourdes de prises de vue avec
d’énormes zooms, coûtant de un à plusieurs millions de francs, matériel sophistiqué de
mélange et de trucage, analyseurs d’images fixes et télécinémas de très haute qualité) et la
physionomie « grand public » de l’utilisation de matériel de large diffusion (caméras et
magnétoscopes).

L’industrie de l’équipement des studios de télévision survivra ou disparaîtra, selon


que la balance penchera du premier côté, avec par exemple l’arrivée assez rapide de la
télévision haute définition (plus de 1 000 lignes à plus de 1 000 points) et son
utilisation pour le cinéma (il est plus facile de faire des manipulations d’images avec les
techniques « vidéo » de la télévision qu’avec les techniques conventionnelles du cinéma),
ou du second côté, si l’on constate que la qualité acquise en télévision au milieu des années
quatre-vingt se révèle en fait suffisante pour assez longtemps, donnant ainsi au matériel de
large diffusion le temps nécessaire pour atteindre progressivement la qualité désirée.

Le contrôle industriel et l’instrumentation ont pour mission de fournir à un nombre


pouvant être assez important d’utilisateurs – spécialistes le plus souvent – des moyens de
mesure et d’analyse leur permettant de mener leur action dans les meilleures conditions.
C’est dire que le concepteur d’un instrument doit le plus souvent connaître parfaitement le
domaine d’utilisation de cet instrument, et qu’il y a autant de familles d’instruments que de
domaines. Les instruments sont généralement installés dans un grand nombre d’endroits
différents ; s’ils nécessitent une maintenance de la part du constructeur, il y a donc lieu
pour celui-ci de disposer de personnel d’après vente à proximité des utilisateurs. Enfin, si
une personne ou un groupe de personnes sont amenés à concevoir un instrument inédit sur
un principe nouveau et que cet instrument apporte aux utilisateurs des services très
supérieurs aux instruments présents, le (ou les) concepteur(s) auront l’occasion d’une
percée industrielle et commerciale qui, bien exploitée, pourra conduire à la création d’une
société (petite ou grande) solide et prospère, au moins tant que l’envie de la diversification
ne la conduira pas à vouloir sortir de sa spécialité (l’examen de la création et de la vie de
grosses sociétés comme Hewlett-Packard, Schlumberger, Tektronix, Perkin Elmer... ou de
petites, comme la française Cameca, est instructif à cet égard).

On notera aussi qu’il pourra être très difficile de pénétrer dans un domaine de
l’instrumentation lorsqu’un autre s’y est déjà fait un nom et dispose du réseau commercial
bien introduit.

La sécurité et la surveillance localisées correspondent à des besoins évidents qui ne


font que croître et qui sont aujourd’hui de deux natures : celui, relativement grand public,
de protéger des appartements, des pavillons, des automobiles, aujourd’hui assuré par un
très grand nombre de petits fabricants, et le besoin professionnel de protéger des bases
militaires, des centrales de production d’énergie, des plates-formes de forage pétrolier...,
qui correspond à des installations lourdes, dont la nature et la composition restent souvent à
définir.

On peut s’attendre à ce que le premier besoin voit ses solutions se décanter petit à
petit dans les années quatre-vingt-dix en faisant apparaître un catalogue d’un nombre réduit
de produits à fabriquer alors en grande série par un « électronicien grand public », alors que
le second restera beaucoup plus celui de solutions sophistiquées construites sur mesure par
les industriels professionnels d’État.

Hors tout, l’électronique professionnelle privée, dont on sent qu’elle ne constitue pas
un tout homogène, et dont les constituants ne sont pas encore bien stabilisés dans leur
définition, représentait à la fin des années quatre-vingt un chiffre d’affaires de
400 milliards de francs environ, réalisé à raison de 51 p. 100 aux États-Unis, de 29 p. 100
en Europe, de 18 p. 100 au Japon.

5. L’électronique grand public


L’électronique grand public représente finalement, quoi qu’on puisse en penser a
priori, un chiffre d’affaires moins important que la peu connue électronique professionnelle
d’État, et qui se situait autour de 500 milliards de francs à la fin des années quatre-vingt.

Ses productions n’ont pas grand besoin d’être décrites puisqu’elles sont connues de
chacun : les statistiques regroupent sous l’appellation d’électronique grand public les
téléviseurs, les chaînes hi-fi, les magnétophones et magnétoscopes, les lecteurs de disques,
les récepteurs radio et les autoradios, les caméras vidéo, ainsi que les disques et cassettes
enregistrées (qui constituent une branche à part, non de fabrication d’équipements, mais de
programmes artistiques).

Depuis le début des années cinquante, époque à laquelle l’industrie électronique


grand public était éclatée en un grand nombre de petites sociétés fabriquant des appareils à
tubes de façon quasi artisanale (voire tout à fait artisanale), de fiabilité très relative et
nécessitant d’importantes prestations d’après vente, on a assisté à une évolution somme
toute analogue à celle de l’industrie automobile, quoique bien plus rapide et s’intéressant à
des produits d’un coût unitaire beaucoup plus faible. À la fin des années quatre-vingt, les
produits de l’électronique grand public étaient fabriqués en très grande série dans des
usines automatisées nécessitant des investissements importants : alors qu’à la fin des
années soixante-dix, il fallait environ 20 heures de fabrication et d’essais par téléviseur
couleurs, il en fallait moins de 2 à la fin des années quatre-vingt ; on mesure l’énorme
évolution de la productivité, résultant de sommes importantes investies dans les chaînes de
fabrication, qu’il faut donc amortir sur de grandes quantités fabriquées.

On comprend alors la nécessité de regrouper des industries ; il en est résulté un jeu de


fusions, rachats, absorptions entre la fin des années cinquante et la fin des années quatre-
vingt pour passer de la multitude de petites sociétés artisanales aux quelques grands
groupes dominant le débat aujourd’hui.

À la fin des années quatre-vingt, les trois premiers groupes étaient le Japonais
Matsushita, avec 16 p. 100 de la production mondiale (toujours hors pays communistes), le
multinational (hollandais) Philips, avec 10 p. 100, et l’américano-européen Thomson, avec
10 p. 100 également, soit au total 36 p. 100 pour les trois premiers.

Les sept suivants (tous japonais) réalisaient ensemble le même volume que les trois
premiers : c’est dire que les sociétés japonaises produisaient pratiquement les deux tiers
(65 p. 100) de l’électronique grand public, contre 31 p. 100 pour l’ensemble Europe-États-
Unis.

L’automatisation de la fabrication, grandement facilitée par le développement des


circuits intégrés à haute densité, a eu des conséquences largement positives sur la fiabilité
des équipements produits : la réduction au minimum des interventions humaines permet
d’obtenir des produits très fiables, réduisant au minimum (voire à zéro) les interventions
des dépanneurs d’après vente.

6. L’informatique et la bureautique
Relativement tard venue par rapport aux branches précédentes de l’électronique,
puisque la plupart des machines informatiques utilisent le schéma de base défini par
l’Américain John von Neumann à la fin de la Seconde Guerre mondiale, l’industrie de
l’informatique et de la bureautique correspondait, à la fin des années quatre-vingt, à 40 p.
100 du chiffre d’affaires de l’industrie électronique, soit trois fois plus que l’électronique
grand public et autant que l’ensemble des trois branches évoquées ci-dessus.

La seule société I.B.M., pionnier du domaine, il est vrai (sa marque « ordinateur » est
devenue un nom commun), a un chiffre d’affaires du même ordre de grandeur que celui de
l’ensemble de l’électronique grand public ; ajoutons que ce chiffre d’affaires est le quart du
chiffre d’affaires total du domaine, de cinq à six fois plus élevé que celui de ses suivants
immédiats (les Américains Xerox, plus tourné vers la bureautique, et Digital Equipment,
essentiellement tourné vers l’informatique).

L’activité des sociétés des États-Unis correspond à 68 p. 100 de l’activité totale du


domaine (mais elles sont largement délocalisées), alors que les sociétés japonaises en
occupent 18 p. 100 et les sociétés européennes 12 p. 100 (toujours hors pays communistes).

L’ensemble informatique-bureautique recouvre les unités centrales des gros main


frames, la mini-informatique, la micro-informatique, les télécopieurs, les photocopieurs et
les logiciels et services.

Les notions de main frame et de mini-calculateur ne correspondent pas dans le temps


à des performances constantes, étant donné la très rapide évolution des circuits intégrés, qui
permettent, sous le même volume et au même prix, de fournir des performances de plus en
plus grandes.

On parlera de main frames pour des machines de plus de 5 millions de francs, de


« minis » pour des machines de l’ordre du million de francs et parfois de « mégaminis »
pour des machines intermédiaires. Quant aux « micros », très souvent constitués autour
d’un microprocesseur (circuit intégré comportant un très grand nombre de composants
– plusieurs centaines de milliers de transistors – et assurant toutes les fonctions d’un cœur
de calculateur), leur prix tourne autour de 10 000 francs ou moins et il en existe une
énorme variété.

L’existence des microprocesseurs est d’ailleurs en train de révolutionner le bas de


gamme des machines informatiques, la possibilité d’acheter dans le commerce de tels
composants à des prix raisonnables donnant à beaucoup d’électroniciens la faculté de créer
des machines informatiques performantes adaptées à leurs besoins spécifiques.

Comme il est possible d’utiliser des structures multiprocesseurs dans lesquelles


plusieurs machines assez petites sont utilisées ensemble pour résoudre un problème donné,
on conçoit que ces structures puissent être concurrentes des main frames. On distinguera
les structures multiprocesseurs, dans lesquelles chaque processeur est affecté à une partie
spécifique du travail à effectuer, et qui sont donc adaptées à la solution de problèmes
prédéfinis (et qui sont assez répandues), et les structures multiprocesseurs
« transparentes », dans lesquelles l’organisation apporte à n’importe quel processeur
n’importe quelle partie du travail à mesure de leur disponibilité (ces structures encore peu
répandues seront les vraies concurrentes des main frames).

Si l’on ajoute que l’utilisation de machines informatiques en réseaux faisant travailler


ensemble des machines situées en des endroits géographiques dispersés (sur un pays, un
continent) est en train de se généraliser, on conçoit que l’on arrivera à des puissances de
calcul sans aucune comparaison avec celles qu’on utilisait dans les machines informatiques
de la fin des années cinquante.

La puissance des configurations informatiques évoquées ci-dessus s’exprime assez


habituellement en M.I.P.S. (pour millions d’instructions par seconde) ; il convient de dire
« s’exprime » et non « se mesure » car la performance exprimée en M.I.P.S. ne peut donner
qu’un ordre de grandeur, la performance réelle dépendant beaucoup de la nature du
problème traité : pour un type de problème, on pourra effectuer des tests avec des
problèmes types – des benchmarks – et on utilisera des mesures plus utiles et précises,
comme le mégawheastone.

En dépit de la puissance du numéro un mondial en informatique, on a vu dans les


années soixante-dix certains constructeurs développer des familles de minis et de
mégaminis qui ont connu et connaissent un succès certain, mieux adaptées qu’elles étaient
à la solution de certains problèmes ; la meilleure adaptation peut venir de la structure même
de la machine, ou du fait que des machines analogues ont été utilisées par d’autres pour la
solution des mêmes problèmes ou de problèmes voisins – le constructeur peut alors fournir
à ses clients des programmes tout faits, éprouvés (avec peu ou pas d’erreurs).

À ce moment du discours, il est important de comprendre que le prix et le volume des


mémoires des machines informatiques étaient élevés au début, et qu’on essayait de ce fait
d’utiliser les machines pour économiser de la mémoire (de façon à avoir besoin du volume
de mémoire le plus petit possible). Le langage informatique utilisé qui permettait d’obtenir
ce résultat était souvent celui qui était le plus proche du fonctionnement interne de la
machine, l’« assembleur ». Cela étant, les machines informatiques étaient conçues pour que
la programmation de la machine en assembleur ne soit quand même pas trop
contraignante : on appelait cette structure C.I.S.C. (complex instruction set computer).
L’évolution de la technologie des semiconducteurs et des circuits intégrés permet
maintenant de considérer le plus souvent qu’une quantité importante de mémoire n’est pas
coûteuse (non plus que volumineuse) mais qu’il faut en revanche faciliter la tâche des
programmeurs (faire en sorte qu’ils programment beaucoup d’instructions à la journée, de
façon fiable, pour que les programmes tournent bien dès le début, et de façon économique,
pour que des morceaux entiers de programme puissent être récupérés dans d’autres
applications). On développe pour ce faire des méthodologies précises (et contraignantes) de
programmation (aidées par des outils graphiques supportés par des « stations de travail »,
ou workstations, qui sont en fait de vrais minis), dans lesquelles les programmeurs utilisent
des langages de haut niveau, beaucoup plus proches du langage courant (le plus répandu
dans le public est le Basic ; l’un des premiers parmi les plus célèbres est sans doute le
Fortran d’I.B.M. ; les militaires américains ont standardisé le langage Ada défini par le
Français Jean Ichbiah...). Ces langages de haut niveau ont besoin d’être traduits pour être
compris par les machines (les programmes de traduction s’appellent des « compilateurs »)
et il n’y a dans ce cas aucune raison pour que le langage de l’intérieur même de la machine
soit facile à utiliser ; mais il doit être efficace et permettre de bonnes performances de
vitesse. C’est ainsi que l’on est arrivé à la notion de machines R.I.S.C. (par opposition au
C.I.S.C.), le R. de R.I.S.C., pour reduced, correspondant aussi au fait que l’on s’était rendu
compte que beaucoup d’instructions du C.I.S.C. étaient en fait fort peu utilisées.

La quasi-totalité des machines informatiques évoquées jusqu’ici fonctionnent en fait


sur le schéma de von Neumann : « Je vais voir dans la mémoire de programmes ce que je
dois faire maintenant – Je vais prendre dans la mémoire de données la donnée sur laquelle
je dois agir – J’agis – Je retourne voir dans la mémoire de programmes... »

Cette façon de faire, si elle s’est révélée adaptée à la solution de beaucoup de


problèmes, n’est pas idéale pour obtenir la rapidité du calcul ; aussi bien, lorsqu’on a
besoin de faire toujours le même type de calcul très rapidement, utilise-t-on des machines
adaptées, donc plus efficaces.

C’est ainsi qu’en traitement du signal (radar, sonar, parole, etc.) on a besoin de
calculer des transformées de Fourier ; on utilisera dans ce cas des calculateurs de structures
très différentes (effectuant les calculs en parallèle pour gagner du temps) à base de
composants spécifiques dits « papillons » F.F.T. (fast Fourier transform). On parlera
parfois pour certaines machines de traitement du signal de machines S.I.M.D. (single
instruction multiple data).

C’est ainsi également que lorsqu’un problème de calcul scientifique peut être traité
sous forme de calculs vectoriels, on aura avantage à utiliser des calculateurs vectoriels
(appelés souvent supercalculateurs).

Les performances de toutes ces machines de pur calcul mathématique ne sont plus
exprimées en M.I.P.S. mais en Flops (flotting point operations per second), ou plutôt en
mégaflops ou en gigaflops (un million ou un milliard de flops).

À ce niveau, et pour compléter le décor informatique, il convient de dire quelques


mots de ce qu’il est convenu d’appeler l’« intelligence artificielle » et les calculateurs
neuroniques.

Au début des années quatre-vingt-dix, l’intelligence artificielle, utilisée le plus


souvent dans les systèmes experts, vise à s’inspirer des modes de raisonnement de l’homme
pour recevoir dans un délai raisonnablement court une réponse suffisante à un problème
posé ; en particulier, certaines méthodes heuristiques visent souvent à obtenir très vite une
solution correcte à un problème pour lequel l’obtention de la solution la meilleure, au
moyen d’algorithmes connus, nécessiterait un temps considérable. Elle fait souvent usage
de machines informatiques spéciales propres à faire des inférences : « Si l’enfant a des
boutons, il y a une présomption de scarlatine, ou de rubéole... mais si en plus le taux
d’antistreptolysine dans le sang est plus élevé que tant, alors il y a présomption
complémentaire de scarlatine, etc. » On utilise pour cela des langages de haut niveau
appropriés (Lisp, Prolog, etc.).

7. Les télécommunications
Les télécommunications, en fait la première grande application de l’électronique, ont
assez peu évolué jusqu’à la fin de la Seconde Guerre mondiale : le téléphone est longtemps
resté électromécanique, les voies téléphoniques transportant la parole sous forme
analogique dans des fils métalliques enterrés ou traversant les océans, et leur commutation
utilisant des relais.

Depuis la fin de la Seconde Guerre mondiale sont apparues successivement, en


concurrence des liaisons filaires métalliques, les transmissions hertziennes sous les formes
de liaison directe de point à point (faisceaux ou câbles hertziens), de liaison de point à
point avec réflexion sur la troposphère (faisceaux « troposphériques »), de liaison à travers
un relais situé sur un satellite géostationnaire, de liaison terrestre de point à point à travers
des câbles en fibres de verre (le signal électrique d’origine étant transformé en signal
optique pendant la durée du transport). En même temps, le signal analogique se numérisait
de plus en plus, permettant de s’affranchir des problèmes de distorsion au long du trajet,
cette forme numérique de la transmission conduisant à la nécessité primaire de
transmission à plus large bande passante, mais aussi à la possibilité de gestion par
calculateur universel, à la possibilité d’utilisation des techniques de compression
permettant de véhiculer des images sous forme très convenable dans des canaux de largeur
de bande raisonnable.

L’utilisation de faisceaux hertziens était la conséquence directe de l’utilisation et de


la connaissance des micro-ondes (longueurs d’onde de quelques centimètres) rendues
populaires par le radar : l’utilisation d’antennes à réflecteurs de grande dimension
permettait de concentrer l’énergie émise dans des angles (solides) petits en direction du
destinataire. Les réalisations correspondantes ont conduit durant les années soixante à la
création d’une nouvelle industrie, sans incidence évidente sur les industries existantes des
télécommunications. On peut en dire autant de l’émergence des faisceaux troposphériques,
dont le marché n’a jamais été très important (à cause des contraintes inhérentes à cette
technologie en matière de bande passante) et se trouve assez limité aux applications
militaires ou équivalentes, ou à celles ne requérant que la transmission de peu
d’informations mais sur de grandes distances.

L’utilisation de satellites associés au sol à de grandes antennes (très grandes au début,


beaucoup moins grandes ensuite) a aussi conduit à la création d’industries nouvelles sans
gêner les industries plus conventionnelles.

Sans doute en est-il de même de l’utilisation des fibres de verre pour transporter
l’information, utilisation rendue possible par les progrès de la physico-chimie, qui donnent
les moyens de réaliser des fibres de verre de qualité parfaitement contrôlée du centre au
bord et les organes de transformation électrique-optique et optique-électrique performants
associés.

En revanche, la généralisation de l’emploi de signaux numériques au lieu de signaux


analogiques, en particulier dans les transmissions téléphoniques, qui a commencé de se
faire à partir du milieu des années soixante-dix, a constitué une véritable révolution parce
qu’elle conduisait :

– globalement, à une amélioration de la productivité dans le rapport 6 à 1 (six


fois moins de personnel de fabrication, d’essais et d’installation par ligne d’abonné), donc à
un énorme surplus de personnel et aux problèmes de licenciements associés ;

– à la nécessité d’utiliser un pourcentage très élevé d’ingénieurs dans une


industrie employant jusque-là surtout du personnel d’exécution ;

– à l’introduction rapide de programmes d’informatique (logiciels) très


compliqués et volumineux (en temps réel), correspondant à ce qu’on avait fait de plus
complexe dans certaines applications militaires ou spatiales, dans une industrie qui n’était
pas accoutumée à ces techniques ;

– à la possibilité enfin de fournir petit à petit aux utilisateurs des services


nouveaux (utilisation du Minitel, réveil téléphonique automatique, transmission d’images
fixes ou animées, « télématique », etc.) en mixant les possibilités de l’informatique et celle
des transmissions.

Le développement des nouveaux produits correspondants demandant des sommes


importantes (plusieurs milliards de francs pour une nouvelle famille de centraux
téléphoniques numériques dont la durée de vie tourne autour de cinq ans), il convenait dès
lors de les amortir sur des séries importantes et d’éviter la dispersion des fabrications de
quantités de modèles distincts et concurrents. D’où l’inévitable regroupement des
industriels en quelques groupes puissants et peu nombreux, au moins pour les
transmissions téléphoniques commerciales.

L’industrie des télécommunications s’est de ce fait beaucoup modifiée : son chiffre


d’affaires atteignait 336 milliards de francs en 1990 et représentait 7 p. 100 de la
production mondiale avec un taux de croissance annuel de 5 p. 100.

La répartition du chiffre d’affaires est la suivante : plus du tiers pour les trois
premières sociétés (la française Alcatel, l’américaine A.T.T. et l’allemande Siemens), un
petit tiers pour les sept suivantes (soit 42 p. 100 pour des sociétés contrôlées d’Europe,
32 p. 100 pour des sociétés contrôlées d’Amérique du Nord, 17 p. 100 pour des sociétés
contrôlées du Japon).

8. Les composants
Les composants étaient initialement des constituants élémentaires que l’on assemblait
pour réaliser des fonctions. On a déjà dit que l’évolution de la technique et particulièrement
des circuits intégrés avait étendu cette définition à des éléments de petite dimension
assurant des fonctions plus ou moins complètes voire très complexes (microprocesseurs).
On a coutume de classer les composants en trois catégories : les tubes à vide, les
composants passifs et les semiconducteurs.

Les tubes à vide – auxquels on ajoute certains composants « à l’état solide » à base de
semiconducteurs qui assurent aujourd’hui des fonctions assurées autrefois par des tubes à
vide – comportent essentiellement :

– les triodes et tétrodes, utilisées surtout dans les émetteurs lorsqu’on a besoin
d’émettre (radiodiffusion, accélérateurs de particules, générateurs de plasma) des
puissances élevées à faible fréquence (exemple : tétrodes en ondes longues et courtes
émettant des puissances de l’ordre de un mégawatt de façon continue) ;

– les diodes et « éclateurs », qui servent d’interrupteurs ultrarapides ;

– les tubes micro-ondes (magnétrons, tubes amplificateurs à champs croisés,


tubes à ondes progressives, klystrons), capables d’émettre des puissances élevées en ondes
décimétriques et centimétriques ;

– les tubes de prises de vue pour caméra vidéo (vidicons, orthicons, etc.), pour
caméra infrarouge (pyricons), pour « caméra » à rayons X ;

– leurs homologues à l’état solide (barrettes et « rétines » en silicium à


« transfert de charges » pour la détection en lumière visible et dans le proche infrarouge, en
mercure-tellure-cadmium, ou en antimoniure d’indium, etc., pour la détection dans
l’infrarouge) ;

– les tubes à rayons cathodiques pour oscilloscopes d’instrumentation, pour


oscilloscopes radar, et, bien sûr, pour téléviseurs domestiques, et les dispositifs de
fonctions analogues à l’état solide (cristaux liquides commandés par des rétines de
transistors à film mince) ;

– les dispositifs d’imagerie à plasma et à électroluminescence.

Les composants passifs proprement dits, auxquels on ajoutera les dispositifs électro-
acoustiques, comportent essentiellement :
– les résistances, de moins en moins utilisées seules ;

– les condensateurs, parmi lesquels il convient de citer à part les condensateurs


d’énergie capables d’emmagasiner des énergies importantes (alors que longtemps on n’a pu
guère dépasser un stockage de plus de quelques dizaines de joules par litre, on peut
maintenant atteindre quelques centaines de joules par litre) et de les restituer en des temps
très brefs (de l’ordre de la microseconde ou moins) ;

– les connecteurs, capables de réunir des faisceaux de fils électriques ;

– les dispositifs électro-acoustiques utilisés soit pour fournir des références de


fréquence (très stables) soit pour faire du traitement du signal (dispositifs « à onde de
surface », en anglais S.A.W., pour surface acoustic waves) ;

– les dispositifs utilisant du matériau magnétique (tel que des ferrites), pour les
déviateurs des tubes cathodiques, ou pour les équipements en micro-onde.

Même si l’on utilise des éléments semi-conducteurs dans les dispositifs de prise de
vue déjà évoqués, on ne regroupe le plus souvent sous le terme d’industrie des semi-
conducteurs que ce qui touche aux diodes, transistors et circuits intégrés au silicium d’une
part, et ce qui touche aux mêmes éléments en composés III-V d’autre part.

L’industrie du silicium comporte, d’une part, l’industrie des éléments « discrets »,


diodes et transistors, utilisés pour fournir de la puissance en basse fréquence et en micro-
ondes (on peut obtenir 1 kilowatt moyen en ondes assez longues avec « un » transistor, en
fait une association de nombreux transistors en parallèle sur la même puce) ou à la
réception (par exemple diodes de détection ou de mélange), d’autre part, l’industrie des
circuits intégrés.

Les circuits intégrés se répartissent en circuits linéaires (tels que ceux qui sont utilisés
pour faire du codage analogique-numérique et sont donc essentiels avec l’évolution vers un
traitement du signal de plus en plus numérique) et en circuits numériques, utilisés en
traitement du signal en aval des précédents et, bien sûr, dans tous les dispositifs de calcul.

Sur le plan technologique, il existe deux grandes familles de circuits intégrés : les
circuits à base de transistors bipolaires, les premiers utilisés et industrialisés, et les circuits
à base de transistors M.O.S. (metal oxyde semiconductor), les premiers imaginés sans
doute, au début des années trente.
Les circuits bipolaires sont intrinsèquement plus rapides, mais dissipent plus de
puissance et ne permettent pas de mettre autant de fonctions sur la même surface de
silicium que les circuits M.O.S., moins rapides intrinsèquement mais dissipant moins de
puissance, surtout les circuits dits C.M.O.S. (le C pour complementary). Dans les deux
types de circuits, l’évolution de la technologie permet de faire des dessins de circuits de
plus en plus fins (et de les fabriquer avec un pourcentage suffisant de succès, grâce à
l’utilisation de précautions plus importantes dans des salles de plus en plus dépoussiérées),
et de ce fait d’obtenir des vitesses de fonctionnement de plus en plus grandes ainsi qu’un
nombre de transistors par pastille (par puce, en anglais chip) en augmentation constante.
L’état de l’art au début des années quatre-vingt-dix permettait de réaliser industriellement
des dessins où les détails les plus petits étaient de 1 micromètre et, au stade du laboratoire,
de 0,5 micromètre. Ces mêmes dimensions étaient respectivement de 6 et de 3 micromètres
à la fin des années soixante-dix.

Certains circuits spéciaux destinés à fonctionner en dépit de rayonnements


(cosmiques ou provenant d’explosions nucléaires) sont réalisés sur des supports
(« substrats ») qui ne sont pas en silicium, mais en alumine ou en zircon... c’est-à-dire en
saphir ou en zircone.

La fabrication de circuits intégrés repose sur une série (de dix à quinze) d’opérations
successives (photographie, dite photogravure, qui peut utiliser des faisceaux d’électrons
plutôt que des rayons lumineux pour donner des dessins plus fins ; oxydation du silicium ;
implantation d’impuretés en nombre très contrôlé par projection très vigoureuse de ces
impuretés sur le substrat...) appelée filière, à partir de dessins réalisés par des
« concepteurs » grâce à l’aide d’outils informatiques (conception assistée par ordinateur, ou
C.A.O.). La C.A.O. utilise des simulateurs pour le calcul des résultats probables, aide à
définir les séquences de test qui permettront de vérifier (suffisamment) que le circuit final
est bon. Elle utilise des ordinateurs qui ont besoin d’être de plus en plus puissants à mesure
qu’il y a plus de fonctions différentes sur la même pastille, et des programmes qui ont
besoin d’être de mieux en mieux structurés.

Les utilisateurs cherchent souvent à réaliser eux-mêmes des circuits intégrés adaptés
à leurs besoins spécifiques en faisant leur propre conception en association avec un
« fondeur » qui, disposant de « filières » bien au point, peut à la fois fournir les données de
base nécessaires à la C.A.O. (outils de compilation) et ensuite effectuer physiquement sur
le silicium les opérations délicates de physico-chimie nécessaires pour obtenir le circuit
intégré final.
Les composés III-V sont variés, mais les premiers qui ont vu le jour industriellement
sont les composés à base d’arséniure de gallium (certains sont d’ailleurs fabriqués sur un
substrat de silicium). Quoique ne bénéficiant pas de l’avantage considérable que connaît le
silicium d’avoir un oxyde (la silice) extraordinairement stable et protecteur, les composés
III-V possèdent des propriétés intéressantes :

– ils permettent de faire des lasers (de très petite dimension) fournissant des
sources intenses de lumière pure ;

– ils permettent de réaliser des circuits intégrés fournissant des fonctions


complètes micro-ondes (circuits dits M.M.I.C. – monolithic microwave integrated
circuits) ;

– ils permettent de faire des organisations nouvelles à base d’empilements de


couches très fines de corps différents (hétéroépitaxies), tels que les T.E.G.-F.E.T. de
Thomson-C.S.F. (two dimensions electron gas-field effect transistor) ou les H.E.M.T. des
Américains et des Japonais (high electron mobility transistor) ;

– ils sont enfin plus rapides intrinsèquement que leurs homologues au silicium.

En revanche, toutes choses égales par ailleurs, ils sont plus coûteux que leurs
homologues au silicium quand ceux-ci existent.

Les statistiques relatives à la production des composants sont délicates à exploiter,


car elles reposent le plus souvent sur le chiffre d’affaires correspondant, négligeant
complètement l’activité effectuée par certains industriels pour leurs propres équipements.
Les cinq premiers fabricants de semi-conducteurs sont Nec, Toshiba, Hitachi, Motorola et
Intel. La production de composants par les sociétés japonaises est supérieure à celle des
sociétés américaines, sans doute de deux à trois fois plus élevée que celle des sociétés
européennes.

9. Un autre mode de classification


La classification de l’industrie électronique telle qu’elle vient d’être donnée
correspond aux statistiques, aux organisations professionnelles, et résulte du passé.

Il est utile d’en présenter une autre, selon laquelle l’électronique apparaît aujourd’hui
segmentée en trois branches finalement très différentes, tellement différentes qu’il est en
général tout à fait déconseillé d’en pratiquer deux dans la même unité (usine, division ou
petite filiale).
Dans la première branche, que l’on peut qualifier de branche grand public, on
fabrique des produits dont le prix unitaire est rarement supérieur à 7 000 francs et dont
plus d’un million d’exemplaires par an sortent de la même unité de production. Cette
importante quantité de produits peu coûteux est fabriquée avec des moyens très
automatisés, ce qui permet d’obtenir une excellente fiabilité, mise en évidence par le fait
que le rapport :

est faible (10 p. 100) et diminue avec le temps.

Les téléviseurs couleurs et les magnétoscopes ressortissent à l’électronique grand


public, comme ce sera bientôt le cas pour les produits d’électronique automobile et les
terminaux téléphoniques de toute nature.

La deuxième branche est celle de l’électronique professionnelle au sens large du


terme : les produits fabriqués ont un prix supérieur à 100 000 francs, qui dépasse
souvent plusieurs millions de francs (jusqu’à 200 millions de francs). Ils sont fabriqués en
petite quantité (inférieure à quelques milliers d’exemplaires par an) voire en très petite
quantité (moins de un par an), pour des clients étatiques ou équivalents. Un système A.B.S.
pour Airbus est un équipement d’électronique professionnelle (par opposition au système
équivalent pour les véhicules automobiles, qui est devenu grand public au début des années
quatre-vingt-dix). Le coût de l’après-vente rapporté au coût de fabrication et d’essais reste
faible (de 10 à 40 p. 100), non pas tant à cause de la fiabilité intrinsèque des équipements
(in fine moins bonne que celle des équipements grand public), mais grâce à la compétence
des utilisateurs (abondamment fournis en documentation bien faite, et instruits pendant de
nombreux mois par les soins du constructeur). La performance est une qualité essentielle de
ces équipements. L’électronique professionnelle décrite ci-dessus rentre dans cette branche,
comme les équipements de commutation téléphonique publique, comme les faisceaux
hertziens, les équipements de satellites, les équipements d’aéronautique militaire ou civile,
la radioémission...

La troisième branche, enfin, est celle que l’on qualifie parfois d’électronique
institutionnelle. Le prix des équipements se situe entre 15 000 francs et quelques
millions de francs. La quantité fabriquée annuellement par unité de production varie de 1
000 à 100 000. Le coût de l’après-vente rapporté au coût de fabrication et
d’essais est élevé (pouvant atteindre 200 p. 100), car si les équipements fournis sont
d’assez bonne qualité, ils sont servis par des utilisateurs qui n’ont pas été formés à cet effet,
et qui disposent d’une documentation sommaire. Cette branche recouvre la téléphonie
privée, l’essentiel de l’instrumentation et, surtout, l’essentiel de l’informatique.

Une autre façon de distinguer ces trois branches est de dire que le mot clef en grand
public est usine, en professionnel, recherche et développement, en institutionnel, réseau : la
dernière chose à sacrifier en électronique grand public sont les investissements, en
électronique professionnelle la recherche et développement, en électronique
institutionnelle, l’après-vente.

On notera au passage qu’un produit électronique d’un prix de 10 000 francs


fabriqué à 200 000 exemplaires ne rentre dans aucune branche, généralement parce
qu’il est dans une situation instable, donc provisoire ; pour devenir grand public, sa
production doit être augmentée et son prix diminué ; pour devenir institutionnel, les
services doivent être augmentés. Très souvent, il disparaît.

L’imagerie médicale est dans une situation particulière : il s’agissait clairement, au


début des années soixante-dix, d’un métier institutionnel. L’invention du scanner par des
personnes de l’électronique professionnelle (puis des appareils d’imagerie par résonance
magnétique nucléaire) a changé la situation, de sorte qu’une partie importante (excepté les
échographes) de ce métier est devenue presque professionnelle (« presque » parce que les
utilisateurs n’ont pas encore la compétence suffisante – ou la formation – pour assurer eux-
mêmes l’essentiel de la maintenance des équipements). La transition entre le caractère
institutionnel du passé et l’aspect professionnel explique les tourments qu’a subis la
profession correspondante.

Quant aux composants électroniques, on peut les classer en trois catégories de façon
un peu analogue : les composants d’emploi général ; les composants typiquement grand
public (tubes cathodiques shadow-mask ou équivalents pour téléviseurs couleurs grand
public, haut-parleurs de téléviseurs, etc.) ; les composants typiquement professionnels
(utilisés dans les satellites, dans les matériels militaires « durcis », c’est-à-dire protégés
contre les radiations, les tubes micro-ondes pour radars et faisceaux hertziens, etc.).

À titre d’exemple, un dispositif d’écran plat de visualisation à cristaux liquides


contrôlés par un réseau de transistors en silicium amorphe en film mince pourra être
professionnel (destiné à être implanté dans des avions de ligne ou de combat), donc
fabriqué en quelques centaines (ou milliers) d’exemplaires par an et devant tenir dans des
environnements sévères sans grand besoin de fournir des couleurs très réalistes, ou pourra
être grand public pour équiper les récepteurs couleurs de télévision sans contraintes liées à
l’environnement, mais avec la nécessité d’une excellente reproduction des couleurs ; il sera
alors à terme fabriqué en énormes quantités. Les deux industries correspondantes sont très
différentes à beaucoup d’égards.

10. L’évolution de l’électronique


L’évolution de l’électronique durant les années quatre-vingt-dix s’est dessinée au
travers de ce qui précède. Une caractéristique essentielle de cette évolution réside dans le
rôle de la technologie.

En schématisant, on peut dire que l’informatique serait restée une petite industrie si le
transistor planar n’avait pas été inventé, mais que l’essentiel des machines informatiques
utilisent le vieux schéma de von Neumann. À l’autre extrémité, les montres modernes (à
quartz, circuits intégrés et souvent affichage à cristaux liquides) n’ont existé que grâce aux
progrès de la technologie.

En schématisant toujours, on peut dire que l’important aujourd’hui n’est plus comme
dans les années cinquante d’inventer de nouveaux concepts mais de trouver les moyens
pratiques d’utiliser de vieux concepts pour réaliser des équipements plus performants, ou
moins coûteux.

Qu’est-ce que la « technologie » en électronique ? Ce sont de nouveaux matériaux, de


nouveaux traitements de ces matériaux, de la microlithographie, de la conception assistée
par ordinateur et des tests.

Les nouveaux matériaux sont les fibres de carbone, les matériaux composites, le
nitrure d’aluminium, les cristaux liquides, le silicium amorphe, les pérovskites
supraconductrices à température pas trop basse et, bien sûr, la grande famille des
composés III-V, sans compter les polymères nouveaux (piézoélectriques) ; il ne s’agit là
que de quelques exemples de matériaux inédits (peu utilisés autrefois ou utilisés pour
d’autres raisons) qui ont permis des progrès essentiels en électronique.

En ce qui concerne les nouveaux traitements de ces matériaux, l’implantation


(injection en force d’impuretés dans un substrat semiconducteur), l’épitaxie par jet
moléculaire (vaporisation de produits dans l’ultravide de façon contrôlée) permettent la
réalisation de couches superposées d’épaisseur contrôlée de matériaux cristallisés
différents, pour réaliser des cristaux artificiels ; l’utilisation de l’impesanteur, de réactions
nucléaires, etc., ont ouvert la voie à de nouveaux produits, de nouvelles structures de
composants, donc à des équipements de performances inédites.

La microlithographie, qui permet de graver les dessins très fins des circuits intégrés
très denses, après s’être contentée de lumière visible (jusqu’à des finesses de 1 micromètre
environ), puis de gravure à faisceau d’électrons (permettant de descendre à des finesses
d’environ 2 dixièmes de micromètre) devra ouvrir une place à la gravure par faisceau
d’ions ou par rayons X pour atteindre des finesses accrues.

La conception assistée par ordinateur permettra de réaliser des circuits intégrés


encore plus complexes, devra utiliser des machines informatiques de plus en plus
puissantes, avec des programmes de plus en plus sophistiqués.

Or il semble bien que les outils nécessaires demain en technologie seront beaucoup
plus chers que ceux d’aujourd’hui (en coût d’achat ou de production des outils eux-mêmes,
en coût de formation du personnel qui les utilisera). À titre d’exemple, le prix d’un appareil
de test de circuits intégrés performant (150 entrées/sorties) était de quelques millions de
francs. Il est maintenant (pour des circuits de 250 entrées/sorties) de quelques dizaines de
millions de francs. Il est probable qu’il atteindra à la fin des années quatre-vingt-dix des
sommes extraordinaires : peu pourront l’acheter en France (faut-il dire en Europe ?).

Il s’agit là, avec les coûts énormes des outils de développement des logiciels, de l’une
des raisons qui inciteront à de nouveaux regroupements industriels en électronique, et à des
accords de coopération internationale pour réduire les dépenses (fixes) de recherche et
développement.

Vous aimerez peut-être aussi