Académique Documents
Professionnel Documents
Culture Documents
Annexe ............................................................................................................. 36
Avant-propos
La science Physique est une science dont les deux aspects, expérience et théorie,
vont de pair et ne peuvent être dissociées. Parmi les hypothèses avancées par la
théorie, l’expérience tranche et impose la bonne. Cette démarche n’est pas limitée à la
seule La science Physique, mais est aussi validement utilisée dans les autres sciences
expérimentales.
A ce sujet, il est certain que les travaux pratiques constituent la meilleure formation
à la démarche scientifique. Voir les étudiants tenter une démarche pour atteindre un
objectif précis assigné par l’enseignant, avec leur vocabulaire.
Ce fascicule, consacré aux travaux pratiques de science Physique, est rédigé à
l’intention des étudiants de première année. En préparant soigneusement chaque
manipulation, les étudiants se mettront dans les dispositions les plus favorables afin de
profiter au mieux leur travail.
Les travaux pratiques de science Physique ont été conçus de manière à montrer tout
ce que l’on peut en déduire d’une expérience bien menée. Ils ne sont pas
nécessairement reliés au cours mais en constituent une extension ; aussi sont-ils
rédigés de manière autonome, formant des ensembles comprenant les bases théoriques
et leur vérification expérimentale.
Pendant la séance de TP
Une grande partie de la séance est consacrée à la manipulation en elle-même. Si le
travail a été bien préparé, l'étudiant est familier avec les concepts développés lors de la
manipulation. Il peut utiliser son temps au mieux en portant le plus grand soin à ses
mesures.
Il est nécessaire de gérer la séance de manière à disposer de suffisamment de temps
pour la rédaction du compte-rendu qui sera remis à l'enseignant à la fin de la séance.
Remarques: Il faut arriver à l'heure à la séance et se faire enregistrer sur la feuille de
présence par l'enseignant. L'enseignant donne souvent des explications et des précisions
importantes au début de la séance.
Matériel:
Un minimum de matériel est requis pour mener à bien les manipulations et leurs
analyses:
• calculatrice scientifique;
• règle graduée millimétrée, compas, équerre, rapporteur, etc...;
• papier millimétré;
• un cahier de manipulation qui servira pendant l’année à la prise de notes
relatives au déroulement des séances.
Compte-rendu
La rédaction du compte-rendu est effectuée en langue française sur copies doubles
ou sur feuillets mobiles dûment numérotés et agrafés.
Sur la première page du compte-rendu doit figurer:
• les noms, prénoms et sections respectives des membres du groupe étudiant;
• le nom de l'enseignant;
• le numéro de la séance;
• la date de la séance;
Après la séance
L'étudiant est encouragé à conserver ses notes de manipulation (cahier de
manipulations). En consignant scrupuleusement les éléments de l’expérience, l’étudiant
gardera une trace de son travail lui permettant plus tard de retrouver des
informations utiles qui peuvent se révéler cruciaux.
L’erreur relative relative est une grandeur relative sans dimensions définie par :
∆ = =
b- Incertitude de mesure.
Les erreurs aléatoires sont inconnues mais il faut estimer l’erreur totale possible
commise.
L’incertitude est une estimation du maximum de l’erreur aléatoire qui a pu être
commise sur une mesure.
On a donc deux types d'incertitude :
- l’incertitude absolue x telle que d xx
∆ dx Δx
- l’incertitude relative telle que
x mesurée x mesurée
Ainsi
é −∆ ≤ ≤ é +∆
Evaluation des incertitudes dues aux appareils de mesure.
1- Méthode directe
Les Incertitudes des appareils à aiguille sont :
a- Incertitude d’appareil.
La précision de l’appareil est caractérisée par sa classe. La classe d’un appareil est
un nombre C qui donne en % de la déviation maximale de l’aiguille, l’incertitude
absolue correspondant à une lecture quelconque. Soit Dmax le nombre de
divisions correspondant à l’échelle du cadran, d le nombre de divisions lues et Cal
le calibre de l’appareil :
Δ absolue de classe C Cal
D max
Δ relative de classe C
d
b- Incertitude de lecture
L’incertitude de lecture peut être chiffrée à 0.1, 0.2 ou 0.5 divisions. On prendra par
exemple 0.2 si l’on estime que l’on peut diviser, par la pensée, une division en 5
parties. On en déduit l'incertitude absolue et l'incertitude relative liées à la lecture :
Cal
Δ absolue de lecture 0.2
D max
0.2
Δ relative de lecture
d
Soit à mesurer une tension x voisine de 10 volts avec un appareil à aiguille de classe
1.5 ayant une échelle de 100 divisions. Les calibres disponibles sont 30V et 10 V
Les lectures pour chaque calibre sont :
Cal 10 : d=99 divisions
Cal30 : d=33divisions
Déterminer pour chaque calibre :
- La valeur mesurée x mesurée.
- Les incertitudes relatives et absolues
2- Méthodes indirectes
a- Méthode mathématique
f f f
Δu Δx Δy Δz
x y z
du f x dx f y dy f z dz
( . ) ( . ) ( . )
u x u x y u y z u z
Δu f x Δx f y Δy f z Δz
Ainsi l’incertitude s’écrit : . . .
u x u x y u y z u z
Evaluation1
1- Déterminer l’incertitude sur u dans chaque cas suivant :
u x y z
u x. y.z
x. y
u
z
u x α . y β .z γ
2
L’écart quadratique moyen est σ σ 0
2σ
L’incertitude absolue statistique est Δx >0
N
Δx 2σ
L’incertitude relative ou précision est
x x N
Evaluation
On se propose de déterminer la fréquence de résonance d’un circuit R, L, C série soumis
à une tension u sinusoïdal délivré par un générateur à basses fréquences (G.B.F.). Pour
cela on observe à l’oscilloscope le déphasage entre les signaux u et i (en fait tension aux
bornes de R) tout en balayant en fréquence : lorsque les signaux sont en phase, la
fréquence de résonance est atteinte. On dispose d’un fréquencemètre en parallèle et on
recommence l’expérience 10 fois : on obtient une séries de résultats :
n° d’essai 1 2 3 4 5 6 7 8 9 10
fréquence 1592 1596 1593 1591 1590 1591 1591 1593 1593 1591
∑ ( − ̅ )( − )
=
∑ ( − ̅)
L’incertitude sur a est :
1 ∑ ( − )
∆ =
− 2∑ ( − ̅)
1 1 ̅
∆ = ( − ) +
−2 ∑ ( − ̅)
Etude d’un champs électrostatique créé par deux plaques parallèles chargées.
II- Principe
On sepropose d’étudier :
Verifier l’unformité du champs éléctrostatique entre les deux plaques
Etudier la variation du champ électrostatique en fonction :
- La tension appliquée entre les deux plaques
- La disance séparant les deux plaques
- Elle est proportionnelle au produit des charges : attractive si elles sont de signe opposé,
répulsive sinon ;
- Enfin, elle varie comme l’inverse du carré de la distance entre les deux charges.
L’expression mathématique moderne de la force de Coulomb et traduisant les propriétés ci-
dessus
q q
F⃗ = u⃗
4 r
Cette force peut être exprimée aussi par : F⃗ = q E ⃗(M) M
q
E ⃗(M) = u⃗ r =OM
4 r
⃗
O
q
E⃗(M) = u⃗
4 r
En pratique, cette expression est rarement utilisable puisque nous sommes la plupart du
temps amenés à considérer des matériaux comportant un nombre gigantesque de
particules. C’est simplement dû au fait que l’on ne considère que des échelles spatiales très
grandes devant les distances inter-particulaires, perdant ainsi toute possibilité de distinguer
une particule de l’autre. Il est dans ce cas plus habile d’utiliser des distributions continues de
charges.
b- Distribution continue de charge
Soit P un point quelconque d’un conducteur et dq(P) la charge élémentaire contenue en ce
point. Le champ électrostatique total créé en un point M par cette distribution de charges
est :
Mathématiquement, tout se passe donc comme une charge ponctuelle dq était située en un
PM⃗ = PM. u⃗ .Il s’agit évidemment d’une approximation, permettant de remplacer une
somme presque infinie par une intégrale
⃗
P .
. d
E⃗(M) = u⃗
4 r
Lorsque l’une des dimensions de la distribution de charges est beaucoup plus petite que les
deux autres (ex : un plan ou une sphère creuse), on peut généralement faire une intégration
sur cette dimension.
. ds
E⃗(M) = u⃗
4 r
Si deux des dimensions de la distribution sont négligeables devant la troisième (ex : un fil),
. dl
E⃗(M) = u⃗
4 r
3) Le potentiel électrostatique
E⃗ = −grad⃗(V)
La conséquence de cette définition du potentiel est dV(M) = −E.⃗ dOM⃗ pour un
déplacement infinitésimal quelconque.
La circulation du champ électrostatique le long d’une courbe allant de A vers B est :
⃗(M)
z
M
r
O y
x
qu⃗. dr⃗ q. dr
dV(M) = −E.⃗ dOM⃗ = − =
4 r 4 r
1 dq
V(M) = +V
4 r
Respectivement
1 . d
V (M) = +V
4 r
1 . ds
V(M) = +V
4 r
1 . dl
V(M) = +V
4 r
Soient deux armatures (A1) et (A2) planes parallèles infinies, orthogonales à un
même axe Ox de vecteur unitaire i et situées à une distance d = x2 − x1 l’une de l’autre.
L’armature (A1) porte une densité surfacique de charges et (A2), en vertu du théorème
des éléments correspondants, porte une densité - . Entre les deux armatures, le champ
électrostatique est la superposition des champs créés par ces deux plans infinis, c'est-à-dire
−
E⃗ = E ⃗ + E⃗ = ⃗ı + (−ı⃗) = ⃗ı
2 2
La différence de potentielle entre les deux armatures est
U=V −V = E⃗. dx⃗ = d
IV- Manipulation
1) Montage
U= V1-V2 en volt
E (KV. m-1)
U=50 V
d (m)
E (KV. m-1)
2) Champ magnétique crée par un circuit filiforme quelconque parcouru par un courant
électrique.
⃗ ⃗
⃗=
4 ⃗
En intensité :
⃗= ⃗, ⃗ =
4 4 Fig. 2
Mais
= + = ; =
2
D’où
⃗=
4
D’autre part :
= ∶ = =
Finalement
=
4
Il reste à intégrer sur l’ensemble du fil :
= =
4 2
Cas d’une spire circulaire : calcul sur l’axe de la spire
La spire possède un rayon R. Le point de mesure est à une distance r de la spire, la spire est
vue sous un angle par rapport à son axe .
r
⃗
R 1
1 ⃗= ⃗+ ⃗
O 1 2
1
⃗
2
1
I
= ⃗
=
4
= =
Ainsi
= = ∗
4 2
∗ =
2
3) Champ magnétique crée par une bobine plate
N I R
B= ∗
2 r
Pour une direction x
r= R +x
Le champ B devient
N R
B= /
I
2(R + x )
4) Bobine d'Helmholtz
a- Objectif du montage
b- Principe
Deux bobines identiques, de rayon R, de nombre de spire N sont parcourues par un courant
de même intensité I.
Elles sont séparées d'une distance d. On compte les abscisses à partir du point milieu entre
les bobines.
( )= /
+ /
+( + ) +( − )
On Pose
N I
B =
2R
Et
B x d
= ; = ; =
2
D’où on peut écrire :
1 1
avec y (x ) = +
(1 + (x + k) ) (1 + (x − k) )
x x x ( )
y =1+ y (0) + y (0) + ⋯ + y (0) + ⋯
1! 2! n!
1 1 2
avec y (0) = + =
(1 + k ) (1 + k ) (1 + k )
3k 3k
y (0) = − =0
(1 + k ) (1 + k )
15k 3k 15k 3k
y (0) = − + −
(1 + k ) (1 + k ) (1 + k ) (1 + k )
30k 6k
= −
(1 + k ) (1 + k )
1890k 1260k 90
= − +
(1 + k ) (1 + k ) (1 + k )
1
Ainsi le coef icient x s annule pour la valeur k = ± Par suite:
2
2
y (x ) =
(1 + k )
Pour k = (R = d); y (x ) = 1.431
III- Manipulation
1) Cas d’une bobine plate
On fixe d=R
B (mT)
X (cm)
S est l’air de surface limitée par le contour fermé C . Le moment magnétique de force noté T⃗
est donnée par :
T⃗ = m⃗ B⃗
Dans le cas où le contour fermé est plan circulaire, de diamètres d et comportant N boucles,
le moment magnétique est :
m⃗ = I. N. S⃗ ; ‖m⃗‖ = I. N. ( )
IV- Manipulation
1) Montage
Pour assurer un champ magnétique
on réalise un montage de bobine
d’Helmholtz (d = R)
2) Etude force en fonction du
champ magnétique extérieur.
T⃗ 10(N. m)
moment de force T⃗ .
- Remplir le tableau suivant :
I(A)
T⃗ (N. m)
4) Etude force en fonction de l’angle qui fait le vecteur B⃗ avec le vecteur surface S⃗
- Faire varier l’angle et calculer à chaque fois le moment de force .
- Tracer la courbe = f (N )
6) Conclusion
En déduire l’expression de en fonction , I, et n
Lorsque le solénoïde est infiniment long (la longueur L est très important devant le rayon du
solénoïde) l’expression du champ magnétique devient :
III- Manipulation
1) Montage
2) Supports
Papier millimétré
Excel ou autre logiciel graphique
3) Étude du champ magnétique à l’intérieur d’une bobine longue (solénoïde) parcourue par
un courant continu
I(A)
B (T)
4) Variation du la valeur de B en tout point de l’axe du solénoïde
On maintiendra l’intensité dans le circuit égale à 2A. Pour différents solénoïdes faire varier la
position de la sonde sur l’axe du solénoïde et mesurer à chaque fois le champ magnétique.
a- Remplir le tableau suivant :
X(m)
B (T)
III- Manipulation
1) Montage
2) Supports
Papier millimétré
Cette loi a été découverte en 1662 par Robert Boyle et plus tard (1679) par l’abbé Edme
Mariotte. La Loi de Boyle Mariotte exprime une relation générale entre la pression et le
volume d’une quantité fixée de gaz à une température constante.
a- Mode opératoire
Durant l’expérience la température doit rester constante. La pression au cours de mesures
varie par variation de la hauteur h entre les deux surfaces libres de mercures. La variation
de la hauteur provoque automatiquement une variation de la longueur l de la partie du tube
occupée par l’air.
Sachant que la surface extérieure du mercure est soumise à une pression atmosphérique Pa,
la pression au point de contact avec le gaz est alors :
1
(10 )
Tracer la courbe )
Déduire l’expression de p en fonction de
(mm)
Tracer la courbe )
L’élévation de la température de gaz est assurée par l’eau chaude, issue du bain,
circulant au voisinage du tube contenant le gaz.
Pour maintenir le volume constant, on doit garder toujours, une même longueur de la
partie du tube contenant le gaz au cours des différentes mesures de pression tout en
mesurant à chaque fois la hauteur .
b- Mesure
Faire varier la température et déterminer à chaque fois le volume de l’air dans le tube
Remplir le tableau de masure :
(mm)
6) Conclusion
En exploitant les trois lois, déduire :
l’équation d’état d’un gaz parfait
une relation entre
Remarque
Il existe une autre loi de gaz parfait appelée Loi d’Avogadro Ampère (1811) qui affirme que
des volumes égaux de gaz différents, pris dans les mêmes conditions de température et de
pression, contiennent le même nombre de molécules.
Pour étalonner les mesures, agir sur le bouton Option, une nouvelle fenêtre s’ouvre
indiquant les paramètres à étalonner, choix des unités…
On agissant sur continue, les différents paramètres à mesurer s’affiche sur l’écran.
Commencer alors les mesures et n’oublier pas de cliquer à chaque fois sur un bouton de
clavier, si le mode enregistrement est On key press.
Une fois les mesures sont affectées, agir sur Save value pour enregistrer les valeurs prises au
cours de l’expérience.
En agissant Sur close, il apparait automatiquement le graphe désiré
Notes historiques de
La "thermodynamique"
La "thermodynamique" est la partie de la physique qui traite des relations permettant
de déterminer formellement les échanges (variations) d'énergie sous forme de travail
mécanique et de chaleur dans le cadre de l'étude de transformations des 4 états de la matière
(mais principalement des gaz parfaits dans le cadre scolaire) sous la base d'hypothèses
simplificatrices entre un système (isolé, ouvert ou fermé) et son environnement extérieur.
La thermodynamique C’est une science qui naît à la fin du XVIIème siècle. D. Papin
(physicien français, 1647-1714) imagine alors l’ancêtre des machines à vapeur. L’essentiel
était à l’époque de construire les machines indispensables à l’industrie naissante.
On dit que Denis Papin eut l'idée de construire une machine utilisant la vapeur d'eau en
regardant bouillir de l'eau dans une marmite. La vapeur soulevant le couvercle, elle pouvait
donc aussi repousser un piston et ainsi fournir du travail. La motivation initiale était donc
de répondre à un besoin industriel essentiel à l'époque : trouver les conditions optimales
pour « transformer » la « chaleur » en « travail ». On trouve dans cette phrase les trois mots
fondateurs de la thermodynamique. Le nom même donné à cette théorie emprunte à son
histoire: il vient du grec et ils signifient chaleur et force.
Entre le travail de D. Papin et la thermodynamique moderne telle qu’elle est enseignée
aujourd’hui plusieurs étapes importantes vont marquer son histoire :
• en 1824, Nicolas Léonard Sadi Carnot (physicien français, 1796-1832) développe les
premières réflexions sur « la puissance motrice du feu et des machines propres à développer
cette puissance ». Ces machines servent alors de support expérimental à une réflexion
scientifique et à une ébauche de théorie. En 1831, Carnot propose que la chaleur se conserve:
un moteur thermique ne peut fournir du travail que s’il emprunte de la chaleur à la source
chaude et en restitue à la source froide.
• en 1860 : une nouvelle étape importante est franchie par James Prescott Joule (physicien et
industriel anglais, 1818-1889). Il énonce le principe fondateur de la thermodynamique «
L’énergie se conserve, c’est-à-dire que tout travail peut être intégralement transformé en
chaleur ». Voilà énoncé le premier principe de la thermodynamique qui ne fait
qu’exprimer un postulat maintenant accepté par tous : la conservation de l’énergie. L’énergie
devient alors la grandeur importante de la thermodynamique et en particulier l’énergie
propre au système : l’énergie interne U.
• en 1865 : Rudolph Clausius (physicien allemand, 1822-1888) précise que l’on ne peut pas
faire n’importe quoi même si l’énergie se conserve. Il énonce le second principe de la
thermodynamique qui permettra de définir la température thermodynamique (T) et
une grandeur bien difficile à comprendre par cette approche, l’entropie (S).
Ainsi, la thermodynamique du XIXème siècle est la science des transformations. De plus,
le concept d’atome est loin d’être acceptée à cette époque. La version historique de
la thermodynamique repose donc essentiellement sur des postulats, appelés principes,
sans référence à la physique à l’échelle atomique. Ces différents postulats constituent un
ensemble cohérent pour introduire la thermodynamique, mais cependant très peu abordable. Il
est difficile de faire le lien entre l’expérience sur laquelle reposent les raisonnements, le
fonctionnement d’une machine à vapeur, et de nombreuses applications modernes de la
thermodynamique. Ceci est d’autant plus évident que la plupart de ces applications ne
mettent pas en jeu l’étude de transformations. Depuis le début du XXème siècle, nous
savons que l’objet premier de la thermodynamique est l’étude de l'état d'équilibre d’un
système, situation particulière dans laquelle celui-ci se trouve avant ou après une
transformation.
1875 : les travaux de Ludwig Boltzmann (physicien autrichien, 1844-1906) démontrent que la
thermodynamique qui traite avant tout de phénomènes macroscopiques peut être comprise au
niveau microscopique : les atomes existent ! Il introduit la célèbre relation définissant l’entropie
d’un système : S = kBln(Ω). Dès lors, il est possible de donner un sens physique aux
différentes grandeurs comme l’entropie ou la température, grâce au passage de l'échelle
atomique (ou microscopique) à la description macroscopique d'un système.
• en 1880 : Josiah Williard Gibbs (physicien américain, 1839-1903) généralise le raisonnement
de Boltzmann et définit les fonctions d’état énergie libre (F), enthalpie libre (G)… décrivant
un état d’équilibre; les notions de chaleur et de travail deviennent alors secondaires.
Ainsi, une nouvelle présentation de la thermodynamique se met progressivement en place à la
croisée des XIXème et XXème siècles. Cette nouvelle approche, qui s’appuie essentiellement
sur la description de l’atome, se verra renforcée par les travaux de Max Planck (1900) et
Albert Einstein (1905) qui définissent les bases de la théorie de l’atome que l’on appelle la
mécanique quantique.
Les objectifs principaux de la thermodynamique sont:
Avec un minimum de variables de pouvoir déterminer l'état et les échanges énergétiques d'un
système sous des contraintes prédéfinies et souvent considérées comme idéales... (Il y à peu
près une différence de 5% entre les valeurs théoriques et celles mesurées)
De trouver les "variables d'état", telles que ces différentes informations puissent être
obtenues en ne connaissant dans l'idéal que l'état final et initial du système.
De se débrouiller à ramener les équations toujours à une forme mettant en évidence des
variables (variations) facilement mesurables dans la pratique.
Notes historiques de
l’électromagnétisme
Les phénomènes électriques et magnétiques sont connus depuis l’antiquité. On savait que
l’ambre frotté attirait les corps légers et que certaines pierres étaient attirées par les objets en fer.
Mais les connaissances de l’époque ne permettaient pas de différencier ces deux phénomènes.
C’est William Gilbert (1544-1603) médecin anglais à la cour d’Elisabeth Ière qui le premier, par ses
expériences, différencie ces deux forces mystérieuses. De 1600 à 1740, l’expérimentation n’est que
qualitative mais les savants de l’époque ont réussi à mettre au point des générateurs fournissant des
tensions de 50 à 70 000 V.
Des expériences spectaculaires, mettant en jeu les phénomènes électriques, sont montrées dans les
salons.
En 1777 Charles Augustin Coulomb habile expérimentateur, montra que la valeur de la force
électrostatique exercée par une sphère électrisée sur une autre était inversement proportionnelle au
carré de la distance entre les deux sphères.
Lorsque, en 1820, un professeur de physique de l’université de Copenhague, Hans Christian
Œrsted, annonça qu’il venait d’observer qu’un fil parcouru par un courant électrique provoquait la
déviation d’une aiguille aimantée placée à proximité, il ne se doutait probablement pas qu’il ouvrait
ainsi la voie à l’électromagnétisme, qui allait devenir l'un des piliers de la physique du XIXe siècle.
Certes, on soupçonnait déjà qu'existait une relation de cousinage entre les phénomènes électriques et
magnétiques, ne serait-ce que parce que l’on savait qu’un orage, dont la nature électrique avait été
établie par Benjamin Franklin pouvait perturber le fonctionnement des boussoles. Mais une telle
influence n’avait jamais pu être mesurée de façon rigoureuse et reproductible.
Au début du XIXe siècle, l'édifice théorique de cette branche de la physique était constitué de
deux piliers bien séparés : l’électrostatique d'une part, la magnétostatique d'autre part.
L’électrostatique décrivait les interactions entre corps chargés électriquement, la
magnétostatique celles entre corps aimantés. Les deux domaines présentaient bien certaines
similitudes, par exemple la propriété pour les objets étudiés de se repousser ou de s’attirer,
mais ils semblaient recouvrir des phénomènes de natures distinctes : un aimant et un corps
électrisé ne s’attirent pas ; un corps électrisé est soit chargé positivement, soit chargé
négativement, tandis qu’un aimant contient toujours deux pôles inséparables, même lorsqu’on
le casse en deux.
Une semaine après l’exposé d’Œrsted, André Marie Ampère donna l'explication de ce que celui-ci
avait observé. Il prit comme objet élémentaire le fil conducteur parcouru par un courant électrique
(ou, plus exactement, une portion infime de ce fil) et ramena le problème du magnétisme à celui de
l’interaction entre fils électriques. Si un fil est susceptible d’agir sur un aimant, c’est parce qu'un
aimant est au fond lui-même équivalent à une multitude de boucles de courants élémentaires. Ampère
trouvait ainsi la clé de l’ensemble des phénomènes magnétiques observés, mettant le doigt sur
l’origine commune des phénomènes magnétiques et électriques : le magnétisme résulte simplement de
la présence de courants électriques, c’est-à-dire de déplacements de charges électriques.
La compréhension de ce lien entre électricité et magnétisme fut renforcée par les travaux de
Michael Faraday. Fasciné par l’expérience d’Œrsted, celui-ci n’eut de cesse de démontrer l’effet
inverse, c'est-à-dire l'induction par un aimant d’un courant électrique au sein d’un fil conducteur. Il y
parvint en 1831, découvrant que l’effet ne se produit que si l’aimant est animé d’un mouvement par
rapport au fil. Ce nouveau phénomène, l'induction électromagnétique, allait jouer un rôle
considérable dans le développement de l’électricité industrielle.
Faraday réveilla ensuite un vieux débat de la physique : la question de l'action instantanée à
distance. L’idée que l’interaction entre deux corps ne dépend que de leur nature propre et de la
distance qui les sépare, non du milieu qui les sépare, heurte le sens commun puisqu'elle ne dit rien sur
la façon dont l’interaction se propage d’un corps à l’autre. Faraday croyait à l’idée d’une
propagation " de proche en proche ". Cette conception était étayée par un fait expérimental qu’il
contribua à élucider : les quantités de charges qui s’accumulent à la surface de deux conducteurs
placés en regard l’un de l’autre et séparés par un milieu diélectrique, c’est-à-dire isolant, dépendent
non seulement de la distance séparant les deux conducteurs, mais aussi de la nature du milieu
intermédiaire.
Mais Faraday, peu à l'aise en mathématiques, ne parvint pas à formaliser de façon rigoureuse son
intuition. Cette tâche fut accomplie par William Thomson (le futur Lord Kelvin) et surtout James Clerk
Maxwell. Dans le but de décrire l’influence dans l'espace environnant de la présence de charges
électriques fixes ou en mouvement, ce dernier précisa les concepts de champ électrique et de champ
magnétique, qui caractérisent en quelque sorte " l’état électromagnétique " d'un point quelconque de
l’espace. En 1864, il obtint neuf équations fondamentales (qu’on est depuis parvenu à réduire à
quatre). Cette théorie très élégante permettait – résultat capital – de calculer la vitesse de
propagation des phénomènes électriques et magnétiques, si grande que l'on n'avait pas pu la mesurer
jusqu'alors.
Ce fut un jeune Allemand, Heinrich Hertz, élève de l’un des grands physiciens de l’époque,
Hermann Von Helmholtz, qui paracheva le triomphe de la théorie de Maxwell. Ensuite, il vérifia
expérimentalement la prédiction fondamentale de la théorie de
Maxwell, c'est-à-dire que les ondes électromagnétiques se propagent à la vitesse de la lumière. A
l’aide d’un dispositif électrique qu’il avait mis au point, il produisit en 1887 des ondes
électromagnétiques de grande longueur d’onde, les ondes hertziennes, dont il put mesurer la vitesse
de propagation et vérifier qu’elle s’identifiait bien avec celle de la lumière. Après qu’il eut démontré
expérimentalement que ces ondes pouvaient être réfléchies ou réfractées, tout comme la lumière il
devint clair que celle-ci ne se distinguait plus en rien de celles-là : la nature électromagnétique de la
lumière était établie, jetant un éclairage nouveau sur les équations de Maxwell. Au moyen de quatre
équations relativement simples, on unifiait non seulement l’électricité et le magnétisme, mais on
ramenait à la nouvelle branche ainsi formée l’ensemble de l’optique. Jamais, dans l’histoire de la
physique, un ensemble aussi restreint de lois n’avait suffi à rendre compte d’une telle diversité de
phénomènes.
La théorie fut encore améliorée en 1895 par le physicien hollandais Hendrik Antoon Lorentz,
après qu’on eut découvert la particule porteuse de la charge électrique (négative)
élémentaire : l’électron.
La théorie de Maxwell demeure la théorie de base du champ d’applications le plus fécond
qu’elle ait ouvert : celui des télécommunications hertziennes. Inauguré par la découverte des
ondes du même nom, ce domaine se développa rapidement, à la fin du XIXe siècle, grâce à la
mise au point d’émetteurs et de récepteurs de plus en plus perfectionnés. En 1895, le Russe
Aleksander Popov réalisa en laboratoire la première transmission de signaux Morse par voie
hertzienne. La télégraphie sans fil (T S.F) était née. Six ans plus tard, l’Italien Guglielmo
Marconi reliait par cette même voie le continent européen au continent américain. Grâce aux
progrès technologiques de la première moitié du XXe siècle (en particulier à l’apparition et
au développement des tubes électroniques), il devint bientôt possible de transporter à distance
le son, puis l’image. La capacité des ondes hertziennes à se réfléchir lorsqu’elles rencontrent
un obstacle fut pour sa part à l’origine de l’invention dans les années 30 d’un moyen de
détection très efficace : le radar.