Vous êtes sur la page 1sur 28

Formulaire de mathématiques

CLASSE PRÉPARATOIRE ECG


Deuxième année
Option mathématiques appliquées

Algèbre

Analyse

Probabilités
Sommaire

Edito 3

Algébre 5
Espaces vectoriels réels de dimension finie . . . . . . . . . . . . . . . . . . . . . . . 5
Applications linéaires, endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . 6
Réduction des matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

Analyse 9
Systèmes différentiels linéaires à coefficients constants . . . . . . . . . . . . . . . . 10
Compléments sur les suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Compléments et rappels sur les séries . . . . . . . . . . . . . . . . . . . . . . . . . 12
Compléments sur les fonctions réelles . . . . . . . . . . . . . . . . . . . . . . . . . 13
Intégration sur un intervalle quelconque . . . . . . . . . . . . . . . . . . . . . . . . 14
2
Fonctions réelles définies sur R . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Calcul différentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

Probabilités et Statistique 18
Graphes probabilistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Compléments sur les variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . 19
Variables aléatoires à densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Lois à densité usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Vecteurs aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Convergences et approximations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Analyse statistique de données : cas bivariées . . . . . . . . . . . . . . . . . . . . . 25
Statistique inférentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

Ipesup 101 boulevard Raspail - 75006 Paris • 01 44 32 12 00

2
3

Édito
Ce formulaire est un outil destiné à vous aider à réviser vos définitions, vos formules, ainsi
que les résultats les plus importants du cours de 2ème année de classe préparatoire ECG en
mathématiques approfondies. Pour le cours de première année, vous pouvez vous référer au
formulaire de première année. Ce formulaire n’est pas conçu comme un cours de maths, en
particulier, il ne se substitue pas au cours dispensé en classe par un professeur.
Il est important de noter que ce formulaire ne doit pas être considéré comme une extension
externe de votre mémoire ; il s’agit simplement d’une aide à la révision. Les conseils donnés dans
l’éditorial du formulaire de 1ère année demeurent pertinents pour la 2ème année : il est essentiel
de mémoriser, de comprendre et de maı̂triser le cours de mathématiques. En prépa ECG, il est
fréquent de constater que la maı̂trise complète du cours n’est pas acquise. Cependant, cette
maı̂trise est indispensable pour réussir les concours.
Rappelons simplement que l’assimilation du cours de mathématiques doit être effectuée en
vue de pouvoir l’appliquer lors des concours, ce qui demande du travail et un entraı̂nement
régulier. Le calcul, qui prend de plus en plus d’importance chaque année aux concours, est une
compétence qui ne peut être acquise qu’à travers un entraı̂nement assidu. Il est nécessaire de
s’entraı̂ner tous les jours en calcul.
En deuxième année, la proximité des concours ajoute des difficultés supplémentaires : il ne
s’agit plus seulement d’être bon en maths, il faut aussi être efficace, rapide et gagner des points.
Comment y parvenir ? Tout d’abord, il faut penser rapidement, c’est pourquoi on vous demande
de maı̂triser votre cours à la perfection. Un cours correctement appris sera plus facile à mettre
en pratique. En vous entraı̂nant sur différents problèmes, vous acquerrez l’habitude de trouver
les solutions plus rapidement. Un dernier conseil : dans un problème, les questions ont rarement
une fonction décorative ; elles sont là pour vous aider à répondre aux questions suivantes. Vous
pouvez donc sauter une question, mais vous ne devez pas la sauter sans l’avoir préalablement
comprise, car vous pourriez avoir besoin de son contenu par la suite.
Ensuite, il est crucial de porter une attention particulière à la rédaction. Une rédaction efficace
doit être à la fois suffisamment développée pour obtenir tous les points et suffisamment concise
pour ne pas perdre de temps. Cela signifie qu’entre deux solutions possibles, il faudra souvent
choisir celle qui demande le moins de rédaction. Trouver un tel équilibre (et le faire sans y passer
trop de temps) nécessite de l’entraı̂nement. Les DM, les DS et les concours blancs sont des
occasions idéales pour perfectionner votre rédaction, mais n’hésitez pas à solliciter le professeur
concernant la rédaction des solutions à d’autres moments.
4
Enfin, pour être pleinement efficace, il est essentiel de savoir calculer de manière efficace.
Si vous suivez mes conseils, c’est une compétence que vous travaillez tous les jours, mais
rappelons quelques grands principes au-delà du travail quotidien. D’une part, le meilleur moyen
de ne pas commettre d’erreur de calcul est de ne pas effectuer de calculs inutiles. Avant de vous
lancer dans un calcul complexe, demandez-vous s’il existe une méthode plus simple. D’autre
part, l’organisation d’un calcul est presque aussi importante que le calcul lui-même. Un calcul
bien présenté sera facile à relire, à la fois pour le correcteur et pour vous-même lorsque vous
chercherez des erreurs de calcul.
Avant les concours, une phase de révision débutera. Elle sera d’autant plus facile que vous
aurez travaillé régulièrement tout au long des deux années de prépa. Pour bien couvrir tous les
chapitres de chaque matière durant cette phase intense, la création d’un rétro-planning détaillé
s’avère essentielle.”En mathématiques, ce formulaire vous aidera à réviser efficacement. À ce
stade, votre santé physique joue un rôle crucial : couchez-vous suffisamment tôt, levez-vous à
l’heure à laquelle vous devrez vous lever le jour des concours, et adoptez une alimentation saine.
Enfin, deux jours avant les concours, ainsi que pendant la période des concours, ne faites plus
rien d’autre que vous reposer. Après deux ans de travail très intensif, quelques heures de plus
ou de moins ne feront aucune différence, tandis qu’un corps et un esprit reposés peuvent faire
toute la différence.
La prépa est une période exceptionnelle qui devrait vous permettre d’exprimer votre véritable
potentiel. La rigueur que vous y acquérez vous sera utile tout au long de vos études et bien
au-delà. Bon courage pour cette année et pour les concours !

Valentin Kilian
5

Espaces vectoriels réels de dimension finie


E désigne un espace vectoriel. Les ui sont éléments de E et les λi sont éléments de R.

Sous-espace vectoriel. F est un sous-espace vectoriel de E si F ⊂ E, si F ≠ ∅, et si F est


stable par combinaison linéaire i.e. si : ∀(u, v ) ∈ F , ∀λ ∈ R, (λu + v ) ∈ F .
2

Combinaison linéaire. On dit que u est combinaison linéaire de u1 , u2 , ..., un s’il existe un
n-uplet (λ1 , ..., λn ) ∈ R tel que : u = ∑i=1 λi ui . L’ensemble des combinaisons linéaires de
n n

u1 , u2 , ..., un est noté Vect(u1 , u2 , ..., un ) et est un sous-espace vectoriel de E.

Famille libre. (u1 , ..., un ) est une famille libre de E si : ∀(λ1 , ..., λn ) ∈ R
n

∑i=1 λi ui = 0E ⇒ ∀i ∈ [[ 1 , n ]], λi = 0.
n

Famille liée. (u1 , ..., un ) est une famille liée de E si ce n’est pas une famille libre de E, i.e.
si au moins un des éléments de cette famille est combinaison linéaire des autres.

Famille génératrice. (u1 , ..., un ) est génératrice de E si :


∀u ∈ E, ∃(λ1 , ..., λn ) ∈ R , u =i=1 λi ui .
n n

Base, dimension. (u1 , ..., un ) est une base de E si c’est une famille libre et génératrice de
E. Toutes les bases de E sont alors de longueur n. On dit que E est de dimension n.

Proposition 1. Si E est de dimension finie n


• Toute famille libre de E admet au maximum n éléments (on dit dans ce cas qu’elle est
maximale). Toute famille libre et maximale de E est une base de E.
• Toute famille génératrice de E admet au minimum n éléments (on dit dans ce cas
qu’elle est minimale). Toute famille génératrice et minimale de E est une base de E.

Rang d’une famille de vecteurs, d’une matrice. Le rang de (u1 , ..., un ) est donné par
rg(u1 , ..., un ) = dim(Vect(u1 , ..., un )). Le rang d’une matrice A, noté rg(A) est le rang de ses
t
colonnes vues comme des vecteurs. On a rgA = rg A.

Sommes, sommes directes. La somme de deux s.e.v. F et G de E est donnée par : F + G =


{x + y , x ∈ F, y ∈ G}. La somme F +G est directe si tout élément de F +G se décompose ainsi
sous forme x + y de façon unique. F et G sont en somme directe si et seulement si F ∩ G = {0}.
On note alors : F + G = F ⊕ G. Si F ⊕ G = E on dit que F et G sont supplémentaires dans E.

Proposition 2. Caractérisation des espaces supplémentaires Si F ∩ G = {0} et si dim F +


dim G = dim E, alors F et G sont supplémentaires dans E. F et G sont supplémentaires dans
E ssi la concaténation d’une base de F et d’une base de G forme une base de E.
6

Applications linéaires, endomorphismes


E et F désignent deux espaces vectoriels de dimensions finies et f une application linéaire
de E dans F . On se donne B = (e1 , ..., en ) une base de E et B = (e1 , ..., ep ) une base de F
′ ′ ′

Définition. f est linéaire si : ∀(u, v ) ∈ E , ∀λ ∈ R, f (λu + v ) = λf (u) + f (v ). On note


2

L(E, F ) l’ensemble des applications linéaires de E dans F . Si F = E on note seulement L(E).

Matrice de f . On appelle matrice de f dans les bases B et B la matrice de Mp,n (R) notée

MatBB′ (f ) dont la j-ième colonne est formée des coordonnées du vecteur f (ej ) dans la base B .

Si F = E et B = B on note plutôt MatB (f ). Ainsi, une fois qu’on a fixé les bases B et B , on
′ ′

peut associer à toute application linéaire f ∈ L(E, F ) une matrice de Mn,p (R).

Image d’un vecteur Soient x ∈ E et X son vecteur dans la base B. Soient y ∈ F et Y son
vecteur dans la base B . Alors on a y = f (x) ⇔ Y = MatBB′ (f )X.

Proposition 3. (Opérations sur les matrices)


• Soient f , g ∈ L(E, F ) de matrices respectives A, B dans les bases B et B . Soit λ ∈ R.


La matrice de λf + g dans les bases B et B est alors λA + B.
• Soient E, F et G trois espaces vectoriels de bases respectives B1 , B2 et B3 . Soit f ∈
L(E, F ) de matrice A dans les bases B1 et B2 , et g ∈ L(F, G) de matrice B dans les
bases B2 et B3 . Alors la matrice de g ◦ f dans les bases B1 et B3 est la matrice BA.
k k
• Par suite, si F = E alors la matrice de f est A , et si f est bijective alors A est
−1 −1
inversible et la matrice de f est A .

Noyau. Kerf = {u ∈ E, f (u) = 0}. Kerf est un s.e.v. de E, et Kerf = {0} ⇔ f est injective.

Image. Imf = {v ∈ F, ∃u ∈ E, f (u) = v } = {f (u), u ∈ E}. Imf est un s.e.v. de F , et


Imf = F ⇔ f est surjective.

Proposition 4. Formule du rang. Soit f ∈ L(E, F ), dim Kerf + rgf = dim E.

Proposition 5. Si E et F sont de même dimension finie : f est injective ⇔ f est surjective.

Endo-, iso-, automorphismes.


• f est un endomorphisme de E si f est linéaire de E dans E.
• f est un isomorphisme de E si f est linéaire et bijective de E dans F .
• f est un automorphisme de E si f est linéaire bijective de E dans E.
• f est une forme linéaire sur E si f est linéaire de E dans R.

Rang. Le rang de f ∶ E → F est la dimension de son image : rgf = dim(Imf ). Si A est une
matrice représentant l’endomorphisme f , alors rgf = rgA
7

Proposition 6. Caractérisation des isomorphismes. Si E et F sont de même dimension finie,


et si f ∶ E → F , alors s’équivalent
• f est un isomorphisme.
• f est injective ou surjective, les deux propositions étant alors équivalentes.
• f transforme une base de E en une base de F .
• f transforme toute base de E en une base de F .
• la matrice représentative de f dans une base quelconque de E est inversible.

Matrice de passage. Soient B et B deux bases de E (supposé de dimension finie). On appelle

matrice de passage de B à B , et on note PB,B′ , la matrice dont la j-ème colonne représente les
coordonnées du j-ème vecteur de B dans la base B. Autrement dit (PB,B′ )i,j est la composante


du j-ème vecteur de B selon le i-ème vecteur de B.

−1
Proposition 7. PB,B′ est inversible et on a PB,B′ =PB′ ,B

Proposition 8. Formules de changement de base. Si, pour tout vecteur x de E, on note X


′ ′ ′
le vecteur de x dans la base B et X le vecteur de x dans la base B , alors X = PB,B′ X .

Si, pour tout endomorphisme f de E, on note A la matrice de f dans la base B et A la
′ ′ −1
matrice de f dans la base B alors A = PB,B′ APB,B′ .

Matrices semblables. Deux matrices A et A de Mn (R) sont dites semblables s’il existe

une matrice P de Mn (R) inversible telle que : A = P A P . Autrement dit deux matrices
−1 ′

sont semblables ssi elles sont les matrices d’un même endomorphisme de E, dans des bases
différentes.
8

Réduction des matrices carrées


Soit n un entier supérieur ou égal à 2. Soit A ∈ Mn (R) une matrice carrée. On identifiera
R et Mn,1 (R).
n

Valeurs propres, vecteurs propres et spectre. On dit que λ ∈ R est une valeur propre de
n
la matrice A s’il existe un vecteur colonne U ∈ R non nul tel que AU = λU . Un tel vecteur U
est appelé vecteur propre de A associé à la valeur propre λ. L’ensemble des valeurs propres de
A est appelé le spectre de A. On le note Sp(A).

Sous-espaces propres d’une matrice. Si λ est une valeur propre de la matrice A alors
l’espace vectoriel Eλ (A) = {X ∈ R ∶ AX = λ.X} = Ker (A − λ.In ) est appelé sous-espace
n

propre de A associé à la valeur propre λ.

Proposition 9.
• λ est une valeur propre de A si et seulement si Eλ (A) ≠ {0n } .
• λ est une valeur propre de A ∈ Mn (R) si et seulement si A − λ.In n’est pas inversible.
• A est inversible si et seulement si 0 n’est pas valeur propre de A.

Proposition 10. Soit Q un polynôme et U un vecteur propre de A associé à la valeur propre


λ, ie AU = λU, alors U est vecteur propre de la matrice Q(A) associé à la valeur propre Q(λ),
ie Q(A)U=Q(λ)U.

k
Polynôme annulateur. Soit P ∶ x ↦ ∑ ai .x un polynôme non nul. On dit que P est un
i

i=0

polynôme annulateur de la matrice A ∈ Mn (R) si P (A) = ∑ ai .A = 0n,n .


k
i

i=0

Proposition 11. Soit P un polynôme annulateur d’une matrice A. Toute valeur propre de A
est racine de P .
9

Remarque : Par conséquent les valeurs propres possibles d’une matrice carrée sont à recher-
cher parmi les racines d’un polynôme annulateur.

Proposition 12. Une famille de vecteurs propres associés à des valeurs propres distinctes est
libre.

Matrice diagonalisable. On dit que A est diagonalisable s’il existe une matrice inversible P
−1
et une matrice diagonale D telles que : A = P DP . Les colonnes de P forment une base de
n
R constituée de vecteurs propres de A, les éléments diagonaux de D sont les valeurs propres
de A. Autrement dit A est diagonalisable si elle est semblable à une matrice diagonale.

Proposition 13. (Condition suffisante de diagonalisabilité) Toute matrice symétrique est dia-
gonalisable.

Proposition 14. (Critère de diagonalisabilité) A est diagonalisable si et seulement s’il existe


n
une base de R constituée de vecteurs propres de A.

Proposition 15. (Application au calcul de puissance de matrice) Soit k ∈ N. Il est facile de


−1 k k −1
calculer la puissance k-ième d’une matrice diagonalisable : si A = P DP alors A = P D P
k
et le calcul de D est immédiat.

Remarque : Bien entendu, et même si c’est en théorie hors-programme, tous ces résultats
se traduisent immédiatement en termes d’endomorphismes : étant donné un endomorphisme f ,
il suffit de considérer sa matrice A dans une base B pour définir les valeurs propres de f , les
vecteurs propres de f ...
10

Systèmes différentiels linéaires à coefficients constants


Définition. Un système différentiel linéaire à coefficients constants à n inconnues est un
système constitué de n équations différentielles que l’on note

⎪ y1 (t) = a11 y1 (t) + ... + a1n yn (t)





(S) ∶ ⎨






⎩ yn (t) = an1 y1 (t) + ... + ann yn (t)

Résoudre ce système c’est trouver des fonctions (y1 , ...yn ) vérifiant simultanément ces n
équations.

Ecriture matricielle. On a (S) ⇔ Y = AY où Y = (y1 , ...yn ) , Y = (y1 , ...yn )


′ t ′ t ′ ′

et A = (aij )i,j∈[[ 1 , n ]] .

Lien avec les équa diff d’ordre 2. Soit a, b ∈ R, on note X = (x, x ) et A = ( ).


t ′ 0 1
−b −a
′ ′
Alors x” + ax + bx = 0 ⇔ X = AX.

Théorème 16. Soit t0 ∈ I et (x1 , ..., xn ) alors il existe une unique solution sur I au système
0 0

(S) vérifiant les conditions initiales : ∀k ∈ [[ 1 , n ]], xk (t0 ) = xk .


0


Proposition 17. (Résolution lorsque A est diagonalisable) On considère un système X = AX
où A est une matrice diagonalisable. On note (U1 , ..., Un ) une base de diagonalisation de A
associée aux valeurs propres (non nécessairement distinctes) λ1 , ...λn . Alors les solutions du
sytème sont de la forme
X ∶ t ↦ ∑k=1 αk e k Uk où les αk sont dans R.
n λ t

Trajectoire. On appelle trajectoire de X = AX tout ensemble {X(t), t ∈ R} ⊂ R où X est


′ n

une solution du système.

Equilibre. On appelle état d’équilibre du système (S) toute solution de (S) constituée de
fonctions constantes.

Convergence. On dit qu’une trajectoire {X(t), t ∈ R} est convergente si chacune des


composantes xi possède une limite finie i lorsque t tend vers +∞. On dit alors que ce trajectoire
converge vers le n-uplet ( 1 , ... n ). Sinon, on dit que la trajectoire diverge.

Théorème 18. (Comportement asymptotique des trajectoires lorsque A est diagonalisable)



On considère un système X = AX où A est une matrice diagonalisable. Si toutes les valeurs
propres de A sont négatives ou nulles, alors toutes les trajectoires du système convergent
vers un état d’équilibre. On dit alors que cet état d’équilibre est stable. Sinon, il existe des
trajectoires qui divergent.
11

Compléments sur les suites


Suites itérées. Soit f une fonction réelle. On appelle suites itérées les suites définies par
récurrence par u0 ∈ R et ∀n ∈ N, un+1 = f (un ).

Point fixe. On appelle point fixe de f tout réel x tel que f (x) = x.

Proposition 19. Quelques résultats sur les suites itérées.


• Si f est croissante, (un )n∈N est monotone : croissante si u0 ≤ u1 et décroissante dans
le cas contraire.
• Si f est décroissante, (u2n )n∈N et (u2n+1 )n∈N sont monotones de sens de variation
contraires.
• Si f change de variations, on peut parfois se ramener à un intervalle I stable par f
contenant tous les termes de u à partir d’un certain rang, sur lequel f soit monotone.
• Si u converge vers  ∈ R et si f est continue en , alors :  = f ().

Comparaison de suites.
• Suites négligeables. u est négligeable devant v , et l’on note u = o(v ) ou un = o(vn ),
s’il existe n0 ∈ N tel que pour tout n ≥ n0 : un = εn vn , où : εn ⟶ 0.
• Suites équivalentes. u est équivalente à v , et l’on note u ∼ v ou un ∼ vn , si un − vn =
o(vn ), i.e. s’il existe n0 ∈ N tel que pour tout n ≥ n0 : un = hn vn , où : hn ⟶ 1.

Proposition 20. (Caractérisation) Si (vn )n ne s’annule pas à partir d’un certain rang :
un = o(vn ) ⇔ lim uvn = 0 et un ∼ vn ⇔ lim uvn = 1
n→+∞ n n→+∞ n

Remarque : Attention à être précautionneux lorsque vous faites des opérations sur les
équivalents et sur les petit o, toutes les opérations ne sont pas licites (cf les compléments
sur les fonctions réelles).

Théorème 21. Croissances comparées Pour tous réels α, β, γ > 0 :


• ∀q > 1, n = o(q ) et ∀q ∈] − 1; 1[, q = o( n1β )
β n n

• ∀q > 1, ln(n) = o(q ) et ∀q ∈] − 1; 1[, q = o(ln(n) )


γ n n γ

• ln(n) = o(n )
γ β

”Toute puissance n-ième, l’emporte sur toute puissance de n, qui l’emporte sur toute
puissance de ln(n).”


Proposition 22. (Equivalents usuels) Soit un une suite de limite nulle et α ∈ R alors
ln(1 + un ) ∼ un , e n − 1 ∼ un et (1 + un ) − 1 ∼ αun
u α
12

Compléments et rappels sur les séries


Définitions et notations. Soit (un )n une suite de nombres réels. La suite des sommes
partielles (Sn )n de (un )n est définie par ∀n ∈ N, Sn = ∑k=0 uk . On dit que la série de terme
n

général un converge (et on note ∑ un converge) lorsque la suite (Sn )n converge. Quand ∑ un
converge, on appelle somme de ∑ un la limite de la suite (Sn )n . On la note ∑k=0 uk . Quand
+∞

une série ne converge pas, on dit qu’elle diverge.

Divergence grossière. Si ∑ un converge, alors (un )n tend vers 0. Si (un )n ne tend pas vers
0, alors ∑ un ne converge pas. On dit alors que la série diverge grossièrement.

Convergence absolue. On dit que ∑ un converge absolument quand ∑ ∣un ∣ converge. Si


une série converge absolument, alors elle est convergente. La réciproque est fausse

Séries particulières.
• Soit q ∈ R, on appelle série géométrique la série ∑ q . Quand ∣q∣ < 1, cette série est
n

convergente de somme ∑k=0 q = 1−q .


+∞ k 1

En ”dérivant” on trouve ∑n=1 nq et ∑n=2 n(n − 1)q


1 +∞ n−1 +∞ n−2
= 1
(1−q)2
= 2
(1−q)3
• Soit u ∈ R, on appelle série exponentielle la série ∑ un! . Cette série est absolument
n

convergente. On note sa somme : exp(u) = ∑k=0


+∞ u k
k!
.

Théorème 23. Premier théorème de comparaison des séries à terme général positif Soient
(un ) et (vn ) deux suites vérifiant, à partir d’un certain rang, 0 ≤ un ≤ vn alors :
∑ vn converge ⇒ ∑ un converge et ∑ un diverge ⇒ ∑ vn diverge.

Théorème 24. Second théorème de comparaison des séries à terme général positif
• Soient (un ) et (vn ) deux suites positives à partir d’un certain rang. Si un ∼ vn alors
∑ vn et ∑ un sont de même nature.
• Soient (un ) et (vn ) deux suites vérifiant un = o(vn ) avec (vn ) positive à partir d’un
certain rang, alors ∑ vn converge ⇒ ∑ un converge.

Théorème 25. Séries de Riemann. Soit α ∈ R, la série ∑ n1α converge ssi α > 1.

Théorème 26. Séries télescopiques. Pour tout ∈ N on a ∑k=0 (uk+1 − uk ) = un − u0 .


∗ n−1

Par suite la série de terme général un+1 − un a même nature que la suite (un ).

1. La dérivation terme à terme de séries n’est pas possible en général. Il existe des théorèmes expliquant sous
quelles conditions c’est possible, mais ils ne sont pas au programme d’ECG, ne retenez donc cette méthode que
comme un moyen mnémotechnique.
13

Compléments sur les fonctions réelles


Comparaison de fonctions.
• Fonctions négligeables. f est négligeable devant g au voisinage de x0 , et l’on note
f (x) = o(g(x)), s’il existe un voisinage V de x0 et une fonction ε ∶ V ⟶ R, de limite
nulle en x0 , tels que pour tout x ∈ V, f (x) = ε(x)g(x).
x→x0

• Fonctions équivalentes. f est équivalente à g lorsque au voisinage de x0 , et l’on note


f (x) ∼ g(x), si f (x) − g(x) = o(g(x)), i.e. s’il existe un voisinage V de x0 tel que
pour tout x ∈ V, f (x) = h(x)g(x), où lim h(x) = 1.
x→x0

x→x0

Proposition 27. Si g ne s’annule pas au voisinage de a :


f (x) = o(g(x)) ⇔ lim g(x) = 0 et f (x) ∼ g(x) ⇔ lim g(x) = 1
f (x) f (x)
x→a x→a x→a x→a

Proposition 28. (Compatibilité vis à vis des opérations)


• Si f (x) = o(g(x)) et h(x) = o(g(x)) alors ∀α ∈ R, αf (x) + h(x) = o(g(x))
• Si f (x) ∼ g(x) et h(x) ∼ k(x) alors f (x)h(x) ∼ g(x)k(x).
x→a x→a x→a

• Si f (x) ∼ g(x) et si de plus f et g ne s’annule pas alors


x→a x→a x→a
1
∼ 1 .
f (x) x→a g(x)
• Si f (x) ∼ g(x) alors ∀n ∈ N , f (x) ∼ g(x) .
x→a
∗ n n
x→a x→a
Attention : l’équivalence n’est en général pas compatible avec l’addition et la composition des
fonctions.

Théorème 29. (Croissances comparées) Pour tous réels α, β > 0 :


(ln(x)) = o(x ) et x = o(e ).
β α α x
x→+∞ x→+∞

Equivalents usuels. ln(1 + x) ∼ x , e − 1 ∼ x et (1 + x) − 1 ∼ αx.


x α
x→0 x→0 x→0

Formule de Taylor-Young. Si f ∈ C ([a, b], R), lorsque x est au voisinage de a :


n

f (x) = ∑ (a) + o((x − a) ).


(x−a) (k)
n k
n
k!
f
k=0

Développements limités à connaı̂tre. Lorsque x est au voisinage de 0 :

+ o(x ). • (1 + x) = 1 + αx + + o(x ).
2 α α(α−1) 2 2
x 2
• e =1+x + x
2 2
x

+ o(x ). = 1 + x + x + o(x ).
2 1 2 2
• ln(1 + x) = x − x 2
• 1−x
2

+ o(x ). = 1 − x + x + o(x ).
2 1 2 2
• ln(1 − x) = −x − x 2
• 1+x
2
14

Intégration sur un intervalle quelconque


I = [a, b[ avec −∞ < a < b ≤ +∞ désigne un intervalle de R non réduit à un point,

Convergence de l’intégrale d’une fonction.


• Soit f ∈ C (I, R). On dit que l’intégrable ∫ f (t)dt converge si lim ∫ f (t)dt existe et
b x
0

a x→b a

est finie. On pose alors ∫ f (t)dt =lim ∫ f (t)dt. Si cette limite n’est pas finie, on dit
b x

a x→b a
que l’intégrale diverge.
• Définitions analogues pour les intervalles de la forme I =]a, b] avec −∞ ≤ a < b < +∞,
ou I =]∞, a[∪]a, +∞[
• Cette définition étend celle de l’intégrale d’une fonction continue par morceaux sur un
segment. Les propriétés usuelles de linéarité, positivité et la relation de Chasles s’étendent
à cette nouvelle définition de l’intégrale, sous réserve de convergence de toutes les
intégrales en présence.

Théorème 30. Critères d’intégrabilité. Soient f , g ∈ C (I, R+ ).


0

• Si ∀t ∈ I, 0 ≤ f (t) ≤ g(t), et si l’intégrale de g converge, alors l’intégrale de f


converge.
• Si f (t) ∼b g(t), alors l’intégrale de f converge si, et seulement si, l’intégrale de g
converge.
• Si f (t) = ob (g(t)), et si l’intégrale de g converge, alors l’intégrale de f converge.

Théorème 31. Intégrales de Riemann. Soient α ∈ R et a > 0.


• L’intégrale ∫a t1α dt converge si, et seulement si, α > 1.
+∞

• L’intégrale ∫0 t1α dt converge si, et seulement si, α < 1.


a

Convergence absolue. On dit que l’intégrale de f converge absolument si l’intégrale de ∣f ∣


converge.

Proposition 32. La convergence absolue implique la convergence. La réciproque est fausse.

Intégration par parties. L’intégration par parties pour les intégrales sur un intervalle quel-
conque N’est PAS au programme. Pour faire une IPP sur un intervalle quelconque il faut donc
pratiquer l’IPP sur un segment et passer ensuite à la limite.

Théorème 33. Changement de variables. Si f est continue sur ]a, b[, si ϕ est une bijection
C croissante de ]α, β[ dans ]a, b[, alors les intégrales ∫ f (u)du et ∫ f (ϕ(t))ϕ (t)dt sont
b β
1 ′

a α
de même nature et en cas de convergence sont égales. Résultat analogue dans le cas où ϕ
est décroissante.
15

2
Fonctions réelles définies sur R
2
Définition. Une fonction réelle f définie sur un sous-ensemble D de R est une fonction de
la forme f ∶ (x, y ) ∈ D ↦ f (x, y ) ∈ R

Fonctions coordonnées. Les fonctions coordonnées sont (x, y ) ↦ x et (x, y ) ↦ y .


2
Fonctions polynomiales. On appelle fonction polynomiale toute fonction de R dans R
combinaison linéaire de fonctions de la forme (x, y ) ↦ x y où α et β sont des entiers naturels.
α β

2 3
Graphe. Soit f ∶ R ↦ R. On appelle graphe de f le sous ensemble de R d’équation
z = f (x, y ). Le graphe de f est donc une surface.
2
Ligne de niveau. Soit f ∶ R ↦ R et λ ∈ R. On appelle ligne de niveau λ de f l’ensemble
{x ∈ R , f (x) = λ}.
2

√ entre les points (x1 , y1 ), (x2 , y2 ) ∈ R est


2
Distance euclidienne. La distance euclidienne
d((x1 , y1 ), (x2 , y2 )) = (x1 − x2 )2 + (y1 − y2 )2 .
2
Ouvert, fermé. Une partie O de R est un ouvert si elle est vide, ou si, pour tout A ∈ O, il
existe un réel r > 0 tel que tout point B vérifiant d(A, B) < r appartient à O. Une partie F de
n
R est un fermé si c’est le complémentaire d’un ouvert. La nature topologique d’une partie de
n
R sera toujours précisée dans l’énoncé.
2
Partie bornée. Une partie U de R est bornée s’il existe un b ≥ 0 tel que
∀A, B ∈ U, d(A, B) ≤ b.
2
Continuité. Une fonction réelle f de deux variables réelles, définie sur R , est continue en
un point (x0 , y0 ) de R si :
2

∀ε > 0, ∃r > 0, ∀(x, y ) ∈ R , d ((x, y ), (x0 , y0 )) < r ⇒ ∣f (x, y ) − f (x0 , y0 )∣ < ε.


2

Elle est continue sur O si elle est continue en tout point de O. La définition n’est-elle pas
très proche de la définition de fonction continue sur R ?

2
Proposition 34. Les fonctions coordonnées et polynomiales sont continues sur R .

Proposition 35. (Opération sur les fonctions continues)


• Les sommes, combinaisons linéaires, produits et quotients bien définis de fonctions
continues sur O, sont continues sur O.
• Si f est continue de O dans une partie I de R, et si g est continue de I dans R, alors
g ◦ f est continue sur O.
16

Calcul différentiel
2
Soit U un ouvert de R , soit f ∶ U → R une fonction.

Dérivées partielles d’ordre 1. Soit a = (x0 , y0 ) ∈ R


2

• Si la fonction u ∶ x ↦ f (x, y0 ) est dérivable en x0 alors le nombre u (x0 ) est appelé


dérivée partielle d’ordre 1 en a de f par rapport à la 1ère variable et on le note ∂1 f (a)


• Si ∂1 f (a) existe pour tout point a ∈ U la fonction définie sur U par ∂1 f ∶ x ↦∂1 f (x) est
la fonction dérivée partielle d’ordre 1 de f par rapport à la 1ère variable.
• Si la fonction v ∶ y ↦ f (x0 , y ) est dérivable en y0 alors le nombre v (y0 ) est appelé

dérivée partielle d’ordre 1 en a de f par rapport à la 2ème variable et on le note ∂2 f (a)


• Si ∂2 f (a) existe pour tout point a ∈ U la fonction définie sur U par ∂2 f ∶ y ↦∂1 f (y ) est
la fonction dérivée partielle d’ordre 1 de f par rapport à la 2ème variable.

Gradient. Si f admet une dérivée partielle en a par rapport à la 1ère et à la 2ème variable,
le gradient de f en a est le vecteur ▽f (a) = (∂1 f (a), ∂2 f (a)).
1 1
Fonction de classe C . Une fonction f est de classe C sur U, si elle y admet des dérivées
partielles continues par rapport à chaque variable.

1
Proposition 36. (Développement limité d’ordre 1) Si f est de classe C sur U, alors pour tout
a ∈ U, il existe une fonction réelle ε continue en 0 telle que ε(0) = 0 et vérifiant pour tout
2
h ∈ R tel que a + h ∈ U :
f (a + h) = f (a) + ⟨▽f (a) ∣ h ⟩ + ∥h∥ε(h).
où, pour tous x, y ∈ R ,⟨x ∣ y ⟩ = x1 y1 + x2 y2
2

1
Dérivées partielles d’ordre 2. Soit f une fonction de classe C sur U. Soit deux entiers
i et j de [[ 1 , 2 ]]. La fonction ∂j f est une fonction continue de U dans R. Si elle admet une
dérivée partielle par rapport à la i -ième variable, on la note ∂i,j f = ∂i (∂j f ). On l’appelle la dérivée
2

partielle d’ordre 2 d’indice (i, j) de f .


2 2
Fonction de classe C . On dit que f est de classe C sur U si f admet des dérivées partielles
d’ordre 2 toutes continues sur U.

2
Théorème 37. (Théorème de Schwarz) Si f est de classe C sur U,
alors pour tout (i, j) ∈ [[ 1 , 2 ]] , on a ∂i,j f = ∂j,i f
2 2 2

2 2
Proposition 38. Les fonctions coordonnées et polynomiales sont de classe C sur R .
17

Proposition 39. (Opération sur les classes)


2
• Les sommes, combinaisons linéaires, produits et quotients bien définis de fonctions C
1 2 1
[resp. C ] sur U, sont C [resp. C ] sur U.
2 1 2 1
• Si f est C [resp. C ] de U dans une partie I de R, et si g est C [resp. C ] de I dans
2 1
R, alors g ◦ f est C [resp. C ] sur U.
2
Matrice hessienne. Si f est de classe C sur U, alors pour tout a ∈ U, on appelle matrice
hessienne de f en a la matrice symétrique

∂ f (a) ∂1,2 f (a)


▽ f (a) = ( 1,1 )
2 2

∂2,1 f (a) ∂2,2 f (a)


2
2 2

Optimisation
n
Soient U un ouvert de R et f ∶ U → R.

Extremum. Une fonction f admet maximum local en un point a ∈ U lorsqu’il existe un


ouvert Ua contenant a telle que, pour tout x ∈ U ∩ Ua , on a f (x) ≤ f (a). On dit que f admet un
maximum global en a si : ∀x ∈ U, f (x) ≤ f (a). On définit de même les notions de minimum
local et de minimum global.

Théorème 40. Une fonction continue sur une partie fermée et bornée admet un maximum
global et un minimum global sur cette partie.
1
Point critique On suppose f de classe C . Un point a ∈ U est un point critique de f lorsque
▽f (a) est nul, c’est à dire lorsque pour tout i , ∂i f (a) = 0.

1
Proposition 41. (Condition nécessaire du premier ordre) On suppose f de classe C . Si f
admet un extremum en un point a de U, alors a est un point critique de f . La réciproque est
fausse.

Point selle, point col. On appelle point selle, ou point col, de f les points critiques en lequels
f n’admet pas d’extremum local.

Proposition 42. (Condition suffisante de second ordre : extremum local) On suppose f de


2
classe C . Soit a un point critique de f .
• Si Sp(▽ f (a)) ⊂ R+ alors f admet un minimum local en a.
2 ∗

• Si Sp(▽ f (a)) ⊂ R− alors f admet un maximum local en a.


2 ∗

• Si ▽ f (a) admet deux valeurs propres non nulles de signe différent, alors a est un point
2

selle.
18

Graphes probabilistes
Définition. Un graphe probabiliste est un graphe orienté dans lequel il y a au plus un arc
d’un sommet à l’autre. Les arcs d’un graphe probabiliste sont pondérés, et la somme des poids
des arcs issus d’un même sommet vaut toujours 1.

Matrice de transition. Soit G un graphe probabiliste d’ordre N dont les sommets sont
numérotés de 1 à N. La matrice de transition M ∈ MN (R) associée à G a pour coefficient mij
le poids de l’arc allant de i a j dans le graphe G, s’il existe, et 0 sinon.

Chaı̂ne de Markov associée. Soit G un graphe probabiliste d’ordre N dont les sommets
sont numérotés de 1 à N. Soit µ0 une distribution de probabilité sur [[ 1 , N ]]. La chaı̂ne de
Markov associée à un graphe probabiliste G et de loi initiale µ0 est la suite de variables aléatoires
(Xn )n∈N à valeurs dans l’ensemble des sommets du graphes vérifiant : X0 ↪ µ0 et, pour tout
n ∈ N, et pour tous les sommets i et j on ait P (Xn+1 = j∣Xn = i) = mij .

Etat d’une chaı̂ne de Markov. Le n-ième état de la chaı̂ne de Markov, noté Vn , est la
matrice ligne (P (Xn = 1), ..., P (Xn = r )).

Proposition 43. On a pour tout n ∈ N et tout j ∈ [[ 1 , N ]],


P (Xn = j) = ∑i=1 mij P (Xn−1 = i).


N

Par suite Vn = Vn−1 M.


t
Etat stable. On dit qu’un état V est stable s’il vérifie V = V M. Auquel cas V est un vecteur
t
propre de M associé à la valeur 1.

Proposition 44. (Interprétation probabiliste des états stables) Soit V un état stable du graphe
G et soient (Xn )n la chaine de Markov associée à G et de loi initiale V alors Xn ↪ V pour
tout n.

0.2 1 0.8
0.1

0.5

0.5
2 0.5 3
0.4

Figure 1 – Exemple de graphe probabiliste à 3 états.


19

Compléments sur les variables aléatoires


On se place dans un espace probabilisé (Ω, T , P ).

Définition. Une variable aléatoire réelle (v.a.r) est une application X ∶ Ω → R telle que,
pour tout x ∈ R l’ensemble [X ≤ x] est un événement.

Support. Le support de X est l’ensemble de ses valeurs prises, noté X(Ω).

Loi. La loi d’une v.a.r. X, est la donnée des probabilités P (X ∈ I) où I est un intervalle.

Fonction de répartition. La fonction de répartition de X est l’application FX ∶ R → [0, 1]


qui à tout réel x associe P (X ≤ x). FX est croissante, de limite nulle en −∞, de limite 1 en
+∞. Elle est continue en tout point, sauf aux points x tels que P (X = x) ≠ 0, où elle est
continue à droite. La loi est caractérisée par la fonction de répartition.

Proposition 45. Une combinaison linéaire, un produit, un maximum ou un minimum de va-


riables aléatoires est une variable aléatoire.

Espérance conditionnelle. Si A est un évènement de probabilité non nulle alors on appelle


espérance de X sachant A et on note E[X∣A], si elle existe, l’espérance de X pour la probabilité
sachant A, PA .

Théorème 46. (Formule de l’espérance totale.) Soit X une v.a.r. discrète et soit (An )n∈N
un système complet d’évènements tels que, pour tout n, P (An ) ≠ 0. Alors X admet une
espérance pour P si, et seulement si :
• Pour tout n ∈ N l’espérance conditionnelle E[X∣An ] existe ;
• La série ∑n∈N E[∣X∣∣An ]P (An ) converge.

Dans ce cas, E(X) = ∑n∈N E[X∣An ]P (An ).


20

Variables aléatoires à densité


Soit X une variable aléatoire réelle.

Définition. X est une variable aléatoire à densité si sa fonction de répartition est continue
1
sur R, de classe C sur R sauf peut-être en un nombre fini de points.

Densité. f est une densité de probabilité si f est positive sur R, continue sur R sauf peut-être
f (t)dt converge et vaut 1.
+∞
en un nombre fini de points, et telle que : ∫
−∞

Proposition 47. Si F est la fonction de répartition de X, alors toute fonction f telle que

F = f aux points où F est dérivable est une densité de X. Si f est une densité de X, alors
la fonction de répartition de X est donnée par : ∀x ∈ R, F (x) = ∫ f (t)dt. La fonction F
x

−∞
1
est de classe C partout là où f est continue.

Proposition 48. La loi d’une v.a.r. à densité est caractérisée par la donnée d’une densité fX .
Soit f une densité, alors il existe une v.a.r X ayant pour densité f .

Proposition 49. Soit X une v.a.r. de densité f alors Y = aX + b où a, b ∈ R, a ≠ 0 est aussi
une variable aléatoire à densité, de densité fY ∶ x ↦ f ( x−b
a
)

Espérance. (dans la suite on ne considère plus que des v.a.r à densité.)


• Si X est une v.a.r. ayant une densité fX , alors X admet une espérance E(X), égale à
∫−∞ tfX (t)dt, ssi cette intégrale converge absolument.
+∞

• Si E(X) = 0, X est dite centrée. E(aX + b) = aE(X) + b. E(X + Y ) = E(X) + E(Y ).

Proposition 50. Soient X, Y deux v.a.r à densité telles que on a 0 ≤ ∣X∣ ≤ Y presque
sûrement. Si Y admet une espérance alors X admet une espérance.

Théorème 51. ( Théorème de transfert.) Si X est une v.a.r. ayant une densité fX nulle en
dehors de l’intervalle ]a, b[ et si g est une fonction continue par morceaux sur ]a, b[, alors
E[g(X)] existe et est égale à ∫a g(t)fX (t)dt ssi cette intégrale converge absolument.
b

Variance.
• Si X est une v.a.r. ayant une densité fX , alors X admet une variance V (X) qui est égale
à ∫−∞ (t − E(X)) f (t)dt ssi l’intégrale ∫−∞ t f (t)dt converge absolument.
+∞ 2 +∞ 2

• V (X) ≥ 0. Si V (X) = 0, X est (presque sûrement) constante. Si V (X) = 1, X est dite


réduite. V (aX + b) = a V (X).
2

• (Formule de König-Huygens) V (X) = E(X ) − E(X)


2 2
21

Lois à densité usuelles


Loi uniforme U ([a, b]).
• Densité. Une densité de X est la fonction f définie par : f (t) = b−a
1
si t ∈ [a, b] et
f (t) = 0 sinon.
• Fonction de répartition. La fonction de répartition de X est la fonction F définie par :





0 si x < a
F (x) = ⎪



si x > 0

1

⎩ b−a
x−a
si x ∈ [a, b]

V (X) =
(b−a)
2
• Espérance, variance. E(X) = a+b
2
. 12
.

Loi exponentielle E (λ).


• Densité. Une densité de X est la fonction f définie par : f (t) = λe
−λt
si t > 0 et 0
sinon.
• Fonction de répartition. La fonction de répartition de X est la fonction F définie par :
F (x) = 1 − e
−λx
si x > 0 et 0 sinon.
• Espérance, variance. E(X) = λ1 . V (X) = λ12 .

Loi normale N (µ, σ).


• Densité. Une densité de X est la fonction f définie par :
(t−µ)
∀t ∈ R, f (t) = √ e 2σ2 .
2
1 −

σ 2π

• Espérance, variance. E(X) = µ. V (X) = σ .


2

Loi normale centrée-réduite N (0, 1).


• Densité. Une densité de X est la fonction f définie par : ∀t ∈ R, f (t) = √12π e 2 .
2
−t

• Fonction de répartition. On note Φ la fonction de répartition d’une variable aléatoire


X suivant une loi normale centrée-réduite. On a : ∀x ∈ R, Φ(−x) = 1 − Φ(x).
• Espérance, variance. E(X) = 0. V (X) = 1.

Proposition 52. ( Stabilité des lois classiques.)


• Si a < b, X suit la loi U [0, 1] ⇔ a + (b − a)X suit la loi U [a, b].

• Si a ≠ 0, X suit la loi normale N (m, σ ) ⇔ aX + b suit la loi N (am + b, a σ ).


2 2 2

• Si X et Y , indépendantes, suivent N (m, σ ) et N (m , σ ), X + Y suit la loi


2 ′ ′2

N (m + m , σ + σ ).
′ 2 ′2
22
23

23
Vecteurs aléatoires
Probabilités
On se place danssur un espace
un espace (Ω, Tou
probabiliséfini , P ).discret

On se place
Vecteurs dedans un espace
variables probabilisable
aléatoires. (Ω, Tsont
Si X1 , ...X ). des v.a.r, alors X = (X , ..., X ) ∶→ Rn
définie par X(ω) = (X1 (ω), ..., Xn (ω)) est une variable aléatoire à valeurs dans R .
n 1 n
n

Evénements incompatibles et σ-additivité.


• Aconjointe.
et B sontOn incompatibles si : A ∩ Bla=loi∅.d’un vecteur (X , ...X ) de variables aléatoires
P ∶ AF→ [0, 1]définie
Loi appelle loi conjointe 1 n
• Onelle dit
estqu’une
donnéeapplication
n si pour tout A , A , . . . A deux
est σ-additive
réelles, par la fonction (X1 ,...Xn ) sur R par : 1 2 n

(t1 ,∪
: Pn )(A An2)∪=. P. . (⋂ n )[X ]).i ).
≤ Pti (A
n
=i ∑
n
F(Xa1 ,...X
à deux incompatibles, on ...t ∪ Ai=1
Système complet. {Ai }i∈I est un système complet d’événements si : ∀i ∈ I, Ai ≠ ∅ ;
i=1

Lois marginales. On appelle lois marginales du vecteur X les lois de ses coordonnées. On peut
∀(i , j) ∈ I , i ≠ j, Ai ∩ Aj = ∅ et ⋃i∈I , Ai = Ω.
2
les obtenir à l’aide de la formule des probabilités totales. Attention : la loi conjointe détermine
les lois marginales mais la réciproque est fausse !
Probabilité. Une probabilité est une application P définie sur l’ensemble A des évenements
à valeurs dans [0, 1], σ-additive et telle que P (Ω) = 1.
Indépendance.
• On dit que les v.a.r. X1 , X2 , ..., Xn sont (mutuellement) indépendantes lorsqu’on a
P (⋂k=1 (Xk ∈ Ik )) = ∏k=1 P (Xk ∈ Ik ) pour tous intervalles I1 , ..., Ik de R.
Théorème n 61. Théorème de nla limite monotone ▲

• Ainsi la(A
• Soit loin )conjointe
une suited’un
d’événements, croissante
dont pour l’inclusion. On sonta indépendantes est
(⋃ ) (A )
vecteur aléatoire
+∞ les coordonnées
P
caractérisée par les lois marginales. k=0 k A = lim P n .
suite(A(X
n )i )
n→+∞
• •LaSoit une suite d’événements, décroissante pour l’inclusion. On a
i∈N est une suite de variables aléatoires discrètes réelles indépendantes si,
1, (⋂ Ak ) = aléatoires
lim P (An(X ) . i )0≤i≤n sont indépendantes.
+∞
et seulement si, pour tout n ≥ P lesk=0
variables n→+∞

P (B) ≠ 0 :SiPAX(B)
P (A∩B)
Proposition
Probabilité 53. (Lemme desSicoalitions)
conditionnelle. =XnP (A)
1 , ..., sont. indépendantes, toute variable
aléatoire fonction de X1 , ..., Xp est indépendante de toute variable aléatoire fonction de
Proposition 62. Formule des probabilités conditionnelles. Si P (A1 ∩ A2 ∩ . . . ∩ An−1 ) ≠ 0,
Xp+1 , ..., Xn .
alors : P (A1 ∩ A2 ∩ . . . ∩ An ) = P (A1 )PA1 (A2 ) . . . PA1 ∩A2 ∩...An−1 (An ).
Proposition 54. Si X1 , ..., Xn sont indépendantes et admettent une espérance alors leur pro-
E (∏i=1 Xi ) = ∏i=1 E(Xi ).
n n

Proposition 63. Formule des probabilités totales. Si {Ai }i∈I est un système complet d’événements
duit admet une espérance et

tous de probabilité
Covariance. Si X non
et Y nulle, P (B)
alors :une
admettent = ∑P:(B
variance ∩ Ai )Y=) ∑
Cov(X, (B)P
= PEAi[(X −(Ai ).
E[X])(Y − E[Y ])].
i∈I i∈I

Proposition 55.
• Formule de Koenig-Huygens. Cov(X, Y ) = E(XY ) − E(X)E(Y ).
Proposition 64. Formule de Bayes. Si {Ai }i∈I est un système complet d’événements tous de
• Cov(X, X) = V (X). Cov(X, Y ) = Cov(Y, X). P (B)P (A )
probabilité
• Cov(aX non nulle Z)si=Pa(B)
+ bY,et ≠ 0, Z)
Cov(X, alors
+ b: Cov(Y, PB (Ai ) = Ai P (B) i .
∀i ∈ I,Z).
• Si X et Y sont indépendantes, alors Cov(X, Y ) = 0. La réciproque est fausse.
Evénements indépendants, deux à deux indépendants, mutuellement indépendants.
• A et B sont indépendants pour la probabilité P si : P (A ∩ B) = P (A)P (B).
• A1 , A2 , . 56. (∑i=1deux
. . AnV sont Xi ) = (Xi ) + 2 ∑si Cov(X
∑i=1 Vindépendants
à deux
p , Xq )
la probabilité de l’intersection de deux
n n
Proposition
événements distincts parmi eux est égale1≤p<q≤n
au produit des deux probabilités correspon-
dantes.
• A1 , A2 , . . . An sont mutuellement indépendants si la probabilité de l’intersection de n’im-
porte quels événements distincts parmi eux est égale au produit des probabilités corres-
pondantes.
• L’indépendance mutuelle implique l’indépendance deux à deux. La réciproque est fausse.
24

Convergences et approximations
Proposition 57. Inégalité de Markov.
Soit X une v.a.r. à valeurs positives alors ∀ε > 0, P (X ≥ ε) ≤
E(X)
ε
.

Proposition 58. Inégalité de Bienaymé-Tchebychev.


Soit X une v.a.r. admettant moment d’odre 2 alors ∀ε > 0, P (∣X − E(X)∣ ≥ ε) ≤
V (X)
ε2
.

Théorème 59. Loi faible des grands nombres Si (Xn )n∈N est une suite de variables aléatoires
 
notant Xn = n1 ∑k=0 Xk , pour tout ε > 0 on a : lim P (Xn − m ≥ ε) = 0.
iid (indépendantes de même loi) qui admettent une espérance m et une variance, alors, en
 
n
n→+∞

Convergence en loi. La suite de v.a.r (Xn )n∈N∗ converge en loi vers la v.a.r X si, et seulement
si en tout point de continuité x de la fonction de répartition FX on a lim FXn (x) = FX (x). On
n→+∞
L
note Xn → X.

Proposition 60. Si les Xn et X sont à valeurs dans N alors (Xn )n∈N∗ converge en loi vers X
ssi ∀k ∈ N, lim P (Xn = k) = P (X = k).
n→+∞

Théorème 61. Si la suite de v.a.r (Xn )n∈N∗ converge en probabilité [resp. en loi] vers la v.a.r.
X et si f est une fonction continue sur R à valeurs réelles, alors (f (Xn ))n∈N∗ converge en
probabilité [resp. en loi] vers f (X).

Théorème 62. (Théorème Limite Centrale) Si (Xn )n∈N∗ est une suite de v.a.r indépendantes
2
et de même loi (iid) admettant une espérance m et une variance σ . Alors en notant Xn =
∑k=0 Xk , on a :
1 n

√ Xn − m L
n

n ( σ ) → N (0, 1).
25

Analyse statistique de données : cas bivariées


Soit Ω une population de taille N, et X et Y deux variables statistiques discrètes relatives à
cette population. On considère la série statistique double (xi , yi )i∈[[ 1 , N ]] où les xi et les yi sont
les valeurs prises par X et Y . Bien sûr, les variables X et Y peuvent être étudiées individuellement
avec le cours de première année, mais on peut aussi les étudier ensemble.

Nuage de points. On appelle nuage de points de la série précédente l’ensemble des points
Mi de coordonnées (xi , yi ).

Point moyen. Le point moyen du nuage est le point de coordonnées (x, y ).

Covariance empirique. La covariance empirique de la série statistique précédente est


sXY = N1 ∑i=1 (xi − x)(yi − y ) = N1 ∑i=1 xi yi − x.y .
N N

Coefficient de corrélation linéaire empirique. Le coefficient de corrélation linéaire empi-


rique de la série précédente est rXY = ssXYs
X Y

Proposition 63. On a toujours ∣rXY ∣ ≤ 1. Si ∣rXY ∣ = 1 alors cela signifie que les points du
nuage sont alignés sur une droite.

On cherche à expliquer Y à partir de X. On peut par exemple chercher une relation linéaire
entre ces deux variables.

Proposition 64. Il existe une unique droite d’équation y = ax +b rendant minimale la quantité
∑i=1 (yi − axi − b) . C’est la droite d’équation y = ssXY2 (x − x) + y . Cette droite est appelée
N 2
X
droite de régression linéaire de Y en X.

Remarque
▶ Une régression linéaire n’est pas toujours pertinente, elle l’est d’autant plus que ∣rXY ∣
est proche de 1.
▶ On peut effectuer des pré-transformations avant d’effectuer une régression linéaire, par
exemple on peut chercher à expliquer Y en fonction de ln(X). On peut ainsi rendre
pertinente une régression linéaire qui ne le serait pas sans pré-transformation.
▶ Quoi qu’il en soit il faut garder à l’esprit que la régression linéaire n’est qu’une approxi-
mation, dont il faut discuter la pertinence.
26

Statistique inférentielle
Soit X une v.a.r., en probabilité, on étudie les propriétés de X connaissant sa loi. En statis-
tique inférentielle le paradigme est différent : la loi de X n’est pas complètement spécifiée, on
2
sait seulement qu’elle appartient à une famille de lois dépendant d’un paramètre θ ∈ R (ou R ).
Le paramètre θ est donc une quantité fixe mais inconnue que l’on cherche à estimer à partir de
plusieurs réalisations de X. Parfois on estime plutôt une quantité de la forme g(θ).

Echantillon. On appelle n-échantillon de loi X tout n-uplet (X1 , ..., Xn ) de variables aléatoires
indépendantes et identiquement distribuées de même loi que X. On appelle réalisation (ou ob-
servation) de cet échantillon, tout n-uplet (x1 , ..., xn ) =(X1 (ω), ..., Xn (ω)).

Estimateur. Si (X1 , ..., Xn ) est un échantillon de loi X, on appelle estimateur de θ toute


variable aléatoire fonction uniquement de X1 , ..., Xn et indépendante de θ. On appelle estimation
de θ toute réalisation d’un estimateur de θ.

Moyenne empirique. Si (X1 , ..., Xn ) est un échantillon de loi X sa moyenne empirique est
Xn = n1 ∑k=0 Xk .
n

Variance empirique. Si (X1 , ..., Xn ) est un échantillon de loi X sa variance empirique est
Sn = n1 ∑i=1 (Xi − Xn ) .
n 2

Intervalle de confiance. Soit α ∈ [0, 1] et Un et Vn deux v.a.r fonctions de X1 , ..., Xn .


L’intervalle [Un , Vn ] est un intervalle de confiance de θ au niveau de confiance 1 − α, si on a
P (θ ∈ [Un , Vn ]) ≥ 1 − α.

Intervalle de confiance asymptotique. L’intervalle [Un , Vn ] est un intervalle de confiance


asymptotique de θ au niveau de confiance 1 − α, s’il existe une suite (αn )n∈N ∈ [0, 1] , de limite
N

α, telle que pour tout n ∈ N, on a P (θ ∈ [Un , Vn ]) ≥ 1 − αn .

Remarque : Au concours, les intervalle de confiance s’obtiennent souvent à l’aide de l’inégalité


de Bienaymé-Tchebychev, les intervalles de confiances asymptotiques s’obtiennent souvent à
l’aide du Théorème Limite Centrale.
Ipesup 101 boulevard Raspail - 75006 Paris • 01 44 32 12 00
https://www.facebook.com/ipesup/

https://www.instagram.com/ipesup/

https://www.linkedin.com/school/ipesup/

@ipesup2534

Ipesup
101 boulevard Raspail
75006 Paris
01 44 32 12 00

Vous aimerez peut-être aussi