Vous êtes sur la page 1sur 10

Méthode quanti : révisions

Rappel mathématique :
Log(xy) = log(x) + log(y)

Log(x/y) = Log(x) - log(y)

Log(x^y) = y log(x)

Log2(4) = 2 puissance x = 4

0! =1

N! = n * (n-1)(n-2)… 3 X 2 X 1

Coefficient binomiale : = nombre de combinaison k parmi n objet (p.ex. 10


familles comportant 5 enfants dont 3 filles)

Ensemble :
A∩B = intersection (A et B)

A∪B = union (A ou B)

A\B = différence (A mais pas B)

A∆B = différence symétrique (A ou bien B mais pas les deux)

univers Ω : ensemble contenant tous les éléments pertinents

A^c = A¯ := {x|x ∈/ A} = Ω \ A

A ⊂ B ssi A ∪ B = B ssi A ∩ B = A

Partition = ensemble d’élément exclusif (Aj ∩ Ak = ∅)

Probabilité :
P(A ∪ B) = P(A) + P(B) − P(A ∩ B)

P(A¯) = 1 − P(A)

Deux événements sont indépendants ssi P(A ∩ B) = P(A)P(B)

Proba conditionnel : et

--> P(B) = P(B|A)P(A) + P(B|A¯)P(A¯)

--> P(B|A¯) = 1 − P(B¯|A¯)


Données :
Échelle de quotient --> 0 reste le même, valeurs multipliées par une constance c

Echelle d’intervalle --> transformation linéaire = ax+b

Échelle relative --> y = X + a

Echelle absolue --> pas de transformation

Echelles non linéaires --> ex log (décibel)

si f (x) est convexe, alors y¯ ≥ f (¯x)

si f (x) est concave, alors y¯ ≤ f (¯x)

Variable catégorielle = exclusive et exhaustive

Variable bimodale définit par 1 si i ∈ A, 0 sinon --> variable indicatrice associé devient quantitative

Variable ordinale –> < ou >, peut être transformer en score numérique et être traité comme tel

Variable ouverte --> question ouvert dans un questionnaire

Visualisation :
L’histogramme consiste de rectangles dont les bases, en abscisse, sont les classes, et les hauteurs,
en ordonnée, sont données. Polygone de fréquence = ligne obtenue en reliant le milieu du sommet
de chaque rectangle

Barplot : ressemble à l’histogramme, mais les valeurs sont mise en proportion du mode (classe avec
le plus grand effectif)

Fonction de répartition : escalier croissant montant de r/n hauteur de marche pour tout nouveau
score ( en %), lors de données en intervalle, on tire un ligne en reliant les diagonales inférieures

Données regroupées en classe : on estime que les scores sont uniformément répartis --> on trace la
fonction de répartition F en empilant les classes puis en traçant une courbe passant par les
diagonales croissantes
Boxplot : trait du milieu = médiane, extrémité des resctange avec 0,25 et 0,75 quartile, moustache
=0,10 centile et 0.90 centile (ou 0.01 et 0.99 selon les logiciels), au-delà on fait des ronds pour
représenter les valeurs extrêmes

Diagramme de dispersion : met en relation deux variable, montre visuellement si celles-ci tendent à
être liées

Indicateurs :
X barre = moyenne = 1/n X somme de i=1-->n de Xi

Mode (dans le cas de données groupées)= milieu de la classe la plus peuplé

Variance :

Ecart type :

Intervalle interquartile : x0.75 − x0.25, ou semi-interquartile = /2

Var(x standardiser) = 1

cov(x^s , y^s ) = corr(x^s , y^s ) = corr(x, y).

Empan (range) : Xmax-Xmin

Moyenne pondérée : on multiplie par le poids de la valeur

Fonction de répartition pondérée : on monte de f(x) hauteur d’escalier

Center un score = lui soustraire la moyenne

Réduire un score : le divisé par l’écart type

Standardiser un score : centrer puis réduire, noté xs

Transformation linéaire :

Table de contingence
J = ligne

K = colonne

Marge en ligne =nj point =nj1 +nj2 +…+njm2

Marge en colonne =n point k = n1k + n2k+…+nm1k


Lien entre 2 variables

et X et Y sont non-liés ssi =n théo de jk

Chi2 : ou et phi2 = chi2/n

Valeur max du chi2 = n × min(m1 − 1, m2 − 1) --> veut dire minimum entre le nombre de ligne – 1 et
le nombre de colonne -1

Quotient d’indépendance : n jk / n théo de jk --> marge en ligne ou en colonne de quotient


d’indépendance = 1

Covariance : et donc --> positive s’il existe


une liaison positive et négative dans le cas contraire. Dépendante du système d’unité choisi

Corrélation r : ne dépend pas du système

d’unité ≠ pourcentage ! et

On a donc : corr(ax, by) = corr(x, y)

var(x^s ) = 1, var(y^s ) = 1. Egalement, cov(x^s , y^s ) = corr(x^s , y^s ) = corr(x, y)

La corrélation entre deux variables est la covariance des deux variables standardisées

Lors d’une liaison non-linéaire la corrélation ne donnera pas une bonne idée de la liaison

x et y non liés =⇒ corr(x, y) = 0

corr(x, y) = ±1 =⇒ y = ax + b

x et y non liés ⇐⇒ chi2 = 0

Variance intergroupe :
Variance intragroupe :

Dans un diagramme de dispersion, f(x) donne une droite représentant l’aspect général du nuage de
point et e donne l’aspect aléatoire

F ratio :

avec varB =variance intergroupe et varW variance intragroupe

Y*= valeurs prédites

moindre carré : résidu e (y-y*) aussi petit que possible 

Avec et

Variance totale = variance expliquée + variance résiduelle

Si la variance résiduelle = 0 --> tous les points sont ajusté sur la courbe de régression

var(e) = (1 − r carré ) var(y) et donc r carré (r^2) = variance expliquée/variance totale

Valeur prédite par régression linéaire : Y*=ax+b où et

Cov(x;y) et corr(x;y) sont indépendants d’un multiplicateur mais la prévision de y en fonction de x ≠


la prévision de x en fonction de y

Modèles

Distribution de probabilité discrète = Espérance = moyenne théorique 


(nombre entier), écrit µ. E(X) = np

Distribution de probabilité continue = P(X ∈ [a, b]  =

Variance théorique : Var(X) = E(X2)- E2(X) = σ2. Var(X) = np(1-p)

 Cas discret :
 Cas continu :

X centré : Xc = X− µ

X réduit : Xr =

X standardisé : Xs=

Coefficient de variation :  théorique :

 empirique

Et CV(X)/100 * E(X) = σ

Distribution bivariée  continue =

Donc

Et

 discret =

Donc et

Indépendance : cas continus  fX(X)fY(Y) = fXY(X,Y)

Cas discret  pjpk = pjk

Covariance théorique :  cas continu :

 cas discret : , X et Y indépendant  Corr =0 (pas l’inverse).

Est affecté par les changements d’échelles (mais pas d’origine).


Corrélation théorique : écrit ρXY = , pas affecté par des changements
d’échelle ou d’origine

Lois discrètes

Loi binomiale B(n, p)  (deux résultats possible, p.ex pile-sface) : où


n= nombre d’essai et k = nombre de réalisation de la condition.

Loi multinomiale M(p) (généralisation de la loi binomiale, p. ex proba élèves nationalité unil) :

Loi de poisson P(λ) = probabilité faible mais beaucoup d’essai  ne dépend que de λ ( si λ inconnu,

on peut prendre la variable empirique ou la Var(X) =

Loi uniforme U(a,b)  densité de proba constante à l’intérieur de l’intervalle {a, b} et nulle en

dehors, dans ce cas et

Loi normale : Si X ∼ N (µ, σ2 ), ce qui veut dire que X suit une loi normal de moyenne µ et une

variance σ2, alors Xs ∼ N(0,1) et

Règles de calcul avec la loi normale : et si P(Xs>u), alors on fait 1 –


P(XS<u)

Distribution de Dirac : cas particulier de la loi normal complètement déterministe  densité de


proba = 1
Dans le cas de variables indépendantes et identiquement réparties la « somme » Sn =

Et la moyenne , alors

Dans la limite n tend vers l’infini, la moyenne empirique tend vers la moyenne théorique.

Théorème central limite : tout moyenne d’un nombre suffisant de variable indépendantes et
identiquement réparties (de variance fini) suit une loi normale.

Somme Gausienne i.i.d. : la somme X1+X2…+Xq suit également une loi normal de moyenne µ = µ1 +
µ2 + ... + µq et de variance σ2 = σ21 + σ22 + ... + σ2q .
Distributions du X2 : p variables standardisées, alors la distribution de la somme des carrées Y = X 12 +
X22 + … + Xq2 à q degrés de liberté  E(Y) = q et Var(Y) = 2q

Degré de liberté : dans le cas d’un distribution continue est un indice entier, noté q =1,2,3… lien avec
test statistique, paramètre qui vont influencé les lois

La moyenne théorique est un estimateur sans biais de la moyenne empirique, on peut écrire

Par contre, la variance théorique surestime la variance empirique (d’autant plus que n est petit, 10 %

pour n = 10 et 1% pour n =100). Variance sans biais = (avec de grand échantillon la var
théo tend vers la var emp, et on ne peut pas estimer la variance théo à partir d’un seul échantillon)

Intervalle de confiance :

Dans ce cas : Xns bar : (Xn bar - µ)/ σ * racine de n  suit une loi standard N∼(0,1)

Variance connue :  et
Variance non-connue :  t1-a/2 {n-1} veut dire
le 1 - a/2 -ème quantile de la loi du t à n-1 degrés de liberté.

Intervalle de confiance pour la proportion : p = E(X) d’une variable indicatrice entre 0 et 1.  Var(X)

= f(1 – f)  avec

Inférence statistique

Forme générale : P(D|H) où D : données et H = hypothèse

(veut dire qu’un phénomène peut entièrement s’expliquer par l’hypothèse)

Règle de Bayes sur l’induction : où P(H) est la proba que l’hypothèse soit
correct, P(H|D) est la proba que l’hyp soit juste a posteriori des données, P(D|H) est le modèle
probabiliste et P(D) est la proba d’observer D indépendamment du modèle.

Si alors

 un modèle déterministe peut être réfuté par une seule contre-observation

 un modèle probabiliste n’est réfutable que par une infinité d’observation

Kappa de Cohen K : mesure la proportion d’attribut correct non lié au


hasard :

K>0 = l’hypothèse fait mieux que le hasard, K<0 = l’hypothèse fait pire
que le hasard
N0 = erreur de premier ordre = prendre du bruit pour une alarme. Noté
Alpha. H0 = bruit

N0 = erreur de second ordre = avoir une alarme mais la prendre


pour du bruit. Noté Beta

Vous aimerez peut-être aussi