Académique Documents
Professionnel Documents
Culture Documents
et modulations
TCM
Kamel Belloulata
Introduction
Source
analogique
Modulations
chantillonnes
Source
numrique
Codage
de source
Codage
de canal
Modulations
numriques
Chiffrage
chantillonnage
Quantification
Codage
Modulations
analogiques
Thorie de linformation
Canal de transmission
Plan
A. Techniques de codage
1. Entropie & Capacit
...
D4
2. Codage de source .
D22
3. Codage de canal .
D40
4.
Cryptographie
. D72
...
2. Modulations chantillonnes
D105
De saines lectures
[1] G. Battail, "Thorie de l'information. Application aux techniques de
communication", Ed : Masson, Paris, 1997, 397 p.
[2] A. Spataru, "Fondements de la thorie de la transmission de l'information", Ed :
Presse Polytechnique Romande, Lausanne, 1987, 625 p.
[3] T.M. Cover, J.A. Thomas, "Information theory", Ed : Wiley Interscience, New
York, 1991, 542 p.
[4] G. Brassard, "Cryptologie contemporaine", Ed: Masson, 1993, 122 p.
[5] P. Csillag, "Introduction aux codes correcteur", Ed: Ellipses, 1990, 96p.
[6] P.Lecoy, "Technologies des tlcoms", Ed.: Hermes, 1995, 373 p
[7] Ph. Fraisse et al, "Transmission de l'information", Ed. Ellipses, 1999, 191 p
[8] http://www.multimania.com/xcotton/electron/coursetdocs.htm
Thorie de l information
1948 : Shannon Thorie de l'information
C a ne sert rie n !
196 0 / conq ute sp atiale co dag e de source
Aujourd'hui
GSM
TV
Num
Rseaux
codage de canal
@business
cryptage
Source
Canal
Perturbations
Destinataire
= je parle
= l air ambiant
= bruit sonore
= tu coutes
le m essage m is E n tro p ie
C an al : transm et et dgrade le m essage C ap acit
Codage de canal
Chiffrage
Codage de canal
h( x ) = f ( 1
p ( x)
p ( x, y )
)= f(1
f fonction logarithme
p ( x ). p ( y )
)= f(
1
1
)+ f (
) = h( x) + h( y )
p( x)
p( y)
h ( x ) = log( 1
p( x)
) = log( p ( x ))
h ( x , y ) = log( 1
p ( x, y )
h ( x y ) = log( 1
p( x y)
Rgle de Bayes :
)
)
p ( x , y ) = p ( x y ). p ( y ) = p ( y x ). p ( x ) = p ( y , x )
h( x, y ) = h( x y ) + h( y ) = h( y x ) + h( x ) = h( y , x )
h( x y ) = h( x)
si x et y indpendants
Entropie
Hyp : source discrte finie stationnaire sans mmoire
Emission = variable alatoire X
p i = p ( X = xi )
n
p
i =1
=1
i =1
i =1
H ( X ) = E ( h ( X )) = pi . log(1 pi ) = p i . log( p i )
Ex : Source binaire
p (1) = p
p (0) = 1 p
Proprits de l entropie
Continuit
variable pi.
Additivit
Positive
Borne
Redondance
R = H max ( X ) H ( X )
(bits .s 1 )
Source Qaire
Source Q
ime
aire
x1 y1
x y
[X .Y ] = 2 1
...
xn y1
x1 y2
x2 y 2
xn y 2
x1 ym
x2 ym
...
... xn ym
...
p ( x1 , y1 )
p( x , y )
[P( X , Y )] = 2 1
...
p ( xn , y1 )
p ( x1 , y2 ) ...
p ( x2 , y 2 )
p ( xn , y2 ) ...
p( x1 , ym )
p ( x2 , ym )
...
p ( xn , y m )
Probabilits marginales
m
p ( xi ) = p ( xi , y j )
H ( X ) = p ( xi ). log( p ( xi ))
p ( y j ) = p ( xi , y j )
H (Y ) = p ( y j ). log( p ( y j ))
j =1
n
i =1
i =1
m
j =1
H ( X , Y ) = p ( xi , y j ). log( p ( xi , y j ))
i =1 j =1
H ( X / Y ) = p ( xi , y j ). log( p ( xi / y j ))
i =1 j =1
Transinformation :
quantit d information moyenne qui traverse le canal
n
I ( X ; Y ) = p ( xi , y j ). log(
i =1 j =1
p ( xi , y j )
p ( xi ). p ( y j )
I ( X ; Y ) = H ( X ) + H (Y ) H ( X , Y )
I ( X ; Y ) = H ( X ) H ( X / Y ) = H (Y ) H (Y / X )
I ( X ;Y )
c = 1
C
Ex canal binaire
Gnralits
Adapter la source au canal
l'alphabet
le dbit
maximiser I(X,Y)
Source
initiale
Codeur
de source
Source
entropie max
codes
Dchiffrabilit : sparation des mots non ambigu
Code et Mot-code
[S]=[s1,s2, , sN]
[X]=[x1,x2, , xD]
[C]=[c1,c2, , cN]
Exemple
Symbole
S1
S2
S3
S4
Code A
00
01
10
11
Code B
0
10
110
1110
Code C
0
01
011
0111
Code D
0
10
110
111
Code
Code
l = p ( si ).li
i =1
H (S )
l
= lmin
log D
H(X )
=
log D
H (S )
=
l . log D
log D H ( X )
=
log D
E x c o d e o p t.
l = lmin = H ( S )
log D
li
D
=1
i =1
Codage de Shannon-Fano
Algorithme de gnration d'un codage optimal absolu, pour
des sources divisibles rcursivement (jusqu' un symbole par
ensemble) en deux sous-ensembles quiprobables.
Symboles Proba
sk
p(sk)
s1
s2
s3
s4
s5
s6
s7
s8
0.25
0.25
0.125
0.125
0.0625
0.0625
0.0625
0.0625
0
1
0
0
1
0
1
1
0
1
0
1
Motscodes
ck
Longueur
lk
00
01
100
101
1100
1101
1110
1111
2
2
3
3
4
4
4
4
Algorithme
Extraction des probabilits
Cration de l'arbre
Cration de la table d'Huffman
Codage
Rq : code d'chappement
= Huffman + fixe
Codage arithmtique
Huffman
1 symbole = 1 mot-code
Arithmtique 1 flot de symboles = nbre en virgule flottante
Codeur
m=0 ; M=1 ;
Tant que !(fin de fichier)
{
i = symbole suivant;
soit [ai ; bi] associ i ;
s = M-m ;
M = m + s.bi ;
m = m + s.ai ;
}
Renvoyer m, le compact du fichier
Decodeur
N = nombre cod ;
Faire
{
trouver i / N [ai ; bi[ ;
sortir i ;
s = bi - a i ;
N = (N - ai) / s ;
}
Tant qu'il reste un symbole lire
Exemple
si
pi
[ai ; bi[
Huffi
0.1
[0.0 ; 0.1[
111
0.1
[0.1 ; 0.2[
110
0.1
[0.2 ; 0.3[
101
0.1
[0.3 ; 0.4[
100
0.1
[0.4; 0.5[
0111
0.1
[0.5 ; 0.6[
0110
0.2
[0.6 ; 0.8[
00
0.1
[0.8; 0.9[
0100
0.1
[0.9 ; 1.0[
0101
0.43722077 = ?
Arithmtique
+ de calcul
Huffman
Proba trs lve 1 bit
Peu de symboles ()
Run Length
Codeurs statistiques
- Dpendants de la qualit de la statistique
- Statistique connue par le dcodeur
5w5b17w
11w5b11w
A B !6C A B C A B C
Codeur LZW
ID= {Ci,Wi} , P=
Tant que (symboles coder)
C = symbole suivant
Si PC ID
P = PC
Sinon
sortir WP
PC ID
P=C
Fin si
Fin tant que
sortir WP
ABBABABAC....
Dcodeur LZW
ID= {Ci,Wi}
cW = 1er code ; sortir s(cW)
Tant que (codes lire)
pW = cW
cW = code suivant
Si (s(cW) ID)
sortir s(cW)
P = s(pW)
C = 1er symbole de s(cW)
PC ID
Sinon
P = s(pW)
C = 1er symbole de s(pW)
sortir s(PC)
PC ID
Fin si
Fin tant que
Supprime la redondance
Sensibilit au bruit
Codage de canal
Gnralits
Dtecter et/ou corriger les erreurs de transmission
Codeur de canal
Codes convolutifs
Algorithme de Viterbi
Taux d'erreur
Te =
011001001001100100101001010 011001101100101101000010
Probabilit d'erreur
Pn bits corrects = (1 p ) n
Te = 3
24
= 0.125
Taux de codage
k
R=
n
- k taille du mot d information (avant codage)
- n taille du mot-code (aprs codage)
n. E ( R )
"
Asynchrone
Synchrone
Codes linaires
Notations
CS
CC
Mot-code : v
Canal
P
[ c ] : m symboles de contrle
[ i ] : k =n-m symboles d'information
Mot-erreur :
= [1 2 ...... n ]
vi = vi +
0
sinon
vi = vi +
DC
Code systmatique
Les symboles d information et de contrle sont spars.
Distance de Hamming
D (vi , v j ) = (ai1 a j1 ) + (ai 2 a j 2 ) + .... + ( ain a jn )
Le nombre de coordonnes par lesquels les 2
mots diffrent
V
W
Rgion W0 quidistant
Thorme de Hamming
Dtecter d erreurs Dmin= d+1
Corriger e erreurs Dmin= 2e+1
Corriger e & dtecter d erreurs Dmin= 2e + d + 1
Ex Hamming(S4)
Deux oprateurs :
Si (vi) = 0 alors vi = vi
v = [a 1 a 2 ... a n ]
Soit H(m,n) la matrice de contrle,
h11
h
[H] = 21
...
h m1
h12
h 22
h m2
h1n
h 2 n
...
... h mn
...
z1
z = H.v T = :
z m
g
g
2n
[G ] = 21 22
...
...
g
g
...
g
k2
kn
k1
v = i.G
Les matrices H et G sont lies par :
G.H t = 0
G =
Ik
:
: A k,m
:
H =
A t k ,m
:
: Im
:
1
0
1
[H] = [1 1 1]
1 0 1
[G 2 ] =
0 1 1
0 1 1
[0 0]
= [0 0 0]
1
0
1
0 1 1
[0 0]
= [0 0 0]
1
0
1
0 1 1
[0 1]
= [1 0 1]
1 0 1
[0 1]
0 1 1
[1 0]
= [0 1 1]
1 0 1
[1 0]
0 1 1
[1 1]
= [1 1 0]
1 0 1
[1 1]
0 1 1
= [0 1 1]
1 0 1
0 1 1
= [1 0 1]
1 0 1
0 1 1
= [1 1 0]
1 0 1
2m n + 1 2m k + m + 1
[ ] [
H = h1
h2
0 0 ...
: : : ...
avec h = bin(i )
... hn ] =
i
0 1 1 ...
1
0
1
...
0 0 0 1 1 1 1
H = 0 1 1 0 0 1 1
1 0 1 0 1 0 1
v = [c1 c2
i3
c4
Circuit de codage
H .v T = 0
c1 = i3 + i5 + i7
c2 = i3 + i6 + i7
c = i + i + i
4 5 6 7
i5
i6
i7 ]
e3 = c1 + i3 + i5 + i7
e2 = c2 + i3 + i6 + i7
e = c + i + i + i
4
5
6
7
1
Circuit de dcodage
Codes cycliques
[1
v( x) = a0 + a1 x + a2 x 2 + ... + an 1 x n 1
i( x ) = i 0 + i1x + i 2 x 2 + ... + i k 1 x k 1
0 1 1] 1 + x 2 + x 3
G ( k ,n )
g(x )
x.g ( x )
...
k 1
x
.
g
(
x
)
Exemple :
G s ( 4, 7 )
1
0
=
0
g(x)=(1+x2+x3)
0 0 0 1 0 1
1 0 0 1 1 1
0 1 0 1 1 0
0 0 1 0 1 1
G ( 4, 7 )
H s (3,7 )
1
.
=
.
.
1 0 1 1 . .
. 1 0 1 1 .
. . 1 0 1 1
0 1 1
1 1 1 0 1 0 0
= 0 1 1 1 0 1 0
1 1 0 1 0 0 1
g ( x ) = 1 + x + x3 et
[0
v( x ) = i( x ) g ( x )
i ( x ) = x + x 2 + x3
v ( x ) = x + x5 + x 6
1 1 1] [1 1 0 1] = [0 1 0 0 0 1 1]
# convolution discrte !
Codage par division
v( x ) = c( x ) + x m .i( x )
Systmatique !
x m .i ( x)
c( x) = Reste
g ( x)
v( x)
z ( x) = Reste
g ( x)
Si z(x)=0 Transmission OK
Dtection ou correction
Ex
Code Golay
g ( x) = 1 + x 2 + x 4 + x 5 + x 6 + x10 + x11 n=23, m=11, e=3
R = 52 %
ATM
- x8 + x2 + x + 1
- x10 + x9 + x5+ x4+ x + 1
Cellule ATM
Couche AAL type 3/4
CCITT N41
X25 (HDLC)
- x16 + x12 + x5 + 1
Codes convolutifs
Gnralits
Les symboles d'information sont traits en flux continu
[
]
= [Y ......Y ].
1
j
m0
j
Contrle
R=[1011]
- Par le codeur
X1(n)
U2(n)
X2(n)
U3(n)
0 0 0 0
- Un diagramme d'tat
0 1 1 3
G2 =
= 2
0
1
0
0 1 0 2
=
G3 =
1 0 0 4
5 3 2
G=
0
2
4
U n(1) = xn + xn 1 + xn 2
U n( 2 ) = xn + xn 2
3
10 01 10 Min d i = ?
i =1
11 01 10
A.4 Cryptographie
Gnralits
Techniques de chiffrage
Usage des approches cl publique
Lgislation & Cryptologie
Gnralits
Objectifs
Garantir la confidentialit des donnes
Garantir l'intgrit des donnes
Garantir l'identit des correspondants
Non rpudiation des transactions
Applications
Militaires
Mots de passe
Scurit rseaux
Tlphonie
Commerce lectronique
@Business
Vocabulaire
Chiffrage
nk Cls
[C] : nc Cryptogrammes
cj
I (M ; C ) = H (M ) H (M / C )
Chiffrage efficace
ssi
(Cot + temps) de dcryptage >> Valeur de l'info
Techniques de chiffrage
Approches classiques
Chiffrage par substitution
Approches modernes
Chiffrage cl prive (symtrique)
DES, IDEA,
Chiffrage cl publique (asymtrique)
RSA, PGP
Exemple
Chiffrage cl prive
Cl prive
Message
Encryption
Cl prive
&^$!@#l:{Q
Decryption
Message
Cl de 128 bits
8 rondes
Principe
- X1 x Z1 = Y1
- X2 + Z2 = Y2
- X3 + Z3 = Y3
- X4 x Z4 = Y4
- Y1 Y3 = Y5
- Y2 Y4 = Y6
- Y2 x Z5 = Y7
- Y6 + Y7 = Y8
- Y8 x Z6 = Y9
- Y7 + Y9 = Y10
- Y1 Y9 = X1
- Y3 Y9 = X3
- Y2 Y10 = X2
- Y4 Y10 = X4
- X1 x Z1 = X1
- X2 + Z2 = X2
- X3 + Z3 = X3
- X4 x Z4 = X4
Chiffrage cl publique
Cl prive
Cl publique
Message
Encryption
&^$!@#l:{Q
Decryption
Message
Cl publique : N, e
- multiplication
- factorisation
Cl prive : N, s
m
x = me (mod N)
Choisir N = p . q
&^$!@#l:{Q
m
m=xs (mod N)
avec p et q premiers
Comparaison
Symmetric
Asymmetric
Number of keys
Usual key
length
56 bits
512+ bits
Performance
fast
very slow
Dedicated
hardware
yes
very rare
Code breaking
difficult
almost
impossible
Confidentialit
Alice
Clear
Encryption
Bob
Encrypted
Clear
Decryption
Pub
Pri
Authentification
Alice
Clear
Encryption
Bob
Encrypted
Decryption
Pri
Clear
Pub
Mess
age
Hash
Function
Hash of Message
Hash
Function
Alice
Hash of Message
Decrypt the
Received Signature
Signature
Signature
Message with
Appended Signature
Alice
Re-Hash the
Received Message
a
Mess
ge
Decrypt Using
Alices Public Key
Hash
Function
Hash of Message
Hash of Message
If Hashes Are Equal,
Signature Is Authentic
Bob
Pub
Bobs Public
Key
Certificate
Authority
0000123
SHA, DH, 3837829
1/1/97 to 12/31/98
Bob Smith, Acme Corporation
DH, 3813710
Certificate Authority
SHA, DH, 2393702347
0000123
SHA,DH, 3837829....
1/1/93 to 12/31/98
Alice Smith, Acme Corp
DH, 3813710...
Acme Corporation, Security Dept.
SHA,DH, 2393702347 ...
SSL
Communication scurise entre deux entits
Protocole de handshake
Commerce lectronique
Evolution exponentielle, initie par les professionnels, tire
par les particuliers
USA
Cryptologie, armes et munitions Mme cadre juridique
ITAR (International Traffic Arm Regulation) Export (40 bits)
France
Lgislation trs restrictive mais volutive
SCSSI (Service Central de Scurit des Sys. Informations) Organisme d'tat
Dcrets 98-206 & 207 du 23 Mars 1998
Transition ...
Thorie de l'information Domaine vaste (Continu, Modle de
rseaux, Thorie de la distorsion, )
Techniques de codage