Vous êtes sur la page 1sur 105

Techniques de codage

et modulations
TCM
Kamel Belloulata
Introduction
Source
analogique
Source
numrique
chantillonnage
Quantification
Codage
Modulations
analogiques
Modulations
numriques
Modulations
chantillonnes
Codage
de canal
Codage
de source
Chiffrage
Canal de transmission
Thorie de linformation
Th. Signaux (GEI 600, GEI 605) : dcrit messages et perturbations
Th. Information (GEI 500) : propose une quantitative de l information et tudie sa
reprsentation, transmission
Modulation (GEI 500) : modifie les signaux pour les propager sur les canaux de
transmission (GEI 540, GEI 460)
lectronique (GEI 210, GEI 215, GEI 240) : ralise les fonctions
A. Techniques de codage
1. Entropie & Capacit ... D4
2. Codage de source . D22
3. Codage de canal . D40
4. Cryptographie . D72
B. Modulations analogiques & numriques
1. Modulations analogiques de signaux analogiques ... D105
2. Modulations chantillonnes D
3. Transmission d un signal numrique sur frquence porteuse . D
Plan
[1] G. Battail, "Thorie de l'information. Application aux techniques de
communication", Ed : Masson, Paris, 1997, 397 p.
[2] A. Spataru, "Fondements de la thorie de la transmission de l'information", Ed :
Presse Polytechnique Romande, Lausanne, 1987, 625 p.
[3] T.M. Cover, J.A. Thomas, "Information theory", Ed : Wiley Interscience, New
York, 1991, 542 p.
[4] G. Brassard, "Cryptologie contemporaine", Ed: Masson, 1993, 122 p.
[5] P. Csillag, "Introduction aux codes correcteur", Ed: Ellipses, 1990, 96p.
[6] P.Lecoy, "Technologies des tlcoms", Ed.: Hermes, 1995, 373 p
[7] Ph. Fraisse et al, "Transmission de l'information", Ed. Ellipses, 1999, 191 p
[8] http://www.multimania.com/xcotton/electron/coursetdocs.htm
De saines lectures
A.1 Entropie & Capacit
Thorie de l information
Les sources ...
Information & Entropie
Les canaux discrets
Transinformation & Capacit
Thorie de l information
Vue densemble dun systme de communication
indpendante des moyens techniques & physiques
1948 : Shannon

Thorie de l'information
Rflexion sur les techniques de communication (XIX)
- Mcanique, accoustique
- Ondes radio-lectrique
- Tlgraphe (code morse)
- Tlphone, .
Systme de communication = fonctions physiques ralisables
Mauvaise comprhension des perturbations, des dbits

GSM

codage de source & canal

TV Num

codage de source & canal

Rseaux

codage de canal

@business

cryptage
Ca ne sert rien !
1960 / conqute spatiale

codage de source
Aujourd'hui

Paradigme de Shannon = modle sys. com.


Source = je parle
Canal = l air ambiant
Perturbations = bruit sonore
Destinataire = tu coutes

Source : sige d'vnements alatoires qui constituent


le message mis

Entropie

Canal : transmet et dgrade le message

Capacit
Des messages diffrents portent la mme information, le codage
cherche le message avec les meilleures proprits.

Codage de source

supprime la redondance, rduit le cot

Codage de canal

protge contre les perturbations

Chiffrage

protge contre les curieux
Deux thormes fondamentaux :
Codage de source Codage de canal
Les sources ...
Sources dbitant des messages sous forme discrte !

Source discrte d'information : suite de variables alatoires
discrtes X
1
, X
2
, X
n

Mot : succession finie de symboles

Alphabet : totalit des D lettres
[X] = [x
1
,x
2
, ., x
D
]

Symbole ou lettre : lment fondamental irrductible
contenant une information, cad ralisation particulire de la
source d'information.

Message : ralisation particulire parmi
les donnes susceptibles d'tre transmises

Source discrte sans mmoire : source pour laquelle la
probabilit d'apparition d'un symbole ne dpend pas des
symboles prcdents
) ( ,...) , / (
2 1 n n n n
i i i i
x p x x x p


Source sationnaire : source pour laquelle les probabilits
d'apparition des diffrents symboles ne dpendent pas de
l'origine des temps
k x p x p
k n n
i i

+
) ( ) (

Source de Markov : source pour laquelle la probabilit de
gnrer un symbole ne dpend que du symbole l'instant n-1
) / ( ,...) , / (
1 2 1

n n n n n
i i i i i
x x p x x x p
Quantit d'information propre
Proprit de l'information = imprvisibilit
)
) (
1
( ) (
x p
f x h
2 evt. indpendants apportent la somme de leur quantit d'info
) ( ) ( )
) (
1
( )
) (
1
( )
) ( ). (
1
( )
) , (
1
( ) , ( y h x h
y p
f
x p
f
y p x p
f
y x p
f y x h + +
f

fonction logarithme (Base 2 >> bit)


)) ( log( )
) (
1
log( ) ( x p
x p
x h
Information & Entropie ...
Avec f croissante & f(1)=0
Rgle de Bayes : ) , ( ) ( ). ( ) ( ). ( ) , ( x y p x p x y p y p y x p y x p
)
) , (
1
log( ) , (
y x p
y x h
)
) (
1
log( ) (
y x p
y x h
) , ( ) ( ) ( ) ( ) ( ) , ( x y h x h x y h y h y x h y x h + +
) ( ) ( x h y x h
si x et y indpendants
Entropie
Hyp : source discrte finie stationnaire sans mmoire
n ..., 1,2, i pour ) (
i i
x X p p
Emission = variable alatoire X
1
1

n
i
i
p



n
i
i i
n
i
i i
p p p p X h E X H
1 1
) log( . ) 1 log( . )) ( ( ) (
Quantit d'information moyenne associe
chaque symbole de la source = entropie
Ex : Source binaire
p p
p p

1 ) 0 (
) 1 (

'

< <

1 ou 0 si 0
1 0 pour ) 1 log( ). 1 ( ) log( .
) (
p
p p p p p
X H
Redondance
) ( ) (
max
X H X H R
Proprits de l entropie

Continuit : l'entropie est une fonction continue de chaque
variable p
i
.

Additivit : de part la dfinition de l'information propre.

Positive :

Borne :
0 ) ,..., , ( ) (
2 1

n
p p p H X H
) log( )
1
,...,
1
,
1
( ) ( n
n n n
H X H
Entropie & Dbit d information

Le dbit d'information d'une source est donn par le produit
de l'entropie de la source (valeur moyenne de l'info /symbole)
par le nombre moyen de symboles par seconde soit :

k
ime
extension : source S
k
dont l'alphabet Q
kaire
est obtenu
en groupant par bloc de k celui de la source S
Source Qaire

Source Q
aire
: source S dont l'alphabet possde Q lments
symbole un d' moyenne dure avec ) . (
) (
1

s bits
X H
D
X
Les canaux discrets

Canal : milieu de transmission de l'information situ entre la source
et la destination. Le canal opre une transformation entre l'espace
des symboles l'entre et celui de la sortie.

Canal discret : les espaces d'entre et de sortie sont discrets

Canal sans mmoire : si la transformation d'un symbole x
l'entre en un symbole y en sortie ne dpend pas des
transformations antrieures

Canal stationnaire : si les transformations ne dpendent pas de
l'origine des temps
[ ]
1
1
1
1
]
1

m n n n
m
m
y x y x y x
y x y x y x
y x y x y x
Y X
...
... ...
...
.
2 1
2 2 2 1 2
1 2 1 1 1
[ ]
1
1
1
1
]
1

) , ( ... ) , ( ) , (
... ...
) , ( ) , ( ) , (
) , ( ... ) , ( ) , (
) , (
2 1
2 2 2 1 2
1 2 1 1 1
m n n n
m
m
y x p y x p y x p
y x p y x p y x p
y x p y x p y x p
Y X P

m
j
j i i
y x p x p
1
) , ( ) (

n
i
j i j
y x p y p
1
) , ( ) (
Probabilits marginales
)) ( log( . ) ( ) (
1
i
n
i
i
x p x p X H


)) ( log( . ) ( ) (
1
j
m
j
j
y p y p Y H


)) , ( log( . ) , ( ) , (
1 1
j i
n
i
m
j
j i
y x p y x p Y X H



Entropie runie ou conjointe
)) / ( log( . ) , ( ) / (
1 1
j i
n
i
m
j
j i
y x p y x p Y X H



Entropie conditionnelle ou quivoque
Transinformation :
quantit d information moyenne qui traverse le canal
)
) ( ). (
) , (
log( . ) , ( ) ; (
1 1
j i
j i
n
i
m
j
j i
y p x p
y x p
y x p Y X I

) / ( ) ( ) / ( ) ( ) ; (
) , ( ) ( ) ( ) ; (
X Y H Y H Y X H X H Y X I
Y X H Y H X H Y X I

+
) ( ) ( ) , (
0 ) / ( ) / (
Y H X H Y X H
X Y H Y X H


) ( ) ( ) , (
) ( ) / ( et ) ( ) / (
Y H X H Y X H
Y H X Y H X H Y X H
+

Canaux non perturbs
Canaux trs perturbs
Capacit dun canal
Redondance dun canal
Efficacit dun canal
)) ; ( ( Y X I Max C
) ; ( Y X I C Rc
C
Y X I
c
) ; (

Ex

canal binaire
C
Y X I
c
) ; (
1
Transinformation & capacit
A.2 Codage de source
Gnralits
Thorme du codage de source
Codage de Shannon-Fano
Codage binaire de Huffman
Codage Arithmtique
Codage par longueur de plage
Codage de type dictionnaire
Gnralits

Adapter la source au canal

l'alphabet

le dbit

Utiliser la capacit du canal

maximiser I(X,Y)
Hyp : Source stationnaire, canaux sans perturbation
Codeur
de source
Source
initiale
Source
entropie max
Codeur de source

supprimer la redondance
Proprits d'un codeur de source

Rgularit : messages

codes

Dchiffrabilit : sparation des mots non ambigu
Code et Mot-code
[S]=[s
1
,s
2
, , s
N
] [X]=[x
1
,x
2
, , x
D
]
[C]=[c
1
,c
2
, , c
N
]
Exemple
Symbole Code A Code B Code C Code D
S
1
00 0 0 0
S
2
01 10 01 10
S
3
10 110 011 110
S
4
11 1110 0111 111

Code longueur variable / fixe

Code sparable : pas de signe de dmarcation entre les mots

Code instantan ou irrductible : on dtermine les mots-codes
mesure que l'on reoit les lettres de l'alphabet du code.
CNS : Aucun mot-code n'est le prfixe d'un autre !
Arbre & codes
binaires instantans
Longueur moyenne d'un mot-code

N
i
i i
l s p l
1
). (
Limite de la longueur moyenne
min
log
) (
l
D
S H
l
Capacit - Efficacit - Redondance
D X H Max C log )) ( (
D
X H D
log
) ( log

D
X H
log
) (

Ex

c ode opt.
D l
S H
log .
) (

) ( . ) ( ) ( X H l C H S H

Codes optimaux absolus
Codes dont l'efficacit est maximale : = 1
D
S H
l l
log
) (
min

1
1

N
i
l
i
D
Cond. Nces. pour les codes opt. abs.
" Par un codage appropri (codage par groupe de n symboles de
la source), l'information moyenne par lettre de l'alphabet du code
peut tre amene aussi proche que l'on veut de la capacit du
code, c'est--dire qu'il existe toujours un codage optimal
absolu ."
Rq1 : n fix, le code qui donne
max
<1 est dit 'optimal'
Thorme du codage de source
Algorithme de gnration d'un codage optimal absolu, pour
des sources divisibles rcursivement (jusqu' un symbole par
ensemble) en deux sous-ensembles quiprobables.
Symboles Proba
Mots-
codes Longueur
s
k
p(s
k
) c
k
l
k
s
1
0.25 0 00 2
s
2
0.25
0
1 01 2
s
3
0.125 0 100 3
s
4
0.125
0
1 101 3
s
5
0.0625 0 1100 4
s
6
0.0625
0
1 1101 4
s
7
0.0625 0 1110 4
s
8
0.0625
1
1
1
1 1111 4
Codage de Shannon-Fano
- Algorithme de gnration d'un codage optimal symbole par
symbole.
- Code longueur variable

codes longs pour probas faibles

Extraction des probabilits

Cration de l'arbre

Cration de la table d'Huffman

Codage

Lecture de la table d'Huffman

Cration de l'arbre de dcodage

Lecture squentielle et dcodage

On transmet la table + les codes en binaire

Algorithme
Codage binaire de Huffman (1952)
Rq : code d'chappement
= Huffman + fixe
Huffman 1 symbole = 1 mot-code
Arithmtique 1 flot de symboles = nbre en virgule flottante
m=0 ; M=1 ;
Tant que !(fin de fichier)
{
i = symbole suivant;
soit [a
i
; b
i
] associ i ;
s = M-m ;
M = m + s.b
i
;
m = m + s.a
i
;
}
Renvoyer m, le compact du fichier
N = nombre cod ;
Faire
{
trouver i / N [a
i
; b
i
[ ;
sortir i ;
s = b
i
- a
i ;
N = (N - a
i
) / s ;
}
Tant qu'il reste un symbole lire
Codeur Decodeur
Codage arithmtique
Exemple
s
i
p
i
[a
i
; b
i
[ Huff
i
0.1 [0.0 ; 0.1[ 111
A 0.1 [0.1 ; 0.2[ 110
E 0.1 [0.2 ; 0.3[ 101
I 0.1 [0.3 ; 0.4[ 100
B 0.1 [0.4; 0.5[ 0111
G 0.1 [0.5 ; 0.6[ 0110
L 0.2 [0.6 ; 0.8[ 00
S 0.1 [0.8; 0.9[ 0100
T 0.1 [0.9 ; 1.0[ 0101
0.43722077 = ?
10111010 10100100 11011001 01
01111000 00011101 10110010 11010100
Arithmtique Huffman
+ de calcul Proba trs lve 1 bit
Peu de symboles ()

Run Length
Codeurs statistiques
- Dpendants de la qualit de la statistique
- Statistique connue par le dcodeur

Coder le nombre de symboles identiques


CCITT, Fax groupe III
Huffman sur les plages de 0 prcdant les 1
000001111100000000000000000

5w5b17w
000000000001111100000000000

11w5b11w
A B C C C C C C A B C A B C

A B !6C A B C A B C
JPEG
Huffman sur les plages de 0 prcdant les coeff. DCT
Codage par longueur de plage (Run length coding)
Table d'Huffman FAX III

Coder une extension de la source de longueur variable


1977 : LZ (Lempel & Ziv) 1984 : LZW (Welch)

Dictionnaire de symboles incrment dynamiquement


apprentissage

Fichier cod = suite des adresses des mots du dico


! Grer l'incrment des bits d'adresse
PKZIP, ARJ LZW + Huffman
Codage de type dictionnaire (1977)
Codeur LZW
ID = {C
i
,W
i
} , P=
Tant que (symboles coder)
C = symbole suivant
Si PC ID
P = PC
Sinon
sortir W
P
PC ID
P=C
Fin si
Fin tant que
sortir W
P
Dcodeur LZW
ID = {C
i
,W
i
}
cW = 1
er
code ; sortir s(cW)
Tant que (codes lire)
pW = cW
cW = code suivant
Si (s(cW) ID)
sortir s(cW)
P = s(pW)
C = 1
er
symbole de s(cW)
PC ID
Sinon
P = s(pW)
C = 1
er
symbole de s(pW)
sortir s(PC)
PC ID
Fin si
Fin tant que
ABBABABAC. . . .
Utilis en compression audio & vido (JPEG, MPEG ...)
mais en tant associ des algorithmes non rversibles
(avec pertes)
Supprime la redondance

Sensibilit au bruit

Codage de canal
Conclusion sur le codage de source
A.3 Codage de canal
Gnralits
Thorme du codage de canal
Codes linaires
Codes cycliques
Codes convolutifs
Gnralits
Codeur de canal

introduire une redondance utilisable

Dtecter et/ou corriger les erreurs de transmission


Dtection et correction d'erreurs

Dtection par cho

Dtection par rptition

Dtection par bit de parit

Dtection par code

Dtection et correction par code
Codes dtecteur et/ou correcteur
Codes linaires
Codes groupes
Parit, Code de Hamming
Codes cycliques
CRC/FCS, code BCH, Golay
Codes convolutifs
Algorithme de Viterbi
Taux d'erreur
transmis bits de Nombre
errons bits de Nombre
T
e

011001001001100100101001010

011001101100101101000010
125 . 0
24
3

e
T

Probabilit d'erreur
r n r r
n n erreurs r
p p C P

) 1 .( .
/
n
corrects bits n
p P ) 1 (
Taux de codage
n
k
R
- k taille du mot d information (avant codage)
- n taille du mot-code (aprs codage)
" Pour une source dbit d'information de R bit/s et un canal de
capacit C bit/s, si R<C, il existe un code ayant des mots de
longueur n, de sorte que la probabilit d'erreur de dcodage p
E
vrifie :
) ( .
2
R E n
E
p

"
Rq1 : un rsultat inatendu !
Rq2 : existance ss mthode ...
Rq3 : p
E
constant, n augmente si R
tend vers C.
Rq4 : en pratique, si R<0.5 C, des
codes existent avec p
E
faible.
Thorme du codage de canal

VRC (Vertical Redundancy Check)

Asynchrone

LRC (Longitudinal Redundancy Check)

Synchrone
Dtection d erreur par bit de parit
CS CC Canal
P
DC
i v
v
] [ ] .... .... [
2 1 2 1
i c a a a a a a v
n m m m

+ +
[ c ] : m symboles de contrle
[ i ] : k =n-m symboles d'information
[ ]
n
..... .
2 1

i i i i
v v v v
1
]
1

sinon 0
position ime la erreur si 1
i

Mot-code : v
Mot-erreur :
Notations
Codes linaires
Distance de Hamming
) ( .... ) ( ) ( ) , (
2 2 1 1 jn in j i j i j i
a a a a a a v v D + + +
Le nombre de coordonnes par lesquels les 2
mots diffrent
Proprits des codes linaires
Les symboles de contrle sont obtenus par une combinaison
linaire des symboles d information.
un code linaire contient v=[0 0 0]
Code systmatique
Les symboles d information et de contrle sont spars.
Illustration spatiale : modle code groupe
W = ensemble des N = 2
n
mots
V = ensemble des S = 2
k
mots ayant un sens (mot-code)
W
V
Un mot = un vecteur dans un espace n dimensions !
w=[a
1
a
2
... a
n
]
i i
W v Rgion Rgion
0
W
quidistant

Dtection et correction si W
i
grand
Ex

Hamming(S
4
)
Capacit de dtection et rgion de dcision

Dtecter d erreurs

D
min
= d+1

Corriger e erreurs

D
min
= 2e+1

Corriger e & dtecter d erreurs

D
min
= 2e + d + 1
Thorme de Hamming
Principe de dtection et correction
k
i
S i v 2 1 pout tout 0 ) (
erreur d' pas alors 0 ) ( Si
i

i i
v v v

erreur d' dtection 0 ) ( Si

z v
i
D(z) connu est z Si
erreur d' correction +

i i
v v

D : oprateurs Deux
Dcodage et matrice de contrle
[ ]
1
1
1
1
]
1

mn 2 m 1 m
n 2 22 21
n 1 12 11
h ... h h
... ...
h h h
h ... h h
H
Soit H
(m,n)
la matrice de contrle,
1
1
1
]
1

m
1
T
z
:
z
v . H z
Soit z le syndrome (ou correcteur),
[ ]
n 2 1
a ... a a v
Si z=[0] pas d erreur, sinon erreur et +- correction
Codage et matrice gnratrice
G . i v
Soit G
(k,n)
la matrice gnratrice,
0 H . G
t

1
1
1
]
1

:
A : I
:
G
m , k k
1
1
1
]
1

:
I : A
:
H
m
m , k
t
[ ]
k 2 1
i ... i i i
[ ]
1
1
1
1
]
1

kn 2 k 1 k
n 2 22 21
n 1 12 11
g ... g g
... ...
g g g
g ... g g
G
Les matrices H et G sont lies par :
et peuvent se mettrent sous la forme systmatique
Exemple k=2, m=1, n=3
[ ] 1 1 1 ] H [
[ ] [ ] 0 0 0
1 0 1
1 1 0
0 0
1
]
1

[ ] [ ] 1 1 0
1 0 1
1 1 0
1 0
1
]
1

[ ] [ ] 1 0 1
1 0 1
1 1 0
0 1
1
]
1

[ ] [ ] 0 1 1
1 0 1
1 1 0
1 1
1
]
1

1
]
1

1 0 1
1 1 0
] G [
1
[ ] [ ] 0 0 0
1 0 1
1 1 0
0 0
1
]
1

[ ] [ ] 1 0 1
1 0 1
1 1 0
1 0
1
]
1

[ ] [ ] 1 1 0
1 0 1
1 1 0
0 1
1
]
1

[ ] [ ] 0 1 1
1 0 1
1 1 0
1 1
1
]
1

1
]
1

1 1 0
1 0 1
] G [
2
Code de Hamming groupe

Correction d'une erreur


1 2 1 2 + + + m k n
m m

[ ] [ ]
1
1
1
1
]
1


... 1 0 1
... 1 1 0
... : : :
... 0 0
...
2 1 n
h h h H
avec ) (i bin h
i

Mot-erreur :
[ ] .... ....
i

i
T
j j j
h z H v H z v v

. .

L'erreur est la position dec(h


i
)
Ex

Hamming

'

+ +
+ +
+ +
7 6 5 4
7 6 3 2
7 5 3 1
i i i c
i i i c
i i i c
1
1
1
]
1

1 0 1 0 1 0 1
1 1 0 0 1 1 0
1 1 1 1 0 0 0
H
[ ]
7 6 5 4 3 2 1
i i i c i c c v
0 .
T
v H

Circuit de codage
Circuit de dcodage

'

7 6 5 4 1
7 6 3 2 2
7 5 3 1 3
i i i c e
i i i c e
i i i c e
2
1
1
2
0
3
2 . 2 . 2 . pour 1 e e e i
i
+ +
(Cyclic Redundancy Check / Frame Check Sequence)
Code cyclique = code linaire + proprit de permutation
1
1
2
2 1 0
... ) (

+ + + +
n
n
x a x a x a a x v
] .... [
1 1 0

n
a a a v Mot-code :
Bloc de n symboles polynme de degr n-1 ! :
Information :
] i .... i i [ i
1 k 1 0

1 k
1 k
2
2 1 0
x i ... x i x i i ) x ( i

+ + + +
[ ]
3 2
x x 1 1 1 0 1 + +
Codes cycliques
Polynme gnrateur : g(x)
- g(x) dfinit le codeur (n,k)
- g(x) est de degr m=n-k
- Il vrifie :
1 k n
1 k n
2
2 1
x a ... x g x g 1 ) x ( g


+ + + +
) x ( p ) x ( g x 1
n
+
Exemple : code cyclique (n=7, k=4)
) x x 1 ( ) x x 1 ( ) x 1 ( x 1
3 3 2 7
+ + + + + +
g(x) est de degr 3 soit :
) x x 1 ( g(x) ou ) x x 1 ( ) x ( g
3 3 2
+ + + +
Matrice gnratrice et polynme gnrateur
1
1
1
1
]
1

) x ( g . x
...
) x ( g . x
) x ( g
G
1 k
) n , k (
Exemple : g(x)=(1+x
2
+x
3
)
1
1
1
1
]
1

1 1 0 1 . . .
. 1 1 0 1 . .
. . 1 1 0 1 .
. . . 1 1 0 1
G
) 7 , 4 (
1
1
1
1
]
1

1 1 0 1 0 0 0
0 1 1 0 1 0 0
1 1 1 0 0 1 0
1 0 1 0 0 0 1
G
) 7 , 4 (
s
1
1
1
]
1

1 0 0 1 0 1 1
0 1 0 1 1 1 0
0 0 1 0 1 1 1
H
) 7 , 3 (
s
Codage par multiplication
Codage par division
Dcodage par division
) x ( i . x ) x ( c ) x ( v
m
+

,
_

) (
) ( .
) (
x g
x i x
Reste x c
m
) x ( g ) x ( i ) x ( v

,
_

) (
) (
) (
x g
x v
Reste x z
Si z(x)=0 Transmission OK
Sinon Dtection ou correction
Ex

[ ] [ ] [ ] 1 1 0 0 0 1 0 1 0 1 1 1 1 1 0
6 5 ) ( 3 2 ) ( 3 1 ) (

+ + + + + + x x x x v x x x x i x x x g et
Systmatique !
# convolution discrte !
Exemples de polynmes gnrateurs

ATM
- x
8
+ x
2
+ x + 1

Cellule ATM
- x
10
+ x
9
+ x
5
+ x
4
+ x + 1

Couche AAL type 3/4

CCITT N41

X25 (HDLC)
- x
16
+ x
12
+ x
5
+ 1

IEEE 802

Rseaux locaux
- x
32
+ x
26
+ x
23
+ x
22
+ x
16
+ x
12
+ x
10
+ x
8
+ x
7
+ x
5
+ x
4
+ x
2
+ 1
) 1 )( 1 )( 1 ( ) (
2 4 3 2 4
x x x x x x x x x g + + + + + + + +
Code BCH (Bose-Chaudhuri - Hocquenghem)
n=15, m=10, e=3
R = 33%
Code Golay
11 10 6 5 4 2
1 ) ( x x x x x x x g + + + + + + n=23, m=11, e=3
R = 52 %

Les symboles d'information sont traits en flux continu


Contrainte : m = nb de blocs contrls par un bloc donn
Rque :Blocs de n
0
symboles, mais dont les m
0
contrleurs ne
dpendent pas que des k
0
symboles d'information !
Longueur de contrainte : n=m.n0
Gnralits
Taux d'mission :
0
0
n
k
R
Codes convolutifs
Codes convolutifs systmatiques
[ ]
1 2 2 1 1
..... .......
j j
Y X Y X Y X V
[ ]. ......
0
1 k
j j j
X X X
[ ]. ......
0
1 m
j j j
Y Y Y
Contrle
Information
avec
Mot-code :
Codes convolutifs non systmatiques

Contrle et information sont mlangs


Mot-code : [ ] ..... .......
2 1 j
U U U V
n n n n n
x R x R x R x R y . . . .
1 1 2 2 3 3 4
+ + +

Exemple : m=4, k
0
=1, m
0
=1, n
0
=2
R=[1011]
Reprsentation des codes convolutifs
- Par le codeur
- Par une matrice de transfert
- Un diagramme d'tat
- Un treillis chemin dcodage par chemin le + probable
X
1
(n)
X
2
(n)
U
1
(n)
U
2
(n)
U
3
(n)
1
]
1

1
]
1

0
5
0 0 0
1 0 1
1
G
1
]
1

1
]
1

2
3
0 1 0
1 1 0
2
G
1
]
1

1
]
1

4
2
0 0 1
0 1 0
3
G
1
]
1

4 2 0
2 3 5
G
Exemple : n
0
=2, R=0.5 , m=3
2
) 2 (
2 1
) 1 (


+
+ +
n n n
n n n n
x x U
x x x U

Recherche d'erreur la frquence N

Dmin = 2e+1

Stratgie de recherche de D
min

Exemple pour N=3


10 01 10

?
3
1

,
_

i
i
d Min

11 01 10
Dcodage : algorithme de Viterbi

Indispensable

Thories mathmatiques complexes

des solutions concrtes

Recherche de codeurs conjoint source / canal


- Reed-Salomon (1984) : BCH Qaire DVB(204,188,8)
- Turbo-Codes (1993) : Code convolutif V+H
- complexit --
- robustesse ++
- flexibilit ++
Conclusion sur le codage de canal
A.4 Cryptographie
Gnralits
Techniques de chiffrage
Usage des approches cl publique
Lgislation & Cryptologie
Gnralits
Objectifs

Tlphonie

Commerce lectronique

@Business
Applications

Mots de passe

Scurit rseaux

Militaires
Garantir la confidentialit des donnes
Garantir l'intgrit des donnes
Garantir l'identit des correspondants
Non rpudiation des transactions
Vocabulaire

Cryptographie : techniques de chiffrage

Cryptologie : cryptographie & cryptanalyse
Vue de la thorie de l'information
Chiffrage = Canal trs perturb
n
m
Messages : [M]
m
i
[C] : n
c
Cryptogrammes
c
j
Chiffrage
n
k
Cls
) / ( ) ( ) ; ( C M H M H C M I

Secret parfait ssi :


0 ) ; ( soit ) ( ) / ( C M I M H C M H
Cl unique permet m
i

c
j
soit n
m
=n
c
=n
k
Toutes les cls sont quiprobables
Chiffrage efficace
ssi
(Cot + temps) de dcryptage >> Valeur de l'info

Chiffrage cl prive (symtrique)
DES, IDEA,

Chiffrage cl publique (asymtrique)
RSA, PGP
Approches modernes
Approches classiques

Chiffrage par substitution
Jules Csar, l'Abb Trithme

Chiffrage par transposition
Techniques de chiffrage
Chiffrage par substitution

Chaque lettre (ou groupe de lettres) est remplace par une


lettre (ou un groupe de lettres)
Abb Trithme (1499)
Chiffrage par transposition

Change l'ordre des lettres sans les substituer


Exemple
Chiffrage cl prive
Cl prive Cl prive
Message Message
&^$!@#l:{Q &^$!@#l:{Q
Decryption Decryption Encryption Encryption
Message Message
Encryption and decryption use same key
Encryption and decryption use same mathematical function
Fast
Example: Data Encryption Standard (DES, IDEA ,RC2, ...)
Key length matters
Keys must often be changed
Shared keys must be generated and distributed securely
Challenges with symmetric encryption
Ramdomized Key generator
IDEA (International Data Encryption Algorithm / Lai, Massey 1991 )

Une succession daddition (+) , multiplication (x), et Xor ( )


Mot de 64 bits Cl de 128 bits 8 rondes
- X
1
x Z
1
= Y
1
- X
2
+ Z
2
= Y
2
- X
3
+ Z
3
= Y
3
- X
4
x Z
4
= Y
4
- Y
1
Y
3
= Y
5
- Y
2
Y
4
= Y
6
- Y
2
x Z
5
= Y
7

- Y
6
+ Y
7
= Y
8
- Y
8
x Z
6
= Y
9
- Y
7
+ Y
9
= Y
10
- Y
1
Y
9
= X
1

- Y
3
Y
9
= X
3

- Y
2
Y
10
= X
2

- Y
4
Y
10
= X
4

- X
1
x Z
1
= X
1

- X
2
+ Z
2
= X
2

- X
3
+ Z
3
= X
3

- X
4
x Z
4
= X
4

Principe
Chiffrage cl publique
Cl publique
Cl prive
Message Message
&^$!@#l:{Q &^$!@#l:{Q
Decryption Decryption Encryption Encryption
Message Message
Encryptor and decryptor use different keys
Encryptor and decryptor use different mathematical functions
Slow
Example: public key algorithms (RSA, Diffie-Hellman, ...)
RSA (Rivest Shamir Adleman / 1978)

Bas sur des proprits algbriques : - multiplication


- factorisation
Cl publique : N, e Cl prive : N, s
m
m
&^$!@#l:{Q &^$!@#l:{Q
m=
m=
x
x
s s
(
(
mod
mod
N)
N)
x = m
x = m
e e
(
(
mod
mod
N)
N)
m
m
x
x
Choisir N = p . q avec p et q premiers (512 bits soit # 200 chiffres)
Choisir s / s premier avec z=(p-1) .(q-1)
Scurit dpend des connaissances arithmtiques !
e / e. s = 1 (mod z) e<<s

Exemple simple de RSA


p=3 et q=11 N = 33 z = 20
s = 7 7.e = 1 (mod 20) e = 3
C = M
3
. (mod 33) et M = C
7
. (mod 33)
PGP (Pretty Good Privacy / 1991 )

Algorithme hybride : PGP = (RSA + IDEA)


Longtemps interdit en France !
Comparaison
Symmetric Asymmetric
Number of keys 1 2
Usual key
length
56 bits 512+ bits
Performance fast very slow
Dedicated
hardware
yes very rare
Code breaking difficult
almost
impossible
Confidentialit
Authentification
Confidentialit & authentification
Signature
Certificat
Protocoles rseaux scuriss
Usages des approches cl publique
Alice gets Bobs public key
Alice encrypts message with Bobs public key
Bob decrypts using his private key
Clear
Bob Alice
Clear Encrypted
Bobs Private Key Bobs Public Key
Decryption Decryption
Encryption Encryption
Pri Pri
Pub
Confidentialit
Authentification
Pri Pri
Pub
Clear Clear Encrypted
Alice encrypts message with her private key
Bob gets Alices public key
Bob decrypts using Alices public key
Alices Public Key Alices Private Key
Encryption Encryption Decryption Decryption
Bob Alice
Confidentialit & Authentification
Signature : Authentification & Intgrit
Digital Signature Standard from NIST
Public and private keys (512+ bits)
Applied on a digest of the message to be signed
Hash of Message
M
e
s
s
a
g
e
Hash Hash
Function Function
one-way cryptographic function
maps a large message into a short hash
typical hash size 128 bits
examples: MD5, SHA
DSS
Digest (Hash)
How does Alice sign her message?
Encrypt Hash Using Alices Private Key
Hash of Message
Digital Signature = Encrypted Hash of Message
Alice Alice
M
e
s
s
a
g
e
Hash Hash
Function Function
How does Bob verify Alices signature?
If Hashes Are Equal,
Signature Is Authentic
Hash Hash
Function Function
Signature
Decrypt the
Received Signature
Decrypt Using
Alices Public Key
Hash of Message
Re-Hash the
Received Message
Hash of Message
Message with
Appended Signature
Signature
M
e
ss
a
g
e
Alice Alice
Message
How can Bob be assured that the Alices
public key belongs to Alice?
Digital certificate is signed message that attests to
authenticity of users public key
0000123 0000123
SHA, DH, 3837829 SHA, DH, 3837829
1/1/97 to 12/31/98 1/1/97 to 12/31/98
Bob Smith, Bob Smith, Acme Acme Corporation Corporation
DH, 3813710 DH, 3813710
Certificate Authority Certificate Authority
SHA, DH, 2393702347 SHA, DH, 2393702347
Certificate
Authority
Bob
Bobs Public
Key
Pub
Certificat : l'identit lectronique
A digital certificate contains
Serial number of the certificate
Issuer algorithm information
Valid to/from date
User public key information
Signature of issuing authority
0000123
SHA,DH, 3837829....
1/1/93 to 12/31/98
Alice Smith, Acme Corp
DH, 3813710...
Acme Corporation, Security Dept.
SHA,DH, 2393702347 ...
Tiers de confiance / sequestre
Norme CCITT X. 509
Protocoles rseaux scuriss
SSL (Secure Socket Layer)
Secure HTTP
...
SET (Secure Electronic Transaction)
Secure TCP/IP IP v.6
S S L
Communication scurise entre deux entits
change de donnes sur liaison scurise
Commerce lectronique
Protocole de handshake
Client vrifie le certificat du serveur
Client gnre paire de cl
Demande la cl publique du serveur
Envoie de la cl publique du client chiffre au serveur
Test mis par le serveur
Commerce lectronique

Evolution exponentielle, initie par les professionnels, tire


par les particuliers

Pose tous les problmes traits par la cryptologie


Authentification Intgrit
Confidentialit Non rpudiation

2 voies principales
Acheteur / Vendeur SSL
Acheteur / Vendeur + Banques SET
Pas de lgislation internationale + volution rapide
Difficult de standardisation des protocoles
Les logiciels de chiffrage ne sont pas comme les autres !

USA
Cryptologie, armes et munitions

Mme cadre juridique


ITAR (International Traffic Arm Regulation)

Export (40 bits)


Lgislation & Cryptologie

France
Lgislation trs restrictive mais volutive
SCSSI (Service Central de Scurit des Sys. Informations)

Organisme d'tat
Dcrets 98-206 & 207 du 23 Mars 1998
- Autorisation

Dclaration

Sans formalit
- 2
40
essais, F U I E
Sanctions encourues :
- Import sans autorisation : 6 mois & 200 000 F
- Tiers de confiance illgal : 2 ans & 300 000 F
- Fourniture pour crime & dlit : 3 ans & 500 000 F
- Circonstance aggravante ?

Indispensable aux rseaux de communication


Scurit Intranet / Extranet / Internet

Moteur de dveloppement du @Business

Consquences juridiques
Conclusion sur la cryptograhie
Transition ...
Thorie de l'information Domaine vaste (Continu, Modle de
rseaux, Thorie de la distorsion, )
Techniques de codage
Coder, c est bien,
mais moduler a sert aussi ...