Vous êtes sur la page 1sur 142

‫امجلهورية اجلزائرية ادلميقراطية الشعبية‬

‫وزارة التعلمي العايل و البحث العلمي‬

‫جامعة وهران للعلوم و التكنولوجيا محمد بوضياف‬

Présentée par : TRACHE Nadjia

Intitulé : Sécurisation de la transmission de l’information par les


techniques du tatouage robuste et applications

Faculté : Génie Electrique

Département : Electronique

Spécialité : Electronique

Option : Electronique

Devant le Jury Composé de :

Membres de Jury Grade Qualité Domiciliation

ALI PACHA Adda PR Président USTO-MB

AHMED-FOITIH Zoubir PR Encadrant USTO-MB

BENAMRANE Nacéra PR Co-Encadrant USTO-MB

Université Oran 1 Ahmed Ben


HAFFAF Hafid PR
Bella

Université Mustapha Stambouli


DEBBAT Fatima PR Examinateurs
Mascara

Université Mustapha Stambouli


SALEM Mohammed MCA
Mascara

Année Universitaire : 2018/2019


Remerciements

Je tiens à exprimer mes vives marques de reconnaissance, de gratitude à l’égard de mes


Directeur et Co-Directeur de thèse, Professeurs Ahmed-Foitih Zoubir et Benamrane Nacéra, pour
ces années de travail de recherche. Un travail qui a abouti grâce à leur aide précieuse, conseils,
recommandations, et surtout la confiance investie en ma personne. Je leur serais toujours
reconnaissante.

Je tiens à exprimer ma sincère gratitude au Professeur Ali Pacha Adda, de l’Université des
Sciences et de la Technologie Mohamed Boudiaf d’Oran, qui me fait l’honneur de présider le jury.

Mes remerciements vont également aux membres examinateurs qui me font l'honneur de
participer au jury pour l’intérêt qu’il ont bien voulu porter à ce travail, en acceptant de l’expertiser,
en l’occurrence : Professeur Haffaf Hafid, de l’Université d’Oran 1 Ahmed Ben Bella, Professeure
Debbat Fatima et Docteur Salem Mohammed de l’Université Mustapha Stambouli de Mascara.

Mes vifs remerciements au Professeur Laurent Lucas du CRESTIC - Université de Reims


Champagne-Ardenne (France), qui a été d’une aide précieuse durant mes périodes de stage passées
au sein de son laboratoire.

Pour conclure, un grand merci aux collègues de mon laboratoire de recherche, ceux de
l’Université d’Oran 1 Ahmed Ben Bella, de l’USTO-MB, et de l’Université Mustapha Stambouli
de Mascara, et à toute personne ayant de près ou de loin contribué par ses remarques et encouragement
dans ce modeste travail de recherche.
SOMMAIRE
SOMMAIRE ________________________________________________________________________________ I

LISTE DES TABLEAUX _________________________________________________________________________ V

LISTE DES FIGURES _________________________________________________________________________ VI

RESUME _________________________________________________________________________________ VIII

INTRODUCTION GENERALE ___________________________________________________________________ 1

CHAPITRE I : GENERALITES SUR LA TRANSMISSION SECURISEE DE L’INFORMATION _____________________ 4

I-1 INTRODUCTION __________________________________________________________________________ 5

I-2 LA CRYPTOGRAPHIE : L’ART DES CODES SECRETS _______________________________________________ 6

I-2-1 CONFIDENTIALITE ET CHIFFREMENT ____________________________________________________________ 7


I-2-1-1 Le chiffrement à clé symétrique (code secret) ___________________________________________ 8
I-2-1-2 Le chiffrement à clé asymétrique _____________________________________________________ 8
I-2-1-3 Le cryptage chaotique _____________________________________________________________ 9
I-2-2 INTEGRITE ET FONCTION DE HACHAGE _________________________________________________________ 10
I-2-3 AUTHENTIFICATION, NON REPUDIATION ET SIGNATURE ELECTRONIQUE ___________________________________ 13

I-3 LA DISSIMULATION D’INFORMATION _______________________________________________________ 13

I-3-1 TERMINOLOGIE ________________________________________________________________________ 13


I-3-2 OBJECTIFS ET CONTRAINTES ________________________________________________________________ 14
I-3-3 LA STEGANOGRAPHIE ____________________________________________________________________ 15
I-3-3-1 Principe de la stéganographie ______________________________________________________ 16
I-3-3-2 Classification des schémas stéganographiques ________________________________________ 17
I-3-3-3 Caractéristiques d’un schéma stéganographique _______________________________________ 18
I-3-3-4 Contraintes en stéganographie _____________________________________________________ 18
I-3-3-5 Contexte historique de la stéganographie ____________________________________________ 18
I-3-4 LE FINGERPRINTING (L’EMPREINTE) __________________________________________________________ 19
I-3-5 LE TATOUAGE _________________________________________________________________________ 20
I-3-5-1 Le tatouage versus stéganographie _________________________________________________ 20
I-3-5-2 Bref historique du tatouage ________________________________________________________ 21

I-4 CONCLUSION ___________________________________________________________________________ 23

CHAPITRE II : LES FONDAMENTAUX DE LA THEORIE DU TATOUAGE NUMERIQUE DE L’IMAGE : ETAT DE L’ART


_________________________________________________________________________________________ 24

II-1 INTRODUCTION _________________________________________________________________________ 25

II-2 APPLICATIONS DU TATOUAGE NUMERIQUE _________________________________________________ 26

I
II-3 PRINCIPE DU TATOUAGE NUMERIQUE ______________________________________________________ 27

II-4 ETAPES D’UN SCHEMA DE TATOUAGE ______________________________________________________ 30

II-5 CLASSIFICATION DES SCHEMAS DE TATOUAGE _______________________________________________ 31

II-5-1 CHOIX DU DOMAINE D’INSERTION ___________________________________________________________ 31


II-5-1-1 Le domaine spatial ______________________________________________________________ 32
II-5-1-2 Le domaine fréquentiel ___________________________________________________________ 34
II-5-1-2.1 Transformation en Cosinus Discrète TCD (Discret Cosinus Transform DCT) ______________________ 35
II-5-1-2.2 Transformation de Fourier Discrète TFD (Discret Fourier Transform DFT) _______________________ 37
II-5-1-3 Le domaine de l’analyse multi résolutions ou des ondelettes _____________________________ 39
II-5-1-4 Autre technique : La Décomposition en Valeurs Singulières SVD __________________________ 41
II-5-1-5 Le domaine hybride ______________________________________________________________ 42
II-5-2 METHODES D’INSERTION _________________________________________________________________ 43
II-5-2-1 Le tatouage additif ______________________________________________________________ 44
II-5-2-2 Le tatouage substitutif ___________________________________________________________ 44
II-5-3 METHODES DE DETECTION OU EXTRACTION_____________________________________________________ 45
II-5-4 ROBUSTESSE DES METHODES DE TATOUAGE ____________________________________________________ 46
II-5-5 PERCEPTION DE LA MARQUE _______________________________________________________________ 47
II-5-6 CONTRAINTES LIEES A LA SECURITE___________________________________________________________ 49
II-5-6-1 Méthode de marquage symétrique _________________________________________________ 50
II-5-6-2 Méthode de marquage asymétrique ________________________________________________ 50

II-6 CLASSIFICATION DES ATTAQUES DU TATOUAGE ______________________________________________ 50

II-6-1 LES ATTAQUES BIENVEILLANTES _____________________________________________________________ 51


II-6-2 LES ATTAQUES MALVEILLANTES _____________________________________________________________ 52

II-7 METHODES D’EVALUATION DES SCHEMAS DE TATOUAGE ______________________________________ 53

II-7-1 LES METHODES SUBJECTIVES _______________________________________________________________ 54


II-7-2 LES METHODES OBJECTIVES _______________________________________________________________ 54

II-8 CONCLUSION ___________________________________________________________________________ 55

CHAPITRE III : APPROCHES META-HEURISTIQUES APPLIQUEES AU TATOUAGE _________________________ 57

III-1 INTRODUCTION ________________________________________________________________________ 58

III-2 ETAPES DE RESOLUTION D’UN PROBLEME D’OPTIMISATION ___________________________________ 58

III-3 CLASSIFICATION DES METHODES D’OPTIMISATION ___________________________________________ 61

III-4 NOTIONS FONDAMENTALES SUR LES META-HEURISTIQUES ____________________________________ 63

III-4-1 DEFINITION DE LA LITTERATURE ____________________________________________________________ 63


III-4-2 PRINCIPALES CARACTERISTIQUES DES META-HEURISTIQUES __________________________________________ 64

II
III-4-3 CLASSIFICATION DES META-HEURISTIQUES _____________________________________________________ 64

III-5 PRINCIPALES METAHEURISTIQUES _________________________________________________________ 66

III-5-1 LES ALGORITHMES EVOLUTIONNAIRES _______________________________________________________ 66


III-5-1-1 Les algorithmes génétiques _______________________________________________________ 67
III-5-1-2 Les stratégies d’évolution ________________________________________________________ 70
III-5-1-3 Principe de la méthode CMA-ES (𝝀, 𝝁) ______________________________________________ 73
III-5-2 LES ALGORITHMES A ESSAIM PARTICULAIRE (PARTICLE SWARM OPTIMIZATION : PSO) _______________________ 75
III-5-3 LES ALGORITHMES DE COLONIE DE FOURMIS (ANT COLONY OPTIMIZATION : ACO) _________________________ 79
III-5-4 LE SYSTEME IMMUNITAIRE : DU NATUREL A L’ARTIFICIEL ___________________________________________ 81
III-5-4-1 Le Système Immunitaire Naturel (SIN) ______________________________________________ 81
III-5-4-1.1 Les cellules du système immunitaire ____________________________________________________ 82
III-5-4-1.2 Les étapes de la réponse immunitaire ___________________________________________________ 83
III-5-4-2 Le Système Immunitaire Artificiel (AIS) ______________________________________________ 84

III-6 TECHNIQUES D’OPTIMISATION APPLIQUEES DANS LE DOMAINE DU TATOUAGE ___________________ 88

III-6-1 OPTIMISATION DU TATOUAGE PAR L’ALGORITHME GENETIQUE (GA) ___________________________________ 89


III-6-2 OPTIMISATION DU TATOUAGE PAR L’ALGORITHME A ESSAIM DE PARTICULES (PSO) _________________________ 91
III-6-3 OPTIMISATION DU TATOUAGE PAR L’ALGORITHME DE COLONIE DE FOURMIS (ACO) _________________________ 92
III-6-4 OPTIMISATION DU TATOUAGE PAR L’ALGORITHME DE SYSTEME IMMUNITAIRE ARTIFICIEL (AIS)__________________ 92

III-7 CONCLUSION __________________________________________________________________________ 93

CHAPITRE IV : SCHEMAS PROPOSES DU TATOUAGE OPTIMISE PAR DES APPROCHES BIO-INSPIREES &
SIMULATIONS _____________________________________________________________________________ 94

IV-1 INTRODUCTION ________________________________________________________________________ 95

IV-2 CHOIX DES TECHNIQUES DU TATOUAGE PROPOSE ___________________________________________ 96

IV-2-1 CHOIX DU DOMAINE DE TRAVAIL ___________________________________________________________ 96


IV-2-2 CHOIX DU DOMAINE TRANSFORME __________________________________________________________ 96
IV-2-3 CHOIX DE LA METHODE DE CRYPTAGE ________________________________________________________ 97

IV-3 ALGORITHME DU TATOUAGE BASE SUR LA DWT-SVD- ARNOLD TRANSFORM _____________________ 98

IV-3-1 PROCESSUS D’INSERTION DE LA MARQUE ______________________________________________________ 98


IV-3-2 PROCESSUS D’EXTRACTION DE LA MARQUE ___________________________________________________ 101
IV-3-3 PHASE D’ATTAQUES ___________________________________________________________________ 102

IV-4 OPTIMISATION DU TATOUAGE NUMERIQUE DE L’IMAGE PROPOSE PAR LES APPROCHES BIO-INSPIREES
________________________________________________________________________________________ 102

IV-4-1 CHOIX DE LA FONCTION OBJECTIF __________________________________________________________ 103


IV-4-2 APPROCHES PROPOSEES ________________________________________________________________ 104

III
IV-4-2-1 Approche proposée d’optimisation du tatouage par l’algorithme basée sur le système
immunitaire artificiel AIS _______________________________________________________________ 104
IV-4-2-2 Approche proposée d’optimisation du tatouage par la stratégie d’évolution basé sur l’adaptation
de la matrice de covariance CMA-ES ______________________________________________________ 106

IV-5 CONFIGURATION ADOPTEE _____________________________________________________________ 108

IV-6 SIMULATIONS DU PROCESSUS PROPOSE DU TATOUAGE ROBUSTE OPTIMISE PAR L’AIS ____________ 108

IV-6-1 OPTIMISATION DU FACTEUR D’ECHELLE  PAR L'AIS ____________________________________________ 109


IV-6-2 PROCESSUS DE TATOUAGE AVEC  OPTIMISE PAR L’AIS ___________________________________________ 110

IV-7 SIMULATIONS DU PROCESSUS PROPOSE DU TATOUAGE ROBUSTE OPTIMISE PAR LE CMA-ES _______ 113

IV-7-1 OPTIMISATION DU FACTEUR D’ECHELLE  PAR LE CMA-ES ________________________________________ 114


IV-7-2 PROCESSUS DE TATOUAGE AVEC FACTEUR  OPTIMISE PAR LE CMA-ES ________________________________ 115

IV-8 COMPARAISONS ET CRITIQUES __________________________________________________________ 116

IV-8-1 COMPARAISON ENTRE LES RESULTATS DE L’UTILISATION DES ALGORITHMES AIS ET CMA-ES __________________ 117
IV-8-1-1 Critère de performance d’imperceptibilité __________________________________________ 117
IV-8-1-2 Critère de performance de robustesse _____________________________________________ 119
IV-8-2 COMPARAISON AVEC LES RESULTATS DE LA LITTERATURE __________________________________________ 120

IV-9 CONCLUSION _________________________________________________________________________ 122

CONCLUSION GENERALE ET PERSPECTIVES _____________________________________________________ 123

RÉFÉRENCES BIBLIOGRAPHIQUES ____________________________________________________________ 125

IV
LISTE DES TABLEAUX

Tableau I.1 : Récapitulatif des caractéristiques et contraintes du tryptique de dissimulation d’information...…23

Tableau IV.1 : Les paramètres de l’AIS…………………………………………………………….……….....109

Tableau IV.2 : Valeurs de la fonction objectif en fonction des paramètres de l’AIS……………….……….... 110

Tableau IV.3 : Evaluation de l’imperceptibilité du tatouage par les valeurs du PSNR…………………...…...111

Tableau IV.4 : Evaluation de la robustesse du tatouage par les valeurs du NCC………………………..…....112

Tableau IV.5 : Les paramètres de l’algorithme CMA-ES……………………………………………..……....113

Tableau IV.6 : Valeurs de la fonction objectif en fonction des paramètres du CMA-ES……………..….…....114

Tableau IV.7 : Evaluation de l’imperceptibilité du tatouage par les valeurs du PSNR pour le CMA-ES…......115

Tableau IV.8 : Evaluation de la robustesse du tatouage par les valeurs du NCC, pour le CMA-ES…………..116

Tableau IV.9 : Tableau comparatif des performances………………………………………………………….117

V
LISTE DES FIGURES
Figure I.1 : Les différentes techniques de la sécurité de l’information [Cheddad et al., 2010]…………………..6
Figure I.2 : Chiffrement à clé secrète [Labouret et al., 2010]………………………………………………….....8
Figure I.3 : Chiffrement à clé publique [Rivest et al., 1978]………………………………………………….…..9
Figure I.4 : Fonction de Hachage pour le contrôle d’intégrité [Stallings, 2003]………………………………...11
Figure I.5 : a) Création de la Signature et b) vérification de la signature d’un document [Zhao, 2004]………..13
Figure I.6 : Contraintes de la technique de dissimulation d’information [Loukhaoukha, 2010]………………..15
Figure I.7 : Bloc général d’un système stéganographique………………….…………..……………………………17
Figure I.8 : Bloc général d’un système de Tatouage [Cayre, 2008]………………………. ………………………20
Figure II.1 : Schéma général d’insertion, de diffusion et d’extraction de la marque …………………………...30
Figure II.2 : Organigramme de la classification des techniques de tatouage [Loukhaoukha, 2010]…………….32
Figure II.3 : Méthode de Tatouage par Etalement de Spectre. a) Pré-formatage de la marque avant la phase
d’insertion ; b) Récupération de la donnée sous forme étalée pendant la phase d’extraction……………...34
Figure II.4 : Répartition fréquentielle de la DCT sur un bloc 8*8…………..………………………………………35
Figure II.5 : Répartition fréquentielle dans le module de la DFT sur une image [Riad, 2015]…………………38
Figure II.6 : Principe de la DWT 2D [Riad, 2015]…………………… …………..…………..……………………..39
Figure II.7 : Décomposition en ondelettes à 2 niveaux de résolution……………….……………………………...39
Figure II.8 : Classification des attaques de tatouage [Cox et al., 1997]……………………….. …………..……..51
Figure III.1 : Principe d’une optimisation………………………….…………..…………..…………..……………..59
Figure III.2 : Maxima locaux & Maximum global (solution optimale……………………… ………………....…60
Figure III.3 : Les approches utilisées pour la résolution des problèmes d’optimisation [Ben Ismail et al.
,2012]...…………………………………………………………………………………………………………..63
Figure III.4 : Classification des Méta-heuristiques………………………………………………...…………....65
Figure III.5 les différents types de croisements………………………………………………..…………..………..68
Figure III.6 Principe de la mutation…………………………………..…………..…………..………………………69
Figure III.7 Principe général d’un algorithme génétique [Loukhaoukha, 2010]……………………………….69
Figure III.8 : Distribution normale centrée isotrope……………………………………………………………..72
Figure III.9 : Distribution normale centrée non isotrope orientée selon l’axe des x…………………………….73
Figure III.10 : Distribution normale centrée non isotrope orientée selon l’axe des x…………………………...73
Figure III.11 : Organigramme de l’algorithme CMA-ES [Ngo et al., 2017]……………….. ……………………75
Figure III.12 : Principe de fonctionnement de l’algorithme à essaim de particules [Bachir Bouiadjra et al., 2016]………...78
Figure III.13 Recherche du plus court chemin par les fourmis en quête de nourriture [El Dor, 2012]………………………80
Figure III.14 : Organigramme du foncionnement de l’algorithme de colonie de fourmis [Loukhaoukha, 2010]…………..80
Figure III.15 : Le système immunitaire et ses cellules [Sahraoui 2016]…………………. …………..……………………..83
Figure III.16 : Les étapes de phagocytose [Dasgupta, 1999]……………… …………..…………..…………..…...……….83
Figure III.17 : Sélection clonale [Dasgupta, 1999]…………………………………………………………………………..84
Figure III.18 : Modèle de conception d’un AIS [De Castro et al., 2002]……………………………………….85
Figure III.19 : Structure d’un Algorithme Immunitaire Artificiel [Sahraoui , 2016]…………………………...88
Figure IV.1 : Principe général d’un tatouage d’image [Nandi et al. 2016]……………………………………...98
Figure IV.2 Application de la DWT à 3 niveaux de résolution sur l’image « LENA »…………………….…..99

VI
Figure IV.3 : Organigramme général de l’algorithme du tatouage proposé…………………………………....104
Figure IV.4 : Approche d’optimisation par l’AIS proposée [Trache et al, 2018]…………………………...…105
Figure IV.5 : Etapes d’optimisation par AIS…………………………………………………………………...106
Figure IV.6 : Etapes d’optimisation par CMA-ES………………………..........................................................107
Figure IV.7 : Images hôtes…………………………………………………………………………………..…108
Figure IV.8 : Marque……………………………………………………………………………………….......109
Figure IV.9 : Evolution du facteur d’échelle 𝛼 pour 50 anticorps-20générations……………………………..109
Figure IV.10 : Les images tatouées par la méthode AIS et attaquées………………………………………....111
Figure IV.11 : La marque cryptée (a) et extraite en clair après attaques de (b) à (f)……………………….…111
Figure IV.12 : Evolution de la fonction objectif en fonction du nombre d’itérations de l’Algorithme CMA-
ES……………………………………………………………………………………………………………….114
Figure IV.13 : Comparaison entre termes d’imperceptibilité entre AIS et CMA-ES……………………….…117
Figure IV.14 : Comparaison de l’imperceptibilité pour les différentes attaques…………………………….…118
Figure IV.15 : Comparaison de la robustesse pour les différentes attaques……………………………………119

VII
Introduction Générale

RESUME
Le travail de recherche abordé dans cette thèse de doctorat, s’inscrit principalement dans le
cadre du tatouage numérique de l’image robuste, imperceptible et sécurisé, à des fins de transmission.
Dans ce contexte, des techniques ont été étudiées et mises en œuvre pour répondre aux critères de
performances requis lors des processus de tatouage.
Cependant, il est connu que le tatouage est un concept de compromis entre robustesse et
imperceptibilité, ce qui indique l’intérêt de recourir à un processus d’optimisation. Ce constat a motivé
l’intérêt de travaux de cette thèse vers l’exploitation des méthodes méta-heuristiques, puisées du
domaine de l’intelligence artificielle, qui sont d’actualité et qui ont prouvé indiscutablement leur
efficacité dans le contexte de l’optimisation. Cette thèse se base sur l’application principalement de
deux techniques méta-heuristiques qui sont les algorithmes immunitaires artificiels ‘AIS’ et la stratégie
évolutionnaire par la méthode de l’adaptation de la matrice de covariance ‘CMA-ES’.
La raison essentielle qui motive le choix des deux approches proposées est justifiée par le fait,
que d'une part, pour adapter une méta-heuristique à un problème donné, il est nécessaire de choisir la
méthode appropriée et de régler ses paramètres par rapport au problème à optimiser. Si les paramètres
d'entrée sont mal choisis, la méta-heuristique utilisée ne sera pas efficace. La technique 'CMA-ES' a un
paramétrage adaptatif, puisque ses paramètres internes évoluent automatiquement, ce qui garantit
indiscutablement l’obtention de la solution optimale. D'autre part, l’algorithme 'AIS' étant utilisé dans
le domaine spatial, est dans ce contexte, utilisé dans le domaine fréquentiel, puisque ce dernier offre
plus d'avantages pour aboutir à un tatouage robuste, par rapport au domaine spatial. Les résultats de
simulations et tests comparatifs permettent d’établir leur efficacité par rapport aux résultats des
méthodes trouvées dans la littérature.
Abstract
The discussed research work in this PhD thesis is mainly part of robust, imperceptible and
secure image watermarking, for purposes of transmission. In this context, many techniques have been
studied and implemented to ensure the performance criteria required during watermarking processes.
However, it is known that watermarking is a compromise between robustness and
imperceptibility, which indicates the advantage of using an optimization process. This observation
motivated the interest of the work of this thesis towards the exploitation of the meta-heuristics methods,
drawn from the field of artificial intelligence, which are of actuality, and which proved indisputably
their effectiveness in the context of the optimization. This thesis is based on the application, mainly of
the two meta-heuristic techniques, which are the artificial immune system 'AIS' and the evolutionary
strategy of the covariance matrix adaptive method 'CMA-ES'.
The main reason for the choice of the two proposed approaches is justified by the fact that, on
the one hand, in order to adapt a meta-heuristic to a given problem, it is necessary to choose the
appropriate method and to adjust its parameters, relative to the problem to be optimized. If the input
parameters are not well chosen, the meta-heuristic used will not be effective. The 'CMA-ES' technique
has an adaptive setting, since its internal parameters evolve automatically, which guarantees
indisputably the obtaining of the optimal solution. On the other hand, the 'AIS' algorithm is used in the
spatial domain, in this context, used in the frequency domain, since the latter offers more advantages to
achieve a robust image watermarking, compared to the space domain. The results of the simulations
and comparative tests make it possible to establish their effectiveness with respect to the results of the
methods found in the literature.
Mots clés :
Tatouage, Robustesse, Imperceptibilité, Sécurité, Optimisation, AIS, CMA-ES, PSNR, NCC,
Transformée en ondelettes discrètes, Décomposition en valeurs singulières.
Keywords:
Watermarking, Robustness, Imperceptibily, Security, Optimisation, AIS, CMA-ES, PSNR, NCC,
Discret Wavelet Trasform, Singular Value Decomposition.

VIII
Introduction Générale

INTRODUCTION GENERALE
De nos jours, le réseau informatique est devenu de plus en plus complexe et le partage
de medias numériques se voit exposé à des manipulations illégales. Il se pose donc un réel
problème de sécurisation de la transmission de l’information. Le transfert des données délicates
ne peut se faire avec de tels risques et doit donc être sécurisé. Plusieurs moyens ont été déployés
pour pallier à ce problème. La cryptographie a longtemps été le moyen efficace mis en œuvre
pour protéger et sécuriser l’information en transmettant des données cryptées. Elle propose ainsi
des solutions pour protéger la confidentialité des données, pour assurer leur intégrité ou encore
pour s’assurer de l‘identité de la personne qui les envoie. Mais ces protections n’agissent que
lors de leur transmission et de leur distribution. Une fois les données en clair, ils ne contiennent
plus aucune protection. C’est pourquoi d’autres techniques de protection ont été mises en
œuvre. Il s’agit de techniques de dissimulation qui ont pour objectif d’offrir une protection
permanente y compris lorsque les données sont en clair donc exploitables ou sont exposées à
certaines manipulations. Ces techniques visent à insérer un message caché dans le médium de
manière imperceptible mais avec des objectifs différents. Parmi ces techniques, la
stéganographie, appelée aussi science de la communication secrète, a pour objectif de cacher
un message secret et rendre difficile ou impossible, la distinction entre un médium original et
un médium modifié par l’insertion du message secret. L’utilisateur ne doit pas se rendre compte
qu’il y a un message qui circule dans le médium.

Le fingerprinting, cette autre technique de dissimulation, vise à insérer une marque dans
chacune des différentes copies d’un même document afin de tracer les utilisateurs indélicats qui
les redistribueraient de manière illégale.

Enfin la technique du tatouage souvent appelée watermarking, vise à marquer des


documents en insérant des données invisibles mais surtout robustes. Une des particularités de
cette technique est que la marque est liée de manière intime et résistante au contenu du
document. Elle est souvent dédiée à la protection des droits d’auteurs, lorsque le tatouage est
robuste.

L’imperceptibilité, la robustesse et la capacité de la marque sont les propriétés


importantes qui caractérisent la technique du tatouage. La robustesse assure que la marque
invisible ne peut être détruite sans que le médium ne soit fortement dégradé. L’invisibilité ou
l’imperceptibilité indique que, même en insérant de l’information secrète, le document tatoué
(contenant l’information secrète) n’est visiblement pas perturbé et la capacité indique la

1
Introduction Générale

quantité d’informations qui peut être insérée sans que cela ne soit visible. Ces propriétés sont
en relation étroite mais à effet inverse. Si la capacité est importante, elle influe positivement sur
la robustesse mais négativement sur l’imperceptibilité et vice versa. Ainsi, la technique est
étroitement dépendante de la solution qui gère le compromis robustesse / imperceptibilité. Nous
sommes face à un défi à relever en matière d’optimisation.

Une grande majorité des travaux de recherche se sont consacrés à améliorer ce


compromis en mettant en œuvre des techniques de plus en plus évoluées. Il s’agit de techniques
hybrides mettant à contribution les avantages de chacune d’elle et pouvant recourir à des
approches intelligentes ayant prouvé leur efficacité dans le domaine de l’optimisation.

Dans cette vision, cette thèse a été orientée vers l’exploitation d’une hybridation de
plusieurs techniques : deux techniques pour assurer l’imperceptibilité et la robustesse du
tatouage, une technique de brouillage de la marque pour la sécurité de l’image pendant sa
transmission et enfin deux techniques de l’intelligence artificielle pour apporter un élément de
réponse à la problématique posée ; l’une ayant fait l’objet d’une étude d’optimisation du
tatouage dans le domaine spatial : à savoir l’algorithme basé sur le système immunitaire
artificiel (AIS), et l’autre technique des stratégies évolutionnaires basée sur l’adaptation de la
matrice de covariance (CMA-ES).

Il est à noter que l’AIS a été uniquement exploité dans le tatouage numérique de l’image
que dans le domaine spatial. Son utilisation dans le contexte fréquentiel, constitue une
nouveauté, et par conséquent une contribution.

Il faut rappeler que, pour adapter une méta-heuristique à un problème donné, il est
nécessaire de choisir la méthode appropriée et de régler ses paramètres par rapport au problème
à optimiser. Si les paramètres d'entrée sont mal choisis, la méta-heuristique utilisée ne sera pas
efficace. La technique CMA-ES a un paramétrage simplifié puisque les paramètres internes
évoluent automatiquement, donc plus de chance d'aboutir à la solution souhaitée. Le recours à
la technique du CMA-ES dans le cadre du tatouage d’images robuste sécurisé, est considéré
comme une idée initiatrice, que nous considérons comme une autre contribution.

Ajouté aux précédentes contributions, l’évaluation de l’impact des attaques sur le


tatouage en l’optimisant par les techniques AIS et CMA-ES, renforce notre apport.

Pour aboutir aux objectifs fixés, la thèse est structurée selon la configuration suivante :

2
Introduction Générale

 Un premier chapitre, où sont décrites les techniques utilisées dans la sécurisation de


la transmission de l’information, à savoir le cryptage, la stéganographie, le
fingerprinting et le tatouage.
 Un second chapitre entièrement dédié au tatouage numérique de l’image. Son
contenu permet de s’initier d’une manière claire dans ce concept de sécurisation du
transfert numérique des données.
 Un troisième chapitre , où est largement expliqué que le processus de tatouage est
tributaire de la bonne prise en charge du compromis existant entre la robustesse et
l’imperceptibilité. A cet effet, il a pris en charge la présentation des techniques
puisées de l’intelligence artificielle, œuvrant pour l’optimisation au service d’un
tatouage robuste et sécurisé. L’accent est mis sur les approches AIS et CMA-ES.
 Le quatrième chapitre présente, d’une manière explicite les contributions majeures à
savoir les propositions de deux schémas de tatouage robuste et sécurisé, l’un basé
sur l’AIS dans le domaine fréquentiel et le second sur le CMA-ES. Les illustrations,
simulations et tests comparatifs font l’objet de la fin de ce chapitre. Il montre
clairement la compétitivité des performances de nos approches par rapport aux
résultats de la littérature dans le domaine du tatouage robuste et sécurisé.

Cette thèse se veut être une contribution à la sécurisation de la transmission de


l’information, par les approches du tatouage robuste, imperceptible et sécurisé.

3
Chapitre I : Généralités sur la transmission sécurisée de l’information

CHAPITRE I : GENERALITES SUR LA TRANSMISSION SECURISEE


DE L’INFORMATION

4
Chapitre I : Généralités sur la transmission sécurisée de l’information

I-1 INTRODUCTION
L’information est un élément constitutif et déterminant dans tous les domaines. De tous
temps, l’humanité a souhaité envoyer des informations d’une façon sécurisée.

Grace à la révolution technique de l'analogique vers le numérique à la fin du vingtième


siècle, la transmission et la diffusion des documents numériques sont devenues de plus en plus
utilisées. Le processus est peu coûteux et extrêmement rapide. Cependant ce passage de
l'analogique vers le numérique ne s'est pas fait sans engendrer des inquiétudes en terme de
préservation des droits d'auteurs. Des utilisateurs non autorisés peuvent s'approprier des
documents numériques lors de leur transmission, pour usage malintentionné afin de copier,
modifier ou détériorer le contenu. Pour pallier à ce souci de sécurisation de la transmission de
l’information, au début des années 1990, une nouvelle technique a été introduite qui s'inspire
principalement de la cryptographie et la stéganographie. Elle consiste à inscrire une marque
dans un document numérique. Cette technique est connue sous le nom du tatouage numérique.

Les domaines d’applications et les méthodes de sécurisation de l’information ne cessent


d’évoluer ; chacune des méthodes présente différentes caractéristiques et peut être classifiée
selon ses objectifs et ses contraintes.

Aussi, les deux grandes familles de sécurisation de la transmission de l’information,


peuvent être définies (voir figure. I.1) :

- La cryptographie basée sur des techniques qui rendent incompréhensible le message


et qui se servent des techniques mathématiques pour rendre le message
indéchiffrable par ceux auquel il n’est pas destiné. Ajoutée à cette technique et dans
la même famille, le brouillage ou mélange appelé en anglais « scrambling » qui
utilise des techniques pour désordonner le message et le rendre ainsi illisible.

- La dissimulation de l’information qui utilise une porteuse comme enveloppe pour


cacher le message. Cette deuxième famille regroupe la « stéganographie », le
marquage ou tatouage, appelé en anglais le « watermarking » et l’empreinte digitale
appelée le « fingerprinting ».

5
Chapitre I : Généralités sur la transmission sécurisée de l’information

Sécurité de l’information

Cryptographie
Dissimulation
Brouillage De l’information
tion
Stéganographie Tatouage Fingerprinting
(Watermarking)

Chiffrement Hachage Signature

Figure I.1 : Les différentes techniques de la sécurité de l’information [Cheddad et al., 2010].

De nos jours, la cryptographie est considérée comme «l’art» des codes secrets, la
stéganographie et le tatouage sont moins connus. Aussi, on se propose dans ce chapitre de
définir ce triptyque d’objectifs différenciés et de là, nous attacher à distinguer plus finement la
différence entre eux.

I-2 LA CRYPTOGRAPHIE : L’ART DES CODES SECRETS

La cryptographie est une science qui consiste à sécuriser un échange de données. Elle
propose ainsi des solutions pour coder les données afin de protéger leur confidentialité, pour
assurer leur intégrité ou encore pour s'assurer de l'identité de la personne qui les envoie. La
force et la durée de ses solutions dépendent étroitement de la cryptanalyse - opposée à la
cryptographie-, ayant pour but de casser (briser) les algorithmes de codage utilisés. Elle est
effectuée, généralement par un intrus, pour retrouver le message d’origine ou le paramètre
autorisant les opérations de cryptage des données (clé).

Pour assurer cette sécurité, la cryptographie utilise des protocoles cryptographiques définis
par des règles qui déterminent l’ensemble des opérations à réaliser et leur séquence. Trois
principaux mécanismes sont mis en œuvre : le chiffrement, le hachage et la signature
numérique. Ces derniers utilisent des codes appelés clés et dépendent de l’application.

Les services offerts par ces mécanismes sont :

6
Chapitre I : Généralités sur la transmission sécurisée de l’information

- La confidentialité par le chiffrement : C’est la propriété qui assure que l’information,


lors de sa transmission, est rendue inintelligible aux individus, entités et processus
non autorisés.

- L’intégrité par le hachage : Son objectif est de s’assurer que les données n’ont pas
été modifiées sans autorisation. Dans les faits, la cryptographie ne s’attache pas
vraiment à empêcher une modification de données, mais plutôt à fournir un moyen
sûr de détecter une modification malveillante.

- L’authentification et la non répudiation par la signature : Permet de vérifier l'origine


d'un message et empêche l'expéditeur d'un message de nier avoir envoyé ce message.

I-2-1 CONFIDENTIALITE ET CHIFFREMENT

Le concept de base est celui du chiffre. Nous donnons ci-dessous quelques définitions
qui nous serviront par la suite :

- Chiffrer : transformer une donnée de telle façon qu’elle devienne incompréhensible.


Seules les entités autorisées pourront comprendre cette donnée chiffrée.

- Déchiffrer : transformer une donnée précédemment chiffrée pour reconstituer la


donnée d’origine. Seules les entités autorisées ont la capacité de procéder à cette
action.

Anciennement, le chiffrement consistait à remplacer chaque lettre du message d’origine


par une autre (ou par un symbole) en suivant un algorithme bien défini. On pouvait distinguer
deux types de chiffres :

- Chiffre de substitution : Chaque lettre est remplacée par une autre mais garde sa
place d’origine.

- Chiffre de transposition : où chaque lettre reste inchangée mais elle est mise à une
autre place (principe de l’anagramme).

L’arrivée des ordinateurs a totalement démodé ces méthodes qui ne résistent pas au
traitement informatique ; d’où la naissance, dans les années 60, des méthodes de chiffrement
moderne basées sur l’usage de clés (codes).

7
Chapitre I : Généralités sur la transmission sécurisée de l’information

Le but de ces méthodes est de rendre l’apparence du message crypté (appelé aussi
cryptogramme) la plus aléatoire possible ; et ceci en combinant substitution et transposition
avant la diffusion du message.

Ce type de chiffrement repose sur l’utilisation d’un algorithme public (connu de tous)
et d’une clé, répondant ainsi au principe de Kerchoff qui stipule que « Toute la sécurité d’un
système de cryptographie doit reposer sur la clé et non pas sur le système lui-même ». Ceci
étant, la notion de clé dans un système de chiffrement est très importante. Elle peut être
de deux types : le chiffrement à clé symétrique ou asymétrique.

I-2-1-1 Le chiffrement à clé symétrique (code secret)

Son principe consiste à appliquer un algorithme avec la clé secrète sur les données
à chiffrer. Le déchiffrement se fait à l’aide de la même clé secrète ( voir figure I.2) :

Clé secrète
Clé secrète

Message en Message en
Canal de transmission
clair clair
Données Chiffrées
Chiffrement Déchiffrement

Figure I.2 : Chiffrement à clé secrète [Labouret et al., 2010]

La qualité du chiffrement symétrique se mesure par rapport :

- à des propriétés statistiques des textes chiffrés,

- à la résistance aux classes d’attaques connues.

Les limites de ce type de chiffrement est la multiplication des clés dans la diversité des
canaux de communication. De plus il n’y a pas d’intégrité et d’identification d’auteurs : chacun
peut intercepter et modifier les messages qui s’échangent ; d’où le passage au chiffrement
asymétrique.

I-2-1-2 Le chiffrement à clé asymétrique

Il utilise une clé publique connue de tous et une clé privée connue seulement du
destinataire du cryptogramme (Figure I.3). Ce type de chiffrement a été découvert par
James Elus (1969) en Angleterre et par Whitfield Diffie (1975) aux Etats Unies dont

8
Chapitre I : Généralités sur la transmission sécurisée de l’information

l’article ne contenait que les bases théoriques du chiffrement asymétrique. Le premier


algorithme le mettant en œuvre est dû à Rivest, Shamir et Adleman [Rivest et al., 1978],
et porte leurs noms : R.S.A.

Clé publique Clé secrète

Message en Message en
Canal de transmission
clair clair
Données Chiffrées

Figure I.3 : Chiffrement à clé publique [Rivest et al., 1978]

L’algorithme asymétrique RSA est le plus répandu, notamment parce que tant la clé
publique que la clé privée peuvent servir à chiffrer un message. Dans ce cas, c'est la clé opposée
à celle ayant servi au chiffrement qui est utilisée pour le déchiffrement. Le principal problème
du cryptage à clé publique réside dans la lenteur avec laquelle se font les opérations de
chiffrement et de déchiffrement. C'est pour cela que dans la pratique, les cryptographies
symétrique et asymétrique sont souvent combinées, et on essaie d'exploiter leurs avantages du
mieux possible pour rendre les systèmes performants. L'autre problème de cette méthode de
cryptage est qu'elle nécessite un nombre très important de calculs. En effet, des clés différentes
sont utilisées pour crypter et décrypter. Il n'y a ainsi pas de problème de transfert de clés comme
pour le cryptage à clé secrète, par contre les temps de calcul deviennent très longs.

I-2-1-3 Le cryptage chaotique

La complexité du chiffrement est liée à l’algorithme et surtout à la longueur de la clé


utilisée (nombre de bits utilisé définissant la clé). Le problème d’un cryptage utilisant une clé
réside dans le fait qu’il est possible de reconstruire cette clé à partir du signal crypté. Pour éviter
cette faille, il faudrait que la clé soit assez complexe pour que, même à long terme, on ne puisse
pas remonter au code, mais la puissance des moyens de calcul et des ordinateurs menacent la
confidentialité de ces méthodes de cryptographie algorithmique. Aussi, pour pallier cette
inquiétude, d’autres méthodes ont été introduites se basant sur des signaux chaotiques. C’est au
début des années 90 qu’est apparue l’idée d'utiliser les signaux chaotiques pour transmettre
l'information [Pecora et al., 1990].

9
Chapitre I : Généralités sur la transmission sécurisée de l’information

Ces signaux, issus d’un générateur chaotique de structure assez simple, sont aléatoires
et déterministes ; ils évoluent dans le temps et leurs caractéristiques sont connues. Ils sont très
sensibles à leurs conditions initiales, ce qui rend leur évolution imprévisible. C’est cette
difficulté à les maîtriser qui les rend intéressants dans le chiffrement des données [Addison,
2006].

De plus, leur utilisation est simple et rapide : en cryptographie, elle consiste à mélanger
un signal chaotique au message en clair pour avoir le message codé. Le message est noyé dans
le signal chaotique et est envoyé par l’émetteur. Connaissant les conditions initiales du signal
chaotique initial et ses caractéristiques (l’ensemble formant la clé symétrique), le récepteur
saura alors extraire le message [Battikh, 2015].

Dans les applications liées à la sécurité de la transmission de l’information, des cartes


chaotiques ont été utilisées pour générer les clés secrètes dans les algorithmes de cryptage, de
stéganographie et de tatouage.

Pour la sécurisation de la transmission des données images, les systèmes classiques de


cryptage ne sont pas très fiables : ces données étant particulières en raison de leurs tailles et de
leurs informations bidimensionnelles et redondantes, des contraintes de vitesse et de perte
d’information peuvent être causées par ces cryptages classiques. Plusieurs algorithmes de
chiffrement basés sur des méthodes chaotiques ont été proposés dans le cas du cryptage des
images et que l’on peut retrouver dans la littérature [Awad, 2009]. Nous ne retiendrons, dans
notre étude que la méthode basée sur la transformation d’Arnold [Boora et al., 2013]. Cette
transformation est l’une des techniques les plus importantes dans la sécurité de transmission et
de stockage des images. Elle est simple et facile à implémenter. Les détails de cette transformée
seront présentés au chapitre 4.

I-2-2 INTEGRITE ET FONCTION DE HACHAGE

Le problème du contrôle de l’intégrité d’un message en cryptographie est résolu par la


notion de fonction de hachage à sens unique. Cette fonction, qui doit être rapide à calculer,
permet de transformer un message m à transmettre, en un résumé numérique h de taille fixe
(voir figure 1.4). Ce résumé est une suite de caractères assez courte représentant le message
qu’il résume. La fonction de hachage H doit être :

- telle qu’elle associe un et un seul résumé h à un message en clair m.

10
Chapitre I : Généralités sur la transmission sécurisée de l’information

- résistante à la collision : la moindre modification du message entraine la


modification de son résumé. En d’autres termes, il est très difficile voire impossible
de trouver deux messages différents ayant le même résumé h.

- la notion de fonction à sens unique relève du fait qu’il est impossible de retrouver le
message original m à partir du résumé h :

Document Document
Canal de transmission numérique
numérique

Fonction Fonction
hachage H hachage H

Suite binaire
Suite binaire
01001……11
01001……11

Oui
Restitution Aucune
= ?
01001……11 modification
%
Non
?
Document
modifié

Figure I.4 : Fonction de Hachage pour le contrôle d’intégrité [Stallings, 2003]

La figure I.4 montre l’utilisation d’une fonction de hachage pour vérifier l'intégrité
d'un document numérique.

Initialement, le code de hachage du document numérique est calculé et stocké dans


un endroit sûr. Après transmission du document, le code est recalculé et comparé à celui qui
a été stocké. Si les deux valeurs sont égales alors le document n'a pas été modifié. Sinon, le
document a subit une modification.

En résumé, la fonction de hachage 𝐻 transforme une entrée de données d’une dimension


variable 𝑚 et donne une sortie de données inférieure et fixe h telle que h=H(𝑚).

- l’entrée m peut être de dimension variable ;


- la sortie h doit être de dimension fixe ;
- h doit être relativement facile à calculer ;
- H doit être une fonction à sens unique ;
- H doit être «sans collision».

11
Chapitre I : Généralités sur la transmission sécurisée de l’information

Il existe également des fonctions de hachage qui utilisent un chiffrement, appelées


fonctions de hachage à clé : Ces fonctions sont similaires aux fonctions de hachage mais
utilisent une clé privée pour calculer l’empreinte. Ces fonctions de hachage à clé permettent de
rendre le calcul de l’empreinte différent en fonction de la clé utilisée : pour calculer une
empreinte, on utilise une clé privée. Pour deux clés différentes, l’empreinte obtenue sur un
même message sera différente.

Les algorithmes de hachage sont utilisés :

- Pour la vérification si un document a été modifié (le changement d’une partie du


document change son empreinte). On parle alors d’intégrité ;
- Dans la génération des signatures numériques ; dans ce cas, le résultat h est appelé
«empreinte» en le combinant avec les propriétés des chiffrements asymétriques.

Parmi les principaux algorithmes utilisés nous citerons [Loukhaoukha, 2010]:

- MD2, MD4 et MD5 (MD signifiant «Message Digest»), développé par Ron Rivest
(société RSA Security), créant une empreinte digitale de 128 bits pour MD5. Les
documents en téléchargement sur Internet accompagnés d’un fichier MD5 traduisent
le résumé du document permettant de vérifier l’intégrité de ce dernier.
- SHA (Secure Hash Algorithm), pouvant être traduit par Algorithme de Hachage
Sécurisé développé par le NIST (National Institute of Standards and Technology)
(1995). Il crée des empreintes d’une longueur de 160 bits. C’est un standard SHA0
et SHA1 (devenu le standard SHS).
- RIPEMD (Race Integrity Primitives Evaluation Message Digest), développé par
Hans Dobbertin, Antoon Bosselaers et Bart Preneel, RIPEMD-128 et RIPEMD-160,
créé entre (1988 et 1992).
- Tiger, développé par Ross Anderson et Eli Biham, plus rapide que MD5 (132Mb/s
contre 37Mb/s sur une même machine.

12
Chapitre I : Généralités sur la transmission sécurisée de l’information

I-2-3 AUTHENTIFICATION, NON REPUDIATION ET SIGNATURE


ELECTRONIQUE

Il est possible de joindre à un document sa signature obtenue à l’aide d’une fonction de


hachage en la chiffrant à l’aide de sa clé privée. Le document peut être identifié comme
provenant de la personne (Authentification) et cela assure également la non-répudiation
(utilisation de la clé privée). Il est possible de déchiffrer cette signature à l’aide de la clé
publique de la personne (Figure I.5).

Document A à Résumé du
Chiffrement
Signature
signer document : asymétrique 011001…..001
010010..00111
00

Fonction Clé privée du Canal de transmission


signataire
de hachage
Document + Signature

a)
Signature Déchiffrement Résumé
011001…..001 010010..00111
asymétrique
02 00
Oui
Signature
=?
Clé publique correcte
du signataire
Résumé Non
Document A
Fonction 010010..00111
Signature
de hachage 00
Incorrecte
b)
Figure I.5 : a) Création de la Signature et b) vérification de la signature d’un document [Zhao, 2004]

I-3 LA DISSIMULATION D’INFORMATION

I-3-1 TERMINOLOGIE

Afin de faciliter la lecture de ce mémoire, il nous est apparu nécessaire de se fixer une
terminologie qui sera conservée tout au long de ce document et de distinguer les différents
éléments qui interviennent en dissimulation d’information.

Tout d’abord, le mot « dissimulation d’information » est général ; il désigne simplement


le fait de cacher une information dans un support. Il est traduit du mot «Information hiding ou

13
Chapitre I : Généralités sur la transmission sécurisée de l’information

Data hiding », rencontré souvent dans la littérature. Le support recevant le message est appelé
Hôte, Couverture, support, ou Médium, ou encore Medium de couverture. Une fois
l’information insérée, le médium supportant le message est appelé stégo-médium ou médium
tatoué. Le message à cacher est appelé : Marque, Filigrane ou Tatouage.

Le processus complet de la dissimulation d’information repose sur deux processus [Ali


Pacha & al, 2006]:

1- La dissimulation : étape d’insertion de l’information dans le médium.


2- L’extraction : étape de restitution de l’information cachée. Le vocable « détection » est
également utilisé lorsqu’il s’agit de vérifier la présence d’une information dans le
médium sans procéder à son extraction.

I-3-2 OBJECTIFS ET CONTRAINTES

En figure I.6, sont représentées les trois variantes de la technique de dissimulation


d’information : la stéganographie, le tatouage et le fingerprinting. Les objectifs de la
dissimulation dépendent étroitement de l’application de chacune des variantes et peuvent
changer de manière subtile. Classiquement, les applications sont triées en fonction des trois
contraintes suivantes et seront détaillées, par la suite, pour chaque technique :

- L’imperceptibilité : représente le fait de dissimuler une information dans le médium


de façon que cette information ne soit par perceptible dans le stégo-médium et afin
que la personne surveillant le canal de transmission ne remarque pas la présence du
message.

- La capacité appelé aussi débit : représente la quantité d’informations que l’on espère
cacher par rapport à la quantité d’informations associée au médium utilisé, de type
audio, image ou vidéo.

- La robustesse : correspond à l’aptitude de conserver l’information cachée face aux


modifications du stégo-médium.

Pour chacune des trois techniques, ces contraintes varient. Cependant, comme ces
dernières sont contradictoires, un compromis est nécessaire et est représenté en figure I.6.

14
Chapitre I : Généralités sur la transmission sécurisée de l’information

Parmi les fichiers qui sont très adaptés pour la dissimulation d’information, on retrouve
les images numériques. Ce type de fichier étant très couramment échangé sur Internet, une
grande majorité des travaux de recherches lui est consacrée. Dans ce manuscrit nous nous
intéressons également à ce type de fichier.

Stéganographie

&
Stéganographie,
Fingerprintig
Tatouage robuste

&
Stéganographie,
fingerprinting
Tatouage invisible

&

fingerprinting

Figure I.6 : Contraintes de la technique de dissimulation d’information [Loukhaoukha, 2010]

I-3-3 LA STEGANOGRAPHIE

C’est une technique très ancienne. Elle a pour but de cacher, au sein d’un médium une
information secondaire. Ce message invisible doit être uniquement accessible à des personnes
propriétaires d’une information secrète, c’est-à-dire des initiés. La nature de l’information
dissimulée ne revêt pas d’importance ; il peut s’agir d’un texte en clair ou de sa version chiffrée.
L’enjeu est donc d’éviter que des adversaires, appelés aussi attaquants, détectent la présence
d’une information camouflée dans un support d’apparence anodine. L’objet de la
stéganographie est donc de faire passer inaperçu un message dans un autre, et non de rendre un
message uniquement intelligible à qui-de-droit ce qui est le rôle de la cryptographie. Cette
technique, quoi que très ancienne, connaît un regain d’intérêt à l’ère du numérique [Cayre,
2008].

La différence entre la cryptographie et la stéganographie peut se résumer ainsi : l’une


est une écriture secrète mais nue, alors que l’autre est une écriture discrète : elle nécessite une
couverture, un contenu. En d’autres termes, avec la cryptographie ancienne, la sécurité repose
sur le fait que le message est incompréhensible, pour la stéganographie, la sécurité repose sur
la remise en question même de l’existence du message. Mais rien n’interdit de cacher un

15
Chapitre I : Généralités sur la transmission sécurisée de l’information

message préalablement crypté. Les deux disciplines n’ont jamais été concurrentes, mais sont
plutôt complémentaires.

La stéganographie a aujourd’hui pris un autre sens. Une définition plus appropriée


pourrait consister à assurer la dissimulation d’une information dans un flux de données
numériques, tel qu’un fichier numérique image ou son. Ce type de fichiers est habituellement
considéré comme inoffensif, incapable de contenir des informations autres que celles
normalement prévues.

I-3-3-1 Principe de la stéganographie

Pour définir le principe général de cette technique, un modèle dit « du prisonnier » a été
proposé pour la première fois par Simmons [Simmons, 1983] et relate le modèle classique d’une
communication invisible :

Alice et Bob sont arrêtés pour un crime et sont placés dans des cellules distinctes. Ils
souhaitent établir un plan d’évasion, mais malheureusement toutes communications entre eux
sont arbitrées par une gardienne nommée Wendy. L’utilisation de cryptage est impossible, ils
se verraient placer en isolement cellulaire (donc aucun échange possible). Les deux parties
doivent communiquer de manière invisible pour ne pas attirer l’attention de Wendy. La
solution : cacher une information dans un message anodin. Bob pourrait, par exemple, dessiner
une vache bleue couchée dans une prairie verte et envoyer cette œuvre d’art moderne à Alice.
Wendy ne sait pas que les couleurs de l’image ont une signification1. Malheureusement, des
problèmes peuvent entraver les intentions d’Alice et Bob. Wendy peut altérer le message que
Bob a envoyé à Alice. Elle pourrait, par exemple, changer la couleur de la vache en rouge et
ainsi détruire l’information cachée ; elle devient alors une gardienne active. Elle pourrait agir
avec malveillance et contrefaire les messages : elle pourrait ainsi envoyer un message à l’un
en se faisant passer pour l’autre.

Ce modèle est applicable dans de nombreuses situations en stéganographie. Alice et Bob


représentent les deux parties de la communication voulant s’échanger une information secrète
de manière invisible. Wendy, la gardienne est attentive ; elle est susceptible de lire les messages
envoyés et capable de les altérer.

Ainsi, en stéganographie, les deux parties doivent prendre en compte la présence d’un
attaquant passif, actif ou malveillant (Figure I.7).

16
Chapitre I : Généralités sur la transmission sécurisée de l’information

I Stégo-médium :
Stégo-médium
n Probablement
s S
médium attaqué : S’
e
Alice r Canal de transmission
message t
i Wendy
o
n Attaques

Clé secrète / public

E
x
Non t
S’ Suspicion r
Bob attaques ? message
a
c
t
oui i
o
Processus n
arrêté

Figure I.7 : Bloc général d’un système stéganographique

I-3-3-2 Classification des schémas stéganographiques

Un schéma stéganographique peut être classé dans une des trois catégories suivantes
selon le contexte dans lequel il se situe :

- La stéganographie simple : il n’y a que l’algorithme qui est choisi au préalable. En


figure I.7, Alice et Bob utilisent le canal pour échanger les informations. Aucune clé
n’est utilisée.

- La stéganographie à clé secrète : l’insertion et l’extraction du message se font avec


la même clé, connue par l’expéditeur (Alice) et le destinataire (Bob).

- La stéganographie à clé publique : même principe que pour la cryptographie, Alice


utilise la clé publique de Bob pour envoyer le message. Bob, de son côté extrait le
message à l’aide de sa clé privée.

17
Chapitre I : Généralités sur la transmission sécurisée de l’information

I-3-3-3 Caractéristiques d’un schéma stéganographique

Deux principes essentiels sur lesquels repose un système stéganographique sont définis
comme suit :

- Le médium numérique peut être altérée jusqu’à un certain degré,


- Le degré d’altération peut être défini par des paramètres subjectifs (basés sur les
sens humains : la vision pour les images, l’ouïe pour le son….etc), mais ces
paramètres ne sont pas suffisamment précis pour discerner les dégradations mineurs
des médiums et changent d’une personne à l’autre. D’où la nécessité de faire
intervenir des paramètres objectifs, basés sur des notions mathématiques et que l’on
définira au chapitre suivant.

I-3-3-4 Contraintes en stéganographie

Les contraintes en stéganographie sont définies par :

- L’indétectabilité statistique (ou imperceptibilité) qui représente la propriété


essentielle de la stéganographie : une personne surveillant le canal de
communication ne doit pas différencier le médium du stégo-médium.

- La capacité doit être élevée puisque le message constitue l’information principale.

- La robustesse, par définition constitue la défense contre les modifications que peut
subir le stégo-médium : généralement, le canal ne modifie pas le stégo-médium et
les besoins en robustesse sont minimes. Par contre, c’est lorsque l’adversaire est
actif que des mesures doivent être prises, soit en terme de robustesse ou pour
contrôler l’intégrité du message afin d’y détecter un éventuel changement. Sinon,
dans ce cas, la meilleure défense est que l’adversaire soit incapable de détecter le
message.

I-3-3-5 Contexte historique de la stéganographie

D’origine grecque, le mot stéganographie (« stego » veut dire secret, graphia : écriture)
est apparu, il y a plus de deux mille ans, Hérodote, l'historien grec, raconte que Xerxès, roi des
Perses, décida d'envahir la Grèce. Lorsque l'offensive fut lancée, les Grecs étaient depuis
longtemps au courant de ses intentions. Démarate, ancien roi de Sparte, réfugié auprès de

18
Chapitre I : Généralités sur la transmission sécurisée de l’information

Xerxès, apprit ses intentions et décida de transmettre l'information à Sparte. Il prit une tablette
double, en gratta la cire, puis écrivit sur le bois même les projets de Xerxès, il recouvra ensuite
de cire son message : ainsi le porteur d'une tablette vierge ne risquait pas d'ennuis.

Un autre exemple de dissimulation d'information est celui de Histiée qui incite son
gendre Aristagoras, gouverneur de Milet, à se révolter contre son roi, Darius. Pour passer son
message, Histiée fit raser la tête d'un esclave, et tatoua son message sur le crâne et attendit que
les cheveux repoussent et envoya l'esclave à Milet.

Dans les années 80, Margaret Thatcher, premier ministre britannique, soupçonna
certains de ses ministres de transmettre des informations à la presse. Pour identifier le coupable,
elle exigea que tous les documents de son cabinet aient un espacement entre les mots spécifiques
pour chaque ministère afin d'identifier la source de la fuite des informations.

I-3-4 LE FINGERPRINTING (L’EMPREINTE)

Cette technique cherche à permettre la détection des copies illégales d'un stégo-médium.
Chaque utilisateur authentifié reçoit sa propre copie du médium qui contient une empreinte
l'identifiant. Ainsi, lorsqu'une copie illégale est découverte, la lecture de l'empreinte indique la
source de la fuite. Aussi, chaque copie du médium contient une information différente, relative
à son utilisateur, rendant alors chaque stégo-médium différent.

Les critères d’efficacité de la technique du fingerprinting sont à peu près identiques à


ceux du tatouage pour l'imperceptibilité et la robustesse (pour ce dernier critère, les raisons
diffèrent : on ne souhaite pas voir un utilisateur distribuer sa propre copie... avec l'empreinte de
quelqu'un d'autre insérée). En revanche, comme pour la stéganographie, la capacité est
importante car un médium doit contenir une empreinte spécifique à un utilisateur. Dans ces
conditions, il n'est pas réaliste de se contenter, comme en tatouage, d'une réponse binaire sur la
présence d'une empreinte dans un stégo-médium car il faudrait alors tester toutes les empreintes
pour un stégo-médium. Ainsi, tout comme en stéganographie, l'extraction de l'empreinte est
indispensable [Cayre, 2008].

19
Chapitre I : Généralités sur la transmission sécurisée de l’information

I-3-5 LE TATOUAGE

Alors que la cryptographie et la stéganographie sont destinées à transmettre une


information à caractère confidentiel pour répondre à des problèmes de sécurité, le tatouage (en
anglais « watermarking ») consiste à insérer des données numériques représentant une marque
ou une signature dans un médium et ceci, par modification imperceptible et robuste d’un
ensemble de données numériques du médium. Ce médium peut être de nature diverse comme
un message sonore, un texte, des images fixes ou de la vidéo, des programmes informatiques,
… etc. C’est donc aussi une technique de communication : le signal du médium va être modulé
par le message de tatouage. L’information du tatouage présente donc la particularité d’être
étroitement liée aux données du médium.

I-3-5-1 Le tatouage versus stéganographie

Comme tout système de communication, le système de tatouage se compose de trois


éléments principaux : un émetteur, un canal de transmission et un récepteur (Figure I.8).

Clé secrète Clé secrète

Message
Médium Emetteur Récepteur
Canal de transmission extrait
(Insertion) (Extraction)

Message
Figure I.8 : Bloc général d’un système de Tatouage [Cayre, 2008]

L’émetteur représente le processus d’insertion de la marque dans le médium, le canal de


transmission représente le traitement que peut subir le médium contenant le message (appelé
aussi médium tatoué) et le processus de détection de la marque est défini comme l’élément
récepteur.

La définition du tatouage le rapproche en fait beaucoup plus de la stéganographie que


de la cryptographie. Cependant, il faut garder à l’esprit les différences essentielles entre les
deux. Alors que l’objectif de la stéganographie est de rendre la communication furtive, la
technique du tatouage se base sur la robustesse des données cachées, par exemple dans les
contextes de protection de droit d'auteur, ou bien encore lorsque l'on cherche à détecter
d'éventuelles modifications dans le document.

20
Chapitre I : Généralités sur la transmission sécurisée de l’information

L’application ‘tatouage’ est parfois considérée comme descendant de la stéganographie.


Cependant la contrainte d’imperceptibilité y est bien moins forte. C’est pourquoi, dans la
plupart des cas, cette notion de tatouage est placée au même niveau que la stéganographie et
tous les deux sont considérés comme des cas particuliers de la dissimulation d’information.

Dans le cas du tatouage, le médium n’est pas anodin, il a une valeur (marchande,
médicale, ...) qu'il faut protéger. En général, on fait en sorte que le tatouage ne perturbe pas
l'utilisation normale du document. Par ailleurs, tous les utilisateurs qui vont accéder au
document en auront la même version.

La stéganographie et le tatouage peuvent paraître semblables car ils ont la même


exigence d’indiscernabilité (de l’existence du message) ; pourtant, leur différence est
fondamentale : la stéganographie recherche une indiscernabilité statistique, alors que le
tatouage recherche une indiscernabilité perceptuelle. Soulignons encore deux autres points
communs entre la stéganographie et le tatouage. D’abord, ces deux disciplines recouvrent un
procédé numérique, et vont devoir s’adapter au médium auquel on les applique. C’est ce que
l’on appelle tirer parti de l’information adjacente. Ainsi, en tatouage comme en stéganographie,
on tirera beaucoup d’avantages à se servir de l’information du médium qui servira de canal de
transmission pour le tatouage.

Notre travail s’inscrit clairement dans cette approche. Le médium est une image fixe
dont on étudiera les caractéristiques pour pouvoir extraire les informations nécessaires afin d’y
insérer un tatouage robuste, imperceptible et sécurisé. Le but étant d’offrir une solution pour
renforcer la protection des droits d’auteurs ou le copyright. Aussi, dans la suite de cette partie,
nous nous limiterons à donner un bref historique sur le tatouage. Les détails du processus du
tatouage seront largement développés dans les chapitres suivants.

I-3-5-2 Bref historique du tatouage

L'art du tatouage a été inventé en Chine depuis plus de mille ans pour tatouer le papier
(papermarking), mais le plus ancien papier marqué archivé date de 1292 et son origine est la
ville Fabriano en Italie. Le but principal des premiers tatouages est incertain, mais ils ont été
utilisés pour des fonctionnalités pratiques telles que l'identification de l'origine de fabrication
du papier ou pour l'identification du fabricant. Au 18ième siècle, le tatouage fut utilisé en
Europe et en Amérique, initialement pour identifier un fabricant ou une usine de papeterie. Il a
servi par la suite à indiquer le format et la qualité du papier, et aussi comme base

21
Chapitre I : Généralités sur la transmission sécurisée de l’information

d'authentification du papier et une mesure anti-contrefaçon pour la monnaie et autres


documents.

Citons aussi l’exemple de la protection des droits, propre au tatouage : lorsque J.S.
Bach compose son « Art de la fugue », il se sert d’une tonalité en La-Mibémol-Do-Si, qui se
lit, en notation musicale germanique, B.A.C.H. De manière non immédiatement discernable,
on cache l’identité d’un ayant-droit.

Le terme watermark semble avoir été inventé vers la fin du 18ieme siècle. Il est difficile de
déterminer quand le tatouage numérique a été introduit pour la première fois, mais le premier
article utilisant le terme Digital Watermark semble être celui de Komatsu et Tominaga (1988)
[Swanson et al., 1996].

A partir de 1995, la véritable explosion du watermarking s’est produite avec l’explosion


des connexions Internet, et du libre-échange des fichiers. De ce fait, certains grands studios de
productions cinématographiques américains l’utilisent, non pas pour les DVD grands publics,
mais pour les screeners (copies de films sur DVD destinées aux critiques) qui sont diffusés aux
journalistes avant la sortie d’un film. S’ils revendent le DVD, ou s’ils le diffusent en DIVX, ils
courront alors le risque que leurs "empreintes digitales" inscrites en filigrane ne les démasquent.
Le principal problème dans le développement du "watermarking" est donc sa robustesse face
aux attaques (compression du média, filtrage, etc.), or il y a à peine quelques années, il était
loin de satisfaire ces dures exigences, mais les progrès récents effectués utilisant des
mathématiques de haut niveau permettent une lutte équilibrée avec les pirates.

En conclusion, cette science, si on peut la nommer ainsi, est en pleine explosion


actuellement, et cela risque de continuer longtemps, du moins tant que des données pourront
être copiées et échangées impunément.

Malgré la différence des objectifs des trois variantes de la dissimulation de


l’information, elles n’en requièrent pas moins de paramètres communs :

- Chaque approche nécessite des données à insérer, qu’elles soient sous forme d’un
message, d’un tatouage ou d’une empreinte ;
- Ces données sont dissimulées dans un support, le médium, qui possède ou non de
l’importance, selon le schéma : aucune pour la stéganographie, capitale pour le
tatouage et le fingerprinting ;

22
Chapitre I : Généralités sur la transmission sécurisée de l’information

- La robustesse des trois approches est nécessaire dans la plupart des applications à
l’exception du contrôle d’intégrité. Les données insérées dans le médium doivent
donc en général être capables de résister aux différentes attaques, volontaires ou non.
- La quantité de données à insérer, communément appelée capacité, dépend des
approches : en stéganographie et en fingerprinting, autant que possible, par contre
en tatouage, très peu de données suffisent à marquer le médium.
- L’imperceptibilité requiert une importance pour les trois approches.

Le tableau I.1 résume les points communs et les différences entre le tryptique de
dissimulation de l’information.

Données Médium Imperceptibilité Robustesse Capacité

Message à Sans Autant que


Stéganographie Importante Important possible
transmettre importance
e
Marque dépendant Dont les Importante sauf Importante
Tatouage du médium ou du droits sont pour les marques sauf pour Très peu
propriétaire à protéger visibles l’intégrité

Empreinte Dont on
Importante Autant que
Fingerprinting souhaite
dépendant du Importante possible
médium/ou prévenir la
propriétaire diffusion
illégale
Tableau I.1 : Récapitulatif des caractéristiques et contraintes du tryptique de dissimulation d’information

I-4 CONCLUSION
Dans ce chapitre ont été présentées les différentes méthodes de sécurisation du transfert
d’information, tels que le cryptage, la stéganographie et le tatouage en tentant de comparer les
caractéristiques et les contraintes de chacune d’elles.

Pour chaque méthode, nous avons présenté leur principe de fonctionnement, afin de
permettre au lecteur de s’imprégner des techniques qui sont utilisées dans le domaine de la
sécurisation de l’information en général et de l’image en particulier.

Du fait que le contexte principal de ce travail de recherche est le tatouage numérique de


l’image au service de la sécurisation de la transmission de l’information, le prochain chapitre
s’étale sur un état de l’art sur les fondamentaux du tatouage numérique de l’image.

23
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

CHAPITRE II : LES FONDAMENTAUX DE LA THEORIE DU


TATOUAGE NUMERIQUE DE L’IMAGE : ETAT DE L’ART

24
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

II-1 INTRODUCTION
Le tatouage numérique, (Digital Watermarking) doit son développement à la transition
actuelle vers le tout numérique. Grâce -ou à cause- des technologies numériques, il est possible
de réaliser des copies parfaites des contenus. La redistribution est ainsi devenue aisée et le
traçage des redistributions difficile. La nécessité de protection de l’information numérique est
apparue donc avec le développement des communications à grande échelle des différents
standards de télécommunications. Quand il s’agit de l’information numérique, il est très difficile
de faire une distinction claire entre l’originale et les copies, ou de dépister les modifications
malveillantes subies par les données informatives. La voie est ouverte pour la violation du droit
d’auteur ou les modifications malicieuses. Dans ce contexte, la technique de tatouage
numérique représente une technologie qui peut être utilisée afin de résoudre les conflits de droit
d'auteur ou de tester l'intégrité et l'authenticité du contenu numérique des multimédias. Afin
d’être efficace, un tatouage numérique consiste à rajouter, sur un média (image, son ou vidéo),
une marque (souvent appelée filigrane), qui doit être imperceptible pour ne pas détériorer le
média concerné, robuste pour pouvoir être détectée même après traitement et modification du
média, qu’elle soit involontaire ou résultant d’une attaque.

Les méthodes de tatouage sont de plus en plus nombreuses. Néanmoins, il est difficile de
les comparer et de trouver celle adaptée aux besoins dans la mesure où les travaux présentés
dans la littérature sont très souvent différents. En effet, tant les médiums employés que les
transformations qu’ils subissent changent d’une étude à l’autre.

Comme nous l’avons précisé dans le chapitre précédent, notre travail rentre dans le cadre
de la protection et de la sécurisation de la transmission de l’information représentée par des
images fixes de différentes natures, utilisées comme médium.

Aussi, dans ce chapitre, relatant un état de l’art des techniques de tatouage, nous
présenterons, en premier, les applications les plus importantes de l’utilisation du tatouage puis
nous détaillerons les principes, les caractéristiques et les applications du tatouage qui ont été
brièvement données dans le chapitre précédent. Nous appuierons le choix du schéma de
tatouage adapté à nos exigences telles que décrites dans l’introduction générale, en fonction des
caractéristiques du médium.

25
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

II-2 APPLICATIONS DU TATOUAGE NUMERIQUE


Le terme de « tatouage » regroupe un ensemble de techniques qui n’ont pas toutes les mêmes
objectifs et ne visent pas le même type d’applications. La plus grande partie des applications de
cette technologie est reliée à des applications de sécurité des données de médias audio et visuels.
En premier lieu, le tatouage a été développé comme outil pour la protection des droits d’auteur
mais rapidement d’autres applications sont apparues telles que le contrôle de l’intégrité des
données par tatouage fragile ou semi fragile, le contrôle de copies, l’authentification des
données [Nguyen, 2003],…

- Protection des documents : Le tatouage offre une alternative intéressante à la


cryptographie, car il permet de protéger un document, en l’occurrence une image,
même lorsque celle-ci est diffusée. La protection de l’image représente l’application
la plus courante aujourd’hui. Par protection de l’image, on entend soit la protection
du droit d’auteur (copyright), soit la protection de la copie. Le point commun de ces
deux applications est la nécessité de mettre en œuvre une marque très résistante à
différentes manipulations appelées communément attaques. Dans le cas du
copyright, la marque représente une signature, un identifiant relatif à l’ayant-droit
de l’image. De ce fait, l’insertion de la marque dans l’image doit, d’une part,
dépendre d’une clé secrète qui permet son insertion et sa détection et, d’autre part,
être très robuste. La notion de robustesse dans ce contexte signifie que la marque ne
peut disparaître que dans le cas d’attaques très sévères, ce qui empêche toute
utilisation de l’image du fait de la perte de sa qualité due à ce type d’attaques. C’est
dans ce contexte que notre travail s’inscrit. Le but est donc d’atteindre un niveau de
robustesse très appréciable par rapport aux travaux actuels.
Par protection de la copie, on entend le contrôle du nombre de copies autorisé. Dans
ce contexte, un document numérique peut être dupliqué sans subir de détérioration
de qualité, et de ce fait peut être reproduit un nombre illimité de fois avec la même
qualité que l’original. Le tatouage permet de faire face à ce problème en encryptant,
dans la marque à insérer dans le document, des informations relatives au nombre de
copies autorisées [Mathon, 2011].
Pour ces deux applications, le tatouage doit être invisible, la marque doit être robuste
mais la capacité du tatouage varie de moyenne pour le copyright à faible pour la
protection de la copie.

26
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

- Authentification du contenu d'une image : L'idée de base de cette application


consiste à contrôler une modification éventuelle de l’image. Une manière d’y
parvenir est d’insérer une marque fragile dans l’image qui sert à alerter l'utilisateur
de sa modification par une personne non autorisée. L’objectif de la fragilité de la
marque est que cette dernière disparaît à la moindre modification. Si la marque
fragile a disparu, le média n’est plus sûr et on évitera de l’utiliser. Cette application
est généralement utilisée dans le domaine juridique et médical [Macq, 2000].
- Intégrité de l’image : Si l’on désire obtenir plus d’informations sur les modifications
éventuelles subies par l’image, par rapport à l’application d’authentification, on
aborde alors le problème d’intégration. Dans ce cas, la marque à cacher de manière
fragile est en rapport avec l’image dans le sens ou la marque sera constituée
d’informations générales sur l’image elle-même, ce qui permet alors de localiser
précisément les régions manipulées. Lorsqu’il est nécessaire de protéger à la fois le
contenu et les droits, on cherchera à insérer deux tatouages dans le document, l’un
robuste et l’autre fragile.

II-3 PRINCIPE DU TATOUAGE NUMERIQUE


Comme mentionné dans le chapitre précédent, Le tatouage numérique consiste à insérer une
marque invisible (ou dans certains cas visible), appelée aussi signature ou tatouage, dans une
image ou d'autres documents numériques, pour divers buts tel que la lutte contre la fraude, le
piratage informatique et la protection des droits d'auteur. La marque insérée est essentiellement
une séquence aléatoire, un logo binaire ou une image à niveaux de gris : elle doit être connue
uniquement du propriétaire ou du diffuseur. L'insertion de la marque est effectuée en général
dans le domaine spatial ou le domaine fréquentiel. La marque insérée doit cependant respecter
deux contraintes fondamentales : l'imperceptibilité et l'indélébilité. L'imperceptibilité signifie
que la déformation de l'image doit être suffisamment faible pour que l'utilisateur ne puisse
distinguer la différence entre l'image tatouée et l'image originale. L'indélébilité signifie que la
marque insérée ne peut être effacée après diverses attaques, bienveillantes ou malveillantes.
Cette deuxième contrainte entraîne l'aspect de robustesse, qui est avec la capacité et
l'imperceptibilité, une importante contrainte pour la conception d'un algorithme de tatouage
numérique performant.

27
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

Ces trois critères sont contradictoires : il est difficile de concevoir un système de tatouage
numérique qui insère une grande quantité d'information (i.e. grande capacité) et soit aussi très
robuste. Cela veut dire que si on veut un tatouage numérique plus robuste, cela aura en
contrepartie pour effet de rendre ce dernier également plus visible. De la même manière, si l'on
veut augmenter la quantité d'information à insérer, on aura, en contrepartie, diminué la
robustesse et l'imperceptibilité.

Le but des travaux relatifs au tatouage est de trouver le meilleur compromis possible
entre ces trois paramètres en fonction de l'application envisagée. Ces paramètres, pour la
technique du tatouage, ont été brièvement définis dans le chapitre précédent et sont détaillés
dans cette section.

- Capacité : Comme défini dans le chapitre précédent, la capacité représente la


quantité d'informations que l'on veut insérer dans une image. Ce paramètre varie
selon l'application. En général, quelques bits suffisent pour la protection du droit
d'auteurs à l'aide d'un identifiant, mais pas pour insérer un logo, une image. En
revanche, il est nécessaire de cacher plusieurs bits d'information pour permettre le
copyright et /ou l'authentification des images.
- Imperceptibilité : Le tatouage est vu comme un bruit, une perturbation, que l’on
ajoute au médium. Ce bruit doit être imperceptible. Pour cela, on jouera tant sur sa
puissance que sur les faiblesses du système perceptuel humain. Le tatouage
numérique va certainement introduire des distorsions. Cette contrainte exige que
lesdites distorsions soient les plus faibles possibles afin que visuellement l'image
tatouée reste fidèle à l'image originale. Pour ce faire, la qualité de l'image tatouée
peut être évaluée par rapport à l'image originale, soit à l'aide d'outils mathématiques
(appelés méthodes objectives) tels l’erreur quadratique moyenne entre ces deux
images, le rapport signal sur bruit de crête (Peak Signal Noise Ratio, PSNR), la
similitude structurale (Structural SIMilarity, SSIM), soit à l’aide de méthodes
subjectives basées sur les caractéristiques du système visuel humain, ou parfois
faisant appel aux deux méthodes. Le critère d'imperceptibilité est une propriété liée
uniquement au tatouage numérique invisible.
- Robustesse : Elle représente le pouvoir de récupérer la marque insérée même si
l'image tatouée a été manipulée par des attaques. Initialement, on se contentait de
savoir si la technique de tatouage utilisée était apte à résister à certains types de

28
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

manipulations. Aussi, il suffisait d’altérer l’image tatouée et de vérifier si la marque


était toujours présente et/ou avait subi peu ou pas de distorsions. Les études faites
dans ce sens ne prenaient pas en compte le caractère malicieux de l’attaque, ni les
moyens et la détermination de l’attaquant à vouloir détruire la marque ou la
remplacer. A cet effet, la notion de sécurité est apparue.
- Sécurité : L’exigence première d’un tatouage sécurisé est qu’il ne doit pas autoriser
une personne non initiée à accéder à la marque. Cet accès constitue la possibilité
d’insérer, de modifier, de copier, de lire et de détecter cette marque. La sécurité est
testée par des attaques bien précises et est ciblée sur l’algorithme utilisé. Les
concepts de robustesse et de sécurité sont voisins [Pérez-Freire et al., 2006].
Généralement, on considère que la sécurité comprend la robustesse de la technique
utilisée et sa réponse aux attaques malicieuses dites intentionnelles. Plusieurs
travaux œuvrent à définir les différences entre robustesse et sécurité et ceci en
étudiant toutes les catégories possible d’attaques auxquelles peuvent faire face les
techniques de tatouage et en clarifiant les classes d’attaques, donnant ainsi de la
consistance à la notion de sécurité [Guyeux, 2010]. Les travaux de [Kalker, 2001]
ont tenté de clarifier les concepts de robustesse et de sécurité et ceux de [Furon,
2002] ont transposés le principe de Kerchoff de la cryptographie (voir chapitre I) au
tatouage d’image en utilisant la notion de clé pour sécuriser la technique de tatouage.
- Clé de tatouage : Les mécanismes de protection contre l’accès à la marque peuvent
être résolus par différentes techniques comme l’utilisation de clés. Tout comme pour
la cryptographie et la stéganographie, la majorité des algorithmes de tatouage
utilisent une clé cryptographique. Dans un tel système, la méthode d’insertion de la
marque dépend de cette clé, qui sera utilisée lors de la phase d’extraction (clé
secrète).
- Fausse alarme et Coût algorithmique : La fausse alarme représente la détection d’une
marque dans une image alors que celle-ci n’en contient pas, ou que l’image a été
attaquée de sorte que la marque aura été remplacée par celle de l’attaquant. Plusieurs
travaux se basent sur cette contrainte pour appuyer le fait que des algorithmes
supposés robustes sont vulnérables à cette contrainte [Loukhaoukha, 2010], [Roy et
al, 2017]. Le coût algorithmique ou coût de calcul, est une contrainte importante
dans certaines applications essentiellement pour le contrôle de la diffusion qui exige
des algorithmes de tatouage en temps réel.

29
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

II-4 ETAPES D’UN SCHEMA DE TATOUAGE


Les schémas de tatouage sont très variés et semblent être différents les uns des autres mais
s’appuient tous sur un même principe qui se traduit par trois phases importantes : la phase
d’insertion de la marque, la phase de diffusion et la phase d’extraction [Tyagi et al., 2016]. Ces
trois phases s’appliquent en général sur un seul espace choisi selon le contexte et l’objectif visé
par le schéma en question (figure II.1).
Attaques

Clé secrète Clé secrète

Phase d’insertion Diffusion Phase d’extraction

Image originale Image tatouée


Image originale
Marque estimée

Marque

Figure II.1 : Schéma général d’insertion, de diffusion et d’extraction de la marque

- La phase d’insertion : C’est l’étape fondamentale dans un schéma de tatouage. Elle


détermine la robustesse et l’imperceptibilité du schéma adopté. Dans le cas général,
elle s’exprime par la relation suivante :
Iw = f (E(I), W(b0, b1, ….bk, bn)) (II.1)
où Iw est l’image marquée, I: image à tatouer, w : marque ou signature à insérer qui
dépend généralement d’une clé secrète, E(I) : espace ou domaine d’insertion et bk,
les bits de la marque
Le modèle général de la phase d’insertion se décompose en plusieurs étapes :
l’image est transformée dans le domaine désiré d’insertion et les composantes
résultantes de cette transformation, qui reçoivent la signature ou la marque en sont
extraites (il s’agit de pixels dans le domaine spatial ou de coefficients dans le
domaine transformé ‘connu sous le nom fréquentiel’). Dans certains cas, ces
composantes seront réordonnées en utilisant une clé secrète K dans le but de
brouiller le domaine d’insertion. Généralement la signature est une séquence
aléatoire et la marque, une image, un texte … etc. L’une ou l’autre est ajoutée aux
composantes sélectionnées de l’image selon le principe d’insertion appropriée
(additif ou substitutif). L’image marquée est alors reconstruite avec les composantes
sélectionnées et modifiées.

30
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

- La phase de diffusion : Pendant la phase de diffusion de l’image tatouée, plusieurs


modifications peuvent l’affecter. Ce sont les attaques que va subir l’image tatouée
et auxquelles la marque doit résister. Certaines attaques dites innocentes, ne visent
pas à enlever ou à substituer la marque mais plutôt à adapter l’image à son utilisation.
Les autres attaques, dites malveillantes, ont pour but d’enlever la marque ou de la
désynchroniser intentionnellement afin d’empêcher sa diffusion.
- La phase de détection : Cette phase permet de vérifier ou d’attester que la marque
insérée est bien présente et si c’est bien la marque d’origine. Pour ce faire, il existe
différents schémas : on peut avoir recours à l’image d’origine, on parle alors de
détection non aveugle (ou schéma informé) ; si l’image d’origine n’est pas utilisée,
la détection est dite aveugle (schéma non informé). C’est le résultat de cette phase
qui permet de justifier la robustesse et l’efficacité de la méthode. Le processus de la
phase de détection est à l’inverse de celui de la phase d’insertion. L’image tatouée
est transformée dans le même domaine que celui de l’insertion pour extraire les
composantes tatouées de l’image à l’aide de la clé secrète. Dans certains schémas,
le principe de la clé peut ne pas être utilisé. Aussi, dans le cas d’une détection non
aveugle, les composantes modifiées sont extraites par l’opération de soustraction de
l’image tatouée et de l’image originale (voir section II-7-2) et la marque en est
extraite ; dans le cas d’une détection aveugle, la marque est extraite en recherchant
les lois d’insertion.

II-5 CLASSIFICATION DES SCHEMAS DE TATOUAGE


La figure II.2 résume les techniques de tatouage numérique d’images que l’on peut
rencontrer en littérature [Loukhaoukha, 2010]. Elles sont classées selon leur domaine
d’insertion, leurs méthodes d’insertion et d’extraction et suivant les critères suscités.

II-5-1 CHOIX DU DOMAINE D’INSERTION

Les méthodes ou schémas de tatouage numérique sur des images sont communément
classés par domaine d’insertion. Le domaine d’insertion est une représentation de l’image à
tatouer que l’on modifie afin qu’elle porte la marque désirée. Il y a donc autant de domaines
d’insertion que de systèmes de représentation des images. Généralement, on en distingue trois :
le domaine spatial, le domaine fréquentiel et le domaine multi-résolution. Cependant, un autre

31
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

critère de séparation existe en fonction de la manière dont est inséré le tatouage : soit il est
ajouté au médium (appelé méthode additive), soit il en remplace certains coefficients (méthode
substitutive).

Figure II.2 : Organigramme de la classification des techniques de tatouage [Loukhaoukha, 2010]

II-5-1-1 Le domaine spatial

Il correspond à l’espace « naturel » de représentation d’images (formats pgm, bmp,


….etc.). Dans les méthodes de tatouage spatial, l'écriture du message est effectuée directement
dans le plan de l'image, généralement par modification de la luminance (valeurs) des pixels.
Comme aucun traitement initial n’est requis, ces algorithmes sont très rapides et permettent de
travailler en temps réel. De plus, ces méthodes offrent souvent une bonne résistance aux
opérations géométriques.

Parmi ces méthodes, on cite entre autres :

- La méthode du bit le moins significatif LSB (Least Significant Bit) est la première
technique du tatouage [Tanaka, 1990] dans le domaine spatial. Son principe est d’insérer
chaque bit de la marque dans le bit de poids le plus faible de chaque pixel de l’image
originale à niveaux de gris. Cette méthode permet d’insérer des marques de grande taille
au détriment d’une très faible robustesse. Plusieurs travaux se sont basés sur cette

32
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

méthode et pour remédier à sa faible robustesse, d’autres plans de bits ont été utilisés.
[Zeki, 2009] a fait une étude comparative sur l’insertion de la marque sur plusieurs plans
de bits, du bit le plus faible b0 jusqu’au bit le plus fort b7. Les résultats de cette étude
montrent que le bit b3 représentait le meilleur bit pour l’insertion de la marque puisque
l’algorithme était robuste contre plusieurs types d’attaques comme la compression
JPEG, le filtrage gaussien, l’ajout de bruit.

- Le schéma du Patchwork, proposé en premier par [Bender et al., 1996] puis amélioré
par [Pitas, 1995] : le principe est basé sur la sélection aléatoire, grâce à une clé secrète
appartenant à l’utilisateur, de n paires de pixels disjoints (ai, bi). La modification de ces
paires de pixels se fait da la manière suivante :
𝑎̅𝑖 = 𝑎𝑖 +1 et 𝑏̅𝑖 = 𝑏𝑖 -1 (II.2)

Pour récupérer la marque, lors de la phase de détection, les n paires sont à nouveau
sélectionnés grâce à la clé secrète et la somme S = ∑𝑛𝑖=1 ̅̅̅̅ ̅̅̅̅
(𝑎𝑖 − 𝑏 𝑖 ) est calculée. La valeur de

la moyenne E(S) déterminera la présence de la marque si elle est égale à 2n, et l’absence de
la marque pour une moyenne égale à 0. Cette méthode permet d’enfouir un nombre de bits
égal aux nombres de paires sélectionnées. Elle est à réponse binaire à la question si une
personne est en possession de l’information secrète ayant permis de générer le tatouage. En
aucun cas, cette méthode ne cherche à extraire le tatouage. Cette méthode n’est pas très
robuste, mais elle a permis, grâce à différentes extensions de son algorithme, d’accroître la
résistance du système à des opérations de filtrage sur l’image en considérant non plus des
couples de pixels mais des couples de blocs de pixels. [Pitas, 1995], [Langelaar, 1997].

- Pour les images en couleur (RGB), [Kutter, 1997] a utilisé la modulation d’amplitude
de la chrominance. Cette méthode consiste à modifier la composante bleue du signal de
chrominance en fonction de la signature à insérer. Ce choix de la composante bleue est
motivé, selon les auteurs, par une moindre sensibilité de l’œil humain dans les longueurs
d’onde proches du bleu.
- La méthode par étalement de spectre ES (spread spectrum SS) : cette technique proposée
par [Hartung et al., 1999] a été utilisée dans plusieurs schémas de tatouage. Elle se base
sur un pseudo pré-formatage de la donnée à insérer dans l’image en l’ « étalant » au
niveau de la taille de l’image. Elle génère ensuite une clé secrète aléatoire de la taille de
la donnée pré-formatée, puis applique un opérateur binaire « XOR » de cette clé et de la

33
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

donnée étalée (Figure II.3). Il suffit alors d’ajouter le résultat obtenu (la marque à
insérer) à l’image pour obtenir une image marquée.
Donnée à cacher
originale

Donnée étalée

XOR

Clé aléatoire

Marque à insérer

(a)

Clé aléatoire

Donnée retrouvée
(étalée)

(b)

Figure II.3 : Méthode de Tatouage par Etalement de Spectre. a) Pré-formatage de la marque avant la phase
d’insertion ; b) Récupération de la donnée sous forme étalée pendant la phase d’extraction

Ces méthodes sont parmi les plus anciennes et les plus simples. Leur avantage est
qu'elles permettent une écriture du tatouage généralement plus rapide ne nécessitant pas de
transformations coûteuses comme c'est le cas par exemple pour les méthodes basées sur les
transformations fréquentielles de l’image. Elles sont, cependant, moins robustes aux techniques
de compression.

II-5-1-2 Le domaine fréquentiel

L’intérêt des schémas de tatouage s’est ensuite porté vers le domaine fréquentiel dans
lequel sont représentées les images après leur transformation par des techniques telles la
Transformée de Fourier Discrète (TFD ou DFT) et la Transformée en Cosinus Discrète (TCD
ou DCT). Ce domaine permet une analyse plus fine de l’image et offre une représentation plus
adéquate au tatouage numérique. Les techniques de transformation sont fréquemment utilisées

34
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

dans les normes de compression telles JPEG, MPEG2, ce qui leur attribue une certaine
robustesse contre la compression.

II-5-1-2.1 Transformation en Cosinus Discrète TCD (Discret Cosinus Transform DCT)

La DCT permet la transformation d’une représentation de l’image dans le domaine


spatial vers sa représentation dans le domaine fréquentiel. Pour cela, L’image est décomposée
en des blocs de taille fixe, généralement de 8*8 pixels et sur chaque bloc est appliquée la DCT
donnée par la relation (II.3). La Transformée en cosinus discrète transforme les valeurs du bloc
en une moyenne sur tout le bloc et en des coefficients de détails qui indiquent la variation de
chaque pixel par rapport à la valeur moyenne du bloc.
2 (2𝑥+1)𝑢𝜋 (2𝑦+1)𝑣𝜋
𝐹(𝑢, 𝑣) = 𝐶(𝑢)𝐶(𝑣) ∑𝑀−1 𝑁−1
𝑥=0 ∑𝑦=0 𝐼(𝑥, 𝑦) × cos( ) × cos( )
√𝑀×𝑁 2𝑀 2𝑁

(II.3.1)

avec M×N : La taille de l’image, et C(u), C(v) : Les facteurs d’orthogonalité de la transformée
avec :
1
𝑝𝑜𝑢𝑟 𝑢 (𝑜𝑢 𝑣) = 0
C(u) (ou C(v)) = {√2 (II.3.2)
1 𝑠𝑖𝑛𝑜𝑛

𝐼(𝑥, 𝑦) : La valeur du pixel de l’image à transformer à la position (x,y).

𝐹(𝑢, 𝑣) : le coefficient de la transformée aux fréquences (u,v) correspondantes aux positions


(x,y).

Les plus grandes amplitudes des coefficients du bloc transformé correspondent aux
basses fréquences FL et les petites amplitudes, aux hautes fréquences FH (coefficients de
détails). Les valeurs intermédiaires correspondent aux moyennes fréquences FM (figure II.4)

Figure II.4 : Répartition fréquentielle de la DCT sur un bloc 8*8

35
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

Le signal d’origine peut être retrouvé à l’identique en appliquant la transformée inverse


donnée par la relation (II.4). Cette transformation est dite sans pertes.
2 (2𝑥+1)𝑢𝜋 (2𝑦+1)𝑣𝜋
𝐼(𝑥, 𝑦) = ∑𝑀−1 𝑁−1
𝑢=0 ∑𝑣=0 𝐹(𝑢, 𝑣)𝐶(𝑢)𝐶(𝑣)cos( ) × cos( ) (II.4)
√𝑀×𝑁 2𝑀 2𝑁

- Tatouage basé sur la DCT

[Koch et al,. 1995] ont développé le premier algorithme de tatouage basé sur la DCT :
Un bloc parmi les 64 blocs (8x8) est sélectionné et une paire de coefficients est choisie pour y
insérer un bit. Selon la valeur du bit à insérer, les coefficients sont modifiés de façon à ce que
la différence entre eux soit positive ou négative. Le choix du bloc et de la paire se fait
aléatoirement. L’insertion se fait dans le bloc et sur la paire de coefficients de moyennes
fréquences, sachant que la modification des basses fréquences correspondant aux zones
homogènes les plus grandes sur l’image, est visible. Les hautes fréquences, correspondant aux
plus petites zones homogènes, sont supprimées par la compression JPEG. Et de ce fait, la
plupart des algorithmes de tatouage dans la DCT se basent sur les coefficients de moyennes
fréquences [Joshi et al., 1995]. D’après les résultats expérimentaux, il en ressort que ce schéma
est robuste contre la compression JPEG avec un facteur de qualité de plus de 50%.

Il est à noter que cet algorithme est à la base même du tatouage dans le domaine de la
DCT ; Afin de pallier les problèmes rencontrés, tels le compromis robustesse versus
imperceptibilité, cet algorithme a subi de nombreuses modifications, pour engendrer de
nombreux algorithmes bien plus performants.
Dans [Cox & al., 1997], les auteurs présentent un schéma de tatouage non aveugle. La
DCT est appliquée à l’image globale et les coefficients de basses fréquences, donc ayant les
plus grandes amplitudes, sont modifiés suivant l’une des relations suivantes.

𝑌𝑖 = 𝑋𝑖 +α𝑊𝑖         
𝑌𝑖 = 𝑋𝑖 (1 + α𝑊𝑖 )        
𝑌𝑖 = 𝑋𝑖 𝑒 𝛼𝑊𝑖          

𝑌𝑖 ∶ 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡 𝐷𝐶𝑇 𝑑𝑒 𝑙 ′ 𝑖𝑚𝑎𝑔𝑒 𝑚𝑎𝑟𝑞𝑢é𝑒
𝑋𝑖 ∶ 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡 𝐷𝐶𝑇 𝑑𝑒 𝑙 ′ 𝑖𝑚𝑎𝑔𝑒 𝑜𝑟𝑖𝑔𝑖𝑛𝑎𝑙𝑒
α ∶ 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡 𝑑′𝑖𝑛𝑣𝑖𝑠𝑖𝑏𝑖𝑙𝑖𝑡é (0<α <1)

36
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

La marque à insérer est une séquence pseudo aléatoire W= {W1,….Wn}, générée à partir
d’une distribution gaussienne de moyenne nulle et de variance unitaire.
Cet algorithme utilise le principe de l’étalement de spectre dans le domaine fréquentiel.

Les tests de robustesse montrent que le schéma résiste à la compression JPEG avec un
facteur de qualité supérieur à 5%, au recadrage et au recadrage suivi d’une compression [avec
un facteur de qualité de 10%].

Le calcul de la DCT sur toute l’image est très couteux en temps de calcul. Pour cela,
[Suhail et al., 2003] travaillent sur l’image préalablement découpée en blocs. Le message,
constitué d’une séquence pseudo aléatoire est inséré dans les moyennes fréquences de chaque
bloc. Le choix d’utiliser des blocs de l’image donne un meilleur compromis entre qualité de
l’image tatouée et temps de calcul. Les résultats obtenus par cette méthode montrent une nette
amélioration de l’ensemble des caractéristiques comparées aux résultats de [Cox et al., 1997].

[Pai et al., 2007] ont proposé un schéma qui utilise la relation entre les coefficients de
hautes fréquences et les blocs voisins pour insérer le plus d’informations sans causer de
distorsions visibles à l’image. D’après les résultats obtenus, ce schéma présente une robustesse
à la compression JPEG, au recadrage et à l’ajustement de la luminosité.

Les algorithmes, basés sur la DCT, ne sont pas très résistants aux transformations
géométriques comme la translation, la rotation. Ceci est dû au fait que les coefficients de la
DCT en sont grandement affectés ; ce qui a conduit à l’utilisation d’un autre domaine
d’insertion de la marque qui résiste à ce type de transformations, en l’occurrence la
transformation de Fourier discrète DFT.

II-5-1-2.2 Transformation de Fourier Discrète TFD (Discret Fourier Transform DFT)

L’application de la DFT sur une image 𝐼(𝑚, 𝑛) se fait selon l’équation (II.6) :
𝑢.𝑚 𝑣.𝑛
−𝑗2𝜋( + )
𝐹(𝑢, 𝑣) = ∑𝑀 𝑁
𝑚=0 ∑𝑛=0 𝐼(𝑚, 𝑛)𝑒 𝑀 𝑁 (II.6)

L’image obtenue dans le domaine fréquentiel est complexe, ce qui permet de faire une
étude de l’image en amplitude et en phase. Son module (II.7) représente l’amplitude et son
argument (II.8), la phase [Jimson et al., 2018].

37
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

𝑀(𝑢, 𝑣) = |𝐹(𝑢, 𝑣)| = √(𝑅𝑒(𝑢, 𝑣))2 + (𝐼𝑚(𝑢, 𝑣))2 (II.7)

𝐼𝑚(𝑢,𝑣)
𝑃(𝑢, 𝑣) = arg(𝐹(𝑢, 𝑣)) = 𝐴𝑟𝑐𝑡𝑔( 𝑅𝑒(𝑢,𝑣) ) (II.8)

La répartition fréquentielle des coefficients est donnée comme suit :

Zone1 Zone2

Zone0

Zone3 Zone4

Figure II.5 : Répartition fréquentielle dans le module de la DFT sur une image [Riad, 2015]

La zone0 représente la zone des coefficients de basses fréquences et les zones 1 à 4


celles des hautes fréquences. La partie en gris est la zone de moyennes fréquences.

- Tatouage basé sur la DFT

Souvent, des transformations géométriques de l’image tatouée conduisent à


l’impossibilité d’extraire la marque pour de nombreux algorithmes, ce qui a conduit à envisager
l’insertion de la marque dans un espace transformé qui présente une invariance aux opérations
géométriques.

[Ruanaidh et al., 1997] ont proposé un schéma où la marque est insérée dans la phase
de la DFT de l’image. Les résultats ont montré qu’il était très difficile de supprimer la marque
sans causer d’importants dommages à la qualité visuelle de cette dernière et que l’algorithme
était robuste contre la compression JPEG.

[Solachidis et al., 2001] ont présenté une technique basée sur la DFT qui rend le tatouage
insensible aux transformations de translation, rotation et changement d’échelle. Le module de
la transformée de Fourier étant invariant aux translations et changement d’échelle, il a été utilisé
pour insérer la marque. Pour faire face aux problèmes de rotation, la marque, définie comme
étant une séquence pseudo-aléatoire et ayant pour valeurs ± 1, est insérée de façon circulaire.
Pour éviter les dégradations visuelles trop importantes, l’insertion s’est faite dans les moyennes
fréquences.

La faiblesse de cette transformée est due au fait qu’elle manque de localisation


temporelle. Bien qu’elle fournisse le spectre de l’image, donc ses différentes fréquences, elle

38
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

ne donne aucune indication sur les instants d’émission de ces fréquences. De ce fait, l’analyse
de Fourier ne permet pas l’étude des signaux dont la fréquence varie dans le temps.

II-5-1-3 Le domaine de l’analyse multi résolutions ou des ondelettes

Contrairement aux transformées DFT et DCT qui projettent l’image dans le domaine
fréquentiel seulement, l’analyse multi-résolutions représente l’image aussi bien dans son espace
spatial que dans le domaine fréquentiel. La transformée discrète en ondelettes, appliquée à une
image, se base sur l’analyse multi-résolutions de cette dernière. Pour ce faire, des filtres issus
du choix de l’ondelette utilisée, lui sont appliqués. Les filtres passe-haut permettent l’analyse
de ses hautes fréquences et les filtres passe-bas, l’analyse de ses basses fréquences (voir fig.
II.6).

Sous-échantillonnage Sous-échantillonnage
h Filtre Passe bas
1 colonne sur 2 1 ligne sur 2

g Filtre Passe haut

Figure II.6 : Principe de la DWT 2D [Riad, 2015]

La décomposition se fait selon les trois directions des contours de l’image : horizontale,
verticale et diagonale, en conservant le nombre de pixels de l’image de départ : l’image est ainsi
décomposée en sous bandes représentées par des images de résolution inférieure.

Figure II.7 : Décomposition en ondelettes à 2 niveaux de résolution

39
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

Au premier niveau de décomposition, quatre images de taille réduite sont obtenues (voir
Figure. II.7):

- L’image réduite (LL1), qui représente une image d’approximation à une résolution
inférieure de l’image de départ, est obtenue après application des deux filtres passe-bas
sur l’image d’origine. Elle servira de base pour la prochaine itération.
- Les détails horizontaux, verticaux et diagonaux sont obtenus respectivement par
application sur l’image d’origine, des filtres passe-bas puis passe-haut, passe-haut puis
passe bas et enfin des deux filtres passe-haut.

Cette transformation peut être réitérée autant de fois que nécessaire pour obtenir le nombre
voulu de sous bandes.

La reconstitution de l’image originale se fait par opération inverse de la décomposition.

- Tatouage basé sur la DWT

Le principe du tatouage numérique dans le domaine des ondelettes, consiste donc à


décomposer l’image en un certain nombre de sous-bandes, dépendant de la résolution de
décomposition, et à choisir les coefficients qui peuvent recevoir la marque sans perturber la
qualité de l’image d’une part et de s’assurer que cette insertion soit robuste d’autre part.
L’utilisation de la DWT permet le traitement indépendant des composants résultants sans
interaction significative perceptible entre eux, et rend ainsi, le processus d’insertion
imperceptible plus efficace. Généralement, la décomposition en ondelettes est employée pour
la fusion des images [Mitchell, 2010], et comme dans le tatouage il est question de fusionner
la marque à l’image, la technique des ondelettes est donc très attrayante pour le tatouage
d’images.

Le domaine multi résolution permet d’accéder à certaines informations de l’image,


comme la fréquence, l’emplacement et l’orientation, ce qui lui confère une grande finesse de
réglage lors de l’insertion et donc un panel de possibilités très important ; d’où une multitude
de techniques du tatouage se basant sur les ondelettes.

Parmi les premiers travaux de tatouage dans cet espace, on notera celui de [Kundur &
al, 1997]. L’image d’origine I0 est décomposée jusqu’au niveau L et la marque est insérée dans
les coefficients des sous bandes de détails des l niveaux de résolution, avec l ={1, … 𝐿}. La clé
est générée aléatoirement et est utilisée pour sélectionner les emplacements des coefficients à
tatouer : pour chaque coefficient, la clé prend la valeur de ‘1’ ou ‘0’ pour indiquer si le

40
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

coefficient correspondant doit être marqué ou non respectivement. Le nombre de valeurs ‘1’
dans la clé doit être supérieur ou égal à la taille de la marque. Dans le cas contraire, les valeurs
de la marque sont insérées de manière répétée dans les coefficients sélectionnés. Les résultats
expérimentaux ont montré que le schéma proposé était résistant à quelques attaques comme la
compression JPEG, le filtrage et l’ajout de bruit (voir section II-6).

[Kashyap & al. 2012] ont présenté un algorithme de tatouage numérique basé sur la
DWT. L’image originale I0 est décomposée en utilisant la DWT à un, deux et trois niveaux de
résolution, ainsi que la marque W à insérer. Afin d'assurer la robustesse du schéma de tatouage,
les coefficients de la marque sont insérés dans les coefficients de basse fréquence de l’image
en utilisant la relation suivante :

WMI(i,j)= k*(LLn(I,j))+q*(Wn(i,j)) (II.9)

WMI (i,j) correspond aux coefficients de basses fréquences de la DWT de l’image tatouée W
Wn(i,j) représente les coefficients de la sous bande d’approximation de niveau n de la marque
LLn(i,j) correspond aux coefficients de la sous bande de basse fréquence de niveau n de l’image
hôte.

k, q : facteurs d’échelle pour l’image hôte et la marque respectivement qui contrôlent la qualité
de l’image tatouée et de la marque extraite.

LLn : sous bande d’approximation du niveau n de décomposition de l’image originale.

n : niveau 1, 2 ou 3 de décomposition de la DWT.

Les résultats expérimentaux ont montré que l’insertion qui se fait dans la sous bande de
basse fréquence du troisième niveau de la décomposition, donne de meilleurs résultats que pour
les sous-bandes d’approximation du deuxième et du premier niveau de décomposition. La
qualité de l’image tatouée et de la marque extraite dépend des valeurs des facteurs d’échelle k
et q.

II-5-1-4 Autre technique : La Décomposition en Valeurs Singulières SVD

La SVD (Singular value Decomposition) est un algorithme de factorisation qui permet


de décomposer toute matrice I de taille M×N en trois matrices suivant la relation (II.10)

I=U× 𝑆 × 𝑉 T (II.10)

41
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

où U et V sont des matrices orthonormées appelés matrices singulières composées des vecteurs
singuliers. S est la matrice diagonale dont les éléments sont nuls sauf les éléments diagonaux
Si,i (avec i=(0,1,……,min(m,n))), appelés valeurs singulières. Ces derniers sont positifs et
rangés par ordre décroissant :

S1,1> S2,2 > S3,3> ⋯ > S (min(m,n),(min(m,n) > 0 (II.11)

min(m,n) : représente le rang de la matrice I et il définit le nombre d’éléments non nuls dans la
matrice S.

La première particularité de cette technique est qu’elle range le maximum d’énergie


dans le minimum de valeurs singulières de l’image. Ce qui lui confère un intérêt particulier
dans le domaine de la compression puisque les petites valeurs peuvent être forcées à 0 [Swathi
et al., 2017].

La seconde particularité est la grande stabilité des valeurs singulières (SV) : lorsque des
informations (perturbations) y sont ajoutées, les SV’s ne changent pas significativement. Cette
propriété rend la technique très attrayante dans le domaine du tatouage puisque la marque peut
être insérée dans les valeurs singulières sans détériorer l’image hôte ce qui donne de bons
résultats en termes d’imperceptibilité et de robustesse.

- Tatouage basé sur la SVD


Parmi les algorithmes les plus connus utilisant la SVD dans le domaine du tatouage :
[Chandra, 2002] a proposé un algorithme où l’image hôte est décomposée en blocs et la
SVD est appliquée sur chacun des blocs. Chaque bit de la marque, pondéré par un facteur, est
additionné à la plus grande valeur singulière du bloc. Les matrices orthogonales U et V ont été
utilisées pour la reconstruction des blocs tatoués qui, à leur tour, ont servi à reconstruire l’image
tatouée.
[Liu et al., 2002] a appliqué la SVD sur l’image hôte pour insérer la marque (dont les
valeurs ont été multipliées par un facteur), dans les valeurs singulières obtenues.
Ces deux algorithmes montrent une certaine robustesse pour certains types d’attaques
essentiellement les attaques de compression et de cropping (voir section II-4).

II-5-1-5 Le domaine hybride

Malgré les avantages des domaines sus-cités, (aussi bien spatial que transformé) utilisés
dans la représentation des images, ceux-ci ne sont pas nécessairement les représentations

42
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

optimales pour garantir le compromis de la performance entre l’imperceptibilité et la robustesse


du tatouage. De plus, chaque domaine utilisé montre ses limitations sur les algorithmes qui
l’exploitent : Ces limitations se traduisent par le fait que chaque domaine est robuste contre
certaines attaques et se trouve faible contre d’autres. Aucun des domaines n’a présenté une
robustesse contre une large gamme d’attaques. Pour cela, plusieurs travaux se sont penchés sur
une combinaison hybride de domaine d’insertion.

[Zhao et al., 2004] présentent une technique hybride combinant la DCT et la DWT pour
l’authentification d’image : le domaine DCT est utilisé pour la génération de la marque et la
DWT pour l’insertion de la marque. Le tatouage utilisé est fragile, ce qui permet de détecter les
altérations et l’authentification de l’image.

Les travaux de [Dahmani et al. 2010] se basent également sur la combinaison des deux
transformées DWT-DCT. L’utilisation de la DWT permet une bonne exploration des basses et
moyennes fréquences de l’image. L’insertion de la marque dans la sous-bande notée LL permet
un tatouage robuste mais d’invisibilité assez faible. Pour y remédier, la DCT est appliquée dans
cette sous bande pour sélectionner les endroits convenables à l’insertion de la marque. La
sélection des blocs DCT à marquer se fait selon leurs variances locales de la luminance. Les
résultats ont montré que la stratégie de marquage utilisée assure un compromis entre invisibilité
et robustesse de la marque.

[Joseph et al., 2013] présentent un nouvel algorithme de tatouage robuste contre de


nombreuses attaques. La DWT et la SVD ont été utilisées pour insérer deux marques différentes
dans les sous bandes de moyennes fréquences de la DWT de l’image. L’insertion est faite non
pas directement sur les coefficients des sous bandes mais sur leurs valeurs singulières après leur
avoir appliqué la SVD. Les résultats de cette méthode ont montré une bonne robustesse de la
marque à plusieurs attaques par rapport à ceux de l’utilisation de la DWT seule ou de la SVD
seule [Razafindradina et al., 2008].

II-5-2 METHODES D’INSERTION

Chacun des domaines sus-cités peut être utilisé comme espace d’insertion en lui
appliquant un schéma d’une des deux grandes classes de tatouage : additif ou substitutif.
Chacun des différents schémas et des domaines aura ses points forts et ses points faibles, variant
en fonction de leur robustesse et des objectifs du tatouage.

43
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

II-5-2-1 Le tatouage additif

L’approche additive est l’une des méthodes les plus utilisées, qui consiste
principalement à ajouter la marque W, représentant le signal, à des composantes de l’image hôte
I, correspondant au bruit. Ce qui nous amène à un « canal de transmission » fortement bruité.
Afin de respecter la contrainte d’imperceptibilité, l’énergie de la marque W doit être inférieure
à celle de l’image I ; aussi, la marque est multipliée par un facteur d’échelle α, tel que 0 <α <1,
avant l’insertion (II.7).

Les étapes d’un tatouage additif se résument comme suit [Bas et al., 2002] :

1- Extraction des composantes caractéristiques de l’image I (CI(i)), représentées, soit par


les pixels si le domaine est spatial, soit par les coefficients si le domaine est transformé
(DCT, DWT, DFT, …).
2- Génération de la marque Wk à insérer à partir du message m et de la clé secrète k.
3- Ajout de la marque aux composantes extraites de l’image afin d’obtenir les composantes
de l’image marquée CIw (i) suivant la forme suivante :
CIw (i) = CI (i) + αwk (II.12)
α est un facteur d’échelle qui représente la force de tatouage. Il désigne le maximum
d’énergie qui peut être introduit dans le médium sans une altération visible.

II-5-2-2 Le tatouage substitutif

Plutôt que de construire une marque W n’ayant que très peu de rapport avec les données
hôtes, le tatouage substitutif se propose de modifier ces données afin de les faire correspondre
au message que l’on souhaite transmettre. Son principe consiste donc à substituer la marque à
des composantes de l’image. Généralement, la phase d’insertion des schémas substitutifs peut
être décrite par les étapes suivantes :

1- Les composantes caractéristiques de l’image sont extraites à l’aide de la clé k (notées


Ck(I)) à partir de l’espace de marquage sélectionné. Il peut s’agir soit des pixels de
l’espace spatial, ou de coefficients de l’espace transformé (DWT, DCT) de l’image ou
bien même de ses propriétés géométriques.
2- La marque W à insérer est obtenue en modifiant les caractéristiques des composantes
pointées par la clé k, selon une contrainte notée C sur les composantes sélectionnées

44
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

(Ck(I). Cette contrainte est représentée par une relation d’ordre, un critère de corrélation,
une propriété géométrique ou une appartenance à un espace fonctionnel. [Dahmani
2014].
3- Les composantes caractéristiques sont marquées par substitution suivant la relation :
Cw(I) = C (Ck(I), W(k)) (II.13)
4- L’image tatouée Iw est alors reconstituée à partir de ces composantes caractéristiques
marquées et est prête à être transmise.

Plusieurs techniques de tatouage substitutif ont été proposées.

[Swanson & al, 1996] proposait un tatouage dans le domaine spatial en utilisant la
technique du LSB (Last Significant Bit). Les bits de poids le plus faible d’une composante du
médium ont été modifiés suivant la valeur du bit du message m. Une clé secrète est utilisée pour
sélectionner les composantes à modifier. Cette technique n’étant pas robuste, les travaux de
[Seddik & al, 2005] permettaient d’y remédier en utilisant la quantification des composantes du
medium ; il s’agissait de définir un dictionnaire de symboles, pour chaque composante du
message m. Ce type de tatouage, nommé tatouage substitutif avec dictionnaire, consistait donc
à découper le dictionnaire en sous dictionnaires et chacun correspondant à un message possible.

L’élaboration de la méthode de tatouage substitutif est souvent motivée par la robustesse


à une attaque donnée. Face aux attaques géométriques, la substitution s’applique à des
caractéristiques telles que les points saillants, situés dans des régions de plus haute énergie. Les
positions relatives de ces points étant presque invariantes par transformations géométriques, le
tatouage est plus robuste à ces attaques.

II-5-3 METHODES DE DETECTION OU EXTRACTION

L’image tatouée, pendant sa transmission, peut être soumise à plusieurs attaques


qu’elles soient innocentes ou malveillantes. L’image reçue à la phase détection est alors une
image attaquée et le décodage de la marque s’effectue selon trois types de détection [Zhang,
2009]:

1- Ceux qui utilisent l’image originale pendant la phase d’extraction, appelés algorithmes
non aveugles ou informés,
2- Ceux qui se servent uniquement de la marque appelés algorithmes semi-aveugles,
3- Et enfin ceux qui n’utilisent ni la marque ni l’image originale pour détecter ou extraire
la marque ; ces algorithmes sont dits aveugles ou non informés.

45
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

Ces trois algorithmes utilisent parfois la clé qui a été utilisée pendant la phase d’insertion.
Le choix du mode d’extraction dépendra de l’application envisagée et des protocoles utilisés
pendant la phase d’insertion.

Généralement, un schéma de tatouage non aveugle est plus robuste puisque l’utilisation de
l’image originale permet de fournir une référence pouvant servir à améliorer l’estimation de la
marque ou encore à identifier les divers traitements appliqués à l’image tatouée.

Dans la plupart des cas, la détection ou extraction de la marque se décompose en quatre


étapes et c’est le résultat de cette phase qui permet de spécifier la robustesse et l’efficacité de
l’algorithme :

1- Transformer l’image tatouée et attaquée I*w dans le domaine utilisé lors de la phase
d’insertion.
2- Extraire les composantes tatouées de I*w à l’aide de la clé secrète si utilisée lors de
l’insertion. Dans le cas contraire, les composantes modifiées sont extraites par
soustraction de l’image tatouée et de l’image originale.
3- C’est en comparant les degrés de similitude entre les deux images que la marque est
détectée (dans le cas d’une détection non aveugle). Dans le cas d’une détection aveugle,
les lois d’insertion seront reprises pour extraire la marque.
4- Décoder la marque détectée pour obtenir le message.

II-5-4 ROBUSTESSE DES METHODES DE TATOUAGE

La robustesse d’une méthode de tatouage dépend fortement de son application. Aussi, on


peut classer la robustesse d’un algorithme en trois catégories :

 Le tatouage robuste : Cherche à préserver la marque insérée face aux attaques


bienveillantes ou malveillantes de façon à ce que l’image tatouée ne soit pas
endommagée et que la marque soit identifiable. Ce type de tatouage est utilisé pour la
vérification des droits d’auteur. Concevoir un schéma le plus robuste possible est une
des préoccupations majeures des chercheurs et fait toujours l’objet de nombreux
travaux. La majorité des travaux opèrent dans les domaines, fréquentiel, multi-
résolution et surtout hybride.

 Le tatouage fragile : Destiné à assurer un service d’intégrité, il permet de vérifier si


l’image tatouée a été sujette à des attaques quel que soit leur nature. Le principe est

46
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

d’insérer une marque ou un logo binaire dans l’image d’origine de sorte que les
moindres modifications apportées à l’image se répercutent également sur la marque
insérée. La marque doit donc être fortement sensible à toutes les modifications. Pour
vérifier l’intégrité d’une image, il suffit de vérifier localement la présence de cette
marque. Les algorithmes utilisant le LSB comme support sont parmi les plus utilisés
dans le tatouage fragile. Avec cette méthode, l’imperceptibilité est grande mais la
qualité des régions restaurées est assez faible. Pour y remédier, certains auteurs ont
proposé une variante afin d’améliorer légèrement la qualité de la reconstruction, en
utilisant non plus un bit LSB mais deux bits de poids faible. La reconstruction est certes
meilleure mais l’image tatouée perd en qualité.

 Le tatouage semi fragile : Dans le but de corriger les défaillances du tatouage fragile,
les chercheurs se sont orientés vers une autre approche dite semi-fragile. C’est une
méthode qui combine les deux méthodes précédentes dans le sens où elle doit permettre
de détecter les manipulations malveillantes et rester robuste face aux attaques
bienveillantes. L’utilisation de cette méthode est basée sur le fait que les images, une
fois tatouées, sont transmises et stockées sous leur forme compressée. Les pertes liées
au processus de compression ne devraient pas affecter l’intégrité de l’image dans le sens
de son interprétation. Cette méthode est donc une version améliorée de la méthode
fragile et rentre dans le cadre d’un système d’authentification et d’intégrité des images.

II-5-5 PERCEPTION DE LA MARQUE

La notion de perception de la marque dans un système de tatouage peut varier d’une


application à l’autre. On distingue généralement deux classes de tatouage : visible et invisible.

 Le tatouage visible : Dans cette classe de tatouage, il s’agit d’insérer une marque sur
une région d’intérêt de l’image originale tel qu’elle soit visible sur l’image, mais
difficile à enlever, et que l’image originale soit reconnaissable. Aussi, les algorithmes
de tatouage visible doivent répondre à trois contraintes :
- Même si la marque est visible, elle ne doit pas altérer l’image d’origine par le tatouage,
jusqu’à la rendre inutile ; les détails du médium doivent être perceptibles.
- La visibilité de la marque dans le médium doit pouvoir identifier le propriétaire de
l’image.

47
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

- La marque doit être robuste et donc difficile à enlever.

La troisième contrainte est difficile à mettre en œuvre ; tant que la marque est visible, elle
est facile à enlever. Un simple recadrage de l’image permet d’éliminer la marque si celle-ci se
trouve dans les bords de l’image.

Dans ce type de tatouage, généralement, la marque sert d’information aux consommateurs,


comme dans le cas de petits logos apparaissant dans les images de journaux télévisés,
d’indicateur d’organisme ou d’auteur à qui appartient l’image afin de dissuader les personnes
malveillantes de s’en servir.

 Le tatouage invisible : Dans la plupart des applications du tatouage, la marque doit être
invisible pour répondre au critère d’imperceptibilité. Ce type de tatouage peut être
considéré comme une forme de stéganographie.

[Le Guelvouit, 2007] précise que « notre cerveau ne voit pas toutes les zones d’une
image de la même façon : par exemple, il fait moins attention aux contours donc il est
possible d’augmenter les variations sur cette zone. Par contre sur un grand aplat de
couleur toute modification va ressortir ». Ce qui appuie l’utilisation des propriétés du
Système Visuel Humain HVS (Human Visual System) dans la majorité des algorithmes
de tatouage invisible. Généralement, dans ce type d’algorithmes, un seuil de
perceptibilité est calculé à partir de l’image originale et les modifications de l’image
ne peuvent se faire qu’à concurrence de ce seuil [Dahmani, 2014]. Ce type de seuil
noté JND (Just Noticeable Difference) ne mesure pas la distorsion mais indique la
distorsion maximale autorisée sans que la modification soit visible. Au -dessous de ce
seuil, la modification ne peut pas être remarquée.

Dans les travaux de [Watson, 1993], les seuils de perception ont été déterminés
expérimentalement pour les coefficients de la DWT afin de calculer les matrices de
quantification dans le cadre de la compression d’images.

Une autre méthode est utilisée pour respecter plus le support d’origine en insérant
une marque sans détériorer l’image, les bits à tatouer sont multipliés par un coefficient
 en fonction de la position du pixel.

48
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

II-5-6 CONTRAINTES LIEES A LA SECURITE

Souvent, le terme de sécurité est confondu avec robustesse. En fait, la sécurité est une
extension de la robustesse dans le sens où la contrainte de robustesse impose que la marque
perdure après les attaques bienveillantes alors que la sécurité étend ces exigences à des attaques
malveillantes. Généralement et dans la plupart des schémas de tatouage robuste, la robustesse
doit être considérée avec une importance moindre que la sécurité. [Kalker, 2001], [Cayre,
2008], [Furon, 2002].

[Kalker 2001] a défini un tatouage sécurisé comme un schéma qui n’autorise pas une
personne non initiée à accéder à la marque (définition adoptée dans la plupart des travaux). La
sécurité doit traiter à la fois de l’effacement de la marque (robustesse), de l’insertion
frauduleuse et de la détection non autorisée (du point de vue présence et lecture). Ceci nous fixe
sur les mécanismes de protection d’un tatouage sécurisé contre la lecture, la modification,
l’effacement et la détection de la marque. Ces points peuvent être résolus par différentes
techniques basées, pour la plupart, sur le choix de techniques rendant le message inintelligible.
Les méthodes de cryptage restent valides et peuvent être utilisées. Aussi, la marque peut être
protégée par un cryptage fort. La méthode citée par [Eggers et al., 2003] utilise un cryptage par
clé qui permet de faire varier l’insertion, obtenant ainsi une protection contre la lecture et la
détection.

La modélisation d’un système de tatouage, du point de vue sécurité, est souvent associée
à la notion de théorie des jeux, dans le sens ou le tatoueur est considéré comme un joueur qui
cherche à maximiser les chances de survie de la marque et l’attaquant ou pirate, comme celui
qui tente d’empêcher autant que possible la détection correcte du tatouage. La stratégie de
chacun des joueurs dépendra des choix de l’autre joueur et c’est en se servant de la connaissance
du médium (dans le cas d’un tatouage non aveugle) et de la méthode de tatouage, que l’attaquant
mal intentionné va modifier la stratégie d’attaque de façon à ce que l’impact sur le tatouage soit
maximum.

La méthode de tatouage étant connue (publique), la sécurité doit alors reposer


uniquement sur la clé (d’après le principe de Kerckhoff]. Généralement, dans les schémas de
tatouage, le rôle de cette clé est d’introduire une incertitude sur la localisation de certaines
composantes, parmi les composantes caractéristiques de l’image, qui reçoivent la marque. Mais
si la clé vient à être compromise, c’est la sécurité de tout le système qui est remise en cause. En
évoquant la notion de clé, on se ramène alors aux méthodes cryptographiques.

49
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

II-5-6-1 Méthode de marquage symétrique

Tout comme pour la technique de cryptographie décrite dans le chapitre précédent, le


terme « symétrie » dans la technique du tatouage fait référence à la clé utilisée. Un système de
marquage symétrique utilise la même clé secrète à l’insertion et à la détection de la marque. Ce
type de méthode est retrouvé dans les applications liées à la sécurité comme le « copyright ».

II-5-6-2 Méthode de marquage asymétrique

Dans ce type de méthode, les algorithmes utilisent une clé à la phase d’insertion
différente de la clé utilisée à la détection tout en s’assurant que la marque ne s’efface pas. C’est
le cas de l’application d’intégrité, dans la mesure où chacun doit pouvoir s’assurer de l’intégrité
d’une image.

Le premier algorithme utilisé a été proposé par [Hartung et al., 1999]. Le concept est basé sur
la séparation de la marque en deux. Une partie peut être lue par une clé publique et peut donc
être retirée, l’autre partie est tenue secrète et ne peut être lue qu’à l’aide d’une clé privée.

II-6 CLASSIFICATION DES ATTAQUES DU TATOUAGE

Généralement, les schémas de tatouage sont tenus d’être robustes (sauf dans le cas du
tatouage fragile) et sûrs. Pour arriver à estimer la robustesse, la performance et l’efficacité d’un
schéma de tatouage, il est indispensable de s’intéresser aux différentes attaques qui menacent
les critères sus-cités. Dans la littérature, plusieurs classifications des attaques de tatouages ont
été proposées. Celles présentées par [Cox et al., 1997] sont généralement les plus populaires.

50
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

Attaques

Robustesse Sécurité

Attaques Attaques Cryptographique


Collusion Protocole
bienveillantes malveillantes

-Transformations -Désynchronisation
géométriques -Mosaïque
-Compression
-Filtrage
-Ajout de bruit
Figure II.8 : Classification des attaques de tatouage [Cox et al., 1997]

Les attaques touchant à la robustesse de l’algorithme de tatouage sont de deux types [Cox et
al., 1997] : les attaques bienveillantes et les attaques malveillantes.

II-6-1 LES ATTAQUES BIENVEILLANTES

Elles regroupent les manipulations sur l’image tatouée. Leur objectif est de permettre
une meilleure exploitation de l’image et n’ont pas pour objectif de détruire la marque ou
d’empêcher sa détection. Ce sont des opérations normales de traitement liées à l’utilisation ou
à la diffusion de l’image marquée telles que [Yadav et al., 2017]:

 La compression : pour stocker les images numériques ou les transmettre, il est nécessaire
de passer par une compression pour réduire la taille des fichiers image. Cette
compression peut être fatale pour le tatouage puisque les deux algorithmes sont
antagonistes [Trache et al, 2014] : l’objectif de la compression vise à réduire certaines
composantes de l’image et ne garder que celles nécessaires à sa compréhension. Si la
marque est présente dans les hautes fréquences, elle sera alors détruite par l’opération
de quantification propre à la compression avec perte. Ainsi, les marques doivent être
insérées dans les régions de basses ou moyennes fréquences de l’image en dépit de
risques de distorsion.

51
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

 Le filtrage : c’est une opération nécessaire pour nettoyer une image bruitée et améliorer
ainsi sa qualité. L’opération de lissage sur une image, visant à atténuer le bruit, se fait
par un filtre passe bas ce qui permet d’atténuer les composantes hautes fréquences de
l’image tatouée et ainsi dégrader les composantes hautes fréquences de la marque.
L’utilisation d’un filtre passe haut, dans le contexte des attaques bienveillantes n’est pas
nécessaire puisqu’il conserve le bruit.

 Les transformations géométriques : elles comprennent le zoom, la réduction de la taille


de l’image, la rotation, le recadrage (cropping). Elles provoquent une désynchronisation
entre la marque dans l’image et le détecteur qui doit connaître la position exacte de la
marque dans l’image.

 L’ajout de bruit : le bruit peut s’ajouter dans une image tatouée lors de sa transmission
dans un canal bruité. L’effet de cet ajout avec des proportions importantes aura un effet
de masquage de la marque et par conséquent pourra gêner son extraction ou sa détection.
Il existe deux types de bruit : le bruit gaussien qui ajoute à chaque pixel de l’image des
valeurs générées aléatoirement et le bruit sel & poivre qui consiste à transformer
aléatoirement de pixels de l’image en pixel noir ou blanc.

II-6-2 LES ATTAQUES MALVEILLANTES

Ce sont des manipulations qui visent à supprimer, empêcher la détection de la marque


ou rendre la marque inutilisable. Toutes les attaques bienveillantes peuvent être sciemment
utilisées par l’attaquant pour arriver à ses fins. Cependant, si le système de tatouage est
convenablement conçu, la distorsion sur l’image marquée risque d'être trop forte pour être
acceptable. Les attaques regroupant le filtrage, la compression, l’ajout de bruit, la quantification
sont appelées des attaques simples [Loukhaoukha 2010].

Parmi les autres attaques de ce type les plus connues :

 L’attaque de désynchronisation qui est généralement créée par les transformations


géométriques sus-citées. Ce type d’attaques rend impossible la détection et la
récupération de la marque. Cette dernière reste dans l’image tatouée et attaquée.

 L’attaque mosaïque [Petitcolas et al., 1998] : Il s’agit, dans cette attaque, de découper
l’image tatouée en plusieurs «imagettes » de façon à ce que chacune d’elles porte un

52
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

fragment de la marque et ainsi, la détection et la récupération de la marque deviennent


impossible. Cette attaque n’est pas adaptée pour les diffusions à grande échelle puisque
l’attaquant est censé fixer un protocole d’échange d’images entre lui et ses acheteurs
[Dahmani, 2014].

Parmi les attaques se rapportant à la sécurité du tatouage, on retiendra :

 L’attaque de protocole : elle vise à rendre la marque inutilisable en jetant le doute sur
son authenticité et non pas à la détruire. Elle intervient quand le propriétaire de l’image
originale marque son œuvre et la met en circulation. L’attaquant fabrique un faux
original en soustrayant la marque du propriétaire de l’image tatouée et en marquant le
faux original avec sa propre marque. Il peut ainsi usurper le droit du propriétaire légal
de l’image en extrayant sa marque à partir du faux original, dans le cas d’un litige entre
le propriétaire légal et l’usurpateur [Craver et al., 1998].

 L’attaque de collusion : elle consiste à construire, à partir de plusieurs versions de


documents tatoués par différentes clés, un document qui ne contient plus aucun signal
de tatouage. Deux grandes familles d’attaques par collusion existent [Su et al., 2002] :
1- Plusieurs attaquants peuvent amasser différentes images contenant le même
tatouage et le but étant d’estimer la marque et de l’enlever par la suite de chaque
image.
2- Lorsque la même image est tatouée avec différentes marques, il suffit de les
moyenner pour obtenir une estimation de l’image originale.

 L’attaque cryptographique : elle utilise le principe de la cryptographie. Certaines de ces


attaques ont pour objectif de découvrir la clé secrète utilisée pour insérer la marque en
essayant de manière exhaustive toutes les clés possibles (l’algorithme étant public
d’après le principe de sécurité de Kerchoff).

II-7 METHODES D’EVALUATION DES SCHEMAS DE TATOUAGE

Le concept même du tatouage est basé sur la modification d’une image de façon
imperceptible ou de façon à ne pas gêner l’exploitation de l’image tatouée. Afin de pouvoir
estimer l’efficacité de la méthode, il est nécessaire de mesurer la qualité des images tatouées ou

53
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

d’évaluer la distorsion introduite par le tatouage. Deux méthodes sont utilisées à cet effet : les
méthodes subjectives et les méthodes objectives.

II-7-1 LES METHODES SUBJECTIVES

Elles se basent sur l’évaluation de la qualité des images tatouées, par un groupe
d’observateurs, composé d’experts. Un jeu d’images originales et modifiées leur est présenté et
suivant une échelle graduée de valeurs allant de « mauvaise à excellente », ils donnent leurs
avis sur la qualité perçue. Pour garantir une certaine fiabilité des résultats, des recommandations
strictes définissent et formalisent les critères des tests subjectifs ; ils concernent le calibrage du
système de visualisation, la distance et le positionnement de chaque observateur, leur nombre
ainsi que les outils pour le dépouillement des résultats.

Ces méthodes se sont avérées coûteuses en temps et en argent notamment lorsque le


nombre d’images est important, mais elles restent très intéressantes dans le cas des images
médicales.

II-7-2 LES METHODES OBJECTIVES

La mesure objective de la qualité est une mesure purement mathématique. Elle cherche à
déterminer la qualité des images tatouées quantitativement. Cette mesure de qualité des images
est en fait une mesure de distance entre les deux images. Les mesures quantitatives les plus
utilisées sont :

- L’erreur quadratique moyenne MSE (Mean Square Error) : Ce critère est le plus utilisé.
Les pixels de l’image dégradée (tatouée et probablement attaquée) I*w sont comparés à
ceux de l’image originale I pour déterminer leur rapport de ressemblance.
1
MSE = 𝑀×𝑁 ∑𝑀 𝑁 ∗
𝑚=1 ∑𝑛=1(𝐼(𝑚, 𝑛) − 𝐼𝑤 (𝑚, 𝑛))
2
(II.14)

(M×N) : représente la taille de l’image.


I et I*w : représentent les amplitudes des pixels (ou coefficients) sur les images originale
et dégradée.
La mesure quadratique se base sur le fait que l’œil tient plus compte des erreurs à
grandes amplitudes.
- Le rapport crête signal sur bruit PSNR (Peak Signal to Noise Ratio) : Cette valeur
permet de mesurer l’imperceptibilité de la marque en évaluant la dégradation (en dB)

54
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

de l’image originale par rapport à l’insertion de la marque et aux attaques qu’elle aurait
subi. Elle est fonction du MSE. Deux images identiques ont un PSNR infini.

(𝐼𝑚𝑎𝑥 )²
PSNR= 10log10( ) (II.15)
𝑀𝑆𝐸

(Imax)² représente l’énergie maximale de l’image. Le PSNR tend vers l’infini quand l’image
n’est pas dégradée.

D’après [Cox et al., 1997], une valeur du PSNR supérieur à 36dB indique que le tatouage est
imperceptible.

- L’indice de similarité structurelle SSIM (Structural Similarity Index) proposée par


[Wang & al.2004]. Cette mesure évalue la similarité structurelle entre deux images ;
elle est basée sur trois composantes de l’image, la luminance notée L(I, I*w) , le contraste
C(I, I*w) et la structure de l’image S(I, I*w).
SSIM =f(L(I, I*w), C(I, I*w), S(I, I*w)) (II.16)

- Le coefficient de corrélation normalisé NCC (Normalized Correlation coefficient) :


cette métrique est définie pour mesurer quantitativement la fidélité de la marque
extraite. En fait, la marque de référence doit avoir une importante corrélation avec la
marque extraite avec ou sans attaques. Si la valeur du NCC=1, cela veut dire que la
méthode de tatouage est valide et permet d’extraire fidèlement la marque insérée.
𝑁 𝑀 ∗
∑ 𝑚 ∑ 𝑚 𝑚(𝑖,𝑗)∗𝑚(𝑖,𝑗)
𝑖=1 𝑗=1
NCC= 𝑁 𝑀 2 (II.17)
∑ 𝑚 ∑ 𝑚 (𝑚(𝑖,𝑗))
𝑖=1 𝑗=1

Nm ×Mm représente la taille de la marque


m(i,j) : les pixels de la marque d’origine
m(i,j)* : les pixels de la marque extraite

II-8 CONCLUSION

Dans ce chapitre, un aperçu de l’état de l’art a été donné présentant, en premier lieu les
applications du tatouage. Le copyright, l’une des applications les plus utilisées, fait l’objet de
notre travail. Aussi, pour situer la méthode de tatouage utilisée et répondre aux critères définis
et présentés, nous avons classé les schémas de tatouage numérique des images selon leur

55
Chapitre II : Les fondamentaux de la théorie du tatouage numérique de l’image : Etat de l’art

domaine d’insertion : spatial, fréquentiel, multi-résolution et hybride. Pour chacun d’eux,


certains travaux ont été évoqués présentant les avantages du domaine utilisé.

Par la suite, nous les avons classé selon les techniques d’insertion : additif et substitutif,
suivant la manière de fusionner les données de la marque avec celles de l’image à tatouer et
suivant les méthodes de détection/ d’extraction qui peuvent être du type aveugle, semi aveugle
ou non aveugle. Un autre paramètre clé qui est la robustesse permet de classer les algorithmes
de tatouage selon l’application. Le tatouage robuste est dédié pour le copyright, le tatouage
semi-fragile pour l’intégrité et le fragile pour l’authentification du document.

Enfin, le dernier point évoqué dans ce chapitre est la classification des attaques qu’un
schéma de tatouage peut subir lors de la diffusion ou la transmission de l’image.

Le prochain chapitre sera dédié aux outils fondamentaux de l’intelligence artificielle et


à la présentation des méthodes stochastiques basées sur les méta-heuristiques les plus utilisées
dans le tatouage d’image, ayant donné de bonnes performances en matière d’optimisation.

56
Chapitre III : Approches méta-heuristiques appliquées au tatouage

CHAPITRE III : APPROCHES META-HEURISTIQUES APPLIQUEES


AU TATOUAGE

57
Chapitre III : Approches méta-heuristiques appliquées au tatouage

III-1 INTRODUCTION

Le tatouage est, comme décrit dans le chapitre précédent, un problème de compromis entre
imperceptibilité et robustesse. En effet, l’insertion d’une marque dans l’image d’origine
nécessite l’ajustement de plusieurs paramètres qui sont dépendants du contenu de l’image. Le
choix de la meilleure solution résulte du compromis à faire entre la qualité de l’image tatouée
et la robustesse de la marque aux attaques du processus de marquage. Cet ajustement peut donc
être formulé comme un problème d’optimisation. La diversité des images et des applications
entraînent des compromis différents et l’ajustement manuel de chacun des paramètres, pour
chaque image, peut être très long et entraîner de nombreuses erreurs.

L’approche communément citée dans la littérature consiste à utiliser des méthodes


algorithmiques d’optimisation basées sur les méta-heuristiques, afin de trouver tous les
paramètres idoines au compromis optimal entre l’imperceptibilité et la robustesse.

L’objet de ce chapitre est de présenter les méthodes stochastiques basées sur les méta-
heuristiques. Pour ce faire, il est nécessaire de définir et classer les méthodes d’optimisation
existantes. Nous donnerons, par la suite, les principes et caractéristiques des méta-heuristiques
et enfin, passerons en revue les méthodes et algorithmes d’optimisation, citées dans la littérature
et utilisées dans le domaine du tatouage d’images. Nous focaliserons notre travail sur deux
méthodes d’optimisation basées sur des méta-heuristiques ‘Bio-inspirées’ très peu ou pas
utilisées dans le domaine du tatouage, la méthode dite du « Système Immunitaire Artificiel »
(Artificial Immune System : AIS), et la méthode de la « Matrice de covariance adaptative »
(Covariance Matrix Adaptation-Evolutionary Srategy : CMA-ES) que nous situerons par
rapport aux méthodes décrites et en donnerons les principales définitions et modes d’utilisation.

III-2 ETAPES DE RESOLUTION D’UN PROBLEME D’OPTIMISATION

Résoudre un problème d’optimisation consiste à trouver une solution parmi un ensemble de


solutions potentielles répondant au mieux à certains critères définis par une fonction objectif
que l’on cherche à maximiser ou minimiser. La résolution de problèmes d’optimisation passe
par quatre phases que sont la modélisation du problème, sa formulation, sa résolution et enfin
l’analyse des résultats obtenus [Dorigo, 1992]. Ces phases peuvent s’enchaîner
séquentiellement mais les itérations et les retours aux phases précédentes sont bien souvent
indispensables (Figure III.1).

58
Chapitre III : Approches méta-heuristiques appliquées au tatouage

Modélisation Formulation Résolution Analyse des


du problème du problème du problème résultats

Figure III.1 : Principe d’une optimisation

 La modélisation consiste à :
- Définir l’espace de recherche S où les éléments de S appelés ‘solutions candidates’ sont
les valeurs pouvant être prises par les variables,
- Définir un ensemble de réponses de contrôle, ainsi qu’un ensemble de facteurs sur
lesquels il est possible d’agir.
 La formulation du problème d’optimisation : consiste à traduire le problème
d’optimisation en un problème mathématique équivalent. Elle consiste à définir, de
façon précise :
- La fonction objectif qui représente une des réponses à l’objectif à atteindre. La
définition ou la modélisation du problème d’optimisation conditionne le choix de cette
fonction, que l’on cherche à minimiser (ou maximiser) par rapport aux paramètres
concernés. Mathématiquement, elle est représentée par un vecteur noté F(x) tel que :
 F(x) = [f1(x), f2(x),…, fk(x)]. (III.1)

avec x 𝜖 Rn, un vecteur de dimension n dont les éléments xi, des réels ou des entiers,

sont les variables dites de décision. Les valeurs de ces variables représentent l’espace de
recherche S. Lorsque le problème à considérer est simple (dans le cas où le problème est
à un seul objectif à atteindre), le choix de la fonction est évident, le problème est dit mono-
objectif. Mais souvent, les problèmes d’optimisation doivent satisfaire des objectifs
multiples (problème multi-objectif), souvent concurrents. Par exemple, dans le cas du
tatouage, ces objectifs sont essentiellement basés sur le compromis robustesse-
imperceptibilité.

- Les paramètres où variables d’un problème d’optimisation qui expriment des données
quantitatives ou qualitatives ajustées pendant le processus d’optimisation, dans le but
d’obtenir les solutions optimales. Elles correspondent aux variables de la fonction
objectif et sont appelées les variables d’optimisation.

59
Chapitre III : Approches méta-heuristiques appliquées au tatouage

- Les contraintes qui sont les conditions que doivent respecter les paramètres ou variables
de décision du problème.
 La résolution du problème : consiste à appliquer une méthode d’optimisation donnée.
Le choix de la méthode est fortement lié à la connaissance du problème et de ses
caractéristiques.
 L’analyse des résultats : en fin de processus d’optimisation, il est en effet nécessaire
d’analyser et d’évaluer la qualité de la solution obtenue. Le résultat obtenu dépend
fortement de la méthode utilisée et/ou des paramètres fixés pendant le processus.
L’échec de l’optimisation peut être dû au mauvais choix de la méthode, à la mauvaise
formulation du problème où à la sensibilité des paramètres de la méthode (Figure III.2).

Maximum global
F(x)

Maxima Locaux

Figure III.2 : Maxima locaux & Maximum global (solution optimale)

Malgré l’évolution permanente des calculateurs et les progrès fulgurants de l’informatique,


il existera certainement toujours, pour un problème (P) difficile, une taille critique de l’espace
de recherche au-dessus de laquelle même une énumération partielle des solutions admissibles
devient prohibitive. Le temps de calcul devient si problématique que pour certains problèmes,
on ne connaît pas d’algorithme exact polynomial, c'est-à-dire dont le temps de calcul soit
proportionnel à Nn, où N désigne le nombre de paramètres inconnus du problème, et où n est
une constante entière. On parle alors d’optimisation difficile, ou de problèmes NP-difficiles.
Compte tenu de ces difficultés, la plupart des spécialistes de l’optimisation combinatoire ont
orienté leur recherche vers le développement de méthodes heuristiques et méta-heuristiques
[Paschos, 2005], [Charon et al., 1996], [Reeves, 1993].

60
Chapitre III : Approches méta-heuristiques appliquées au tatouage

III-3 CLASSIFICATION DES METHODES D’OPTIMISATION

Les méthodes de résolution de problèmes d’optimisation sont nombreuses. Elles sont


classées selon deux catégories (Figure III.3) :

1- les méthodes exactes (ou déterministes) : elles sont utilisées pour résoudre les
problèmes de manière exacte en un temps fini. Elles se basent sur une recherche
complète de l’espace des solutions afin de trouver une solution optimale. L’avantage de
cette méthode est que la solution optimale est toujours et à coup sûr trouvée. Son
inconvénient est qu’elle n’est efficace que pour les instances de problèmes de petite
taille.
2- Les méthodes approchées (ou stochastiques) : elles permettent de trouver des
solutions réalisables avec un temps de calcul raisonnable mais l’optimalité de la solution
n’est pas garantie. S’appuyant sur la connaissance du problème, elles peuvent traduire
des stratégies qui permettent de guider la recherche de la solution. L’avantage de ces
méthodes est qu’elles s’appliquent aussi bien pour la classe des problèmes faciles que
celle des problèmes très difficiles.

Deux classes de méthodes approchées peuvent être définies : les méthodes heuristiques
et les méthodes méta-heuristiques.

 Heuristiques et Méta-heuristiques

Afin d’améliorer le comportement d’un algorithme dans son exploration de l’espace des
solutions d’un problème donné, le recours à une méthode heuristique (du verbe grec heuriskein,
qui signifie « trouver ») permet de guider le processus dans sa recherche des solutions
optimales.

Une méthode heuristique est souvent définie comme une procédure exploitant au mieux la
structure du problème considéré, dans le but de trouver une solution de qualité raisonnable en
un temps de calcul aussi faible que possible [Nicholson, 1971].

Bien que l’obtention d’une solution optimale ne soit pas garantie, l’utilisation d’une
méthode heuristique offre de multiples avantages par rapport à une méthode exacte.

La recherche d’une solution optimale peut être totalement inappropriée dans certaines
applications pratiques en raison de la dimension du problème, de la dynamique qui caractérise

61
Chapitre III : Approches méta-heuristiques appliquées au tatouage

l’environnement de travail, du manque de précision dans la récolte des données, de la difficulté


de formuler les contraintes en termes explicites ou de la présence d’objectifs contradictoires.

Lorsqu’elle est applicable, une méthode exacte est souvent beaucoup plus lente qu’une
méthode heuristique, ce qui engendre des coûts informatiques supplémentaires et des difficultés
au niveau du temps de réponse. Les principes de recherche qui sont à la base d’une méthode
heuristique sont en général plus accessibles aux utilisateurs non expérimentés.

Une méthode heuristique peut être facilement adaptée ou combinée avec d’autres types
de méthodes. Cette flexibilité augmente considérablement les possibilités d’utilisation des
méthodes heuristiques.

La méta-heuristique, se place à un niveau plus général encore, et intervient dans toutes


les situations où l’ingénieur ne connaît pas d’heuristique efficace pour résoudre un problème
donné, ou lorsqu’il estime qu’il ne dispose pas du temps nécessaire pour en déterminer une
méthode. La méta-heuristique est une méthode itérative qui subordonne et qui guide une
heuristique, en combinant intelligemment plusieurs concepts pour explorer et exploiter tout
l’espace de recherche. Des stratégies d’apprentissage sont utilisées pour structurer l’information
afin de trouver efficacement des solutions optimales, ou presque-optimale. Elle a donc pour
objectif de pouvoir être programmée et testée rapidement sur un problème [Osman et al, 1996].

Comme l’heuristique, la méta-heuristique n’offre généralement pas de garantie


d’optimalité, bien qu’on ait pu démontrer la convergence de certaines d’entre elles. Non
déterministe, elle incorpore souvent un principe stochastique pour surmonter l’explosion
combinatoire. Elle fait parfois usage de l’expérience accumulée durant la recherche de
l’optimum, pour mieux guider la suite du processus de recherche [Dréo et al., 2005] [Blum et
al., 2003] [Widmer, 2001].

62
Chapitre III : Approches méta-heuristiques appliquées au tatouage

Figure III.3 : Les approches utilisées pour la résolution des problèmes d’optimisation [Ben Ismail et al., 2012]

III-4 NOTIONS FONDAMENTALES SUR LES META-HEURISTIQUES

III-4-1 DEFINITION DE LA LITTERATURE

Le terme « méta-heuristique » est un mot grec, composé du mot « méta » (au-delà) et


« heuriskein » (trouver).

Plusieurs définitions des méta-heuristiques ont été données dans la littérature [Osman et
al., 1996], [Voß & al. 1999], [Stùtzle, 1999]. Nous en résumons le principe :

Définition : « Une méta-heuristique est un algorithme d’optimisation visant à résoudre des


problèmes d’optimisation difficile (souvent issus des domaines de la recherche opérationnelle,
de l’ingénierie ou de l’intelligence artificielle) pour lesquelles on ne connaît pas de méthode
classique plus efficace. Les méta-heuristiques sont généralement des algorithmes stochastiques
itératifs, qui progressent vers un optimum global, c’est-à-dire l’extremum global d’une
fonction, par échantillonnage d’une fonction objectif. Elles se comportent comme des
algorithmes de recherche, tentant d’apprendre les caractéristiques d’un problème afin d’en
trouver une approximation de la meilleure solution ».

63
Chapitre III : Approches méta-heuristiques appliquées au tatouage

III-4-2 PRINCIPALES CARACTERISTIQUES DES META-HEURISTIQUES

Des définitions données dans la littérature, nous pouvons en déduire leurs principales
caractéristiques :

 Les méta-heuristiques, contrairement aux heuristiques, peuvent s’appliquer à divers


problèmes sans pour autant modifier leur fonctionnement ;
 De par leurs caractères stochastiques, elles exploitent des mécanismes aléatoires et
probabilistes qui explorent l‘espace de recherche pour converger vers l’optimum
global ;
 Le processus d’optimisation par les méta-heuristiques se fait de manière itérative. Les
itérations successives permettent d’évoluer d’une solution (ou d’un ensemble de
solutions) peu satisfaisante vers la solution la plus adaptée, c’est-à-dire l’extremum
global de la fonction. L’avantage de cette caractéristique est que le processus peut être
arrêté à tout moment et la meilleure solution trouvée à cet instant peut être récupérée
sans attendre la fin de l’exécution ;
1- Elles peuvent contenir des mécanismes qui permettent de guider la recherche d’une
solution optimale, et d’éviter d’être bloquée dans des zones de l’espace de recherche ;
2- Elles ont la particularité d’éviter les optima locaux, soit en utilisant une population de
points comme méthode de recherche ou en acceptant une dégradation de la fonction
objectif au cours de leur progression.

III-4-3 CLASSIFICATION DES META-HEURISTIQUES

Même si les méta-heuristiques sont applicables pour n’importe quel type de problème,
il convient toujours d’analyser les caractéristiques du problème à traiter pour évaluer et choisir
la meilleure méthode à utiliser. Parmi les méthodes qui existent, il y a celles qui sont basées sur
le choix du nombre de solutions à faire évoluer pour atteindre l’objectif, et celles qui sont
inspirées par analogie avec certains phénomènes, physiques (le recuit simulé), biologique (les
algorithmes génétiques, …), éthologique (les colonies de fourmis, les essaims particulaires, ….)
[Blum et al., 2003] (Figure III.4).

64
Chapitre III : Approches méta-heuristiques appliquées au tatouage

Méta-
heuristiques

Méthodes à Méthodes à Méthodes


solution unique population hybrides
de solutions

Figure III.4 : Classification des Méta-heuristiques

 Les méthodes à solution unique : Elles sont appelés aussi méthodes de parcours ou de
trajectoire ou méthodes à base de voisinage ou encore méthodes à recherche locale. Cette
appellation vient du fait qu’elles tentent itérativement d’améliorer la solution en parcourant
l’espace de recherche, suivant une trajectoire qui est décrite tout au long du processus de
recherche. Ce sont des méthodes qui exploitent l’information accumulée durant la recherche et
qui la concentre dans une zone de l’espace de recherche. Un des avantages de ces méthodes est
le contrôle du temps de calcul qui peut être arrêté à tout moment par l’utilisateur. Leur
inconvénient est que la solution obtenue dépend fortement de la solution initiale et de stratégie
de voisinage et de parcours de ce voisinage. Parmi ces méthodes, l’on peut citer la méthode
Taboue [Glover, 1986] et le Recuit Simulé [Kirkpatrick et al., 1983].
 Les méthodes à population de solutions : Elles utilisent un ensemble de points de
l’espace de recherche dans le processus de recherche, qu’elles améliorent, au fur et à mesure
des itérations. Ces méthodes utilisent la population de solutions comme facteur de diversité, ce
qui leur permet de mieux appréhender et explorer les grands espaces de recherche. Ces
méthodes sont nombreuses, nous n’en citerons que les plus utilisées dans le domaine du
tatouage d’image :
 Les algorithmes évolutionnaires tels l’algorithme génétique (AG), proposés par
[Holland 1975], les stratégies d’évolution proposées par [Rechenberg, 1972] et la
programmation évolutionnaire [Fogel, 2005].

65
Chapitre III : Approches méta-heuristiques appliquées au tatouage

 Les algorithmes basés sur l’étude du comportement des espèces animales, comme les
colonies de fourmis ACO (Ant Colony Optimisation), [Dorigo, 1992], et les essaims
particulaires PSO (Particular Swarm optimisation), [Eberhart et al., 1995].
 l’algorithme inspiré par les principes et le fonctionnement du système immunitaire
naturel des vertébrés (SIN), nommé Système immunitaire artificiel AIS (Artificial Immune
System).
 Les méthodes hybrides : l’hybridation des méthodes de résolution consiste à combiner
les caractéristiques de méthodes différentes pour tirer profit des avantages de chacune d’elles
[Glover, 1986]. Il existe deux grandes familles d’hybridation des méta-heuristiques :
hybridation des méta-heuristiques avec méta-heuristiques et hybridation des méta-heuristiques
avec des méthodes à solution unique.

La liste des différentes nouvelles méta-heuristiques d’optimisation ne cesse de se prolonger


du fait que la recherche dans le domaine reste très active, notamment, pour les algorithmes à
population de solutions ; d’autant plus que ces algorithmes s’inspirent de la diversité de la
nature afin de créer d’autres méthodes, ou simplement par le fait d’une hybridation des
méthodes pour contourner les faiblesses de chacune d’entre elles.

III-5 PRINCIPALES METAHEURISTIQUES

Dans cette section, nous avons délibérément choisi de ne présenter qu’une liste restreinte
des méta-heuristiques, notamment celles les plus couramment utilisées dans le tatouage
d’image et celles utilisées dans notre travail de recherche. Nous avons aussi opté pour une
présentation par section pour chaque type d’approche afin de montrer au lecteur leur
importance. Il faut garder à l’esprit que toutes les approches citées ci-après sont des méta-
heuristiques.

III-5-1 LES ALGORITHMES EVOLUTIONNAIRES

Les algorithmes évolutionnaires (ou évolutifs) sont parmi les plus récentes méthodes
stochastiques. Leur concept de base repose sur la théorie de l’évolution biologique des espèces
de [Darwin, 1859], selon laquelle, les individus les mieux adaptés à leur environnement
survivent et peuvent se reproduire pour donner des individus plus adaptés encore de génération
en génération.

66
Chapitre III : Approches méta-heuristiques appliquées au tatouage

Les algorithmes évolutionnaires peuvent être regroupés en trois grandes classes : les
algorithmes génétiques, la programmation évolutionnaire et les stratégies d’évolution.

Dans le domaine de l’imagerie, et plus précisément dans la sécurisation de l’image par le


tatouage, les algorithmes génétiques ont été largement utilisés. Dans ce qui suit, nous
présenterons quelques méthodes utilisées dans les processus de tatouage, entre autres :
l’algorithme génétique, et les stratégies d’évolution que nous appliquerons spécifiquement dans
notre travail de recherche. Il faut noter que l’application des stratégies d’évolution dans le
domaine du tatouage en imagerie constitue à notre avis une première tentative. Une recherche
bibliographique étendue nous mène à poser ce constat.

III-5-1-1 Les algorithmes génétiques

Les algorithmes génétiques (AG) sont des algorithmes de recherche inspirés des
mécanismes de l’évolution naturelle des êtres vivants et de la génétique, ou les espèces
s’adaptent à un cadre de vie qui peut évoluer [Surekha et al., 2011].

Les individus de chaque espèce se reproduisent créant ainsi de nouveaux individus,


quelques-uns subissent des modifications de leur ADN alors que d’autres sont appelés à
disparaître.

Les AG simulent ce modèle d’évolution afin de trouver des solutions à un problème donné.
La terminologie qui y est employée est propre à la génétique.

- Chaque individu de la population, représentant une solution potentielle au problème


donné, peut être codé par un chromosome et la population d’individus est donc un
ensemble de chromosomes. Le codage représente la modélisation appropriée des
solutions au problème défini. Il peut être de type binaire ou réel selon le problème
donné.
- Un chromosome est défini comme un ensemble de gènes (variables), et chaque gène est
une partie d’une solution donc d’un individu.
- Une génération est une itération de l’algorithme.

Trois principaux mécanismes qui régissent l’évolution des êtres vivants, sont mimés pour
atteindre l’objectif d’améliorer globalement la performance des individus :

- La sélection : opérateur qui permet de sélectionner les meilleurs individus dans une
population. Il est basé sur la performance des individus, de se reproduire ou de mourir.

67
Chapitre III : Approches méta-heuristiques appliquées au tatouage

- Le croisement (ou recombinaison) : opération génétique qui a lieu lors de la phase de


l’évolution du processus d’optimisation. Ce croisement se fait à chaque génération,
entre les gènes d’une paire de chromosome (x, y) de parents, choisis au hasard, avec une
probabilité Pc, fixée par l’utilisateur, en fonction du problème à optimiser. Il existe
différents types de croisement (Figure III.5): le croisement en un point où un gène est
choisi aléatoirement dans x pour être permuté avec le gène à la même position dans y,
et le croisement en k points où sont choisis deux ou plusieurs points. Le résultat de ce
croisement donne alors des enfants qui formeront d’autres populations plus
performantes, se rapprochant au mieux de la solution optimale. Dans le croisement
uniforme, on génère un masque binaire, de même longueur que le gène, qui détermine
l’opération appliquée sur le gène des enfants (copie intacte, ou croisement des bits, selon
la valeur des bits du masque). [Kammarti, 2006].
L’opérateur de croisement permet donc de créer de nouvelles combinaisons de gènes et
ainsi favoriser l’exploration de l’espace de recherche.

Figure III.5 les différents types de croisements


- La mutation : opérateur qui permet d’inverser un bit dans un chromosome (Figure
III.6) ; ce qui revient à modifier la valeur de chaque gène avec une probabilité notée Pm
(probabilité par bit et non pas par gène). De là, il permet de maintenir la diversité
génétique dans la population. De plus, La mutation empêche l’évolution du processus
de se figer (convergence prématurée de l’algorithme).

68
Chapitre III : Approches méta-heuristiques appliquées au tatouage

Figure III.6 Principe de la mutation

- Principe de fonctionnement d’un algorithme génétique

Le fonctionnement des algorithmes génétiques est simple à décrire. Le problème à


considérer étant défini, les étapes de l’algorithme sont définies par la Figure III.7

1. Génération d’une
population initiale
aléatoire

2. Evaluation de la performance de chaque individu


par la fonction fitness

3. Sélection des
individus

Sélection aléatoire d’un Sélection aléatoire de deux


individu individus

Mutation Croisement

4. Création de la nouvelle
génération

oui
non Solution
Test d’arrêt
vérifié ? optimale

Figure III.7 Principe général d’un algorithme génétique [Loukhaoukha, 2010]

69
Chapitre III : Approches méta-heuristiques appliquées au tatouage

1- Une population initiale, constituée d’un ensemble de points dans un espace de


recherche, représente des solutions candidates du problème donné. Chacun des
individus de la population peut être une solution potentielle au problème, mais pas au
même degré de pertinence. Afin d’évaluer cette pertinence, la fonction objectif, aussi
appelée fonction de performance ou fonction fitness, permet d’attribuer à chaque
individu x de la population, un indicateur qui permet à l’algorithme de faire évoluer
correctement la population dans le but de trouver la meilleure solution.
Le mode opérationnel d’un algorithme évolutionnaire débute par la génération, souvent
aléatoire, d’une population initiale et non pas d’un individu. Ce caractère «aléatoire »
se justifie par le fait que l’espace de recherche étant infini, il est très difficile, voire
impossible, de répartir la population de façon équitable sur tout l’espace de recherche.
2- Un mécanisme d’évaluation de l’adaptation de chaque individu x de la population par
rapport à son environnement. Dans le cas de la minimisation (maximisation) de la
fonction objectif, x est d’autant plus performant que f(x) est petit (grand).
3- La phase de sélection désigne les individus qui ont la capacité de survivre au sein de la
population et qui peuvent participer à la reproduction. Cette probabilité de survie dépend
de sa performance relative au sein de la population. Ces individus peuvent être choisis
à plusieurs reprises, d’autant plus souvent qu’ils sont performants.
4- Un mécanisme d’évolution permet d’éliminer certains individus et d’en produire de
nouveaux à partir d’individus sélectionnés, et ceci grâce aux opérateurs de croisement/
mutation. L’évolution de la composition de la population se fait progressivement, par
générations successives, en maintenant sa taille constante, l’objectif étant d’améliorer
globalement la performance des individus.
Le processus de cet algorithme se réitère jusqu’à la vérification de la condition d’arrêt.

Dans certains cas, la solution obtenue n’est pas celle espérée. Ceci est dû, en général, à un
mauvais choix des paramètres d’entrée comme les zones à explorer de l’espace de recherche ou
la sélection des individus.

III-5-1-2 Les stratégies d’évolution

Les stratégies d’évolution (ES) (Evolutionary Strategies) sont des approches de


modélisation de l’évolution conçues pour résoudre des problèmes d’optimisation à variables
continues [Le Riche et al., 2007]. Les paramètres stratégiques utilisés contrôlent la variation
dans l’évolution. Les individus y sont représentés comme un ensemble de caractéristiques de la

70
Chapitre III : Approches méta-heuristiques appliquées au tatouage

solution potentielle et constituent un vecteur de nombres réels de dimension fixe. Elles sont
basées sur les trois principes de l’évolution naturelle : la sélection, la recombinaison
(croisement) et la mutation.

Les stratégies d’évolution (ES) sont itératives et chaque itération, nommée aussi
génération, débute avec un point de l’espace de recherche noté 𝑚 𝑔 ∈ ℛ 𝑛 , représentant le centre
d’une population d’individus tirés selon une distribution de probabilité Ƥ 𝑔 . Les étapes d’une
génération sont définies par :

- la mutation : elle consiste à échantillonner l’espace de recherche suivant une


distribution donnée dans le but de construire la population de la génération qui constitue
un ensemble de solutions candidates. Lesindividus générés lors de chaque génération
sont évalués en utilisant la fonction objectif. La valeur de la fonction de chaque individu
est stockée pour être utilisée dans l’étape de sélection.
- la sélection : cette étape tient compte de la valeur de la fonction objectif des  individus
de l’étape précédente. Les  individus (< ), donnant les meilleures performances sont
sélectionnés pour construire la population de la génération suivante. Si la sélection
s’applique uniquement sur les individus, appelés enfants, la stratégie d’évolution est
notée (, )-ES ; sinon, lorsqu’elle s’applique à l’ensemble des individus (enfants  et
parents ) l’algorithme est noté (+)-ES [Iñaki, 2013].
- la recombinaison : l’opérateur de recombinaison combine les  meilleurs individus
sélectionnés lors de la génération g, pour générer le point moyen, appelé centroïde qui
représente le point de départ de la génération suivante 𝑚 𝑔+1 , est le point de départ de la
génération suivante. Il représente une moyenne pondérée des individus sélectionnés.
Cette pondération est fonction de la performance de chaque individu. L’individu le plus
performant a le poids le plus grand.
𝜇 (𝑔)
𝑚(𝑔+1) = ∑𝑖=1 𝑤𝑖 𝑥𝑖:𝜆 (III.1)
avec ∑𝜇𝑖=1 𝑤𝑖 = 1 et 𝑤1 > 𝑤2 > ⋯ > 𝑤𝜇 > 0 (III.2)

L’opérateur principal, dans le cas des ES, est la mutation. Travaillant sur des réels, la
mutation consiste à rajouter à un individu que l’on désire muter, un bruit normal qui suit une
loi généralement gaussienne de moyenne nulle (centrée en zéro) et d’écart-type . La forme
générale de la mutation est décrite par :

𝑥 = 𝑥 + 𝜎Ɲ(0, 𝐶) (III.3)

71
Chapitre III : Approches méta-heuristiques appliquées au tatouage

avec 𝑥 ∈ ℛ 𝑛 : vecteur de nombres réels à optimiser,


𝜎 : facteur d’échelle représentant le pas de la mutation ou de l’échantillonnage,
𝐶 : matrice de covariance donnant les directions de la distribution.

Ajuster les paramètres d’une ES revient donc à chercher les meilleurs valeurs du pas de
la mutation et de la matrice de covariance.

L’évolution historique des ES est essentiellement basée sur les différentes étapes de
réglage des paramètres de la mutation gaussienne.

[Hansen et al.,1996] ont d’abord proposé une méthode déterministe d’adaptation du pas
de mutation 𝜎. En 2001, ils proposent une adaptation de l’ensemble des paramètres de la
mutation à savoir le pas et la matrice de covariance [Hansen et al., 2001]. En 2003, la version
complète et améliorée de la méthode, fut proposée [Hansen et al., 2003] et fut baptisé
« Adaptation de la matrice de covariance : CMA-ES » . Actuellement, elle est présentée comme
la meilleure des stratégies d’évolution [Hamdani et al., 2018].
La manière de tenir compte des adaptations des paramètres de la distribution dépend
étroitement des types de distribution gaussienne centrée utilisée pour la mutation. On peut en
distinguer trois types différents [Le Riche et al., 2007]:
- la mutation est dite isotrope dans le cas où la distribution est équivalente pour toutes
les dimensions : un seul pas de mutation 𝜎 est utilisé par individu et la matrice de
covariance est la matrice identité.

Figure III.8 : Distribution normale centrée isotrope

- La mutation non-isotrope. Lorsque l’espace de recherche est complexe et irrégulier, il


est parfois envisageable d’adapter le pas de mutation indépendamment pour chaque
individu. Ceci donne des ellipsoïdes orientés selon les axes des coordonnées.

72
Chapitre III : Approches méta-heuristiques appliquées au tatouage

Figure III.9 : Distribution normale centrée non isotrope orientée selon l’axe des x

- La mutation décorrélée. Pour pouvoir décorréler les distributions des axes de


coordonnées, dans le cas où aucune information n’est donnée sur la topologie de la
fonction objectif, la matrice de covariance doit être adaptée à chaque itération pour
qu’elle soit orientée dans la meilleure direction de recherche, sans tenir compte des axes
de chaque dimension de l’espace de recherche.

Figure III.10 : Distribution normale centrée non isotrope orientée selon la meilleure direction de
recherche.

III-5-1-3 Principe de la méthode CMA-ES (𝝀, 𝝁)

La méthode CMA-ES, appartenant à la classe des stratégies d’évolution, suit le même


principe et les mêmes étapes de l’algorithme. Sa particularité est qu’elle met en œuvre des
techniques supplémentaires par rapport à la mise à jour de la matrice de covariance pour qu’elle
puisse être orientée dans la meilleure direction de recherche. L’idée principale de cet algorithme
est qu’il adapte le parcours de la matrice de covariance pour l’itération suivante (𝐶 𝑔+1 ), en
fonction de la direction qui donne les meilleures solutions candidates trouvées.

73
Chapitre III : Approches méta-heuristiques appliquées au tatouage

 Les étapes de l’algorithme général du CMA-ES (𝝀, 𝝁)

Les premières étapes de l’algorithme CMA-ES sont communes à celles de la stratégie


d’évolution (𝜆, 𝜇).

1- Echantillonnage de l’espace de recherche suivant la distribution normalisée centrée

(𝑔+1) 2
𝑥𝑘 ~𝑚(𝑔) + (𝜎 (𝑔) ) Ɲ(0, 𝐶 (𝑔) ) (III.4)

avec k=1,……, 𝜆
𝑚(𝑔) : Valeur moyenne de la distribution à la génération g
𝜎 (𝑔) : Pas global de la mutation (échantillonnage)
Ɲ(0, 𝐶 (𝑔) ) : Distribution normale multivariée de moyenne 0 et de matrice de covariance
𝐶 (𝑔)

2- Evaluation des 𝜆 enfants en utilisant leur fonction objectif f (𝑥𝑘 )

3- Trier les 𝜇 meilleurs enfants suivant les valeurs de leur fonction objectif, dans l’objectif
d’une maximisation f(𝑥1:𝜆 ) > f(𝑥2:𝜆 )> ⋯ > 𝑓(𝑥𝜆:𝜆 )

4- Mise à jour de la moyenne m par l’opération de mutation des 𝜇 meilleurs individus


𝜇
𝑚(𝑔+1) = ∑𝑘=1 𝑤𝑘 𝑥𝑘 (III.5)

5- Mise à jour de la matrice de covariance


𝑐𝑐0 (𝑔+1) (𝑔+1) 𝑇 1 𝜇 (𝑔+1) (𝑔+1)𝑇
𝐶 (𝑔+1) = (1 − 𝑐𝑐0 )𝐶 (𝑔) + 𝑝𝑐 (𝑝𝑐 ) + 𝑐𝑐0 (1 − ) ∑𝑖=1 𝑤𝑖 𝑦𝑘:𝜆 𝑦𝑘:𝜆
𝜇𝑐0 𝜇𝑐0

(III.6)
Pour la mise à jour de la matrice de covariance de la distribution 𝐶 (𝑔) , le CMA-ES utilise
deux techniques :
- la technique du «rank-𝝁 update » qui calcule les adaptations pour 𝐶 (𝑔+1) en utilisant
les meilleurs 𝜇 sélectionnés ; elle correspond à la mise à jour de la matrice de covariance
de la distribution seulement par rapport à la direction de recherche défini dans (III.6)
(𝑔+1)
(𝑔+1) 𝑥𝑘:𝜆 −𝑚(𝑔)
par les vecteurs 𝑦𝑘:𝜆 = .
𝜎 (𝑔)

74
Chapitre III : Approches méta-heuristiques appliquées au tatouage

- La technique du « rank-one update » tient compte du chemin cumulé des mises à jour
de la matrice de covariance faites lors des générations successives (evolution path). La
mise à jour du chemin est définie par
(𝑔+1) (𝑔) 𝑚(𝑔+1) −𝑚(𝑔)
𝑝𝑐 = (1 − 𝑐𝑐 )𝑝𝑐 +√ 𝑐𝑐 (2 − 𝑐𝑐 )𝜇𝑒𝑓𝑓 (III.7)
𝜎 (𝑔)

6- La mise à jour du pas de mutation


(𝑔+1)
𝑐𝜎 ‖𝑝𝜎 ‖
(𝑔+1) (𝑔)
𝜎 = 𝜎 exp(𝑑 (𝐸‖Ɲ(0,1)‖) − 1)) (III.8)
𝜎

avec 𝑝𝜎(𝑔+1)représente chemin cumulé définit par

(𝑔+1) (𝑔) 𝑚(𝑔+1) −𝑚(𝑔)


𝑝𝜎 = (1 − 𝑐𝜎 )𝑝𝜎 +√ 𝑐𝜎 (2 − 𝑐𝜎 )𝜇𝑒𝑓𝑓 (III.9)
𝜎(𝑔)

La figure III.11 représente l’organigramme de l’algorithme CMA-ES

Initialisation de la
distribution

Echantillonnage de la distribution
g=g+1

Evaluation de la population par la Mise à jour des


fonction objectif de chaque enfant paramètres de la
distribution : 𝜎 et C
𝜎
oui
Solution Mise à jour des
Test d’arrêt
optimale atteinte chemins cumulés
atteint ?
𝑝𝜎 et 𝑝𝑐
Non

Tri de la population et Mise à jour de la


sélection des 𝜇 meilleurs nouvelle moyenne des
𝜇 individus

Figure III.11 : Organigramme de l’algorithme CMA-ES [Ngo et al., 2017]

III-5-2 LES ALGORITHMES A ESSAIM PARTICULAIRE (PARTICLE SWARM


OPTIMIZATION : PSO)

Les premiers articles concernant la méthode d’optimisation par essaim particulaire


datent de 1995. Ils ont été introduits par [Eberhart et al., 1995] comme une alternative aux

75
Chapitre III : Approches méta-heuristiques appliquées au tatouage

algorithmes génétiques. Cette méthode est issue d’une analogie avec les comportements
collectifs de certains groupes d’animaux, précisément de leurs déplacements en groupes et
de leurs mouvements coordonnés, pour trouver de la nourriture ou éviter des prédateurs
(exemple des bancs de poissons ou des nuées d’oiseaux).

Comme pour les algorithmes génétiques, cette méthode fait appel à une population
d’individus appelée dans ce cas « essaim », et les individus sont nommés « particules ». Son
efficacité est due, non plus à la compétition comme dans le cas des AG, mais à la
collaboration entre les particules.

Un autre aspect la différencie des algorithmes génétiques : les algorithmes à essaim


particulaire n’ont pas d’opérateurs d’évolution tels que le croisement et la mutation, mais les
solutions potentielles (particules) explorent l’espace de recherche en suivant les meilleures
particules locales.

Le déroulement de cet algorithme se fait de façon à ce que les particules formant


l’essaim, qui sont donc les solutions potentielles au problème d’optimisation, soient dispersées
dans l’espace de recherche et s’y déplacent afin de trouver la solution optimale.

Le comportement de l’essaim est donc décrit par rapport à une particule de l’essaim.
Chaque particule est caractérisée par sa position et sa vitesse. Chacune d’elle a une mémoire
qui lui permet de se souvenir de sa meilleure performance, en position et en fonction de son
meilleur voisin. A chaque itération, la particule se déplace avec une nouvelle vitesse et vers une
nouvelle position ; elle évolue en fonction de son meilleur voisin, de sa meilleure position et de
sa position précédente. C’est cette évolution qui lui permet de s’approcher d’une particule
optimale. Pour décider de son prochain mouvement (défini par sa nouvelle vitesse), la particule
a donc besoin de quatre informations [Clerc, 2004] :

- sa vitesse actuelle,
- sa meilleure performance (sa meilleure position visitée), représentée essentiellement par
la valeur calculée du critère ainsi que ses coordonnées,
- la meilleure performance de ses voisines qui correspond à l’ordonnancement optimal,
- la valeur attribuée à la fonction objectif (fitness). Cette valeur est calculée à chaque
itération et est un moyen pour mesurer la qualité de chaque solution. Elle correspond au
résultat de la comparaison entre la valeur du critère donné par la particule courante et la
valeur optimale.
Quatre paramètres permettent de caractériser l’essaim de particules [Shi et al., 1998].

76
Chapitre III : Approches méta-heuristiques appliquées au tatouage

1- Le nombre de particules : qui dépend de l’espace de recherche. Le choix de ce


paramètre se fait de façon aléatoire. Il n’existe pas de règles qui le déterminent au
préalable.
2- Le voisinage : qui est caractérisé par sa topologie. On définit la topologie du voisinage
par la façon dont chaque particule communique avec les particules voisines appelées
groupe d’informatrices, afin de s’échanger les informations entre elles (le réseau de
communication entre les particules). Parmi les topologies les plus utilisées, [Shi et al.,
1998] retiennent :
a. La topologie en rayon où seule une particule centrale, en connexion avec toutes
les autres, tend à se déplacer vers la meilleure particule dans son voisinage local.
b. La topologie en anneau où chaque particule communique avec ses voisines
immédiates, et chacune d’elle tend à se déplacer vers la meilleure particule dans
son voisinage local.
c. La topologie en étoile où le réseau est complet puisque chaque particule
communique avec l’ensemble des particules et chacune d’elle tend à se diriger
vers la meilleure particule globale.

3- L’inertie : définie par un facteur qui contrôle l’influence de la vitesse obtenue à la


vitesse précédente. Un grand facteur d’inertie provoque une grande exploration de
l’espace de recherche alors qu’un petit facteur localise la recherche sur un petit espace.

4- Les coefficients de confiance.

Les équations qui définissent le mouvement d’une particule sont, pour chaque itération :
 𝑉𝑖𝑖𝑡𝑒𝑟+1 = 𝑤𝑉𝑖𝑖𝑡𝑒𝑟 + 𝑐1 𝑟1𝑖𝑡𝑒𝑟 (𝑃𝑖𝑖𝑡𝑒𝑟 − 𝑋𝑖𝑖𝑡𝑒𝑟 ) + 𝑐2 𝑟2𝑖𝑡𝑒𝑟 (𝑃𝑔𝑖𝑡𝑒𝑟 − 𝑋𝑔𝑖𝑡𝑒𝑟 ) (III.10)

où Xi représente la position de la particule 𝑖 de l’essaim dans l’espace de recherche de


dimension 𝓃. Elle est définie par le vecteur Xi = (𝓍i1, 𝓍i2, …., 𝓍i𝓃)
𝑽𝑖 est le vecteur de vélocité définie par 𝑽𝒊 = (𝓋i1, 𝓋i2, ……, 𝓋i𝓃)
𝑷𝒊 représente la meilleure position par laquelle la particule i de l’essaim serait passée et
aurait gardé en mémoire.
𝑷𝒈 est le vecteur représentant la meilleure position retrouvée par l’ensemble des particules
de l’essaim.

77
Chapitre III : Approches méta-heuristiques appliquées au tatouage

𝒘 est une constante appelée facteur d’inertie. Il contrôle l’influence de la direction de


déplacement.
Les constantes 𝒄𝟏 et 𝒄𝟐 sont les coefficients d’accélération du PSO. Ils représentent le degré
de confiance dans la meilleure solution trouvée par une particule individuelle (c1 : paramètre
cognitive) et par l’essaim (c2 : paramètre social).
Les composantes 𝒓𝟏 et 𝒓𝟐 sont des constantes aléatoires dans [0,1]
 La nouvelle vitesse 𝑽𝒊𝒕𝒆𝒓+𝟏
𝒊 est ensuite appliquée à la position courante 𝑋𝑖𝑖𝑡𝑒𝑟 pour
donner la nouvelle position telle que définie par :

𝑋𝑖𝑖𝑡𝑒𝑟+1 = 𝑋𝑖𝑖𝑡𝑒𝑟 + 𝑉𝑖𝑖𝑡𝑒𝑟+1 (III.11)

En résumé, le fonctionnement de l’algorithme à essaim particulaire est représenté en


Figure III.12 :

Initialisation de la
population de particules

Mise à jour de la position et de la


vitesse de chaque particule

Evaluation de la performance de chaque


particule dans l’actuelle itération

oui
Test d’arrêt Solution optimale :
vérifié ? Meilleure position

Nouvelle Génération

Figure III.12 : Principe de fonctionnement de l’algorithme à essaim de particules [Bachir Bouiadjra et al.,
2016]

78
Chapitre III : Approches méta-heuristiques appliquées au tatouage

III-5-3 LES ALGORITHMES DE COLONIE DE FOURMIS (ANT COLONY


OPTIMIZATION : ACO)

L’idée première de l’algorithme des colonies de fourmis provient de l’exploitation des


ressources alimentaires chez les fourmis. En effet, en observant une colonie de fourmis à la
recherche de nourriture dans les environs du nid, il est apparu que leur comportement
pouvait résoudre des problèmes tels que celui de la recherche du plus court chemin. Aussi,
il a été simple de simuler leur comportement par des algorithmes.

Avant de simuler le comportement naturel de ces individus, des études ont été faites par
des biologistes sur le comportement des fourmis qui ont montré, à partir d’une série
d’expériences menées depuis 1989, que face à deux chemins d’inégale longueur menant à
une source de nourriture, une colonie de fourmis avait tendance à choisir le plus court
chemin.

- Comportement de la fourmi :

Comme pour les essaims particulaires, le comportement des fourmis est un


comportement collectif. Chaque individu de la colonie est indépendant et est aidé par la
communauté dans son évolution. En retour, il participe à son bon fonctionnement.

Sachant que la communication des fourmis se fait à l’aide des phéromones, molécules
chimiques produites induisant un comportement spécifique chez d’autres fourmis, les étapes
du comportement d’une fourmi à la recherche d’une source de nourriture sont modélisées
comme suit :

- Une fourmi (nommée l’éclaireuse) parcourt aléatoirement l’environnement autour de la


colonie.
- Si elle découvre la source de nourriture, elle revient au nid en marquant son chemin de
phéromones.
- L’ensemble des autres fourmis parcourt un certain nombre de trajets et chaque fourmi
dépose une quantité de phéromone proportionnelle à la qualité du parcours. Celles
passant à proximité de ces phéromones vont suivre, de façon plus ou moins directe ce
chemin, les phéromones étant attractives.
- Ces mêmes fourmis, en revenant au nid, vont déposer leurs phéromones et renforcer le
chemin marqué.

79
Chapitre III : Approches méta-heuristiques appliquées au tatouage

- Parmi les pistes parcourues pour atteindre la source de nourriture, la piste la plus courte
sera la plus visitée et donc sera plus renforcée ; Les phéromones étant volatiles, les
autres pistes auront tendances à disparaître.
- Au final, la colonie de fourmis aura donc choisi la piste la plus courte.

Figure III.13 Recherche du plus court chemin par les fourmis en quête de nourriture [El Dor, 2012].

(A) Sans obstacle, (B) Apparition de l’obstacle, (C) Recherche du plus court chemin, (D) Chemin optimal trouvé

Le principe de fonctionnement de l’algorithme de colonie de fourmis s’inspire du


comportement de la colonie de fourmis et est représenté par l’organigramme suivant :

Définition des paramètres


de l’algorithme

Initialisation aléatoire de la
population initiale de fourmis

Evaluation de la colonie de fourmis


par la fonction objectif (fitness)

Solution optimale :
Test d’arrêt
atteint ? Meilleure fitness

Mise à jour de la phéromone pour


chaque fourmi

Nouvelle itération

Figure III.14 : Organigramme du foncionnement de l’algorithme de colonie de fourmis 80


[Loukhaoukha, 2010]
Chapitre III : Approches méta-heuristiques appliquées au tatouage

III-5-4 LE SYSTEME IMMUNITAIRE : DU NATUREL A L’ARTIFICIEL

Parmi les méta-heuristiques d’optimisation les plus récentes, le système immunitaire


artificiel AIS (Artificial Immune System), inspiré du fonctionnement du système immunitaire
des vertébrés a fait son apparition dans les années 90. Il s’agit d’un mécanisme de défense basé
sur l’apprentissage.

La métaphore dont sont issus les algorithmes de l’AIS met l’accent sur les aspects
d’apprentissage et de mémorisation du système immunitaire naturel. Ses propriétés en ont fait
un algorithme très attractif pour les informaticiens. Parmi ces propriétés, on retiendra que

- Chaque individu possède son propre système immunitaire avec ses forces et ses
vulnérabilités
- Le système immunitaire détecte et réagit aux antigènes inconnus pour le corps.
- Les molécules étrangères à l’individu sont reconnues et éliminées.

III-5-4-1 Le Système Immunitaire Naturel (SIN)

Le système immunitaire naturel protège l’organisme. Il est mis à contribution lorsque


les cellules qui le composent ont détecté la présence d’un intrus dans le corps. Il est composé
de plusieurs cellules et molécules différentes, réparties dans tout l’organisme, qui font
équipe pour éliminer l’intrus appelé « antigène ». Il s’appuie sur un réseau de
communication dynamique très sophistiqué qui transmet les messages entre les différents
types de cellules immunitaires [Castro et al., 2002]. Il remplit deux fonctions principales :
la reconnaissance et la réponse.

- La reconnaissance par les cellules de tout ce qui est étranger au corps (antigène). Une
fois l’antigène reconnu et identifié, les cellules le neutralisent ou l’éliminent. Le système
immunitaire mémorise l’information propre à l’antigène pour une réaction immédiate
et ciblée en cas de réapparition de cet antigène.

- La réponse immunitaire traduit l’activation des mécanismes du système immunitaire


face à une agression de l’organisme qui se manifeste par la production d’anticorps (des
molécules biologiques qui identifient les antigènes). Il existe deux types de réponses
immunitaires :

81
Chapitre III : Approches méta-heuristiques appliquées au tatouage

o L’immunité innée qui est une réponse immédiate, non spécifique à l’agresseur
et non adaptative. Elle repose sur une distinction globale du soi et du non-soi.
o L’immunité acquise ou adaptative qui peut identifier spécifiquement et éliminer
de manière sélective l’antigène. Elle est caractérisée par sa spécificité, sa
diversité, sa mémoire immunitaire et la reconnaissance du soi et du non-soi. Ce
sont ses facultés d’adaptation et d’évolution qui lui confèrent un réel intérêt en
informatique.

La notion du « soi » ou encore « antigène du soi » fait référence aux cellules inoffensives
du système qui peuvent mal fonctionner dans le corps (cancer, tumeur). « Les antigènes du non-
soi » ou « le non-soi » sont les cellules causant des maladies étrangères (virus, bactérie).

III-5-4-1.1 Les cellules du système immunitaire

Plusieurs cellules participent à la réponse immunitaire. Certaines d’entre elles sont


responsables de la défense générale, alors que d’autres sont formées pour lutter contre les
antigènes hautement spécifiques. On les classe suivant qu’elles appartiennent à l’immunité
innée ou à l’immunité acquise (figure III.15).

- Les cellules de l’immunité innée appelées macrophages sont composées de cellules qui
sont capables de capter et de détruire les antigènes et de cellules capables de capter,
d’apprêter et de présenter l’antigène (appelées cellules présentatrices de l’antigène)
- Les cellules de l’immunité acquise sont nommées lymphocytes T et B. Elles sont
capables de reconnaître spécifiquement des antigènes. Les lymphocytes B le font sans
intervention alors que les lymphocytes T ont besoin que les antigènes leur soient
présentés par une cellule présentatrice d’antigène (reconnaissance d’un antigène
apprêté). Les lymphocytes B sont responsables de la production d’anticorps et les
lymphocytes T, responsables des réponses cellulaires.

Immunité

Innée Acquise

Macrophages Lymphocytes

Cellules T Cellules B

Figure III.15 : Le système immunitaire et ses cellules 82


[Sahraoui 2016]
Chapitre III : Approches méta-heuristiques appliquées au tatouage

III-5-4-1.2 Les étapes de la réponse immunitaire

Dès qu’un antigène pénètre dans le corps, plusieurs processus de défense se mettent en
œuvre :

- La phagocytose : la réponse immunitaire innée entre en jeu en premier en activant des


cellules, appelées cellules phagocytaires ou macrophages, qui, de par leur forme et riches en
récepteurs sur leur membrane plasmique, détruisent l’antigène et l’expulsent en fragments afin
qu’il soit reconnu par les lymphocytes (figure III.16) :

Figure III.16 : Les étapes de phagocytose [Dasgupta, 1999]

- La sélection clonale : qui décrit les principes de la réponse immunitaire acquise : Les
cellules T, ayant reconnu l’antigène par ses fragments, commencent à produire et à
sécréter des signaux chimiques mobilisant les cellules B. Ces derniers s’activent et
ceux, parmi eux, qui identifient l’antigène avec un certain degré d’affinité, se multiplient
grâce à l’opération de clonage. Ces clones se différencient en deux types de cellules :
ceux dédiées à mémoriser cet antigène et ceux (les plasmocytes) qui produisent un grand
volume d’anticorps. L’antigène sera recouvert de ces anticorps et sera ainsi reconnu par
les phagocytes et éliminé. (Figure III.17)

Figure III.17 : Sélection clonale [Dasgupta, 1999]

83
Chapitre III : Approches méta-heuristiques appliquées au tatouage

- La mémoire immunitaire : La réussite d’une réponse immunitaire se caractérise aussi


bien par l’élimination de l’antigène que par le développement d’une immunité de longue
durée qui permet d’avoir une réponse plus forte et plus rapide lors d’un contact ultérieur
avec le même pathogène. Les lymphocytes T et B gardent en mémoire ce pathogène et
peuvent réagir en plus grand nombre et plus rapidement que les lymphocytes innés
activés au cours de la réponse primaire.
- La maturité de l’affinité : On décrit l’affinité d’un anticorps pour un antigène comme
étant la force de liaison entre un site de liaison de l’anticorps et l’antigène. La maturité
de l’affinité fait référence au fait que les lymphocytes B, avant qu’ils ne deviennent des
plasmocytes, subissent des mutations et deviennent de plus en plus nombreux. Seules
les cellules ayant une plus grande affinité avec l’antigène seront sélectionnées.

III-5-4-2 Le Système Immunitaire Artificiel (AIS)

Plusieurs définitions ont été données de l’AIS [Castro et al., 2002], [Dasgupta, 1999]. Il
est présenté comme étant un système informatique s’inspirant des principes, des modèles et des
propriétés du Système Immunitaire Naturel (SIN) pour la résolution des problèmes du monde
réel. Pour cela, ces algorithmes exploitent les caractéristiques d’apprentissage et de
mémorisation du SIN.

Ces problèmes peuvent être de différentes natures et concerner différents domaines de


recherches telles que la robotique, la détection d’anomalies ou l’optimisation [De Castro et al.,
2002].

Vu la complexité du système immunitaire biologique et la difficulté à le modéliser,


[Castro et al., 2002] ont proposé un cadre de référence pour la conception d’un AIS. Il repose
essentiellement sur trois étapes essentielles (voir figure III.18) : la représentation, les mesures
d’affinité et les algorithmes immunitaires.

Mesures Algorithmes
Représentation
d’affinité immunitaires

Figure III.18 : Modèle de conception d’un AIS [De Castro et al., 2002]

 La représentation des composants du système par des modèles de cellules et de


molécules immunitaires : les cellules B et T sont un exemple de modélisation

84
Chapitre III : Approches méta-heuristiques appliquées au tatouage

puisqu’elles sont les plus importants du système immunitaire naturel. Elles peuvent,
grâce aux récepteurs qu’elles portent à leur surface, reconnaître les intrus, et ceci par le
fait que les formes des récepteurs sont complémentaires à la forme de l’antigène.
 Les mesures d’affinité qui permettent de décrire quantitativement les interactions entre
les antigènes et les anticorps. Ces interactions sont quantifiées par une ou plusieurs
fonctions, appelées fonctions d’affinité. Elles sont relatives à la mesure de la distance
entre ces deux entités. Plus la distance est petite, plus l’affinité entre eux est grande.

Un antigène est représenté par un vecteur Ag = (Ag1, Ag2, ……, AgL) et un anticorps
par le vecteur Ac = (Ac1, Ac2, ….., AcL). Les distances les plus utilisées sont :

- La distance euclidienne : D= √∑𝑛𝑖=1(𝐴𝑐𝑖 − 𝐴𝑔𝑖 )²

- La distance de Manhattan : D = ∑𝑛𝑖=1 ǀ 𝐴𝑐𝑖 − 𝐴𝑔𝑖 ǀ


1 𝑠𝑖 𝐴𝑐𝑖 ≠ 𝐴𝑔𝑖
- La distance de Hamming D = ∑𝑛𝑖=1 𝛿 𝑖 avec 𝛿={
0 𝑠𝑖𝑛𝑜𝑛

85
Chapitre III : Approches méta-heuristiques appliquées au tatouage

 Les algorithmes immunitaires :


Les algorithmes immunitaires sont inspirés des modèles ou comportement du
système immunitaire naturel : la réponse immunitaire représente les solutions et les
antigènes le problème à résoudre [Cui et al., 2010]. Ils sont au nombre de trois et les
étapes de chaque algorithme sont décrites comme suit :

 L’algorithme de sélection clonale :


a. Création d’une population aléatoire d’anticorps N. Cette population est
généralement divisée en un ensemble m d’anticorps à « mémoire » qui
représentent éventuellement la solution et l’ensemble d, utilisé pour
introduire la diversité.
b. Evaluation des affinités entre les antigènes et les anticorps. Les anticorps
sont exposés à tous les antigènes Ag. Chaque antigène est présenté à la
population N pour déterminer l’affinité avec chacun d’eux.
c. Sélection des clones et multiplication. Un ensemble d’anticorps est
sélectionné en fonction de leurs affinités avec l’antigène. L’ensemble des
anticorps sélectionnés sont clonés proportionnellement à l’affinité.
𝛽𝑁
𝑁𝑐 = ∑𝑁
𝑖=1 𝑟𝑜𝑢𝑛𝑑 ( ) (III.12)
𝑖

avec  le facteur multiplicateur qui contrôle le nombre de clones.

N : nombre d’anticorps.

d. Maturation. Ces clones sont soumis au processus de maturation d’affinité


décrit par :

xi ,m  xi  A  rand  1,1  xmax  xmin  (III.13)

Avec 𝓍𝑚𝑖𝑛 et 𝓍𝑚𝑎𝑥 sont les limites inférieure et supérieure de l’anticorps.

A : un facteur dépendant de l’affinité. Il diminue quand l’affinité augmente.

e. Mutation (Modification). L’ensemble des anticorps clonés subissent des


mutations afin de mieux répondre aux antigènes. Plus l’affinité est grande
plus le taux de mutation est faible.

Les anticorps de faible affinité, remplacés par de nouveaux, générés de façon


aléatoire, est donnée par :

86
Chapitre III : Approches méta-heuristiques appliquées au tatouage

xi  xmin  rand 0,1  xmax  xmin  (III.14)

Les anticorps avec la plus grande affinité sont sélectionnés comme anticorps mémoires.

f. Fin éventuelle de l’algorithme. La solution sera contenue dans l’ensemble


m d’anticorps

 L’algorithme de sélection négative. Il permet la génération de récepteurs capables


de reconnaître le non-soi et la surveillance pour tester les entrées en utilisant les
récepteurs générés [De Castro et al., 2002].
1- Génération du soi comme étant un ensemble E d’éléments dans un espace U, qui
doit être surveillé.
2- Génération d’un ensemble D de récepteurs qui s’apparie avec quelques éléments
de E.
3- Surveillance de E à l’aide de D. Si l’un des récepteurs ne s’apparie pas avec l’un
des quelques éléments de E, alors il s’est produit un changement.
 L’algorithme de sélection positive proposé par [Forrest et al., 1983] est une
alternative de l’algorithme de la sélection négative. La différence principale est la
génération de récepteurs capables de détecter des éléments du soi.

Tous ces algorithmes ne sont pas nécessairement implémentés dans une même
application. Chacun d’eux a un rôle bien défini, selon le domaine de recherche. Généralement,
les algorithmes de sélection clonale sont le plus souvent utilisés dans des applications
d’optimisation vu que les cellules B sont de plus en plus affines aux antigènes. Les algorithmes
de sélections positive/négative peuvent être utilisées avec celui de la sélection clonale pour
détecter et éliminer les mauvaises solutions [De Castro et al., 2002].

La structure de l’organigramme général d’un algorithme immunitaire artificiel est


représentée par :

87
Chapitre III : Approches méta-heuristiques appliquées au tatouage

Initialisation des
paramètres

Initialisation de la
population

Evaluation de
l’affinité

Sélection des
antigènes à affinité la
plus élevée & clonage

Solution optimale :
Test d’arrêt
Meilleure affinité
vérifié ?

Maturation

Mutation

Génération i+1 Evaluation de


l’affinité

Figure III.19 : Structure d’un Algorithme Immunitaire Artificiel [Sahraoui , 2016]

III-6 TECHNIQUES D’OPTIMISATION APPLIQUEES DANS LE


DOMAINE DU TATOUAGE

Les méta-heuristiques ont été introduites dans plusieurs travaux de recherche dans le
domaine du tatouage, dans le but d’optimiser le compromis imperceptibilité/robustesse. Nous
nous limiterons à présenter quelques-uns utilisant les quatre techniques présentées dans les
sections précédentes.

D’une façon générale, le processus d’optimisation dans une application de tatouage passe
par les étapes suivantes :

1- Choix de l’image d’origine et de la (les) marque(s).


2- Choix aléatoire d’une population initiale pour y insérer les bits de la marque.

88
Chapitre III : Approches méta-heuristiques appliquées au tatouage

3- Sélection de la fonction objectif basée sur les valeurs du PSNR (ou du SSIM) et du NCC
pour optimiser respectivement, l’imperceptibilité et la robustesse. Aussi la fonction
fitness peut être définie par :
a. f1= PSNR +  NCC
b. f2 = NCC +  PSNR

Dans le cas (a), la fonction objectif croit plus rapidement avec la valeur de la
robustesse (NCC)

Dans le cas (b), l’importance étant donnée au paramètre d’imperceptibilité.

Les paramètres prédéfinis et le fonctionnement de l’algorithme d’optimisation utilisé


dépendront de l’algorithme choisi.

III-6-1 OPTIMISATION DU TATOUAGE PAR L’ALGORITHME GENETIQUE


(GA)

[Mohananthini et al., 2016] proposent trois méthodes de tatouage multiple d’une image dans
le domaine multi-résolution, en utilisant les algorithmes génétiques. Les paramètres choisis,
communs aux trois méthodes, sont définis par

 taille de la population
 nombre de variables
 nombre de générations
 Probabilité de croisement (Pc)
 Probabilité de mutation (Pm)

- La première méthode consiste à insérer deux marques successives dans l’image ; la première
marque est insérée dans l’image originale et la deuxième marque, dans l’image marquée.

- La deuxième méthode propose la segmentation de l’image originale de sorte que chacune des
deux marques possède sa propre zone d’insertion. La première zone est composée de lignes et
colonnes paires de l’image et la deuxième zone, de lignes et colonnes impaires.

- La troisième méthode consiste à mixer les deux marques. La marque obtenue est insérée dans
l’image d’origine

L’insertion est du type additif pour les trois méthodes : Iw = I0 + w

89
Chapitre III : Approches méta-heuristiques appliquées au tatouage

Les résultats de ce tatouage multiple ont montré que la notion d’imperceptibilité,


mesurée par le paramètre PSNR, est très faible par rapport à un tatouage simple, mais que le
coefficient de corrélation normalisé (NCC), paramètre de robustesse, (III.16) est beaucoup plus
important.

255 2
PSNR (dB) = 10log10 (III.15)
𝑀𝑆𝐸

∑𝐻 𝐿
𝑖=1 ∑𝑗=1 𝑤(𝑖,𝑗)𝑤′(𝑖,𝑗)
NCC = ∑𝐻 𝐿 2
(III.16)
𝑖=1 ∑𝑗=1[𝑤(𝑖,𝑗)]

avec w(i,j) : la marque d’origine et w’(i,j) : la marque extraite et probablement attaquée.


Pour résoudre le compromis imperceptibilité/robustesse, l’algorithme génétique a été introduit
avec les mêmes paramètres d’optimisation pour les trois méthodes.

La sélection de la fonction objectif dépend des valeurs du PSNR et de NCC telle que, pour la

f1 = PSNR + 100× NCC1 (III.17)

f2 = PSNR + 100× NCC2 (III.18)

f3 = NCC + 100× PSNR (III.19)

Le paramètre NCC1 correspond au coefficient de corrélation normalisé de la marque 1


et NCC2 celui de la marque 2 ; NCC représente la moyenne de NCC1 et NCC2.

La solution optimisée correspond à la meilleure fonction objectif trouvée.

Dans [Todmal et al., 2015], les auteurs proposent un tatouage dans le domaine multi-
résolution où la marque est insérée dans les sous bandes de moyenne fréquence après avoir
sélectionné les positions des coefficients aptes à recevoir la marque. L’utilisation de
l’algorithme génétique dans ce travail, permet de trouver l’emplacement optimal des
coefficients dans les sous bandes sélectionnées à cet effet, pour y insérer la marque, afin de
répondre aux critères de robustesse et d’imperceptibilité exigés. La fonction objectif à évaluer
est définie par :
f = PSNR + NC (III.20)

L’algorithme génétique est utilisé pendant les phases d’insertion et d’extraction. La


taille de la marque correspond au nombre d’emplacement utilisé dans le tatouage.
La solution optimisée correspond au chromosome contenant les positions optimales des
coefficients à tatouer.

90
Chapitre III : Approches méta-heuristiques appliquées au tatouage

III-6-2 OPTIMISATION DU TATOUAGE PAR L’ALGORITHME A ESSAIM DE


PARTICULES (PSO)

[Nandi et al., 2016] ont proposé l’utilisation de la technique PSO pour le calcul adaptatif du
facteur d’échelle  et du paramètre d’insertion tel que Le but de la technique est
de minimiser le temps nécessaire pour effectuer un tatouage d’image en simplifiant la fonction
objectif définie par :
F = NCw + NCI (III. 21)
où NCw est le coefficient de corrélation normalisé de la marque extraite et NC I, celui de l’image
tatouée.
[Ansari et al., 2015] ont montré que la technique PSO, combinée avec la décomposition
en valeurs singulières (SVD) de l’image a été utilisée pour répondre au compromis
imperceptibilité/robustesse en calculant la valeur optimale du facteur d’insertion K.
Pour N types d’attaques la robustesse et l’imperceptibilité sont définies par :

𝑁
Robustesse = (III.22)
∑𝑁 ∗
𝑖=1 𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑡𝑖𝑜𝑛(𝑊, 𝑊𝑖 )

Imperceptibilité = 𝐶𝑜𝑟𝑟𝑒𝑙𝑎𝑡𝑖𝑜𝑛 (A, 𝐴𝑤 ) (III.23)

La solution optimale représente le minimum de la fonction objectif donnée par :

𝑁
f= − 𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑡𝑖𝑜𝑛 (A, 𝐴𝑤 ) (III.24)
∑𝑁 ∗
𝑖=1 𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑡𝑖𝑜𝑛(𝑊, 𝑊𝑖 )

où A est l’image hôte, Aw, l’image marquée,

W, la marque originale, Wi* est la marque extraite et attaquée.

N étant le nombre d’attaques que subit l’image marquée.

Les résultats de la simulation ont montré l’importance de la robustesse du tatouage avec


l’utilisation de la technique d’optimisation PSO combinée avec la décomposition SVD par
rapport à ceux basés sur l’utilisation de la SVD seule.

Les paramètres mis en jeu dans ce travail sont représentés par :

 taille de la population,
 nombre de variables,

91
Chapitre III : Approches méta-heuristiques appliquées au tatouage

 nombre de générations,
 la vitesse et la position de chaque particule,
 les facteurs d’apprentissage c1 et c2 (équation (III.10).

III-6-3 OPTIMISATION DU TATOUAGE PAR L’ALGORITHME DE COLONIE


DE FOURMIS (ACO)

[Pokudom, 2013] utilise l’algorithme de colonie de fourmis pour déterminer les


meilleures positions des blocs de la DCT appliquée à l’image d’origine pour y insérer une
marque binaire et le facteur d’échelle qui y correspond. La robustesse et l’imperceptibilité du
tatouage sont tributaires du choix de ces blocs et de leur facteur d’échelle. Dans leur
présentation, l’indice de qualité SSIM est utilisé pour mesurer l’imperceptibilité du tatouage et
le paramètre NCC, la robustesse. Aussi la fonction objectif est définie par :

f = MSSIM (1-MSSIM) + NC Cavg) (III.25)

avec Cavg = (∑ℎ𝑎=1 𝑁𝐶𝑎 )/ℎ (III.26)

où h représente le nombre d’attaques, MSSIM et NC les facteurs de pondération du SSIM et du


NCC, MSSIM représente la moyenne des indices de qualité (SSIM) et NCa est le coefficient de
corrélation calculé pour chaque attaque (a).

[Loukhaoukha, 2013] a montré que le compromis robustesse/imperceptibilité est contrôlé


par plusieurs facteurs scalaires au lieu d’un seul comme dans le cas mono-objectif. Ces
facteurs doivent s'adapter aux différentes composantes spectrales de l’image. A cet effet,
l’auteur utilise l’algorithme de colonie de fourmis (ACO) multi-objectif, au lieu d’un ACO
mono-objectif, afin de déterminer les valeurs optimales des multiples facteurs scalaires et de là,
définir une mesure objective qui sert à évaluer lesdites valeurs scalaires multiples.  est donc
représenté par un vecteur.

III-6-4 OPTIMISATION DU TATOUAGE PAR L’ALGORITHME DU SYSTEME


IMMUNITAIRE ARTIFICIEL (AIS)

[Oğuz et al., 2009] proposent un tatouage imperceptible et robuste pour assurer la protection
des droits d’auteur en utilisant l’algorithme du système immunitaire artificiel. La marque est
insérée dans le domaine spatial de l’image. L’image est subdivisée en blocs et la méthode AIS
est utilisée dans cette étude, pour sélectionner les blocs de pixels aptes à recevoir la marque.

92
Chapitre III : Approches méta-heuristiques appliquées au tatouage

La fonction d’affinité utilisée est définie par :


𝐴𝑓𝑓𝑖𝑛𝑖𝑡é = 𝑃𝑆𝑁𝑅 + 𝜆𝐵𝐶𝑅 (III.27)
Les antigènes et les anticorps étant représentés par des vecteurs réels, la mesure utilisée
entre eux est la distance euclidienne. L’algorithme de la sélection clonale a été utilisé dans cette
étude.

III-7 CONCLUSION

Dans ce chapitre, nous avons présenté les méta-heuristiques avec leurs principales
caractéristiques et leur principe de fonctionnement. Ensuite nous nous sommes basés pour cette
présentation préliminaire, sur trois méthodes méta-heuristiques les plus couramment utilisées
dans le domaine du tatouage d’image. Ces méthodes sont : les algorithmes génétiques, les
l’algorithme d’essaim particulaire et l’algorithme de colonie de fourmis. Pour chacune de ces
méthodes un état de l’art a été donné relatant leur principe d’utilisation et les paramètres mis en
jeu dans le cadre du tatouage. Deux autres méta-heuristiques ont été présentées dans ce chapitre,
qui font l’objet d’utilisation dans le processus d’optimisation dans le présent travail de
recherche : à savoir le CMA-ES et l’AIS.

Notre intérêt pour l’objectif de l’optimisation de la méthode du tatouage, nous a orienté plus
vers ces deux méthodes citées ci-haut. Il à rappeler au lecteur que la technique de l’algorithme
basé sur le système immunitaire artificiel a été jusque-là, très peu exploitée dans le domaine du
tatouage, de sorte qu’une seule référence bibliographique le cite utilisé dans le domaine spatial.
Quant à l’algorithme de l’adaptation de la matrice de covariance CMA-ES, une méthode des
stratégies évolutionnaires, non encore exploitée dans le domaine de l’imagerie, a attiré notre
curiosité et nous a permis de l’exploiter pour avoir des performances compétitives dans le cadre
du tatouage robuste sécurisé.

L’avantage d’utilisation de la méthode CMA-ES est qu’elle ne nécessite pas de réglage


fastidieux des paramètres pour son application. En fait, le choix des paramètres internes de la
stratégie est complètement automatisé.

93
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

CHAPITRE IV : SCHEMAS PROPOSES DU TATOUAGE OPTIMISE


PAR DES APPROCHES BIO-INSPIREES & SIMULATIONS

94
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

IV-1 INTRODUCTION
La conception d’un algorithme de tatouage dépend fortement de la mise en place de
nombreuses techniques judicieusement choisies pour assurer un tatouage répondant aux
résultats escomptés de l’application. L’algorithme de tatouage utilisé dans le cadre de notre
travail répond aux critères de classifications présentés dans le chapitre II, comme étant un
algorithme hybride (DWT-SVD), additif, imperceptible, robuste, non aveugle et sécurisé.
Plusieurs techniques ont été utilisées pour répondre à ces exigences. De plus, dans le
souci d’augmenter les performances de ce tatouage, nous avons fait appel à deux techniques
d’optimisation, l’une ayant déjà fait l’objet d’une étude d’optimisation du tatouage dans le
domaine spatial [Oğuz et al., 2009] : l’algorithme basé sur le système immunitaire artificiel
(AIS), et l’autre technique basée sur l’adaptation de la matrice de covariance (CMA-ES). Le
principe de fonctionnement de ces deux techniques a été présenté dans le chapitre précédent et
leur utilisation dans le domaine du tatouage sera développée dans ce chapitre.
Il est à rappeler que, pour adapter une méta-heuristique à un problème donné, il est
nécessaire de choisir la méthode appropriée et de régler ses paramètres par rapport au problème
à optimiser. Si les paramètres d'entrée sont mal choisis, la méta-heuristique utilisée ne sera pas
efficace. La technique CMA-ES a un paramétrage simplifié puisque ses paramètres internes
évoluent automatiquement, donc plus de chance d'aboutir à la solution espérée. L’AIS étant
utilisé dans le domaine spatial, nous l'utilisons, dans le domaine fréquentiel puisque ce dernier
offre plus d'avantages pour aboutir à un tatouage robuste imperceptible, par rapport au domaine
spatial. Il est à préciser que l’utilisation de ces deux techniques dans le domaine fréquentiel
constitue une première tentative pour le tatouage d’image numérique, d’après notre recherche
bibliographique.
A la fin de ce chapitre, sont présentés les travaux de simulations liés au processus de
tatouage robuste, imperceptible via les deux approches proposées AIS et CMA-ES. Les
simulations ont été menées, sous MATLAB, selon un processus scindé en trois phases : une
première phase est dédiée à l’optimisation du facteur d’échelle , la seconde phase au
processus du tatouage robuste, sécurisé et imperceptible, et une troisième phase pour des tests
comparatifs avec des travaux de la bibliographie. Pour chacune des approches proposées, nous
présentons les résultats des simulations des deux algorithmes d’optimisation appliqués au
processus de tatouage, en termes de robustesse et d’imperceptibilité.

95
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

IV-2 CHOIX DES TECHNIQUES DU TATOUAGE PROPOSE

IV-2-1 CHOIX DU DOMAINE DE TRAVAIL

Comme cité dans le chapitre II, le choix du domaine de travail dépend fortement des
exigences du tatouage. Le tatouage dans le domaine spatial, opérant directement sur les pixels
de l’image présente une faible résistance à plusieurs types d’attaques. Le domaine de l’analyse
multi-résolutions, quant à lui, a largement contribué à améliorer le tatouage non seulement en
améliorant son imperceptibilité mais en augmentant sa robustesse par rapport à plusieurs
attaques. Dans le souci d’augmenter toujours plus la robustesse de la technique de tatouage,
l’utilisation du domaine hybride représente la solution la plus appropriée puisqu’elle combine
les avantages de chacune des méthodes.
Aussi l’algorithme proposé est basé sur la combinaison de la transformée en ondelettes discrète
(DWT) et la décomposition en valeurs singulières (SVD).

IV-2-2 CHOIX DU DOMAINE TRANSFORME

Rappelons que la transformée en ondelettes (DWT), appliquée à l’image, permet de


fournir aussi bien la représentation fréquentielle que la description spatiale de l’image. Cette
description multi-résolution de l’image dans trois directions (diagonale, verticale et horizontale)
permet de choisir la ou les sous-bandes idoines pour l’insertion de la marque. L’insertion d’une
marque dans les sous-bandes de hautes fréquences (HH, LH, HL), représentant les détails du
premier niveau de décomposition, offre une bonne imperceptibilité du tatouage mais une faible
robustesse essentiellement face aux attaques de compression puisque ces dernières sont sujettes
à une mise à zéro de tous leurs coefficients dans le cas d’une forte compression [Trache et al,
2017]. Ce qui se traduit par une suppression de la marque. Pour obtenir plus de robustesse,
plusieurs auteurs dans la littérature, ont proposé d'insérer la marque dans la sous-bande
d'approximation LL. Toutefois, l'insertion dans cette sous-bande cause une grande distorsion
de l’image tatouée. Pour y remédier, la technique de la DWT a été hybridée avec celle de la
SVD.

Les caractéristiques de la SVD ont été décrites au chapitre II (voir section II-5-1-4). Le
principal avantage qui conforte l’utilité de son application dans la technique d’un tatouage
robuste et imperceptible est la bonne stabilité de ses valeurs singulières : lorsque la SVD est
appliquée à l’image hôte (IV.1), l’ajout de la marque dans les éléments de la matrice singulières

96
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

𝑆𝐼 (IV.2), pendant la phase d’insertion, n’affecte pas significativement la perception visuelle de


l’image ; ce qui assure une bonne imperceptibilité du tatouage.
𝐼 = 𝑈𝐼 ∗ 𝑆𝐼 ∗ 𝑉𝐼 (IV.1)
𝑆𝐼 ′ = 𝑆𝐼 + 𝛼𝑊 (IV.2)

L’inconvénient majeur rencontré dans l’application de la SVD dans un schéma de


tatouage est sa vulnérabilité à la détection du faux positive. [Loukhaoukha, 2010] a montré que
lors de la transmission de l’image marquée, l’attaquant peut s’approprier l’image en remplaçant
la marque d’origine par sa propre marque. Généralement, cette attaque se produit lorsque la
SVD est appliquée à la marque et que la matrice des valeurs singulières 𝑆𝑀 est insérée dans
l’image hôte (IV.3). Les matrices des vecteurs singuliers U et V de la marque originale,
spécifiant les propriétés géométriques de l’image, ne sont pas insérées et peuvent donc être
facilement substituées par celles de la marque de l’attaquant (l’algorithme de tatouage étant
public d’après Kerchoff).
𝑆𝐼 ′ = 𝑆𝐼 + 𝛼𝑆𝑀 (IV.3)

Pendant la phase d’extraction, il est fait appel à ces deux matrices pour reconstituer la
marque et l’extraire.

IV-2-3 CHOIX DE LA METHODE DE CRYPTAGE

Afin de contrer le problème de détection du faux positive, il est fait appel à des méthodes
de cryptage pour renforcer la sécurité dans la transmission de l’image marquée.
Plusieurs solutions ont été proposées. [Loukhaoukha, 2010], [Makbol et al., 2014] ont proposé
l’utilisation de la fonction de hachage pour les matrices des vecteurs singuliers U, V de la
marque. Les valeurs de hachage obtenues sont sauvegardées dans une clé privée durant la phase
d’insertion. Lors de l’extraction de la marque, la même fonction de hachage est utilisée et les
valeurs obtenues sont comparées à celles calculées pendant la phase d’insertion. Si ces valeurs
sont différentes, cela implique que la marque est différente et le processus est arrêté.

[Saikrishna et al., 2016], [Ripandeep et al., 2017] ont choisi l’utilisation de la carte
chaotique d’Arnold, technique (appelée aussi Arnold Transform) pour brouiller la marque avant
son insertion dans l’image hôte. Comme décrit dans le chapitre I, l’utilisation des cartes
chaotiques est d’un grand apport dans plusieurs domaines essentiellement dans le tatouage

97
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

d’image. Leurs caractéristiques importantes en ont fait un élément fondamental dans toutes les
applications touchant à la sécurité de l’information. Ces caractéristiques se résument en :

- les bonnes propriétés cryptographiques qu’elles offrent,

- leur reproductibilité à l’identique,

- leur sensibilité aux paramètres du système et aux conditions initiales,

De plus, la technique d’Arnold Transform est simple à mettre en œuvre (voir section I-2-1-
3). Il est à préciser que cette technique n’est applicable que pour des matrices carrées.

L’adoption de cette technique dans notre système de tatouage nous permet d’augmenter la
sécurité du tatouage essentiellement pendant la phase de transmission.

IV-3 ALGORITHME DU TATOUAGE BASE SUR LA DWT-SVD-


ARNOLD TRANSFORM
Tout algorithme de tatouage d’image passe par deux étapes : l’étape d’insertion et l’étape
d’extraction (Figure VI.1). Chacune des étapes est explicitement développée dans la suite du
document et la formulation est par conséquent, adaptée au contexte et l’objectif du travail
abordé.

PSNR
Image hôte 𝛂
Image marquée Marque extraite &
attaquée

Processus Processus
d’insertion d’extraction

NCC

Marque originale

Figure IV.1 : Principe général d’un tatouage d’image [Nandi et al. 2016]

IV-3-1 PROCESSUS D’INSERTION DE LA MARQUE

Généralement, cette étape définit toutes les techniques utilisées dans la procédure de
tatouage. On considère une image hôte I0 de taille N x N, une marque de taille M x M. les étapes
d’insertion sont définis comme suit :

98
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

Etape 1- Application de la DWT sur l’image hôte :

L’image originale à tatouer est décomposée en 3 niveaux de résolution par la DWT. La


sous bande d’approximation (LL3) a été choisie pour insérer la marque. Le choix de cette sous
bande est défini par le fait que l’insertion dans les sous bandes (LL) garantisse une très bonne
robustesse mais au dépend d’une imperceptibilité moyenne qui peut être corrigée par
l’application de la SVD à cette sous bande.

Figure IV.2 Application de la DWT à 3 niveaux de résolution sur l’image « LENA »

Etape 2- Application de la SVD sur la sous bande LL3 :

Du fait que les variations dans les éléments de la matrice des valeurs singulières S
n’affectent pas la qualité visuelle de l’image hôte, la SVD a été très largement adoptée par la
majorité des schémas de tatouage en combinaison avec d’autres techniques :

𝐿𝐿3 = 𝑈 ∗ 𝑆 ∗ 𝑉′ (IV.4)

La matrice des valeurs singulières S est donc prête à recevoir la marque.


Pour sécuriser le tatouage et protéger l’image contre des attaques malicieuses, la marque
est cryptée par l’algorithme de cryptage d’Arnold Transform, avant son insertion dans l’image
hôte.

Etape 3- Cryptage de la marque par la Transformée d’Arnold :


La transformée d’Arnold transforme chaque pixel de coordonnée (x, y) de l’image
marque en coordonnée (x’, y’) d’après la relation (IV.5). C’est une technique itérative. Le
nombre d’itérations, paramètre de contrôle de la transformée, est utilisé comme une clé
cryptographique secrète. Dans la procédure d’extraction, la marque d’origine ne peut être
restituée si le nombre d’itération n’est pas le même (clé secrète).

99
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

𝑥′ 1 1 𝑥
( )=[ ] ∗ (𝑦) 𝑚𝑜𝑑(𝑀) (IV.5)
𝑦′ 1 2
M : dimension de l’image.

Etape 4- Insertion de la marque cryptée :

L’algorithme de tatouage utilisé étant du type additif, la marque cryptée est insérée dans
la matrice des valeurs singulières de la sous bande LL3 suivant la relation IV.6, en utilisant un
facteur d’échelle positif,  (0< <1) :

Aw = SLL3 + W’ (IV.6)


AW : la matrice résultante,
W’ : la marque cryptée.
SLL3 : matrice des valeurs singulières de la sous-bande LL3.
Le facteur  contrôle la force d’insertion de la marque. Plus ce facteur est grand, plus le
tatouage est robuste mais moins imperceptible et plus il est petit, moins robuste est le tatouage
et plus imperceptible. Dans un schéma général, comme représenté en figure IV.1, le choix de
ce facteur se fait de façon empirique. Mais vu qu’il conditionne le compromis robustesse-
imperceptibilité, ce facteur fait l’objet d’optimisation par différentes méthodes, comme vu au
chapitre III.

Etape 5- Application de la SVD sur la matrice résultante AW :

𝐴𝑊 = 𝑈𝑊 ∗ 𝑆𝑊 ∗ 𝑉′𝑊 (IV.7)

Le résultat de cette opération permet d’obtenir la matrice des valeurs singulières SW


portant la marque.

Etape 6- Restitution de la sous bande LL3 marquée :

𝐿𝐿3𝑊 = 𝑈 ∗ 𝑆𝑊 ∗ 𝑉′ (IV.8)

Cette opération permet, en premier lieu, d’injecter la matrice Sw marquée dans la sous
bande LL3 en la combinant avec les matrices orthogonales U et V de LL3 et d’appliquer la
décomposition SVD inverse pour obtenir la sous bande LL3 marquée.

100
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

Etape 7- Restitution de l’image marquée :

Cette étape consiste à appliquer la transformée DWT inverse, niveau par niveau pour
retrouver l’image marquée.

IV-3-2 PROCESSUS D’EXTRACTION DE LA MARQUE

Cette procédure est à l’inverse de la procédure d’insertion, l’élément d’entrée étant


l’image marquée avec ou sans attaques. Pendant la phase d’extraction, il est fait appel à la clé
secrète qui a servi à insérer la marque pendant la phase d’insertion. Il est évident que la marque
ne peut être extraite que si cette clé secrète est connue. Nous l’avons associé au nombre
d’itérations défini pendant la phase d’insertion.

Etape 1- Application de la DWT sur l’image marquée :

L’image marquée est décomposée en trois niveaux pour récupérer la sous bande LL3
marquée.

Etape 2- Application de la SVD sur la sous bande LL3W :

Cette étape permet de récupérer la matrice diagonale marquée de la sous bande LL3.

Etape 3- Application de la SVD inverse sur la matrice diagonale marquée et récupérée :

𝑈𝑊 ∗ 𝑆𝑊 ∗ 𝑉 ′ 𝑊 = 𝐴𝑊 (IV.9)

Pour récupérer la marque cryptée, il est fait appel aux matrices orthogonales de 𝐴𝑊 qui
sont associées à la matrice diagonale récupérée à l’étape 2.

Etape 4- Extraction de la marque cryptée :

La marque cryptée est récupérée en se servant de l’équation (IV.6). La matrice singulière


SLL3 est donc sollicitée lors du processus d’extraction :

W’ = (AW – SLL3) /  (IV.10)

Etape 5- Vérification de la sécurité du tatouage :

101
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

La sécurité du tatouage dépend de la clé secrète définie pendant la phase d’insertion. Si


au récepteur la même clé est employée, la marque peut être décryptée. Sinon, la marque peut
avoir été substituée par la marque d’un attaquant malveillant pendant la transmission de l’image
marquée et nous sommes alors confrontés au problème de la détection du faux positive. Fin du
processus du tatouage.

Etape 6- Extraction de la marque en clair :

Dans le cas où la clé secrète, à la réception, correspond bien à celle définie à l’émission,
la marque en clair est récupérée en utilisant la forme de décryptage (IV.11). Elle peut avoir été
probablement modifiée par d’autres types d’attaques.
L’algorithme de décryptage utilise donc la clé secrète. A chaque itération, les pixels de
la marque W’ cryptée (𝑥 ′ , 𝑦 ′ ), sont soumis à une transformation d’après la relation (IV.11) pour
récupérer les pixels (𝑥 , 𝑦) de la marque d’origine W.

𝑥 2 −1 𝑥′ 𝑀
(𝑦) = ([ ] ∗ ( ′ ) + ( )) 𝑚𝑜𝑑(𝑀) (IV.11)
−1 1 𝑦 𝑀

IV-3-3 PHASE D’ATTAQUES

L’image marquée peut être soumise à plusieurs manipulations, comme décrit en (section
II-6). Il peut s’agir aussi bien d’attaques bienveillantes ou d’attaques malveillantes dont
l’objectif est de détruire la marque ou pour s’approprier l’image en remplaçant la marque
d’origine par sa propre marque ou pour un autre usage. Les attaques considérées, dans le cas de
notre étude, sont au nombre de cinq : la compression JPEG, la rotation, les filtres médian et
moyen et l’ajout du bruit gaussien.

IV-4 OPTIMISATION DU TATOUAGE NUMERIQUE DE L’IMAGE


PROPOSE PAR LES APPROCHES BIO-INSPIREES

Comme mentionné précédemment, les performances du tatouage numérique sont basées


sur un choix judicieux du paramètre . Utilisé pendant la phase d’insertion, il influe fortement
sur le compromis imperceptibilité /robustesse du tatouage.
L’optimisation de ce facteur par une méta-heuristique passe par une adaptation du
problème à résoudre à la méta-heuristique choisie. La première étape de cette adaptation se

102
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

traduit par le codage du facteur , considéré comme variable de décision. Chaque solution
candidate du problème est une valeur de  de type réel comprise dans la plage [0 1].

IV-4-1 CHOIX DE LA FONCTION OBJECTIF

L’application d’une méta-heuristique dans un problème d’optimisation permet de


trouver une solution optimale, parmi plusieurs solutions candidates, qui répond aux critères du
problème d’optimisation donné. A cet effet, l’évaluation et le classement de ces solutions
candidates se fait au moyen de la fonction objectif.

Les objectifs fixés de l’application du tatouage numérique dans le cadre de ce travail


nous amènent à définir la fonction objectif suivant les critères de robustesse et
d’imperceptibilité, évalués par le NCC et le PSNR respectivement, selon la relation :

𝑓=a*PSNR + b*NCC (IV.12)

a et b sont des facteurs d’échelle choisis afin d’homogénéiser les deux paramètres PSNR et
NCC : les valeurs du NCC sont comprises dans la plage [0 1] et celles du PSNR sont d’un ordre
supérieur, comprises entre [1 100].

Pendant le processus de transmission, les images sont exposées à différents types


d’attaques qu’il faudrait prendre en compte lors de la conception du schéma du tatouage. Le
facteur d’échelle optimisé, qui sera injecté dans le processus de tatouage sera défini par
l’estimation de la fonction objectif f (IV.12).

La fonction objectif f est considérée comme la moyenne des fonctions calculées pour
chaque attaque. Elle est notée f moy et répond donc à l’équation suivante

𝑎1 𝑓1 +𝑎2 𝑓2 +⋯+𝑎𝑛 𝑓𝑛
𝑓𝑚𝑜𝑦 = (IV.13)
𝑎1 + 𝑎2 +⋯+𝑎𝑛

avec 𝑎𝑛 , les coefficients de pondération qui correspondent à la force de l’impact de l’attaque


sur le tatouage.

Dans un souci d’évaluer toutes les attaques à un même niveau, nous avons pris les
coefficients 𝑎𝑛 égaux à 1.

103
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

IV-4-2 APPROCHES PROPOSEES

L’organigramme complet de l’algorithme proposé dans notre travail est représenté en


Figure IV.3. Il décrit toutes les étapes de la procédure du tatouage robuste, imperceptible et
sécurisé.

Processus d’insertion  Processus d’extraction

Appliquer SVD à LL3 Appliquer SVD à LL3w


T

avec 𝒇𝒐 =a*PSNR+b*NCC
LL3=U * S*V LL3w=U * Sw * V

Processus d’optimisation
DWT :
Décomposition Insérer la marque
en 3 niveaux Aw = S + α* w’ -1
Appliquer SVD à Sw

Décomposition
en 3 niveaux
T
Uw * Sw * V w = Aw

DWT :
Appliquer SVD à Aw
Image Hôte T
Aw = Uw * Sw * V w
Cryptage par
Arnold -1 Calculer wa’ = (Aw – S) / α
Transform Appliquer SVD à Sw
T (Extraction de la marque
w’ U * Sw * V = LL3w cryptée)

Marque Appliquer Décrypter wa’ pour


Clé K
IDWT à LL3 obtenir la marque
originale:
marquée attaquée (Clé authentifié)
w k

Attaques NC
Marque
originale : w
C
PSNR
Image hôte : Marque décryptée et attaquée
HI
Image
marquée : WI

Figure IV.3 : Organigramme général de l’algorithme du tatouage proposé

IV-4-2-1 Approche proposée d’optimisation du tatouage par l’algorithme basée sur le


système immunitaire artificiel AIS

Nous avons montré, au chapitre précédent, que les mécanismes du système immunitaire
naturel sont très efficaces et peuvent servir à développer de puissants outils de calcul. Le
système immunitaire artificiel, avec ses différents algorithmes, peut être appliqué facilement
pour trouver des solutions approximatives à un problème d’optimisation : la réponse
immunitaire représente les solutions candidates et les antigènes sont les problèmes à résoudre.
Les lymphocytes B définis en chapitre III (section III-5-4-1.1) sont considérés comme des
agents artificiels qui parcourent et explorent l’espace de recherche. L’algorithme de la sélection
clonale est utilisé pour le processus d’optimisation et le mécanisme de la sélection négative est
utilisé pour éliminer les mauvaises solutions [De Castro & al, 2002].

104
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

L’utilisation de l’AIS permet de trouver la valeur optimale de qui donne une fonction
objectif maximale [Trache et al, 2018].

L’approche proposée est décrite comme suit :

Sélection Fonction
𝛂 clonale d’affinité

Image hôte PSNR


Image marquée

Marque extraite et
Processus Processus attaquée
d’insertion d’extraction

NCC

Marque d’origine

Figure IV.4 : Approche d’optimisation par l’AIS proposée [Trache et al, 2018]

L’algorithme d’optimisation est inséré pendant le processus d’insertion.

Etape 1- Initialisation d’une population aléatoire d’anticorps :

Chaque anticorps est codé par un codage réel. Il est représenté par une valeur 

(0< <1).

Etape 2- Définition de la fonction d’affinité :

La fonction d’affinité est choisie comme une somme pondérée des valeurs du NCC et
du PSNR pour évaluer l’influence de chaque individu sur la robustesse et sur l’imperceptibilité
du tatouage.

Affinité = a*PSNR +b*NCC (IV.14)

Etape 3-4- Opérations de Maturation et de Mutation :

Afin de parvenir à la solution optimale, nous appliquons

- l’opérateur de maturation (équation (III.13) du chapitre III) pour assurer une recherche
intensive dans l'espace de recherche, ce qui permet de peaufiner les anticorps pour
trouver une solution meilleure,

105
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

- l’opérateur de mutation (équation (III.14) du chapitre III) pour éviter les minima locaux
et ainsi diversifier les solutions candidates.

Les étapes 2, 3 et 4 sont répétées jusqu’à atteindre le nombre prédéfini d’itérations selon la
figure IV.5.

Maturation et  Processus
Mutation d’insertion

Calcul de PSNR
Processus
l’affinité
NCC d’extraction

Itération de l’AIS Tatouage

Figure IV.5 : Etapes d’optimisation par AIS

IV-4-2-2 Approche proposée d’optimisation du tatouage par la stratégie d’évolution basé


sur l’adaptation de la matrice de covariance CMA-ES

Dans cette section est développée l’utilisation de l’algorithme d’adaptation de la matrice


de covariance (CMA-ES) dans le domaine du tatouage. D’après l’étude bibliographique faite
en (section III-5-1-2), l’algorithme CMA-ES est considéré comme la meilleure technique
d’optimisation parmi les stratégies d’évolution. De plus, elle a fait ses preuves dans beaucoup
de domaines de recherche. Cependant, d’après nos recherches bibliographiques, cette technique
n’a pas fait l’objet d’étude dans le domaine de tatouage, d’où notre choix de la tester pour le
problème d’optimisation. Ce qui constitue une contribution majeure dans ce travail de
recherche.

Dans le même objectif que l’AIS, l’algorithme CMA-ES est utilisé pour optimiser le
facteur de façon à avoir une fonction objectif maximale.

Les étapes du déroulement de l’algorithme sont résumées dans la figure IV. 6 :

106
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

Echantillonnage  Processus
et Mutation d’insertion

Calcul de la
PSNR Processus
fonction
objectif NCC d’extraction

Itération de l’AIS Tatouage

Figure IV.6 : Etapes d’optimisation par CMA-ES

Etape 1 : Echantillonnage de l’espace de recherche

La génération d’une population  de solutions initiales se fait par échantillonnage de


l’espace de recherche dans une plage de valeurs de [0, 1] et suivant une distribution
normalisée centrée. Cet échantillonnage est décrit par la relation (III.4), donnée au chapitre III.

Cette étape permet d’intensifier la recherche de la valeur optimale de  donnant une


fonction objectif maximale.

Etape 2 : Evaluation des solutions

Chaque solution α𝑖 appartenant à [0, 1] de la population générée dans l’étape


précédente est évaluée par la fonction objectif décrite par la relation (IV.14).

Etape 3 : Mutation des meilleures solutions sélectionnées

A chaque itération, les meilleurs candidats sélectionnés, donc donnant les meilleurs
valeurs du PSNR et du NCC sont mutés par la mise en œuvre des paramètres du CMA-ES, à
savoir le pas de mutation et la matrice de covariance. Ces paramètres sont mis à jour et adaptés,
suivant la meilleure direction de recherche.

Cette étape permet de diversifier les solutions candidates.

Le processus d’optimisation est arrêté lorsque le nombre d’itérations est atteint.

107
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

Pour mener à bien les simulations par rapport aux critères de performances du
tatouage, il est nécessaire de présenter la configuration adoptée dans les différents schémas
de tatouage.

IV-5 CONFIGURATION ADOPTEE

Afin d’évaluer les performances des schémas de tatouage proposés, nous avons choisi
sept images test (Figure IV.7), souvent utilisées dans le domaine du tatouage, dans le but d’une
comparaison avec les travaux de la bibliographie : Lena couleur (256x256), IRM (256x256),
Barbara (512x512), Cameraman (512x512), Baboon (512x512), Peppers (512x512) et Boat
(512x512). L’image ‘copyright’ présentée en (Figure IV.8) a été prise comme marque à insérer.

Pour analyser les performances de ces schémas, nous avons appliqué une série
d’attaques afin de tester la robustesse et l’imperceptibilité du tatouage. Ces attaques sont au
nombre de cinq : la compression JPEG, le filtre médian, le filtre moyen, le bruit gaussien et la
rotation.

Figure IV.7 : Images hôtes Figure IV.8 : Marque

IV-6 SIMULATIONS DU PROCESSUS PROPOSE DU TATOUAGE


ROBUSTE OPTIMISE PAR L’AIS

La section suivante présente les résultats relatifs à l’optimisation du paramètre d’échelle 


par l’algorithme de l’AIS, en utilisant les deux méthodes citées en introduction de ce chapitre.
La phase d’optimisation du facteur d’échelle débute par l’application des étapes de
l’algorithme de l’AIS pour trouver la valeur optimale de qui garantit un tatouage efficace en
termes de robustesse et imperceptibilité, pour les images choisiesPour exécuter cet algorithme

108
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

d’optimisation, nous avons considéré les paramètres de l’AIS donnés dans le tableau ci-
dessous :

Tableau IV.1 : Les paramètres de l’AIS

Paramètres Valeurs

Taille de la population N 50-100-200

Facteur β (contrôlant le nbre de 0.7


clones)
Facteur d’affinité A (dépendant 0.7
de l’affinité)
Nombre d’itérations 20-50

Nombre de clones 10

IV-6-1 OPTIMISATION DU FACTEUR D’ECHELLE  PAR L'AIS

En se basant sur l’algorithme décrit en (section IV-4-2-1) et pour aboutir au choix optimal
du facteur d’échelle , nous menons une série de simulations sur une image avec les différentes
valeurs des paramètres données dans le tableau IV.1. Ces simulations nous permettent de fixer
les paramètres de l’algorithme AIS donnant la plus grande fonction objectif, pour les injecter
dans le processus de tatouage. Ces paramètres seront utilisés dans la phase d’insertion du
tatouage. L’évolution de la solution optimale pour 50 anticorps et 20 itérations, en utilisant
l’image Barbara, est illustrée comme suit :

valeurs de 
0,07
0,06
0,05
0,04
0,03
0,02
0,01
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21

Figure IV.9 : Evolution du facteur d’échelle 𝛼 pour 50 anticorps-20générations

109
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

La Figure IV.9 montre la forme de l’évolution du facteur d’échelle vers sa valeur


optimale pour les paramètres 50 anticorps et 20 générations.

L’algorithme d’optimisation est exécuté avec des valeurs de la taille de la population et


des itérations différentes. L’image est soit soumise à quelques attaques comme la rotation
(A.R), le filtre moyen (A.Fmoy), le filtre médian (A.Fmédi), le bruit gaussien (A.Gauss) et la
compression (A.C), soit elle peut ne pas être affectée par les attaques (S.A). Pour
chaqueoptimal sélectionné, la mesure objective d’imperceptibilité (PSNR) est calculée entre
l’image originale et l’image marquée. Le coefficient de corrélation normalisée (NCC), mesurant
la robustesse du tatouage, est calculé entre la marque extraite et la marque d’origine.

Les résultats de ces simulations sont représentés dans le tableau suivant :

Tableau IV.2 : Valeurs de la fonction objectif en fonction des paramètres de l’AIS

Paramètres S.A A.R A.Fmoy A.Fmédi A.Gauss A. comp F objectif


pop : 50 PSNR NCC PSNR NCC PSNR NCC PSNR NCC PSNR NCC PSNR NCC 142.6594
iter: 20 78,2338 1,000 28,5263 0,8839 31,6606 1,000 34,6660 0,8789 28,7914 0,8789 75,2235 0,9983

pop : 100 PSNR NCC PSNR NCC PSNR NCC PSNR NCC PSNR NCC PSNR NCC 142.5537
78,2338 1,000 28,5265 0,8947 31,6608 0,9713 34,6666 0.8829 28,7426 0.7541 75.2235 0.9786
iter : 50
pop: 200 PSNR NCC PSNR NCC PSNR NCC PSNR NCC PSNR NCC PSNR NCC 142.6999
78,2338 1,000 31,0924 0,8839 34,6154 1,000 36,0813 0,8987 28,8018 0,7292 40,8771 0,9983
iter : 50

Les résultats montrent clairement que la plus grande fonction objectif trouvée
correspond aux paramètres représentant une taille de population de 200 anticorps et un nombre
de génération égale à 50, nombre qui a été choisi comme critère d’arrêt du processus
d’optimisation.

IV-6-2 PROCESSUS DE TATOUAGE AVEC  OPTIMISE PAR L’AIS

Le facteur d’échelle  optimisé par l’algorithme AIS, correspondant à la fonction


objectif maximale (Tableau IV.2) étant sélectionné, il est appliqué dans le processus de tatouage
pendant la phase d’insertion. Comme décrit en (section IV.3-1), la marque est insérée dans la
sous bande d’approximation du troisième niveau (LL3) de chacune des sept images utilisées.
Le test d’imperceptibilité est mesuré par le PSNR entre l’image tatouée (ayant subi ou non les
attaques) et l’image originale. La robustesse est mesurée par le NCC, entre la marque d’origine
et la marque extraite.

110
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

Les figures (IV.10) et (IV.11) représentent respectivement, les différentes images


utilisées, tatouées et attaquées et la marque extraite pour chaque attaque.

(a) Baboon par (b) IRM par (c) Cameraman par (d) Peppers par (e) Lena par
Bruit gaussien Rotation 45° Filtre moyen Filtre médian Compression

Figure IV.10 : Les images tatouées par la méthode AIS et attaquées.

(a) Marque (b) Bruit (c) Rotation (d) Filtre (e) Filtre (f) Compression
cryptée gaussien moyen médian

Figure IV.11 : La marque cryptée (a) et extraite en clair après attaques de (b) à (f).

 Tests d’imperceptibilité du tatouage : Les valeurs du PSNR présentées dans le tableau


V.3 permettent d’évaluer la qualité des images tatouées avec l’algorithme de l’AIS, par
rapport aux images originales. Cette évaluation se fait pour les images avec et sans
attaques. Généralement, le Système Visuel Humain n’est pas sensible aux distorsions
ayant une valeur de PSNR égale ou supérieure à 30 dB.

Tableau IV.3 : Evaluation de l’imperceptibilité du tatouage par les valeurs du PSNR

Sans Rotation Filtre Filtre Bruit Compression


attaques 45° moyen médian Gaussien
Barbara 78.2338 28.5264 31.6606 34.6666 28.7872 75.2235

Cameraman 70.4523 29.8360 33.0494 36.0842 40.8636 40.7013

IRM 62.8067 30.2376 32.4443 36.2044 28.7741 33.2368

Lena 73.4626 28.4213 33.5963 38.2577 28.7590 56.7186

Baboon 69.7828 28.7515 30.6529 32.4231 28.7450 31.8860

Boat 73.4626 29.5342 32.5601 36.3154 28.7382 36.2276

Peppers 69.2029 28.3758 34.1343 40.7752 28.7600 37.5778

111
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

D’après les résultats illustrés dans le tableau IV.3, nous pouvons remarquer que pour la
majorité des images ayant subi des attaques, les valeurs du PSNR sont bien au-dessus du seuil
d’imperceptibilité, à l’exception des attaques de rotation et de l’ajout du bruit gaussien, pour
lesquelles l’imperceptibilité reste moyenne. Les valeurs élevées du PSNR des images tatouées
n’ayant pas subi d’attaques montrent bien une très grande similitude entre l’image tatouée et
l’image d’origine. Les résultats vérifient bien les performances de la méthode d’optimisation
avec l’AIS en terme d’imperceptibilité.

 Tests de robustesse du tatouage : La robustesse de l’algorithme de tatouage optimisé par


l’AIS est estimée par la mesure objective NCC. La valeur de cette mesure exprime le
taux de similitude entre la marque d’origine et la marque attaquée, décryptée et extraite.

Tableau IV.4 : Evaluation de la robustesse du tatouage par les valeurs du NCC

Sans Rotation Filtre Filtre Bruit Compression


attaques 45° moyen médian Gaussien
Barbara 1.000 0.8946 0.9713 0.8822 0.8822 0.9786

Cameraman 1.000 0.8967 0.9690 0.7135 0.3812 0.9825

IRM 1.000 0.8940 0.9712 0.8017 0.5353 0.9945

Lena 1.000 0.8805 0.9717 0.9412 0.8408 0.9796

Baboon 1.000 0.8812 0.9672 0.7659 0.8075 0.9795

Boat 1.000 0.8723 0.9698 0.7838 0.6717 0.9742

Peppers 1.000 0.9048 0.9708 0.9249 0.5568 0.9790

Le Tableau V.4 montre les résultats de la robustesse du tatouage par rapport aux
différentes attaques. Sachant que la valeur maximale du coefficient de corrélation NCC est de
1, nous pouvons remarquer, dans le cas où l’image ne subit pas d’attaques, la marque cryptée,
insérée dans l’image, décryptée est extraite de façon parfaite. Sous l’effet de la majorité des
attaques, la marque est récupérée sans grandes distorsions. L’effet des attaques de compression
et de filtre moyen sur le tatouage ne cause presque pas de distorsions à la marque, puisque les
valeurs des NCC sont très proches de la valeur maximale. Le tatouage optimisé par l’AIS
présente tout de même quelques faiblesses en terme de robustesse par rapport à l’attaque du
bruit gaussien.

Nous pouvons conclure que le tatouage optimisé par l’AIS est très robuste vis-à-vis de
la majorité des attaques utilisées dans ce travail. On rappelle aussi que le choix de la sous bande

112
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

basse fréquence (LL3) utilisée pour insérer la marque, contribue à la robustesse de la méthode
de tatouage essentiellement par rapport à l’attaque de compression. L’inconvénient de
l’utilisation de cette sous bande était le risque d’une dégradation de la qualité de l’image
tatouée, qui a été bel et bien contourné par la méthode d’optimisation utilisée.

IV-7 SIMULATIONS DU PROCESSUS PROPOSE DU TATOUAGE


ROBUSTE OPTIMISE PAR LE CMA-ES

Dans cette section, le processus d’optimisation du facteur  est réalisé par l’algorithme
CMA-ES. L’image Barbara est choisie comme image de référence.

Lors de la phase d’optimisation du paramètre d’échelle  par CMA-ES, les paramètres


internes de l’algorithme CMA-ES sont adaptés automatiquement pendant l’évolution du
processus d’optimisation, à l’exception de la taille de la population, représentant le nombre de
parents (ou le nombre d’échantillons). Le critère d’arrêt est fixé par le nombre d’itérations.

Tableau IV.5 : Les paramètres de l’algorithme CMA-ES

Paramètres Valeurs

Taille de la population 40- 80-50

Nombre d’itérations 20-50-100

113
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

IV-7-1 OPTIMISATION DU FACTEUR D’ECHELLE  PAR LE CMA-ES

Après avoir fixé les paramètres du CMA-ES, nous menons une série de tests avec des
combinaisons entre le nombre d’échantillons et le nombre d’itérations.

Tableau IV.6 : Valeurs de la fonction objectif en fonction des paramètres du CMA-ES

Paramètres S.A A.R A.Fmoy A.Fmédi A.Gauss A. comp F objectif


pop: 50 PSNR NCC PSNR NCC PSNR NCC PSNR NCC PSNR NCC PSNR NCC
78,2338 1,000 28,5263 0,8839 31,6606 1,000 34,6660 0,8789 28,7914 0,8789 75,2235 0,9983
iter: 20 142.6594
pop : 40 PSNR NCC PSNR NCC PSNR NCC PSNR NCC PSNR NCC PSNR NCC
iter : 100 78,2338 1,000 28,5266 0,8909 31,6608 0,9775 34,6662 0.8882 28,7178 0.8087 78,2338 0,9822 142.5537

PSNR NCC PSNR NCC PSNR NCC PSNR NCC PSNR NCC PSNR NCC
pop : 80
78,2338 1,000 28,5266 0,8908 31,6608 0,9775 34,6662 0,8858 28,7499 0,8028 78,2338 0,9823 143.3365
iter : 50

Fonction objectif
143,5
143
142,5
142
141,5
141
140,5
140
2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50

Figure IV.12 : Evolution de la fonction objectif en fonction du nombre d’itérations


de l’Algorithme CMA-ES

D’après la Figure IV.12, nous remarquons que la fonction objectif correspondante à une
population de 80 échantillons, atteint sa valeur maximale à la septième itération. Ce qui dénote
la rapidité et la bonne convergence de l’algorithme d’optimisation dues essentiellement à la
rapidité de l’adaptation des paramètres internes de l’algorithme CMA-ES au problème
d’optimisation.

114
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

IV-7-2 PROCESSUS DE TATOUAGE AVEC FACTEUR  OPTIMISE PAR LE


CMA-ES

En se basant sur le processus de tatouage optimisé par l’algorithme CMA-ES, décrit au


chapitre IV, section IV-4-2-2, nous menons une série de simulations sur les sept images utilisées
dans notre travail. Les résultats du tatouage des images avec le facteur d’échelle optimisé,
correspondant à la plus grande fonction objectif, sont présentés dans les tableaux IV.7 et IV.8.

 Tests d’imperceptibilité du tatouage L’évaluation de l’imperceptibilité du tatouage par


les valeurs du PSNR est présentée dans le tableau IV.7.

Tableau IV.7 : Evaluation de l’imperceptibilité du tatouage


par les valeurs du PSNR pour le CMA-ES
Sans Rotation Filtre Filtre Bruit Compression
attaques 45° moyen médian Gaussien
Barbara 78.2338 28.5266 31.6608 34.6662 28.7499 78.2338

Cameraman 75.2235 29.8302 33.0521 36.0825 28.7743 40.8737

IRM 68.2679 30.2376 32.4438 36.2023 28.7494 33.2448

Lena 71.2441 28.4217 33.6011 38.2618 28.7502 56.5535

Baboon 78.2338 28.7515 30.6548 32.4235 28.7414 31.8871

Boat 75.2335 28.3755 34.1314 40.7829 28.7569 37.5802

Peppers 69.2029 28.3758 34.1343 40.7752 28.7600 37.5778

Les valeurs de la mesure objective PSNR obtenues pour les différentes images utilisées
indiquent la grande similitude entre les images tatouées et les images originales
correspondantes.

Dans le cas où les images ne sont pas attaquées, les valeurs du PSNR sont très élevées,
ce qui montre que la qualité des images tatouées est excellente, et ce, malgré le choix de la sous
bande de basse fréquence, qui crée des distorsions à l’image lorsque la marque y est insérée.
Ceci indique que le choix de la méthode CMA-ES, contribue fortement aux performances
requises d’imperceptibilité du tatouage.

Pour les images tatouées et attaquées, les valeurs du PSNR montrent que la qualité des
images reste bonne pour la majorité des attaques.

115
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

 Tests de robustesse du tatouage La robustesse, évaluée par la mesure des valeurs du


NCC, est présentée dans le tableau IV.8.

Tableau IV.8 : Evaluation de la robustesse du tatouage


par les valeurs du NCC, pour le CMA-ES

Sans Rotation Filtre Filtre Bruit Compression


attaques 45° moyen médian Gaussien
Barbara 1 0.9003 0.9729 0.8842 0.8362 0.9822

Cameraman 1 0.8853 0.9693 0.7004 0.4106 0.9804

IRM 1 0.8997 0.9779 0.7036 0.3619 0.9906

Lena 1 0.8971 0.9742 0.9390 0.8694 0.9856

Baboon 1 0.8838 0.9669 0.7803 0.8152 0.9826

Boat 1 0.8678 0.9707 0.7842 0.7319 0.9807

Peppers 1 0.8935 0.9716 0.9256 0.5208 0.9758

Les résultats de notre algorithme de tatouage optimisé par la méthode du CMA-ES


montrent une extraction parfaite de la marque pour toutes les images dans le cas où celles-ci ne
sont pas exposées aux attaques. Néanmoins, les images Cameraman, IRM et Peppers restent
vulnérables aux attaques du bruit gaussien.

IV-8 COMPARAISONS ET CRITIQUES

Dans cette section, des études comparatives, en termes de robustesse et


d’imperceptibilité sont faites. Cette comparaison se fait d’une part, entre les deux méthodes
d’optimisation utilisées dans notre travail et dautre part, entre les deux méthodes utilisées dans
le cadre de ce travail et celles utilisées dans la bibliographie. Ceci nous permet d’évaluer les
performances de chacune d’elles vis-à-vis du tatouage numérique proposé. Cette comparaison
se fait par rapport aux mesures d’imperceptibilité et de robustesse.

116
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

IV-8-1 COMPARAISON ENTRE LES RESULTATS DE L’UTILISATION DES


ALGORITHMES AIS ET CMA-ES

Cette section présente une comparaion en termes d’imperceptibilité et de robustesse entre


les performances du tatouage optimisé par l’algorithme AIS et l’algorithme CMA-ES.

IV-8-1-1 Critère de performance d’imperceptibilité

Dans cette partie, les résultats de la comparaison entre les deux méthodes sont présentés
de façon à estimer l’impact de chaque attaque sur les différentes images.

90
80
70
60
50
40
30
20
10
0

CMA-ES AIS

Figure IV.13 : Comparaison entre termes d’imperceptibilité entre AIS et CMA-ES

La figure IV.13 montre, pour la majorité des images, que le critère d’imperceptibilité
est amélioré par l’algorithme du CMA-ES.

30,5 35
30 34
29,5 33
29 32
28,5 31

28 30

27,5 29

27 28

CMA-ES AIS CMA-ES AIS

(a(a)) (b)

117
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

45 45
40 40
35 35
30 30
25 25
20 20
15 15
10 10
5 5
0 0

CMA-ES AIS CMA-ES AIS

(c) (d)

90
80
70
60
50
40
30
20
10
0

CMA-ES AIS

(e)

Figure IV.14 : Comparaison de l’imperceptibilité pour les différentes attaques


(a) Rotation 45°, (b) Filtre moyen, (c) Filtre médian, (d) Bruit gaussien (e) Compression

La figure IV.14 donne les résultats de la comparaison en termes d’imperceptibilité pour


chaque attaque. Les résultats sont majoritairement similaires pour l’ensemble des attaques à
l’exception de l’attaque de rotation (a) pour laquelle le CMA-ES est bien plus performant.

Pour les attaques de rotation (a), du filtre moyen (b) et du bruit gaussien (d), quelques
images présentent une qualité visuelle meilleure par rapport aux autres images

En conclusion, nous pouvons remarquer que l’application des deux méthodes contribue
au respect du critère d’imperceptibilité dans le domaine du tatouage d’image.

118
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

IV-8-1-2 Critère de performance de robustesse

L’évaluation de la robustesse de chacune des méthodes en terme de robustesse se fait,


comme pour l’imperceptibilité, en comparant les résultats de chaque attaque sur les différentes
images.

Peppers Peppers
Boat Boat
Baboon Baboon
Lena_c Lena_c
IRM IRM
Cameraman Cameraman
Barbara Barbara

0,84 0,86 0,88 0,9 0,92 0,96 0,965 0,97 0,975 0,98

AIS CMA-ES AIS CMA-ES

(b)
(a)

Peppers Peppers
Boat Boat
Baboon Baboon
Lena_c Lena_c
IRM IRM
Cameraman Cameraman
Barbara Barbara

0 0,5 1 0 0,5 1

AIS CMA-ES AIS CMA-ES

(c) (d)

Peppers
Boat
Baboon
Lena_c
IRM
Cameraman
Barbara

0,96 0,97 0,98 0,99 1

AIS CMA-ES

(e)

Figure IV.15 : Comparaison de la robustesse pour les différentes attaques


(a) Rotation 45°, (b) Filtre moyen, (c) Filtre médian, (d) Bruit gaussien (e) Compression

119
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

D’après la figure IV.15, nous pouvons constater que le tatouage optimisé par l’algorithme
CMA-ES présente des performances meilleures en robustesse, pour la majorité des attaques et
des images. Pour l’attaque du filtre médian, les résultats des deux méthodes sont similaires.
Notons aussi que pour les deux méthodes AIS et CMA-ES, l’extraction de la marque des images
n’ayant pas subi d’attaques est parfaite, puisque le NCC, pour toutes les images, est égal à ‘1’.

IV-8-2 COMPARAISON AVEC LES RESULTATS DE LA LITTERATURE

Dans cette section, nous menons des tests comparatifs entre les performances obtenues de
nos deux schémas de tatouage optimisé proposés et les résultats de la littérature relatifs aux
travaux de [Khorsand et al., 2017], ceux de [Surekha et al., 2011] et de [Loukhaoukha, 2013].

120
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

Tableau IV.9 : Tableau comparatif des performances

Approche Approche
Images Approche de Approche de Approche de Surekha
proposée proposée
Attaques hôtes Loukhaoukha Khorsand
(2011) (AIS) (CMA-ES)
(2013) (2017)

PSNR NCC PSNR NCC PSNR NCC PSNR NCC PSNR NCC

Barbara ------- -------- -------- -------- -------- -------- 78.2338 1 78.2338 1

Cameraman 50.118 1 55.3773 1 -------- -------- 70.4523 1 72.2235 1

Lena 50.942 1 55.3773 1 -------- -------- 73.4626 1 71.2441 1

Sans Baboon 52.379 1 55.3773 1 -------- -------- 69.7828 1 78.2338 1


attaques
Boat 54.810 1 -------- -------- -------- -------- 73.4626 1 73.4626 1

Peppers 48.097 1 -------- -------- -------- -------- 69.2029 1 69.2295 1

Barbara ------- ------- ------- -------- 42.47 0.8934 28.759 0.7852 28.7505 0.8360
Bruit
Cameraman ------- ------- 30.1059 0.7559 --------- --------- 40.8636 0.3812 28.7743 0.4106
gaussien
Lena ------- ------- 29.9672 0.9105 43.34 09884 28.759 0.8408 28.7502 0.8694

Baboon ------- ------- 29.9792 0.8178 28.7454 0.7219 28.745 0.8075 28.7414 08052

Lena ------- 0.976 38.5542 0.7401 43.34 0.9543 56.7186 0.9796 56.5535 0.9856
Compression
JPEG
Barbara -------- -------- --------- ---------- 42.47 0.9127 75.2235 0.9786 78.2338 0.9822

Cameraman ------- 0.963 41.0122 0.7894 -------- ------- 40.7013 0.9825 40.8737 0.9804

Baboon ------- 0.986 30.4478 0.8256 -------- -------- 31.886 0.9795 31.8871 0.9826

Boat ------- 0.994 -------- -------- -------- -------- 36.2276 0.9742 37.5802 0.9807

Peppers ------- 0.976 -------- -------- -------- -------- 37.5778 0.9790 37.5802 0.9758

Tenant compte des résultats obtenus résumés dans le Tableau IV.9, nous pouvons aisément
affirmer que nos deux approches sont compétitives en s’appuyant sur des tests comparatifs entre
nos approches et celles référencées dans le tableau précédent.
Nos arguments sont étayés par l’appréciation des résultats de la littérature et ceux obtenus
à travers ce travail.
Les valeurs obtenues du NCC et du PSNR illustrent dans nos deux cas le fait que les
exigences en matière de robustesse et d’imperceptibilité sont garanties. Par conséquent, les
approches proposées contribuent indiscutablement à la sécurisation du tatouage d’image.

121
Chapitre IV : Schémas proposés du tatouage optimisé par des approches bio-inspirées & simulations

IV-9 CONCLUSION

Ce chapitre a été consacré dans un premier temps à présenter les techniques utilisées
dans le cadre de ce travail, pour un tatouage robuste, imperceptible et sécurisé. Les schémas de
tatouage choisis sont des schémas hybrides regroupant le domaine multi-résolution DWT et la
décomposition en valeurs singulières SVD dans le but de renforcer la robustesse et
l’imperceptibilité du tatouage. La technique de cryptage utilisée, Arnold Transform, appliquée
à la marque permet d’assurer un certain degré de sécurité du tatouage contre les attaques
malicieuses pendant la transmission de l’image tatouée.

L’insertion de la marque dans l’image se fait de façon additive en utilisant un facteur


d’échelle qui contrôle la force d’insertion. Pour atteindre le meilleur compromis entre la
robustesse et l’imperceptibilité, il est nécessaire de choisir un facteur d’échelle optimal. A cet
effet, nous avons opté pour deux méta-heuristiques bio-inspirées à utiliser séparément et
auxquelles nous avons adapté notre problème d’optimisation : l’algorithme du système
immunitaire artificiel AIS et l’algorithme d’adaptation de la matrice de covariance CMA-ES
qui relève des stratégies d’évolution. Le choix de ces méthodes s’appuie sur leur originalité
dans le domaine du tatouage.

Les deux algorithmes sont codés réels et leur fonction objectif est commune. Cette
fonction représente la moyenne des fonctions objectif déduites pour chaque attaque.

Les deux schémas de tatouage proposés et validés en simulations, utilisent un facteur


d’échelle optimisé, garantissant la maximisation de la fonction objectif adéquate. Les
simulations ont été menées sur une gamme d’images souvent utilisées dans le domaine du
tatouage, et soumises à diverses attaques.

Des comparaisons ont été faites entre les deux approches proposées, afin d’estimer le
critère de performances de robustesse (NCC) et d’imperceptibilité (PSNR) entre les deux
schémas. De plus, la compétitivité des performances obtenues vis-à-vis des approches
existantes, est appréciée à travers un tableau comparatif. Nous concluons par l’attractivité des
approches proposées.

122
Conclusion générale et perspectives

CONCLUSION GENERALE ET PERSPECTIVES

Les documents numériques sont devenus de plus en plus utilisés à cause de leur diffusion
extrêmement rapide grâce aux réseaux informatiques et aux supports numériques. Leur
transmission numérique est sujette à des manipulations qui peuvent souvent être contraires au
principe de la propriété intellectuelle ou du droit d’auteur. Les inquiétudes ont ouvert le champ
scientifique à des recherches dans le domaine de la sécurisation de la transmission de
l’information. Dans ce contexte, cette thèse apporte des contributions au processus du tatouage
d’image robuste, imperceptible et sécurisé. A cet effet, il était nécessaire de présenter les
fondements des techniques de sécurisation de la transmission de l’information. Le choix a été
porté sur le processus du tatouage d’images, pour ses performances dans le domaine de la
sécurisation.
Il faut rappeler qu’un tatouage d’image efficace, est un processus qui doit simultanément
satisfaire les contraintes liées à la robustesse, l’imperceptibilité et la sécurité. Ceci met en relief
un compromis qu’il faut résoudre via un processus d’optimisation. Le recours aux techniques
de l’intelligence artificielle s’est imposé pour pallier à la problématique. L’approche
communément citée dans la littérature consiste à utiliser des méthodes algorithmiques
d’optimisation basées sur les méta-heuristiques, afin de trouver tous les paramètres régulant
d’une manière optimale le compromis entre l’imperceptibilité et la robustesse.
L’algorithme de tatouage utilisé dans cette thèse est hybride (DWT-SVD), additif,
imperceptible, robuste, non aveugle et sécurisé, par une méthode chaotique (la Transformée
d’Arnold). De plus, dans le souci d’augmenter les performances de ce tatouage, les
contributions s’articulent autour d’un schéma de tatouage basé sur le système immunitaire
artificiel (AIS), et sur la stratégie évolutionnaire de l’adaptation de la matrice de covariance
(CMA-ES). Il faut noter que pour une meilleure adaptation d’une méta-heuristique à un
problème donné, il est nécessaire de choisir la méthode appropriée et de régler ses paramètres
par rapport au processus à optimiser. La stratégie CMA-ES répond efficacement à ce souci, et
son intégration dans un schéma de tatouage robuste constitue une bonne initiative selon notre
recherche. L’AIS étant utilisé dans le domaine spatial, il a été étendu au domaine fréquentiel
puisque ce dernier offre plus d'avantages pour aboutir à un tatouage robuste imperceptible, par
rapport au domaine spatial. Les deux schémas de tatouage proposés dans ce travail se
distinguent par le fait qu’ils constituent une première initiative. Ces arguments sont établis après
avoir parcouru une large gamme de recherche bibliographique dans ce contexte.

123
Conclusion générale et perspectives

La compétitive de ces méthodes proposées est mise en valeur à travers différentes


simulations de tatouage d’images soumises à divers attaques. La dernière étape de l’actuelle
recherche est dédiée à des simulations et tests comparatifs, par rapport aux critères de
performances de robustesse (NCC), et d’imperceptibilité (NCC).
Afin de boucler ce travail de recherche, il est important de mettre en reliefs des idées de
perspectives, et par l’occasion citer l’intérêt de recherche dans ce domaine :
- Dans une phase future, nous pensons enrichir le volet lié à l’optimisation du tatouage
en s’attaquant à l’optimisation multi-objectif afin de contribuer en profondeur dans la
gestion du compromis existant entre la robustesse, l’imperceptibilité et la sécurité.
- S’impliquer dans la sécurité de la transmission de l’image par de nouveaux schémas de
cryptage.
- Le laboratoire spécialiste de l’image CRESTIC de Reims nous offre aussi la possibilité
d’envisager l’implémentation des approches de tatouage robuste sur des prototypes réels
de laboratoire.

124
Références bibliographiques

RÉFÉRENCES BIBLIOGRAPHIQUES

Addison S. R., Gray J. E., 2006, ‘Chaos and Encryption: Problems and Potential System
Theory’, Proceeding of the Thirty Eighth Southeastern Symposium, IEEE, pp. 444-448.

Ali Pacha A., Hadj Said N., Belghoraf A., M’Hamed A., 2006, ‘Stéganographie : Sécurité par
Dissimulation’ RIST, Vol 16, n°01, pp.101-113.

Ansari I. A. and Pant M. 2015, ‘SVD Watermarking: Particle Swarm Optimization of Scaling
Factors to Increase the Quality of Watermark’, Proceedings of Fourth International
Conference on Soft Computing for Problem Solving, Advances in Intelligent Systems and
Computing 336, Springer India, pp-205-214.

Awad A., 2009, ‘Algorithmes de chiffrement / déchiffrement basés chaos pour la sécurité des
images transmises’, Thèse de doctorat, Université de Nantes, France.

Bachir Bouiadjra R., Khelfi M. F., 2016, ‘Commande robuste des systèmes non linéaires.
Résolution numérique’, Editions Universitaires Européennes.

Bas P., Chassery J.M., Macq B., 2002, ‘Image Watermarking: an evolution to content based
approaches’. Pattern Recognition, Elsevier, pp.545-561.

Battikh D., 2015, ‘Sécurité de l’information par stéganographie basée sur les séquences
chaotiques’, Thèse de Doctorat à l’Institut National des Sciences Appliquées de Rennes
(INSA).
Bender W., Gruhl D. M., Lu A., 1996, ’Techniques for Data Hiding’, IBM Systems Journal,
vol. 38, no.3 & 4, pp. 313-336.
Ben Ismail S., F. Legras F., G. Coppin G., 2012, ‘A new interactive evolutionary algorithm
for the vehicle routing problem’, Proceedings of the 14th annual conference companion on
Genetic and evolutionary computation. Philadelphia, PA, USA - July 07 - 11.

Blum C., A. Roli, 2003, ‘Metaheuristics in Combinatorial Optimization: Overview and


Conceptual Comparison’, ACM Computing Survey, Vol. 35 No 3.

Boora M., Gambhir M., 2013, ‘Arnold Transform Based Steganography’, International
Journal of Soft Computing and Engineering (IJSCE), Volume-3, Issue-4.

Castro L. N., Timmis J., 2002, ‘Artificial immune Systems: A new computational Intelligence
Approach’, Springer.

Cayre F., 2008, ‘Cryptographie, Stéganographie et Tatouage : des secrets partagés’, Les
newsletters interstices.

Chandra D.V., 2002, ‘Digital Image Watermarking using Singular Value Decomposition’.
In 45th IEEE Midwest Symposium on Circuit and Systems, volume 3, pages 264–267.
Charon I., Hudry O., 1996, ‘Méthodes d'optimisation combinatoire’, Edition Masson.

Cheddad A., Condell J., Curran K. and Kevitt P., 2010, “Digital image steganography: Survey
and analysis of current methods”, Signal Processing, Image Communication, vol. 90, n°3, pp.
727-752.

125
Références bibliographiques

Clerc M., 2004, ‘Discrete particle swarm optimization, illustrated by the traveling salesman
problem’, In: Studies in Fuzziness and Soft Computing New optimization techniques in
engineering, Babu, B.V. & Onwubolu, G.C. (Eds.), Vol. 141, pp.219-239.

Cox I. J., Killian J., Leighton F. T., Shamoon T., 1997, ‘Secure spread spectrum watermarking
for multimedia”, IEEE Transactions on Instrument and Measurements. Vol. 6 (12), pp. 1673–
1687.

Craver S., Memon N., Yoe B. L., 1998, ‘Resolving rightful ownerships with invisible
watermarking techniques: Limitations, attacks, and implications’, IEEE Journal on Selected
Areas in Communications 16(4), pp.573 - 586.

Cui H., Turan, O., 2010., ‘Application of a new multi-agent hybrid co-evolution based particle
swarm optimization methodology in ship design’, Computer Aided Design, Vol. 42, No. 11,
pp. 1013–1027.

Dahmani A., 2014, ‘Contribution au développement d’une technique de watermarking pour


images’, Doctorat de l’Université Hadj Mokhtar de Batna.

Dahmani A., Louchene A., 2010, ‘Méthode Hybride DWT-DCT de Tatouage d’image fixe’,
Revue des Sciences et de la technologie -RST- Vol. 1, No 2.

Dasgupta D., 1999, ‘Artificial Immune Sytems and their Application’, Springer.

De Castro L. N., Van Zuben, F. J., 2002, ‘Learning and optimization using the clonal selection
principle’, IEEE Trans Evolutionary Computation, Spec Issue Artificial Immune System, Vol.
6, No.3, pp. 239-251.

Dorigo M., 1992, ‘Optimization, Learning and Natural Algorithms’, Thèse de doctorat,
Politecnico di Milano, Italie,
Dréo J., Pétrowski A., Siarry P., Taillard E., 2005, ‘Métaheuristiques pour l’optimisation
difficile. Eyrolles, 2005.

Eberhart R. C, Kennedy J.,1995, ‘A new optimizer using particle swarm theory’, Proceedings
of the Sixth International Symposium on Micro machine and Human Science, Nagoya, Japan.
pp. 39-43.

Eggers J. J., Bauml R., Tzchoppe R., B. Girod B., 2003, ‘Scalar costa scheme for information
embedding’, IEEE Trans. on Signal Processing, 51, pp.1003–1019.

El Dor A., 2012, ‘Perfectionnement des algorithmes d’Optimisation par Essaim Particulaire.
Applications en segmentation d’images et en électronique’, Thèse de Doctorat en
Informatique, Ecole Doctorale Mathématiques et STIC, Université Paris-EST.

Fogel D. B., 2005, ‘Evolutionary Computation. Toward a New Philosophy of Machine


Intelligence, 3rd Edition. Wiley-IEEE Press.

Forrest S., Javomk B., Smith, R. E., Perelson A. S., 1993, ‘Using Genetic Algorithms to
Explore Pattern Recognition in the Immune System’. Evolutionary Computation, Vol. 1, N.
3, pp. 191-211.

126
Références bibliographiques

Furon T., 2002, ‘Security analysis’, European Project IST-1999-10987.

Glover F., 1986 ‘Future paths for integer programming and links to artificial intelligence’,
Computer & Operation Research, Vol. 13, N°5, pp.533-549.

Guyeux C., 2010, ‘Le désordre des itérations chaotiques et leur utilité en sécurité
informatique’, Thèse de doctorat, Université de Franche-Comté, France.

Hamdani H., El Hami A, Radi B. ‘Méta-heuristique pour l’optimisation fiabiliste des joints
de brasure d’une carte électronique’, éditions ISTE, Open Science, 2018.
Hansen N, Ostermeier A., 1996, ‘Adapting arbitrary normal mutation distributions in
evolution strategies: The covariance matrix adaptation’, In Proceedings of the 1996 IEEE
Conference on Evolutionary Computation (ICEC ’96), pages 312–317.

Hansen N., Ostermeier A., 2001, ‘Completely derandomized self-adaptation in evolution


strategies. Evolutionary Computation, 9(2) :159–195.
Hansen N., Sibylle D. Muller D., and Petros Koumoutsakos P.. 2003, ‘Reducing the time
complexity of the derandomized evolution strategy with covariance matrix adaptation (CMA-
ES). Evolutionary Computation, 11(1), pp.1-18.

Hartung H. F., Su J. K., Girod B., 1999, ‘Spread spectrum watermarking: malicious attacks
and counterattacks’, Proceeding, Security and Watermarking of Multimedia Contents,
Vol.3657.

Jimson N., Hemachandran K., 2018, ‘DFT based digital image watermarking: A survey’,
International Journal of Advanced Research in Computer Science, Vol. 9, No. 2, pp. 540-544.

Joseph A., Anusudha K., 2013, ‘Robuste Watermarking based on DWT-SVD, International
Journal of Signal & Image Processing, Vol.1.
Joshi R.L., Fisher T.R., 1995, ‘Comparison of Generalized Gaussian and Laplacian Modeling
in DCT Image Coding’, IEEE Signal Processing Letters, Vol. 2, No.5, pp. 81-82.

Kalker T., 2001, ‘Considerations on watermarking security’. Proceedings of the IEEE


Multimedia Signal Processing MMSP01 workshop, pp. 201-206.

Kashyap N., Sinha G. R., 2012, “Image Watermarking Using 3-Level Discrete Wavelet
Transform (DWT)’, International Journal of .Modern Education and Computer Science,
Vol.3, pp.50-56.

Khorsand Movaghar R., Khaleghi Bizaki, H., 2017, ‘A new approach for digital image
watermarking to predict optimal blocks using artificial neural networks’, Journal of Electrical
Engineering & Computer Sciences Vol. 25, pp 644-654.

Kirkpatrick S., Gelatt C. D., Vecchi M. P., 1983, ‘Optimization by simulated annealing’,
Science, Vol. 220, N°4598, pp:671-680.
Koch E., Zhao J., 1995, ‘Towards Robust and Hidden Image Copyright Labeling’.
Proceedings of 1995 IEEE Workshop on Nonlinear Signal and Image Processing, pp. 452–
455. Greece.

127
Références bibliographiques

Kundur D., Hatzinakos D., 1997, ‘Digital Watermarking using multiresolution wavelet
decomposition’, International Conference in Image Processing, Seattle-USA.

Kutter M., Jordan F. D., Bossen F., 1997, ‘Digital signature of color images using amplitude
modulation’, Proceedings of the SPIE Electronic Imaging’97, San Jose-USA, Proceeding
volume 3022, Storage and Retrieval for Image and Video Databases.

Labouret G., Schauer H., 2001, ‘Introduction à la cryptographie’, Support de cours du cabinet
Hervé Shauer, consultant « HSC ».

Langelaar G. C., Van der Lubbe J. C. A., Lagendijk R. L., 1997, ‘Robust labeling methods
for copy protection of images’. Proceedings of the SPIE Electronic Imaging’97, San Jose-
USA, Proceeding volume 3022, Storage and Retrieval for Image and Video Databases.

Le Guelvouit G., 2007, ‘Tatouage robuste d’image par Turbo TCQ’, Colloque GRETSI,
Troyes, France.

Le Riche R., Schoenauer M., Sebag M., 2007, ‘Un état des lieux de l’optimisation
évolutionnaire et de ses implications en sciences pour l’ingénieur’, Série Méthodes
numériques et éléments finis, Hermès, pp.187-259.

Liu R., Tan T., 2002, ‘An SVD-based watermarking scheme for protecting rightful
ownership’, IEEE transactions on multimedia.

Loukhaoukha K, 2013, ‘Image Watermarking Algorithm Based on Multiobjective Ant


Colony Optimization and Singular Value Decomposition in Wavelet Domain’, Hindawi
Publishing Corporation Journal of Optimization.

Loukhaoukha K., 2010, ‘Tatouage numérique des images dans le domaine des ondelettes
basé sur la décomposition en valeurs singulières et l'optimisation multi-objective’, Thèse de
doctorat, Université Laval, Québec-Canada.
Macq B., 2000, ‘Lossless multiresolution transform for image authenticating watermarking’,
in Proc. EUSIPCO 2000, Tampere, Finland.

Makbol N. M., Khoo, B. E., 2014, ‘A new robust and secure digital image watermarking
scheme based on the integer wavelet transform and singular value decomposition’. Digital
Signal Processing, N°33, pp. 134-147.

Mathon B., 2011, ‘Développement de méthodes de tatouage sûres pour le traçage de contenus
multimédia’, Thèse de Doctorat Université de Grenoble-France & Université Catholique de
Louvain-Belgique.

Mitchell H. B., 2010, ‘Image fusion’, Chapter Book: Theories, Techniques and Applications,
Berlin, Springer, pp.9-17.

Mohananthini N., Yamuna G., 2016, ‘Comparaison of multiple watermarking techniques


using Genetic Algorithm’. Journal of Electrical Systems and Information Technology, Science
Direct, Volume 3, Issue 1, May 2016, Pages 68-80.

Nandi S., Santhi V., 2016, ‘DWT–SVD-Based Watermarking Scheme Using Optimization
Technique. In: Dash S., Bhaskar M., Panigrahi B., Das S. (eds) Artificial Intelligence and

128
Références bibliographiques

Evolutionary Computations in Engineering Systems. Advances in Intelligent Systems and


Computing, vol 394. Springer, New Delhi, pp.69-77.

Ngo A. V., Viet-Hung D., TaeChoong C., 2017, ‘A Covariance Matrix Adaptation Evolution
Strategy for Direct Policy Search in Reproducing Kernel Hilbert Space’, Proceedings of
Machine Learning Research 77, pp. 606-621.

Nguyen P. et Baudry S., 2003, ‘Le tatouage de données audiovisuelles’, Lavoisier, vol.4, n°3,
2003, pp. 135-165.
Nicholson T., 1971, ‘Optimization Techniques, in Industry1971’, Longmann Press: London.

Oğuz F., İ. Babaoğlu, E. Ülker, 2009, ‘Watermarking Schema Using an Artificial Immune
System in Spatial Domain’. , in Proc. Proceedings of the 2nd International Conference on
Interaction Sciences: Information Technology, Culture and Human ICIS, Seoul, Korea,
pp.945-950.

Osman I. H., Laporte G., 1996, ‘Metaheuristics: a bibliography’. Annals of Operations


Research 63, pp. 513-623.

Pai Y. T., Ruan S. J., 2007, “A High Quality Robust Digital Watermarking by Smart
Distribution Technique and Effective Embedded Scheme”, IEICE Trans. Fundamentals,
Vol.E90–A, No.3.
Paschos V., 2005, ‘Optimisation Combinatoire 1 : Concepts Fondamentaux’, Editeur Hermès
Science.

Pecora M. L. and Carroll T. L., 1990, ‘Synchronization in chaotic systems’, Physical Review
Letters, vol. 64.
Pérez-Freire L., Comesana P., Troncoso-Pastoriza J.R, Pérez-González F., 2006,
‘Watermarking security: a survey’, Transactions on Data Hiding and Multimedia Security, pp.
41-72, Springer, Berlin, Heidelberg.

Petitcolas F. A. P., Anderson R. J., Kuhn M. G., 1998, ‘Attacks on Copyright Marking
Systems’, Lecture Notes in Computer Science, vol. 1525. Springer, Berlin, Heidelberg.

Pitas I. & Kaskalis T. H., 1995, ‘Applying signatures on digital images’ IEEE Workshop on
Nonlinear Signal and Image Processing, pp. 460-463.

Pokudom K., Rangsanseri Y., 2013, “Design Development of Ant Colony System
Algorithms for Block-Based DCT Watermarking”, Journal of Signal Processing, Vol. 17, No.
3, pp.51-60.

Razafindradina H. B., Randriamitantsoa P. A., 2008, ‘ Tatouage robuste et aveugle dans le


domaine des valeurs singulières’, Journal Marocain de l'Automatique, de l'Informatique et du
Traitement de Signal, pp.1-15.

Rechenberg I., 1972, ‘Evolutionstrategie: Optimierung Technisher Systeme nach Prinzipien


des Biologischen Evolution. Fromman-Hozlboog Verlag.
Reeves C. R., 1993, ‘ Modern heuristic techniques for combinatorial problems’, New York:
Halsted Press [John Wiley & Sons Inc.].

129
Références bibliographiques

Riad R., 2015, ‘Tatouage robuste des images imprimées’, Thèse de Doctorat en Automatique
et Traitement du signal, Université d’Orléan-France & Université Ibn Zohr-Maroc.

Ripandeep K., Anantdeep K., 2017, ‘Watermarking Technique Based On Arnold Transform’
Imperial Journal of Interdisciplinary Research (IJIR) Vol-3, Issue-5, pp. 540-545.

Rivest R., Shamir A. and Adleman L., 1978, ‘A method for obtaining digital signatures and
public-key cryptosystems’, Communications of the ACM, vol. 21, pp. 120-126.

Roy S. and Pal A. K., 2017, ‘An indirect watermark hiding in discrete cosine transform–
singular value decomposition domain for copyright protection’, Royal Society Open Source,
4: 17036, pp: 1-22.

Ruanaidh J. J. K. O., T. Pun T., 1997, ‘Rotation, translation and scale invariant digital image
watermarking’, IEEE Int. Conf. on Image Processing ICIP1997, Santa Barbara-USA, pp. 536–
539.

Sahraoui M., 2016, ‘Contrôle robuste des systèmes non linéaires par les approches de
l’intelligence artificielle’, Doctorat de l’Université Oran 1 Ahmed Ben Bella.

Saikrishna N, Resmipriya M. G., 2016, ‘An Invisible Logo Watermarking using Arnold
Transform’, 6th International Conference On Advances In Computing & Communications,
(ICACC), Procedia Computer Science vol. 93, Elsevier B. V., pp. 808 – 815.

Seddik H., Sayadi M., and Fnaiech F., 2005, ‘Nouveau schéma de tatouage par substitution
s’appliquant aux techniques spatiales, robuste aux attaques asynchrones’, International
Conference: Sciences of Electronic, Technologies of Information and Telecommunications.

Shi Y., Eberhart R.. 1998, ‘Parameter Selection in Particle Swarm Optimization’, Proceeding
of the the 7th Annual Conference on Evolutionary Programming, LNCS 1447, Springer,
pp.591-600.

Simmons G., 1983, ‘The prisoners, problem and the subliminal channel’. In Advances in
Cryptology. Proc. of Crypto’83, pp. 51–67.

Solachidis V., Pitas L., 2001, ‘Circularly symmetric watermark embedding in 2-D DFT
domain’. IEEE Trans Image Process., 10(11):1741-53.

Stallings W., 2003, ‘Cryptography and Network Security : Principles and Practice’, 3rd ed.
Prentice Hall.

Stùtzle T., 1999, ‘Local Search Algorithms for Combinatorial Problems – Analysis,
Algorithms and New Applications’. DISKI – Dissertationen zur K¨unstliken Intelligenz. Infix,
Sankt Augustin, Germany.
Su K., Kundur D, Hatzinakos D., 2002, ‘A novel approach to collusion resistant video
watermarking’, Security and Watermarking of Multimedia’ Contents IV, volume 4675,
Proceedings of SPIE, pp. 491–502,

Suhail M. A., Obaidat M. S., 2003, ‘Digital watermarking-based DCT and JPEG model’,
IEEE Transactions on Instrumentation and Measurement, Volume: 52, Issue: 5, pp. 1640-
1647.

130
Références bibliographiques

Surekha P., Sumathi S., 2011, ‘Implementation of genetic algorithm for a DWT based image
watermarking scheme’, ICTACT Journal of Soft Computing. Special issue on Fuzzy in
Industrial and process Automation, Vol. 02, Issue 01.

Swanson M.D., B. Zhu, and A. H. Tewfik., 1996, ‘Transparent robust image watermarking’,
IEEE International Conference on Image Processing, pp. 211– 214, Lausanne-Suisse.

Swathi H. R., Shah Sohini, Surbhi, Gopichand, G., 2017, ‘Image compression using singular
value decomposition’, IOP Conference Series: Materials Science and Engineering, Vol.263,
14th International Conference on Science, Engineering and Technology, Vellore – India.

Tanaka K., Nakamura Y., Matsui K., 1990, ‘Embedding secret information in to a Dithered
Multi level image’, in Proc. IEEE Military communications conf. Monterey, pp- 216-220.

Todmal S. and Patil S. 2015, ‘Enhancing the optimal robust watermarking algorithm to high
payload’, The International Arab Journal of Information Technology IAJIT, pp: 108-117.

Trache N., Ahmed-Foitih Z., Benamrane N., 2018, ‘Artificial Immune System Optimization
Technique For Robust and Secure Image Watermarking’, Accepted in the International
Journal of Imaging and Robotics, In press.

Trache N., Ahmed-Foitih Z., Benamrane N., Hadouda A., 2017, ‘Amélioration de la
compression d’image à haut débit par le codeur SPIHT’, ISPA 2017 « Fifth International
Conference on Image and Signal Processing and their Applications », Mostaganem.

Trache N., Ahmed-Foitih Z., Lucas L., 2014, ‘Schéma conjoint de tatouage et compression
des LDI(s) générées à partir d’images issues des flux auto-stéréoscopiques’, 17e Colloque
CORESA « Compression et Représentation des Signaux Audio-visuels », Reims-France,
p.41-46.

Tyagi S., Singh H. V., Agarwal R., Gangwar S. K., 2016, ‘Digital watermarking techniques
for security applications’, International Conference on Emerging Trends in Electrical
Electronics & Sustainable Energy Systems (ICETEESES), pp 379-382, Uttar Pradesh
Sultanpur, India.

Voß S., Martello S., Osman I. H. et Roucairol C. (Eds), 1999, ‘Meta-Heuristics - Advances
and Trends in Local Search Paradigms for Optimization’. Kluwer Academic Publishers,
Dordrecht.

Wang Z., Bovik A.C., Sheikh H.R., Simocelli E.P., 2004, ‘Image quality asssessment: From
error measurement to structural similarity’, IEEE Trans. Image Processing, Vol. 13, N°.4,
pp.600- 612.

Watson A.B, 1993, ‘DCT quantization matrices visually optimized for individual images’,
Proc. SPIE, Vol. 1913, pp. 202-216.
Widmer M., 2001, ‘Les métaheuristiques : des outils performants pour les problèmes
industriels. 3è Conférence Francophone de Modélisation et Simulation “Conception, Analyse
et Gestion des Systèmes Industriels” MOSIM’01 - Troyes, France.

131
Références bibliographiques

Yadav M., Jain N. j., 2017, ‘An Invisible, Robust and Secure DWT-SVD Based Digital Image
Watermarking Technique with Improved Noise Immunity’, IOSR Journal of Electronics and
Communication Engineering, Vol 12, Issue 6, pp. 07-11.

Zeki A. M. and Abdul Manaf A., 2009, ‘A novel digital watermarking technique based on
ISB (Intermediate Significant Bit)’. World Academy of Science, Engineering and
Technology, 50. pp. 989-996.

Zhang Y., 2009, ‘Blind watermark algorithm based on HVS and RBF neural network in DWT
domain’, WSAS Trans. Comput., Issue 8, pp. 174-183.

Zhao Y., Campisi Y., Kundur D., 2004 ‘Dual Domain watermarking for authentication and
compression of cultural heritage images’, IEEE Transactions on Image Processing, Vol.13,
pp. 430.448.

132

Vous aimerez peut-être aussi