Vous êtes sur la page 1sur 50

يـــــــــمـلعلا ثـــحبـلا و يـــلاعلا مــــيلـعتلا ةرازو

MINISTERE DE LENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE

UNIVERSITE FERHAT ABBAS -SETIF

Faculté de Technologie Département de l’électronique

h n o l o g i e Département de l’électronique Mémoire de Master No. Réf.

Mémoire de Master

No. Réf. : 521/2151

فــــيطس سابع تاحرف ةـــعماج

اــــيجوــلوــنكـتلا ةـيلك كينورتكللإا : مسق

Présenté au Département de l’électronique

Domaine

:

Sciences et Technologie

Filière

:

Electronique

Spécialité

:

Réseaux et Systèmes de Télécommunication

Réalisé par :

M. BENMAHIDDINE SOFIENE

Thème

Implémentation des techniques de binarisation d’image. Application aux vieux documents

Soutenu le 16/06/2015 devant la commission d’examen composée de :

M.

Khellaf Abdelhafid

Professeur à l’Université de Sétif

Président

M.

Ziet Lahcene

M.C.A à l’Université de Sétif

Directeur du Mémoire

M.

Belaala Hichem

M.C.B à l’Université de Sétif

Examinateur

Dédicaces

Ce mémoire est dédié à ma famille: ma mère, mon père, dont la fierté est ma raison de vivre; mon frère Mohammed et ma sœur Bouthaïna. Rien de tout ceci ne serait possible sans leurs sacrifices et leurs encouragements.

Remerciements

J’exprime mes remerciements et ma gratitude à mon directeur de mémoire, Monsieur Ziet Lahcene maître de conférences classe A à l’Université de Sétif, pour l’aide et le soutien et les conseils qu’il m’a apportés tout au long de ce travail.

Nos vifs remerciements vont aussi à Monsieur Khellaf Abdelhafid professeur à l’Université de Sétif, pour avoir fait l’honneur de présider le jury de ce mémoire et l’intérêt qu’il a apporté à ce travail.

Nous tenons à remercier Monsieur Belaala Hichem, maître de conférences classe B à l’Université de Sétif, pour avoir bien voulu faire partie du jury de ce mémoire.

SOMMAIRE

Sommaire

INTRODUCTION GENERALE

VIII

Chapitre 01

1

ETAT DE LART SUR LA BINARISATION

1

1.1. Introduction

1

1.2. Binarisation

1

1.2.1. Définition

1

1.2.2. Les méthodes de binarisation

1

1.2.3. Quelques méthodes de binarisation globale

2

1.2.4. Quelques méthodes de binarisation locale

6

1.3. Conclusion

8

Chapitre 02

9

IMPLEMENTATION DES TECHNIQUES DE CALCUL DU SEUIL DE BINARISATION

9

2.1. Introduction

9

2.2. Seuillage global basé sur l'histogramme

9

2.2.1. Informations statiques de l'histogramme

9

2.2.2. Implémentation d’une méthode simple de calcul du seuil

11

2.2.3. Implémentation de la technique ISODATA

12

2.2.4. Implémentation du calcul du seuil par la méthode OTSU

13

2.2.5. Implémentation de calcul du seuil par l’entropie maximale

14

2.3. Seuillage local adaptif

16

2.3.1. Méthode

de

Bernsen

16

2.3.2. Méthode

de

Niblack

16

2.4. Résultats des testes sur quelques images de vieux documents (base de données DIBCO) 17

2.4.1. Résultats de la 1 ère image :

18

2.4.2. Résultats de la 2 ème image :

18

2.5.

Conclusion

19

SOMMAIRE

Chapitre 03

20

BINARISATION PAR LE LISSAGE ET LA DETECTION DE CONTOURS

20

3.1. Introduction

20

3.2. Lissage par l'algorithme de Golay-savitsky

20

3.2.1. Définition du lissage

21

3.2.2. Lissage polynomial (Filtre de Savitsky-Golay)

21

3.2.3. Méthode des moindres carrés

21

3.2.4. Calcul des coefficients d’un filtre unidimensionnel de Savitsky-Golay

22

3.2.5. Estimation du fond

23

3.2.6. Algorithme

23

3.3. Traitement du texte par détection de contours en utilisant le gradient

24

3.3.1. Ajustement du contraste

25

3.3.2. Calcul du gradient

25

3.3.3. Extraction des contours

26

3.4. Extraction du texte

27

3.5. Post-traitement

29

3.6. Conclusion

30

Chapitre 04

31

OUTILS DE MESURE DES PERFORMANCES, TECHNIQUES DEVALUATION ET TESTS

31

4.1. Outils de mesure

31

4.2. Résultats

32

4.3. Discussion

36

4.4. Conclusion

37

CONCLUSIONS GENERALES ET PERSPECTIVES

38

SOMMAIRE

Liste des figures

Figure 1.1. Allures idéales d’un histogramme. (a): unimodal, (b): bimodal et (c) multimodal

3

Figure1.2. Illustration du seuillage adaptatif. (a) Image originale avec un fond non uniforme, (b)

6

Figure 2.1. Résultats de la binarisation en utilisant les méthodes classiques sur une image dégradée par une luminosité uniforme

18

Figure 2.2. Résultats de la binarisation en utilisant les méthodes classiques sur une image dégradée par les taches

19

25

Figure 3.4. Histogramme de l’image V

26

26

27

Figure 3.6. Histogramme qui représente la fréquence d’apparition des distances entre les bords de contour pour notre image

28

Figure 3.9. Représentation des déformations sur les blocs de pixels :

29

29

29

Figure 4.1. Les résultats de la binarisation d’un document dégradé par saignement (bleeding-through) (a) en utilisant la méthode d’Otsu (b), Niblack (c), Sauvola (d), Gatos (e), Su (f), et la méthode que nous

avons développé (g)

33

Figure 4.2. Les résultats de la binarisation d’un document dégradé par les taches (a) en utilisant la méthode

d’Otsu (b), Niblack (c), Sauvola (d), Gatos (e), Su (f), et la méthode que nous avons développé (g)

34

Figure 4.3. Les résultats de la binarisation d’un document dégradé par la variation du contraste (a) en utilisant la méthode d’Otsu (b), Niblack (c), Sauvola (d), Gatos (e), Su (f), et la méthode que nous avons développé (g)

35

Figure 4.4. Les résultats de la binarisation d’un document dégradé par une luminosité uniforme (a) en utilisant la méthode d’Otsu (b), Niblack (c), Sauvola (d), Gatos (e), Su (f), et la méthode que nous avons développé (g)

35

INTRODUCTION GENERALE

Listes des Acronymes et Symboles

Acronymes

OCR : Optical Character Recognition

ISODATA : Iterative Self-Organizing Data Analysis Technique Algorithm

FM : F-Measure

PSNR : Pick Signal-to-Noise Ration

NRM : Negative Rate Metric

FN : False Positives

FP : False Negatives

TN : True Positives

TP : True Negatives

MPM : Misclassification Penalty Metric

Symboles

: La moyenne

: L’écart type

:Application

: Incrémentation

: Décrémentation

: Et

Ou

INTRODUCTION GENERALE

INTRODUCTION GENERALE

I NTRODUCTION G ENERALE I NTRODUCTION G ENERALE Introduction (contexte et motivation) Au sein de développements
I NTRODUCTION G ENERALE I NTRODUCTION G ENERALE Introduction (contexte et motivation) Au sein de développements

Introduction (contexte et motivation)

Au sein de développements forts de la science, on ne peut pas nier le rôle de l’image numérique, le traitement d’images est considéré comme une étape de base et indispensable dans toutes ces applications et a suscité de nombreuses recherches. La binarisation des images est généralement effectuée comme un prétraitement des différentes applications liées à l’analyse des images de documents, comme la reconnaissance optique de caractères (OCR) et la recherche d’images de documents. La binarisation sert à convertir une image de document en niveaux de gris ou couleurs en une image de document binaire, dont l’information d’avant-plan (textes, graphes, etc.) est en noir et l’arrière-plan en blanc. Dans l’analyse d’images des documents anciens, la binarisation est toujours une des premières étapes utilisée avant l’étape de traitement. Elle a donc une grande influence sur les performance des étapes qui suivent et sur le résultat final. C’est une technique importante dans les applications de traitement d’images. La binarisation est un problème classique mais très considéré. C’est évident qu’il n’existe pas toujours une solution idéale pour tous les cas de dégradations. Plusieurs solutions ont été proposées pour résoudre ce problème du plus général au plus particulier. Cependant, chaque méthode a ses avantages et ses inconvénients.

Problème

Les images des documents anciens présentent un aspect fortement dégradé, avec un fond non uniforme, des pages déchirées, froissés et/ou des tâches d’encre effaçant partiellement l’encre, plus encore certains documents présentent un impacte de reflet de la page du verso.

Les problèmes de dégradation sur le plan visuel

On appelle un document ancien dégradé tous les documents qui contiennent des effets indésirables cumulés nuisant à la lisibilité, au traitement ou à la conservation des images. Les dégradations ont plusieurs origines et l’accumulation des défauts rend difficile leurs séparations. Les dégradations ont des effets plus destructeurs sur les images de documents que sur toutes autres images dites «naturelles». Le papier est un moyen de stockage fragile et éphémère. Il est constitué par l’essentiel de matériaux

INTRODUCTION GENERALE

naturels ou organiques qui sont chimiquement peu stables, les réactions chimiques, qui peuvent avoir lieu, peuvent provoquer des modifications irréversibles dans la structure des matériaux. Les processus chimiques ont des chances de s’intensifier avec l’accroissement de la température, l’humidité, la luminosité et la pollution atmosphérique. Toutes ces réactions chimiques peuvent se traduire, d’une part, par le jaunissement du papier, et de l’autre, par une décoloration de l’encre et des pigments. Les papiers minces de faible grammage sont sujets au phénomène de « transvision » (lorsque l’impression du verso est visible sur le recto). La « transvision » s’exprime à partir de la mesure en termes de transparence et de pénétration de l’encre. Une destruction complète du papier peut avoir lieu pour des réactions photochimiques au contact de l’oxygène. L’utilisation des matériaux tels que la colle ou les feuilles de protection en contact direct avec le support papier aide à propager des substances nuisibles qui peuvent ainsi provoquer des dommages. Il y a aussi les dégradations biologiques des documents anciens qui sont causées par des organismes vivants qui représentent «les parasites de la civilisation». Les dommages d’origine biologique diffèrent des précédents quant à la leurs effets. Ils peuvent être causés par différents agents: Les micro-organismes (bactéries, moisissures), Les insectes et Les rongeurs. L’homme peut contribuer à la dégradation progressive du patrimoine documentaire. Outre les désastres inévitables comme les accidents ou les guerres, certaines dégradations qui sont imputables aux manques dans les règles élémentaires de conservation, peuvent être évitées. Par manque de moyens financiers, les bibliothécaires ne peuvent pas toujours investir dans des systèmes de climatisation pour réduire l’humidité. Certaines n’ont ni la sécurité efficace contre les incendies ni les alarmes appropriées. Toute manipulation physique, par les conservateurs eux-mêmes, détériore les documents fragiles. Citons à titre d’exemple, le cas d’un livre qui tombe par maladresse d’un chariot en cours de transport, un mauvais rangement des microfilms provoquant des rayures. En outre, les bibliothécaires n’hésitent pas à apposer systématiquement des tampons à toutes les pages et même sur les parties écrites les rendant ainsi illisibles.

Les problèmes de dégradations sur le plan traitement

Dans notre démarche, nous nous intéressons à l’étape de traitement d’image et en particulier l’opération de binarisation. Le choix du seuil de binarisation est donc crucial. Des algorithmes de binarisation à seuils adaptatifs, conduisent à des résultats intéressants, mais la qualité des images binaires produites dépend du document orignal. Un document original dégradé aboutit généralement à une image binaire de mauvaise qualité.

INTRODUCTION GENERALE

La binarisation échoue systématiquement sur des documents faiblement contrastés, ou lorsque les couleurs des encres et du papier ne sont pas uniformes. Les dégradations du support, comme l’apparition du verso par transparence sur le recto et la présence de taches d’humidité, sont conservées dans l’image binaire. En outre, le bruit du capteur étant plus élevé sur les zones de fortes variations d’intensité, la binarisation fait systématiquement apparaître des irrégularités aléatoires sur les contours des caractères. Elle modifie la topologie des formes en fonction de la résolution limitant ainsi les possibilités de segmentation des caractères et des mots. Les images en couleur ou en niveaux de gris sont beaucoup plus lisibles et plus facilement interprétables par une machine que les images binaires, les niveaux de gris ou la couleur apportent une information supplémentaire qui compense le manque de résolution.

Objectif

L’objectif global de ce travail est de trouver une méthode générale de binarisation permettant d’améliorer la qualité de l’image traitée par cette opération et par conséquent réduire le temps des traitements qui suivent. En recherchant des solutions pour l’image de documents anciens, nous allons proposer une méthode automatique de binarisation simple et plus efficace qui sépare, au maximum possible, le fond de l’arrière-plan de l’image de document. Les objectifs spécifiques sont :

1-Etudier plusieurs algorithme de binarisation dans le but d’évaluer leurs performances et décrire les avantages et les inconvénients de ces méthodes. 2-Définir un nouveau problème de binarisation et proposer une ou plusieurs solutions possibles. 3-chercher une méthode simple mais efficace pour l’image de documents anciens afin de séparer clairement le fond et l’objet. Autrement dit, il s’agit de trouver une méthode de binarisation qui peut déterminer automatiquement et efficacement le seuil pour chaque point de l’image.

Structure du rapport

Ce rapport se compose de quatre parties. Je commence tout d’abord par l’état de l’art et quelques définitions. La deuxième partie est consacrée à une présentation générale des techniques de binarisation d’images, tout en présentant des brèves descriptions de quelques méthodes. Une analyse des résultats par des mesures d’évaluations est abordée avant de terminer ce rapport par des conclusions.

CHAPITRE 01

ETAT DE LART

Chapitre 01

ETAT DE LART SUR LA BINARISATION

L ’ ART Chapitre 01 E TAT DE L ’ ART SUR LA BINARISATION 1.1. Introduction
L ’ ART Chapitre 01 E TAT DE L ’ ART SUR LA BINARISATION 1.1. Introduction

1.1. Introduction

Notre problématique de seuillage s'inscrit dans le contexte général du traitement de documents anciens. Dans cette partie du rapport, nous présenterons les différents types de binarisation cités dans la littérature. Nous nous intéressons dans cette étude à la binarisation des documents en niveaux de gris, puisque la plupart des documents en couleurs, peuvent être convertis fidèlement en niveaux de gris.

1.2. Binarisation

1.2.1. Définition

La binarisation est une opération de prétraitement d’images qui sert à convertir une image en couleur ou niveau de gris en une image binaire, où l’avant plan est en couleur noir et l’arrière plan en blanc (ou l’inverse). La binarisation peut se faire par plusieurs techniques, telles que le seuillage, classification, etc. Elle représente donc un outil très utilisé dans la segmentation d’images pour extraire des objets de leurs fonds en fonction d’un certain seuil. Techniquement parlant, soit une image I de taille (M (hauteur) x N (largeur)), I(x, y) la valeur représentant le niveau de gris du pixel au point de coordonnées (x, y). Étant donné un seuil s :

- Nous définissons les pixels de l’objet, ceux ayant le niveau de gris inférieur à s, et les pixels de fond, ceux ayant le niveau de gris supérieur à s.

- Donc, l’image binarisée g est déterminée comme suit :

1.2.2. Les méthodes de binarisation

(1.1)

Les méthodes de binarisation ont été classées selon les informations qu’elles exploitent, en six catégories :

CHAPITRE 01

ETAT DE LART

- méthodes basées sur la forme de l’histogramme de l’image,

- méthodes basées sur le regroupement,

- méthodes basées sur l’entropie,

- méthodes basées sur les attributs d’objet,

- méthodes spatiales,

- méthodes locales.

Selon plusieurs travaux de recherche [2] [3], les techniques de binarisation par seuillage d’images

en niveaux de gris peuvent être classées en deux catégories :

- Seuillage global : consistant à partitionner l’image en deux classes grâce à un seuil optimal qui sera calculé à partir d’une mesure globale sur toute l’image. L’histogramme est une mesure utilisée le plus souvent dans les méthodes de seuillage. Dans ce cas, le seuil attendu est celui qui distingue le plus possible les deux classes : fond et objet.

- Seuillage local : où un seuil est calculé localement pour chaque pixel, se basant sur l’information se trouvant dans son voisinage définie préalablement.

- Un troisième groupe de méthodes hybrides [4] est ajouté, ces méthodes combinent des informations globales et locales pour attribuer les pixels à l’une des deux classes.

1.2.3. Quelques méthodes de binarisation globale

Les méthodes de seuillage globale reposent sur l’exploitation de l’histogramme de toute l’image. L’histogramme est une courbe monodimensionnelle qui caractérise la distribution des niveaux de

gris, il est décrit par une fonction mono-variable discrète hiou piqui représente

respectivement la fréquence ou la probabilité d’apparition du niveau de gris i, tel que :

(1.2)

h(i) étant le nombre de pixels ayant le niveau de gris i et N le nombre total de pixels dans l’image.

A partir de l’allure de l’histogramme, on peut déduire le nombre de classes ainsi que la position

relative des seuils. L’histogramme est uni-modal, s’il est formé d’un seul pic représentant les pixels de l’objet ou ceux du fond. Il est bimodal s’il est caractérisé par deux modes séparés par une vallée, il indique l’existence d’un objet sur un fond. L’histogramme multimodal comporte plus de deux modes séparés par des vallées, il indique la présence de plusieurs classes dans l’image (chaque mode correspond à une classe). Les seuils doivent être localisés dans les vallées. En pratique, il est rare de trouver un histogramme qui présente des modes bien distincts comme

CHAPITRE 01

ETAT DE LART

dans la figure (1.1). En effet, la plupart des images présentent des histogrammes bruités caractérisés par des modes non discernables.

bruités caractérisés par des modes non discernables. Figure 1.1. Allures idéales d’un histogramme. (a):

Figure 1.1. Allures idéales d’un histogramme. (a): unimodal, (b): bimodal et (c) multimodal

1.2.3.1. Méthode Otsu

La méthode Otsu [4] est considérée comme la méthode de référence dans le domaine du seuillage d’histogrammes. Dans cette méthode, l’opération de seuillage est vue comme une séparation (ou partitionnement) des pixels d’une image en deux classes C 1 (fond), C 2 (objet) à partir d’un seuil t. La classe « fond » regroupe tous les pixels ayant un niveau de gris inférieur au seuil t alors que la classe « objet » contient tous les pixels de niveau de gris supérieur à t. Ces deux classes peuvent être désignées en fonction du seuil t comme suit :

 

(1.3)

Soient

la variance d’une classe,

la variance interclasse et

variance totale telles que :

 

(1.4)

(1.5)

(1.6)

(1.7)

 

et

désignent respectivement les niveau de gris moyen des classes C1, C2 et de l’image tels

que :

 

(1.8)

CHAPITRE 01

ETAT DE LART

 

(1.9)

(1.10)

P 1 et P 2 représentent respectivement les probabilités à priori des classes C1 et C2 tels que :

(1.11)

(1.12)

(1.13)

Cette méthode consiste à maximiser la variance inter classe grande possible).

(La distance entre

plus

1.2.3.2. Méthode de kittler

La méthode de Kittler [5] Consiste à diviser les nivaux de gris en 2 classes C 1 et C 2 et attribuer

l’intensité à une classe en utilisant la loi de la décision de BAYES :

On attribut le pixel x à la classe :

(1.14)

On considère que la distribution des probabilités P (x|C j ) est une distribution gaussienne donc notre

critère devient :

 

(1.15)

Donc notre méthode consiste à minimiser ce critère d’erreur.

 

En appliquant le logarithme et en enlevant les termes inutiles pour la classification on trouve :

 

(1.16)

Et donc l’erreur pour toute l’image est :

CHAPITRE 01

ETAT DE LART

(1.17)

Après quelques simplifications mathématiques l’expression de l’erreur à minimiser devient :

1.2.3.3. Méthode KAPUR

(1.18)

La méthode de Kapur [6] est basée sur le principe de maximisation de l’entropie de Shannon. Elle suppose que les classes « objet » et « fond » possèdent deux densités de probabilité indépendantes.

 

(1.19)

Ou

 

(1.20)

Les entropies de Shannon associées aux deux distributions sont :

 

(1.21)

(1.22)

Le seuil optimal est alors défini comme étant le niveau de gris qui maximise les deux entropies, c’est-à-dire que :

1.2.3.4. Méthode ISODATA

(1.23)

Le seuillage par ISODATA [7] consiste à trouver un seuil en séparant l'histogramme en deux classes itérativement avec la connaissance a priori des valeurs associées à chaque classe. Cette méthode commence par la division de l’intervalle en valeurs non-nulles de l’histogramme en deux parties équidistantes, calcule ensuite les moyennes arithmétiques m 1 et m 2 de chaque classe. Répète le calcul du seuil T jusqu’à la convergence vers la valeur la plus proche de (m 1 +m 2 )/2, et mettant à jour à chaque fois les deux moyennes m 1 et m 2 .

CHAPITRE 01

ETAT DE LART

Cette méthode présente l’inconvénient de la non-convergence (boucle infinie).

1.2.4. Quelques méthodes de binarisation locale

Il existe des images pour lesquelles il est difficile d’effectuer une bonne binarisation au moyen d’un

seul seuil, si celui-ci est le même pour chaque point de l’image. Ceci peut être dû à une non

uniformité de l’éclairage de l’image ou au fait que les différents objets qui composent l’image ont

des dynamiques de luminances différentes. Pour cela, les méthodes de binarisation locales sont

mieux adaptées.

A l’inverse des méthodes globales qui ne considèrent que la valeur du pixel, les méthodes locales

prennent en considération la valeur des pixels voisins pour le calcul des seuils. Deux stratégies sont

souvent employées. La première consiste à diviser, en premier lieu, l’image en fenêtres non

chevauchantes. Dans un deuxième temps, un seuil est déterminé dans chaque fenêtre selon la nature

de l’histogramme local. Un seuil égal à zéro est affecté à la fenêtre possédant un histogramme uni-

modal tandis qu’une procédure de seuillage est appliqué pour déterminer un seul seuil dans le cas

d’un histogramme bimodal ou multimodal. La figure (1.2) suivante illustre le principe du seuillage

local :

(a)

(c)

(b) (d)
(b)
(d)

Figure 1.2. Illustration du seuillage adaptatif. (a) Image originale avec un fond non uniforme, (b) Image binarisée avec un seuil global, (c) Image originale découpée en sous images, (d) Image segmentée avec un seuillage adaptatif.

1.2.4.1. Méthode Niblack

La méthode de Niblack [8] détermine un seuil en fonction de la moyenne et de l’écart-type d’une

fenêtre centrée sur le pixel de cordonnées (x,y) :

: La valeur de seuillage pour le pixel situé en

.

: La moyenne des valeurs de la fenêtre centrée en

.

(1.24)

CHAPITRE 01

ETAT DE LART

: Est un paramètre utilisé pour déterminer le nombre des pixels des contours considérés comme des pixels d’objet et il prend des valeurs négatives. (k est fixé à 0.2 par les auteurs). : L’écart type des valeurs de la fenêtre centrée en Cette méthode donne de bons résultats car le seuil dépond du pixel et de l’information extraite à partir de son voisinage, mais n’est pas efficace quant le fond n’est pas uniforme, ce problème a poussé Sauvola à une méthode améliorée.

1.2.4.2. Méthode de Sauvola

L’algorithme de Sauvola [9] est une modification de celui de Niblack, pour donner plus de performance dans les documents avec un fond qui contient une texture claire ou bien trop de variation et illumination inégale. Dans la modification de Sauvola, la binarisation est donnée par :

(1.25)

Ou R est la porté dynamique de l’écart-type, et le paramètre k prend des valeurs positives dans l’intervalle [0.2-0.5]. Dans ses tests, Sauvola utilise R=128 et k=0.5. L’inconvénient de cette méthode se présente lorsque l’image a un faible contraste.

1.2.4.3. Méthode de Wolf

Pour s’adresser aux problèmes de l’algorithme de Sauvola (faible contraste, écart de niveaux de gris etc.), Wolf et al [10] proposent de normaliser le contraste et la moyenne des niveaux de gris de l’image, et calculer le seuil par :

(1.26)

Tel que k est fixé à 0.5, M est le niveau de gris minimum de l’image et R vaut l’écart-type maximum des niveaux de gris obtenu sur toutes les fenêtres.

1.2.4.4. Méthode de Bernsen

La méthode de Bernsen [11] est une technique locale adaptative dont le seuil est calculé pour chaque pixel de l’image. Ainsi pour chaque pixel de coordonnés (x, y), le seuil est donné par :

(1.27)

Tel que Z bas et Z haut sont le niveau de gris le plus bas et le plus haut respectivement, dans une fenêtre carré r × r centré sur le pixel (x, y). Cependant si le contraste C est inférieur à un certain seuil, avec :

CHAPITRE 01

ETAT DE LART

(1.28)

Alors le voisinage consiste en une seule classe: fond ou bien texte.

1.3. Conclusion

Nous avons abordé le problème de binarisation des anciens documents dégradés. Plusieurs méthodes ont été proposées dans la littérature pour la binarisation des images de documents, mais aucune d’entre elles ne se démarque des autres, surtout pour les images des anciens documents possédants différents caractéristiques de dégradation. Nous avons présenté un petit état de l’art sur les méthodes de binarisation d’images de documents, les plus fréquemment citées dans la littérature.

CHAPITRE 02

IMPLEMENTATION

Chapitre 02

IMPLEMENTATION DES TECHNIQUES DE CALCUL DU SEUIL DE BINARISATION

DES TECHNIQUES DE CALCUL DU SEUIL DE BINARISATION 2.1. Introduction Le Seuillage automatique est un domaine
DES TECHNIQUES DE CALCUL DU SEUIL DE BINARISATION 2.1. Introduction Le Seuillage automatique est un domaine

2.1. Introduction

Le Seuillage automatique est un domaine très ancien, mais toujours très actif dans la recherche. De nombreuses techniques ont été développées pour cette tâche, allant de solutions simples à des algorithmes complexes avec des fondations théoriques solides, tel que documenté dans plusieurs revues et études d'évaluation dans la littérature. La binarisation d'images est également considérée comme une technique de «segmentation par seuillage», elle est donc souvent classée sous ce terme. Dans ce chapitre nous allons donner quelques implémentations des méthodes de base, les plus utilisées pour le calcul du seuil, la majorité de ces méthodes utilise la notion de distribution de probabilité et d’histogramme. Pour cela, nous commençons par des méthodes de seuillage globales puis continuons avec des méthodes locales adaptatives.

2.2. Seuillage global basé sur l'histogramme

Comme nous l'avons indiqué dans le chapitre précédent, étant donné une image I en niveaux de gris, la tache est de trouver une seule valeur de seuil "optimale" pour binariser cette image. L'application d'un seuil particulier q est équivalent à classer chaque pixel comme étant soit une partie de l'arrière-plan (background) ou au premier plan (foreground). Ainsi, l'ensemble de tous les pixels de l'image est divisée en deux ensembles disjoints C 0 et C 1 tel que:

(2.1)

Avant de donner le principe de ces algorithmes, passons en revue quelques faits élémentaires au sujet des informations qui peuvent être dérivées de l'histogramme de l'image.

2.2.1. Informations statiques de l'histogramme

Dans tout ce qui suit,

les valeurs possibles d'intensité.

dénote l'histogramme d'une image

en niveau de gris de

pixels et

CHAPITRE 02

IMPLEMENTATION

La valeur moyenne de tous les pixels dans l'image

est définie par:

 

(2.2)

La variance sera:

 

(2.3)

La valeur moyenne et la variance peut être simultanément calculée dans une seule itération par:

 

(2.4)

(2.5)

Avec:

 

(2.6)

(2.7)

Si on fait un seuillage à un niveau , le nombre de pixel assigné à chaque classe C 0 et C 1 (background et foreground) est:

Donc :

(2.8)

(2.9)

(2.10)

Pour chaque seuil q, les valeurs moyennes correspondant à chaque partition C 0 ou C 1 , peuvent être calculées à partir de l'histogramme par:

CHAPITRE 02

IMPLEMENTATION

 

(2.11)

(2.12)

Nous pouvons déduire à partir de ces deux équation que:

 

(2.13)

De la même manière, pour chaque seuil q, les variances peuvent être calculées par:

 

(2.14)

(2.15)

(2.16)

2.2.2. Implémentation d’une méthode simple de calcul du seuil

La valeur du seuil ne doit pas être choisit aléatoirement, mais seulement à partir du contenue de l’image. Dans le cas le plus simple, nous pourrons utiliser la moyenne de tous les pixels de l'image comme valeur du seuil :

 

(2.17)

Ou la valeur de la médiane :

 

(2.18)

Ou alternativement la différence (average) entre la valeur max et min :

(2.19)

Ces quantités peuvent être directement obtenues à partir de l'histogramme.

CHAPITRE 02

IMPLEMENTATION

L'algorithme 2.1. Représente une implémentation de calcul simple du seuil (thresholding).

La valeur de seuil optimal q [0, K-2] est retourné, (ou -1 si aucun seuil valide n'a été trouvé).

1:Seuil simple (h,b) Entrée: h: [0, K−1] → N, histogramme. b, pourcentage estimé des pixels du fond (0 <b<1).

Sortie: la valeur du seuil optimal ou −1 si aucun seuil n'est trouvé.

2: K ← Taille(h) 3: N ←

4:

5: c ← h(0)

6: tant que (j<K)

j ← 0

(c<N. b)

--calcule du seuil

-- nombre des niveaux d'intensité -- nombre des pixels de l'image

7:

j ← j +1

8:

c ← c + h(j)

9:

si c<N alors

-- foreground non-vide

10:

q ← j

11: sinon

12:

13: retourne q.

q ←−1

-- foreground vide, tous les pixels sont background

2.2.3. Implémentation de la technique ISODATA

Cet algorithme commence tout d’abord par une estimation initiale du seuil, (en prenant la moyenne

ou la médiane de limage entière). Cette valeur divise les pixels en 2 parties : une qui contient les

pixels du fond (background) et l’autre qui contient les pixels de l’objet (foreground). Après on

calcule la moyenne de chaque partie et on remplace l’ancien seuil par la moyenne de ses 2 valeurs.

Puis on recalcule les moyennes des 2 nouvelles parties jusqu'à la convergence du seuil.

Algorithme 2.2. Sélection du seuil par la méthode itérative de Ridler et Kalvard

1 : Seuil ISODATA(h) Entrée: h : [0, K−1] → N, histogramme. Sortie : la valeur du seuil optimal ou −1 si aucun seuil n’est trouvé.

2 : K ← taille(h) --nombre des niveaux d’intensité

 

: q ← moyenne (h, 0, K−1) 4: répéter

3

-- initialisation du seuil à la valeur moyenne

5:

n0← Compteur (h, 0, q) n1← Compteur (h, q+1, K−1)

-- population background -- population foreground

6:

7 si (n 0 =0)

:

(n 1 =0) alors

8 (retourner -1)

:

--background ou foreground vide -- moyenne du background -- moyenne du foreground -- mémorisation de l’ancien seuil

9 μ 0 ← Moyenne (h, 0, q)

:

10 μ 1 ← Moyenne (h, q+1, K−1)

:

11 :

q’ ← q

12 :

q ← [μ 0 + μ 1 ]/2

 

13 : jusqu’a q = q’

 

14: retourne q

Compteur (h, a, b) : =

 

Moyenne (h, a, b) : =

 

CHAPITRE 02

IMPLEMENTATION

2.2.4. Implémentation du calcul du seuil par la méthode OTSU

Le procédé d'Otsu suppose que l'image originale contient des pixels classés en deux, dont les

distributions d'intensité sont inconnues. L'objectif est de trouver un seuil q tels que les distributions

de l'arrière-plan résultant et du premier plan sont séparés au maximum, ce qui signifie que :

a-

leurs variances sont au minimum.

b-

leurs moyennes sont écartées au maximum.

La variance totale de l’image est égale à la somme de la variance intra-classe et la variance

interclasse :

(2.20)

est constante donc on choisie soit de maximiser la variance interclasse ou de minimiser

Puisque

la variance intra-classe. Dans notre cas on choisie de maximiser

puisque :

(2.21)

Et ses termes peuvent êtres calculés facilement à partir de l’histogramme de l’image :

(2.22)

(2.23)

(2.24)

L'algorithme 2.3.représente une implémentation de calcul du seuil par la méthode Otsu, il suppose

une image en niveaux de gris avec un total de N pixels et niveaux d'intensité K.

Il est à noté que cet algorithme utilise une procédure qui permet de construire un tableau de

moyennes.

1: Seuil OTSU(h) Entrée: h : [0, K−1] → N, histogramme. Sortie: la valeur du seuil optimal ou −1 si aucun seuil n'est trouvé. 2: K ← Taille(h) --nombre des niveaux d'intensité 3: (μ 0, μ 1 , N) ← construction table moyenne (h, K) --appel à la procédure construction table 4: σ 2 bmax ← 0 5: q max ←−1 6: n 0 ← 0 7: pour q ← 0 K−2 --vérification de toutes les valeurs possibles du seuil 8: n 0 ← n 0 + h(q)

CHAPITRE 02

IMPLEMENTATION

9:

10:

n 1 ← N – n 0 si (n 0 > 0)

 

(n 1 >0) alors

11:

σ 2 b ← (1/N 2 ) n 0 .n 1 . [μ 0 (q)- μ 1 (q)] 2

 

12:

si σ 2 b > σ 2 bmax alors

13 :

σ 2 bmax ← σ 2 b

-- maximisation de la variance

14:

q max ← q 15: retourne q max

16: construction table moyenne (h, K) 17: n 0 ← 0, s 0 ← 0 18: pour q ← 0 K−1

 

19:

20:

n 0 ← n 0 + h(q) s 0 ← s 0 +q. h(q)

21:

22: N← n 0 23: n 1 ← 0

, s 1 ← 0

24:

25: pour q ← k-2 0

26:

27:

n 0 ← n 1 + h(q+1) s 1 ← s 1 + (q+1). h(q+1)

 

28:

29: retourne

2.2.5. Implémentation de calcul du seuil par l’entropie maximale

L'entropie de l'image a été utilisée dans plusieurs méthodes comme critère de sélection du seuil.

Dans l’exemple suivant, nous allons présenter la technique la plus récente celle de Kapur.

Pour un seuil donné q (0<q<k-1), les distributions de la probabilité estimée pour produire deux

classe C 0 et C 1 sont:

Avec :

(2.25)

(2.26)

CHAPITRE 02

IMPLEMENTATION

: sont les probabilités cumulatives pour les pixels background et foreground

respectivement.

Les entropies pour chaque partition sont définies comme :

(2.27)

Algorithme 2.4. Calcul du seuil par la méthode de KAPUR

1:Seuil Kapur(h) Entrée: h : [0, K−1] → N, histogramme Sortie: la valeur du seuil optimal ou −1 si aucun seuil n'est trouvé. 2:K ← Taille(h) -- nombre des niveaux d’intensité 3:p ← Normaliser(h) –normalisation de l’histogramme

4: (S 0 , S 1 ) ← Construction tableau (p, K) appel de la procédure construction table 5: P 0 ← 0 6: q max ←−1

7: H max ←−∞ 8: pour q ← 0 K−2 9: P 0 ← P 0 + p(q) 10: P 1 ← 1 − P 0

-- entropie maximale -- vérifier toutes les valeurs du seuil

11:

12:

13

14: si H 01 > H max alors

 

15: Hmax

H 01

 

16: qmax

q

17: retourne q max

18:Creation d'un tableau(S1,S0) 19: s 0 ← 0 20: pour i ← 0 K−1

 

21:

si p(i) > 0 alors s 0 ← s 0 + p(i) · log p(i) S 0 (i)← s 0 s 1 ← 0

22:

23:

24:

25: pour i ← 0

K−1

26:

S 1 (i)s 1 si p(i) > 0 alors

 

27:

28:

s 1 s 1 + p(i) · log (p(i))

29: retourne (S 0 , S 1 )

CHAPITRE 02

IMPLEMENTATION

2.3. Seuillage local adaptif

Dans beaucoup de situation, un seuil fixe ne peut être approprié pour classifier les pixels de toute

l’image, surtout lorsque l’image présente des zones avec des backgrounds non uniformément

éclairées. La solution est de recourir à chercher des seuils locaux adaptatifs. Pour cela nous

trouvons dans la littérature plusieurs méthodes parmi lesquelles nous citions :

2.3.1. Méthode de Bernsen

Cette méthode spécifie un seuil de binarisation dynamique pour chaque position (u,v), en se basant

sur les valeurs des intensités maximales et minimales trouvées dans un voisinage R (u,v).

Si :

(2.28)

(2.29)

Sont le minimum et le maximum respectivement sur un voisinage de région R centrée sur le point

(u,v), le seuil est calculé par :

(2.30)

Algorithme 2.5. Calcul des seuils locaux par la méthode de Bernsen

1: Seuil Bernsen (I, r, c, bg) Entrée: I, Image de taille M × N; r, rayon de la région; cmin, contraste minimum;bg, type du fond (sombre ou clair) Sortie: une matrice qui détermine le seuil pour chaque pixel. 2: (M, N) ← Taille (I)

3:

4: Pour chaque pixel (u, v) M × N 5: R ← construction des régions (u, v, r)

6:

7:

8: c ← I max -I min

9:

10: retourne Q

2.3.2. Méthode de Niblack

Dans cette approche, le seuil Q (u,v) es varié à travers l'image en fonction de la moyenne µ R (u,v) et

l’écart type σ R de la forme:

CHAPITRE 02

IMPLEMENTATION

(2.31)

Algorithme 2.6. Calcul des seuils locaux par la méthode de Niblack

1: Seuil Niblack(I, r, κ, d, bg ) Entrée: I, Image de taille M × N; r, rayon de la région; κ, paramètre de contrôle de la variance. d, offset; bg, type du fond. Sortie: une matrice qui détermine le seuil pour chaque pixel. 2: (M, N) ← Taille(I) 4: Pour chaque pixel (u, v) M × N

R

← construction des régions (u, v, r)

5: (μ, σ 2 ) ← récupération de la procédure calcule de la moyenne

et de la variance (I, u, v, r)

6:

σ ←√ σ 2 calcule de l’écart type

7:

8: retourne Q

9: calcule de moy et var (I, u, v, r) Sortie calcule de la moyenne et de la variance au voisinage 10: R ←Construire des régions (u, v, r) 11: N ← 0, A ← 0, B ← 0 12: pour chaque (i, j) R 13: N ← N +1 14: A ← A + I(i, j) 15: B ← B + I 2 (i, j)

16:

17:

18: retourne (μ, σ)

2.4. Résultats

données DIBCO)

des

testes

sur

quelques

images

de

vieux

documents

(base

de

Dans cette partie du chapitre, nous allons présenter quelques résultats en appliquant les algorithmes

implémentés en Matlab.

Le choix c'est porté sur plusieurs images de la base de données DIBCO avec ses versions 2009,

2010 et 2011.

Nous nous contentons de présenter les tests sur deux types d'images:

- Une image contenant une dégradation due à un éclairage non uniforme

- Une autre image présentant des taches dues à un vieillissement.

CHAPITRE 02

IMPLEMENTATION

2.4.1. Résultats de la 1 ère image :

02 IMPLEMENTATION 2.4.1. Résultats de la 1 ère image : Image originale OTSU ISODATA BERNSEN KITTLER

Image originale

2.4.1. Résultats de la 1 ère image : Image originale OTSU ISODATA BERNSEN KITTLER Figure 2.1.

OTSU

Résultats de la 1 ère image : Image originale OTSU ISODATA BERNSEN KITTLER Figure 2.1. Résultats

ISODATA

de la 1 ère image : Image originale OTSU ISODATA BERNSEN KITTLER Figure 2.1. Résultats de

BERNSEN

de la 1 ère image : Image originale OTSU ISODATA BERNSEN KITTLER Figure 2.1. Résultats de

KITTLER

Figure 2.1.Résultats de la binarisation en utilisant les méthodes classiques sur une image dégradée par une luminosité uniforme

2.4.2. Résultats de la 2 ème image :

une image dégradée par une luminosité uniforme 2.4.2. Résultats de la 2 ème image : Image

Image originale

une image dégradée par une luminosité uniforme 2.4.2. Résultats de la 2 ème image : Image

ISODATA

CHAPITRE 02

IMPLEMENTATION

C HAPITRE 02 IMPLEMENTATION OTSU BERNSEN KITTLER Figure 2.2. Résultats de la binarisation en utilisant les

OTSU

C HAPITRE 02 IMPLEMENTATION OTSU BERNSEN KITTLER Figure 2.2. Résultats de la binarisation en utilisant les

BERNSEN

C HAPITRE 02 IMPLEMENTATION OTSU BERNSEN KITTLER Figure 2.2. Résultats de la binarisation en utilisant les

KITTLER

Figure 2.2. Résultats de la binarisation en utilisant les méthodes classiques sur une image dégradée par les taches

2.5. Conclusion

D’après les résultats de tests, les méthodes globales qui consiste à chercher le seuil globale a partir généralement de l’histogramme, sont simples, rapides et ont un bon impact sur le fond (nettoient bien le fond), mais trop sensibles à la variation des intensités du fond et de l’objet, elles sont donc non adaptées aux images fortement bruitées : en fonction des conditions de saisie, stockage et d’utilisation, il sera impossible d’obtenir une image de bonne qualité, donc le bruit va introduire une certaine irrégularité dans la forme de l’histogramme surtout dans sa partie minimum local. La méthode d’Otsu par exemple cherche à maximiser la variance intra-classe du« texte » et du «fond». Contrairement à kittler, ils ne se basent pas sur l'histogramme mais sur une simple statistique de l'image, d’après les résultats obtenus pose des problèmes les documents mal éclairés. Cependant, les méthodes locales, basées sur l’estimation de la valeur du seuil en faisant la moyenne de la plus haute et la plus basse valeur de la fenêtre, sont plus efficaces, plus complexes et nécessitent des capacités de calcul plus importantes en fonction du choix de la taille de la fenêtre et le centrage pour certaines techniques.

CHAPITRE 03

LISSAGE ET DETECTION DES CONTOURS

Chapitre 03

BINARISATION PAR LE LISSAGE ET LA DETECTION DE CONTOURS

03 B INARISATION PAR LE LISSAGE ET LA DETECTION DE CONTOURS 3.1. Introduction Comme nous l'avons
03 B INARISATION PAR LE LISSAGE ET LA DETECTION DE CONTOURS 3.1. Introduction Comme nous l'avons

3.1. Introduction

Comme nous l'avons déjà présenté dans les chapitres précédents, la binarisation des images numériques est utilisée souvent dans le traitement et l’analyse des images, nous la trouvons dans plusieurs applications comme dans le cas des OCR (Optical Character Recognition). Ou Elle convertit une image à niveau de gris en une image binaire pour faciliter les opérations suivante. Ainsi, une binarisation rapide est précise est devenue important. Nous avons aussi présenté quelques méthodes classiques, la plus part d'entre elles étaient basées sur l'analyse de l'histogramme. Cette fois, nous allons donner une approche très différente qui consiste à faire une estimation du fond, une technique utilisée dans la méthode de binarisation par Gatos [12]. En effet, il s'agit d'une méthode utilisant des notions basées sur des approximations se servant des interpolations polynomiales. Dans cette méthode nous allons montrer l'efficacité d'un tel traitement et présenter une contribution se manifestant par l’amélioration du temps de calcul par une technique limitant la taille des fenêtres d'analyse. Cette méthode se déroule en deux grandes étapes:

-Une étape de lissage du background par les procédures d’interpolation.

-Une étape de détection du forground par la méthode du gradient

3.2. Lissage par l'algorithme de Golay-savitsky

Dans cette partie du traitement, nous allons proposer l’utilisation de l’algorithme de Savitsky-Golay pour faire une estimation du fond du document. Cette procédure utilise une technique de lissage polynomial progressive et itérative.

Pour bien comprendre les procédures utilisées, nous devons éclaircir quelques points.

CHAPITRE 03

LISSAGE ET DETECTION DES CONTOURS

3.2.1. Définition du lissage

En mathématiques, le lissage est une technique qui consiste à réduire les irrégularités et les singularités d’une courbe (cas se manifestant dans les dégradations des vieux documents).

Cette technique est utilisée en traitement du signal pour atténuer ce qui peut être considéré comme une perturbation ou un bruit de mesure. Le lissage est un processus dans lequel les signaux sont pondérés par des coefficients calculés à partir de leur voisinage.

Par exemple après avoir appliquer un lissage sur une série de n signaux

, la nouvelle

série

peut être représenté comme suit :

 
  (3.1)

(3.1)

: représente le poids n : le nombre de signaux Donc le signal résultant pondérés à son voisinage.

après le lissage est égale à la somme du signal original

et les signaux

3.2.2. Lissage polynomial (Filtre de Savitsky-Golay)

Le filtre de Savitsky-Golay est un filtre numérique qui peut être appliqué sur un ensemble de données numériques dans le but de lisser les données pour augmenter le rapport signal sur bruit sans distorsion du signal. Ce filtre utilise la convolution en construisant un polynôme de degré inferieur représentant une courbe qui passe sur un ensemble de données numériques. Quand les données sont équidistantes, la solution à l’équation des moindres carrés est un vecteur contenant les coefficients de convolution ou une matrice si les données ne sont pas unidimensionnelles. L’application de ses coefficients sur l’ensemble des données nous donne un signal estimé à partir du centre de cet ensemble.

3.2.3. Méthode des moindres carrés

La méthode des moindres carrés permet de comparer des données expérimentales, généralement, entachées derreurs de mesure, à un modèle mathématique censé décrire ces données. Elle permet alors de minimiser l’impact des erreurs expérimentales en « ajoutant de l’information » dans le processus de mesure, on parle alors d’ajustement par la méthode des moindre carré.

CHAPITRE 03

LISSAGE ET DETECTION DES CONTOURS

3.2.4. Calcul des coefficients d’un filtre unidimensionnel de Savitsky-Golay

Pour un ensemble de 2m+1 de points de données positionnés symétriquement par rapport au

centre comme suit :

-m -m+1 0 m
-m
-m+1
0
m

Tableau 3.1. Tableau de correspondance position et intensité

Dans notre cas

Pour faire un lissage de cet ensemble nous devons construire un polynôme lequel :

représente l’intensité des pixels.

de degré p pour

 

(3.2)

: représentent les coefficients du filtre et ils sont constants pour tout les points de l’ensemble choisi.

Donc pour calculer ces coefficients on doit résoudre l’équation :

 

(3.3)

Ou :

La matrice X est égale à :

 

(3.4)

Le vecteur des coefficients a :

 

(3.5)

Le vecteur des données D :

 

(3.6)

L’équation représente le polynôme pour chaque point de donnée. Donc on utilise les moindres

carrées pour résoudre cette équation et on trouve :

On remarque que C avec :

on utilise les moindres carrées pour résoudre cette équation et on trouve : On remarque que

(3.7)

CHAPITRE 03

LISSAGE ET DETECTION DES CONTOURS

C HAPITRE 03 LISSAGE ET DETECTION DES CONTOURS (3.8) Se calcule indépendamment des données, du coup

(3.8)

Se calcule indépendamment des données, du coup le calcule des coefficients du filtre de Savitsky-

Golay se fait par le produit scalaire d’une ligne de la matrice C avec le vecteur colonne D.

Nous concluons que le calcule des coefficients du filtre de Savitsky-Golay se fait par l’application

d’un filtre linéaire C sur l’ensemble des données D.

3.2.5. Estimation du fond

Dans cette étape, nous faisons l’estimation du fond du document en utilisant un lissage polynomiale

qui a été utilisé dans différentes application. Par exemple : Krzysztof et al [13] utilise le lissage

polynomial en 2 dimensions pour estimer le fond des empreintes digitales. Seeger [14] et al utilise

un lissage polynomial sur les régions de texte.

Dans notre méthode, nous l’implémentons d’une manière différente. Nous commençons tout

d’abord par calculer un seuil global pour faire une pré détection du fond, puis nous choisissons la

taille d’une fenêtre dans laquelle nous allons faire un lissage polynomial unidimensionnel

(largement plus rapide que le lissage à 2 dimensions) et pour finir nous augmentons la taille de la

fenêtre après chaque lissage complet du fond du document jusqu'à ce qu’elle soit égale aux

dimensions de l’image pour ainsi pouvoir suivre les variations dans l’image avec précision.

3.2.6. Algorithme

3.2.6.1. Calcul du seuil global et réduction de la dynamique des pixels:

On peut le calculer par des algorithmes de seuillage globales comme celui d’Otsu ou de Kapur mais

dans notre cas on choisie la moyenne comme seuil pour la simplicité et la rapidité de calcul.

Le seuil T sera égale à :

et la rapidité de calcul. Le seuil T sera égale à : L : nombre de

L

: nombre de lignes

C

: nombre de colonnes

N

: nombre des pixels dans l’image

I : intensité des pixels

(3.9)

Ainsi, nous considérons tous les pixels d’intensité inferieur à T comme des pixels appartenant au

texte, le reste des pixels sera considéré comme appartenant au fond.

Puisque, pour l’instant, nous n’aurons pas besoin des pixels de texte et pour augmenter l’efficacité

CHAPITRE 03

LISSAGE ET DETECTION DES CONTOURS

et la rapidité du filtre de lissage nous faisons une réduction de la dynamique des pixels de la façon suivante :

g

: image après réduction de la dynamique

T

: Seuil global

f : image originale

(3.10)

3.2.6.2. Application d’un lissage itérative dans une fenêtre

a. Choisir une taille initiale pour une fenêtre unidimensionnelle qui contient un vecteur de pixels D. La fenêtre doit être horizontale de façon à ce qu’on fait un lissage ligne par ligne.

b. Appliquer le lissage polynomial en choisissant un degré initial

.

c. Évaluer l’erreur entre les valeurs estimées et les valeurs originales et si elle est supérieure à un seuil prédéfinie on enlève le pixel avec l’erreur maximale du vecteur D.

d. Augmenter le degré du polynôme et on applique le filtre au reste des points.

e. Répéter les étapes c et d jusqu’à ce que l’erreur maximale soit inférieure au seuil.

3.2.6.3. Lissage global et agrandissement de la taille de la fenêtre

a. Glisser la fenêtre le long de la ligne et faire un lissage ligne par ligne jusqu'à la fin.

b. Agrandir la taille de la fenêtre et refaire le même travaille de l’étape B (Application d’un

lissage itérative dans une fenêtre), jusqu'à ce que la taille de la fenêtre soit égale à la longueur de la

ligne.

c. Le coefficient d’agrandissement de la taille de la fenêtre dépend du degré des dégradations subit par l’image, plus l’image est dégradée plus le coefficient est petit.

3.2.6.4. Lissage vertical

Apres le lissage horizontal il restera toujours quelques lignes mal lissées, donc on refait le même travail de l’étape 2 et 3 en faisant un lissage colonne par colonne pour ainsi corriger les erreurs d’estimation introduites par le lissage horizontal.

3.3. Traitement du texte par détection de contours en utilisant le gradient

La détection de contours permet de repérer le changement brutale de l’intensité lumineuse, on peut avec ces changement faire un seuillage plus approprié et extraire le texte d’une manière plus

CHAPITRE 03

LISSAGE ET DETECTION DES CONTOURS

efficace. Par contre pour le cas des images dégradées, la non homogénéité de la luminosité et les taches causent des erreurs dans la détection. Par exemple, on ne peut pas détecter quelques contours dans les zones sombres ou bien la détection de faux contours à cause des changements brusques dans le fond causés par le bruit. La détection des contours est une technique qui est beaucoup utilisé dans la binarisation comme dans le cas de la méthode de Su [15]. Dans la méthode développée nous faisons la détection en utilisant le gradient.

3.3.1. Ajustement du contraste

Le texte ou l’objet du document peut être extrait grâce aux variations locales détectées, ceci devient plus facile après un ajustement des variations globales du contraste de l’image causées par les dégradations. Pour faire cet ajustement, nous utilisons le fond estimé lors de la partie précédente comme suit :

(3.11)

Ou :

C : c’est une constante pour contrôler la luminosité de l’image, dans notre système on la remplace par la médiane de l‘image qu’on est entrain d’étudier.

BG : représente le fond estimé de l’image. Ainsi les variations du contraste dans l’image causées par les dégradations seront ajustées grâce au

coefficient

, de façon à ce que ce coefficient sera grand dans les zones sombres et faible dans

les zones claires du BG. Comme dans la figure (3.1) :

Figure 3.1. L’image estimée
Figure 3.1. L’image estimée

3.3.2. Calcul du gradient

Une fois le contraste de l’image ajusté, les contours du texte peuvent être détectés plus facilement avec moins d’erreurs, nous utiliserons dans ce cas, le calcul du gradient sur chaque pixel dans les deux directions horizontale selon les équations 3.12 et 3.13:

CHAPITRE 03

LISSAGE ET DETECTION DES CONTOURS

(3.12)

(3.13)

Puis pour pouvoir détecter les zones ou il y’a plus de changement sur l’intensité des pixels on fait la

somme des deux on aura :

(3.14)

Ainsi les zones ou la valeur du gradient V est grand (zones blanches) seront considérées comme des

contours de texte conformément à la figure suivante :

Figure 3.2. L’image gradient V
Figure 3.2. L’image gradient V

3.3.3. Extraction des contours

L’histogramme de l’image générée par la somme des gradients vertical et horizontale est représenté si dessous :

L’intensité des pixels Le nombre des pixels
L’intensité des pixels
Le nombre des pixels

Figure 3.3. Histogramme de l’image V

D’après les schémas de l’histogramme uni-modal si dessus : nous remarquons que les pixels qui ne

font pas partie des contours (pixels noirs) sont plus nombreux et ont une dynamique beaucoup plus

CHAPITRE 03

LISSAGE ET DETECTION DES CONTOURS

réduite que celle des pixels qui font partie des contours, nous pouvons donc extraire ces contours grâce à une méthode classique de seuillage d’histogramme comme celle décrite dans la méthode d’Otsu. La figure suivante représente le résultat du seuillage :

Figure 3.4. Image binarisée des contours (Résultat après Otsu)
Figure 3.4. Image binarisée des contours (Résultat après Otsu)

3.4. Extraction du texte

L’extraction du texte se fait par une estimation locale des pixels. Les critères utilisés pour classifier un pixel comme appartenant au texte est :

- la condition d’être entouré par un ensemble de pixels appartenant à un contour

- son intensité soit inferieur ou égale à la moyenne des intensités des pixels qui l’entoure.

Donc mathématiquement parlant le choix se fait comme suit :

Ou :

(3.15)

: Le nombre de pixels de contours détectés dans la fenêtre.

: Un seuil qui définie le nombre minimum de pixels de contours dans une fenêtre pour considérer le pixel comme un pixel appartenant au texte.

: La moyenne des intensités des pixels de contours dans une fenêtre, qui peut être calculée comme suit :

E : Image binarisée des contours.

(3.16)

D’après ce qui a été expliqué précédemment, les performances de la binarisation en utilisant les contours de texte dépendent essentiellement de deux paramètres : la taille de la fenêtre utilisée et le

CHAPITRE 03

LISSAGE ET DETECTION DES CONTOURS

nombre minimum de pixels de contours dans la fenêtre.

Nous avons remarqué que les deux paramètres sont liés à la largeur du contour de texte. En

particulier la taille de la fenêtre, celle-ci ne doit pas être inferieur à cette largeur autrement dit, les

pixels à l’intérieur des contours seront mal estimés.

Donc le calcul de la largeur des contours est indispensable pour le choix de la taille correspondante.

Pour arriver à faire cela, nous utilisons la méthode suivante :

le parcourt ligne par ligne de l’image des contours puis le calcul de la distance entre les

bords de chaque contour.

Représentation des distances obtenues sous la forme d’un histogramme.

Choix de la largeur de contour égale à la distance la plus présente

Pour notre cas l’histogramme est représenté comme suit :

Distance entre les bords de contour Nombre de pixels
Distance entre les bords de contour
Nombre de pixels
suit : Distance entre les bords de contour Nombre de pixels Figure 3.5. Histogramme qui représente

Figure 3.5. Histogramme qui représente la fréquence d’apparition des distances entre les bords de contour pour notre image

D’après l’histogramme ci-dessus on remarque que la distance qui apparait le plus fréquemment

c’est « 2 » donc la taille de notre fenêtre ainsi que doivent être supérieurs ou égales à cette

valeur.

Après quelques tests, nous remarquons que les résultats de la binarisation changent peu lorsque la

taille de le fenêtre change entre 2 et 4 fois la largeur des contours, donc on choisit une fenêtre de

taille « 8 » et « », on aura le résultat suivant :

CHAPITRE 03

LISSAGE ET DETECTION DES CONTOURS

Figure 3.6. Le résultat de la binarisation
Figure 3.6. Le résultat de la binarisation

3.5. Post-traitement

L’opération de la binarisation introduit toujours quelques erreurs, ces erreurs seront corrigées par des opérations de poste-traitement. Dans notre cas, on nos utilisons 3 opérations :

La première consiste à supprimer les composants qui ont une taille inférieure à 3 pixels

1)

puisque généralement les composants du texte sont plus grands.

2) La deuxième consiste à supprimer les composants plus grands et qui ne font pas partie du

texte, et on peut les détecter grâce à leur intensité qui va être plus claire que l’intensité du

3)

texte.

La troisième consiste à supprimer les trous les concavités et les convexités provoquées par la

binarisation dans les blocs de pixels comme montré ci-dessous :

dans les blocs de pixels comme montré ci-dessous : Figure 3.7. Représentation des déformations sur les

Figure 3.7. Représentation des déformations sur les blocs de pixels :

a- Concavité ; b-Convexité ; c-Trou

Après l’application de ces 3 opérations on aura le résultat suivant :

Figure 3.8. L’image finale obtenue après le post-traitement
Figure 3.8. L’image finale obtenue après le post-traitement

CHAPITRE 03

LISSAGE ET DETECTION DES CONTOURS

3.6. Conclusion

L’algorithme proposé permet d’estimer le fond d’un document dégradé, en faisant un lissage polynomial itératif et progressif. Cette démarche nous permet de suivre les variations de l’image avec précision, diminuant ainsi le bruit et les dégradations. L’utilisation d’un fond estimé améliore considérablement l’opération de détection des contours. L’extraction du texte devient alors plus efficace et précise. L’étape de poste-traitement corrige quelques erreurs épargnées par les étapes précédentes.

CHAPITRE 4

TESTS ET EVALUATION

Chapitre 04

OUTILS DE MESURE DES PERFORMANCES, TECHNIQUES DEVALUATION ET TESTS

DES PERFORMANCES , TECHNIQUES D ’ EVALUATION ET TESTS 4.1. Outils de mesure Pour valider une
DES PERFORMANCES , TECHNIQUES D ’ EVALUATION ET TESTS 4.1. Outils de mesure Pour valider une

4.1. Outils de mesure

Pour valider une méthode dans le domaine de la binarisation, plusieurs techniques, ''outils de mesure'' sont utilisées par les chercheurs, ces techniques sont décrites dans plusieurs documents de la littérature. La plus part des chercheurs utilisent '' Recall- and Precision-Based Metrics'' pour comparer leurs travaux. Dans ce projet, nous avons utilisé en plus de la FM (F-Measure) : déduction directe du Recall et Precision, le PSNR (Pick Signal-to-Noise Ration), NRM (Negative Rate Metric), et la MPM (Misclassification Penalty Metric). Ces tests ont été opérés sur les images de la base de données DIBCO-2009 dont le choix est pris pour des raisons comparatives.

-La FM mesure est la capacité de l’algorithme à récupérer les pixels de l’objet, elle est définit comme suit :

(4.1)

Ou :

RC (Recall): le rapport entre le nombre des pixels récupérés de l’objet sur le nombre total des pixels de l’objet sur l’image référence. PR (Precision):le rapport entre le nombre des pixels récupérés de l’objet sur le nombre total des pixels récupérés.

-Le PSNR (Pick Signal-to-Noise Ratio) mesure la ressemblance entre l’image référence et l’image binarisée, il est définie par :

(4.2)

CHAPITRE 4

TESTS ET EVALUATION

Ou :

MSE (Mean Square Error): l’erreur quadratique moyenne.

C : représente une constante, elle est prise égale à 255 dans le cas des images à niveau de gris.

-La NRM (Negative Rate Metric) mesure le taux de décalage des pixels entre l’image référence et l’image binarisée. Elle est définit par :

(4.3)

Ou :

FN (False Negatives): les pixels de l’objet qui se trouvent à l’image de référence et pas à l’image binarisé. FP (False Positives):les pixels qui font pas parties de l’objet dans l’image de référence mais ils sont détectés comme des pixels de l’objet dans l’image binarisée. TN (True Negatives):les pixels qui font pas partie de l’objet dans l’image de référence et celle binaries. TP (True Positives): les pixels qui font partie de l’objet dans l’image de référence et celle binarisée.

-La MPM (Misclassification Penalty Metric) mesure la capacité de l’algorithme à détecter les contours de l’objet, plus sa valeur est petite plus l’algorithme est performant, elle est définit par :

Ou :

: La distance entre un FN et le contour.

: La distance entre un FP et le contour.

D : C’est un facteur de normalisation.

4.2. Résultats

(4.4)

Le Tableau 4.1. Donne les résultats obtenus des mesures de performances avec les méthodes d’otsu, Niblack, Sauvola, Gatos, Su et la méthode utilisée sur la base de données DIBCO 2009

CHAPITRE 4

TESTS ET EVALUATION

Méthodes

FM(%)

PSNR

NRM (

)

MPM (

)

Otsu

78.72

15.34

5.77

13.3

Niblack

55.82

9.89

16.40

61.6

Sauvola

85.41

16.39

6.94

3.2

Gatos

85.25

16.50

10

0.7

Su

91.06

18.50

7

0.3

Méthode utilisée

91.24

18.66

4.31

0.5

Tableau 4.1. Tableau récupératif des mesures de performances

D'après ces résultats, nous remarquons que la méthode développée donne les meilleures

performances (FM et PSNR largement supérieurs, NRM et MPM négligeables).

Nous affirmons donc, que cette approche est précise et préserve surtout très bien les contours.

Les figures suivantes donnent quatre exemples d'images sur lesquelles sont appliquées les méthodes

citées dans le tableau 4.1 :

(a)

(b)

les méthodes citées dans le tableau 4.1 : (a) ( b ) (c) (d) (f) (e)

(c)

méthodes citées dans le tableau 4.1 : (a) ( b ) (c) (d) (f) (e) (g)
méthodes citées dans le tableau 4.1 : (a) ( b ) (c) (d) (f) (e) (g)

(d)

citées dans le tableau 4.1 : (a) ( b ) (c) (d) (f) (e) (g) Figure

(f)

citées dans le tableau 4.1 : (a) ( b ) (c) (d) (f) (e) (g) Figure

(e)

citées dans le tableau 4.1 : (a) ( b ) (c) (d) (f) (e) (g) Figure

(g)

dans le tableau 4.1 : (a) ( b ) (c) (d) (f) (e) (g) Figure 4.1.

Figure 4.1. Les résultats de la binarisation d’un document dégradé par saignement (bleeding- through) (a) en utilisant la méthode d’Otsu (b), Niblack (c), Sauvola (d), Gatos (e), Su (f), et la méthode que nous avons développé (g)

(a)

(b) , Niblack (c) , Sauvola (d) , Gatos (e), Su (f) , et la méthode

CHAPITRE 4

TESTS ET EVALUATION

(b)

CHAPITRE 4 TESTS ET EVALUATION (b) (d) (f) ( c ) (e) (g) Figure 4.2. Les
(d) (f)
(d)
(f)

(c)

CHAPITRE 4 TESTS ET EVALUATION (b) (d) (f) ( c ) (e) (g) Figure 4.2. Les
(e) (g)
(e)
(g)

Figure 4.2. Les résultats de la binarisation d’un document dégradé par les taches (a) en utilisant la méthode d’Otsu (b), Niblack (c), Sauvola (d), Gatos (e), Su (f), et la méthode que nous avons développé (g)

(a)

(c) , Sauvola (d) , Gatos (e), Su (f) , et la méthode que nous avons

(b)

(d)
(d)

(c)

(c) , Sauvola (d) , Gatos (e), Su (f) , et la méthode que nous avons

(e)

(c) , Sauvola (d) , Gatos (e), Su (f) , et la méthode que nous avons

CHAPITRE 4

TESTS ET EVALUATION

(f)

CHAPITRE 4 TESTS ET EVALUATION (f) (g) Figure 4.3. Les résultats de la binarisation d’un document

(g)

CHAPITRE 4 TESTS ET EVALUATION (f) (g) Figure 4.3. Les résultats de la binarisation d’un document

Figure 4.3. Les résultats de la binarisation d’un document dégradé par la variation du contraste (a) en utilisant la méthode d’Otsu (b), Niblack (c), Sauvola (d), Gatos (e), Su (f), et la méthode que nous avons développé (g)

(a)

Su (f) , et la méthode que nous avons développé (g) (a) (f) (b) (g) (c)

(f)

(f) , et la méthode que nous avons développé (g) (a) (f) (b) (g) (c) (d)

(b)

, et la méthode que nous avons développé (g) (a) (f) (b) (g) (c) (d) (e)

(g)

la méthode que nous avons développé (g) (a) (f) (b) (g) (c) (d) (e) Figure 4.4.

(c)

méthode que nous avons développé (g) (a) (f) (b) (g) (c) (d) (e) Figure 4.4. Les

(d)

que nous avons développé (g) (a) (f) (b) (g) (c) (d) (e) Figure 4.4. Les résultats

(e)

que nous avons développé (g) (a) (f) (b) (g) (c) (d) (e) Figure 4.4. Les résultats

Figure 4.4. Les résultats de la binarisation d’un document dégradé par une luminosité uniforme (a) en utilisant la méthode d’Otsu (b), Niblack (c), Sauvola (d), Gatos (e), Su (f), et la méthode que nous avons développé (g)

CHAPITRE 4

TESTS ET EVALUATION

4.3. Discussion

Dans le chapitre 3, nous avons mentionné que la méthode utilisée fait appel à beaucoup de paramètre surtout dans la partie du lissage de fond, d'après les tests expérimentaux, nous avons constaté que les performances du lissage changent légèrement lorsque le degré initial du polynôme est pris entre 3 et 6 donc automatiquement le choix de la taille de la fenêtre doit être supérieur à , avec un seuil d’estimation inférieur à 20 puisque généralement l’intensité entre le fond et le texte est largement supérieur à cette valeur. Dans la partie de l’extraction du texte, nous faisons appel aussi à des paramètres comme la taille de la fenêtre de détection et le nombre minimum de pixels de bord de contours dans cette fenêtre. Pour notre cas nous avons utilisé une fenêtre de taille double à la largeur des contours et un nombre

de pixels égale à cette largeur pour estimer d'une manière efficace les pixels sans négliger ceux qui se trouvent à l’intérieur des contours. La constatation essentielle que nous tirons est que les bonnes performances de cette méthode sont dues à plusieurs facteurs:

- En premier, la méthode utilise un fond estimé pour atténuer le bruit et pour surtout ajuster le contraste uniforme dans l’image qui est causé par les dégradations, cette estimation du fond améliore la détection des contours, et surtout son utilité dans le post-traitement pour supprimer les éléments qui ne font pas partie du texte. Comparativement à la technique d’Otsu qui nécessite un histogramme bimodal et ainsi ne peut pas binariser correctement les documents dégradé à cause du bruit dans le fond comme montré dans les figures. 4.2, 4.3. En même temps les techniques de binarisation locales comme celle de Niblack et Sauvola peuvent dans la plupart des cas introduire un bruit ou une mauvaise détection des caractères à cause d’un contraste bas dans les zones du texte comme indiqué sur les figures. 4.1, 4.2, 4.3, 4.4.

- En second, l’extraction du texte se fait grâce aux contours : donc les régions sans contours ne seront pas traitées ce qui entraine une fausse détection des pixels du fond, cas de la méthode d’Otsu, figures.4.2, 4.3, 4.4.

- finalement, le grand impacte sur les opérations de post-traitement, puisque grâce à l’estimation du fond, les pixels n’appartenant pas au texte ont pu être enlevés. A signaler aussi, que la correction des déformations sur les blocs de pixels a amélioré largement les performances de la binarisation. Et c’est surtout grâce au poste traitement que les performances de la méthode développée ont pu dépasser celles de Gatos [12] et Su [13].

La limite de cette méthode réside dans son incapacité à faire la différence dans le cas ou un bloc de

CHAPITRE 4

TESTS ET EVALUATION

pixels ayant une intensité supérieur ou égale à celle du texte et n’appartenant pas au texte. Cette technique et conçu pour la binarisation des documents scannés, donc si le traitement se fait sur une image pris par un autre outil de capture et que celle si est courbé ce qui va provoquer une détection fausse des contours et ainsi la dégradation des performances de la binarisation.

4.4. Conclusion

Cette méthode de binarisation utilise l’estimation du fond et la détection des contours. Nous commençons par un filtrage itératif et progressif pour une estimation plus efficace, puis nous faisons appel à une opération de détection de contours du texte grâce à une image estimé et ajusté au niveau du contraste, ce qui permet une détection correcte des variations. Avec l’image estimée par filtrage à contours détectes, l’extraction du texte est par la suite réalisée. A la fin des opérations de post-traitement sont appliquées pour corriger quelques erreurs dues à la binarisation. Nos testes et résultats ont montrés que cette méthode est plus performante que les méthodes basées sur l'analyse de l'histogramme.

CONCLUSIONS GENERALES ET PERSPECTIVES

CONCLUSIONS GENERALES ET PERSPECTIVES

T P ERSPECTIVES C ONCLUSIONS G ENERALES ET P ERSPECTIVES Le travail que nous avons mené
T P ERSPECTIVES C ONCLUSIONS G ENERALES ET P ERSPECTIVES Le travail que nous avons mené

Le travail que nous avons mené durant ce projet se divise en deux grandes parties:

Une partie consistait, en premier lieu, à étudier les techniques de base utilisées pour le calcul du seuil de binaristion. A ce stade, nous avons découvert que d'une façon générale, ces méthodes utilisent à quelques détails prés, presque la même philosophie, consistant à faire l'analyse de la forme de l'histogramme.

Une fois la tâche d'implémentation d'un ensemble d'approches terminée, nous concluons que malgré que ces méthodes ont été classifiées en plusieurs catégories (globales, locales et même adaptatives), nul ne peut confirmer celles qui donnent des performances meilleurs sures. D'ailleurs, c'est pour cette raison que les tests se font généralement sur des bases de données ou leurs composantes sont choisies judicieusement et la performance est jugée par une moyenne.

Cette non assurance de l'efficacité de la méthode est essentiellement due surtout à la diversité des facteurs et paramètres causant la dégradation (tache d'ancre, vieillissement papier, illumination

la performance d'une méthode n'est jamais mesurée en se basant sur un type bien

défini, mais sur un ensemble bien trié.

ect).Donc

La deuxième partie de ce travail consistait à implémenter une méthode ne faisant pas appel dans sa stratégie à la notion d'histogramme sauf bien sûre dans la partie du calcul de la largeur des contours. Cette méthode exploite les caractéristiques d'approximation polynomiales, particulièrement, celles de Savitsky-Golay pour faire un lissage du fond, et la méthode du gradient pour l'extraction du texte.

L'implémentation de cette méthode, nous a crée énormément de problème (non singularité des matrices lorsque le degré du polynôme est choisie important). Comme solution à ce problème, nous avons proposé une méthode que nous considérons comme contribution au succès de l'implémentation, cette contribution se manifeste par la réduction de la dynamique des pixels et l'introduction d'une fenêtre glissante pour le traitement de tous les pixels ce qui évite largement la dégénérescence.

A la fin nous jugeons que la méthode développée donne des résultats de niveau concurrentiel, et nous pensons que le changement de la procédure de lissage par une estimation dans le domaine fréquentiel améliore encore plus les performances de la binarisation et la rapidité de l’algorithme.

REFERENCES BIBLIOGRAPHIQUES

Références Bibliographiques

Lu S, Su B, Tan C. Document image binarization using background estimation and stroke edges. International Journal on Document Analysis and Recognition (IJDAR), October. 2010, pp. 13.

[2] N. Arica, F. T. Yarman-Vural, An overview of character recognition focused on off-line handwriting”, IEEE transactions on systems, man and cybernetics, vol. part C Applications and reviews, 2001, pp. 216-233.

[1]

[3]

K. Khurshid, I. Siddiqi, C. Faure, N. Vincent, Comparison of Niblack inspired Binarization methods for ancient documents”, 16th International conference on Document Recognition and Retrieval, USA,

2009.

[4]

N. Otsu, “A threshold selection method from gray-level histogram”, IEEE Transactions on System Man Cybernetics, Vol. SMC-9, No. 1, pp. 62-66, 1979.

[5]

Kittler, J., Illingworth, J. and Föglein, J., Threshold Selection Based on a Simple image Statistic, Computer Vision, Graphics and Image Processing, pp. 30, 125147, 1985.

[6]

J.N. Kapur, P.K. Sahoo, A.K.C. Wong, “A New method for gray-level picture threshold using the entropy of the histogram”, Computer Vision, Graphics, and Image Processing, 29, pp. 273-285, 1985.

[7]

F.R.D. Velasco, “Thresholding using the ISODATA clustering algorithm”, IEEE Transaction on system, Man and Cybernitics, 10, pp. 771-774, 1980.

[8]

W.Niblack, An Introduction to Digital Image Processing. Prentice Hall, Englewood Cliffs, (1986).

[9]

J.Sauvola, T,Seppanen, S.Haapakoski, M.Pietikainen,“Adaptive Document Binarization”, 4th Int. Conf. On Document Analysis and Recognition, Ulm, Germany, pp.147-152 (1997).

[10]

C. Wolf, J. M. Jolion, and F. Chassaing. « Extraction de texte dans des vidéos : le cas de la binarisation », In 13ème Congrès Francophone de Reconnaissance des Formes et Intelligence Artificielle, pp. 145-152, 2002.

[11]

Bernsen J., Dynamic thresholding of grey-level images, Proceedings 8th International Conference on Pattern Recognition, Paris, pp. 1251-1255, 1986.

[12]

B. Gatos, K. Ntirogiannis, and I. Pratikakis, “ICDAR 2009 document image binarization contest

(DIBCO 2009),” in Proc. 10th ICDAR, pp. 1375–1382, Jul. 2009.

[13]

Krzysztof, M.P.M.,Axel, M.,Dynamic threshold using polynomial surface regression with application to the binarization of fingerprints.Proceedings of the SPIE, vol. 5779.

[14]

Seeger,M., Dance, C., Binarising camera images for ocr. Proceedings of International Conference on Document Analysis and Recognition, pp. 5458 (2001).

[15]

Su, B., Lu, S., Tan, C.L.: Binarization of historical handwritten document images using local maximum and minimum filter. International Workshop on Document Analysis Systems, pp. 159165. June 2010.

[16]

Burger W, Burge M. Principles Of Digital Image Processing, London, Springer, 2013, pp. 329.

[17]

Chaki N., Shaikh S., Saeed K., Exploring Image Binarization Techniques, India, Springer, 2014,

pp. 560.

:صـخـلم ةبسانم اهنم ةدحاو لك ةيلمعلا هذهل تاينقت ةدع تحرتقا دقو .روصلا ةجلاعم يف ةماه ةوطخ نوللا ةيئانث ةروص ىلا ةروصلا ليوحت

هل ضرعتت يذلا ررضلا ببسب ةئيسلا اهتدوجل ةفورعم يه .ةميدقلا تاطوطخملا روص لاثملا ليبس ىلع ،روصلا نم نيعم عونل

تاينقتلا ضعبل ةنراقم و ةساردل ةيادب ريرقتلا اذه ضرعي .تاطوطخملا هذه نيزختل ةلمعتسملا داوملا هفلخت ام ببسب تقولا عم

نم فدهلاو .ةميدقلا روصلا ضعب ىلع تايمزراوخ ةدع قيبطت و ةساردب انمق ىلولأا ةلحرملا يف .ةروصلا ليوحتل انل حمست يتلا

.ةيمزراوخ لضفأ رايتخا و اهنيب ةنراقملا وه كلذ

.تايمزراوخ ،ةميدقلا تاطوطخملا ،نوللا ةيئانث ةروص :ةـــيحاتفم تاـملك

Résumé :

La binarisation est une étape importante dans tout processus de traitement et d’analyse

d’images. Plusieurs techniques de binarisation ont été proposées dans la littérature, dont chacune est

appropriée à un type particulier d’images, par exemple dans le cas de la binarisation d’anciens

manuscrits. Ces derniers sont connus pour leur mauvaise qualité due aux différentes détériorations

subies au cours du cycle de vie du document et les dispositions jusque-là employées pour leur

sauvegarde. Ce rapport présente un début d’une étude comparative entre quelques techniques de

binarisation. Dans cette première phase nous avons étudié, implémenté et testé plusieurs algorithmes

sur des images d’anciens manuscrites. L’objectif étant à moyen terme de faire une étude

comparative et pouvoir sélectionner par la suite le meilleur algorithme de binarisation.

Mots Clés : seuillage, binarisation, anciens documents. Abstract:

Binarization is an important step in image processing. Several binarization techniques have been

proposed in the literature, each of which is appropriate to a particular type of images, for example

the case of the binarization old manuscripts. They are known for their poor quality due to different

damage sustained during the document life cycle and provisions previously employed to safeguard

them. This report presents a beginning of a comparative study of some technics of binarization. In

this first phase we studied, implemented and tested several algorithms on old handwritten images.

The objective is to make a comparative study and subsequently be able to select the best

binarization algorithm.

Key Words: thresholding, binarisation, old manuscripts.