Vous êtes sur la page 1sur 40

ENIT 2009/2010 Projet de Fin d’Année

Remerciements

Notre projet de fin d’année participe à l’initialisation d’une collaboration entre l’Unité
Signaux et Systèmes (U2S) de l’ENIT et la Cité des Sciences de Tunis. Beaucoup de
personnes nous ont aidés pour pouvoir le réaliser et nous voulons ici exprimer notre
reconnaissance et nos remerciements.
Tous d’abord nous voulons exprimer nos sincères remerciements à M. Chiheb
BOUDEN. Directeur de l’ENIT pour ses conseils et son encouragement pour réussir
notre projet.

Nos remerciements les plus sincères s’adressent à nos encadrants Mme Mériem
JAIDANE Professeur à l’ENIT et chercheur à U2S et M.Riadh BOURGUIBA, Maître
assistant à l’ENIT. Nous sommes heureux de leur exprimer nos sentiments de reconnaissance
pour leur rigueur, pour nos conversations scientifiques, pour leurs conseils précieux et leurs
encouragements quand nous commencions à baisser les bras.

Notre profonde gratitude s’adresse à Mr Mohamed BEN AHMED Directeur de


la Division Microcontrôleurs à STmicroelectronics pour son aide et ses conseils lors de
la programmation du microcontrôleur STM32.

Nous exprimons nos remerciements les plus chaleureux à l’équipe de l’U2S et surtout
à M.Zied KOUBAA ingénieur de l’ENIT et étudiant en Mastère TI-CV ST/U2S ainsi que
M.Taoufik MAJOUL doctorant ENIT et chercheur U2S pour leurs aides et leurs conseils
pendant la réalisation de notre projet.

Enfin nous remercions les élèves ingénieurs qui nous ont aidés à faire le protocole
de mesure lors des expériences sur l’estimation du retard, ainsi que tout les élèves-ingénieurs
en PFA qui travaillent sur la thématique de la « perception sonore altérée » pour leur esprit
de groupe et l’ambiance qu’ils ont su créer au cours de nos réunions hebdomadaire
et leurs encouragements.

A.ACHOURI et M.MAHJOUBI
Page 1
ENIT 2009/2010 Projet de Fin d’Année

Sommaire

I. Introduction..............................................................................................................................5
II. Chapitre 1...............................................................................................................................6
1.1 Principe de la coordination audio-visuelle lors de la production de la parole .................7
i. Multi sensorialité de la parole .........................................................................................7
ii. Lien entre la perception audio-visuelle et la production de la parole
.............................................................................................................................................8
1.2 Réalisation de l’application « Effet retard » à travers Matlab/Simulink ..........................9
1.3 Principe du modèle .......................................................................................................9
iii. Description du modèle crée à travers Matlab/simulink
...........................................................................................................................................10
1.4 Le protocole de mesure empirique du retard :................................................................13
3.1 Le principe du protocole :........................................................................................13
3.2 Les effets du retard sur les volontaires
...........................................................................................................................................14
III. Chapitre 2 : .........................................................................................................................17

Réalisation de l’application sur le kit de développement IAR......................17


1 Choix du Kit de développement pour la réalisation de l’application « Effet retard » ....18
2 Présentation du Kit de développement IAR system .........................................................19
3 Présentation des méthodes adoptées pour la réalisation de la Maquette : ........................21
I.2 Environnement de travail et l’évolution du signal audio de point de vue
hardware ...........................................................................................................................24
IV. Chapitre 3 :..........................................................................................................................29
Travail de l’ingénierie pédagogique........................................................................................29
1 Choix du matériel...............................................................................................................33
1.1 Choix du texte................................................................................................................33
1.2 Le microphone ...........................................................................................................34
1.3 Le casque audio..........................................................................................................34
2 Le story board ...................................................................................................................34
V. Conclusion............................................................................................................................36
VI. Netographie : ......................................................................................................................37
VII. Bibliographie.....................................................................................................................38
VIII. Annexes ........................................................................................................................39
.......................................39

A.ACHOURI et M.MAHJOUBI
Page 2
ENIT 2009/2010 Projet de Fin d’Année

Table des figures

Figure 1:Le pourcentage du décodage correct de l’information auditive ‘A’ et de


l’information audio-visuelle ‘AV’ en fonction du RSB (S /N) [2]__Error: Reference source not
found
Figure 2:Modèle neurobiologique de la perception de la parole [2]__Error: Reference source
not found
Figure 1:Le pourcentage du décodage correct de l’information auditive ‘A’ et de
l’information audio-visuelle ‘AV’ en fonction du RSB (S /N) [2]............................................8
Figure 2:Modèle neurobiologique de la perception de la parole [2]...........................................8
Figure 3:Algorithme de fonctionnement du modèle « Effet retard »........................................10
Figure 4:Schéma du Block From Audio Device[3]..................................................................10
Figure 5:Fenêtre de paramétrage du Block
« From Audio Device »[3]..............................................................................................11

Figure 6:Schéma Du Block To Audio Device[3]......................................................................12


Figure 7:Fenêtre de paramétrage du bloc « To Audio Device »[3]..........................................12
Figure 8:Le modèle complet implémenté sur Matlab/Simulink [3].........................................13
Figure 9:Représentation des réactions des sujets au retard microphone/haut-parleur introduit
...................................................................................................................................................16
Figure 10:Kit à base STM32 Primer1.......................................................................................19
Figure 11:Kit de développement IAR
system.............................................................................................................19
Figure 12:Architecture interne du STM32[4]...........................................................................21
Figure 13:Cycle de fonctionnement de l’algorithme de traitement sur
le Microcontrôleur..............................................................................22
Figure 14:Interface de l’outil Keil Workbench........................................................................25
Figure 15:La carte STM32-SK IAR starter kit.........................................................................26
Figure 16:J-Link........................................................................................................................26
Figure 17:Les outils de développement hardware....................................................................27
Figure 18:Déroulement de l’application de point de vue hardware dans le microcontrôleur...28

A.ACHOURI et M.MAHJOUBI
Page 3
ENIT 2009/2010 Projet de Fin d’Année

Liste des tableaux

Tableau 1:Réaction des sujets pour différentes valeurs retard..................................................15


Tableau 2:les différentes fréquences d’échantillonnage du signal de parole..........23
Tableau 3:Fiche thématique......................................................................................................32

A.ACHOURI et M.MAHJOUBI
Page 4
ENIT 2009/2010 Projet de Fin d’Année

I. Introduction

L'ingénierie pédagogique renvoie à la gestion globale d'un dispositif relatif aux


pratiques d'éducation au sens large, avec comme finalité la conception d'un dispositif
pédagogique de formation adapté et optimisé [1].

Dans ce cadre entre notre projet qui est destiné à la Cité des Sciences de Tunis.
L'objectif est de réaliser une maquette TIC qui illustre des phénomènes sonores.

Nous avons choisi une maquette de la Cité des Sciences de La Villette de Paris pour
la refaire avec nos moyens et nos compétences. Cette maquette intitulée «Casque à effet
retard » illustre l'importance de la coordination audiovisuelle lors de la parole.

Dans le chapitre1 sera mis l’accent sur les phénomènes qui entrent en jeu dans
la coordination audio-visuelle. Nous présenterons également le paramétrage du retard
à travers une application Matlab et à travers un protocole de mesure que nous avons réalisé
au sein de L’ENIT.
Dans le chapitre2 seront présentées les différentes étapes et moyens nécessaires pour
la réalisation de la maquette. Ensuite on va présenter notre démarche que nous avons adaptée
lors de l’implémentation sur le microcontrôleur. On présentera ensuite le produit final obtenu.
Dans le dernier chapitre3 sera présenté le point de vue ingénierie pédagogique
de la maquette pour la Cité des Sciences de Tunis.

A.ACHOURI et M.MAHJOUBI
Page 5
ENIT 2009/2010 Projet de Fin d’Année

II. Chapitre 1

Mise en évidence de la coordination audio-visuelle à


travers une application Matlab et un protocole
expérimental pour le paramétrage de la Maquette
«Casque à effet de retard »

A.ACHOURI et M.MAHJOUBI
Page 6
ENIT 2009/2010 Projet de Fin d’Année

Introduction

Dans ce chapitre on va s’intéresser tout d’abord à l’explication scientifique du


phénomène de coordination audio-visuelle qui illustre notre maquette.
Nous nous intéresserons ensuite au paramétrage du retard implémenter sur la carte à base
microcontrôleur à travers un protocole empirique.

1.1Principe de la coordination audio-visuelle lors de la


production de la parole
i. Multi sensorialité de la parole

La Perception de la parole peut se faire par voie audible, tactile et visuelle. Des études
réalisées à l’Institut de communication parlée (ICP à Grenoble) précisent [2] :“ Speech is
rather a set of movements made audible than a set of sounds produced by movements”.

La perception visuelle de la parole améliore donc l’intelligibilité de celle-ci surtout


dans les milieux bruités. La figure 1[2] montre l’intelligibilité de la parole dans le cas d’une
perception audio-visuelle et dans le cas d’une perception auditive pour des rapports
signal /bruit (S/N) différents.
Pour un ‘S/N’ le pourcentage de la perception d’une information correcte est plus
grande dans le cas audio-visuel (AV) que dans le cas visuel (V).

A.ACHOURI et M.MAHJOUBI
Page 7
ENIT 2009/2010 Projet de Fin d’Année

Figure 1:Le pourcentage du décodage correct de


l’information auditive ‘A’ et de l’information audio-visuelle
‘AV’ en fonction du RSB (S /N) [2]

ii. Lien entre la perception audio-visuelle et la production


de la parole

La perception de la parole est basée sur un phénomène d’interférence entre l’audio et


la vision. Ce phénomène est appelé effet Mc Gurk .
D’après les recherches de l’ICP il y a un fort lien entre la production de la parole et la
perception audio-visuelle. Ils suggèrent que ce lien est assuré dans le cerveau humain par les
neurones miroirs qui créent un mécanisme direct entre le locuteur et l’auditeur et permet ainsi
une compréhension directe. Le modèle neurobiologique de la perception de la parole proposé
par l’ICP est présenté figure2 :

A partir du modèle neurobiologique de la


perception de la parole on peut constater
que les parties production et perception
audio-visuelle de la parole sont situées
dans la même zone du cerveau humain ce
qui explique l’influence de chacune sur
l’autre.

Figure 2:Modèle neurobiologique de la perception de la parole [2]

La forte relation entre la perception et la production de la parole dans des situations


comme la lecture à voix haute et les conférences vidéo fait que toute perturbation du
fonctionnement de l’une perturbe l’autre.

A.ACHOURI et M.MAHJOUBI
Page 8
ENIT 2009/2010 Projet de Fin d’Année

Dans les conversations vidéo par exemple, le décalage entre le son et l’image est très
gênant. La particularité de notre application est que la perturbation provoquée par le retard
est intérieure à nous ce qui est plus gênant. Ceci peut s’expliquer par le fait que lors de
la production de la parole, le cerveau humain prédit en quelques sortes le retard entre l’entente
et la parole ce qui permet de lire facilement. En appliquant le décalage microphone-casque,
le cerveau humain n’arrive pas à s’adapter à ce retard ce qui se traduit par le bégaiement
des lecteurs lors de l’expérience.

1.2Réalisation de l’application « Effet retard » à travers


Matlab/Simulink

Notre application consiste à prendre le signal de parole issu d’un microphone et de le


transmettre dans les écouteurs avec un certain retard.
Tout le déroulement de l’application se fait en temps réel, ce qui fait qu’il est
nécessaire d’avoir un moyen sur ordinateur qui peut traiter le signal de parole en temps
réel, pour pouvoir paramétrer expérimentalement le retard à implémenter sur la carte.
Matlab/Simulink peut répondre à ce besoin et on peut créer à travers certaines
commandes un modèle de test.

1.3Principe du modèle

Comme on a dit dans ce qui précède, notre système doit réaliser les tâches suivantes en temps
réel :
- Acquisition de signal de parole d’un microphone
- Traitement de ce signal en insérant un retard variable
- Emission du signal dans les écouteurs
Implicitement, notre modèle après avoir acquis le signal de parole il l’échantillonne à travers
la carte son de l’ordinateur puis il stocke les échantillons dans la mémoire pendant le retard
souhaité et enfin il reconstitue le signal à travers la carte son.
L’algorithme de fonctionnement du modèle est présenté sur la figure 3 :

A.ACHOURI et M.MAHJOUBI
Page 9
ENIT 2009/2010 Projet de Fin d’Année

Figure 3:Algorithme de fonctionnement du modèle « Effet retard »

iii. Description du modèle crée à travers Matlab/simulink

Pour pouvoir réaliser les tâches déclarées précédemment nous avons trouvé que avec
Matlab/Simulink existe des blocs qui traitent les signaux audio en temps réel .Pour pouvoir
réaliser notre système il suffit de paramétrer deux blocs :
-le premier s’appelle « FROM AUDIO DEVICE » :
Le block « FROM AUDIO DEVICE »
se compose de 3 éléments (physical device ,un
Buffer et un Queue). Ce block est responsable
sur l’acquisition du signal de parole.
Il prend le signal qui entre par le
microphone, l’échantillonne avec une
fréquence de 16 kHz puis il stocke les
échantillons dans un buffer.
Quand le buffer est rempli, Les
échantillons passent du buffer vers la queue qui
joue le rôle d’une file d’attente dont la durée
d’attente est le retard entre l’entrée du signal
par le microphone et sa sortie par les écouteurs.
Si la durée d’attente de la file ‘ queue ‘
est nulle.
Chaque fois qu’une donnée passe du haut de la

Figure 4:Schéma du Block From Audio Device[3] file vers Simulink le from audio device met une
nouvelle donnée (un tampon d’echantillon)
A.ACHOURI et M.MAHJOUBI
Page 10 dans le bas de la queue.
ENIT 2009/2010 Projet de Fin d’Année

Comme ce qui indiqué précédemment, il suffit de paramétrer ce bloc pour pouvoir


acquérir le signal de parole en temps réel et réaliser la moitie du retard en agissant sur
la durée de stockage de l’échantillon dans le Buffer et le passage vers la ‘queue’. La figure 5
présente les paramètres à régler.

Ce bloc prend par défaut le microphone


comme périphérique d’entrée.
Lors des simulations on a utilisé un micro-
casque stéréo pour cela on a choisi deux canaux.
Le choix de la fréquence d’échantillonnage
est justifié par le fait que le signal audio peut
atteindre une fréquence maximale de 12 kHz,
d’après le théorème de Shannon le choix du 24
kHz comme fréquence d’échantillonnage est un
choix adéquat.
Mais on a vu que même avec une fréquence
de 16KHz on peut échantillonner sans dégradation
du signal donc pour des raisons d’optimisation de
la mémoire on a choisit d’échantillonner avec 16
KHz.
Le retard appliqué sur le signal est en et
fait la taille de la queue (la durée d’attente). Ce
block sera directement attaché au bloc de sortie le
bloc du ‘from audio device’ qui fait la restitution
du signal.
Figure 5:Fenêtre de paramétrage du Block
« From Audio Device »[3]
Ce sur
-Le deuxième bloc « TO AUDIO DEVICE » est présenté blocla figure
transmet
6 : les données vers le
périphérique de sortie (les écouteurs).
Au début de la simulation, la file d'attente
(queue) est remplie de silence.
Le bloc to audio device ajoute les données depuis
sa queue, la durée d’attente est à paramétrer pour les
deux blocs et la somme des deux valeurs indiquées
représente le retard entre l’entrée du son dans le
microphone et sa sortie par les écouteurs.

A.ACHOURI et M.MAHJOUBI A chaque pas de temps, le bloc envoie un


Page 11 tampon d’échantillons de la tête de la file d’attente vers
le périphérique de sortie et reçoit un tampon
d’échantillons du bloc from audio device.
ENIT 2009/2010 Projet de Fin d’Année

Figure 6:Schéma Du Block To Audio Device[3]

La fenêtre de paramétrage du Block « To Audio Device » est présentée figure 7 :

Ce bloc prend le casque audio comme


périphérique de sortie.
Il faut signaler que le système
d’exploitation (windows 7) avec lequel
on travaille n’est pas un système qui
travaille en temps réel. Pour cela on a
essayé de fermer les autres programmes
lors de simulation.

Figure 7:Fenêtre de paramétrage du bloc « To Audio Device »[3]

Le modèle complet est présenté par la figure 8

A.ACHOURI et M.MAHJOUBI
Page 12
ENIT 2009/2010 Projet de Fin d’Année

Figure 8:Le modèle complet implémenté sur Matlab/Simulink [3]

1.4Le protocole de mesure empirique du retard :


3.1 Le principe du protocole :

Le modèle créé avec Matlab/Simulink n’est qu’un moyen pour pouvoir paramétrer le
retard à implémenter après sur la maquette.
Pour fixer la plage du retard, on a défini un protocole de mesure dont les différents
éléments et résultat de ce protocole sont présentés ci-dessous.

L’expérience consiste à lire un texte en portant un micro-casque qui applique un


décalage ‘variable’, au son provenant du microphone.
- On a défini trois classes de perturbation :

A : Le lecteur s’adapte à la situation en ignorant le son décalé

B : Le lecteur peut lire le texte à voix haute mais avec une difficulté

C : Le lecteur est très gêné par le retard et il ne peut pas lire à voix haute

A.ACHOURI et M.MAHJOUBI
Page 13
ENIT 2009/2010 Projet de Fin d’Année

- On change le texte pour chaque expérience.


- Lieu :les Amphis et les salles de cours
- Nombre de personnes : 14
- Age : entre 21et 23 ans
-Durée de simulation : 15 secondes
-Matériel utilisé : micro-casque, pc portable

Les résultats de l’expérience sont relevés dans un tableau qui montre la présence des classes
en fonction du retard.

3.2Les effets du retard sur les volontaires

On a commencé par relever les différents états de perturbation dans un tableau qui
montre la réaction de chaque volontaire pour des retards allant de 0.1’’ jusqu’au retard du
01’’.

A.ACHOURI et M.MAHJOUBI
Page 14
ENIT 2009/2010 Projet de Fin d’Année

0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 sec
sec sec sec sec sec sec sec sec sec

Sujet 01 A B C C C C B B A A
Sujet 02 A B B C C B B A A A
Sujet 03 B B C C C C B B A A
Sujet 04 A A B C B B A A A A
Sujet 05 A A B C B B A A A A
Sujet 06 A A B C B B A A A A
Sujet 07 A A B C C C B B A A
Sujet 08 A B B C C C B B A A
Sujet 09 A A B C C C B B A A
Sujet 10 A A B C B B B A A A
Sujet 11 B B C C C C C B A A
Sujet 12 A B B C C B B B A A
Sujet 13 A A A B B A A A A A
Sujet 14 A A A B B B A A A A

Tableau 1:Réaction des sujets pour différentes valeurs retard

En remarquant que même dans la même classe les réactions des volontaires peuvent être
différentes on a attribué à chaque réaction une valeur de perturbation. Les réactions de classe
A sont dans le domaine [10 19], celles de la classe B [20 29] et les valeurs de la classe C
sont dans l’intervalle [30 39]. On a pu exploiter ces valeurs pour schématiser les niveaux de
perturbation par Matlab.

Dans la figure 9 on s’intéresse à l’existence des classe C pour déterminer le domaine


du retard le plus perturbant.

A.ACHOURI et M.MAHJOUBI
Page 15
ENIT 2009/2010 Projet de Fin d’Année

Le sujet est
très gêné

C
B
A
Le sujet
n’est pas
gêné
Figure 9:Représentation des réactions des sujets au retard microphone/haut-parleur introduit

Lorsque la valeur du retard est inférieure à 0.3 seconde, le sujet arrive à s’adapter à la
situation et ignorer le son décalé.
Après la valeur 0.6 seconde, le sujet s’adapte aussi à la situation parce que le son qu’il
entend en retard est considéré comme un bruit externe.
Le sujet est très gêné lorsque la valeur du retard est dans l’intervalle [0.3 0.6]. Cette gêne
est maximale pour les valeurs 0.4 et 0.5 s.

On a choisi la valeur 0.4 sec pour la programmer dans notre carte puisque pratiquement
c’est la valeur la plus gênante.
Conclusion
Après avoir montré l’importance de la coordination audio-visuelle, on a conçu un système
temps réel sur Matlab qui nous à aidé - à travers un protocole expérimental -à choisir le retard
à implémenter sur notre carte.
La conception et les décisions à prendre pour la réalisation de la maquette sont
présentées dans le chapitre2.

A.ACHOURI et M.MAHJOUBI
Page 16
ENIT 2009/2010 Projet de Fin d’Année

III. Chapitre 2 :

Réalisation de l’application sur


le kit de développement IAR

A.ACHOURI et M.MAHJOUBI
Page 17
ENIT 2009/2010 Projet de Fin d’Année

Introduction :

Après avoir fait l’étude théorique et le protocole expérimental pour le choix du retard dans
le chapitre précédent, on va passer dans ce chapitre à l’implémentation de l’application sur la
carte.
Ce chapitre s’articule autour de quatre paragraphes. Dans le premier paragraphe on
présente nos besoins et notre critère de choix des moyens pour la réalisation de la maquette de
point de vue réception et émission de signal de parole en temps réel.
Dans le deuxième on présente notre choix final pour la réalisation. Ensuite dans le
paragraphe d’après on fait une description des principaux principes utilisés pour répondre à
ces besoins. Enfin on termine avec une présentation du produit fini de point de vue
fonctionnalités.

1 Choix du Kit de développement pour la réalisation de


l’application « Effet retard »

Pour le traitement en temps réel du signal de parole on a choisi de travailler avec


un microcontrôleur de ST Microelectronics : un microcontrôleur 32Bits « STM32 » sous
deux formes différentes (figures 10 et 11):

La première forme est le primer 1(figure10), c’est un


kit à base microcontrôleur STM32 sur lequel on
trouve un afficheur LCD couleur, un joli design
avec un capteur de mouvement. Ce kit est
autoalimenté avec sa propre batterie chargeable.
Cependant, les deux étages de réception et
d’émission de signal audio sont inexistants. Pour
A.ACHOURI et M.MAHJOUBI pouvoir utiliser ce Kit il faudrait réaliser ces deux
Page 18 étages et les ajouter à la carte principale ce qui
affaiblit la robustesse de la maquette et rendre le
design médiocre et implique beaucoup de
« bricolage ».
ENIT 2009/2010 Projet de Fin d’Année

Figure 10:Kit à base STM32 Primer1

La deuxième forme est le Kit de développement d’IAR


system. C’est un kit à base microcontrôleur STM32
qui possède des ports d’émission et de réception du
signal audio. Il peut être emboîté facilement et
possède un afficheur LCD avec des boutons de
contrôle. Il a beaucoup d’autres options qui ne rentrent
pas dans le fonctionnement de notre maquette.

Figure 11:Kit de développement IAR


system

Après avoir étudié les deux kits on a choisi de travailler avec le kit de développement
IAR system parce qu’il répond à tous nos besoins de point de vue réception-émission du
signal de parole et de point de vue design et robustesse.

Notons que ce kit peut être utilisé dans d’autres projets de traitement du signal audio
qui peuvent être proposés dans le cadre de la collaboration avec la Cité des Sciences.

2 Présentation du Kit de développement IAR system

Le kit de développement IAR system choisi est ainsi, un kit à base microcontrôleur
STM32 « STM32F103 » microcontrôleurs basés sur le processeur Cortex-M3 d'ARM dont
la présentation [4] :

2.1Présentation générale du produit STM32

Le STM32 est un microcontrôleur 32 bits produit par STMicroelectronics.

A.ACHOURI et M.MAHJOUBI
Page 19
ENIT 2009/2010 Projet de Fin d’Année

Il est fondé sur le cœur standard ARM Cortex™-M3. Ce cœur dispose de


fonctionnalités spécialement conçues pour les applications embarquées nécessitant à la fois
une performance élevée (1,25 MIPS/MHz), une consommation réduite et un coût faible. La
famille STM32 bénéficie de nombreuses améliorations architecturales du Cortex-M3 parmi
lesquelles :
-Le jeu d’instructions Thumb-2 qui améliore la performance tout en diminuant la densité du
code
-Un contrôleur d’interruptions vectorielles imbriquées (Nested Vectored Interrupt Controller)
qui accélère de façon significative la réaction aux interruptions
-Une consommation électrique à la pointe de l’industrie.

2.2Caractéristiques du STM32 :
La famille STM32 vient avec une prolifération assez importante couvrant les
différents besoins d’une application industrielle. Afin d’adresser différents secteurs applicatifs
et de s’aligner au marché industriel, les produits STM32 existent sous différentes dimensions
et familles :

- Dimensions (performance line et access line): « performance line » pour plus de


périphériques de communication, plus de canaux analogiques et plus de performance comparé
à « access line »;

- Familles (High, Medium et Low) : « High Density » pour plus de ressources en


mémoire (flash et RAM » comparé à la famille « Medium Density ».

A.ACHOURI et M.MAHJOUBI
Page 20
ENIT 2009/2010 Projet de Fin d’Année

Figure 12:Architecture interne du STM32[4]


La figure 12 présente l’architecture interne du STM32. Elle montre les performances du cœur
cortex-M3 en termes de jeu d’instructions et de consommation, il intègre un contrôleur
d’interruption lui permettant une réaction rapide aux événements externes et une gestion
flexible des priorités des interruptions.

Il offre un compteur appelé « Systick » généralement utilisé comme base de temps


pour la gestion des tâches d’un système opérationnel.
Une interface de débogage facilite l’interaction de l’utilisateur avec les codes
programmés en mémoire du STM32 et donne deux possibilités de ports de communication
suivant l’application : JTAG ou SWD.
La famille STM32 offre de différents types de mémoire : jusqu’à 512K octets de flash
et jusqu’à 64K octets de RAM ce qui est suffisant pour notre application car tous notre travail
est basé sur le stockage des échantillons.

3 Présentation des méthodes adoptées pour la réalisation de la


Maquette :

3.1 Algorithme de fonctionnement :

Comme l’on a annoncé précédemment tout notre travail porte sur le traitement du
signal de parole donc pour pouvoir le traiter il faut tout d’abord le recevoir puis
l’échantillonner ensuite le traiter enfin l’émettre. Le schéma (figure 13) présente notre

A.ACHOURI et M.MAHJOUBI
Page 21
ENIT 2009/2010 Projet de Fin d’Année

algorithme de fonctionnement et la méthodologie adoptée lors de l’écriture du code à


implémenter sur le microcontrôleur.

Figure 13:Cycle de fonctionnement de l’algorithme de traitement sur


le Microcontrôleur

Notre chaine d’action commence par la réception du signal de parole à travers un


microphone[5] qui est un transducteur électroacoustique analogique.
Le fonctionnement du microphone rappelle celui de l'oreille humaine : il possède comme elle
une membrane, qui capte les variations de pression de l'air engendrées par le son, et produit
un flux électrique, tout comme les vibrations du tympan génèrent un influx nerveux.
Les vibrations de la membrane sont en effet transformées en signal électrique par un couple
électromagnétique, contenu dans le tube du microphone.

Ce signal électrique sera amplifié à travers l’étage d’entrée de la carte pour qu’il soit
adaptable avec le convertisseur analogique/numérique du microcontrôleur (ADC) qu’il va
échantillonner.
L’échantillonnage [6] consiste à transformer un signal analogique (continu) en signal
numérique (discret), en capturant des valeurs à intervalles de temps réguliers.

A.ACHOURI et M.MAHJOUBI
Page 22
ENIT 2009/2010 Projet de Fin d’Année

C'est une étape nécessaire pour pouvoir enregistrer, analyser et traiter un signal par un
microcontrôleur, car celui-ci ne peut traiter que des nombres.
Ce qui concerne la fréquence d’échantillonnage on a choisi d’échantillonner le signal
avec la fréquence 16kHz pour plusieurs raisons :
- Les signaux doivent être échantillonnés à une fréquence fe> 2 fmax du signal selon la
règle de Shannon et puisque le spectre des signaux de parole: 20-12.000 Hz .
Pour avoir cette largeur de bande et ne pas avoir de dégradation au niveau sonore on a
choisi d’échantillonner avec la fréquence 16kHz. Le tableau 2 illustre les différentes qualités
avec les différentes fréquences d’échantillonnage.

Largeur de Echantillonnage=
bande de nombre d’échantillons
transmission Dénomination codés Qualité perçue
20 – 22.000
Hz hi-fi (CD) 44.100 Hz pas de dégradation
20 – 12.000 Bande “parole” 24.000 hz pas de dégradation
20 - 8.000 bande large 16.000 Hz Pas de dégradation
300 -
3.400 bande téléphonique 8.000 Hz Dégradation

Tableau 2:les différentes fréquences d’échantillonnage du signal de parole

Après l’échantillonnage, on récupère nos échantillons sur lesquels on insère le retard.


On réalise ensuite l’émission de signal avec la technique MLI[7] (modulation largeur
d’impulsion) car notre microcontrôleur ne possède pas un convertisseur
numérique/analogique. La MLI est une technique de création de signaux qui permet de
contrôler de l'analogique avec les sorties numériques d'un microcontrôleur. La commande en
MLI consiste en une succession rapide de signaux numériques et Le principe est de générer
un signal logique (valant 0 ou 1), à fréquence fixe mais dont le rapport cyclique est contrôlé
numériquement. La moyenne du signal de sortie est égale au rapport cyclique.

A.ACHOURI et M.MAHJOUBI
Page 23
ENIT 2009/2010 Projet de Fin d’Année

I.2 Environnement de travail et l’évolution du signal audio


de point de vue hardware

Il est utile de mentionner ici que la moitié du temps -lors de la réalisation- était consacré
pour l’étude du microcontrôleur et de sa bibliothèque. Ceci n’était pas évident pour une
première rencontre avec les microcontrôleurs en particulier ici avec la nouvelle génération
du microcontrôleur STM32.

Tout d’abord on va commencer par une présentation de l’outil de développement


et l’environnement hardware correspondant utilisés pendant le projet puis on va présenter
l’organigramme et les outils utilisés dans le code.

I.2.1 Environnement de travail

Le développement d’une application à base d’un microcontrôleur STM32 nécessite des


outils matériels et logiciels. Nous nous intéressons, dans ce projet, aux outils conçus par
la compagnie IAR SYSTEMS. Il y a une variété d’outils de développement qui permettent la
conception et la gestion de projets pour les applications embarquées et plus particulièrement
celles se basant sur le cœur CORTEX-M3. L’outil IAR Embedded Workbench et Kiel
Workbench, est celui utilisé pour le développement de notre projet. Il présente une interface
graphique et il intègre un compilateur C/C++, un assembleur, un linker, un simulateur et un
débogueur.
Le Simulateur : La fonction principale d’un simulateur est de simuler le fonctionnement
réel d’un microcontrôleur sans avoir besoin d’un circuit physique.

Le débogueur : Son rôle est de déboguer les applications en offrant à l’utilisateur les
possibilités suivantes:

-choisir le mode de débogage : le code source ou le code assembleur


-contrôler et visualiser le contenu des variables
-suivre l’évolution des différents registres du processeur en temps réel
-mettre des points d’arrêts d’exécution
-visualiser le contenu de la mémoire
-exécuter en différents modes (pas à pas ou en totalité).

A.ACHOURI et M.MAHJOUBI
Page 24
ENIT 2009/2010 Projet de Fin d’Année

Remarque : le travail a été réalisé au début avec l’environnement IAR Embedded


Workbench puis il a fallu migrer vers le Keil workbench et refaire tout le travail et l’adapter
avec le Keil à cause de J-Link que nous possèdions pourtant (nous ne savions pas au début
qu’il n’était pas adaptable avec l’environnement IAR Embedded Workbench ).

La figure 14 présente l’interface utilisateur de l’outil Keil Workbench lors du débogage :

Figure 14:Interface de l’outil Keil Workbench

I.2.2 Les outils hardware

L’environnement matériel est nécessaire pour permettre la communication entre


le microcontrôleur et l’outil software. Il est composé essentiellement de trois éléments.
Une carte de développement, à base du microcontrôleur STM32. Elle contient des
périphériques qui sont utilisés pour développer des applications mettant en valeur
le microcontrôleur STM32F10xx. La figure 33 représente la carte de développement du
STM32-SK_revB IAR starter kit, utilisée lors de ce projet.

A.ACHOURI et M.MAHJOUBI
Page 25
ENIT 2009/2010 Projet de Fin d’Année

Figure 15:La carte STM32-SK IAR starter kit

Une interface J-link (figure 16) qui assure la connexion entre le microcontrôleur
et le débogueur. Du côté de la carte, la communication des informations se fait grâce au port
JTAG pour le J-link et du côté du PC, la communication se fait à travers le port USB.

Figure 16:J-Link

Un ordinateur présentant l’interface de développement


Ces éléments ainsi que les connexions entre eux sont illustrés dans la figure 17:

A.ACHOURI et M.MAHJOUBI
Page 26
ENIT 2009/2010 Projet de Fin d’Année

Figure 17:Les outils de développement hardware

I.2.3 L’évolution du signal audio de point de vue


hardware

A.ACHOURI et M.MAHJOUBI
Page 27
ENIT 2009/2010 Projet de Fin d’Année

Le schéma ci-dessous montre le passage du signal audio par les différents éléments hardware
du Kit de développement IAR .

Figure 18:Déroulement de l’application de point de vue hardware dans le


microcontrôleur

Conclusion

Après avoir fait l’étude théorique et la création du modèle de l’application à travers


Matlab pour le choix de retard à implémenté dans le microcontrôleur dans le chapitre1. Dans
le chapitre2 on a fait nos choix pour le microcontrôleur à utiliser.
On a programmé notre microcontrôleur et l’application fonctionne correctement.
Dans le chapitre 3 on va présenter notre travail de point de vue ingénierie pédagogique
et on va montrer notre travail sur le plan administratif pour faire avancer notre projet.

A.ACHOURI et M.MAHJOUBI
Page 28
ENIT 2009/2010 Projet de Fin d’Année

IV. Chapitre 3 :

Travail de l’ingénierie pédagogique

A.ACHOURI et M.MAHJOUBI
Page 29
ENIT 2009/2010 Projet de Fin d’Année

Introduction
Après avoir réalisé l’application sur le Kit IAR dans le chapitre précédent, on passe ici à
l’étape qui met en valeur l’ingénierie pédagogique à travers la préparation d’une maquette
complète pour la Cité des Sciences de Tunis. Pour ce faire, une fiche thématique sera tout
d’abord conçue. Dans cette fiche, on explique le principe de la maquette, le phénomène
qu’elle illustre, les domaines auxquels elle sensibilise et le coût total de la maquette.
On présente le matériel utilisé dans cette maquette et on finit par le story board décrivant
le déroulement de l’expérience dans la Cité des Sciences de Tunis.

1. Fiche thématique de la maquette

La fiche thématique présente un petit peu le résumé du travail de l’ingénierie


pédagogique réalisé pendant ce projet. L’ingénierie pédagogique consiste à réaliser
une maquette dont l’objectif principal la mise en valeur d’un phénomène scientifique
par des moyens techniques. Dans la fiche on a présenté le phénomène scientifique illustré
par l’application « Effet retard », les domaines que cette application sensibilise, le principe
de l’expérience et les matériels et le coût de cette maquette. Elle est présentée sous forme d’un
tableau. Elle est en fait l’une des fichiers du dossier à présenter à la Cité des Sciences de
Tunis.

A.ACHOURI et M.MAHJOUBI
Page 30
ENIT 2009/2010 Projet de Fin d’Année

A.ACHOURI et M.MAHJOUBI
Page 31
ENIT 2009/2010 Projet de Fin d’Année

Maquette Casque à effet retard !!

La perception audio-visuelle et la production de la parole sont


deux fonctionnalités très liées surtout lors d’une conversation ou
Phénomène de perception
lors de la lecture à voix haute. Toute perturbation de l’une
sonore mis en jeu
perturbe l’autre. Cette maquette montre les difficultés que l’être
humain peut rencontrer dans des situations similaires telles que
celle d’entendre sa voix avec un décalage.

Ce projet peut sensibiliser dans de multiples domaines :

• la perception audio-visuelle
Domaines de sensibilisation • le domaine orthophonique (une solution contre le
bégaiement)

• le domaine musical

• les systèmes d’audio et de visioconférence

Principe de la maquette L’utilisateur est invité à suivre les instructions écrites dans la
fiche qui se trouve près de la maquette.

Il doit mettre le casque audio et lire le texte mis sur la table à


voix haute. Un retard est introduit entre le signal issu du
microphone et celui qui arrive au casque audio. L’utilisateur
trouvera alors l’explication de la difficulté rencontrée lors de sa
lecture du texte (dans un poster).

• une table avec socle 800DT


Matériel nécessaire • Un casque audio (16kHz) 500DT
et coût
• Microphone 350DT
de la maquette
• Kit de développement 800DT

• Ressources humaines

(ingénieurs + encadrement) 10.800DT

• Coût total : 13.250D

Tableau 3:Fiche thématique

A.ACHOURI et M.MAHJOUBI
Page 32
ENIT 2009/2010 Projet de Fin d’Année

1 Choix du matériel

Dans le choix du matériel on s’intéresse aux textes, au microphone et au casque audio.


On a mis dans les annexes des photos qui montrent la mise en place de la maquette
‘Casque à retard’ dans la Cité des Sciences de la Villette.

1.1 Choix du texte

Le texte est un élément important pour la réussite de notre maquette. Tout d’abord il est
indispensable d’avoir deux versions de texte, l’une écrite en arabe et l’autre en français,
vu qu’en général les visiteurs de la Cité des Sciences de Tunis parlent ces deux langues.
De plus il faut avoir un texte qui attire l’attention des lecteurs. Pour la version française
on est allé dans le sens de mettre un texte qui nécessite plus de concentration comme le texte
suivant :
« Grand doreur quand redoras-tu sûrement et d’un goût rare mes trente-trois ou trente-
quatre grandes cuillers d’or trop argentées ? Je redorerai sûrement et d’un goût rare les
trente-trois ou trente-quatre grandes cuillers d’or trop argentées, quand j’aurai redoré
sûrement et d’un goût rare les trente-trois ou trente-quatre autres grandes cuillers d’or trop
argentées ».

Avec ce texte on n’a pas pu savoir si la perturbation lors de la lecture résultait


d’un problème d’articulation ou si elle était provoquée par notre application. On a donc choisi
un autre texte :
Dans son activité courante, l'homme fait partie des systèmes qui l'englobent
une multitude de " personnages " agissant simultanément. La réalité est
fondamentalement " distribuée "; elle est la rencontre de plusieurs facteurs en
interaction. L'homme subit une pluralité d'influences simultanées, reçoit des
messages en parallèle, est souvent impliqué dans plusieurs processus à la fois, est
stimulé par plusieurs sources.
Ce choix n’est pas le choix final du texte, on cherche à avoir une version plus adéquate à notre
application.

A.ACHOURI et M.MAHJOUBI
Page 33
ENIT 2009/2010 Projet de Fin d’Année

Pour la version arabe, on a choisi le texte suivant :

‫إينشتاين وسائقه‬

‫هذه حكاية طريفة عن العالم ألبرت إينشتاين صاحب النظرية النسبية فقد سئم الرجل تقديم المحاضرات بعد أن تكاثرت‬
:‫ قال له سائق سيارته‬،‫ وذات يوم وبينما كان في طريقه إلى محاضرة‬،‫عليه الدعوات من الجامعات والجمعيات العلمية‬
‫ فما قولك في أن أنوب عنك في محاضرة اليوم خاصة أن‬،‫اعلم يا سيدي أنك مللت تقديم المحاضرات وتلقي السئلة‬
‫ ولنني استمعت إلى العشرات من محاضراتك فإن لدي‬،‫شعري منكوش ومنتف مثل شعرك وبيني وبينك شبه ليس بالقليل‬
‫ فوصل إلى قاعة المحاضرة حيث وقف‬،‫ فأعجب إينشتاين بالفكرة وتبادل الملبس‬،‫فكرة ل بأس بها عن النظرية النسبية‬
‫ وسارت المحاضرة على‬،‫السائق على المنصة وجلس العالم العبقري الذي كان يرتدي زي السائق في الصفوف الخلفية‬
‫ هنا ابتسم‬،‫ما يرام إلى أن وقف بروفيسور متنطع وطرح سؤال من الوزن الثقيل وهو يشعر بأنه سيحرج به إينشتاين‬
‫ سؤالك هذا ساذج إلى درجة أنني سأكلف سائقي الذي يجلس في الصفوف الخلفية بالرد‬:‫السائق وقال للبروفيسور‬
‫ أينشتاين( ردًا جعل البروفيسور يتضاءل خجل‬-‫ وبالطبع فقد قدم )السائق‬...‫عليه‬

1.2Le microphone

Pour la réception et l’émission du son, soit un micro-casque soit un micro et un casque


séparés peuvent être utilisés. Ce microphone ne doit pas distordre le signal de parole. Sa
bande passante doit donc être supérieure à 12kHz. Il s’est avéré par la suite, que la position du
microphone peut poser des problèmes de saturation. Pour éviter ceci il est préférable de
séparer les deux. Le microphone sera donc encastré sur la table pour donner plus de confort au
visiteur et pour éviter la dégradation du matériel.

1.3 Le casque audio

C’est l’élément de réception du signal de parole. Le choix de ce casque est fait de façon à
restituer toutes les fréquences contenues dans la parole. A la Cité des Sciences de la Villette,
le casque choisi est le Sennheiseer HD457. Un choix de casque audio à performances
similaires a été choisi.

2 Le story board

A.ACHOURI et M.MAHJOUBI
Page 34
ENIT 2009/2010 Projet de Fin d’Année

Le story board présente une description du déroulement de « l’expérience » à la Cité


des Sciences de Tunis. Ce story board est destiné aux décideurs et techniciens de la Cité des
Sciences. Pédagogiquement, la procédure doit être « spontanée » pour l’utilisateur.
Le principe de la maquette est très simple, le visiteur met le casque et lit l’un des deux
textes devant lui et commence à lire le texte. L’explication de la perturbation qu’il a subie lors
de sa lecture du texte est expliquée sur une autre affiche.

Conclusion

Dans ce chapitre, l’esprit de l’ingénierie pédagogique de la maquette destinée à la Cité


des Sciences a été présenté. Pour ce faire, on a fait en sorte que notre maquette soit un produit
relativement fini, en préparant ce qui est indispensable pour sa mise en place dans le pavillon
sonore de la Cité des Sciences de Tunis.

A.ACHOURI et M.MAHJOUBI
Page 35
ENIT 2009/2010 Projet de Fin d’Année

V. Conclusion

Dans ce projet la conception et la mise en œuvre complète d’une maquette pour la Cité
des Sciences de Tunis ont été réalisées. Cette maquette porte sur l’effet retard et son
implication dans la coordination audiovisuelle lors de la production de la parole on a réalisé
une application qui consiste à implémenter un programme dont le rôle est de retarder le son
en temps réel.

La réalisation de ce projet a nécessité la maîtrise de quelques commandes temps réel du


logiciel Matlab ce qui nous a permis de réaliser un protocole expérimental pour fixer le retard
à implémenter sur le Kit de développement IAR.

Nous avons travaillé avec le Kit de développement IAR qui est à base
de microcontrôleur STM32 exploité pour implémenter notre application. Celle-ci consiste à
faire l’acquisition du son qui entre par un microphone, lui appliquer un retard puis le faire
sortir à travers les écouteurs du casque audio.

Ce projet nous a permis d’exploiter non seulement nos compétences scientifiques et


techniques mais il a aussi mis en valeur notre esprit de « créativité » à travers le travail
d’ingénierie pédagogique.

Cette maquette n’est qu’un début pour un projet d’équipement du pavillon TIC de la
Cité des Sciences de Tunis par des maquettes audio. En particulier cette maquette peut être
complétée aisément par 2 retards différents sur les 2oreilles de manière à mettre en évidence
l’importance de la binauralité en localisation des sources sonores (réalité virtuelle,.. ;).
Il est utile de noter que ce type de maquette peut être produit en kit et vendu par la Cité des
Sciences aux visiteurs. Elle peut être également proposée dans les lycées (cours de Sciences
de la vie) pour illustrer ce phénomène de coordination audiovisuelle par le cerveau.

A.ACHOURI et M.MAHJOUBI
Page 36
ENIT 2009/2010 Projet de Fin d’Année

VI. Netographie :

[1]
http://fr.wikipedia.org/wiki/Ing%C3%A9nierie_p%C3%A9dagogique

[2 ]
www.icp.inpg.fr
[3]
Aide Matlab / www.mathwork.com

[4]
http://www.st.com/stonline/stappl/cms/press/news/year2007/fra/p2184.htm

[5]
http://www.jean-christian-michel.com/studio-microphone.html
[6]
http://fr.wikipedia.org/wiki/Convertisseur_analogique-num%C3%A9rique
[7]
http://fr.wikipedia.org/wiki/Modulation_de_largeur_d%27impulsion

A.ACHOURI et M.MAHJOUBI
Page 37
ENIT 2009/2010 Projet de Fin d’Année

VII. Bibliographie

Insider's guide to STM32


STM32ReferenceManual_Dec2008
stm32f10x_stdperiph_lib_um
UM0427 User manual
The.Definitive.Guide.to.the.ARM.Cortex.M3.Aug.2007
tutorial SOC

A.ACHOURI et M.MAHJOUBI
Page 38
ENIT 2009/2010 Projet de Fin d’Année

VIII. Annexes

A.ACHOURI et M.MAHJOUBI
Page 39
ENIT 2009/2010 Projet de Fin d’Année

Texte à lire dans la Villette

Vue globale de la maquette dans la Villette

A.ACHOURI et M.MAHJOUBI
Page 40