Vous êtes sur la page 1sur 2

Contrôle perceptivo-moteur

TD2 Information, préparation de l’action et loi de Hick-Hyman

Un peu de théorie de la communication :

- Shannon et Weaver ( 1949 ) proposent une théorie de « l’information », destinée à


comprendre et résoudre des problèmes de communication
- Ils quantifient la quantité d’information apportée par un évènement à la probabilité p de cet
événement

Ex :

- 32 personnes dans la salle : N = 32


- Caractéristiques 1) c’est un garcon ( 1 individu sur 2 ) : n = 16
Log^2(32 /16) = 1 bits
- Caractéristique 2) c’est un OTP Brig (1 individu) : n= 1
Log^2(32/1) = 5 bits

Notion d’information

- La quantité d’information H traduit le nombre de choix binaire nécessaire pour définir 1


événement dans un ensemble N
- Une unité d’information (1 bit) correspond à un événement dont la probabilité p=1/2
- L’information permet de diminuer l’incertitude

Expé 2 : mesure de TRc

- Traduit la difficulté de la préparation de la tache


- Mesurée par la quantité d’information transmise/traitée dans la préparation du mouvement

Loi de Hick-Hyman

TRc = a log^2(N) + b

b- ordonnée à l’origine (N=1)

a- pente de la droite : durée nécessaire pour traiter 1 bit d’information


 « vitesse » de traitement : environ 200ms/bit de loi
Différences individuelles, mais la loi reste vraie
Forme simple de loi pour prise de décision (entropie)

Vous aimerez peut-être aussi