TD2 Information, préparation de l’action et loi de Hick-Hyman
Un peu de théorie de la communication :
- Shannon et Weaver ( 1949 ) proposent une théorie de « l’information », destinée à
comprendre et résoudre des problèmes de communication - Ils quantifient la quantité d’information apportée par un évènement à la probabilité p de cet événement
Ex :
- 32 personnes dans la salle : N = 32
- Caractéristiques 1) c’est un garcon ( 1 individu sur 2 ) : n = 16 Log^2(32 /16) = 1 bits - Caractéristique 2) c’est un OTP Brig (1 individu) : n= 1 Log^2(32/1) = 5 bits
Notion d’information
- La quantité d’information H traduit le nombre de choix binaire nécessaire pour définir 1
événement dans un ensemble N - Une unité d’information (1 bit) correspond à un événement dont la probabilité p=1/2 - L’information permet de diminuer l’incertitude
Expé 2 : mesure de TRc
- Traduit la difficulté de la préparation de la tache
- Mesurée par la quantité d’information transmise/traitée dans la préparation du mouvement
Loi de Hick-Hyman
TRc = a log^2(N) + b
b- ordonnée à l’origine (N=1)
a- pente de la droite : durée nécessaire pour traiter 1 bit d’information
« vitesse » de traitement : environ 200ms/bit de loi Différences individuelles, mais la loi reste vraie Forme simple de loi pour prise de décision (entropie)