Vous êtes sur la page 1sur 14

Distribuciones bidimensionales de frecuencias

1. INTRODUCCIN.

En mltiples ocasiones, podemos estar interesados en analizar de forma simultnea dos o ms caractersticas de una misma poblacin. As, por ejemplo, nos podra interesar estudiar simultneamente los ingresos anuales de las empresas del sector turstico extremeo y las cantidades anuales invertidas por las mismas en promocin turstica. Cuando esto ocurra, y en el supuesto de que se estn analizando simultneamente dos caractersticas, a cada elemento observado de la poblacin le corresponder un par de valores ( si estamos analizando caractersticas cuantitativas o variables ) o un par de modalidades ( si nuestro inters se centra en caractersticas cualitativas, o atributos, de la poblacin ).

En el caso de que se analicen simultneamente dos variables, que denominaremos X e Y, respectivamente, al nmero de veces que se presenta conjuntamente el par de valores (xi ; y j ) se le llama frecuencia absoluta bidimensional
de dicho par, y se representa por nij .

Pues bien, se define una distribucin bidimensional de frecuencias como el conjunto de pares de valores

(x ; y )
i j

asociado a la frecuencia absoluta, nij ,

correspondiente a cada par de valores. Por tanto, se representar una distribucin bidimensional de frecuencias de la siguiente forma:

(x ; y ; n )
i j ij

(x ; y ) al cociente entre la frecuencia absoluta correspondiente a dicho par y la suma


i j

Por otro lado, llamaremos frecuencia relativa bidimensional del par de valores

total de frecuencias absolutas bidimensionales. La frecuencia relativa bidimensional se representa por f ij , y su expresin matemtica es la siguiente:

f ij =

nij N

-1-

Distribuciones bidimensionales de frecuencias

donde N = nij .
i =1 j =1

Finalmente, las frecuencias acumuladas bidimensionales ( tanto absolutas como relativas ) se definen de forma similar al caso unidimensional. As, la frecuencia absoluta acumulada ( bidimensional ) es la suma de las frecuencias absolutas nij de todos aquellos pares de valores de la variable bidimensional (X;Y) que sean menores o iguales que el par (xi ; y j ) ( esto es, para valores de X menores o iguales que xi y
valores de Y menores o iguales que y j ). De forma similar, la frecuencia relativa acumulada ( bidimensional ) es la suma de las frecuencias relativas f ij de los pares de valores menores o iguales que (xi ; y j ) .

2. CONCEPTO DE TABLA DE CORRELACIN.

Una tabla de correlacin es la forma ms habitual de presentar una distribucin bidimensional de frecuencias. En realidad, una tabla de correlacin es una tabla de doble entrada, en cuyas filas se sitan los diferentes valores ( o intervalos de valores, segn el caso ) de una variable, mientras que en sus columnas se sitan los valores ( o intervalos de valores ) de la otra variable. En la interseccin de cada fila con cada columna se representa la frecuencia absoluta bidimensional ( nij ) correspondiente a cada par de valores ( o a cada par de intervalos de valores ) de la variable estadstica bidimensional (X;Y).

En la ltima fila y en la ltima columna de una tabla de correlacin se representan la suma de las frecuencias correspondientes a cada una de las filas o a cada una de las columnas. De esta forma, ni. representa el nmero total de veces que se ha presentado el valor xi de la variable X, con independencia de los valores que tome la variable Y. De forma similar, n. j es el nmero total de veces que se ha presentado el valor y j de la variable Y, independientemente de los valores que tome la variable X.

-2-

Distribuciones bidimensionales de frecuencias

Por consiguiente, una tabla de correlacin tiene la siguiente forma: L0 L1 y1


L0 L1 L j 1 L j yj n1 j n2 j () nij () nkj n. j Lm 1 Lm ym n1m n2 m () nim () nkm n.m

L1 L2 y2 n12 n22 () ni 2 () nk 2
n.2

() () () () () () () ()

() () () () () () () ()

Total horizontal
n1. n2. () ni. () nk . N

x1 x2
xi xk

n11 n21 () ni1 () nk1


n.1

L1 L2 () Li 1 Li () Lk 1 Lk

Total vertical

A partir de esta tabla de correlacin, se pueden deducir las siguientes relaciones:

ni. = nij
j =1
k

n. j = nij
i =1

N = nij = ni. = n. j
i =1 j =1 i =1 j =1

Si se emplearan frecuencias relativas en lugar de frecuencias absolutas, se debe verificar lo siguiente:

f i. = f ij
j =1 k

f. j = f ij
i =1

fij = fi. = f . j = 1
i =1 j =1 i =1 j =1

Cuando todos y cada uno de los pares de valores de la variable bidimensional (X;Y) se repite nica y exclusivamente una vez, es decir, cuando estamos ante una

-3-

Distribuciones bidimensionales de frecuencias

distribucin bidimensional unitaria, no se utiliza la tabla de correlacin, sino que su representacin ms habitual se realiza a travs de una tabla simple con dos columnas, en las que se colocan cada uno de los pares de valores observados:

Variable X x1 x2 x3 M xn

Variable Y y1 y2 y3 M yn

3. DISTRIBUCIONES MARGINALES DE FRECUENCIAS.

La distribucin marginal de la variable X, en una distribucin bidimensional de frecuencias, viene dada por todos los valores que toma dicha variable y por las frecuencias absolutas de los mismos, independientemente de los valores que tome la variable Y. Por tanto, la distribucin marginal de X es la siguiente:

xi ni.

x1
n1.

x2
n2.

xi ni.

xk nk .

De la misma forma, la distribucin marginal de la variable Y, en una distribucin bidimensional de frecuencias, viene definida por todos los valores que toma dicha variable y por sus frecuencias absolutas, con independencia de los valores que tome la variable X. La distribucin marginal de Y es, por tanto, la siguiente:

yj n. j

y1
n.1

y2
n.2

yj n. j

ym n.m

Una vez obtenida la distribucin marginal de una variable, se pueden calcular todas las medidas de posicin, de dispersin, de concentracin y de forma que han sido estudiadas en el tema anterior.

-4-

Distribuciones bidimensionales de frecuencias

4. DISTRIBUCIONES CONDICIONADAS DE FRECUENCIAS.

La distribucin condicionada de la variable X, dado un valor concreto de la variable Y ( esto es, Y = y j , para j = 1, 2, K, m ) viene definida por los valores
observados de la variable X y por las frecuencias absolutas con que se presentan dichos valores cuando la variable Y toma el valor y j . As, por ejemplo, la distribucin condicionada de la variable X, dado que la variable Y toma el valor y2 ( Y = y2 ) es la siguiente: xi Y = y2

ni 2

x1 x2 x3 M xi M xk
k i =1

n12 n 22 n32 M ni 2 M nk 2

i2

= n.2

Por consiguiente, en este ejemplo la distribucin condicionada de la variable X no es otra cosa que la distribucin de frecuencias de dicha variable, pero considerando nicamente la segunda columna de la tabla de correlacin.

De forma similar, la distribucin condicionada de la variable Y, dado un valor concreto de la variable X ( X = xi , para i = 1, 2, K, k ) viene definida por todos los valores observados de la variable Y y por las frecuencias absolutas con que se presentan dichos valores cuando la variable X toma el valor xi . Por ejemplo, la distribucin condicionada de Y, dado que X toma el valor x1 ( X = x1 ), es la siguiente:

-5-

Distribuciones bidimensionales de frecuencias

y j X = x1

nj 1

y1 y2 y3 M yj
M ym
m j =1

n11 n12 n13 M n1 j


M n1m

1j

= n1.

Por tanto, en este ejemplo concreto, la distribucin condicionada de la variable Y es la distribucin de dicha variable considerando nicamente la primera fila de la tabla de correlacin.

Las frecuencias relativas de las distribuciones condicionadas a algn valor de la variable Y, o a algn valor de la variable X son, respectivamente, las siguientes:

fi j =

nij n. j

fj i =

nij ni.

De esta forma, las frecuencias relativas de la distribucin condicionada de la variable X, dado que Y = y2 , son las siguientes: xi Y = y2

ni 2

fi 2 n12 n.2 n22 n.2 n32 n.2 M ni 2 n.2 M nk 2 n.2


k

x1 x2 x3 M xi M xk
k

n12 n 22 n32 M ni 2 M nk 2

ni 2 = n.2
i =1

f
i =1

i 2

=1

-6-

Distribuciones bidimensionales de frecuencias

Por su parte, las frecuencias relativas de la distribucin condicionada de la variable Y, dado que X = x1 , son las siguientes:
y j X = x1

nj 1

fj 1 n11 n1. n12 n1. n13 n1.

y1 y2 y3 M yj
M ym
m

n11 n12 n13 M n1 j


M n1m

M
n1 j n1.

M
n1m n1.
m

n
j =1

1j

= n1.

f
j =1

j1

=1

Finalmente, hay que tener en cuenta que las distribuciones condicionadas son distribuciones unidimensionales, a las que, por tanto, se les puede calcular todas las medidas de posicin, de dispersin, de concentracin y de forma que han sido estudiadas en el tema anterior.

5.

MOMENTOS

DE

UNA

DISTRIBUCIN

BIDIMENSIONAL

DE

FRECUENCIAS.

Se define el momento de orden (r,s) con respecto al origen de la variable bidimensional (X;Y), y se representar por ars , de la siguiente forma:

m r i

x
ars =
i =1 j =1

y sj nij

Los principales momentos respecto al origen de una variable bidimensional son los siguientes:

-7-

Distribuciones bidimensionales de frecuencias

m i

x
- Para r = 1 y s = 0:
a10 =
i =1 j =1

nij = nij =

x
i =1 m

ni.

N
k m j

=X

y
- Para r = 0 y s = 1:
a01 =
i =1 j =1

y
j =1 k

n. j =Y ni.

N
k m 2 i

x
- Para r = 2 y s = 0:
a20 =
i =1 j =1

nij =

x
i =1 m

2 i

N
k m 2 j

y
- Para r = 0 y s = 2:
a02 =
i =1 j =1

nij = y j nij

y
j =1

2 j

n. j

N
k m i

x
- Para r = 1 y s = 1:
a11 =
i =1 j =1

De la misma forma, se define el momento de orden (r,s) respecto a la media de una variable bidimensional (X;Y), y lo representaremos por mrs , de la siguiente forma:

(x X ) (y
k m r

mrs =

i =1 j =1

Y ) nij
s

Los principales momentos centrales de una variable bidimensional son los siguientes:
m10 = 0 m01 = 0
m20 = S x2
2 m02 = S y

- Para r = 1 y s = 0: - Para r = 0 y s = 1: - Para r = 2 y s = 0: - Para r = 0 y s = 2:

Pero el momento central ms importante de una distribucin bidimensional de frecuencias es la covarianza, que se obtiene cuando r = 1 y s = 1:

-8-

Distribuciones bidimensionales de frecuencias

m11 =

(x X ) (y
k m i =1 j =1 i

Y ) nij

= S xy

El signo de la covarianza indica el sentido de la variacin conjunta de las dos variables. As, si la covarianza es positiva, las dos variables varan en el mismo sentido, mientras que si la covarianza es negativa, las dos variables varan en sentido opuesto.

Al igual que en el caso de distribuciones unidimensionales de frecuencias, los momentos centrales de una distribucin bidimensional pueden expresarse en funcin de los momentos respecto al origen. As, se puede demostrar que se verifican las siguientes relaciones:
2 m20 = S x2 = a20 a10

2 2 m02 = S y = a02 a01

m11 = S xy = a11 a10 a01

6.- CORRELACION

Para medir el grado de asociacin entre las mismas se emplea otra tcnica estadstica, conocida con el nombre de correlacin. La correlacion ayuda a analizar el grado de asociacin existente entre las dos variables, esto es, medir la intensidad de la dependencia entre la variable exgena y la variable endgena. Pues bien, esta medida del grado de asociacin se realiza mediante el coeficiente de correlacin. El coeficiente de correlacin lineal simple se representa por r y su expresin matemtica es, por tanto, la siguiente:

r=

m11 m20 m02

-9-

Distribuciones bidimensionales de frecuencias

El campo de variacin del coeficiente de correlacin estar comprendido entre los valores -1 y +1:
1 r +1 Si r = 0 , no existir ninguna relacin lineal entre las variables estudiadas, es decir, las dos variables estarn incorrelacionadas entre s. Pero el hecho de que r = 0 no quiere decir necesariamente que las dos variables sean independientes entre s. Ahora bien, si dos variables son estadsticamente independientes, su covarianza siempre ser nula, por lo que el coeficiente de correlacin entre las mismas tambin ser igual a 0. Por consiguiente, se puede concluir diciendo que la independencia entre dos variables implica necesariamente que su coeficiente de correlacin sea nulo, mientras que la incorrelacin no implica la independencia. Si r = 1 , existir una correlacin perfecta entre las dos variables estudiadas. Esta correlacin perfecta, o absoluta, puede ser positiva ( si r = + 1 ) o negativa ( en el caso de que r = 1 ).

Sea como sea, lo habitual es que el coeficiente de correlacin tome valores distintos de 0, de -1 y de +1, de forma que: a) Si 1 < r < 0 , existir una correlacin negativa entre las dos variables, de forma que cuando una variable se incrementa, la otra variable disminuye ( y viceversa ). b) Si 0 < r < 1 , existir una correlacin positiva entre las variables, de manera que cuando una variable se incrementa, la otra variable tambin lo hace ( y viceversa ).

Para el ejemplo del gasto anual en alimentacin de las familias como funcin de la renta anual disponible que se ha utilizado a lo largo del tema, el coeficiente de correlacin se calculan de la siguiente forma:

- 10 -

Distribuciones bidimensionales de frecuencias

yi 15 20 22 25 40 60

yi2 225 400 484 625 1.600 3.600

) m20 = 9.722,2 ) m11 = 1.447,2 ) a01 = 30,3


2 2 m02 = S y = a02 a01
6

y
i =1

2 i

= 6.934
2 i

6 ) )2 ) m02 = 1.155,6 30,3 = 235,5

a02 =

y
i =1

) = 1.155,6

( )

Respecto al coeficiente de correlacin, y puesto que, en este ejemplo, la covarianza es positiva ( el signo del coeficiente de correlacin ser siempre el mismo que el de la covarianza ), el valor de este coeficiente es el siguiente:
r = + 0,9563

el cual se debe interpretar como sigue:

Existe una fuerte correlacin positiva entre el gasto anual en alimentacin de las familias y su renta anual disponible. Cuando sta ltima se incrementa, se producir tambin un incremento del gasto anual en alimentacin.

- 11 -

Distribuciones bidimensionales de frecuencias

7. CONCEPTO DE INDEPENDENCIA ESTADSTICA.

Se dice que dos variables X e Y son estadsticamente independientes cuando la frecuencia relativa conjunta es igual al producto de las frecuencias relativas marginales, es decir:

nij N

ni. n. j N N

i, j

f ij = f i. f. j

i, j

Cuando esto sucede, se verifica que las frecuencias relativas condicionadas son iguales a sus correspondientes frecuencias relativas marginales:

ni. n. j fi j = nij n. j = N n. j = ni. = f i. N

ni. n. j fj i = nij ni. = N ni. = n. j N = f. j

Cuando las frecuencias condicionadas coinciden con las frecuencias marginales, las variables son independientes, puesto que en las distribuciones marginales se estudia el comportamiento de una variable independientemente de los valores que pueda tomar la otra.

Otra implicacin importante es que cuando dos variables son estadsticamente independientes, se verifica tambin lo siguiente:

a11 = a10 a01

Por consiguiente, la covarianza de dos variables independientes es igual a:

- 12 -

Distribuciones bidimensionales de frecuencias

m11 = a11 a10 a01 = 0

Se puede concluir, pues, diciendo que cuando dos variables son independientes, su covarianza siempre es igual a 0. Sin embargo, lo contrario no siempre es cierto, puesto que el hecho de que la covarianza de dos variables sea nula ( y que, por tanto, estn incorrelacionadas ) no implica necesariamente que dichas variables sean estadsticamente independientes.

7. TABLAS DE CONTINGENCIA.

Cuando se estn analizando conjuntamente dos caractersticas cualitativas, o atributos, de una poblacin, la tabla de correlacin ( que, como se ha indicado, es la forma ms habitual de presentar una distribucin bidimensional de frecuencias ) recibe el nombre de tabla de contingencia. Por tanto, una tabla de contigencia es una tabla de doble entrada, en la que las diferentes modalidades de un atributo se sitan en filas, mientras que las modalidades del otro atributo se sitan en columnas. En la confluencia de cada fila y de cada columna se sitan las frecuencias absolutas conjuntas ( nij ) correspondientes a cada par de modalidades de los atributos estudiados. En la ltima fila de la tabla de contingencia se representa la distribucin marginal de un atributo, mientras que en la ltima columna de la misma se representa la distribucin marginal del otro atributo. Un ejemplo tpico de tabla de contingencia sera el siguiente:

B1 A1 A2 () Ai () Ak
n. j

B2 n12 n22 () ni 2 () nk 2
n.2

n11 n21 () ni1 () nk1


n.1

() () () () () () () ()

Bj n1 j n2 j () nij () nkj n. j

() () () () () () () ()

Bm n1m n2 m () nim () nkm n.m

ni. n1. n2. () ni. () nk . N

- 13 -

Distribuciones bidimensionales de frecuencias

En la tabla anterior, A1 , A2 , K, Ak representan las modalidades del atributo A, mientras que B1 , B2 , K, Bm representan las diferentes modalidades del atributo B.

Puesto que en una tabla de contingencia se recoge la distribucin conjunta de atributos, y no de variables, no es posible realizar operaciones algebraicas, como sumas, restas, multiplicaciones o divisiones. Por tanto, no tiene sentido hablar de medias, ni de varianzas, ni de desviaciones tpicas, etc. de los atributos de una tabla de contingencia.

Uno de los pocos conceptos estudiados que s puede aplicarse a una tabla de contingencia es el de independencia estadstica entre los atributos de la misma. De esta forma, la condicin necesaria y suficiente para que dos atributos sean estadsticamente independientes es que la frecuencia relativa conjunta sea igual al producto de las frecuencias relativas marginales, es decir:

nij N

ni. n. j N N

i, j

8. BIBLIOGRAFA UTILIZADA.

CASAS SNCHEZ, J.M. y SANTOS PEAS, J. (1995): Introduccin a la Estadstica para Economa y Administracin de Empresas, pp. 125-142. Editorial Centro de Estudios Ramn Areces, S.A. Madrid. MARTN-GUZMN, M.P. y MARTN PLIEGO, F.J. (1987): Curso bsico de Estadstica Econmica, pp. 105-118. Editorial AC. Madrid.

- 14 -

Vous aimerez peut-être aussi