Vous êtes sur la page 1sur 12

Universidad de Viña del Mar

Escuela de Ciencias Sociales


Carrera de Sociología

TECNICAS CUANTITATIVAS

ESCALA LIKERT

La escala Likert, creada en 1932 por el psicólogo norteamericano Rensis Likert


(1903-1981), es el instrumento más usado para medir actitudes. La escala Likert es un
conjunto de aseveraciones (items) ante las cuales la persona expresa su grado de acuerdo
o desacuerdo o indecisión. Cada ítem tiene habitualmente cinco opciones de respuesta:
Muy de acuerdo (MA), De acuerdo (A), Indeciso (I), En desacuerdo (D) y Muy en
desacuerdo (MD). No hay respuestas correctas o incorrectas.

Hay items positivos, que expresan actitud positiva hacia el objeto, e items
negativos, que expresan actitud negativa hacia el objeto. Si estamos midiendo actitud
hacia la televisión, un ítem positivo sería “la televisión sirve para estar al día en muchos
temas” y uno negativo sería “ver televisión es perder el tiempo”. Es conveniente que la
escala tenga ambos tipos de items para controlar la tendencia a estar de acuerdo con las
aseveraciones o a contestar mecánicamente.

Los puntajes van de 1 a 5, dando mayor puntaje a la opción de respuesta que


indica actitud positiva hacia el objeto. Si el ítem es positivo, la opción MA recibe 5
puntos; si es negativo, la opción MD recibe 5 puntos. En el ejemplo del párrafo anterior,
recibe puntajes máximos quien está muy de acuerdo con que la televisión sirve para estar
al día, y muy en desacuerdo con que ver televisión es perder el tiempo.

El puntaje de una persona en la escala es la suma de los puntajes que ha obtenido


en los items. A mayor puntaje en la escala, más positiva es su actitud.

La escala Likert se aplica habitualmente como parte de un cuestionario, que puede


contener varias escalas y otros instrumentos. La escala Likert es una escala sumatoria:
sus puntajes son la suma de los puntajes de los items. Otras escalas sumatorias son las de
items con opciones de respuesta de 0 a 10, y las de items dicotómicos (1=sí, 0=no).

La escala Likert fue diseñada para medir actitudes pero, por lo fácil que es
construirla, contestarla y analizarla, y porque sus propiedades psicométricas (validez,
confiabilidad) son relativamente fáciles de evaluar, es usada para medir opiniones,
percepciones, valores, aspectos de personalidad y otras variables. Por ejemplo, la
-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, U.de Viña del Mar, julianrc@uvm.cl
pregunta “¿Qué le pareció la selección de fútbol en el último partido?” puede tener las
opciones de respuesta “muy bien”, “bien”, “regular”, “mal” y “muy mal”, con puntajes 5
a 1 respectivamente.

Un problema de esta escala radica en el elemento conductual de las actitudes: es


la distancia que hay entre la respuesta a palabras escritas en un papel y la conducta real.
Las palabras aíslan la conducta, la sacan de contexto real. Revelan en parte el deber ser.
Son la respuesta verbal a una situación simbólica. La conducta se da en una situación
concreta, en un contexto con muchos otros elementos, no equivalente a la respuesta
escrita. Pero no tenemos mejor alternativa: una buena medición debe contextualizar lo
más posible el estímulo que aparece en el papel.

Una limitación de toda medición en papel es que exige un grado mínimo de


comprensión de lectura. En general, es problemático aplicarla a niños o a personas de
muy bajo nivel educacional o con grados de analfabetismo.

Hay varias recetas para escribir items. Aquí hay unas cuantas:

• Evitar aseveraciones que se refieran a hechos del pasado. Las personas suelen
contestar tratando de ser consistentes con su actitud actual. Si simplemente no
recuerdan, suelen idealizar el pasado o inventarlo.
• Evitar items que contengan dos o más aseveraciones. En vez de un ítem con dos
aseveraciones, es preferible dos items con una cada uno.
• Los items deben ser cortos, estar escritos en forma directa, con palabras simples,
entendibles y familiares para el que contesta.
• Evitar items extremos, en que todos o nadie estarán de acuerdo. Los items extremos
no discriminan y, por lo tanto, no entregan información. Las diferencias en los
extremos de la escala no se detectan con items extremos sino con el uso de las
opciones de respuesta de los items.
• Evitar palabras como ‘sólo’, ‘solamente’, ‘principalmente’, y similares.
• No usar, salvo que se justifique, palabras como ‘todos’, ‘nadie’, ‘siempre’, ‘nunca’,
‘ninguno’, etc.
• Evitar aseveraciones de hechos objetivos o de conocimientos.

¿Cuántos items debe tener una escala? No se recomienda más de quince o veinte
items. Una escala larga puede aburrir y hacer que las respuestas al resto de la escala no
sean contestadas o lo sean mecánicamente. Esto depende de las características de las
personas a las que se les va a aplicar y del lugar donde se hará. Por otra parte, cuantos
más items haya, mayor será la confiabilidad, porque el error sistemático tenderá a
compensarse.

Aunque la confiabilidad de una escala aumenta al tener más items, el aumento va


disminuyendo al agregar (ver más adelante el coeficiente Spearman-Brown). También se
supone que una escala mide una sola dimensión y esto es menos sostenible al haber más
items.
-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, U.de Viña del Mar, julianrc@uvm.cl
Las etapas en la construcción de la escala son:

1. Definir el concepto nominal y operacionalmente.

2. Construcción de items. Escribir items positivos y negativos. (Crear más de los


necesarios, para posibles reemplazos.)

3. Aplicar un pretest. Los sujetos del pretest, de características similares a los que se
les va a aplicar la escala definitiva, contestan los items e indican qué problemas han
tenido al hacerlo.

4. Se analizan los items, la validez y confiabilidad de la escala y, si corresponde, se


modifican.

5. Se aplica la escala.

Para cada persona se suman los puntajes que obtuvo en los items. La suma es su
puntaje en la escala. Esto se hace porque, aunque las opciones de respuesta de los items
son variables ordinales, se les considera cuantitativas porque tienen más de tres
categorías de respuesta. Esto se justifica además, teóricamente, en que la actitud que la
subyace es continua, cuantitativa.

ANALISIS DE LOS ITEMS

El análisis de los items sirve para determinar cuáles se mantendrán en la escala y


cuáles se han de eliminar. Se espera que los items discriminen y que se correlacionen
positivamente entre sí.

Un ítem discrimina si separa a los sujetos en el ítem en forma similar a como los
separa en la actitud, expresada en el puntaje de la escala. Para evaluarlo se pueden tomar
los grupos de los cuartiles extremos (4° y 1°) en el puntaje total y comparar sus
promedios en el ítem mediante un Anova. Otra forma de hacerlo es correlacionar los
puntajes del ítem y la escala.

Likert indica algunas posibles causas de que un ítem no discrimine:


• Es poco entendible.

-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, U.de Viña del Mar, julianrc@uvm.cl
• Se refiere a algo diferente del resto de los items (por lo tanto, personas en
diferentes posiciones de la escala tienen igual probabilidad de estar de acuerdo).

• Es respondido igual (o casi igual) por todo el grupo. Esto se da habitualmente en


items muy extremos. La correlación disminuye si los items tienen poca varianza.
Esta atenuación también ocurre cuando se disminuye el número de opciones de
respuesta de los items.

Los items deben estar correlacionados entre sí. Por lo tanto, deben estar también
correlacionados con la escala, que es la suma de los items. Un ítem que discrimina
adecuadamente está también correlacionado con los demás items y con la escala. Si dos
items están correlacionados, quiere decir que miden lo mismo, el mismo concepto.
Cuanto más alta es la correlación, mayor es la medición común del concepto.
Sin embargo, si la correlación entre dos items, y de cada uno con los demás, es
extremadamente alta, conviene eliminar uno porque está midiendo lo mismo que el otro.
Además de alargar inútilmente la escala, da doble ponderación al aspecto medido.
Los items que están poco correlacionados miden cosas diferentes. Hay que tener
presente que aunque un ítem no esté correlacionado con ninguno otro, su correlación con
la escala no será 0 porque el ítem es parte de la escala. Cuando hay pocos items conviene
correlacionar cada ítem con la escala sin el ítem.
Se deben eliminar los items que están poco correlacionados con los demás y con
la escala. Si la correlación es negativa hay que considerar invertir su codificación. Un
ítem debe ser también eliminado si está correlacionado positivamente con algunos items
y negativamente con otros; además, probablemente su correlación con la escala será baja.

Un ítem poco correlacionado no aporta a la escala y disminuye su validez y su


confiabilidad. Un peligro al eliminar muchos items es que algunas dimensiones pueden
quedar con muy pocos items o con ninguno.

CONFIABILIDAD: CONSISTENCIA INTERNA

Se han analizado antes dos formas de confiabilidad: la estabilidad del


instrumento y el grado de acuerdo entre jueces. Se verá aquí otra forma de confiabilidad,
la consistencia interna, especialmente aplicable a escalas y tests.
La consistencia interna de un instrumento consiste en que cada parte de la escala
mida lo mismo, produzca resultados similares, de manera que sea indiferente cuál parte
del instrumento usamos en nuestra medición.
Los primeros métodos usados fueron los de equivalencia, como el ‘split-half’, que
correlaciona los puntajes de las dos mitades del test. Si miden lo mismo, si son
-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, U.de Viña del Mar, julianrc@uvm.cl
equivalentes, la correlación será alta. Ésta no indica la confiabilidad del instrumento
sino la de cada una de las mitades. Está atenuada porque cada parte tiene la mitad de los
items del test. (Se sabe que la confiabilidad aumenta al alargar un test.)

La fórmula de Spearman-Brown sirve para estimar la confiabilidad al alargar o


acortar un instrumento, al aumentar o disminuir el número de items:
kr '
r=
1 + (k − 1)r '

en que r’ es la confiabilidad de la escala inicial, k es el tamaño de la nueva escala con


respecto a la escala inicial (por ejemplo, k=2 si se aumenta al doble, k=.5 si se acorta a la
mitad), y r es la confiabilidad de la nueva escala.

Por ejemplo, se quiere acortar un test de treinta a veinte items, eligiéndolos al


azar. Si la confiabilidad del test de treinta items es .85, la confiabilidad estimada del
nuevo test será:

r= 3 ( )
2 (.85)
= .79
1+ 2
3 ( )
− 1 (.85)

en que k = 20/30 = 2/3. El nuevo test tendrá una confiabilidad de .79.

Si se duplica el tamaño del test, como cuando sabemos la confiabilidad de las


mitades y queremos conocer la del test entero, k = 2. Se puede ver que en este caso, la
fórmula del coeficiente de Spearman-Brown se simplifica a:

2r '
r=
1+ r '

Por ejemplo, si la correlación de las mitades ( r ' ) es .60, la confiabilidad del test
2(.60)
entero será r = = .75
1 + (.60)

Se puede también usar la fórmula de Spearman-Brown para estimar cuántos items


se necesitan para conseguir una determinada confiabilidad:

r (1 − r ')
k=
r '(1 − r )

Por ejemplo, si un escala de quince items tiene confiabilidad .70, ¿cuántos items
se estima debería tener para que la confiabilidad fuera .80? La respuesta es 26 items.
-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, U.de Viña del Mar, julianrc@uvm.cl
No hay una relación proporcional entre el aumento del largo del test y el aumento
de la confiabilidad. Ésta crece en menor proporción, y es aun menor al continuar
aumentando k, y también menor cuanto mayor sea r. Esto se debe al factor ‘techo’: r
no puede ser mayor de 1.

La objeción que se hace al método de ‘split-half’ es que el cansancio o la


reactividad pueden hacer diferentes las respuestas de cada mitad. Esto se puede superar
correlacionando los puntajes de los items pares e impares. Pero, dado que la ubicación de
los items en la escala es arbitraria, pueden haber muchas correlaciones.

Si se parte un test en todos las posibles pares de mitades y se calcula una


correlación para cada par, el promedio de estas correlaciones es numéricamente igual al
coeficiente α creado por Lee Cronbach en los años 50.

El coeficiente α es la medida más usada para medir confiabilidad de escalas y


tests. Mide el grado en que los items son consistentes, en que miden lo mismo, que van
en la misma dirección.

El cálculo de α no se realiza correlacionando todos los pares de mitades, sino de


una manera más fácil, usando la matriz de covarianza de los items.

Es sabido que si x = x1 + x2 , la varianza de x es igual a la suma de la varianza de


x1 más la de x2 más dos veces la covarianza de x1 y x2 . Si x es la suma de k
elementos, su varianza es:

k k k
s = ∑ s + 2∑
2
x
2
i ∑ Cov ij , en que i<j.
i =1 i =1 j=1

Si una escala Likert tiene dos items, su varianza es la suma de las varianzas de
cada ítem más dos veces su covarianza. Si hay k items, la varianza es la suma de las
varianzas de los k items más dos veces la suma de las covarianzas de todos los pares de
items.
Los elementos de la matriz de covarianzas son las varianzas en la diagonal
principal y las covarianzas en los dos triángulos (arriba y abajo de la diagonal principal).
Es una matriz simétrica porque los dos triángulos son iguales. La suma de todos los
elementos de la matriz es igual a la varianza de la escala.
Los items pueden variar conjuntamente con otros items (covarianzas) o
separadamente (varianzas). Las covarianzas indican variación compartida por los items;
se puede decir que es varianza ‘buena’. En la diagonal principal, las varianzas indican
variación no compartida por los items; se puede decir que es varianza ‘mala’. Las
covarianzas indican consistencia de los items; las varianzas indican inconsistencia.
-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, U.de Viña del Mar, julianrc@uvm.cl
Cuanto mayores son los valores de las covarianzas y menores los de las varianzas, más
consistente es la escala.

La fórmula de α es:

⎛ k

k ⎜ ∑ si2 ⎟
α= ⎜1 − i=1 2 ⎟
k −1⎜ sx ⎟
⎜ ⎟
⎝ ⎠
2
en que k es el número de items, si2 es la varianza del ítem i, y s x es la varianza de la
escala total. La fórmula contiene un factor de corrección (k / k-1) y la proporción de
varianza ‘buena’ (igual a uno menos la proporción de varianza ‘mala’).

Los valores de α van de 0 a 1. Se considera que un valor superior a .70 ó .80 es


aceptable. Si es menor, pueden desecharse los items que menos aportan a la
confiabilidad de la escala (la salida de Spss indica qué pasaría si se eliminara cada ítem).

Se presenta abajo una salida de Spss a la que he agregado comentarios. Muestra


el análisis de la consistencia interna de una escala Likert.

Una escala Likert de cinco items es aplicada a doce personas. En la tabla de datos
siguiente, los items están en las columnas y las personas en las líneas.

ITEMS
1 2 3 4 5

3 2 1 4 3
4 2 2 4 4
4 3 2 5 3
3 2 2 5 2
2 1 1 4 2
3 1 2 3 3
4 4 3 5 3
4 3 3 5 4
3 3 2 4 4
2 3 1 3 2
3 3 3 3 3
5 4 3 3 3

--------------------------------------------------------------

Se muestra a continuación la matriz de covarianzas (llamada a veces,


como en esta salida de Spss, ‘de varianza-covarianza’). Es simétrica:
-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, U.de Viña del Mar, julianrc@uvm.cl
sus triángulos superior e inferior son iguales. Spss muestra sólo uno,
el inferior. En la diagonal principal aparecen las varianzas de cada
ítem.

VARIANCE-COVARIANCE MATRIX

ITEM1 ITEM2 ITEM3 ITEM4 ITEM5


ITEM1 0.787879
ITEM2 0.515152 0.992424
ITEM3 0.515152 0.492424 0.628788
ITEM4 0.181818 0.090909 0.090909 0.727273
ITEM5 0.363636 0.181818 0.272727 0.090909 0.545455

---------------------------------------------------------------

R E L I A B I L I T Y A N A L Y S I S - S C A L E (A L P H A)

N of
Statistics for Mean Variance Std Dev Variables
SCALE 15.0000 9.2727 3.0451 5

----------------------------------------------------------------

ITEM-TOTAL Statistics

Scale Scale Corrected


Mean Variance Item- Alpha
if Item if Item Total if Item
Deleted Deleted Correlation Deleted

ITEM1 11.6667 5.3333 .7687 .6098


ITEM2 12.4167 5.7197 .5374 .7064
ITEM3 12.9167 5.9015 .7118 .6436
ITEM4 11.0000 7.6364 .1929 .8175
ITEM5 12.0000 6.9091 .4683 .7281

Alpha = .7537

El coeficiente α es aceptable (.7537), pero la última columna (‘Alpha if Item Deleted’)


nos dice que puede aumentar a .8175 si se elimina el ítem 4. Se puede ver la baja
correlación de este ítem con el conjunto de los demás: .1929 (columna ‘Corrected Item-
Total Correlation’).

-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, U.de Viña del Mar, julianrc@uvm.cl
A continuación, los cambios que ha producido la eliminación del ítem 4:

R E L I A B I L I T Y A N A L Y S I S - S C A L E (A L P H A)

N of
Statistics for Mean Variance Std Dev Variables
SCALE 11.0000 7.6364 2.7634 4

ITEM-TOTAL Statistics

Scale Scale Corrected


Mean Variance Item- Alpha
if Item if Item Total if Item
Deleted Deleted Correlation Deleted

VAR00001 7.6667 4.0606 .7793 .6996


VAR00002 8.4167 4.2652 .5781 .8099
VAR00003 8.9167 4.4470 .7656 .7155
VAR00005 8.0000 5.4545 .4743 .8375

Alpha = .8175

Ejercicio 1. Calcular α a partir de la siguiente matriz de covarianzas. Después


calcularlo eliminando sólo el item1, después sólo el item 2, después sólo el item 3.

Item 1 Item 2 Item3


Item 1 10 5 4
Item 2 5 5 3
Item 3 4 3 8

Ejercicio 2. Analizar la siguiente salida de Spss para una escala de cinco items.

R E L I A B I L I T Y A N A L Y S I S - S C A L E (A L P H A)

Scale Scale Corrected


Mean Variance Item- Alpha
if Item if Item Total if Item
Deleted Deleted Correlation Deleted

ITEM1 14.0667 6.7810 .4441 .6667


ITEM2 12.4000 6.8286 .5282 .6434
ITEM3 12.4000 7.1143 .2396 .7515
ITEM4 13.1333 6.2667 .5402 .6282
ITEM5 12.5333 4.8381 .6430 .5696

Alpha = .7066

-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, U.de Viña del Mar, julianrc@uvm.cl
A veces puede aparecernos un α negativo. En la fórmula de α se puede ver que
k

∑s
i =1
2
i
esto es posible sólo si es mayor que 1, o sea, si el numerador es mayor que el
sx2
denominador. Para que esto ocurra, la suma de las covarianzas tiene que ser negativa.

Esto puede producirse:

(1) cuando los items negativos no han sido recodificados;

(2) si los items tienen realmente covarianzas negativas porque miden cosas diferentes, y
hay que rehacer la escala.

El coeficiente KR20 de Kuder-Richardson es usado para medir la consistencia


interna de escalas de items dicotómicos. La fórmula es similar a α, con la varianza (piqi)
del ítem dicotómico i.

⎛ k

k ⎜ ∑ pi q i ⎟
KR20 = ⎜1 − i=1 2 ⎟
k −1⎜ sx ⎟
⎜ ⎟
⎝ ⎠

Una escala de items dicotómicos presenta aseveraciones y las personas optan por
las respuestas ‘sí’ o ‘no’, con puntajes 1 y 0 respectivamente. p es la proporción de
personas de acuerdo con el ítem, y q es la proporción en desacuerdo; por lo tanto, p + q
= 1.

El promedio de un ítem dicotómico es p y su varianza es pq. Para demostrar esto


empecemos calculando el promedio Lo haremos con la siguiente tabla, en que las
frecuencias están expresadas en proporciones (p y q) cuya suma es n = 1.

x f fx
1 p p
0 q 0
1 p

-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, U.de Viña del Mar, julianrc@uvm.cl
El promedio de la variable dicotómica es: X =
∑ fx = p = p .
n 1

El promedio de un item dicotómico es la proporción de casos de acuerdo con el


ítem. Por lo tanto, si el promedio = p = .60, quiere decir que 60 % de las personas está
de acuerdo.

Que tenga sentido calcular el promedio de una variable dicotómica, que el


resultado sea interpretable, significa que es una variable cuantitativa. Hay que recordar
que esto es posible sólo si los valores asignados a las respuestas son 1 (sí) y 0 (no).

Demostremos que la varianza de un ítem dicotómico es pq usando la siguiente

tabla. La fórmula de la varianza en tablas de frecuencia es: s =


2 ∑ f ( x − X )2
n

x f x- X (x - X )2 f (x - X )2
1 p q q2 pq2
0 q -p p2 p2q
1 pq(p+q)

Dado que p+q=1, y que n=1, la varianza de un ítem dicotómico es:

Σ f ( x − X ) 2 pq
s2 = = = pq
n 1

El coeficiente KR20 fue creado por G. F. Kuder y M. W. Richardson a fines de


los años 30. El coeficiente α de Cronbach, creado unos quince años después, es una
generalización del KR20 para todo tipo de items.

INTERPRETACION DE PUNTAJES

La escala Likert diferencia personas: a mayor puntaje, más positiva es su actitud.


Sin embargo, no es posible interpretar un puntaje en forma absoluta, sino con respecto al
grupo. Salvo que una persona tenga el puntaje máximo o el mínimo, o muy cercanos a
ellos, no se puede decir que tenga una actitud positiva o negativa. No existe un puntaje

-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, U.de Viña del Mar, julianrc@uvm.cl
neutral; no lo es el puntaje central de la escala (el punto medio entre el mínimo y el
máximo posibles).

Tampoco estar sobre la mediana de los puntajes del grupo indica una actitud
positiva; sólo que se está en la mitad de la muestra que tiene una actitud más favorable (o
menos desfavorable).

Cuando los puntajes son estandarizados (se transforman a desviaciones standard:


puntaje z), los valores son referidos al grupo, y sirven para comparar.

Si se aplica la escala a una o más muestras, grande(s) y representativa(s) de una


población específica, se pueden asociar puntajes a percentiles. En este caso se habla de
establecer normas, que permiten interpretar puntajes refiriéndolos a la población. Se dice
que la escala ha sido estandarizada. Los puntajes, expresados en percentiles, sirven para
comparar, no ya con el grupo o muestra, sino con lo que podría ser considerada la
población.

VENTAJAS DE LA ESCALA LIKERT

• Es un instrumento estructurado, lo que disminuye sus problemas de confiabilidad:


las personas reciben los items presentados de la misma manera, con igual
introducción, recomendaciones, formato y opciones de respuesta.

• Aplicada en un cuestionario, es rápida y barata. Puede abarcarse a gran cantidad


de personas. El costo por persona es relativamente bajo.

• Como los items no consisten en preguntas sino en aseveraciones, la persona se


siente más libre para opinar sobre temas comprometedores. La ‘responsabilidad’
de lo afirmado en la aseveración se traslada del entrevistado al entrevistador.

• Como cada ítem tiene varias opciones y los puntajes de los items se suman, la
escala muestra las diferencias entre las actitudes de las personas. Esto hace
inncecesario formular items extremos (que además no discriminan) para detectar
diferencias.

• Los datos que produce son fáciles de manejar usando programas estadísticos, que
habitualmente contienen los coeficientes necesarios para evaluar las propiedades
de la escala.

• Si la escala tiene buena validez y confiabilidad, puede ser usada como


instrumento permanente.

-----------------------------------------------------------------------------------------------------------
J. Rodríguez Cano, U.de Viña del Mar, julianrc@uvm.cl

Vous aimerez peut-être aussi