Vous êtes sur la page 1sur 23

GUÍA DE CONTENIDOS TEÓRICOS

● 1.- Fuentes de variación sistemática y fortuita. Variaciones previsibles e

imprevisibles. Comprender estos conceptos, distinguir unos de otros y vincularlos. Saber

aplicarlos a un ejemplo breve y claro. Cap. 1 de Reuchlin.

Las variaciones de las conductas son previsibles cuando se conoce la situación, el momento o la persona.

Por otra parte, estas variaciones de las conductas son imprevisibles a partir de las informaciones de las

que dispone el observador. El psicólogo utiliza a menudo el método estadístico precisamente porque este

método permite tratar con más variaciones previsibles y variaciones imprevisibles. Por ejemplo:

● En experiencias de medida de los tiempos de reacción (1er ejemplo reuchlin tiempo que tarda

en reaccionar un sujeto para presionar un botón cuando la luz de una bombilla es de

determinado color con variación previsible y significativa)

● Experiencia de aprendizaje (2do ejemplo cantidad de palabras recordadas por un sujeto tras

varias repeticiones) En este ejemplo ocurren dos tipos de variaciones en la conducta: En el

periodo de adquisición hay variaciones previsibles, que hacen que en cada ensayo se tienda a

observar un resultado mejor, y variaciones imprevisibles

● Encuesta sobre el desarrollo intelectual (3er ejemplo aplicación de un test de inteligencia a un

grupo de niños de 9,10 y 11 años) se comprueba que el desarrollo intelectual cambia de ma

nera previsible con la edad sin embargo no todos los niños de la misma edad obtienen el

mismo resultado en el test osea hay variaciones imprevisibles.

Ahora bien, las variaciones que son imprevisibles porque no están asociadas a ninguna fuente de variación

sistemática, en el caso del primer ejemplo el de la bombilla roja no se introdujo ninguna diferencia

sistemática entre dos presencias de la misma bombilla roja o en el 2do ejemplo tampoco se introdujo

ninguna diferencia sistemática entre el examen de un niño de 9 años y el de otro de la misma edad. LAS

VARIACIONES IMPREVISIBLES SE ATRIBUYEN A UN CONJUNTO DE FUENTES FORTUITAS DE

VARIACIÓN para el experimentador o encuestador.

Las variaciones que son previsibles porque están asociadas a fuentes sistemáticas de variación. Si el

experimentador compara 20 tiempo de reacción frente a un estímulo único (bombilla roja) con 20 tiempo

de reacción frente a un estímulo que debe escogerse entre 3 estímulos posibles (bombillas roja, verde,

amarilla) es porque prevé que el proceso mental, más complejo en la 2da experiencia, agrandará de manera

significativa los tiempos de reacción. LAS VARIACIONES PREVISIBLES SE ATRIBUYEN A UN

CONJUNTO DE FUENTES SISTEMÁTICAS DE VARIACIÓN. OJO: que en muchas experiencias o

encuestas, las observaciones vienen afectadas por varias fuentes sistemáticas de variación como en el
ejemplo del desarrollo intelectual de niños se comprobó que la edad no era la única fuente sistemática de

variación que afecta al desarrollo intelectual como por ejemplo la profesión del padre del niño examinado.

Atención: En los ejemplos han aparecido algunas variaciones como no previsibles, es decir, no atribuibles a

una fuente sistemática identificada pero estas variaciones poseen estos caracteres sólo en ciertos

momento de la experiencia o no se la encuentra, pueden perderlos si se aportan nuevos conocimientos o

nuevos medios de observación. Por ejemplo en las variaciones imprevisibles en el caso del desarrollo

intelectual entre niños de la misma edad la continuación de la encuesta demostró que eran atribuibles en

parte a los efectos de una fuente sistemática de variación: el medio en el cual se educaba al niño.

2.- Concepto de medición. Propiedades de cada nivel de medición. Ejemplificar. Transformaciones

admisibles. Botella 1.3, pág. 25.

SE LLAMA MEDICIÓN AL PROCESO DE ATRIBUIR NÚMEROS A LAS CARACTERÍSTICAS, porque

la estd no realiza sus funciones directamente sobre las modalidades observadas, sino que éstas se

representan por números, y la estadística realiza sus funciones sobre esos números. Medir es asignar

numerales, u otros símbolos, a los objetos siguiendo ciertas reglas de modo que las propiedades empíricas

de dichos objetos se vean reflejadas en los números o símbolos que las representan. En otras palabras

medir es representar un sistema relacional empírico (cosas del mundo) con un sistema relacional

numérico (simbolización) mediante un homomorfismo y que es el homo…son fórmulas matemáticas o

algebraicas. Según cuales sean las relaciones que se verifican en el sistema relacional empírico (SRE)

Stevens ha clasificado las escalas en 4 niveles de medición:

NIVEL NOMINAL: (A dft B) en donde medir tienen el sentido de clasificar. Por ejemplo qué tipo de

personalidad tienen una persona, sexo, diagnóstico psicopatológico, estado civil, nacionalidad, tipo de

sangre, asignatura preferida.

● En el conjunto de objetos hay definida una relación de equivalencia por lo que quedan

determinadas clases exhaustivas y excluyentes.

● Los números sólo deben entenderse como códigos, como tales, pueden ser sustituidos por

cualquier otro que respete la regla de asignación. Por tanto está caracterizado por las

transformaciones inyectivas[Símbolo]

● DIFICULTAD: Definir clases verdaderamente exclusivas y exhaustivas.

NIVEL ORDINAL: (A mayor o menor que B) Se agrega una relación de orden entre los objetos, luego

tiene sentido decir que uno es mayor que otro aunque no se precise que tan mayor es. Ejem: predisposición

hacia la materia: muy mala (1), mala (2…), indiferente, buena, muy buena. Otro ejemplo seria la medición de

la dureza de los minerales.


● Los números solo indican un rango o jerarquía.

● Pueden ser sustituidos por otros que conserven el mismo orden por lo que este nivel queda

caracterizado por las transformaciones monótonas crecientes.

● DIFICULTAD: satisfacer la asimetría o la transitividad del orden. Ejem imágenes sensoriales

de un individuo según su poder de evocación.

NIVEL INTERVALAR: Está definida la distancia entre dos valores de la escala, es decir, existe una

unidad de medición. Ejemplo: temperatura, el calendario,la inteligencia.

● Puede precisarse cuantas unidades es mayor un valor que otro

● Tiene sentido comparar las diferencias entre los números. Ejemplo la temperatura, CI

● Caracterizado por las transformaciones afines (Y=a+bx)

● El cero es arbitrario, es decir, puede o no tomar el valor cero.

NIVEL DE RAZÓN: Se agrega la existencia de un cero absoluto, con significado no convencional, que

puede entenderse como ausencia de la característica que se quiere medir. Por tanto tiene sentido decir

que un valor es el doble de otro, es decir: tiene sentido interpretar las razones, por ejem las magnitudes

físicas usuales como el peso, longitud etc

Se dice que una transformación de los números asignados en una escala es una TRANSFORMACIÓN

ADMISIBLE si preserva las características que definen a esa escala, es decir, si los números

transformados también representan al sistema empírico.

3.- Conceptos de variable y variable estadística. Su clasificación. Ejemplificar. Glosario.

VARIABLE ESTD: En el proceso de medición se asignan números a los objetos según unas reglas, y el

conjunto de valores numéricos atribuidos a las modalidades de una característica constituyen lo que

llamamos variable estadística. Una variable estadística es una representación numérica de una

característica.

VARIABLE O CARACTERÍSTICA: Es una característica de un fenómeno observable en los individuos de

una población. Es una variable propiamente dicha cuando presenta diferentes modalidades (dos o más)

entre los individuos. Si se presenta bajo una única modalidad se dice que es una característica constante.

Las variables pueden clasificarse de varias formas, de acuerdo con el tipo de valores que pueden tomar en:

Variable cualitativa: es aquella cuyos valores expresan atributos; Variable cuasi-cuantitativa: es aquella

cuyos valores indican un orden de jerarquía. Las variables cuantitativas (sean de intervalo o razón)

pueden a su vez clasificarse en variables discretas y variables continuas, en función del número de

valores asumibles por ellas. Una variable discreta es aquella que adopta valores aislados. Por tanto, fijados

dos consecutivos, no puede tomar ninguno intermedio, por ejem número de hijos, número de piezas
dentales que conservan los internos de una residencia de ancianos, numero de libro leídos el verano

pasado, numero de materias aprobadas el cuatri pasado etc.

En las variables continuas entre dos valores cualesquiera, por próximos que sean, siempre pueden

encontrarse valores intermedios como por ejemplo la longitud, la duración de sucesos o el peso. Las

variables estadísticas se simbolizan por letras mayúsculas latinas, y generalmente con un subíndice, para

distinguirlas de las constantes.

4.- Definiciones de población y muestra de individuos y de observaciones. Ejemplificar. Glosario

Población de Individuos: Es el conjunto de todos los elementos sobre los cuales se observa una o más

características de interés. A los elementos que componen una población se les denomina entidades

estadísticas o individuos que pueden ser personas, animales, objetos o números. Ejem del libro personas

que integran la plantilla de mandos intermedios de la empresa abc, o los ciudadanos de España en edad de

votar en el ejemplo del referéndum. En el caso de la inoculación de estrés es toda la especie humana etc.

La población puede ser finita o infinita. Ejemplos sobre el patrón a, la inoculación de estrés y el sondeo

son casos de poblaciones finitas, puesto que ellas los elementos se podrían contar, obteniendo un número

finito. El número de lanzamientos posibles de un dado, el conjunto de los números pares o la población de

nuestro ejemplo sobre tiempo de reacción son casos de poblaciones infinitas puesto que teóricamente no

tienen un límite.

Población de observaciones: es el conjunto de todos los valores que pueden tomar una variable

estadística sobre la población de individuos. Nótese que sobre una misma población de individuos se

pueden definir muchas poblaciones de observaciones, tantas como variables de interés. Ejemplo

adaptación al medio en el caso de ejemplo de inoculación al estrés, u horas de trabajo a la semana, tipo de

alimentación que lleva etc.

Muestra de Individuos: es un subconjunto o parte de una población de individuos. Cuando hablamos de

unidades como de la población objetivo o de individuos o de la muestra de individuos, estas entidades

deben ser situadas en el espacio (situación geográfica) y en el tiempo (año o fecha). Como generalmente

las muestras se extraen con fines inferenciales; esto es, para tener conocimiento de lo que acontece a

nivel poblacional, es de desear que sean representativas de las respectivas poblaciones. Por ejemplo

suponiendo que se quiere estudiar la estatura de los españoles y para ello nos situamos en una calle de la

ciudad que por casualidad está cerca del polideportivo donde se practica basket los datos que

recogeremos no serán representativos. Para favorecer la representatividad de las muestras, la llamada


Teoría de Muestreo ha desarrollado diversidad de métodos. Uno de ellos es la elección al azar de las

unidades muestrales.

Muestra de Observaciones: es el conjunto de valores que toma una variable estadística sobre una

muestra de individuos; es decir, es un subconjunto de la población de observaciones. (Tomar ejemplos

ejercicio de la guía)

5.- Definiciones de parámetro, estadístico y estimador. Ejemplos de cada uno. Glosario.

PARÁMETRO: Es una característica fija, generalmente numérica, de la población de valores de una

variable. Las poblaciones pueden caracterizarse a partir de unas constantes denominadas parámetros.

Como normalmente los parámetros son desconocidos, una de las tareas de la estadística es la de hacer

conjeturas lo más acertadas posibles acerca de esas cantidades. En otras palabras un parámetro es una

propiedad descriptiva de una población. Por ejem el estrés medio de los seres humanos que como es

desconocido normalmente se hacen conjeturas sobre ella a partir de cantidades similares obtenida en la

muestra. Es casi seguro que el estrés medio de los 40 individuos de la muestra antes de aplicar el

tratamiento no es idéntico al de la población , pero si la muestra utilizada es realmente representativa

probablemente la media poblacional, o parámetro, no difiera mucho de la media muestral o estadístico.

un ESTADÍSTICO, es una propiedad descriptiva de una muestra. Los parámetros y estadísticos no sólo

son medias sino que pueden ser otro tipo de cantidades como porcentajes x ejem en el sondeo del

referéndum en España el porcentaje de la población con intención de votar es un parámetro. Otro ejem

más psico sería la eficacia de un método terapéutico en la rehabilitación de enfermos alcohólicos, ante la

dificultad económica y la imposibilidad material que supone utilizar para la experiencia a todos los

enfermos alcohólicos decide tomar 100 individuos que vienen a consulta a lo largo de un mes (muestra

representativa) utiliza el método con cada uno de los 100 y tras el seguimiento observa que no reinciden

60, significa que se ha rehabilitado el 60 por cien de los enfermos EL VALOR 60 ES UN ESTADÍSTICO.

Estimador: es un estadístico cuyos valores se consideran próximos a un parámetro que, por ser

generalmente desconocido, se desea estimar.

6.- Definiciones de frecuencia absoluta, relativa y porcentual. Ejemplificar situaciones en que puede

preferirse una a otra. Glosario y Botella 2.2, pág. 50.

La frecuencia absoluta de un valor Xp (Y se simboliza por np, ) Nos dice la cantidad de veces que se repite

un valor de la variable en la muestra. Siendo la sumatoria de la frecuencia absoluta igual al tamaño de la

muestra. En el ejem de número de hijos la frecuencia absoluta permite ver que el tamaño de familia más

frecuente en la muestra es la de 2 hijos.


Se llama frecuencia relativa de un valor xp (y se simboliza por pp ) al cociente entre la frecuencia absoluta

de ese valor y el tamaño de la muestra. Siendo la sumatoria igual a 1. Por ejemplo a partir de la frecuencia

relativa podemos obtener la frecuencia relativa acumulada por medio de la cual se pueden hacer

deducciones de proporciones, tomando el ejemplo anterior se podría decir que solo una proporción de 0,20

de las familias (una de cada cinco) supera la barrera de la autorreproducción

Frecuencia porcentual se obtiene al multiplicar por 100 cada frecuencia relativa, la sumatoria debe dar

100.

7.- Gráficos adecuados para representar las distribuciones de frecuencias según los distintos tipos

de variables. Botella 2.3.

A partir de las distribuciones de frecuencias se pueden construir representaciones gráficas, que tienen

como función dar informaciones globales mediante un solo golpe de vista.

a)Diagrama de rectángulos: PARA VARIABLES NOMINALES Y ORDINALES. Para este diagrama, se

colocan en el eje de abscisas las modalidades (o los números que las representan), y en el eje de ordenadas

las frecuencias (absolutas, relativas, etc). Sobre cada modalidad se levanta un rectángulo cuya altura es la

frecuencia correspondiente. EJEMPLO:

*Color de pelo, calificaciones en estadística, preferencias deportivas, estado civil, nivel cultural etc.

b) Diagrama de barras: SE UTILIZA EN VARIABLES CUANTITATIVAS DISCRETAS. Para este

diagrama, se colocan en el eje de abscisas los distintos valores de la variable y en el eje de ordenadas las

frecuencias. Sobre cada valor de la variable se traza una línea perpendicular cuya altura debe ser igual a

la frecuencia. EJEMPLO: número de hijos, promedio de rendimiento académico, grupo sanguineo.

*Un estudio hecho al conjunto de los 20 alumnos de una clase para determinar su grupo sanguíneo ha dado

el siguiente resultado.

grupo sanguíneo fi
A 6

B 4

AB 1

0 9

c)Histograma: PARA VARIABLES CONTINUAS CON DATOS AGRUPADOS EN INTERVALOS. En el eje

de abscisas se colocan los límites exactos de los intervalos, y en el eje de ordenadas las frecuencias.

Sobre cada intervalo se levanta un rectángulo cuya altura sea igual a la frecuencia correspondiente.

EJEMPLO:

*Los histogramas son más frecuentes en ciencias sociales, humanas y económicas que en ciencias naturales

y exactas. Y permite la comparación de los resultados de un proceso. Como en la demografía ( cantidad de

personas) de un país, nacimientos, adultos, niñez, índice de escolaridad, etc.

d) Polígono de frecuencias: PARA VARIABLES CONTINUAS Y DISCRETAS. El polígono es la figura que

resulta de unir los extremos superiores de las que hubieran sido las barras. EJEMPLO:

*Las temperaturas en un día de otoño de una ciudad han sufrido las siguientes variaciones
*DIAGRAMA DE TALLOS Y HOJAS: Las distribuciones de frecuencias no son el único medio para

resumir y exponer conjuntos de datos, y es el diagrama de tallos y hojas una de las alternativas. Su

obtención requiere separar cada puntuación en dos partes:

-el primer o primeros dígitos, que reciben el nombre de tallo y el dígito o dígitos restantes, que reciben el

nombre de hojas. EJEMPLO:

* X:87 ---- (8,tallo y 7,hoja).

*Horarios de trenes, comparar dos distribuciones.

El diagrama de tallo y hojas tiene varias VENTAJAS SOBRE LA DISTRIBUCIÓN E INCONVENIENTES.

Como ventaja permite identificar cada puntuación individual. En las distribuciones clásicas sólo conocemos

las frecuencias del intervalo, y eso nos obliga a tratar los datos de ciertas maneras distorsionadas, pero lo

que no facilita como la distribución clásica, es el cálculo de estadísticos.

El diagrama ofrece un listado de las puntuaciones como un dibujo de la distribución; al contener los valores

de cada observación es más fácil de modificar para obtener un dibujo con un nivel de detalle distinto;

pueden representarse dos conjuntos de datos en el mismo diagrama, con lo que facilita la comparación.

8.- Medidas de posición. Su utilidad. Botella 3.1, pág. 83. Concepto de centiles para variables continuas.

Botella 3.2, pág. 83. Definiciones de los diferentes cuantiles. Niveles de medición donde tiene sentido su

cálculo. Generalización del concepto de cuantiles a variables cuasicuantitativas y discretas. Deducirlo a

partir de los ejercicios de la práctica.


Las medidas de posición nos facilitan información sobre la serie de datos que estamos analizando. Nos

permiten conocer diversas características de esta serie de datos. Las medidas de posición son de dos

tipos:

a) Medidas de posición central: que informan sobre los valores medios de la serie de datos. Dan cuenta

de la magnitud general de las observaciones (media, mediana y moda).

b)Medidas de posición no centrales: informan cómo se distribuye el resto de los valores de la serie. Las

medidas de posición no centrales permiten conocer otros puntos característicos de la distribución que no

son los valores centrales. Las medidas de posición son los CUANTILES, que expresan cada valor en

términos de porcentaje de observaciones a las que supera. Se suelen utilizar una serie de valores que

dividen la muestra en tramos iguales. Distintos cuantiles son: los centiles, los deciles, cuartiles, quintiles.

CENTILES O PERCENTILES: son 99 valores que divide a la serie de datos en cien partes iguales. El

primer centil supera al 1% de los valores y es superado por el 99% restante. LOS CENTILES SON

99VALORES QUE DETERMINAN 100 INTERVALOS EN EL RECORRIDO DE LA VARIABLE

(cuasicuantitativa o discreta). Son muy usados en ciencias del comportamiento.

DECILES:son 9 valores que divide a la serie de datos, en 10 partes iguales. Cada una conteniendo el 10%

por 100 de las observaciones.

CUARTILES: son 3 valores que divide a la serie de datos, en 4 partes iguales. Cada una conteniendo el

25% de los resultados.

9.- Medidas de tendencia central. Su utilidad. Botella 4.1.

Las medidas de tendencia central son un tipo de medida de posición particular con respecto a otras

medidas de posición. Actúan como resúmenes numéricos de las observaciones hechas, como índices,

representan la magnitud general observada en los valores y también sirven para comparar conjunto de

valores. Por ejemplo nos es útil si estamos interesados en saber si en general la motivación de logro de los

niños que están incluidos en un programa piloto de enseñanza siguiendo el método Suzuki es mayor que la

de los niños que siguen el método clásico, ASÍ EN LUGAR DE COMPARAR A ESOS GRUPOS MEDIANTE

SUS CONJUNTOS DE VALORES DIRECTOS SE SUELE HACER COMPARANDO ESTOS ÍNDICES.

Los índices más utilizados para describir ciertas características de las distribuciones de frecuencia son la

MEDIA, la MEDIANA, y la MODA. Son valores únicos que captan y comunican mejor la distribución como

un todo.

Media aritmética. Definición. Propiedades. Interpretación. Botella 4.2. Ejemplos de aplicación. Niveles de

medición donde tiene sentido su cálculo. Es el índice de tendencia central más utilizado. Se define como
la suma de los valores observados, dividida por el número de ellas. Ejemplo la media de las

calificaciones 6-9-9 es (6+9+9)/3=8. El procedimiento para hacer los cálculos de la media con datos

agrupados en una distribución de frecuencias:

Propiedades de la media aritmética:

A las puntuaciones que hemos venido tratando hasta aquí, y que no son más que los valores brutos, las

denominaremos a partir de ahora puntuaciones directas y las representaremos por la letra de la variable

en mayúscula. Por el contrario, a las diferencias de cada sujeto con respecto a la media grupal las

denominaremos puntuaciones diferenciales y las representaremos por la letra minúscula (ejemplo en la pag

104 modulo 3):

Con las puntuaciones diferenciales podemos dar una información más precisa que con las directas.

1º La suma de las diferencias de n puntuaciones con respecto a su media o puntuaciones

diferenciales es igual a cero.

La razón por la que la suma de las diferenciales es igual a cero es que unas son positivas y otras negativas

(las que superan la media y las que quedan por debajo de ella) y se compensan con otras.

2º La suma de los cuadrados de las desviaciones de unas puntuaciones con respecto a su media es

menor que con respecto a cualquier otro valor.

A veces nos interesará sumar a las puntuaciones observadas una cantidad constante, y en esos casos

también nos interesará conocer la media de las nuevas puntuaciones.

3º Si sumamos una constante a un conjunto de puntuaciones, la media aritmética quedará aumentada

en esa misma constante.Pero las puntuaciones no sólo pueden transformarse sumando constantes,

también lo pueden hacer multiplicando constantes.

4º Si multiplicamos por una constante a un conjunto de puntuaciones, la media aritmética quedará

multiplicada por esa misma constante.En algunos casos contamos con la media de varios grupos en

una variable y nos interesa conocer la media de todas las observaciones juntas. Su fórmula suele

denominarse media ponderada.

5º La media total de un grupo de puntuaciones, cuando se conocen los tamaños y medias de varios

subgrupos hechos a partir de un grupo total, mutuamente exclusivos y exhaustivos, puede

obtenerse ponderando las medias parciales a partir de los tamaños de los subgrupos en que han

sido calculadas.Otra situación relativamente frecuente es aquella en la que se forma una variable a

partir de una combinación lineal de dos o más variables, e interesa conocer la media de la variable

resultante.

6º Una variable definida como la combinación lineal de otras variables tiene como media la misma

combinación lineal de las medias de las variables intervinientes en su definición.


De todo ello se desprende que, en rigor, el cálculo de la media sólo tiene sentido para resumir datos que

pertenecen a un nivel por lo menos intervalar.

Mediana. Concepto generalizando el de Botella 4.3 a variables cuasicuantitativas y a discretas. Niveles de

medición donde tiene sentido su cálculo. Es el índice, la puntuación que es superada por la mitad de las

observaciones pero no por la otra mitad. Para su cálculo podemos encontrarnos en dos casos generales,

aquel en el que contamos con un número impar de observaciones y aquel en que nos encontramos con un

número par de ellas. En el primero se toma como mediana el valor central, en el segundo se da la

circunstancia de que cualquier valor comprendido entre los dos centrales cumple con la definición de la

mediana.

Como su definición supone un ordenamiento de los valores de la variable, su cálculo tiene sentido a partir

del nivel ordinal.

Moda. Concepto. Botella 4.4. Niveles de medición donde tiene sentido su cálculo. Una tercer vía para

representar la tendencia central de un conjunto de valores consiste en informar del valor más

frecuentemente observado. En esta idea se basa nuestro tercer índice de tendencia central, la moda, que

se representa por Mo, y se define sencillamente como el valor de la variable con mayor frecuencia

absoluta. Puede usarse en todos los niveles de medición.

Comparación entre medidas de tendencia central. Botella 4.5. Ejemplos de situaciones donde puede ser

más representativa la mediana que la media. Ej. 14, práctica III.

COMPARACIÓN.

¿Con qué criterios elegimos uno sobre los demás para representar la magnitud general observada en unos

valores o para comparar la de dos o más grupos de valores? Si no hay ningún argumento de peso en contra,

se preferirá siempre la media. Hay dos razones para apoyar esta normal general. La primera es que en

ella se basan otros estadísticos y la segunda es que es mejor estimador de su parámetro que la mediana y

la moda. Este segundo argumento significa que, en términos generales, las medias halladas sobre muestras

representativas se parecen más a la media poblacional que lo que se parecen las medianas y modas

muestrales a la mediana y la moda poblacional. Hay al menos tres situaciones en las que se preferirá la

mediana a la media: a) cuando la variable esté medida en una escala ordinal; b) cuando haya valores

extremos que distorsionen la interpretación de la media y c) cuando haya intervalos abiertos. Este tercer

y último caso se refiere a situaciones en las que el intervalo superior carece de límite superior, el

intervalo inferior carece de límite inferior, o ambas cosas a la vez.


La mediana será la segunda candidata para representar la tendencia central y por tanto, si no hay

argumentos de peso en contra, se preferirá la mediana a la moda. Pero hay al menos dos situaciones en las

que se dará esa preferencia: a) cuando se trate de una variable medida en una escala nominal, b) cuando

haya intervalos abiertos y la mediana pertenezca a uno de ellos.

En algunos casos los tres índices de tendencia central dan valores parecidos, o incluso pueden coincidir

exactamente.

10.- Medidas de variación. Su utilidad. Botella 5.1.

Además de estudiar los valores centrales de una distribución, es importante también conocer si los valores

en general están cerca o alejados de estos valores centrales, para “ver” si estos valores son o no son

representativos. Además de querer conseguir una visión más completa y comprensiva de los datos. Es por

ello que surge la necesidad de estudiar esta propiedad, denominada como MEDIDAS DE VARIABILIDAD.

Ojo que la tendencia central y la variabilidad son propiedades diferentes, y pueden haber grupo de datos

con la misma tendencia central y diferente variabilidad.

Varianza y Desviación típica. Información que proporcionan, Botella 5.2.1. Propiedades, Botella 5.2.2.

Niveles de medición donde tiene sentido su cálculo.

La Varianza sirve sobre todo para comparar el grado de dispersión de dos o más conjuntos de valores en

una misma variable, si las medias son “similares”. Llegando por ejemplo a conclusiones como la siguiente: “La

población de hombres presenta una mayor variabilidad en su estatura que la población de mujeres que son

más homogéneas en esa característica”. La varianza es sensible a los distintos grados de concentración en

torno al valor medio. El resultado de la varianza indica un grado de variabilidad que no se valora en términos

absolutos, sino en términos comparativos ejemplo en la pag 24 del módulo 2 (el que encontré tirado en la

facu :/) carece de sentido comparar la varianza de variables distintas. Tampoco es razonable comparar las

varianzas cuando las medias son muy diferentes como por ejemplo al estudiar la variabilidad del peso de un

conjunto de bebes y otro de adultos, como las medias son muy distintas las varianzas respectivas contienen

este efecto y por lo tanto se tornan incomparables.

La desviación típica es otro índice de variabilidad y se define como la raíz cuadrada de la varianza y los

valores que resultan SÍ PARECEN DAR CUENTA DE LA “SEPARACION” PROMEDIO. (ver ejemplo en

apuntes pag 26 modulo 2)

PROPIEDADES:

1. La varianza y la desviación típica, como medidas de dispersión son valores no negativos.


2. Si se suma una constante a un conjunto de puntuaciones, la varianza no se modifica.

3. Si se multiplica por una constante a un conjunto de puntuaciones, la varianza de las nuevas

puntuaciones es = al producto de la varianza de las originales por el cuadrado de la constante.

Su cálculo tiene sentido en un nivel de medición intervalar.

Otras medidas de variación, Botella 5.2.3. Una forma muy sencilla el grado de dispersión consiste en

calcular la distancia entre el mayor y el menor de los valores observados. Este índice se llama amplitud

total, rango o recorrido y se obtiene sencillamente hallando la diferencia entre los valores extremos.

Distinción entre ambos tipos de amplitud, que se denomina rango excluyente y rango incluyente, usadas en

variables discretas y continuas. Esto es muy sensible a los valores extremos y nada sensibles a los

intermedios, pudiendo carecer de toda representatividad. Otro inconveniente de este índice es que está

ligado al tamaño de la muestra utilizada. Si se quiere comparar la variabilidad de las dispersión de dos

conjuntos de datos de tamaño marcadamente distinto, es probable que la muestra de mayor tamaño

presente una mayor amplitud aunque las poblaciones de referencia tengan la misma variabilidad. Desviación

media: tomar las desviaciones con respecto a la media, o puntuaciones diferenciales, en valores absolutos.

Amplitud semi-intercuartil: basado en las puntuaciones correspondientes a los cuartiles primero y tercero.

Coeficiente de variación. Información que proporciona. Su utilidad. Ejemplos. Niveles de medición donde

tiene sentido su cálculo.

Sirve para comparar la variabilidad de grupos cuya media es distinta. Este índice es expresado como un

porcentaje. En otras palabras expresa la desviación estándar relativa a la media en unidades de 100. ES

UTIL PORQUE: Este coeficiente permite comparar la variabilidad de grupos cuando las medias son muy

diferentes como lo dije antes, también puede considerarse como un índice de representatividad de la media.

Cuanto mayor es el coeficiente de variación menos representativa es la media. Un ejemplo sería una

situación en la que queramos comparar el grado de variabilidad en los tiempos empleados por dos grupos de

varones y mujeres en correr los cien metros lisos. Los hombres son, en promedio, más rápidos que las

mujeres (ehhh machismo! XD) y una mayor media va acompañada muchas veces por una mayor varianza. En

este caso podrían compararse los coeficientes de variación y no las varianzas. SU CALCULO TIENE

SENTIDO EN UN NIVEL DE MEDICIÓN DE RAZÓN.

Entropía. Concepto. Reuchlin, cap. 2. Es un resumen estadístico para variables cualitativas por tanto es útil

en un nivel de medición nominal y ordinal. La entropía cuantifica el nivel de incertidumbre acerca de la

clase a la que pertenece un dato. Por ejemplo si hubiera que arriesgarse a adivinar qué color eligió
cualquiera de los sujetos para representar la palabra paz diríamos que blanco ya que fue el color más

elegido, sin embargo, hay cierta incertidumbre que sería menor si hubieran sido 30 y no 16 los que eligieron

blanco y sería mucho mayor la incertidumbre si la distribución fuera 8 en todos los colores propuestos, en

ese caso las opiniones están muy repartidas, el grupo es heterogéneo. A MAYOR ENTROPIA, MAYOR

DISPERSIÓN DE LOS DATOS Y MAYOR INCERTIDUMBRE ;)

Se diferencia de la moda porque está resume solo un aspecto de la info contenida en la distribución: indica a

qué clase hay más posibilidad de que pertenezca la observación sacada al azar del conjunto de

observaciones, pero no permite saber si las posibilidades de pertenecer a otra clase son muy diferentes o

solamente poco diferentes dicho de otro modo si las observaciones son muy diferentes o poco diferentes, si

su distribución está muy dispersa o poco dispersa.

11.- Rango percentilar. Concepto y utilidad. Ejemplificar. Welkowitz. Concepto y utilidad de los perfiles en

Psicología. Práctica 4, ejercicio 9. 3

Es la medida inversa del percentil. Dada una medida concreta, como puede ser la calificación de una alumna

en Música, su rango percentil equivale al percentil más cercano a esa calificación. Un alumno que tenga rango

percentil de 78 es aquel en el que el 78% de sus compañeros tiene una puntuación inferior a él.

El rango percentil se calcula dividiendo la frecuencia acumulada entre el total de datos (N) multiplicado por

100. Un rango percentil debe expresarse en relación a algún grupo de referencia.

Y se utiliza, cuando se quiere averiguar un porcentaje de un valor que cae dentro de los intervalos de la

variable.

EL RANGO PERCENTIL ES EL PORCENTAJE DE CASOS EN UNA DISTRIBUCIÓN QUE CAE POR

DEBAJO DE UN PUNTAJE DADO.

12.- Puntuaciones típicas. Puntaje Z. Definición. Información que proporciona. Propiedades. Utilidad.

Ejemplos. Botella 6.2. Escalas derivadas. Obtención de los puntajes T, CI y S. Botella 6.3.

Como la comparación de puntuaciones directas puede llevarnos a conclusiones engañosas otra de las

soluciones es transformar las puntuaciones observadas en otras, que sin perder o distorsionar la

información contenida en las puntuaciones originales, permitan una comparación directa de las mismas. Los

instrumentos desarrollados para ello son las puntuaciones típicas y las escalas derivadas.
La PUNTUACIÓN TÍPICA de una observación indica el número de desviaciones típicas que esa

observación se separa de la media del grupo de observaciones. PERMITEN por tanto HACER

COMPARACIONES ENTRE UNIDADES DE DISTINTOS GRUPOS, ENTRE VARIABLES MEDIDAS DE

DISTINTAS FORMAS E INCLUSO ENTRE VARIABLES DIFERENTES. En cualquier caso, las

puntuaciones típicas siempre nos indicarán el número de desviaciones típicas que se separan de la

media. Esta simplificación es de suma utilidad, y se traduce en que las puntuaciones típicas tienen unas

características de tendencia central y variabilidad constantes. Por ejem:

Matías obtuvo 10 puntos en una prueba de razonamiento lógico, 13 en el de razonamiento verbal y 12 en

memoria visual. Se sabe que las medias y las desviaciones típicas de los puntajes de cada prueba resultas

por sus compañeros son 8,1 /12,2/y 14,2 respectivamente ¿En qué prueba obtuvo el mejor rendimiento? El

Z en rl = (10 - 8)/1=2 en rv =0.5 y en mv= -1 por lo tanto, Matías tuvo mejor rendimiento en rl dado que

sus diez puntos están 2 desvíos por arriba de la media.

OJO: LAS PUNTUACIONES TÍPICAS PERMITEN HACER COMPARACIONES, LLEVANDO LOS

RESULTADOS A UNA ESCALA COMÚN.

En conclusión son útiles en los siguientes casos:

1. Al hacer comparaciones entre unidades de distintos grupos. Es decir, podemos comparar, mediante

las puntuaciones típicas, distintas observaciones de un mismo sujeto o de sujetos diferentes.

2. Al hacer comparaciones entre variables medidas de distinta forma. Esto se debe a que las

puntuaciones típicas son adimensionales. Por ejemplo comparar la posición relativa de una altura

expresada en centímetros con otra expresada en metros.

3. Al comparar observaciones de distintas variables. Por ejemplo, podemos comparar el peso y la

altura de un sujeto con las respectivas normas.

PROPIEDADES: La media de las puntuaciones típicas es cero, mientras que su varianza y desviación típica

son iguales a uno. Y los dos conjuntos de puntuaciones son equivalentes, si lo son sus respectivas

puntuaciones típicas. Las puntuaciones típicas tienen indudables ventajas, pero tienen el inconveniente de

que algunas son negativas y casi todas son decimales. Por esta razón se han buscado procedimientos que

permitan resolver estas dificultades. Un procedimiento consiste en transformar las puntuaciones típicas

en otras que retengan todas las propiedades de las puntuaciones originales y que constituyen lo que se

denomina una:

ESCALA DERIVADA, esta se obtiene transformando las puntuaciones típicas mediante una función lineal.

Algunas escalas derivadas tienen nombre propio como las puntuaciones T con media 50 y desviación

típica 10 y las puntuaciones S con media 5 y desviación típica 2


Una de las transformaciones más conocida es la que convierte las puntuaciones directas en inteligencia en

una escala derivada CI (cociente intelectual) con media 100 y desvío típico 15.

En resumen la construcción de una escala derivada parte de unas puntuaciones directas, éstas se tipifican,

y después se transforman linealmente en otras puntuaciones. La cuestión fundamental de las escalas

derivadas consiste en transformar las puntuaciones originales, Xi, en otras puntuaciones transformadas,

Ti, tales que sean más cómodas de tratar e interpretar, pero que a la vez retengan las relaciones

comerciales entre los valores, es decir, que sean puntuaciones equivalentes.

13.- Asimetría. Concepto y tipos de asimetría. Botella, cap. 7. Relación con la dificultad de una prueba y

el grupo al que mejor discrimina. Respuesta del ejercicio 24 de la Práctica III.

Las medidas de asimetría y curtosis también permiten describir y comparar las distribuciones de

frecuencia. El grado de asimetría de una distribución hace referencia al grado en que los datos se

reparten equilibradamente por encima y por debajo de la tendencia central. Por ejemplo (parecido al

ejercicio 24 de la práctica III) si un examen resultó muy fácil abundaran las notas altas y la

representación gráfica quedará inclinada hacia la derecha, por el contrario si el examen resultó difícil

abundarán las notas bajas y la representación gráfica quedará inclinada hacia la izquierda. Esas son

distribuciones asimétricas. Mientras que una distribución simétrica es aquella en las frecuencias se

reparten equitativamente alrededor de la media.

Tipo de asimetría o índices que se han propuesta para cuantificar la asimetría.

· relación entre la media y la moda, y se define como la distancia entre la media y la moda, medida

en desviaciones típicas, es decir: la media es inferior a la moda, y por tanto este índice dará un valor

negativo; la media es superior y el índice dará positivo; coinciden los dos índices de tendencia central y

por tanto el índice de asimetría dará cero. Las distribuciones como las primeras tienen asimetría

negativa y el índice da valores menores que cero; las del segundo tipo asimetría positiva, y este índice

da valores mayores que cero. En las últimas se dice que son distribuciones simétricas, puesto que no

están inclinadas hacia ningún lado; este índice da en ellas valores en torno a cero y si la simetría es

perfecta entonces da exactamente cero. Sólo se puede calcular en distribuciones unimodales.

· Índice de asimetría de Pearson: es igual al promedio de las puntuaciones típicas elevadas al cubo.

Los valores menores que cero indican asimetría negativa, los mayores que cero asimetría positiva y los

valores en torno a cero indican distribuciones aproximadamente simétricas. Es el índice más utilizado.

· Índice de asimetría intercuartílico: se basa, en los cuartiles. La interpretación es similar a la de

los índices anteriores. Los valores mayores de cero indican asimetría positiva, los menores indican

asimetría negativa y los valores en torno a cero reflejan distribuciones simétricas. Tienen una ventaja
sobre los índices anteriores, y es que tiene un valor máximo y mínimo con lo que se facilita su

interpretación en términos relativos.

14.- Curtosis. Concepto. Distintos tipos. Botella, cap. 7.

Expresa el grado de apuntamiento de la curva que representa a la distribución de frecuencias. Mayor

curtosis significa mayor apuntamiento. Una distribución en la que el índice sea igual a cero tienen un grado

de curtosis similar al de la distribución normal, y se dice que es mesocúrtica, mientras que si es positivo su

grado de apuntamiento es mayor que el de la distribución normal, y se dice que es una distribución

leptocúrtica y si es negativo su apuntamiento es menor que el de la distribución normal y se dice que es

platicúrtica.

15.- Coeficiente de correlación r de Pearson. Qué indica. Cuál es su rango de variación. Cómo se

interpretan sus valores especiales. Graficar. Botella, cap.8.

Es un segundo índice de asociación lineal que consiste en hallar un promedio de productos cruzados pero

de puntuaciones típicas. este índice fue desarrollado por galton y karl pearson aunque fue este último el

que le dio su fórmula definitiva por lo que se lo conoce como coeficiente de correlación de pearson y se lo

representa con la r. La correlación no es más que una covarianza hallada sobre puntuaciones

tipificadas, por eso se dice que la correlación es una covarianza estandarizada o que es una

covarianza adimensional o sea que no es sensible al cambio de unidades de medida a diferencia de la

covarianza que no es adimensional por tanto es sensible al cambio de unidades de medida. Por

ejemplo si se mide la estatura en metros y el peso en kilogramos de un grupo de sujetos, la covarianza

entre esas variables será distinta de sí a esos mismos sujetos se les mide la estatura en pies y el peso en

libras (la covarianza permite discriminar entre los tres tipos de relación lineal: dá + en el caso de la

relación lineal directa, - en el caso de la relación inversa y cercano a cero en el caso de relación lineal

nula). EL COEFICIENTE DE CORRELACIÓN ES UN VALOR COMPRENDIDO ENTRE -1 Y 1. Si hacemos

transformaciones lineales de una o las dos variables, en las que las constantes multiplicadoras son

positivas, la correlación de Pearson no se altera.

En la interpretación de una correlación de Pearson hay que separar dos aspectos distintos: su cuantía y su

sentido. La cuantía se refiere al grado en el que la relación entre dos variables queda bien descrita con un

índice de asociación lineal como r, mientras que el sentido se refiere al tipo de relación. Una correlación en
torno a cero indica una relación lineal baja o nula; una correlación positiva indica una relación lineal

directa, mientras que una correlación negativa indica una relación lineal inversa. Cuanto más cercano quede

un coeficiente del valor cero, menos apto es el modelo lineal como descripción de la relación entre las

variables. Por el contrario, cuanto más se acerque a los extremos, mejor describe esa relación. (ojo :

entiendo +o- buscar ejemplos )

16. Modelo de distribución Binomial. Condiciones que deben cumplirse para que una variable tenga esta

distribución. Significado de los parámetros n y p. Botella 13.2.2., pág. 313 y 314. Ejemplos de variables con

distribución binomial.

Una distribución de probabilidades es un modelo de distribución de frecuencias relativas teóricas; esto

es, una variable que toma ciertos valores y a cada uno de estos valores se les asigna una cierta frecuencia

relativa que no proviene de la observación de un hecho realizado sino que es deducida a partir de ciertas

condiciones teóricas. La probabilidad de un valor de la variable puede interpretarse como una medida de la

posibilidad de que dicho valor sea observado. La distribución binomial depende de dos valores fijos o

parámetros a saber: un número natural n y una probabilidad p. Una variable binomial es aquella cuyos

valores son 0, 1, 2… n, por tanto es un modelo para una variable cuantitativa discreta – y las

probabilidades asociadas a cada uno de ellos resultan de la aplicación de una fórmula matemática que

involucran a n y p.

Para que la distribución de probabilidad de una variable se ajuste al modelo binomial deben cumplirse

ciertos requisitos:

1. que se base en una variable dicotómica. Esta variable dicotómica no es todavía la variable nominal,

pero su presencia es imprescindible para la generación de ésta. Las variables que están en la base de

una variable binomial pueden definirse como aquellas que adoptan la regla de asignar un 1 si se cumple

una cierta condición y un 0 si no se cumple. En otras palabras que se base en una variable Bernoulli.

una variable se distribuye según el modelo Bernoulli, cuando toma sólo dos valores. Los dos valores de

un variable Bernoulli, suelen denominarse “éxito” o “fracaso” y codificarse respectivamente con 1 y 0.

La probabilidad asignada al éxito se la denota con la letra “p” por lo que la del fracaso con “1-p” ya que

deben sumar 1. Una variable Bernoulli queda totalmente caracterizada conociendo el parámetro p, es

decir, la probabilidad de éxito o, equivalentemente, la probabilidad de fracaso. Ejemplos de variable

Bernoulli pueden ser: La respuesta de UN sujeto a un ítem, cuando esta es evaluada como correcta e

incorrecta. El resultado de un alumno en un exámen, cuando se lo clasifica en aprobado o desaprobado.

2. El segundo requisito es que haya una repetición de n ensayos de la variable dicotómica en los que la

probabilidad de que cada repetición se verifique la condición, y por tanto se asigne un 1, sea constante.
A la probabilidad de verificación de la condición en cada ensayo independiente la representaremos por

n.

3. El tercer y último requisito es que se defina una variable X, como el “número de casos que en la

secuencia de n ensayos dicotómicos verifican la condición especificada, o lo que es lo mismo, el número

de unos observados.

IMPORTANTE: una variable binomial de parámetros n y p puede generarse a partir de n observaciones de

una variable Bernoulli de parámetro p. Por ejemplo se arroja un dado 5 veces y se registra en cada

caso si salió as. El resultado obtenido en cada lanzamiento puede considerarse una variable Bernoulli

con probabilidad de éxito igual a 1/6. Luego, la variable “cantidad de ases en los 5 lanzamientos del

dado” es una variable binomial de parámetros n=5 y p=1/6. En conclusión: UNA VARIABLE

BINOMIAL DE PARÁMETROS n y p SE DEFINE COMO EL NUMERO DE ÉXITOS OBTENIDOS EN LAS

N OBSERVACIONES DE UNA VARIABLE BERNOULLI QUE SON INDEPENDIENTES Y CON LA

MISMA PROBABILIDAD DE ÉXITO P. ES DECIR SE CUMPLAN LAS SIGUIENTE CONDICIONES PARA

LA RELACIÓN ENTRE LOS MODELOS BINOMIAL Y BERNOULLI.

*Estabilidad: la probabilidad de éxito debe permanecer constante en las n observaciones de la variable

Bernoulli.

*Independencia: la probabilidad de obtener éxito en una observación no aumenta ni disminuye si se conoce

el resultado de otra observación.

17.- Modelo de distribución Normal. Sus características. Tipo de variables a las que se aplica. Significado

de los parámetros e Importancia de este modelo. Botella 13.3.2, pág. 318-322. Ejemplos de variables para

las cuales este modelo parece razonable.

La mayor parte de las técnicas inferenciales que se utilizan para la investigación en psicología tienen

distribuciones de probabilidad que se ajustan a las de los modelos teóricos para variables continuas. La

curva normal, a demás de ser un instrumento para la inferencia estadística, es el modelo al que se ajustan

muchas variables de interés en psicología.

la importancia de la curva normal estriba no sólo en su utilidad para el análisis estadístico, sino que en

muchas variables de interés para los psicólogos. La estatura, el peso, la agudeza visual, la fuerza son

variables que se ajustan a este modelo. Ya dentro de la psicología, variables como el cociente intelectual,

la extraversión son variables con distribución normal. En la mayor parte de las variables existe un valor

central (la media) en torno a la cual se concentran la mayor parte de los individuos, y a medida que nos

vamos fijando en valores más alejados de la media observamos que éstos son menos frecuentes. Esta
reducción gradual en la frecuencia no es lineal, sino que es mayor al principio y menor después (pasa de

convexa a cóncava al alejarse de la media). Una variable aleatoria se distribuye según el modelo normral,

con parámetros u y o. Las variables cuya distribución se ajusta al modelo normal adoptan una

representación gráfica en la que se pueden apreciar algunas de las propiedades que vamos a enumerar:

a) Es simétrica con respecto a un valor central (u) y en ese valor central coinciden la media, la

mediana o la moda.

b) Es asintótica con respecto al eje de abscisas, es decir, por mucho que se extienda, nunca llega a

tocar los ejes.

c) Hay toda una familia de curvas normales, dependiendo de los valores de u y o. De entre ellas, la

más importante es aquella que tienen media 0 y de desviación típica 1.

d) Los puntos de inflexión se encuentran en los puntos correspondientes a la media más/menos una

desviación típica (u +- o)

e) Cualquier combinación lineal de variables aleatorias normales se ajusta también al modelo normal.

La mayor parte del trabajo práctico con variables aleatorias normales consiste en hallar probabilidades

asociadas a valores. Esto significaría integrar la función de densidad entre los valores de interés. Para

evitar tener que resolver este tipo de operaciones se han construido tablas apropiadas con las áreas ya

halladas y cuyo eso se basa en el teorema de tipificación. Según este teorema, la función de distribución

asociada a un valor de una variable aleatoria, X, con distribución normal, es la misma que la función de

distribución de la tipificada de ese valor en la normal unitaria. Para obtener las áreas asociadas a un valor

de cualquier otra distribución normal basta con tipificar ese valor y acudir con la z obtenida en la tabla

correspondiente.

El trabajo con variables aleatorias normales, al igual que con otras variables continuas, se reduce a la

obtención de las probabilidades de obtener un valor menor o igual que uno concreto, la de obtener un valor

mayor o igual que uno concreto, o la de obtener un valor comprendido entre dos valores concretos.

18.- Distribución de la media muestral según el Teorema Central del Límite. Importancia de este resultado.

Apunte de la Cátedra: “Media y Varianza muestrales como variables aleatorias”.

Muchas veces en los problemas de distribuciones nos ocurre que no es que quieran hallar una probabilidad

de una variable sino de la media de esa variable, y entonces no hay que confundirlo normalmente, se tipifica

igual y se cometen errores.

Entonces la media se va a tipificar por “mu” y “sigma” y por la raiz de “n”


Para una población con media σ y variancia σ 2, la distribución de muestreo de las medias de todas las

muestras posibles de tamaño n obtenidas de una población tendrá una distribución normal aproximada —con

la media de la distribución de muestreo igual a σ y la variancia igual a σ 2/ n —si se supone que el tamaño de

la muestra es suficientemente grande.

19.- Inferencia estadística. Objetivo y métodos. Pardo pág. 127 y 128.

La inferencia estadística es un tipo de razonamiento que procede de lo concreto a lo general: intenta

extraer conclusiones sobre los parámetros de una población a partir de la información contenida en los

estadísticos de una muestra de esa población .

El objetivo de la Estadística es medir y modelar la variabilidad del proceso mediante un modelo

probabilístico.

Para que un método de inferencia estadística proporcione buenos resultados debe de:

Basarse en una técnica estadístico-matemática adecuada al problema y suficientemente

validada.

Utilizar una muestra que realmente sea representativa de la población y de un tamaño

suficiente.

20.- Contraste de hipótesis. En qué consiste y cuál es su lógica. Pardo 3.1, pág. 128, 129 y 130

Proceso mediante el cual se intenta comprobar si una afirmación sobre alguna propiedad poblacional

puede ser sostenida a la luz de la información muestral disponible. Y se enmarca en el proceder

habitual del método científico. El contraste de hipótesis representa un desarrollo de la estadística

inferencial que permite, a partir de la obtención de información en muestras, poner a prueba hipótesis

a nivel poblacional. Obviamente, no tendrá sentido su aplicación cuando se tenga acceso a la

información poblacional, caso en el que la verificación de la He es inmediata.

Una hipótesis estadística es una afirmación respecto a alguna característica de una población. Contrastar

una hipótesis es comparar las predicciones con la realidad que observamos.

Entonces los contrastes de hipótesis permiten verificar la veracidad de alguna hipótesis establecida acerca

de una población, determinando si los valores difieren significativamente de los esperados por la hipótesis, o

si las diferencias observadas son al azar.


EJEMPLO: En las últimas elecciones un partido obtuvo el 40% de votos. Para comprobar que ese porcentaje

ha aumentado de cara a la próximas elecciones se selecciona una m.a.s de 300 sujetos y se encuentra que

189 (el 63%) votarán al partido.

21.- Hipótesis estadística. Qué es y cómo se vincula con una hipótesis científica. Ejemplificar. Pardo 3.1.,

pág. 131.

Una hipótesis estadística es la expresión de una hipótesis científica en términos de parámetros.

*Ejemplo de expresión de una hipótesis científica en forma de hipótesis estadística:

Hipótesis científica → En el actual plan de estudios de la licenciatura de Psicología de la UVEG, el rendimiento académico
(notas) en las asignaturas de 2º es mayor que en las de 1º.
Hipótesis estadística → He: 2º 1º 2º 1º ( , ) Notas Notas Notas Notas µ µ > > o Md Md u otras posibles .
-(tener en cuenta que hay dos parámetros o dos poblaciones)

Una hipótesis estadística es una suposición que se plantea respecto a un problema o a una población, con el

fin de rechazarla o no.En los contrastes de hipótesis se distinguen dos hipótesis estadísticas: la hipótesis

nula designada por H0, que es la que se establece en principio con el único propósito de rechazarla o

"anularla"; y una segunda, la hipótesis alternativa, Ha, que es complementaria de la primera. Cuando se habla

de contrastar una hipótesis nula contra una alterna, esto siempre se hace suponiendo que la nula es

verdadera.

22.- Estadístico de contraste y regla de decisión. Conceptos. Pardo 3.1.3 y 3.1.4, pág. 135 a 138. Qué se

entiende por “mantener” y por “rechazar” la hipótesis nula. Pardo 3.1.5., pág. 140.

Una vez que se han formulado las hipótesis nula, H 0, y alterna, Ha, se debe realizar un procedimiento de

contraste‚ por medio del cual se toma una decisión basada en la muestra aleatoria seleccionada de la

población en estudio. Para llevar a cabo este procedimiento es necesario seleccionar un estadístico de

contraste, calcularlo con base en la muestra y luego tomar la decisión de rechazar o no H 0, dependiendo de

si este estadístico es o no consistente con H 0. Es decir, si el valor calculado del estadístico es muy

diferente del valor supuesto en H 0, suponiendo que ésta es cierta, entonces se rechaza H 0. Sin embargo, si

el valor calculado del estadístico de contraste es consistente con lo supuesto en H 0, entonces no hay razón

suficiente para rechazar H0 en favor de la Ha. En resumen, el estadístico de contraste es una variable
aleatoria cuya distribución se conoce, en el supuesto de que H 0 es verdadera y sirve para tomar la decisión

de rechazar o no H0.

*Decidir. Si el valor calculado en la muestra cae dentro de la zona de aceptación se acepta la hipótesis y si

no se rechaza.

23.- Posibles consecuencias que se siguen de una prueba de hipótesis: decisiones correctas, errores de tipo

I y II. Conceptos de nivel de significación y de potencia. Pardo 3.2., pág. 143 y 144. Relación entre y .

Concepto de nivel crítico y su utilidad. Pardo 3.4., pág. 155, 156 y 157.

El contraste de hipótesis no establece la verdad de la hipótesis, sino un criterio que nos permite decidir si

una hipótesis se acepta o se rechaza, o el determinar si las muestras observadas difieren

significativamente de los resultados esperados. En este proceso podemos incurrir en dos tipos de errores

según sea la situación real y la decisión que tomemos.

Si rechazamos una hipótesis cuando debiera ser aceptada, cometemos un error de tipo I, mientras que si la

aceptamos debiendo ser rechazada diremos que hemos cometido un error de tipo II.

Las probabilidades de cometer errores Tipo I y II se pueden considerar como los riesgos de decisiones

incorrectas. La probabilidad de cometer un error Tipo I (de rechazar una hipótesis nula dado que ésta es

verdadera) se llama nivel de significación y se denota por a (alfa). La probabilidad de cometer un error Tipo

II (de no rechazar una hipótesis nula dado que ésta es falsa) no tiene nombre en particular, pero se denota

por b (beta). La probabilidad de no rechazar una hipótesis nula verdadera es la confianza, 1 - a, con la cual

se trabajó para hacer estimaciones por intervalo. Cuando se rechaza una hipótesis nula falsa se ha tomado

una decisión correcta y la probabilidad de hacerlo se denomina potencia y es 1 - b.

*Llamamos nível crítico y lo representamos por “P”, al nivel de significación más pequeño al que una hipótesis

nula puede ser rechazada con el estadístico de contraste obtenido.

24. Supuestos que fundamentan cada una de las pruebas de hipótesis. Hoja de la Cátedra “Esquemas de

pruebas de hipótesis”.

Vous aimerez peut-être aussi