Vous êtes sur la page 1sur 36

1.

Aleatorio: es todo dato obtenido al azar, es decir, que todo número tenga

la misma probabilidad de ser elegido y que la elección de uno no dependa

de la elección del otro.

2. Arreglo de datos. Organización de los datos brutos por observaciones en

orden ascendente o descendente.

3. Azar: es la característica de un experimento que produce resultados

diversos, impredecibles en cada situación concreta, pero cuyas frecuencias,

a la larga, tienden a estabilizarse hacia un valor “límite” en el infinito.

4. Censo. Medición o examen de cada elemento de la población.

5. Clase de la mediana. Clase de distribución de frecuencias que contiene el

valor medio de mediana de clase.

6. Clase. Intervalo en el cual se agrupan los datos en una tabla de distribución

de frecuencias.

7. Coeficiente de variación. Medida de dispersión relativa de un conjunto de

datos, se calcula dividiendo la dispersión estándar entre la media y

multiplicando el cociente por cien.

8. Combinaciones. Técnica de conteo.

9. Complemento del evento a. El evento que contiene todos los puntos

maestrales que no están en a

10. Conjunto de datos. Todos los datos reunidos en determinado estudio.

11. Contraste de hipótesis: Test de hipótesis

12. Correlación: Medida de la relación existente entre dos variables. Su valor

está comprendido entre –1 y 1. Si es negativo la relación entre las variables

es inversa, es decir, a medida que aumentan los valores de una decrecen


los de la otra. Si es positivo la asociación es directa, es decir, los valores de

una variable aumentan con la otra. Un valor de cero indica ausencia de

relación. Cuando las variables son continuas y tienen una relación lineal, el

coeficiente de correlación lineal de Pearson es una medida de asociación

adecuada. Cuando las variables no son continuas se utilizan otros

coeficientes de correlación.

13. Cuartiles. Los percentiles 25%, 50% y 75% se llaman primer cuartil,

segundo cuartil (mediana) y tercer cuartil respectivamente. Se

pueden usar los cuartiles para dividir al conjunto de datos en cuatro partes,

cada una de las cuales contiene aproximadamente el 25% de los datos.

14. Dato: Conocido también como información, es el valor de la variable

asociada a un elemento de una población o una muestra.

15. Datos cualitativos. Datos que indican etiquetas o nombres de categorías,

para artículos semejantes.

16. Datos cuantitativos. Datos que indican cuánto o cuántos de algo. Los

datos cuantitativos siempre son numéricos.

17. Deciles. Fractiles que dividen los datos en diez partes iguales.

18. Desviación estándar. Medida de la dispersión de un conjunto de datos; se

calcula sacando la raíz cuadrada positiva de la varianza.

19. Desviación media. También se llama desviación promedio o desviación

media absoluta. Es la media aritmética de las desviaciones con respecto a

la media aritmética en términos absolutos.

20. Desviación típica: Valor mayor o igual a cero que mide la dispersión de

una característica de los individuos alrededor de la media del grupo. Los


sujetos serán más parecidos u homogéneos entre sí cuanto más próxima a

cero esté la desviación típica. Su unidad de medida coincide con la unidad

de medida de la variable original. Es la raíz cuadrada de la varianza.

21. Diagrama de árbol. Dispositivo gráfico útil para definir puntos maestrales

de un experimento donde se presentan varias etapas.

22. Diagrama de dispersión. Método gráfico para mostrar la relación entre dos

variables cuantitativas. Una variable se representa sobre el eje horizontal y

la otra sobre el eje vertical.

23. Diseño de experimentos: Método estadístico cuyo objetivo es estudiar

cómo cambian los valores de una variable respuesta cuando se modifican

los valores de una o varias variables independientes, denominadas factores

experimentales. Un experimento bien diseñado puede ser el punto de

partida para establecer relaciones causales entre las variables estudiadas.

24. Dispersión. Esparcimiento o variabilidad de un conjunto de datos.

25. Distribución de frecuencias. Representación organizada de los datos que

muestra el número de observaciones del conjunto de datos que caen dentro

de cada clase mutuamente excluyentes.

26. Distribución muestreal: es la lista de posibles valores de un estadístico y

la probabilidad asociada a cada valor. Se puede construir varias

distribuciones muestrales a partir de una población y dependerá del tipo de

estadístico que se tome como referencia

27. Error alfa (α): Valor comprendido entre 0 y 1 que mide cuánto se equivoca

el investigador al aceptar como verdadera la hipótesis alternativa de un test

de hipótesis. Cuanto más próximo a cero esté, menor será el riesgo de


establecer hipótesis falsas en la población de estudio. Su valor se fija a

priori, antes de comenzar la investigación, para conocer el número de

individuos necesario para llevar a cabo el estudio. Cuanto más pequeño

sea el error alfa mayor será el tamaño de la muestra y, por tanto, más

precisos serán los resultados. Habitualmente este error se fija en 0.05,

aunque puede variar dependiendo del tipo de investigación.

28. Error beta (β): Valor comprendido entre 0 y 1 que mide cuánto se equivoca

el investigador al aceptar como verdadera la hipótesis nula de un test de

hipótesis. Cuanto más próximo a cero esté, menor será el riesgo de

establecer hipótesis falsas en la población de estudio. Su valor se fija a

priori, antes de comenzar la investigación, para conocer el número de

individuos necesario para llevar a cabo el estudio. Cuanto más pequeño

sea el error beta mayor será el tamaño de la muestra y, por tanto, más

precisos serán los resultados. Habitualmente este error se fija en 0.20,

aunque puede variar dependiendo del tipo de investigación.

29. Error de muestreo. El que se presenta porque se usa una muestra y no

toda la población, para estimar un parámetro de población.

30. Error de muestreo: Conocido también como error muestral, es la

diferencia que existe entre el valor real (parámetro) obtenido con los valores

de la población y el valor estimado en base a los valores de una muestra

(estimación).

31. Error estándar: Variabilidad del estimador cuando se obtiene a partir de

muestras diferentes, resultando un valor distinto en cada muestra. El error


estándar siempre es mayor que cero. Cuanto más pequeño sea mayor es la

precisión de la estimación realizada.

32. Especificidad: Probabilidad de que una prueba diagnóstica proporcione un

resultado negativo cuando el sujeto no está afectado por la enfermedad

investigada. Lo ideal es que esta probabilidad sea 1 siempre que la prueba

diagnóstica se aplique en el grupo de población libre de enfermedad. Sin

embargo, no siempre es así. Cualquier prueba puede fallar mostrando un

resultado positivo en un individuo sano. La especificidad es, por tanto, la

capacidad de la prueba diagnóstica para detectar la ausencia de la

enfermedad estudiada.

33. Estadística. Ciencia de la recopilación, organización, análisis e

interpretación de datos numéricos con objeto de tomar decisiones más

efectivas.

34. Estimación de intervalos: El intervalo dentro del cual se espera que se

encuentre un parámetro poblacional usualmente es conocido como

intervalo de confianza. Se trata por lo tanto de una variable aleatoria

bidimensional, donde, por ejemplo, el intervalo de confianza para la media

poblacional es el intervalo de valores que tiene una alta probabilidad de

contener a la media de la población.

35. Estimación puntual: Consiste en la estimación del valor del parámetro

mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo,

si se pretende estimar la talla media de un determinado grupo de

individuos, puede extraerse una muestra y ofrecer como estimación puntual

la talla media de los individuos.


36. Estimación: es el conjunto de técnicas que permiten dar un valor

aproximado de un parámetro de una población a partir de los datos

proporcionados por una muestra.

37. Estimador: Valor numérico extraído de las observaciones de una muestra

que se aproxima en mayor o menor medida al parámetro de la población

sobre el que se quiere investigar. Así, la edad media de un grupo de

individuos elegidos aleatoriamente de una población es un estimador de la

verdadera edad media de la población.

38. Evento. Uno o más de los posibles resultados al hacer algo, o bien uno de

los posibles resultados que se producen al efectuar un experimento.

39. Eventos dependientes. Dos eventos son dependientes si la ocurrencia de

un evento si tiene efecto sobre la probabilidad de ocurrencia del otro.

40. Eventos independientes. Dos eventos son independientes si la ocurrencia

de un evento no tiene efecto sobre la probabilidad de ocurrencia del otro.

41. Experimento. Cualquier proceso que genere resultados bien definidos, que

se representan.

42. Falso negativo: Probabilidad de que una prueba diagnóstica proporcione

un resultado negativo cuando el sujeto realmente tiene la enfermedad

investigada. Es el valor complementario a la sensibilidad.

43. Falso positivo: Probabilidad de que una prueba diagnóstica proporcione un

resultado positivo cuando el sujeto no está afectado por la enfermedad

investigada. Es el valor complementario a la especificidad.

44. Fractil. En una distribución de frecuencias, la localización de un valor en

determinada fracción de los datos o arriba de ellos.


45. Grado o nivel de confianza: es la probabilidad de que no se equivoca al

no rechazar la hipótesis nula verdadero generalmente es de 95%, puede

ser de 90% o de 99%, etc.

46. Grados de libertad: En estadística grados de libertad de un estadístico

calculado en base a n datos, se refiere al número de cantidades

independientes que se necesitan en su cálculo, menos el número de

restricciones que ligan a las observaciones y el estadístico.

47. Hipótesis alternativa: Aseveración opuesta a la hipótesis nula en un test o

contraste de hipótesis. Así, la hipótesis alternativa de un estudio sobre

cirrosis hepática puede establecer que existe relación entre el consumo

habitual de alcohol y la cirrosis o, de forma equivalente, que el porcentaje

de personas con cirrosis es diferente en bebedores y no bebedores.

48. Hipótesis nula: Afirmación establecida por el investigador sobre la

población de estudio cuando realiza un test o contraste de hipótesis. Esta

hipótesis siempre se asume verdadera a menos que los datos de la

muestra proporcionen evidencia de lo contrario. Se suele formular mediante

una negación o una igualdad. Así, la hipótesis nula de un estudio sobre

cirrosis hepática puede establecer que no existe relación entre el consumo

habitual de alcohol y la cirrosis o, de forma equivalente, que el porcentaje

de personas con cirrosis es igual en bebedores y no bebedores.

49. Histogramas. Es la representación gráfica de una distribución de

frecuencia.
50. Inferencia estadística. El proceso de reunir datos obtenidos de una

muestra para hacer estimaciones o probar hipótesis acerca de las

características de una población.

51. Inferencia estadística: Procedimiento que permiten extrapolar o

generalizar a la población los resultados obtenidos en el análisis de una

muestra. Las técnicas utilizadas para ello incluyen los intervalos de

confianza y los tests de hipótesis.

52. Inferencia: Es una parte de la estadística cuya finalidad es obtener

conclusiones respecto a la población a partir de datos observados en

muestras. Es el proceso por medio del cual se hacen aseveraciones o

estimaciones de un todo, a partir de sus partes o elementos.

53. Intervalo de confianza: Rango de valores que, con una cierta confianza,

contiene al parámetro poblacional que se pretende conocer. El intervalo de

confianza se construye a partir de la información de la muestra y es una de

las herramientas utilizadas para extrapolar los resultados a la población.

54. Intervalo. Distancia existente entre el valor máximo y el más bajo en un

conjunto de datos.

55. Media aritmética. Suma de los valores dividida entre el número total de

ellos.

56. Media aritmética: Es una medida de tendencia central que denota el

promedio de un conjunto de datos. Se calcula dividiendo la suma del

conjunto de datos entre el total de ellos. Simbólicamente se representa por

X.
57. Media geométrica. Medida de tendencia central que se usa para medir la

tasa promedio de cambio o crecimiento de alguna cantidad; se calcula

tomando la enésima raíz del producto de n valores que representan el

cambio.

58. Media ponderada. Promedio que se calcula a fin de tener en cuenta la

importancia de cada valor para el total global; es decir, un promedio donde

el valor de cada observación se pondera mediante algún índice de su

importancia.

59. Media: Valor numérico en torno al cual se sitúan los valores de una

característica de los individuos. Es un representante del grupo de sujetos

analizado.

60. Mediana. Es el dato intermedio de un conjunto, ordenado de menor a

mayor o viceversa.

61. Medida de dispersión. Aquella que describe cómo las observaciones

están esparcidas en un conjunto de datos.

62. Medida de tendencia central. Es el dato que queda al centro de un

ordenamiento de menor a mayor.

63. Métodos no paramétricos. Métodos estadísticos que requieren muy poco

o ningún supuesto acerca de las distribuciones de probabilidad de la

población, y acerca del nivel de medición. Esos métodos se pueden aplicar

cuando se dispone de datos nominales u ordinales.

64. Moda. Es el valor que tiene la mayor frecuencia de un grupo de datos.

65. Muestra aleatoria simple. Muestra tomada de tal manera que cada

muestra de tamaño n tiene la misma probabilidad de ser seleccionada.


66. Muestra: Grupo de individuos extraídos aleatoriamente de la población de

estudio. La información proporcionada por estos sujetos se almacena en

una base de datos para analizarla posteriormente. Los resultados obtenidos

en este análisis son una aproximación a lo que realmente ocurre en toda la

población. La inferencia estadística permite extrapolar los resultados de la

muestra a la población y conocer el error cometido en estas estimaciones.

67. Muestreo aleatorio estratificado: Es un método de muestreo que se

aplica cuando se divide la población en grupos, llamados estratos, donde

los datos son más homogéneos pero un estrato frente al otro muy distintos.

Para extraer la muestra aleatoria se aplica el muestreo aleatorio simple a

cada estrato y el tamaño es la suma de los tamaños de todos los estratos.

Para determinar los tamaños de los estratos se puede utilizar la asignación

proporcional, óptima y óptima económica. Si no se conoce la variabilidad de

los datos se aplica la asignación proporcional.

68. Muestreo aleatorio sistemático: Es una variante del método aleatorio

simple de selección de cada elemento de la muestra. Se aplica cuando la

población está listada en algún orden. Consiste en seleccionar un número

aleatorio menor que N/n y luego los (n-1) elementos de la muestra se eligen

agregando al primer aleatorio: el entero K obtenido por K=N/n y así

sucesivamente. El primer elemento de la muestra es seleccionado al azar.

Por lo tanto, una muestra sistemática puede dar la misma precisión de

estimación acerca de la población que una muestra aleatoria simple cuando

los elementos en la población están ordenados al azar.


69. Muestreo con reemplazo. Es un método en el cual cada miembro de la

población elegida para la muestra se regresa a la primera antes de elegir al

siguiente miembro.

70. Muestreo no probabilístico: Es aquella que se obtiene mediante juicio de

la persona que selecciona los elementos de la muestra que usualmente es

un experto en la materia. Este método está basado en los puntos de vista

subjetivos de una persona y la teoría de la probabilidad no puede ser

empleada para medir el error de muestreo. Las principales ventajas de una

muestra de juicio son la facilidad de obtenerla y que el costo usualmente es

bajo.

71. Muestreo por conglomerados: Es un método de muestreo en el cual la

población está en grupos debido a la organización administrativa u otro

(conglomerados). Ejemplo: Colegios, Universidades, manzanas de casas,

entre otros. Al interior de los conglomerados no se puede garantizar

homogeneidad.

72. Muestreo sin reemplazo. Es un método en el cual los miembros de la

muestra no se regresan a la población antes de elegir a los miembros

siguientes.

73. Mutuamente excluyentes. Dos eventos son mutuamente excluyentes si no

pueden ocurrir al mismo tiempo. Otra forma de decirlo es que dos eventos

son mutuamente excluyentes si la ocurrencia de uno impide la ocurrencia

del otro.

74. Nivel de confianza (1-α): Probabilidad de que el intervalo de confianza

obtenido a partir de los datos de la muestra contenga al parámetro de la


población que se pretende estimar. Aunque puede tomar cualquier valor

entre 0 y 1, el más usual es 0.95 (95%).

75. Nivel de significación (α): Error alfa.

76. Ojiva. Gráfica de una distribución de frecuencias acumulada.

77. Parámetro. Una característica numérica de una población, como la media

de población, desviación estándar poblacional, proporción poblacional ( p ),

etc.

78. Parámetro: Es cualquier valor característico de la población. Ejemplo: la

media de la población, la desviación típica de la población. Sin embargo

estos valores son desconocidos porque no siempre podemos tener todos

los datos de la población para calcularlos.

79. Percentiles. Fractiles que dividen los datos en 100 partes iguales.

80. Permutaciones. Técnica de conteo. Se utiliza para obtener el número de

posibles arreglos resultantes de un conjunto de elementos, considerando la

importancia o jerarquía. El número de arreglos posibles está determinado

por:

81. Población: Es cualquier conjunto de unidades o elementos claramente

definido, en el espacio y el tiempo, donde los elementos pueden ser

personas, granjas, hogares, manzanas, condados, escuelas, hospitales,

empresas, y cualquier otro. Las poblaciones pueden ser finitas e infinitas.

82. Polígono de frecuencias. Gráfica lineal que une los puntos medios de

cada clase en un conjunto de datos; se grafica en la altura correspondiente

a la frecuencia de cada clase.


83. Potencia (1-β): Valor comprendido entre 0 y 1 complementario al error

beta. Mide el grado de acierto del investigador cuando acepta como

verdadera la hipótesis nula de un test de hipótesis. Su valor se fija a priori,

antes de comenzar la investigación, para conocer el número de individuos

necesario para llevar a cabo el estudio. Cuanto mayor sea la potencia,

mayor será el tamaño de la muestra y, por tanto, más precisos serán los

resultados obtenidos. Habitualmente este error se fija en 0.80, aunque

puede variar dependiendo del tipo de investigación.

84. Principio de multiplicación. Técnica de conteo. Es una de las fórmulas

que pueden utilizarse para contar el número de posibles resultados de un

experimento. Indica que si hay m formas de hacer una cosa y n formas de

hacer otra, existen (m) (n) formas de hacer ambas.

85. Probabilidad: Medida adimensional que cuantifica la ocurrencia de los

fenómenos producidos por azar. Sus valores son números comprendidos

entre 0 y 1. Cuando la probabilidad es cero, el suceso no ocurrirá nunca. Si

la probabilidad es uno, ocurrirá con total certeza. Los valores intermedios

miden el gradiente de certidumbre.

86. Promedio. Número que describe la centralización o tendencia central de

los datos. Existe un cierto número de promedios especializados, entre los

que se incluye la media aritmética, la media ponderada, la mediana, la

moda, y la media geométrica.

87. Proporción: es el número de veces que se presenta ese dato respecto al

total de datos. Se conoce también como frecuencia relativa y es uno de los


parámetros de cálculo más sencillo. Tiene la ventaja de que puede

calcularse para variables cualitativas.

88. Prueba diagnóstica: Procedimiento destinado a detectar la presencia o

ausencia de una enfermedad en el individuo. Su capacidad de

discriminación está determinada por la sensibilidad y la especificidad,

características propias de cada prueba o test diagnóstico.

89. Rango. Medida de dispersión definida como el valor máximo menos el valor

mínimo.

90. Regresión: Técnicas estadísticas que permiten determinar la ecuación

matemática que relaciona un efecto (variable dependiente o respuesta) con

una o varias causas (variables independientes o predictoras).

91. Sensibilidad: Probabilidad de que una prueba diagnóstica proporcione un

resultado positivo cuando el sujeto tiene realmente la enfermedad. Lo ideal

es que esta probabilidad sea 1 siempre que la prueba diagnóstica se

aplique en el grupo de población afectado por la enfermedad. Sin embargo,

no siempre es así. Cualquier prueba puede fallar mostrando un resultado

negativo en un individuo enfermo. La sensibilidad es, por tanto, la

capacidad de la prueba diagnóstica para detectar la presencia de la

enfermedad estudiada.

92. si el número de datos es par, la mediana está dada por el promedio de los

datos centrales.

93. Tamaño de muestra: Número de sujetos necesario para llevar a cabo una

investigación, de manera que los resultados obtenidos a partir de ellos se

aproximen a los resultados que se hubieran obtenido al estudiar a toda la


población. El error cometido en esa extrapolación de resultados es

conocido y prefijado antes de comenzar la investigación. El tamaño de

muestra será mayor cuanto más pequeño sea el error que se desee

cometer.

94. Test de hipótesis: Técnica estadística utilizada para decidir si una

afirmación establecida por el investigador sobre la población de estudio es

compatible con los resultados observados en una muestra. Cualquier test

de hipótesis se compone de una hipótesis nula, formulada en términos de

igualdad o negación, y una hipótesis alternativa.

95. Test diagnóstico: Prueba diagnóstica

96. Valor P: Valor comprendido entre 0 y 1 que está asociado a un test de

hipótesis. Es la probabilidad de encontrar un resultado como el obtenido en

la muestra, o incluso más extraño, cuando la hipótesis nula es cierta. La

hipótesis nula será rechazada siempre que esta probabilidad sea muy

pequeña, inferior al nivel de significación preestablecido.

97. Valor predictivo negativo: Probabilidad de que un individuo no padezca la

enfermedad cuando la prueba diagnóstica aplicada proporcione un

resultado negativo. Este valor depende tanto de la especificidad y de la

proporción de falsos negativos de la prueba como del número de personas

enfermas registrado en la población a la que pertenece el individuo. Por

este motivo, el valor predictivo negativo puede ser diferente dependiendo

del país o región en que se calcule, aún utilizando la misma prueba

diagnóstica.
98. Valor predictivo positivo: Probabilidad de que un individuo padezca la

enfermedad cuando la prueba diagnóstica aplicada proporcione un

resultado positivo. Este valor depende tanto de la sensibilidad y de la

proporción de falsos positivos de la prueba como del número de personas

enfermas registrado en la población a la que pertenece el individuo. Por

este motivo, el valor predictivo positivo puede ser diferente dependiendo del

país o región en que se calcule, aún utilizando la misma prueba

diagnóstica.

99. Variable aleatoria continua: Es una variable cuantitativa. Es la

característica de la población, cuyos valores están representados mediante

el conjunto de los números reales. Puede tomar cualquier valor real dentro

de un intervalo. Por ejemplo, la velocidad de un vehículo puede ser 80,3

km/h, 94,57 km/h.

100. Variable aleatoria discreta: Es una variable cuantitativa. Es la

característica de la población, cuyos valores están representados mediante

el conjunto de los números naturales. Por ejemplo, el número de alumnos

de un aula.

101. Variable aleatoria: Conocida también como variable estocástica o

probabilística. Es la característica considerada en un experimento aleatorio

cuyo valor de ocurrencia sólo puede saberse con exactitud una vez

observado.

102. Variable cualitativa: Es aquella que representa cualidades, atributos

o características no numéricas y estas pueden ser nominales y ordinales.


103. Variable cuantitativa: Característica de los individuos de la muestra

que puede medirse con un instrumento y lleva asociada una unidad de

medida. El peso es una variable cuantitativa, ya que puede medirse con

una báscula y su unidad de medida es el gramo. Además, esta variable es

continua, ya que el valor del peso asignado a cada individuo puede tener

tantos decimales como admita la precisión de la báscula. Otras variables

cuantitativas, como el número de hijos, se denominan discretas porque sus

valores solo pueden ser números enteros, sin decimales.

104. Variable cuantitativa: Es aquella característica de la población o de

la muestra que es posible representar numéricamente. Éstas pueden ser

continua y discreta.

105. Variable: Cualquier característica de los individuos que componen la

muestra que toma un valor diferente para cada uno de ellos. La edad y el

sexo son variables habituales en muchas investigaciones.

106. Varianza. Medida de dispersión para un conjunto de datos, en las

desviaciones de los valores de los datos respecto a la media, elevadas al

cuadrado

GLOSARIO
1. Aleatorio: es todo dato obtenido al azar, es decir, que todo número tenga

la misma probabilidad de ser elegido y que la elección de uno no dependa

de la elección del otro.

2. Amplitud de clase: Se considera la amplitud que deben tener las clases

consideradas para realizar un estudio estadístico.

3. Azar: es la característica de un experimento que produce resultados

diversos, impredecibles en cada situación concreta, pero cuyas frecuencias,

a la larga, tienden a estabilizarse hacia un valor “límite” en el infinito.

4. Censo: Medición o examen de cada elemento de la

población.

5. Clase: Grupo de elementos de un conjunto que tiene características

comunes.

6. Coeficiente de variación: Medida de dispersión relativa de un conjunto de

datos, se calcula dividiendo la dispersión estándar entre la media y

multiplicando el cociente por cien

7. Combinación: Una combinación es una selección de objetos sin importar

el orden en que se escojan.

8. Contraste de hipótesis: Test de hipótesis

9. Correlación: Medida de la relación existente entre dos variables. Su valor

está comprendido entre –1 y 1. Si es negativo la relación entre las variables

es inversa, es decir, a medida que aumentan los valores de una decrecen

los de la otra. Si es positivo la asociación es directa, es decir, los valores de

una variable aumentan con la otra. Un valor de cero indica ausencia de

relación. Cuando las variables son continuas y tienen una relación lineal, el
coeficiente de correlación lineal de Pearson es una medida de asociación

adecuada. Cuando las variables no son continuas se utilizan otros

coeficientes de correlación.

10. Covarianza: En probabilidad y estadística, la covarianza es un valor que

indica el grado de variación conjunta de dos variables aleatorias.

11. Dato: Conocido también como información, es el valor de la variable

asociada a un elemento de una población o una muestra.

12. Datos Cualitativos: Datos que utilizan información no numérica para las

descripciones. Por lo general son palabras, pero pueden incluir fotografías y

películas, grabaciones y artefactos.

13. Datos Cuantitativos: Información que describe, explica e informa sobre

fenómenos utilizando números.

14. Datos: El dato es una representación simbólica de un atributo o variable

cuantitativa. Los datos describen hechos empíricos, sucesos y entidades.

15. Desviación estándar: es una medida de dispersión para variables de

razón (variables cuantitativas o cantidades racionales y de intervalo. Se

define como la raíz cuadrada de la varianza de

la variable.

16. Desviación típica: Valor mayor o igual a cero que mide la dispersión de

una característica de los individuos alrededor de la media del grupo. Los

sujetos serán más parecidos u homogéneos entre sí cuanto más próxima a

cero esté la desviación típica. Su unidad de medida coincide con la unidad

de medida de la variable original. Es la raíz cuadrada de la varianza.


17. Diagramas de árbol: Un diagrama de árbol es una herramienta que se

utiliza para determinar todos los posibles resultados de un experimento

aleatorio.

18. Diseño de experimentos: Método estadístico cuyo objetivo es estudiar

cómo cambian los valores de una variable respuesta cuando se modifican

los valores de una o varias variables independientes, denominadas factores

experimentales. Un experimento bien diseñado puede ser el punto de

partida para establecer relaciones causales entre las variables estudiadas.

19. Dispersión: Esparcimiento o variabilidad de un conjunto de

datos.

20. Distribución de frecuencias: Representación organizada de los datos que

muestra el número de observaciones del conjunto de datos que caen dentro

de cada clase mutuamente excluyentes.

21. Distribución muestreal: es la lista de posibles valores de un estadístico y

la probabilidad asociada a cada valor. Se puede construir varias

distribuciones muestrales a partir de una población y dependerá del tipo de

estadístico que se tome como referencia

22. Error alfa (α): Valor comprendido entre 0 y 1 que mide cuánto se equivoca

el investigador al aceptar como verdadera la hipótesis alternativa de un test

de hipótesis. Cuanto más próximo a cero esté, menor será el riesgo de

establecer hipótesis falsas en la población de estudio. Su valor se fija a

priori, antes de comenzar la investigación, para conocer el número de

individuos necesario para llevar a cabo el estudio. Cuanto más pequeño

sea el error alfa mayor será el tamaño de la muestra y, por tanto, más
precisos serán los resultados. Habitualmente este error se fija en 0.05,

aunque puede variar dependiendo del tipo de investigación.

23. Error beta (β): Valor comprendido entre 0 y 1 que mide cuánto se equivoca

el investigador al aceptar como verdadera la hipótesis nula de un test de

hipótesis. Cuanto más próximo a cero esté, menor será el riesgo de

establecer hipótesis falsas en la población de estudio. Su valor se fija a

priori, antes de comenzar la investigación, para conocer el número de

individuos necesario para llevar a cabo el estudio. Cuanto más pequeño

sea el error beta mayor será el tamaño de la muestra y, por tanto, más

precisos serán los resultados. Habitualmente este error se fija en 0.20,

aunque puede variar dependiendo del tipo de investigación.

24. Error de muestreo: Conocido también como error muestral, es la

diferencia que existe entre el valor real (parámetro) obtenido con los valores

de la población y el valor estimado en base a los valores de una muestra

(estimación).

25. Error estándar: Variabilidad del estimador cuando se obtiene a partir de

muestras diferentes, resultando un valor distinto en cada muestra. El error

estándar siempre es mayor que cero. Cuanto más pequeño sea mayor es la

precisión de la estimación realizada.

26. Especificidad: Probabilidad de que una prueba diagnóstica proporcione un

resultado negativo cuando el sujeto no está afectado por la enfermedad

investigada. Lo ideal es que esta probabilidad sea 1 siempre que la prueba

diagnóstica se aplique en el grupo de población libre de enfermedad. Sin

embargo, no siempre es así. Cualquier prueba puede fallar mostrando un


resultado positivo en un individuo sano. La especificidad es, por tanto, la

capacidad de la prueba diagnóstica para detectar la ausencia de la

enfermedad estudiada.

27. Estadística: Es una ciencia formal y una herramienta que estudia el uso y

los análisis provenientes de una muestra representativa de datos, busca

explicar las correlaciones y dependencias de un fenómeno físico o natural,

de ocurrencia en forma aleatoria o condicional.

28. Estimación de intervalos: El intervalo dentro del cual se espera que se

encuentre un parámetro poblacional usualmente es conocido como

intervalo de confianza. Se trata por lo tanto de una variable aleatoria

bidimensional, donde, por ejemplo, el intervalo de confianza para la media

poblacional es el intervalo de valores que tiene una alta probabilidad de

contener a la media de la población.

29. Estimación puntual: Consiste en la estimación del valor del parámetro

mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo,

si se pretende estimar la talla media de un determinado grupo de

individuos, puede extraerse una muestra y ofrecer como estimación puntual

la talla media de los individuos.

30. Estimación: es el conjunto de técnicas que permiten dar un valor

aproximado de un parámetro de una población a partir de los datos

proporcionados por una muestra.

31. Estimador: Valor numérico extraído de las observaciones de una muestra

que se aproxima en mayor o menor medida al parámetro de la población

sobre el que se quiere investigar. Así, la edad media de un grupo de


individuos elegidos aleatoriamente de una población es un estimador de la

verdadera edad media de la población.

32. Evento conjunto: debe describirse con dos o más

características.

33. Evento simple: cualquiera de los resultados básicos de un evento

aleatorio.

34. Evento: un evento o suceso es un subconjunto de un espacio muestral, es

decir, un conjunto de posibles resultados que se pueden dar en un

experimento aleatorio.

35. Eventos colectivamente exhaustivos: eventos aleatorios diferentes que

conjuntamente contiene todos los resultados básicos en el espacio

muestral.

36. Eventos dependientes: dos eventos aleatorios tales que la probabilidad de

un evento es afectada porque ocurra el otro

evento.

37. Eventos independientes: dos eventos aleatorios tales que la probabilidad

de un evento no es afectada por el acontecimiento del otro

evento

38. Eventos mutuamente exclusivos: eventos aleatorios diferentes que no

tienen resultados básicos en


común.

39. Eventos no mutuamente excluyentes: cuando se tienen eventos

elementales no existe mucho problema en el sentido del cálculo de las

probabilidades, pues basta con una contabilización o el uso directo

del cálculo combinatorio.

40. Falso negativo: Probabilidad de que una prueba diagnóstica proporcione

un resultado negativo cuando el sujeto realmente tiene la enfermedad

investigada. Es el valor complementario a la sensibilidad.

41. Falso positivo: Probabilidad de que una prueba diagnóstica proporcione un

resultado positivo cuando el sujeto no está afectado por la enfermedad

investigada. Es el valor complementario a la especificidad.

42. Frecuencia absoluta: es el número de veces que aparece un

determinado valor en un estudio estadístico.

43. Frecuencia acumulada: Se llama frecuencia a la cantidad de veces que se

repite un determinado valor de la variable.

44. Frecuencia relativa: se obtiene dividendo la frecuencia absoluta entre el

total de registro.

45. Frecuencia: La cantidad de veces que se repite un determinado valor de la

variable

46. Grado o nivel de confianza: es la probabilidad de que no se equivoca al

no rechazar la hipótesis nula verdadero generalmente es de 95%, puede

ser de 90% o de 99%, etc.


47. Grados de libertad: En estadística grados de libertad de un estadístico

calculado en base a n datos, se refiere al número de cantidades

independientes que se necesitan en su cálculo, menos el número de

restricciones que ligan a las observaciones y el estadístico.

48. Hipótesis alternativa: Aseveración opuesta a la hipótesis nula en un test o

contraste de hipótesis. Así, la hipótesis alternativa de un estudio sobre

cirrosis hepática puede establecer que existe relación entre el consumo

habitual de alcohol y la cirrosis o, de forma equivalente, que el porcentaje

de personas con cirrosis es diferente en bebedores y no bebedores.

49. Hipótesis nula: Afirmación establecida por el investigador sobre la

población de estudio cuando realiza un test o contraste de hipótesis. Esta

hipótesis siempre se asume verdadera a menos que los datos de la

muestra proporcionen evidencia de lo contrario. Se suele formular mediante

una negación o una igualdad. Así, la hipótesis nula de un estudio sobre

cirrosis hepática puede establecer que no existe relación entre el consumo

habitual de alcohol y la cirrosis o, de forma equivalente, que el porcentaje

de personas con cirrosis es igual en bebedores y no bebedores.

50. Histograma: Gráfico de la representación de distribuciones de frecuencias,

en el que se emplean rectángulos dentro de unas coordenadas.

51. Inferencia estadística: El proceso de reunir datos obtenidos de una

muestra para hacer estimaciones o probar hipótesis acerca de las

características de una población.

52. Inferencia estadística: Procedimiento que permiten extrapolar o

generalizar a la población los resultados obtenidos en el análisis de una


muestra. Las técnicas utilizadas para ello incluyen los intervalos de

confianza y los tests de hipótesis.

53. Inferencia: Es una parte de la estadística cuya finalidad es obtener

conclusiones respecto a la población a partir de datos observados en

muestras. Es el proceso por medio del cual se hacen aseveraciones o

estimaciones de un todo, a partir de sus partes o elementos.

54. Intervalo de confianza: Rango de valores que, con una cierta confianza,

contiene al parámetro poblacional que se pretende conocer. El intervalo de

confianza se construye a partir de la información de la muestra y es una de

las herramientas utilizadas para extrapolar los resultados a la población.

55. Intervalo: Distancia existente entre el valor máximo y el más bajo en un

conjunto de datos.

56. Marca de clase: Es el punto medio de una clase y se obtiene sumando los

límites inferiores y superiores de una clase y dividiendo el resultado entre

dos.

57. Media aritmética: Es una medida de tendencia central que denota el

promedio de un conjunto de datos. Se calcula dividiendo la suma del

conjunto de datos entre el total de ellos. Simbólicamente se representa por

X.

58. Media geométrica: Medida de tendencia central que se usa para medir la

tasa promedio de cambio o crecimiento de alguna cantidad; se calcula

tomando la enésima raíz del producto de n valores que representan el

cambio.
59. Media ponderada: es apropiada cuando en un conjunto de datos cada uno

de ellos tiene una importancia relativa o peso respecto de los demás datos.

Se obtiene multiplicando cada uno de los datos por su ponderación o peso

y luego sumarlos, para obtener una suma ponderada. A continuación se

divide la suma ponderada entre la suma de los pesos, dando como

resultado la media

ponderada.

60. Media: Valor numérico en torno al cual se sitúan los valores de una

característica de los individuos. Es un representante del grupo de sujetos

analizado.

61. Mediana: representa el valor de la variable de posición central en un

conjunto de datos ordenados.

62. Medida de tendencia central: es el dato que queda al centro de un

ordenamiento de menor a mayor.

63. Métodos no paramétricos: Métodos estadísticos que requieren muy poco

o ningún supuesto acerca de las distribuciones de probabilidad de la

población, y acerca del nivel de medición. Esos métodos se pueden aplicar

cuando se dispone de datos nominales u ordinales. Representan el

cambio.

64. Moda: es el valor con una mayor frecuencia en una distribución de datos.

65. Muestra: Es un subconjunto representativo de la población a partir del cual

se pretende realizar inferencias respecto a la población de donde procede.

Los elementos seleccionados con cierta técnica reúnen ciertas


características que la hacen ser representativa, significativa y confiable y

que en base a ella se pueden hacer inferencias respecto a la población. La

muestra puede ser probabilística y no probabilística.

66. Muestreo aleatorio estratificado: Es un método de muestreo que se

aplica cuando se divide la población en grupos, llamados estratos, donde

los datos son más homogéneos pero un estrato frente al otro muy distintos.

Para extraer la muestra aleatoria se aplica el muestreo aleatorio simple a

cada estrato y el tamaño es la suma de los tamaños de todos los estratos.

Para determinar los tamaños de los estratos se puede utilizar la asignación

proporcional, óptima y óptima económica. Si no se conoce la variabilidad de

los datos se aplica la asignación proporcional.

67. Muestreo aleatorio simple: También llamado irrestrictamente aleatorio. Es

un método de muestreo donde una muestra aleatoria simple es

seleccionada de tal manera que cada muestra posible del mismo tamaño

tiene igual probabilidad de ser seleccionada de la población.

68. Muestreo aleatorio sistemático: Es una variante del método aleatorio

simple de selección de cada elemento de la muestra. Se aplica cuando la

población está listada en algún orden. Consiste en seleccionar un número

aleatorio menor que N/n y luego los (n-1) elementos de la muestra se eligen

agregando al primer aleatorio: el entero K obtenido por K=N/n y así

sucesivamente. El primer elemento de la muestra es seleccionado al azar.

Por lo tanto, una muestra sistemática puede dar la misma precisión de

estimación acerca de la población que una muestra aleatoria simple cuando

los elementos en la población están ordenados al azar.


69. Muestreo no probabilístico: Es aquella que se obtiene mediante juicio de

la persona que selecciona los elementos de la muestra que usualmente es

un experto en la materia. Este método está basado en los puntos de vista

subjetivos de una persona y la teoría de la probabilidad no puede ser

empleada para medir el error de muestreo. Las principales ventajas de una

muestra de juicio son la facilidad de obtenerla y que el costo usualmente es

bajo.

70. Muestreo por conglomerados: Es un método de muestreo en el cual la

población está en grupos debido a la organización administrativa u otro

(conglomerados). Ejemplo: Colegios, Universidades, manzanas de casas,

entre otros. Al interior de los conglomerados no se puede garantizar

homogeneidad.

71. Nivel de confianza (1-α): Probabilidad de que el intervalo de confianza

obtenido a partir de los datos de la muestra contenga al parámetro de la

población que se pretende estimar. Aunque puede tomar cualquier valor

entre 0 y 1, el más usual es 0.95 (95%).

72. Nivel de significación (α): Error alfa.

73. Ojiva: Es el polígono de frecuencia acumulada, es decir, que en ella se

permite ver cuántas observaciones se encuentran por encima o debajo de

ciertos valores, en lugar de solo exhibir los números asignados a cada

intervalo

74. Parámetro: Es cualquier valor característico de la población. Ejemplo: la

media de la población, la desviación típica de la población. Sin embargo


estos valores son desconocidos porque no siempre podemos tener todos

los datos de la población para calcularlos.

75. Percentiles: Fractiles que dividen los datos en 100 partes

iguales.

76. Permutación: Son eventos de tipo multiplicativo, donde el número de

posibilidades va disminuyendo y si importa el orden una permutación es un

arreglo de un conjunto de objetos en un orden definido.

77. Población: Es cualquier conjunto de unidades o elementos claramente

definido, en el espacio y el tiempo, donde los elementos pueden ser

personas, granjas, hogares, manzanas, condados, escuelas, hospitales,

empresas, y cualquier otro. Las poblaciones pueden ser finitas e infinitas.

78. Polígono de frecuencia: Es el nombre que recibe una clase de gráfico que

se crea a partir de un histograma de frecuencia. Estos histogramas

emplean columnas verticales para reflejar frecuencias el polígono de

frecuencia es realizado uniendo los puntos de mayor altura de estas

columnas.

79. Potencia (1-β): Valor comprendido entre 0 y 1 complementario al error

beta. Mide el grado de acierto del investigador cuando acepta como

verdadera la hipótesis nula de un test de hipótesis. Su valor se fija a priori,

antes de comenzar la investigación, para conocer el número de individuos

necesario para llevar a cabo el estudio. Cuanto mayor sea la potencia,

mayor será el tamaño de la muestra y, por tanto, más precisos serán los

resultados obtenidos. Habitualmente este error se fija en 0.80, aunque

puede variar dependiendo del tipo de investigación.


80. Principio de multiplicación: Técnica de conteo. Es una de las fórmulas

que pueden utilizarse para contar el número de posibles resultados de un

experimento.

81. Probabilidad clásica: número de resultados favorables a la presentación

de un evento dividido entre el número total de resultados

posibles.

82. Probabilidad condicional: Probabilidad condicional es la probabilidad de

que ocurra un evento A, sabiendo que también sucede otro evento B. La

probabilidad condicional se escribe P, y se lee la probabilidad de A dado

B.

83. Probabilidad conjunta: medida de la verosimilitud del acontecimiento de

eventos

simultáneos.

84. Probabilidad empírica: es la probabilidad estadística real de un sujeto o

una opción, y mide las posibilidades reales e individuales, sobre la medición

de la puntuación directa del sujeto, o de una opción de la cual se ha

medido la frecuencia de ocurrencia.

85. Probabilidad subjetiva: medida numérica de oportunidad que expresa un

grado puramente personal de creencia en la verosimilitud de un

acontecimiento específico de un experimento aleatorio único.

86. Probabilidad: La probabilidad es un método por el cual se obtiene la

frecuencia de un suceso determinado mediante la realización de un


experimento aleatorio, del que se conocen todos los resultados posibles,

bajo condiciones suficientemente estables.

87. Promedio: Número que describe la centralización o tendencia central de

los datos. Existe un cierto número de promedios especializados, entre los

que se incluye la media aritmética, la media ponderada, la mediana, la

moda, y la media

geométrica.

88. Proporción: es el número de veces que se presenta ese dato respecto al

total de datos. Se conoce también como frecuencia relativa y es uno de los

parámetros de cálculo más sencillo. Tiene la ventaja de que puede

calcularse para variables cualitativas.

89. Prueba diagnóstica: Procedimiento destinado a detectar la presencia o

ausencia de una enfermedad en el individuo. Su capacidad de

discriminación está determinada por la sensibilidad y la especificidad,

características propias de cada prueba o test diagnóstico.

90. Rango: al intervalo entre el valor máximo y el valor mínimo; por ello,

comparte unidades con los datos. Permite obtener una idea de

la dispersión de los datos, cuanto mayor es el rango, más dispersos están

los datos de un conjunto.

91. Regla de adición: esta regla expresa la probabilidad de que ocurran dos o

más sucesos a la vez p (A U B). Puede representarse de dos formas para

conjuntos con intersección y para conjuntos mutuamente

excluyentes.
92. Regla de complementación: La probabilidad de que el complemento de

un evento ocurra.

93. Regla de probabilidad conjunta: La probabilidad de que el complemento

de un evento ocurra.

94. Regresión: Técnicas estadísticas que permiten determinar la ecuación

matemática que relaciona un efecto (variable dependiente o respuesta) con

una o varias causas (variables independientes o predictoras).

95. Sensibilidad: Probabilidad de que una prueba diagnóstica proporcione un

resultado positivo cuando el sujeto tiene realmente la enfermedad. Lo ideal

es que esta probabilidad sea 1 siempre que la prueba diagnóstica se

aplique en el grupo de población afectado por la enfermedad. Sin embargo,

no siempre es así. Cualquier prueba puede fallar mostrando un resultado

negativo en un individuo enfermo. La sensibilidad es, por tanto, la

capacidad de la prueba diagnóstica para detectar la presencia de la

enfermedad estudiada.

96. Tamaño de muestra: Número de sujetos necesario para llevar a cabo una

investigación, de manera que los resultados obtenidos a partir de ellos se

aproximen a los resultados que se hubieran obtenido al estudiar a toda la

población. El error cometido en esa extrapolación de resultados es

conocido y prefijado antes de comenzar la investigación. El tamaño de

muestra será mayor cuanto más pequeño sea el error que se desee

cometer.

97. Test de hipótesis: Técnica estadística utilizada para decidir si una

afirmación establecida por el investigador sobre la población de estudio es


compatible con los resultados observados en una muestra. Cualquier test

de hipótesis se compone de una hipótesis nula, formulada en términos de

igualdad o negación, y una hipótesis alternativa.

98. Test diagnóstico: Prueba diagnóstica

99. Valor P: Valor comprendido entre 0 y 1 que está asociado a un test de

hipótesis. Es la probabilidad de encontrar un resultado como el obtenido en

la muestra, o incluso más extraño, cuando la hipótesis nula es cierta. La

hipótesis nula será rechazada siempre que esta probabilidad sea muy

pequeña, inferior al nivel de significación preestablecido.

100. Valor predictivo negativo: Probabilidad de que un individuo no

padezca la enfermedad cuando la prueba diagnóstica aplicada proporcione

un resultado negativo. Este valor depende tanto de la especificidad y de la

proporción de falsos negativos de la prueba como del número de personas

enfermas registrado en la población a la que pertenece el individuo. Por

este motivo, el valor predictivo negativo puede ser diferente dependiendo

del país o región en que se calcule, aún utilizando la misma prueba

diagnóstica.

101. Valor predictivo positivo: Probabilidad de que un individuo padezca

la enfermedad cuando la prueba diagnóstica aplicada proporcione un

resultado positivo. Este valor depende tanto de la sensibilidad y de la

proporción de falsos positivos de la prueba como del número de personas

enfermas registrado en la población a la que pertenece el individuo. Por

este motivo, el valor predictivo positivo puede ser diferente dependiendo del
país o región en que se calcule, aún utilizando la misma prueba

diagnóstica.

102. Variable aleatoria continua: Es una variable cuantitativa. Es la

característica de la población, cuyos valores están representados mediante

el conjunto de los números reales. Puede tomar cualquier valor real dentro

de un intervalo. Por ejemplo, la velocidad de un vehículo puede ser 80,3

km/h, 94,57 km/h.

103. Variable aleatoria discreta: Es una variable cuantitativa. Es la

característica de la población, cuyos valores están representados mediante

el conjunto de los números naturales. Por ejemplo, el número de alumnos

de un aula.

104. Variable aleatoria: Conocida también como variable estocástica o

probabilística. Es la característica considerada en un experimento aleatorio

cuyo valor de ocurrencia sólo puede saberse con exactitud una vez

observado.

105. Variable cualitativa: Característica que recoge una cualidad de los

individuos de la muestra. Una variable cualitativa no puede medirse con un

instrumento ni lleva asociada una unidad de medida. La gravedad de un

accidente es una variable cualitativa ordinal, ya que registra una cualidad

que pueden ordenarse de forma natural de menor a mayor severidad. El

sexo, en cambio, es una variable cualitativa nominal porque sus categorías,

masculino y femenino, no tienen un orden natural preestablecido.

106. Variable cuantitativa: Característica de los individuos de la muestra

que puede medirse con un instrumento y lleva asociada una unidad de


medida. El peso es una variable cuantitativa, ya que puede medirse con

una báscula y su unidad de medida es el gramo. Además, esta variable es

continua, ya que el valor del peso asignado a cada individuo puede tener

tantos decimales como admita la precisión de la báscula. Otras variables

cuantitativas, como el número de hijos, se denominan discretas porque sus

valores solo pueden ser números enteros, sin decimales.

107. Variable: Cualquier característica de los individuos que componen la

muestra que toma un valor diferente para cada uno de ellos. La edad y el

sexo son variables habituales en muchas investigaciones.

108. Varianza: Valor mayor o igual a cero que mide la dispersión de una

característica de los individuos alrededor de la media del grupo. Los sujetos

serán más parecidos u homogéneos entre sí cuanto más próxima a cero

esté la varianza. Su unidad de medida es la unidad de medida de la

variable original elevada al cuadrado. Su valor coincide con el cuadrado de

la desviación típica.

Vous aimerez peut-être aussi