Vous êtes sur la page 1sur 133

ARQUEOLOGIA Y ESTADISTICA

1
Introducción al estudio de la
variabilidad de las evidencias
arqueológicas

Juan A. Barceló
Laboratori d’Arqueologia Cuantitativa i Aplicacions Informàtiques
Universitat Autònoma de Barcelona

2007
INDICE

Presentación .................................................................................................................... 3
¿Para qué sirve la estadística en arqueología? ............................................................ 6
La naturaleza estadística de los datos arqueológicos. ............................................... 12
Primeros pasos con PAST. Instalación del programa................................ 19
Primeros pasos con PAST. Introducción y manipulación de datos
arqueológicos................................................................................................................. 20
Introducción de datos ................................................................................................. 20
Cargar y guardar datos................................................................................................ 22
Mover una fila o una columna.................................................................................... 23
Selección de áreas....................................................................................................... 23
Renombrar filas y columnas ....................................................................................... 25
Aumentar el tamaño de la hoja de cálculo.................................................................. 25
Cortar, copiar, pegar ................................................................................................... 25
Eliminar ...................................................................................................................... 26
Agrupar (colorear) filas .............................................................................................. 26
Ordenar valores en una columna ................................................................................ 27
Transponer .................................................................................................................. 28
Resultados de las pruebas estadísticas........................................................................ 29
¿Qué forma tiene la distribución?............................................................................... 30
Histogramas .................................................................................................................. 30
¿Cuán variables son las consecuencias materiales de las acciones sociales?........... 39
Estadística Univariante ................................................................................................ 39
El azar como medida de todas las cosas. La Ley de la “Normalidad” .................... 45
Explicar es Comparar .................................................................................................. 53
χ2 - chi cuadrado-/Shapiro-Wilk (una muestra). ...................................................... 53
Gráficos QQ de Normalidad........................................................................................ 53
Asociación, Relación y Semejanza. ............................................................................. 69
Tres palabras clave para un mismo problema........................................................... 69
Estudiando Relaciones entre variables. ...................................................................... 79
Relación entre variables cuantitativas ........................................................................ 80
Una de las medidas de la intensidad de una relación.......................................................................87
Relación entre variables cualitativas y cuantitativas .................................................. 95
Analisis de Varianza Univariante ...................................................................................................105
Relación entre variables cualitativas ........................................................................ 113
Analisis de Correspondencias.........................................................................................................122
Contenidos del próximo volumen de la serie ........................................................... 133

2
Presentación

Aunque la mayoría de arqueólogos y arqueólogas no lo crea, la arqueología es una


disciplina matemática (según dijo en su día David Clarke), en pie de igualdad con la
química, la física, etc. Es decir, para resolver problemas arqueológicos debemos utilizar
métodos de razonamiento desarrollados en lenguaje matemático. Obviamente no es éste
el lugar para discutir este punto, pero si los lectores y lectoras de este manual siguen
leyendo, entenderán por qué digo lo que digo.

La dificultad está en que no sabemos matemáticas. Aunque existen muchos programas


informáticos que debieran ayudarnos a aplicar esas matemáticas, lo cierto es que su uso
parece ser demasiado complicado para quien no tiene los conocimientos necesarios. Por
eso se ha escrito este libro, que:

• proporciona ejemplos fáciles de seguir de todas las técnicas usadas en arqueología,


• documenta de manera esquemática, intuitiva, simple y directa todas las funciones
estadísticas que pudieran llegar a ser útiles para arqueólogos y arqueólogas, mostrando
ejemplos claros de todas ellas,
• no está basado en fórmulas, sino que se explican para qué sirven los cálculos que realiza
un programa informático.
• Este libro está ajustado al uso del programa gratuito PAST.

Este libro ha sido escrito especialmente para aquellos investigadores e investigadoras (y


estudiantes de arqueología que pretenden convertirse en futuros profesionales de nuestra
disciplina) que no sólo no tienen ni idea de las matemáticas, sino que aprendieron a
odiarlas en sus años de escuela. Números aparecerán en gran cantidad, pero las
operaciones (aritméticas, algebraicas, etc.) se obviarán y serán sustituidas por
explicaciones intuitivas de lo que se pretende con esas técnicas.

Para este proyecto se ha elegido un programa informático muy particular: PAST 1 –


Paleontological Statistics-, original de Øyvind Hammer, D.A.T. Harper and P.D. Ryan.
Existen muchos y muy completos programas para realizar cálculos estadísticos, como
por ejemplo SPSS, SAS y extensiones para Excel. ¿Por qué otro programa de estadística?
Porque:
• PAST es gratuito,
• PAST está ajustado a su uso en paleontología y arqueología. Esto significa que
incluye algunas funciones que no aparecen en programas de uso general (como
cladística, seriación, morfometría y comparación estratigráfica). Igualmente, no
incluye funciones raramente usadas en nuestras disciplinas, lo que permite al
programa ser más ajustado y menos confuso.
• PAST es fácil de usar, y apropiado para los cursos introductorios de
paleontología y arqueología cuantitativas.

1
Hammer, Ø., Harper, D.A.T., and P. D. Ryan, 2001. PAST: Paleontological Statistics Software Package
for Education and Data Analysis. Palaeontologia Electronica 4(1): 9pp. http://palaeo-
electronica.org/2001_1/past/issue1_01.htm.

3
Ya sólo por su nombre past (“pasado”) parece hecho ex profeso para nosotros,
arqueólogos. Es un acrónimo de “estadística paleontológica”, y la paleontología y la
arqueología tienen muchas semejanzas y analogías, al menos en lo que a metodología se
refiere. No obstante, las funciones estadísticas usadas en paleontología no siempre son
las mismas que las usadas en arqueología, por eso necesitamos de un libro como éste,
que adapta PAST a su uso en arqueología.

La página web de referencia del programa PAST, y donde puede obtenerse


gratuitamente es:

http://folk.uio.no/ohammer/past

Los usuarios pueden suscribirse a una lista de correo electrónico acerca del uso del
programa. Los detalles aparecen en la página web cuyo enlace es el siguiente:

http://nhm-lists.uio.no/mailman/listinfo/past-users@nhm.uio.no

Este manual es el primero de una serie de publicaciones del Laboratorio de Arqueología


Cuantitativa de la Universidad Autónoma de Barcelona que documenta otras funciones
de PAST y que también recurrirá a otros programas gratuitos. Por el momento están
previstos los siguientes volúmenes, que irán apareciendo con periodicidad anual:

Vol. 1. Introducción al estudio de la variabilidad de las evidencias arqueológicas


(Estadística Univariante y Bivariante)
Vol. 2. Estadística Multivariante
Vol. 3. Morfometría
Vol. 4. Análisis Espacial
Vol. 5. Seriación y Predicción
Vol. 6. El análisis estadístico de la Causalidad. Estadística bayesiana

En este primer libro tan sólo vamos a tratar en general la manera de enfocar el análisis
de una distribución de valores. Como es lógico, el análisis de distintas propiedades
cuantitativas requiere estrategias y procedimientos diferentes. Aquí meteremos dentro
del mismo paquete el estudio de la magnitud, de la forma, de la textura, de la
composición y de la localización de las evidencias arqueológicas. Se me ocurren dos
ámbitos específicos que requieren de una exposición más detallada: el estudio de la
forma y el de la localización. El primero se abordará en el volumen dedicado a
morfometría, en tanto que el segundo encontrará acomodo en el volumen referido al
análisis espacial. Por otro lado, algunas de las técnicas más usuales no han encontrado
lugar en este primer libro por varias razones. Por ejemplo, en varias ocasiones se
menciona el análisis de las semejanzas entre objetos (o estudio de la similaridad), pero
nada se explica de él. El estudio de la semejanza implica necesariamente la
comparación de muchas variables, y eso es matemáticamente más complejo. Por ese
motivo he preferido dejarlo para introducir el próximo volumen, que trata precisamente
del análisis multivariante. Además, algún lector o lectora puede encontrar a faltar
referencias a la regresión. La mayoría de libros de introducción a la estadística la
mencionan entre las técnicas básicas; quizás sea una técnica fundamental en otras
disciplinas, pero en arqueología prácticamente nunca he encontrado relaciones lineales
que puedan ser analizadas por medio de ecuaciones de regresión simple. Creo que el
estudio de la regresión es muy interesante para introducir cuestiones mucho más útiles
(pero también más difíciles) como el de las regresiones múltiples y las regresiones no

4
lineales. Todos esos temas habrán de esperar hasta el volumen dedicado a seriación y
predicción.

Un segundo libro acompaña a este manual. Se trata de un libro de ejemplos y problemas


arqueológicos, que pueden obtenerse en la página web de referencia para este manual:

http://seneca.uab.es/prehistoria/Barcelo/manualestadistica.html

En ese documento (en formato .pdf) las distintas funciones estadísticas de PAST
presentadas y discutidas en el libro se ejemplifican con arreglo a varios casos
arqueológicos reales. Se ha intentado que los lectores y lectoras del manual se vayan
acostumbrando al tipo de resultados estadísticos más usuales en arqueología y a la
complejidad de su lectura e interpretación. El documento que contiene esos problemas
resueltos se irá actualizando frecuentemente, incluyendo nuevos casos reales. Se invita
a los lectores y lectoras a sugerirnos nuevos ejemplos o casos que se deseen incluir

AGRADECIMIENTOS.

Este libro y los que le seguirán son el resultado de 15 años de docencia de la


Arqueología Cuantitativa en la Universitat Autónoma de Barcelona. Es por tanto obvio
que mi mayor agradecimiento va hacia los y las estudiantes que pasaron por las
asignaturas de Introducción a la Arqueología, Métodos Cuantitativos en Arqueología,
Recursos Instrumentales para la Investigación Histórica, Técnicas de Laboratorio,
Archivo y Campo, así como por la asignatura de doctorado Técnicas de Inteligencia
Artificial en Arqueología. Si aprendieron algo de mí, también yo aprendí mucho de
ellos y ellas.

Mi agradecimiento va también dirigido a mis compañeros y compañeras del equipo de


investigación conjunto UAB/CSIC de Barcelona. Con ellos he realizado numerosos
análisis estadísticos para interpretar los datos arqueológicos procedentes de nuestras
excavaciones en Tierra del Fuego (Argentina), así como datos proporcionados por otros
compañeros en proyectos arqueológicos en Próximo Oriente, Península Ibérica y otros
lugares. Si la aplicación de esas técnicas permitió llevar a cabo muchos proyectos e
incluso sirvió para desarrollar algunos aspectos importantes de muchas Tesis Doctorales,
los problemas que plantearon estimularon una reflexión acerca de lo apropiado o
inapropiado de los métodos que no podría haberse llevado a cabo sin su ayuda. Gracias
a todos ellos la estadística dejó de ser un mero recurso teórico para convertirse en una
herramienta práctica, integrada en el trabajo cotidiano de arqueólogos y arqueólogas.
María Elena Iriarte corrigió mil y un detalles tipográficos y de redacción, así como
algún que otro error importante que había escapado a mi atención. Sin su ayuda el libro
sería mucho más imperfecto de lo que es ahora. Por descontado, ni ella ni nadie tiene la
culpa de los errores que aún puedan existir. El único responsable es, obviamente, el
autor.

Laura y Martí merecen un agradecimiento muy especial. El llegó cuando aún no había
empezado con este proyecto, y ahora está aquí, metiendo sus pequeñas manitas en el
teclado del ordenador y deshaciendo aquello que yo pretendo hacer. Ella ha estado
siempre a mi lado, leyó y corrigió varios manuscritos previos y se dedica en cuerpo y
alma a nosotros dos. Gracias.

5
¿Para qué sirve la estadística en
arqueología?

Si por un momento dejáramos de pensar en la investigación arqueológica en los


habituales términos narrativos y descriptivos, nos daríamos cuenta de que como
investigación científica que es, debe expresarse en términos de problemas a resolver. La
arqueología es una ciencia social, es una disciplina histórica, pero ni es la única ciencia
social, ni la única disciplina histórica. Por consiguiente no debemos pretender
responder aquí y ahora todos los problemas de la humanidad, sino resolver problemas
concretos y específicos que se refieran al tipo de datos que podemos llegar a manejar.
Debemos huir de trivialidades del tipo de: “¿Cómo vivía la gente en el pasado?” y
centrarnos en:

¿Por qué estos materiales


arqueológicos son como son, y
no de otra manera?

El objeto de estudio de la arqueología son las consecuencias materiales de la acción


humana, esto es del trabajo de mujeres y hombres. Como resultado de nuestro trabajo,
de nuestras relaciones con otras personas, producimos objetos, transformamos cosas, ya
sea de manera consciente, ya sea de manera inconsciente. Algunas de esas
consecuencias de lo que hacemos tienen una materialidad que va más allá de su mera
visibilidad. Por ejemplo, el lenguaje hablado es una consecuencia de la actividad social,
es perceptible, pero no tiene materialidad, a no ser que lo escribamos sobre un soporte
material. Por el contrario, un instrumento de trabajo o la pata de pollo que me comí
anoche, son también consecuencias observables de la acción social, que además tienen
la característica de ser analizables en su materialidad.

Otras disciplinas se encargan de otros aspectos no materiales de la vida social. Debemos


saber lo suficiente de sociología, de economía, de psicología social, etc., pero nosotros
debemos centrarnos en aquellos aspectos que sólo la investigación arqueológica puede
estudiar: aquello que se conserva de la acción social una vez que ésta ha concluido. Y lo
que se conserva es, precisamente, un subconjunto de lo material. Debemos estudiar
cómo la acción social generó, a lo largo del tiempo, consecuencias materiales y sus
relaciones. Esto no significa que la causa de esa materialidad antigua observable en el
presente se reduzca a lo que se ha dado en llamar “economicismo” de vía estrecha. No
sólo la subsistencia genera consecuencias materiales, sino cualquier acción social, tanto
política, como económica, como ideológica.
Las ciencias sociales pretenden resolver dos tipos o modalidades de problemas:
• qué tipos de acción social pueden ponerse en relación con
conjuntos específicos de artefactos o fragmentos de artefactos. Es
decir, qué efectos materiales produce la acción social y de qué

6
manera podemos “reconstruirla” partiendo de la observación de
esos efectos,
• por qué la acción social en cuestión se produce, cambia o
permanece estable. Es decir, por qué varían a lo largo del tiempo
y/o del espacio los efectos materiales de la acción social.
Resulta obvio que la resolución de problemas del primer tipo es una condición para la
resolución de los del segundo tipo. Si no sabemos qué acciones colectivas se produjeron
en un momento y lugar, difícilmente averiguaremos por qué cambiaron a través del
tiempo, y por qué la acción colectiva cristalizó en distintas formaciones sociales.

Dentro de las ciencias sociales, la arqueología aparece en realidad como una especie de
“ingeniería inversa”, cuyos resultados serán utilizados en investigaciones más abstractas
o interpretativas acerca de la naturaleza social:

¿Qué acción social (proceso de trabajo)


causó (determinó, condicionó, influyó)
el efecto material que puedo observar
en el yacimiento arqueológico?

Nosotros conocemos el efecto (material arqueológico), y deseamos averiguar la acción


social que lo produjo. No quiere esto decir que la arqueología sea una parienta pobre de
la historia, ni que arqueólogas ni arqueólogos no sean investigadores o investigadoras
de la historia, sino que antes de resolver un problema histórico (“¿por qué pasó?”),
debemos resolver el problema arqueológico (“¿qué pasó?”).
Es en los distintos productos finales (materias primas, instrumentos, residuos y
desechos) donde quedan reflejados los procesos de trabajo. El estudio arqueológico de
los productos, de los desechos de producción y de los medios usados para producirlos
debiera permitirnos, entonces, identificar los lugares de producción y establecer cuáles
han sido los procesos de trabajo y las acciones de uso, consumo y/o distribución. La
arqueología analiza los objetos que son resultado del trabajo, que son producto de la
acción colectiva. Pero no los estudiamos porque ellos mismos sean importantes, por las
intenciones o motivaciones individuales de los agentes que los produjeron, sino porque
constituyen el aspecto “observable” de una parte de la acción colectiva; porque
constituyen el conjunto de elementos materiales que usa el grupo humano para subsistir
y reproducirse. Los bienes producidos, ya sean destinados a ser comidos, bebidos o para
producir otros bienes, no son más que elementos naturales alterados por el trabajo. Todo
lo que ha sido modificado en su forma, en su tamaño, en su composición, en su textura,
en su localización, es pues un elemento del registro arqueológico. Los animales
salvajes, las piedras, la tierra, los bosques, los ríos no son artefactos, sino recursos, pero
las carcasas animales, los bloques extraídos de mineral, la tierra cultivada, el paisaje
transformado, el agua que se va a beber o se va a utilizar para regar son artefactos, ya
que su materialidad ha sido alterada por acciones colectivas como la caza, el despiece,
el transporte y repartición de la carne, su cocción y la fragmentación de huesos, el
cultivo, el embalse de aguas y su canalización, la deforestación, la fabricación de
instrumentos, etc. Es un artefacto todo lo que ha sido modificado por la acción
colectiva, que explota y organiza sus recursos, que deforesta, aterraza, y construye o
destruye. Si la acción colectiva modifica la naturaleza, entonces podemos utilizar las
modificaciones observables en la materialidad de las cosas para inferir las acciones
colectivas que se han realizado en determinado lugar. Es en este sentido, en el que todo

7
objeto socialmente producido funciona como símbolo o indicador de una realidad social
que está definida, precisamente por la acción colectiva, es decir, la capacidad del grupo
social para producir y reproducirse.

El primer paso en esa ingeniería inversa que pretende averiguar la causa partiendo de la
observación del efecto es, lógicamente, describir esa materialidad resultado de la acción
social. La materialidad puede estudiarse con arreglo a 5 propiedades básicas:

FORMA
TAMAÑO
COMPOSICIÓN
TEXTURA
LOCALIZACIÓN (en el tiempo y en el espacio)

A su vez, las causas sociales de esas propiedades observables en las consecuencias


materiales de la acción social pueden resumirse en cuatro grandes grupos:

PRODUCCIÓN
USO/CONSUMO
DISTRIBUCIÓN
ACCIONES POST-DEPOSITACIONALES

El gráfico muestra cómo causas y efectos se interrelacionan:

PROCESOS POST-DEPOSITACIONALES
PRODUCCION

Forma
Tamaño
Distribución Composición
Textura
Localización

USO
ACCION INVESTIGADORA

Por descontado, en muchas ocasiones (a veces la mayoría) los materiales arqueológicos


tienen la forma o el tamaño que tienen debido a todo lo que pasó desde el momento
histórico de su depositación hasta la excavación arqueológica. El elemento original que
fue consecuencia de la acción social pudo haberse roto, pudo haberse alterado en su
composición química, pudo haberse desplazado, su contenido en carbono 14 pudo
haberse contaminado, etc. El primer problema arqueológico a resolver consistirá en
averiguar hasta qué punto lo que observamos es resultado de lo que tuvo lugar en el
yacimiento arqueológico después de que la acción social original se produjera. Una vez
que hayamos podido resolver qué aspectos de la materialidad arqueológica no son una
consecuencia de todo aquello que sucedió en el yacimiento arqueológico después de su
formación, pasaremos a plantear el problema arqueológico propiamente dicho, que
puede esquematizarse de este modo:

8
TAMAÑO
PRODUCCION FORMA
Qué acción de USO es la causa de
COMPOSICION
DISTRIBUCION TEXTURA
LOCALIZACION

Pero no es tan sencillo como parece. Este problema muy pocas veces puede resolverse
para elementos arqueológicos individuales. ¿Por qué esta vasija tiene esta forma?
Quizás porque es la forma más apropiada para el uso al que se la destina, o bien por
accidente, por capricho de quien hizo esa cerámica, o por otras razones. Hay millones
de causas posibles. ¿Quiere esto decir que los problemas arqueológicos son de
resolución imposible? ¿No existiría entonces esa ingeniería inversa de la que
hablábamos?

En parte es así. La arqueología es una ciencia “imposible”, de ahí sus muchos fracasos
interpretativos. Pero existe una salvedad, que es precisamente la que justifica la
naturaleza “matemática” de la arqueología. Lo que no se puede resolver para un
elemento aislado, puede ser resuelto para un conjunto de elementos. ¿Por qué estas
hachas tienen distintas longitudes? Porque fueron fabricadas con propósitos distintos.
¿Por qué en estas tumbas aparecen ajuares con composición diversa? Porque fueron
producidos por rituales funerarios distintos. El problema arqueológico se expresaría
entonces de otro modo:

VARIACIONES
PRODUCCION OBSERVADAS DE:
Qué acciones de son la causa de
USO TAMAÑO
DISTRIBUCION FORMA
COMPOSICION
TEXTURA
LOCALIZACION

Es muy difícil, a veces imposible, saber por qué una tumba en particular tiene cierta
composición (cantidad de ajuar), cierto tamaño (volumen) o forma (es una fosa o un
túmulo o una urna dentro de fosa, etc.). Puede que sea la tumba del cacique local, de un
chamán, de una persona pobre, pero con muchos amigos, de alguien odiado y temido,
etc. No podemos conocer el “significado” concreto de cada elemento arqueológico,
porque resulta imposible “reconstruir” las motivaciones de los agentes sociales que lo
produjeron o lo utilizaron. Pero sí podemos averiguar por qué hay diferencias de
composición, tamaño y forma en una necrópolis. Las tumbas son distintas porque las
causas que las generaron fueron distintas. Si no podemos precisar la causa individual, sí
podemos llegar a definir causas más generales: lo que varía es el rito funerario, y el rito
funerario es diverso porque la personalidad social de la familia del fallecido es
diferente. Da igual si la persona enterrada fue una jefa, una chamán o una buena o mala
persona; lo que importa es que su tumba es distinta del resto, y el grado y la naturaleza
de esa diferencia puede medirse y estudiarse.
Por consiguiente, para explicar la dinámica de la acción colectiva, para explicar los
procesos históricos de creación y transformación de las formaciones sociales no es
necesario averiguar por qué cada uno de los artefactos arqueológicos (los productos del

9
trabajo realizado por un grupo de personas relacionadas, precisamente, en razón de ese
trabajo) son como son o aparecen donde aparecen, ya que ese estudio resulta, en la
práctica, imposible, además de sin sentido. Tampoco necesitamos modelos universales
de acción colectiva para poder interpretar los observables arqueológicos como sus
realizaciones particulares. Se trata simplemente de buscar las regularidades históricas en
la reproducción de acciones colectivas específicas. Buscamos la regularidad o
irregularidad, la semejanza o la diferencia, la continuidad o la variación de las
consecuencias materiales de distintas acciones sociales.
Comparando estados sucesivos de una misma trayectoria histórica, podemos estudiar
qué ha cambiado y en qué condiciones ha cambiado. En biología se acepta que la
morfología es el rastro dejado por el desarrollo, tenemos que comprender el desarrollo
si queremos comprender la evolución. Semejante enfoque puede ser adaptado en
arqueología, si añadimos a la morfología (forma y tamaño) propiedades como la
composición, la textura y la localización. Así por ejemplo, podemos estudiar todas las
formas de ritual funerario que han tenido lugar en el espacio que hoy ocupa la ciudad de
Barcelona desde las primeras manifestaciones hasta hoy en día. Ordenando
temporalmente las tumbas y cementerios, definiremos la trayectoria histórica de una
formación social particular. Esta trayectoria está compuesta por los distintos estados que
ha ido adoptando la acción colectiva. Las semejanzas y las diferencias entre estados
consecutivos nos proporcionarán información acerca de la continuidad o discontinuidad
en su reproducción.
El estudio de las causas de las diferencias observadas, de la variabilidad de las
consecuencias materiales de la acción social, constituye el tema básico de investigación
en arqueología. Pero el estudio de la variabilidad, como el de la semejanza, o el de la
diferencia, y en realidad el análisis de cualquier tipo de comparación debe realizarse con
útiles lógicos muy específicos. Si no formalizamos estrictamente esta forma de pensar,
los resultados de la comparación que haga yo nada tendrán que ver con las
comparaciones que haga otro investigador o investigadora. El estudio de la variabilidad
sólo puede llevarse a cabo correctamente usando el lenguaje matemático y reglas
específicas de razonamiento que constituyen precisamente el núcleo de la estadística.
Intentaremos argumentar estas ideas en multitud de ejemplos a lo largo de este manual.
Problemas arqueológicos para los que es posible encontrar una solución por medio de
herramientas estadísticas serían, por ejemplo:

• ¿Por qué ciertas puntas de lanza tienen formas distintas? ¿Se debe a procesos de
producción diferentes, a que son productos de distintos talleres, de diferentes
procedencias, o bien el uso al que se destinaban era diferente?

• ¿Por qué distintos tipos de vasijas tienen distinta decoración? La causa de la


variabilidad observada puede estar en el uso al que se destinaban esas cerámicas,
a la forma en que fueron producidas, a su procedencia, etc.

• ¿Por qué distintos contenedores tienen una composición diferente en términos


porcentuales? Asumiremos que si el proceso de producción y/o el uso al que se
destinó cada contenedor es el mismo, entonces la composición química de la
materia de la que están hechos será la misma. Producción y/o intención de uso
serán pues las causas de la variabilidad observada en la composición.

10
• Asumimos que el uso de los útiles líticos (cortar madera, raspar piel, etc.)
modifica las características visuales de la superficie de ese útil. Son las llamadas
“huellas de uso”. El problema a resolver es entonces qué acción (de uso) explica
la variabilidad observada en la textura superficial de un conjunto de objetos
líticos. ¿Los útiles que sirvieron para cortar madera tienen la misma textura que
los que sirvieron para raspar piel fresca? ¿Es similar la textura superficial –
huellas de uso- de los útiles de sílex que sirvieron para cortar materias duras?

• ¿Por qué aparecen huesos distintos de diversas especies animales en un


yacimiento arqueológico? Lo más lógico sería suponer que eso es así porque los
habitantes de este lugar explotaron especies distintas, y cada especie tiene una
anatomía diversa, lo que motiva que el uso del cuerpo del animal (despiece,
carnicería, aprovechamiento de partes no cárnicas, etc.) sea diferente, según sea
la especie. ¿Por qué aprovechaban de manera distinta las distintas partes del
animal? Por otro lado, ¿por qué aprovecharon especies distintas? Quizás porque
sólo cazaron las más abundantes en su entorno, o quizás sólo estaban interesados
en las que les eran más útiles, al margen de su abundancia o facilidad de captura.

• ¿Por qué distintos tipos de materiales arqueológicos aparecen en localizaciones


distintas? La respuesta más sencilla sería porque las consecuencias materiales de
la acción de trabajo (los artefactos) aparecen allí donde la acción tuvo lugar. El
estudio de la variabilidad espacial consistirá, por tanto, en estudiar si la
localización espacial de distintos tipos de artefactos o evidencias es o no es
distinta, y asociarla con las hipótesis acerca de qué es lo que se hizo en cada
localización. Por ejemplo, ¿por qué en distintos sectores de un yacimiento
arqueológico las muestras de carbón son distintas? Las explicaciones pueden ser
varias, pero en general se refieren a la adquisición y aprovechamiento de la leña
por la sociedad en cuestión. Por ejemplo, porque esas eran las especies vegetales
leñosas disponibles en el entorno, o porque esas especies tienen un rendimiento
calórico más eficaz para cierta actividad de trabajo realizada en esa localización.

• ¿Por qué las tumbas de cierta necrópolis son diferentes? Uno de los temas de
investigación recurrentes en la llamada arqueología de la muerte es,
precisamente, el estudio de la variabilidad social, en términos de la variabilidad
observada en el registro arqueológico. En este caso, la variabilidad observada se
refiere a la variabilidad en la composición de dicho registro, es decir, las
diferencias en el contenido de las tumbas. Cabría añadir también las diferencias
en la forma y en el tamaño de las tumbas. La causa de esas diferencias, esto es,
la variabilidad social se puede entender de dos maneras: Variación Horizontal
(diferencias de género, esto es, entre hombres y mujeres), y Variación Vertical
(diferencias de riqueza) dentro de cada una de las categorías horizontales.

• Si una serie de yacimientos arqueológicos fueron ocupados en el mismo


momento por la misma gente y se encuentran muy próximos unos de otros, ¿por
qué la presencia o ausencia de distintos tipos de materiales es diferente entre
ellos? Quizás porque las actividades que tuvieron lugar en cada uno de esos
sitios fue distinta, relacionada con la división social y espacial del trabajo en esa
sociedad.

11
La naturaleza estadística de los datos
arqueológicos.

Podríamos pensar que la utilización de las matemáticas y de los números en arqueología


o ciencias sociales no es más que un recurso fácil para tapar los agujeros de la disciplina
y afirmar su “cientificidad” y precisión, ya que se usa el más científico de los métodos.
No es así, el uso de las matemáticas y los números no es ninguna panacea. Podemos
usar la matemática sin finalidad alguna, como si el mero hecho de traducir en números
nuestras observaciones arqueológicas fuese ya bastante. ¿Qué sentido tiene decir que
han aparecido 700 fragmentos de cerámica, o que el peso de todos los huesos de ciervo
encontrados en esa cueva llegaba a los 5123 gramos? Esta forma “a-crítica” de
cuantificar la arqueología es resultado de una visión, desgraciadamente muy
generalizada, que considera a esta disciplina como una ciencia de segundo orden, que
debe aceptar sin rechistar lo que otras disciplinas mejor equipadas conocen mejor. De
ese modo, se han usado las viejas teorías antropológicas y/o históricas como si se tratase
de axiomas fundamentales de la dinámica social. En muy pocos casos se ha intentado
reevaluar esas teorías a la luz de los descubrimientos arqueológicos. Aún peor,
prácticamente nunca se ha señalado el ámbito específico de la arqueología en el estudio
de la sociedad humana.
Durante mucho tiempo arqueólogos y arqueólogas han permanecido absolutamente
ajenos/as a esta cuestión. O bien no se les ocurría que sus datos arqueológicos podían
ser interpretados con ayuda de métodos matemáticos, o bien negaban explícitamente esa
posibilidad, creyendo que lo único que había que hacer era encontrar una fecha para los
cacharros que desenterraban. En los últimos años, sin embargo, son muchas las
investigadoras e investigadores que han descubierto la necesidad de sustituir
explicaciones tradicionales por estudios más completos que pretenden averiguar la
causa social de la variabilidad material observada.
Las matemáticas no sustituyen a las palabras, sino que nos permiten ir más allá de sus
capacidades descriptivas. Los números describen aspectos que los sustantivos, los
adjetivos y verbos no pueden. Hemos de tener bien presente que la matemática no es
una propiedad de la naturaleza. No hay cosas y fenómenos de tipo matemático y otros
que no lo sean, sino que siempre que expresemos una idea por medio de relaciones de
orden entre sus componentes, estaremos expresándola matemáticamente. La matemática
es, por tanto, un lenguaje artificial usado para representar cosas. Los enunciados
2 + 2 = 52
la cerámica está barnizada

2
¡Sí, ya lo sé, esto es un error! Pero el enunciado, aunque erróneo, sigue siendo un enunciado matemático.
El lenguaje matemático no sólo sirve para expresar verdades, sino también errores. A diferencia del
lenguaje verbal, esos “errores” son fácilmente identificables. Si estás leyendo esta nota es porque
identificaste un error.

12
son formalmente idénticos, aunque su contenido no sea intercambiable fácilmente.
Teóricamente, puedo expresar una suma en palabras, al igual que puedo expresar los
rasgos materiales que caracterizan un objeto mediante números, pero ello supondría
forzar los límites del lenguaje. ¡Sería como usar bombas atómicas para matar mosquitos!
Convengamos, pues, que cada tipo de lenguaje sirve para representar fenómenos
distintos. Por extensión, diremos que un fenómeno que sólo puede expresarse
matemáticamente es un fenómeno matemático, no porque lo defina una propiedad
numérica, sino porque es distinto de los fenómenos describibles mediante palabras.
Estudiemos las características principales de este lenguaje matemático. Su unidad
significativa básica (el signo) es un concepto que recibe el nombre de CANTIDAD. El uso
habitual de la palabra indicaría que es un tipo de propiedad: ciertas entidades tienen
cantidades de algo y otras no. Podríamos definirla entonces como: aquella propiedad de
las entidades que admite una gradación; en definitiva, cualquier propiedad que permita
una ordenación de las entidades es una cantidad. Por consiguiente, la cantidad será el
opuesto de aquellas propiedades absolutas que no admiten grados y que no generan
ordenaciones (CALIDAD). Llamaremos MEDICIÓN a la operación de asignar números
que representen el grado en que un objeto o fenómeno tenga la propiedad cuantitativa a
la que se ha hecho referencia; llamaremos DESCRIPCIÓN a la operación de asignar
etiquetas –verbales o numéricas- que representen la presencia o ausencia de la
propiedad cualitativa a la que se hace referencia.
Los filósofos no están de acuerdo a la hora de investigar estos conceptos. Para algunos
(enfoque positivista), la cantidad es una propiedad inherente a los objetos, por lo que
existe antes que tenga lugar la operación de medir. La cantidad no sería una
consecuencia de la observación, ni sería el observador el que la impusiera, sino que
sería una característica propia e intransferible del objeto observado. Para otros filósofos
(enfoque subjetivista) la cantidad no existe antes que el proceso de medición tenga lugar.
No hay cantidades en la naturaleza, sino operaciones de medida artificiales, que
proporcionan unos resultados más o menos coherentes. Como en todo, siempre hay
terceras vías; así, según los partidarios del enfoque relacional, una cantidad existe si y
solo si existe una relación cuantitativa entre dos objetos. Un objeto tendrá, pues, una
cantidad de algo si toma parte en una relación cuantitativa. Pero, ¿qué es una
RELACIÓN CUANTITATIVA? Una relación de orden, tal que:

A es mayor en q que B
A es igual en q que B
A es menor en q que B
Por ejemplo, un objeto A es de menor tamaño (q) que otro objeto B. Tamaño es aquí
una cantidad. Pero no todas las cantidades son iguales, sino que variarán según la
relación de orden que se pueda establecer. Así, por ejemplo, no es lo mismo el tamaño
que el color de un objeto. Es fácil entender que el tamaño sea una propiedad
cuantitativa. En nuestra vida cotidiana casi siempre usamos cantidades para expresar el
tamaño de las cosas que vemos. ¿Podemos decir lo mismo del color? En principio
parecería que el color es una cualidad y no una propiedad cuantitativa. Pero, ¿acaso no
podemos decir que cierto objeto es “más rojo” que otro? La intensidad de un color (rojo
o cualquier otra longitud de onda) puede medirse con un instrumento denominado
colorímetro. Por consiguiente podemos ordenar elementos según la intensidad de su
color. En definitiva: existe una CANTIDAD si cierta propiedad permite ordenar un

13
conjunto de objetos. Si la propiedad tan sólo nos permite disponer los elementos en dos
clases: “propiedad presente”/”propiedad ausente”, hablaremos de CALIDAD.
Hemos llamado MEDICIÓN (o “medida”) a la asignación de números a ciertos objetos o
acontecimientos de acuerdo a la intensidad de esa propiedad en el objeto. No podremos
medir un objeto aislado (que no forme parte de un conjunto ordenado), a no ser que lo
comparemos con los objetos existentes en un conjunto de materiales ordenados de
referencia. Esa ordenación de referencia podrá ser considerada como el criterio objetivo
de la medición. Puesto que toda asignación de números es una función matemática,
dicho criterio objetivo podrá expresarse por medio de la función que explique la
ordenación de objetos o acontecimientos. En otras palabras, la función matemática es la
regla que necesitamos para asignar números a objetos de acuerdo con su ordenación.
Dispondremos de una ESCALA DE MEDIDA si y sólo si disponemos de un criterio de
ordenación relevante y de una función aritmética, algebraica o lógica que lo represente.
Si esa función es aritmética o algebraica, el orden de los objetos será numérico, y todas
las relaciones de orden se expresarán mediante números (ESCALA NUMÉRICA). Si por el
contrario la función es lógica asignaremos tan sólo valores de Identidad o Diferencia (si,
no, presente, ausente). La escala resultante será NOMINAL.
Para medir conjuntos de individuos usamos la analogía con ordenaciones consideradas
de referencia. Las escalas de medida habituales (que toman como unidad de medida el
metro, el kilo, el grado centígrado) constituyen ordenaciones de entidades según las
propiedades cuantitativas longitud, masa, temperatura. Podemos medir la longitud, la
masa y la temperatura de cualquier individuo porque se han obtenido previamente unas
ordenaciones de objetos (varillas o bolas de metal, columnas de mercurio). Por ejemplo,
para ordenar una serie de objetos de acuerdo a su temperatura, necesitamos de una
ordenación de materiales (agua) en diferentes estados. El punto de partida de la
ordenación (hielo 3 ) ocupa el lugar 0; un segundo punto de referencia (100) se ha
reservado arbitrariamente para otro estado físico del agua (vapor4). Al dividir la escala
en cien partes arbitrarias iguales, tendremos la unidad denominada grado centígrado.
Llamaremos instrumento de medición a un aparato que implemente de algún modo la
ordenación considerada de referencia. En resumidas cuentas, lo que hemos de hacer es
definir ordenaciones teóricas y a continuación establecer analogías entre los elementos
ordenados en esa escala de referencia y los objetos que deseamos ordenar en un nuevo
conjunto.
Los datos arqueológicos, por tanto, no son cosas que se atesoran, sino medidas de la
realidad. La tarea de arqueólogos y arqueólogas no es tanto descubrir y desenterrar
artefactos, como medir ciertos efectos de la conducta humana que tuvieron lugar en el
pasado. Y tal y como hemos visto, sólo hay cinco maneras genéricas de medir cuerpos
sólidos: teniendo en cuenta su tamaño, su forma, su textura, su composición y/o su
localización en el espacio y en el tiempo. Más importante que las medidas individuales
serán las relaciones entre ellas. Veremos más adelante lo que significa.
El tamaño de las cosas se reconoce fácilmente como una propiedad cuantitativa. Pero
no existe una única medida de tamaño. En realidad el tamaño de algo es un tipo de
información compuesta, a la que llegamos valorando tanto la longitud, como la anchura,
altura, superficie, volumen, peso, entre otras variables. Todos estos parámetros son bien

3
Más propiamente: Punto de equilibrio entre el estado líquido y el estado sólido, a presión normal (1
atmósfera).
4
Más propiamente: Punto de equilibrio entre el estado líquido y el estado gaseoso, a presión normal (1
atmósfera).

14
conocidos y a nadie le extraña que usemos números para expresarlos. Disponemos de
los instrumentos y escalas de medida necesarios: el metro, el metro cuadrado, el metro
cúbico, el gramo, etc. Es más, a veces tendemos a confundir la palabra “medidas” con
los parámetros del tamaño, como si ésas fuesen las únicas medidas posibles en
arqueología. En ocasiones, sin embargo, seguimos usando términos cualitativos para
referirnos a esa propiedad cuantitativa. Decir de algo que es “grande”, “pequeño”, o
“mediano”, no nos permite saber nada acerca de la magnitud de la propiedad
cuantitativa en cuestión. El objeto es grande o es pequeño, pero como no sabemos en
realidad qué quiere decir “grande”, no sabemos si todos los objetos grandes son
igualmente grandes, o si unos son más pequeños que otros. Describir cualitativamente
lo que en esencia es cuantitativo no sólo complica la cuestión, sino que nos induce a
error en la mayoría de las ocasiones.
Si nadie duda que el tamaño de los materiales arqueológicos sea una propiedad
cuantitativa, pocos lo dirían con respecto al concepto forma. La forma de las cosas se
suele describir cualitativamente: esto es redondo, cuadrado, irregular, esférico,
cilíndrico, entre otras. En arqueología hemos desarrollado un lenguaje específico para
describir la forma de cualquier cosa; un caso puede ser: “borde exvasado con parte
superior almendrada y perfil en S suavizada”. Este tipo de descripción verbal de la
forma no tiene ningún sentido. Ni describe ni permite entender aquello a lo que
pretendemos referirnos. La descripción cualitativa de la forma es, casi siempre,
incompleta y arbitraria. Yo puedo decir que cierto artefacto es un “plato”, mientras que
otro investigador o investigadora afirmará que es un “bol”, y otro que es una “escudilla”.
Si en lugar de esos términos comunes usáramos otros más formalizados, como tipo A,
tampoco lograríamos mucho. La forma es una propiedad cuantitativa que se refiere a las
características métricas del contorno de un objeto. Por consiguiente, la forma debe
expresarse geométricamente y no verbalmente. En geometría existen índices de
circularidad, cuadrangularidad, irregularidad, etc., basados en la relación entre
perímetro y ejes de simetría del objeto en cuestión. Podemos describir la forma de
cualquier evidencia arqueológica haciendo uso de ecuaciones complejas que describan
el contorno o silueta. En fin, hay muchas maneras de describir cuantitativamente la
forma de un objeto. Lo importante es que al igual que el tamaño, la propiedad
cuantitativa debe expresar una intensidad. Un objeto debe ser más circular, o menos
esférico, o más parabólico, o menos curvilíneo que otro. Sólo usando medidas
geométricas podremos extraer toda la información que contiene la forma de los efectos
materiales de los procesos de trabajo. La complejidad de esta forma de medición ha
hecho que le dediquemos un libro: el volumen 3 de esta serie de publicaciones de
Arqueología y Estadística estará dedicado por entero al análisis morfométrico.
¿Qué queremos decir con la textura de un objeto material? El uso habitual del término
se circunscribe a propiedades cualitativas más o menos simples tales como “rugoso”,
“liso”, “bruñido”. En realidad, y tal y como se ha desarrollado en la investigación de
visión computacional, por textura nos referimos a todas las propiedades perceptibles de
la superficie de los objetos. Aquellos rasgos característicos de la materia de la que está
hecho el objeto, pero también todas las modificaciones que el objeto ha experimentado,
tanto las huellas de uso como los patrones decorativos fijados en su superficie.
“Rugoso”, “liso”, “bruñido” son efectivamente formas de textura, pero también lo son
“brillante”, “rojo”, “blanco”, “disperso”, “inciso”, “pulido” y cualquier otra
característica de la superficie de un elemento material que contribuya a decirnos de qué
materia está hecho, qué proceso de trabajo lo ha modificado y de qué manera. Lo más
habitual es describir la textura cualitativamente, pero ello añade subjetividades no

15
recomendables. ¿Realmente “rugoso” significa lo mismo para todo el mundo?
Fijémonos, por otro lado en la nomenclatura habitual del análisis de huellas de uso en
restos líticos: “brillo mate” (¿no es eso una contradicción?), “pulido como de
mantequilla”. De la misma manera que lo eran el tamaño y la forma, también la textura
es una propiedad cuantitativa, que debe medirse en términos de la intensidad o
magnitud de las variaciones perceptibles en la superficie del objeto. Cuanto mayor sea
esa irregularidad, mayor será la textura. En un espejo, toda la superficie es igual, no hay
variaciones, por lo tanto tendrá muy poca textura. Una cerámica decorada excisa o
pintada tendrá muchas variaciones: depresiones, trazas, marcas, líneas, puntos, etc.
Cuanto más diversa, mayor será su textura. Hay pocos trabajos en arqueología que
hayan intentado un enfoque cuantitativo de la textura; ese enfoque es posible si
trabajamos a partir de imágenes y cuantificamos los distintos componentes de las
mismas5.
Más sencilla parece la cuantificación de la composición. Datos composicionales son
aquellos que se refieren a la intensidad con que distintas propiedades aparecen en una
misma entidad, de manera tal que la suma de todas esas propiedades sea la misma para
todas las entidades que se comparan. Aunque esta definición pueda parecer demasiado
abstracta, la idea fundamental es fácil de entender. No es más que la manera usual de
medir la proporción de distintos componentes en una entidad. Por ejemplo, la
proporción de componentes químicos o mineralógicos en una muestra arqueológica, la
proporción de objetos de ajuar en una tumba, la proporción de cabañas de un
determinado tipo en un asentamiento, la proporción de asentamientos de distinta
funcionalidad en un mismo territorio, etc. Sea cual sea el elemento arqueológico:
objetos, desechos, tumbas, asentamientos o territorios, siempre que usemos
proporciones (porcentajes), la suma de todos los elementos es una constante: 100 en el
caso de los porcentajes, 1 en el caso de las proporciones. Este hecho impone una
limitación matemática que hace que este tipo de datos no sea analizable como cualquier
número, y que exista una rama especializada de la estadística para su análisis6. A lo
largo de este libro y de los siguientes volúmenes se irá explicando como proceder con
estos datos composicionales.
La última de las propiedades cuantitativas básicas con las que describir los efectos
materiales de la acción social es la localización de esos efectos en el espacio y en el
tiempo. Empecemos con la localización en el espacio. Su definición cuantitativa, en
términos de coordenadas cartesianas x, y, z es bastante sencilla, y además últimamente
proliferan instrumentos de medida fáciles de usar: GPS, estación total topográfica,
escáner 3D. Aún hay quien quiere convertir esta propiedad cuantitativa en una serie de
descripciones cualitativas: territorio A, territorio B. No hay nada más erróneo que
imponer limitaciones cualitativas en el espacio, como las basadas en las fronteras
políticas: las vasijas campaniformes en la provincia X, las espadas de antenas en el valle
alto del río Y. Aún más grave es la descripción cualitativa del micro-espacio en una
excavación arqueológica: en lugar de usar coordenadas cartesianas (x, y, z) con un único
punto de referencia común (0, 0, 0) se usa: la cuadrícula 2. La descripción cualitativa
del espacio puede ser más sencilla y más barata, en términos de instrumental necesario,

5
Adán, M., Barceló, J.A. Pijoan-López, J., Piqué, R., Toselli, A., 2003, “Spatial Statistics in
Archaeological Texture Analysis”. En The Digital Heritage of Archaeology. Computer Applications and
Quantitative methods in Archaeology. Edited by M. Doerr & A. Sarris. Hellenic Ministry of Culture.
Archive of Monuments and Publications.
6
Aitchison, J. 1986. The statistical analysis of compositional data. Chapman and Hall, London, England,
416 pp.

16
pero también es inútil dada la casi total ausencia de información procesable que permite
obtener. Lo mismo cabe decir de la localización temporal. Cuestiones económicas7, o de
preservación diferencial de muestras hace que no siempre podamos medir el tiempo de
la mayoría de las evidencias arqueológicas. Usamos, por lo tanto, descripciones
cualitativas de la localización temporal, tales como fase A, cultura del hacha sin decorar,
estrato 15. Si pudiésemos elegir, que no siempre podemos, sería extraordinario que
todas las evidencias arqueológicas estuviesen localizadas espacio-temporalmente en
cuatro dimensiones cuantitativas (x, y, z, t). Dos volúmenes de esta serie estarán
dedicados monográficamente al tema del espacio (volumen 4: Análisis Espacial) y del
tiempo (volumen 5: Seriación y Predicción).
¿Qué significa, entonces, medir la conducta humana? Si pudiésemos observarla, tal y
como se hace en sociología y economía, podríamos describir cualitativamente la forma
de la acción, distinguiendo así entre acciones distintas, agentes, medios y efectos o
consecuencias. Ello nos permitiría medir además la intensidad de todos ellos, tanto en
términos del tamaño de la acción, como del número, diversidad o importancia de los
agentes sociales, de los medios necesarios y/o de los efectos de esa acción sobre otros
agentes sociales. Podríamos también localizar las distintas acciones, agentes, medios y
efectos en el espacio y en el tiempo. Cabe afirmar que aunque cualquier propiedad
cuantitativa sea, en teoría, medible, lo cierto es que no sabemos medir la mayoría de
aspectos de la realidad social. Los problemas en ciencias sociales radican de hecho en la
falta de instrumentos de medida. ¿Podemos medir la felicidad? Si y sólo si ésta fuese
una propiedad cuantitativa, es decir, apareciese en el mundo real en intensidades
diversas, y éstas fuesen perceptibles. Quizás sea la longitud de la sonrisa de una persona,
o determinada proporción de cierta hormona en el torrente sanguíneo, o la emisión de
una onda de cierta frecuencia por el cerebro.
Si no podemos observar la acción, ni los agentes, como es el caso en la investigación
histórica, entonces medir la conducta humana se referirá a medir la variabilidad de los
efectos que se perciben en el presente de las acciones que tuvieron lugar en el pasado.
Recordemos que nuestro objetivo es averiguar qué proceso histórico es el responsable
de las diferencias y semejanzas en el tamaño, la forma, la textura, la composición y la
localización de los efectos materiales de la acción social. En otras palabras, ¿por qué los
procesos de trabajo que realizamos varían? Lo único que debemos tener presente es que
la ordenación de los objetos sociales es distinta a la ordenación de los objetos físicos,
porque unos y otros tipos de objetos son distintos, y las propiedades cuantitativas en las
que se basan las relaciones ordinales son distintas. Mediremos la variabilidad de tamaño,
de forma, de textura, de composición y de localización, y veremos cómo cada una de las
variantes se relaciona con las demás. Es importante tener en cuenta la longitud de los
muros de las casas, pero también debemos considerar cómo medir la importancia social
de un personaje, la riqueza de una comunidad, la pobreza de determinado medio
ambiente, el grado de poder coactivo ejercido por la élite social de determinado grupo
humano, etc.
El problema a resolver es por qué ciertas evidencias arqueológicas tienen una forma o
un tamaño o una composición distinta a otras evidencias arqueológicas, o aparecen en
una localización diferente. Diferencias y semejanzas tienen que ver con la capacidad de
variación. El diccionario define variabilidad mencionando que está relacionada con la
calidad de cambiar y transformar. Algo variable es algo que cambia. ¿Qué es lo que

7
Dataciones de carbono 14 a más de 100 euros por muestra, o a más de 600 euros por el método AMS,
limitan el número de muestras que podemos datar.

17
cambia en nuestro caso? El valor de cierta propiedad cualitativa o cuantitativa en cierta
población de DATOS, o sea, las observaciones puntuales cuyas propiedades hemos ido
midiendo (vasijas, puntas de lanza, restos óseos de origen animal, tumbas, muros,
poblados, etc.). Denominaremos, por tanto, VARIABLE al aspecto (o concepto) cuyos
cambios sucesivos condicionan la ordenación. Resulta evidente que el término variable
es sinónimo del de propiedad. Del mismo modo que las propiedades cuantitativas
(cantidades) son distintas de las propiedades cualitativas (propiedades no cuantificables),
e implican necesariamente maneras distintas de medir, distinguiremos varios tipos de
variables:

• VARIABLES CUALITATIVAS (o CALIDADES), en las que sólo disponemos


de dos grupos: individuos con la propiedad en cuestión, o individuos sin ella.

• VARIABLES ORDINALES, en las que sólo disponemos de información acerca


de quien va delante y quien va detrás: primero, segundo, tercero, cuarto, etc

• VARIABLES CUANTITATIVAS (o MAGNITUDES), en las que conocemos


la distancia entre dos posiciones cualesquiera: a = 1,2; b = 3,5; c = 0.

La variabilidad también debe ser medida, como una propiedad cuantitativa que es. La
variabilidad es la característica fundamental que posee la medida de una cierta
propiedad en un conjunto de individuos, y según la cual, las medidas obtenidas son
diferentes de un individuo a otro.

La mera descripción cualitativa de la variabilidad proporciona poca información;


quizás por el peso de la tradición en arqueología se ha incluido bajo el nombre de
estadística, cálculos que en realidad corresponden a cuantificaciones o sumatorias
simples. ¿Cuántas cerámicas de la forma F se han encontrado? ¿Cuántos útiles líticos de
tipo t? ¿En qué proporción aparecen los restos correspondientes a diáfisis de miembros
anteriores derechos de ciervo en este yacimiento? Los datos, por sí mismos, no son la
respuesta a un determinado problema. Pero constituyen el material básico a partir del
cual podemos evaluar lo bien que podemos resolver el problema, cuan dudosa es una
respuesta particular o bien qué confianza podemos poner en ella. Los datos observados
y medidos necesitan ser procesados para averiguar hasta qué grado la incertidumbre
puede disiparse. El conocer la cantidad de incertidumbre asociada a los datos es la clave
para tomar la decisión apropiada. Ello nos permite sopesar las consecuencias de
diferentes opciones y escoger una que sea la menos perjudicial. La estadística tal como
es entendida actualmente es la lógica a través de la cual podemos subir un peldaño en la
escalera que nos lleva de los datos a la información.8

En nuestro caso, esa información hace referencia a la descripción e interpretación de la


variabilidad observada en las acciones sociales y en sus efectos materiales. En otras
palabras, usaremos cálculos matemáticos para conocer qué actividades, qué fenómenos
y procesos sociales son diferentes. ¿Cuándo varían? ¿Cómo varían? ¿Por qué varían?

En este libro pretendo explicar cómo hacerlo. Pero antes de entrar en materia,
trataremos someramente la mejor manera de usar el programa de ordenador que
necesitamos.

8
C. RADHAKRISHNA RAO, 1994, Estadística y Verdad. Aprovechando el azar. (trad. castellana)
Promociones y Publicaciones Universitarias, S.A., Barcelona, UNIVERSITAS-73.

18
Primeros pasos con PAST.
Instalación del programa

La instalación básica de PAST es sencilla. Simplemente se debe bajar del sitio Internet
http://folk.uio.no/ohammer/past

el ejecutable “Past.exe”, y guardarlo en cualquier lugar del disco rígido. Haciendo


doble-click en el archivo, se ejecutará el programa. Los archivos para los ejemplos
arqueológicos que aparecen en este manual pueden obtenerse en la Web de este libro,

http://seneca.uab.es/prehistoria/Barcelo/manualestadistica.html

Se sugiere crear una carpeta llamada “PAST” en cualquier lugar del disco rígido y
guardar todos los archivos en esa carpeta.

NOTA: Se han señalado algunos problemas con ciertas combinaciones de resolución de


pantalla y tamaño por defecto de las fuentes. La imagen se hace poco legible y puede
ser necesario aumentar el tamaño de las ventanas para poder ver el texto y los botones.
Si esto sucediera, debiera ajustarse el tamaño de fuente a “fuentes pequeñas” en el panel
de control “Pantalla” en Windows.

PAST puede tener también problemas en algunas impresoras. Las impresoras de tipo
Postcript son las más adecuadas.

Cuando se salga de PAST, un archivo llamado “pastsetup” aparecerá automáticamente


en la carpeta personal (por ejemplo, en “Mis Documentos”), conteniendo los directorios
de los últimos archivos utilizados.

NOTA. Este manual se ajusta a la versión 1.60 del programa, publicada el día 3 de
Enero de 2006.

19
Primeros pasos con PAST.
Introducción y manipulación de datos
arqueológicos.

PAST tiene una interfaz de usuario de tipo hoja de cálculo. Los datos son introducidos
como una disposición de celdas, organizadas en filas (horizontalmente) y columnas
(verticalmente).

Introducción de datos
Para entrar datos en una celda, se debe hacer click con el ratón en ella y escribir dentro
el dato. Esto sólo puede hacerse cuando el programa está en Edit Mode (“modo
edición”).

Para seleccionar este modo se marca la casilla que aparece por encima de las celdas.

20
Cuando el modo de edición no está seleccionado, las celdas están bloqueadas y los datos
no pueden cambiarse. Puede navegarse por las celdas usando las teclas de flecha. Puede
introducirse cualquier tipo de texto en las celdas, pero casi todas las funciones esperan
números. Tanto la coma (“,”) como el punto (“.”) son aceptables como separadores
decimales. Los datos de ausencia/presencia se codifican como 0 ó 1 respectivamente.
Cualquier otro número positivo se interpretará como presencia.

Los datos ausentes se codifican mediante el interrogante (“?”). Es importante tener en


cuenta que no todas las funciones permiten trabajar con datos ausentes. Si aparece el
error Invalid values in selected column (“valores no válidos en la columna
seleccionada”) o Different number of values (“número de valores diferente”) quiere
decir que esa función no puede trabajar con datos ausentes, o bien que ha encontrado
alguna casilla que inadvertidamente se ha dejado en blanco.

PAST permite representar información dicotómica en forma de casillas marcadas y


casillas sin marcar. Para ello basta con marcar la casilla superior Square Mode (“modo
cuadrado”) que aparece bajo la barra de Menús.

La convención en PAST es que los individuos ocupen las filas, y las variables las
columnas (ver más adelante “Cargar y Guardar Datos”). Esta forma de estructurar los
datos es muy importante, aunque muchas veces no se tiene en cuenta en arqueología. Es
necesario estructurar el problema arqueológico que pretendemos resolver organizando
la matriz de datos como una secuencia de individuos del mismo tipo descritos por
distintas variables. Las filas representarán a los individuos cuya variabilidad
necesitamos estudiar, y las columnas a las propiedades cualitativas y cuantitativas
usadas para describirlos. Es importante recordar que necesitaremos de una matriz de
datos distinta para estudiar individuos de tipo distinto. En palabras más simples, las filas

21
de la matriz deberán ser cualitativamente homogéneas: vasijas con vasijas, huesos con
huesos, poblados con poblados, tumbas con tumbas. Los ejemplos y casos de estudio
utilizados en el Libro de Ejemplos y Problemas explican esta manera de estructurar y
organizar los datos.

NOTA: PAST no siempre es coherente con esta forma de estructurar los datos.
Programas comerciales como SPSS pueden usar cualquier columna para dividir una
población en subpoblaciones, es decir en niveles de un factor explicativo. PAST no
puede hacerlo. La única manera es definiendo cada columna como subpoblación o
conjunto específico de datos. Esto puede provocar que para realizar algunos cálculos
tengamos que organizar de otro modo la matriz de datos, disponiendo los distintos
valores de una variable cualitativa (por ejemplo, el sexo del individuo enterrado en una
tumba, el yacimiento en el que se ha encontrado cierto artefacto en determinada
cantidad, el nivel o la fase cronológica) como columnas distintas. Más adelante se
explicará cómo hacerlo (a partir de la página 95 y siguientes).

Cargar y guardar datos


La función Open (“abrir”) se encuentra en el Menú File (“archivo”). PAST usa un
formato de archivo ASCII, para poder importar fácilmente de otros programas (por
ejemplo, Word) y para poder editarlos fácilmente con un procesador de textos. El
formato es el siguiente:

. Etiquetacolumna etiquetacolumna etiquetacolumna


Etiquetafila dato dato dato
Etiquetafila dato dato dato
Etiquetafila dato dato dato

Por ejemplo:

. CERAMICACOCINA CERAMICAdecoTipoA CERAMICAtipoB


Yacimiento1 1 3 5
Yacimiento2 1 0 15
Yacimiento3 0 10 6

Las celdas vacías se codifican con un interrogante (?), para que el programa reconozca
que ese dato falta. Las celdas están separadas por un espacio en blanco, lo que significa
que nunca deben usarse espacios en las etiquetas de fila o columna. “Tipo A” es por
tanto una etiqueta de columna errónea que confundirá al programa. Lo correcto será:
“TipoA” o bien “Tipo_A”

La función Insert from file (“insertar desde archivo”) es útil para concatenar conjuntos
de datos. El archivo cargado se insertará en la hoja de cálculo existente en la posición
seleccionada (arriba a la izquierda). Otros conjuntos de datos podrán insertarse a la
derecha y debajo de los datos existentes.

22
En cualquier caso, se recomienda que la matriz de datos no contenga caracteres
alfabéticos ni alfanuméricos. Si los datos son cualitativos, habrá que traducirlos a
números.

Datos desde Excel


Los datos procedentes de Excel pueden importarse de dos maneras:

• Copiar desde Excel y pegar en PAST. Si quieres que la primera fila y columna
se copien en las celdas de las etiquetas en PAST, deberás seleccionar la opción
Edit labels (“editar etiquetas”).

• En Excel se guardan los datos con el formato “texto separado por tabuladores”.
El archivo de texto resultante puede abrirse directamente en PAST.

Mover una fila o una columna


Una fila o una columna (incluyendo su etiqueta) puede moverse simplemente haciendo
click en la etiqueta y arrastrando a la nueva posición. Es importante tener en cuenta que
el área seleccionada debe ser contigua (no se pueden seleccionar columnas no contiguas.
(¡Lástima, PAST no es igual que Excel!). Por lo tanto, siempre que deseamos ejecutar
una función habrá que mover primero las columnas referidas a las variables que nos
interesa, hacer que sean contiguas, y entonces marcar el área para seleccionar los datos.

Selección de áreas
La mayoría de operaciones en PAST se realizan sólo en el área de la hoja de cálculo que
el usuario ha seleccionado expresamente (marcado). Si se intenta ejecutar una función
que espera datos, y no se ha seleccionado ningún área, se obtendrá un mensaje de error:
No valid values in selected area (“valores no válidos en el área seleccionada”). Para
seleccionar distintas partes de la hoja de cálculo, procederemos de la forma siguiente:

• Una fila se selecciona haciendo click en la etiqueta de la fila (la columna más a
la izquierda)
• Una columna se selecciona haciendo click en la etiqueta de la columna (fila
superior)
• Múltiples filas se seleccionan escogiendo la etiqueta de la primera fila, y
después haciendo click y apretando la tecla mayúsculas al escoger filas
adicionales. No se puede arrastrar múltiples filas, esto no hace más que mover la
fila de sitio.
• Múltiples columnas se seleccionan de la misma manera, haciendo click en la
etiqueta de la columna y apretando la tecla mayúsculas.
• PAST no puede seleccionar columnas que no sean adyacentes. Por lo tanto, para
seleccionar múltiples columnas habrá que seleccionar primero una columna,
arrastrarla al lado de aquellas que también se van a seleccionar y seleccionar el
grupo haciendo click en la casilla superior y con la tecla mayúsculas.

23
• La totalidad de las celdas se puede seleccionar haciendo click en la esquina
superior izquierda (la celda vacía en gris), o bien seleccionando Select all
(“seleccionar todo”) en el Menú Edit (“Edición”).
• Se pueden seleccionar áreas más pequeñas haciendo click y arrastrando con el
ratón desde la casilla superior hasta el final de la selección.

Es importante tener presente que sólo se podrán seleccionar columnas cuando las
casillas superiores Edit Mode (“modo editar”) y Edit labels (“editar etiquetas”) NO
estén marcadas.

24
Renombrar filas y columnas
Cuando empieza PAST, las filas se numeran de la 1 a la 99, y las columnas de la A a la
Z. Para etiquetar mejor los gráficos, se puede dar a filas y columnas nombres cortos más
descriptivos. Para ello se usa la función Rename columns (“renombrar columnas”) o
Rename rows (“renombrar filas”) en el Menú Edit (“edición”). Deben seleccionarse
todas las celdas, o un área menor, según sea lo apropiado.

Otra manera es seleccionando la opción Edit labels (“editar etiquetas”) encima de la


hoja de cálculo. La primera fila y columna serán entonces editables de la misma manera
que el resto de las celdas.

Aumentar el tamaño de la hoja de cálculo


Por defecto, PAST tiene 99 filas y 26 columnas. Si los datos necesitan más espacios, se
pueden añadir filas o columnas seleccionando Insert more rows (“insertar más filas”) o
Insert more columns (“insertar más columnas”) en el Menú Edit (“edición”). Se
insertarán filas/columnas justo después del área marcada, o por debajo y/o a la derecha,
según sea el caso, si no se ha seleccionado ningún área. Cuando se cargan grandes
archivos de datos, las filas y/o columnas se añaden automáticamente según sea
necesario.

Cortar, copiar, pegar


Las funciones copiar, cortar y pegar se encuentran en el Menú Edit (“edición”). Se
pueden cortar y/o copiar datos desde la hoja de cálculo de PAST y pegarlos en otro
programa, por ejemplo Word o Excel. Igualmente, datos de otros programas pueden
pegarse en PAST. Recuerde que los bloques locales de datos (no todas las filas o
columnas) sólo pueden marcarse cuando el modo Edit (“edición”) NO está seleccionado.

Todos los módulos que proporcionan una salida gráfica tienen un botón Copy graphic
(“copiar gráficos”). Este copiará la imagen gráfica en la memoria del ordenador y
permitirá pegarla en otros programas, como por ejemplo, un programa de dibujo para
editar la imagen. Los gráficos se copian usando el Enhanced Metafile Format en
Windows. Esto permite editar elementos individuales de la imagen en otros programas.
Cuando se pega en CorelDraw, se deberá elegir “pegar especial” en el Menú “edición”,
y a continuación elegir Enhanced metafile. Algunos programas tienen una manera
bastante idiosincrásica de interpretar las imágenes EMF. Debe prestarse atención a las
cosas raras que puedan suceder.

25
Eliminar
La función Remove (“eliminar”) del Menú Edit (“edición”) permite eliminar de la hoja
de cálculo la(s) fila(s) o columna(s) seleccionadas. El área eliminada no se copiará en la
memoria del ordenador y no podrá pegarse en otro programa.

Agrupar (colorear) filas


Pueden marcarse filas seleccionadas (datos puntuales) con 12 colores usando la opción
Tag rows (“marcar filas”) en el Menú Edit (“edición”). Cada grupo estará asociado con
un símbolo (punto, cruz, cuadrado, diamante, aspa, círculo, triángulo, línea, barra,
cuadrado relleno, estrella, óvalo). Esto es útil para mostrar grupos de datos diferentes en
los gráficos, y también es requerido por alguno de los métodos.

La opción Numbers to colors (“de números a colores”) en el Menú Edit (“edición”)


permite convertir los números de 1 a 9 en una columna seleccionada en los colores
correspondientes (símbolos) para las filas. Es importante tener en cuenta que antes de
asignar colores, es preciso que los datos estén ordenados. Sólo podrá asignarse un
mismo color a una secuencia contigua de filas.

26
Ordenar valores en una columna
PAST no es Excel, por lo que muchas de las operaciones que son muy simples en este
último no pueden hacerse en PAST. Conviene agrupar y ordenar secuencialmente los
datos en Excel y no esperar a hacerlo después. Por ejemplo, la información cronológica
del archivo “cerámica helenística”, contenido en “ejemplos.zip”, está muy desordenada.
Las muestras analizadas no aparecen ordenadas ni cronológica ni tipológicamente.

En PAST podemos ordenar en sentido ascendente o descendente una variable,


seleccionando la variable a ordenar y ejecutando después la función Sort ascending
(“ordenar en sentido ascendiente”) ó Sort descending (“ordenar en sentido descendente”)
del Menú Transform (“transformar”).

Pero sólo podemos ordenar usando una única variable como criterio. Para usar una
variable de ordenación adicional debemos seleccionar las filas que tienen el mismo
valor en la ordenación anterior y ordenar esa selección usando una nueva variable. En el
Libro de Ejemplos y Problemas se citan expresamente varios ejemplos que utilizan este
método.

Otra opción sería abriendo los datos en Excel, ordenando según dos variables en ese
programa, copiando la ventana y pegándola a continuación en PAST.

27
Transponer
Las técnicas y funciones estadísticas que contiene PAST están diseñadas para agrupar
siempre individuos, es decir, filas: la mayoría de pruebas estadísticas asocian individuos
(vasijas con vasijas, huesos con huesos, yacimientos con yacimientos). Es lo que se
denomina “análisis en modo R”, donde la “R” viene de rows (en inglés “filas”). Por el
contrario, en ocasiones podrá ser interesante agrupar variables, por ejemplo, asociar el
tipo A y el tipo B de unas cerámicas o metales, para ver si aparecen o no en los mismos
yacimientos. Es lo que se denomina “análisis en modo Q”. Para cambiar entre modo Q
y modo R, filas y columnas pueden ser intercambiadas fácilmente usando la función
Transpose (“transponer”)

Esta función implica girar la matriz, de manera que lo que antes eran filas, ahora sean
columnas y viceversa. Una vez girada la matriz se podrá estudiar la relación entre las
variables, ya que ahora aparecen en las filas. La función Transpose (“Transponer”) en el
Menú Edit, intercambiará filas y columnas.

Esta función permite convertir los datos de una variable cualitativa en niveles de un
factor, es decir, en columnas donde cada columna es una subpoblación homogénea de
acuerdo con un criterio (sexo de una tumba, cronología de una fase, yacimiento, etc.).
Sin embargo, en muchos casos, el procedimiento no será tan simple y tendremos que
seleccionar a mano cada subpoblación, copiar los datos y pegarlos en un nuevo
documento.

28
Resultados de las pruebas estadísticas

Los cálculos estadísticos se solicitan seleccionando una columna y seleccionando a


continuación el comando necesario en los distintos menús. Los resultados aparecen en
una ventana específica.

PAST tiene tendencia a proporcionar los resultados en notación exponencial científica.


Así, el número 2,5E2 se refiere al número resultante de multiplicar 2,5 x 102. Esto es,
250. En este caso, el decimal se ha desplazado hacia la derecha. Si el exponencial fuese
cinco (E5, que equivale a 105) el decimal debería moverse a la derecha cinco posiciones.
1,2318E5 es en realidad 123810 Si el número que sigue al exponencial (letra E) es
negativo, entonces moveremos el decimal a la izquierda. En el caso de la cifra
64,1172E-7 tendremos el número decimal 0,00000641172.

29
¿Qué forma tiene la distribución?
Histogramas

Tal y como hemos argumentado en las primeras páginas de este libro, la primera tarea
en cualquier investigación estadística en arqueología, una vez que hemos entendido el
problema que se debe resolver y la naturaleza de los datos y mediciones, es obtener una
primera impresión de la variabilidad del fenómeno. Es decir, nos preguntaremos si
tienen algo en común o son distintos los valores que adopta una propiedad cuantitativa
en un conjunto de datos. En demasiadas ocasiones arqueólogos y arqueólogas olvidan
que la pregunta que deben resolver es ¿por qué varía cierta propiedad (la forma, el
tamaño, la composición, la textura, la localización) en esa población o conjunto de
materiales? La clave está en la naturaleza del conjunto de datos. No se trata de comparar
cualquier artefacto con cualquier otro, sino de estudiar por qué cierta población es como
es y distinta por tanto de otra población. Nuestra primera pregunta será siempre: ¿son
los datos lo suficientemente homogéneos como para creer que se trata de una sola
población? Aquí partimos del supuesto que una población o conjunto homogéneo de
materiales arqueológicos es el constituido por las consecuencias materiales de una única
acción o de varias acciones del mismo tipo. La mayor o menor variabilidad observada
deberá explicarse entonces por la heterogeneidad del conjunto analizado, lo que supone
fijarse en la presencia de consecuencias materiales de acciones distintas.

La manera más intuitiva imaginable de saber qué forma tiene la distribución de un


conjunto de medias es la que resulta de asociar cada valor de una variable (columna en
PAST) con su frecuencia de aparición en el conjunto. ¿Cuántas vasijas tienen la misma
longitud? ¿Cuántas tumbas masculinas tienen la misma cantidad de objetos de ajuar del
mismo tipo? La frecuencia es el número de veces que aparece el valor en una población
de datos. La función PlotÆGraph nos proporciona un gráfico de frecuencias no
agrupadas. Decimos que “no están agrupadas” porque cada valor de la propiedad
cuantitativa en cuestión aparece aislado. No se juntan las co-ocurrencias, esto es, los
objetos que tienen el mismo valor en la variable.

30
La verdad es que este procedimiento gráfico no es muy útil si lo que buscamos es
describir la forma de la distribución. En el eje inferior se representa la posición de cada
valor en la columna original (primero, segundo, tercero, etc.) y en el eje vertical, el
valor concreto que adopta. Este tipo de representación nos será muy útil para resolver
problemas de seriación, pero no tanto para resolver problemas de variabilidad.

Cuando un gran conjunto de datos tiene muchos valores distintos en lugar de unos
cuantos valores repetidos, es posible agrupar los valores en un conjunto de clases o
categorías y elaborar una distribución de frecuencias agrupadas. Su representación
gráfica es el histograma. El comando Histogram (“histograma”) del Menú Plot
(“gráfico”) dibuja histogramas para una o más columnas.

40
39
38
37
36
35
34
33
32
31
30
29
28
27
26
25
24
23
Frequency

22
21
20
19
18
17
16
15
14
13
12
11
10
9
8
7
6
5
4
3
2
1

100 200 300 400 500 600 700 800 900 1000 1100 12001300 14001500 16001700 180019002000

El eje inferior del histograma no representa datos, sino una escala numérica dividida en
intervalos o segmentos consecutivos; cuantos más datos se sitúen en cada segmento,

31
más larga será la barra. En otras palabras, el histograma es el resultado de la
categorización de una variable cuantitativa, o una división de sus valores en grupos
cerrados. ¿Cómo se logra esa categorización? Si nos ponemos a pensar, descubriremos
que dada una serie de números hay infinitas maneras de hacer grupos con ellos. ¿Por
qué un intervalo tiene que ser del 0 al 5 y otro del 6 al 11? El primer requisito es que
cada uno de los segmentos tenga exactamente la misma longitud que los demás. El
segundo requisito es que la cantidad de intervalos no sea elegida a capricho del
investigador o de la investigadora para evitar manipulaciones. Al imponer un único
método que determine simultáneamente la cantidad y la longitud de cada intervalo o
segmento, se obtiene no sólo una impresión visual de la densidad de la variable, sino
una medida de dicha densidad.

Un método posible es el siguiente. Empezaremos determinando la amplitud o recorrido


de las frecuencias:

R = valor máximo - valor mínimo

A continuación debemos elegir la cantidad de intervalos, según la abundancia de


nuestros datos. Existen varias fórmulas mágicas para ello, ninguna de las cuales tiene el
beneplácito de la mayoría de investigadores. Debemos tener presente que toda lectura
de un histograma es subjetiva, y por tanto cada autor o autora nos va a sugerir una
manera particular para construir el gráfico. A título indicativo podemos usar la tabla
siguiente:

Número Individuos Número Intervalos


______________________________________________
32 6
64 7
128 8
256 9
512 10
1024 11
2048 12
4096 13
8192 14
16384 15
_____________________________________________

Se fija la amplitud de cada intervalo (todos son iguales) dividiendo la amplitud de la


distribución (R) por la cantidad de intervalos que fija la tabla.

PAST calcula “inteligentemente” el más apropiado número de intervalos, usando un


procedimiento más complejo que el que acabamos de explicar, pero bastante parecido.
El programa ofrece, sin embargo, la posibilidad de variar el número de intervalos
(casilla “Bins”, en la ventana en la que aparece el diagrama). Para obtener el gráfico,
nos aseguraremos que las casillas superiores Edit Mode (“modo editar”) y Edit labels
(“editar etiquetas”) NO están seleccionadas, y seleccionaremos la columna cuyo
histograma deseamos obtener, haciendo “click” en la casilla que contiene el nombre de
la variable. El tercer comando del Menú Plot (“gráfica”) nos proporcionará el
histograma que aparece en una ventana nueva. El comando permite seleccionar
cualquier columna, sin tener que desplazarla, y también permite calcular el histograma

32
de una parte de la variable, seleccionando algunas casillas consecutivas, en lugar de la
columna entera.

Conviene tener presente que PAST no abre una nueva ventana cada vez que hace un
histograma, sino que cambia el contenido de la ventana en la que aparecen los
resultados.

Haciendo click en el centro de la ventana del histograma, podremos modificar algunos


aspectos del gráfico, como tipo de letra, reticulado, etiquetas, ubicación de los intervalos
en el eje, etc.

Veamos con más detalle cómo es un histograma. ¿En qué debemos fijarnos para
estudiar el histograma? En general, buscaremos el centro de la distribución para ver si el
histograma es tanto más apuntado en su centro que en sus extremos. Nos fijaremos en su
dispersión, es decir, si el contorno del histograma se apunta o, por el contrario, se aplana.
Nos fijaremos en cómo se reparten las observaciones en los distintos intervalos. En
resumen, intentaremos describir la forma de la distribución. Si los datos son muy
diversos entre sí, el histograma adoptará una forma irregular; por el contrario, si el
histograma adopta una forma simétrica interpretaremos que los datos son bastante
parecidos entre sí.

33
30

30

20
Frequency

20

Frequency
10

10

30 40 50
20 30 40

Histograma de una distribución regular Histograma de una distribución irregular

Otra forma de irregularidad en la distribución es aquella que presente valores extremos


(en inglés outliers). Se trata de valores mucho mayores o menores que la mayoría. Hay
de dos tipos: por un lado, aquellos que corresponden claramente a errores de medida o
atribución –una espada dentro de un conjunto de puñales siempre tendrá un valor
extremo de longitud-, conviene identificarlos cuanto antes y eliminarlos de la base de
datos. Por otro lado, están aquellas observaciones obtenidas bajo circunstancias
aparentemente normales, pero que resultan estar extremadamente desviadas del corpus
principal de observaciones. Muchos investigadores recomiendan eliminarlas del análisis
posterior, y eso puede ser conveniente a veces, pero en otras ser claramente
contraproducente.

No hay normas de obligado cumplimiento en el caso de la presencia de este tipo de


valores extremos. Es posible que sean una consecuencia accidental o irrepetible, pero en
cualquier caso debemos comprender la razón de su accidentalidad o irrepetibilidad. El
problema con los valores extremos es que muchas veces desvirtúan la forma de una
distribución, haciéndonos verla más simétrica o asimétrica de lo que en realidad es. En
la mayoría de ocasiones debiéramos centrarnos en aquellas consecuencias materiales
que explican mejor la naturaleza de la acción que las ha producido. En páginas
siguientes veremos qué quiere decir esto de “explicar mejor”.

34
Veamos un ejemplo de forma de una distribución de medidas de artefactos
arqueológicos. Disponemos de los datos arqueométricos de la composición de un
conjunto de vidrios romanos (archivo “vidrio”). Si deseamos obtener el histograma de
la composición de aluminio que tienen las distintas muestras, tendremos:

En este caso, para un total de 243 muestras de vidrio romano cuya composición química
ha sido analizada, el programa calcula una distribución dividida en 10 intervalos. Es
fácil de ver que el histograma no es simétrico. Hay demasiados objetos de vidrio con
una proporción de aluminio en su composición demasiado reducida (cola izquierda de
la distribución). Esto quiere decir, probablemente, que en la serie de muestras hay
objetos distintos, que posiblemente fueron producidos de manera distinta y/o con un
propósito diferente a los demás.

Pero también puede ser que la irregularidad del gráfico se deba a una mala selección del
número de intervalos. Para modificar este gráfico, cambiaremos el valor que aparece en
la casilla bins (“intervalos”). Escribiremos “20” y presionaremos la tecla Intro.

La distribución es ahora mucho más clara. En realidad se distinguen dos distribuciones


regulares, una centrada alrededor de los valores bajos de la proporción de aluminio, y
otra en valores medio-altos. Se distinguen también unos pocos objetos de vidrio con
valores extremos en su composición. Poco más nos dice este histograma. A fin de

35
cuentas su finalidad es la de obtener meramente una descripción intuitiva de la
variabilidad del aluminio en la composición de estos objetos romanos de vidrio.

Veamos ahora otro caso. Disponemos de las medidas de distintos parámetros de unas
lanzas de la Edad de Bronce y de Hierro (archivo “lanzas”). Si consideramos en primer
lugar la longitud máxima de esas puntas, el histograma resultante será:

Es fácil de ver que los tamaños de las lanzas varían de manera muy irregular:
predominan objetos de pequeño tamaño, si bien hay algunas excepciones de gran
tamaño. El conjunto de lanzas estudiado es, por tanto, heterogéneo. ¿Por qué?
Probablemente porque nos hemos equivocado al meter en un mismo conjunto a las
lanzas de bronce y de hierro. Vamos a separarlas y a calcular sus respectivos
histogramas.

La primera tarea será ordenar en sentido ascendente la variable MATERIA, con ayuda
del comando Sort ascending (“ordenación ascendente”) del Menú Transform
(“transformar”). Una vez ordenados los datos, será fácil seleccionar la longitud de las
lanzas de bronce (MATERIA = 1) por un lado y la longitud de las lanzas de hierro
(MATERIA=2) por otro. Recuerda que para poder seleccionar algunas de las casillas de
una columna es necesario que las casillas Edit Mode y Edit labels NO estén
seleccionadas, y que arrastres la columna al lado de la que vas a usar de referencia (en
este caso, arrastra LONGITUD MAXIMA al lado de MATERIA). Recuerda también
que el programa no va a guardar la ventana en la que aparece el primer histograma.
Tendrás que hacer primero el análisis para las lanzas de bronce (MATERIA=1), guardar
ese histograma (por ejemplo seleccionando la figura y pegándola en un archivo de
Photoshop o del mismo Word), a continuación harás lo mismo para el segundo
histograma, cuyos resultados borrarán los anteriores y los sustituirán.

36
Para poder comparar dos o más histogramas es fundamental que las escalas de los
gráficos sean idénticas, es decir, que los intervalos empiecen y acaben en los mismos
puntos. Asegúrate que en las casillas X Start (“punto inicial de X”), X end (“punto final
de X”), Bins (“grupos” o “intervalos”), Start (“principio”), End (“final”) aparecen
exactamente los mismos números. Si no es así se debe introducir el valor de longitud
más pequeño ya sea de las lanzas de bronce o de las de hierro en la casilla Bin start, y el
valor de mayor longitud ya sea de las lanzas de bronce o de las de hierro en la casilla
Bin end. Es una buena costumbre que X Start empiece en 0, y que X End sea lo
suficientemente grande como para alcanzar la mayor lanza de todas, sea de hierro o de
bronce.

Longitud Máxima de lanzas de bronce Longitud Máxima de lanzas de hierro

37
Los histogramas siguen mostrándonos la irregularidad en la distribución de valores, por
lo que deberemos concluir que no todas las puntas de lanza fabricadas en la misma
materia son semejantes.

Es importante tener en cuenta que los histogramas sólo nos proporcionan una impresión
de la forma en que varían los valores de una propiedad cuantitativa en una población
determinada. Si queremos ir más allá en el estudio de las causas de esa variabilidad,
deberemos medirla, y no sólo describirla. Como es obvio, la aplicación de la técnica que
hemos aprendido en este capítulo no va a permitirnos resolver un problema histórico.
Nos ayudará sin embargo a enunciarlo, descubriendo y describiendo la variabilidad
existente en nuestros datos. Más adelante aprenderemos a explicarla y a evaluar por qué
esa variabilidad tiene esas características y no otras.

38
¿Cuán variables son las consecuencias
materiales de las acciones sociales?

Estadística Univariante

Existe una serie de funciones estadísticas que sirven para contrastar, parcialmente al
menos, las impresiones más o menos subjetivas que nos ha proporcionado el examen de
los histogramas. La idea fundamental es que aunque las evidencias arqueológicas
puedan mostrar una cierta incertidumbre a nivel individual, debe existir cierta
estabilidad entre todos los efectos individuales de una misma acción o proceso de
trabajo; debemos buscar pues, el “orden en el desorden”.

La media (en inglés: mean) de un conjunto de datos no es más que una estimación de
cómo debe ser el valor de una distribución que se encuentra en el centro de la misma.
En otras palabras, si todas las consecuencias de una misma acción arrojan algunas
diferencias en el valor de ciertas medidas, ¿Cuál de esos valores es el que define
correctamente la acción? También recibe el nombre de valor promedio y lo podemos
calcular sumando todas las medidas y dividiendo por la cantidad de individuos medidos.
Por ejemplo, supongamos que en un conjunto arqueológico hay 105 fragmentos de
vasijas de cerámica. Para conocer cuál es el valor medio del peso de esos restos,
dividiremos la suma total del peso de restos que han sido identificados en el conjunto
(digamos 1 kg.) entre el número de restos (105). El valor promedio del peso de los
restos es de 9,52 gr. ¿Qué quiere decir esta cifra? Simplemente, que hay muchos restos
de 5 y 1 gramo, junto a unos cuantos de 25 y 50. Imaginemos ahora la existencia de un
valor extremo: uno sólo de los fragmentos pesa 500 gr., lo cual quiere decir que en el
conjunto hay, en realidad, 104 fragmentos que suman 500 gr. y 1 fragmento totalmente
diferente a los demás. El cálculo de la media se ha visto afectado por no haber tenido en
cuenta el efecto de ese valor distinto a todos. Por consiguiente, la detección de estos
valores extremos es fundamental. En algunos casos se trata de obvios errores de medida
o muestreo, que pueden invalidar todo el análisis. En aquellos casos en los que,
efectivamente, algunos individuos de la muestra sean totalmente diferentes de los
demás, habremos de tener en cuenta esa diferencia para que no altere los resultados de
los análisis.

Precisamente porque se trata de un valor calculado, la media no tiene por qué coincidir
con un dato concreto. Denominaremos mediana (en inglés: median) a aquel individuo

39
situado en el centro exacto de la distribución, esto es, que el 50 % de los datos sean
mayores que él y el 50 % menores. En algunos casos, no obstante, media y mediana
coincidirán.

La medida de asimetría (en inglés: skewness) en los valores de una variable nos indica
el grado con que los valores se distribuyen equilibradamente a lado y lado de un punto
central. Es una medida que nos dice el grado de deformación de un histograma. Este
valor será igual a 0 cuando haya el mismo número de valores mayores que la media que
de valores menores que la media. Si el valor es positivo, querrá decir que las
observaciones mayores que la media tienen más influencia; es decir, que la existencia
de uno o varios valores extremos condicionan la forma de la variabilidad. En el caso
contrario, una distribución que tenga una asimetría negativa significativa se interpretará
por la existencia de demasiados valores mucho menores a los de la media.

La medida de curtosis (en inglés: kurtosis) es una medida del grado en que las
observaciones están agrupadas en el centro. También es una medida de la deformación
de un histograma. Que una variable tenga curtosis positiva, significa que en las colas de
su histograma habrá una proporción mayor de casos que en el centro. Por el contrario, si
el valor de la curtosis es negativo, concluiremos que las colas del histograma son poco
densas, porque una mayoría de los valores se agrupan en el centro de la distribución.

La media es un índice estadístico que permite situar la posición de una distribución, ya


que da el valor de la variable hacia el cual tienden a agruparse los datos. Ahora bien,
saber cuál es el centro geométrico de los datos nos dice muy poco acerca de la variable.
Si lo usáramos como un "resumen" de todo lo que contiene esa variable, estaríamos
reduciendo demasiado el alcance de nuestra investigación y, probablemente, estaríamos
ignorando gran cantidad de información

Variabilidad = Dispersión

Una forma de estudiar la variabilidad es describiendo el grado de dispersión de las


medidas con respecto a un punto de referencia. Cuanto mayor sea dicha dispersión,
mayor será la variabilidad. Por consiguiente, construiremos una medida de la
variabilidad si construimos una medida del grado de dispersión. Nada más fácil.
Empezamos definiendo el punto de referencia; lo más sencillo es que coincida con el
centro geométrico de la ordenación, esto es la media. La desviación con respecto a la
media no es más que la diferencia entre cada valor observado y dicho punto de
referencia central. Sin embargo, la suma de las desviaciones siempre es cero, debido al
efecto de neutralización entre las desviaciones de los valores observados menores que la
media (que son negativos) y los valores observados mayores que la media (que son
positivos). Este efecto de neutralización puede eliminarse si se hace algo para que todas
las desviaciones sean positivas.

Una forma de eliminar el efecto de neutralización positivo-negativo es elevar al


cuadrado cada una de las desviaciones. Como consecuencia de esa sencilla operación
aritmética todas las desviaciones con respecto a la media serán valores no negativos
(positivos o cero). A continuación sumaremos todas las diferencias al cuadrado. Cuanto
mayor sea esa suma, mayor será la variabilidad de la distribución, porque más
observaciones estarán más alejadas del punto central. Y cuanto más alejadas, más
diferencias hay entre unas y otras.

40
Con el fin de averiguar la media de las dispersiones al cuadrado, dividiremos el
resultado entre el total de observaciones9. El valor obtenido es denominado varianza, y
puede ser utilizado para comparar la variabilidad de diversos conjuntos. El problema es
que la varianza es difícilmente interpretable. Por ejemplo, en un conjunto de objetos, los
de mayor tamaño siempre tendrán una varianza superior a la de los productos de menor
tamaño. Eso es fácil de ver, si tenemos en cuenta que la media de los productos grandes
es mayor (p.e. 55 cm. de longitud) que la de los pequeños (p.e. 3 cm.). Por consiguiente,
el valor absoluto de las diferencias de cada objeto con su media tenderá a ser superior
en el primer caso que en el segundo. Para evitar estos problemas, existe otra medida de
dispersión: la desviación típica ó estándar, que debe entenderse como una
transformación de la medida de la varianza. Se calcula obteniendo la raíz cuadrada de la
varianza.

Una forma de interpretar la desviación típica como medida de la variabilidad de un


conjunto de datos sería planteándonos preguntas tales como: "¿cuántos datos se sitúan a
1 desviación típica de la media? ¿Cuántos se sitúan a 2 desviaciones típica de la media?
De esta manera es posible diferenciar distintas series de datos, según la forma que
adopta su dispersión.

Si los efectos materiales medidos de una misma acción arrojan diferencias, ¿podemos
fiarnos que la media es realmente una “estimación” correcta de una consecuencia típica
de la acción? Suponemos que la media no es tan precisa como la mejor medición, pero
tampoco es tan imprecisa como la peor de ellas. Para matizar o incluso, contrastar, la
media, se puede calcular el error típico de la media (Std. Error), que es la desviación
típica de la distribución muestral de la media, y debe entenderse como una corrección
de la desviación típica teniendo en cuenta el número de observaciones. Más
específicamente, el tamaño del error estándar de la media es inversamente proporcional
a la raíz cuadrada del número de observaciones.

Para medir la variabilidad de los valores de una propiedad cuantitativa en PAST,


procederemos de la manera siguiente. Tras seleccionar la columna que nos interese, el
comando Univariate (“univariante”) del Menú Statistics (“estadística”) muestra los
siguientes coeficientes estadísticos10: número de individuos (N), valor más pequeño
(Min), mayor valor (Max), media (mean), error típico de la estimación de la media
(Std. Error), varianza (variance), desviación típica de la población (Std. Dev.),
mediana (median), asimetría (skewness) y curtosis (Kurtosis).

9
En realidad dividimos entre n - 1, por razones que no vienen al caso, y que están relacionadas con la
teoría de las probabilidades.
10
Los íconos situados en la parte inferior de la ventana de resultados sirven para: 1) cerrar la ventana, 2)
copiar el contenido de la ventana para después pegar los resultados en otro programa, por ejemplo en un
archivo Word, 3) imprimir resultados.

41
En PAST, esta función acepta valores ausentes en la base de datos inicial, es decir,
objetos que no han sido medidos por su pobre estado de conservación o por cualquier
otra razón. En la matriz de datos, estos valores ausentes han sido representados
mediante el símbolo de interrogación (?).

Desarrollemos el ejemplo de la composición de vidrios romanos que aparecía en el


capítulo anterior. Para obtener los estadísticos univariantes de la variable “proporción
de aluminio”, seleccionaremos la columna ALUMINIO y ejecutaremos el comando
“Univariate” del Menu “Statistics”. Los resultados son:

N 97
Min (mínimo) 1,61
Max (máximo) 2,17
Mean (media) 1,81959
Std. error (error típico) 0,0116736
Variance (varianza) 0,0132186
Stand. Dev (desviación típica) 0,114972
Median (mediana) 1,83
Skewness (asimetría) 0,34913
Kurtosis (curtosis) 0,165398

Estas cifras nos dicen que se han medido 97 muestras (N=97), que la que tenía menos
aluminio en su composición tenía 1,61%, y la que más 2,17%. El valor promedio es de
1,819% y el punto central (mediana), es de 1,83%. La desviación típica es bastante baja
(0,011497), lo que nos permite concluir que la variabilidad es comparativamente escasa:
la mayoría de valores se sitúa a escasa distancia del punto central. La asimetría no es
muy acusada (Skewness= 0,34), como tampoco lo es la curtosis (Kurtosis= 0,16), lo que
refuerza la idea de la homogeneidad, regularidad y escasa variabilidad en la
composición de aluminio en esta colección de vidrios romanos.

Al igual que hacíamos en el caso de los histogramas, también aquí podemos restringir el
cálculo a un subconjunto más homogéneo de datos. Por ejemplo, en el archivo “lanzas”,
podemos calcular la media, la desviación típica y otros estadísticos univariantes de la
longitud o del peso tan sólo de las lanzas de hierro encontradas en un contexto funerario.
Para ello ordenaremos (Menú TransformÆSort ascending) la columna MATERIA. A
continuación seleccionaremos dentro de la columna CONTEXTO aquellas casillas que
tengan una MATERIA=2 (hierro) y volveremos a ordenar (Menú TransformÆSort
ascending; “transformar Æ ordenación ascendente”).

42
Seleccionaremos finalmente CONTEXTO=3 (lanzas halladas en tumbas) y
calcularemos las estadísticas univariantes de la longitud máxima y del peso.

Los resultados son:


LONGITUD MAXIMA PESO

N 6 7
Min 12,4 154,8
Max. 22,6 358,1
Mean 14,0714 248,686
Std. Error 2,48229 49,11
Variance 43,1324 16882,5
Standard. Dev. 6,56752 129,933
Median 14,1 322,9
Skewness -0,67726 -0,825711
Kurtosis -0,592671 -0,888374

43
Ambas series muestran una variabilidad muy semejante, aunque los valores de peso y
longitud sean totalmente distintos. Basta comparar la desviación típica con la media
para comprobarlo. Si la desviación típica es inferior a la mitad de la media, podremos
suponer que la variabilidad general es escasa. No obstante, el hecho que en el caso del
peso de las lanzas de hierro encontradas en contexto funerario la media y la mediana no
coincidan, indicaría que existe algún valor extremo, esto es, una lanza mucho más
pesada que las demás, observación ésta que no sucedería en el caso de la longitud de las
mismas lanzas. Hay una lanza, que teniendo una longitud comparable a las demás, es
mucho más pesada.

Esta sucinta explicación de las estadísticas univariantes puede parecer un tanto


apresurada. ¿Para qué sirven en realidad esos valores? No son más que medidas de la
intensidad de la variabilidad. Debemos tener presente que la variabilidad es una
propiedad cuantitativa de los conjuntos de cosas. Ahora bien, saber cual es el grado con
que varían los componentes químicos de unos artefactos, la forma de las hachas
encontradas en un conjunto o el tamaño de las habitaciones en un poblado no nos dice
mucho en sí mismo. Media, mediana, desviación típica y las demás medidas que hemos
mencionado en este capítulo no sirven den mucho por sí mismas. Son importantes no
tanto por la información que proporcionan, sino por que pueden usarse para obtener una
descripción más completa de cómo es esa variación. En definitiva, las usaremos en los
próximos capítulos para averiguar ¿por qué en un conjunto de materiales arqueológicos,
estos son distintos entre sí? ¿Hasta qué punto son distintos? ¿Qué quiere decir que son
diferentes?

44
El azar como medida de todas las
cosas. La Ley de la “Normalidad”

¿Qué hemos aprendido hasta ahora? Hemos descrito diferentes procedimientos para
medir y describir la variabilidad observada de las consecuencias materiales de la acción
social. Sin embargo, hemos argumentado que la auténtica razón de aplicar técnicas
estadísticas a la explicación arqueológica no es la de servir de mera descripción de lo
observado, por precisa que pueda ser, sino reconstruir la acción o proceso de trabajo
que generó en el pasado los efectos materiales que podemos observar en el presente.
Obviamente, las evidencias arqueológicas de las que disponemos no constituyen el
conjunto total de las consecuencias materiales de aquella acción. La mayoría de ellas no
ha llegado hasta nosotros por diversas razones; ¡a veces incluso por la debilidad de
nuestra propia metodología de adquisición de datos arqueológicos! En realidad,
debiéramos considerar que la población original de efectos materiales de la acción
social debió ser enormemente grande, y aquello que nosotros hemos podido observar y
medir es un pequeño subconjunto. Para representar gráficamente lo que suponemos que
fue la acción productora resulta útil sustituir el histograma de frecuencias por una línea
de trazo continuo que describa el perfil del histograma que en teoría contuviese todos
los efectos imaginables de la acción en cuestión.

La curva traza la distribución de todos los valores que hubieran podido ser producidos
por una única acción social o proceso de trabajo. Por eso la curva es distinta al
histograma, ya que en este caso la población no es resultado de una serie de
observaciones y/o mediciones. Es una población teórica de tamaño indeterminable. Por
consiguiente, lo que se ha figurado en el gráfico no son las frecuencias de aparición de
ciertos valores concretos, sino una distribución teórica de probabilidades. Esto es,
una estimación de la frecuencia que sería de esperar fuese observable en la realidad si se
hubiesen conservado todos los efectos materiales de la acción. Aunque a primera vista

45
pueda parecer muy parecida a un histograma de frecuencias, el eje Y (vertical) de la
distribución de probabilidades es bastante distinto. En un histograma ese eje muestra el
número de observaciones en cada intervalo. En una distribución de probabilidades el eje
no puede representar lo mismo, ya que hay infinitas observaciones posibles y no hay
intervalos. El gráfico representa probabilidades en términos del porcentaje de área bajo
la curva. El área bajo toda la curva representa a toda la población; la proporción del área
situada entre dos valores sucesivos del eje X (horizontal) equivale a la probabilidad de
observar un valor en ese intervalo. Cuanto más apuntada la curva, mayor superficie del
área, y por tanto, más probable será ese valor. Cuanto más ajustada sea la curva al eje X,
menor superficie y por tanto, menor será la probabilidad de que ese valor de la
propiedad cuantitativa en cuestión haya sido producido por esa acción. Por esa razón el
eje Y suele denominarse densidad de probabilidad, un término difícil de definir, pero
que podemos entender intuitivamente.

Si la curva infinita es distinta al histograma, ¿para qué sirve? Nos permite representar el
proceso que causó las observaciones. El uso de una curva con ese propósito presenta la
gran ventaja de que se dispone de una ecuación matemática que expresa la forma de esa
curva y, por tanto, la misma ecuación describiría matemáticamente el proceso que causó
las observaciones. La idea es, entonces, representar todos los resultados posibles de un
proceso (de una acción social, esto es, el proceso de trabajo) por medio de una curva
teórica, y a continuación analizar si el histograma de los valores observados en un
contexto arqueológico determinado se aproxima a la curva teórica o se diferencia de ella.

Debe insistirse en que esta distribución de probabilidades es una curva teórica que no se
mide en la realidad. Nunca dispondremos de todas las consecuencias materiales de una
misma acción social, por lo que la única forma de definir la probabilidad con que cierto
efecto vaya a resultar observable es recurriendo a una teoría o hipótesis concreta acerca
de la acción. Vamos a ver cómo esa definición hipotética es posible.

En un ensayo escrito en 1756, Thomas Simpson planteó el supuesto que afirmaba que la
distribución probabilística de errores en una observación simple era análoga a la
distribución probabilística de las sumas de lanzamientos de varios dados. Es decir, los
errores accidentales de un proceso intencional son aleatorios, aún cuando el proceso
que generó esos errores no tenga nada de aleatorio. Si observamos la forma en que se
distribuye un grupo de errores que se alejan de una norma o intención, no hallaremos
probabilidades uniformes, sino que habrá más errores accidentales agrupados cerca del
valor medio del grupo con el número de errores reduciéndose conforme la magnitud del
error se hace mayor, hasta llegar a sólo unos pocos valores en los extremos.

Este principio general se denomina curva normal y sirve para definir con precisión lo
que quiere decir “ser normal”. Está basado en el que quizá sea el resultado más
importante para la estadística: el Teorema del Límite Central, que afirma, que la suma o
la media de un gran número de errores sigue una distribución regular y simétrica y que,

46
por consiguiente, el mejor valor esperado de una distribución cualquiera de datos es la
media de la población. Una consecuencia de este teorema viene a decir que aquellos
resultados que se apartan de la media son tanto menos frecuentes cuanto más se apartan
de ésta, y, además, tienden a compensarse con los resultados que se apartan de la media
en la misma medida pero en dirección opuesta.

En una distribución que siga la curva normal, la desviación típica determina la longitud
de un intervalo simétrico alrededor del punto central (media). Si la variación estuviese
producida exclusivamente por el azar, dentro de dicho intervalo debería encontrarse la
mayoría de las observaciones o casos, por lo que sólo una pequeña porción de los casos
estarán lejos del punto central. Denominaremos a este segmento alrededor de la media
intervalo de confianza. Si los valores observados varían al azar a lado y lado de la
media, entonces el intervalo de confianza tiene unas propiedades muy interesantes: el
95,45 % de los datos se situará siempre en un intervalo situado a dos desviaciones
típicas de la media. El 68,27 % de los datos se podrá colocar en el intervalo
determinado por una desviación típica. Estos porcentajes son siempre los mismos sea
cual sea el valor de la media y de la desviación típica, ya que siempre que el azar es la
única causa de la variabilidad, la distribución adopta la misma forma. Calcularemos
ahora la longitud del intervalo de confianza de la curva normal que incluya el 95 % de
todas las observaciones y excluya el 5 %. Ese valor es 1,96. En otras palabras, un
intervalo de 1,96 veces la desviación típica incluirá el 95 % de las observaciones si y
sólo si las diferencias entre los valores más grandes y más pequeños que la media han
sido provocadas únicamente por el azar.

Durante bastante tiempo se creyó que cualquier distribución de frecuencias daban lugar
a este tipo de perfil, de ahí el nombre curva normal. Sin embargo, no es ese el caso. De
hecho incluso el apelativo curva normal parece fuera de lugar, ya que no todos los
fenómenos frecuentes son normales. Mucho más apropiado sería llamarla “curva
característica de errores aleatorios” 11 . Lo fundamental es darse cuenta que esta ley
afecta no tanto al proceso que genera los datos en sí (que NO es aleatorio), sino a las
diferencias existentes entre los errores o diferencias de cada observación con su
respectiva medida de tendencia central.

Veamos de qué manera esta ley matemática nos permite explicar el proceso de
formación del registro arqueológico. Recordemos que las evidencias arqueológicas no
son más que las consecuencias materiales de la acción social, del trabajo de hombres y
mujeres. Por consiguiente, nuestro supuesto de partida es que el registro arqueológico

11
En 1844, Adolphe Quételet, que fue uno de los pioneros en la aplicación de la estadística al estudio de
los fenómenos y procesos sociales, la llamó “ley de las causas accidentales”.

47
es expresión del trabajo, esto es, de la acción social que lo produjo. Aquello que
caracteriza dicha acción social es, precisamente, su intencionalidad. ¿Por qué? Porque
las acciones sociales se definen en términos de las transformaciones que deben
realizarse con el propósito de cumplir cierto objetivo. Son conscientes (porque tenemos
un propósito en mente al realizarlas), si bien una acción puede ser intencional sin que el
agente que la lleve a cabo tenga que estar enterado de dicho objetivo. Las motivaciones
o las intenciones entonces no son meras condiciones para desarrollar una actividad, sino
factores reales que influyen en la acción y en sus consecuencias materiales.

Si un artesano o artesana tiene la intención de producir cierto instrumento para poder


llevar a cabo una actividad de trabajo en concreto, todos los instrumentos que produzca
con la misma intención tenderán a tener los mismos valores de las propiedades
cuantitativas (forma, tamaño, composición, y/o textura) que definen su materialidad.
Accidentalmente ciertos objetos serán mucho mayores o mucho menores de lo que
pretendía, pero como esos objetos fuera de la norma son errores accidentales que no
coinciden con aquello que quería hacer, serán muy poco frecuentes. La artesana intenta
minimizar sus errores, y que la mayoría de productos de su trabajo se sitúen en las
proximidades de una norma, es decir el valor de la propiedad cuantitativa más ajustado
a la función que pretende tener el objeto producido. De este modo, si la propiedad
cuantitativa en cuestión nada tiene que ver con la intencionalidad de su proceso de
producción, sus valores no estarán “normalizados” y la distribución de sus diferencias
no seguirá una curva simétrica. El artesano o la artesana “normalizan” ciertos aspectos
de su trabajo, esto es, fabrican sus vasijas de manera que su diámetro y su altura tengan
siempre la misma longitud ya que esta relación condiciona la capacidad total del
recipiente, pero les será indiferente el grosor de la pared o el diámetro de la base, por
ejemplo. Si bien el rango de variación será restringido, no estará “normalizado”.

Lo que buscamos es precisamente identificar la intención con la que cierta persona o


grupo de personas en cierto momento llevaron a cabo una acción determinada. Si dicha
acción fue realmente intencional y tuvo un objetivo bien definido, entonces, las
consecuencias materiales de dicha acción deberían tener las mismas medidas, con pocas
diferencias entre ellas. Una gran mayoría de los resultados materiales de la acción
serían muy semejantes entre sí, mientras que unos pocos serán mucho mayores y otros
pocos serán mucho menores. Por este motivo, las colas de una distribución intencional
de valores son siempre mucho menores que el centro de la distribución, en donde se
concentran aquellos valores que son resultado de la acción. El sentido común nos dice
que las diferencias entre los resultados materiales de una misma acción
intencionalmente ejecutada son debidas al azar. Por consiguiente, si en una serie de
objetos realizados con el mismo proceso de trabajo y con la intención de realizar la
misma actividad observamos que una mayoría de instrumentos tienen valores muy
próximos de las mismas propiedades cuantitativas y además, sólo unos pocos objetos
son o mucho mayores o mucho menores, y se observa idéntico número de casos
demasiado pequeños y demasiado grandes, habremos identificado la consecuencia
material de una acción social intencionalmente realizada.

Del mismo modo, la estatura de todas las personas que vayan a leer alguna vez este
manual de arqueología y estadística parecen seguir una distribución con la misma forma.
Probablemente el histograma de esos valores sea simétrico y relativamente poco
apuntado, lo que querrá decir que la mayoría de lectores y lectoras tendrá una estatura
más o menos semejante; unos pocos serán mucho más altos o altas que el resto,
mientras que otros serán mucho más bajos o bajas que la mayoría. ¿Quiere esto decir

48
que he escrito el manual intencionalmente para unos lectores o lectoras con determinada
estatura? Obviamente no. Aquí la intencionalidad no radica en leer este manual o no,
sino en las características biológicas de la especie humana. La estatura de una persona
no es resultado de la suerte o del capricho de un Dios que juega a los dados con los
seres que crea, es un resultado de las características biológicas de la especie, y de ciertas
características específicas del individuo, como herencia genética, alimentación infantil,
etc. Lo que varía al azar es la estatura de la gente con respecto a la tendencia general de
la estatura de todos los humanos. Las diferencias de estatura entre individuos son
aleatorias alrededor de su media, porque la evolución de la especie ha marcado una
tendencia general en la estatura de sus miembros. La Naturaleza es intencional en el
sentido en que es direccional y regular. No es una intencionalidad en el sentido que lo
es una acción social, pero sí se trata de una forma de regularidad.

Lo contrario de la curva normal es la ausencia de tendencia central, la distribución


uniforme, que debe su nombre al hecho de que todos los valores de una variable tienen
la misma probabilidad de existir, porque lo que determina un valor u otro es el azar, la
suerte o la casualidad. En una población normal, por el contrario, resultado de una

20 20
19 19 20
18 18 19
17 17 18
16 16 17
15 15 16
14 14 15
13 13 14
Frequency

Frequency

12 12 13
Frequency

11 11 12
10 10 11
9 9 10
8 8 9
7 7 8
6 6 7
5 5 6
5
4 4 4
3 3 3
2 2 2
1 1 1
20 30 40 20 30 40 20 30 40

Distintos ejemplos de distribuciones uniformes (aleatorias) no “normales”

40

30
30
30
F re q u e n c y

20
20
Frequency

Frequency

20

10
10
10

30 40 50
20 30 40 50
20 30 40 50

Distintos ejemplos de distribuciones normales

intención concreta o de una tendencia inherente al proceso, los valores más próximos a
la media tienen mayor probabilidad. Lo más lógico es que un ser humano tenga una
estatura de 1,70 m., y es muy poco probable, aunque no imposible, que su estatura sea
de 2,33 m., o de 0,85 m. Del mismo modo, un instrumento lítico manufacturado por un
artesano con una intencionalidad concreta tendrá una longitud máxima apropiada a su

49
función, y esta coincidirá con la media de todos los instrumentos manufacturados por
ese artesano o artesana con esa misma intencionalidad, como ya se afirmó al principio
de este capítulo.

Otra forma de estudiar la intencionalidad o no de una serie de valores sería comparando


la media de longitudes observadas, por ejemplo, con cierta tendencia central esperada.
¿Qué quiere decir aquí esperada? Simplemente, que disponemos de algún tipo de
información teórica previa (histórica o etnográfica) que afirma que en ciertas
condiciones de trabajo, la longitud media de los artefactos usados para determinado
propósito es conocida. Lo que debemos hacer será por tanto comparar la tendencia
central de nuestros datos con la tendencia central esperada. Como es lógico, eso sólo
será posible si nuestras observaciones y la distribución esperada se distribuyen
normalmente.

PAST dispone de una función específica para averiguar si las observaciones son en
realidad un subconjunto de una población más general con una media (teórica) dada.
Después de seleccionar la columna que contiene los datos de la población observada,
ejecutaremos la función del Menú StatisticsÆ T test (one sample)(“test T para una
muestra”). Como resultado se abre una ventana en la que debemos introducir el valor de
la media esperada.

En este caso estamos analizando la profundidad de ciertas estructuras excavadas en la


roca (archivo India1). Supongamos que la profundidad media esperada es de 65 cm.

50
Presionamos el botón Compute, y el resultado es el siguiente:

La prueba t para una muestra se limita a restar la media observada de la media esperada
y a relacionar esa diferencia con la desviación típica de los datos observados. Como en
la mayoría de pruebas de hipótesis estadísticas, lo importante no es el valor concreto de
la prueba (aquí t= -2,177) sino interpretar dicho resultado con arreglo a la hipótesis que
se quiere contrastar. Si pretendemos averiguar si la media observada coincide con la
media teórica, interpretaremos el resultado de la prueba mostrando la probabilidad de
que la Hipótesis de que sean la misma media –p(same mean)- sea cierta.

En nuestro caso, la media (mean) de la profundidad en la población de 103 depresiones


observadas es de 53,66 cm. Dicho valor es significativamente distinto del valor de
profundidad media esperado (65 cm), ya que la prueba t para una muestra, nos dice que
dada la dispersión de valores de profundidades observado (desviación típica), una
diferencia de medias como la existente entre 53,66 y 65 no puede aparecer al azar. La
probabilidad de que la población observada tenga una media próxima a la esperada es
de tan sólo 0,032. Ese valor lo leeremos de acuerdo con nuestro principio general:

Si la significación probabilística de la prueba nos indica una probabilidad menor de


0,050 (5%), diremos que ambas medias son distintas. Si por el contrario p(same mean)
es un número mayor de 0,050 concluiremos que los datos observados constituyen un
subconjunto de una población general, mucho mayor, cuya media es, precisamente,
la media esperada.

Como en nuestro caso ese valor es inferior a 0,050, rechazaremos la hipótesis de que los
datos observados respondan a las mismas circunstancias a las que se refiere la tendencia
central esperada. Los datos observados no se ajustan a la intencionalidad supuesta por el
modelo teórico. Esta manera de proporcionar resultados puede parecer un tanto
irracional. Pero tiene mucho sentido si lo interpretamos en un sentido probabilístico. Un
hecho que sólo tiene un 5% (0,050) de probabilidades de existir quiere decir que de 100
repeticiones del suceso sólo en 5 ocasiones aparecería ese hecho. Si excavásemos 100
yacimientos de una misma época y mismas características en un área geográfica bien
delimitada, y en sólo 5 de ellos encontrásemos huesos de ciervo ¿qué pensaríamos?
Probablemente que los ciervos eran tan escasos en ese lugar y época que el hecho de
encontrar tan pocas evidencias mostrarían que su aparición es un accidente, antes que la
norma. Pues eso es lo que hemos de hacer con los resultados de la prueba de normalidad.
Si la probabilidad de una hipótesis determinada es inferior a 0,050 diremos que esa

51
hipótesis es tan poco probable que no se cumple. Si por el contrario, esa probabilidad es
superior al 0,050, diremos que existe una probabilidad no negligible de que la hipótesis
sea válida en esas circunstancias concretas.

En definitiva, lo que hemos afirmado en este capítulo es que existe un modelo teórico
que describe con exactitud la manera en que un proceso de trabajo o acción social
genera sus efectos materiales y que ese modelo teórico coincide con lo que los
matemáticos denominan curva normal. Lo que afirma este modelo teórico es que si el
proceso causal es realmente intencional, entonces no todos los errores accidentales o
diferencias con lo que se pretendía conseguir con la acción serán igualmente probables.
Una acción será normal o estará normalizada porque se considera normal que ese
artefacto o ese individuo tenga el valor concreto de la propiedad cuantitativa que mejor
define aquella característica que determina la intención con la que ha sido producido.
Pero es normal porque lo normal es que la mayoría de objetos producidos con la misma
intención tienden a tener el mismo valor de esa misma propiedad cuantitativa. Es decir,
los efectos materiales de cualquier acción intencional tienen una marcada tendencia
central, siendo cualquier variación alrededor de ella estrictamente aleatoria. La media
de las propiedades cuantitativas puede interpretarse, entonces, como aquel valor al que
las observaciones se aproximan, es decir, la intencionalidad de la acción o proceso
causal. En otras palabras, si una acción intencional ha sido la causante de los distintos
valores de tamaño, forma, textura, composición y/o localización que adopta una serie
delimitada de consecuencias materiales, el valor esperado, el más frecuente, el más
probable, será la media de todos ellos. Aquellas consecuencias accidentales de la acción
que se apartan de la intención serán tanto menos frecuentes cuanto más se apartan de la
tendencia central mostrada por todas las consecuencias. Por el contrario, en la
distribución no intencional de valores, cualquier objeto podría tener cualquier valor. No
hay ninguna tendencia subyacente que nos permita suponer que las personas que
realizaron la acción de la cual el objeto arqueológico es evidencia pretendieran hacer
algo concreto. Por consiguiente, podemos basar nuestra investigación en el supuesto
que las diferencias observadas en un conjunto de artefactos y la norma o medida
intencional que caracterizó al proceso de trabajo que los produjo se comportan de un
modo similar a una distribución aleatoria.

Este principio general es muy importante porque nos permite pasar de la observación de
la variabilidad de cierta propiedad cuantitativa en un conjunto de datos arqueológicos a
determinar la distribución de las probabilidades asociadas con cada una de las acciones
que posiblemente generaran esos datos. Si y sólo si podemos demostrar que los datos
observados y medidos en el registro arqueológico son el resultado de una acción
intencional, entonces el promedio (tendencia central) de las medidas que hagamos de
las evidencias arqueológicas disponibles caracterizarán el proceso de trabajo. Sin
embargo, si las medidas realizadas de las evidencias arqueológicas no se distribuyen
según la curva normal, entonces no podremos saber si el promedio de esas medidas
caracteriza o no la acción generadora. En definitiva, sólo si la producción del efecto
observado ha sido una acción intencional (humana) o regular (proceso bio-geológico),
entonces las diferencias entre los valores observados se comportarán como sucesos
aleatorios y podrán ser descritos predictiblemente mediante distribuciones de
probabilidad.

52
Explicar es Comparar
χ - chi cuadrado-/Shapiro-Wilk (una muestra).
2

Gráficos QQ de Normalidad.

El objetivo del análisis estadístico es “extraer toda la información posible de los datos
observados”. La primera tarea del análisis consistirá, por tanto, en escrutar o examinar
cruzadamente los datos para averiguar los posibles defectos y entender sus especiales
características. El siguiente paso es la especificación de un modelo teórico que explique
las observaciones. En nuestro caso, ese modelo es el de la intencionalidad de la acción
social y sus efectos aleatorios en las diferencias que pudieran existir entre las distintas
consecuencias materiales de una misma acción. Sobre la base del modelo teórico (la
curva normal o curva de causas accidentales) emprenderemos el análisis inferencial,
que comprende la estimación de parámetros desconocidos (la norma a la cual tiende la
intencionalidad de la acción), pruebas de hipótesis, predicción de futuras observaciones
y toma de decisiones. Ahora bien, es importante tener en cuenta que la aplicación de las
pruebas estadísticas que caracterizan la forma de una distribución de datos se basa en el
hecho de que no existe una única distribución normal, sino una familia de distribuciones
con una forma común, diferenciadas por los valores de su media y su varianza. En
realidad debemos tener presente que las distribuciones de probabilidad son teóricas; se
usan como referencia o para comparar los datos observados.

De ahí que en todo análisis estadístico de un registro arqueológico dado empecemos con
los histogramas y las pruebas de normalidad. La idea fundamental que vamos a explorar
es si la variabilidad de nuestras observaciones arqueológicas tiene la estructura
característica de lo que los estadísticos llaman normalidad, y que es consecuencia de la
intencionalidad de toda acción social. Si siempre que la intencionalidad interviene deja
una huella claramente perceptible (la curva en forma de campana), entonces, podremos
describir la manera particular en que es la intencionalidad humana la que determina los
valores concretos que ciertas propiedades cuantitativas adoptan. Si esto es así, entonces
concluiremos que el conjunto de datos observados ha sido producido por una acción
causal concreta, por una acción social de trabajo, y podemos interpretarla estimando sus
parámetros originales a partir de los datos medidos en el registro arqueológico. El
propósito de este capítulo es, precisamente, explicar cómo puede determinarse el grado
de normalidad de una distribución.

53
Estas técnicas estadísticas se utilizan de una manera un tanto peculiar, la cual necesita
de una breve explicación previa. Para mostrar la influencia de la intencionalidad de la
acción social (o bio-geológica que ha alterado post-depositacionalmente las evidencias
materiales de una acción humana anterior), deberemos desacreditar el supuesto de que
esa variabilidad no tiene explicación. Ese supuesto de “no explicación” que debemos
eliminar queda expresado en declaraciones como “Estos resultados podrían fácilmente
ser debidos al azar” o “Un modelo aleatorio se ajusta adecuadamente a los datos”. Aquí,
“aleatorio” significa exactamente lo contrario que “intencional”. Si los datos no son
marcadamente inconsistentes con esa concepción, entonces una explicación de todo-
azar es sostenible, por lo que respecta a ese conjunto de datos. A menudo esto es
descrito como “aceptación de la independencia entre causa hipotética y efecto, o no
relación causal”. Si, por otra parte, los datos son inconsistentes con el modelo de todo-
azar, la hipótesis del azar es rechazada, y se aceptará el modelo “intencional”.
Recordemos que estamos comparando aquí dos modelos teóricos: el intencional
(normal) y el no-intencional (aleatorio).

De este modo se demuestra que la estadística, más que una herramienta de


demostración, es una herramienta de argumentación, como ha afirmado R. P. Abelson12.

Una advertencia importante aquí es que los términos usuales “aceptar” o “rechazar” una
hipótesis estadística son semánticamente demasiado intensos. Las pruebas estadísticas
son ayudas a la argumentación, no declaraciones con valor de verdad lógica. Además, el
sentido común debería decirnos que la que consideraremos hipótesis nula (“estos
resultados podrían fácilmente ser debidos al azar”) prácticamente nunca es literalmente
exacta. Necesitamos un índice probabilístico para evaluar la capacidad explicativa de la
hipótesis. Ese índice (que simbolizaremos en las páginas siguientes con la letra p) puede
utilizarse como indicador del grado de aceptación o rechazo de esa hipótesis explicativa.
Tan correcto es aceptar la hipótesis nula en un caso concreto si su probabilidad es de
0,900, como rechazar la posibilidad de tal hipótesis si su probabilidad es inferior a 0,05.
Evidentemente, para un escéptico resultaría difícil mantener esa hipótesis nula cuando
los datos sólo tienen cinco oportunidades entre cien de haber surgido de ella. Ahora
bien, el modo correcto de “rechazar” la hipótesis sería: “Si fuera cierto que no hubiese
una diferencia sistemática entre una distribución teórica uniforme y los datos
observados en este contexto arqueológico preciso, entonces la probabilidad de que esos
datos sean los resultados materiales de una única acción social es menor de 5%. Siendo
esto una base sólida para dudar de la viabilidad de la hipótesis nula, esta es rechazada”13.
En la práctica no usaremos una retórica tan compleja, sino expresiones más simples del
tipo “conservar la hipótesis nula” o “tratar la hipótesis nula como viable”, "se ha
desacreditado la hipótesis nula”. Aunque la frase que usemos sea más simple, conviene
tener en cuenta qué es lo que en realidad está midiendo este índice de significación de la
hipótesis nula. Conviene no confundir “la probabilidad de los datos dada una hipótesis
inicial” con la “probabilidad de la hipótesis dados los datos”.

12
R.P. Abelson, 1998, La estadística razonada: reglas y principios. (traducción castellana) Barcelona,
Editorial Paidós (Colección temas de Psicología No. 3). Realmente no hay libros que traten estas
cuestiones, a medio camino entre la filosofía y la práctica. El libro de Abelson es modélico en su manera
de entender qué es y para qué sirve la estadística. Muchas de las ideas de este último capítulo están
basadas en este libro. Véase también C. Radhakrishna Rao, 1994, Estadística y verdad. Aprovechando el
azar. (Traducción castellana). Barcelona, Promociones y Publicaciones Universitarias, S.A.
(UNIVERSITAS-73); D.J. Bennett, 2000, Aleatoriedad. (Traducción castellana). Madrid: Alianza
Editorial (Materiales/Ciencia y Tecnología No. 036).
13
Cita de Abelson, 1998, pag. 64.

54
Secuencias aleatorias de números generados artificialmente nos capacitan para
descubrir, por comparación, mecanismos fortuitos similares. Por lo tanto, para observar
si la distribución de valores de longitud, peso, superficie, frecuencia, o la propiedad
cuantitativa que se quiera es o no normal (es o no resultado de una acción intencional)
deberemos comparar la distribución observada con una distribución “teórica”, es decir,
una distribución normal que tenga la misma media y desviación típica que la que
nosotros hemos observado. En PAST puede hacerse. La opción Fit Normal (“ajuste

normal”) que aparece en la misma ventana que muestra el resultado del histograma
superpone a nuestra distribución la curva de una distribución normal ideal con una
media y desviación típica idénticas a las de nuestros datos.

Pero que los trazados coincidan “más o menos” no dice mucho. Deberemos examinar el
histograma preguntándonos si los datos se distribuyen de forma simétrica con respecto a
su media o presentan algún grado de asimetría, pues es ésta una de las características
fundamentales de la distribución normal. Aunque la simetría de la distribución pueda
valorarse de modo simple, atendiendo a algunas medidas descriptivas de la variable en
cuestión (comparando, por ejemplo, los valores de media, mediana), resultará útil
estudiar a fondo los coeficientes de asimetría (en inglés Skewness) y curtosis (en inglés
Kurtosis) que obteníamos al calcular las estadísticas unidimensionales.

Los gráficos de probabilidad normal constituyen otra importante herramienta gráfica


para comprobar si un conjunto de datos puede considerarse o no procedente de una
distribución normal y si la causa de la variabilidad observada es una acción
intencional. La idea básica es semejante a la de la curva superpuesta al histograma:
compararemos en un mismo gráfico los datos que han sido observados frente a los datos
teóricos que se obtendrían de una distribución normal con la misma media y la misma
desviación típica. Si la distribución de la variable coincide con la normal, los puntos se
concentrarán en torno a una línea recta, aunque conviene tener en cuenta que siempre
tenderá a observarse mayor variabilidad en los extremos. Además de permitir valorar la
desviación de la normalidad, los gráficos de probabilidad permiten conocer la causa de
esa desviación. Una curva en forma de "U" o con alguna curvatura significa que la
distribución es asimétrica con respecto a la normal, mientras que un gráfico en forma de

55
"S" significará que la distribución tiene colas mayores o menores que la normal, esto es,
que existen pocas o demasiadas observaciones en las colas de la distribución.

PAST proporciona la función gráfica denominada gráfico Q-Q. Seleccionando la


columna a estudiar y la función Normal probability plot (“gráfico de probabilidad
normal”) en el Menú Plot, obtenemos:

¿Complicado? No tanto. El eje vertical del gráfico muestra los valores observados de la
columna seleccionada en orden creciente. El eje horizontal contiene una estimación de
las frecuencias acumuladas que serían de esperar en una distribución normal con la
misma media y desviación típica que nuestros datos. En el caso que aparece en la figura
se está analizando un conjunto de 5 valores: 7, 3, 4, 11 y 9. Sólo hay un objeto con cada
uno de esos valores, por lo que la frecuencia con que aparecen esos números es de 1. Si
ordenamos esos valores de menor a mayor llegaremos a la conclusión que la frecuencia
acumulada de la observación 11 es igual a 5. Esto quiere decir que 5 individuos de
nuestro conjunto de observaciones son menores o iguales a 11. También podemos decir
que el 100% de los datos son menores o iguales a 11. Las frecuencias acumuladas
también nos dicen que el 20% de las observaciones son iguales o menores a 3; el 40%
son menores o iguales que 4, el 60% menores o iguales a 7, y el 80% son menores o
iguales a 9.

Frecuencias
Frecuencias de Frecuencias Acumuladas
Datos Aparición Acumuladas Relativas
3 1 1 1/5 = 0,20
4 1 2 2/5 = 0,40
7 1 3 3/5 = 0,60
9 1 4 4/5 = 0,80
11 1 5 5/5 = 1,00

56
Utilizando cálculos más complejos, el programa calcula cuáles serían las frecuencias
acumuladas en una distribución normal con el mismo número de datos, de igual media y
desviación típica. Como es lógico, si nuestra distribución observada es normal, las
frecuencias acumuladas de una y otra serán idénticas y los puntos del gráfico se
alinearán de acuerdo con una línea recta14.

50 50

40
40
Sample v alues

Sample values
30
30

20

20
10

-2 -1 0 1 2 3 -2 -1 0 1 2 3
No rmal o rder statistic medians No rmal o rder statistic medians

Gráfico de probabilidad QQ de una distribución normal y de otra que no lo es

En muchas ocasiones, un rápido vistazo a las estadísticas unidimensionales y al gráfico


QQ debieran bastar para saber si la distribución observada es resultado de una acción
intencional o no. Pero no siempre es así. Necesitamos unas pruebas más sólidas y
fiables. PAST dispone de las funciones χ2 –chi cuadrado (una muestra) y Shapiro-
Wilk (una muestra).

La más recomendable es la prueba de Shapiro-Wilk, que comprueba si una única


distribución (una columna seleccionada) con más de 3 observaciones pero menos de
5000 es normal. En realidad, lo que hace esta prueba es calcular la probabilidad de que
sea cierta la siguiente Hipótesis Nula:

H0: los datos observados se distribuyen “normalmente”, esto es, el 68% de ellos están
a lado y lado de la media (a 1 desviación típica), y hay muy pocas observaciones muy

14
PAST proporciona también una prueba numérica de la fiabilidad de esta superposición (PPCC, en el
margen de la ventana que contiene el gráfico). No obstante, en la mayoría de las ocasiones que he
comprobado personalmente, este test no distingue apropiadamente la normalidad de la no normalidad.

57
grandes o muy pequeñas (sólo un 5% de las observaciones se sitúan a más de 2 veces la
desviación típica).

La manera de hacer estos cálculos es complicada, pero eso poco importa, ya que PAST
hará los cálculos por nosotros. En general, esta prueba está basada en una división entre
la suma ponderada del cuadrado de las observaciones y la sumatoria de las diferencias al
cuadrado (recordemos la fórmula de la varianza). Es por tanto, una especie de
derivación de la fórmula general de la varianza. El valor de la prueba (representado
como W) no nos interesa tanto como la probabilidad de la hipótesis anterior, que se
deriva del valor de la W y del número de observaciones. Hace algunos años era
necesario consultar unas tablas específicas para saber cuál era la probabilidad que
correspondía a determinado resultado de la prueba de Shapiro-Wilk para una población
de x datos u observaciones. Hoy en día, cualquier programa de cálculos estadísticos nos
proporcionará el valor de la prueba junto con el de la probabilidad que le corresponde.

No nos fijaremos tanto en el valor de la W, sino en el valor de probabilidad de la


hipótesis de normalidad, que aparece en la ventana de resultados como p(normal). Ese
es el índice probabilístico que mencionábamos al principio de este capítulo.

Si la significación probabilística de la prueba nos indica una probabilidad menor de


0,050 (5%), diremos que la serie NO es normal Si por el contrario p(normal) es un
número mayor de 0,050 concluiremos que los datos de la columna seleccionada SI se
distribuyen normalmente, es decir, alrededor del 68% de ellos están a lado y lado de
la media (a 1 desviación típica), y hay muy pocas observaciones muy grandes o muy
pequeñas (sólo un 5% de las observaciones se sitúan a más de 2 veces la desviación
típica).

Veamos ahora una prueba distinta que también puede sernos de utilidad. Aunque
muchas veces se usa la prueba de χ2 –chi cuadrado- (una muestra) con el mismo
propósito que la Shapiro-Wilk, para averiguar si unos datos se distribuyen
“normalmente”, lo cierto es que la prueba χ2 –chi cuadrado- (una muestra) nos permite
averiguar lo contrario: si los datos se distribuyen uniformemente. Como es lógico, si
los datos se distribuyen uniformemente NO serán resultado de una acción intencional,
ya que la intencionalidad excluye la uniformidad. En una distribución uniforme, todos
los intervalos en los que podamos dividir una serie de números tienen la misma longitud,
esto es, la probabilidad de que un valor cualquiera se incluya en uno de ellos es la
misma para todos. En una distribución normal, por el contrario, los intervalos centrales,
los más cercanos a la media o tendencia central son mayores, por lo que la probabilidad
de que los valores se concentren en ellos es mayor que en los intervalos extremos.

Para realizar la prueba de χ2 –chi cuadrado- (una muestra) PAST divide los datos de la
columna seleccionada en cuatro grupos. El primero de ellos contiene aquellos valores
menores que la media, que están a más de 0,67 veces la desviación típica; el segundo

58
grupo contiene aquellos valores menores que la media, que están a una distancia menor
de 0,67 veces la desviación típica. El tercer grupo contiene aquellos valores mayores
que la media, que están también a una distancia menor de 0,67 veces la desviación
típica. El grupo restante contiene aquellas observaciones mayores que la media que
están situados a más de 0,67 veces la desviación típica. En resumidas cuentas, los
grupos segundo y tercero contienen los intervalos centrales de la distribución, aquellos
situados más cerca de la tendencia central. La prueba de χ2 –chi cuadrado- para una
muestra compara la frecuencia de observaciones en cada grupo. Si la serie es uniforme
(NO normal), entonces los cuatro grupos tendrán la misma cantidad de datos. Si la serie
no es uniforme (ES normal), entonces los dos grupos centrales deberían tener muchos
más datos que los dos grupos extremos. Para aplicar esta prueba, ninguno de los grupos
debería tener menos de 5 observaciones; todo lo más, sólo uno de los grupos puede
tener una frecuencia menor de 5, pero siempre superior a 1.

La prueba es muy sencilla y podría realizarse con una calculadora de bolsillo o incluso
con lápiz y papel. Se trata de sumar todas las diferencias entre los valores observados y
los de la distribución normal con la misma media y la misma desviación típica. Esa
diferencia se lleva a cabo restando el valor observado del valor esperado, elevando al
cuadrado la diferencia, y dividiendo el resultado por el mismo valor esperado antes
utilizado. Todas las diferencias así obtenidas se suman, y el resultado es lo que se
denomina “valor de la prueba”. Si ese valor es muy grande, entonces los valores
esperados no son semejantes a los observados, y podemos concluir que los datos no se
distribuyen normalmente. Existen tablas estadísticas que nos dicen el umbral a partir del
cual el resultado de la prueba “es significativo”, es decir, si la suma final es lo bastante
grande como para concluir la no normalidad de las observaciones. PAST incluye esas
tablas y proporciona no sólo el resultado de la prueba, sino también la respuesta final a
la pregunta: ¿es normal mi distribución? Pero nos lo dice de la misma manera que lo
decía en el caso de la prueba de Shapiro-Wilk. La Hipótesis Nula de la prueba de χ2 –
chi cuadrado- (una muestra) es exactamente la opuesta de la que veíamos en el caso
anterior: los datos NO se distribuyen normalmente. La prueba nos dice si los cuatro
intervalos tienen la misma cantidad de observaciones o no. Como es lógico, si tuvieran
la misma cantidad de observaciones, la serie se distribuiría uniformemente y no
normalmente.

Resultados de PAST de chi-cuadrado (una nuestra) para una variable simulada normal
y para otra uniforme

Aquí vemos los resultados de la prueba para dos series de números que hemos generado
al azar. En el primer caso, PAST ha establecido que estarán dentro del intervalo central

59
todas aquellas observaciones entre 26,87 y 33,193 (+inf sirve para etiquetar el intervalo
extremo que tiene valores mucho mayores que la media). De los resultados vemos que
el intervalo central es mayor que los dos extremos juntos. En una distribución de 128
observaciones, un valor chi-cuadrado de 4,68 tiene una probabilidad muy baja. En otras
palabras, la serie NO es uniforme, porque la probabilidad de la hipótesis nula es muy
baja (menor que 0,050). En el segundo caso, los cuatro grupos tienen aproximadamente
el mismo número de observaciones. Para 128 observaciones, un valor de la prueba de
1,6875 tiene una probabilidad “alta”, de 0,193 (que es mayor que 0,050). Es decir, la
serie puede ser uniforme (por lo que NO sería normal). Fijémonos que con este uso de
las probabilidades no podemos afirmar que los datos siguen una u otra distribución. En
realidad, sólo podemos estar razonablemente seguros cuando NO cumplen la hipótesis
nula. Lo que afirmamos es que los datos no se distinguen razonablemente de una
distribución teórica dada, ya sea normal o uniforme.

Cuando una distribución de valores no es normal, debemos investigar los motivos. Se ha


de tener presente que en la mayoría de los casos reales, la causa de la regularidad o
irregularidad de una distribución está relacionada con la selección subjetiva de
artefactos a medir que ha hecho la arqueóloga o arqueólogo. Del mismo modo, debemos
tener presente la importancia de la preservación diferencial de los restos y de los
procesos post-depositacionales en la irregularidad de una distribución que quizás
originalmente fue regular.

En general, nuestros datos no se distribuirán normalmente cuando los valores no sean


homogéneos, es decir, cuando esos valores no hayan sido generados por un único
proceso. Si mezclamos en un conjunto artefactos que fueron producidos por medio de
distintos procesos de trabajo, lo lógico es que sus propiedades de forma o de tamaño
sean distintos, por lo que también lo serán sus medidas respectivas. Deberíamos partir
del supuesto según el cual aquello que ha sido encontrado en el mismo lugar del espacio
y procede del mismo momento del tiempo ha sido formado y/o deformado por los
mismos procesos causales, por lo que debería mostrar una cierta homogeneidad, esto es,
poca variación. Si, por el contrario, los datos también proceden de un único contexto
arqueológicamente bien definido, pero su variabilidad no se ajusta a una distribución
“normal”, entonces lo más probable es que se nos hayan mezclado en un conjunto
resultados de varios procesos, la excavación no haya sido todo lo cuidadosa que debió
haber sido, o algún aspecto tafonómico se nos ha escapado de control. Normalmente las
distribuciones de aspecto extraño e irregular surgen a causa de un proceso irregular
introducido en la producción de una distribución de apariencia normal. Este tipo de
distribución ha sido denominado mezcla o distribución compuesta (en inglés mixture) y
en realidad hace referencia a una distribución contaminada, ya que proviene de la
mezcla de un proceso intencional con otros procesos que deforman la distribución. En
ocasiones será posible separar todas las series con ayuda de las técnicas y los
procedimientos explicados en el libro. Si no es así, entonces habrá que usar criterios
externos subjetivos: hasta qué punto el investigador o la investigadora tienen evidencias
que la población de datos es homogénea, pero no regular.

PAST incluye una interesante función que nos permite desarrollar la hipótesis de que
un conjunto de observaciones contiene en realidad más de una distribución. Si
seleccionamos cualquier columna numérica y ejecutamos la función Menú
StatisticsÆMixture Analysis, PAST buscará en los datos las evidencias posibles de dos
o más distribuciones normales. El fundamento de este procedimiento es el siguiente. Si

60
en un histograma tenemos varias puntas, se nos puede ocurrir que en realidad haya más
de una distribución superpuesta. La función de PAST descompone la serie en varias
distribuciones (tantas como se especifique en el cuadro Groups (“grupos”). Debe
tenerse en cuenta, sin embargo, que el procedimiento para definir la media y la
desviación típica más probables para las supuestas distribuciones es muy complejo, por
lo que si solicitamos muchos grupos, el programa empieza a hacer divisiones por cero, y
nos proporciona mensajes de error. Lo ideal por tanto, es ser prudentes y estudiar pocas
superposiciones (2 ó 3 grupos). Debemos experimentar varias veces hasta encontrar la
mejor división en distribuciones superpuestas.

Podemos usar el valor del logaritmo de probabilidad (Log l.hood) para elegir la mejor
solución: en general, cuanto más bajo ese valor, “mejor” será la solución. Esto quiere
decir que deberemos calcular este índice para distintas hipótesis (2, 3, 4 ó más grupos) y
elegir aquella división en grupos cuyo logaritmo de probabilidad sea menor.

Veamos un ejemplo de todo lo dicho hasta ahora. Usaremos el mismo ejemplo de la


proporción de aluminio en la composición de unos vidrios romanos. En primer lugar
calcularemos el histograma y el gráfico de probabilidad QQ siguiendo los
procedimientos antes explicados. Al histograma le superpondremos la curva normal que

61
le corresponde, dada su media y desviación típica, marcando la casilla Fit Normal
(“ajustar la curva normal”).

30
2,2

2,1

Sample values
20
Frequency

1,9

1,8

10 1,7

1,6

1,5

1,6 1,7 1,8 1,9 2 2,1 2,2 -2 -1 0 1 2 3

No rmal o rder statistic medians

Igualmente calcularemos la prueba de χ2 –chi cuadrado (una muestra), para saber si la


distribución es uniforme y la prueba de Shapiro-Wilk para averiguar su posible
normalidad (simetría alrededor de la media).

En este caso, aunque la curva normal se superpone bastante bien a los datos, lo que
podría habernos hecho dudar, el gráfico QQ demuestra que la distribución de valores de
composición de aluminio en esta serie de vidrios romanos se aleja de la que sería de
esperar bajo la hipótesis de una distribución normal. En concreto las colas de la
distribución, esto es, las diferencias extremas con respecto a la media, son demasiado
abundantes y además no son simétricas. El test del chi-cuadrado (una muestra) es
engañoso. Una probabilidad de 0,034 de la Hipótesis Nula nos hace ver que los datos
son significativamente distintos de una distribución uniforme. Pero eso no quiere decir
que sea normal, como lo pone de manifiesto la muy baja probabilidad que registra la
prueba de Shapiro-Wilk: la probabilidad de que en la fabricación de estos vidrios se
haya normalizado la composición de aluminio es sólo de 0,019.

¿Por qué esta serie no es normal? Eso es lo que queremos averiguar. Ya hemos dicho
que no es necesario que todas las propiedades cuantitativas que describen una misma
entidad material deban estar normalizadas. Tan sólo debiéramos tener en consideración
aquellas variables que podamos interpretar como consecuencia directa de la intención
de la que esa variable es efecto. Si realizamos la prueba de Shapiro-Wilk para las
restantes columnas de la matriz de datos (archivo “vidrio”), resulta que sólo la cantidad
de sodio (Na) está normalizada. Sin un análisis que nos diga por qué aparece aluminio o

62
sodio en la masa de vidrio no podremos resolver nuestro problema arqueológico. Es
necesario saber si esos son componentes naturales que dependen del lugar de
procedencia de la(s) materia(s) prima(s), si son materiales añadidos a cualquier vidrio,
si sólo es necesario añadirlos para realizar recipientes con una función determinada, o
para provocar un color determinado, entre otras posibilidades que pudieran justificar su
ausencia. Por otro lado, la base de datos no nos informa acerca de la homogeneidad
histórica de los recipientes. ¿Son todas producciones de un mismo taller, de una misma
época, de una misma tipología? Para desarrollar estas hipótesis deberíamos buscar la
posibilidad de que haya distribuciones superpuestas en este conjunto de datos. Para ello,
se selecciona de nuevo la columna Al y se ejecuta Menú StatisticsÆMixture Análisis:

La primera hipótesis es que existan dos distribuciones superpuestas (Groups=2). Como


vemos el ajuste es bastante bueno (Log l.hood=78,43). Si estudiásemos la posibilidad de
tres grupos, el logaritmo de la probabilidad aumenta, y aunque el ajuste sigue siendo
bastante bueno, parece ser mejor la idea de dos distribuciones superpuestas que la de
tres.

Volvamos a la solución en dos distribuciones posiblemente superpuestas. El botón View


numbers (“ver números”) nos proporciona un listado de las estadísticas univariantes de
esas distribuciones superpuestas, y de la probabilidad que sean distribuciones normales:
Media Desviación Típica Probabilidad Distribución Normal

1,6638 0,02478 0,16271


1,8499 0,099351 0,83729

63
Por consiguiente, el conjunto de valores medidos de la composición de aluminio no
sería normal porque la población estudiada no es homogénea sino que contiene dos
poblaciones distintas mezcladas: la primera con cantidades de aluminio en su
composición alrededor de 1,6638%, y la otra con cantidades mayores, alrededor de
1,8499%. Si bien las muestras analizadas cuyos valores compositivos se acercan a esas
tendencias centrales pueden asignarse con cierta facilidad a una u otra población,
algunos de los objetos de vidrio no pueden ser asignados a ninguna de las poblaciones,
ya que la cantidad de aluminio en su composición está dentro de lo que cabría esperar
como valores extremos (grandes para la primera serie, pequeños para la segunda) tanto
en una como en otra. Los objetos de vidrio con proporciones de vidrio alrededor de
1,7% serían indeterminables.

Más ejemplos aparecen en el Libro de Ejemplos y Problemas asociado con este manual.

Hasta aquí el análisis de la normalidad de una variable cuantitativa. ¿Cuál sería el caso
de una variable cualitativa? En realidad no tiene sentido hablar de la normalidad de una
variable cualitativa, aunque en muchas ocasiones se afirma la intencionalidad con que
cierto cambio cualitativo aparece en una población. Las calidades o los calificativos de
los objetos arqueológicos no pueden ordenarse de mayor a menor, por lo que no tienen
puntos centrales ni la forma de la distribución es indicativa de tendencia alguna. En
todo caso, el cálculo de las proporciones y/o de los porcentajes de aparición de
determinados rasgos podría darnos a entender, aunque de manera un tanto subjetiva, la
existencia o no de intencionalidad. Aquí la mayor frecuencia debería ser entonces la
evidencia de intencionalidad; si existe la misma probabilidad de que un objeto tenga
cierta decoración o de que no la tenga, por ejemplo, entonces cabrá afirmar que la
decoración no es un rasgo intencional o normalizado. Por el contrario, si ciertas
decoraciones son más frecuentes que otras, entonces lo más frecuente y habitual
constituirá la evidencia material de la tendencia intencional con que fue fabricado.
Podemos usar una variación de la técnica de χ2 –chi cuadrado- para calcularlo. En lugar
de la prueba para una muestra que usábamos en el caso de las variables cuantitativas,
optaremos por la prueba de dos muestras. PAST dispone de esa función en el Menú
StatisticsÆ chi-square (two samples). Para calcularlo, sin embargo, no nos vale la
matriz original de datos, sino que necesitamos calcular previamente el número de
valores en cada categoría.

Veamos un ejemplo, usando el archivo “ceramicas”. En este archivo se ha descrito


cualitativamente la decoración de unas cerámicas calcolíticas siguiendo la siguiente
terminología: 1) no decorado, 2) inciso, 3) marítimo, 4) cordado, 5) decorado no campaniforme,
6) liso, 7) veraza, 8) epicampaniforme, 9) engrutada.

Ordenemos la columna “Decoración” con el procedimiento que ya hemos visto (Menú


TransformÆ sort ascending).

64
A continuación anotemos el número de filas que tiene cada valor de esta variable
cualitativa. Hacerlo es fácil seleccionando las filas con el mismo valor, y ejecutando la
función Univariate del Menú Statistics. El primer resultado (N) nos proporciona el
número de observaciones para cada valor cualitativo:
1) no decorado, 0 casos
2) inciso, 13 casos
3) marítimo, 12 casos
4) cordado, 4 casos
5) decorado no campaniforme, 8 casos
6) liso, 19 casos
7) veraza, 2 casos
8) epicampaniforme, 0 casos
9) engrutada; 1 caso

Dadas estas frecuencias, la prueba de χ2 –chi cuadrado (dos muestras)- no es efectiva,


ya que hay demasiados grupos con frecuencias inferiores a 5. Por tanto, debiéramos
concluir que la serie es NO uniforme. Sin embargo, tampoco es normal.

Veamos qué sucede si seleccionamos tan sólo los valores más frecuentes: decoración
incisa, estilo campaniforme marítimo, estilo campaniforme cordado, decorado no
campaniforme, y cerámicas lisas. Crearemos un nuevo archivo (FileÆNew) con tres

columnas, una que especifique el tipo de decoración, otra en la que consten las
frecuencias de aparición de cada tipo, y otra con el valor teórico que debiera tener cada

65
categoría si la serie fuese uniforme. Dado que tenemos en total 56 observaciones
(13+12+4+8+19) y 5 grupos o categorías, el valor esperado será de 56/5=11,2.

Calculemos ahora esta variante de la prueba de χ2 –chi cuadrado-. Seleccionaremos dos


columnas, la columna frecuencia y la columna valor esperado, y ejecutaremos la
función chi-squared (two samples) del Menú Statistics.

Los resultados aparecen en una nueva ventana:

Fijémonos ahora que tanto las dos casillas de abajo (Sample vs. Expected y One
constraint) (“muestra frente esperada” y “una condición”) deben estar seleccionadas en
este caso. La primera de ellas sirve para explicar al programa que la segunda columna
contiene los valores de una distribución teórica (en este caso, valores esperados de una
distribución uniforme). One constraint (“una condición”) debe marcarse si los valores
esperados han sido normalizados para ajustarse al número de observaciones, tal y como

66
es nuestro caso. Ya veremos más adelante otras formas de utilizar esta función
estadística. Por ahora nos interesa tan sólo su uso para estudiar la posible
intencionalidad en los cambios cualitativos que experimenta un fenómeno.

El valor de chi-cuadrado es de 11,321, al que para el número de datos en nuestro


archivo le corresponde una probabilidad de 0,023, un valor de probabilidad muy bajo.
Por tanto concluimos, en este caso, que las distintas frecuencias de aparición de los
distintos valores cualitativos NO son uniformes. Los diversos valores aparecen en
cantidades significativamente diferentes, lo que puede ser indicio de su intencionalidad.

Es importante tener en cuenta que la prueba de χ2 –chi cuadrado- sólo permite averiguar
la posible uniformidad en la variación de los datos. Si bien es cierto que una serie
uniforme nunca será normal, la no normalidad no es sinónimo de uniformidad.

A lo largo de este capítulo hemos visto diferentes técnicas para averiguar si nuestras
observaciones arqueológicas tienen la estructura característica de aquello que los
estadísticos llaman normalidad, y que es consecuencia de la intencionalidad de toda
acción social. Pero tan importante como responder afirmativamente a esta pregunta es
dar una respuesta correcta cuando la variabilidad no se ajusta al modelo teórico de la
curva normal. La no normalidad no siempre es un resultado de la no intencionalidad de
la acción, sino de la calidad de los datos analizados. Por consiguiente, junto a las
pruebas de normalidad debemos realizar una serie de comprobaciones, que no
necesariamente son estadísticas, pero sin las cuales ninguna interpretación estadística
será posible15. Entre esas comprobaciones podríamos destacar las siguientes preguntas:

• ¿Cómo han sido recogidos y registrados los datos?

• ¿Están esos datos libres de errores de registro y de medida? ¿Están bien


definidas las acciones sociales o procesos de trabajo que verosímilmente están
asociados a las mediciones de magnitud, forma, textura, composición y
localización? ¿Hay diferencias entre las medidas debidas a las personas que
realizaron las mediciones? ¿Hay diferencias entre los instrumentos y/o medios
de medida (calibre, microscopio óptico, microscopio electrónico, etc.)?

• ¿Son los datos genuinos, es decir, son tan ciertos como parecen, o bien han sido
“fabricados” expresamente para ajustarse a una hipótesis previa? ¿Han sido
descartadas algunas observaciones a discreción del observador o de la
observadora? ¿Hay valores anómalos en los datos que puedan tener influencia
indebida en las conclusiones estadísticas?

• ¿Cuál es la población efectiva para la cual facilitan información los datos


observados? ¿Existen datos faltantes de forma parcial o completa en las
unidades seleccionadas para ser observadas? Los datos obtenidos ¿son de una
población homogénea o de una mezcla?

No se pueden dar fórmulas exactas ni procedimientos universales que nos ayuden a


seleccionar aquellos datos que pueden interpretarse, discriminando aquellos que no
proporcionan información. Se trata de una cuestión arqueológica y no estadística.

15
Adaptado de Rao, 1994, p. 79. Obra citada en nota 4.

67
Estadísticamente podemos saber si los datos presentados son susceptibles de ser
analizados; no podemos saber, sin embargo, si se trata de los mejores datos posibles.
Los únicos consejos generales que se pueden dar hacen referencia a la fiabilidad del
proceso de excavación como manera de seleccionar datos interpretables: si la
localización (tanto espacial como temporal) de los datos es lo suficientemente precisa,
podremos partir del supuesto que las evidencias materiales encontradas en un lugar
concreto y en un momento específico son más homogéneas que aquellas que proceden
de un lugar impreciso del espacio y que han podido producirse en un intervalo de
tiempo muy grande. Las malas excavaciones, aquellas que no definen con precisión
distintos contextos topo-estratigráficos, nunca podrán proporcionar datos interpretables,
de tipo estadístico ni de otro tipo.

Esto quiere decir que nunca empezaremos nuestra investigación calculando el


histograma, ni obteniendo las estadísticas unidimensionales, ni tampoco ajustando las
curvas de normalidad a todos los datos observados y medidos en una excavación
arqueológica. Debemos tener presente que cuantos más datos incluyamos en el análisis,
menos probable será que la distribución de diferencias entre los valores observados de
magnitud, de forma, de textura, de composición o de localización y los valores
intencionalmente esperados sigan una distribución “normal”. ¿Por qué? Pues porque
cuantos más artefactos o materiales incluimos en nuestra base de datos, más tendemos a
descontextualizar el registro, incluyendo en el mismo conjunto consecuencias
materiales de acciones distintas. Cuando una socióloga aumenta el número de
entrevistas a personas con el fin de obtener una información no sesgada de su intención
de voto, el aumento de datos es homogéneo. Realiza más entrevistas a más votantes,
hasta conseguir que la población entrevistada tenga la misma composición que la
población de referencia (votantes posibles). En arqueología, si en un lugar de la
excavación tenemos 30 fragmentos de huesos animales, esa es la población total
disponible para poder analizar la acción o acciones sociales que tuvieron lugar en ese
emplazamiento. Obviamente no disponemos de la totalidad de efectos materiales de la
acción, pero nada de lo que hagamos nos permitirá ampliar la población de las
consecuencias materiales que originalmente existieron. Si a esos 30 fragmentos les
añadimos otros 100 fragmentos procedentes de otros emplazamientos, lo que estaremos
haciendo será complicar las cosas. Dado que proceden de contextos diferentes, las
evidencias arqueológicas de cada contexto habrán tenido un proceso de formación
distinto.

En definitiva, debemos procesar tan sólo datos fiables. Cuanto más información errónea,
poco segura, incierta o mezclada introduzcamos en el análisis, peores resultados, y más
difícil será descubrir cuándo, cómo y dónde nos hemos equivocado en la interpretación.
La investigación sólo tendrá sentido si analizamos, por ejemplo, las tumbas femeninas
de la fase 1 identificadas en el sector noroeste de la necrópolis, y las comparamos a las
tumbas masculinas de la misma fase y sector. No tiene ningún sentido que mezclemos
datos de contextos espaciales, temporales y funcionales distintos. Razón por la cual la
primera parte de toda investigación estadística en arqueología será separar las
consecuencias de una acción realizada en cierto contexto, de las consecuencias de la
misma u otras acciones en contextos diversos. El Libro de Ejemplos y Problemas
ilustra varios casos concretos.

68
Asociación, Relación y Semejanza.
Tres palabras clave para un mismo
problema.

Por asociar se entiende en el habla cotidiana: “juntar una cosa con otra”. De manera
más formal y rigurosa diremos que dos entidades estarán asociadas cuando una
determinada propiedad se cumpla en ambas; por ejemplo, dos objetos estarán asociados
si ambos son blancos, o han sido encontrados en el mismo lugar, o si ambos fueron
producidos por el mismo proceso de trabajo, etc.

Dado que no todas las formas de asociación son iguales, en las páginas siguientes
distinguiremos entre relación y semejanza del siguiente modo:

ASOCIACIÓN: Algo en común

ASOCIACION ENTRE OBJETOS ASOCIACION ENTRE FENÓMENOS

Semejanza Relación

Diremos pues que la semejanza es la asociación que se establece entre objetos o


individuos cuando tienen los mismos valores en algunas de sus propiedades. Por su
parte, una relación es una asociación entre fenómenos o procesos, es decir, entre las
variables o propiedades que describen una población de objetos o individuos asociados.
Recordemos la estructura de las matrices de datos arqueológicos. Las columnas de la
matriz representan las propiedades, en tanto que las filas expresan los individuos.
Analizaremos qué relaciones existen entre las columnas, en tanto que mediremos la
semejanza entre las filas.

Esta definición de los términos asociación, relación y semejanza es una convención


arbitraria. En otros manuales o en diccionarios generales encontraremos definiciones
distintas. La adoptada aquí servirá para distinguir los distintos problemas arqueológicos
y nos ayudará a diferenciar las funciones estadísticas necesarias para resolverlos.

Buena parte de este capítulo y el resto de este libro estará dedicado a explicar las
técnicas y procedimientos estadísticos para estudiar las relaciones, como acabamos de

69
ver, las asociaciones entre procesos o fenómenos, tal y como se expresan en la variación
conjunta de unas variables. El tema de la semejanza no se abordará en este libro, sino
en el volumen 2 de esta serie de publicaciones, dedicado al Análisis Multivariante. He
tomado esta decisión, porque el estudio de la relación puede entenderse en el caso
simplificado de sólo dos variables, y las matemáticas necesarias son muy sencillas.
Pero el estudio estadístico de la semejanza entre artefactos implica tomar en
consideración, simultáneamente, una gran cantidad de variables. Tampoco es tan difícil,
pero me ha parecido mejor presentar detenidamente ese análisis junto con otros
ejemplos de análisis multivariante. Con todo, algunas ideas generales acerca de la
función explicativa de la semejanza en arqueología serán necesarias.

¿Cómo sabremos que una cosa está asociada con otra cosa?¿Que esa cosa sea semejante
a otra cosa, o que esté relacionada con otro fenómeno? La respuesta la obtendremos por
medio de la comparación, es decir, observando en qué se parecen o diferencian los
valores de las propiedades que definen ya sea al objeto o al fenómeno. Así, diremos que
dos objetos son semejantes cuando algunas propiedades son comunes en ellos, aunque
no lo sean todas. Por consiguiente, aunque no sean idénticos (todas las propiedades
iguales) son semejantes porque algunas propiedades son compartidas. Es importante
tener en cuenta que la semejanza no es una característica exclusiva de la forma o del
tamaño de las cosas: dos objetos pueden ser semejantes, aunque su forma sea distinta,
siempre y cuando las restantes propiedades (composición, localización, textura) sean
iguales. Un ejemplo de semejanza es la que estableceremos entre dos vasijas con la
misma forma o dos instrumentos líticos con distinta forma, pero que aparecen en el
mismo lugar. Cuando investigamos si la tumba A y la tumba B tienen algo en común,
estamos ante un problema de semejanza, basado en el supuesto de que tumbas iguales (o
parecidas) son resultado de un mismo tipo de ritual funerario. El estatus social de los
individuos allí enterrados sería el mismo porque las tumbas tienen la misma forma y
características constructivas, el mismo tipo y cantidad de ajuar, el cadáver ha sido
dispuesto de igual manera, aparece la misma deformación craneana. Ese es también el
caso de la semejanza entre casas o entre fases estratigráficas: si tienen, aunque sea
parcialmente, la misma composición (o contenido) serán semejantes, sea cual sea la
forma del contorno de los mismos. En definitiva, dos o más consecuencias materiales de
una misma acción social estarán asociadas (serán semejantes) cuando tengan el mismo
tamaño, la misma forma, la misma textura, la misma composición y/o aparezcan en el
mismo lugar.

Más difícil es observar una relación entre procesos ó fenómenos. Dos o más acciones
sociales estarán asociadas (se relacionarán la una con la otra) cuando concurran a una
misma finalidad. Si dos acciones contribuyen a lo mismo, sus consecuencias materiales
(propiedades cuantitativas) no serán independientes, sino que estarán relacionadas y
dependerán una de la otra. ¿Por qué decimos que la forma de unos artefactos está
relacionada con la localización de los mismos? Esas propiedades estarán relacionadas
cuando la mayoría de los objetos con una misma forma aparezcan en una localización
determinada y los que tienen otra forma aparezcan en otra localización. Composición y
forma estarán relacionadas cuando objetos con la misma forma tengan una composición
distinta a objetos con otra forma. Aquí no estamos comparando por capricho la forma de
un objeto con la composición de otro. Lo que nos interesa averiguar es si el proceso de
trabajo responsable de la composición de unos artefactos es también la acción social
responsable de su forma. Resulta fundamental recordar que dos propiedades de la
materialidad de las evidencias arqueológicas covarían cuando ambas contribuyen a una
misma intención.

70
Diremos entonces que dos fenómenos o procesos están relacionados cuando podemos
comprobar que las propiedades cuantitativas que los definen varían conjuntamente, es
decir, que los objetos que tienen valores muy altos en una variable tienen también
valores muy altos en otra variable, y que los objetos con valores muy bajos en una de
ellas, tienen valores muy bajos en la otra. Este es un ejemplo característico de relación
lineal positiva.

Imaginemos que un equipo interdisciplinario de arqueólogas y arqueólogos observa en


un yacimiento que las cerámicas del tipo A aparecen siempre en el interior de las casas y
junto a molinos de piedra, mientras que en otro yacimiento próximo, datado en el mismo
periodo, esas mismas cerámicas aparecen indistintamente en el interior y exterior de las
casas, pero nunca junto a molinos de piedra. Ahora bien, en este último yacimiento, la
cerámica del tipo A aparece asociada con otro tipo de cerámica, del tipo B, que no ha
aparecido nunca en el primer yacimiento. Por relación se entiende aquí si la forma de un
recipiente (A ó B) permite predecir su contexto de uso (dentro o fuera de la casa, en
presencia o en ausencia de un molino). Si la forma no afecta para nada a la probabilidad
de uso del recipiente en un contexto determinado, entonces, las variables forma y
localización serán independientes. En el caso contrario, diremos que son dependientes,
es decir, que la forma del artefacto predice la localización en la que dicho artefacto fue
depositado. Dos eventos son independientes si la ocurrencia (o no ocurrencia) de uno
no afecta la probabilidad de ocurrencia del otro. Dicho de otro modo, ¿cuál es la
probabilidad de que los valores de esas variables (yacimiento, ubicación interior/exterior,
tipo de cerámica, presencia/ausencia de molinos) aparezcan juntos? Sería útil saber si es
más probable que la cerámica tipo A aparezca en un yacimiento o en otro, si es más
probable que esa misma cerámica aparezca en el interior o exterior de las casas, cerca o
lejos de molinos, etc. En términos matemáticos, lo que se plantea es traducir la
proporción de cerámicas tipo A que ha aparecido en el interior de las casas de un
yacimiento y junto a molinos de piedra, en la probabilidad de que una cerámica de ese
tipo aparezca en esas circunstancias. A continuación deberemos averiguar si esa
proporción o esa probabilidad es distinta de la que se produciría al azar.

Es importante tener en cuenta que para poder entender una asociación debemos tener
información acerca del mecanismo que la causó, y no simplemente la mera observación
de algo en común entre unas entidades. Aquí radica la verdadera naturaleza de la
interpretación en arqueología. Sólo podremos interpretar las evidencias arqueológicas
estudiando cómo una variable provoca que otra varíe conjuntamente. Una de las
variables será la causa y la otra, el efecto. Qué variable es la independiente y qué
variable es la dependiente no resulta ser nunca obvio. La variable independiente es la
que asumimos que provoca o explica los cambios en la dependiente. Pero ¿cuál será la
variable explicativa en cada caso: la longitud o la anchura de unos artefactos, la
superficie o el volumen de unas construcciones, la cantidad o la diversidad de bienes en
el ajuar funerario de unas tumbas, la cantidad de aluminio o la cantidad de hierro en la
composición arqueométrica de unos instrumentos?

Si tenemos presentes todas estas consideraciones, entonces podremos comprender cuál


es el auténtico propósito de todo análisis estadístico en arqueología: estudiar si las
propiedades que caracterizan las evidencias arqueológicas están relacionadas con la
expresión concreta de la acción social o proceso de trabajo que las causó.

Solemos denominar factor a la expresión concreta de esas causas. Los factores son en
realidad variables, cuyos distintos valores reciben el nombre de niveles. Esos niveles

71
son criterios que contribuyen a definir subpoblaciones entre las cuales las propiedades
cuantitativas varían. Sólo a partir del estudio de los niveles de uno o varios factores
podremos llegar a interpretar por qué varían las propiedades cuantitativas que definen el
tamaño, la forma, la textura, la composición y la localización de las consecuencias
materiales de la acción social. Así, por ejemplo, el sexo de la persona enterrada (factor
causal) en la tumba nos ayudará a determinar dos subpoblaciones (hombre, mujer), que
a su vez permitirá interpretar las diferencias observadas en la forma y composición de
los ajuares en términos de las diferencias sociales del ritual funerario entre hombres y
mujeres (niveles del factor causal).

Lo más sencillo y a la vez efectivo sería que el factor explicativo se expresara


cualitativamente, en distintas categorías o niveles que representaran cada una de ellas
una causa posible. En principio, podría ser aconsejable trabajar con sólo dos niveles de
un mismo factor explicativo:

• la acción X es la causa de la variabilidad observada,


• la acción X NO es la causa de la variabilidad observada.

En cualquier caso, el factor explicativo tendrá tantos niveles o categorías como


explicaciones alternativas hipoteticemos.

Un factor causal constituye la variable independiente que nos permite averiguar cómo y
por qué varía una propiedad dependiente. El problema es que en arqueología el factor
causal (la variable independiente) es invisible, ya que la acción causal se produjo en el
pasado. ¿Cómo podemos estudiar una relación entre un fenómeno observado en el
presente (el registro arqueológico) y otros (la acción social y/o los procesos post-
depositacionales) que no pueden ser percibidos ni aquí ni ahora?

En una investigación experimental, la solución al problema será sencilla. Imaginemos


que deseamos averiguar por qué la superficie de unos útiles líticos presenta diferencias
observables de textura (por ejemplo, áreas de micropulido observables al microscopio
con una forma más ó menos circular, esto es, que tiende a la circularidad).
Experimentalmente, elaboraremos unos útiles en el laboratorio con el mismo tipo de
materia prima y los dividiremos en dos conjuntos: con un conjunto cortaremos madera
fresca, y con el otro haremos cualquier otra acción. Con este procedimiento estamos
definiendo la variable independiente o factor causal. En este caso en concreto, ese factor
(el trabajo realizado con el instrumento) estará dividido en dos niveles: 1) cortar madera
fresca, 2) no cortar madera fresca.

En una situación experimental como la imaginada al reproducir en el laboratorio el


trabajo de cortar madera con instrumentos de sílex es fácil saber cuál es el factor causal,
ya que somos nosotros los que ejecutamos la tarea experimental y podemos observar la
relación entre causa y efecto. La obvia alternativa a la experimentación suele ser la
analogía etnoarqueológica, que a diferencia de lo que viene siendo habitual, también
debería ser analizada estadísticamente. Aquí, en lugar de experimentar el cortar madera
con unos instrumentos líticos replicados, observamos cómo otros realizan la tarea, y los
efectos materiales de esa acción sobre los instrumentos líticos. Tanto en un caso como
en el otro deberían hacerse cálculos estadísticos con datos no arqueológicos. Es en el
contexto experimental donde planteamos la relación entre factor causal y variable
dependiente (magnitud, forma, textura, composición, localización). Si y sólo si los
resultados del estudio experimental nos permiten afirmar que el factor definido en esas

72
circunstancias precisas explica la variabilidad observada en las mismas circunstancias,
podremos explicar un caso arqueológico comparable: si la variabilidad observada en el
caso arqueológico se estructura de la misma manera que la variabilidad observada en las
circunstancias experimentales y/o etnoarqueológicas, entonces el factor causal que
explicaba la variabilidad experimentalmente o etnoarqueológicamente observada
explicará la variabilidad arqueológicamente determinada.

Si ni siquiera hemos podido observar la acción en un contexto etnoarqueológico, sino


que lo único que tenemos son observaciones arqueológicas, no tendremos posibilidad de
definir factor causal alguno. En ausencia de un método experimental o de una analogía
etnoarqueológica que nos permita asignar cada observación arqueológica a uno de los
posibles niveles del factor causal, éste se podrá expresar deductivamente. Por ejemplo:

a) Si la forma del objeto presupone la función del mismo, una explicación de la


variabilidad observada en tamaño, textura, composición y localización podrá
explicarse por distintos usos (niveles del factor) de distintos objetos. Sin
embargo, aunque muchas veces se ha afirmado que la forma de las cosas está
relacionada universalmente con su función, no siempre esto es así.

b) Si la textura de las superficies visibles del objeto presupone la función del


mismo, una explicación de la variabilidad observada en tamaño, forma,
composición y localización podrá explicarse por distintos usos (niveles del
factor) de distintos objetos. Debemos tener en cuenta que la decoración es una
forma de textura, y que las diferencias decorativas suelen estar relacionadas con
factores ideológicos, culturales o funcionales. El problema es que el factor
causal será meramente descriptivo, ya que muy probablemente no entenderemos
la causa de la variabilidad en el patrón decorativo. Podemos llegar a descubrir
que existe una relación, probablemente causal, entre distintos tipos decorativos y
distintas formas de los artefactos, pero si desconocemos qué causa la variación
de los tipos decorativos, no podremos interpretar la relación descubierta.

c) Si la composición del objeto presupone el procedimiento de trabajo para


obtenerlo, una explicación de la variabilidad observada en forma, tamaño,
textura, y localización podrá explicarse por distintos procedimientos de trabajo
(niveles del factor) para manufacturar distintos objetos.

d) Si la localización del objeto presupone el tipo de acción social realizada en esa


localización, una explicación de la variabilidad observada en la frecuencia de
objetos o materiales con distinta forma, tamaño, textura y composición podrá
explicarse por las distintas actividades que se realizaron en distintos lugares.
Aquí seguimos el supuesto general que hace referencia a la homogeneidad
probable de aquellos elementos materiales que tienen una misma localización:
aquello que ha sido encontrado en el mismo lugar del espacio y procede del
mismo momento del tiempo ha sido formado y/o deformado por los mismos
procesos causales, aunque la consecuencia material no afecte por igual a todos
los materiales. Por consiguiente deberían existir diferencias significativas en las
características materiales (tamaño, forma, textura, composición) de las
evidencias arqueológicas identificadas en distintas localizaciones. Esas
diferencias podrían ayudarnos a explicar qué acciones sociales y actividades de
trabajo tuvieron lugar en esos mismos lugares. La localización aparece como

73
factor causal, simplemente porque aceptamos como axioma que lo que se
encuentra en lugares distintos fue producido de manera distinta si no es similar.

Todo lo dicho hasta aquí nos permite adelantar un principio fundamental. Explicar el
registro arqueológico supone definir y estudiar una relación entre una variable
cualitativa (el factor causal, dividido en tantos niveles como hipótesis alternativas haya)
y una o varias variables cualitativas o cuantitativas que miden las características
materiales de los efectos de la acción social (magnitud, forma, textura, composición y
localización). Esa relación será aleatoria16 cuando podamos demostrar que el factor
contribuye sin ningún tipo de orden ni concierto a la variabilidad de la(s) variable(s)
dependiente(s). Una relación será sistemática cuando la variabilidad de la(s) variable(s)
dependiente(s) pueda describirse en términos de conjuntos bien definidos coincidentes
con cada uno de los niveles del factor. En capítulos anteriores hemos caracterizado la
variabilidad generada por factores aleatorios en términos de una distribución uniforme,
es decir, aquella en la que cualquier valor es igualmente posible. Por su parte, la
variabilidad generada por un factor sistemático será aquella en la que se registre, para
cada uno de los niveles del factor causal, una clara tendencia central y en donde los
valores extremos de cada nivel sean tanto menos probables cuanto más alejados estén
de dicha tendencia central.

Es en este sentido que explicar equivale a estudiar la relación entre factor y variable
dependiente, comparando los niveles de un factor, para observar su sistematicidad o
aleatoriedad. Ese estudio será ligeramente distinto si hemos definido el factor causal
experimentalmente, analógicamente o por mera observación.

Por medio de la experimentación desearemos probar si la variable dependiente nos


permite distinguir nítidamente entre los distintos niveles del factor experimental. Decir
que el factor experimental (cortar madera fresca/no cortar madera fresca) es sistemático
es asumir que esa acción de trabajo reproducida en las condiciones controladas del
laboratorio altera los valores de la variable dependiente en el grupo experimental de
manera distinta a como lo hace en el grupo de datos de control, es decir, aquellos útiles
simulados con los que no se ha realizado actividad alguna y/o se ha realizado algún
trabajo que nada tenga que ver con cortar madera (por ejemplo: raspar hueso, cortar piel,
etc.). La manera más sencilla de comprobarlo es comparando las medidas de tendencia
central entre el conjunto experimental y el conjunto de control.

Hay tres posibles explicaciones para estos datos experimentales:

a) la variabilidad observada en las áreas de micropulido de las huellas de uso puede


quedar plenamente explicada por el factor sistemático (cortar madera/no cortar
madera),

b) la variabilidad observada de las huellas de uso puede quedar plenamente


explicada por factores aleatorios tales como los errores de muestreo y/o de
medida,

c) la variabilidad observada requiere ser explicada mediante ambos factores,


sistemáticos y aleatorios.
16
Y por tanto diremos que el factor causal es aleatorio o estocástico. Modernamente suele utilizarse el
adjetivo “estocástico” para referirse a procesos o mecanismos causales cuyo comportamiento no puede
ser predicho con precisión.

74
Los dos primeros casos son más sencillos, por lo que convendría comprobar primero las
hipótesis más simples antes que la más compleja. La tercera posibilidad podemos
dejarla en suspenso hasta que se demuestre que tanto a) como b) son inadecuadas. La
primera posibilidad consistiría en una relación completamente sistemática entre el
factor causal y la variable dependiente sin variabilidad por azar. Esta situación sería
inmediatamente evidente en el conjunto de los datos: todas las huellas de uso
observadas e identificadas en los instrumentos con los que se experimentó el corte de
maderas tendrían exactamente la misma forma, y además serían totalmente diferentes
de las huellas de uso en aquellos instrumentos del grupo de control, esto es, aquellos
con los que se han experimentado otras actividades. Este resultado puede ser posible en
las ciencias físicas y biológicas, donde la variabilidad por azar suele ser muy pequeña.
Con datos arqueológicos e hipótesis históricas referentes a acciones sociales, este
resultado es bastante infrecuente.

Dejando a un lado estos extraños casos con ausencia de error, estamos ante la elección
entre la explicación “todo es resultado del azar”, y la explicación “todo es resultado de
un factor sistemático más azar”. La vida sería intolerable si los fenómenos ocurrieran al
azar de una forma completamente impredecible. Cada fenómeno es una curiosa mezcla
de determinismo y azar. El azar tal vez sea la antítesis de cualquier principio de
regularidad, pero el camino a seguir para descubrir la regularidad que subyace a todo
proceso o acción intencional es descubrir precisamente las leyes de ese mismo azar.
Buscamos diversas alternativas y convertiremos en probabilidad su ocurrencia como
medida de su incertidumbre. Conociendo las consecuencias de cada resultado y la
probabilidad de que ocurra, la toma de decisiones llevadas a cabo bajo incertidumbre
puede reducirse a un mero ejercicio de lógica deductiva. Ya no será más una cuestión
de acierto o fracaso porque sí.

Ya sea porque el factor causal haya sido definido en un contexto etnoarqueológico o


bien haya sido definido por mera deducción a partir de la semejanza o no semejanza de
artefactos arqueológicos, adoptaremos la misma estrategia. También en estos casos
actuaremos por comparación. La pregunta a resolver sigue siendo la misma “¿por qué
distintos objetos arqueológicos tienen valores distintos de cierta propiedad (cuantitativa
o cualitativa)?” Porque unos de ellos tienen el valor que tienen como resultado de cierta
acción causal (un trabajo intencional), en tanto que otros no fueron sometidos a ese
trabajo particular, por lo que la propiedad cuantitativa tendrá unos valores que no son
aquellos impuestos por la acción causal considerada. El factor causal divide la
población de objetos arqueológicos medidos cuantitativa o cualitativamente en, como
mínimo, dos grupos: aquellos sobre los cuales actuó la causa, y aquellos sobre los que
no actuó. Por ejemplo, imaginemos que cada uno de los niveles de un factor es un
contexto o circunstancia específica en la que se realizó cierto trabajo y que afectó a los
resultados concretos de dicha actividad. Por ejemplo, vasos usados para beber/vasos no
usados para beber; cerámicas de cocción reductora/cerámicas de cocción oxidante,
poblados en llano/poblados que están en cualquier otra localización que no sea en llano;
materiales de la fase 3/materiales de cualquier otra fase que no sea la fase 3, etc. En
algunas sociedades, no es lo mismo el ritual funerario para una mujer o para un hombre,
como también puede ser distinto si se trata de una mujer de clase social dominante o de
una pobre trabajadora socialmente marginada. El factor cualitativo nos servirá para
distinguir las tumbas que contienen un cuerpo femenino de uno masculino, o un
enterramiento “rico” de uno “pobre”.

75
En los casos etnoarqueológicos procederemos del mismo modo que en el caso
experimental, donde habíamos definido dos niveles del factor causal: uno con aquellas
observaciones sobre las cuales había actuado el factor causal (conjunto experimental) y
otro nivel con aquellas observaciones sobre las cuales no había actuado el factor causal
(grupo de control). La observación etnoarqueológica o la documentación histórica
deben permitirnos distinguir entre la causa y la no causa. Por ejemplo, usando textos
históricos podemos distinguir las poblaciones que en época romana o medieval tuvieron
un mercado, de aquéllas que no lo tuvieron. En este caso el factor causal sería la
actividad comercial. Usando documentación etnológica podríamos distinguir la
localización de los procesos de trabajo realizados por mujeres de la localización de
aquéllos realizados por hombres. Aquí el factor causal sería la diferencia de género. Si
el factor causal ha sido definido deductivamente, deberemos buscar las diferencias que
cierta variable dependiente (por ejemplo, el tamaño, o el color, o la decoración, etc.)
experimenta de acuerdo con los niveles en que se haya dividido el factor causal:

• forma circular/forma no circular,

• composición tipo A/cualquier composición que no sea tipo A,

• localización en X/localización en cualquier otro lugar que no sea X.

El problema es que en muchas ocasiones limitamos el factor causal a un solo nivel del
proceso causal, olvidando su alternativa. Es como si tan sólo hubiéramos documentado
los poblados con mercado, o sólo las actividades realizadas por los hombres en una
comunidad, o los objetos con un único tipo de composición, o los encontrados en un
único lugar, dejando de lado los efectos observables de la ausencia de ese factor causal.
La comparación de los efectos de una causa hipotética con un conjunto de control mal
construido serán siempre erróneos. De ahí que para responder cualquier problema
arqueológico siempre necesitaremos de un conjunto de control que deberá ser lo más
exhaustivo posible, de manera que contenga de un modo u otro toda la variabilidad
diferente a la de la causa hipotetizada.

El propósito del análisis será estudiar si ciertas propiedades están relacionadas con un
factor dividido en niveles claramente diferenciados. Obviamente con esto no quiero
decir que toda explicación arqueológica tiene que incluir cualquier alternativa
imaginable. Es imposible definir el factor explicativo “función: contenedor”,
enumerando todas las posibles sustancias contenibles y todos los propósitos con los que
éstas se hayan colocado allí. De lo que se trata es de construir categorías generales que
incluyan las alternativas individuales. Si queremos averiguar por qué varía la forma de
unos contenedores cerámicos, no usaremos como factor sistemático aquel que incluya
alternativas tales como “guardar grano de trigo recién segado durante cinco días en
ambiente fresco y seco”, “guardar grano de cebada recién segada durante cinco días en
ambiente fresco y seco”, “guardar grano de trigo recién segado durante quince días en
ambiente fresco y seco”, etc. El modo correcto de establecer el factor sistemático en
este caso será por medio de alternativas más generales, como “guardar grano durante
intervalos de tiempo cortos”, “guardar grano durante intervalos de tiempo largos”, etc.
Sin embargo, sí es preciso que agrupemos en niveles distintos de un mismo factor tan
sólo aquellos objetos que están asociados (son semejantes en algo, contribuyeron a la
misma finalidad, etc.). Muchos otros ejemplos de este tipo pueden citarse fácilmente, en
donde el factor puede ser el espacio, el tiempo, la función, el proceso de trabajo, la
materia trabajada, etc. Así, si nos interesara averiguar si la fabricación de lanzas que se

76
han depositado como ajuar funerario era distinta a la fabricación de lanzas que se han
utilizado para cazar, o para guerrear, tendríamos que estudiar la variación de la forma y
función de esos instrumentos. Por otro lado, si pretendemos averiguar si la composición
química de la pasta cerámica con la que se fabricaron contenedores de agua es distinta a
la composición química de la pasta cerámica con la que se fabricaron contenedores de
vino, estudiaremos cómo cada uno de los niveles del factor “uso” pudo haber
determinado la variabilidad observada de la propiedad cuantitativa “composición”.

Sea cual sea la manera de definir los niveles del factor causal o variable independiente,
necesitaremos diseñar una prueba de significación. Al igual que veíamos en el caso de
las pruebas de ajuste a la normalidad o intencionalidad de la acción causal, la prueba en
este caso consistirá en demostrar que “no es cierto que no exista una diferencia
sistemática entre las observaciones experimentales y las de control”. Si los datos no son
marcadamente inconsistentes con esa concepción, entonces una explicación de todo-
azar es sostenible, por lo que respecta a ese conjunto de datos. A menudo esto es
descrito como “aceptación de la independencia entre causa hipotética y efecto, o no
relación causal”. Si, por otra parte, los datos son inconsistentes con el modelo de todo-
azar, la hipótesis nula es rechazada, y se concluye que el factor causal influye de
manera sistemática en la variabilidad observada, existiendo, todo lo más, un pequeño
componente aleatorio, que puede ocultar parcialmente la sistematicidad del factor causal,
pero no eliminarlo.

Si esas diferencias superan cierta intensidad, concluiremos que no podrían haberse


producido al azar y que por lo tanto hay suficiente base como para afirmar que el factor
hipotético explica buena parte de la variabilidad observada.

Del mismo modo como hemos hecho para asegurar la normalidad o no normalidad de
una distribución de valores, la evaluación de la capacidad explicativa del factor causal
tiene una lectura probabilística en esa prueba. El nivel concreto (valor p) puede
utilizarse como indicador del grado de aceptación o rechazo de la hipótesis nula. Tan
correcto es aceptar en un caso concreto la hipótesis de que el factor causal es aleatorio si
su probabilidad es de 0,900, como rechazar la posibilidad de una hipótesis semejante si
su probabilidad es inferior a 0,05. Como vimos en el capítulo anterior resulta difícil
mantener que no hay relación entre el factor y la variable dependiente cuando una
variabilidad como la observada sólo tiene cinco oportunidades entre cien de haber
surgido de ese factor causal. Ahora bien, el modo correcto de rechazar la hipótesis sería:
“si fuera cierto que no hay diferencia sistemática entre los valores que la variable
dependiente adopta en cada uno de los niveles del factor, entonces la probabilidad de
que las medias observadas sean tan diferentes como lo son en la población estudiada, o
más diferentes, es menor del 5%. Siendo esto una base sólida para dudar de la viabilidad
de la hipótesis nula, esta es rechazada”.

Hoy en día, la inferencia estadística clásica, es decir, la confianza absoluta en el índice


de significación de un posible factor aleatorio para explicar la ausencia de relación entre
factor y variable dependiente está siendo puesta en duda17. Pruebas de hipótesis como
las que veremos en los próximos capítulos ya no aparecen en la bibliografía
especializada como la solución a todas las inseguridades y la respuesta absoluta a todas
las explicaciones. Y la razón de esta desconfianza estriba en que el grado de

17
Ver Abelson, obra citada; R.B. Kline, 2004, Beyond Significance testing. Reforming data analysis
methods in behavioural research. American psychological Association, Washington, DC.

77
probabilidad de la hipótesis nula no sólo depende de la diferencia entre el valor
observado y el valor esperado en el caso del supuesto, sino también del número de datos
analizado18. Por lo tanto, en casos de muestras grandes, los efectos pequeños parecerán
mucho más significativos de lo que son en realidad.

Por esta razón es aconsejable complementar la interpretación cualitativa del resultado


de la prueba (diferencia significativa o no significativa) con algo más objetivo,
indicativo del grado o intensidad de la diferencia producida por el factor causal cuando
se demuestra que la relación entre éste y la variable dependiente es sistemática. La
hipótesis nula (aquella que propone que el azar es la causa de la variabilidad observada
y que no hay otra explicación posible) está siempre en competencia con hipótesis
alternativas. Si deseamos hacer una afirmación cuantitativa acerca de la probabilidad de
que la hipótesis nula sea la apropiada, deben considerarse las capacidades relativas de
otras hipótesis para explicar los datos observados. No podemos simplemente convertir
el nivel de significación al cual ha sido rechazada la hipótesis nula en un índice
cuantitativo de su valor de verdad.

El candidato más obvio para cuantificar la robustez de una conclusión de una simple
prueba de significación es la magnitud en bruto de la relación. La intensidad de la
diferencia producida por el factor sistemático en cada una de las subpoblaciones
definidas por los distintos niveles de dicho factor estará asociada al tamaño de la
diferencia media observada. Una ventaja de la magnitud en bruto de la relación como
medida es que su valor esperado es independiente del número de datos observados. Por
consiguiente, a la hora de publicar los resultados de un análisis estadístico habremos de
enumerar:

a) el número de datos analizados,

b) el valor bruto de la diferencia entre los niveles del factor (diferencia de


medias, de varianzas, de rangos). Ese valor bruto puede expresarse en valor
numérico o bien gráficamente mediante histogramas para cada nivel del
factor, diagramas de dispersión, diagramas de caja, tablas de contingencia,
análisis de correspondencias, etc. Veremos todos esos procedimientos en los
capítulos siguientes. Otra manera de proporcionar ese resultado sería
dividiendo el resultado de la diferencia de medidas por la desviación típica
de las observaciones. La versión actual de PAST no proporciona este
procedimiento, por lo que debiera realizarse mediante el uso de una
calculadora,

c) el valor resultante de la prueba (t =, F=, U=, r=, χ2 = , etc.) (véase Capítulos


siguientes),

d) la probabilidad asociada a ese valor resultante, si la hipótesis de no


explicación fuese viable en ese caso.

Estos cuatro elementos deberían figurar siempre en nuestros trabajos, ya que sin ellos
nunca podrá saberse si la aceptación o rechazo de la explicación aleatoria ha sido
realizada de manera objetivamente correcta o no.

18
Ese cálculo se hacía tradicionalmente consultando tablas estadísticas; hoy lo realiza el programa
(PAST), sin que el usuario tenga que intervenir.

78
Estudiando Relaciones entre
variables.

Relación entre variables cuantitativas


Relación entre variables cualitativas y cuantitativas
Relación entre variables cualitativas.

El capítulo anterior puede haber parecido a algún lector o lectora demasiado abstracto y
difícil. Llegado a este punto vamos a introducir ciertas consideraciones prácticas para
poder entender mejor los procedimientos tratados hasta ahora. Pero primero debemos
hacer una advertencia. Debido a que las técnicas y funciones estadísticas son distintas,
tendremos que distinguir tres grandes familias de problemas arqueológicos según la
relación existente entre variables de distinto tipo. La forma de describir una relación
será diferente según el tipo de variables o propiedades que intentemos relacionar. Así,
por ejemplo, es muy distinto si intentamos relacionar la extensión de unos
asentamientos y su duración temporal, que si intentamos relacionar el ritual usado en un
funeral con el estatus social de la persona enterrada. Aunque la definición de relación
sigue siendo la misma: aquello que relaciona una propiedad con otra, aquello que varía,
su tratamiento estadístico será distinto, porque en el primer caso tratamos de una
relación entre variables cuantitativas, mientras que en el segundo caso nos encontramos
ante una relación entre variables cualitativas.

Distinguiremos, pues, entre relaciones cuantitativas, relaciones semi-cuantitativas y


relaciones cualitativas.

79
Relación entre variables cuantitativas
Cuando la información arqueológica disponible ha sido el resultado de la medición de
dos variables cuantitativas, los datos numéricos suelen expresarse como pares ordenados
(x, y) donde x es la variable independiente e y es la variable dependiente.

Con el fin de disponer de una impresión intuitiva de la relación entre dos variables
cuantitativas utilizaremos un diagrama de dispersión. Este diagrama representa
gráficamente todos los pares ordenados de dos variables cuantitativas que están en un
sistema de ejes coordenados. La variable que se supone es la independiente se traza en
el eje horizontal y la variable que se supone es la dependiente en el eje vertical.

En PAST seleccionamos dos columnas, aquellas que correspondan a la relación que


queremos investigar, y ejecutaremos la función XY graph (“gráfico XY”) del Menú Plot
(“Gráficos”). PAST sólo permite seleccionar columnas adyacentes, de modo que selec-

cionaremos y arrastraremos las columnas que nos interese, con el fin de que estén una al
lado de la otra. Para ello, es preciso recordar que las casillas Edit Mode y Edit Labels no
deben estar marcadas. Consideremos el siguiente ejemplo, extraído de la base de datos
“lanzas”. Marcando la casilla Labels (“etiquetas”) en el margen derecho de la ventana,

80
tendremos la posibilidad de ver en la pantalla cada punto etiquetado con su nombre
(primera columna de la hoja de cálculo).

Haciendo doble click en el centro del gráfico se abre una ventana que permite modificar
algunos aspectos estéticos como el tipo de letra, el reticulado, y alguna otra posibilidad,
aunque éstas no sean muchas.

En la siguiente figura aparece representada la relación entre las variables LONGITUD (eje
vertical) y PESO (eje horizontal) de un conjunto de puntas de lanza de bronce y hierro.
Cada punto corresponde a un artefacto arqueológico, con un valor de longitud y un valor
de peso. Podemos ver fácilmente que cuanto mayor es el peso, mayor es la longitud.
Esta relación resulta obvia, ya que cuanto mayor sea el tamaño de un artefacto, mayor
cantidad de materia prima será necesaria para su manufactura, y por tanto, más pesado
será el objeto. En la gráfica, esta relación adopta una forma específica: es posible trazar
una línea recta que pase muy cerca de todos los puntos.

En el gráfico constatamos que siempre que aumenta la longitud aumenta paralelamente


el peso. Pero supongamos que la artesana que produce esos artefactos quiere ahorrar
materia prima y recurre a una tecnología distinta: en lugar de grandes objetos macizos
que necesitan demasiada materia prima, cuando se trate de fabricar objetos muy grandes,

81
los hará huecos, mientras que continuará haciendo objetos macizos siempre y cuando
sean lo suficientemente pequeños. La gráfica es ahora distinta19:

Los datos han cambiado y la forma en que los puntos están alineados ha cambiado
también, porque la naturaleza de la relación cuantitativa es diferente. Ya no es cierto que
cuanto mayor sea el peso, mayor será la longitud. Ahora, cuando aumenta el peso de un
objeto, no necesariamente aumenta de forma paralela su longitud. Diremos entonces que
no hay relación lineal.

Así pues, los diagramas de dispersión nos permiten describir relaciones entre pares de
variables. Permiten, igualmente, hacernos una idea de la dirección de la relación, que
suele expresarse en términos de su signo: relación positiva ó relación negativa. Una
relación del primer tipo se registrará cuando a medida que los valores de una de las
variables aumente, la otra variable también aumenta. Por el contrario, cuando los
incrementos en el valor de una variable se vean acompañados por decrecimientos en la
segunda, tendremos una relación negativa.

Relación lineal positiva Relación lineal negativa

19
Lectoras y lectores pueden llevar a cabo este ejercicio por sí mismos, variando los datos originales y
volviendo a calcular el gráfico con ayuda de la función XY Graph (“gráfico XY”) del Menú Plot
(“gráficos”).

82
El diagrama de dispersión nos explica también la forma de la relación. Hemos
mencionado ya la existencia de relaciones lineales, pero no todas las relaciones son de
ese tipo. Las relaciones lineales son monótonas porque a todo lo largo de la relación
(condición matemática de "monotonía") a medida que varía una variable, varía la otra en
proporciones constantes (que es lo que caracteriza a las relaciones lineales). En una
relación no monótona la variación no es constante a todo lo largo de la relación sino
que a medida que varía una variable, varía la otra en proporciones que no son constantes.

Ejemplo de relación no monótona.

Una relación no lineal, por su parte será aquella en la que los aumentos en un sector del
gráfico serían compensados con una disminución en otro sector. Por ejemplo, podemos
considerar que en una necrópolis, a medida que aumenta la riqueza de una tumba
aumenta el volumen de la misma, hasta llegar a determinado nivel de riqueza, en el cual
aunque aumente la riqueza, la tumba tiene el mismo tamaño. Finalmente, las tumbas
más ricas usan un funeral de distinto tipo (cremación), de manera tal que parece como si
el volumen disminuyera a medida que aumenta la cantidad de bienes de ajuar.

Ejemplo de relación no lineal no monótona

83
En el gráfico anterior, la ausencia de relación lineal no implica la aleatoriedad de la
representación geométrica. Podemos distinguir fácilmente unas tumbas pequeñas y
pobres, unas tumbas pequeñas y muy ricas y una mayoría en el medio de tumbas en
donde no existe relación de ningún tipo entre riqueza y volumen de la tumba.

El siguiente diagrama muestra un caso aún más característico de ausencia de relación.


Aquí los distintos puntos se sitúan aleatoriamente. Cualquier valor de la variable x
parece estar relacionado con cualquier valor de la variable y.

50

40

30
y

20

21222324 2526272829 30 313233 3435363738 3940 4142 43


x

Ejemplo de ausencia de relación

PAST dispone de herramientas adicionales para estudiar las características de una


relación entre dos variables cuantitativas. Nos interesa especialmente la posibilidad de
marcar la forma aproximada de la nube de puntos. Consideremos el siguiente ejemplo,
también extraído de la base de datos “lanzas” (relación peso/longitud).

84
Marcando la casilla 95% ellipses (“elipse del 95%”), PAST nos traza el centro
aproximado de la distribución, es decir, la parte del gráfico en la que se sitúan la
mayoría de los datos. Observando la forma y el grado de alargamiento de esta elipse,
podremos adquirir una impresión del mayor o menor grado de alineamiento de los
puntos, y por tanto, de la intensidad de la relación. Si comparamos este gráfico (relación
entre la longitud máxima y el peso) con el que representa la relación entre el peso y la
anchura inferior del talón de la punta de lanza:

2
antalsup

1000 2000 3000


peso

las diferencias saltan a la vista. En el primer caso, la elipse es mucho más alargada que
en este último caso, por lo que la relación es mucho más intensa en el primer caso que
en el segundo.

Una condición necesaria para poder realizar con éxito el análisis de las relaciones entre
variables cuantitativas es que busquemos relaciones entre objetos asociados (es decir,
semejantes). Es obvio que no hay relación de ningún tipo entre la longitud y la anchura
si hemos metido en la misma bolsa huevos y castañas. Si las filas de la matriz contienen
objetos de distinto tipo, la relación dejará de ser bivariante, para convertirse en
multivariante.

Ese es el caso de la base de datos que hemos estado analizando hasta ahora. Las puntas
de lanza son como mínimo resultado de dos procesos de trabajo distintos: los que
permitieron fabricar puntas de lanza de bronce y los que permitieron fabricar puntas de
lanza de hierro. Si además consideramos que hay casi 1000 años de diferencia entre la
lanza más antigua y la más reciente del conjunto analizado, descubriremos que es
evidente que buscábamos una relación entre objetos no asociados. Si existía una cierta
relación entre peso y longitud es que aunque distintos, son objetos pertenecientes a un
mismo tipo funcional: la punta de lanza.

Sería conveniente distinguir las distintas poblaciones y estudiar la forma de la relación


en cada una de ellas. PAST nos permite distinguir en el gráfico ambos tipos de puntas
de lanza. Seleccionaremos la columna MATERIA y ejecutaremos la función Numbers to
colors/symbols (“de números a colores/símbolos”) del Menú Edit. Como resultado, las lanzas de
hierro (MATERIA =2) se señalan en gris oscuro, y las de bronce (MATERIA =1) en gris claro.

85
A continuación volvemos a realizar el gráfico de dispersión de la misma manera que
hemos hecho antes, seleccionando 2 columnas y ejecutando en el Menú Plot el comando
XY graph.

2
antalsup

1000 2000 3000


peso

Los puntos corresponden a las lanzas de bronce y las cruces a las lanzas de hierro. Si
queremos distinguir más completamente ambos conjuntos, marcaremos en el gráfico la
casilla Convex hull (“casco o límite convexo”).

86
De esta manera, PAST calcula el polígono que incluye a todas las observaciones de una
misma categoría.

Una explicación más detallada del ejemplo de las puntas de lanza, así como otros
ejemplos de relaciones entre variables cuantitativas aparece en el Libro de Ejemplos y
Problemas.

Una de las medidas de la intensidad de una relación

Hemos mencionado varias veces la idea de “medir” la intensidad de una relación lineal.
Los diagramas nos han permitido observar cómo cuando cambia un valor de una
variable, puede cambiar el valor de otra variable. Una medida de la intensidad de esa
relación será una medida del grado con que los puntos están dispersos alrededor de la
recta imaginaria que pasa por el centro de la nube de puntos: si están muy próximos a
ella, el grado de relación lineal será intenso; si, por el contrario, los puntos están muy
dispersos alrededor de la recta; el grado de relación lineal será débil.

Una primera aproximación a esa medida nos la proporciona el cálculo de la covariación,


que no es más que la media aritmética de las diferencias de cada valor con respecto a su
propia media. Imaginemos que la longitud media de unos artefactos es de 23,5, y el peso
medio de 1500 gr. A cada artefacto restamos la longitud medida de la longitud media.
Hacemos lo mismo en el caso del peso. A continuación multiplicamos la diferencia de
longitud por la diferencia de peso. La covariación será la división de la suma total de
todas esas multiplicaciones por el número total de observaciones20.

El problema de este coeficiente es que es difícil de interpretar. Cuanto mayor sea, mayor
será la intensidad de relación. Pero es difícil saber cuándo la covariación se refiere a una
relación intensa y cuándo se refiere a una relación débil. Si ponderamos el valor de
covariación teniendo en cuenta las desviaciones típicas de cada variable, entonces
obtendremos el coeficiente de correlación de Pearson, cuyo valor varía de -1 a +1.

50

40

30
y

20

21222324 2526272829 30 313233 3435363738 3940 4142 43


x

Correlación = +1,0 Correlación = -1,0 Correlación = 0,01

Dado que en todos los casos este coeficiente de correlación es mucho más práctico y
claro que el de co-variación, nos basaremos en él siempre que deseemos calcular la

20
En la práctica (como vimos en el caso del cálculo de la varianza) el denominador es n-1 y no n, por
razones que no vienen ahora al caso.

87
intensidad de una relación. Para realizar estos cálculos en PAST sólo es necesario
seleccionar al menos dos columnas y ejecutar la función Correlation (“correlación”) del
Menú Statistics. Los resultados aparecen en forma de matriz.

LONGMAX LONGTALO ANCHOMAX ANTALSUP


LONGMAX 2,56371E-921 0,000345752 0,000299229
LONGTALO 0,781952 0,000448849 0,0708632
ANCHOMAX 0,53773 0,529015 0,0566635
ANTALSUP 0,542456 0,288649 0,303816

En esta matriz de resultados, la diagonal corresponde a la correlación de cada variable


consigo misma. En la ventana de resultados de PAST estas casillas aparecen en blanco,
si bien debiera aparecer el valor 1. La correlación de una variable consigo misma es
siempre igual a 1 (relación lineal máxima). Como el valor siempre es el mismo, no suele
ser tenido en cuenta, y por eso PAST no lo proporciona. La matriz de correlaciones que
muestra el programa no es simétrica, si bien el valor del coeficiente de correlación sí lo
es. Es decir, la correlación de longitud máxima con la longitud del talón es igual a la
correlación de la longitud del talón con la longitud máxima. Si la matriz de resultados
de PAST no es simétrica es porque el programa ahorra espacio y nos proporciona el
máximo de información, obviando la que ya se conoce. Así, en la mitad inferior de la
tabla (en negrita) aparecen los coeficientes de correlación propiamente dichos (que son
simétricos, aunque no aparezca representado su valor simétrico). En la mitad superior de
la matriz (en menor tamaño) aparece la probabilidad de la hipótesis nula (la relación es
aleatoria, esto es, la covariación es debida únicamente al azar). Así, el coeficiente de

21
Se trata de un número en notación exponencial científica. Como el número que sigue al exponencial
(letra E) es negativo, entonces moveremos el decimal a la izquierda nueve posiciones. En el caso de la
cifra 2,56371E-9 tendremos el número decimal 0,00000000256371.

88
menor valor es el que se refiere a la relación entre la anchura superior del talón de las
lanzas con la longitud del talón (correlación= 0,288). A este grado de intensidad de la
relación lineal le corresponde una probabilidad de la hipótesis de no relación sistemática
de 0,070. Lo leeremos como hicimos en el caso de la normalidad de una distribución y
como haremos siempre que queramos contrastar una hipótesis estadística:

Si la significación probabilística de la hipótesis nula nos indica una probabilidad


menor de 0,050 (5%), diremos que las dos variables están relacionadas. Si por el
contrario la probabilidad es un número mayor de 0,050 concluiremos que las
columnas seleccionadas NO están relacionadas linealmente.

El coeficiente de correlación de Pearson sólo mide la intensidad de una relación lineal


entre aquellos fenómenos o procesos representados por las variables seleccionadas. Si
ese coeficiente está próximo a 0 (y la probabilidad de la hipótesis de no relación es lo
suficientemente baja, menor de 0,050), entonces no habrá relación lineal. Esto no quiere
decir que no haya relación, simplemente, que ésta no es lineal. Las relaciones no
monótonas o las relaciones no lineales son formas muy complejas de asociación, muy
difíciles de detectar y aún más de interpretar. Esa es la razón por la que en la mayoría de
estudios estadísticos sólo se busca la existencia o ausencia de relación lineal. El motivo
es muy claro: una relación lineal nos ayuda a explicar una relación causa-efecto de una
manera que cualquier otro tipo de relación no puede. Así por ejemplo, una relación no-
lineal afirma que una causa provoca un efecto unas veces, pero otras no. Esto es
claramente una mala explicación. Imaginemos que el estatus social de una persona a
veces está reflejado en su tumba por la cantidad de ajuar, pero a veces por la presencia
de cierto tipo específico de objeto. En esas circunstancias sería imposible predecir el
estatus social basándose en la observación arqueológica, porque en ocasiones el efecto
es uno y en otras ocasiones es otro. Ciertamente, el mundo real es como es debido a la
presencia de relaciones no-lineales, pero una explicación debe ser siempre lo más
simple posible. De ahí la importancia de la linealidad. Dejaremos para otras
publicaciones (volumen 2: Análisis Multivariante, volumen 5: Seriación y Predicción)
el tema de estas formas complejas de relación.

La importancia explicativa de las relaciones lineales para entender mecanismos causales


viene reforzada por otra medida de la intensidad de una relación lineal, derivada del
coeficiente de Pearson. Se trata del coeficiente de determinación, para cuyo cálculo
nos limitaremos a elevar al cuadrado el coeficiente de Pearson:

coef. de determinación = r 2

En muchos casos su significado es más intuitivo que el del coeficiente de Pearson.


Indica la cantidad de cambios en la variable dependiente que han sido provocados por la
independiente y por nadie más. El valor de este coeficiente de determinación suele
multiplicarse por 100 para situarlo en una escala porcentual, que recibe el nombre de
porcentaje del nivel de explicación.

Por ejemplo, supongamos que la intensidad de la relación entre antigüedad (fecha en


años de calendario) y longitud máxima de un objeto es aparentemente muy intensa, ya
que el coeficiente de correlación de Pearson proporciona un resultado de 0,97. Este
valor nos indica que existe una fuerte relación positiva entre la datación y la longitud de
unos artefactos: cuanto más recientes sean los artefactos, más largos serán. Si elevamos
al cuadrado ese valor para obtener su coeficiente de determinación:

89
r = 0,97; r2 = 0,972 = 0,94

este resultado nos dice que la mayor parte de la variación registrada (el 94%) en la
longitud medida de los artefactos, se debe única y exclusivamente a las variaciones de la
datación de esos artefactos.

Si por el contrario el coeficiente de Pearson entre datación y longitud fuese de 0,4,


habríamos concluido la existencia de una relación poco intensa entre esas dos variables.
Elevando al cuadrado 0,4 obtendremos el coeficiente de determinación, que en este caso
sería igual a 0,16 (0,42=0,16): si bien existe una cierta relación entre ambas variables, la
fecha de manufactura de esos artefactos sólo explica el 16% de la variación en la
longitud de los artefactos fabricados.

Este análisis de la correlación lineal está basado en el supuesto previo que las dos
variables cuya relación lineal se investiga se distribuyan normalmente. En este sentido,
las observaciones deben ordenarse simétricamente alrededor de una medida de
tendencia central, y los valores extremos no deben superar el 5% del total de los datos.
Esto es así porque la técnica utiliza como parámetros fundamentales la media, la
varianza y la desviación típica de cada variable. En realidad lo que hace el coeficiente es
estimar la importancia de las diferencias de las medias, como si esta medida de
tendencia central fuese un resumen adecuado de todas las observaciones en la variable.
Si la variable no está normalizada, entonces el promedio de los valores no puede usarse
como un ejemplo paradigmático del valor típico de esa variable.

En otras palabras, sólo podremos relacionar linealmente fenómenos que hayamos


demostrado previamente son resultado de una intención manifiesta, y que además
expresan convenientemente la relación entre factor causal y expresión material de la
consecuencia intencional de dicho factor causal. De hecho, en la mayoría de los casos,
la ausencia de relación entre dos variables puede ser debida a que una o las dos no son
el resultado de una y sólo una acción. Antes de llevar a cabo el estudio de la correlación,
deberemos analizar por separado cada una de las variables y analizar su grado de ajuste
a la normalidad (cf. capítulo anterior), así como su naturaleza explicativa. Es preciso
tener en cuenta que el estudio de relaciones explicativas sólo puede llevarse a cabo en
una población de datos que sabemos están asociados causalmente. Si estamos
relacionando poblaciones de objetos no asociados (o cuya posible asociación se
desconoce) o si esa asociación es indirecta, no es que “no esté permitido” usar un
coeficiente determinado, sino que el estudio mismo de la relación no proporciona
ninguna información. Debemos tener bien presente que no sería lícito correlacionar la
cantidad de ratones en una ciudad con la cantidad de matrimonios. Es posible que sea
cierto que cuantos más matrimonios, más ratones, pero ¿qué tiene que ver? ¿Por qué
deberíamos estudiar la relación entre el borde del labio de unas vasijas encontradas en
cierto poblado prehistórico y la cantidad de restos óseos animales en el mismo poblado?
Relacionar todo con todo, por la única razón que son medidas disponibles para el
análisis no nos lleva a ningún lado. Tendremos que averiguar si la longitud del borde de
las vasijas está relacionada con la altura total de esas vasijas, porque esa relación
métrica posiblemente defina una forma que es resultado de un proceso de trabajo
intencional dirigido a la fabricación de instrumentos que se usaron de modo concreto.
Del mismo modo, puede ser importante estudiar la relación existente entre la cantidad
de ajuar y la diversidad de objetos en tumbas masculinas contemporáneas de una misma
necrópolis. No tiene sentido estudiar esa relación en todas las tumbas, masculinas y

90
femeninas, ni en todos los períodos, porque las normas sociales constituyen acciones
intencionales que tienen unos condicionantes específicos.

Como veremos a continuación, existen coeficientes alternativos al coeficiente de


Pearson que no están basados en la condición de normalidad. Sin embargo, esto no
quiere decir que si los datos no son normales, debemos cambiar el procedimiento
estadístico y ya está. Los datos pueden no ser simétricos con respecto a una tendencia
central; ello puede obedecer a varias razones que deben ser conocidas antes de aplicar
las nuevas pruebas. Por ejemplo, el proceso de medida puede ser inexacto o poco fiable
dada la naturaleza de los datos estudiados.

Cuando no conocemos ni la media ni la desviación típica de unas medidas podemos


aplicar el coeficiente de correlación de Spearman, que no utiliza las medidas de
tendencia central usuales, sino tan sólo las diferencias de magnitud entre una variable y
otra.

Para calcularlo, se deben sustituir los valores reales medidos por su posición ordinal. Es
decir, en lugar de 1,34 ó 36,13 ó el número que sea, ordenaremos todos los valores
originales del menor al mayor y les asignaremos su rango o número de orden: 1º, 2º, 3º,
4º, 5º, etc. Valores iguales debieran tener el mismo rango, aunque su posición en la
secuencia sea distinta. Si, por ejemplo, encontramos tres valores iguales a 3,5 a partir
del 5º rango, asignaremos los rangos que les correspondan (por ejemplo, 6, 7 y 8),
sumaremos esos tres rangos (6+7+8) y dividiremos entre el número de valores iguales
(3). A cada uno de los tres valores le corresponderá el rango 7. El siguiente valor se
situará a partir del rango 9. La idea es pues ordenar todos los datos de ambas variables
según esos rangos ordinales, calculándose a continuación qué variable tiene rangos más

91
bajos (valores menores) ó más altos (valores mayores). El coeficiente de Spearman no
es más que el coeficiente de correlación de los rangos ordinales. La mayoría de las
propiedades del coeficiente de Pearson siguen cumpliéndose en el caso de esta
correlación ordinal, incluyendo la manera de interpretar el resultado, que oscila entre +1
y -1 con 0 indicando la ausencia de relación lineal.

Alternativamente, el coeficiente de Kendall relaciona todos los pares (x, y) posibles y


los califica como “concordantes” o “discordantes”. Los pares son concordantes si varían
en la misma dirección (los dos aumentan, o los dos disminuyen) y discordantes en el
caso contrario. El coeficiente es igual al número de pares concordantes menos el
número de pares discordantes, ponderado de manera que el resultado se sitúe también en
el intervalo +1 -1, con una lectura idéntica a la de los coeficientes de Pearson y de
Spearman.

A diferencia de lo que sucedía en el caso del cálculo del coeficiente de Pearson, en el


que podíamos seleccionar dos o más columnas y PAST nos proporcionaba una matriz
de coeficientes (la mitad inferior para el coeficiente y la mitad superior para la
probabilidad de la hipótesis de correlación), en el caso de los coeficientes de Spearman
y de Kendall, PAST sólo permite seleccionar dos columnas adyacentes. Los resultados
aparecen en una ventana específica. El coeficiente de correlación de Spearman aparece
mencionado como Spearman’s rs y el de Kendall como Kendall’s Tau. El programa
proporciona el valor del coeficiente (que varía entre +1 y -1) y la probabilidad de la
hipótesis de no relación lineal (p-uncorr).

Veamos un ejemplo muy sencillo. Estudiaremos a continuación la relación entre


distintos componentes químicos de una muestra de vidrios romanos obtenida por
análisis arqueométrico (archivo “vidrio”). Consideremos, por ejemplo, la relación entre
las distintas proporciones de sodio y aluminio que pueden aparecer. Arrastraremos la
columna “sodio” (Na) para ponerla al lado de la columna “aluminio” (Al),
seleccionaremos ambas columnas y ejecutaremos la función del Menú PlotÆ XY graph.

Es fácil de ver que la nube de puntos no es alargada ni se dispone linealmente. Esto


quiere decir que probablemente no hay relación entre ambas composiciones, o que de
existir, su intensidad es muy baja. Dado que sólo una de las variables ha superado
previamente la prueba de Shapiro-Wilk (normalidad) calcularemos el coeficiente de
correlación de Spearman (Menú StatisticsÆ Spearman/Kendall).

92
Los resultados son los de esperar. El valor del coeficiente de Spearman (Spearman’s rs
= 0,18979) está asociado a una probabilidad de la hipótesis de no relación bastante baja
(p-uncorr = 0,0626), pero no lo suficiente como para rechazarla. Tanto en el caso del
coeficiente de Spearman como en el de Kendall, la probabilidad de la hipótesis de no
relación es superior a 0,05. Por lo tanto concluiremos que no hay relación lineal entre
ambas composiciones: la proporción de aluminio no determina ni ayuda a predecir la
cantidad de sodio en la masa de vidrio, ni viceversa.

Consideremos ahora el caso de la variación en la composición de hierro y magnesio. El


diagrama de dispersión correspondiente es:

La nube de puntos y la elipse del 95% son mucho más alargadas. Los coeficientes de
correlación de Spearman y Kendall, por su parte, muestran que la probabilidad de la
hipótesis de no relación es prácticamente nula22, y que el valor de los coeficientes (0,69
el coeficiente rs de Spearman y 0,54 el coeficiente Tau de Kendall) es bastante alto.

22
Una vez más, se trata de números en notación exponencial científica. Como el número que sigue al
exponencial (letra E) es negativo, entonces moveremos el decimal a la izquierda quince posiciones.
7,3828E-15 equivale aquí a 0,0000000000000073828.

93
Por consiguiente, en la mayoría de muestras analizadas, un contenido alto de hierro va
acompañado de un alto contenido de magnesio. Aunque no hayamos podido concluir
que la cantidad de esos componentes está intencionalmente generada durante el proceso
de producción, parece que sí existe una intencionalidad, no en la cantidad absoluta de
los componentes, sino en la cantidad relativa de unos con otros.

En el Libro de Ejemplos y Problemas podrán encontrarse otros casos de aplicación


práctica de estas técnicas y procedimientos.

94
Relación entre variables cualitativas y
cuantitativas

En este punto del libro vamos a tratar las relaciones entre variables cuantitativas y
factores cualitativos. En este caso, la variable numérica representará cierta propiedad
cuantitativa del efecto observado, mientras que el factor causal tendrá tantos niveles
como hipótesis cualitativamente diferentes hayamos podido argumentar.

PAST tiene una manera muy particular de representar los niveles de un factor
cualitativo. Otros programas de cálculos estadísticos, como SPSS, se limitan a
representarlos como una variable adicional, esto es, una columna en la que cada nivel
tiene una etiqueta numérica: 1= hombre; 2= mujer. El programa contiene entonces las
funciones necesarias para dividir los datos en dos poblaciones distintas y comparar sus
valores: la media de las tumbas de los hombres con la media de las tumbas de mujeres,
y así sucesivamente. Eso no es posible en la versión actual de PAST. Al usar este
programa debemos dividir los datos en tantas poblaciones como niveles tenga el factor,
y cada población se tendrá que representar como una columna. Necesitaremos entonces
una columna para las tumbas masculinas, otra columna para las tumbas femeninas, o
bien, una columna para los contenedores de agua, otra columna para los contenedores
de vidrio, etc.

La mejor manera de adaptar los datos originales al formato necesario para comparar
niveles de un factor es usando el programa Microsoft Excel o cualquier otro similar,
seleccionando allí los datos que tengan el mismo valor de la variable cualitativa y
pegándolos como una columna nueva en un nuevo archivo de PAST.

Es lo que hemos hecho con el archivo “lanzas”. Aquí los niveles del Factor “Materia”
son dos: “bronce” y “hierro”. En Excel (Menú “Datos”Æ“Filtra”Æ“Filtro Automático”)
seleccionaremos el valor MATERIA=1 (bronce) y pegaremos todas las observaciones
así seleccionadas en un nuevo archivo de PAST (“lanzas2”). Lo mismo haremos con el
valor MATERIA=2, añadiendo la nueva columna al lado de la anterior. Obviamente,
deberemos distinguir el nombre de la columna indicando que se trata de lanzas de hierro
o de bronce. En este caso nos hemos limitado a añadir un 1 ó un 2 para distinguir si se
trata del conjunto de medidas de las lanzas de bronce o de hierro.

95
La mejor manera de empezar el análisis de la relación entre una variable cualitativa
(factor) y una variable cuantitativa es usando un gráfico. PAST nos permite representar
la variabilidad cuantitativa de cada nivel de un factor mediante un diagrama de caja.

Hemos arrastrado la columna que corresponde al peso de las lanzas de bronce (“peso1”)
junto a la columna que contiene los datos del peso de las lanzas de hierro (“peso2”). A
continuación seleccionamos ambas y ejecutamos la función PlotÆ Box plot (“gráfico de
Caja”). Para entender este gráfico, veamos con más detalle los distintos valores del peso
de las lanzas de bronce (“peso1”):

67,70 204,50 170,30 176,80 543,20 628,20 401,00 302,40 623,50 978,90 607,90
165,60 307,90 192,40 524,70 111,20 178,70 273,40 1304,40 238,80

Si los ordenamos de menor a mayor tenemos:

67,70 111,20 165,60 170,30 176,80 178,70 192,40 204,50 238,80 273,40 302,40 307,90
401,00 524,70 543,20 607,90 623,50 628,20 978,90 1304,40

Hay 20 medidas. Busquemos la punta de lanza cuyo valor es tal que el 25% de todas las
observaciones es menor y el 75% es mayor. Como el 25% de 20 es 5, buscaremos la
quinta punta de lanza con menor peso (176,80). Del mismo modo, buscaremos la punta
de lanza cuyo valor es tal que el 25% de todas las observaciones es mayor y el 75% es
menor. Como el 25% de 20 es 5, buscaremos la quinta punta de lanza con mayor peso
(607,90). El gráfico de caja usa estos dos valores para dibujar la caja central, es decir,
un rectángulo cuyo lado inferior se sitúa en el punto 176,80 del eje vertical y cuyo lado
superior se sitúa en el punto 607,90 del mismo eje. Como es lógico, cuanta mayor
diferencia exista entre estos dos valores, más alargada será la caja, lo que quiere decir
que mayor será la dispersión y la variabilidad de la mayoría de los datos (dentro de la
caja se coloca el 50% de todas las observaciones). En el centro de la caja aparece
marcada la mediana, y en los extremos de cada gráfico la longitud de los segmentos a
lado y lado de la caja representa la diferencia que hay entre los valores que delimitan el

96
intervalo central y los valores extremos de cada serie. Los valores mínimo y máximo se
representan por medio de unas cortas líneas horizontales al final de cada segmento. Si se
marca la casilla Outliers (“valores extremos”), entonces se usa otra convención. Los
segmentos finales del gráfico se trazan desde el extremo de la caja -25% más elevado-
hasta el valor más elevado de los restantes que sea menor de 1,5 veces la longitud de la
caja -distancia intercuartil-. Por encima de ese valor -1,5 veces la distancia intercuartil-,
los valores más extremos se representan por medio de círculos, o de estrellas, si su
diferencia con el extremo superior o inferior de la caja es de más de tres veces la
distancia intercuartil. De este modo, puede visualizarse la representabilidad de los
valores extremos, es decir, cuán diferentes son de la mayoría de los datos –los que se
sitúan dentro de la caja.

Resulta fácil de ver en el gráfico anterior que la variabilidad de peso de las puntas de
lanza es prácticamente idéntica en cada una de las circunstancias señaladas por los
niveles del factor Materia. La longitud de la caja y la ubicación de la mediana es
prácticamente igual, y sólo se diferencia por la aparición de un valor extremo (una lanza
muy pesada) entre las de hierro.

Este tipo de gráfico puede realizarse para todos los niveles de un factor como sea
necesario, aunque el número de observaciones en cada uno no sea igual. Por ejemplo,
en el archivo “helenístico”, el factor “Cronología” tiene 28 niveles que corresponden a
28 períodos sucesivos: 1) 115-50 a.n.e., 2) 115-86 a.n.e., 3) 125-86
a.n.e., 4) 150-110 a.n.e., 5) 150-125 a.n.e., 6) 150-50 a.n.e., 7) 150-
86 a.n.e., 8) 160-130 a.n.e., 9) 175-150 a.n.e., 10) 190-160 a.n.e.,
11) 200-125 a.n.e., 12) 200-150 a.n.e., 13) 225-165 a.n.e., 14) 225-
175 a.n.e., 15) 225-180 a.n.e., 16) 225-190 a.n.e., 17) 250-175 a.n.e.,
18) 250-215 a.n.e., 19) 250-225 a.n.e., 20) 275-175 a.n.e., 21) 280-
250 a.n.e., 22) 300-200 a.n.e., 23) 300-215 a.n.e., 24) 300-250 a.n.e.,
25) 300-265 a.n.e., 26) 325-250 a.n.e. , 27) 325-260 a.n.e., 28) 325-
275 a.n.e. No es relevante aquí si los períodos tienen la misma duración o no.
Simplemente deseamos comparar si la composición de la pasta de unas cerámicas
helenísticas del Ágora de Atenas varía con respecto al factor “Cronología”. Con ayuda
de Excel y usando el procedimiento de selección antes explicado seleccionaremos tres
de esos niveles: uno de los más antiguos (300-265 a.n.e.), el más reciente (115-50 a.n.e.)

97
y uno intermedio (250-215 a.n.e.). Compararemos la presencia de hierro y calcio como
materiales traza en la composición (partes por millón). Los datos organizados en niveles
aparecen en el archivo “helenístico2”.

Arrastraremos las distintas columnas que muestran la variabilidad de la composición de


hierro (FE) de manera que sean contiguos los tres niveles cronológicos a analizar. La
función PlotÆ Box Plot nos proporcionará los gráficos que necesitamos.

7E4
2E5

6E4

5E4
Y

1E5
Y

4E4

1 2 3 4 1 2 3 4

Sample Sample

Relación cronología /hierro Relación cronología /calcio

Las tres columnas se ordenan de la más reciente (izquierda) a la más antigua (derecha).
Vemos fácilmente que no parece haber una relación entre la composición y la
cronología, ya que la variabilidad (longitud de la caja) no varía a medida que se pasa de
un período a otro (es decir, varía la cronología). Las medianas de la cantidad de hierro o
de la cantidad de calcio están aproximadamente a la misma altura, lo que significa que
estas propiedades no covarían con la variable cronología.

Como ya hemos visto en capítulos anteriores, los diagramas sólo nos dan una primera
impresión de la variabilidad y, en este caso, de la relación entre factor y propiedad
cuantitativa. Necesitamos contrastar de manera rigurosa la hipótesis que afirme que NO
hay diferencias cuantitativas entre los distintos niveles del factor considerado. Viendo

98
los gráficos creemos que no hay diferencias entre el peso de las lanzas de hierro y las de
bronce, o entre la composición química de las cerámicas helenísticas de tres períodos
cronológicos diferentes. Pero, ¿es cierta esa suposición?

Se dice que existe una relación o dependencia entre una variable cuantitativa y un factor
cualitativo cuando la media m1 de los valores cuantitativos en el nivel n1 del factor es
diferente del valor medio m2 de la misma variable cuantitativa en el nivel n2. Se llega a
esta conclusión cuando la diferencia de las medias observadas m1 y m2 es significativa.
Se dice que no existe relación o que hay independencia entre una variable cuantitativa y
un factor cualitativo cuando la media m1 de los valores cuantitativos en el nivel n1 del
factor es igual al valor medio m2 de la misma variable cuantitativa en el nivel n2. Se
hace esta afirmación cuando la diferencia de las medias observadas m1 y m2 no es
significativa. Aquí no hay posibilidad de caracterizar la naturaleza de la relación ni
medir su intensidad. No podemos decir si ésta es lineal o no lineal, positiva o negativa.
Cuando una de las variables implicadas en la relación es cualitativa, lo único que
podemos decir es si hay o no hay relación.

Cuando estudiemos un factor con tan sólo dos niveles y las observaciones de cada nivel
del factor se distribuyan normalmente23 usaremos una prueba de comparación de medias
denominada prueba t de Student24. Esta prueba es muy sencilla: consiste en calcular el
cociente de la diferencia de las medias y la diferencia de las desviaciones típicas. Es
importante tener en cuenta que la prueba t de Student sólo es aplicable cuando las
varianzas son iguales. Necesitamos, por tanto, comparar primero las varianzas y una vez
que éstas son adecuadamente similares, comparar las medias. La prueba de comparación
de varianzas es la prueba F, que consiste en sacar el cociente de la varianza mayor entre
la menor de las dos poblaciones comparadas. Por lo tanto, si la prueba F es negativa,
entonces deberán usarse con mucha precaución los resultados de la prueba t.

23
La prueba de Shapiro-Wilk para una distribución con respecto a la distribución normal puede
proporcionar una idea acerca de este supuesto. Esa prueba ya ha sido explicada detalladamente en el
capítulo sobre la Ley Normal.
24
No es que esta prueba fuese diseñada por un “estudiante”. Su nombre se debe a que quien la inventó, el
señor Gossett, trabajaba para la marca de cervezas Guinness, y ésta obligaba a sus empleados a publicar
sus investigaciones con un apodo.

99
En PAST moveremos las columnas que representan cada uno de los niveles del factor
de manera que las columnas a relacionar queden una al lado de la otra. Habiendo
seleccionando las dos columnas ejecutaremos la función StatisticsÆ F and t tests (two
samples) (“pruebas F y t (dos muestras)”). El programa nos proporciona en una ventana
de resultados el valor de los estadísticos F y t y la probabilidad de que las varianzas o
las medias de las poblaciones originales sean las mismas. En la ventana de resultados
aparece además un resultado de t basado en el supuesto de no igualdad de varianzas
(Uneq. var. t) (prueba de Welch), que debe usarse en ese caso.

Vamos a interpretar los resultados que aparecen en esa ventana. En general, y como ya
hicimos en el caso de las pruebas de normalidad, no nos interesa tanto el valor de dichas
pruebas, sino la interpretación de dichos resultados en términos de la hipótesis nula que
afirma la ausencia de relación y lo aleatorio de las diferencias observadas en la variable
cuantitativa. Así, usando los datos del archivo “lanzas2”, vemos que las lanzas de
bronce tienen un peso medio (mean –“media”-) de 400,8 gr. frente a un peso medio de
las lanzas de hierro de 484,97. Antes de comparar esas medias, compararemos las
varianzas respectivas. La varianza es mayor en el caso del peso de las lanzas de hierro
que en el caso de las de bronce; ello es indicio de que la variabilidad de estas últimas es
mayor. En este caso la prueba F muestra que la hipótesis de igualdad de varianzas no se
cumple -p(same variance)- puesto que el resultado es de 0,024. Para interpretar el
resultado recurriremos al mismo principio general que hemos mencionado
repetidamente:

Si la significación probabilística de la prueba nos indica una probabilidad menor de


0,050 (5%), diremos que ambas varianzas son distintas. Si por el contrario p(same
variance) es un número mayor de 0,050 concluiremos que los datos observados
constituyen un subconjunto de una población general, cuya varianza es igual.

El valor de la prueba t que proporciona el programa no sería, pues, todo lo fiable que
sería de desear, ya que no se cumple la condición previa de igualdad de varianzas.
PAST nos ofrece la Prueba de Welch para contrastar la significación de t en estos casos.
Nos fijaremos en el resultado Uneq. Var. T (“prueba t en el caso de varianzas distintas”).
En este caso, para un valor t = -0,61081, la probabilidad de la hipótesis de no relación es
de 0,54.

Si la significación probabilística de la prueba nos indica una probabilidad menor de


0,050 (5%), diremos que ambas medias son distintas, y por tanto que hay relación
entre el factor y la variable cuantitativa, pues la propiedad cuantitativa tiene valores
significativamente distintos en los distintos niveles del factor. Si por el contrario
p(same mean) es un número mayor de 0,050, concluiremos que los niveles del factor
no pueden diferenciarse con respecto a la propiedad cuantitativa en cuestión y por
tanto NO podremos afirmar la existencia de una relación entre el factor y la
propiedad cuantitativa.

Concluiremos que en este caso del peso de lanzas de hierro y bronce el valor de p es
muy poco superior a 0,050, por lo que no tiene mucha fuerza la hipótesis que afirma que
existen diferencias entre ambas muestras. Por lo tanto, estamos exactamente en el límite
para poder afirmar si hay relación pues la variable cualitativa (materia) co-varía muy
escasamente con el peso de los artefactos. Las diferencias observadas del factor
cualitativo explican muy poco las diferencias cuantitativas.

100
PAST nos ofrece una función estadística alternativa que ayuda a interpretar los
resultados de la prueba t cuando el número de observaciones es muy pequeño (inferior a
15). La prueba permutation t test (“prueba t de permutación”) que se indica en la última
fila de la ventana de resultados compara el estadístico t observado (diferencia
normalizada entre medias) con el estadístico t calculado en 1000 (u otro valor
seleccionado por el usuario) repeticiones aleatorias de pares. Esta prueba proporciona
resultados más exactos que la prueba t genérica en el caso de distribuciones no normales
o muestras pequeñas. En este caso su resultado es perfectamente coincidente con el
obtenido por la prueba usual. Así, en el ejemplo antes mencionado se demostraría que
no hay relación entre el peso y la materia en la que se fabricaron las lanzas.

Supongamos que no tenemos los datos reales que describen cada nivel del factor
considerado, pero sí alguna información relativa al mismo. Por ejemplo, en determinada
área geográfica una quinta parte de los poblados prehistóricos identificados destacan de
los demás por su gran superficie, mientras que en un área geográfica vecina ninguno
destaca, sino que todos los poblados parecen tener una superficie muy homogénea.
Dado que la información procede de prospecciones, no disponemos de los valores
concretos de superficie construida para cada uno de los poblados de cada una de las
áreas. PAST dispone de un programa específico que nos permite experimentar a gusto
del usuario situaciones como la anterior. Sin necesidad de seleccionar ninguna columna
ejecutaremos la función StatisticsÆ F and t tests from parameters (“Pruebas F y t a
partir de parámetros”).

En nuestro caso, Sample 1 (“muestra 1”) y Sample 2 (“muestra 2”) corresponden a los
dos niveles del factor “Área geográfica”. Hemos visto que en el primer grupo unos
asentamientos se distinguían de la mayoría. Eso significa que su varianza será mayor
que en el segundo nivel, donde todos los poblados tienen una magnitud semejante.

Empecemos a experimentar. En la región donde las diferencias en la superficie de los


poblados no son muy grandes (poblados de 1 hectárea junto a otros de 1,2, 0,8 ó incluso
alguno de 0,4), la media y la varianza serán muy pequeñas (media de 1 ha. y varianza de
tan sólo 0,15). Por el contrario, allí donde las diferencias son muy grandes (poblados de
0,5 hectáreas junto a otros de 5 ha), la media y la varianza serán mucho mayores (media
de 3 ha. y varianza de 2,1). ¿Cuan grande ha de ser la diferencia de medias y varianzas
para que los niveles del factor sean diferentes y podamos distinguir diferencias
significativas entre el tamaño de los poblados en las dos áreas?

Introduzcamos algunos valores en la ventana del programa

101
El primer supuesto es que en una región (“sample 1”) haya 8 poblados bastante distintos
entre sí (la extensión de los poblados tienen una varianza de 2,1) frente a otra región
(“sample 2”) con 6 poblados mucho más semejantes entre sí (la extensión de los
poblados tienen una varianza de 0,15). En estas circunstancias, ¿cuándo las diferencias
serían significativas? Cuando la diferencia en la extensión media de los poblados en
cada región sea superior a 2 kilómetros cuadrados. Fijémonos que la hipótesis de no
relación (probabilidad de medias iguales) es claramente inferior a 0,05, tanto en el caso
de que se asuman varianzas iguales como en el caso de que las varianzas demuestren ser
distintas (como es este supuesto). Es decir, la relación entre la localización geográfica
(factor cualitativo) y la extensión construida (variable cuantitativa) depende de la
variabilidad entre regiones del mismo modo que de la variabilidad existente dentro de
cada región. Lectores y lectoras pueden experimentar libremente, para aprender en qué
condiciones los dos niveles de un factor demuestran estar relacionados con diferencias
significativas en cierta propiedad cuantitativa. Se puede variar la diferencia entre niveles
(diferencia de medias), la diversidad dentro de cada nivel (varianza) y la cantidad de
observaciones. Es fácil de ver que la diferencia de medias es mucho más relevante para
determinar una relación entre factor y propiedad cuantitativa que la diferencia de
varianzas o la distinta cantidad de datos de cada uno de los niveles considerados.

Una última variante de la prueba t de Student, es aquella que se denomina “prueba para
datos apareados”. Supongamos que estamos midiendo la forma y la magnitud de unas
fosas, y disponemos de dos medidas de anchura obtenidas en ambos extremos. O
supongamos que para medir la composición mineralógica de la pasta de ciertas
cerámicas hemos analizado por separado dos muestras de cada recipiente. En estos
casos los datos no son independientes, ya que lo que en el fondo estamos comparando
son dos medidas de la misma entidad, por lo que requieren de una ligera modificación
del cálculo de significación de la t. Siempre que estudiemos diferencias dentro de una
misma entidad (por ejemplo la diferencia entre el lado izquierdo y el derecho, la
diferencia entre los extremos de un objeto, etc.) ejecutaremos la función Statistics Æ
Paired tests (“estadísticas Æ pruebas apareadas”), que se llevan a cabo y se interpretan
exactamente igual que como hemos visto hasta ahora.

Antes de pasar al caso en que el factor cualitativo tenga más de dos niveles,
estudiaremos aquellas circunstancias en las que las observaciones no se distribuyen
normalmente. La condición de aplicación de las pruebas que acabamos de desarrollar es
que la variable cuantitativa que se está relacionando se distribuya normalmente en cada
una de las subpoblaciones definidas por los niveles del factor cualitativo. Es decir, la
extensión de los poblados debe ser una variable normalizada en la región 1 y en la
región 2, el peso debe estar normalizado en las lanzas de bronce y en las lanzas de

102
hierro, la cantidad de ajuar debe estar normalizada en las tumbas masculinas y en las
tumbas femeninas, etc. Evidentemente, si los valores medidos de la propiedad
cuantitativa no son simétricos alrededor de una medida de tendencia central, la
diferencia entre las medidas de tendencia central para cada nivel del factor no tendrá
ningún sentido. No podremos utilizar ni la prueba F ni la prueba t. Tal y como se
argumentó en el caso de las relaciones cuantitativas, es importante que antes de analizar
la relación entre dos poblaciones de datos no normales nos planteemos la causa de dicha
normalidad, o bien su ausencia. Nunca insistiremos lo suficiente en el hecho de que las
pruebas de hipótesis estadísticas no pueden hacerse con cualquier población de datos,
sino con aquellas evidencias arqueológicas que se sepa a ciencia cierta que son la
consecuencia de determinada acción intencional, y que su variabilidad no está afectada
por otros factores.

En ocasiones, sin embargo, el estudio de la normalidad no puede hacerse y no sabemos


si las medidas se distribuyen simétricamente alrededor de una medida de tendencia
central. En esas circunstancias la prueba U de Mann-Whitney puede usarse para
comprobar si las medianas (y no las medias) de dos niveles de un factor son diferentes,
siempre y cuando cada uno de los niveles tenga más de 7 observaciones. Esta prueba es
no paramétrica, lo que significa que las distribuciones pueden tener cualquier tipo de
distribución. Funciona asignándoles un rango ordinal a cada una de las medidas. Es lo
mismo que hicimos en el caso del coeficiente de correlación de Spearman. Es decir, en
lugar de 1,34 ó 36,13 ó el número que sea, ordenaremos todos los valores originales del
menor al mayor y les asignaremos su rango o número de orden: 1º, 2º, 3º, 4º, 5º, etc.
Valores iguales deberían tener el mismo rango, aunque su posición en la secuencia sea
distinta. Si, por ejemplo, encontramos tres valores iguales a 3,5 a partir del 5º rango,
asignaremos los rangos que les correspondan (por ejemplo, 6, 7 y 8), sumaremos esos
tres rangos (6+7+8) y dividiremos entre el número de valores iguales (3). A cada valor
le corresponderá por consiguiente el rango 7. El siguiente valor se situará a partir del
rango 9. La idea es pues ordenar todos los datos de ambas variables según esos rangos
ordinales, calculándose a continuación qué variable tiene rangos más bajos (valores
menores) ó más altos (valores mayores).

La prueba de Mann-Whitney comparará los rangos medios de los valores en cada nivel
del factor. Así, si el rango medio de uno de ellos es mayor que el otro querrá decir que
los valores de la propiedad cuantitativa en ese nivel son mayores que en el otro nivel.

103
Seleccionando dos columnas adyacentes y ejecutando la función StatisticsÆ Mann-
Whitney, PAST nos proporcionará el resultado de la prueba y la probabilidad de la
hipótesis de no relación (diferencias aleatorias entre los rangos medios).

Si la significación probabilística de la prueba nos indica una probabilidad menor de


0,050 (5%), diremos que los rangos promedios son distintos en cada nivel, y por tanto
hay relación entre el factor y la variable cuantitativa, pues la propiedad cuantitativa
tiene valores significativamente distintos en los distintos niveles del factor. Si por el
contrario p(same) es un número mayor de 0,050 concluiremos que los niveles del
factor no pueden diferenciarse con respecto a la propiedad cuantitativa en cuestión y
por tanto NO podremos afirmar la existencia de una relación entre factor y propiedad
cuantitativa.

En el ejemplo que aquí aparece (archivo “lanzas2”), la probabilidad de la hipótesis nula


es bastante alta, por lo que no existe relación entre la materia de la punta de lanza y la
longitud máxima de las puntas, ya que no se registran diferencias apreciables entre los
valores de longitud máxima medidos en uno y otro nivel del factor “materia”.

Mientras que las pruebas F y t comparaban los estadísticos univariantes que


caracterizaban cada uno de los niveles del factor, la prueba de Kolmogorov-Smirnov
(dos muestras) compara la forma global de la distribución de los valores, sin asumir
que alguna de ellas esté normalizada. Esta prueba puede usarse para comprobar si dos
distribuciones independientes de datos numéricos no divididos en intervalos son
distintas. Si lo que se desea es comprobar si los valores de un nivel son mayores o
menores que los de otro nivel habrá de usarse la prueba anteriormente citada de Mann-
Whitney.

El procedimiento para la prueba de Kolmogorov-Smirnov en PAST es semejante al de


las restantes pruebas de hipótesis estadísticas. Arrastrando y moviendo las columnas que
nos interese y seleccionando finalmente dos columnas adyacentes, ejecutaremos la
función StatisticsÆKolmogorov-Smirnov (two samples).

Si la significación probabilística de la prueba nos indica una probabilidad menor de


0,050 (5%), diremos que las distribuciones de valores son globalmente distintas en
cada nivel, y por tanto que hay relación entre el factor y la variable cuantitativa, pues
la propiedad cuantitativa tiene valores significativamente distintos en los distintos

104
niveles del factor. Si por el contrario p(same) es un número mayor de 0,050,
concluiremos que los niveles del factor no pueden diferenciarse con respecto a la
propiedad cuantitativa en cuestión y por tanto NO podremos afirmar la existencia de
una relación entre factor y propiedad cuantitativa.

Tal y como veíamos en el ejemplo de la prueba de Mann-Whitney, en este ejemplo la


probabilidad de la Hipótesis Nula es bastante alta, por lo que no podemos concluir que
exista relación entre la materia de la punta de lanza (factor) y la longitud máxima de las
puntas (propiedad cuantitativa), ya que no se registran diferencias apreciables entre los
valores de longitud máxima medidos en uno y otro nivel del factor “materia”.

Cuando el factor analizado se presenta en más de dos niveles, los cálculos que debemos
hacer para contrastar la hipótesis de no relación son algo distintos. Supongamos que
queremos averiguar las variaciones de textura observadas en la superficie de unos
instrumentos líticos (huellas de uso) que han sido sometidos a varias actividades:
machacar raíces, triturar pigmentos vegetales, cortar juncos, etc. En este caso tenemos
más de dos categorías. Sería también el caso de comparar la composición arqueométrica
de unos artefactos divididos en cuatro o más grupos tipológicos o morfofuncionales, o
bien el caso de comparar las características de unos artefactos procedentes de varios
períodos históricos o fases estratigráficamente delimitadas.

El Análisis se denomina análisis de varianza, puede que para muchos más conocido
por sus siglas en inglés ANOVA (Analysis of Variance).

Analisis de Varianza Univariante

El análisis de varianza es también un método de comparación de medias. Plantea las


dos hipótesis siguientes:

HIPÓTESIS NULA: las medias de cada una de las categorías o niveles del factor
cualitativo son iguales, es decir, no tenemos una población distinta para cada
categoría, sino una sola población resultado de una única acción causal.
(Siempre y cuando la distribución observada sea normal, es decir, intencional).

HIPÓTESIS ALTERNATIVA: la media de la variable cuantitativa en cada uno de los


niveles del factor es distinta, por lo que cada nivel distingue poblaciones
diferenciadas con su propia acción causal. (Siempre y cuando la distribución
observada sea normal, es decir, intencional).

Estas dos hipótesis se comprueban a partir del cálculo de la variabilidad de los valores
medios de la propiedad cuantitativa en los distintos niveles del factor cualitativo.

Si los niveles del factor no separasen poblaciones diferentes sería lógico suponer que la
media de cada uno de los grupos se parecerá a la media de los demás (las variaciones
entre las medias se deberán únicamente a la influencia del azar), siendo por tanto muy
pequeña la varianza de dichas medias. Si por el contrario el factor cualitativo distingue
poblaciones que tienen medias muy diferentes del valor cuantitativo, las diferencias
entre la media de cada uno de los grupos excederá de la influencia atribuida al azar, y la
varianza de todas las medias será mayor que en el caso contrario. Diremos que no existe
relación entre la variable cuantitativa y el factor cualitativo cuando el valor medio

105
cuantitativo sea el mismo en los grupos cualitativamente determinados por el factor.
Esto significa que el valor medio es independiente del nivel del factor. Por el contrario,
existirá relación cuando el valor medio de la variable cuantitativa nos permita distinguir
entre las distintas realizaciones de la acción causal (niveles del factor).

El análisis de varianza, por tanto, compara la varianza observada entre las medias de
una misma variable cuantitativa correspondientes a los distintos niveles de un factor
cualitativo, con la varianza que debería observarse en el caso de que la hipótesis nula
fuese verdadera.

No es preciso que los niveles que hemos de comparar de un factor tengan el mismo
número de datos.

Aunque la descripción que aparece a continuación pueda parecer muy complicada en


una primera lectura, conviene destacar que el análisis de varianza no es más que una
prueba t multiplicada por todos los niveles adicionales. En realidad, si calculásemos un
análisis de varianza de un factor con sólo dos niveles (por ejemplo, tintes
vegetales/tintes minerales, aprovechamiento de cormorán/aprovechamiento de pingüino)
el resultado sería idéntico que el de la prueba t de Student.

Las varianzas se calculan con arreglo al principio general ya estudiado en el capítulo


dedicado a la estadística univariante:
(una varianza) es una medida del grado de dispersión de los datos con respecto
a un punto de referencia (tendencia central). Empezamos definiendo el punto de
referencia: la media. La desviación con respecto a la media no es más que la
diferencia entre cada valor observado y dicho punto de referencia central. Al
elevar al cuadrado cada una de las desviaciones, todas las desviaciones con
respecto a la media serán valores no negativos (positivos o cero). A
continuación sumamos todas las diferencias al cuadrado, y dividimos el
resultado entre el total de observaciones menos 1.

Necesitamos calcular por un lado la varianza entre las medias de los distintos niveles
(períodos cronológicos en este caso), y por el otro la varianza de todas las observaciones,
prescindiendo del hecho de que estén divididas en grupos definidos por los niveles del
factor. La primera varianza la denominamos varianza entre grupos y se calcula como

Suma del cuadrado de las medias de cada categoría – Suma Total / Número total de observaciones
______________________________________________________________________________________________________________________________________

Número de niveles del factor – 1

Su numerador recibe el nombre de suma de cuadrados correspondiente a la varianza


entre-grupos. El denominador indica el número de grados de libertad de dicha varianza.
El valor resultante muestra, por tanto, la varianza de una medida entre tantos niveles de
un factor como hayan sido definidos.

Una vez conocida la varianza de las medias, pasamos a calcular la varianza de las
observaciones en cada uno de los períodos cronológicos usando el procedimiento
general. Si calculamos la media ponderada de las varianzas de cada columna,
obtendremos la varianza intra-grupo o residual. Esta variabilidad es debida a la
variabilidad propia de los individuos, y no tiene nada que ver con la existencia de
grupos o niveles. Por eso en algunas ocasiones se denomina varianza residual o

106
incluso error. Se define como varianza total a la media ponderada de la varianza entre-
grupos y residual. Recibe este nombre porque es la varianza entre todos los datos del
análisis.

Al mencionar más arriba la prueba F de igualdad de varianzas vimos que a diferencia de


las medias, que se comparan estudiando su diferencia, las varianzas se comparan
dividiendo la mayor por la menor. Eso es lo que hace el análisis de varianza: dividir la
varianza entre grupos por la varianza intra-grupos, usando el resultado de ese cociente
para ver si la hipótesis nula se cumple o no.

No es tan complicado como pueda parecer. Para explicarlo, usaremos el ejemplo antes
citado al comentar los diagramas de caja: la variación cronológica de la composición de
la pasta de unas cerámicas helenísticas del Ágora de Atenas. Habíamos seleccionado
tres de esos niveles: uno de los más antiguos (300-265 BC), otro más reciente (115-50
BC) y uno intermedio (250-215 BC), y habíamos estudiado gráficamente la variación de
la presencia de hierro y calcio como materiales traza en la composición (partes por
millón). Los datos organizados en niveles aparecen en el archivo “helenístico2”. En
PAST agruparemos en primer lugar las columnas (una por nivel del factor cualitativo)
que deseemos analizar, seleccionaremos todas ellas y ejecutaremos la función
StatisticsÆ One-way ANOVA (“análisis de varianza de una dirección”).

PAST proporciona dos ventanas de resultados para el análisis de varianza. La primera


ventana contiene los resultados propiamente dichos de la prueba. Divide las distintas
fuentes de variación como ya hemos visto en varianza entre grupos (between groups)
y varianza intra grupo (within group). Sabiendo que la fórmula general de la varianza
es un cociente entre la suma de los cuadrados de las desviaciones con respecto a la
media y el número de desviaciones calculadas (o “grados de libertad”), PAST divide
los resultados en el numerador (Sum of squares o “suma de cuadrados”) y el
denominador (df –degrees of freedom- o “grados de libertad”). Recordemos que en este
caso el factor está dividido en tres niveles (3 períodos), por lo que el denominador de la
varianza entre-grupos (los grados de libertad) será:

107
Número de niveles del factor – 1

Por consiguiente, en el ejemplo que tratamos tenemos 2 grados de libertad. En el caso


de la varianza intra-grupos, como estamos ponderando la varianza media de cada uno de
los niveles del factor, el denominador (los grados de libertad) será:

Número de observaciones-niveles del factor

En el ejemplo al que hacemos referencia, dado que tenemos 20 datos, el denominador de


la varianza intra-grupo será 17.

¿Y cuál es el resultado de todo esto? El valor de cada varianza aparece bajo la columna
Mean square (“cuadrado medio”) 25, y el valor de la prueba bajo la etiqueta F. Pero
como siempre, no nos fijaremos tanto en los valores absolutos de la prueba sino en la
probabilidad de la hipótesis de no relación (p(same)):

Si la significación probabilística de la prueba nos indica una probabilidad menor de


0,050 (5%), diremos que la varianza de cada nivel es distinta, y por tanto que hay
relación entre el factor y la variable cuantitativa, pues la propiedad cuantitativa varía
significativamente en los distintos niveles del factor. Si por el contrario p(same) es un
número mayor de 0,050, concluiremos que los niveles del factor no pueden
diferenciarse con respecto a la propiedad cuantitativa en cuestión y por tanto NO
podremos afirmar la existencia de una relación entre factor y propiedad cuantitativa.

En el caso de la composición arqueométrica de las cerámicas helenísticas del Ágora de


Atenas, la hipótesis de no relación es bastante probable –p(same): 0,6605-, por lo que
concluiremos diciendo que la proporción de hierro en la fabricación de esas cerámicas
NO varía con el paso del tiempo.

PAST proporciona además una prueba de igualdad de varianzas entre los niveles del
factor, lo cual, como vimos anteriormente en el caso de la comparación de medias es un
requisito antes de evaluar el resultado del análisis de varianza propiamente dicho: los
valores en cada nivel deben estar, por un lado normalmente distribuidos (ser simétricos
y regulares alrededor de la tendencia central), y por el otro ser comparables. Si estas
condiciones no se cumplen, habría que elegir otra prueba (el test de Welch, que corrige
la probabilidad de la hipótesis de no relación cuando las varianzas de los diferentes
niveles son iguales, o incluso, como veremos más adelante, la prueba de Kruskal-
Wallis).

Finalmente, PAST proporciona una segunda ventana de resultados que contiene una
matriz de las comparaciones por pares de los distintos niveles del factor. No sólo
debemos averiguar si hay o no hay diferencias entre todos los niveles, sino determinar
entre qué niveles en concreto hay diferencias. Una vez que sabemos que hay diferencias
en las varianzas en general, tendríamos que ver si la media de cada nivel es diferente a
la media de los otros niveles. Este procedimiento se lleva a cabo mediante la prueba
HSD 26 de Tukey. Esta prueba se basa en el estadístico Q, que es una prueba de

25
Recordemos que PAST tiene tendencia a proporcionar los resultados en notación exponencial científica.
E8 significa que el decimal debe moverse a la derecha ocho posiciones; E7 significa que el decimal debe
moverse a la derecha siete posiciones. 1,28234E8 es en realidad 128234000; 6,41172E7 se convierte en
64117200, y así sucesivamente.
26
Acrónimo en inglés de Honestly Significant Difference o “diferencias honestamente significativas”.

108
comparación de medias semejante a la t de Student y que usa para evaluar la
significabilidad estadística de las diferencias entre los distintos niveles. Esta prueba
tiende a producir unos valores de probabilidad de la hipótesis de no relación un tanto
elevados, por lo que sería de interés elevar un poco el umbral de significación, con lo
que la regla para interpretar el resultado queda del modo siguiente:

Si la significación probabilística de la prueba nos indica una probabilidad menor de


0,080 (8%), diremos que ambas medias son distintas, y por tanto la propiedad
cuantitativa tiene valores significativamente distintos en estos niveles del factor (pero
no necesariamente entre otros niveles). Si por el contrario la probabilidad es un
número mayor de 0,080 concluiremos que estos niveles en concreto del factor no
pueden diferenciarse con respecto a la propiedad cuantitativa en cuestión27.

PAST proporciona los resultados de la prueba de Tukey en forma de una matriz:


FEperiodo1 FEperiodo18 FEperiodo25
FEperiodo1 0 0,6137 0,7892
FEperiodo18 1,352 0 0,9532
FEperiodo25 0,934 0,4178 0

Aprendimos a leer esta matriz en el caso de las correlaciones. Recordemos que la


diagonal es la comparación de cada nivel consigo mismo, y por tanto no nos interesa.
Más que el valor de la prueba (comparación de medias) que aparece en la mitad inferior
(en negrita), nos interesa la probabilidad de la hipótesis de no relación, que aparece en la
mitad superior derecha de la matriz. En este ejemplo, la hipótesis de no relación es muy
probable en todas las comparaciones de niveles entre sí. Este resultado era de esperar, ya
que la primera parte del análisis de varianza había determinado la independencia de la
proporción de hierro con respecto al paso del tiempo. Si el resultado del análisis de
varianza afirma la inexistencia de relación y de diferencias entre los niveles, entonces
los resultados de la prueba HSD de Tukey serán equivalentes. El interés de la prueba
radica precisamente en localizar dónde están las diferencias, en el caso en que el análisis
de varianza haya eliminado la probabilidad de la hipótesis de no relación.

En el ejemplo que acabamos de utilizar, el análisis de varianza nos permite concluir que
el paso del tiempo no explica las diferencias observadas en la cantidad de hierro usada
para la fabricación de estas cerámicas helenísticas. Si la explicación de la variabilidad
compositiva no está en el período cronológico, quizás la variación morfofuncional
(tipológica) sí la explique. Usaremos Excel de la forma explicada al inicio de este
capítulo para preparar un nuevo archivo en el que cada columna registrará las
mediciones arqueométricas de la proporción de hierro para distintos tipos cerámicos
(archivo “helenístico 3”).

27
El valor de significación en esta prueba es distinto al que veníamos considerando: 0,08 y no 0,05 como
en las otras pruebas. Este hecho suele ser olvidado en muchos manuales y a veces es motivo de ciertos
reparos a la hora de elegir esta prueba. Pruebas más complejas como la de Scheffé pueden parecer más
ortodoxas, pero la prueba HSD de Tuckey es mucho más sencilla e intuitiva.

109
Hemos seleccionado dos formas distintas de jarras para agua (tipos 19 y 21), un
kantharos (tipo 24), y dos formas distintas de cacerola (en griego clásico: lopas) (tipos
11 y 13). Seleccionando las cinco columnas y ejecutando StatisticsÆ One-way ANOVA,
obtenemos los siguientes resultados:

La probabilidad de la hipótesis de no relación es muy baja (5,175E-9 equivale a


0,00000005175), por lo que concluiremos que existe relación entre la cantidad de hierro
usada en la fabricación de las cerámicas y el tipo morfofuncional del recipiente. La
prueba HSD de Tukey nos permite demostrar que el tipo 21 tiene la misma cantidad
proporcional de hierro que el tipo 13, y distinta cantidad a la de los tipos 24, 19 y 11. El
tipo 24 tiene la misma composición que el tipo 19 y el tipo 11, y distinta a la de los tipos
21 y 13. El tipo 19 tiene la misma composición que los tipos 24 y 11, pero distinta a la
de los tipos 21 y 13. El tipo 11 tiene la misma composición que los tipos 24 y 19, pero
distinta a la de los tipos 21 y 13. Y finalmente, el tipo 13 tiene la misma composición de
hierro que el tipo 21, y distinta composición que los tipos 24, 19 y 11. En definitiva: el
análisis pone de manifiesto dos grandes conjuntos: uno conformado por los tipos 21 y
13 y otro por los tipos 24, 19 y 11. Tenemos un primer conjunto formado por un tipo de
jarra para agua y un tipo de cacerola frente a otro conjunto formado por otro tipo de
jarra para agua, otro tipo de cacerola y un kantharos. Es decir, estamos en presencia de

110
un caso en que a igualdad de tipo morfofuncional, distinta composición; compartiendo
composición aquellos recipientes que tienen distinta forma y función.

Cuando medias o varianzas son desconocidas o no pueden calcularse por la razón que
sea, podremos aplicar la prueba de Kruskal-Wallis, que es una alternativa no
paramétrica al análisis de varianza, de la misma manera que la prueba de Mann-Whitney
era una alternativa no paramétrica a la prueba t de Student. Estudia la hipótesis de no
relación (si las observaciones en los distintos niveles del factor proceden de una misma
población), a partir de los rangos promedio y la suma de rangos en cada uno de los
niveles. Ya utilizamos esta estrategia en ocasiones anteriores. Como vimos en el
coeficiente de correlación de Spearman o en la prueba de Mann-Whitney, se sustituían
los valores observados por su posición ordinal. La idea es ordenar todos los datos de
todos los niveles según esos rangos ordinales, calculándose a continuación qué nivel
concentra rangos más bajos (valores menores) ó más altos (valores mayores).

Tras mover, agrupar y seleccionar las columnas que nos interesan, ejecutaremos la
función StatisticsÆKruskal-Wallis. En el caso anteriormente mencionado de la relación
entre las trazas de hierro en la composición de las cerámicas helenísticas y el factor
cronológico (archivo “helenístico 2”), obtendremos los valores que siguen a
continuación:

Como de costumbre, nos fijaremos en la probabilidad de la hipótesis de no relación


(p(same)).

Si la significación probabilística de la prueba nos indica una probabilidad menor de


0,050 (5%), diremos que la variable cuantitativa se ordena en rangos de manera
distinta en cada nivel, y por tanto que hay relación entre el factor y la variable
cuantitativa, pues la propiedad cuantitativa varía significativamente en los distintos
niveles del factor. Si por el contrario p(same) es un número mayor de 0,050,
concluiremos que los niveles del factor no pueden diferenciarse con respecto a la
propiedad cuantitativa en cuestión y por tanto NO podremos afirmar la existencia de
una relación entre factor y propiedad cuantitativa.

En este caso p(same) tiene un valor muy alto (0,579), por lo que concluiremos que no
habiendo diferencias ordinales apreciables en los distintos niveles cronológicos, no hay
relación entre las trazas de hierro en la composición y el paso del tiempo. Por el
contrario, en el caso de la relación entre las trazas de hierro en la composición y el

111
factor morfofuncional de las cerámicas (archivo “helenístico 3”), la probabilidad de la
hipótesis de no relación está muy por debajo del umbral habitual de 0,050 (el valor en
notación científica 0,5802E-5 equivale a 0,00005802). Por lo que afirmaremos la
existencia de diferencias significativas entre los niveles morfofuncionales y la
proporción de hierro en la composición.

Al igual que en el caso del análisis de varianza, PAST ofrece una matriz posterior que
analiza en detalle la presencia o ausencia de diferencias entre cada uno de los niveles. Si
en el caso del análisis de varianza este análisis post-hoc estaba basado en la prueba t
para todos los pares posibles de niveles del factor, en el caso del análisis no paramétrico
está basado en la prueba de Mann-Whitney antes explicada, para comparar los rangos
medios de cada uno de los niveles del factor cualitativo con los demás. La matriz
resultante, con los valores del estadístico en la mitad inferior izquierda, y la
probabilidad de la hipótesis de no relación en la mitad superior derecha es igual a la que
veíamos anteriormente. En este caso, aunque no se cumpla la condición de normalidad
dentro de cada nivel, los resultados del análisis de varianza métrico (ANOVA+ prueba t)
y del no paramétrico (Kruskal-Wallis+prueba Mann-Whithney) son iguales.

112
Relación entre variables cualitativas

Usaremos PAST para abrir el archivo “Prospección”. ¿Qué tiene de particular esta
matriz de datos?

Pues tiene de particular que NO es una matriz de datos. Aquí cada fila contiene la suma
total de unos artefactos, mientras que cada columna representa a una población concreta.
En este caso un área arqueológica cuyas distintas zonas han sido prospectadas. El
archivo muestra las cantidades totales de distintos tipos de artefactos (hachas, restos de
talla, molinos de piedra de distinto tipo y percutores de características diversas)
identificados en cinco áreas. Es una Tabla de Contingencia.

Las matrices de datos contienen datos individuales ordenados por variables. En las
tablas de contingencia, por el contrario, las filas contienen totales o sumatorias.
Fijémonos en las diferencias existentes entre este archivo y alguno de los archivos
utilizados en el capítulo anterior. El archivo “Helenístico”, por ejemplo, situaba un
artefacto distinto en cada fila, descrito por medio de tantas variables diferentes como
columnas. Por su parte, el archivo “Helenístico3” era una ordenación posterior en el que
un artefacto distinto seguía apareciendo en cada fila, pero ahora las columnas ya no
representaban variables, sino conjuntos. La matriz de datos ya no podía leerse como una
configuración estructurada de filas y columnas, sino como un conjunto de columnas
ordenadas.

113
Nada de eso aparece en el archivo “Prospección”. Es en todo caso, una disposición
ordenada de casillas o celdas, que constituye la expresión visible de una matriz de datos
del siguiente tipo:

¿Y qué podemos decir del archivo que contiene la descripción de una necrópolis? El
archivo “necrópolis”, usado en los Ejemplos de este manual, NO es una Tabla de
Contingencia, si bien es cierto que tampoco es una matriz de datos típica. Cumple, sin

114
embargo, con el requisito fundamental de las matrices de datos: cada fila contiene un
único individuo. En este caso una tumba. Puede decirse que también contiene
sumatorias y totales: la frecuencia de aparición de platos lisos, ánforas, jarros, etc.
Ahora bien, esos totales, más que resúmenes de una variable cualitativa, son una
variable cuantitativa que puede usarse para afirmar la intensidad de la propiedad
presencia de plato liso, presencia de ánfora, presencia de jarro. Cuantos más objetos de
ese tipo en una tumba, mayor es el valor de la variable.

Esta introducción es muy importante para entender la naturaleza de las relaciones


cualitativas. El archivo “prospección” no es más que una manera de disponer los datos
con el fin de analizar la relación entre dos variables cualitativas: el tipo de artefacto y la
localización, en este caso, el lugar o yacimiento arqueológico en el que se ha contado
esa cantidad de artefactos. Como ya vimos en su momento, relación significa en este
caso que hay algo que conecta ambas fuentes cualitativas de variación. No habría
relación si la suma de frecuencias de cada tipo fuese idéntica en cada localización, o si
esas frecuencias variasen al azar.

En el ámbito más concreto de la investigación arqueológica, diremos que dos variables


cualitativas estarán relacionadas cuando contribuyan a definir un factor cualitativo que
explique las diferentes frecuencias con que aparecen esas calidades en cada uno de los
niveles del factor. El esquema básico que debiéramos seguir es el siguiente:

NIVEL A DE FACTOR F NIVEL B DE FACTOR F

atributo x Si No

atributo y No Si

Estamos ante un planteamiento típico de prueba de hipótesis estadística, como hemos


visto en capítulos anteriores:

HIPÓTESIS NULA: las reparticiones observadas (niveles A y B del factor) proceden


de muestras cuyas poblaciones teóricas de partida son idénticas.

HIPÓTESIS ALTERNATIVA: las reparticiones observadas (niveles A y B del factor)


proceden de poblaciones teóricas diferentes.

Lo que nos preguntamos es si es más probable que el atributo x, por ejemplo, aparezca
en el nivel A, o si por el contrario, la probabilidad de que aparezca el atributo x en el
nivel A es la misma de que aparezca en el nivel B. Usando esta terminología tendríamos:

HIPÓTESIS NULA: la probabilidad de que el atributo x aparezca en el nivel A igual


a la probabilidad con que aparece en el nivel B

HIPÓTESIS ALTERNATIVA: la probabilidad de que el atributo x aparezca en el nivel


A es distinta de la probabilidad con que aparece en el nivel B.

Como es lógico, no resulta obvio cuál es el factor y cuál la variable dependiente, cuál es
la causa y cuál el efecto. En este caso podemos suponer que las variaciones
morfofuncionales (tipología) constituyen la expresión visible de las consecuencias
materiales de una acción social (variable dependiente o efecto observado) que no tiene

115
por qué ser la misma en los distintos lugares (factor o causa probable). El problema
arqueológico a responder aquí sería si diversidad de acciones sociales que tienen lugar
en distintos lugares afectan a la variabilidad morfofuncional de los artefactos que
aparecen en esos lugares como consecuencia de las acciones concretas que en ellos
tuvieron lugar.

Ya hemos dicho varias veces a lo largo de este manual que arqueólogos y arqueólogas
deberían elegir, siempre que sea posible, descripciones cuantitativas de los efectos
materiales de la acción social. Pero hay veces en que no tenemos opción. Un concepto
como el de la variabilidad morfofuncional es muy difícil de expresar como una cantidad.
El espacio es más fácil definirlo cuantitativamente en términos de coordenadas
geográficas, pero sucede que en pocas ocasiones disponemos de los útiles necesarios
para realizar ese tipo de medición. Todo ello nos indica que debemos tener en
consideración relaciones entre factores cualitativos y variables cualitativas. El estudio
de esas relaciones exige métodos y procedimientos característicos, distintos de los
usados en el estudio de las relaciones cuantitativas y/o semicuantitativas.

El punto de partida es, como no, construir la tabla de contingencia. Este tipo de
disposiciones de datos relacionan dos variables28. Las columnas contienen los distintos
niveles del factor independiente, y las filas los distintos valores cualitativos de la
variable dependiente, a razón de una fila diferente para cada valor.

A diferencia de otros programas, PAST no contiene ninguna función que pueda contar
el número de veces que aparece determinado valor, o el número de filas con el mismo
valor en una columna. Por consiguiente, no podremos convertir una matriz de datos
cualitativos en una tabla de contingencia de manera simple. Y eso siempre y cuando el
valor cualitativo haya sido representado mediante un código numérico, como por
ejemplo: 1= presencia; 0= ausencia, o bien, uno más complejo como el que aparece en
el archivo “helenístico”: 1) 115-50 a.n.e., 2) 115-86 a.n.e., 3) 125-86
a.n.e., 4) 150-110 a.n.e., 5) 150-125 a.n.e., 6) 150-50 a.n.e., 7) 150-
86 a.n.e., 8) 160-130 a.n.e., 9) 175-150 a.n.e., 10) 190-160 a.n.e.,
11) 200-125 a.n.e., 12) 200-150 a.n.e., 13) 225-165 a.n.e., 14) 225-
175 a.n.e., 15) 225-180 a.n.e., 16) 225-190 a.n.e., 17) 250-175 a.n.e.,
18) 250-215 a.n.e., 19) 250-225 a.n.e., 20) 275-175 a.n.e., 21) 280-
250 a.n.e., 22) 300-200 a.n.e., 23) 300-215 a.n.e., 24) 300-250 a.n.e.,
25) 300-265 a.n.e., 26) 325-250 a.n.e. , 27) 325-260 a.n.e., 28) 325-
275 a.n.e.

Abramos el archivo “Campaniforme”. Se trata de una característica matriz de datos de


presencia/ausencia, codificados mediante 1 y 0. Vamos a estudiar la relación entre dos
variables cualitativas: la presencia/ausencia de cerámica campaniforme de estilo
internacional y la naturaleza del yacimiento (en cueva o a cielo abierto). El
procedimiento es bastante tedioso y consiste en: 1) ordenar la columna que contiene el
factor por medio del comando TransformÆSort Ascending (“ordena en sentido
ascendente”), 2) contar el número de filas de la columna que contiene la variable
dependiente con el mismo valor para cada uno de los niveles que se han identificado en

28
En programas comerciales como SPSS, es posible crear tablas de contingencia de 3 ó más variables.
Pero en estos casos, las pruebas estadísticas pierden mucho de su fiabilidad. El problema de relacionar
más de dos variables ya sean éstas cualitativas o cuantitativas lo veremos en el segundo volumen de esta
serie de publicaciones sobre arqueología y estadística.

116
el factor; 3) introducir las frecuencias así contadas en un nuevo archivo. En
“campaniforme” se describen 35 yacimientos arqueológicos. 7 de esos yacimientos son
cuevas, pero en ninguna de ellas se han hallado fragmentos de cerámica campaniforme
de estilo marítimo. Por el contrario, hay cuatro presencias de ese tipo de decoración
cerámica, pero ninguna de ellas se encontró en una cueva. La tabla de contingencia
correspondiente es:

EN CUEVA NO EN CUEVA
DECO. CAMPANIF. INT 0 4
SIN DECO.CAMPANIF. INT 7 24

El caso del archivo “aves” es mucho más complicado, ya que se han analizado más de
5000 fragmentos de huesos de aves de un yacimiento arqueológico. Para construir la
Tabla de Contingencia usaremos el programa Excel, y pegaremos los resultados en
PAST. Empezaremos creando la estructura de la tabla de contingencia. Nos interesa
relacionar la categorías taxonómicas (Pingüino, Cormorán, Aves de Mar Grandes, Aves
de Mar Pequeñas, etc,) con el momento de uso del yacimiento (8 fases de ocupación, de
la más antigua “B”, a la más reciente “J”). En realidad esas categorías no son realmente
taxonómicas, sino que pueden parecer arbitrarias; están basadas en las posibilidades de
comparación entre distintos grupos de aves que van más allá de los estrictamente
taxonómico, y que tienen en cuenta las semejanzas etológicas, de estacionalidad, de
biomasa, etc.

En Excel usaremos el asistente para crear tablas dinámicas en el Menú “datos”.


Seguimos los pasos indicados y cruzamos las variables originales “Categoría” y
“Episodio”. De todos los episodios, seleccionaremos tan sólo aquellos restos óseos cuya
ubicación estratigráfica sea clara e indiscutible, prescindiendo de aquellos fragmentos
que no puedan asociarse a una sola fase de ocupación.

Una vez generada la tabla dinámica en Excel, copiamos los datos en PAST:

117
Una vez construida la tabla, usaremos el mismo procedimiento que el que hemos
descrito para otro tipo de relaciones, esto es, la comprobación de la hipótesis de no
relación mediante una prueba estadística. En este caso, necesitaremos la prueba de χ2 ,
también conocida como prueba de chi-cuadrado.

El cálculo de este procedimiento es muy sencillo e intuitivo. Imaginemos que tenemos


la siguiente tabla de contingencia, en la que se relacionan un factor cualitativo de dos
niveles (tumbas masculinas y femeninas) y una variable cualitativa con sólo dos valores
nominales (presencia o ausencia de determinado elemento en el ajuar de la tumba).

PRESENCIA AUSENCIA Total de tumbas


TUMBAS 0 24 24
MASCULINAS
TUMBAS 17 4 21
FEMENINAS
Total de tumbas 17 28 45

Como en los casos anteriores, la prueba compara los datos observados con unos datos
teóricos: aquellos que serían de esperar si no hubiese diferencias significativas. Si se
hubiese detectado el mismo número de presencias de ese elemento del ajuar en tumbas
masculinas y femeninas, no habría relación. Basándonos en esta idea, definiremos las
frecuencias esperadas en el supuesto de no relación multiplicando los totales de fila y
columna y dividiendo por el número total de tumbas, lo que nos permitirá averiguar la
frecuencia que sería de esperar de acuerdo con la hipótesis de no relación:

PRESENCIA AUSENCIA Total de tumbas


TUMBAS 0 (17 x 24)/45= 9,06 24 (28 x 24)/45= 14,9 24
MASCULINAS
TUMBAS 17 (17 x 21)/45= 7,9 4 (28 x 21)/45= 13,01 21
FEMENINAS
Total de tumbas 17 28 45

En este caso en concreto, no habría relación si ese elemento del ajuar apareciese en 9
tumbas masculinas y en 8 tumbas femeninas. La diferencia entre 9 y 8 se debería tan
sólo a que en la necrópolis hay más tumbas masculinas que femeninas. Es fácil de ver
que las frecuencias observadas son distintas a las calculadas de esta manera. La prueba

118
de χ2 compara unas y otras de la siguiente manera: se resta la frecuencia observada de
la frecuencia esperada, el resultado de la diferencia se eleva al cuadrado, y a
continuación se divide por la frecuencia calculada. Sumaremos todas las diferencias así
obtenidas y ya habremos obtenido el valor del estadístico χ2. Sólo faltará estudiar la
probabilidad de la hipótesis de no relación que le corresponde a ese valor, dada una
tabla de contingencia con el número de casillas como la que se ha estudiado. Ese valor
lo proporciona el programa, y lo interpretaremos de la manera habitual:

Si la significación probabilística de la prueba nos indica una probabilidad menor de


0,050 (5%), diremos que la variable cualitativa tiene una frecuencia de valores
distinta en cada nivel, y por tanto que hay relación entre el factor y la variable
cualitativa. Si por el contrario p(same) es un número mayor de 0,050, concluiremos
que los niveles del factor no pueden diferenciarse con respecto a la propiedad
cualitativa en cuestión y por tanto NO podremos afirmar la existencia de una relación
entre factor y propiedad cualitativa.

Para realizar el cálculo en PAST, seleccionaremos las columnas respectivas,


arrastrándolas si fuese preciso para que estuviesen una al lado de la otra y ejecutaremos
la función StatisticsÆ Chi^2 (two samples). Debe tenerse en cuenta que las columnas
que deben seleccionarse son numéricas (en nuestro caso PRESENCIA y AUSENCIA).
La columna que contiene las etiquetas (“tumbas masculinas”, “tumbas femeninas”) es
alfabética y no debe incluirse nunca en el estudio. De otro modo, PAST respondería que
no reconoce el tipo de datos.

PAST nos proporciona la frecuencia de cada uno de los valores nominales de la variable
cualitativa, el valor del estadístico, una medida de la complejidad de la tabla (“grados de
libertad”), y dos maneras distintas de calcular la probabilidad de la hipótesis de no
relación.

119
Dejemos de lado por el momento el valor Monte Carlo p(same) y fijémonos en el
p(same) que aparece inmediatamente debajo del valor chi^2. En este caso es un número
bajísimo (2,2985E-8 en notación exponencial equivale a 0,000000022985 en notación
decimal), muy inferior al valor límite de 0,05. Por ese motivo diremos que cuando varía
el género de la persona enterrada, cambia la proporción de determinado artefacto en la
tumba. Es decir, la presencia de dicho artefacto se relaciona con el género y el estatus
social de quien fue depositado en la tumba. Si ese valor p(same) hubiese sido superior a
0,050 habríamos concluido que no había diferencias entre tumbas masculinas y
femeninas y que por tanto la presencia de ese artefacto no estaba relacionada con el
género de la persona.

De las dos casillas de la parte inferior de la ventana de resultados (Sample vs. Expected
y One constraint) sólo One constraint debe estar seleccionada. En el capítulo dedicado a
la prueba de χ2 para averiguar la normalidad de variables cualitativas ya se presentó el
uso de la primera casilla para explicar al programa que la segunda columna no contiene
los valores de otra muestra, sino el valor de una distribución teórica. Como en este caso
estamos comparando dos subpoblaciones (tumbas masculinas y tumbas femeninas)
dejaremos esta casilla sin marcar. One constraint debe marcarse si los valores esperados
han sido normalizados para ajustarse al número de observaciones, tal y como es nuestro
caso. El hecho de marcar o no esta casilla afecta al cálculo de los grados de libertad
(degrees freedom) y, por tanto, al valor de la probabilidad de la hipótesis nula.

La prueba de χ2 se puede aplicar casi en cualquier ocasión en la que se relacionen


variables cualitativas. Requiere, eso sí, que las frecuencias calculadas sean mayores de 5.
Eso es a veces un problema en arqueología, cuando tenemos pocas tumbas sexadas y
analizamos la presencia de objetos poco frecuentes. El método de Monte Carlo para
calcular la probabilidad de la hipótesis de no relación es útil, precisamente, cuando la
cantidad de datos analizados es muy pequeña. En el caso anterior produce un resultado
muy semejante al método general, ya que el número de tumbas analizadas es bastante
alto.

PAST sólo permite comparar dos columnas o dos poblaciones a la vez. Para estudiar
una relación más compleja, esto es factores cualitativos con más de dos niveles
(columnas), debemos ejecutar otro comando de PAST: StatisticsÆ Contingency Table.
Ese es el caso del ejemplo que usábamos al iniciar este capítulo: la proporción de
distintos artefactos en cinco áreas prospectadas (archivo “Prospección”).

120
La ventana de resultados nos proporciona ahora el tamaño de la tabla de contingencia
(M; N:) en este caso, 12 x 5, ya que tenemos 12 tipos de artefactos y 5 áreas
diferenciadas. Aparece también el valor de la probabilidad de la hipótesis de no relación
–p(no assoc)-, basada en χ2 , y el valor de dos nuevos estadísticos que estudiaremos a
continuación. La hipótesis de no relación no se cumple en este caso, ya que su
probabilidad es extremadamente baja, señal que hay relación entre la localización de la
acción y la variabilidad morfofuncional de los instrumentos usados y/o producidos en
cada localidad.

Veamos para qué sirven los dos nuevos estadísticos. La V de Cramer (Cramer’s V) es
una medida de la intensidad de la relación que se basa en χ2 cuadrado. Tiene un valor
entre 0 y 1 y puede alcanzar el 1 para tablas de cualquier dimensión. En nuestro caso
alcanza un valor de 0,251, que es bastante bajo. En general, para valores inferiores a 0,6
deberíamos concluir que aunque existan indicios de relación entre ambas variables
cualitativas, la cantidad de relación es escasa. Este estadístico complementa el resultado
de la prueba de χ2: el factor causal (la variabilidad espacial) sólo explica alrededor de la
cuarta parte (25%) de la variación en la variable dependiente (la diversidad
morfofuncional). El coeficiente de contingencia (Contingency C) es otra medida de
asociación basada en χ2. Siempre toma un valor comprendido entre 0 y 1 pero, en
general, no puede llegar a valer 1. Su valor máximo posible depende del número de filas
y columnas de la tabla. En general, usaremos la V de Cramer para establecer la
intensidad de relación entre un factor cualitativo y una variable dependiente cualitativa.

En el ejemplo de la prospección hemos descubierto que existe relación entre


variabilidad morfofuncional de los artefactos y la variabilidad de la localización de la
acción social. Sin embargo, aún nos falta bastante para caracterizar esta relación. Para
explicar el hecho de que existe relación, aunque su intensidad sea baja, deberíamos
explorar todos los recovecos de esa relación. Así pues, tendremos que estudiar las
diferencias con que los distintos tipos de artefactos aparecen en todos los pares posibles
de yacimientos. En el caso del AREA 1, nos llevaría a comparar este yacimiento con
todos los demás:

COMPARACIÓN PROBABILIDAD HIPÓTESIS NULA V DE CRAMER


AREA 1/AREA 2 0,25 0,20
AREA 1/AREA 3 1,362E-5 0,36
AREA 1/AREA 4 8,197E-6 0,40
AREA 1/AREA 5 9,0383E-12 0,43

121
En esta tabla vemos cómo la intensidad de la relación aumenta a medida que aumentan
las diferencias. Lectores y lectoras pueden seguir este ejemplo, calculando los
estadísticos respectivos al resto de emparejamientos. Puede ser un tanto tedioso, pero es
fácil. Basta con arrastrar las columnas, de manera que aquellas que comparemos estén
una al lado de la otra, las seleccionamos y ejecutamos StatisticsÆ Contingency table
para cada par de columnas.

Hay otra manera de realizar ese análisis profundo de la relación cualitativa.


Matemáticamente hablando es un tipo de análisis muy complejo, que normalmente no
aparece en los manuales de introducción. Es considerado por muchos autores como una
técnica de análisis multivariante29, aunque en realidad se trata tan sólo de una manera
gráfica e intuitiva de visualizar las diferencias existentes entre las casillas de una tabla
de contingencia. Nos referimos al análisis de correspondencias.

Analisis de Correspondencias

Este análisis puede utilizarse para investigar tanto la magnitud como la naturaleza
sustantiva de la relación entre las filas y las columnas de una tabla de contingencia. El
objetivo primario de esta técnica estadística es transformar una tabla con números
indicando las frecuencias de aparición de distintas cosas o calidades en una
representación gráfica que facilite la interpretación de dicha información. Como tal
debiéramos compararlo con los histogramas o diagramas de dispersión que hemos
utilizado en capítulos anteriores para describir intuitivamente las características de la
variación de los valores de una o varias propiedades cuantitativas.

Vamos a ver cómo es esa representación gráfica. En el archivo “Prospección”


seleccionaremos todas las columnas (en este caso las cinco áreas arqueológicas
prospectadas) y ejecutaremos el comando MultivarÆ Correspondence.

29
Por esa razón el comando para realizar este análisis aparece en PAST en el Menú Multivar. No obstante,
como veremos a continuación, debiera incluirse como una técnica de interpretación de tablas de
contingencia que, por definición, son bivariantes y no multivariantes.

122
En la parte inferior de la ventana de resultados seleccionaremos View scatter
(“visualizar dispersión”).

Haciendo doble click en el centro del gráfico se abre una ventana que permite modificar
algunos aspectos estéticos como el tipo de letra, el reticulado, etc., aunque aquí tampoco
son muchas las posibilidades.

Por otro lado, si previamente se ha creado un código de colores según cierta categoría
(EditÆ Numbers to color/symbols –“de números a colores/símbolos”), en el diagrama
los tipos distintos aparecerán con colores o símbolos diferentes.

El diagrama anterior es el resultado de marcar las casillas Rows (samples) y Rows labels
(“filas (muestras)”; “etiquetas de filas”), lo que nos permite visualizar un gráfico que
convierte las diferencias entre los distintos valores de la variable cualitativa
“variabilidad morfofuncional” (tipología), en distancias en el plano. Cuanto más
alejados estén dos puntos, mayores son las diferencias. Es decir, que en el área en la que
la prospección ha puesto de manifiesto la presencia de gran cantidad de restos de talla

123
aparecen muy pocos molinos de tipo M4. Los puntos que corresponden a esas dos
variables son los más alejados en el sentido horizontal del gráfico. Del mismo modo, allí
donde aparecen molinos de tipo M3 aparecen pocos materiales que no sean molinos,
hachas o percutores (categoría “otros”). Es decir, “molinos-M3” y “otros” son los
puntos más alejados verticalmente en el gráfico. Por otro lado, parece como si en las
áreas prospectadas donde han aparecido percutores no se hayan encontrado tantos
molinos, y viceversa. Se trata de la misma información que veíamos en la tabla de
contingencia, pero traducida aquí en distancias geométricas.

Volvamos a los datos originales, para entender mejor las diferencias que ilustra el
análisis de correspondencias. En la tabla de contingencia se observa que el área 2 es la
que tiene más restos de talla (67), y que tiene relativamente pocos molinos, como no sea

del tipo M4, mientras que en otras áreas las proporciones son muy distintas. El análisis
de correspondencias también nos permite visualizar las diferencias entre las áreas
prospectadas (representadas como columnas distintas de la tabla) como distancias
geométricas en el plano. Simplemente retiraremos las marcas de las casillas referidas a
Rows, y marcaremos en su lugar las casillas Column dots y Column labels (“puntos de
columna”, “etiquetas de columna”).

124
Finalmente, tenemos la opción de representar simultáneamente las diferencias entre las
filas y las columnas marcando a la vez las casillas de Rows (“filas”) y Columns
(“columnas”).

Es fácil de ver que por medio del análisis de correspondencias intentamos relacionar
tipos de artefactos y yacimientos, de manera que los tipos aparecen en el diagrama cerca
de los yacimientos en los que se encuentran en mayor proporción. Por otro lado, los
yacimientos parece que se sitúan cerca de los tipos de artefacto que mejor los
representan: los que son más frecuentes en ellos, e infrecuentes en los demás. Además,
los yacimientos con composiciones arqueológicas semejantes deben situarse próximos
entre sí, mientras que los tipos con una semejante distribución espacial serán vecinos en
el gráfico. Vemos en este caso cómo se distinguen tres conjuntos de áreas arqueológicas:
los emplazamientos 1 y 2, caracterizados por la relevancia de los restos de talla, las
áreas 3 y 4, que se distinguen por la relevancia de los molinos de tipo 2 y 3, y
finalmente el área 5, que se diferencia de todas las demás.

Recordemos que la prueba de χ2 nos permitió afirmar la existencia de relación entre


variabilidad morfofuncional (entre tipos de artefactos) y variabilidad espacial (entre
yacimientos), es decir que las proporciones de los distintos tipos de artefactos
covariaban con las distintas localizaciones. El análisis de correspondencias nos permite
estudiar más a fondo la naturaleza de esa relación. Tal y como lo hemos calculado,
como una sumatoria de diferencias ponderadas entre la frecuencia observada y la
esperada si no hubiese relación, el estadístico χ2 es la suma de las contribuciones de
cada una de las celdas o casillas individuales. En consecuencia, cada casilla de la tabla
contribuye en algo al valor final del estadístico. Si una casilla se diferencia mucho de
una frecuencia esperada, entonces la contribución de esa celda al valor final será grande.
Por el contrario, si una casilla se aproxima al valor de su frecuencia esperada, entonces
su contribución será muy baja. Un valor muy alto del resultado final de la prueba indica
que en algún punto de la tabla de contingencia las frecuencias observadas son muy
distintas de las esperables si NO hubiese relación entre el factor cualitativo y la variable
cualitativa. La prueba no nos dice, sin embargo, qué casilla (o casillas) están
provocando ese valor tan alto, tan sólo que por ahí están. Para eso está el análisis de
correspondencias, que nos dice cómo se diferencian las distintas casillas o celdas de la
tabla.

125
PAST proporciona otro tipo de gráfico, además del que visualiza la relación entre las
filas y las columnas de la tabla de contingencia. Si hacemos memoria, en la ventana
inicial de resultados, al lado del botón View scatter (“visualizar la dispersión”) aparecía
otro botón: Relay plot (“gráfico de relevos”). Este es un diagrama compuesto que
proporciona un gráfico para cada columna analizada (en nuestro caso, niveles del factor
“espacio”: cada uno de los yacimientos o conjuntos contextualizados de materiales
arqueológicos). El eje vertical ordena las filas (en nuestro vaso, la variable dependiente
“variabilidad morfofuncional”: tipo de artefacto) de acuerdo con la coordenada en la
que aparecen en el primero de los ejes que definen el análisis (relay index). En nuestro
caso, la ordenación es: RESTOS DE TALLA, PERCUTORES-OTRO, MOLINOS M3,
MOLINOS M2, PERCUTORES P1, PERCUTORES P2, OTROS OBJETOS,
MOLINOS M1, PERCUTORES P3, PERCUTORES P4, HACHAS, MOLINOS M4.
En el eje horizontal, es decir, la longitud del segmento, se representa la frecuencia o
abundancia observada de ese artefacto (fila) en cada conjunto arqueológico (columna).

El gráfico nos permite ver que los tipos que más contribuyen a definir las diferencias
entre las áreas son RESTOS DE TALLA (el segmento pegado al eje inferior del
diagrama), MOLINOS M1, PERCUTORES P3, P4 y MOLINOS M4 (último segmento).

Ahora que sabemos qué resultados nos proporciona el análisis de correspondencias;


vamos a examinar brevemente cómo lo hace. Las matemáticas son algo complicadas, y
muy parecidas a las de los análisis multivariantes30, porque hacen uso de álgebra de
matrices y no de simple aritmética.

Hay tres conceptos básicos en un análisis de correspondencias: los perfiles, las masas y
las distancias χ2.

Cuando estudiamos una tabla de contingencia no tiene mucho sentido comparar las
frecuencias observadas entre sí. En cada yacimiento se ha encontrado una cantidad
30
Por eso el análisis de correspondencias suele incluirse entre los análisis multivariantes: porque en un
momento de su cálculo utiliza el mismo algoritmo, la denominada “factorización”, aunque en el caso
habitual lo hace tan sólo sobre dos variables. Más detalles sobre esta cuestión se ofrecen en el segundo
volumen de esta serie: Análisis Multivariantes.

126
distinta de artefactos, por lo que decir que en uno hay 35 hachas y en el otro sólo 13
tiene poco sentido. Depende del total de artefactos en cada uno. Para la comparación
necesitamos reducir las filas o las columnas de la tabla a una base común. Esto es muy
fácil usando una base común de 100 y calculando los porcentajes de filas o columnas. El
conjunto de los porcentajes de las frecuencias en una fila o columna se denomina perfil
de dicha fila o columna. Del mismo modo, podemos calcular un perfil promedio,
buscando, por ejemplo, el promedio con que aparecen los distintos artefactos (filas) en
cada yacimiento (columna).

Los perfiles constituyen un ejemplo de vectores matemáticos. Un vector es un segmento


de recta dirigido en el espacio. Es el concepto que usamos para traducir los datos
numéricos en la tabla de contingencia en puntos situados en un plano teórico. Así, se
convierte cada fila y columna de la tabla en un vector cuyas coordenadas vienen
definidas precisamente por su perfil. Dicho vector se refiere a un espacio
multidimensional que sólo existe en la teoría. Se trata de un espacio imaginario que
tiene tantas dimensiones como filas o columnas tiene la tabla. El truco del análisis de
correspondencias es convertir ese espacio imposible en un plano con sólo dos
dimensiones.

El segundo concepto fundamental del análisis de correspondencias es el de la masa


asociada a cada perfil. Cada perfil está compuesto de un cierto número de elementos.
Por ejemplo, se identificaron 107 artefactos en la prospección del área 1, que
constituyen el perfil

(0 42,2 0,93 10,02 4,67 9,34 3,73 17,75 8,41 0 0 1,86)

En este perfil cada número corresponde al porcentaje de cada uno de los tipos de
artefactos. A este perfil debe asignársele un peso proporcional a los 107 artefactos que
tiene. La siguiente columna, área 2, tiene más artefactos (158) y por tanto, su perfil
tendrá un peso algo mayor. La masa de las columnas equivale al total de cada columna
dividido por el total de individuos. Como hay en total 819 artefactos, la masa de la
primera columna (el área 1) será de 0,130. La masa correspondiente al área 5 (aquella
en la que se han identificado más artefactos), será de 219 / 819 = 0,26. El objetivo de
este mecanismo de peso es permitir a cada elemento (artefacto en este caso) contribuir
igualitariamente a su correspondiente perfil.

El perfil promedio (de las columnas, en este caso) es, a su vez, el perfil de los totales de
fila de la tabla de contingencia, y equivale al peso promedio de los perfiles de columna
individuales, en donde los pesos son las masas correspondientes. En otras palabras, el
perfil promedio puede entenderse como aquel punto que está en el centro de la nube de
puntos formada por los distintos perfiles individuales.

Hasta aquí nos hemos referido a los vectores de perfiles en las columnas de la tabla de
contingencia como si fuesen puntos situados en un espacio de 12 dimensiones (una para
cada fila o tipo de artefacto). Por ejemplo, el perfil de la columna que corresponde al
área 1 es un punto con 12 coordenadas, 0 en la primera dimensión, 42,2 en la segunda,
0,93 en la tercera y así sucesivamente. Con un poco de imaginación podremos hacernos
una idea intuitiva de la posición de un perfil en ese espacio y las distancias que existen
entre los puntos. Esa distancia se calcula mediante una fórmula derivada del teorema de

127
Pitágoras31 que estudiamos en la escuela en nuestra infancia (¡sí, hace mucho tiempo!).
La distancia debe calcularse entre todos los pares posibles de yacimientos: entre las
áreas 1 y 2, entre las áreas 1 y 3, y así sucesivamente. Para calcularla, obtendremos la
raíz cuadrada de las diferencias al cuadrado de cada perfil. Esas diferencias se ponderan
usando el elemento correspondiente del perfil promedio. A causa de la analogía con el
concepto del χ2 para calcular diferencias al cuadrado entre proporciones relativas a su
frecuencia esperada, esa distancia se denomina distancia χ2.

Hay muchas maneras de justificar la elección de esta forma de calcular las distancias
entre las casillas o celdas de la tabla de contingencia. En un sentido matemático estricto,
la división de cada diferencia al cuadrado por la frecuencia esperada (el perfil promedio)
estandartiza las observaciones y compensa la mayor varianza de las frecuencias altas y
la menor varianza de las frecuencias bajas. En la práctica significa que si no
compensáramos de esa manera la diferencia entre dos perfiles, las diferencias entre las
proporciones mayores tenderían a dominar cualquier otro aspecto, y el análisis
proporcionaría un resultado trivial y la mayoría de las veces erróneo: las mayores
diferencias en valor absoluto son las más importantes. Al “pesar” de manera diferencial
la contribución de cada perfil, igualamos la contribución de cada casilla al cálculo
global.

Cada perfil de fila y de columna tiene su respectiva masa, la suma de todas ellas es igual
a 1. Esos perfiles corresponden a vectores que tienen un centro de gravedad o centroide,
que equivale al perfil promedio. Calcularemos con todo ello la inercia global del
conjunto de puntos, es decir, de todas las casillas o celdas de la Tabla de Contingencia.
Cada perfil contribuye un poco a esa inercia global, en la medida de su masa por el
cuadrado de la distancia de su propio perfil y el perfil promedio. La suma de la inercia
de cada perfil de fila y de columna nos dará la inercia global. Ese valor debemos
entenderlo como una medida de la dispersión de los perfiles en el espacio
multidimensional, de la misma manera que la varianza es una media de la dispersión de
valores en un espacio unidimensional. Cuanto mayor la inercia global, mayor dispersión
y mayor diferencia entre las distintas celdas de la tabla.

Una vez que se han traducido las diferencias y semejanzas entre las celdas o casillas de
la tabla en términos de vectores en un espacio multidimensional caracterizados por sus
perfiles y sus masas respectivas, debemos hacer algo para poder visualizar las distancias
ponderadas entre ellos. Ello se consigue mediante un truco geométrico: proyectando las
coordenadas del vector multidimensional en un plano bidimensional (o, cuando ello no
es posible, en un espacio con la menor dimensionalidad posible, usualmente menor de 4
dimensiones). Ello equivale a buscar el plano más próximo a todos los puntos
multidimensionales. La manera de hacerlo es un tanto complicada e implica usar el
centroide de la nube de puntos multidimensional, la inercia de cada perfil y el perfil
promedio.

Esto es fácil de entender en el caso de pasar de tres dimensiones (volumen) a sólo dos
(plano).

31
Era aquello de un triángulo rectángulo en donde el cuadrado de la hipotenusa (el lado más largo) era
igual a la suma del cuadrado de los catetos (los lados más cortos). De ahí que para calcular la longitud de
la hipotenusa si se conocía la longitud de los catetos bastaba con obtener la raíz cuadrada de la suma de
cuadrados. La distancia entre los puntos equivale a la hipotenusa. Lo que nosotros conocemos es la
longitud de cada cateto, que no es más que la diferencia entre los respectivos perfiles.

128
Para aquéllos y aquéllas a quienes no les gustan las matemáticas puede ser difícil de
entender que los vectores originales están en un espacio de más de cuatro dimensiones,
pero para el ordenador es francamente fácil:

Si la reducción de la dimensionalidad no puede encontrar un plano bidimensional que


explique, como mínimo, más del 75% de la varianza acumulada, PAST permite
visualizar planos adicionales, basados en una tercera dimensión (botón Axes 2+3 en la
ventana de resultados del gráfico).

En el análisis de correspondencias, la cercanía de los perfiles de un vector al plano se


mide por medio de la suma ponderada de las distancias al cuadrado de los puntos con
respecto al plano. El objetivo del análisis es encontrar el plano que minimice la inercia
residual, ya que:

INERCIA TOTAL= INERCIA EN EL PLANO + INERCIA RESIDUAL

La inercia residual es una medida de la cantidad de inercia o varianza que se ha perdido


al reducir los perfiles multidimensionales a un formato bidimensional o de
dimensionalidad reducida. El análisis encuentra aquel plano en el que esa pérdida sea
mínima.

Esos planos que mejor se ajustan a la nube de puntos de perfil son los que constituyen el
diagrama propio del Análisis de Correspondencias. En esas representaciones tenemos

129
una imagen de la posición auténtica de las celdas de la tabla, como si fuesen observadas
de un plano de visión óptima en el espacio multidimensional de todos los perfiles. Por sí
mismos, estos diagramas no nos dan ninguna indicación de cómo se ajustan los puntos
al plano elegido, pero la calidad de la representación puede resumirse usando una
medida dada en una escala porcentual. Esa medida cuantifica la cantidad de varianza, o
inercia, explicada por esa representación concreta.

PAST proporciona el “valor propio” o eigenvalue de la solución. Este aparece en la


ventana de resultados inicial, antes de solicitar el diagrama de dispersión de los puntos.

El eigenvalue de cada uno de los ejes que definen los planos que mejor se ajustan a los
perfiles vectoriales de las casillas de la tabla equivale al coeficiente de correlación entre
los puntos del gráfico que representan las filas y los que representan las columnas. La
siguiente columna nos da la medida deseada: el porcentaje de similitud (similarity) entre
todas las celdas de la tabla explicada para cada dimensión. Como un plano tiene dos
dimensiones, la inercia o varianza explicada por ese plano será la suma de las
dimensiones que definen ese plano. En el caso aquí estudiado de las áreas prospectadas,
los diagramas representaban el plano definido por las dimensiones o ejes principales 1 y
2. La suma de sus inercias respectivas contribuye a explicar un 88% de la variabilidad.

Ahora bien, este resultado es tan sólo una medida del ajuste del plano seleccionado a los
puntos. Es una medida de la calidad de la representación visual, y no una medida de la
intensidad de relación, la cual viene dada por índices estadísticos como la V de Cramer,
mencionada anteriormente en este capítulo.

Veamos en un par de supuestos ideales cómo el análisis de correspondencias explica la


intensidad de una relación cualitativa y no sólo su forma. Construyamos tres tablas de
contingencia que definan la relación cualitativa paradigmática en arqueología: entre la
variabilidad morfofuncional (tipología) de los artefactos y la variabilidad espacial
(conjuntos) con la que aparecen dichos artefactos.

Caso A Caso B Caso C

En la primera tabla (caso A), las frecuencias absolutas de los distintos tipos en cada uno
de los conjuntos son muy semejantes en los tres conjuntos, aunque existan claras
diferencias en las proporciones entre conjuntos. Por tanto no debe haber relación. Las

130
dos tablas siguientes muestran diferencias significativas entre los distintos conjuntos en
la frecuencia de aparición de cada tipo, por lo que SI debiera haber relación. Las
diferencias son más marcadas en la última tabla (caso C), lo cual sería indicio de una
relación más intensa. Estas observaciones están contrastadas por los resultados de la
prueba de χ2 y la prueba V de Cramer (StatisticsÆ Contingency Table):

Caso A Caso B Caso C

Veamos ahora el análisis de correspondencias de esas tres tablas de contingencia. En los


tres casos, el espacio multidimensional original (12 dimensiones) se puede reducir a un
espacio de 2 dimensiones sin pérdida de las relaciones entre las celdas de la tabla. El
plano seleccionado explica en los tres casos el 100% de la asociación entre celdas.
PAST nos permite definir con precisión la escala del gráfico, por lo que hemos decidido
definir un mínimo de -0,2 y un máximo de 0,2, tanto para el eje de las abscisas como
para el de las ordenadas. Si los ejes no se trazan a idéntica escala, la comparación no
tendrá sentido32.

0,2
0,2
3conjunto C
0,2

0,1
0,1
0,1
Axis 2

Axis 2

1
conjunto A conjunto C 0
Axis 2

0
0
3
4 conjunto conjunto
2 B
2 B
-0,1 4
-0,1 -0,1
conjunto A
1

-0,1 0 0,1 0,2


-0,1 0 0,1 0,2 -0,1 0 0,1 0,2
A xis 1
Axis 1
Axis 1

Caso A Caso B Caso C

En el caso A, en donde partíamos de un supuesto de no relación, los perfiles de fila y


columna aparecen representados en el centro geométrico del plano de menor dimensión.
Además es importante señalar que si ampliamos la escala:

32
Para ello, y como ya vimos en el caso de histogramas y diagramas de dispersión, basta con introducir el
valor requerido en las casillas X start, X end, Y start, Y end, que aparecen a un lado de la ventana de
resultados gráficos.

131
conjunto B
0,001

Axis 2
2 conjunto C
-0,001
conjunto A

-0,002
3
4
1

-0,006
-0,005
-0,004
-0,003
-0,002
-0,0010 0,001
0,002
0,003
0,004
0,005
0,006
Axis 1

Caso A

Los perfiles de filas y los perfiles de columnas aparecen totalmente disociados, ya que
parecen ser independientes el uno del otro: cualquier tipo de artefacto puede aparecer en
cualquier conjunto. A partir del momento en que las diferencias proporcionales
aumentan entre los conjuntos, aumenta la relación y aumenta la distancia entre las
celdas. Esa distancia es irregular, porque es un resultado de la diferente contribución de
cada proporción en la sumatoria final que es la prueba de χ2. Sólo en el caso C, donde la
relación es intensa (superior a 0,640 según la prueba V de Cramer), filas y columnas se
asocian de acuerdo con las diferencias observadas.

Tanto el eigenvalue como la inercia global no varían en los tres casos, lo que indica que
no deberemos usar esos valores para indicar la intensidad de la relación. Todo análisis
de correspondencia deberá ir introducido por las pruebas generales de contingencia,
interpretándose conjuntamente ambos tipos de análisis estadísticos.

Volviendo a los datos del archivo “Prospección”, recordemos que aunque la presencia
de relación entre variabilidad morfofuncional y variabilidad espacial era
incontrovertible, esa relación era poco intensa (V de Cramer = 0,25). ¿Por qué? Porque
entre las cinco áreas prospectadas comparadas había casi tantas diferencias como
semejanzas. La contribución de cada área a la relación era muy diferente, y no como en
el caso simulado de la tercera tabla, donde cada uno de los tres conjuntos era diferente
al resto. Al ser semejantes las áreas 1 y 2 por un lado, y la 3 y la 4 por otro, el valor de
la intensidad de la relación disminuía.

132
Contenidos del próximo volumen de
la serie

ANÁLISIS MULTIVARIANTES EN ARQUEOLOGÍA

Introducción al Estudio de la semejanza entre elementos arqueológicos

Definición
Ejemplos
Coeficientes de semejanza
Matrices de semejanza
Partición en clases
Análisis jerárquico de clases

Interpretación de las relaciones de semejanza entre elementos arqueológicos

Variabilidad vs. semejanza


Tipología y clasificación
Inducción automática
Análisis discriminante

De la semejanza entre individuos a la relación entre fenómenos

Semejanzas y distancias
La definición conceptual de “dimensión” y la noción de “espacios semánticos”
Introducción al análisis de componentes principales
Interpretación del análisis de componentes principales
Comparando el análisis de componentes principales y el análisis de correspondencias
Variaciones del análisis de componentes principales (análisis canónico, escalas
multidimensionales, análisis de coordenadas principales, etc.)

Complejidad y multidimensionalidad

El Concepto de multidimensionalidad
¿Multidimensionalidad de un fenómeno o múltiples relaciones entre fenómenos?
Multinormalidad
El estudio simultáneo de múltiples relaciones: MANOVA

133

Vous aimerez peut-être aussi