Académique Documents
Professionnel Documents
Culture Documents
evalan (vase el cdigo tico de la Sociedad para Antropologa Aplicada, por ejemplo;
tambin Deyhle, Hess y LeCompte, 1992). Al igual que los mdicos deben considerar la
admonicin de "no hacer dao". Como investigadores en la accin o colaboradores, a
menudo se encuentran con tensiones entre las constricciones de la apreciacin y la
medicin ms slida y los asuntos a tratar por los electores competentes en sus lugares
de evaluacin. Especialmente si adoptan una postura de defensa de los etngrafos postmodernos (Anderson, 1989; Gitlin y Smyth, 1989), estas tensiones resultarn aspectos
destacados y substantivos de su trabajo que complican tanto los aspectos ticos como el
desarrollo de las tareas de evaluacin.
COMO DEBERIA DISEARSE UNA EVALUACIN CUALITATIVA?
Una concepcin equvoca muy comn acerca de la investigacin cualitativa en
general, y de la etnogrfica en particular, es que carece de una teora y de una estructura.
El etngrafo simplemente "merodea" (LeCompte y Preissle, 1993: 113), registrando
todo lo que pasa. La recogida de datos no est guiada a priori por unos interrogantes de
investigacin, un marco conceptual, o teora, y el anlisis se cie a contar historias o a la
explicitacin de buenas afirmaciones hechas por los informantes para al final ofrecer
una presentacin que no sea cuantitativa. De hecho, la ejecucin actual de una
etnografa eficaz puede que no vare mucho de este estereotipo.
Los plazos de tiempo que las agencias requieren de los evaluadores, las preguntas
especficas de inters para los electores, y las mltiples audiencias que necesitan
acceder a los resultados de la evaluacin, especialmente cuando se utilizan los mtodos
cualitativos y etnogrficos, todos intervienen para que el evaluador piense
cuidadosamente de antemano qu tipo de preguntas constituirn el centro de la
evaluacin, qu fuentes de datos respondern las cuestiones, dnde y de quin pueden
obtenerse esos datos, cmo se manipularn, dividirn y se presentarn. Sin esta
planificacin por adelantado se perder mucho tiempo explorando metas que no llevan a
ninguna parte y que son tangenciales a la evaluacin, o recogiendo datos que no
responden a las preguntas planteadas por los clientes. Como cualquier investigador, el
evaluador debe primero decidir cules sern las preguntas fundamentales que deben
tener una respuesta. Los evaluadores, no obstante, deben negociar las preguntas de la
investigacin con los patrocinadores. Despus pueden tomarse algunas libertades a la
hora de planificar un conjunto de tcnicas de recogida de datos que sea lo ms variado,
rico y eficiente posible. Una ventaja del uso de mtodos cualitativos es que casi todo
puede definirse como un dato potencialmente til. Un problema es que resulta atractivo
recoger cualquier conjunto de datos, pero los evaluadores deben -como enfatiza
elocuentemente losStandards- conservar con cautela sus recursos de tiempo, personal y
dinero. Esto requiere una nota de advertencia: no siempre es fcil recoger los datos ms
importantes de una forma rpida y eficaz; no obstante, los datos que son recogidos
fcilmente pueden no ser lo suficientemente ricos como para contestar a preguntas
significativas.
Desarrollando un Plan
Una estrategia til para asegurar unos diseos de evaluacin que puedan ser
operativos y eficaces es construir una matriz de recogida de datos. Esta matriz resulta
tambin de utilidad para los clientes; les permite entender el alcance final del proyecto e
incluso sugerir alternativas o fuentes adicionales de datos. La figura 1 muestra una
Qu datos
respondern a esta
cuestin?
De qu fuentes
deben obtenerse
los datos?
Se est realizando
el programa tal y
como se concibi?
* Documento de
propuesta del
proyecto
* Observaciones del
aula
* Entrevistas con el
personal del proyecto
* Anlisis de los
materiales
curriculares
* Coordinacin de
recursos
* Orientadores
familiares
* Director del
proyecto
Qu cambios, si
hay alguno, se han
realizado sobre el
proyecto original?
* Entrevistas con el
personal del proyecto
y la Coordinacin de
los recursos
Est aportando la
zona educativa el
nivel de apoyo que
prometieron?
* Comparacin de la
propuesta comn con
el actual presupuesto
del proyecto y las
contribuciones
desinteresadas
Qu logros y
obstculos ha
encontrado el
personal en la
realizacin del
programa?
* Orientadores
* Entrevistas con el familiares
personal del proyecto * Director del
proyecto
Con qu nimo y
espritu de
colaboracin afronta * Entrevistas con el
el personal la puesta personal del proyecto
en marcha del
programa?
Es bien recibido el
programa por el
personal de los
centros?
* Orientadores
familiares
* Director del
* Recogida a lo largo de las entrevistas
proyecto
con el personal
* Coordinacin de
los recursos
El personal del
proyecto est
guardando los
* Registros
registros
anecdticos
especificados de los
alumnos tal y como
se especific?
* Orientadores
familiares
* Orientadores
familiares
* Registros
anecdticos
(desarrollados slo
para los chicos
objeto del
programa)
* Datos sobre el
rendimiento de los
alumnos
* Puntuaciones en
el Test GatesMcGrinitie
* Metropolitan
Readiness Test
(slo preescolar)
* Home Language
Survey (todos los
alumnos)
* Arizona State
Assessment Tests,
administrados por
el estado (slo en
3)
* Arizona State
Assessment Tests,
administrados
localmente (cursos
1 a 3)
* Iowa Test of
Basic Skills
(cursos 3 y 4)
* Diagnstico
individual de
lectura (cursos 23)
Qu influencia est
* Datos sobre el
teniendo el
desarrollo de los
programa sobre los
alumnos
alumnos?
realizar una evaluacin, ya que son ellos mismos quienes crean el verdadero sesgo y
enfoque de su trabajo.
Todas estas tcnicas son las que Robert Rippey utiliz para desarrollar lo que ahora
los nuevos Standards denominan un "anlisis de contexto" (A2, p. 189) y describe como
fundamental a la hora de realizar "evaluaciones reales que responden a las condiciones
en las que el programa se encuentra... y a la (interpretacin de) la evaluacin" (Ibid.). El
contexto es, por supuesto, el fondo de la cuestin de las interacciones humanas; como
cualquier interaccin humana, los programas educativos estn "embebidos en y
afectados por el/los contexto/s de una forma difcil de desenmaraar" (op.cit.). Los
modelos positivistas de evaluacin de programas definen los factores contextuales como
ruidos necesarios de controlar; sin embargo, la necesidad de la descripcin y el anlisis
exacto de esos factores y efectos contextuales es, creo, tambin exactamente lo que
gener la insatisfaccin de los sesenta o setenta con el entonces contemporneo criterio
de una buena evaluacin. De forma similar, losStandards previenen a los evaluadores
para que no caigan en el anlisis cualitativo falto de rigor y meramente intuitivo. Se
reconoce en ellos que el anlisis de datos cualitativos es tan sistemtico y trabajoso
como los mtodos que utilizan los investigadores cuantitativos. Tambin reconoce la
naturaleza especial de los datos cualitativos y del anlisis, sugiriendo que los
evaluadores cometen un "error comn" cuando limitan el anlisis de los datos
cualitativos a la cuantificacin (Standards, p. 243) o atienden primordialmente a lo
"nico" o inusual en lugar de a lo comn o a las "caractersticas generales" de la vida
humana (Ibid). Los antroplogos y socilogos han considerado desde hace tiempo que
las "caractersticas generales" de la vida son aquellos patrones normativos
frecuentemente no reconocidos que gobiernan la existencia diaria; son stos, ms que
los eventos inusuales, nicos o no normativos, los que constituyen los procesos de los
programas que causan los efectos que el evaluador desea estudiar.
ENLACE RAZONABLE
Robert Rippey se atrevi a finales de los sesenta a lo que los evaluadores
defendieron en los setenta y ochenta: crear un matrimonio entre los diseos de
investigacin cualitativos y cuantitativos y ponerlos al servicio de una evaluacin de
programas ms til y eficaz. Mientras, han sido necesarias varias dcadas para que la
comunidad evaluativa reconozca la utilidad de tal enlace, los Progam Evaluation
Standards de 1993 traen procedimientos de evaluacin (en trminos de mi alumno
graduado) "para los noventa y ms all", y legitima una integracin lgica, razonable y
sensata de la amplia variedad de procedimientos de investigacin disponibles para los
evaluadores de programas.
NOTAS
[*] NOTA DE LA DIRECCIN
Durante la reunin anual de la Asociacin Americana de Investigacin Educativa
(AERA) realizada en la ciudad de Nueva Orleans, se celebr un simposium en el que
participaron diversos expertos en evaluacin de programas. El objetivo del mismo era
presentar diferentes perspectivas sobre la nueva revisin que se ha llevado a cabo de los
estndares para la evaluacin de programas. En tal contexto, este trabajo presenta la