Vous êtes sur la page 1sur 7

Revisin en Formacin

Mdica Continuada

La evaluacin en educacin mdica. Principios bsicos Cuestionario


de acreditacin
www.educmed.net

M. Nolla-Domenj

Objetivo. Proporcionar una visin global de los aspec- especialmente la evaluacin de los aprendizajes Fundaci Doctor Robert.
tos ms relevantes a tener en cuenta en un sistema de y, en definitiva, versar sobre uno de los temas Universitat Autnoma
de Barcelona.
evaluacin. Desarrollo. Se proponen dos modelos funda- de ms relevancia en la actualidad: la evaluacin Barcelona, Espaa.
mentales como marco de referencia de los procesos de de la competencia profesional.
evaluacin. Se describen las caractersticas principales de En el mdulo 2 de este programa de forma- Correspondencia
Dra. Maria Nolla
cualquier sistema de evaluacin. Finalmente, se apuntan cin, Pals [1] define el concepto de competencia Domenj. Fundaci
los retos a los que se enfrenta en la actualidad el amplio y describe su complejidad. Introduce el concepto Doctor Robert. Sant
campo de la evaluacin en educacin mdica. de educacin basada en resultados de aprendi- Antoni M. Claret, 171.
E-08041 Barcelona.
zaje. Este enfoque lleva implcita la evaluacin.
Palabras clave. Competencia profesional. Educacin mdica. Eva- Los resultados de aprendizaje son competencias E-mail
luacin. comprobadas, es decir, evaluadas. Este aborda- maria.nolla@uab.es
je refuerza la idea de que la evaluacin es una
parte integrante de un programa o proceso de
formacin. Debe pensarse en la evaluacin des-
Evaluation in medical education. Basic principles de el inicio, desde la planificacin del proceso
formativo.
Aim. To provide a global vision of the most relevant aspects
to take into account of an evaluation system. Development.
The article also proposes two dierent fundamental models
as frameworks for the evaluation process. The main charac- Qu? y para qu?
teristics applicable to any evaluation system are described.
Finally the paper points the challenges that evaluation in La planificacin del sistema de evaluacin a
medical education is facing for the near future. utilizar incluye muchas preguntas a plantearse:
qu?, para qu?, cmo?, cundo?, quin?,
Key words. Evaluation. Medical education. Professional competence.. etc. Todas ellas deben clarificarse en algn mo-
mento u otro; sin embargo, las dos ms funda-
mentales que deben iniciar todo el proceso son
las dos primeras: qu? y para qu? Las respues-
Introduccin tas a estas dos preguntas determina el abanico de
posibilidades de las restantes.
La evaluacin en educacin mdica es un cam-
po realmente amplio. Desde la evaluacin de los Qu?
aprendizajes a los sistemas de calidad educativa y
evaluacin de polticas educativas, existen mul- Ya se ha comentado la amplitud de los aspectos
titud de aspectos que se deben tener en cuenta susceptibles de ser evaluados. Para no confun-
en los proyectos formativos. Este artculo tratar dirse a la hora de responder a las otras preguntas

Viguera Editores SL 2009. EDUC MED 2009; 12 (4): 223-229 223


M. Nolla-Domenj

es fundamental haber escogido y definido los as-


pectos que se quieren evaluar. Tabla I. Niveles del modelo de Kirkpatrick.
La utilizacin de modelos tericos puede
ayudar en la definicin del objeto de evalua-
cin. Existen diversos modelos, pero en aras a la t Nivel 1: evaluacin de la reaccin (satisfaccin)
brevedad y utilidad del presente artculo, se han t Nivel 2: evaluacin del aprendizaje (competencia)
escogido dos de los ms utilizados por los edu- t Nivel 3: evaluacin de la conducta (transferencia)
cadores en general y, en concreto, por los educa- t Nivel 4: evaluacin de los resultados (impacto)
dores en ciencias de la salud. Como se ver ms
adelante, ambos modelos son compatibles en el
planteamiento de los sistemas de evaluacin.
Kirkpatrick [2,3] ha aportado al mundo de la
educacin un esquema breve y claro en el que comnmente como pirmide de Miller. Relacio-
basar los procesos de evaluacin. Su modelo se nando este modelo con el expuesto con anterio-
centra en cuatro niveles a tener en cuenta, espe- ridad, se puede decir que el modelo de Miller se
cialmente para los programes de posgrado y de- centra en los niveles 2 y 3 de Kirkpatrick.
sarrollo profesional continuo (Tabla I): Los niveles de la pirmide de Miller, de la base
al vrtice, son los siguientes (Fig. 1):
t Nivel 1: reaccin. Lo que se evala es la reac-
cin de los participantes en el programa de t Miller adjudica la base de la pirmide a los
formacin, en otras palabras, se busca infor- conocimientos en abstracto y la denomina
macin sobre el grado de satisfaccin de los saber (knows-knowledge).
estudiantes. t El segundo nivel, saber cmo (knows how-
t Nivel 2: aprendizaje. Este nivel se centra de competence), tambin hace referencia a la parte
pleno en la evaluacin de las competencias cognitiva de la competencia, pero este saber es
adquiridas. ahora contextualizado e incluye habilidades del
t Nivel 3: conducta. Se evala la transferencia tipo toma de decisiones y razonamiento clnico.
de los aprendizajes al lugar de trabajo. La di- t El tercer nivel, demostrar cmo (shows how-
ficultad de este nivel estriba en los mltiples performance) da un salto cualitativo muy im-
factores que influyen en la calidad del desem- portante en la evaluacin de la competencia
peo laboral, adems de la competencia pro- clnica, ya que incluye el comportamiento
fesional, y que hacen ms complejo relacionar (habilidades). No obstante, el contexto de
unvocamente, de forma causal, los cambios o aplicacin de las competencias no es real. Es
no de comportamiento con el grado de efica- un nivel de competencia que se muestra en
cia del programa de formacin. entornos simulados aunque contextualizados.
t Nivel 4: resultados. Lo que se pretende evaluar t Miller reserva el vrtice de la pirmide para
en este nivel es el impacto en la poblacin o el hacer (does-action). Se trata de la compe-
sociedad. Si el nivel anterior tena sus dificul- tencia demostrada en situaciones o contextos
tades en poder atribuir cambios en la conduc- profesionales reales. Una vez ms, subrayar
ta profesional a los programas de formacin, que este nivel constituye el reto actual al que
averiguar su impacto en la sociedad es an un se enfrentan los educadores y, en especial, los
reto mayor. especialistas en evaluacin de la competencia
profesional.
En el mbito de la educacin mdica, y en con-
creto en la evaluacin de la competencia profe- Para qu?
sional, el esquema ms difundido y utilizado es
el ideado por Miller [4] en 1990. Al final de su Una vez se ha definido el objeto de evaluacin se
carrera, Miller invirti sus ltimos aos en el debe clarificar el propsito. Existen diferentes ob-
reto an vigente de la evaluacin de la compe- jetivos de la evaluacin para los distintos objetos
tencia profesional. Conceptualiz cuatro niveles seleccionados [5,6]. Dado que el artculo se cen-
de competencia profesional que plasm en forma tra en la evaluacin del aprendizaje profesional se
de pirmide, y que ha pasado a conocerse ms citan algunas posibilidades en la tabla II.

224 Viguera Editores SL 2009. EDUC MED 2009; 12 (4): 223-229


La evaluacin en educacin mdica

Programa de Formacin Mdica Acreditada en Educacin Mdica

Artculo: La evaluacin en educacin mdica. Principios bsicos


Autores: M. Nolla-Domenj
Revista: Educ Med 2009; 12: 223-9

1. Las dos preguntas fundamentales sobre el sistema de o c) la evaluacin de las habilidades quirrgicas bsicas
evaluacin que se deben plantear desde el inicio son: o d) la evaluacin de la satisfaccin de los estudiantes
o a) qu? y cmo? o e) la evaluacin de la calidad docente
o b) cmo? y cundo?
o c) qu? y para qu? 7. Cul de los niveles de la pirmide de Miller
o d) para qu? y para quin? se evala mediante las evaluaciones clnicas
o e) qu? y cundo? objetivas estructuradas (ECOE)?:
o a) primero
2. Cul de los siguientes aspectos a evaluar no forma o b) segundo
parte de los niveles del modelo de Donald Kirkpatrick?: o c) tercero
o a) impacto o d) cuarto
o b) reaccin o e) todos los niveles
o c) aprendizaje
o d) calidad 8. Cul de los siguientes instrumentos evala ms
o e) resultados adecuadamente el cuarto nivel de la pirmide de Miller?:
o a) ECOE
3. Los niveles de la pirmide de Miller son todos o b) pruebas escritas basadas en contextos clnicos
los siguientes excepto uno. Indique cul es el falso: o c) pacientes simulados
o a) querer o d) observacin directa
o b) saber o e) pruebas escritas descontextualizadas
o c) hacer
o d) demostrar cmo 9. Cul de las siguientes definiciones se refiere al concepto
o e) saber cmo de validez de un instrumento de evaluacin?:
o a) grado en que un instrumento mide de
4. Cul de las siguientes caractersticas no forma consistente lo que se pretende medir
es fundamental en un sistema de evaluacin?: o b) conocimiento, por todas las partes
o a) validez implicadas, de las reglas del juego
o b) fiabilidad o c) posibilidad de utilizarlo
o c) confianza o d) grado en que un instrumento
o d) transparencia mide lo que se quiere medir
o e) factibilidad o e) grado en que los candidatos aceptan
la evaluacin porque la consideran adecuada
5. En la actualidad, cul es la principal dificultad
de la evaluacin de la competencia clnica?: 10. Sealar la proposicin incorrecta:
o a) la aceptacin por parte de los profesionales o a) una evaluacin formativa tiene como objetivo
o b) el coste del sistema de evaluacin fundamental proporcionar a los estudiantes
o c) la carencia de medidas correctoras para feedback sobre su aprendizaje
los que no cumplen los mnimos requeridos o b) una evaluacin sumativa es la base de la toma
o d) la imposibilidad de medirla de forma directa de decisiones sobre el nivel de competencia
o e) la contextualizacin necesaria de los instrumentos profesional del candidato
o c) una evaluacin sumativa no puede ser en
ningn caso formativa, de manera simultnea
6. Cul de las siguientes evaluaciones supone el o d) la decisin de emplear una forma de evaluacin
mayor reto en la actualidad en educacin mdica?: sumativa guiar la utilizacin de los resultados
o a) la evaluacin de los conocimientos de la evaluacin
o b) la evaluacin de la prctica profesional o e) la evaluacin gua el aprendizaje

Nombre y apellidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . DNI . . . . . . . . . . . . . . . . . . . . . . . . . . .


Direccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cdigo postal . . . . . . . . . . . . . . . . .
Localidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Provincia/pas . . . . . . . . . . . . . . . . . . . . . . . . . .
Telfono . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . E-mail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Encontrar este cuestionario en la web de la revista: www.educmed.net

Viguera Editores SL 2009. EDUC MED 2009; 12 (4): 223-229 225


M. Nolla-Domenj

Figura 1. Pirmide de Miller (adaptado de [4]).

Sin embargo, a un nivel ms general, adems


de clarificar el objetivo de la evaluacin debe Tabla II. Propsitos de la evaluacin
decidirse qu tipo de enfoque se va a dar y qu del aprendizaje.
consecuencias van a tener los resultados de la
evaluacin.
La evaluacin puede ser formativa o sumati- t Asegurar que se cubren las necesidades de aprendizaje
va [7]. Se dice que una evaluacin tiene finalida- t Identificar puntos dbiles en la docencia
des formativas cuando su objetivo fundamental t Aprobar programas docentes
consiste en proporcionar a los estudiantes feed- t Proporcionar feedback a los docentes y a la organizacin
back sobre su aprendizaje y facilitar la reflexin t Seleccionar los mejores candidatos
sobre su progreso. Una evaluacin tiene finali- t Etc.
dades sumativas cuando los resultados son la
base para la toma de decisiones sobre el nivel
de competencia profesional (aprobado/suspen-
so, obtencin de un ttulo, obtencin de una La cantidad de instrumentos desarrollados y
acreditacin, etc.). No obstante, un sistema de la finalidad de visin global del presente mdulo
evaluacin sumativo puede contener un compo- hacen del todo imposible su descripcin detalla-
nente formativo cuando tambin se proporciona da, as como poder citar todas las herramientas
feedback a los estudiantes sobre sus fortalezas y disponibles. Un esquema global basado en la pir-
sus debilidades. mide de Miller fue presentado por van der Vleu-
La decisin de emplear una forma de evalua- ten [9] en el marco de la 9th International Ottawa
cin sumativa, formativa o una combinacin de Conference on Medical Education (Fig. 2):
ambas, guiar la seleccin de instrumentos, la
manera en que se realizar la evaluacin, la can- t La base de la pirmide (saber) se relaciona
tidad de recursos humanos necesarios, la inter- bsicamente con pruebas escritas sobre cono-
pretacin de los resultados y la utilizacin de los cimientos abstractos, es decir, descontextua-
resultados de la evaluacin [8]. lizados.
t En el segundo nivel (saber cmo) se realizan
tambin pruebas escritas basadas en contex-
tos clnicos, en casos concretos, y se pueden
Instrumentos de evaluacin valorar competencias de razonamiento clni-
co y toma de decisiones.
Una vez se han respondido las preguntas qu? y t El tercer nivel de la pirmide (demostrar) se
para qu?, se puede pasar al cmo?, a la selec- relaciona con las pruebas basadas en simula-
cin de los instrumentos. ciones, de ah que van der Vleuten las englobe

226 Viguera Editores SL 2009. EDUC MED 2009; 12 (4): 223-229


La evaluacin en educacin mdica

Figura 2. Relacin entre nivel de competencia segn la pirmide de Miller y los instrumentos susceptibles de ser utilizados
(adaptado de [9]).

en la expresin evaluacin de la prctica in vi- se. Las caractersticas fundamentales a estudiar


tro. A este nivel se encuentran los maniques, y definir son: validez, fiabilidad, transparencia,
los pacientes simulados y las evaluaciones aceptacin, factibilidad e impacto educativo [6].
objetivas clnicas estructuradas (ECOE). Las
ECOE suponen la combinacin de diversos Validez
instrumentos para la evaluacin de la compe-
tencia clnica. La validez es el grado en que un instrumento
t El vrtice de la pirmide (hacer) incluye los mide lo que se quiere medir. Una cinta mtrica
instrumentos que permiten evaluar la prcti- es vlida para medir una longitud, pero no para
ca real, la evaluacin de la prctica in vivo. medir el peso. Aunque parezca una obviedad
La observacin (directa o videograbada), el resulta extremadamente importante asegurar
portafolio, la evaluacin de registros clnicos la coherencia entre lo que se quiere evaluar y el
y la utilizacin de pacientes simulados ocultos procedimiento seleccionado para ello [10].
son algunos de los ms utilizados. Hay diferentes tipos de validez, pero las tres
categoras principales son: validez de contenido,
A pesar de la aparicin constante de nuevos ins- validez de criterio y validez de constructo [11].
trumentos no hay que olvidar que no existe nin- La validez de contenido da informacin sobre en
guno que, por s slo, pueda dar informacin qu medida el instrumento mide el rea de cono-
sobre todos los componentes de la competen- cimiento que se pretende evaluar. La validez de
cia profesional. La evaluacin de la competencia criterio se refiere a la comparacin de la medida
global de un profesional siempre debe combinar con un valor conocido (criterio de referencia). La
distintos instrumentos. validez de constructo informa de en qu medida
el instrumento mide un constructo hipottico
(p. ej., la inteligencia, la empata, la competencia
profesional) que no es fcilmente observable.
Caractersticas fundamentales
de un sistema de evaluacin Fiabilidad

Cuando se consideran los instrumentos de eva- La fiabilidad o precisin es el grado en que un


luacin aparecen nuevas preguntas a formular- instrumento mide de forma consistente lo que se

Viguera Editores SL 2009. EDUC MED 2009; 12 (4): 223-229 227


M. Nolla-Domenj

pretende medir. Tiene que ver con la repeticin En 1977, Miller, en su participacin en el II
de la medida En el ejemplo anterior de la cinta Simposio Mdico Internacional en Roma, ya
mtrica, es fiable en la medida en que cada vez asever que cambiar el sistema de evaluacin sin
que se mide un mismo objeto, el resultado es el modificar el programa de enseanza ha tenido
mismo o muy similar. una mayor repercusin sobre la naturaleza y la
La fiabilidad generalmente se mide como un calidad del aprendizaje, que si se hubiera modifi-
coeficiente de correlacin, siendo 1,0 una corre- cado el programa sin tocar los exmenes.
lacin perfecta, y 0,0, una no correlacin total. Van der Vleuten [14] describi al menos cua-
Los valores superiores a 0,7 se consideran indi- tro vas por las que el sistema de evaluacin di-
cativos de que el instrumento es fiable. rige el aprendizaje: su contenido, su estructura
La fiabilidad entre evaluadores se refiere al o formato, lo que se pregunta (p. ej., la informa-
grado de acuerdo entre evaluadores diferentes e cin que se proporciona), y la frecuencia, hora-
independientes del mismo candidato. rio y nmero de evaluaciones repetidas.

Transparencia

La transparencia en un sistema de evaluacin Retos actuales de la evaluacin


tiene relacin con el conocimiento por parte de en educacin mdica
todas las partes implicadas de las reglas del juego
(tipo de prueba, criterios de evaluacin, etc.). Tomando como marco de referencia la pirmide
de Miller, el mayor reto actual se sita en su parte
Aceptacin superior. La evaluacin de la competencia profe-
sional en entornos simulados y, ms an, la eva-
La aceptacin es el grado en que los candidatos luacin de la prctica profesional real suponen
aceptan la evaluacin porque la consideran ade- un gran desafo porque son conceptos complejos
cuada. A mayor validez y fiabilidad contrastadas que no se pueden medir de manera directa.
y documentadas, mayor aceptacin por parte de Shumway y Harden [11] consideran que hay
los candidatos. La transparencia del proceso de que tender a evaluar lo que los aprendices hacen
evaluacin tambin contribuye a la aceptacin en la prctica y cmo aplican sus conocimientos
de la prueba. en ciencias bsicas y clnicas para el cuidado de
los pacientes. Mientras que muchas facultades de
Factibilidad medicina se han decantado por la evaluacin de la
competencia en situaciones simuladas, slo unas
En la seleccin de un instrumento es de capital pocas han puesto un nfasis mayor en la evalua-
importancia comprobar que ser posible (facti- cin de la actuacin en la prctica clnica a travs
ble) utilizarlo. Esto implica calcular el coste de la de abordajes de observacin directa o mediante el
evaluacin en trminos de recursos (humanos y uso de medidas indirectas como los portafolios.
materiales) y de tiempo. Segn Brailovsky [15], la capacidad reflexiva
El coste debe incluir la puesta en marcha y y el razonamiento en la resolucin de problemas
los cursos necesarios para el desarrollo e imple- clnicos representan el ncleo fundamental de
mentacin. El coste de un sistema de evaluacin la competencia clnica, y el desarrollo de instru-
tambin debera considerarse en relacin al be- mentos de evaluacin que hagan posible la va-
neficio para la docencia y el aprendizaje. loracin de estos dos elementos cruciales, poco
accesibles por los instrumentos de medicin em-
Impacto educativo pleados tradicionalmente, se ha convertido en
un complejo desafo.
En el diseo de los sistemas de evaluacin a me- Epstein [7] plantea otros retos adems de los
nudo no se considera el impacto que puede tener ya citados. Recientemente han aparecido nuevos
sobre el estudiante. Sin embargo, hace tiempo que dominios de evaluacin, en especial debido a la
se ha observado que los procesos de evaluacin necesidad de evaluar la competencia y la prctica
dirigen el aprendizaje [12,13]. El tipo de evalua- profesional: trabajo en equipo, profesionalismo,
cin determina cmo estudian los candidatos. comunicacin, entre otros... Otro reto actual es

228 Viguera Editores SL 2009. EDUC MED 2009; 12 (4): 223-229


La evaluacin en educacin mdica

el desarrollo de sistemas de evaluacin adecua- 7. Epstein RM. Assessment in medical education. N Engl J
dos a las caractersticas especiales de los profe- Med 2007; 356: 387-96.
sionales con aos de experiencia. 8. Dent JA, Harden RM. A practical guide for medical
Norcross et al [16] concluyen que el futuro de teachers. Edinburgh: Elsevier; 2005.
un sistema comprehensivo de evaluacin de los 9. Van der Vleuten CPM. A paradigm shift in education:
mdicos asistenciales depende del desarrollo y how to proceed with assessment? 9th International Ot-
estandarizacin de instrumentos, tcnicas y pro- tawa Conference on Medical Education. Cape Town, 28
cedimientos para la evaluacin de la competencia February-3 March 2000. URL: http://www.educ.unimaas.
y la actuacin profesional, incluyendo medidas nl/ottawa.
de la prctica, de programas de evaluacin de co- 10. Villa A, Poblete M. Aprendizaje basado en competen-
laboracin en red, del control de costes, y del de- cias. Bilbao: Universidad de Deusto; 2008.
sarrollo continuo de medidas correctoras que se 11. Shumway JM, Harden RM. AMEE Guide no. 25: The
correspondan con los hallazgos en la evaluacin. assessment of learning outcomes for the competent and
reflective physician. Med Teach 2003; 25: 569-84.
12. Newble DI, Jaeger K. The effect of assessments and ex-
aminations on the learning of medical students. Med
Educ 1983; 17: 165-71.
Bibliografa 13. Wood D. Formative assessment. Edinburgh: Association
for the Study of Medical Education; 2007.
1. Pals J. Planificar un curriculum o un programa forma- 14. Van der Vleuten CPM. The assessment of professional
tivo. Educ Med 2006; 9: 59-65. competence: developments, research and practical im-
2. Kirkpatrick DL. Evaluacin de acciones formativas. Bar- plications, Adv Health Sci Educ 1996; 1: 41-67.
celona: Gestin; 2000. 15. Brailovsky CA. Educacin mdica, evaluacin de las
3. Kirkpatrick DL. Avaluaci daccions formatives: els qua- competencias. In OPS/OMS, eds. Aportes para un cam-
tre nivells. Barcelona: Epise Gestin; 2000. bio curricular en Argentina. Buenos Aires: University
4. Miller G. The assessment of clinical skills/competence/ Press; 2001. p. 103-20.
performance. Acad Med 1990; 65: S63-7. 16. Norcross WA, Henzel TR, Freeman K, Milner-Mares J,
5. Wall D. Evaluation: improving practice, influencing Hawkins RE. Toward meeting the challenge of physician
policy. Edinburgh: Association for the Study of Medical competence assessment: the University of California,
Education; 2007. San Diego Physician Assessment and Clinical Education
6. Morrison J. Evaluation. Br Med J 2003; 326: 385-7. (PACE) Program. Acad Med 2009; 84: 1008-14.

Viguera Editores SL 2009. EDUC MED 2009; 12 (4): 223-229 229

Vous aimerez peut-être aussi