medigraphic.com
ENGLISH

Medimay

ISSN 2520-9078 (Digital)
  • Mostrar índice
  • Números disponibles
  • Información
    • Información general        
    • Directorio
  • Publicar
    • Instrucciones para autores        
  • medigraphic.com
    • Inicio
    • Índice de revistas            
    • Registro / Acceso
  • Mi perfil

2020, Número 2

<< Anterior Siguiente >>

Revista de Ciencias Médicas de la Habana 2020; 27 (2)


Criterios de calidad de los instrumentos evaluativos escritos

Martínez PR
Texto completo Cómo citar este artículo Artículos similares

Idioma: Español
Referencias bibliográficas: 24
Paginas: 240-251
Archivo PDF: 891.94 Kb.


PALABRAS CLAVE

calidad de exámenes escritos, confiabilidad, validez.

FRAGMENTO

Constantemente se emiten juicios y decisiones sobre los estudiantes basados en varios tipos de evaluación. Para hacer juicios imparciales, se debe entender cuidadosamente las fortalezas y limitaciones de las herramientas y procesos de evaluación sobre el cual se basan estas decisiones. En realidad, se requiere de evidencia para respaldar la validez de nuestras decisiones. Es necesario conocer los indicadores técnicos que definen la calidad del instrumento evaluativo que se emplea por su dimensión y por el poderoso impacto social que tiene, pues los defectos en la elaboración de los mismos tienen efectos negativos en los estudiantes. Con el objetivo de presentar algunos criterios que en la actualidad predominan en relación con la calidad de los instrumentos evaluativos escritos, se realizó una búsqueda bibliográfica a través de Infomed, Medline, SciELO y Redalyc.y Google Scholar. Se concluye que el actual modelo de Validez, por su carácter holístico, procesal, dinámico y abierto, resulta esencial como criterio de calidad en la evaluación. Cuando se emplean instrumentos escritos, el contenido de la prueba y su estructura interna constituyen las más importantes fuentes de evidencia para argumentar su validez.


REFERENCIAS (EN ESTE ARTÍCULO)

  1. Salas Perea RS, Salas Mainegra A. Modelo formativo del médico cubano. Bases teóricas y metodológicas [Internet]. La Habana: Editorial Ciencias Médicas; 2017 [citado 6 Mar 2020]. Disponible en: http://www.bvs.sld.cu/libros_texto/modelo_formativo_medico_cubano/modelo_formativo.pdf

  2. Ministerio de Educación Superior. Resolución Ministerial No. 02. Reglamento de trabajo docente y metodológico en la educación superior [Internet]. La Habana: MES; 2018 [citado 6 Mar 2020]. Disponible en: https://instituciones.sld.cu/faenflidiadoce/files/2018/08/Resoluci%c3%b3n-2-del-2018.pdf

  3. Cook DA, Brydges R, Ginsburg S, Hatala R. A contemporary approach to validity arguments: a practical guide to Kane’s framework. Medical Education [Internet]. 2015 [citado 6 Mar 2020];49:560–75. Disponible en: https://onlinelibrary.wiley.com/doi/full/10.1111/medu.12678

  4. Rivera Jiménez J, Flores Hernández F, Alpuche Hernández A, Martínez González A. Evaluación de reactivos de opción múltiple en medicina. Evidencia de validez de un instrumento. Inv Ed Med [Internet]. 2016 [citado 6 Mar 2020];6(21):8-15. Disponible en: https://www.researchgate.net/publication/303808901_Evaluacion_de_reactivos_de_opcion_multiple_en_medicina_Evidencia_de_validez_de_un_instrumento/link/583ce4ad08ae3cb63655973c/download

  5. Rosales FA. Capacidad de discriminación de las preguntas de un examen escrito. Rev Agron Noroeste Argent [Internet]. 2014 [citado 6 Mar 2020];34(2):94-6. Disponible en: https://studylib.es/doc/6738850/capacidad-de-discriminaci%C3%B3n-de-las-preguntas-de-un-examen...

  6. Blanco Pereira ME, Martínez L, González Gil A, Jordán Padrón M. Calidad del examen final teórico de Morfofisiología Humana I en la Facultad de Ciencias Médicas de Matanzas. Cursos 2012-2013 y 2013-2014. Rev Med Electrón [Internet]. 2015 Ago [citado 6 Mar 2020];37(4):323-32. Disponible en: http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S1684-18242015000400003&lng=es.

  7. Paniagua MA, Swygert KA. Cómo elaborar preguntas para evaluaciones escritas en las áreas de ciencias básicas y clínicas [Internet]. Philadelphia: National Board of Medical Examiners (NBME); 2016 [citado 6 Mar 2020]. Disponible en: http://sedici.unlp.edu.ar/handle/10915/8529

  8. Díaz Rojas PA, Leyva Sánchez E. Metodología para determinar la calidad de los instrumentos de evaluación. Educ Med Super [Internet]. 2013 [citado 6 Mar 2020];27(2):269-86. Disponible en: http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S0864-21412013000200014&lng=es

  9. Sánchez-Mendiola M, Delgado-Maldonado L. Exámenes de alto impacto: implicaciones educativas. Investigación Educ Médica [Internet]. 2017 Mar [citado 6 Mar 2020];6(21):52-62. Disponible en: http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S2007-50572017000100052&lng=es

  10. American Educational Research Association. Standards for educational and psychological testing [Internet]. Washington, DC: AERA; 2014 [citado 6 Mar 2020]. Disponible en: https://eric.ed.gov/?id=ED565876

  11. Instituto Nacional para la Evaluación de la Educación. Criterios técnicos para el desarrollo y uso de instrumentos de evaluación educativa 2014-2015 [Internet]. Mexico, DF: INEE[; 2014 [citado 6 Mar 2020]. Disponible en: https://www.inee.edu.mx/wp-content/uploads/2019/02/CRITERIOS_TECNICOS_PARA_EL_DESARROLLO_Y_USO_DE_INSTRUMENTOS_10_ABRIL_2014.pdf

  12. Moya Ricardo D, Pérez Gómez Y, Ruiz Cordovéz R. La Teoría de Respuesta al Ítem para la evaluación del aprendizaje en Matemática. Edu Sol [Internet]. 2016 [citado 6 Mar 2020];16(55):92-104. Disponible en: https://www.redalyc.org/jatsRepo/4757/475753050020/475753050020.pdf

  13. Jurado Núñez A, Flores Hernández F, Delgado Maldonado L, Sommer Cervantes H, Martínez González A, Sánchez Mendiola M. Distractores en preguntas de opción múltiple para estudiantes de medicina: ¿cuál es su comportamiento en un examen sumativo de altas consecuencias? Inv Ed Med [Internet]. 2013 [citado 6 Mar 2020];2(8):202-10. Disponible en: https://www.sciencedirect.com/science/article/pii/S2007505713727133

  14. Prieto G, Delgado AR. Fiabilidad y validez. Papeles del Psicólogo [Internet]. 2010 [citado 6 Mar 2020];31(1):67-74. Disponible en: www.papelesdelpsicologo.es/pdf/1797.pdf 15.González Machado EC, Reyes Piñuelas EP, López Ortega M. Construcción de una prueba para evaluar aprendizajes en educación superior [Internet]. San Luis de Postosí: Congreso nacional de investigación educativa; 2017 [citado 6 Mar 2020]. Disponible en: http://www.comie.org.mx/congreso/memoriaelectronica/v14/doc/2300.pdf

  15. Sánchez Mendiola M. Mi instrumento es más válido que el tuyo: ¿Por qué seguimos usando ideas obsoletas? Inv Ed Med [Internet]. 2016 [citado 6 Mar 2020];5(19):133-5. Disponible en: https://www.elsevier.es/es-revista-investigacion-educacion-medica-343-articulo-mi-instrumento-es-mas-valido-S2007505716300308

  16. Morales Vallejo P. Estadística aplicada a las Ciencias Sociales. La fiabilidad de los test y escala [Internet]. Madrid: Universidad Pontificia Comillas; 2007 [citado 6 Mar 2020]. Disponible en: http://www.upco.es/personal/peter/estadisticabasica/Fiabilidad.pdf

  17. Zamora Araya JA. Análisis de la confiabilidad de los resultados de la prueba de diagnóstico matemática en la Universidad Nacional de Costa Rica utilizando el modelo de Rasch. Actualidades en Psicología [Internet]. 2015 [citado 6 Mar 2020];29(119):153-65. Disponible https://www.researchgate.net/publication/326697432_Analisis_de_la_confiabilidad_de_los_resultados_de_la_Prueba_de_Diagnostico_Matematica_en_la_Universidad_Nacional_de_Costa_Rica_utilizando_el_modelo_de_Rasch/link/5b5fdf1e458515c4b254446e/download

  18. Corral Y. Validez y confiabilidad de los instrumentos de investigación para la recolección de datos. Revista Ciencias Educación [Internet]. 2009 [citado 6 Mar 2020];19(33):228-47 https://www.researchgate.net/publication/302415291_Validez_y_confiabilidad_de_los_instrumentos_de_investigacion_para_la_recoleccion_de_datos

  19. Biggs, J. Calidad del aprendizaje universitario. Madrid: Narcea; 2005.

  20. Mendoza Ramos A. La validez en los exámenes de alto impacto. Un enfoque desde la lógica argumentativa. Perfiles Educativos [Internet]. 2015 [citado 6 Mar 2020];37(149):169-86. Disponible en: http:// www.iisue.unam.mx/perfiles/descargas/pdf/2015-149-169-86

  21. Sánchez Hernández E, Medina Pavón M, Rodríguez García M, Vega Van Der Meer L, De la Torre Vega G. Indicadores de calidad para un examen teórico de la especialidad de medicina general integral. Medisan [Internet]. 2015 [citado 6 Mar 2020];19(2):150-7. Disponible en: http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S1029-30192015000200002&lng=es

  22. González Machado EC, Reyes Piñuelas EP, López Ortega M. Construcción de una prueba para evaluar aprendizajes en educación superior. Congreso nacional de investigación educativa [Internet]. San Luis Potosí: Congreso Nacional de Investigación Educativa; 2017 [citado 6 Mar 2020]. Disponible en: http://www.comie.org.mx/congreso/memoriaelectronica/v14/doc/2300.pdf

  23. Carvajal Álzate DE, Méndez Sánchez H, Torres Angulo MB. Análisis de la confiabilidad y de algunos parámetros psicométricos de un test realizado en el colegio Vista Bella de la ciudad de Bogotá [Tesis]. Bogotá: Fundación Universitaria Los Libertadores. Departamento de Ciencias Básicas, Especialización en Estadística Aplicada; 2016 [citado 6 Mar 2020]. Disponible en: https://repository.libertadores.edu.co/handle/11371/620

  24. Leenen I. Virtudes y limitaciones de la teoría de respuesta al ítem para la evaluación educativa en las ciencias médicas. Inv Ed Med [Internet]. 2014 [citado 6 Mar 2020];3(9):40-55. Disponible en: https://www.sciencedirect.com/science/article/pii/S2007505714727243




2020     |     www.medigraphic.com

Mi perfil

C?MO CITAR (Vancouver)

Revista de Ciencias Médicas de la Habana. 2020;27

ARTíCULOS SIMILARES

CARGANDO ...