Palabras clave:
Análisis factorial, Base de datos, Evaluación, Publicaciones, EscrituraResumen
En el mundo académico sorprende la baja cantidad de artículos científicos que son aceptados a investigadores nóveles, debido, en parte, a que faltan elementos importantes a nivel formal o de contenido. Además, son escasos los instrumentos debidamente validados que faciliten la escritura de los artículos científicos, de modo que el autor novel pueda autoevaluar su avance. Por ello, se creó la Escala para Evaluar Artículos Científicos en Ciencias Sociales y Humanas-eacsh, mediante un estudio exploratorio basado en la revisión de la literatura, el análisis de expertos en publicaciones científicas, la validación de contenido y la validez de constructo y confiabilidad, por medio de un muestreo censal con 129 investigadores de alto nivel de México durante el año 2018. Los ítems de la escala se validaron en términos de pertinencia y redacción (V de Aiken > 0,80), en donde más del 90% de estos estuvieron representados en el modelo factorial. El instrumento presentó una confiabilidad óptima (0,937) y quedó conformado por 19 ítems, demostrando que puede ser apropiado para guiar la escritura y evaluación de artículos científicos en el contexto Latinoamericano, cuyo contenido sean investigaciones de tipo cuantitativo con alcance exploratorio y descriptivo, aplicables a las ciencias sociales y humanas.
Descargas
Citas
Aiken, L. R. (1985). Three coefficients for analyzing the reliability and validity of ratings. Educational and Psychological Measurement, 45, 131-142. https://doi.org/10.1177/0013164485451012
Ambrosio-Prado, R. (2018). La socioformación: Un enfoque de cambio educativo. Revista iberoamericana de educación, 76(1), 57-82. https://doi.org/10.35362/rie7612955
APA. (2010). Manual of the American psychological association. Washington DC: American Psychological Association.
Bulger, S. M. y Housner, L. D. (2007). Modified Delphi investigation of exercise science in physical education teacher education. Journal of Teaching in Physical Education 26(1), 57-80. https://doi.org/10.1123/jtpe.26.1.57
Cicchetti, D. (1994). Guidelines, criteria, and rules of thumb for evaluating normed and standardized assessment instruments in psychology. Psychological Assessments, 6(4), 284-290. https://doi.org/10.1037//1040-3590.6.4.284
Costello, A. y Osborne, J. (2005). Best practices in exploratory factor analysis: Four recommendations for getting the most from your analysis. Practical Assessment Research & Evaluation, 10(7), 1-9.
COPE. (2018). Promoting integrity in research its publication. Recuperado de https://publicationethics.org/
CIFE. (2015). Cuestionario de factores sociodemográficos. Ciudad de México: CIFE.
CIFE. (2017). Encuesta de satisfacción sobre el instrumento para el grupo piloto. Ciudad de México: CIFE.
CIFE. (2018). Escala de validez de contenido de CIFE. Ciudad de México: CIFE.
CONACYT. (2017). Tabla de investigadores vigentes 2017 por grado, nivel, género, adscripción, entidad federativa y área de conocimiento. Recuperado de https://datos.gob.mx/busca/dataset/sistema-nacional-de-investigadores
Cronbach, L. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16, 297- 334. https://doi.org/10.1007/BF02310555
Debnat, J. y Venkatesh, M. G. (2015). Writing and publishing a scientific paper: Facts, myths and realities. Medical Journal Armed Forces India, 71, 107-111. https://doi.org/10.1016/j.mjafi.2015.02.009
De Winter, J. C. y Dodou, D. (2012). Factor recovery by principal axis factoring and maximum likelihood factor analysis as a function of factor pattern and simple size. Journal of Applied Statistics, 39, 695-710. https://doi.org/10.1080/02664763.2011.610445
Elsevier. (2018). Publishing with Elsevier: Step-by-step. Recuperado de https://www.elsevier.com/authors/journal-authors/submit-your-paper
Fernández-Cruz, F. J., Fernández, M. J. y Rodríguez, J. M. (2018). Diseño y validación de un instrumento de medida del perfil de formación docente en tecnologías de la información y comunicación. Revista Española de Pedagogía, 36(270), 247-270. https://doi.org/10.22550/REP76-2-2018-03
Ferrando, P. y Anguiano-Carrasco, C. (2010). El análisis factorial como técnica de investigación en psicología. Revista de Psiquiatría y Salud Mental, 31(1), 18-33.
González, P. (2018). Validación de un instrumento de evaluación de las competencias adquiridas en las prácticas clínicas del grado de enfermería de la UCM. Madrid: Ediciones Universidad Complutense de Madrid.
Greenberg, K. P. (2015). Rubric use in formative assessment: A detailed behavioral rubric helps students improve scientific writing skills. Teaching of Psychology 42(3), 211-217. https://doi.org/10.1177/0098628315587618
Juárez-Hernández, L. G. (2018). Manual práctico de estadística básica para la investigación. Mount Dora, FL: Kresearch. https://doi.org/10.24944/isbn.978-1-945721-24-3
LaPlaca, P., Lindgreen, A. y Vanhamme, J. (2017). How to write really good articles for premier academic journals. Industrial Marketing Management, 68, 202-209. https://doi.org/10.1016/j.indmarman.2017.11.014
Marín-García y Santandreu. (2015). ¿Qué sabemos sobre el uso de rúbricas en la evaluación de asignaturas universitarias? Intangible Capital, 11(1), 118-145. https://doi.org/10.3926/ic.538
Marín-García, J., Ramírez, L. y Atares, L. (2015). Comparing advantages and disadvantages of rating scales, behavior observation scales and paired comparison scales for behavior assessment of competencies in workers. A systematic literature review. Working Papers on Operations Management, 6(2), 49-63. https://doi.org/10.4995/wpom.v6i2.4032
Mavrou, I. (2015). Análisis factorial exploratorio: Cuestiones conceptuales y metodológicas. Revista Nebrija de Lingüística Aplicada, 19. Recuperado de https://www.nebrija.com/revista-linguistica/analisis-factorial-exploratorio.html
Merma, G., Peña, H. y Peña-Alfaro, S. R. (2017). Design and validation of rubric to assessment the use of American psychological association style in scientific articles. Journal of New Approaches in Educational Research, 6(1), 78-86. https://doi.org/10.7821/naer.2017.1.220
Montero, I. y León, O. (2005). Sistema de clasificación del método en los informes de investigación en psicología. International Journal of Clinical and Health Psychology, 5(1), 115-127.
Montero, I. y León, O. (2007). A guide for manning research studies in psychology. International Journal of Clinical and Health Psychology, 7(3), 847-862.
Murillo, F. J. y Martínez-Garrido, C. (2019). Una mirada a la investigación educativa en América Latina a partir de sus artículos. REICE. Revista Iberoamericana sobre Calidad, Eficacia y Cambio en Educación, 17(2), 5-25. https://doi.org/10.15366/reice2019.17.2.001
Murillo, F. J., Martínez-Garrido, C. y Belavi, G. (2017). Sugerencias para escribir un buen artículo científico en educación. REICE. Revista Iberoamericana sobre Calidad, Eficacia y Cambio en Educación, 15(3), 5-34. https://doi.org/10.15366/reice2017.15.3.001
Páramo, P. (2017). La investigación en ciencias sociales: Técnicas de recolección de información. Bogotá: Universidad Piloto de Colombia.
Penfield, R. y Giacobbi, P. (2004). Applying a score confidence interval to Aiken’s item content-relevance index. Measurement in Physical Education and Exercise Science, 8(4), 213-225. https://doi.org/10.1207/s15327841mpee0804_3
Pereira, M. G. (2014). The writing of scientific articles. Brazilian Journal Otorhinolaryngology, 80, 371-372. https://doi.org/10.1016/j.bjorl.2014.07.004
Rakedzon, T. y Baram, A. (2017). To make a long story short: A rubric for assessing graduate students academic and popular science writing skills. Assesing Writing, 32, 28-42. https://doi.org/10.1016/j.asw.2016.12.004
Rositas-Martínez, J. (2014). Los tamaños de muestras en encuestas en las ciencias sociales y su repercusión en la generación del conocimiento. Innovaciones de Negocios, 11(22), 235-268.
Santesteban, O. y Núñez, N. (2017). Cómo escribir un artículo científico por primera vez. Psiquiatría Biológica, 24(1), 3-9. https://doi.org/10.1016/j.psiq.2017.01.004
Scopus. (2018). Support on writing academic papers. Recuperado de http://crai.ub.edu/en/crai-services/writing-academic-papers
Soriano, A. M. (2014). Diseño y validación de instrumentos de medición. Diálogos, 14, 19-40. https://doi.org/10.5377/dialogos.v0i14.2202
Tobón, S., Pimienta-Prieto, J. H., Herrera-Meza, S. R., Juárez-Hernández, L. G. y Hernández-Mosqueda J. S. (2018). Validez y confiabilidad de una rúbrica para evaluar las prácticas pedagógicas en docentes de educación media. Espacios, 39(45), 1-30.
Tourón, J., Martín, D., Navarro-Asencio, E., Pradas, S. e Íñigo, V. (2018). Validación de constructo de un instrumento para medir la competencia digital docente de los profesores. Revista Española de Pedagogía, 76(269), 25-54. https://doi.org/10.22550/REP76-1-2018-02
Ventura, J. L. (2017). ¿Validez de constructo o validez basada en el constructo? Comentarios a Soler et al. Revista de Psiquiatría y Salud Mental, 10(4), 221-221. https://doi.org/10.1016/j.rpsm.2017.05.003
Vinces, L. (2018). Diseño y validación de una e-rúbrica para evaluar las competencias clínicas específicas en diagnóstico diferencial en pediatría (Tesis doctoral). Universidad Casa Grande, Ecuador.
WOS. (2018). Research assessment. Recuperado de http://wok.mimas.ac.uk/