Vol. 17 No. 4 (2019): Formación de investigadores educativos: ¿Calidad o mercadización de la educación superior?
Articles

Scale to Evaluate Scientific Articles in Social and Human Sciences- SSAHS

Emerson López-López
CIFE, México
Sergio Tobón
CIFE, México
Luis Gibrán Juárez-Hernández
CIFE, México
Published September 29, 2019

Keywords:

Factorial analysis, Data base, Evaluation, Publications, Writing
How to Cite
López-López, E., Tobón, S., & Juárez-Hernández, L. G. (2019). Scale to Evaluate Scientific Articles in Social and Human Sciences- SSAHS. REICE. Ibero-American Journal on Quality, Effectiveness and Change in Education, 17(4), 111–125. https://doi.org/10.15366/reice2019.17.4.006

Abstract

In the academic world, the low number of scientific articles that are accepted by new researchers is surprising, due, in part, to the lack of important elements at a formal or content level. In addition, there are few duly validated instruments that facilitate the writing of scientific articles, so that the novel author can self-assess their progress. Therefore, the Scale to Evaluate Scientific Articles in Social and Human Sciences-SSAHS was created, through an exploratory study based on literature review, analysis of experts in scientific publications, content validation and construct validity and reliability, through a census sampling with 129 high-level researchers from Mexico during 2018. The items of the scale were validated in terms of relevance and writing (V of Aiken > 0,80), where more than 90% of these were represented in the factorial model. The instrument presented an optimal reliability (0,937) and was composed of 19 items, demonstrating that it may be appropriate to guide the writing and evaluation of scientific articles in the Latin American context, whose content is quantitative research with exploratory and descriptive scope, applicable to the social and human sciences.

Downloads

Download data is not yet available.

References

Aiken, L. R. (1985). Three coefficients for analyzing the reliability and validity of ratings. Educational and Psychological Measurement, 45, 131-142. https://doi.org/10.1177/0013164485451012

Ambrosio-Prado, R. (2018). La socioformación: Un enfoque de cambio educativo. Revista iberoamericana de educación, 76(1), 57-82. https://doi.org/10.35362/rie7612955

APA. (2010). Manual of the American psychological association. Washington DC: American Psychological Association.

Bulger, S. M. y Housner, L. D. (2007). Modified Delphi investigation of exercise science in physical education teacher education. Journal of Teaching in Physical Education 26(1), 57-80. https://doi.org/10.1123/jtpe.26.1.57

Cicchetti, D. (1994). Guidelines, criteria, and rules of thumb for evaluating normed and standardized assessment instruments in psychology. Psychological Assessments, 6(4), 284-290. https://doi.org/10.1037//1040-3590.6.4.284

Costello, A. y Osborne, J. (2005). Best practices in exploratory factor analysis: Four recommendations for getting the most from your analysis. Practical Assessment Research & Evaluation, 10(7), 1-9.

COPE. (2018). Promoting integrity in research its publication. Recuperado de https://publicationethics.org/

CIFE. (2015). Cuestionario de factores sociodemográficos. Ciudad de México: CIFE.

CIFE. (2017). Encuesta de satisfacción sobre el instrumento para el grupo piloto. Ciudad de México: CIFE.

CIFE. (2018). Escala de validez de contenido de CIFE. Ciudad de México: CIFE.

CONACYT. (2017). Tabla de investigadores vigentes 2017 por grado, nivel, género, adscripción, entidad federativa y área de conocimiento. Recuperado de https://datos.gob.mx/busca/dataset/sistema-nacional-de-investigadores

Cronbach, L. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16, 297- 334. https://doi.org/10.1007/BF02310555

Debnat, J. y Venkatesh, M. G. (2015). Writing and publishing a scientific paper: Facts, myths and realities. Medical Journal Armed Forces India, 71, 107-111. https://doi.org/10.1016/j.mjafi.2015.02.009

De Winter, J. C. y Dodou, D. (2012). Factor recovery by principal axis factoring and maximum likelihood factor analysis as a function of factor pattern and simple size. Journal of Applied Statistics, 39, 695-710. https://doi.org/10.1080/02664763.2011.610445

Elsevier. (2018). Publishing with Elsevier: Step-by-step. Recuperado de https://www.elsevier.com/authors/journal-authors/submit-your-paper

Fernández-Cruz, F. J., Fernández, M. J. y Rodríguez, J. M. (2018). Diseño y validación de un instrumento de medida del perfil de formación docente en tecnologías de la información y comunicación. Revista Española de Pedagogía, 36(270), 247-270. https://doi.org/10.22550/REP76-2-2018-03

Ferrando, P. y Anguiano-Carrasco, C. (2010). El análisis factorial como técnica de investigación en psicología. Revista de Psiquiatría y Salud Mental, 31(1), 18-33.

González, P. (2018). Validación de un instrumento de evaluación de las competencias adquiridas en las prácticas clínicas del grado de enfermería de la UCM. Madrid: Ediciones Universidad Complutense de Madrid.

Greenberg, K. P. (2015). Rubric use in formative assessment: A detailed behavioral rubric helps students improve scientific writing skills. Teaching of Psychology 42(3), 211-217. https://doi.org/10.1177/0098628315587618

Juárez-Hernández, L. G. (2018). Manual práctico de estadística básica para la investigación. Mount Dora, FL: Kresearch. https://doi.org/10.24944/isbn.978-1-945721-24-3

LaPlaca, P., Lindgreen, A. y Vanhamme, J. (2017). How to write really good articles for premier academic journals. Industrial Marketing Management, 68, 202-209. https://doi.org/10.1016/j.indmarman.2017.11.014

Marín-García y Santandreu. (2015). ¿Qué sabemos sobre el uso de rúbricas en la evaluación de asignaturas universitarias? Intangible Capital, 11(1), 118-145. https://doi.org/10.3926/ic.538

Marín-García, J., Ramírez, L. y Atares, L. (2015). Comparing advantages and disadvantages of rating scales, behavior observation scales and paired comparison scales for behavior assessment of competencies in workers. A systematic literature review. Working Papers on Operations Management, 6(2), 49-63. https://doi.org/10.4995/wpom.v6i2.4032

Mavrou, I. (2015). Análisis factorial exploratorio: Cuestiones conceptuales y metodológicas. Revista Nebrija de Lingüística Aplicada, 19. Recuperado de https://www.nebrija.com/revista-linguistica/analisis-factorial-exploratorio.html

Merma, G., Peña, H. y Peña-Alfaro, S. R. (2017). Design and validation of rubric to assessment the use of American psychological association style in scientific articles. Journal of New Approaches in Educational Research, 6(1), 78-86. https://doi.org/10.7821/naer.2017.1.220

Montero, I. y León, O. (2005). Sistema de clasificación del método en los informes de investigación en psicología. International Journal of Clinical and Health Psychology, 5(1), 115-127.

Montero, I. y León, O. (2007). A guide for manning research studies in psychology. International Journal of Clinical and Health Psychology, 7(3), 847-862.

Murillo, F. J. y Martínez-Garrido, C. (2019). Una mirada a la investigación educativa en América Latina a partir de sus artículos. REICE. Revista Iberoamericana sobre Calidad, Eficacia y Cambio en Educación, 17(2), 5-25. https://doi.org/10.15366/reice2019.17.2.001

Murillo, F. J., Martínez-Garrido, C. y Belavi, G. (2017). Sugerencias para escribir un buen artículo científico en educación. REICE. Revista Iberoamericana sobre Calidad, Eficacia y Cambio en Educación, 15(3), 5-34. https://doi.org/10.15366/reice2017.15.3.001

Páramo, P. (2017). La investigación en ciencias sociales: Técnicas de recolección de información. Bogotá: Universidad Piloto de Colombia.

Penfield, R. y Giacobbi, P. (2004). Applying a score confidence interval to Aiken’s item content-relevance index. Measurement in Physical Education and Exercise Science, 8(4), 213-225. https://doi.org/10.1207/s15327841mpee0804_3

Pereira, M. G. (2014). The writing of scientific articles. Brazilian Journal Otorhinolaryngology, 80, 371-372. https://doi.org/10.1016/j.bjorl.2014.07.004

Rakedzon, T. y Baram, A. (2017). To make a long story short: A rubric for assessing graduate students academic and popular science writing skills. Assesing Writing, 32, 28-42. https://doi.org/10.1016/j.asw.2016.12.004

Rositas-Martínez, J. (2014). Los tamaños de muestras en encuestas en las ciencias sociales y su repercusión en la generación del conocimiento. Innovaciones de Negocios, 11(22), 235-268.

Santesteban, O. y Núñez, N. (2017). Cómo escribir un artículo científico por primera vez. Psiquiatría Biológica, 24(1), 3-9. https://doi.org/10.1016/j.psiq.2017.01.004

Scopus. (2018). Support on writing academic papers. Recuperado de http://crai.ub.edu/en/crai-services/writing-academic-papers

Soriano, A. M. (2014). Diseño y validación de instrumentos de medición. Diálogos, 14, 19-40. https://doi.org/10.5377/dialogos.v0i14.2202

Tobón, S., Pimienta-Prieto, J. H., Herrera-Meza, S. R., Juárez-Hernández, L. G. y Hernández-Mosqueda J. S. (2018). Validez y confiabilidad de una rúbrica para evaluar las prácticas pedagógicas en docentes de educación media. Espacios, 39(45), 1-30.

Tourón, J., Martín, D., Navarro-Asencio, E., Pradas, S. e Íñigo, V. (2018). Validación de constructo de un instrumento para medir la competencia digital docente de los profesores. Revista Española de Pedagogía, 76(269), 25-54. https://doi.org/10.22550/REP76-1-2018-02

Ventura, J. L. (2017). ¿Validez de constructo o validez basada en el constructo? Comentarios a Soler et al. Revista de Psiquiatría y Salud Mental, 10(4), 221-221. https://doi.org/10.1016/j.rpsm.2017.05.003

Vinces, L. (2018). Diseño y validación de una e-rúbrica para evaluar las competencias clínicas específicas en diagnóstico diferencial en pediatría (Tesis doctoral). Universidad Casa Grande, Ecuador.

WOS. (2018). Research assessment. Recuperado de http://wok.mimas.ac.uk/