Control del plagio y uso de la IA

La revista Librosdelacorte.es con el fin de garantizar la integridad académica de la publicación utiliza la aplicación Turnitin que permite revisar los documentos detectando citas incorrectas o plagios.

Además, garantiza el uso responsable de la Inteligencia Artificial en la publicación, respetando principios de transparencia, imparcialidad y confidencialidad, reservando a la Dirección y al Consejo editorial la capacidad de rechazar cualquier envío en el que se detecte presencia de contenidos generados, corregidos o retocados mediante IA. Esta revista establece directrices claras sobre el uso adecuado de herramientas de IA para autores, revisores y editores:

1. Principios generales

De acuerdo con las directrices de la Declaración de COPE y las mejores prácticas en la comunidad científica:
-Las herramientas de IA no pueden cumplir con los criterios de autoría, ya que no pueden asumir la responsabilidad del contenido científico.
-No pueden gestionar conflictos de intereses, derechos de autor ni tomar decisiones éticas por su propia cuenta.

2. Uso de IA por parte de los autores
2.1. Declaración de uso:
Los autores deben declarar explícitamente el uso de cualquier herramienta de IA en la redacción o análisis de sus manuscritos. Se debe especificar el software utilizado, las funciones aplicadas y las
secciones del manuscrito donde se ha empleado.
2.2. Responsabilidad de la originalidad
El autor es responsable de la originalidad del contenido generado o asistido por IA. El material generado no debe infringir derechos de terceros ni plagiar contenidos existentes.
2.3. Revisión de contenido asistido por IA
Los autores son responsables de revisar y verificar cuidadosamente cualquier contenido generado por IA para evitar sesgos, errores o inexactitudes.

3. Uso de IA en la revisión por pares
3.1. Declaración del uso de IA por los revisores
Si los revisores utilizan IA para ayudar en la evaluación de un manuscrito, deben declarar este uso. La IA puede servir como apoyo, pero el juicio crítico y la evaluación final deben ser realizados por seres humanos.

3.2. Evaluación de manuscritos
La IA no debe reemplazar la responsabilidad del revisor en la evaluación científica. El proceso debe ser realizado principalmente por humanos, y el uso de IA debe ser complementario.

4. Uso de IA por parte del equipo editorial
El equipo editorial puede emplear IA en tareas administrativas y de edición, como el formateo de manuscritos o la detección de plagio, siempre bajo una supervisión humana rigurosa para asegurar
la coherencia y calidad.

5. Ética en el uso de IA
El uso de IA no debe, bajo ninguna circunstancia, llevar a la manipulación de datos, plagio o violaciones de propiedad intelectual. Cualquier mal uso de la IA, intencional o no, será tratado de
acuerdo con las políticas de COPE y otras normativas éticas de la editorial.

6. Evaluación y actualización de la política
Esta política será revisada regularmente para adaptarse a los avances tecnológicos en IA y para garantizar las mejores prácticas dentro de la publicación científica.

7. Consecuencias del incumplimiento
El incumplimiento de esta política puede conllevar la retirada del manuscrito o la prohibición de enviar.

 

Ver información sobre envíos.