Políticas de uso de Inteligencia Artificial

Política de Uso de Inteligencia Artificial

Ante el incremento en el uso de herramientas de inteligencia artificial en la producción académica, el comité editorial establece la siguiente normativa:

1. Autoría y Responsabilidad en el Uso de IA

El comité editorial espera que los manuscritos sean el resultado del trabajo intelectual de los autores y no de la generación exclusiva de herramientas de inteligencia artificial (IA). No se permite la atribución de coautoría a herramientas de IA, ya que estas no cumplen con los criterios de responsabilidad y originalidad exigidos para la autoría.

Si se detecta que un manuscrito ha sido creado en su mayor parte mediante IA, podrá ser rechazado o retractado. Los autores tienen la responsabilidad de revisar, corregir y garantizar la veracidad del contenido generado con estas herramientas, evitando sesgos, errores o manipulaciones indebidas.

Los autores deben utilizar la IA de manera responsable, respetando la propiedad intelectual, la integridad de los datos y absteniéndose de generar contenido engañoso o fraudulento que pueda afectar la credibilidad del trabajo presentado.

2. Uso de IA en la Metodología y Redacción Científica

El uso de herramientas de IA en el desarrollo de investigaciones no debe sustituir el análisis crítico ni el rigor metodológico propio de la investigación académica, sino que debe ser un apoyo para mejorar la claridad y calidad de los manuscritos.

Los autores que empleen IA en cualquier etapa del desarrollo de su trabajo deberán declararlo explícitamente. Es fundamental describir:

  • Nombre de la herramienta de IA utilizada.

  • Momento del estudio en que se aplicó.

  • Contribución específica de la IA en la investigación.

  • Evaluación de la validez de los resultados obtenidos con IA.

  • Modificaciones o datos generados mediante IA.

Esta información deberá ser incluida en la sección de métodos del manuscrito para garantizar la transparencia y fortalecer la ética en la publicación científica.

El uso de IA para la fabricación o manipulación de datos en una investigación es inaceptable y llevará al rechazo o retractación del trabajo.

3. Uso de IA en la Creación y Edición de Imágenes

No se permite el uso de IA generativa para la creación o modificación de imágenes en artículos científicos. No obstante, en investigaciones que utilicen IA para la generación de figuras, gráficos o análisis visual, los autores deben describir detalladamente su proceso en la sección de métodos.

Cualquier imagen utilizada debe mantener su autenticidad y no alterar los resultados del estudio.

4. Inteligencia Artificial y Generación de Datos

La recopilación y análisis de datos debe realizarse mediante métodos rigurosos definidos por el investigador, sin recurrir a la generación automatizada de datos mediante IA. La integridad y verificabilidad de los datos son esenciales para la credibilidad de la investigación.

5. Evaluación de Manuscritos y Uso de IA por Revisores

Los revisores pares desempeñan un papel clave en el proceso de publicación y deben emitir opiniones fundamentadas en su experiencia académica. Por esta razón, no se permite que utilicen herramientas de IA para generar evaluaciones o informes de revisión.

6. Verificación y Control del Uso de IA

Para verificar el grado de uso de IA en los manuscritos recibidos, el comité editorial realizará un análisis mediante software especializado. En caso de detectarse un uso excesivo o no declarado de IA, el manuscrito podrá ser rechazado o devuelto a los autores para su corrección.

El objetivo de esta política es garantizar la calidad, originalidad y transparencia en la producción académica, promoviendo el uso responsable de herramientas de IA en la investigación científica.