Acerca del uso de IA
El uso de herramientas de inteligencia artificial (IA) en la investigación y publicación de artículos científicos está en auge, lo que genera interrogantes éticos, morales y legales. Sin embargo, se puede aprovechar la capacidad de generación de las tecnologías IA para apoyar la escritura y publicación de artículos científicos en forma ética:
- Genera ideas sobre el tema que desea escribir. Simplemente puede proporcionar algunas palabras clave y dejar que el modelo genere ideas. Puede utilizar estas ideas para inspirarse y escribir su artículo científico.
- Resume información de artículos científicos o estudios que sean relevantes para su propia investigación. Esto puede ayudarle a comprender mejor los temas que está estudiando y a identificar los puntos clave que debe incluir en su propio artículo.
- Reúne data de interés aprovechando la habilidad de aprendizaje IA para agrupar información.
- Explora la similitud de contenido como parte de la revisión y edición de su artículo. Esto facilita la inserción de citas adecuadas cuando sea necesario y la detección de plagio de su propio material. Cuide no dejar copia en los repositorios o depósitos de análisis para evitar duplicidad al momento de consignar el manuscrito final.
- Verifica si el contenido ha sido generado por inteligencia artificial (IA).
- Mejora el lenguaje de su artículo. Proporcione algunas oraciones o párrafos y el modelo puede sugerir alternativas de lenguaje que pueden mejorar el flujo y la coherencia del texto.
A pesar de estos beneficios, la IA también plantea importantes daños sociales que pueden surgir cuando los sistemas de IA alucinan, difunden información errónea, engañan mediante notas falsas o ponen en peligro la seguridad, la propiedad intelectual, la privacidad u otros derechos fundamentales de las personas (J. Tiedrich, L. 2024). En el caso de la producción científica, podemos mencionar:
- Falta de calidad o el sesgo de los datos utilizados en el entrenamiento, lo que puede limitar la comprensión de los fenómenos estudiados.
- Procesamiento y análisis limitado de datos disponibles, lo que puede limitar la generalización de los resultados.
- Incertidumbre en cuanto a la privacidad y la seguridad de los datos utilizados en el entrenamiento, y la validación de los modelos.
- Necesidad de competencia y capacitación para el manejo de las herramientas IA, y comprensión de los resultados.
Para garantizar la integridad, transparencia y calidad de la investigación, se establece esta normativa, dividida en secciones para cada una de las partes interesadas: público objetivo, autores, revisores y casa editorial.
Público objetivo:
- Transparencia en el uso de IA: Los artículos científicos deben indicar claramente si se han utilizado herramientas de IA en la investigación, incluyendo el tipo de herramienta, su propósito y el impacto en los resultados.
- Acceso a la información sobre IA: La casa editorial debe proporcionar información accesible sobre las herramientas de IA utilizadas en la revisión y edición de artículos, incluyendo sus capacidades y limitaciones.
Autores:
La revista EASI no admite el uso de la IA para escribir artículos por sí solos o incluir a un modelo de lenguaje generativo (LLM) como autor de un artículo, debido a la incapacidad de la IA para ser responsable del contenido escrito, y la falta de responsabilidad y de capacidad para dar consentimiento para ser publicado como un autor.
- Uso responsable de IA: los autores deben declarar el uso de las herramientas de IA de manera responsable y ética, considerando los potenciales sesgos algorítmicos, la privacidad de los datos, y las posibles repercusiones en la sociedad. En tal sentido, recomendamos (Copilot, 2024):
- Comprender los términos de uso de cualquier IA para reutilizar el contenido de las indicaciones provistas en la búsqueda.
- Verificar la política de las herramientas IA en torno al manejo y privacidad de los datos sensibles. Verificar que estos datos cuentan con un consentimiento informado por parte de las partes interesadas, y que aquellos datos ya publicados oficialmente, cuenta con los permisos adecuados para su uso.
- Realizar un análisis exhaustivo de los prompts y datos utilizados para entrenar los modelos. Esto implica identificar posibles sesgos en los datos, como desigualdades de género, raza o clase social. Considerar medidas de seguridad robustas para proteger los datos confidenciales en el diseño de los prompts, como cifrado, control de acceso y protocolos de anonimización.
- Evaluar los modelos en busca de sesgos algorítmicos una vez que están entrenados. Esto puede incluir pruebas específicas para detectar discriminación o desigualdad en las predicciones.
- Evaluar y declarar cómo las decisiones basadas en los modelos afectarán a las partes interesadas. Esto puede incluir la participación de expertos en ética y grupos afectados por las decisiones del modelo. Cuestione brevemente: ¿Qué implicaciones tienen para la comunidad científica o la sociedad en general?
- Citar siempre el uso de IA generativa al escribir o crear texto, figuras u otro contenido para publicación científica previa verificación de la fuente de publicación.
- Verificar los hechos y las referencias sugeridas por una herramienta de IA generativa.
- Documentación del uso de IA: Los artículos científicos deben incluir una sección detallada que describa el uso de IA, especificando las herramientas, los parámetros y el impacto en la investigación. La revista EASI recomienda:
- Describir los métodos utilizados, incluidos los algoritmos de IA y los datos de entrenamiento, que permita la evaluación y réplica de los resultados. Además, se deben describir las métricas utilizadas para evaluar el rendimiento del modelo.
- Documentar cualquier decisión tomada durante el proceso de diseño del modelo. Esto incluye elecciones sobre características, ponderaciones y ajustes.
- Evaluación crítica de los resultados: Los autores deben evaluar críticamente los resultados obtenidos con IA, comparándolos con métodos tradicionales y considerando posibles errores o sesgos. La recomendación principal es:
- Reconocer y comunicar los posibles sesgos que podrían afectar los resultados obtenidos con IA, incluyendo las limitaciones de las herramientas y los datos utilizados.
Revisores:
La revista EASI no prohíbe el uso de herramientas generativas IA para apoyar la labor de revisión en forma ética o responsable. La retroalimentación crítica y constructiva a los autores basada en evidencias científicas, debe prevalecer sobre la predicción de un modelo IA que haya apoyado al revisor en el proceso de arbitraje.
Se han documentado dos aspectos claves durante el proceso de revisión donde el uso de herramientas IA pueden impactar negativa o positivamente: generación de informes de revisión y la recomendación de rechazo o aceptación de manuscritos. (Leung TI., et al. 2023)
- Evaluación crítica del uso de IA: Los revisores deben realizar un análisis exhaustivo y riguroso de cómo las herramientas de IA se han empleado en el proceso de revisión, asegurando que su aplicación sea adecuada, responsable y ética. El revisor debe evaluar no solo los resultados obtenidos con IA, sino también la metodología empleada, la calidad de los datos utilizados, los posibles sesgos algorítmicos y las implicaciones éticas del uso de estas herramientas (Gemini, 2024). Las referencias The Use of Artificial Intelligence in Writing Scientific Review Articles (2023), y Leung TI., et al. (2023), nos permiten hacer las siguientes recomendaciones:
- Evaluar críticamente el contenido del artículo, prestando interés en aquel generado por el uso de la IA.
- Verificar el potencial de plagio involuntario (atribución del crédito por la producción de declaraciones generadas por AI por parte de los autores).
- Ser cautelosos acerca de los riesgos del uso de tecnologías IA en el proceso de revisión, que incluyen, entre otros, la perpetuación de prejuicios y el lenguaje no neutral en el uso de la IA (por ejemplo, prejuicios de género, raciales, políticos u otros basados en características individuales).
- Revise cuidadosa y exhaustivamente los términos de uso de cualquier IA generativa para minimizar el riesgo de fuga de información por parte de la IA durante el proceso de revisión (abierto o cerrado).
- Retroalimentación constructiva: Los revisores deben proporcionar retroalimentación constructiva a los investigadores sobre el contenido del artículo, sugiriendo mejoras en la documentación y la evaluación crítica de los resultados.
- Divulgar la herramienta de IA generativa que utilizó para dar fe de su uso al final de un informe de revisión por pares (en comentarios a los autores), como por ejemplo: "Realicé esta revisión con la ayuda de [Nombre del producto, Versión, de Nombre de la empresa, Año] .”
- Describir en detalle cómo utilizó la IA para respaldar la generación de revisiones por pares (en comentarios confidenciales al editor). La descripción debe incluir las referencias que apoyan la versión razonada por el revisor, acerca del contenido generado por la IA.
- Ser responsable del contenido de los comentarios de revisión generados por IA. La calidad y el contenido de la revisión por pares cumplen con los estándares recomendados en las políticas de Publicaciones
- Denunciar la participación o el uso indebido de IA generativa.
Casa editorial
La normativa sobre el uso de IA debe revisarse y actualizarse periódicamente para reflejar los avances tecnológicos, y las nuevas consideraciones éticas y legales sobre el uso responsable de IA en la revisión y edición de artículos científicos. Complementando el proceso de revisión por pares, todos los artículos serán sometidos a un análisis de similitud textual y uso IA a través de Turnitin.
No existe aún indicadores claros que limiten la cantidad de uso de herramientas generativas de inteligencia artificial (IA) en los procesos de producción y revisión de manuscritos científicos. Sin embargo, la decisión de aceptar o rechazar artículos científicos donde se evidencia el uso de IA, se tomará en base a los siguientes criterios:
- La discusión crítica y argumentada realizada por expertos humanos debe prevalecer sobre cualquier contenido generado por IA en los manuscritos científicos.
- La credibilidad y la calidad de los manuscritos enviados para su publicación, incluso aquellos que han utilizado herramientas de IA en su elaboración, deben mantenerse como la máxima prioridad.
La evaluación se centrará en el valor científico del trabajo, independientemente de las herramientas utilizadas. En tal sentido, el Comité Editorial de la revista EASI tomará como guía los siguientes rangos para la aceptación o rechazo de los manuscritos que usen IA:
Rango bajo (0-15%): Generalmente se considera que el contenido es original y aceptable. En este caso, es posible que no se requieran medidas adicionales para validar el contenido extraído por la IA. La cantidad de autores permitidos es menor o igual a cinco.
Rango moderado (16% -50%): en este rango, la aceptación queda sujeta a la inclusión de una sección en la metodología que aborde cómo validaron y verificaron la originalidad del contenido extraído por la herramienta de IA. Pueden describir métodos específicos utilizados para confirmar la validez y originalidad de los resultados, incluyendo la verificación y citación de las fuentes que respalden las declaraciones de la herramienta IA utilizada.
Si el análisis de detección de texto generado IA en el manuscrito es superior al 50%, éste queda automáticamente descartado.
Referencias:
- Leung TI, de Azevedo Cardoso T, Mavragani A, Eysenbach G. Best Practices for Using AI Tools as an Author, Peer Reviewer, or Editor. J Med Internet Res. 2023 Aug 31;25:e51584. doi: 10.2196/51584. PMID: 37651164; PMCID: PMC10502596.
- Marušić A. JoGH policy on the use of artificial intelligence in scholarly manuscripts. J Glob Health. 2023 Feb 3;13:01002. doi: 10.7189/jogh.13.01002. PMID: 36730184; PMCID: PMC9894504.
- Tiedrich, L. (2024). Editorial. Journal of AI Law and Regulation, 1(1). Retrieved from https://doi.org/10.21552/aire/2024/1/3
- The Use of Artificial Intelligence in Writing Scientific Review Articles. (2023, April 27). The Use of Artificial Intelligence in Writing Scientific Review Articles. Current Osteoporosis Reports. https://doi.org/10.1007/s11914-023-00852-0
- OpenAI (2024). Copilot (versión del 27 de abril de 2024) [Modelo de lenguaje grande]. https://copilot.microsoft.com/?showconv=1
- OpenAI (2024). Gemini (versión del 24 de mayo) [Modelo de lenguaje grande]. https://gemini.google.com/app