La comisión de integridad de STM trabaja para salvaguardar la integridad en el campo de la ciencia desde la acción de editoriales que trabajan en la misma dirección, compartiendo datos y experiencias con el propósito compartido de investigar desde el respeto a la legalidad y la ética.
Con vistas a fomentar una cultura de uso ético y responsable de la IA, STM (2023) expone la importancia de mantener especial vigilancia en aspectos que puedan afectar a derechos de autor, privacidad, confidencialidad y ética. Partiendo de esta perspectiva ética, lanza las siguientes directrices:
-Se permite utilizar AI generativa procedente de plataformas de uso público para editar y corregir textos.
–No se permite crear, alterar o manipular imágenes, datos o resultados de la investigación.
–En ningún caso puede acreditarse una herramienta de IA como autora de un trabajo.
–Se insta a las personas autoras a informar sobre cualquier otro uso para que la revista de referencia pueda decidir sobre su publicación.
–Antes de cargar texto y otra información a una plataforma de IA, han de tenerse en consideración sus implicaciones en materia de derechos de autor, privacidad y confidencialidad. Puede haber infracciones si, por ejemplo, se proporciona a una IA contenido protegido por derechos de autor o si esta obra se traduce.
–Respecto al punto anterior, hay que tener en cuenta que las herramientas de IA de acceso público podrían reutilizar todo ese material para su propio entrenamiento y, consecuentemente, proporcionarlo a otras personas usuarias sin informar debidamente o infringiendo las normas de licencia.
–Para minimizar los riesgos anteriores, las personas autoras pueden obtener los derechos necesarios, utilizar una IA que garantice la confidencialidad o anonimizar sus datos antes de introducirlos. En caso contrario, se recomienda emplear fórmulas alternativas.
–Por último, se subraya que la integridad del contenido de un artículo, incluso si este es generado por IA, es responsabilidad del autor.
Entre los principios rectores que se mencionan en relación con la buena praxis, los más frecuentes son exactitud (rigor) y transparencia. También se hace referencia a términos como responsabilidad, para subrayar que esta solamente es atribuible a las personas autoras, y la consecuente recomendación de que quienes elaboran el artículo verifiquen todos los datos proporcionados por la IA y eviten el plagio. También se hacen indicaciones para proteger la seguridad y la confidencialidad.
En cuanto a las recomendaciones de uso, se parte de un reconocimiento generalizado de que la IA generativa puede incrementar la productividad y favorecer la innovación si se usa de forma apropiada, como se ha indicado antes. Sin embargo, todas las editoriales aclaran que la inteligencia artificial debe ser considerada, a todos los efectos, como una herramienta de investigación, semejante a cualquier programa de software, y en ningún caso podrá figurar como autora o coautora, puesto que no puede atribuírsele iniciativa ni responsabilidad. Se expresa que las herramientas de IA no pueden dar inicio a una nueva investigación si no es a instancias de humanos que conciban y promuevan su puesta en marcha.
Otro aspecto muy común es la advertencia de que no se emplee IA generativa para crear, alterar, tergiversar o falsificar datos y resultados, que, como en cualquier investigación científica, deberán ser reproducibles. Casi de forma unánime, se prohíbe terminantemente la manipulación de imágenes y figuras y, en el caso de textos elaborados con IA, que se admiten o no dependiendo de la editorial, se insta a las personas autoras a revisar todo el contenido y explicar cómo se ha verificado el producto generado por la IA.
En lo que se refiere a seguridad, se advierte sobre la importancia de mantener la confidencialidad y la privacidad, por lo que se encarga a las personas autoras que no pongan ningún tipo de datos privados a disposición de la IA, especialmente en casos clínicos. También se indica a los revisores que no empleen la IA para hacer sus trabajos.
También se establece la obligatoriedad de indicar, describir y justificar, de forma transparente y detallada, el uso de IA en los apartados de Metodología o Reconocimientos.
Por último, entre la información adicional recogida, se recomienda guardar registro de todas las conversaciones mantenidas con la IA.
Las grandes editoriales han integrado la IA como una herramienta válida para la realización de investigaciones de la que se valora su capacidad para multiplicar la productividad. Se aprenda a manejarla de forma correcta, bajo una regulación adecuada, para aprovechar sus potencialidades sin sobrepasar los límites de la ética.
Publicaciones de la ACS reconoce la gran variedad de herramientas de IA disponibles, y nuestra política está diseñada para guiar su uso responsable, manteniendo la integridad y la excelencia de la publicación científica en las revistas de la ACS. Los autores que utilicen herramientas de IA deben usarlas de forma transparente y ética, de acuerdo con las Directrices Éticas de la ACS para la Publicación de Investigación Química y siguiendo las mejores prácticas y políticas que se detallan a continuación. Los autores son responsables de todo el contenido enviado, incluyendo la precisión del contenido generado por IA, así como de citar el material relacionado según corresponda.
Transparencia
Todo uso de herramientas de IA debe detallarse en el envío. Como se indica en las Directrices para Autores de cada revista: «El uso de herramientas de IA para la generación de texto o imágenes debe detallarse en la sección de Agradecimientos del manuscrito, con una descripción de cuándo y cómo se utilizaron. Para casos de uso más sustanciales o descripciones del uso de herramientas de IA, los autores deben proporcionar detalles completos en la sección de Métodos u otra sección pertinente del manuscrito».
Paternidad literaria
Las herramientas de IA no cumplen los requisitos de autoría, ya que no pueden asumir la responsabilidad del trabajo publicado. Por lo tanto, no deben incluirse en la lista de autoría. En su lugar, deben reconocerse y mencionarse de forma transparente (como se describió anteriormente).
Gráficos
Como se indica en las Directrices para Autores de cada revista: «El uso de herramientas de IA para la generación de texto o imágenes debe detallarse en el manuscrito, en la sección de Agradecimientos, con una descripción de cuándo y cómo se utilizaron. Para casos de uso más sustanciales o descripciones del uso de herramientas de IA, los autores deben proporcionar detalles completos en la sección de Métodos u otra sección pertinente del manuscrito». En el caso de los gráficos, se debe incluir una breve descripción del uso de la IA en el pie de figura para explicar a los lectores cómo se creó la imagen.
Portadas de revistas: Se permite el uso de herramientas de IA para la generación de imágenes en portadas, pero debe indicarse en el pie de foto que se envía junto con el archivo. Por favor, indique la(s) herramienta(s) específica(s) utilizada(s) e incluya una breve descripción de cómo se usaron. Los autores son responsables de garantizar que las condiciones de uso de todas las herramientas permitan el uso comercial y que el resultado no sea propiedad del sitio web que las generó. Si tiene alguna pregunta sobre la idoneidad de alguna herramienta para las portadas de las revistas de ACS, envíe el nombre de la herramienta y un enlace a sus condiciones de uso a ACSPubsMultimedia@acs.org .
Gráficos de tabla de contenido (TdC) : las imágenes generadas por IA no se deben usar dentro de gráficos de tabla de contenido (TdC), ya que no tienen títulos inmediatamente adyacentes a la imagen donde se pueda explicar de manera transparente el uso de IA.
Discreción editorial
El editor podrá, a su discreción, determinar que el uso de IA en un envío determinado es excesivo, incluyendo (sin limitarse a ello) el uso de herramientas de IA para generar comentarios sustanciales o revisiones bibliográficas exhaustivas. Esta determinación podrá resultar en el rechazo del manuscrito o en una solicitud de revisión para eliminar o reducir las partes generadas por IA.
Uso de IA como revisor por pares
Las revistas de ACS Publications solicitan la opinión experta de los revisores consultados y esperan que estas opiniones sean exclusivamente del revisor (con las excepciones ocasionales señaladas en las Directrices Éticas de la ACS para la Publicación de Investigación Química ). Además, servicios de terceros, como las herramientas de IA, pueden almacenar o utilizar cualquier información proporcionada como estímulo para generar textos futuros, lo que podría resultar en una violación de la confidencialidad del proceso de revisión por pares. Como se establece en las Directrices Éticas de la ACS para la Publicación de Investigación Química , «Un revisor debe tratar tanto el manuscrito como los datos recibidos de la revista, su informe de revisión y la correspondencia relacionada, como confidenciales». Revelar cualquier parte del envío o el propio informe de revisión por pares a un servicio de generación de textos (o cualquier otra herramienta de terceros) constituye una violación de esta confidencialidad y, por lo tanto, una violación de las Directrices Éticas de la ACS.
Contribuciones de la IA al contenido de la investigación
El uso de la IA debe declararse y explicarse claramenteen publicaciones como artículos de investigación, tal como esperamos que los académicos lo hagan con otro software, herramientas y metodologías.
La IA no cumple los requisitos de Cambridge para la autoríaDada la necesidad de rendición de cuentas, las herramientas de IA y LLM no pueden figurar como autores en ningún trabajo académico publicado por Cambridge.
Los autores son responsablespor la exactitud, integridad y originalidad de sus artículos de investigación, incluido cualquier uso de IA.
Cualquier uso de IA no debe infringir la política de plagio de Cambridge.Los trabajos académicos deben ser propios del autor y no presentar ideas, datos, palabras u otros materiales de otros sin una cita adecuada y una referencia transparente.
Tenga en cuenta que cada revista puede tener requisitos o pautas más específicos para cumplir con esta política.
Estas políticas se han impulsado por el auge de la IA generativa* y las tecnologías asistidas por IA, cuyo uso se prevé cada vez mayor por parte de los creadores de contenido. Estas políticas buscan brindar mayor transparencia y orientación a autores, revisores, editores, lectores y colaboradores. Elsevier supervisará este desarrollo y ajustará o perfeccionará las políticas cuando corresponda.
Para autores
El uso de IA generativa y tecnologías asistidas por IA en la escritura científica
Tenga en cuenta que esta política solo se refiere al proceso de redacción y no al uso de herramientas de inteligencia artificial para analizar y extraer información de los datos como parte del proceso de investigación.
Cuando los autores utilizan IA generativa y tecnologías asistidas por IA en el proceso de escritura, estas tecnologías solo deben emplearse para mejorar la legibilidad y el lenguaje de la obra. La aplicación de la tecnología debe realizarse bajo supervisión y control humano, y los autores deben revisar y editar cuidadosamente el resultado, ya que la IA puede generar un resultado que parezca fiable, pero que puede ser incorrecto, incompleto o sesgado. Los autores son, en última instancia, responsables del contenido de la obra.
Los autores deben divulgar en su manuscrito el uso de IA y tecnologías asistidas por IA, y se incluirá una declaración al respecto en el trabajo publicado. Declarar el uso de estas tecnologías fomenta la transparencia y la confianza entre autores, lectores, revisores, editores y colaboradores, y facilita el cumplimiento de las condiciones de uso de la herramienta o tecnología pertinente.
Los autores no deben mencionar la IA ni las tecnologías asistidas por IA como autor o coautor, ni citar la IA como autor. La autoría implica responsabilidades y tareas que solo pueden atribuirse y realizarse por personas. Cada (co)autor es responsable de garantizar que las cuestiones relacionadas con la precisión o integridad de cualquier parte del trabajo se investiguen y resuelvan adecuadamente. La autoría implica la capacidad de aprobar la versión final del trabajo y aceptar su envío. Los autores también son responsables de garantizar que el trabajo sea original, que los autores mencionados cumplan los requisitos para la autoría y que no infrinja derechos de terceros. Deben familiarizarse con nuestra política de Ética en la Publicación antes de enviarlo.
En figuras, imágenes y obras de arte
El uso de IA generativa y herramientas asistidas por IA en figuras, imágenes y obras de arte.
No permitimos el uso de IA generativa ni herramientas asistidas por IA para crear o modificar imágenes en los manuscritos enviados. Esto puede incluir mejorar, oscurecer, mover, eliminar o añadir una característica específica a una imagen o figura. Se permiten ajustes de brillo, contraste o balance de color siempre que no oculten ni eliminen ninguna información presente en el original. Se podrán aplicar herramientas de análisis forense de imágenes o software especializado a los manuscritos enviados para identificar posibles irregularidades en las imágenes.
La única excepción es si el uso de IA o herramientas asistidas por IA forma parte del diseño o los métodos de investigación (como en los enfoques de imágenes asistidas por IA para generar o interpretar los datos de investigación subyacentes, por ejemplo, en el campo de las imágenes biomédicas). En tal caso, dicho uso debe describirse de forma reproducible en la sección de métodos. Esto debe incluir una explicación de cómo se utilizaron la IA o las herramientas asistidas por IA en el proceso de creación o alteración de la imagen, así como el nombre del modelo o herramienta, los números de versión y extensión, y el fabricante. Los autores deben adherirse a las políticas de uso específicas del software de IA y garantizar la correcta atribución del contenido. Cuando corresponda, se podría solicitar a los autores que proporcionen versiones de las imágenes previamente ajustadas por IA o las imágenes sin procesar compuestas utilizadas para crear las versiones finales presentadas, para su evaluación editorial.
No se permite el uso de IA generativa ni de herramientas asistidas por IA en la producción de ilustraciones, como resúmenes gráficos. En algunos casos, se permite el uso de IA generativa en la producción de portadas, siempre que el autor obtenga la autorización previa del editor y la editorial de la revista, demuestre que ha obtenido todos los derechos necesarios para el uso del material pertinente y garantice la correcta atribución del contenido.
Consulte las políticas de autores de IA generativa de Elsevier para libros.
Para los revisores
El uso de IA generativa y tecnologías asistidas por IA en el proceso de revisión por pares de revistas
Cuando un investigador es invitado a revisar el artículo de otro investigador, el manuscrito debe tratarse como documento confidencial. Los revisores no deben cargar un manuscrito enviado, ni parte del mismo, en una herramienta de IA generativa, ya que esto podría violar la confidencialidad y los derechos de propiedad de los autores y, si el artículo contiene información personal identificable, podría infringir el derecho a la privacidad de los datos.
Este requisito de confidencialidad se extiende al informe de revisión por pares, ya que puede contener información confidencial sobre el manuscrito o los autores. Por esta razón, los revisores no deben subir su informe de revisión por pares a una herramienta de IA, ni siquiera con el único fin de mejorar el lenguaje y la legibilidad.
La revisión por pares es fundamental en el ecosistema científico y Elsevier se rige por los más altos estándares de integridad en este proceso. Revisar un manuscrito científico implica responsabilidades que solo pueden atribuirse a humanos. Los revisores no deben utilizar IA generativa ni tecnologías asistidas por IA para asistir en la revisión científica de un artículo, ya que el pensamiento crítico y la evaluación original necesarios para la revisión por pares quedan fuera del alcance de esta tecnología y existe el riesgo de que genere conclusiones incorrectas, incompletas o sesgadas sobre el manuscrito. El revisor es responsable del contenido del informe de revisión.
La política de autores de IA de Elsevier establece que los autores pueden usar IA generativa y tecnologías asistidas por IA en el proceso de escritura antes del envío, pero solo para mejorar el lenguaje y la legibilidad de su artículo y con la divulgación adecuada, según nuestras instrucciones en la Guía para autores de Elsevier. se abre en una nueva pestaña/ventanaLos revisores pueden encontrar dicha divulgación al final del artículo, en una sección separada, antes de la lista de referencias.
Tenga en cuenta que Elsevier posee tecnologías asistidas por IA con protección de identidad que cumplen con los Principios de IA responsable de RELX. se abre en una nueva pestaña/ventana, como las utilizadas durante el proceso de selección para realizar comprobaciones de integridad y plagio, e identificar revisores idóneos. Estas tecnologías, propias o con licencia, respetan la confidencialidad del autor. Nuestros programas se someten a una rigurosa evaluación de sesgo y cumplen con los requisitos de privacidad y seguridad de datos.
Elsevier adopta nuevas tecnologías impulsadas por inteligencia artificial que respaldan a los revisores y editores en el proceso editorial, y continuamos desarrollando y adoptando tecnologías internas o autorizadas que respetan la confidencialidad y los derechos de privacidad de los datos de los autores, revisores y editores.
Consulte las políticas de revisión de inteligencia artificial generativa de Elsevier para libros.
Para editores
El uso de IA generativa y tecnologías asistidas por IA en el proceso editorial de revistas
Un manuscrito enviado debe tratarse como documento confidencial. Los editores no deben cargar un manuscrito enviado, ni parte del mismo, en una herramienta de IA generativa, ya que esto podría violar la confidencialidad y los derechos de propiedad de los autores y, si el artículo contiene información personal identificable, podría infringir el derecho a la privacidad de los datos.
Este requisito de confidencialidad se extiende a toda la comunicación sobre el manuscrito, incluyendo cualquier notificación o carta de decisión, ya que pueden contener información confidencial sobre el manuscrito o los autores. Por esta razón, los editores no deben subir sus cartas a una herramienta de IA, ni siquiera con el único fin de mejorar el lenguaje y la legibilidad.
La revisión por pares es fundamental en el ecosistema científico y Elsevier se rige por los más altos estándares de integridad en este proceso. Gestionar la evaluación editorial de un manuscrito científico implica responsabilidades que solo pueden atribuirse a humanos. Los editores no deben utilizar IA generativa ni tecnologías asistidas por IA para asistir en la evaluación o la toma de decisiones de un manuscrito, ya que el pensamiento crítico y la evaluación original necesarios para este trabajo quedan fuera del alcance de esta tecnología y existe el riesgo de que genere conclusiones incorrectas, incompletas o sesgadas sobre el manuscrito. El editor es responsable del proceso editorial, la decisión final y su comunicación a los autores.
La política de autores de IA de Elsevier establece que los autores pueden usar IA generativa y tecnologías asistidas por IA en el proceso de escritura antes del envío, pero solo para mejorar el lenguaje y la legibilidad de su artículo y con la divulgación adecuada, según nuestras instrucciones en la Guía para autores de Elsevier. se abre en una nueva pestaña/ventanaLos editores pueden encontrar dicha información al final del artículo, en una sección aparte, antes de la lista de referencias. Si un editor sospecha que un autor o revisor ha infringido nuestras políticas de IA, debe informar a la editorial.
Tenga en cuenta que Elsevier posee tecnologías asistidas por IA con protección de identidad que cumplen con los Principios de IA responsable de RELX. se abre en una nueva pestaña/ventana, como las utilizadas durante el proceso de selección para realizar comprobaciones de integridad y plagio, e identificar revisores idóneos. Estas tecnologías, propias o con licencia, respetan la confidencialidad del autor. Nuestros programas se someten a una rigurosa evaluación de sesgo y cumplen con los requisitos de privacidad y seguridad de datos.
Elsevier adopta nuevas tecnologías impulsadas por inteligencia artificial que respaldan a los revisores y editores en el proceso editorial, y continuamos desarrollando y adoptando tecnologías internas o autorizadas que respetan la confidencialidad y los derechos de privacidad de los datos de los autores, revisores y editores.
Consulte las políticas del editor de inteligencia artificial generativa de Elsevier para libros .
*La IA generativa es un tipo de tecnología de inteligencia artificial que puede producir diversos tipos de contenido, como texto, imágenes, audio y datos sintéticos. Algunos ejemplos son ChatGPT, NovelAI, Jasper AI, Rytr AI, DALL-E, etc.
El lanzamiento de la herramienta ChatGPT por parte de OpenAI en San Francisco, hacia fines de 2022, ha estimulado una ola de participación en toda la sociedad, con un espectro de casos de uso emergentes, tanto positivos como potencialmente nefastos.
Ya existe una gama de aplicaciones de IA en uso dentro del sector de investigación y publicación, que incluyen, entre otras, la edición de idiomas, la detección de posibles problemas de integridad en la investigación, la simulación de ensayos de estudiantes, los resúmenes de artículos de investigación y el uso de herramientas de IA como asistentes de investigación de facto .
Existe una comprensible preocupación entre instituciones académicas, investigadores, editores académicos y editoriales ante la posibilidad de que individuos o grupos intenten presentar trabajos generados con IA como investigaciones originales propias, lo que también resulta en resultados incompletos y poco fiables. Ante estos avances, el sector editorial está impulsando políticas y directrices relacionadas con el uso de herramientas de IA en el proceso de creación y publicación. Si bien es probable que los estándares de la industria se consoliden en los próximos meses, Emerald está adoptando el siguiente enfoque, como parte de una breve observación sobre los avances en el cambiante campo de la IA.
En primer lugar, dado que estas herramientas no pueden responsabilizarse de dicho trabajo, no se puede atribuir la autoría de ninguna publicación de Emerald a las herramientas de IA ni a los grandes modelos lingüísticos . En segundo lugar, cualquier uso de herramientas de IA en el desarrollo de una publicación de Emerald debe ser señalado por el autor o los autores en el artículo, capítulo o caso práctico . Emerald está actualizando sus recomendaciones para autores y editores en consecuencia, y estas políticas entran en vigor de inmediato.
Específicamente, como esas herramientas no pueden responsabilizarse del trabajo generado ni ser responsables de ese contenido, no se les puede atribuir la autoría de ninguna publicación de Emerald, y el uso de herramientas de IA generativa dentro del desarrollo de una publicación de Emerald debe ser marcado por el autor o los autores dentro del artículo, estudio de caso o capítulo, así como en el momento del envío.
Desde entonces, Emerald ha desarrollado y actualizado sus políticas sobre el uso de herramientas de IA y modelos de lenguaje grandes con respecto tanto a la creación de contenido académico como al proceso de revisión por pares. Como tal, para mantener la confianza en la integridad del registro publicado, Emerald no permite el uso de herramientas de IA o modelos de lenguaje grandes para ayudar en el proceso de revisión, evaluación o toma de decisiones de ninguna parte de un artículo, estudio de caso o capítulo por parte de un miembro del equipo editorial de una revista o un revisor, de acuerdo con los principios de revisión por pares de Emerald . La responsabilidad por el trabajo creado y la rendición de cuentas por su precisión, integridad y validez, en consonancia con nuestros criterios de autoría , dirige además la posición de Emerald con respecto a no permitir la redacción y creación de ninguna parte de un artículo, estudio de caso o capítulo a través de una herramienta de IA o un modelo de lenguaje grande. Sin embargo, se permite la edición de un artículo de esta manera para mejorar su lenguaje y legibilidad, ya que se basan en herramientas estándar ya empleadas para mejorar la ortografía y la gramática, y se utiliza material existente creado por el autor, en lugar de generar contenido completamente nuevo, siendo el autor o los autores responsables del trabajo original. Emerald tampoco permite el envío ni la publicación de imágenes creadas con herramientas de inteligencia artificial o modelos generativos a gran escala. Puede encontrar más información sobre estas políticas en la Ética de Publicación de Emerald , que debe utilizarse junto con las demás directrices que allí se incluyen.
Como editorial comprometida con la integridad y la transparencia, reconocemos que existe un lugar para el uso responsable de las herramientas de IA que apoyan los flujos de trabajo editoriales y de publicación, sin perjudicar los procesos fundamentales que las sustentan ni afectar la calidad del contenido de investigación. Emerald reconoce una vez más que este ámbito seguirá evolucionando a buen ritmo dentro del sector, y supervisaremos estos avances para garantizar que nuestro uso, junto con nuestras directrices y políticas, siga reflejando los estándares de buenas prácticas de la industria, de modo que nuestras publicaciones mantengan su compromiso con un contenido académico confiable y de alta calidad, y que nuestras prácticas y flujos de trabajo sean transparentes para nuestros autores y lectores.
Directrices para el texto generado por inteligencia artificial (IA)
El uso de contenido generado por inteligencia artificial (IA) en un artículo (incluyendo, entre otros, texto, figuras, imágenes y código) deberá divulgarse en la sección de agradecimientos de cualquier artículo enviado a una publicación del IEEE. Se identificará el sistema de IA utilizado, así como las secciones específicas del artículo que utilicen contenido generado por IA, acompañadas de una breve explicación sobre el nivel de uso del sistema de IA para generar el contenido.
El uso de sistemas de IA para la edición y la mejora gramatical es una práctica común y, por lo tanto, generalmente queda fuera del alcance de la política mencionada. En este caso, se recomienda la divulgación, como se indicó anteriormente.
Herramientas de IA generativa
IOP Publishing se adhiere a la postura del Comité de Ética de Publicaciones (COPE) de que las herramientas de IA no pueden cumplir con los requisitos de autoría, ya que no pueden responsabilizarse del trabajo presentado. Como entidades sin personalidad jurídica, no pueden declarar la existencia o ausencia de conflictos de intereses ni gestionar acuerdos de derechos de autor y licencias.
Existen numerosos usos responsables y apropiados de la IA generativa en la investigación académica, y apoyamos a los autores que la utilicen de esta manera. Al hacerlo, se les anima a ser transparentes sobre el uso de cualquier herramienta de IA generativa, ya sea en la investigación o en la redacción del manuscrito. También se les anima a mantener registros de los borradores anteriores, así como de las indicaciones utilizadas en la edición o generación del material de su manuscrito.
Los autores son responsables de garantizar que todo el contenido escrito o visual producido o editado mediante tecnología de IA generativa cumpla con todas las directrices y políticas de IOP Publishing. Todo el contenido generado por IA debe revisarse para garantizar su precisión y estar libre de plagio. Las herramientas de IA generativa no pueden utilizarse para crear, alterar ni manipular datos y resultados de investigación originales, como borrones o mediciones. Cualquier herramienta de IA generativa utilizada para crear figuras a partir de datos, como gráficos o tablas, debe indicarse en el pie de figura.
En los casos en que se haya generado texto en un manuscrito, los autores deben asegurarse de haber revisado críticamente este trabajo en busca de contenido intelectual importante para cumplir con los criterios de autoría seguidos por IOP Publishing y establecidos por el Consejo Internacional de Editores de Revistas Médicas (ICMJE).
MDPI reconoce las oportunidades y los desafíos que presenta el rápido desarrollo de la Inteligencia Artificial Generativa (GenAI), como ChatGPT y otros grandes modelos lingüísticos (LLM) para la publicación académica. Con el fin de brindar transparencia a la comunidad académica, MDPI ha desarrollado las siguientes políticas basadas en la orientación general de STM y la declaración de posición del Comité de Ética de Publicaciones (COPE) .
Preparación del manuscrito
Cuando se haya utilizado GenAI para fines como la generación de texto, datos, gráficos, el diseño de estudios o la recopilación, análisis o interpretación de datos, los autores deberán declararlo durante el proceso de envío. Además, para mayor transparencia, deberán divulgar detalles sobre el uso de la herramienta GenAI en la sección "Materiales y métodos" y proporcionar los detalles del producto en la sección "Agradecimientos".
Declaración de agradecimiento recomendada:
« Durante la preparación de este manuscrito/estudio, el/los autor(es) utilizaron [ nombre de la herramienta, información de la versión ] para [ descripción del uso ]. Los autores han revisado y editado el resultado y asumen plena responsabilidad por el contenido de esta publicación». |
El uso de las herramientas GenAI con fines de edición de texto (por ejemplo, gramática, estructura, ortografía, puntuación y formato) no está cubierto por esta política y no es necesario declararlo.
Los autores son totalmente responsables de la originalidad, validez e integridad del contenido de su manuscrito, incluido cualquier material aportado por las herramientas GenAI, y deben garantizar, mediante una revisión cuidadosa, que este contenido cumpla con todas las políticas de ética de publicación de MDPI, incluidas, entre otras, plagio, fabricación de datos y manipulación de imágenes y propiedad intelectual.
MDPI se reserva el derecho de solicitar más información y las decisiones editoriales se tomarán de acuerdo con el Proceso editorial y los Términos y condiciones de MDPI.
Paternidad literaria
Las herramientas GenAI y otros grandes modelos de lenguaje (LLM) no pueden figurar como autores. Estas herramientas no cumplen los requisitos de autoría de MDPI .
Uso de GenAI por parte de los revisores
Los revisores no deben utilizar las herramientas GenAI ni otros grandes modelos de lenguaje (LLM) en la preparación de informes de revisión. Los revisores son los únicos responsables del contenido de sus informes, y el uso de estas herramientas puede violar los derechos de confidencialidad, propiedad y privacidad de datos. Se puede aceptar algún uso limitado para mejorar la calidad escrita del informe de revisión por pares, como la revisión gramatical, la estructura, la ortografía, la puntuación y el formato, pero debe informarse al enviar el informe. Bajo ninguna circunstancia los revisores deben cargar manuscritos, ya sea en su totalidad o en parte; imágenes; figuras; tablas; o cualquier tipo de comunicación relacionada con los manuscritos en revisión a ninguna herramienta GenAI, ya que hacerlo viola la política de confidencialidad de MDPI relacionada con la revisión por pares. Si se determina que las herramientas de IA se han utilizado inapropiadamente en la preparación del informe de revisión, el informe será descartado.
Uso de GenAI en la toma de decisiones editoriales
Los editores académicos (editores jefes, miembros del consejo editorial y editores invitados) desempeñan un papel esencial en la revisión por pares para garantizar la integridad y el rigor del proceso. Dada esta importante responsabilidad, no deben utilizar las herramientas GenAI durante la revisión editorial ni en el proceso de toma de decisiones. Bajo ninguna circunstancia deben subir manuscritos, ya sea total o parcialmente; imágenes; figuras; tablas; ni ningún tipo de comunicación relacionada con los manuscritos en revisión a las herramientas GenAI, ya que hacerlo viola la política de confidencialidad de MDPI en materia de revisión por pares.
Springer Nature está siguiendo de cerca los avances en esta área y revisará (y actualizará) estas políticas según corresponda.
Autoría de IA
Los Modelos de Lenguaje de Gran Tamaño (LLM), como ChatGPT, no cumplen actualmente nuestros criterios de autoría. Cabe destacar que la atribución de autoría conlleva la responsabilidad del trabajo, lo cual no se puede aplicar eficazmente a los LLM. El uso de un LLM debe documentarse adecuadamente en la sección de Métodos (y, si no se dispone de una sección de Métodos, en una sección alternativa adecuada) del manuscrito. No es necesario declarar el uso de un LLM (u otra herramienta de IA) para la "edición de textos asistida por IA". En este contexto, definimos el término "edición de textos asistida por IA" como las mejoras asistidas por IA en textos generados por personas para mejorar la legibilidad y el estilo, y para garantizar que los textos estén libres de errores gramaticales, ortográficos, de puntuación y de tono. Estas mejoras asistidas por IA pueden incluir cambios de redacción y formato en los textos, pero no incluyen el trabajo editorial generativo ni la creación autónoma de contenido. En todos los casos, debe existir responsabilidad humana por la versión final del texto y el acuerdo de los autores de que las ediciones reflejan su trabajo original.
Imágenes de IA generativas
El rápido desarrollo de la creación de imágenes con IA generativa ha generado nuevos problemas legales de derechos de autor e integridad en la investigación. Como editores, cumplimos estrictamente con la legislación vigente en materia de derechos de autor y las mejores prácticas en materia de ética de publicación. Si bien los problemas legales relacionados con las imágenes y los vídeos generados por IA siguen sin resolverse, las revistas Springer Nature no pueden permitir su uso para publicaciones.
Excepciones:
Imágenes/arte obtenido de agencias con las que tenemos relaciones contractuales y que han creado imágenes de una manera legalmente aceptable.
Las imágenes y los vídeos a los que se hace referencia directa en un artículo que trata específicamente sobre IA y dichos casos se revisarán caso por caso.
El uso de herramientas de IA generativa desarrolladas con conjuntos específicos de datos científicos subyacentes que pueden atribuirse, comprobarse y verificarse para garantizar su precisión, siempre que se respeten las restricciones éticas, de derechos de autor y de términos de uso.
*Todas las excepciones deben estar etiquetadas claramente como generadas por IA dentro del campo de la imagen.
Como esperamos que las cosas evolucionen rápidamente en este campo en el futuro cercano, revisaremos esta política periódicamente y la adaptaremos si es necesario.
Nota: No todas las herramientas de IA son generativas. El uso de herramientas de aprendizaje automático no generativas para manipular, combinar o mejorar imágenes o figuras existentes debe indicarse en el pie de foto correspondiente al enviar el trabajo para permitir una revisión individual.
Uso de IA por parte de revisores pares
Los revisores pares desempeñan un papel vital en la publicación científica. Sus evaluaciones y recomendaciones expertas guían a los editores en sus decisiones y garantizan que la investigación publicada sea válida, rigurosa y creíble. Los editores seleccionan a los revisores pares principalmente por su profundo conocimiento del tema o los métodos del trabajo que se les pide que evalúen. Esta experiencia es invaluable e irremplazable. Los revisores pares son responsables de la precisión y las opiniones expresadas en sus informes, y el proceso de revisión por pares se basa en un principio de confianza mutua entre autores, revisores y editores. A pesar del rápido progreso, las herramientas de IA generativa tienen limitaciones considerables: pueden carecer de conocimiento actualizado y pueden producir información sin sentido, sesgada o falsa. Los manuscritos también pueden incluir información sensible o de propiedad exclusiva que no debe compartirse fuera del proceso de revisión por pares. Por estas razones, solicitamos que, mientras Springer Nature explora proporcionar a nuestros revisores pares acceso a herramientas de IA seguras, los revisores pares no carguen manuscritos en herramientas de IA generativa.
Si alguna parte de la evaluación de las afirmaciones realizadas en el manuscrito fue respaldada de alguna manera por una herramienta de IA, solicitamos a los revisores pares que declaren el uso de dichas herramientas de forma transparente en el informe de revisión por pares.
RSC (Royal Society of Chemistry)
Las herramientas de inteligencia artificial (IA), como ChatGPT u otros Modelos de Lenguaje Grandes (LLM), no pueden figurar como autores en un trabajo enviado. Estas herramientas no cumplen los criterios para ser consideradas autorías, ya que no pueden asumir la responsabilidad del trabajo, no pueden autorizar su publicación ni gestionar los derechos de autor, las licencias u otras obligaciones legales, ni comprender los conflictos de intereses. Cualquier uso de herramientas de IA en la producción de cualquier parte del manuscrito debe describirse claramente en la sección Experimental o de Agradecimientos. Los autores son plenamente responsables del contenido de su artículo, incluyendo cualquier parte producida por una herramienta de IA.
Springer Nature está siguiendo de cerca los avances en esta área y revisará (y actualizará) estas políticas según corresponda.
Autoría de IA
Los Modelos de Lenguaje de Gran Tamaño (LLM), como ChatGPT, no cumplen actualmente nuestros criterios de autoría (enlace a la política editorial del pie de imprenta). Cabe destacar que la atribución de autoría conlleva la responsabilidad del trabajo, lo cual no se puede aplicar eficazmente a los LLM. El uso de un LLM debe documentarse adecuadamente en la sección de Métodos (y, si no se dispone de una sección de Métodos, en una sección alternativa adecuada) del manuscrito. No es necesario declarar el uso de un LLM (u otra herramienta de IA) para la "edición de textos asistida por IA". En este contexto, definimos el término "edición de textos asistida por IA" como las mejoras asistidas por IA en textos generados por humanos para mejorar la legibilidad y el estilo, y para garantizar que los textos estén libres de errores gramaticales, ortográficos, de puntuación y de tono. Estas mejoras asistidas por IA pueden incluir cambios de redacción y formato en los textos, pero no incluyen el trabajo editorial generativo ni la creación autónoma de contenido. En todos los casos, debe haber responsabilidad humana por la versión final del texto y el acuerdo de los autores de que las ediciones reflejan su trabajo original.
Imágenes de IA generativas
El rápido desarrollo de la creación de imágenes con IA generativa ha generado nuevos problemas legales de derechos de autor e integridad en la investigación. Como editores, cumplimos estrictamente con la legislación vigente en materia de derechos de autor y las mejores prácticas en materia de ética de publicación. Si bien los problemas legales relacionados con las imágenes y los vídeos generados por IA siguen sin resolverse, las revistas Springer Nature no pueden permitir su uso para publicaciones.
Excepciones:
Imágenes/arte obtenido de agencias con las que tenemos relaciones contractuales y que han creado imágenes de una manera legalmente aceptable.
Las imágenes y los vídeos a los que se hace referencia directa en un artículo que trata específicamente sobre IA y dichos casos se revisarán caso por caso.
El uso de herramientas de IA generativa desarrolladas con conjuntos específicos de datos científicos subyacentes que pueden atribuirse, comprobarse y verificarse para garantizar su precisión, siempre que se respeten las restricciones éticas, de derechos de autor y de términos de uso.
Uso de IA por parte de revisores pares
Los revisores pares desempeñan un papel vital en la publicación científica. Sus evaluaciones y recomendaciones expertas guían a los editores en sus decisiones y garantizan que la investigación publicada sea válida, rigurosa y creíble. Los editores seleccionan a los revisores pares principalmente por su profundo conocimiento del tema o los métodos del trabajo que se les pide que evalúen. Esta experiencia es invaluable e irremplazable. Los revisores pares son responsables de la precisión y las opiniones expresadas en sus informes, y el proceso de revisión por pares se basa en un principio de confianza mutua entre autores, revisores y editores. A pesar del rápido progreso, las herramientas de IA generativa tienen limitaciones considerables: pueden carecer de conocimiento actualizado y pueden producir información sin sentido, sesgada o falsa. Los manuscritos también pueden incluir información sensible o de propiedad exclusiva que no debe compartirse fuera del proceso de revisión por pares. Por estas razones, solicitamos que, mientras Springer Nature explora proporcionar a nuestros revisores pares acceso a herramientas de IA seguras, los revisores pares no carguen manuscritos en herramientas de IA generativa.
Si alguna parte de la evaluación de las afirmaciones realizadas en el manuscrito fue respaldada de alguna manera por una herramienta de IA, solicitamos a los revisores pares que declaren el uso de dichas herramientas de forma transparente en el informe de revisión por pares.
Introducción
Las herramientas de inteligencia artificial (IA) generativa, como los modelos de lenguaje grande (LLM) o los modelos multimodales, continúan desarrollándose y evolucionando, incluso en sus aplicaciones para empresas y consumidores.
Taylor & Francis da la bienvenida a las nuevas oportunidades que ofrecen las herramientas de IA generativa, en particular para mejorar la generación y exploración de ideas, ayudar a los autores a expresar contenido en un idioma no nativo y acelerar el proceso de investigación y difusión.
Taylor & Francis ofrece orientación a autores, editores y revisores sobre el uso de dichas herramientas, que pueden evolucionar dado el rápido desarrollo del campo de la IA.
Las herramientas de IA generativa pueden producir diversos tipos de contenido, desde generación de texto hasta síntesis de imágenes, audio y datos sintéticos. Algunos ejemplos incluyen ChatGPT, Copilot, Gemini, Claude, NovelAI, Jasper AI, DALL-E, Midjourney, Runway, etc.
Si bien la IA generativa tiene inmensas capacidades para mejorar la creatividad de los autores, existen ciertos riesgos asociados con la generación actual de herramientas de IA generativa.
Algunos de los riesgos asociados con la forma en que funcionan hoy las herramientas de IA generativa son:
Inexactitud y sesgo: las herramientas de IA generativa son de naturaleza estadística (a diferencia de lo fáctico) y, como tales, pueden introducir inexactitudes, falsedades (las llamadas alucinaciones) o sesgos, que pueden ser difíciles de detectar, verificar y corregir.
Falta de atribución: la IA generativa a menudo carece de la práctica estándar de la comunidad académica global de atribuir de manera correcta y precisa ideas, citas o referencias.
Riesgos de confidencialidad y propiedad intelectual: en la actualidad, las herramientas de IA generativa suelen utilizarse en plataformas de terceros que pueden no ofrecer estándares suficientes de confidencialidad, seguridad de datos o protección de derechos de autor.
Usos no previstos: Los proveedores de IA generativa pueden reutilizar los datos de entrada o salida de las interacciones del usuario (p. ej., para el entrenamiento de IA). Esta práctica podría vulnerar los derechos de autores y editores, entre otros.
Autores
Los autores son responsables de la originalidad, validez e integridad del contenido de sus envíos. Al utilizar herramientas de IA Generativa, se espera que los autores de revistas lo hagan de forma responsable y de acuerdo con nuestras políticas editoriales sobre autoría y principios de ética editorial, y que los autores de libros cumplan con nuestras directrices de publicación . Esto incluye la revisión de los resultados de cualquier herramienta de IA Generativa y la confirmación de la precisión del contenido.
Taylor & Francis apoya el uso responsable de herramientas de IA generativa que respeten altos estándares de seguridad de datos, confidencialidad y protección de derechos de autor en casos como:
Generación de ideas y exploración de ideas
Mejora del lenguaje
Búsqueda interactiva en línea con motores de búsqueda mejorados por LLM
Clasificación de la literatura
Asistencia de codificación
Los autores son responsables de garantizar que el contenido de sus trabajos cumpla con los estándares rigurosos de evaluación, investigación y validación científica y académica, y que sea de su propia autoría. Tenga en cuenta que algunas revistas podrían no permitir el uso de herramientas de IA Generativa más allá de la mejora del lenguaje; por lo tanto, se recomienda a los autores consultar con el editor de la revista antes de enviarlos.
Las herramientas de IA generativa no deben figurar como autor, ya que no pueden asumir la responsabilidad del contenido enviado ni gestionar los acuerdos de derechos de autor y licencias. La autoría implica asumir la responsabilidad del contenido, consentir la publicación mediante un acuerdo editorial y ofrecer garantías contractuales sobre la integridad de la obra, entre otros principios. Estas son responsabilidades exclusivamente humanas que no pueden ser asumidas por las herramientas de IA generativa.
Los autores deben reconocer claramente en el artículo o libro cualquier uso de herramientas de IA generativa mediante una declaración que incluya: el nombre completo de la herramienta utilizada (con el número de versión), cómo se utilizó y el motivo de su uso. En el caso de los artículos, esta declaración debe incluirse en la sección de Métodos o Agradecimientos. Los autores de libros deben comunicar su intención de emplear herramientas de IA generativa lo antes posible a sus contactos editoriales para su aprobación, ya sea en la fase de propuesta si se conoce o, si es necesario, durante la fase de redacción del manuscrito. Si se aprueba, el autor del libro debe incluir la declaración en el prefacio o la introducción del libro. Este nivel de transparencia garantiza que los editores puedan evaluar si se han utilizado herramientas de IA generativa y si se han utilizado de forma responsable. Taylor & Francis se reserva el derecho de decidir sobre la publicación del trabajo para garantizar que se respete su integridad y se respeten las directrices.
Si un autor pretende utilizar una herramienta de IA, debe asegurarse de que la herramienta sea apropiada y sólida para el uso propuesto y que los términos aplicables a dicha herramienta brinden garantías y protecciones suficientes, por ejemplo, en torno a derechos de propiedad intelectual, confidencialidad y seguridad.
Los autores no deben enviar manuscritos en los que se hayan utilizado herramientas de IA generativa de manera que reemplacen las responsabilidades principales del investigador y del autor, por ejemplo:
Generación de texto o código sin revisión rigurosa
Generación de datos sintéticos para sustituir datos faltantes sin una metodología robusta
Generación de cualquier tipo de contenido que sea inexacto, incluidos resúmenes o materiales complementarios.
Este tipo de casos pueden ser objeto de investigación editorial.
Actualmente, Taylor & Francis no permite el uso de IA Generativa en la creación y manipulación de imágenes, figuras ni de datos de investigación originales para su uso en nuestras publicaciones. El término "imágenes y figuras" incluye imágenes, gráficos, tablas de datos, imágenes médicas, fragmentos de imágenes, código informático y fórmulas. El término "manipulación" incluye aumentar, ocultar, mover, eliminar o introducir una característica específica en una imagen o figura. Para obtener más información sobre la política de imágenes de Taylor & Francis para revistas, consulte la sección "Imágenes y figuras".
El uso de IA Generativa y tecnologías asistidas por IA en cualquier etapa del proceso de investigación debe realizarse siempre con supervisión humana y transparencia. Las directrices éticas de la investigación se actualizan constantemente en relación con las tecnologías actuales de IA Generativa. Taylor & Francis seguirá actualizando sus directrices editoriales a medida que evolucionen la tecnología y las directrices éticas de la investigación.
Editores y revisores pares
Taylor & Francis se esfuerza por alcanzar los más altos estándares de integridad editorial y transparencia. El uso de manuscritos en sistemas de IA Generativa por parte de editores y revisores pares puede suponer un riesgo para la confidencialidad, los derechos de propiedad y los datos, incluida la información personal identificable. Por lo tanto, los editores y revisores pares no deben cargar archivos, imágenes ni información de manuscritos inéditos en las herramientas de IA Generativa. El incumplimiento de esta política puede infringir la propiedad intelectual del titular de los derechos.
Editores
Los editores son los responsables de la calidad y la responsabilidad del contenido de investigación. Por lo tanto, deben mantener la confidencialidad de los detalles del envío y la revisión por pares.
El uso de manuscritos en sistemas de IA Generativa puede conllevar riesgos de confidencialidad, vulneración de derechos de propiedad intelectual y de datos, entre otros. Por lo tanto, los editores no deben cargar manuscritos inéditos, incluidos los archivos, imágenes o información asociados, en las herramientas de IA Generativa.
Los editores deben consultar con su contacto de Taylor & Francis antes de utilizar cualquier herramienta de IA Generativa, a menos que ya se les haya informado de que la herramienta y su uso propuesto están autorizados. Los editores de revistas pueden consultar nuestra página de Recursos para Editores para obtener más información sobre nuestro código de conducta.
Revisores pares
Los revisores pares son expertos seleccionados en sus campos y no deben utilizar la IA Generativa para analizar ni resumir artículos enviados, ni partes de ellos, en la creación de sus revisiones. Por lo tanto, no deben cargar manuscritos o propuestas de proyectos inéditos, incluidos los archivos, imágenes o información asociados, en las herramientas de IA Generativa.
La IA generativa solo puede utilizarse para ayudar a mejorar el lenguaje de las revisiones, pero los revisores pares serán en todo momento responsables de garantizar la precisión e integridad de sus revisiones.
Orientación general y mejores prácticas
Los autores podrían utilizar herramientas o tecnologías de inteligencia artificial («Tecnología de IA») al preparar un manuscrito para su envío a una revista de Wiley. Wiley valora el uso responsable de las herramientas de IA. Con un uso responsable, los autores pueden mantener altos estándares editoriales, proteger la propiedad intelectual y otros derechos, y fomentar la transparencia con los lectores. Si bien los autores son plenamente responsables de su envío, los artículos publicados y las herramientas o fuentes que utilicen en su creación, Wiley reconoce el papel cada vez más importante de la Tecnología de IA en el proceso de investigación y la preparación de manuscritos y ofrece la siguiente orientación.
Los autores deben revisar cuidadosamente los términos y condiciones, las condiciones de uso o cualquier otra condición o licencia asociada con la Tecnología de IA elegida. Deben confirmar que la Tecnología de IA no reclama la propiedad de su contenido ni impone limitaciones a su uso, ya que esto podría interferir con los derechos del autor o de Wiley, incluyendo la capacidad de Wiley para publicar un envío tras su aceptación. Los autores deben revisar periódicamente los términos de la Tecnología de IA para garantizar su cumplimiento.
Supervisión humana
Los autores solo pueden usar la tecnología de IA como complemento a su proceso de escritura, no como un sustituto. Como siempre, los autores deben asumir la plena responsabilidad de la precisión de todo el contenido y verificar que todas las afirmaciones, citas y análisis se ajusten a su experiencia e investigación. Antes de incluir contenido generado por IA en un artículo para una revista, los autores deben revisarlo cuidadosamente para garantizar que el trabajo final refleje su experiencia, voz y originalidad, a la vez que cumple con los estándares éticos y editoriales de Wiley.
Los autores deben conservar la documentación de toda la tecnología de IA utilizada, incluyendo su propósito, si influyó en los argumentos o conclusiones clave, y cómo revisaron y verificaron personalmente el contenido generado por IA. Los autores también deben declarar el uso de las tecnologías de IA al enviar su trabajo a una revista de Wiley. De no proporcionarse, se puede solicitar durante el proceso de envío y revisión por pares, o después de la publicación. La transparencia es esencial para el compromiso de Wiley con la ética editorial y la integridad. (Consulte la guía adicional y específica sobre autoría y divulgación a continuación).
Los autores no deben utilizar ninguna tecnología de IA que restrinja su propio uso, el de Wiley o el de terceros, del material enviado. Esto incluye garantizar que la tecnología de IA utilizada y su proveedor no adquieran ningún derecho sobre el contenido subyacente del autor, incluido el derecho a "entrenar" su tecnología de IA con el contenido, además del derecho limitado a acceder y utilizar el material enviado para prestar el servicio. Al revisar los términos y condiciones de una tecnología de IA para ver cláusulas como "propiedad", "reutilización de datos" o "exclusión voluntaria", entre otras, los autores pueden evitar transferencias de derechos no deseadas.
Los autores deben utilizar la tecnología de IA de forma que respete las obligaciones de privacidad, confidencialidad y cumplimiento normativo. Esto incluye respetar las leyes de protección de datos, evitar el uso de IA para replicar estilos o voces únicas de otros y verificar la precisión y neutralidad del contenido generado por IA. Los autores deben ser conscientes de los posibles sesgos en los resultados de IA y tomar medidas para mitigar los estereotipos o la desinformación. Al introducir contenido sensible o inédito, los autores deben utilizar herramientas con controles de privacidad adecuados para proteger la confidencialidad.
Los autores deben cumplir con los términos y condiciones de su contrato de publicación con Wiley. Son responsables de cumplir con las garantías estipuladas en dichos contratos, como garantizar que su trabajo sea original, inédito y que tengan derecho a otorgar los permisos necesarios a Wiley, según lo estipulado en su contrato.
Wiley valora la creatividad y la experiencia únicas de los autores y considera las tecnologías de IA como herramientas que potencian la creatividad, no la reemplazan. Wiley mantiene su compromiso de ofrecer una guía clara que fomente la confianza de los lectores, proteja los derechos de los autores y de Wiley, y garantice un contenido de alta calidad. Estas directrices evolucionarán a medida que la tecnología y las necesidades de los autores avancen. Como referencia, consulte también la guía general de STM para todos los interesados en la publicación académica sobre el papel de las tecnologías de IA generativa.
Orientación específica
Declaración: Si un autor ha utilizado tecnología de IA para desarrollar cualquier parte de un manuscrito, su uso debe describirse de forma transparente y detallada en la sección de Métodos (o mediante una declaración o en la sección de Agradecimientos, según corresponda). El autor es plenamente responsable de la exactitud de la información proporcionada por la herramienta y de citar correctamente cualquier trabajo de apoyo del que dependa dicha información. Las herramientas GenAI no deben utilizarse para crear, alterar ni manipular datos y resultados de investigación originales. Las herramientas que se utilizan para mejorar la ortografía, la gramática y la edición en general no se incluyen en el alcance de estas directrices de divulgación. La decisión final sobre si el uso de una herramienta GenAI es apropiado o permisible en las circunstancias de un manuscrito enviado o un artículo publicado recae en el editor de la revista o en la otra parte responsable de la política editorial de la publicación.
IA y autoría: La tecnología de IA no puede considerarse capaz de iniciar una investigación original sin la dirección humana. Las herramientas no pueden ser responsables de un trabajo publicado ni del diseño de la investigación, requisito generalmente aceptado para la autoría (como se explica en la sección "Autoría" de estas directrices), ni tienen capacidad legal para poseer o ceder derechos de autor. Por lo tanto, de acuerdo con la declaración de posición de COPE sobre autoría y herramientas de IA , estas herramientas no pueden desempeñar el papel de autor de un artículo ni figurar como tal.
Revisión por pares: La tecnología de IA debe usarse solo de forma limitada en relación con la revisión por pares. Un editor o revisor puede usar una herramienta GenAI para mejorar la calidad de la retroalimentación escrita en un informe de revisión por pares. Este uso debe declararse de forma transparente al enviar el informe de revisión por pares al editor encargado del manuscrito. Independientemente de este caso de uso limitado, los editores o revisores no deben cargar manuscritos (ni ninguna parte de ellos, incluidas figuras y tablas) en la tecnología de IA. La tecnología de IA puede utilizar datos de entrada para capacitación u otros fines, lo que podría violar la confidencialidad del proceso de revisión por pares, la privacidad de autores y revisores, y los derechos de autor del manuscrito en revisión. Además, el proceso de revisión por pares es una labor humana, y la responsabilidad de presentar un informe de revisión por pares, de acuerdo con las políticas editoriales y el modelo de revisión por pares de la revista, recae en quienes han aceptado una invitación de la revista para realizar la revisión por pares de un manuscrito enviado. Este proceso no debe delegarse a una herramienta GenAI.