Directrices para el uso ético y el reconocimiento de grandes modelos lingüísticos en la escritura académica:
Revisión y garantía humanas.
Al menos un autor debe ser capaz de garantizar y responsabilizarse de la exactitud e integridad del artículo, incluyendo cada afirmación sustantiva y las pruebas que la apoyan.
Son los autores quienes deben ejercer el control editorial final y asumir la responsabilidad del contenido que publican.
Contribución humana sustancial.
Cada autor debe haber contribuido de forma sustancial a:
a) la concepción o el diseño del trabajo
b) la adquisición, el análisis o la interpretación de los datos o del material de partida
c) el diseño de los componentes, las incrustaciones o los procedimientos de ajuste, así como la selección y la conservación de los resultados de la IA y la integración de dichos resultados en el manuscrito
d) el uso de la IA debe aumentar, no sustituir, la contribución intelectual del autor al trabajo
Reconocimiento y transparencia.
Los autores deben reconocer el uso de la IA en la forma y medida necesarias para:
a) comprender, verificar, replicar o juzgar de otro modo la credibilidad del trabajo (bienes de resultado)
b) confirmar que el crédito de autoría y la responsabilidad se han asignado adecuadamente (bienes de proceso)
c) que no suponga una carga mayor de la que se espera (dentro de cada campo de investigación) para trabajos análogos producidos sin el uso de una IA
Esta declaración normalizada sirve para atestiguar la adhesión de los autores a los tres criterios esenciales para el uso ético de la IA en la escritura académica descritos. Debe incluirse en el manuscrito en el momento de su presentación y adaptarse según sea pertinente a cada campo de investigación, así como a cada tipo de investigación o producción dentro de un campo determinado:
"Cualquier uso de IA generativa en este manuscrito se adhiere a las directrices éticas para el uso y reconocimiento de la IA generativa en la investigación académica. Cada autor ha hecho una contribución sustancial al trabajo, cuya exactitud se ha comprobado minuciosamente, y asume la responsabilidad de la integridad de sus contribuciones. [Opcional, según sea necesario para permitir la reproducibilidad, juicios de credibilidad: detalles adicionales sobre el uso e impacto de la IA]" |
Los autores son responsables de cualquier contenido que produzca o publique que incluya material generado por IA. |
El contenido generado por IA puede ser falso, engañoso o, peor aún, inventar hechos y eventos. Además, la IA puede infringir derechos de propiedad intelectual, y el uso que usted haga de los resultados puede considerarse una infracción, lo que le expone a demandas y daños. Por otro lado, los resultados de IA no están bien protegidos por las leyes de propiedad intelectual. Todos estos riesgos requieren que los autores lean y comprendan los términos y alcance que acompañan a la IA que utiliza.
Las plataformas de IA se entrenan con conjuntos de datos masivos llenos de información personal, desde nombres y direcciones hasta información sobre el comportamiento y las preferencias de cada individuo. Estos conjuntos de datos se utilizan para generar y mejorar el rendimiento de los algoritmos que hacen que las plataformas de IA funcionen. Fuera de las empresas que han desarrollado plataformas de IA, pocas comprenden exactamente qué datos se usaron o se usan, cómo se procesan, dónde se almacenan y quién puede acceder a ellos. Además de que esta información se use sin el consentimiento del usuario, existe el riesgo de que se utilice para manipular, engañar o vigilar a las personas.
El sesgo es inherente a las plataformas de inteligencia artificial de al menos dos maneras:
La estructura y la función de las plataformas de IA reflejan los valores, las suposiciones y las experiencias de quienes toman las decisiones responsables de su desarrollo.
Los conjuntos de datos que entrenan las plataformas de IA y los algoritmos que impulsan su funcionalidad reflejan y propagan los sesgos que impregnan las sociedades y culturas que generaron los datos de dichos conjuntos.
Cuando se les solicita, las plataformas de IA generativa suelen reforzar estereotipos culturales que, entre otras cosas, privilegian a los hombres blancos y a las personas de Norteamérica y Europa, sexualizan y cosifican a las mujeres y niñas, y marginan las contribuciones y las experiencias vividas de las personas racializadas.
Aunque los resultados de la IA puedan parecer notablemente fiables, las plataformas de IA no son repositorios de datos. En cambio, formulan resultados identificando patrones entre los billones de puntos de datos de sus conjuntos de datos. En pocas palabras, las plataformas de IA generan oraciones (o imágenes o programas) seleccionando las palabras (o componentes visuales o código fuente) con mayor probabilidad de seguir a la palabra anterior. Además, al estar entrenadas con datos generados por humanos, con frecuencia repiten imprecisiones e información errónea presentes en el conjunto de datos original.
Además del sesgo que impregna los conjuntos de datos sobre los que se construyen las plataformas de IA, las herramientas de IA plantean importantes problemas de equidad. Si bien la mayoría de las plataformas de IA ofrecen actualmente a los usuarios opciones de acceso gratuito, los resultados de las versiones gratuitas suelen ser menos robustos que los de las versiones premium. Además, dado el coste de mantener las versiones gratuitas, es posible que las empresas adopten un modelo totalmente de pago en el futuro.
La IA consume mucha energía. Si bien la IA podría aumentar la eficiencia y, en teoría, compensar el consumo energético, históricamente, las nuevas tecnologías tienden a impulsar la demanda de una manera que supera el ahorro energético obtenido mediante la eficiencia.
Los conjuntos de datos con los que se entrenaron las plataformas de IA incluyeron el trabajo creativo e intelectual protegido por derechos de autor de artistas, académicos y escritores de todo el mundo y de todos los tiempos. Además, muchas plataformas de IA reconocen que integran las indicaciones y conversaciones de los usuarios en los conjuntos de datos utilizados para perfeccionarlas. Por lo tanto, cuando los estudiantes introducen borradores de ensayos en las plataformas de IA, están, en efecto, consintiendo en que su trabajo intelectual y creativo se integre en la herramienta de IA.
Los resultados de las plataformas de IA generativa no pueden citar con precisión los materiales utilizados para generarlos. Las respuestas a las indicaciones pueden incluir "citas", pero estas pueden o no proporcionar una ruta trazable a las fuentes originales. Además, se sabe que las plataformas de IA inventan o "alucinan" citas de textos y productos intelectuales que no existen. Por lo tanto, el pensamiento convencional sobre el plagio y las tácticas utilizadas para identificarlo probablemente no seguirán siendo particularmente útiles. Además, dado el constante avance de las plataformas de IA, es poco probable que las aplicaciones tecnológicas sean suficientes para identificarlos.