Uso ético de LLM

Descarga el documento AQUÍ

Lineamientos generales de uso ético de LLM (modelos de lenguaje de gran escala)*

De manera consciente o  inconsciente, prácticamente todos los usuarios de internet emplean algún tipo de inteligencia artificial (IA) en la vida diaria, en particular sistemas basados en modelos de lenguaje. Por ejemplo, se usan modelos de lenguaje al escribir un mensaje de texto o un correo electrónico y la herramienta de “autocompletar” sugiere cómo terminar de escribir la oración. También se usan modelos de lenguaje para apoyar la realización de actividades académicas, tales como sistemas de traducción automatizada o programas que detectan errores gramaticales, entre otros. Además, actualmente, todo tipo de plataformas web y aplicaciones móviles permiten acceder a herramientas de IA para generar textos y contenidos audiovisuales.

Sin embargo, existen usos de la IA que son riesgosos; por tanto, su uso debe ser informado, transparente, ético y responsable. Las herramientas de IA no son idóneas para realizar cualquier tipo de actividad y determinados tipos de uso pueden ser contraproducentes para el proceso de investigación. Algunos usos de la IA pueden generar riesgos tanto para los usuarios como para terceros. Además, es indispensable ser conscientes de las implicaciones éticas, ambientales y de derechos humanos asociadas al uso de estas herramientas.

Ante dicho contexto, el objetivo de este apartado es promover el uso responsable y ético de estas tecnologías en los procesos de aprendizaje y en la vida profesional, así como prevenir la vulneración a la integridad académica, y las situaciones en las cuales los autores, consciente o inconscientemente, incurran en deshonestidad académica.

Está permitido el uso de IA como herramienta de soporte para realización de las diferentes actividades de aprendizaje. Los parámetros para el uso de estas herramientas, que se describen a continuación, distinguen entre herramientas de “bajo riesgo” y de “alto riesgo”, según los riesgos que la respectiva IA genere para el proceso pedagógico, para los usuarios y para terceros.

  • Reglas para uso de IA de bajo riesgo. Se podrán usar libremente herramientas de IA de bajo riesgo; es decir, aquellas que permitan corregir o revisar contenidos generados por los autores o aquellas que les permitan recolectar y procesar datos. Por ejemplo, las herramientas de corrección gramatical, de traducción, de transcripción audio-texto, y de búsqueda de información en internet, entre otras. Se recomienda que cuando dichas herramientas permitan realizar labores significativas (ej. traducción), se indique, en la sección que corresponda (ej. metodología), sobre el uso de dichas herramientas.
  • Reglas para uso de IA de alto riesgo. Son de alto riesgo las herramientas de IA que se usen para generar texto sintético. Es decir, los LLM a los que puede accederse a través de chatbots, tales como ChatGPT, Bard, Bing y Claude, etcétera. Solo se podrán incluir en las entregas individuales y colectivas contenidos generados por IA cuando cumplan con cuatro requisitos:
    1. Uso informado. Que, previo a su uso, los autores hayan investigado quién o qué empresa desarrolló la herramienta, cómo fue desarrollada, cómo funciona, qué funciones puede desempeñar, cuáles son sus términos de uso, qué hace la empresa con la información que recolecta del usuario, y qué limitaciones y/o riesgos presenta para el usuario y/o para terceros.
    2. Uso transparente. Que indiquen detallada y expresamente qué herramienta usaron y cómo la usaron en la sección de metodología o en la que consideren pertinente. Este es un requisito que actualmente solicitan revistas científicas y casas editoriales, tales como Nature y Cambridge University Press.
    3. Uso ético. Que sea posible distinguir qué fue escrito o producido directamente por los autores y qué fue generado por una herramienta de IA. Respecto de este punto, aplican las reglas de citación generales, por ejemplo, usar comillas si se incluyen apartados literales, además de la referencia correspondiente. Para citar texto sintético producido por LLM, pueden consultarse las reglas sugeridas por el equipo de estilo de APA. Las infracciones a esta regla, particularmente respecto del segundo requisito, serán abordadas bajo un enfoque similar al que aplica en casos de plagio. Además, ChatGPT no es una persona, por lo que no puede ser considerado coautor. Los modelos de lenguaje como ChatGPT no satisfacen los criterios de atribución de “autoría”.
    4. Uso responsable. Se recomienda que el uso de estas IA se circunscriba a etapas tempranas de la investigación, para inspirar o sugerir rumbos, no para producir contenido que luego sea incluido en los originales. En todo caso, si los autores optan por usar información obtenida a través de un LLM, deben acreditar que contrastaron rigurosamente dicha información con otras fuentes confiables, dado que estos sistemas tienden a ofrecer información imprecisa, errónea, y falsa.
  • Usos plausibles de los LLM:
  1. Explorar nuevos asuntos e inspiración; es decir, en etapas tempranas de la investigación.
  2. Automatizar tareas básicas. Apoyar ejercicios que impliquen el reconocimiento y/o reproducción de patrones en textos, por ejemplo: traducir, resumir, modificar el tono y estilo del texto, corregir ortografía y gramática, conversión de audio-texto, programación, etcétera, aunque el resultado tampoco es totalmente fiable y siempre se debe revisar con cuidado el output del LLM.
  3. Escritura trivial. Apoyar tareas de escritura poco importantes.
  4. Sparring. Probar argumentos o ideas en interacción con el chatbot.
  • Usos no recomendados de los LLM:
  1. Principal o única fuente para buscar información factual o técnica. Los buscadores de internet son más eficaces y confiables para esa tarea, pero si el autor lo hiciera, debe contrastar con fuentes confiables.
  2. Uso de texto sintético para asuntos sustanciales, pero si el autor lo hiciera, debe contrastar con fuentes confiables.

 

*Editado de: Lineamientos para el uso de inteligencia artificial en contextos universitarios. Elaborado por Juan David Gutiérrez (juagutie@uniandes.edu.co), profesor asociado de la Escuela de Gobierno de la Universidad de los Andes, Colombia. Versión 5.0 (04/07/2023). Licencia C.C. BY 4.0.