Gustavo Martínez Solís

ChatGPT promueve el plagio e induce a errores en la investigación histórica

Foro de historiadores

“Asistente de lenguaje puede afectar la integridad académica, puede darnos datos fraudulentos e inducir a la deshonestidad. Indica el origen de nada y esto es así a propósito. Siempre es plagio”, concluyen historiadores.

26 abril de 2023

El modelo de lenguaje inteligente de ChatGPT puede resultar impreciso e inducir al plagio y a errores, debido a que no indica las fuentes o el origen de la información a la hora de realizar investigación histórica, así lo concluyeron expertos e investigadores de la Escuela de Historia de la Universidad de Costa Rica.

Las declaraciones se compartieron en una mesa redonda entre los historiadores David Chavarría Camacho, Alejandro Bonilla Castro y Alejandra Boza Villarreal, el pasado jueves 20 de abril, en el auditorio del CIMAR, de la Ciudad de la Investigación de la UCR.

El ChatGPT, el cual es un asistente de lenguaje basado en Inteligencia Artificial (AI), funciona mediante el procesamiento de lenguaje natural con una interacción humano-computadora, el cual recibe una orden escrita por parte del usuario y este procede a buscar y dar una respuesta, a partir de la información almacenada, de la cual se desconoce su origen y el propósito de registro.

Publicado originalmente en

Este chatbot funciona bajo un sistema de algoritmos (instrucciones o programación) de “caja negra”, con dos entradas de texto (Input) y una salida. La primer entrada del GPT recibe un corpus de texto grande (banco de información), en la segunda entrada se reciben las consultas y órdenes de usuarios; mientras que, en la salida (Output) se puede generar “nuevo” texto redactado de forma coherente o relevante, es decir, la respuesta a la solicitud del usuario.

“Cuando vemos un contenido de ChatGPT es un ‘plagio’. Nos va a entregar un contenido muy bien escrito, pero este copia o parafrasea información que ya existe, sin atribuir la fuente de ese conocimiento. No podemos saber de dónde salieron estos datos”, comentaron los expertos.

“El texto que genera no es confiable, ChatGPT no razona, no valora la validez de la evidencia que nos está presentando. Repite los sesgos de sus datos y, además, intencionalmente puede inducirlo a hacer eso y, lo peor, es que podemos tener a creerle, porque escribe bonito”, manifestó la docente e investigadora, Alejandra Boza.

Las personas panelistas sostienen que, cuanto más extensa o específica sea la solicitud del usuario, el asistente dará respuestas que, en apariencia, serían creíbles, pero podría tratarse de datos erróneos o inexistentes en la web, como, por ejemplo, dar un listado de referencias bibliográficas, sobre autores o investigaciones inexistentes.

"Los expertos señalan que el asistente, por su naturaleza de almacenamiento y formas de otorgar una respuesta, podría incurrir también en actividades fraudulentas y alejadas de los principios éticos en la investigación histórica."

“La información producida por el chat es una síntesis de conocimientos adquiridos, pero que no presentan absolutamente nada original. Cada vez que nosotros le hagamos una pregunta al ChatGPT nos va a responder de una manera diferente, realiza una nueva redacción de las mismas ideas”, manifestó el investigador Alejandro Bonilla.

El académico enfatizó en que para el área de la historia, esta inteligencia artificial dista de lo que puede ser considerado una fuente de investigación, por los constantes errores y la forma de operar y desprender la información solicitada.

“A los ojos de la investigación histórica, ChatGPT no es una fuente. Porque para nosotros, al juzgar qué es una fuente, recurrimos al análisis documental, que está compuesto por operaciones críticas de fuentes, donde determinamos las intenciones de dicha fuente”, añadió Bonilla.

El investigador manifestó que el chat es poco exacto y genera desconfianza, al acomodar de la “mejor manera y estadísticamente” las palabras para dar una respuesta “coherente”. “Este (ChatGPT) ocasionalmente puede entregar información incorrecta o errónea y puede producir contenido sesgado o ofensivo. La herramienta no tiene el objetivo de generar un consejo o recomendación”, afirmó a partir de la experiencia con las advertencias del sistema.

Asimismo, el historiador expone que ChatGPT como Inteligencia Artificial es “limitado”, poco fiable y carece de razonamiento. En el sentido que puede destacar con una correcta expresión escrita, pero en el tema de originalidad en historia, “esta parte de una experiencia empírica, un carácter inédito, que seduce la teoría, para poder interpretar los datos y es un conocimiento razonado y, en este sentido, la inteligencia artificial no razona”.

De acuerdo con el historiador e investigador David Chavarría Camacho, el ChatGPT es una de las tecnologías de inteligencia artificial más complejas y de gran escala de la actualidad. Sin embargo, se le ha asignado al asistente el término de “stochastic parrot” o el “loro estocástico», debido a que, en el momento que recibe instrucciones muy específicas o complejas de asimilar, opta por repetir palabras o “cosas” sin sentido.

 

Los expertos señalan que el asistente, por su naturaleza de almacenamiento y formas de otorgar una respuesta, podría incurrir también en actividades fraudulentas y alejadas de los principios éticos en la investigación histórica.

“El sistema de ChatGPT es de acceso abierto, pero no es de código abierto. Es decir, no sabemos cómo funcionan los algoritmos que hacen todos estos trabajos de dar una respuesta coherente. Es importante porque es un problema de transparencia que se repite constantemente, que se repite en la discusiones sobre los potenciales peligros de este tipo de tecnología”, aseguró la historiadora Alejandra Boza.

ChatGPT en las aulas de historia

Los expertos pronosticaron una serie de escenarios en los cuales este chat inteligente puede insertarse de manera positiva como acompañamiento o una fuente secundaria a las labores que realizan las y los estudiantes. De forma que se aproveche esta tecnología que catalogan como “inminente” y en “crecimiento” a la labor académica y de investigación.

“Hoy en día no hay forma válida de asegurar que el texto que alguien presente fue escrito por inteligencia artificial; si bien existen varias aplicaciones, pero no son las más funcionales detectándolo «, afirmó la investigadora Boza..

La experta visualiza oportunidades como es la utilización del chat a partir de texto propio, es decir, como un “tutor de redacción”. Debido a que ChatGPT “escribe muy bien” acomodando la información de manera coherente a partir de estadísticas.

“Podemos ver grandes beneficios para personas con condiciones de dislexia, que no sean hablantes nativos de la lengua o que tengan una formación previa deficiente y con problemas de redacción. El uso de esta herramienta podría facilitar su producción intelectual, sin descuidar que no existen políticas claras de autoría para esos textos generados”, aclaró Boza.

Por último, la académica considera que es necesario integrar esta tecnología en las clases de historia, debido a que en la actualidad los algoritmos se encuentran en todas partes y constituye un riesgo desconocer sobre los mismos y sus usos, sumado a que representan una “habilidad general para la vida”.

“Podemos practicar cómo preguntarle a ChatGPT de manera efectiva, verificar y hacer una lectura crítica de la respuesta (output). Todas esas son habilidades del pensamiento crítico que vale la pena tener presentes. Para enseñarlo, hay que saber usarlo”, concluyó.

Gustavo Martínez Solís
Semanario Universidad
tavoms93@gmail.com
© Escuela de Historia, Universidad de Costa Rica. Última actualización: mayo 2024
Ir al contenido