Entradas
Comunicado Escuela Historia – 28-06-2024
/en La Escuela /por Escuela de HistoriaComunicado: Taller de Divulgación II ciclo 2024
Escuela de Historia
COMUNICADO
Atención estudiantes de la unidad académica
Necesitamos conocer con urgencia si es necesario abrir dos grupos del curso HA-1022 Taller de Divulgación en el II ciclo 2024.
Las personas interesadas en matricular este curso -y que cumplan con los requisitos respectivos- deben comunicarse con la unidad de asuntos estudiantiles de la carrera de Historia, para ser incluidos en la respectiva lista.
La comunicación puede ser en persona en las oficinas de la Escuela o bien, vía correo electrónico (asuntosestudiantiles.eh@ucr.ac.cr) Debe indicarse nombre, carné y correo oficial.
Plazo para comunicarse con la Escuela: miércoles 3 de julio.
**Aclaración: *esta comunicación no sustituye el proceso de matrícula, que Ud. deberá realizar en los plazos indicados por la institución según los canales normales.
Comunicados anteriores
ChatGPT promueve el plagio e induce a errores en la investigación histórica
/en Tribuna /por Escuela de HistoriaGustavo Martínez Solís
ChatGPT promueve el plagio e induce a errores en la investigación histórica
Foro de historiadores
“Asistente de lenguaje puede afectar la integridad académica, puede darnos datos fraudulentos e inducir a la deshonestidad. Indica el origen de nada y esto es así a propósito. Siempre es plagio”, concluyen historiadores.
26 abril de 2023
El modelo de lenguaje inteligente de ChatGPT puede resultar impreciso e inducir al plagio y a errores, debido a que no indica las fuentes o el origen de la información a la hora de realizar investigación histórica, así lo concluyeron expertos e investigadores de la Escuela de Historia de la Universidad de Costa Rica.
Las declaraciones se compartieron en una mesa redonda entre los historiadores David Chavarría Camacho, Alejandro Bonilla Castro y Alejandra Boza Villarreal, el pasado jueves 20 de abril, en el auditorio del CIMAR, de la Ciudad de la Investigación de la UCR.
El ChatGPT, el cual es un asistente de lenguaje basado en Inteligencia Artificial (AI), funciona mediante el procesamiento de lenguaje natural con una interacción humano-computadora, el cual recibe una orden escrita por parte del usuario y este procede a buscar y dar una respuesta, a partir de la información almacenada, de la cual se desconoce su origen y el propósito de registro.
Este chatbot funciona bajo un sistema de algoritmos (instrucciones o programación) de “caja negra”, con dos entradas de texto (Input) y una salida. La primer entrada del GPT recibe un corpus de texto grande (banco de información), en la segunda entrada se reciben las consultas y órdenes de usuarios; mientras que, en la salida (Output) se puede generar “nuevo” texto redactado de forma coherente o relevante, es decir, la respuesta a la solicitud del usuario.
“Cuando vemos un contenido de ChatGPT es un ‘plagio’. Nos va a entregar un contenido muy bien escrito, pero este copia o parafrasea información que ya existe, sin atribuir la fuente de ese conocimiento. No podemos saber de dónde salieron estos datos”, comentaron los expertos.
“El texto que genera no es confiable, ChatGPT no razona, no valora la validez de la evidencia que nos está presentando. Repite los sesgos de sus datos y, además, intencionalmente puede inducirlo a hacer eso y, lo peor, es que podemos tener a creerle, porque escribe bonito”, manifestó la docente e investigadora, Alejandra Boza.
Las personas panelistas sostienen que, cuanto más extensa o específica sea la solicitud del usuario, el asistente dará respuestas que, en apariencia, serían creíbles, pero podría tratarse de datos erróneos o inexistentes en la web, como, por ejemplo, dar un listado de referencias bibliográficas, sobre autores o investigaciones inexistentes.
"Los expertos señalan que el asistente, por su naturaleza de almacenamiento y formas de otorgar una respuesta, podría incurrir también en actividades fraudulentas y alejadas de los principios éticos en la investigación histórica."
“La información producida por el chat es una síntesis de conocimientos adquiridos, pero que no presentan absolutamente nada original. Cada vez que nosotros le hagamos una pregunta al ChatGPT nos va a responder de una manera diferente, realiza una nueva redacción de las mismas ideas”, manifestó el investigador Alejandro Bonilla.
El académico enfatizó en que para el área de la historia, esta inteligencia artificial dista de lo que puede ser considerado una fuente de investigación, por los constantes errores y la forma de operar y desprender la información solicitada.
“A los ojos de la investigación histórica, ChatGPT no es una fuente. Porque para nosotros, al juzgar qué es una fuente, recurrimos al análisis documental, que está compuesto por operaciones críticas de fuentes, donde determinamos las intenciones de dicha fuente”, añadió Bonilla.
El investigador manifestó que el chat es poco exacto y genera desconfianza, al acomodar de la “mejor manera y estadísticamente” las palabras para dar una respuesta “coherente”. “Este (ChatGPT) ocasionalmente puede entregar información incorrecta o errónea y puede producir contenido sesgado o ofensivo. La herramienta no tiene el objetivo de generar un consejo o recomendación”, afirmó a partir de la experiencia con las advertencias del sistema.
Asimismo, el historiador expone que ChatGPT como Inteligencia Artificial es “limitado”, poco fiable y carece de razonamiento. En el sentido que puede destacar con una correcta expresión escrita, pero en el tema de originalidad en historia, “esta parte de una experiencia empírica, un carácter inédito, que seduce la teoría, para poder interpretar los datos y es un conocimiento razonado y, en este sentido, la inteligencia artificial no razona”.
De acuerdo con el historiador e investigador David Chavarría Camacho, el ChatGPT es una de las tecnologías de inteligencia artificial más complejas y de gran escala de la actualidad. Sin embargo, se le ha asignado al asistente el término de “stochastic parrot” o el “loro estocástico», debido a que, en el momento que recibe instrucciones muy específicas o complejas de asimilar, opta por repetir palabras o “cosas” sin sentido.
Los expertos señalan que el asistente, por su naturaleza de almacenamiento y formas de otorgar una respuesta, podría incurrir también en actividades fraudulentas y alejadas de los principios éticos en la investigación histórica.
“El sistema de ChatGPT es de acceso abierto, pero no es de código abierto. Es decir, no sabemos cómo funcionan los algoritmos que hacen todos estos trabajos de dar una respuesta coherente. Es importante porque es un problema de transparencia que se repite constantemente, que se repite en la discusiones sobre los potenciales peligros de este tipo de tecnología”, aseguró la historiadora Alejandra Boza.
ChatGPT en las aulas de historia
Los expertos pronosticaron una serie de escenarios en los cuales este chat inteligente puede insertarse de manera positiva como acompañamiento o una fuente secundaria a las labores que realizan las y los estudiantes. De forma que se aproveche esta tecnología que catalogan como “inminente” y en “crecimiento” a la labor académica y de investigación.
“Hoy en día no hay forma válida de asegurar que el texto que alguien presente fue escrito por inteligencia artificial; si bien existen varias aplicaciones, pero no son las más funcionales detectándolo «, afirmó la investigadora Boza..
La experta visualiza oportunidades como es la utilización del chat a partir de texto propio, es decir, como un “tutor de redacción”. Debido a que ChatGPT “escribe muy bien” acomodando la información de manera coherente a partir de estadísticas.
“Podemos ver grandes beneficios para personas con condiciones de dislexia, que no sean hablantes nativos de la lengua o que tengan una formación previa deficiente y con problemas de redacción. El uso de esta herramienta podría facilitar su producción intelectual, sin descuidar que no existen políticas claras de autoría para esos textos generados”, aclaró Boza.
Por último, la académica considera que es necesario integrar esta tecnología en las clases de historia, debido a que en la actualidad los algoritmos se encuentran en todas partes y constituye un riesgo desconocer sobre los mismos y sus usos, sumado a que representan una “habilidad general para la vida”.
“Podemos practicar cómo preguntarle a ChatGPT de manera efectiva, verificar y hacer una lectura crítica de la respuesta (output). Todas esas son habilidades del pensamiento crítico que vale la pena tener presentes. Para enseñarlo, hay que saber usarlo”, concluyó.
Facultad de Ciencias Sociales Ciudad de la Investigación Montes de Oca.
Tel: +506 2511-6452
Email: historia@ucr.ac.cr