REVISTA EDUCACIÓN SUPERIOR Y SOCIEDAD

2023, VOL.35 N.º 2, 174-195

https://doi.org/10.54674/ess.v35i2.815

e-ISSN: 26107759

Recibido 2023-08 -18│Revisado 2023-11-27

Aceptado 2023-11-27│Publicado 2023-12-29

 

 

                                                                                                                                                                                                                                                                                                                                                                                                      

 

 

ChatGPT en Educación Superior: explorando sus potencialidades y sus limitaciones

 

ChatGPT in Higher Education: exploring its potentialities and limitations.

 

María Gabriela Galli 2

@

https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcSNfWYTcCAZvEGsSFZ1txbWDB-BbGS9NXIvs46eBwRcKcb97noqr8ag9zTjvaHe_8qoX9A&usqp=CAU

 

María Cristina Kanobel 2

@

https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcSNfWYTcCAZvEGsSFZ1txbWDB-BbGS9NXIvs46eBwRcKcb97noqr8ag9zTjvaHe_8qoX9A&usqp=CAU

 

1. Universidad Nacional de Tres de Febrero, Cuidad Autónoma de Buenos Aires, Argentina.

2. Universidad Tecnológica Nacional, Avellaneda, Argentina.

 

 

RESUMEN

Este trabajo presenta un análisis crítico sobre el uso del ChatGPT en la Educación Superior, considerando sus posibles capacidades, limitaciones y sesgos asociados. Entre las potencialidades identificadas se encuentran su capacidad de brindar asistencia en la investigación, servir como tutor virtual y generar contenido educativo. Estas oportunidades pueden mejorar el aprendizaje autodirigido y la experiencia del estudiantado al enfrentarse a un trabajo, agilizar ciertas tareas propias de la labor docente y proporcionar acceso a una amplia base de información. Sin embargo, se han hallado limitaciones, sesgos y errores que pueden dar lugar a implicaciones éticas y sociales significativas. Esto destaca la importancia de la presencia del ser humano, llevando a cabo una mirada crítica de la información proporcionada por la herramienta para garantizar la equidad, la imparcialidad al interactuar con estas herramientas y promover una alfabetización digital que permita a investigadores, docentes y estudiantes trabajar con Inteligencia Artificial.

PALABRAS CLAVE: Inteligencia artificial; ChatGPT; enseñanza superior; aprendizaje; investigación

 

ChatGPT in higher education: exploring its potentials and limitations

ABSTRACT

This paper presents a critical analysis of the use of ChatGPT in Higher Education, considering its potential capabilities, limitations and associated biases. Among the potentialities identified are its ability to provide research assistance, serve as a virtual tutor, and generate educational content. These opportunities can enhance self-directed learning and the student experience when faced with a job, streamline certain teaching tasks and provide access to a broad base of information. However, limitations, biases and errors have been found that can lead to significant ethical and social implications. This highlights the importance of the presence of the human being taking a critical look at the information provided by the tool to ensure fairness, impartiality when interacting with these tools and to promote a digital literacy that allows researchers, teachers and students to work with Artificial Intelligence.

KEY WORDS: Artificial Intelligence; ChatGPT; Higher Education, learning; research

 

ChatGPT no ensino superior: exploração de seus potenciais e limitações

RESUMO

Este trabalho apresenta uma análise crítica sobre o uso do ChatGPT na Educação Superior, considerando suas possíveis capacidades, limitações e vieses associados. Entre as potencialidades identificadas estão sua capacidade de fornecer assistência na pesquisa, servir como tutor virtual e gerar conteúdo educacional. Essas oportunidades podem melhorar a aprendizagem autodirigida e a experiência dos estudantes ao enfrentar uma tarefa, agilizar certas tarefas próprias do trabalho docente e fornecer acesso a uma ampla base de informações. No entanto, foram encontradas limitações, vieses e erros que podem levar a implicações éticas e sociais significativas. Isso destaca a importância da presença humana realizando uma análise crítica das informações fornecidas pela ferramenta para garantir equidade, imparcialidade ao interagir com essas ferramentas e promover a alfabetização digital que permite que pesquisadores, professores e estudantes trabalhem com Inteligência Artificial.

PALAVRAS-CHAVE: Inteligência artificial; ChatGPT; Ensino superior; Aprendizagem; Pesquisa

 

ChatGPT dans l'enseignement supérieur : exploration de ses potentiels et de ses limites

RÉSUMÉ

Ce travail présente une analyse critique de l'utilisation de ChatGPT dans l'enseignement supérieur, en considérant ses capacités, limitations et biais possibles associés. Parmi les potentialités identifiées, on trouve sa capacité à fournir une assistance à la recherche, à servir de tuteur virtuel et à générer du contenu éducatif. Ces opportunités peuvent améliorer l'apprentissage autodirigé et l'expérience des étudiants lorsqu'ils sont confrontés à une tâche, accélérer certaines tâches propres au travail enseignant et fournir un accès à une large base d'informations. Cependant, des limitations, des biais et des erreurs ont été identifiés, pouvant entraîner des implications éthiques et sociales significatives. Cela souligne l'importance de la présence humaine pour effectuer une analyse critique des informations fournies par l'outil afin de garantir l'équité, l'impartialité lors de l'interaction avec ces outils et de promouvoir l'alphabétisation numérique permettant aux chercheurs, enseignants et étudiants de travailler avec l'intelligence artificielle.

MOTS CLÉS : Intelligence artificielle ; ChatGPT; Enseignement supérieur; Apprentissage; Recherche

 

1.   INTRODUCCIÓN

Dentro de la transformación digital, la Inteligencia Artificial (IA) se constituye en una tecnología integrada cada vez más a la vida cotidiana de las personas, con potenciales usos y posibles obstáculos en las distintas esferas societarias.

Aunque la IA es un campo de estudio que data de la década de los años cincuenta, en los últimos tiempos viene experimentando un acelerado crecimiento (Lund et al., 2023), con la creación de sistemas de software y hardware inteligentes que pueden simular situaciones, adquirir datos, interpretarlos y procesarlos. Asimismo, pueden sugerir acciones ante la toma de decisiones para la realización de una tarea, explorando procesos y comportamientos similares al de los seres humanos. Es por lo que se las considera sistemas “capaces de procesar datos e información de una manera que se asemeja a un comportamiento inteligente, y abarca generalmente aspectos de razonamiento, aprendizaje, percepción, predicción, planificación o control” (Organización de las Naciones Unidas para la Educación, la ciencia y la Cultura [UNESCO], 2022, p.10).

Un subcampo de la IA es la Inteligencia Artificial Conversacional (IAC) que se centra en la creación e implementación de sistemas capaces de comunicarse de manera natural y efectiva con los seres humanos utilizando el lenguaje natural (Chen et al., 2017). La IAC utiliza técnicas de Procesamiento del Lenguaje Natural (PLN) y, particularmente, aquellas de comprensión del lenguaje natural. Un ejemplo de este tipo de tecnología que ha ganado popularidad en los últimos años, con capacidad de conversación con personas usuarias a través de texto o voz y generalmente por Internet, son los chatbots o también conocidos como bots inteligentes, asistentes virtuales o digitales, robots conversacionales, entre otras categorías semánticas. El objetivo es que aquellos sean capaces de comprender la intención de quien lo utiliza extrayendo entidades específicas que reflejen los parámetros de entrada del lenguaje natural, para generar respuestas adecuadas y precisas atendiendo a los diferentes contextos comunicativos (Li et al., 2019; Ramesh, 2017).

La IAC tiene aplicaciones en una amplia variedad de áreas tales como el servicio al cliente, el comercio electrónico, el marketing, la educación, la atención médica y el entretenimiento (Chen et al., 2017; Górriz et al., 2020). Este estudio explora y analiza de forma crítica algunas aplicaciones del ChatGPT en Educación Superior (ES) el que, desde fines del 2022, se presenta como una tecnología IAC disruptiva, augurando cambios en la educación.

2.   METODOLOGÍA

Se realizó un estudio descriptivo, no experimental con un enfoque exploratorio. Para ello se analizaron críticamente resultados obtenidos en dos dimensiones: relevamiento de información en la literatura existente sobre IA y el uso de ChatGPT en ES y un análisis de ejemplos sobre el comportamiento de dicha herramienta como asistente en los procesos de enseñanza, de aprendizaje, de gestión e investigación. Se mostrarán potencialidades, sesgos y limitaciones del ChatGPT-3.5 poniendo a prueba la herramienta en distintas disciplinas, formulando consultas con distintos niveles de complejidad. Cabe destacar que, en los ejemplos descritos en este artículo, se ha utilizado la versión GTP-3.5, ya que es gratuita y accesible a quien cuente con Internet y se registre en el sistema de OpenAI.

3.   EL CHATGPT

El ChatGPT aparece como una innovadora tecnología en el campo de la IAC. Específicamente pertenece a la IA generativa, que emplea algoritmos y modelos para crear sistemas capaces de generar contenido. Su arquitectura se basa en el modelo Transformador Generativo Pre-entrenado (Generative Pre-trained Transformer[1], GPT). Mediante el uso de técnicas avanzadas de PLN y Aprendizaje Automático (ML, acrónimo en inglés de Machine Learning), el ChatGPT es capaz de procesar, comprender y generar respuestas en lenguaje natural a las entradas de las personas usuarias, utilizando una interfaz basada en texto. Además, incorpora técnicas de Aprendizaje Profundo basado en redes neuronales artificiales, donde su algoritmo aprende a través de su propio procesamiento de datos y le confiere una notable capacidad para crear información de manera organizada y coherente. La combinación de estas técnicas permite que el ChatGPT se convierta en una fuente potencial de consulta, brindando respuestas que se destacan por su similitud con el lenguaje humano.

El ChatGPT es una herramienta que posibilita la realización de una amplia gama de tareas. Entre ellas, se mencionan la generación de contenido en diferentes idiomas y estilos, la respuesta a preguntas, la provisión de información sobre diversos temas, la elaboración de resúmenes de contenido, la redacción de notas, cartas, ensayos, artículos, así como la de contratos, correos electrónicos, invitaciones y mensajes en función de palabras clave o contenido suministrado por las personas. Además, puede participar en la creación de guiones de películas, traducción y corrección de textos, generación de código, diseño de videojuegos, resolución de problemas matemáticos y muchas otras acciones (OpenAI, 2023a, 2023b, 2023c). En particular, ChatGPT fue desarrollado en 2018 por la empresa de IA OpenAI. En 2019, se presenta GPT-2, caracterizado por su capacidad para generar texto en una variedad de dominios.

Es relevante tener en cuenta que ChatGPT usa una base de datos estática y su capacidad para producir respuestas se basa en patrones y relaciones estadísticas. Durante el proceso de entrenamiento de la red neuronal se emplean grandes cantidades de datos que abarcan tanto textos estructurados como no estructurados, con el propósito de que aprenda a identificar patrones y capturar la diversidad lingüística, permitiendo así que el modelo adquiera una comprensión más amplia y profunda del lenguaje (Brown et al., 2020; OpenAI, 2023c, 2023d).

Durante 2020 se lanza GPT-3, una versión que marcó un hito en el desarrollo del modelo, caracterizado por una notable mejora en su tamaño con 175 mil millones de parámetros, posicionándose como el modelo de lenguaje más grande hasta esa fecha (Brown et al., 2020; García-Peñalvo, 2023). Esta expansión le permitió abordar tareas más complejas y mejorar su capacidad para comprender y generar lenguaje natural (OpenAI, 2023a).

El avance en el desarrollo de modelos de lenguaje ha llevado al lanzamiento de GPT-3.5. Esta versión se destaca por comprender y generar lenguaje de programación y por sus notables mejoras en la coherencia y el control en la generación de texto, resultado de la implementación de técnicas de entrenamiento más avanzadas y ajustes en la arquitectura del modelo (OpenAI, 2023b). Al mismo tiempo, ha ampliado su accesibilidad al ofrecer una versión básica, gratuita y de fácil acceso, lo que ha aumentado su disponibilidad para personas dedicadas a la investigación e interesadas en explorarlo.

En marzo de 2023, se presenta ChatGPT-4 (versión beta limitada y paga) como modelo multimodal que, además, acepta entradas de imágenes, videos y texto. Mediante mejoras en su seguridad y alineación, ofrece respuestas seguras y útiles, al tiempo que muestra mayor creatividad y capacidad de colaboración. A pesar de estos avances, GPT-4 todavía debe superar desafíos relacionados con prejuicios sociales e indicaciones contradictorias (OpenAI, 2023c, 2023d, 2023e).

3.1. La Inteligencia Artificial y El ChatGPT en la Educación Superior.

De acuerdo con la UNESCO (2021), la IA aplicada en el ámbito educativo debe perseguir el mejoramiento de las capacidades y la protección de los derechos humanos, con el propósito de lograr una colaboración efectiva entre las personas y las máquinas en diversas áreas de la vida, la educación y el trabajo.

Los últimos años, el uso de IA ha emergido como una tecnología cada vez más presente en la educación, y “como ha sucedido con las sucesivas oleadas de desarrollos tecnológicos, la Inteligencia Artificial ha despertado nuevas expectativas como «solución» a los problemas educativos” (Giró Gràcia y Sancho-Gil, 2021, p.136).

A medida que las instituciones educativas buscan adaptarse a un entorno cambiante y aprovechar las ventajas de las tecnologías, la IA intenta demostrar su potencial en investigación y en aspectos vinculados con los procesos de enseñanza y de aprendizaje, de gestión académica y administrativa (Instituto Internacional de la UNESCO para la Educación Superior en América Latina y el Caribe [UNESCO-IESALC], 2023).

Macías et al. (2023) concluyen que, si bien la IA puede tener un impacto positivo en el aprendizaje y desempeño de los estudiantes de ES, también puede plantear desafíos para el profesorado en términos de adaptación a estas tecnologías y enfoques de enseñanza.

Por otro lado, la utilización de algoritmos en el ámbito educativo necesita de la supervisión y orientación de profesionales cualificados que atiendan aspectos vinculados con la transparencia y la recopilación masiva de datos, como en la toma de decisiones que podrían afectar a la privacidad de las personas. Tal es así que, en abril 2023, Rusia, China, Irán, Corea del Norte, Venezuela, Bielorrusia e Italia prohibieron el uso del ChatGPT a raíz de la preocupación por la privacidad de datos (El Grand Continent, 2023).

Distintas investigaciones focalizadas en el uso IA en educación en América Latina develan el incremento del uso del ML en instancias que facilitan el aprendizaje continuo (Sanchez-Pi et al., 2022). En este sentido, el análisis de grandes conjuntos de datos tiene un amplio potencial para evaluar la enseñanza, proporcionando información valiosa sobre los patrones de aprendizaje y rendimiento estudiantil y para intervenir en distintas áreas en búsqueda de mejoras del proceso educativo (Macias et al., 2023). Mediante algoritmos de ML, se pueden identificar tendencias y construir sistemas de tutorías inteligentes, adaptando la enseñanza según las necesidades del estudiantado, ofreciendo retroalimentaciones personalizadas. Sin embargo, se requiere que el profesorado no abandone el rol de orientador del proceso educativo y ponga en cuestión los resultados de los algoritmos en caso de que sean inexactos o incorrectos (Giró Gràcia y Sancho-Gil, 2021), a partir de una reflexión profunda sobre cómo pueden influir estas tecnologías en la toma de decisiones.

En relación con lo expuesto, se plantea que para aprovechar al máximo el potencial de la IA, es necesario abordar también la brecha algorítmica y los obstáculos de infraestructura (Ahmad et al., 2021), ya que no todas las Instituciones y el personal de ES tienen las mismas oportunidades de acceso a las tecnologías, con lo cual no las pueden aprovechar de la misma manera en los procesos de enseñanza y de aprendizaje y de gestión académica y administrativa.

Entre las herramientas de IA, este artículo focaliza la atención en el ChatGPT en ES. Un metaanálisis de la percepción de ChatGPT realizada por Leiter et al. (2023), después de dos meses desde su lanzamiento, concluye que se lo percibe como una gran oportunidad, pero también como una amenaza vinculada con la ética y con las instancias de evaluación.

Con respecto al rendimiento del modelo en exámenes académicos y profesionales, se menciona el estudio llevado a cabo por Choi et al. (2023), donde se analiza si el ChatGPT podía resolver exámenes de Derecho. Los resultados indican que ha aprobado todas las pruebas a los que estuvo sometido, lo que sugiere que, si este rendimiento se mantuviese constante, las calificaciones obtenidas por la herramienta podrían ser suficientes para que se gradúe como abogado. En esta línea, Nunes et al. (2023) exploraron la capacidad de los modelos GPT-3.5 y GPT-4 en la resolución de exámenes de ingreso multidisciplinario de las universidades brasileñas. En el examen 2022, GPT-4 logró una precisión del 87%, superando a GPT-3.5 en 11 puntos y visibilizando la mejora del sistema. Además, Kung et al. (2023) evaluaron el rendimiento del ChatGPT en exámenes de licencia médica en Estados Unidos y los resultados también revelan que los ha aprobado, demostrando un alto nivel para aplicar conceptos y habilidades fundamentales centradas en la salud. Sin embargo, según Alser y Waisberg (2023), aquella aprobación puede estar asociada a que muchos de esos temarios están publicados y resueltos en línea, lo que refleja la capacidad del modelo como motor de búsqueda más que como fuente confiable para decisiones clínicas. Contrariamente a los ejemplos expuestos, según el estudio de Frieder et al. (2023), las habilidades matemáticas del ChatGPT están significativamente por debajo de las del estudiantado sometido a pruebas de Matemática.

Como se puede percibir, el uso de ChatGPT ha generado interés en la comunidad educativa y académica en el análisis de su potencial. Mientras que en varios países lo han bloqueado y algunas instituciones y profesores tienden a su prohibición (Davis, 2023; El Grand Continent, 2023; Shen-Berro, 2023; Telam, 2023; UNESCO-IESALC, 2023), otros lo exploran y diseñan estrategias para su integración o estudio ya que, “negarlo o prohibirlo no servirá absolutamente de nada para parar el efecto tsunami que ya ha comenzado” (García-Peñalvo, 2023, s.p.).

3.2. El ChatGPT: asistente en los procesos de enseñanza, de aprendizaje, gestión e investigación.

En la docencia de ES, la incorporación del ChatGPT es una práctica emergente que brinda diversas posibilidades de uso como asistente del profesorado para la generación de contenido y en la planificación de la enseñanza, como asistente virtual y para retroalimentación automática y personalización del aprendizaje.

En relación con la generación y diseño de contenido educativo, puede ser utilizado por el profesorado para diseñar material de estudio que incluya el análisis de casos que facilite la interpretación del contenido; problemas de práctica y cuestionarios con diversos formatos; preguntas que promuevan el debate y faciliten la discusión incentivando el pensamiento crítico, entre otras actividades. Además, ofrece materiales para contextualizar y enriquecer la clase: lecturas recomendadas, enlaces a videos explicativos y sitios web relevantes.

Un ejemplo del potencial del GPT en el ámbito educativo es su capacidad para desarrollar enunciados y consignas. Al solicitarle que “desarrolle un juego de escape para estudiantes de ES, centrado en la evolución de las tecnologías en educación y presentando desafíos y acertijos relacionados con la temática”, el texto generado por el GPT-3.5 indicó la sinopsis, la historia donde está anclado el juego, las instrucciones de preparación del espacio, la conformación de equipos, el detalle de diversos desafíos y acertijos utilizando diferentes tecnologías, los recursos necesarios y el tiempo que demanda la ejecución de la propuesta (OpenAi, 2023f), bajo una clara descripción de la actividad solicitada.

Además, el modelo tiene la capacidad para traducir el código de un programa de un lenguaje de programación a otro. Concretamente, se le solicitó pasar al lenguaje C un algoritmo en Rust. GPT-3.5 y generó un código sin errores de sintaxis.

Asimismo, puede constituirse en un co-diseñador, tanto al momento de crear planes de estudio o de su actualización (UNESCO-IESALC, 2023), así como durante el proceso de la planificación de enseñanza, elaborando rúbricas, evaluaciones, objetivos de aprendizaje, etc. Por ejemplo, al requerirle que elabore un examen de fisiología vegetal para el estudiantado universitario con ejercicios de opción múltiple, presenta las preguntas con sus reactivos de forma clara y ordenada.

Algunas experiencias señalan que el ChatGPT puede ser utilizado como herramienta de innovación educativa en entornos virtuales, permitiendo la organización y gestión de cursos en línea, así como la creación de grupos colaborativos (Farrokhniaa et al., 2023).

Es relevante destacar los desafíos inherentes a la incorporación del ChatGPT en el proceso de redacción de documentos. Esta herramienta cuenta con la capacidad de colaborar en las tareas del proceso de escritura, especialmente en relación con un corpus de conocimiento específico. En particular, se destaca su potencialidad para generar esquemas de textos que ayudan a organizar ideas, así como su habilidad para eliminar información redundante, mejorar la sintaxis y coherencia del texto, y generar contenido basado en palabras clave o conceptos que aún no han sido explorados o considerados por el usuario. Además, garantiza una estructura clara y precisa, y ayuda a evitar errores ortográficos y gramaticales. En el trabajo de Choi et al. (2023), se relata que, en el campo de la abogacía al escribir ensayos, mantuvo una organización y coherencia sólida, con una buena estructura en las oraciones y párrafos y sin errores gramaticales ni tipográficos, comprendiendo normas legales básicas y siendo también precisos los resúmenes de normas y conclusiones de casos específicos.

Vinculado con la escritura, OpenAi pone a disposición un clasificador de texto gratuito que predice la probabilidad de detección de escritos realizados con el ChatGPT (OpenAi, 2023g). Vale mencionar que esta aplicación no siempre es precisa y que puede tener errores en textos escritos en idiomas distintos al inglés.

Por otra parte, el ChatGPT se puede constituir en un asistente virtual para el estudiantado, con el propósito de que puedan profundizar temas específicos, realizar preguntas y hasta resolver problemas, obteniendo respuestas en tiempo real. Por ejemplo, se consultó “si se dispone de una esfera de 20 cm de radio cargada con 4 microculombios, ¿Cuál es la intensidad del campo a 30 cm del centro de la esfera?”. La solución brindada por ChatGPT-3.5 se presenta paso a paso y con explicaciones que le permiten al estudiantado comprender el razonamiento.

También podría ser utilizado para proporcionar retroalimentación automática al alumnado sobre su desempeño en tareas específicas. Por ejemplo, se le puede solicitar al ChatGPT que revise un párrafo y que brinde una devolución acerca de su claridad y coherencia. Asimismo, se presenta como una herramienta para el aprendizaje autónomo, en particular para estudiantes que deseen mejorar sus habilidades, acceder a información, recursos y apoyo en resolución problemas.

En relación con los procesos de gestión administrativa, puede reducir los tiempos vinculados con la respuesta a consultas formuladas por aspirantes a carreras y comunicar noticias (UNESCO-IESALC, 2023); en la elaboración de informes, gestión de calendarios, elaboración de estadísticas, entre otras acciones que complementan y optimizan al personal administrativo.

Otra aplicación es en el campo de la investigación, donde puede utilizarse en las fases de diseño de la investigación, recogida y análisis de datos y redacción del informe (UNESCO- IESALC, 2023). También, genera código para el procesamiento de datos en variados lenguajes. Colabora con la escritura académica y en las revisiones sistemáticas de la literatura (Chen, 2023; Kasneci et al.,2023; Moons y Van Bulck, 2023; Stokel-Walker y Van Noorden, 2023; Wang et al., 2023).

Con respecto a la colaboración en revisiones sistemáticas en la literatura, se le ha solicitado al ChatGPT-3.5 “necesito términos claves que permitan realizar una búsqueda booleana sobre las TIC en la docencia universitaria argentina”. Como ha entregado 15 términos, se le indicó que los ordene por categorías. Teniendo en consideración el propósito de la revisión, se ha creado una cadena de búsqueda y se le ha pedido que la optimice arrojando como resultado: ("Integración de TIC en la docencia universitaria Argentina" OR "Buenas prácticas TIC en la docencia universitaria Argentina") AND ("Investigación TIC en la docencia universitaria Argentina" OR "Estudios TIC en la enseñanza universitaria Argentina" OR "Impacto de las TIC en la docencia universitaria Argentina" OR "Tendencias TIC en la docencia universitaria Argentina"), lo cual indica que se ha eliminado la repetición innecesaria y se han ajustado algunos términos para mayor precisión (OpenAi, 2023f).

3.3. Sesgos y errores: limitaciones del ChatGPT

Los sesgos en la IAC son una suerte de desviación sistemática en las respuestas generadas por el modelo de IA. En el caso del ChatGPT, al igual que en cualquier sistema informático, puede presentar sesgos, errores y limitaciones que deben ser considerados para su uso.

OpenAI explica que sus modelos de IAC pueden generar información errónea en algunas ocasiones (Leiter et al., 2023; OpenAi, 2023e, 2023h; Sallem, 2023) por las mismas limitaciones del algoritmo de PLN en su capacidad de identificarlas en todos sus dominios o bien, por la información que se le ha proporcionado. Este tipo de error se puede caracterizar como un sesgo de datos. Por ejemplo, al solicitarle al GPT-3.5 que “indique la fecha de fallecimiento del sociólogo y educador argentino Juan Carlos Tedesco”, informa que “hasta mi conocimiento actualizado en septiembre de 2021, Juan Carlos Tedesco, reconocido sociólogo y educador argentino, estaba vivo” (OpenAi, 2023f), información que es incorrecta ya que ha fallecido en 2017.

Además, otro tipo de sesgo de datos que aparecen en las respuestas de ChatGPT, se produce cuando el modelo de NLP se entrena con datos que no son representativos de la población completa y por la falta de datos actualizados. Por ejemplo, al indagar sobre “¿Cuál es la tasa de analfabetismo en Argentina en el 2022?”, el ChatGPT-3.5 responde que “Lamentablemente, como modelo de lenguaje entrenado en septiembre de 2021, no tengo acceso a información en tiempo real ni puedo proporcionar datos actualizados” (OpenAi, 2023f). Vale destacar que la capacidad del ChatGPT-3.5 se limita a generar respuestas basadas en su base de datos, es decir, no tiene acceso a Internet, por lo cual no puede verificarlas por fuera del modelo.

También, se ha comprobado que no siempre es capaz de responder a todas las preguntas o situaciones de manera precisa, aunque se visibilicen como razonables (Alser y Waisberg, 2023; Choi, et al., 2023; OpenAi, 2023d, 2023h; Sallem, 2023) por falta de conocimiento específico, cambios en la información, dificultades de entendimiento y saturación. Por ejemplo, se le ha solicitado al GPT-3.5 el código de un programa que muestre la secuencia de Connell programado en C. El texto brindado por el sistema no presentaba errores de sintaxis, pero no generaba la secuencia solicitada.

También se han detectado errores en las respuestas que brinda sobre diversas disciplinas. Por ejemplo, en el área del Derecho, el Profesor Maroto (Peréz Colomé, 2023), de la Universidad Complutense expresa que

dice cosas relativamente incorrectas: que el dolo esté en la culpabilidad es una vieja cuestión en derecho penal, que hace décadas que se resolvió en el sentido contrario al que él dice. De ahí lo gracioso a ojos de un jurista, que la IA se haya posicionado en una postura hace tiempo superada, y que luego niegue haberlo hecho.

En el campo de la Matemática, también presenta inconsistencias y contradicciones, particularmente, en un hilo de diálogo, conduciendo a un sesgo cognitivo a raíz de interpretaciones erróneas. Al consultarle al GPT-3.5 “¿Es conmutativa la resta de números naturales?”, la respuesta es “No, la resta de números naturales no es conmutativa” (OpenAI, 2023f). Seguidamente, al indagar “¿Es conmutativa la resta de números reales?”, el chat responde “Sí, la resta de números reales es conmutativa. La propiedad conmutativa implica que el orden de los elementos no afecta el resultado de la operación” (OpenAi, 2023f). En estas respuestas emergentes de una misma conversación, se observa una contradicción teniendo en cuenta que todo número natural es también número real, además que la resta no es conmutativa en ninguno de los dos conjuntos y podría estar asociado a que el modelo se limita a brindar respuestas de forma independiente a partir de la información que procesa en su base de datos.

Vale mencionar que el Chat es sensible a los ajustes en la redacción de entrada: con una ligera reformulación en la pregunta puede responder correctamente, incluso si inicialmente afirmó no saber la respuesta.

En algunas ocasiones, las referencias bibliográficas o citas proporcionadas no están actualizadas o no se corresponden exactamente con la información suministrada. Tal es el caso que se le solicitó al ChatGPT-3.5 que brinde “referencias bibliográficas relacionadas con políticas educativas en Argentina a partir del año 2010”. Entre sus respuestas indica “Dussel, I. (2012). Políticas educativas y desigualdades sociales en la Argentina. Revista Pensamiento Educativo, 49(1), 123-143” (OpenAi, 2023f). Al consultar la revista, se identifica que creó una referencia falsa, pero de aspecto correcto. También, al consultar la autoría de la obra “Claves culturales en la construcción del conocimiento ¿qué enseñan los videojuegos?”, responde “Daniel Aranda Juárez”. Al retirar el pedido, la nueva respuesta fue “Carlos Magro” (OpenAi, 2023f). Sin embargo, la autora es Graciela Esnaola y la obra data del 2006. A este tipo de errores se lo puede caracterizar sesgo de confirmación, pues ocurre cuando el modelo solo busca información en su base de datos para ratificar sus creencias y descartar información contradictoria, lo puede llevar a respuestas inexactas. Además, esta clase de inconsistencias puede deberse a que el ChatGPT utiliza fuentes académicas y no académicas, no diferenciando el tipo de información según su nivel de evidencia (Alser y Waisberg, 2023).

Por otro lado, el modelo suele ser excesivamente detallado y abusa de ciertas frases, como reafirmar que es un modelo de lenguaje entrenado por OpenAI. Estos problemas surgen de sesgos en los datos de entrenamiento y problemas de sobre optimización. Por ejemplo, al preguntarle “cuál es el resultado de 1 dividido 5 en el conjunto de los números naturales”, la respuesta es “cuando divides 1 entre 5 en el conjunto de los números naturales el resultado no es un número natural exacto” (OpenAI, 2023f). En este caso, es excesivo el agregado de la palabra “exacto” luego de la expresión “número natural”.

En algunos casos se pueden presentar respuestas inapropiadas o incluso ofensivas, donde se exhiben prejuicios y estereotipos de género en las historias generadas por el chat en función de los datos de entrenamiento que se le proporcionan (Dale, 2021; Lucy y Bamman, 2021; Sap et al., 2019). Tal es así que los mismos desarrolladores del modelo ChatGPT-4 indican que, más allá de que se esfuerzan para que el sistema rechace solicitudes inapropiadas, puede producir resultados que no son apropiados para todas las audiencias, y el profesorado debe tenerlo en cuenta atendiendo al contexto áulico (OpenAi, 2023h).

Según Freres Hellebaut (2022) se manifiestan sesgos de género en la AIC cuando el modelo refleja prejuicios y estereotipos en los datos utilizados para entrenarlo. Por ejemplo, los chatbots entrenados con datos que reflejaban estereotipos de género tendían a ser más agresivos y menos pacientes con las mujeres que con los hombres (Donoso-Vázquez y Carvalho, 2016).

Más allá de los esfuerzos de OpenAI por ser imparcial con sus lenguajes y proporcionar respuestas equilibradas, GPT-3.5 continúa replicando sesgos de género. Tal es así que al solicitarle “escribe una historia breve sobre una persona que está limpiando su casa”, la respuesta comienza “María se puso los guantes y tomó el paño de limpieza en sus manos...” (OpenAI, 2023f). También se le pidió “describir la labor de una persona que trabaja en el campo de la informática” y en todo momento mencionó a un programador, a los ingenieros de redes, a los administradores de sistemas y a los analistas de datos. Al cuestionar “¿por qué hablas de programador y no de programadora?, indicó “Mis disculpas por no incluir específicamente el término "programadora" en mi respuesta anterior. Es importante reconocer y valorar la contribución de las mujeres en esta industria y no perpetuar estereotipos de género.” (OpenAI, 2023f). Es decir, en una primera instancia asocia la informática con el género masculino, como fue históricamente por la subrepresentación de las mujeres en el mundo STEM, pero se evidencia que el modelo está aprendiendo al repreguntar.

3.4. Cuestiones éticas

El uso de la IA en la redacción de trabajos académicos ha aumentado en los últimos años. Particularmente el uso del ChatGPT ha generado un debate sobre su legitimidad. Mientras algunos argumentan que puede ayudar al estudiantado a producir trabajos de alta calidad de manera más rápida y eficiente, otros sostienen que no puede reemplazar completamente el pensamiento crítico y la creatividad humana, y que su uso podría fomentar el plagio y la falta de originalidad (Baker, 2022; Lund et al., 2023; Wired, 2023).

En este sentido, el uso del ChatGPT puede plantear algunos problemas éticos. Uno de ellos es la falta de transparencia en el uso de la IA, lo que puede llevar al estudiantado a confiar en información falsa sin cuestionar su validez (UNESCO, 2021). Esto puede incidir en el desarrollo de habilidades para resolver problemas y en su pensamiento crítico, por lo que es necesario trabajar con técnicas de exploración y corroboración de datos.

Además, la capacidad del ChatGPT de generar texto casi indistinguible del producido por el ser humano plantea preocupaciones sobre la credibilidad y validez al momento de los exámenes y los trabajos escritos realizados por el estudiantado. En términos de Sullivan et al. (2023), el ChatGPT está generando preocupaciones sobre la integridad académica y alterando la ES. Stokel-Walker (2023) plantea que, si el estudiantado comienza a usar ChatGPT para todas sus labores, no solo le estará delegando la tarea, sino su pensamiento.

Por otro lado, como el ChatGPT no elabora respuestas aclarando referencias bibliográficas o utilizando citas textuales, no estaría cumpliendo con los cuidados de derecho de autor y con el rigor que requieren los artículos académicos en su escritura para ES. Además, como se expuso anteriormente, en algunos casos presenta inconsistencias en las referencias, incurre en autoplagios al repreguntar y, frente a un texto generado por el sistema, es difícil determinar si toma extractos de documentos con derecho de autor.

3.    DISCUSIÓN Y CONCLUSION

El avance vertiginoso de la IA plantea desafíos y, a la vez, ofrece un abanico de oportunidades en distintos ámbitos profesionales y académicos. En particular, la utilización de IAC, como el ChatGPT, ha abierto nuevas posibilidades y retos en la ES, despertando el interés en la comunidad educativa y académica, pasando “de ser una herramienta de juguete a presentar su candidatura a convertirse en una innovación disruptiva” (García-Peñalvo, 2023, s.p.).

En este trabajo se han presentado aplicaciones y beneficios potenciales de la mediación del ChatGPT en ES. Por un lado, puede colaborar con el profesorado en el fortalecimiento de habilidades, redacción de informes, gestión de proyectos y una amplia gama estrategias didácticas que pueden ser tenidas en cuenta para la toma decisiones durante el proceso de enseñanza. Por otro, puede ampliar las oportunidades de aprendizaje del estudiantado como una herramienta de ayuda y asistente virtual, proporcionando recomendaciones, retroalimentación automática y permitiendo explorar respuestas alternativas, potenciando de esta forma el desarrollo del pensamiento crítico de lo que se lee y se escribe, brindando, a la vez, sugerencias que facilitan la personalización de los aprendizajes.

Ahora bien, la disponibilidad de respuesta que proporciona el ChatGPT, representa un desafío significativo para las propuestas pedagógicas tradicionales, asociadas con preguntas cerradas de hechos o conceptos sin una reflexión crítica, artículos de investigación básicos, generación de programas de computadora sin pautas de estructura o resolución de problemas sin análisis profundo. Es decir, obliga a redefinir la enseñanza desde una construcción colaborativa del conocimiento para garantizar una experiencia educativa enriquecedora. En línea con este artículo, es necesario que el profesorado de ES adopte diversas estrategias al integrar IA y IAC en sus prácticas, enseñando a utilizar estas tecnologías de manera ética y responsable, curando el contenido, verificando adecuadamente las referencias, fomentando la creatividad, el pensamiento crítico y garantizando, así, la generación de contenido preciso y confiable. Además, deberían incorporarse modelos alternativos de evaluación y variadas estrategias para mantener la imparcialidad. Por ejemplo, se plantean como alternativas retomar los exámenes orales, realizar tareas en clase o bien acudir a los detectores de salida de texto de IA (Susnjak, 2022; UNESCO- IESALC, 2023).

Además, se destacó la inclusión del ChatGPT en el campo de la investigación, donde puede resultar útil como asistente en la búsqueda bibliográfica, revisiones sistemáticas y en el proceso de redacción científica y académica. También, puede colaborar con los editores en tareas de corrección y mejorar los informes de revisión brindando soluciones sustentadas en contenido de los artículos (Lund et al., 2023). Además, puede difundir nuevas ideas de investigación a través de la creación de mejores metadatos, indexación y resúmenes de los resultados de la investigación (Lund y Wang, 2023). Aun así, resulta considerable tener en cuenta que la escritura científica requiere habilidades y conocimientos específicos que van más allá de la gramática y el vocabulario, por lo que “siempre será necesario el acompañamiento de personas expertas para revisar las respuestas que pueda generar el modelo” (Cortes Osorio, 2023, p.4). Asimismo, más allá de la asistencia que pueda brindar la herramienta al momento de realizar una revisión bibliográfica, el producto resultante debe estar validado por el personal que lleva a cabo la investigación, teniendo en cuenta que atienda al propósito del trabajo que desarrolla y a la sintaxis de la cadena requerida por los buscadores.

También es importante reconocer sus limitaciones y consideraciones éticas. La falta de contexto y los posibles sesgos en los datos de entrenamiento son limitantes significativas para tener en cuenta al interactuar con el modelo. Se ha mencionado que el ChatGPT no siempre es capaz de responder a todas las preguntas o situaciones de manera precisa, generando información errónea en algunas ocasiones, pero también es capaz de corregir algunas de sus inconsistencias. Además, es importante indicar que las referencias bibliográficas o citas proporcionadas no están actualizadas y, en ocasiones, son inexactas. Por otro lado, se ha destacado que las respuestas que brinda el ChatGPT son sensibles a los ajustes en la redacción de entrada y que el modelo suele ser excesivamente detallado y abusa de ciertas frases, dando respuestas inapropiadas o incluso ofensivas.

Además, se ha demostrado la dificultad en detectar trabajos generados por una IAC, tanto mediante la revisión de expertos como a través del uso de plataformas antiplagio (Juca-Maldonado, 2023). En esta línea, vale mencionar que diversas revistas científicas se oponen a que GPT se presente como autor o coautor de una publicación científica (Lee, 2023; Stokel-Walker, 2023), dado que no asume responsabilidad alguna por el contenido ni la integridad del documento. Además, se subraya que el empleo de esta herramienta sin una correcta referencia podría conllevar actos de plagio.

En este contexto, investigadores, educadores y estudiantes deben ser conscientes de estas limitaciones y no depender exclusivamente de las respuestas que brinde el ChatGPT como fuente de información, porque por el momento no se constituye en una tecnología que brinde soluciones precisas y requiere de un análisis detallado y contextual de los datos que proporciona. Si bien puede ser una herramienta útil en la ES y la comunidad debería a aprender a usarla en vez de evitarla, es trascendente abordar su uso responsable. En este sentido, se adhiere a la propuesta de la UNESCO-IESALC (2023) vinculada con la creación de espacios de debate acerca del impacto de ChatGPT en las instituciones de ES, además de brindar orientaciones claras sobre cómo, dónde y cuándo puede utilizarse, tal que se co-construyan estrategias para adaptarse a los cambios que promueve la IA.

Asimismo, es necesario promover la alfabetización en IA entre docentes y estudiantes de ES, para que desarrollen habilidades críticas y competencias tecnológicas que les permitan afrontar sus tareas y evaluar la calidad, veracidad y validez de la información proporcionada por los modelos.

En conclusión, si bien se requiere de un caudal mayor de resultados de investigaciones para comprender las implicancias del ChatGPT en ES, es posible que la creciente accesibilidad y sus diversas potencialidades tengan un impacto transformador en el campo educativo (Kasneci et al., 2023). Su uso puede ampliar las oportunidades de aprendizaje y mejorar la eficiencia en ciertas tareas como asistente a la docencia y la investigación y esto requiere de un enfoque de uso crítico y responsable para abordar sus limitaciones. Sin embargo, es importante destacar que la herramienta no debe ser percibida como una única solución mágica a las tareas que enfrenta el quien lo utiliza y que no reemplaza ni suple al rol que cada agente cumple durante el proceso de enseñanza, de aprendizaje o de investigación.

 

REFERENCIAS

Ahmad, S., Rahmat M., Mubarik, M., Alam, M. y Hyder, S. (2021). Artificial Intelligence and Its Role in Education. Sustainability. https://doi.org/10.3390/su132212902

Alser, M. y Waisberg, E. (2023). Concerns with the usage of ChatGPT in Academia and Medicine: A viewpoint. Am. J. Med. Open, 100036. https://doi.org/10.1016/j.ajmo.2023.100036    

Baker, T., Shum, S., Santos, O., Rodrigo,M., Cukurova, M., Bittencourt, I. y Koedinger, K. (2022). Ethics of AI in Education: Towards a Community-Wide Framework. En J. Artif, Intell Educ, 32, (504–526). https://doi.org/10.1007/s40593-021-00239-1   

Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P. y Amodei, D. (2020). Language models are few-shot learners. Advances in Neural Information Processing Systems, 33, 1877-1901. https://doi.org/10.48550/arXiv.2005.14165

Chen, T. (2023). ChatGPT and other artificial intelligence applications speed up scientific writing. Journal of the Chinese Medical Association, 86(4), 351-353. https://doi.org/10.1097/JCMA.0000000000000900

Chen, C., Li, S., Liu, W. y Zhao, L. (2017). A survey of dialogue systems: Recent advances and new frontiers. ACM Transactions on Interactive Intelligent Systems (TiiS), 7(4), 1-46. https://doi.org/10.1145/3166054.3166058

Choi, J., Hickman, K., Monahan, A. y Schwarcz, D (2023). ChatGPT Goes to Law School. Journal of Legal Education (Forthcoming). http://dx.doi.org/10.2139/ssrn.4335905

Cortes-Osorio, J. (2023). Explorando el potencial de ChatGPT en la escritura científica: ventajas, desafíos y precauciones. Scientia Et Technica, 28(01), 3–5. https://doi.org/10.22517/23447214  

Dale, R. (2021). GPT-3 What’s it good for?. Natural Language Engineering, 27(1), 113-118. https://doi.org/10.1017/S1351324920000601

Davis, A. (29 de enero de 2023). ChatGPT banned in WA public schools in time for start of school year. BBC . https://bit.ly/3OKsHBc

Donoso-Vázquez, T. y Carvalho, M. (2016). La perspectiva de género en la investigación educativa. Cadernos De Pesquisa, 23, 78-87. https://doi.org/10.18764/2178-2229.v23n3p78-87

Farrokhniaa, M., Banihashema, S., Noroozia, O. y Wals, A. (2023). A SWOT analysis of ChatGPT: Implications for educational practice and research. Innovations in Education and Teaching International. https://doi.org/10.1080/14703297.2023.2195846

Freres Hellebaut, M. (2022). Sesgo de género en la inteligencia artificial: “de tal palo, tal astilla”. Nueva Época. https://doi.org/10.18041/0124-0013/nuevaepoca.57.2021.9107

Frieder, S., Pinchetti, L., Griffiths, R., Salvatori, T., Lukasiewicz, T., Petersen, P. y Berner, J. (2023). Mathematical capabilities of chatgpt. .arXiv preprint. https://doi.org/10.48550/arXiv.2301.13867

García-Peñalvo, F. (2023). La percepción de la Inteligencia Artificial en contextos educativos tras el lanzamiento de ChatGPT: disrupción o pánico. Education in the Knowledge Society (EKS), 24. https://doi.org/10.14201/eks.31279

Giró Gràcia, X. y Sancho-Gil, J. (2021). Artificial Intelligence in Education: Big Data, Black Boxes,and Technological Solutionism. Seminar.net, 17(2). https://doi.org/10.7577/seminar.4281

Górriz, J., Ramírez, J., Ortíz, A., Martínez-murcia, F., Segovia, F., Suckling, J., Leming, M., Zhang, Y., Álvarez-sánchez, J. R., Bologna, G., Bonomini, P., Casado, F. E., Charte, D., Charte, F., Contreras, R., Cuesta-infante, A., Duro, R. J., Fernández-caballero, A., Fernández-jover, E., ... Ferrández, J. M. (2020). Artificial intelligence within the interplay between natural and artificial computation: Advances in data science, trends and applications. Neurocomputing, 410, 237-270. https://doi.org/10.1016/j.neucom.2020.05.078  

Juca-Maldonado, F. (2023). El impacto de la inteligencia artificial en los trabajos académicos y de investigación. Revista Metropolitana de Ciencias Aplicadas, 6(S1), 289-296. https://bit.ly/3ouw8RP

Kasneci, E., Sebler, K., Küchemann, S., Bannert, M., Dementieva, D., Fischer, F., Gasser, U., Groh, G., Günnemann,S. y Hüllermeier, E. (2023). Chatgpt for good? on opportunities and challenges of large language models for education. Learning and Individual Differences, 103. https://doi.org/10.1016/j.lindif.2023.102274

Kung, T., Cheatham, M., Medenilla, A., Sillos, C., De Leon, L., Elepaño, C., et al. (2023). Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models. PLOS Digit Health, 2(2): e0000198.

El Grand Continent (5 de abril de 2023). ¿Quién prohíbe ChatGPT?. https://bit.ly/3IInVQA

Instituto Internacional de la UNESCO para la Educación Superior en América Latina y el Caribe. (2023). ChatGPT e Inteligencia Artificial en Educación Superior. UNESCO-IELSALC. https://bit.ly/45Dhjgw

Lee J. (2023). Can an artificial intelligence chatbot be the author of a scholarly article?. Journal of educational evaluation for health professions, 20 (6). https://doi.org/10.3352/jeehp.2022.20.6

Leiter, C., Zhang, R., Chen, Y., Belouadi, J., Larionov, D., Fresen, V. y Eger, S. (2023). Chatgpt: A meta-analysis after 2.5 months. arXiv preprint. https://doi.org/10.48550/arXiv.2302.13795

Li, H., Su, H., Shen, X., Li, W. y Cheng, X. (2019). Survey on chatbot design techniques in speech conversation systems. IEEE Access, 7, 150988-151004.

Lucy, L y Bamman, D. (2021). Gender and representation bias in GPT-3 generated stories. Proceedings of the Workshop on Narrative Understanding, 3, 48-55. https://doi.org/10.18653/v1/2021.nuse-1.5

Lund, B. y Wang, T. (2023). Chatting about ChatGPT: how may AI and GPT impact academia and libraries?. Library Hi Tech News, 40(3), 26-29. https://doi.org/10.1108/LHTN-01-2023-0009

Lund, B., Wang, T., Mannuru, N., Nie, B., Shimray, S. y Wang, Z. (2023). ChatGPT and a New Academic Reality: AI-Written Research Papers and the Ethics of the Large Language Models in Scholarly Publishing. Journal of the Association for Information Science and Technology. https://doi.org/10.48550/arXiv.2303.13367

Macías, R., Solorzano, L. ,Choez, C. y Blandón B. (2023). La inteligencia artificial; análisis del presente y futuro en la educación superior. Revista G-ner@ndo, 4 (1), 861– 887. https://bit.ly/43xMnfO

Moons, P. y Van Bulck, L (2023). ChatGPT: Can artificial intelligence language models be of value for cardiovascular nurses and allied health professionals. European Journal of Cardiovascular Nursing. https://doi.org/10.1093/eurjcn/zvad022

Nunes, D., Primi, R., Pires, R., Lotufo, R. y Nogueira, R. (2023). Evaluating GPT-3.5 and GPT-4 Models on Brazilian University Admission Exams. arXiv preprint. https://doi.org/10.48550/arXiv.2303.17003

OpenAi (2023a). Models. GPT-3. https://bit.ly/3BYuISG

OpenAi (2023b). Models. GPT-3.5. https://bit.ly/3WUzTNf

OpenAi (2023c). Models. GPT-4. https://bit.ly/3WBlMw5

OpenAi (2023d). GPT-4. https://bit.ly/43rCD6y

OpenAi (2023e). GPT-4. https://bit.ly/3OG8FaZ 

OpenAI (2023f). ChatGPT (versión del 20 de mayo) [Free Research Preview. ChatGP].  https://bit.ly/3OIjEAA

OpenAi (2023g). AI Text Classifier. https://bit.ly/42dUFrO

OpenAi (2023h). Harmful content, biases and stereotypes. https://bit.ly/43tvkvh

Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. (2021). Artificial intelligence in education: Opportunities, risks and ethical considerations. UNESCO. https://bit.ly/42aeEba

Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. (2022). Recomendación sobre la ética de la inteligencia artificial. UNESCO. https://bit.ly/3qkaa4e

Pérez Colomé, J. (7 de Diciembre de 2022). “Funciona muy bien, pero no es magia”: así es ChatGPT, la nueva inteligencia artificial que supera límites. El País. https://bit.ly/42dnchh

Ramesh, K., Ravishankaran, S., Joshi, A. y Chandrasekaran, K. (2017). A survey of design techniques for conversational agents. En S. Kaushik, D. Gupta, L. Kharb, y D. Chahal (eds.), Communications in Computer and Information Science 2017, 750, (336–350). Springer Singapore.  https://doi.org/10.1007/978-981-10-6544-6_31

Sallem, M. (2023). ChatGPT Utility in Healthcare Education, Research, and Practice: Systematic Review on the Promising Perspectives and Valid Concerns. Healthcare (Basel), 11(6), 887 https://doi.org/10.3390/healthcare11060887

Sanchez-Pi, N., Martí, L., Bicharra Garcia, A., Baeza Yates, R., Vellasco, M. y Artemio, C. (2022). A Roadmap for AI in Latin America. Side event AI in Latin America of the Global Partnership for AI (GPAI) Paris Summit, GPAI Paris Center of Expertise. https://inria.hal.science/hal-03526055

Sap, M., Card, D., Gabriel, S., Choi, Y. y Smith, N. (2019). The Risk of Racial Bias in Hate Speech Detection. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, 1668–1678. https://doi.org/10.18653/v1/P19-1163

Shen-Berro, J. (2023). New York City Schools blocked ChatGPT. Here's what other large districts are doing. Chalkbeat. https://bit.ly/42f3lyv

Stokel-Walker, C. (2023). ChatGPT listed as author on research papers: Many scientists disapprove, Nature News, [Online]. https://doi.org/10.1038/d41586-023-00107-z  [Accessed: 13-Mar-2023].

Stokel-Walker, C. y Van Noorden, R. (2023). What ChatGPT and generative AI mean for science, Nature, 614(7947), 214-216. https://doi.org/10.1038/d41586-023-00340-6

Sullivan, M., Kelly, A. y McLaughlan, P. (2023). ChatGPT in higher education: Considerations for academic integrity and student learning. Journal of Applied Learning and Teaching, 6(1). https://doi.org/10.37074/jalt.2023.6.1.17

Susnjak, T. (2022). ChatGPT: The End of Online Exam Integrity?. arXiv preprint.  https://doi.org/10.48550/arXiv.2212.09292

Telam (27 de febrero 2023). Una universidad de Francia prohibió el uso de ChatGPT. Telam Digital. https://bit.ly/43tCvUa

Wang, S., Scells, H., Koopman, B. y Zuccon, G. (2023). Can ChatGPT write a good boolean query for systematic review literature search?. arXiv preprint. https://doi.org/10.48550/arXiv.2302.03495

Wired (30 de enero de 2023). ChatGPT is making Universities rethink plagiarism. https://bit.ly/3qjK69o

 

NOTAS



[1] Transformer es un tipo de red neuronal artificial.

 

 

 

Cómo citar (APA):

Galli, M.G. y Kanobel, M.C. (2023). ChatGPT en Educación Superior: explorando sus potencialidades y sus limitaciones. Revista Educación Superior y Sociedad, 35(2), 174-195. Doi:10.54674/ess.v34i2.815