¿Está prohibido usar ChatGPT en las universidades?
Los múltiples usos de la inteligencia artificial en la educación superior y los cambios que presagian, plantean muchas interrogantes, aún sin respuesta.
El debate público sobre la inteligencia artificial en la educación superior se ha centrado principalmente en una preocupación común: las trampas. ¿Usarán los estudiantes chatbots para escribir ensayos? ¿Pueden los profesores detectarlo? ¿Deberían las universidades prohibir esta tecnología? ¿Deberían adoptarla?
Estas preocupaciones son comprensibles. Pero centrarse tanto en las trampas pasa por alto la transformación más amplia que ya está en marcha, una que se extiende mucho más allá de la mala conducta estudiantil e incluso del aula.
Las universidades y la posibilidad de prohibir ChatGPT
Las universidades están adoptando la IA en muchas áreas de la vida institucional. Algunos usos son en gran medida invisibles, como los sistemas que ayudan a asignar recursos, identificar a estudiantes en riesgo, optimizar la programación de cursos o automatizar decisiones administrativas rutinarias. Otros usos son más visibles. Los estudiantes utilizan herramientas de IA para resumir y estudiar, los profesores las utilizan para crear tareas y programas de estudio, y los investigadores las utilizan para escribir código, escanear bibliografía y reducir horas de trabajo tedioso a minutos.
Las personas pueden usar la IA para hacer trampa o eludir tareas laborales. Pero los múltiples usos de la IA en la educación superior y los cambios que presagian plantean una pregunta mucho más profunda: a medida que las máquinas se vuelven más capaces de realizar la labor de investigación y aprendizaje, ¿qué sucede con la educación superior? ¿Qué propósito cumple la universidad?
Durante los últimos ocho años, hemos estudiado las implicaciones morales de la interacción generalizada con la IA como parte de un proyecto de investigación conjunto entre el Centro de Ética Aplicada de la Universidad de Massachusetts (UMass) en Boston y el Instituto de Ética y Tecnologías Emergentes. En un informe reciente, argumentamos que, a medida que los sistemas de IA se vuelven más autónomos, aumentan los riesgos éticos de su uso en la educación superior, al igual que sus posibles consecuencias.
A medida que estas tecnologías mejoran la producción de conocimiento (diseñando clases, redactando trabajos, proponiendo experimentos y resumiendo textos complejos), no solo aumentan la productividad de las universidades, sino que también corren el riesgo de socavar el ecosistema de aprendizaje y mentoría sobre el que se construyen estas instituciones y del que dependen.
IA no autónoma
Consideremos tres tipos de sistemas de IA y sus respectivos impactos en la vida universitaria:
El software impulsado por IA ya se utiliza en la educación superior para la revisión de admisiones, las compras, el asesoramiento académico y la evaluación de riesgos institucionales. Estos se consideran sistemas “no autónomos” porque automatizan tareas, pero una persona está “involucrada” y utiliza estos sistemas como herramientas.
Estas tecnologías pueden suponer un riesgo para la privacidad y la seguridad de los datos de los estudiantes. También pueden ser sesgadas. Y a menudo carecen de la transparencia suficiente para determinar el origen de estos problemas. ¿Quién tiene acceso a los datos de los estudiantes? ¿Cómo se generan las “puntuaciones de riesgo”? ¿Cómo evitamos que los sistemas reproduzcan desigualdades o traten a ciertos estudiantes como problemas que deben gestionarse?
Estas preguntas son serias, pero no son conceptualmente nuevas, al menos en el campo de la informática. Las universidades suelen contar con oficinas de cumplimiento, juntas de revisión institucional y mecanismos de gobernanza diseñados para ayudar a abordar o mitigar estos riesgos, incluso si a veces no alcanzan estos objetivos.
IA híbrida
Los sistemas híbridos abarcan diversas herramientas, como chatbots de tutoría asistida por IA, herramientas de retroalimentación personalizada y soporte automatizado para la escritura. Suelen basarse en tecnologías de IA generativa , especialmente en modelos lingüísticos extensos. Si bien los usuarios humanos establecen los objetivos generales, los pasos intermedios que el sistema toma para alcanzarlos no suelen estar especificados.
Los sistemas híbridos están moldeando cada vez más el trabajo académico diario. Los estudiantes los utilizan como compañeros de escritura, tutores, compañeros de lluvia de ideas y explicadores a demanda. El profesorado los utiliza para generar rúbricas, redactar clases y diseñar programas de estudio. Los investigadores los utilizan para resumir trabajos, comentar borradores, diseñar experimentos y generar código.
Aquí es donde se habla de “hacer trampa”. Dado que tanto estudiantes como profesores recurren cada vez más a la tecnología, es razonable preguntarse qué tipos de aprendizaje podrían perderse en el proceso. Pero los sistemas híbridos también plantean cuestiones éticas más complejas.
Una de ellas tiene que ver con la transparencia. Los chatbots de IA ofrecen interfaces de lenguaje natural que dificultan distinguir cuándo se interactúa con un humano y cuándo con un agente automatizado.
Esto puede resultar alienante y distractor para quienes interactúan con ellos. Un estudiante que revisa material para un examen debería poder distinguir si está hablando con su asistente de enseñanza o con un robot. Un estudiante que lee la retroalimentación de un trabajo final necesita saber si fue escrito por su instructor. Cualquier cosa que no sea una transparencia completa en estos casos resultará alienante para todos los involucrados y desviará el enfoque de las interacciones académicas del aprendizaje a los medios o la tecnología del aprendizaje. Investigadores de la Universidad de Pittsburgh han demostrado que estas dinámicas generan sentimientos de incertidumbre, ansiedad y desconfianza en los estudiantes. Estos son resultados problemáticos.
Una segunda cuestión ética se relaciona con la rendición de cuentas y el reconocimiento intelectual. Si un profesor utiliza IA para redactar una tarea y un estudiante utiliza IA para redactar una respuesta, ¿quién realiza la evaluación y qué se evalúa exactamente? Si la retroalimentación se genera parcialmente de forma automática, ¿quién es responsable cuando induce a error, desalienta o infunde suposiciones ocultas? Y cuando la IA contribuye sustancialmente a la síntesis o la redacción de investigaciones, las universidades necesitarán normas más claras en torno a la autoría y la responsabilidad , no solo para los estudiantes, sino también para el profesorado.
Finalmente, está la cuestión crucial de la descarga cognitiva. La IA puede reducir el trabajo pesado, y eso no es intrínsecamente malo. Pero también puede distraer a los usuarios de las partes del aprendizaje que desarrollan la competencia, como generar ideas, lidiar con la confusión, revisar un borrador torpe y aprender a detectar los propios errores.
Agentes autónomos
Los cambios más significativos podrían venir de sistemas que se parecen menos a asistentes y más a agentes. Si bien las tecnologías verdaderamente autónomas siguen siendo una aspiración, el sueño de un investigador “en una caja” —un sistema de IA con agencia capaz de realizar estudios por sí solo— se está volviendo cada vez más realista.
Se prevé que las herramientas agenciales liberen tiempo para trabajos centrados en capacidades más humanas, como la empatía y la resolución de problemas. En la docencia, esto puede significar que el profesorado pueda seguir enseñando en el sentido principal, pero una mayor parte de la labor docente diaria puede delegarse en sistemas optimizados para la eficiencia y la escalabilidad. De igual manera, en la investigación, la trayectoria apunta hacia sistemas que pueden automatizar cada vez más el ciclo de investigación. En algunos ámbitos, esto ya se materializa en laboratorios robóticos que funcionan continuamente , automatizan gran parte de la experimentación e incluso seleccionan nuevas pruebas basándose en resultados previos.
A primera vista, esto podría parecer un impulso positivo a la productividad. Pero las universidades no son fábricas de información; son sistemas de práctica. Se basan en un flujo constante de estudiantes de posgrado y académicos en sus inicios de carrera que aprenden a enseñar e investigar participando en ese mismo trabajo.
Si los agentes autónomos asumen una mayor parte de las responsabilidades rutinarias que históricamente sirvieron como acceso a la vida académica, la universidad podría seguir produciendo cursos y publicaciones mientras, discretamente, reduce las estructuras de oportunidades que sustentan la experiencia a lo largo del tiempo.
La misma dinámica se aplica a los estudiantes universitarios, aunque en un registro diferente. Cuando los sistemas de IA pueden proporcionar explicaciones, borradores, soluciones y planes de estudio a demanda, la tentación es delegar las partes más difíciles del aprendizaje.
Para la industria que está impulsando la IA en las universidades, puede parecer que este tipo de trabajo es “ineficiente” y que los estudiantes estarán mejor si dejan que una máquina se encargue. Pero es la propia naturaleza de esa lucha la que construye una comprensión duradera. La psicología cognitiva ha demostrado que los estudiantes crecen intelectualmente mediante el trabajo de redactar, revisar, fallar, volver a intentarlo, lidiar con la confusión y revisar argumentos débiles. Este es el trabajo de aprender a aprender.
En conjunto, estos avances sugieren que el mayor riesgo que plantea la automatización en la educación superior no es simplemente la sustitución de tareas específicas por máquinas, sino la erosión del ecosistema más amplio de prácticas que ha sostenido durante mucho tiempo la enseñanza, la investigación y el aprendizaje.
Un punto de inflexión incómodo
¿Qué propósito cumplen entonces las universidades en un mundo en el que el trabajo del conocimiento está cada vez más automatizado?
Una posible respuesta considera a la universidad principalmente como un motor para generar credenciales y conocimiento. En este caso, la pregunta central es el resultado: ¿Se gradúan los estudiantes con títulos? ¿Se generan artículos y descubrimientos? Si los sistemas autónomos pueden generar esos resultados con mayor eficiencia, la institución tiene todas las razones para adoptarlos.
Pero otra respuesta considera la universidad como algo más que una máquina de producción, reconociendo que el valor de la educación superior reside en parte en el propio ecosistema. Este modelo asigna un valor intrínseco a la red de oportunidades que permite a los principiantes convertirse en expertos, a las estructuras de mentoría que fomentan el juicio y la responsabilidad, y al diseño educativo que fomenta el esfuerzo productivo en lugar de minimizarlo. En este caso, lo que importa no es solo si se producen conocimientos y títulos, sino cómo se producen y qué tipo de personas, capacidades y comunidades se forman en el proceso. En esta versión, la universidad se concibe como nada menos que un ecosistema que forja de forma fiable la experiencia y el juicio humanos.
En un mundo donde el trabajo del conocimiento está cada vez más automatizado, creemos que las universidades deben preguntarse qué debe la educación superior a sus estudiantes, a sus jóvenes académicos y a la sociedad a la que sirve. Las respuestas determinarán no solo cómo se adopta la IA, sino también en qué se convertirá la universidad moderna.
*Nir EisikovitsProfesor de Filosofía y Director del Centro de Ética Aplicada de la Universidad de Massachusetts, Boston
**Jacob BurleyInvestigador junior, Centro de Ética Aplicada, UMass Boston
Declaración de divulga
Lo último
Lo más leído
Casi nadie tiene claro qué es un modelo generativo. El resto lo leyó en La Tercera
Plan Digital + LT Beneficios$6.990 al mes SUSCRÍBETE