banner

Noticias

Jul 11, 2023

puede anti

Este artículo es parte de la guía: Para la educación, ChatGPT es prometedor y crea problemas.

Después de su lanzamiento el mes pasado, ChatGPT, el último chatbot lanzado por OpenAI, circuló en línea.

Alex, estudiante de segundo año en una universidad de Pittsburgh, comenzó a jugar con el chatbot aproximadamente una semana después de su lanzamiento, después de enterarse en Twitter. Al cabo de un par de días, quedó realmente entusiasmado con la calidad de la escritura que produjo. El chatbot fue bueno, dice, realmente bueno. (“Alex” es el nombre que esta persona le proporcionó a EdSurge. Solo aceptó hablar de forma anónima, por temor a repercusiones por admitir deshonestidad académica).

Encontró el chatbot alrededor de la semana de exámenes finales, cuando todos tenían prisa por terminar los trabajos. La mayoría de la gente parecía interesada en pedirle chistes o historias al chatbot, dice Alex, pero "instantáneamente le intrigó la idea de usarlo para escribir un artículo".

Sin embargo, después de probarlo con algunas indicaciones de ensayo que le habían asignado, notó algunos problemas. La escritura puede resultar incómoda. Repetiría frases o incluiría citas inexactas. Esas pequeñas cosas se sumaron, haciendo que la escritura pareciera como si no viniera de un humano. Pero Alex comenzó a adaptar el texto, experimentando con divisiones y variando el tipo de indicaciones que le daba al chatbot. Parecía eliminar parte del trabajo preliminar ingrato (o, como dirían algunos profesores, el trabajo) de la redacción de ensayos, requiriendo sólo un poco de trabajo previo y un toque de edición: "Al menos puedes escribir artículos un 30 por ciento más rápido". él dice.

Al final, dice que los artículos que él y el robot estaban creando juntos pasaron los controles de plagio con facilidad. Cantó las alabanzas del chatbot a sus amigos. “Yo era como Jesús caminando por ahí predicando la buena palabra, enseñando a la gente cómo usarla”, así lo expresó.

Algo fundamental había cambiado: “Estaba literalmente mareado y riendo, y pensé: 'Amigo, mira esto', y todo cambió para siempre”, dice.

No era el único que conocía el uso de la IA. Pero otros fueron menos cuidadosos con el proceso, anotó. Ponen mucha fe en la escritura algorítmica y entregan ensayos sin repasarlos primero.

Alex, estudiante de finanzas, también olió la oportunidad. Sus bolsillos no estaban exactamente al ras. Entonces, al principio, antes de que se hiciera popular, Alex vendió un puñado de periódicos (estima unos cinco) por “un par de cientos de dólares”. No es un mal precio por un par de horas de trabajo.

En las últimas semanas se ha producido una avalancha de artículos en la prensa popular que detallan cómo los estudiantes utilizan ChatGPT para escribir sus trabajos. La revista Atlantic planteó la pregunta con toda claridad: “El ensayo universitario ha muerto”.

Y la herramienta no sólo presenta un desafío para quienes imparten clases de inglés. El chatbot de IA aparentemente también puede escupir respuestas a algunas preguntas de finanzas y matemáticas.

Pero al igual que Internet, que proporcionó los datos con los que se entrenó al chatbot, el resultado de ChatGPT puede ser arriesgado. Eso significa que las respuestas de ensayo que produce para los estudiantes a menudo incluyen declaraciones que no son objetivamente precisas y, a veces, simplemente inventa cosas. También escribe cosas misóginas y racialmente insensibles.

Pero la historia de Alex muestra que un poco de aportación humana puede corregir estos problemas, lo que plantea la pregunta que muchos profesores se hacen: ¿pueden las herramientas de detección de plagio detectar estas creaciones de IA?

Resulta que los creadores de TurnItIn, una de las herramientas de detección de plagio más utilizadas, no están sudando. "Estamos muy seguros de que, para la generación actual de sistemas de generación de escritura de IA, la detección es posible", dice Eric Wang, vicepresidente de IA de la empresa.

El plagio está evolucionando, pero, en teoría, todavía se puede descubrir, argumenta. Esto se debe a que, a diferencia de la escritura humana, que tiende a ser idiosincrásica, la escritura automática está diseñada para utilizar palabras de alta probabilidad, dice Wang. Simplemente le falta ese toque humano.

En pocas palabras, los ensayos escritos por chatbots son increíblemente predecibles. Las palabras que escribe la máquina son palabras que usted espera, donde las esperaría. Y esto deja, dice Wang, un “artefacto estadístico” que se puede probar. Y la compañía dice que podrá ayudar a los educadores a detectar algunos de los trucos utilizando herramientas algorítmicas como ChatGPT en algún momento del próximo año.

Ya sea que crea que declarar muerto el ensayo universitario es un diagnóstico prematuro o no, las preocupaciones responden a una tendencia real.

Hacer trampa, bueno, está de moda.

A medida que los estudiantes se agotan por el estrés y la incertidumbre sin precedentes en los que se han visto envueltos, parecen sentirse más tentados a tomar atajos. Las universidades han informado que las trampas, en algunos casos, se han duplicado o incluso triplicado desde el inicio de la pandemia. Por ejemplo: en el año escolar 2020-2021, en plena pandemia, la Virginia Commonwealth University informó 1.077 casos de mala conducta académica, un aumento de más del triple.

Las cifras muestran que las trampas han aumentado drásticamente, pero las cifras reales pueden estar subestimadas, dice Derek Newton, que dirige The Cheat Sheet, un boletín centrado en el fraude académico. La gente se muestra reacia a confesar haber hecho trampa, dice Newton. La mayoría de los estudios de integridad académica se basan en informes propios y puede ser difícil probar que alguien hace trampa, añade. Pero dice que está claro que las trampas se han "explotado".

¿Qué está causando eso? A medida que las universidades se apresuraron a enseñar a más estudiantes, recurrieron a programas en línea. Eso crea buenas condiciones para hacer trampa porque reduce la cantidad de interacciones humanas que tienen las personas y aumenta la sensación de anonimato entre los estudiantes, dice Newton. También ha habido un aumento en el uso de “sitios de ayuda con las tareas”, empresas que brindan respuestas a pedido y lugares para que los estudiantes compartan las respuestas de los exámenes, lo que, según él, lleva las trampas a gran escala.

¿El problema? Los estudiantes no están aprendiendo tanto y, en opinión de Newton, el valor que se supone que las universidades deben brindarles a los estudiantes no existe. Y como es raro que los estudiantes hagan trampa solo una vez, dice, el aumento de las trampas degrada la responsabilidad y la calidad en las profesiones para las que las universidades capacitan a los estudiantes (incluso en campos como la ingeniería). “Así que veo este problema como triplemente malo: es malo para los estudiantes. Es malo para las escuelas. Y es malo para todos nosotros”.

Alex, estudiante de segundo año en Pittsburgh, ve la relación entre el chatbot y el estudiante de manera un poco diferente.

Dice que es una “relación simbiótica”, una en la que la máquina aprende de ti a medida que la usas. Al menos, la forma en que lo hace. "Eso ayuda a su originalidad", afirma, porque aprende las peculiaridades de sus usuarios.

Pero también plantea la cuestión de qué constituye originalidad.

No argumenta que lo que está haciendo es correcto. "Obviamente todo esto no es ético", admite. "Te lo digo ahora mismo, cometí deshonestidad académica".

Sin embargo, sostiene que los estudiantes han utilizado durante mucho tiempo herramientas como Grammarly que ofrecen sugerencias específicas sobre cómo reelaborar la prosa. Y muchos estudiantes ya recurren a Internet en busca de material fuente para sus ensayos. Para él, simplemente estamos en una nueva realidad que la academia debe tener en cuenta.

Y Alex supone que se está corriendo rápidamente la voz entre los estudiantes sobre cómo usar ChatGPT para escribir artículos. "Realmente no hay manera de detenerlo", argumenta.

Incluso algunos líderes universitarios parecen abiertos a renovar la forma en que enseñan para enfrentar el desafío de la IA.

"Me alienta la presión que #ChatGPT está ejerciendo sobre las escuelas y los educadores", tuiteó esta semana Bernard Bull, presidente de la Universidad Concordia de Nebraska. "Como alguien que ha estado defendiendo la humanización y desmecanización de la #educación, es intrigante que un desarrollo tecnológico como este pueda empujarnos hacia enfoques más profundamente humanos".

Daniel Mollenkamp (@dtmollenkamp) es reportero de EdSurge. Puede comunicarse con él en [email protected].

COMPARTIR