Foto: Rod Long en Unsplash

La respuesta de las universidades al ChatGPT necesita mรกs imaginaciรณn

La adopciรณn de las herramientas de inteligencia artificial en las aulas es inevitable. Pero es buen momento para desarrollar soluciones imaginativas ante lo que ha llegado y lo que estรก por venir.
Aร‘ADIR A FAVORITOS
ClosePlease loginn

En las aulas del futuro โ€“si aรบn existe algunaโ€“ es fรกcil imaginar el punto cumbre de una carrera armamentista: una inteligencia artificial (IA) que genera las lecciones y ejercicios del dรญa; una IA desplegada por los estudiantes, que haga la tarea en secreto; y, por รบltimo, una IA de terceros que determine si alguno de los alumnos hizo realmente el trabajo con sus propias manos e ideas. Un bucle completo en el que no se necesitan seres humanos. Si nos tomรกramos al pie de la letra todo el revuelo causado por ChatGPT, esto podrรญa parecer inevitable. No lo es.

Sin embargo, se avecina una respuesta a la exitosa demostraciรณn de software lanzada por OpenAI en noviembre pasado. Basta con ver cรณmo tuvieron que lidiar las escuelas con las posibles externalidades de las nuevas tecnologรญas que fueron esenciales durante la pandemia, para ver cรณmo podrรญa surgir una reacciรณn paranoica similar con el ChatGPT โ€“o, quizรก, cรณmo no deberรญa hacerlo. Hace tres aรฑos, cuando las escuelas tuvieron que cambiar a las clases a distancia a mitad del curso escolar, se produjo un giro masivo a lo que hasta ahora era principalmente un software empresarial: Zoom. Al aumento de Zoom le siguiรณ rรกpidamente el pรกnico a que los estudiantes estuvieran haciendo trampa si no se les vigilaba adecuadamente. Empresas oportunistas de tecnologรญa educativa se apresuraron a ofrecer como soluciรณn una mayor vigilancia a los estudiantes, alegando que invadir sus cocinas, salas y dormitorios era la รบnica forma de garantizar la integridad acadรฉmica y la inviolabilidad de los certificados por los que trabajaban. Esta vigilancia se replicรณ en las oficinas.

Ahora lo estamos viendo una vez mรกs con el fervor del ChatGPT y los temores de que los estudiantes hagan trampas. Profesores e instructores estรกn preocupados por la forma en que se utilizarรก la tecnologรญa para esquivar las tareas, mientras que las empresas promocionan sus propias herramientas de “inteligencia artificial” para luchar contra la inteligencia artificial, todo en nombre del espรญritu de la educaciรณn.

Consideremos la avalancha de ensayos que nos quieren hacer creer que no solo los cursos universitarios de inglรฉs, sino todo el sistema educativo estรก en peligro por esta tecnologรญa. The Atlantic proclamรณ “El fin del inglรฉs en la escuela” y anunciรณ que “El ensayo universitario ha muerto”. Una columna de Bloomberg Opinion afirmรณ que con ChatGPT la “IA ayudarรก casi con toda seguridad a matar los ensayos en la universidad”. Un reciente trabajo de investigaciรณn nos dice que GPT-3 (un precursor de ChatGPT) aprobรณ un examen de MBA de un profesor de la escuela de negocios Wharton de la Universidad de Pensilvania.

ยฟQuรฉ significa que cedamos la creaciรณn y la creatividad a una mรกquina?

Cada vez que en las escuelas y universidades aparecen temores de plagio con ayuda de la tecnologรญa, es casi seguro que la soluciรณn presentada serรก detectar el plagio con ayuda de otra tecnologรญa. Casi al mismo tiempo que la oleada de artรญculos sobre el chatbot, hubo una serie de artรญculos que proponรญan soluciones. Un estudiante de la Universidad de Princeton dedicรณ gran parte de sus vacaciones de invierno a crear GPTZero, una aplicaciรณn que, segรบn รฉl, puede detectar si un texto ha sido escrito por un humano o por ChatGPT. Turnitin, el leviatรกn de la detecciรณn del plagio, estรก promocionando sus propias soluciones de “inteligencia artificial” para hacer frente al creciente problema. Incluso, profesores en todo Estados Unidos han detectado estudiantes que envรญan ensayos escritos por el chatbot. La propia OpenAI, en un intento por vendernos tanto la enfermedad como la cura, ha propuesto un detector de plagio o usar un tipo de marca de agua para notificar a la gente cuรกndo se ha utilizado la tecnologรญa. Por desgracia, la herramienta lanzada es, segรบn la empresa, “no del todo confiableโ€.

Ser testigos de este ciclo de despliegue y โ€œsolucionismoโ€ tecnolรณgico nos obliga a preguntarnos: ยฟpor quรฉ seguimos haciendo esto? Aunque el plagio es un objetivo fรกcil y estรก siempre en la mente de maestros y profesores cuando piensan en esta tecnologรญa, hay preguntas mรกs profundas que debemos plantearnos, preguntas que se borran cuando la atenciรณn se centra en tachar a los estudiantes de tramposos e iniciar un duelo de inteligencia artificial entre estudiantes y profesores. Preguntas como ยฟcuรกles son las implicaciones de utilizar una tecnologรญa que se ha entrenado con algunos de los peores textos de internet? y ยฟquรฉ significa que cedamos la creaciรณn y la creatividad a una mรกquina?

Uno de los detalles mรกs interesantes de la vorรกgine mediรกtica del ChatGPT requiere una sutil atenciรณn a los cambios en la รฉtica de la inteligencia artificial. En una entrevista reciente, el CEO de OpenAI, Sam Altman, afirmรณ la necesidad de que la sociedad se adapte a la tecnologรญa de generaciรณn de textos: “Nos adaptamos a las calculadoras y cambiamos lo que examinamos en clase de matemรกticas, me imaginoโ€. En ese calificativo con el que termina la frase, podemos descubrir un debate muy antiguo: los tecnรณlogos adivinando cรณmo los profesores se podrรญan adaptar a la tecnologรญa. Altman “imagina” que “nosotros” (los profesores) tuvimos que “cambiar” nuestros exรกmenes a causa de las calculadoras. Lo que OpenAI probablemente no hizo durante la construcciรณn de ChatGPT es estudiar el impacto pedagรณgico potencial de su herramienta.

En lugar de “imaginar” lo que ChatGPT podrรญa hacer en el aula, los profesores tienen que adaptar las clases, las actividades y las evaluaciones al nuevo entorno creado por la herramienta. Parte de ese trabajo es apasionante, como lo fue cuando muchos de nosotros empezamos a introducir las redes sociales en el aula para conectar a nuestros alumnos con personas externas a la clase, o colaborar en tiempo real en un documento compartido. Sin embargo, hay otra parte que es similar a cuando tenemos que desarrollar planes en caso de emergencia en la escuela. Hacemos el trabajo, pero la adaptaciรณn a) podrรญa haberse evitado, y b) distrae del trabajo.

Podrรญamos imaginar otra forma en la que esto pudo llevarse a cabo. Pensemos cรณmo serรญan las pruebas pedagรณgicas para una herramienta como ChatGPT: grupos de discusiรณn, expertos, experimentaciรณn. Desde luego, hay dinero para ello. OpenAI estรก recibiendo inversiones de todas partes (despuรฉs de darle mil millones de dรณlares hace cuatro aรฑos, Microsoft acaba de invertir otros 10 mil millones) y acaba de lanzar un servicio que permitirรก a las empresas integrar modelos similares a ChatGPT en sus sistemas.

En todas estas discusiones, es imperativo entender quรฉ es esta herramienta o, mรกs explรญcitamente, quรฉ se necesita para que exista. OpenAI pagรณ a Sama, una empresa asociada, 200 mil dรณlares para que enseรฑara a ChatGPT a no ser violento, racista o sexista. Los trabajadores de Sama recibieron una remuneraciรณn de entre 1.50 y 2 dรณlares la hora para evitar que ChatGPT imitara los peores comportamientos humanos. Los trabajadores de Kenia entrevistados por la revista Time afirmaron haber quedado “mentalmente marcados” por realizar este trabajo. ยฟEs una sorpresa que la empresa quiera lanzar su herramienta “disruptiva” y dejarla a las puertas de las escuelas del mundo con el sabio consejo de tratarla como a una calculadora? No deberรญa.

En los prรณximos aรฑos, los profesores de muchos niveles se adaptarรกn a lo que la inteligencia artificial generarรก por, con y para los estudiantes. Algunos adoptarรกn la herramienta como una ayuda para la escritura; otros se atrincherarรกn e interrogarรกn a los estudiantes cuyos trabajos parezcan autogenerados. ChatGPT nos ha permitido a todos imaginar cosas de las que debemos preocuparnos. Sin embargo, de una cosa podemos estar seguros: OpenAI no estรก pensando mucho en los profesores. Ha decidido “irrumpir” y marcharse, sin pensar en lo que las escuelas deberรญan hacer con el programa.

Casi todos los artรญculos sobre esta tecnologรญa han recurrido a un argumento atractivo, pero muy errรณneo: la tecnologรญa estรก aquรญ y no va a ir a ninguna parte, asรญ que serรก mejor aprender a vivir con ella. Nos dicen que se trata de un genio que ha salido de la botella, pero no toman en cuenta el final que tienen la mayorรญa de los genios, que regresan a la botella despuรฉs de haber causado algรบn tipo de daรฑo. El escritor y teรณrico L.M. Sacasas se refiere a esta lรญnea de argumentaciรณn como el “complejo de Borg“. Decir que la resistencia a una determinada tecnologรญa es inรบtil es uno de los argumentos favoritos de los tecnรณlogos, que lanzan al mundo sistemas con pocas o ninguna barrera de protecciรณn, y luego quieren que la sociedad asuma la responsabilidad de resolver la mayorรญa de los problemas que surgen con dicha tecnologรญa.

Volvamos a la carrera armamentista que describimos. Cuando el ciclo de vida de una actividad de clase es influido en cada fase por un instrumento de inteligencia artificial (construcciรณn de las tareas, trabajo de los alumnos, evaluaciรณn), los utรณpicos digitales podrรกn afirmar que los alumnos y los profesores tendrรกn mรกs oportunidades para el pensamiento crรญtico porque la generaciรณn de ideas โ€“el trabajo duro de escribirโ€“ no nos quita tiempo. En esta lรญnea de pensamiento, ChatGPT no es mรกs que otra calculadora, pero para el lenguaje en lugar del cรกlculo numรฉrico.

Cuando profesores y alumnos empiezan a ceder la gรฉnesis de sus ideas a una versiรณn muy avanzada de la autocorrecciรณn, el potencial de descubrimiento en grupo empieza a evaporarse.

Esta afirmaciรณn, segรบn la cual la inteligencia artificial podrรญa “liberar a los trabajadores humanos para que se centren en un trabajo mรกs reflexivo โ€“e idealmente rentableโ€“,โ€ es errรณnea. Todo es trabajo duro cuando se trata de escribir (y todo lo que se puede hacer con ello). Tener una idea, plasmarla en un lenguaje y comprobar si ese lenguaje coincide con nuestra idea original es un proceso metacognitivo que nos cambia. Nos pone a dialogar con nosotros mismos y, a menudo, tambiรฉn con los demรกs. Delegar la generaciรณn de ideas a una mรกquina de inteligencia artificial es perderse la revisiรณn constante que la reflexiรณn provoca en nuestro pensamiento. Por no mencionar que la mayor diferencia entre una calculadora y ChatGPT es que una calculadora no tiene que contrastar su respuesta con el ruidoso caos de todo lo tรณxico y detestable que se ha publicado en internet.

Podrรก decirse que es un concepto idealista, pero el aula es uno de los espacios mรกs comunes en la vida moderna para el potencial de la construcciรณn colectiva de significados. No todas las aulas satisfacen ese objetivo, pero cuando profesores y alumnos empiezan a ceder la gรฉnesis de sus ideas a una versiรณn muy avanzada de la autocorrecciรณn, el potencial de descubrimiento en grupo empieza a evaporarse. Ese futuro mรกs cรญnico no estรก en la mente de quienes argumentan: “te guste o no, ChatGPT estรก aquรญ, asรญ que asรบmelo”. Es un fallo de imaginaciรณn pensar que debemos aprender a vivir con una herramienta de escritura de inteligencia artificial solo porque fue construida.

Desde el punto de vista pedagรณgico, el tiempo mรกs valioso con nuestros alumnos es aquel en el que los vemos trabajando duro para plasmar sus ideas, ver cรณmo estas se desarrollan, se marchitan y ceden terreno a otras mejores. Entregarle ese tiempo a Silicon Valley y a la desordenada base de datos que es internet serรญa a cuenta y riesgo de nuestros alumnos.

Quizรก sea un buen momento para dar un paso atrรกs y desarrollar mejores soluciones para lo que ha llegado y lo que estรก por venir. En lugar de aumentar la vigilancia y la detecciรณn con herramientas que, en el mejor de los casos, son anormales y poco fiables, los profesores pueden hablar con los alumnos de forma reflexiva sobre lo que estรก en juego con los textos generados por la inteligencia artificial.  Al mismo tiempo, tenemos que seguir creando actividades y evaluaciones para que el trabajo en clase sea mรกs especรญfico y basado en experiencias. (Es probable que ChatGPT no funcione tan bien con las observaciones comunitarias o entrevistas locales). Y tenemos que insistir en que, en el futuro, las empresas de inteligencia artificial sienten a la mesa a los profesores para estudiar las implicaciones de sus nuevas herramientas.

Pero tambiรฉn debemos imaginar un entorno en el que no nos veamos arrastrados involuntariamente a un ciclo en el que una tecnologรญa no probada se impone constantemente en nuestras vidas. Hemos dado el importante paso de la regulaciรณn en otras industrias importantes (como el tabaco, los productos farmacรฉuticos, la fabricaciรณn de automรณviles). Los educadores, y los ciudadanos en general, se beneficiarรญan de una conversaciรณn mรกs pรบblica y reflexiva, impulsada antes por la investigaciรณn que por la especulaciรณn lucrativa. Mientras tanto, no hagamos caso de los discursos vigilantistas. No necesitamos echarle una mano al futuro que ChatGPT implica. ~



Este artรญculo es publicado gracias a una colaboraciรณn de Letras Libres con Future Tense, un proyecto deย Slate,ย New America, yย Arizona State University.

+ posts

es Just Tech Fellow del Social Science Research Council.

+ posts

es profesor asistente de Inglรฉs en el Kennesaw State University (Georgia, E.U.), se especializa en retรณrica y cultura digital.


    ×

    Selecciona el paรญs o regiรณn donde quieres recibir tu revista: