Foto: Rod Long en Unsplash

La respuesta de las universidades al ChatGPT necesita más imaginación

La adopción de las herramientas de inteligencia artificial en las aulas es inevitable. Pero es buen momento para desarrollar soluciones imaginativas ante lo que ha llegado y lo que está por venir.
AÑADIR A FAVORITOS
ClosePlease loginn

En las aulas del futuro –si aún existe alguna– es fácil imaginar el punto cumbre de una carrera armamentista: una inteligencia artificial (IA) que genera las lecciones y ejercicios del día; una IA desplegada por los estudiantes, que haga la tarea en secreto; y, por último, una IA de terceros que determine si alguno de los alumnos hizo realmente el trabajo con sus propias manos e ideas. Un bucle completo en el que no se necesitan seres humanos. Si nos tomáramos al pie de la letra todo el revuelo causado por ChatGPT, esto podría parecer inevitable. No lo es.

Sin embargo, se avecina una respuesta a la exitosa demostración de software lanzada por OpenAI en noviembre pasado. Basta con ver cómo tuvieron que lidiar las escuelas con las posibles externalidades de las nuevas tecnologías que fueron esenciales durante la pandemia, para ver cómo podría surgir una reacción paranoica similar con el ChatGPT –o, quizá, cómo no debería hacerlo. Hace tres años, cuando las escuelas tuvieron que cambiar a las clases a distancia a mitad del curso escolar, se produjo un giro masivo a lo que hasta ahora era principalmente un software empresarial: Zoom. Al aumento de Zoom le siguió rápidamente el pánico a que los estudiantes estuvieran haciendo trampa si no se les vigilaba adecuadamente. Empresas oportunistas de tecnología educativa se apresuraron a ofrecer como solución una mayor vigilancia a los estudiantes, alegando que invadir sus cocinas, salas y dormitorios era la única forma de garantizar la integridad académica y la inviolabilidad de los certificados por los que trabajaban. Esta vigilancia se replicó en las oficinas.

Ahora lo estamos viendo una vez más con el fervor del ChatGPT y los temores de que los estudiantes hagan trampas. Profesores e instructores están preocupados por la forma en que se utilizará la tecnología para esquivar las tareas, mientras que las empresas promocionan sus propias herramientas de “inteligencia artificial” para luchar contra la inteligencia artificial, todo en nombre del espíritu de la educación.

Consideremos la avalancha de ensayos que nos quieren hacer creer que no solo los cursos universitarios de inglés, sino todo el sistema educativo está en peligro por esta tecnología. The Atlantic proclamó “El fin del inglés en la escuela” y anunció que “El ensayo universitario ha muerto”. Una columna de Bloomberg Opinion afirmó que con ChatGPT la “IA ayudará casi con toda seguridad a matar los ensayos en la universidad”. Un reciente trabajo de investigación nos dice que GPT-3 (un precursor de ChatGPT) aprobó un examen de MBA de un profesor de la escuela de negocios Wharton de la Universidad de Pensilvania.

¿Qué significa que cedamos la creación y la creatividad a una máquina?

Cada vez que en las escuelas y universidades aparecen temores de plagio con ayuda de la tecnología, es casi seguro que la solución presentada será detectar el plagio con ayuda de otra tecnología. Casi al mismo tiempo que la oleada de artículos sobre el chatbot, hubo una serie de artículos que proponían soluciones. Un estudiante de la Universidad de Princeton dedicó gran parte de sus vacaciones de invierno a crear GPTZero, una aplicación que, según él, puede detectar si un texto ha sido escrito por un humano o por ChatGPT. Turnitin, el leviatán de la detección del plagio, está promocionando sus propias soluciones de “inteligencia artificial” para hacer frente al creciente problema. Incluso, profesores en todo Estados Unidos han detectado estudiantes que envían ensayos escritos por el chatbot. La propia OpenAI, en un intento por vendernos tanto la enfermedad como la cura, ha propuesto un detector de plagio o usar un tipo de marca de agua para notificar a la gente cuándo se ha utilizado la tecnología. Por desgracia, la herramienta lanzada es, según la empresa, “no del todo confiable”.

Ser testigos de este ciclo de despliegue y “solucionismo” tecnológico nos obliga a preguntarnos: ¿por qué seguimos haciendo esto? Aunque el plagio es un objetivo fácil y está siempre en la mente de maestros y profesores cuando piensan en esta tecnología, hay preguntas más profundas que debemos plantearnos, preguntas que se borran cuando la atención se centra en tachar a los estudiantes de tramposos e iniciar un duelo de inteligencia artificial entre estudiantes y profesores. Preguntas como ¿cuáles son las implicaciones de utilizar una tecnología que se ha entrenado con algunos de los peores textos de internet? y ¿qué significa que cedamos la creación y la creatividad a una máquina?

Uno de los detalles más interesantes de la vorágine mediática del ChatGPT requiere una sutil atención a los cambios en la ética de la inteligencia artificial. En una entrevista reciente, el CEO de OpenAI, Sam Altman, afirmó la necesidad de que la sociedad se adapte a la tecnología de generación de textos: “Nos adaptamos a las calculadoras y cambiamos lo que examinamos en clase de matemáticas, me imagino”. En ese calificativo con el que termina la frase, podemos descubrir un debate muy antiguo: los tecnólogos adivinando cómo los profesores se podrían adaptar a la tecnología. Altman “imagina” que “nosotros” (los profesores) tuvimos que “cambiar” nuestros exámenes a causa de las calculadoras. Lo que OpenAI probablemente no hizo durante la construcción de ChatGPT es estudiar el impacto pedagógico potencial de su herramienta.

En lugar de “imaginar” lo que ChatGPT podría hacer en el aula, los profesores tienen que adaptar las clases, las actividades y las evaluaciones al nuevo entorno creado por la herramienta. Parte de ese trabajo es apasionante, como lo fue cuando muchos de nosotros empezamos a introducir las redes sociales en el aula para conectar a nuestros alumnos con personas externas a la clase, o colaborar en tiempo real en un documento compartido. Sin embargo, hay otra parte que es similar a cuando tenemos que desarrollar planes en caso de emergencia en la escuela. Hacemos el trabajo, pero la adaptación a) podría haberse evitado, y b) distrae del trabajo.

Podríamos imaginar otra forma en la que esto pudo llevarse a cabo. Pensemos cómo serían las pruebas pedagógicas para una herramienta como ChatGPT: grupos de discusión, expertos, experimentación. Desde luego, hay dinero para ello. OpenAI está recibiendo inversiones de todas partes (después de darle mil millones de dólares hace cuatro años, Microsoft acaba de invertir otros 10 mil millones) y acaba de lanzar un servicio que permitirá a las empresas integrar modelos similares a ChatGPT en sus sistemas.

En todas estas discusiones, es imperativo entender qué es esta herramienta o, más explícitamente, qué se necesita para que exista. OpenAI pagó a Sama, una empresa asociada, 200 mil dólares para que enseñara a ChatGPT a no ser violento, racista o sexista. Los trabajadores de Sama recibieron una remuneración de entre 1.50 y 2 dólares la hora para evitar que ChatGPT imitara los peores comportamientos humanos. Los trabajadores de Kenia entrevistados por la revista Time afirmaron haber quedado “mentalmente marcados” por realizar este trabajo. ¿Es una sorpresa que la empresa quiera lanzar su herramienta “disruptiva” y dejarla a las puertas de las escuelas del mundo con el sabio consejo de tratarla como a una calculadora? No debería.

En los próximos años, los profesores de muchos niveles se adaptarán a lo que la inteligencia artificial generará por, con y para los estudiantes. Algunos adoptarán la herramienta como una ayuda para la escritura; otros se atrincherarán e interrogarán a los estudiantes cuyos trabajos parezcan autogenerados. ChatGPT nos ha permitido a todos imaginar cosas de las que debemos preocuparnos. Sin embargo, de una cosa podemos estar seguros: OpenAI no está pensando mucho en los profesores. Ha decidido “irrumpir” y marcharse, sin pensar en lo que las escuelas deberían hacer con el programa.

Casi todos los artículos sobre esta tecnología han recurrido a un argumento atractivo, pero muy erróneo: la tecnología está aquí y no va a ir a ninguna parte, así que será mejor aprender a vivir con ella. Nos dicen que se trata de un genio que ha salido de la botella, pero no toman en cuenta el final que tienen la mayoría de los genios, que regresan a la botella después de haber causado algún tipo de daño. El escritor y teórico L.M. Sacasas se refiere a esta línea de argumentación como el “complejo de Borg“. Decir que la resistencia a una determinada tecnología es inútil es uno de los argumentos favoritos de los tecnólogos, que lanzan al mundo sistemas con pocas o ninguna barrera de protección, y luego quieren que la sociedad asuma la responsabilidad de resolver la mayoría de los problemas que surgen con dicha tecnología.

Volvamos a la carrera armamentista que describimos. Cuando el ciclo de vida de una actividad de clase es influido en cada fase por un instrumento de inteligencia artificial (construcción de las tareas, trabajo de los alumnos, evaluación), los utópicos digitales podrán afirmar que los alumnos y los profesores tendrán más oportunidades para el pensamiento crítico porque la generación de ideas –el trabajo duro de escribir– no nos quita tiempo. En esta línea de pensamiento, ChatGPT no es más que otra calculadora, pero para el lenguaje en lugar del cálculo numérico.

Cuando profesores y alumnos empiezan a ceder la génesis de sus ideas a una versión muy avanzada de la autocorrección, el potencial de descubrimiento en grupo empieza a evaporarse.

Esta afirmación, según la cual la inteligencia artificial podría “liberar a los trabajadores humanos para que se centren en un trabajo más reflexivo –e idealmente rentable–,” es errónea. Todo es trabajo duro cuando se trata de escribir (y todo lo que se puede hacer con ello). Tener una idea, plasmarla en un lenguaje y comprobar si ese lenguaje coincide con nuestra idea original es un proceso metacognitivo que nos cambia. Nos pone a dialogar con nosotros mismos y, a menudo, también con los demás. Delegar la generación de ideas a una máquina de inteligencia artificial es perderse la revisión constante que la reflexión provoca en nuestro pensamiento. Por no mencionar que la mayor diferencia entre una calculadora y ChatGPT es que una calculadora no tiene que contrastar su respuesta con el ruidoso caos de todo lo tóxico y detestable que se ha publicado en internet.

Podrá decirse que es un concepto idealista, pero el aula es uno de los espacios más comunes en la vida moderna para el potencial de la construcción colectiva de significados. No todas las aulas satisfacen ese objetivo, pero cuando profesores y alumnos empiezan a ceder la génesis de sus ideas a una versión muy avanzada de la autocorrección, el potencial de descubrimiento en grupo empieza a evaporarse. Ese futuro más cínico no está en la mente de quienes argumentan: “te guste o no, ChatGPT está aquí, así que asúmelo”. Es un fallo de imaginación pensar que debemos aprender a vivir con una herramienta de escritura de inteligencia artificial solo porque fue construida.

Desde el punto de vista pedagógico, el tiempo más valioso con nuestros alumnos es aquel en el que los vemos trabajando duro para plasmar sus ideas, ver cómo estas se desarrollan, se marchitan y ceden terreno a otras mejores. Entregarle ese tiempo a Silicon Valley y a la desordenada base de datos que es internet sería a cuenta y riesgo de nuestros alumnos.

Quizá sea un buen momento para dar un paso atrás y desarrollar mejores soluciones para lo que ha llegado y lo que está por venir. En lugar de aumentar la vigilancia y la detección con herramientas que, en el mejor de los casos, son anormales y poco fiables, los profesores pueden hablar con los alumnos de forma reflexiva sobre lo que está en juego con los textos generados por la inteligencia artificial.  Al mismo tiempo, tenemos que seguir creando actividades y evaluaciones para que el trabajo en clase sea más específico y basado en experiencias. (Es probable que ChatGPT no funcione tan bien con las observaciones comunitarias o entrevistas locales). Y tenemos que insistir en que, en el futuro, las empresas de inteligencia artificial sienten a la mesa a los profesores para estudiar las implicaciones de sus nuevas herramientas.

Pero también debemos imaginar un entorno en el que no nos veamos arrastrados involuntariamente a un ciclo en el que una tecnología no probada se impone constantemente en nuestras vidas. Hemos dado el importante paso de la regulación en otras industrias importantes (como el tabaco, los productos farmacéuticos, la fabricación de automóviles). Los educadores, y los ciudadanos en general, se beneficiarían de una conversación más pública y reflexiva, impulsada antes por la investigación que por la especulación lucrativa. Mientras tanto, no hagamos caso de los discursos vigilantistas. No necesitamos echarle una mano al futuro que ChatGPT implica. ~



Este artículo es publicado gracias a una colaboración de Letras Libres con Future Tense, un proyecto de SlateNew America, y Arizona State University.

+ posts

es Just Tech Fellow del Social Science Research Council.

+ posts

es profesor asistente de Inglés en el Kennesaw State University (Georgia, E.U.), se especializa en retórica y cultura digital.


    ×

    Selecciona el país o región donde quieres recibir tu revista: