Ilustración: I.A.

A los profesores les están dejando una tarea difícil

Identificar un ensayo escrito con inteligencia artificial es bastante sencillo. Ayudar a los estudiantes a navegar por los nuevos cambios tecnológicos es mucho más complicado.
AÑADIR A FAVORITOS
ClosePlease loginn

La redacción sonaba a típica verborrea de último minuto para intentar describir los conceptos del curso: las oraciones transmitían, en el mejor de los casos, un entendimiento superficial sobre lo que habíamos hecho este semestre y el argumento respondía vagamente a la pregunta. Era el tipo de ensayo que usualmente me hace preguntarme: ¿Alguna vez vino a clase este alumno? ¿Les he transmitido algo de valor?

Pero faltaban los pistas que típicamente delatan a un ensayo redactado en una noche de desvelo: no había errores gramaticales ni ortográficos, ni los ejemplos extraños que a algunos alumnos les parecen profundos a altas horas de la noche, pero que suenan muy mal a la mañana siguiente. ¿Era posible que, justo antes de terminar el semestre, estuviera viendo el primer ensayo de mis alumnos escrito por ChatGPT?

Puse una parte del texto en uno de los nuevos detectores de escritura de inteligencia artificial. Antes de dar clic, caí en cuenta de lo ridículo, y tal vez desesperanzador, que era lo que estaba a punto de hacer: iba a usar una máquina para ver si otra máquina había escrito el ensayo de un alumno. Me di cuenta de que estaba viviendo una prueba de Turing, en la que yo, la persona humana, ya no podía estar completamente segura de que estaba leyendo el trabajo de otro humano o una respuesta copiada y pegada producida por una I.A. generativa.

En el semestre de otoño me preocupaba saber si los ensayos estaban siendo comprados en internet: difícil de comprobar, pero resultaban ser tan malos que a los alumnos les iba mal de todas maneras. En el semestre de primavera las reglas del juego han cambiado por completo: debo estar atenta a si una máquina ha escrito los ensayos de mis alumnos.

Después de correr la prueba (10.1% escrito por un humano, según el programa), descansé la cabeza sobre la mesa de la cocina y me invadió un sentimiento de agobio por la avalancha de cambios tecnológicos que parecen haber avanzado a la velocidad de la luz desde enero: I.A. generativa para texto, imágenes y arte (y, en menor medida, música y video), poniendo en duda en qué podemos confiar y qué es real.

Por mi paz mental, necesitaba saber si tanto mi detector interno de mentiras como el detector automatizado tenían la razón en cuanto a que el ensayo era efectivamente obra de ChatGPT. En un correo electrónico al alumno le di la opción de ser honesto sobre si había utilizado la herramienta de I.A., prometiéndole que no iba a haber una penalización en su calificación ni una repercusión ética por lo que era, en el mejor de los casos, un ensayo de 7; después de todo, no lo había prohibido explícitamente en la tarea. Me dijo que lo había hecho y, como en la mayoría de los casos en los que se hace trampa, fue porque se sentía cansado, estresado, y desesperado.

Técnicamente, había ganado mi primer enfrentamiento (conocida) contra una máquina. Sin embargo, no experimenté un sentimiento de victoria.

Estudio y enseño acerca de medios de comunicación, política y tecnología, lo que significa que ayudar a las personas a entender el potencial disruptivo de las nuevas tecnologías de los medios de comunicación para la vida cívica es literalmente mi trabajo.

Esto también ha significado que este semestre ha sido uno de los más existencialmente desafiantes en mis 17 años impartiendo clases, y eso que di clases en Washington D.C. durante las elecciones de 2016 y los primeros años de la presidencia de Trump, y en Zoom durante el principio de la pandemia (lo que puso a prueba cada molécula de mi cerebro con déficit de atención).

Este año, no solamente asumí la tarea de jugar a golpear al topo con ChatGPT, sino que también me encontré tratando de asimilar lo que podría ser el cambio tecnológico más significativo desde la introducción de los teléfonos inteligentes. Más allá de las dinámicas del salón de clases, me doy cuenta de que hoy más que nunca es importante ayudar a mis alumnos (y a mí también) a encontrar el lenguaje adecuado para hablar de los cambios que estamos experimentando, así como a formular las preguntas que debemos hacernos para poder encontrarles sentido.

El potencial disruptivo de la I.A. generativa me consumía. A mí y a los demás, por supuesto: The Atlantic proclamó la muerte del ensayo universitario; mi universidad creó una clase nueva para alumnos y profesores de distintas disciplinas que explora la ética de la I.A. y convocó una serie de webinars y juntas para ayudar a docentes a entender al nuevo leviatán al que súbitamente nos estábamos enfrentando.

Mientras tanto, en cada una de mis tres clases me he obsesionado con enseñar sobre los desórdenes de la información, o las muchas maneras en las que nuestro entorno de información está contaminado, desde deepfakes, clickbaits, o incluso las noticias hiperpartidistas. Y aunque podía explicar los procesos e incentivos para crear y consumir contenidos engañosos, hubo momentos en los que me abrumaba completamente la escala y la premura con la que GPT estaba generando caos.

“No tengo nada que decir”, les dije a mis estudiantes como respuesta a las fotos falsas del arresto de Trump que habían sido creadas por un periodista de un medio muy respetado de periodismo de investigación (que, en sus palabras, dijo que “solo estaba bromeando”). Rastreamos la línea de tiempo y hablamos sobre quién podría ser vulnerable ante la desinformación, pero en realidad fue un momento de clase que parecía completamente surrealista: ¿qué podría ser lo siguiente? (Enseño en una universidad católica, así que por lo menos la foto del Papa en una chamarra blanca aligeró el momento).

Sin embargo, mis alumnos estaban innecesariamente enfocados en mistificar de más la alteración de la información, la economía de la atención, y a los gigantes tecnológicos en general, renunciando así a su propia capacidad para entender lo que está pasando. “El algoritmo” y la “I.A.” se convirtieron en “el Coco” en mi clase: palabras todopoderosas que significan el fin de las carreras y encapsulan la ansiedad causada por todo, desde la graduación y la búsqueda de trabajo hasta los ataques a los derechos LGBTQ y al aborto.

Cuando escucho a mis alumnos discutir de estos nuevos “Cocos” tecnológicos, recuerdo los errores que hemos cometido al criticar a los medios de comunicación. Cuando las palabras por sí mismas encierran tanto significado, y tantas maneras posibles de interpretarlas dependiendo del orador, renunciamos innecesariamente a nuestra capacidad de comprender la precisión y los matices que necesitamos para encontrar los puntos de intervención y separar nuestra crisis existencial de las amenazas más inmediatas a la justicia social, al medio ambiente y la democracia.

Consideremos la multiplicidad de significados para “fake news”, desde memes en línea y políticos desacreditando al periodismo basado en datos, hasta la sátira y los programas nocturnos, entre otros. Se vuelve casi imposible saber quién califica de falsa una noticia, y aun más exigir rendición de cuentas.

Además, el colapso de grandes categorías o industrias para convertirse en entes únicos y unificados exagera su capacidad de influir en el público. La mayoría de los estadounidenses dirán colectivamente que no confían en “los medios de comunicación”, imaginados como una cábala de actores oscuros que manipulan al público a través de algún tipo de intento coordinado de control mental.

Sin embargo, unas cuantas preguntas de seguimiento harán que las personas eventualmente mencionen excepciones de los medios en los que sí confían, ya sea Fox News, el New York Times, o algún canal extraño en YouTube de teorías de conspiración. Los medios de comunicación no son un monolito: están constituidos por los deseos, decisiones y preguntas de las personas que los consumen.

De la misma manera, en lo que respecta a la I.A. generativa, si nos rendimos y lamentamos el fin del ensayo universitario, el fin de la abogacía, e incluso el posible fin de la humanidad, cedemos nuestra capacidad de dictar el futuro potencial de la tecnología a las voces más poderosas que invierten en ella.

En una clase de este semestre, un estudiante hizo una presentación que mostraba las capacidades de ChatGPT: diseñó una página web básica y nos contó una adivinanza que ChatGPT respondió correctamente. El estudiante no señaló el hecho de que ChatGPT también puede estar equivocado, y los estudiantes se fueron ese día murmurando: “eso es todo, este es el final, ya no tendremos trabajos.”

Convencerlos de lo contrario ha sido extremadamente complicado, pero para mis alumnos y para el público, la manera más rápida de sentirse desesperanzados ante un cambio tecnológico aparentemente imparable es decidir que es todopoderoso y demasiado complicado como para que una persona ordinaria lo pueda comprender. Esta desesperanza paraliza a la opinión pública en general, permitiendo a las empresas tecnológicas actuar sin ningún tipo de control.

Hay una sección en el plan de estudios de mi clase “Sobreviviendo a las Redes Sociales” que se titula “What hath God wrought” (¿Qué ha forjado Dios?), en referencia al primer mensaje telegráfico enviado. Una pregunta atinada que resiste el paso del tiempo y que refleja la incapacidad de nuestro lenguaje e imaginación actuales para comprender las formas en que los avances tecnológicos pueden moldear el futuro.

En esta sección de nuestro curso, los estudiantes se enfrentan a las incógnitas de las criptomonedas, el biohackeo, el amor robot y cómo nuestra vida digital continúa después de nuestra vida mortal. Mis estudiantes son capaces de definir las preguntas que estos avances inspiran, evaluar el panorama actual e identificar futuros probables a nivel individual y social, sin ser genios tecnológicos ni informáticos.

A eso quería llegar con el título de la sección. El hecho de que el primer mensaje por telégrafo de Samuel F.B. Morse de 1844, basado en un pasaje bíblico, todavía plantea una pregunta relevante debería darnos alguna esperanza de que tenemos la oportunidad para recuperar el control sobre un mundo que parece cada vez más cercano que nunca a una aniquilación tipo Terminator. (En nuestra trabajo final, indiqué específicamente a mis alumnos que poner una imagen en PowerPoint de un holocausto nuclear no era una respuesta aceptable a la pregunta sobre los peores escenarios posibles).

Lo que espero haber enseñado a mis alumnos es que cuando desarmamos los términos generales que hacen tan imposible aprehender este momento –“I.A.”, “algoritmo”, “Big Tech”– se abre la posibilidad de observar cómo las mismas preguntas y puntos de partida de críticas previas a la tecnología nos han preparado acertadamente para este preciso momento.

Podemos comenzar por lo básico: ¿A qué tipo de inteligencia artificial te refieres y qué uso o función específica te preocupa? ¿Quién hace dinero con este desarrollo particular de la tecnología? ¿Quién tiene la capacidad de implementar una regulación o fomentar su desarrollo?

O tal vez, de manera más simple, sería bueno que tomáramos en consideración lo que el futurista y experto en tecnología ética Jaron Lanier comentaba recientemente en el New Yorker: “la perspectiva más pragmática es considerar a la I.A. como una herramienta, no como un ente.” Cuando recordamos esto, que hemos creado estas tecnologías como herramientas, estamos facultados para recordar que tenemos la capacidad de moldear su uso.

Para fines prácticos, estoy tratando a GPT como una calculadora: la mayoría de nosotros usamos calculadoras en clase de matemáticas y de todas maneras no sacamos calificaciones perfectas. Después de descubrir mi primer ensayo elaborado con ChatGPT, decidí que, de ahora en adelante, los estudiantes pueden usar la I.A. generativa en las tareas, siempre y cuando expliquen cómo y por qué lo hicieron. Espero que esto me lleve a golpear menos mi cabeza contra la mesa de la cocina y que, en el mejor de los casos, sea una lección en sí misma. ~

Este artículo es publicado gracias a una colaboración de Letras Libres con Future Tense, un proyecto de SlateNew America, y Arizona State University.

+ posts

(elle/elles) es profesorx asociadx de comunicación en la Universidad de San Diego y miembrx del Open Markets Institute.


    ×  

    Selecciona el país o región donde quieres recibir tu revista: