¿La IA matará al pensamiento crítico? Entrevista con David Mejía Rodríguez

Una conversación sobre los principales desafíos que la inteligencia artificial supone para la educación universitaria.
AÑADIR A FAVORITOS
Please login to bookmark Close

Si existe un ámbito donde el desarrollo de la inteligencia artificial ha despertado mayores preocupaciones es el de la educación superior. La sorprendente capacidad de las nuevas tecnologías para explorar enormes bases de datos, discriminar información o redactar informes –investigar, discernir y escribir, tres habilidades consideradas tradicionalmente escolares– está obligando a las instituciones a cuestionar sus métodos de enseñanza y evaluación. Lejos del alarmismo, pero consciente de que estamos frente un cambio relevante en el ámbito universitario, David Mejía Rodríguez –especialista en tecnologías de la información, cómputo y telecomunicaciones, a la par que rector de la Universidad Internacional de La Rioja (Unir) en México– explica en esta entrevista los principales desafíos que la inteligencia artificial supone para la educación universitaria.

¿Qué hace distinta a la inteligencia artificial respecto a otros avances tecnológicos en el ámbito educativo?

La principal diferencia entre la IA y avances tecnológicos del pasado –como las plataformas de aprendizaje por medios electrónicos, los cursos en línea o las tabletas en el aula– es la capacidad de aprendizaje y adaptación. Mientras las otras tecnologías eran herramientas más estáticas, enfocadas a la transmisión de información, la inteligencia artificial es dinámica: puede, en primer lugar, personalizar el aprendizaje a escala; en segundo, generar contenido y dar retroalimentación, y en tercero, automatizar tareas cognitivas.

Describo un poco más: los sistemas de inteligencia artificial pueden analizar el rendimiento de un estudiante, identificar fortalezas y debilidades, adaptar el contenido del material educativo de manera individual. La IA generativa es capaz de crear nuevos ejercicios, resúmenes, explicaciones, simulaciones interactivas en tiempo real y automatizar tareas cognitivas, mientras que las tecnologías pasadas automatizaban tareas operativas. En resumen, la IA no es una herramienta, sino un agente de cambio que puede interactuar, generar y personalizar el proceso de aprendizaje, algo que ninguna tecnología anterior había logrado con tal sofisticación.

¿A qué se debe que haya tanto alarmismo alrededor de las IA en la educación superior? ¿Cómo podemos identificar los riesgos reales y separarlos de las exageraciones?

Hay varios factores que generan este alarmismo. La preocupación más grande es que la IA llegue a reemplazar a los docentes o a ciertas profesiones. Esto puede producir una sensación de incertidumbre y amenaza a la estabilidad laboral, tanto para los educadores como para los estudiantes. Existe también un riesgo de plagio y falta de originalidad, porque la IA generativa puede producir textos coherentes y complejos, y esto ha desatado el temor de que los estudiantes la utilicen para plagiar trabajos, en detrimento de los principios de la honestidad académica y la evaluación tradicional que hoy tenemos.

Habría que considerar también la pérdida de habilidades fundamentales. Al depender de la IA para tareas como la redacción o la realización de cálculos, los estudiantes pueden dejar de desarrollar habilidades cognitivas esenciales, entre ellas, el pensamiento crítico, la argumentación, la resolución de algunos problemas. Una vertiente más tiene que ver con el sesgo algorítmico y la ética. La IA generativa se entrena con datos históricos que pueden contener sesgos y provocar las llamadas “alucinaciones” en los resultados que produce. Si estos sesgos se replican en las herramientas educativas podrían perpetuar desigualdades y afectar la equidad de aprendizaje.

Para atender los problemas reales, y no distraernos en las exageraciones, debemos redefinir nuestra idea de evaluación. La solución no es prohibir la IA, sino cambiar la forma en la que evaluamos. Hay que dejar de pasar de la famosa memorización y la redacción de ensayos genéricos a proyectos más prácticos, debates y cuestiones que nos den realmente una muestra de un entendimiento profundo y original por parte de los alumnos.

Hay un riesgo real de que los docentes y estudiantes no se capaciten en el uso de la IA y se queden atrás. Por ese motivo necesitamos invertir en un programa de formación continua para toda la comunidad universitaria. Hay en este momento un analfabetismo de tecnologías avanzadas, entre ellas la inteligencia artificial. Tenemos que enseñar a los estudiantes a identificar y cuestionar resultados de los diferentes algoritmos que ocurren y colaborar en el desarrollo de herramientas desde luego más éticas y transparentes. Esa es una manera efectiva de enfrentarse a los sesgos.

Sobre el aspecto laboral, a menudo se oye decir que la IA va a reemplazar a los docentes, pero se trata de una exageración. La IA es una herramienta poderosa, pero evidentemente sabemos hoy que carece de empatía, de juicio ético, de la capacidad de mentoría, que representan el corazón de la labor docente. La IA no va a reemplazar a los profesores, pero los profesores que no usen la IA van a ser reemplazados por aquellos que sí lo hacen.

Decir que la IA matará el pensamiento crítico es también una falacia. La IA puede automatizar la parte mecánica. La clave es enseñar a usarla como un colaborador, cuyos resultados estás obligado a cuestionar. Aquí yo concluiría en este tema que la alarma no se debe a la novedad de la tecnología y a la falta de un marco claro para su uso. Los riesgos reales no son sino desafíos que requieren una respuesta estratégica por parte de las instituciones educativas, públicas, privadas, las autoridades, los gobiernos, las familias, las empresas.

El año pasado la Unir dio a conocer una “Declaración para un uso ético de la IA en la educación superior”. ¿Cuáles serían las principales cuestiones éticas que actualmente plantea la inteligencia artificial?

El documento de la Unir reconoce las siguientes: el sesgo y la discriminación, la restricción del pensamiento crítico y la creatividad –que ya he mencionado brevemente–, la privacidad y confidencialidad de los datos, la reducción de las interacciones humanas, la falta de transparencia y la supervisión humana. Describiré brevemente los puntos éticos de los que no he hablado.

Sobre la confidencialidad de los datos, el uso de la IA implica el procesamiento de grandes volúmenes de datos personales, lo cual requiere la certeza de que nuestra información se resguarda de manera segura. La reducción de la interacción humana plantea la cuestión de si la IA podrá hacer que las personas involucradas en la educación tengan poco contacto entre ellas. Y esto eventualmente podría tener algunas consecuencias psicológicas y pedagógicas no necesariamente positivas para los estudiantes. Acerca de la falta de transparencia: los sistemas de IA se basan en modelos de caja negra; es decir, ignoramos cómo están funcionando los algoritmos. Finalmente, el documento subraya la importancia de que la decisión final sobre cualquier aspecto de la IA recaiga en un ser humano y no en un sistema de toma de decisiones totalmente automatizado.

El documento también advierte que un avance como la IA no se percibe de la misma manera entre distintas generaciones que conviven en una universidad. ¿De qué manera enfrentar ese desafío?

Nuestra propuesta es brindar capacitación en el uso de los sistemas de IA a todos: empleados, estudiantes, profesores y otros profesionales. El objetivo es que todos sigan prácticas responsables en el uso, distribución y producción de tecnologías basadas en la IA, de acuerdo con los estándares éticos universitarios. De esta manera se busca armonizar diferentes percepciones y asegurar que todos los que jueguen en este ecosistema educativo al menos tengan la misma visión, línea y dirección. La capacitación permitirá reducir diferencias importantes. Pretendemos asegurarnos de que la innovación tecnológica no profundice desigualdades, sino que realmente contribuya a la construcción de un sistema educativo más inclusivo y adaptado a los retos del futuro. Hay que aprovechar la IA para construir un mejor sistema educativo.

Diversas instituciones educativas han buscado establecer parámetros éticos en el uso de la IA. Sin embargo, el panorama llega a ser confuso dada la diversidad de enfoques.

Lo que el documento de la Unir afirma es que, si bien hay un consenso sobre algunas cuestiones éticas relacionadas con la IA, todavía no existe un acuerdo global sobre normas y medidas que deberán adoptarse. Propone entonces que las instituciones distingan entre dos aspectos éticos. Uno, el desarrollo y la implementación ética de la IA y, dos, el impacto del uso de la IA ante los estudiantes, profesores y la sociedad.

La primera recomendación es que las instituciones se adhieran a los marcos legales y a la regulación que esté surgiendo en este momento –esto es muy claro en el caso de Europa, donde existe un reglamento europeo de la IA–. El aspecto del impacto es más difícil de cuantificar y requiere que las instituciones se comprometan a identificar y mitigar consecuencias de sus aplicaciones de inteligencia artificial. No se pretende llegar a un reglamento único para el uso ético de la IA en la educación superior, sino una guía para orientar a las personas interesadas, profesores, estudiantes, directivos, etcétera, a fin de fomentar un enfoque centrado en un beneficio social con transparencia y colaboración. ~


    ×

    Selecciona el país o región donde quieres recibir tu revista: