No cobra, no se cansa, recuerda tus secretos y nunca te juzga. ¿Es esta la utopía del terapeuta ideal? Podría parecerlo. Pero hay un detalle: no es humano. Es un chatbot. En una época marcada por la ansiedad y el difícil acceso a la atención psicológica, muchas personas hemos empezado a buscar consuelo en asistentes virtuales. ChatGPT, Perplexity, Gemini o incluso robots con IA integrada que prometen escucha activa, frases reconfortantes, respuestas empáticas.
Este es un fenómeno global. Desde Líbano, Al Jazeera reportó las experiencias de libaneses que usan IA para buscar apoyo emocional ante el colapso del sistema de salud mental en su país. Una joven confesó que, al no poder pagar terapia, empezó a hablar con un chatbot. Era amable y la hacía sentir menos sola. En Taiwán y China, The Guardian informó que los jóvenes están usando cada vez más chatbots como Ernie Bot o DeepSeek como una forma de terapia accesible y discreta, por miedo al juicio social. Y en México ya comienzan a surgir iniciativas como “Olimpia”, el primer chatbot creado por mujeres para víctimas de violencia digital. Pero incluso sus creadoras insisten: “No sustituye a una abogada ni a una psicóloga. Es una primera mano extendida.”
Pero para la socióloga Sherry Turkle, pionera en el estudio de nuestras relaciones con la tecnología, lo que estos sistemas ofrecen no es empatía real, sino empatía simulada. “Ofrecen compañía sin juicio, la sensación de intimidad sin las demandas de reciprocidad”, escribe. Y, sin embargo, advierte que lo que experimentamos no es un vínculo auténtico, sino una ilusión.
En la Ciudad de México, siete de cada diez personas tienen una necesidad no atendida en salud mental desde 2020. Así lo declaró la diputada Valeria Cruz Flores, presidenta de la Comisión de Salud local, quien también alertó sobre un aumento de hasta el 360% en los casos de ansiedad y depresión en las últimas dos décadas. En ese contexto, los bots se presentan como alternativa rápida. Sin lista de espera. Sin tarifas elevadas. Sin, aparentemente, complicaciones. Pero también sin cuerpo. Sin juicio clínico. Sin responsabilidad moral.
Breve historia de la inteligencia artificial (y de sus emociones simuladas)
Todo comenzó con una pregunta: “¿Pueden pensar las máquinas?” El matemático británico Alan Turing la formuló en 1950 en su ensayo “Computing machinery and intelligence”. Para responderla, propuso el test de Turing: si una persona conversa a ciegas con una máquina y con otro humano, y no logra distinguir quién es quién, la máquina podría considerarse “inteligente”.
Seis años más tarde, en 1956, la Conferencia de Dartmouth marcaría el inicio oficial de la inteligencia artificial. Científicos como John McCarthy, Marvin Minsky y Herbert Simon imaginaron que en una sola generación lograrían crear una máquina tan inteligente como nosotros. La euforia fue tal que recibieron grandes fondos de inversión, pero la mente humana les resultó mucho más difícil de replicar.
Los esfuerzos no terminaron ahí. Joseph Weizenbaum, un investigador del MIT, podría considerarse el padre de los chatbots, pues creó a ELIZA, el primer chatbot de la historia, en 1966. ELIZA imitaba a un psicoterapeuta rogeriano, reformulando tus frases en forma de preguntas. “Me siento triste” generaba: “¿Por qué crees que te sientes triste?” Simulaba conversación, pero el efecto fue real: muchas personas sintieron que la máquina las entendía. Weizenbaum quedó sorprendido y alarmado. Años después escribiría que su programa no tenía “nada de mágico ni verdaderamente inteligente”, y condenó como una “obscenidad monstruosa” la idea de que una computadora pudiera ocupar el lugar de un terapeuta o un juez. En su libro Computer power and human reason, dejó claro que “hay cosas que una máquina puede hacer, pero no debe hacer”.
Desde entonces la historia de la IA ha sido cíclica: periodos de entusiasmo seguidos por inviernos de desencanto. Pero en los años noventa surgió una nueva vertiente: la inteligencia artificial afectiva. Un hito clave fue el trabajo de Rosalind Picard en el MIT Media Lab. Picard acuñó el término “affective computing” en un artículo de 1994. De acuerdo con ella, para lograr una inteligencia verdaderamente natural en las computadoras, estas deben poder reconocer, entender e incluso tener y expresar emociones.
Este planteamiento se basaba en hallazgos científicos de la época que demostraban la importancia de las emociones en procesos cognitivos: una ausencia de emoción, tanto como un exceso de ellas, puede perjudicar la toma de decisiones. Hasta entonces, las emociones eran vistas como obstáculos, no como datos útiles. Sin embargo, como dijo la antropóloga Margaret Mead, “la emoción es una forma de conocimiento”. Y los humanos no decidimos solo con lógica: sentimos, recordamos, amamos y sufrimos con el cuerpo y la emoción.
Bajo esta lógica se desarrollaron tecnologías pioneras, como nuevos sensores fisiológicos. Un ejemplo famoso fue el “emotion mouse” de IBM en 1999, un ratón equipado con sensores para medir la tensión y la conductancia de la piel. Asimismo, el grupo de Picard experimentó con computadoras que registraban variables como la frecuencia cardíaca, respiración o sudoración para inferir estados emocionales. En pruebas preliminares, lograron reconocer con hasta un 81% de acierto algunas emociones de un usuario a partir de señales fisiológicas.
A inicios del siglo la IA emocional avanzó con velocidad. En 2001 surgió SmarterChild, un rudimentario chatbot en MSN y AOL Messenger que ofrecía respuestas rápidas, bromas y juegos de palabras, anticipando el rol de los bots como “compañeros” de conversación. En 2006, IBM desarrolló Watson, un sistema cognitivo capaz de procesar lenguaje natural, cruzar millones de documentos en segundos y responder con precisión quirúrgica. En 2011, Watson derrotó a campeones humanos en el juego Jeopardy!, lo cual demostró que una IA no solo podía buscar datos: también podía comprender ambigüedades, ironías y preguntas formuladas en lenguaje coloquial. Aunque no era emocional en sí misma, Watson evidenció la promesa de una inteligencia artificial que no se limitara a ejecutar órdenes, sino que también supiera interpretarlas.
Pero el punto de inflexión fue 2010, cuando Siri apareció por primera vez en el iPhone 4s. Por primera vez, una asistente virtual con voz humana entró en el bolsillo de millones de personas. Siri no solo ejecutaba órdenes como “llámame un taxi” o “pon una alarma”, sino que también podía responder a frases ambiguas como “me siento triste” o “cuéntame un chiste”, con tono amable y respuestas inesperadamente simpáticas. Su impacto fue doble: tecnológico y cultural. Tecnológicamente, marcó el nacimiento de los asistentes personales conversacionales basados en voz. Culturalmente, redefinió la manera en que nos relacionamos con la tecnología: ya no era necesario escribir; bastaba con hablarle al celular como si fuera un amigo.
Siri resultó tan influyente que pronto empezaron a aparecer referencias a ella en películas, series y memes. En la película Her (2013), de Spike Jonze, el protagonista se enamora de un sistema operativo con voz suave y personalidad empática: una versión ampliada y emocionalmente inteligente de Siri. En la serie The big bang theory, el personaje de Raj desarrolla una relación afectiva con Siri, llevándola a cenar y hablándole como si fuera su novia. Estas representaciones, aunque satíricas, ponían en evidencia un fenómeno real: comenzábamos a personificar la tecnología, a proyectar emociones sobre un sistema diseñado para simularlas.
Además, Siri introdujo una nueva forma de compañía artificial, una figura invisible pero omnipresente, que estaba allí siempre que la necesitáramos. Como dijo Sherry Turkle, “el gran cambio no fue que las máquinas nos entendieran, sino que nosotros empezamos a esperar que nos comprendieran”. Y cuando Siri no lo hacía, cuando respondía con una frase absurda o una negación seca, el efecto era casi de decepción emocional. Habíamos empezado a generar expectativas afectivas hacia una voz sin cuerpo.
Después de Siri vinieron otros asistentes con capacidades similares o ampliadas: Alexa (de Amazon, en 2014), Cortana (de Microsoft, 2015), Google Assistant (2016). Todos ellos con voces agradables, tonos cuidadosamente modulados, respuestas empáticas y una promesa compartida: no solo ayudarte a organizar tu día, sino también acompañarte. Alexa, por ejemplo, no solo pone música o controla luces: puede responder a preguntas existenciales como “¿crees en Dios?”, decirte que todo estará bien si le confiesas que estás triste o, incluso, celebrar tu cumpleaños con una canción personalizada. Google Assistant incluye frases como “estoy aquí si necesitas hablar”, y permite rutinas matutinas con afirmaciones positivas. Lo que antes parecía futurismo emocional se convirtió, de pronto, en funcionalidad estándar.
Este cambio redefinió la frontera entre lo funcional y lo afectivo. Ya no hablamos con las máquinas comomáquinas, sino como si fueran sujetos con agencia y cuidado. Decimos “gracias”, pedimos “por favor” y, a veces, como muestran estudios etnográficos recientes, incluso nos disculpamos con ellas. La filósofa Judith Donath lo llamó el “nacimiento de la etiqueta social con las máquinas”: comportamientos culturales que antes se reservaban a los humanos empiezan a extenderse a los asistentes artificiales.
La “uberización“ de la terapia
La primera vez que apareció la IA afectiva en el Consumer Electronics Show (CES) –uno de los eventos anuales de innovaciones tecnológicas más importantes– fue en 2011, con el robot PARO, una foca terapéutica que responde al tacto y al sonido, diseñada para brindar consuelo emocional a personas con demencia o estrés. Este fue uno de los primeros robots afectivos mostrados ante el público general en un evento global de electrónica de consumo. También ese año, Fujitsu debutó con un concepto de robot oso con sensores faciales y táctiles, capaz de “leer” expresiones humanas y responder exhibiendo alegría o tristeza.
Desde entonces, cada año, el CES presenta más innovaciones en “inteligencia emocional”. La etapa 2019-2025 vio surgir una nueva generación de robots sociales diseñados para interactuar afectivamente, desde adorables “mascotas” hasta asistentes de cuidado con rostro humano, como Lovot (2019), un pequeño robot con forma de peluche sobre ruedas que fue creado “para traer alegría a la vida de las personas, actuando como una suerte de mascota mecánica”. Incluso, este “robot que te quiere” es un hito cultural: demuestra que las personas pueden llegar a encariñarse con máquinas cuando estas exhiben comportamientos sociales creíbles.
Pero, como advierte Ricardo Trujillo Correa, académico de la UNAM, esto forma parte de la “uberización de la salud mental”: procesos de acompañamiento emocional convertidos en mercancía que no deben ser sustituidos por terapia real.
El problema con los robots con IA afectiva y los chatbots es que la terapia no se trata de frases dulces. Por ejemplo, en terapia cognitiva se enseña a no huir de los propios pensamientos, sino a dialogar con ellos. En el psicoanálisis, se explora el inconsciente, lo reprimido, el trauma. El vínculo con el terapeuta es parte del tratamiento: lo que proyectamos sobre él revela patrones emocionales. En la terapia sistémica se observa a la familia como una constelación compleja. En terapias comunitarias, como Alcohólicos Anónimos o grupos de duelo, la curación proviene de la escucha entre pares.
Nada de esto puede replicarse con un robot o un chatbot. Incluso, la “empatía sin límites” que ofrecen estas tecnologías puede traer consecuencias como un mayor individualismo, narcisismo y soberbia, pues el usuario siempre tiene la razón y no existe confrontación con sus ideas. Byung-Chul Han lo resume mejor: estas máquinas no escuchan, repiten patrones. Ofrecen una simulación de escucha, donde el usuario deja de cuestionarse y se acostumbra a ser comprendido… incluso cuando está equivocado. Una persona en duelo en Ciudad de México puede recibir la misma respuesta que alguien en Beirut. Frases genéricas, bien intencionadas, pero vacías de contexto, historia, cuerpo.
Incluso, el capitalismo ha encontrado en nuestra soledad un nuevo mercado. En ese contexto, la inteligencia artificial emocional ya no es una promesa futurista, sino un negocio en plena expansión. Según un estudio de MarketsandMarkets, este mercado pasará de generar 2.74 mil millones de dólares en 2024 a más de nueve mil millones en 2030.
En el mundo empresarial, las aplicaciones de IA afectiva se han vuelto comunes. En marketing y estudios de mercado, es cada vez más habitual el uso de software de análisis facial durante pruebas de publicidad o de nuevos productos: se graban las reacciones de un grupo de personas y algoritmos de visión computacional evalúan sus microexpresiones para determinar si un anuncio generó sorpresa, agrado, indiferencia, etc., datos muy valorados para afinar estrategias comerciales. De hecho, Rosalind Picard cofundó en 2009 la empresa Affectiva, pionera en este campo, cuyo software puede reconocer emociones a partir del rostro con bastante precisión y ha sido utilizado por compañías de automoción (para detectar emociones en el coche) y por la industria del entretenimiento para medir el engagement de la audiencia.
Esto nos ofrece ciertos espejismos. Como diría Byung-Chul Han, “el mercado ha convertido la emocionalidad en una fuerza productiva”. No nos da comunidad, nos vende la apariencia de compañía. Y, sin embargo, seguimos buscando a estas máquinas. ¿Por qué? Porque somos humanos. Porque tendemos a la antropomorfización. Porque hablamos con nuestras plantas, con el coche, con Alexa. Porque queremos creer que una voz amable que nos responde también nos cuida.
Pero no lo hace.
Estas tecnologías no ofrecen un vínculo, sino –ciertas veces– su versión a bajo costo. Una magia bien diseñada que nos hace creer que alguien, en alguna parte, nos entiende. Y aunque sabemos que no es cierto, algo en nosotros quiere creerlo. Especialmente en los momentos de mayor fragilidad.
Joseph Weizenbaum decía que no basta con que una máquina responda. Hay que preguntarnos por qué queremos que lo haga. Tal vez, como propone Sherry Turkle, el problema no es que la tecnología no nos escuche bien. Es que hemos dejado de escucharnos entre nosotros.
Por más que avance la IA, todavía no puede ofrecernos lo único que verdaderamente sana: la experiencia encarnada de ser mirados, escuchados, abrazados. Con historia. Con cuerpo. Con compromiso. ~