Mistral y ChatGPT: límites frente a la inteligencia humana

Descubre por qué Mistral y ChatGPT no pueden replicar el pensamiento humano según Winnicott, Giampino y Anzieu. Una reflexión crítica desde Euskadi. Hay que pensar una colaboración ética con estas herramientas.

VEILLE SOCIALE

LYDIE GOYENETCHE

4/10/202512 min leer

Mistral Chat Gpt
Mistral Chat Gpt

Los límites de Mistral y ChatGPT frente a la inteligencia humana según Winnicott, Giampino y Anzieu — Una reflexión desde Donostia

Una lectura cruzada entre la psicología del desarrollo y los modelos generativos como Mistral o ChatGPT nos invita a repensar el pensamiento humano, su génesis y las condiciones necesarias para su emergencia. Si bien estas tecnologías pueden ofrecer apoyo en casos de discapacidad cognitiva, su evolución plantea una necesidad urgente de reflexión ética a nivel internacional.

El pensamiento humano no nace en el vacío. Surge en un entorno, en un vínculo, en una historia singular. Lo que hoy intentan modelar la ciencia cognitiva y la inteligencia artificial, la psicología del desarrollo y el psicoanálisis lo han explorado, observado y nombrado durante décadas. En este sentido, las aportaciones de Donald Winnicott, Sylviane Giampino y Didier Anzieu permiten formular una hipótesis central: la necesidad de seguridad no es un obstáculo para la inteligencia, sino su condición previa e imprescindible.

En un lugar como San Sebastián, donde los niños aprenden a explorar el mundo entre las olas de La Concha, los juegos en el Parque de Cristina Enea o las visitas en familia al Aquarium, se hace evidente cómo el pensamiento se construye en relación con el entorno afectivo y sensorial. Un paseo por el Peine del Viento, con el mar rompiendo frente a las esculturas de Chillida, ofrece más que una experiencia estética: es una vivencia que deja huella emocional y simbólica, que favorece la capacidad de imaginar y representar.

La hipótesis que desarrollamos aquí es la siguiente: si bien el pensamiento puede surgir incluso en contextos inseguros, suele hacerlo a costa de estrategias defensivas o con una capacidad simbólica restringida. Un entorno emocionalmente seguro y sensorialmente rico —como puede ser la experiencia de crecer en el barrio de Gros, entre surf, viento y ternura cotidiana— no garantiza por sí solo el surgimiento del pensamiento, pero sí facilita su ejercicio libre, adaptativo y creativo.

Este artículo propone una lectura transversal de estas teorías para nutrir el debate actual sobre los modelos de inteligencia, tanto natural como artificial, y situar en el centro de la discusión aquello que las máquinas aún no pueden replicar: la relación humana.

La necesidad de seguridad, base del desarrollo psíquico (Winnicott y Giampino) — Una reflexión desde Bilbao

Para Donald Winnicott, pediatra y psicoanalista británico, el pensamiento es fruto de una relación. Lejos de tratarse de un proceso abstracto, nace en el espacio tranquilizador creado por la madre o la figura de apego primaria. Su concepto de sostén hace referencia a esta función psíquica de contención, de proximidad corporal y emocional, que permite al infante sentirse como un ser continuo y unificado. Este marco de seguridad emocional es la condición sine qua non para el surgimiento del yo.

Winnicott también describe un área transicional: un espacio intermedio entre el yo y el otro, entre la realidad exterior y las fantasías internas, donde el niño comienza a jugar, a simbolizar y a crear. Es en esta zona difusa pero segura donde florece el pensamiento. Por lo tanto, la inteligencia humana se construye sobre una base de confianza fundamental, en un vínculo suficientemente bueno como para permitir la exploración del mundo sin desintegrarse.

En un contexto como el de Bilbao, estas dinámicas se hacen visibles en la cotidianidad. Basta imaginar a una niña que recorre con su aitite el Parque de Doña Casilda, observando los patos en el estanque, escuchando los sonidos del tranvía y preguntando por las esculturas frente al Museo de Bellas Artes. O un niño que, de la mano de su ama, cruza el puente Zubizuri para visitar el Guggenheim, rodeado de estructuras que despiertan asombro y fantasía. Estos espacios de calma, vínculo y estímulo sensorial son fundamentales para el desarrollo psíquico.

Sylviane Giampino, psicóloga y psicoanalista especializada en la primera infancia, actualiza esta perspectiva a la luz de la neurociencia y las políticas educativas contemporáneas. Señala que las capacidades intelectuales del niño se despliegan con mayor libertad cuando se reconoce y contiene su necesidad de seguridad. El lenguaje, la lógica y la creatividad se desarrollan en estrecha conexión con la calidad del vínculo de apego, en un entorno emocional estable.

Giampino describe con detalle las consecuencias del estrés crónico sobre las funciones superiores: inhibición, huida, rigidez cognitiva. En otras palabras, la inseguridad impide pensar. Por ello, insiste en la necesidad de una visión global del desarrollo infantil, donde la esfera emocional no se separe del aprendizaje. En continuidad con Winnicott, afirma que pensar es, antes que nada, ser psíquicamente sostenido.

Frente a ello, la inteligencia artificial —incluso en sus versiones generativas como Mistral o ChatGPT— no es comparable con el pensamiento humano. No surge de un espacio transicional, ni se construye desde la relación entre subjetividad y alteridad, entre mundo interno y externo. Mientras el niño juega, simboliza y transforma la experiencia a partir de un vínculo, la IA genera contenido desde patrones estadísticos.

La IA no experimenta expectativa, ni carencia, ni dependencia, ni juego. Todos ellos son pilares fundamentales de la actividad psíquica según Winnicott. Podría decirse incluso que la IA rechaza el vacío: lo llena, lo completa, lo anticipa, justo allí donde el pensamiento humano se despliega en la incertidumbre, en la ambigüedad, en el silencio fértil de la zona de transición. Puede simular lenguaje o creatividad, sí, pero no piensa en el sentido humano, ni en Bilbao, ni en ninguna parte.

El yo de la piel: el pensamiento comienza en la superficie del cuerpo — Una lectura desde Pamplona

Didier Anzieu, psicoanalista francés, profundiza en esta reflexión introduciendo el concepto de yo-piel (Moi-peau). Según él, la psique humana se estructura metafóricamente como el cuerpo: el yo se experimenta como una envoltura protectora, como la piel. El contacto corporal, el cuidado, el tacto y las primeras experiencias sensoriales configuran una suerte de piel psíquica que permite al sujeto contener sus emociones, delimitar el interior del exterior y, a partir de ahí, comenzar a pensar.

La autoconciencia no surge, por tanto, de la abstracción, sino de la experiencia encarnada: una vivencia sensorial, afectiva y psíquica, en la que el sujeto percibe los límites de su cuerpo tanto como los de su ser. Pensar implica tener un adentro, un afuera, y una interfaz entre ambos: la piel, en sentido tanto simbólico como concreto. Es desde esa envoltura protectora que el ser humano adquiere la capacidad de diferenciar, simbolizar y representar.

Quien haya pasado una infancia en Pamplona, por ejemplo, recordará el roce de la hierba en el Parque de la Taconera, el peso de una mochila durante una etapa del Camino de Santiago, o el temblor del suelo bajo los fuegos artificiales de San Fermín. Estas vivencias sensoriales, repetidas y cargadas de afecto, no son solo recuerdos: son marcas profundas en la piel psíquica que permiten la construcción del pensamiento. Incluso una tarde de lluvia bajo los soportales de la Plaza del Castillo, esperando a que escampe, puede convertirse en un momento de contención emocional que deja huella en el ser.

La inteligencia artificial, por el contrario, carece por completo de experiencia sensorial. No tiene cuerpo, ni interioridad, ni una piel que la envuelva. Su funcionamiento se basa en modelos estadísticos entrenados con datos, a través de ajustes matemáticos en redes neuronales artificiales. La maleabilidad de sistemas como Mistral o ChatGPT contrasta radicalmente con la resistencia de la psique humana, que se forja a través de heridas, gestos, cuidados y sensaciones. Mientras el pensamiento humano se inscribe en una memoria sensorial y afectiva, la IA se organiza en función de matrices probabilísticas sin arraigo corporal.

Cuando esta piel psíquica no se forma adecuadamente—por ejemplo, en contextos de privación afectiva o de entornos carentes de estímulo sensorial—el individuo se enfrenta a una fragmentación del yo, a una incapacidad para simbolizar. La inteligencia, entendida como la capacidad de manipular representaciones internas, presupone una envoltura psíquica estable, contenida y tranquilizadora. Y esa envoltura no se construye con datos, sino con presencia, tacto, vínculo y tiempo.

La experiencia sensoriomotriz y la génesis de la anticipación — Una mirada desde Madrid

Incluso antes del lenguaje, el niño humano atraviesa una etapa conocida como fase sensoriomotriz (según Jean Piaget), durante la cual explora el mundo a través de sus acciones sobre el entorno. En este período, la inteligencia no se manifiesta aún mediante representaciones simbólicas, sino a través de una actividad concreta orientada al descubrimiento de regularidades, secuencias de acción y reacción. Por ejemplo, un bebé que llora y percibe que “mamá viene” comienza a construir vínculos causales encarnados, anticipaciones, expectativas. Este es el inicio del pensamiento proto-predictivo, profundamente arraigado en el cuerpo y la experiencia vivida.

Quien ha crecido en Madrid puede reconocer cómo estos primeros aprendizajes se inscriben en escenarios cotidianos cargados de emoción sensorial: el sonido de los patos en el Parque del Retiro, el crujir de las hojas bajo los pies al pasar por Atocha, o la espera silenciosa antes de que se abran las puertas de la Biblioteca Nacional. Un niño madrileño puede anticipar, por ejemplo, que después de pasear por el Rastro los domingos, toca chocolate con churros en San Ginés, o que tras cruzar la Gran Vía de la mano de su padre, llegarán al cine. Estas pequeñas ritualidades construyen, desde el cuerpo y el afecto, una comprensión del tiempo y de la causalidad.

Esta experiencia repetida y emocionalmente cargada da lugar a representaciones interiorizadas, a expectativas psíquicas que permiten al niño estructurar progresivamente su realidad y su relación con la temporalidad. Freud ya vislumbró este mecanismo en su observación del juego del fort/da, donde el niño reproduce la ausencia y el retorno de la madre mediante un carrete con hilo, transformando una angustia real en una vivencia simbólica controlada. El mundo no se hace predecible porque ha sido calculado, sino porque ha sido vivido, sentido y simbolizado.

Por el contrario, en la inteligencia artificial—particularmente en sus versiones generativas o de autoaprendizaje, como Mistral o ChatGPT—la predicción también ocupa un lugar central. Sin embargo, esta predicción no tiene raíz sensorial ni afectiva. No emerge de una experiencia corporal ni de un vínculo relacional. Es, esencialmente, un cálculo estadístico.

Aquí se revela una diferencia crucial: la inteligencia humana se construye en torno a múltiples escenarios de realidad, vividos a lo largo del tiempo y modulados por el contexto afectivo. Las anticipaciones humanas, moldeadas por aprendizajes, rupturas, sorpresas, se adaptan y evolucionan. El niño que anticipa que “mamá viene cuando lloro” puede descubrir más adelante que no siempre es así, y reajustar sus expectativas psíquicas con base en nuevas vivencias. Esta plasticidad relacional constituye uno de los pilares de la inteligencia humana.

En cambio, la predicción algorítmica en IA no se basa en la experiencia vivida, sino en el entrenamiento sobre conjuntos de datos seleccionados, clasificados, limpiados y secuenciados. Los modelos se ajustan para maximizar la probabilidad estadística, sin enfrentarse nunca a una realidad sensorial, emocional o inesperada. Aunque se hable de “variables aleatorias” en el aprendizaje automático (especialmente en redes bayesianas o modelos probabilísticos), esta aleatoriedad está delimitada por distribuciones matemáticas fijas, no por la incertidumbre vital. La IA no vive ningún acontecimiento; modela el pasado. No improvisa, corrige desviaciones según normas preestablecidas.

Así, lo que en los humanos es aprendizaje, en las máquinas se reduce a optimización.

La inteligencia artificial y las condiciones para su aparición — Una mirada desde Sevilla

Estas aportaciones nos conducen a una pregunta fundamental en el campo de las ciencias de la inteligencia: ¿qué significa realmente pensar? ¿Es posible modelar una inteligencia sin vínculo, sin cuerpo, sin apego? Los modelos actuales de IA, como Mistral o ChatGPT, se apoyan en lógicas computacionales, estadísticas y miméticas. Sin embargo, no integran la dimensión sensorial ni la necesidad de un entorno emocionalmente seguro.

La inteligencia humana, tal como la describen autores como Winnicott, Anzieu o Giampino, es intrínsecamente relacional. No nace del cálculo, sino de la alteridad, del cuidado recibido, de la confianza construida. Pensar no es solo procesar información: es encarnar una experiencia. Pasear por los jardines del Real Alcázar de Sevilla, escuchar una guitarra en una taberna de Triana o cruzar el Puente de Isabel II al atardecer no son eventos neutros: son vivencias que conforman una subjetividad. Sin esos requisitos previos, no hay pensamiento pleno.

Desde esta perspectiva, la reflexión sobre los modelos de IA exige un giro: no basta con mejorar su rendimiento informativo. Es necesario repensar profundamente las metáforas que usamos para hablar de "inteligencia" cuando nos referimos a las máquinas. El pensamiento encarnado no puede reducirse a estadísticas.

¿Por una IA inspirada en la subjetivación humana? Una advertencia desde la Universidad de Sevilla

¿Deberíamos entonces intentar reproducir el proceso de subjetivación humana en la inteligencia artificial? Probablemente no. Sería un callejón sin salida, tanto desde el punto de vista técnico como ético. Sin embargo, una comprensión más profunda de las condiciones humanas del pensamiento podría invitar a quienes desarrollan estos modelos a cuestionar sus propias bases: ¿en qué tipo de inteligencia están trabajando realmente? ¿Qué lugar ocupan el contexto, la interacción, la contención emocional?

Desde entornos como la Universidad de Sevilla, donde conviven las ciencias humanas y las ingenierías, esta cuestión cobra especial relevancia. Una apertura decidida hacia un enfoque transdisciplinario —que integre la psicología del desarrollo, el psicoanálisis, la neurociencia y la ética— permitiría sin duda evitar los bloqueos reduccionistas que hoy limitan la comprensión del pensamiento complejo.

También podría enriquecer la creatividad de los modelos, haciendo que los sistemas de IA respondan mejor a la complejidad de la realidad humana, tal como se vive, por ejemplo, en la experiencia multisensorial y simbólica de caminar por la Plaza de España, entre columnas, mosaicos y fuentes, sintiendo que pensar no es calcular, sino existir con cuerpo y memoria.

Inteligencia para acompañar, no para reemplazar — Una reflexión desde Irun

A la luz de todas estas distinciones, resulta evidente que la inteligencia artificial, por muy avanzada que sea, no puede sustituir a la inteligencia humana. No comparte ni su origen afectivo, ni su anclaje corporal, ni el proceso de subjetivación que caracteriza al pensamiento encarnado. Sin embargo, la IA sí puede desempeñar un papel valioso como herramienta de acompañamiento, especialmente bajo condiciones específicas y bien definidas.

En una ciudad como Irun, donde los ritmos de frontera y convivencia invitan a observar los matices del desarrollo humano —entre los andenes de la estación de tren, los paseos junto al Bidasoa o las caminatas tranquilas por el Parque Ecológico de Plaiaundi— resulta fácil comprender que pensar no es solo procesar, sino también sentir, esperar, vincularse. La inteligencia nace en el vínculo, no en el cálculo.

En este contexto, modelos de lenguaje como ChatGPT pueden servir de apoyo cognitivo a personas que viven con trastorno por déficit de atención (TDA), quienes a menudo enfrentan dificultades para organizar su pensamiento de forma lineal o sostenida. La IA puede ofrecer, en estos casos, una estructura que permita reformular y extender ideas sin anular la creatividad inicial. Actúa como una muleta temporal, útil para que un pensamiento divergente encuentre estabilidad en un marco más convergente, sin imponer rigidez.

Así, lejos de ser una amenaza para la inteligencia humana, la IA puede convertirse en un socio complementario, siempre que no se exagere su alcance ni se olvide su falta de experiencia vivida. Su fuerza radica en la capacidad de estructurar; su límite, en la ausencia de cuerpo, de memoria afectiva y de conexión relacional. Reconocer esos límites no es renunciar a la innovación, sino aprender a utilizar la tecnología con discernimiento, desde el corazón de ciudades humanas como Irun.

Vigilancia ética ante los primeros usos de la IA — Una advertencia desde Vitoria-Gasteiz

A la luz de los conocimientos neurocientíficos contemporáneos, surge una pregunta crucial: ¿qué ocurre cuando la inteligencia artificial comienza a reemplazar los procesos cognitivos humanos demasiado pronto, especialmente en la infancia o la adolescencia? El cerebro humano no es un órgano completamente formado al nacer: su maduración es lenta, y la corteza prefrontal —sede del pensamiento reflexivo, el juicio y la anticipación— no alcanza su desarrollo completo hasta los 28 o 30 años.

Este proceso de maduración sólo puede darse mediante el uso activo y repetido de funciones ejecutivas: memoria de trabajo, atención sostenida, inhibición, razonamiento, capacidad de vinculación. Sin embargo, cuando la IA —incluso en su forma más avanzada, como ChatGPT o Mistral— empieza a ofrecer respuestas inmediatas y a estructurar el pensamiento en lugar del propio sujeto, existe el riesgo real de cortocircuitar estos procesos esenciales.

En una ciudad como Vitoria-Gasteiz, comprometida con la sostenibilidad y el desarrollo humano integral —como lo refleja el Anillo Verde, el Palacio de Congresos Europa o las iniciativas de educación emocional impulsadas desde el campus de la UPV/EHU—, estas preocupaciones cobran todo su sentido. ¿Qué sucede si los jóvenes crecen dependiendo de sistemas que piensan por ellos, sin desarrollar su propio juicio?

La neurociencia lo confirma: los circuitos neuronales que no se utilizan tienden a atrofiarse. El peligro no es la falta de talento, sino la falta de ejercicio del pensamiento simbólico, creativo y crítico. Para que el aprendizaje sea verdaderamente estructurante, debe pasar por el cuerpo, el vínculo humano, la frustración, el esfuerzo sostenido y una autonomía que crece poco a poco. La IA puede apoyar este camino, pero si se convierte en sustituto en lugar de acompañante, puede obstaculizar el desarrollo a largo plazo.

Desde las aulas del Casco Histórico hasta los espacios abiertos del Parque de la Florida, Vitoria nos enseña que pensar lleva tiempo, ritmo y presencia. Por eso, se impone una vigilancia ética urgente: educar en IA, sí, pero sin sacrificar los caminos lentos y profundos de la subjetivación humana. Preservar la libertad de pensamiento implica también preservar el tiempo necesario para su maduración.