Les limites de Mistral et de ChatGpt face à l’intelligence humaine selon Winnicott
Une lecture croisée de la psychologie du développement et de l’IA pour repenser la pensée humaine, sa genèse, et ses conditions d’émergence. L'IA peut être une aide à certains handicaps, néanmoins une réflexion éthique internationale s'impose.
VEILLE SOCIALE
Lydie GOYENETCHE
4/1/20259 min lire


La pensée humaine ne naît pas dans le vide. Elle émerge dans un environnement, un lien, une histoire singulière. Ce que les sciences cognitives et l'intelligence artificielle tentent de modéliser aujourd'hui, la psychologie du développement et la psychanalyse l'ont observé, pensé, nommé depuis plusieurs décennies. Dans cette perspective, les travaux de Donald Winnicott, de Sylviane Giampino et de Didier Anzieu permettent de poser une hypothèse centrale : le besoin de sécurité n'est pas un obstacle à l'intelligence, il en est le préalable absolu.
L’hypothèse que nous explorons ici est la suivante : si la pensée peut émerger dans des contextes insécures, c’est bien souvent au prix de stratégies défensives ou de limitations dans sa portée symbolique. Un cadre sécurisant, tant sur le plan affectif que sensoriel, ne garantit pas l’apparition de la pensée, mais il en facilite l’exercice libre, adaptatif et créatif. Cet article propose une lecture transversale de ces apports pour nourrir la réflexion contemporaine sur les modèles d'intelligence, naturelle ou artificielle.
Le besoin de sécurité, socle du développement psychique (Winnicott et Giampino)
Pour Donald Winnicott, pédiatre et psychanalyste britannique, la pensée est le fruit d'une relation. Loin d'être un processus abstrait, elle naît dans l'espace sécurisant créé par la mère ou la figure primaire d'attachement. Le concept de "holding" (tenir, contenir), désigne cette fonction psychique de soutien, d'étroite proximité corporelle et affective, qui permet au nourrisson de s'éprouver comme un être continu et unifié. Ce cadre contenant est la condition sine qua non de l'émergence du Moi.
En parallèle, l'aire transitionnelle décrite par Winnicott est cet espace entre soi et l'autre, entre la réalité externe et les fantasmes internes, où l'enfant commence à jouer, symboliser, créer. C'est dans cette zone floue, mais sécurisée, que se développe la pensée proprement dite. L'intelligence humaine se fonde donc sur une confiance fondamentale, sur un lien suffisamment bon pour permettre l'exploration du monde sans se désintégrer.
Sylviane Giampino, psychologue et psychanalyste spécialisée dans la petite enfance, prolonge cette perspective en l’actualisant à la lumière des politiques éducatives et des neurosciences. Elle montre que les capacités intellectuelles de l'enfant se déploient d'autant plus librement que son besoin de sécurité est reconnu, répondu, contenu. Le langage, la logique, la créativité se construisent en lien avec la qualité du lien d'attachement, dans un climat émotionnel suffisamment stable.
Elle décrit avec précision les conséquences du stress chronique sur les fonctions supérieures : inhibition, fuite, rigidité cognitive. En somme, l'insécurité empêche de penser. Elle insiste ainsi sur la nécessité d'une approche globale du développement de l'enfant, où la sphère affective est considérée comme indissociable de l'apprentissage. Dans la continuité de Winnicott, Giampino affirme que penser, c’est d’abord être contenu psychiquement.
L'intelligence artificielle, même générative, n'est en ce sens aucunement comparable à la pensée humaine. Elle ne s'origine pas dans une aire transitionnelle, elle ne résulte pas d’un mouvement entre subjectivité et altérité, entre monde interne et monde externe. Là où l'enfant joue, crée et symbolise à partir d’un espace de lien, l’IA génère du texte ou des images en fonction d’un apprentissage statistique sur des bases de données. Elle n’éprouve ni l’attente, ni le manque, ni la dépendance, ni le jeu : autant d’éléments fondateurs de l’activité psychique selon Winnicott. On pourrait même dire que l’IA a horreur du vide : elle comble, complète, prédit, anticipe, là où la pensée humaine se déploie dans l’incertain, l’ambigu, le silence fertile de l’aire transitionnelle. L’IA peut simuler du langage ou de la créativité, mais elle ne pense pas au sens humain du terme.
Le Moi-peau : penser commence à la surface du corps (Anzieu)
Didier Anzieu, psychanalyste français, approfondit cette réflexion en introduisant le concept de "Moi-peau". Selon lui, le psychisme humain s'organise en métaphore du corps : le Moi est vécu comme une enveloppe protectrice, à l'image de la peau. Le contact corporel, les soins, le toucher, les expériences sensorielles précoces viennent constituer une sorte de peau psychique qui permet au sujet de contenir ses émotions, de délimiter l'intérieur de l'extérieur, et donc de commencer à penser.
La conscience de soi ne naît donc pas dans l’abstraction, mais dans l’expérience : une expérience incarnée, sensorielle, affective et psychique, où le sujet éprouve les limites de son corps comme celles de son être. Penser suppose d’avoir un dedans, un dehors, et une interface entre les deux : la peau, symboliquement et concrètement. C’est à partir de cette enveloppe que l’humain devient capable de différencier, symboliser, représenter.
L’intelligence artificielle, en revanche, ne repose sur aucune expérience sensible, ni aucune délimitation interne/externe. Elle n’a ni corps, ni intériorité, ni enveloppe psychique. Elle est modelée, structurée, entraînée à partir de données, et son fonctionnement repose sur des ajustements mathématiques dans des réseaux de neurones artificiels. La malléabilité de ses modèles contraste fortement avec la résistance du psychisme humain, bâti à partir de traces, de blessures, de soins, de sensations. Là où la pensée humaine s’inscrit dans la mémoire affective et sensorielle, l’IA s’organise selon des matrices probabilistes. Cette absence d’enracinement corporel rend impossible toute forme de subjectivité authentique.
En cas de carence de ce Moi-peau (par exemple en situation de carence affective ou de désensualisation de l'environnement), l'individu est confronté à une forme d'éclatement psychique, une impossibilité à symboliser. L'intelligence, en tant que capacité à manipuler des représentations internes, suppose donc l'existence d'une enveloppe psychique stable et rassurante.
L'expérience sensorimotrice et la genèse de l'anticipation
Avant même le langage, l’enfant humain traverse une période dite sensori-motrice (selon Jean Piaget), où il fait l’expérience du monde par le biais de ses actions sur l’environnement. À ce stade, l’intelligence ne se manifeste pas encore par des représentations symboliques, mais par une activité orientée vers la découverte de régularités, de séquences d’actions et de réactions. Par exemple, un nourrisson qui pleure expérimente que « maman arrive ». Il commence ainsi à construire des anticipations, des attentes, des liens de causalité incarnés. C’est le début d’une pensée proto-prédictive, enracinée dans le corps et l’expérience vécue.
Cette expérience répétée et investie émotionnellement donne naissance à des représentations intériorisées, des attentes psychiques, qui permettent au bébé de structurer peu à peu sa réalité et son rapport au temps. Freud avait déjà entrevu ce mécanisme dans l’expérience du "fort/da", où l’enfant rejoue l’absence et le retour de la mère à travers un jeu de ficelle et de bobine, transformant ainsi une angoisse réelle en expérience symbolique maîtrisée. Le monde devient prédictible parce qu’il a été vécu et représenté.
Dans l’intelligence artificielle, en particulier dans ses versions génératives ou dites auto-apprenantes, la prédiction est également centrale : elle repose sur des modèles statistiques destinés à anticiper la suite la plus probable d’une séquence. Mais cette prédiction n’a aucune racine dans l’expérience sensible ou affective. Elle n’émerge pas d’un vécu ni d’un lien. Elle est purement calculatoire.
Une différence fondamentale émerge alors : l’intelligence humaine se construit autour de multiples scénarios de la réalité, vécus dans la durée. La dimension prédictive y est le fruit d’une expérience affective, corporelle, contextuelle. Ces prédictions humaines, façonnées par les apprentissages, les ruptures, les surprises, peuvent évoluer au fil du temps. Le nourrisson qui anticipe que « maman arrive quand je pleure » pourra découvrir plus tard que ce n’est pas toujours le cas, réajustant ainsi ses attentes psychiques en fonction de nouvelles expériences. Cette plasticité relationnelle est constitutive de l’intelligence humaine.
À l’inverse, la prédiction algorithmique dans l’IA ne repose pas sur l’expérience, mais sur un entraînement effectué à partir de jeux de données sélectionnés, classés, nettoyés et séquencés. Les modèles d’IA sont ajustés pour optimiser la prédiction d’occurrences statistiques, sans être confrontés à une réalité vécue, sensorielle ou émotionnelle. Si l’on parle parfois de « variables aléatoires » dans l’apprentissage machine (notamment dans les réseaux bayésiens ou certains modèles probabilistes), cette aléa est encadrée par des distributions mathématiques déterminées, et non par l’imprévisibilité de la vie. L’IA ne vit aucun événement ; elle modélise des occurrences passées. Elle ne compose pas avec l’inattendu, elle corrige des écarts à partir de règles préétablies. Ainsi, ce qui est apprentissage dans l’humain devient simple optimisation dans la machine.
Intelligence artificielle et conditions d'émergence de l'intelligence
Ces apports soulèvent une question fondamentale pour les sciences de l'intelligence : qu'est-ce que penser ? Peut-on modéliser une intelligence sans lien, sans corps, sans attachement ? Les modèles d'IA actuels reposent sur des logiques computationnelles, statistiques, mimétiques. Ils n'intègrent ni la dimension sensorielle, ni la nécessité d'un environnement sécurisant.
L'intelligence humaine, telle que décrite par Winnicott, Anzieu ou Giampino, est fondamentalement relationnelle. Elle naît de l'altérité, du soin, de la confiance. Sans ces préalables, il n'y a pas de subjectivité, pas de pensée au sens plein. Cela invite à repenser les métaphores de l'intelligence utilisées en IA, et à ne pas confondre performance informationnelle et pensée incarnée.
Pour une IA inspirée de la subjectivation humaine ?
Faut-il pour autant chercher à reproduire le processus de subjectivation humaine dans l'IA ? Ce serait sans doute une impasse technique et éthique. En revanche, une meilleure compréhension des conditions humaines de la pensée peut inviter les chercheurs en IA à interroger leurs modèles : sur quelles bases repose l'intelligence qu'ils modélisent ? Quelle place donnent-ils au contexte, à l'interaction, au cadre sécurisant ?
L'ouverture à une approche transdisciplinaire, incluant psychologie du développement, psychanalyse, neurosciences et éthique, permettrait sans doute d'éviter les impasses réductionnistes. Elle pourrait aussi enrichir la créativité des modèles, en les rendant plus adaptés à la complexité du réel humain.
Une intelligence pour accompagner, non pour remplacer merci Open Ai et Mistral
À la lumière de toutes ces distinctions, il devient clair que l’intelligence artificielle, aussi sophistiquée soit-elle, ne peut pas se substituer à l’intelligence humaine. Elle ne partage ni son origine affective, ni son ancrage corporel, ni son processus de subjectivation. En revanche, l’IA peut être un outil précieux pour accompagner et soutenir le développement de la pensée humaine, notamment dans certaines conditions spécifiques.
Par exemple, les modèles de langage comme ChatGPT peuvent jouer un rôle d’assistance cognitive pour des personnes vivant avec un trouble de l’attention (TDA). Ces individus rencontrent parfois des difficultés à structurer leur pensée de manière linéaire ou soutenue. L’IA, par sa capacité à organiser, reformuler et prolonger une idée de manière cohérente, peut alors offrir une forme d’appui, sans remplacer l’élan créatif initial. Elle agit comme une béquille temporaire, permettant à une pensée divergente de se stabiliser dans un cadre convergent.
Ainsi, loin de représenter une menace pour l’intelligence humaine, l’IA peut en devenir un partenaire complémentaire, à condition de ne pas en surestimer la portée. Sa force réside dans sa structuration et sa réactivité ; ses limites résident dans son absence de vécu, de corps et de lien. Reconnaître ces limites, c’est aussi mieux en faire usage.
Une vigilance éthique face aux usages précoces de ChatGpt et de Mistral
À la lumière des connaissances neuroscientifiques contemporaines, une question cruciale émerge : que se passe-t-il lorsque l’intelligence artificielle se substitue trop tôt aux processus cognitifs humains, notamment dans l’enfance ou l’adolescence ? Le cerveau humain n’est pas un organe figé à la naissance : il mûrit lentement, et la pleine maturation du cortex préfrontal — siège de la pensée réflexive, du jugement, de l’anticipation — n’est généralement atteinte qu’aux alentours de 28 à 30 ans.
Ce développement ne peut s’effectuer que par l’usage actif et répété des fonctions exécutives : mémoire de travail, attention, inhibition, raisonnement, mise en lien. Or, l’usage massif de l’IA dans les apprentissages, lorsqu’elle remplace la pensée au lieu de la stimuler, risque de court-circuiter ces processus. En apportant des réponses immédiates, en structurant la pensée à la place du sujet, elle peut réduire les opportunités de confrontation à l’effort, à l’inattendu, au doute — autant d’expériences nécessaires à la construction de l’intelligence.
Les neurosciences confirment que les circuits cérébraux non sollicités tendent à s’atrophier. Le risque est alors de voir émerger des générations de jeunes dont les fonctions de symbolisation, de créativité et de pensée critique seraient appauvries, non par manque de potentiel, mais faute d’avoir été pleinement exercées. L’apprentissage, pour être structurant, doit passer par le lien, l’affect, le corps, la frustration parfois, et l’autonomie progressive. L’IA, en tant qu’outil, peut soutenir cette démarche. Mais si elle devient un substitut au lieu d’un appui, elle peut entraver le développement à long terme.
Une vigilance éthique s’impose donc : éduquer à l’IA générative, oui — mais sans précipiter l’abandon des chemins lents et profonds de la subjectivation humaine. Préserver la liberté de penser, c’est aussi préserver le temps nécessaire à sa maturation.




EUSKAL CONSEIL
9 rue Iguzki alde
64310 ST PEE SUR NIVELLE
07 82 50 57 66
euskalconseil@gmail.com