On va pour commencer allonger le titre en « La différence principale entre le contenu produit par l’IA et la production de la pensée humaine et POURQUOI IL NE FAUT PAS TOUT LE TEMPS POSER DES QUESTIONS A CHAGPT (ou autre) COMME SI IL SAVAIT TOUT !«
Comment raisonnent les IA, LLM et autres diableries ? 🙂
Le principe de base : prédire le prochain mot. En effet, un modèle de langage fonctionne essentiellement ainsi:
- il lit une suite de mots (ou plus exactement de “tokens”) ;
- puis il calcule quelles suites ont statistiquement le plus de sens après ce contexte.
A chaque mot, il calcule quelle est la probabilité du prochain token sachant tous les précédents.
Par exemple, si on a « Le chat est monté sur le … », le modèle peut considérer que la suite est toit ou canapé ou meuble ou arbre.
Chaque possibilité reçoit une probabilité.
Ceci dit, ce qui précède est un peu simpliste car avec les modèles actuels, ce n’est PAS seulement le mot juste avant qui compte. Les LLM modernes regardent potentiellement des milliers ou même + de mots précédents et « essaient de comprendre » (avec les limites de cette expression pour une machine):
- le sujet global ;
- le ton ;
- le contexte ;
- les relations entre les phrases ;
- les intentions probables ;
- les structures du langage.
Pourquoi cela semble intelligent ?
Le langage humain contient énormément de structures :
- logiques ;
- de causalité ;
- de raisonnement ;
- de connaissances ;
- d’émotions ;
- de styles ;
- de culture.
Comme les modèles ont appris, ont été gavés de milliards de textes, ils reproduisent:
- des façons de raisonner ;
- des structures argumentatives ;
- des relations entre concepts ;
- des schémas de dialogue ;
- des associations complexes.
Et donc ça ressemble à un raisonnement humain, d’autant plus que les cerveaux humains qui prennent connaissance de ce que pond l’IA « y voient » la résultat d’un raisonnement humain, d’un véritable raisonnement et pas d’une « combinaison ».
Par exemple, si vous écrivez « Napoléon est mort à … », le modèle sait que :
- on parle d’histoire ;
- d’une personne ;
- d’un lieu ou d’une date probable.
(A moins qu’on ne soit déjà dans l’histoire d’un chat appelé Napoléon et passé sous une voiture).
En d’autres mots, le modèle utilise tout le contexte, les connaissances qu’il a apprises et les structures statistiques du langage.
Attention ! Le modèle ne prend pas toujours le mot le plus probable sinon les réponses seraient répétitives et même robotiques (ce que l’IA essaie de ne pas être pour qu’on la prenne au sérieux 🙂)
Il utilise souvent un échantillonnage probabiliste et choisit selon les réglages OU LE FAMEUX PROMPT d’où l’énorme intérêt, avantage et l’absolue nécessité d’être très bon en prompt !!
(Et PUB, à ce sujet, achetez et lisez Prompt pour les Pros et Ingénierie de prompts : 58 techniques pour obtenir des réponses fiables avec ChatGPT et l’IA: Améliorez concrètement votre utilisation de chatGPT; Claude, Gemini, LeChat, Copilot et autres IA )
Les tokens
En réalité donc, les modèles travaillent surtout avec des “tokens”. Ce sont des mots ou des parties de mots ou une ponctuation ou un morceau de phrase. Un seul mot peut être l’objet de plusieurs tokens pour ses différents sens, en diverses langues et utilisations.
Dans un proche avenir, il y a fort à parier que la guerre des tokens, à cause de leur coût, devienne l’objet principal des luttes entre LLM et des dépenses d’entreprises.
L’absence de “pensée” cachée derrière une production d’IA
Une fois qu’on a compris que les réponses de l’IA n’étaient que le résultat de probabilités élaborées (dans les 2 sens) à partir de milliards de données, choses permises notamment par des masses énormes d’argent et des grosses grosses machines et que donc, nous n’avons pas affaire à une CONSCIENCE, au sens commun où nous humains l’entendons, on relativise le truc.
En fait, c’est un peu comme de savoir qu’on peut courir au maximum à 36 km/h sur 100 m (environ hein :-)) mais qu’une voiture peut aller bcp, bcp plus vite et qu’un robot qui ressemblerait à un humain peut aussi le faire.
Attention cependant car penser à l’inverse que l’IA n’est qu’une prédiction du mot suivant peut aussi devenir trompeur.
A très grande échelle et dans pas mal de domaines, l’IA a appris énormément de structures « profondes » du monde REEL et peut donc « dire » des choses VRAIES.
Mais d’ailleurs, les humains parlent eux aussi souvent en « mode automatique » ou en donnant le mot ou l’expression d’après parce qu’ils en ont l’habitude ….
Hé oui ! Les humains eux parlent parfois comme ceci, en mode « automatique », en répétant des phrases ou morceaux de phrases (Par exemple « Comment vas .. » la suite est bien sûr « tu » si le contexte est qu’on voit quelqu’un qu’on connait. La suite ensuite sera « Ca va et toi » .. sans qu’on ait besoin de vraiment réfléchir).
Parfois aussi les humains essaient de deviner ce qu’il faut dire sans trop réfléchir comme typiquement les élèves à l’école quand ils n’ont pas vraiment compris qqch et essaient de deviner en partant du contexte et des phrases et mots d’avant.
Mais parfois aussi les humains produisent du contenu dont chaque mot ou chaque phrase ne dépend pas de ce qu’il y a avant mais d’une sorte de réflexion qui fait en quelque sorte TOMBER le mot ou la phrase « du haut ».
On a en fait 3 niveaux différents chez l’humain.
1. Le langage automatique
Une énorme partie de notre langage est effectivement prédictive et automatisée.
Quand quelqu’un dit :« Comment vas… », … votre cerveau anticipe immédiatement : « …tu ? »
Même chose pour les expressions , les habitudes , les automatismes sociaux , les phrases toutes faites ou les routines culturelles.
Le cerveau humain est lui aussi une grosse machine à prédiction, qui utilise plus ou moins les mêmes « règles » que les LLM (ce qui est logique puisqu’ils sont construits sur le modèle du cerveau humain dans ce que ce dernier a de compréhensible).
2. Le raisonnement approximatif
Comme on l’a écrit plus haut, on essaie souvent également de “deviner” sans comprendre complètement (élève à l’école, personne un peu perdue dans une discussion technique, improvisation, etc..).
L’humain utilise alors des indices (comme notamment les réactions ou mimiques de ses interlocuteurs), des corrélations, des souvenirs partiels, des intuitions.
Là encore, cela ressemble parfois beaucoup à ce que font les LLM et d’ailleurs, c’est pour cela que certaines réponses IA paraissent si humaines puisqu’une partie du langage humain fonctionne déjà de manière probabiliste et approximative.
3. La pensée “qui tombe du haut”, la pensée intelligente et céleste 🙂
Là, on est dans l’humain 🙂 On est dans les véritables idées, les intuitions, les visions dites globales, les intentions, ce qui précède les mots.
Les débats existent chez les spécialistes de tout genre pour savoir si on parle d’inné ou d’acquis, si le langage forme et crée la pensée ou l’inverse, si tout n’est pas finalement combinaison et recombinaison, etc, etc..
Sans aller dans des questions philosophiques, on peut quand même considérer que parfois, chez les humaines, les mots ne sont plus seulement déterminés par les mots précédents.
Ils sont déterminés par :
- une pensée ;
- une représentation mentale ;
- une volonté ;
- une compréhension ;
- un objectif conscient.
Et c’est probablement ici qu’existe encore une grande différence entre humains et IA actuelles.
Quand un scientifique a une intuition, la phrase n’émerge pas simplement du mot précédent et elle peut émerger d’une représentation abstraite globale.
Même chose pour un poète (sans doute une « profession » à analyser pour aller plus loin), un mathématicien, un philosophe, un compositeur (là aussi un très bon domaine d’ »enquête » car la musique est souvent « sans mots » et à certaines périodes totalement nouvelle même si on ne peut exclure qu’elle soit le résultat de combinaisons et recombinaisons d’autres musiques d’avant ou même d’autres domaines), un inventeur.
Parfois tous ces gens “voient” une idée, ressentent une structure, perçoivent une solution AVANT de fournir les mots. Ceux-ci sont alors la traduction d’une pensée « plus profonde ».
Les mots deviennent alors :
En d’autres mots, chez les humains, le langage n’est pas forcément la source de la pensée.
Nous « pensons » aussi en images, sensations, abstractions, émotions, intuitions et représentations non verbales.




