Les modèles LLM : technologie d’avenir ou simple gadget éphémère ?
Depuis la mise à disposition publique du modèle d’OpenAI, ChatGPT, en novembre 2022, l’intelligence artificielle est devenue un centre d’intérêt mondial, attisant des spéculations de tout type. D’abord, une nouvelle fièvre de l’investissement a créé une énorme bulle spéculative sur les marchés de la tech, provoquant la réaction de beaucoup de spécialistes qui appellent à la prudence. De plus, l’immense communauté des créateurs de contenus et artistes se plaint du vol de ses créations et se sent menacée par une véritable armada d’artistes — ou faux artistes — dopés à l’intelligence artificielle.
Dans le domaine de la tech, un phénomène semblable oppose les développeurs seniors aux jeunes ingénieurs qui codent assistés par des agents, multipliant la productivité et laissant apparaître l’interrogation sur la fin d’un métier autrefois réservé aux intellectuels « geeks ». On peut constater également deux univers qui s’opposent : celui des experts de l’ancienne école, très exigeants, qui privilégient largement l’effort, le travail fastidieux de recherche et la lecture de documentations complexes, cherchant toujours un résultat exact et déterministe ; face à la nouvelle génération d’experts « augmentés », qui accélèrent la production mais en acceptant, parfois, des résultats probabilistes moins maîtrisés.
Deux univers qui s’opposent ? Un mirage d’avancée technologique ? Ou une réelle rupture, avec un avant et un après ? Dans cet article, nous allons plonger dans les entrailles de cette technologie, comprendre son fonctionnement avec des mots simples mais pertinents. Puis, nous analyserons son potentiel et ses limites pour ainsi retenir une méthodologie équilibrée adaptée à l’usage professionnel.
IA : les origines
L’intelligence artificielle n’est pas une technologie récente ; ses débuts remontent presque à l’invention des premiers ordinateurs (années 1950). Au départ, l'approche était logique et symbolique. Mais les ingénieurs ont vite compris que le potentiel majeur de cette machine à calculer pouvait servir au calcul probabiliste. L’idée était de transformer les équations mathématiques en programmes informatiques pour résoudre des problèmes concrets.
Un changement majeur se produit dans les années 2000. Internet et le Web 2.0 arrivent à maturité, les données explosent. En même temps, la puissance de calcul des ordinateurs permet des analyses de données plus importantes. Le Machine Learning (apprentissage automatique) se développe avec des capacités étonnantes. Prenons l'exemple de l'algorithme qui permet de reconnaître la photo d’une fleur et de deviner son espèce. Cet algorithme repose sur le fait que l’analyse d’une suite de paramètres permet de modéliser une tendance probable. Ainsi, si un vecteur de paramètres correspond à une espèce de fleur, une nouvelle image avec ses propres paramètres vectorisés peut servir à trouver la probabilité la plus certaine de l’espèce associée. On dirait de la magie ! Mais non, c’est du calcul statistique de probabilités.
Dans la décennie 2010, deux évolutions allaient révolutionner ces algorithmes. La première est l'explosion du Deep Learning (l'apprentissage profond). Au lieu de fonctionner de façon linéaire, on utilise des réseaux de neurones artificiels (une technologie théorisée bien avant, mais devenue exploitable grâce à la puissance de calcul moderne). L’algorithme a une fonction simple : une entrée, une validation et une sortie. L’interconnexion de multiples couches de neurones permet d'affiner considérablement le bon du mauvais résultat.
La deuxième avancée, encore plus révolutionnaire, arrive en 2017 : l'architecture des Transformers. Pour faire simple, cet algorithme permet non seulement de traiter beaucoup d’informations, mais il est capable de garder une cohérence du contexte initial grâce à un mécanisme d'attention. Les choix et les validations sont alors toujours influencés par le contexte tout au long des calculs. Génial ! On pouvait alors non seulement traiter de l’information mais donner des réponses cohérentes avec les paramètres initiaux.
Ces avancées ont convergé avec la capacité de nos machines à traiter d'immenses quantités de données trouvées sur le Web. C’est ainsi qu'OpenAI a eu l’idée d'entraîner un modèle, non pas pour classer des images, mais un Grand Modèle de Langage (LLM). Le résultat : ce premier LLM était capable de deviner la lettre, le mot, la phrase, le paragraphe et tout un texte à partir d’un contexte. L’algorithme ne cherche pas dans une base de données ; il place chaque token (morceau de mot) l’un après l’autre en calculant la probabilité la plus forte par rapport au contexte.
On a appelé cela l’émergence de l’Intelligence Artificielle. Mais ce nom prête à confusion. Le grand public s’est emparé de l’outil et beaucoup ont été émerveillés. En effet, jamais un tel algorithme n’avait existé auparavant. D’autres entreprises ont suivi et la course à la puissance a commencé, diversifiant les champs applicatifs : son, image, vidéo, code… L’explosion des possibilités devient effrayante mais pose beaucoup d’interrogations sur leur efficacité réelle.
Les forces et les faiblesses des LLM
Comme nous l’avons expliqué plus haut, les modèles de langage sont basés sur des moteurs probabilistes. Ce qui implique que l’information n’est pas déterministe. Par exemple, une information déterministe serait « 1+1 = 2 », il n’y a pas d’autres possibilités. Dans l’univers des IA génératives, la réponse est « probablement » celle attendue, mais si le problème est complexe, on peut avoir des surprises.
Pour faire comprendre à l’utilisateur cette anomalie, on a utilisé le terme d’hallucination. Ce qui est encore un abus de langage ! Je ne sais pas si vous me suivez, mais le plus grand problème de cette technologie est son côté marketing qui a voulu donner à l’interface un aspect humain pour simuler une « intelligence », alors que nous parlons plutôt d’un algorithme mathématique. C’est trompeur et dangereux. Car nous avons tendance à imaginer que nous parlons à quelqu’un, et cela influence notre façon d’introduire l’information initiale : le prompt. Un mauvais prompt ou un prompt mal contextuatlisé donne une mauvaise réponse. C’est la première faiblesse de cette technologie : à force de vouloir donner l’impression d’une intelligence humaine, on a provoqué une faille pédagogique dans l'approche de l’outil.
La deuxième faille importante, dont il faut être conscient, est liée à l'alignement du modèle (le RLHF). De la même façon que les réseaux sociaux (Instagram, TikTok, YouTube, etc.) cherchent à retenir l’utilisateur en lui proposant du contenu similaire à ce qu'il aime, les IA sont entraînées pour être des assistants serviables et « plaire » à l’utilisateur, en allant dans son sens, en le valorisant toujours. Certes, c’est plus nuancé, mais cela peut provoquer un effet similaire : une chambre d'écho de ses propres idées. Donc attention, il faut en être conscient et rester critique.
Ceci dit, tout n’est pas mauvais, loin de là ! Cette technologie a une capacité d’accélérer l’analyse et la recherche. Elle peut synthétiser, aider à apprendre et à comprendre. Elle ne se fatigue pas. Plus encore aujourd’hui, elle est capable de faire des recherches sur Internet et de donner les sources. C’est un outil qui augmente les capacités et l’agilité des experts comme des non-initiés. L’automatisation avec des agents permet d’analyser de grandes quantités d’information pour trouver les indices d’une cyberattaque ou d’un bug. C’est non négligeable ! C’est un outil qui va accélérer l’innovation. Nous ne pouvons pas l’ignorer, car demain elle deviendra la norme. Cependant, il faut se former, la comprendre et l’apprivoiser.
Méthodologie du prompt
J’ai découvert le Machine Learning bien avant la naissance de ChatGPT, et quand cet outil est sorti, j’ai eu la chance de le tester 2 jours après sa mise en ligne. J’ai beaucoup expérimenté et j’ai suivi son évolution jusqu’à aujourd’hui. J’ai ainsi mis au point une méthodologie pour diminuer au maximum les hallucinations et pouvoir profiter de la rapidité de l’analyse en production. Voici les étapes simples pour commencer une utilisation plus professionnelle :
-
Avoir conscience que nous ne parlons pas à une personne. C’est un algorithme qui imite une personne, donc qui va prendre les mêmes réflexes lors d’une conversation. Il ne faut pas se laisser égarer par cette imitation.
-
Donner une instruction, pas juste une question. Le prompt n'est pas la barre de recherche de Google. C’est plutôt un espace pour « coder » avec le langage humain. C’est de la logique qu’il faut introduire, pas un simple dialogue.
-
Utiliser un prompt système. Lorsque l'on veut être précis, il faut définir le rôle de l'IA (le « persona ») et ce que nous attendons d'elle. Il faut détailler et être très structuré. Plus le prompt est explicite, plus la réponse sera précise.
-
Demander des sources et une recherche Web. Les connaissances internes des LLM sont figées à leur date d'entraînement. Pour des sujets techniques ou d'actualité, exigez une recherche Web et les liens vers les documentations. Vous pouvez aussi copier-coller la documentation trouvée et lui demander où se trouve la réponse exactement.
-
Croiser les modèles. Vérifiez les réponses avec d’autres LLM (Claude, GPT, Mistral), faites une évaluation croisée. N’hésitez pas à demander des exemples concrets. Restez conscient que l’IA va plutôt aller dans votre direction : précisez donc dans le prompt que vous avez besoin d’une réponse factuelle sans flatterie.
-
Confidentialité des données. N’oubliez jamais qu’un prompt sur un chat public (comme ChatGPT gratuit) est une information qui peut être utilisée pour entraîner le modèle. Si vous souhaitez garder la maîtrise totale, vous devez utiliser des outils sur votre PC (LLM en local) ou demander explicitement l'option « Zero Retention » via API (chez Mistral par exemple) ou utiliser des versions « Entreprise ».
Ces 6 points permettent déjà d’approcher l’outil avec plus de sérénité et moins d’improvisation dans un cadre professionnel.
En conclusion, les LLM ne sont pas un simple gadget. C’est une technologie d’avenir. Elle n’est pas sans failles, elle peut être dangereuse, mais le problème n’est pas l’outil, c'est la pédagogie autour de cet outil.
Marcelo CHAPARRO