LLM

= f(x) → y

🧠 Pourquoi cette approche ?

Théorème d'approximation universelle

Un réseau de neurones peut apprendre n'importe quelle fonction. Les LLMs sont des approximateurs de fonction géants.

Entraînement classique

En ML : model.fit(X, y)
X = données d'entrée
y = résultats attendus
Pour les LLMs : X = texte, y = les probas des mots suivants

Paramètres figés

Une fois entraîné, le modèle devient une fonction déterministe. Même input = même distribution de probabilités.

Entrée (x)

💬
Prompt
📄
Fichier
🔧
Outil

Tout ce que tu donnes au modèle = x

Fonction (f)

⚙️

100 milliards de paramètres

Poids figés après entraînement

Sortie (y)

🎲
Dé à 50 000 faces
Ex: "le ciel est "
60% bleu
20% gris
10% nuageux
Distribution de probabilités

Les biais

👂
Sycophanthie
(le modèle veut te plaire)
🔽
Réduction probabiliste
(toujours la réponse la plus attendue)
🗂️
Contenus d'origine
(les données d'entraînement sont déjà biaisées)

Comment contourner

Laisser des portes ouvertes

Phrases comme "peut-être", "ou pas ?"

Créer des bifurcations

Poser "oui/non", "génial ou pourri"

Tester consciemment

Poser des questions dont on connaît la réponse

Un LLM n'est pas magique, c'est une fonction probabiliste.
Ton job, c'est de jouer avec les probabilités plutôt que de les subir.

CC BY SA : Rochane Kherbouche