Température (paramètre LLM)
La température est un paramètre contrôlant le degré de créativité et d'aléatoire dans les réponses d'un LLM. Une température basse (0.1-0.3) produit des réponses prévisibles et factuelles. Une température haute (0.8-1.0) génère des réponses plus variées et créatives, mais potentiellement moins fiables. Ce paramètre influence indirectement la manière dont les IA mentionnent les marques.
Fonctionnement technique
Température basse (0.1-0.3) : Les mots les plus probables sont fortement favorisés. Réponses cohérentes, répétitives, "sûres".
Température moyenne (0.5-0.7) : Équilibre entre prévisibilité et variété.
Température haute (0.8-1.0) : Distribution plus plate. Réponses surprenantes, créatives, parfois incohérentes.
Température et visibilité des marques
À basse température : Le modèle mentionne les marques "statistiquement dominantes" — les plus fréquentes dans ses données.
À haute température : Le modèle peut mentionner des alternatives moins connues.
Variabilité : La même question peut produire des réponses différentes avec des marques différentes.
Pour les audits de visibilité
Quand vous auditez votre visibilité, fixez une température basse (0.2-0.3) pour des résultats reproductibles. Les interfaces utilisateur (ChatGPT, Claude) utilisent généralement 0.7.