Embedding
Un embedding est une représentation vectorielle d'un texte — une liste de nombres capturant son sens sémantique. Deux textes au sens proche auront des embeddings similaires, même avec des mots différents. Les IA utilisent les embeddings pour comparer des contenus, trouver des similarités et sélectionner les sources pertinentes lors du RAG.
Comment fonctionnent les embeddings
Un modèle d'embedding transforme du texte en vecteur. Ce vecteur encode le "sens" du texte. Des textes sémantiquement proches produisent des vecteurs proches dans l'espace vectoriel.
Embeddings et RAG
1. Indexation : Les contenus web sont convertis en embeddings et stockés.
2. Requête utilisateur : La question est convertie en embedding.
3. Recherche sémantique : Le système trouve les contenus dont les embeddings sont les plus proches.
Implications pour l'AEO
Au-delà des mots-clés : Les IA comprennent le sens, pas seulement les mots.
Couverture sémantique : Utiliser des synonymes, des reformulations augmente les chances d'être sélectionné.