LLMO ou comment référencer vos pages dans ChatGPT - SMALLTALK #7
Dans cet épisode, on décrypte le LLMO – le “SEO pour modèles de langage” – et pourquoi le trafic organique classique pourrait chuter de 50 % d’ici 2028. Au programme : retours d’expérience chez Human Coders, bonnes pratiques concrètes (structure, données enrichies, avis clients·e·s, LLMs.txt…) et conseils pour que vos pages sortent dans les réponses de ChatGPT, Perplexity, Gemini & co.
Toutes les astuces pour devs qui veulent garder une longueur d’avance sur le référencement… et sur leurs concurrent·e·s !
•• TIMECODES ••
00:00:00 Intro
00:01:39 Qu’est-ce que le LLMO ?
00:02:14 Les 2 types de recherche
00:03:30 Les bonnes pratiques pour être référencé par les LLMs
00:13:11 Notre expérience chez Human Coders
00:17:46 Quelques questions
00:22:43 Récapitulatif des bonnes pratiques du LLMO
•• NOS FORMATIONS ••
https://www.humancoders.com/formations
•• GUESTS ••
Matthieu Segret, directeur associé de Human Coders
https://www.linkedin.com/in/matthieusegret/
https://x.com/matthieusegret
Camille Roux, directeur associé de Human Coders
https://www.linkedin.com/in/camilleroux/
https://x.com/CamilleRoux
https://twitter.com/camillerouxart
Sommaire de l'épisode
Transcription de l'épisode
Camille Roux : Bonjour à toutes et à tous ! Aujourd'hui, je vous propose de parler de LLMO. Qu'est-ce que c'est ? C'est le SEO au temps des LLM. Pendant longtemps, pour plein d'entreprises, le but du jeu était d'être bien référencé sur des mots-clés qui les intéressaient. Mais on constate que, de plus en plus, les gens utilisent les LLM comme ChatGPT, Mistral ou Perplexity pour faire leurs recherches. Il y a donc un enjeu à être bien classé là-dedans. Si vous avez une application de boxe et que, quand on tape "quelle est la meilleure application de boxe", le modèle répond la vôtre, c'est un intérêt important.
On s'est posé la question de savoir comment optimiser le LLMO de Human Coders et on va vous en parler aujourd'hui. Je suis accompagné de Matthieu. Salut Matthieu !
Matthieu Segret : Salut !
Pourquoi s'intéresser au LLMO ?
Camille Roux : Tout d'abord, un peu de contexte. Pourquoi ça vaut le coup de s'y intéresser ? Deux points intéressants : d'une part, une étude de Gartner dit qu'il y a des chances que le trafic organique (celui des moteurs de recherche classiques) diminue de 50 % d'ici 2028, remplacé par le trafic des LLM. D'autre part, on constate nous aussi sur notre trafic une augmentation par deux sur les six derniers mois. Ça reste minime par rapport au trafic SEO, mais ça augmente. On s'est donc demandé ce qu'on pouvait faire, comment vérifier qu'on est bien référencé et comment l'optimiser.
Il n'y a pas encore de mot vraiment établi pour parler de ça. J'ai souvent vu "LLMO", mais il y a aussi "GEO" (Generative Engine Optimization), "AIO" (AI Optimization) et pas mal d'autres. Pour l'instant, on va garder LLMO.
Les deux types de recherche par LLM
Camille Roux : Le travail est assez différent en fonction du type de LLM. Il y a deux types principaux :
1. Les modèles qui se basent uniquement sur leurs connaissances internes (leur entraînement). Claude ou ChatGPT (sans l'option recherche) ne sont pas mis à jour tous les matins. Les infos peuvent être anciennes, donc il ne faut pas espérer de changement à court terme. Il faut juste espérer que lors du prochain entraînement, on soit mieux positionné.
2. Les modèles qui intègrent la recherche web. Là, ce sont des recherches fraîches. Perplexity utilise souvent Bing, Gemini utilise évidemment Google, et ChatGPT/Copilot semblent aussi utiliser Bing. Pour Mistral ou Grok, je ne sais pas exactement ce qu'ils utilisent.
Bonnes pratiques pour le référencement IA
Camille Roux : J'ai fait un récapitulatif des bonnes pratiques que j'ai trouvées. C'est souvent du bon sens car c'est un domaine encore peu documenté.
D'abord, les robots (crawlers) qui viennent sur votre site doivent pouvoir le faire facilement. Il faut que le site soit accessible, que le fichier robots.txt soit correct. On retrouve des critères classiques du SEO : des titres clairs, des listes, des FAQ.
Un conseil qui revient souvent : donner les réponses assez tôt. Il y a quelques années, on écrivait des articles où la réponse était à la fin pour faire rester les gens sur la page. Pour les LLM, on conseille de mettre la réponse en début de paragraphe.
Il est aussi recommandé d'avoir des blocs de type FAQ. Ça facilite le travail de l'IA pour faire le lien entre une question posée par l'utilisateur et votre texte. Il faut énormément structurer avec des paragraphes.
Autre point : les LLM aiment les statistiques, les citations et les sources. C'est plutôt positif d'un point de vue éthique. Chez Human Coders, qui est un centre de formation, on veut que si quelqu'un demande "conseille-moi de bonnes formations Git en France", on soit remonté. On a remarqué que les LLM se fient énormément aux chiffres. S'il y a des avis clients avec des notes sur la page, ils en tiennent compte. C'est parfois leur premier critère de classement : ils vont lister les formations en commençant par celle qui a la meilleure note (par exemple 4,6/5).
Il est probable que les crawlers de LLM se fient aux données structurées (Schema.org), car c'est plus facile à exploiter. C'est déjà une bonne pratique pour Google. Par exemple, sur nos pages de formation, le prix et la note sont structurés, ce qui permet à l'IA de récupérer ces infos facilement.
Il y a aussi un nouveau standard qui émerge : le fichier llms.txt. C'est un fichier en Markdown, un peu comme le robots.txt, qui explique globalement ce qu'est le site et donne des liens vers des ressources pertinentes pour faciliter la lecture par l'IA. C'est en expérimentation, mais de gros sites s'y mettent.
Enfin, le SEO traditionnel reste primordial. Dès qu'un LLM fait une recherche, il passe par Google ou Bing. Être bien classé sur ces moteurs garantit d'être dans les résultats que l'IA va sélectionner pour générer sa réponse.
Le défi de l'analyse du trafic
Camille Roux : Une fois qu'on fait ce travail, on risque d'avoir du trafic venant des LLM, mais il est difficile à identifier. On ne connaît pas la recherche faite par l'utilisateur, contrairement au SEO classique. De plus, le LLM ne donne pas toujours de lien. Il peut dire "Le mieux, c'est Human Coders" sans mettre de lien. La personne va ensuite taper le nom dans son moteur de recherche et on ne saura jamais que ça vient de ChatGPT. On surveille quand même cette croissance de trafic.
Il y a aussi une notion de confiance. Produire du contenu chez soi ne suffit pas. Il faut que des sites d'autorité parlent de vous : Wikipedia, articles de presse, mais aussi Reddit, Quora ou StackOverflow que les LLM crawlent énormément. Provoquer du contenu généré par les utilisateurs sur des forums est une très bonne chose.
C'est un milieu en constante évolution. Plus le trafic des LLM augmentera, plus les gens essaieront de truquer les résultats, et plus les IA changeront leur façon d'indexer.
L'expérience chez Human Coders : le cas du petit-déjeuner
Camille Roux : On a fait des tests avec des comptes vierges sur ChatGPT en demandant "Quelles sont les meilleures formations sur telle techno ?". Les LLM qui font de la recherche (RAG) font finalement assez peu de recherches et font confiance au premier contenu récupéré.
On a remarqué un effet intéressant sur notre marketing. Un LLM a remonté qu'un concurrent était "mieux" que nous car il offrait le café. On s'est dit : "Mais nous aussi on offre le café et le petit-déjeuner !". Le problème est que cette info était dans notre FAQ et pas directement sur nos pages de formations. On l'a donc rajouté sur toutes les pages pour que l'IA (et les humains) le voient plus facilement. Ça nous a permis de corriger des problèmes de visibilité d'arguments marketing.
Certains LLM comme Perplexity ou Mistral indiquent les recherches qu'ils font. C'est génial car ça nous permet de savoir sur quels mots-clés on doit se positionner. Souvent, ce ne sont pas les mêmes que pour le SEO traditionnel. Pour Git, au lieu de chercher "formation Git", l'IA va chercher des "avis sur Human Coders" ou des comparatifs.
Matthieu Segret : C'est super intéressant de voir l'impact des LLM sur plein de secteurs. Est-ce qu'il y a des conseils contradictoires entre le SEO et le LLMO ? Par exemple, faire des pages très denses pour le LLMO alors que Google préfère segmenter ?
Camille Roux : C'est une bonne question. Les LLM qui cherchent sur le web récupèrent souvent une seule page. Ça incite à mettre toutes les réponses sur une seule page (une immense FAQ), ce qui n'est pas forcément idéal pour Google qui préfère des pages segmentées. On a eu cette problématique : jusqu'où doit-on charger nos pages de formation en contenu ? Si on en met trop, l'IA peut aussi s'y perdre.
Matthieu Segret : Finalement, les bonnes pratiques qu'on applique servent souvent aux deux, et surtout au visiteur final. C'est l'occasion de faire d'une pierre trois coups : LLMO, SEO et expérience utilisateur.
Récapitulatif des bonnes pratiques LLMO
Camille Roux : Pour résumer le "Best of" du LLMO :
1. Une structure d'article "IA-friendly" : bons titres (H1, H2), des puces, des listes.
2. Des composants clairs : FAQ, tableaux "pour et contre".
3. Des citations, des statistiques et citer ses sources.
4. Utiliser les données structurées (Schema.org).
5. Tenter le fichier llms.txt.
6. Garder un bon SEO classique car l'IA s'appuie sur les moteurs de recherche.
7. Suivre et analyser le trafic (referrer).
8. Travailler sa présence hors-site (presse, forums, réseaux sociaux).
9. Rester à jour sur Human Coders News où on relaie souvent ces sujets.
Merci beaucoup pour votre écoute ! On peut en discuter sur le Discord de Human Coders si ça vous dit. À bientôt !
Matthieu Segret : À bientôt !
Informations sur l'épisode
- Date de publication
- Saison
- 2
- Épisode
- 16
- Durée
- 24:51
- Série
- Human Coders Podcast
Pour aller plus loin
Consultez l'article sur notre blog pour approfondir le sujet.