Crawl & indexation
On vérifie ce que Google peut explorer, ce qu’il choisit d’indexer, et ce qu’il ignore. Le but est simple : réduire les zones aveugles et supprimer le bruit.
- Robots.txt, sitemaps, directives d’indexation.
- Pages utiles non indexées, pages inutiles indexées.
- Canonical, duplications, paramètres, pagination.
- Profondeur, accès aux pages, cohérence des URLs.