SEEGEA

Robots.txt e-commerce : les règles qui évitent le désastre

Le fichier robots.txt contrôle quelles pages Googlebot peut crawler sur votre site. Sur un site e-commerce, une erreur dans robots.txt peut faire disparaître des milliers de fiches produit de l'index Google en quelques semaines. C'est l'un des rares problèmes SEO qui fait vraiment "mal".

4 min de lecture17 avril 2026

Le fichier robots.txt est l'une des premières choses que Googlebot lit en arrivant sur votre site. Il lui dit quels chemins crawler et lesquels ignorer. Bloquer un chemin critique par erreur peut faire disparaître votre catalogue de Google en quelques semaines — sans alerte immédiate.

Exemple de robots.txt Shopify optimal

User-agent: *
Disallow: /admin/
Disallow: /cart
Disallow: /orders
Disallow: /checkout
Disallow: /account
Disallow: /cgi-bin/

Sitemap: https://example.com/sitemap.xml

Ce que ce fichier fait : il bloque le crawl des pages d'administration, de paiement et de compte client — des pages qui n'ont aucun intérêt SEO et qui gaspilleraient le crawl budget. Il laisse libre le crawl de tous les produits, collections et pages.

Ne jamais bloquer /products/ ni /collections/

L'erreur fatale. Si Disallow: /products/ ou Disallow: /collections/figure dans votre robots.txt, Google cesse de crawler votre catalogue. Résultat : 2 à 6 semaines plus tard, vos fiches commencent à disparaître de l'index.

Bloquer les pages admin et compte

Disallow: /admin/, /account, /cart, /checkout, /orders. Ces pages nécessitent une authentification — Google ne peut pas les crawler utilement. Les bloquer économise le crawl budget.

Toujours pointer vers le sitemap

La dernière ligne de votre robots.txt doit être Sitemap: https://example.com/sitemap.xml. Cela aide Googlebot à découvrir votre sitemap même s'il n'est pas soumis dans Search Console.
CheminAction robots.txtRaison
/products/Allow (ne pas bloquer)Catalogue produit — doit être indexé
/collections/Allow (ne pas bloquer)Catégories — doivent être indexées
/admin/DisallowInterface d'administration, inaccessible sans login
/cartDisallowPanier — page personnalisée, inutile au SEO
/checkoutDisallowPage de paiement, sécurité
/accountDisallowEspace client, nécessite authentification
Vérifiez votre robots.txt avec l'outil de test intégré à Search Console (Paramètres > Testeur de robots.txt). Entrez l'URL d'une fiche produit et vérifiez que le résultat est « Autorisé à crawler ».

Vérifiez votre robots.txt

Visio 30 min · audit inclus

Vérifiez votre robots.txt
Créé en France, entre Annecy et Chantilly · Assistance email & visio Google Meet

FAQ

Le fichier robots.txt est toujours à la racine du domaine : example.com/robots.txt. Sur Shopify (depuis 2021), il est modifiable dans l'admin : Boutique en ligne > Thèmes > Actions > Modifier le code > robots.txt.liquid. Sur PrestaShop, il est dans le répertoire racine du serveur.

Voyez Seegea en action

Réservez une démo visio de 30 minutes sur Google Meet. Sans engagement.

Réserver une démo