Le fichier robots.txt est l'une des premières choses que Googlebot lit en arrivant sur votre site. Il lui dit quels chemins crawler et lesquels ignorer. Bloquer un chemin critique par erreur peut faire disparaître votre catalogue de Google en quelques semaines — sans alerte immédiate.
Exemple de robots.txt Shopify optimal
User-agent: * Disallow: /admin/ Disallow: /cart Disallow: /orders Disallow: /checkout Disallow: /account Disallow: /cgi-bin/ Sitemap: https://example.com/sitemap.xml
Ce que ce fichier fait : il bloque le crawl des pages d'administration, de paiement et de compte client — des pages qui n'ont aucun intérêt SEO et qui gaspilleraient le crawl budget. Il laisse libre le crawl de tous les produits, collections et pages.
Ne jamais bloquer /products/ ni /collections/
Disallow: /products/ ou Disallow: /collections/figure dans votre robots.txt, Google cesse de crawler votre catalogue. Résultat : 2 à 6 semaines plus tard, vos fiches commencent à disparaître de l'index.Bloquer les pages admin et compte
Disallow: /admin/, /account, /cart, /checkout, /orders. Ces pages nécessitent une authentification — Google ne peut pas les crawler utilement. Les bloquer économise le crawl budget.Toujours pointer vers le sitemap
Sitemap: https://example.com/sitemap.xml. Cela aide Googlebot à découvrir votre sitemap même s'il n'est pas soumis dans Search Console.| Chemin | Action robots.txt | Raison |
|---|---|---|
| /products/ | Allow (ne pas bloquer) | Catalogue produit — doit être indexé |
| /collections/ | Allow (ne pas bloquer) | Catégories — doivent être indexées |
| /admin/ | Disallow | Interface d'administration, inaccessible sans login |
| /cart | Disallow | Panier — page personnalisée, inutile au SEO |
| /checkout | Disallow | Page de paiement, sécurité |
| /account | Disallow | Espace client, nécessite authentification |
Vérifiez votre robots.txt
Visio 30 min · audit inclus
FAQ
Voyez Seegea en action
Réservez une démo visio de 30 minutes sur Google Meet. Sans engagement.
Réserver une démo