Robots.txt

Suivez-nous

Définition

Le robots.txt est un fichier texte placé à la racine d’un site web qui donne des instructions aux robots d’indexation (crawlers) des moteurs de recherche.
Il indique quelles pages ou sections doivent être explorées ou ignorées, permettant de contrôler l’accès au contenu et d’optimiser le crawl du site.

L’utilisation du robots.txt permet de :

  • protéger des pages sensibles ou en cours de développement,

  • optimiser le budget de crawl pour que Google se concentre sur les pages importantes,

  • éviter l’indexation de contenus dupliqués ou inutiles.

Voir aussi

La notion de Robots.txt reste abstraite pour vous ?

Partagez cette définition :
Facebook
LinkedIn
Twitter
Telegram
WhatsApp
Email
Print

Combien ça coûte un site internet ?

Répondez à quelques questions et découvrez le prix de votre projet digital