4 thoughts on “Comment désindexer rapidement de nombreuses pages sur un site web ? Vidéo SEO Abondance N°151

  1. Donc le robots.txt permettrait de désindexer des URLs ? Je pensais que les seuls cas où c'était le cas, c'était lorsqu'il s'agit d'images, ou d'URL pour laquelle une désindexation a été demandée depuis la GSC.
    Le fichier robots.txt est destiné à bloquer au crawl. D'ailleurs un rapport GSC indique les URLs indexées bloquées par robots.txt.

    Confirmez-vous que le robots.txt permet la désindexation de manière systématique ? Si oui, pouvez-vous me fournir un lien vers une ressource officielle attestant de cela ?

  2. Super vidéo, mais vous pouvez faire une vidéo sur ou et comment poser se fichier robots.txt, parce que je ne sais pas trop comment le mettre en place

Leave a Reply

Your email address will not be published. Required fields are marked *