Un générateur robots.txt vous aide à créer un fichier robots.txt conforme aux standards pour contrôler l'exploration des moteurs de recherche sur votre site. Définissez les règles User-agent, les chemins Disallow/Allow, le délai d'exploration et l'URL du sitemap — le tout traité localement dans votre navigateur.
Un fichier robots.txt est un fichier texte placé à la racine d'un site web qui indique aux robots d'exploration quelles pages ne pas visiter.
Non. Le robots.txt est une directive, pas un mécanisme de contrôle d'accès. Les bots bien élevés le respectent, mais il n'empêche pas l'accès.
À la racine de votre domaine : https://votresite.com/robots.txt
Oui, selon les bots. Google prend en charge * et $ dans les patterns de chemin.
Oui. SWEDevTools : Prism est une PWA qui fonctionne sans connexion internet une fois installée.
Oui. Tout le traitement s'effectue localement dans votre navigateur.
Oui. Cet outil est entièrement gratuit, sans publicité et sans inscription requise.
smalldev.tools n'est plus disponible. Prism par SWEDevTools offre les mêmes outils de développement et plus encore, avec un support hors ligne, le chaînage de pipelines et une utilisation entièrement gratuite — aucune inscription requise.
Oui. Prism génère des fichiers robots.txt localement, sans envoi de données et avec un support hors ligne.