Analizzatore Robots.txt

I file robots.txt (spesso erroneamente chiamati robot.txt, col singolare) vengono creati dai webmaster per marcare quei file e quelle directory di un sito web che non si vuole rendere accessibili agli spider dei motori di ricerca (o ad altri tipi di robot). Per saperne di più su come creare un file robots.txt, leggi questa guida.

Questo analizzatore di robots.txt analizza un file robots.txt per vedere se è un file "valido" secondo lo Standard per l'esclusione dei robot oppure se contiene errori.

1 Facile: Semplicemente inserisci l'URL completo del file robots.txt che vuoi analizzare e premi "Invio" sulla tastiera
2 Potente: L'analizzatore individua errori di sintassi, errori "logici", errori di battitura e fornisce utili consigli di ottimizzazione
3 Accurato: Applica correttamente le regole dello standard per l'esclusione dei robot e anche regole specifiche di alcuni spider.

Questo Analizzatore Robots.txt è fornito da Motoricerca.info, una guida gratuita all'ottimizzazione dei siti e al posizionamento sui motori di ricerca.

URL completo del file robots.txt (http://www.tuodominio.it/robots.txt):