[ImoLUG] file robots.txt

fRANz andrea.francesconi@gmail.com
Mer 25 Nov 2009 14:59:25 CET


Ciao a tutti,

mi affido ai numerosi webmaster presenti in lista per un parere sul
simpatico file robots.txt
Per quel poco che so, permette di descrivere il comportamento di
indicizzazione al quale i diversi spider/crawler _dovrebbero_
attenersi.

Scenario: voglio impedire indicizzazione e ricerche su un determinato sito.
Risoluzione: creo un file robots.txt del tipo:

User-agent: *
Disallow: /

Mio dubbio:
secondo la vostra esperienza, un file di questo tipo basta allo scopo
oppure sapete di crawler che ignorano tale file?
In questo specifico caso, anzichč limitarsi a filtrare le richieste in
base allo User-agent (facilmente bypassabile), ci sono altre modalitą
o pratiche pił incisive ed efficaci?

Grazie per ogni spunto in proposito :-)

-f


Maggiori informazioni sulla lista ImoLUG