Drupal bruker en søkemotor blokkerer metode er felles for alle webservere for å hindre søkemotorer fra omfatter websider den betjener i et søk database. Dette er ofte brukt for nettsteder som ikke har offentlig tilgjengelige data , eller for å hindre søkemotorer fra å be om overdreven trafikk fra en nettside. Instruksjoner
en
Lokaliser " robots.txt "-filen i rotmappen på Drupal nettsted. Rotmappen er også plasseringen av hjemmesiden din , men beliggenheten på webserveren vil variere avhengig av hvilket operativsystem du bruker til å kjøre Drupal .
2
Opprett en tom fil som heter " roboter. txt "i root mappen hvis den ikke finnes allerede . Drupal versjon 5 og nyere vil opprette en robots.txt -fil som standard, men du kan også legge til denne filen hvis den ikke allerede er der.
3
Åpne robots.txt -filen i en . teksteditor
4
Erstatt innholdet i robots.txt -filen med følgende : en
User-agent : *
Forby : /
< p> Dette forteller alle Web søkemotorer for å hoppe over alt innhold . User agent betyr at søkemotoren , den " *" er et wildcard , som betyr alle. Den " /" betyr roten , eller "top ", på ditt nettsted. Derfor , ved å ikke tillate roten , alt innhold på alle sidene på nettstedet - som er hierarkisk "lavere " enn roten - vil bli hoppet
5
Lagre robots.txt-filen . . Hvis webserveren bruker en webside cache , stiller du den slik at den nye siden er sendt til søkemotorer når de ber om robots.txt- side .