Drupal bruger en søgemaskine blokerende metode fælles for alle webservere til at forhindre søgemaskiner fra at indarbejde de websider det tjener i en søgedatabase . Dette er almindeligt anvendt til hjemmesider , der ikke har offentligt tilgængelige data , eller for at forhindre søgemaskiner i at anmode overdreven trafik fra en hjemmeside. Instruktioner
1
Find " robots.txt " fil i rodmappen på dit Drupal website . Den rodmappe er også placeringen af din hjemmeside , men dens placering på webserveren vil variere afhængigt af hvilket styresystem du bruger til at køre Drupal.
2
Opret en tom fil med navnet "robotter . txt "i din root mappe, hvis den ikke allerede findes. Drupal version 5 og senere vil skabe en robots.txt-fil som standard , men du kan også tilføje denne fil, hvis den ikke allerede er der.
3
Åbn robots.txt fil i en . teksteditor
4
Erstat indholdet af robots.txt fil med følgende : Hej
User- agent: *
Disallow: /
< p> Dette fortæller alle Web søgemaskiner til at springe alt indhold . User agent betyder søgemaskine, på "* " er et wildcard , hvilket betyder alle. Den " /" betyder roden , eller "top ", på dit websted. Derfor ved at nægte roden, alt indhold på alle sider på sitet - som er hierarkisk "lavere " end root - vil blive sprunget
5
Gem filen robots.txt . . Hvis din webserver bruger en webside cache , skal du nulstille den, så den nye side er sendt til søgemaskiner , når de anmoder robots.txt siden.