webcrawlere eller web " bots " læs websider , høst links og data til at befolke søgemaskiner. Web marketingfolk ofte opmuntre disse bots, da de øger synligheden af webstedet til webtrafik . Men nogle bots befolker andre søgemaskiner eller indsamle data for ondsindede eller markedsføring formål. I disse tilfælde kan du bruge indbyggede PHP funktionalitet til at kontrollere en bot bruger- agent -godkendelse og bestemme, hvordan man håndterer crawler. Ting du skal
PHP Interpeter
Vis Flere Instruktioner
1
Slå op User Agent godkendelse for en bestemt bot. For eksempel er Google crawler repræsenteret ved bruger agenter " Googlebot - 2.1 ", " Googlebot - Mozilla - xx " eller "Google - AdSense - x, x "
2 < p > Ring til " HTTP_USER_AGENT " variable i " $ _SYSTEM " global vifte af PHP tolk i dit script til at bestemme brugerens agent for bot : ?
< php
$ agent = $ _SYSTEM [' HTTP_USER_AGENT '] ;
3
Kontroller bot autentificering mod en liste over bot agenter. Hvis HTTP_USER_AGENT variable kampe , tillade bot adgang : Hej
if ($ agent == " Googlebot - 2.1" ) { /* authentication code * /}
> < br ? >