来说说这种黑帽seo教程,银狐之前发过一篇用nginx实现的,这篇是使用php来实现蜘蛛劫持

Php判断UA 给搜索蜘蛛和用户呈现不同的页面

原理:判断UA是搜索蜘蛛则让他们看到所有的页面代码。如果是真实用户,则跳转到其他页面

这种方法能达到想要的目的,又可以做好seo,简直完美。

<?php
$http = false;
$http1 = $_SERVER['HTTP_USER_AGENT'];
if(strpos($http1, 'Googlebot') !== false){
$http = true;
} else if(strpos($http1, 'Baiduspider') >0){
$http = true;
} else if(strpos($http1, 'Yahoo! Slurp') !== false){
$http = true;
} else if(strpos($http1, 'msnbot') !== false){
$http = true;
} else if(strpos($http1, 'Sosospider') !== false){
$http = true;
} else if(strpos($http1, 'YodaoBot') !== false || strpos($http1, 'OutfoxBot') !== false){
$http = true;
} else if(strpos($http1, 'Sogou web spider') !== false || strpos($http1, 'Sogou Orion spider') !== false){
$http = true;
} else if(strpos($http1, 'fast-webcrawler') !== false){
$http = true;
} else if(strpos($http1, 'Gaisbot') !== false){
$http = true;
} else if(strpos($http1, 'ia_archiver') !== false){ 
$http = true;
} else if(strpos($http1, 'altavista') !== false){
$http = true;
} else if(strpos($http1, 'lycos_spider') !== false){
$http = true;
} else if(strpos($http1, 'Inktomi slurp') !== false){
$http = true;
} else if(strpos($http1, 'googlebot-mobile') !== false){
$http = true;
} else if(strpos($http1, '360Spider ') !== false){
$http = true;
} else if(strpos($http1, 'haosouspider') !== false){
$http = true;
} else if(strpos($http1, 'Sogou News Spider') !== false){
$http = true;
} else if(strpos($http1, 'YoudaoBot') !== false){
$http = true;
} else if(strpos($http1, 'bingbot') !== false){
$http = true;
} else if(strpos($http1, 'YisouSpider') !== false){
$http = true;
} else if(strpos($http1, 'ia_archiver') !== false){
$http = true;
} else if(strpos($http1, 'EasouSpider') !== false){
$http = true;
} else if(strpos($http1, 'JikeSpider') !== false){
$http = true;
} else if(strpos($http1, 'Sogou blog') !== false){
$http = true;
}
if($http == false){
header("Location: https://www.ityinhu.com/");
exit();
}
?>

上面的代码包含了各大搜索引擎的蜘蛛,你可以把 https://ww.ityinhu.com 替换成你自己想要的网址

代码可以放在index.php文件或网站的头文件中。

想要知道蜘蛛是否可以看到相应的页面的话,我们可以用超级蜘蛛池的模拟蜘蛛抓取 看看这段代码生效没

模拟蜘蛛抓取:http://www.cjzzc.com/crawl.html

当然我们用火狐浏览器修改UA也是可以的

nginx修改配置实现网站蜘蛛与访客呈现不同内容地址:《网站设置只允许蜘蛛访问抓取 游客访问出现404页面