有个终极解决办法,针对这些二级域名用robots.txt拒绝百度的收录
在程序中让“http://二级域名/robots.txt”返回拒绝百度收录的设置。
Dudu 您的意思是说,在动态生成的企业网站中的根目录下的Root文件里设置成拒绝百度收录?
@rat3: 对不存在的商家的二级域名返回拒绝百度收录的robots
@dudu: 明白了! 谢谢Dudu
百度蜘蛛按URl来爬取页面,你提供了URL它肯定会爬取,要么就是在robots 协议中禁止它爬取,另外及时清除失效的Url,但是蜘蛛的爬取是有周期的,不会及时更新它爬取的URL