从UserAgent识别搜索引擎并判断真假蜘蛛

一般搜索引擎去爬取一个网站时,首先是去读取网站的robots.txt 文件,看看网站管理员有没有在该文件设置禁止某些蜘蛛,或禁止访问哪些路径。然而一些流氓蜘蛛不会顾及robots.txt 文件,想爬哪就爬哪。这种情况管理员只能通过应用程序去识别判断,是否限制某些访问。

搜索引擎蜘蛛

识别搜索引擎

通过UserAgent 字符串来识别,下面例子是使用Go 来实现

简单的是通过正则来识别:

1
2
spiderReg = regexp.MustCompile(`(?i)bot|crawl|spider|slurp|sohu-search|lycos|robozilla|google|Baidu`)
spiderReg.MatchString(s)

上面的正则就能识别大多数搜索引擎,使用方法:

1
2
3
if spiderReg.MatchString(r.Header.Get("User-Agent")) {
    // 对搜索引擎作响应
}

如果要想要从UserAgent 里分析出更多的信息,可借助一些库来解析,如下面:

1
2
3
4
5
6
7
8
9
import "github.com/mssola/user_agent"

ua = user_agent.UserAgent{}
ua.Parse("Mozilla/5.0 (compatible; Googlebot/2.1;+http://www.google.com/bot.html)")

fmt.Printf("%v\n", ua.Bot())      // => true
name, version = ua.Browser()
fmt.Printf("%v\n", name)          // => Googlebot
fmt.Printf("%v\n", version)       // => 2.1

[updated: 2022] 发现另一个库比较准确 https://github.com/mileusna/useragent

识别真假

UserAgent 字符串可以在 http 请求时设置,任何一个客户端都可以伪造成一个搜索引擎去访问你的网站。可以通过下面两个步骤去识别真正的搜索引擎。

*nix 系统下使用 host 命令,使用方法如下面两个示例:

1
2
3
4
5
6
7
8
$ host 207.46.13.178
178.13.46.207.in-addr.arpa domain name pointer msnbot-207-46-13-178.search.msn.com.
$ host msnbot-207-46-13-178.search.msn.com
msnbot-207-46-13-178.search.msn.com has address 207.46.13.178
$ host 203.208.60.24
24.60.208.203.in-addr.arpa domain name pointer crawl-203-208-60-24.googlebot.com.
$ host crawl-203-208-60-24.googlebot.com
crawl-203-208-60-24.googlebot.com has address 203.208.60.24

解释一下上面的过程,首先通过来访 IP 作DNS反向查询,得到相关域名,再把得到的域名再做一次查询,得到 IP,与原来的IP 相同才是比较靠谱的搜索引擎。

Go 语言里的 net 包可以实现这样的查询:

1
2
names, err := net.LookupAddr(ip)
addrs, err := net.LookupHost(name)

通过这种方式建立一个IP白名单,就可以屏蔽掉一些来路不明的蜘蛛。

本文网址: https://pylist.com/topic/206.html 转摘请注明来源

Suggested Topics

向各搜索引擎主动提交网址的经验

当网站添加了新内容后,都想第一时间让搜索引擎知道并且来抓取,省得“原创”都给了采集站。当采取主动提交时,Google 响应很快,60秒左右收录!百度响应也不赖。...

利用 API 自动向搜索引擎提交网址

前面已经介绍了向各大搜索引擎提交的经验,这次试着用 Go 语言去实践一下。也作个简单实践对比。拿 Google、Bing、Baidu 三大搜索引擎来比较,论简便性,`B` 字头的两个最简便,但从效果看,Google 最好。...

Leave a Comment