Golang简单爬虫开发教程详解
时间:2026-02-28 11:44:45 210浏览 收藏
本文深入讲解了使用 Go 语言开发健壮、高效且反爬友好的网络爬虫的核心实践:从基础的 `net/http` 使用规范(如必须检查状态码后再关闭 `resp.Body`、合理设置超时与请求头),到 HTML 解析的最佳选择(推荐官方 `golang.org/x/net/html` 而非正则)、结构化数据抓取的进阶方案(Colly 框架的正确配置,包括并发限制、Header 注入与选择器技巧),再到真实场景中绕过反爬的关键洞察——不依赖简单伪装,而是通过分析响应头、Cookie 流程、Content-Type 类型及 JS 渲染行为,精准判断页面渲染机制并选择合适技术栈(如 chromedp 应对 SPA)。这不仅是一份语法指南,更是面向生产环境的爬虫工程化思维总结。

用 net/http 发起 GET 请求时,别漏掉 resp.Body.Close()
不关闭响应体是 Go 爬虫最常踩的内存泄漏坑。每次 http.Get() 后,resp.Body 是一个未关闭的 io.ReadCloser,长期运行会耗尽文件描述符或内存。
- 必须在
defer resp.Body.Close()前检查resp.StatusCode,否则可能 panic:比如 404 或 500 时仍尝试读取 body - 如果用
http.Client自定义超时,记得设Timeout字段,否则默认无超时,请求卡住就阻塞整个 goroutine - 简单场景用
http.Get()没问题;需要复用连接、带 Cookie 或 Header 时,必须显式构造http.Client和http.Request
client := &http.Client{
Timeout: 10 * time.Second,
}
req, _ := http.NewRequest("GET", "https://example.com", nil)
req.Header.Set("User-Agent", "Mozilla/5.0")
resp, err := client.Do(req)
if err != nil {
log.Fatal(err)
}
defer resp.Body.Close() // 必须放在这里,且在检查 status 之后
if resp.StatusCode != http.StatusOK {
log.Fatalf("HTTP %d", resp.StatusCode)
}解析 HTML 优先选 golang.org/x/net/html,不是正则或 strings
用 strings.Contains() 或正则匹配 HTML 标签,在真实网页中基本不可靠:标签换行、属性顺序变化、自闭合写法()、CDATA 段都会让匹配失败。
golang.org/x/net/html是 Go 官方维护的流式 HTML 解析器,符合 HTML5 规范,能处理乱序、嵌套、大小写混用等真实情况- 不要一次性把整个 HTML 加载进内存再解析(比如用
io.ReadAll(resp.Body)+strings),对大页面浪费内存;应直接用html.Parse()接resp.Body - 遍历节点时注意区分
html.ElementNode和html.TextNode,文本内容藏在TextNode的Data字段里,不是Attr
doc, err := html.Parse(resp.Body)
if err != nil {
log.Fatal(err)
}
var f func(*html.Node)
f = func(n *html.Node) {
if n.Type == html.ElementNode && n.Data == "a" {
for _, a := range n.Attr {
if a.Key == "href" {
fmt.Println(a.Val) // 提取链接
}
}
}
for c := n.FirstChild; c != nil; c = c.NextSibling {
f(c)
}
}
f(doc)提取结构化数据时,用 colly 比手写更稳,但得理解它怎么调度
colly 是 Go 生态中最成熟的爬虫框架,封装了请求队列、去重、并发控制和选择器(类似 jQuery)。但它不是“开箱即用就安全”,默认配置下容易被封或漏数据。
- 必须调用
c.Limit(&colly.LimitRule{DomainGlob: "*", Parallelism: 2})控制并发,否则默认无限并发,目标站可能拒绝连接 c.OnHTML("div.title", ...)回调里的e.DOM是goquery.Selection,支持链式调用,但e.ChildAttrs("a", "href")这类方法只查直接子元素,深层嵌套需用e.Find("a").Attr("href")- Cookie、User-Agent、Referer 都要手动设置:用
c.WithTransport(&http.Transport{...})或c.OnRequest(...)注入 header
c := colly.NewCollector(
colly.AllowedDomains("quotes.toscrape.com"),
)
c.WithTransport(&http.Transport{
TLSClientConfig: &tls.Config{InsecureSkipVerify: true},
})
c.OnRequest(func(r *colly.Request) {
r.Headers.Set("User-Agent", "Mozilla/5.0 (compatible; Bot/1.0)")
})
c.OnHTML(".quote", func(e *colly.HTMLElement) {
title := e.ChildText(".text")
author := e.ChildText(".author")
fmt.Printf("%s — %s\n", title, author)
})
c.Visit("https://quotes.toscrape.com/")反爬绕过不是加个 User-Agent 就完事,重点看响应头和 JS 行为
很多站点返回 200 但 HTML 是空的,或者返回“请启用 JavaScript”,说明服务端做了 UA 检查、Cookie 验证、甚至执行了 JS 渲染逻辑。Go 原生 net/http 不执行 JS,无法解决后者。
- 先用
curl -I或 Go 打印resp.Header,检查是否含Set-Cookie;若需登录态,后续请求必须携带该 cookie - 检查
resp.Header.Get("Content-Type")是否为text/html;如果是application/json,说明接口走的是 AJAX,直接请求 API 更高效 - 遇到 JS 渲染页(如 React/Vue SPA),
colly无解,得换chromedp或调用 Puppeteer;但代价是体积大、启动慢、资源占用高
真正难的不是写几行 http.Get,而是判断这个页面到底靠什么渲染、哪些字段必须从哪次请求里带出来、哪些 header 缺一不可——这些只能靠反复抓包、比对响应、看 network 面板来确认。
今天关于《Golang简单爬虫开发教程详解》的内容就介绍到这里了,是不是学起来一目了然!想要了解更多关于的内容请关注golang学习网公众号!
相关阅读
更多>
-
505 收藏
-
503 收藏
-
502 收藏
-
502 收藏
-
502 收藏
最新阅读
更多>
-
489 收藏
-
330 收藏
-
127 收藏
-
143 收藏
-
313 收藏
-
371 收藏
-
111 收藏
-
257 收藏
-
500 收藏
-
424 收藏
-
220 收藏
-
479 收藏
课程推荐
更多>
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习