爬虫的并发问题
来源:stackoverflow
时间:2024-02-25 17:24:24 383浏览 收藏
你在学习Golang相关的知识吗?本文《爬虫的并发问题》,主要介绍的内容就涉及到,如果你想提升自己的开发能力,就不要错过这篇文章,大家要知道编程理论基础和实战操作都是不可或缺的哦!
我尝试基于 tour 和其他一些关于此问题的答案构建并发爬虫。我目前所拥有的如下,但我认为这里有两个微妙的问题。
有时我会收到 16 个 url 响应,有时会收到 17 个(在
main中调试打印)。我知道这一点,因为当我什至将writetoslice更改为read时,然后在read中,有时“read: end, counter = ”永远不会达到,而且总是在我获得 16 个网址时出现。我在使用
err通道时遇到问题,即使我使用 www.golang.org 这样的地址运行我的主crawl方法,也不会在此通道中收到任何消息,因此应通过err通道发送没有有效架构的错误
p>
并发确实是一个困难的话题,我们将不胜感激帮助和建议
package main
import (
"fmt"
"net/http"
"sync"
"golang.org/x/net/html"
)
type urlCache struct {
urls map[string]struct{}
sync.Mutex
}
func (v *urlCache) Set(url string) bool {
v.Lock()
defer v.Unlock()
_, exist := v.urls[url]
v.urls[url] = struct{}{}
return !exist
}
func newURLCache() *urlCache {
return &urlCache{
urls: make(map[string]struct{}),
}
}
type results struct {
data chan string
err chan error
}
func newResults() *results {
return &results{
data: make(chan string, 1),
err: make(chan error, 1),
}
}
func (r *results) close() {
close(r.data)
close(r.err)
}
func (r *results) WriteToSlice(s *[]string) {
for {
select {
case data := <-r.data:
*s = append(*s, data)
case err := <-r.err:
fmt.Println("e ", err)
}
}
}
func (r *results) Read() {
fmt.Println("Read: start")
counter := 0
for c := range r.data {
fmt.Println(c)
counter++
}
fmt.Println("Read: end, counter = ", counter)
}
func crawl(url string, depth int, wg *sync.WaitGroup, cache *urlCache, res *results) {
defer wg.Done()
if depth == 0 || !cache.Set(url) {
return
}
response, err := http.Get(url)
if err != nil {
res.err <- err
return
}
defer response.Body.Close()
node, err := html.Parse(response.Body)
if err != nil {
res.err <- err
return
}
urls := grablUrls(response, node)
res.data <- url
for _, url := range urls {
wg.Add(1)
go crawl(url, depth-1, wg, cache, res)
}
}
func grablUrls(resp *http.Response, node *html.Node) []string {
var f func(*html.Node) []string
var results []string
f = func(n *html.Node) []string {
if n.Type == html.ElementNode && n.Data == "a" {
for _, a := range n.Attr {
if a.Key != "href" {
continue
}
link, err := resp.Request.URL.Parse(a.Val)
if err != nil {
continue
}
results = append(results, link.String())
}
}
for c := n.FirstChild; c != nil; c = c.NextSibling {
f(c)
}
return results
}
res := f(node)
return res
}
// Crawl ...
func Crawl(url string, depth int) []string {
wg := &sync.WaitGroup{}
output := &[]string{}
visited := newURLCache()
results := newResults()
defer results.close()
wg.Add(1)
go crawl(url, depth, wg, visited, results)
go results.WriteToSlice(output)
// go results.Read()
wg.Wait()
return *output
}
func main() {
r := Crawl("https://www.golang.org", 2)
// r := Crawl("www.golang.org", 2) // no schema, error should be generated and send via err
fmt.Println(len(r))
}解决方案
您的问题 1 和 2 都是同一错误的结果。
在 crawl() 中,您不会等待此 go 例程完成:go results.writetoslice(output)。在最后一个 crawl() 函数中,等待组被释放,在 writetoslice 函数完成 data 和 err 通道之前返回并打印输出。所以发生的事情是这样的:
crawl()完成,将数据放入results.data和results.err中。- waitgroup
wait()解除阻塞,导致main()打印结果[]string的长度 writetoslice将最后一个数据(或错误)项添加到通道
不仅当数据写入通道时,而且当通道完整读取(包括缓冲区)时,您都需要从 crawl() 返回。一个好方法是当您确定已经完成了频道后关闭频道。通过以这种方式组织代码,您可以阻止正在耗尽通道的 go 例程,而不是使用等待组释放到主线程,而是等到通道 100% 完成。
你可以看到这个gobyexample https://gobyexample.com/closing-channels。记住,当你关闭一个通道时,该通道仍然可以使用,直到最后一个项目被拿走。因此,您可以关闭缓冲通道,读取器仍将获得通道中排队的所有项目。
可以更改一些代码结构以使其更清晰,但这里有一种快速修复程序的方法。将 crawl 更改为阻止 writetoslice。爬取函数完成后关闭数据通道,并等待writetoslice完成。
// crawl ...
func crawl(url string, depth int) []string {
wg := &sync.waitgroup{}
output := &[]string{}
visited := newurlcache()
results := newresults()
go func() {
wg.add(1)
go crawl(url, depth, wg, visited, results)
wg.wait()
// all data is written, this makes `writetoslice()` unblock
close(results.data)
}()
// this will block until results.data is closed
results.writetoslice(output)
close(results.err)
return *output
}
然后在写入切片时,您必须检查关闭的通道以退出 for 循环:
func (r *results) WriteToSlice(s *[]string) {
for {
select {
case data, open := <-r.data:
if !open {
return // All data done
}
*s = append(*s, data)
case err := <-r.err:
fmt.Println("e ", err)
}
}
}
这里是完整的代码:https://play.golang.org/p/GBpGk-lzrhd(它在演示中不起作用)
到这里,我们也就讲完了《爬虫的并发问题》的内容了。个人认为,基础知识的学习和巩固,是为了更好的将其运用到项目中,欢迎关注golang学习网公众号,带你了解更多关于的知识点!
-
502 收藏
-
502 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
139 收藏
-
204 收藏
-
325 收藏
-
478 收藏
-
486 收藏
-
439 收藏
-
357 收藏
-
352 收藏
-
101 收藏
-
440 收藏
-
212 收藏
-
143 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习