登录
首页 >  文章 >  python教程

百度百科XPath爬虫:HTTP重定向导致空结果?终极解决方案!

时间:2025-03-05 16:15:00 278浏览 收藏

本文解决使用XPath爬取百度百科时遇到的空结果问题。由于百度百科URL存在HTTP重定向,原始代码未正确处理重定向,导致爬取的页面并非目标词条页面,XPath提取失败。文章分析了问题根源,并提供了两种解决方案:一是修改urllib.request.urlopen方法,设置follow_redirects参数为True;二是使用更高级的HTTP客户端库,例如requests。改进后的代码增加了超时设置和错误处理,提升了程序的稳定性。 通过这些方法,可以有效解决百度百科XPath爬虫返回空结果的难题,提升爬虫效率。

百度百科XPath爬虫返回空结果:如何解决HTTP重定向问题?

百度百科XPath爬虫:解决HTTP重定向导致空结果的问题

本文针对使用XPath爬取百度百科时遇到的空结果问题,提供解决方案。 问题根源在于代码未正确处理HTTP重定向,导致爬取到的页面并非目标词条页面。

以下代码片段演示了问题所在:该代码尝试提取百度百科词条摘要,但由于百度百科URL重定向,导致XPath提取失败,返回空结果。

import urllib.request
import urllib.parse
from lxml import etree

def query(content):
    url = 'https://baike.baidu.com/item/' + urllib.parse.quote(content)
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
    }
    req = urllib.request.Request(url=url, headers=headers, method='GET')
    response = urllib.request.urlopen(req) # 这里未处理重定向
    text = response.read().decode('utf-8')
    html = etree.HTML(text)
    sen_list = html.xpath('//div[contains(@class,"lemma-summary") or contains(@class,"lemmaWgt-lemmaSummary")]//text()')
    sen_list_after_filter = [item.strip('\n') for item in sen_list]
    return ''.join(sen_list_after_filter)

if __name__ == '__main__':
    while (True):
        content = input('查询词语:')
        result = query(content)
        print("查询结果:%s" % result)

例如,使用curl命令测试“叶挺”词条,会发现服务器返回302重定向,并给出新的URL。 原始代码未处理此重定向,直接使用初始URL返回的HTML,导致XPath提取失败。

解决方案:

为了解决这个问题,需要修改代码以处理HTTP重定向。 可以使用urllib.request.urlopen方法的follow_redirects参数,将其设置为True,或者使用更高级的HTTP客户端库(例如requests)来更优雅地处理重定向。

改进后的代码如下:

import urllib.request
import urllib.parse
from lxml import etree

def query(content):
    url = 'https://baike.baidu.com/item/' + urllib.parse.quote(content)
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
    }
    req = urllib.request.Request(url=url, headers=headers, method='GET')
    response = urllib.request.urlopen(req, timeout=10) # 添加超时设置
    text = response.read().decode('utf-8', errors='ignore') # 添加错误处理
    html = etree.HTML(text)
    sen_list = html.xpath('//div[contains(@class,"lemma-summary") or contains(@class,"lemmaWgt-lemmaSummary")]//text()')
    sen_list_after_filter = [item.strip('\n') for item in sen_list]
    return ''.join(sen_list_after_filter)

if __name__ == '__main__':
    while (True):
        content = input('查询词语:')
        result = query(content)
        print("查询结果:%s" % result)

通过处理重定向后,XPath就能正确提取信息,解决空结果问题。 此外,代码中添加了超时设置和错误处理,增强了代码的健壮性。 建议使用更强大的库,例如requests,来简化HTTP请求的处理。

理论要掌握,实操不能落!以上关于《百度百科XPath爬虫:HTTP重定向导致空结果?终极解决方案!》的详细介绍,大家都掌握了吧!如果想要继续提升自己的能力,那么就来关注golang学习网公众号吧!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>