Python逐行读取URL解析网页内容技巧
时间:2026-02-13 19:18:50 276浏览 收藏
本文深入剖析了Python批量爬取网页时因循环逻辑错误导致“只处理最后一个URL”的典型问题,并提供了一套结构清晰、健壮可靠的逐行读取URL、独立发起请求、解析HTML内容并追加写入结果的完整解决方案;代码不仅修复了作用域陷阱,还集成了异常防护、空值校验、日志反馈和I/O优化等关键实践,让初学者也能快速构建稳定可用的网页信息提取脚本。

本文详解如何修正 `readlines()` 后仅处理最后一个 URL 的常见错误,通过将请求与解析逻辑正确嵌入 for 循环,实现对文本文件中每个 URL 的独立抓取、解析与结果追加写入。
你的原始代码中,for link in linksList: 循环仅执行了 url = link 这一行赋值,而后续所有网络请求(requests.get(url))、HTML 解析及文件写入逻辑均位于循环外部——这意味着无论 linksList 中有多少 URL,程序只会用最后一次循环赋值的 url(即最后一行)执行一次完整流程。
要真正实现“逐个解析每个 URL”,必须将整个数据提取逻辑(包括请求、状态判断、解析、写入)全部移入 for 循环体内。以下是优化后的完整可运行代码:
import requests
from bs4 import BeautifulSoup
def news():
try:
with open('list.txt', 'r', encoding='utf-8') as f:
links_list = [line.strip() for line in f if line.strip()] # 去除空行和换行符
with open("Websites.txt", "a", encoding='utf-8') as output_file:
for link in links_list:
print(f"Processing: {link}")
try:
resp = requests.get(link, timeout=10)
if resp.status_code == 200:
soup = BeautifulSoup(resp.text, 'html.parser')
# 定位目标容器(注意:返回 None 时需判空)
container = soup.find("div", {"class": "m-exhibitor-entry__item__body__contacts__additional__website"})
if container:
for anchor in container.find_all("a"):
if anchor.text.strip():
output_file.write(anchor.text.strip() + "\n")
print(f"✓ Extracted from {link}")
else:
print(f"⚠ No target container found on {link}")
else:
print(f"✗ HTTP {resp.status_code} for {link}")
except requests.RequestException as e:
print(f"❌ Request failed for {link}: {e}")
except Exception as e:
print(f"⚠ Parsing error on {link}: {e}")
# 可选:添加小延迟,避免对服务器造成压力
# time.sleep(0.5)
if __name__ == "__main__":
news()✅ 关键改进说明:
- 使用 with open(...) 确保文件自动安全关闭;
- line.strip() 清理每行 URL 的首尾空白与换行符,避免因 \n 导致请求失败;
- 将 open("Websites.txt", "a") 提至循环外(单次打开),大幅提升 I/O 效率;
- 增加异常捕获(requests.RequestException 和通用 Exception),防止单个 URL 失败导致整个程序中断;
- 对 soup.find(...) 返回值做 if container: 判空,避免 AttributeError: 'NoneType' object has no attribute 'find_all';
- 添加清晰的状态日志(Processing / ✓ / ✗ / ⚠),便于调试与监控。
? 注意事项:
- 确保 list.txt 中每行仅含一个有效 URL(无多余空格或注释);
- 若目标网站有反爬机制,请合理设置 headers(如 User-Agent)并遵守 robots.txt;
- 生产环境建议加入重试机制(如 tenacity 库)和并发控制(如 concurrent.futures),但初学者务必先保证单线程逻辑正确。
通过以上结构化重构,你的爬虫即可稳定、健壮地批量处理任意数量的 URL,并将所有提取结果按序追加至 Websites.txt。
以上就是本文的全部内容了,是否有顺利帮助你解决问题?若是能给你带来学习上的帮助,请大家多多支持golang学习网!更多关于文章的相关知识,也可关注golang学习网公众号。
相关阅读
更多>
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
最新阅读
更多>
-
331 收藏
-
436 收藏
-
172 收藏
-
371 收藏
-
341 收藏
-
485 收藏
-
256 收藏
-
353 收藏
-
116 收藏
-
353 收藏
-
163 收藏
-
393 收藏
课程推荐
更多>
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习