Java爬虫教程:URL连接与流处理详解
时间:2026-03-18 13:36:45 388浏览 收藏
本文深入剖析了Java原生HttpURLConnection在实现简单网络爬虫时的关键实践与避坑指南,强调不依赖第三方库也能高效、稳定地完成GET请求:从合理设置超时、禁用自动重定向、严格校验响应码,到显式指定字符集、规范流关闭、模拟真实浏览器头(User-Agent和Accept),再到并发控制、DNS缓存规避及反爬应对策略,每一处细节都直击开发者实际踩过的坑;它不仅教你“如何连上URL”,更揭示了判断响应是否真正“可用”的深层逻辑——这才是写出健壮爬虫的真正起点。

Java里用HttpURLConnection发GET请求最稳
别一上来就找第三方库,HttpURLConnection 是JDK自带、无依赖、够用。它不自动重定向、不自动解压、不缓存响应体——看似麻烦,实则是可控性的来源。
常见错误是没设 connectTimeout 和 readTimeout,导致线程卡死;还有忽略 setInstanceFollowRedirects(false),结果302跳转后状态码还是200,但内容已是重定向HTML。
- 必须调用
setRequestMethod("GET"),否则某些JDK版本默认为POST - 记得在
getInputStream()前先检查getResponseCode(),4xx/5xx时该用getErrorStream() - 读取流后务必调用
disconnect(),否则连接可能堆积(尤其在循环爬多URL时)
用try-with-resources安全读取响应流
手动关流容易漏,InputStream 和 BufferedReader 都支持自动关闭,但要注意顺序:外层包装流必须在内层之前声明。
别用 response.toString() 或直接转String——HTTP响应可能含BOM、编码不一致,InputStreamReader 必须显式指定字符集,比如 UTF-8。
- 优先用
new InputStreamReader(conn.getInputStream(), StandardCharsets.UTF_8),而非new InputStreamReader(conn.getInputStream()) - 如果响应头里有
Content-Type: text/html; charset=gbk,就得按gbk解码,硬写UTF-8会乱码 - 大响应体别一次性
readAllBytes(),内存爆得悄无声息;用BufferedReader.readLine()流式处理更稳妥
遇到403或空响应?先看User-Agent和Accept头
多数网站对无 User-Agent 的请求直接返回403或空体,不是代码错,是被服务端拦截了。
Accept 头也关键:不设的话,有些API只返回JSON,但默认值可能是 */*,触发降级返回HTML;设成 application/json 才能拿到结构化数据。
- 必须调用
conn.setRequestProperty("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36") - 加
conn.setRequestProperty("Accept", "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8")模拟浏览器行为 - 别学网上示例写
"Connection: keep-alive"——HttpURLConnection默认就复用连接,手动设反而干扰内部逻辑
别在主线程里跑多个URL,小心DNS阻塞和TCP等待
单线程串行请求,每个都要经历DNS解析→TCP握手→TLS协商→发送→等待→读取,耗时全叠加。并发不是靠开10个线程就完事,得控制连接池和超时。
真要并发,用 ExecutorService + Future,但每个 HttpURLConnection 实例必须独立创建——复用同一个conn对象在多线程下会出错。
- 每轮请求前 new 一个
URL(url).openConnection(),别缓存conn对象 - DNS问题常被忽略:本地hosts没配、运营商DNS污染,可临时改
System.setProperty("sun.net.inetaddr.ttl", "0")禁用JVM DNS缓存 - 如果目标站有反爬,
Thread.sleep(1000)比暴力并发更有效,也更不容易被封IP
真正难的从来不是连上URL,而是判断响应是否“可用”:状态码200不代表HTML结构没变,Content-Length: 0 不代表一定失败,有时候是JS渲染页。这时候光靠流处理不够,得接解析层——但那是另一个问题了。
好了,本文到此结束,带大家了解了《Java爬虫教程:URL连接与流处理详解》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多文章知识!
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
501 收藏
-
270 收藏
-
208 收藏
-
402 收藏
-
441 收藏
-
463 收藏
-
458 收藏
-
443 收藏
-
103 收藏
-
230 收藏
-
413 收藏
-
477 收藏
-
268 收藏
-
- 前端进阶之JavaScript设计模式
- 设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
- 立即学习 543次学习
-
- GO语言核心编程课程
- 本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
- 立即学习 516次学习
-
- 简单聊聊mysql8与网络通信
- 如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
- 立即学习 500次学习
-
- JavaScript正则表达式基础与实战
- 在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
- 立即学习 487次学习
-
- 从零制作响应式网站—Grid布局
- 本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
- 立即学习 485次学习