登录
首页 >  文章 >  前端

Puppeteer爬取数据返回空数组怎么解决

时间:2025-09-04 22:29:22 468浏览 收藏

在使用Puppeteer爬取naamhinaam.com网站数据时,遇到返回空数组的问题?本文为你提供一套有效的解决方案。针对原始代码中选择器不稳定、广告元素干扰、循环逻辑错误等问题,我们深入分析,并提供优化后的代码示例。优化后的代码采用更简洁稳定的CSS选择器,并引入数量一致性检查和错误处理机制,确保能准确抓取网页上的婴儿名字和含义信息。同时,强调了Headless模式的运用以及数据清洗的重要性,助你避免因网站结构变化或反爬机制导致的数据抓取失败。想了解如何更高效、更稳定地使用Puppeteer爬取数据,避免爬取数据为空的困扰吗?立即阅读本文,掌握实用技巧,提升你的数据抓取能力!

Puppeteer 爬取网页数据返回空数组问题解决方案

本文针对使用 Puppeteer 爬取 naamhinaam.com 网站数据时,出现返回空数组的问题,提供了一套可行的解决方案。通过分析问题代码,找出选择器和循环逻辑上的错误,并提供优化后的代码示例,确保能正确抓取网页上的婴儿名字和含义信息,并避免因广告元素干扰导致的问题。本文还强调了headless模式的运用以及数据清洗的重要性。

问题分析

原始代码尝试通过循环遍历页面上的元素,并根据复杂的 CSS 选择器提取婴儿名字。然而,这种方法存在几个问题:

  1. 不稳定的选择器: 原始代码中使用的 CSS 选择器 div.name-suggestion.mt-1 > div > div:nth-child(${i}) > div.nsg__name_meaning > a 非常具体,一旦网站结构发生轻微变化,就会导致选择器失效,从而无法抓取到数据。
  2. 广告元素干扰: 尝试移除广告元素,但移除操作可能并不稳定,或者广告元素的出现方式不固定,导致循环逻辑出错。
  3. 不必要的条件判断: 循环内部的 if (await page.$(...)) 判断可能会导致跳过某些元素,影响数据的完整性。
  4. 循环索引错误: 循环索引从3开始,跳过了前面两个元素,可能导致数据丢失。

解决方案

为了解决上述问题,我们应该采用更稳定、更灵活的方法来提取数据。以下是优化后的代码示例:

const puppeteer = require("puppeteer");
const express = require("express");
const cors = require("cors");
const app = express();
app.use(cors());
let data = [];
(async () => {
  const browser = await puppeteer.launch({
    headless: true, // 建议使用 headless 模式
    defaultViewport: null,
  });
  const page = await browser.newPage();
  for (let pageNumber = 1; pageNumber <= 42; pageNumber++) {
    await page.goto(`https://naamhinaam.com/baby-girl-names-a?page=${pageNumber}`);
    await page.waitForTimeout(3000);

    // 使用更简洁、稳定的选择器
    let nameElements = await page.$$(`a.nsg__name`);
    let meaningElements = await page.$$(`div.nsg__meaning > i`);

    // 确保名字和含义的数量一致
    if (nameElements.length !== meaningElements.length) {
      console.warn(`页面 ${pageNumber} 上的名字和含义数量不一致,可能存在问题。`);
      continue; // 跳过当前页面
    }

    for (let i = 0; i < nameElements.length; i++) {
      let fullName = "";
      try {
        let name = await page.evaluate(el => el.textContent, nameElements[i]);
        let meaning = await page.evaluate(el => el.textContent, meaningElements[i]);
        fullName = `${name.split(/[\n\t]/).join('').trim()}, ${meaning}`;
        data.push({ fullName });
      } catch (error) {
        console.error(`处理页面 ${pageNumber} 的第 ${i} 个元素时出错:`, error);
      }
    }
  }
  console.log(data);
  await browser.close();
})();
app.get("/", (req, res) => {
  res.status(200).json(data);
});

app.listen(3000, () => {
  console.log("App is running...");
});

代码解释:

  1. Headless 模式: 建议将 headless 设置为 true,在后台运行浏览器,提高效率。
  2. 更稳定的选择器: 使用 a.nsg__name 和 div.nsg__meaning > i 这样更简洁、更通用的选择器,降低因网站结构变化导致的问题。
  3. 数量一致性检查: 在循环之前,检查名字和含义元素的数量是否一致。如果不一致,说明页面结构可能存在问题,跳过当前页面,避免数据错误。
  4. 错误处理: 在循环内部添加 try...catch 块,捕获可能出现的错误,并记录错误信息,方便调试。
  5. 数据清洗: 使用 name.split(/[\n\t]/).join('').trim() 清除名字中的换行符、制表符和空格,确保数据的干净。

注意事项

  • 网站结构变化: 网页结构随时可能发生变化,因此需要定期检查和更新选择器。
  • 反爬机制: 网站可能存在反爬机制,如验证码、IP 封锁等。需要根据具体情况采取相应的应对措施,如使用代理 IP、设置合理的请求间隔等。
  • 法律法规: 在爬取网站数据时,务必遵守相关法律法规和网站的使用条款,不得进行恶意爬取或侵犯网站权益的行为。

总结

通过使用更稳定的选择器、进行数量一致性检查、添加错误处理机制以及清洗数据,我们可以更可靠地使用 Puppeteer 爬取网页数据。同时,需要注意网站结构变化、反爬机制以及法律法规等问题,确保爬虫的稳定性和合法性。

好了,本文到此结束,带大家了解了《Puppeteer爬取数据返回空数组怎么解决》,希望本文对你有所帮助!关注golang学习网公众号,给大家分享更多文章知识!

相关阅读
更多>
最新阅读
更多>
课程推荐
更多>