使用Scrapy高效抓取并整合Div内不定数量P标签文本

3次阅读

使用Scrapy高效抓取并整合Div内不定数量P标签文本

本文旨在指导如何使用scrapy框架高效地从网页中抓取特定

元素内不定数量的

标签内容。我们将探讨如何利用xpath表达式精准定位并提取所有目标

标签,并通过python字符串连接方法,将这些分散的文本内容整合为一个单一字段,以便于数据存储和后续处理,解决仅保存最后一个

标签的问题。

引言:处理动态P标签内容的挑战

在进行网页抓取时,经常会遇到页面内容结构不尽相同的情况。例如,一个特定的

容器内可能包含数量不定的

标签,有些页面只有一个,而另一些则有十个甚至更多。这种动态性给数据提取带来了挑战:如何确保所有

标签的内容都被正确抓取,并将其整合到一个单一的变量中,以便于后续的数据存储(如导出到csv文件)?

常见的误区是,在循环中迭代提取每个

标签的内容并尝试将其赋给同一个变量,这通常会导致最终只保存了循环中的最后一个元素。本文将详细介绍如何使用Scrapy和XPath,结合python的字符串处理能力,优雅地解决这一问题。

html结构示例

假设我们目标抓取的网页具有如下的HTML结构,其中

内部包含多个

标签,其数量和内容是可变的:

<div class="div_name">     <h2 class="h5">title text</h2>     <p> </p>     <p>这是第一段文本...</p>     <p>这是第二段文本...</p>     <p> </p>     <p><br>这是第三段文本...</p>     <p> </p>     <p><br>这是第四段文本...</p>     <p> </p>     <p><br>这是第五段文本...</p>     <p> </p>     <p><br>这是第六段文本...</p>     <p> </p>     <p>这是第七段文本...</p>                     <div class="aritcle_card">                         <a class="aritcle_card_img" href="/ai/1567">                             <img src="https://img.php.cn/upload/ai_manual/000/000/000/175680254776358.jpg" alt="Codeium">                         </a>                         <div class="aritcle_card_info">                             <a href="/ai/1567">Codeium</a>                             <p>一个免费的AI代码自动完成和搜索工具</p>                             <div class="">                                 <img src="/static/images/card_xiazai.png" alt="Codeium">                                 <span>345</span>                             </div>                         </div>                         <a href="/ai/1567" class="aritcle_card_btn">                             <span>查看详情</span>                             <img src="/static/images/cardxiayige-3.png" alt="Codeium">                         </a>                     </div>                      <p> </p>     <p><br>这是第八段文本...</p>     <p> </p>     <p><br>这是第九段文本...</p>     <p> </p>     <p><br>这是第十段文本...</p>     <p>这是第十一段文本...</p>     <p>这是第十二段文本...</p> </div>

我们的目标是从这个div_name中提取所有

标签内的纯文本内容,并将它们合并成一个长字符串。

Scrapy与XPath基础回顾

Scrapy框架提供了强大的选择器工具,其中XPath是进行元素定位和数据提取的核心。response.xpath()方法允许我们使用XPath表达式来查询HTML或xml文档中的节点。

  • //:表示从文档的任何位置开始匹配。
  • div:匹配所有div元素。
  • [@class=”div_name”]:进一步筛选,只匹配class属性值为div_name的div元素。
  • //p:在当前上下文(这里是div_name)的任何后代节点中匹配所有p元素。
  • normalize-space(.):这是一个XPath函数,用于获取当前节点及其所有后代节点的文本内容,并规范化其中的空白字符(去除首尾空白,将连续的内部空白替换为单个空格)。

核心解决方案:提取、规范化与整合

面对不定数量的

标签,关键在于如何一次性获取所有目标元素,并将其文本内容有效连接。

错误尝试分析

初学者可能尝试使用循环迭代,并将每次迭代的结果赋值给同一个变量,如下所示:

# 假设 divs 是指向目标 <div class="div_name"> 的选择器 divs = response.xpath('/html/body/div[6]/div/section[2]/article/div/div/div') story = "" # 初始化变量 for p_tag_selector in divs.xpath('.//p'):     # p_tag_selector.get() 会返回 <p>...</p> 完整的HTML标签     # 如果想获取纯文本,需要进一步处理,例如 p_tag_selector.xpath('normalize-space(.)').get()     text_content = p_tag_selector.xpath('normalize-space(.)').get()     if text_content:         story = text_content # 错误:每次循环都会覆盖前一次的值  yield {     'story': story # 最终只会存储最后一个 <p> 标签的内容 }

这段代码的问题在于 story = text_content 这一行。在每次循环中,story 变量都会被当前

标签的文本内容所覆盖,导致最终 yield 的 story 字段只包含最后一个

标签的内容。

优化方法:列表推导式与字符串连接

正确的做法是先将所有目标

标签的文本内容收集到一个列表中,然后再将列表中的所有字符串元素连接成一个单一的字符串。

import scrapy  class ParagraphScraper(scrapy.Spider):     name = 'paragraph_scraper'     start_urls = ['http://example.com/your_target_page'] # 替换为实际的网页URL      def parse(self, response):         # 1. 使用XPath选择所有目标 <p> 标签         # 注意:原始问题中的XPath '/html/body/div[6]/div/section[2]/article/div/div/div'         # 非常具体且脆弱,强烈建议根据实际页面结构优化,例如使用类名:         # target_div_xpath = '//div[@class="div_name"]'         # p_selectors = response.xpath(f'{target_div_xpath}//p')          # 这里沿用问题中提供的XPath作为示例,但请在实际项目中进行验证和优化         p_selectors = response.xpath('/html/body/div[6]/div/section[2]/article/div/div/div//p')          # 2. 提取每个 <p> 标签的纯文本内容,并进行规范化处理         # 使用列表推导式高效地完成这一步骤         # normalize-space(.) 可以获取元素内部的所有文本内容,并规范化空格         # 过滤掉可能为空的文本(如 <p> </p> 或只包含 <br> 的 p 标签)         story_parts = [             p_selector.xpath('normalize-space(.)').get()             for p_selector in p_selectors         ]         story_parts = [part for part in story_parts if part and part.strip()] # 确保非空且非全空白          # 3. 使用空格将所有文本部分连接成一个单一的字符串         # ' '.join(list_of_strings) 是 Python 中连接字符串的常用且高效的方法         story_combined = ' '.join(story_parts)          # 4. 将整合后的数据通过 yield 返回         yield {             'story': story_combined,             # 可以根据需要添加其他字段         }

数据

text=ZqhQzanResources