设为首页收藏本站
网站公告 | 这是第一条公告
     

 找回密码
 立即注册
缓存时间04 现在时间04 缓存数据 十七岁吻的人额头没有粉底

十七岁吻的人额头没有粉底 -- 十七岁

查看: 1068|回复: 4

python实现精准搜索并提取网页核心内容

[复制链接]

  离线 

TA的专栏

  • 打卡等级:即来则安
  • 打卡总天数:19
  • 打卡月天数:0
  • 打卡总奖励:246
  • 最近打卡:2025-04-18 05:58:06
等级头衔

等級:晓枫资讯-上等兵

在线时间
0 小时

积分成就
威望
0
贡献
326
主题
258
精华
0
金钱
1124
积分
624
注册时间
2023-1-25
最后登录
2025-5-31

发表于 2024-5-14 13:50:27 来自手机 | 显示全部楼层 |阅读模式
目录


  • 各种尝试

    • 生成PDF
    • 提取文章内容

  • 选择最优
  • 总结
  • 参考资料
1.jpeg

文 | 李晓飞
来源:Python 技术「ID: pythonall」
爬虫程序想必大家都很熟悉了,随便写一个就可以获取网页上的信息,甚至可以通过请求自动生成 Python 脚本[1]。
最近我遇到一个爬虫项目,需要爬取网上的文章。感觉没有什么特别的,但问题是没有限定爬取范围,意味着没有明确的页面的结构。
对于一个页面来说,除了核心文章内容外,还有头部,尾部,左右列表栏等等。有的页面框架用 div 布局,有的用 table,即使都用 div,不太的网站风格和布局也不同。
但问题必须解决,我想,既然搜索引擎抓取到各种网页的核心内容,我们也应该可以搞定,拎起 Python, 说干就干!

各种尝试

如何解决呢?

生成PDF

开始想了一个取巧的方法,就是利用工具(wkhtmltopdf[2])将目标网页生成 PDF 文件。
好处是不必关心页面的具体形式,就像给页面拍了一张照片,文章结构是完整的。
虽然 PDF 是可以源码级检索,但是,生成 PDF 有诸多缺点:
耗费计算资源多、效率低、出错率高,体积太大。
几万条数据已经两百多G,如果数据量上来光存储就是很大的问题。

提取文章内容

不生成PDF,有简单办法就是通过 xpath[3] 提取页面上的所有文字。
但是内容将失去结构,可读性差。更要命的是,网页上有很多无关内容,比如侧边栏,广告,相关链接等,也会被提取下来,影响内容的精确性。
为了保证有一定的结构,还要识别到核心内容,就只能识别并提取文章部分的结构了。像搜索引擎学习,就是想办法识别页面的核心内容。
我们知道,通常情况下,页面上的核心内容(如文章部分)文字比较集中,可以从这个地方着手分析。
于是编写了一段代码,我是用 Scrapy[4] 作为爬虫框架的,这里只截取了其中提取文章部分的代码 :
  1. divs = response.xpath("body//div")
  2. sel = None
  3. maxvalue = 0
  4. for d in divs:
  5.   ds = len(d.xpath(".//div"))
  6.   ps = len(d.xpath(".//p"))
  7.   value = ps - ds
  8.   if value > maxvalue:
  9.     sel = {
  10.       "node": d,
  11.       "value": value
  12.     }
  13.     maxvalue = value
  14. print("".join(sel['node'].getall()))
复制代码
       
    1. response
    复制代码
    是页面的一个响应,其中包含了页面的所有内容,可以通过
    1. xpath
    复制代码
    提取想要的部分   
    1. "body//div"
    复制代码
    的意思是提取所以
    1. body
    复制代码
    标签下的
    1. div
    复制代码
    子标签,注意:
    1. //
    复制代码
    操作是递归的   
  • 遍历所有提取到的标签,计算其中包含的
    1. div
    复制代码
    数量,和
    1. p
    复制代码
    数量   
    1. p
    复制代码
    数量 和
    1. div
    复制代码
    数量的差值作为这个元素的权值,意思是如果这个元素里包含了大量的
    1. p
    复制代码
    时,就认为这里是文章主体   
  • 通过比较权值,选择出权值最大的元素,这便是文章主体   
  • 得到文章主体之后,提取这个元素的内容,相当于 jQuery[5] 的
    1. outerHtml
    复制代码
简单明了,测试了几个页面确实挺好。
不过大量提取时发现,很多页面提取不到数据。仔细查看发现,有两种情况。
       
  • 有的文章内容被放在了
    1. <article>
    复制代码
    标签里了,所以没有获取到   
  • 有的文章每个
    1. <p>
    复制代码
    外面都包裹了一个
    1. <div>
    复制代码
    ,所以
    1. p
    复制代码
    的数量 和
    1. div
    复制代码
    的抵消了
再调整了一下策略,不再区分
  1. div
复制代码
,查看所有的元素。
另外优先选择更多的
  1. p
复制代码
,在其基础上再看更少的
  1. div
复制代码
。调整后的代码如下:
  1. divs = response.xpath("body//*")
  2. sels = []
  3. maxvalue = 0
  4. for d in divs:
  5.   ds = len(d.xpath(".//div"))
  6.   ps = len(d.xpath(".//p"))
  7.   if ps >= maxvalue:
  8.     sel = {
  9.       "node": d,
  10.       "ps": ps,
  11.       "ds": ds
  12.     }
  13.     maxvalue = ps
  14.     sels.append(sel)

  15. sels.sort(lambda x: x.ds)

  16. sel = sels[0]

  17. print("".join(sel['node'].getall()))
复制代码
       
  • 方法主体里,先挑选出
    1. p
    复制代码
    数量比较大的节点,注意
    1. if
    复制代码
    判断条件中 换成了
    1. >=
    复制代码
    号,作用时筛选出同样具有
    1. p
    复制代码
    数量的结点   
  • 经过筛选之后,按照
    1. div
    复制代码
    数量排序,然后选取
    1. div
    复制代码
    数量最少的
经过这样修改之后,确实在一定程度上弥补了前面的问题,但是引入了一个更麻烦的问题。
就是找到的文章主体不稳定,特别容易受到其他部分有些
  1. p
复制代码
的影响。

选择最优

既然直接计算不太合适,需要重新设计一个算法。
我发现,文字集中的地方是往往是文章主体,而前面的方法中,没有考虑到这一点,只是机械地找出了最大的
  1. p
复制代码

还有一点,网页结构是个颗 DOM 树[6]
2.png

那么越靠近
  1. p
复制代码
标签的地方应该越可能是文章主体,也就是说,计算是越靠近
  1. p
复制代码
的节点权值应该越大,而远离
  1. p
复制代码
的结点及时拥有很多
  1. p
复制代码
但是权值也应该小一点。
经过试错,最终代码如下:
  1. def find(node, sel):
  2.     value = 0
  3.     for n in node.xpath("*"):
  4.         if n.xpath("local-name()").get() == "p":
  5.             t = "".join([s.strip() for s in (n.xpath('text()').getall() + n.xpath("*/text()").getall())])
  6.             value += len(t)
  7.         else:
  8.             value += find(n, a)*0.5
  9.     if value > sel["value"]:
  10.         sel["node"] = node
  11.         sel["value"] = value
  12.     return value

  13. sel = {
  14.     'value': 0,
  15.     'node': None
  16. }
  17. find(response.xpath("body"), sel)
复制代码
       
  • 定义了一个
    1. find
    复制代码
    函数,这是为了方便做递归,第一次调用的参数是
    1. body
    复制代码
    标签,和前面一样   
  • 进入方法里,只找出该节点的直接孩子们,然后遍历这些孩子   
  • 判断如果孩子是
    1. p
    复制代码
    节点,提取出其中的所有文字,包括子节点的,然后将文字的长度作为权值   
  • 提取文字的地方比较绕,先取出直接的文本,和间接文本,合成
    1. list
    复制代码
    ,对每部分文本做了去除前后空字符,最后合并为一个字符串,得到了所包含的文本   
  • 如果孩子节点不是
    1. p
    复制代码
    ,就递归调用
    1. find
    复制代码
    方法,而
    1. find
    复制代码
    方法返回的是 指定节点所包含的文本长度   
  • 在获取子节点的长度时,做了缩减处理,用以体现距离越远,权值越低的规则   
  • 最终通过 引用传递的
    1. sel
    复制代码
    参数,记录权值最高的节点
通过这样改造之后,效果特别好。
为什么呢?其实利用了密度原理,就是说越靠近中心的地方,密度越高,远离中心的地方密度成倍的降低,这样就能筛选出密度中心了。
50% 的坡度比率是如何得到的呢?
其实是通过实验确定的,刚开始时我设置为 90%,但结果时
  1. body
复制代码
节点总是最优的,因为
  1. body
复制代码
里包含了所有的文字内容。
反复实验后,确定 50% 是比较好的值,如果在你的应用中不合适,可以做调整。

总结

描述了我如何选取文章主体的方法后,后没有发现其实很是很简单的方法。而这次解决问题的经历,让我感受到了数学的魅力。
一直以来我认为只要了解常规处理问题的方式就足以应对日常编程了,可以当遇到不确定性问题,没有办法抽取出简单模型的问题时,常规思维显然不行。
所以平时我们应该多看一些数学性强的,解决不确定性问题的方法,以便提高我们的编程适应能力,扩展我们的技能范围。
期望这篇短文能对你有所启发,欢迎在留言区交流讨论,比心!

参考资料

[1]
Curl 转 Python: https://curlconverter.com/
[2]
wkhtmltopdf: https://wkhtmltopdf.org/
[3]
xpath: https://www.w3school.com.cn/xpath/xpath_syntax.asp
[4]
Scrapy: https://scrapy.org/
[5]
jQuery: jquery.com
[6]
DOM 树: https://baike.baidu.com/item/DOM%20Tree/6067246
以上就是python实现精准搜索并提取网页核心内容的详细过程,更多关于python搜索并提取网页内容的资料请关注晓枫资讯其它相关文章!

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
晓枫资讯-科技资讯社区-免责声明
免责声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。
      1、注册用户在本社区发表、转载的任何作品仅代表其个人观点,不代表本社区认同其观点。
      2、管理员及版主有权在不事先通知或不经作者准许的情况下删除其在本社区所发表的文章。
      3、本社区的文章部分内容可能来源于网络,仅供大家学习与参考,如有侵权,举报反馈:点击这里给我发消息进行删除处理。
      4、本社区一切资源不代表本站立场,并不代表本站赞同其观点和对其真实性负责。
      5、以上声明内容的最终解释权归《晓枫资讯-科技资讯社区》所有。
http://bbs.yzwlo.com 晓枫资讯--游戏IT新闻资讯~~~

  离线 

TA的专栏

等级头衔

等級:晓枫资讯-列兵

在线时间
0 小时

积分成就
威望
0
贡献
0
主题
0
精华
0
金钱
15
积分
10
注册时间
2022-12-26
最后登录
2022-12-26

发表于 2024-5-25 03:52:18 | 显示全部楼层
感谢楼主分享。
http://bbs.yzwlo.com 晓枫资讯--游戏IT新闻资讯~~~

  离线 

TA的专栏

等级头衔

等級:晓枫资讯-列兵

在线时间
0 小时

积分成就
威望
0
贡献
0
主题
0
精华
0
金钱
12
积分
4
注册时间
2023-6-19
最后登录
2023-6-19

发表于 2024-9-25 12:20:13 | 显示全部楼层
路过,支持一下
http://bbs.yzwlo.com 晓枫资讯--游戏IT新闻资讯~~~

  离线 

TA的专栏

等级头衔

等級:晓枫资讯-列兵

在线时间
0 小时

积分成就
威望
0
贡献
0
主题
0
精华
0
金钱
17
积分
14
注册时间
2022-12-26
最后登录
2022-12-26

发表于 2025-2-18 09:02:56 | 显示全部楼层
感谢楼主,顶。
http://bbs.yzwlo.com 晓枫资讯--游戏IT新闻资讯~~~

  离线 

TA的专栏

等级头衔

等級:晓枫资讯-列兵

在线时间
0 小时

积分成就
威望
0
贡献
0
主题
0
精华
0
金钱
17
积分
14
注册时间
2022-12-29
最后登录
2022-12-29

发表于 3 天前 | 显示全部楼层
顶顶更健康!!!
http://bbs.yzwlo.com 晓枫资讯--游戏IT新闻资讯~~~
严禁发布广告,淫秽、色情、赌博、暴力、凶杀、恐怖、间谍及其他违反国家法律法规的内容。!晓枫资讯-社区
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

1楼
2楼
3楼
4楼
5楼

手机版|晓枫资讯--科技资讯社区 本站已运行

CopyRight © 2022-2025 晓枫资讯--科技资讯社区 ( BBS.yzwlo.com ) . All Rights Reserved .

晓枫资讯--科技资讯社区

本站内容由用户自主分享和转载自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

如有侵权、违反国家法律政策行为,请联系我们,我们会第一时间及时清除和处理! 举报反馈邮箱:点击这里给我发消息

Powered by Discuz! X3.5

快速回复 返回顶部 返回列表