模块安装
pip3 install beautifulsoup4
模块导入
from bs4 import BeautifulSoup
示例html内容
获取html内容代码
import requests
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36 115Browser/9.0.0"
}
response = requests.get("https://www.xbiquge6.com/xbqgph.html",headers=headers)
response.encoding = "utf-8"
html = response.text
print(html)
获取的html内容
小说排行榜列表
-
作品分类作品名称最新章节作者更新时间状态 -
[都市言情]我本港岛电影人今天有更再来一盘菇凉2019-11-16连载中 -
[玄幻奇幻]艾泽拉斯新秩序第一百三十六章 卡拉赞的收获想静静的顿河2019-11-16连载中 -
[都市言情]超级狂婿第654章:他不够格我本幸运2019-11-16连载中 -
[都市言情]我在都市修个仙完本感言一剑荡清风2019-11-16连载中 -
[都市言情]都市超级医圣第2613章 战后处理断桥残雪2019-11-16连载中 -
[都市言情]祖传土豪系统第二百零五章 我能试试吗第九倾城2019-11-16连载中 -
[都市言情]都市红粉图鉴第1510章 我,才是坐馆龙头!秋江独钓2019-11-16连载中 -
[武侠仙侠]胜天传奇第三百八十章 游历天宫骑牛者2019-11-16连载中 -
[都市言情]总裁爸比从天降第1748章奈何自己是婆婆一碟茴香豆2019-11-16连载中 -
[玄幻奇幻]太古魔帝第一千三百二十四章 魂帝草根2019-11-16连载中
构建BeautifulSoup对象
常用四种解释器
| 解释器 | 标识 | 特点 |
|---|---|---|
| Python标准库 | html.parser | Python内置,执行速度中 |
| lxml的HTML解释器 | lxml | 速度快 |
| lxml的XML解释器 | xml | 唯一支持XML解析 |
| html5lib | html5lib | 容错性最好,以浏览器方式解析 |
soup = BeautifulSoup(html, 'html.parser')
还可以解析本地html文件
soup1 = BeautifulSoup(open('index.html'))
.prettify()格式化输出节点
略
通过 . 获取节点
title = soup.head.title
print(type(title))
print(title)
结果是
对于名称唯一的节点,可以省略层级
title = soup.title
print(type(title))
print(title)
结果同样是
名称不唯一的节点,直接获取只会获取第一个匹配的节点
li = soup.li
print(li)
结果是
find_all根据条件获取节点
find_all( name , attrs , recursive , text , **kwargs )
name :查找所有名字为 name 的tag,字符串对象会被自动忽略掉;
attrs:根据属性查询,使用字典类型;
text :可以搜搜文档中的字符串内容.与 name 参数的可选值一样, text 参数接受 字符串 , 正则表达式 , 列表, True ;
recursive:调用tag的 find_all() 方法时,Beautiful Soup会检索当前tag的所有子孙节点,如果只想搜索tag的直接子节点,可以使用参数 recursive=False ;
limit:find_all() 方法返回全部的搜索结构,如果文档树很大那么搜索会很慢.如果我们不需要全部结果,可以使用 limit 参数限制返回结果的数量.效果与SQL中的limit关键字类似,当搜索到的结果数量达到 limit 的限制时,就停止搜索返回结果;
class_ :通过 class_ 参数搜索有指定CSS类名的tag,class_ 参数同样接受不同类型的 过滤器 ,字符串,正则表达式,方法或 True。
根据标签名字
lis = soup.find_all(nam)
for item in lis:
print(item)
结果是
-
首页 -
永久书架 -
玄幻奇幻 -
武侠仙侠 -
都市言情 -
历史军事 -
科幻灵异 -
网游竞技 -
女频频道 -
完本小说 -
排行榜单 -
临时书架 -
作品分类作品名称最新章节作者更新时间状态 -
[都市言情]我能举报万物第九十六章 巡抚视察【第三更】必火2019-11-16连载中 -
[科幻灵异]女战神的黑包群第3046章 恶毒女配,在线提刀45二谦2019-11-16连载中 -
[玄幻奇幻]花岗岩之怒第一百五十二章 意外到来的断剑咱的小刀2019-11-16连载中 -
[网游竞技]超神机械师1090 韭菜的自觉齐佩甲2019-11-16连载中 -
[武侠仙侠]无量真途第六百三十二章 突然出现的神智燕十千2019-11-16连载中 -
[科幻灵异]我的细胞监狱第四百五十九章 白雾穿黄衣的阿肥2019-11-16连载中 -
[武侠仙侠]前任无双第三百章 事急速办跃千愁2019-11-16连载中 -
[武侠仙侠]元阳道君第四十章 洞开剑扼虚空2019-11-16连载中 -
[历史军事]逆成长巨星655:不是办法的办法葛洛夫街兄弟2019-11-16连载中 -
[历史军事]承包大明第一百九十三章 真会玩南希北庆2019-11-16连载中
根据标签属性
属性和值以字典形式传入
lis = soup.find_all(attrs={"class":"s2"})
for item in lis:
print(item)
结果是
作品名称
我能举报万物
女战神的黑包群
花岗岩之怒
超神机械师
无量真途
我的细胞监狱
前任无双
元阳道君
逆成长巨星
承包大明
限制搜索范围
find_all 方法会搜索当前标签的所有子孙节点,如果只想搜索直接子节点,可以使用参数 recursive=False
遍历获取子节点
.contents获取所有子节点
以列表形式返回所有子节点,要注意,列表里面还会掺杂 '/n'
ul = soup.ul
print(ul)
print(ul.contents)
结果是
['/n',
-
首页, '/n', -
永久书架, '/n', -
玄幻奇幻, '/n', -
武侠仙侠, '/n', -
都市言情, '/n', -
历史军事, '/n', -
科幻灵异, '/n', -
网游竞技, '/n', -
女频频道, '/n', -
完本小说, '/n', -
排行榜单, '/n', -
临时书架, '/n']
.children获取所有子节点
返回一个list生成器对象
ul = soup.ul
print(ul.children)
print(list(ul.children))
结果是
['/n',
-
首页, '/n', -
永久书架, '/n', -
玄幻奇幻, '/n', -
武侠仙侠, '/n', -
都市言情, '/n', -
历史军事, '/n', -
科幻灵异, '/n', -
网游竞技, '/n', -
女频频道, '/n', -
完本小说, '/n', -
排行榜单, '/n', -
临时书架, '/n']
.descendants遍历所有子孙节点
ul = soup.ul
for item in ul.descendants:
print(item)
结果是(中间很多'/n'空行我删掉了)
首页 首页
永久书架 永久书架
玄幻奇幻 玄幻奇幻
武侠仙侠 武侠仙侠
都市言情 都市言情
历史军事 历史军事
科幻灵异 科幻灵异
网游竞技 网游竞技
女频频道 女频频道
完本小说 完本小说
排行榜单 排行榜单
临时书架 临时书架
获取其父节点
a = soup.li.a
print(a)
p = a.parent
print(p)
结果是
首页
提取节点信息
节点名称
感觉没什么用
title = soup.title
print(title.name)
结果是
title
节点属性
a = soup.li.a
print(a)
print(a.attrs) # 获取所有属性,返回字典形式
print(a['href'])# 获取a节点的href属性值
结果是
首页
{'href': '/'}
/
节点文本
a = soup.li.a
print(type(a.string)) # 节点内文本的类型
print(a.string) # 获取节点内的文本内容
print(a.get_text()) # 也是获取节点内的文本内容
结果是
首页
注意!!!如果节点内文本是注释,则用string取出文本时会自动去除注释标记
注释的类型:,可以通过类型判断
遍历获取所有子孙节点中的文本
for string in soup.stripped_strings: # 去除多余空白内容
print(repr(string))
想进一步了解编程开发相关知识,与我一同成长进步,请关注我的公众号“松果仓库”,共同分享宅&程序员的各类资源,谢谢!!!
审核编辑 黄昊宇
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
JAVA
+关注
关注
20文章
2997浏览量
115667 -
人工智能
+关注
关注
1813文章
49734浏览量
261496 -
python
+关注
关注
57文章
4857浏览量
89577 -
爬虫
+关注
关注
0文章
87浏览量
7946
发布评论请先 登录
相关推荐
热点推荐
# 深度解析:爬虫技术获取淘宝商品详情并封装为API的全流程应用
需求。本文将深入探讨如何借助爬虫技术实现淘宝商品详情的获取,并将其高效封装为API。 一、爬虫技术核心原理与工具 1.1 爬虫运行机制 网络爬虫本质上是一种遵循特定规则,自动抓取网页信
用 Python 给 Amazon 做“全身 CT”——可量产、可扩展的商品详情爬虫实战
一、技术选型:为什么选 Python 而不是 Java? 结论: “调研阶段用 Python,上线后如果 QPS 爆表再考虑 Java 重构。” 二、整体架构速览(3 分钟看懂) 三、开发前准备(5
从 0 到 1:用 PHP 爬虫优雅地拿下京东商品详情
PHP 语言 实现一个 可运行的京东商品爬虫 ,不仅能抓取商品标题、价格、图片、评价数,还能应对常见的反爬策略。全文附完整代码, 复制粘贴即可运行 。 一、为什么选择 PHP 做爬虫? 虽然 Python 是
Nginx限流与防爬虫配置方案
在互联网业务快速发展的今天,网站面临着各种流量冲击和恶意爬虫的威胁。作为运维工程师,我们需要在保证正常用户访问的同时,有效防范恶意流量和爬虫攻击。本文将深入探讨基于Nginx的限流与防爬虫解决方案,从原理到实践,为大家提供一套完
termux如何搭建python游戏
termux如何搭建python游戏
Termux搭建Python游戏开发环境的完整指南
一、Termux基础环境准备
Termux是一款无需root即可在安卓设备上运行的Linux终端
发表于 08-29 07:06
python app不能运行怎么解决?
;python_agent[1241]: xmlrpc request method supervisor.stopProcess failed;python_agent[1241]: xmlrpc request method supervisor.stopProces
发表于 08-06 06:27
梦之墨电能检测模块在教学场景中的应用
工程训练中心的电工电子实验室里,学生们正围着一台风能发电装置进行调试。他们手中的黑色小方盒正实时显示着电流以及电压的波动数据--这是梦之墨电能检测模块在教学场景中的应用。梦之墨自主研发并推出的电能检测
如何在虚拟环境中使用 Python,提升你的开发体验~
RaspberryPiOS预装了Python,你需要使用其虚拟环境来安装包。今天出版的最新一期《TheMagPi》杂志刊登了我们文档负责人NateContino撰写的一篇实用教程,帮助你入门
零基础入门:如何在树莓派上编写和运行Python程序?
在这篇文章中,我将为你简要介绍Python程序是什么、Python程序可以用来做什么,以及如何在RaspberryPi上编写和运行一个简单的Python程序。什么是Python程序?
爬虫数据获取实战指南:从入门到高效采集
爬虫数据获取实战指南:从入门到高效采集 在数字化浪潮中,数据已成为驱动商业增长的核心引擎。无论是市场趋势洞察、竞品动态追踪,还是用户行为分析,爬虫技术都能助你快速捕获目标信息。然而,如何既
运行OVModelForCausalLM Python模块时出错了,怎么解决?
创建了一个自定义 Python* 代码,类似于遵循 240-dolly-2-instruction 的 Jupyter 笔记本。
OVModelForCausalLM Python* 模块运行时出错。
发表于 03-05 06:44
Python Connector for InterBase连接解决方案
适用于 InterBase 的 Python 连接器 Python Connector for InterBase 是一种可靠的连接解决方案,用于从 Python 应用程序访问 InterBase
使用Python实现xgboost教程
使用Python实现XGBoost模型通常涉及以下几个步骤:数据准备、模型训练、模型评估和模型预测。以下是一个详细的教程,指导你如何在Python中使用XGBoost。 1. 安装XGBoost
IP地址数据信息和爬虫拦截的关联
IP地址数据信息和爬虫拦截的关联主要涉及到两方面的内容,也就是数据信息和爬虫。IP 地址数据信息的内容丰富,包括所属地域、所属网络运营商、访问时间序列、访问频率等。 从IP地址信息中可以窥见

Python爬虫之Beautiful Soup模块
评论