0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

feapder:一款功能强大的爬虫框架

科技绿洲 来源:Python实用宝典 作者:Python实用宝典 2023-11-01 09:48 次阅读

今天推荐一款更加简单、轻量级,且功能强大的爬虫框架:feapder

项目地址:

https://github.com/Boris-code/feapder

2. 介绍及安装

和 Scrapy 类似,feapder 支持轻量级爬虫、分布式爬虫、批次爬虫、爬虫报警机制等功能

内置的 3 种爬虫如下:

  • AirSpider
    轻量级爬虫,适合简单场景、数据量少的爬虫
  • Spider
    分布式爬虫,基于 Redis,适用于海量数据,并且支持断点续爬、自动数据入库等功能
  • BatchSpider
    分布式批次爬虫,主要用于需要周期性采集的爬虫

在实战之前,我们在虚拟环境下安装对应的依赖库

# 安装依赖库
pip3 install feapder

3. 实战一下

我们以最简单的 AirSpider 来爬取一些简单的数据

目标网站:aHR0cHM6Ly90b3BodWIudG9kYXkvIA==

详细实现步骤如下( 5 步)

3-1 创建爬虫项目

首先,我们使用「 feapder create -p 」命令创建一个爬虫项目

# 创建一个爬虫项目
feapder create -p tophub_demo

3-2 创建爬虫 AirSpider

命令行进入到 spiders 文件夹目录下,使用「 feapder create -s 」命令创建一个爬虫

cd spiders

# 创建一个轻量级爬虫
feapder create -s tophub_spider 1

其中

  • 1 为默认,表示创建一个轻量级爬虫 AirSpider
  • 2 代表创建一个分布式爬虫 Spider
  • 3 代表创建一个分布式批次爬虫 BatchSpider

3-3 配置数据库、创建数据表、创建映射 Item

以 Mysql 为例,首先我们在数据库中创建一张数据表

# 创建一张数据表
create table topic
(
    id         int auto_increment
        primary key,
    title      varchar(100)  null comment '文章标题',
    auth       varchar(20)   null comment '作者',
    like_count     int default 0 null comment '喜欢数',
    collection int default 0 null comment '收藏数',
    comment    int default 0 null comment '评论数'
);

然后,打开项目根目录下的 settings.py 文件,配置数据库连接信息

# settings.py

MYSQL_IP = "localhost"
MYSQL_PORT = 3306
MYSQL_DB = "xag"
MYSQL_USER_NAME = "root"
MYSQL_USER_PASS = "root"

最后,创建映射 Item( 可选 )

进入到 items 文件夹,使用「 feapder create -i 」命令创建一个文件映射到数据库

PS:由于 AirSpider 不支持数据自动入库,所以这步不是必须

3-4 编写爬虫及数据解析

第一步,首先使「 MysqlDB 」初始化数据库

from feapder.db.mysqldb import MysqlDB

class TophubSpider(feapder.AirSpider):

    def __init__(self, *args, **kwargs):
        super().__init__(*args, **kwargs)
        self.db = MysqlDB()

第二步,在 start_requests 方法中,指定爬取主链接地址,使用关键字「download_midware 」配置随机 UA

import feapder
from fake_useragent import UserAgent

def start_requests(self):
    yield feapder.Request("https://tophub.today/", download_midware=self.download_midware)

def download_midware(self, request):
    # 随机UA
    # 依赖:pip3 install fake_useragent
    ua = UserAgent().random
    request.headers = {'User-Agent': ua}
    return request

第三步,爬取首页标题、链接地址

使用 feapder 内置方法 xpath 去解析数据即可

def parse(self, request, response):
    # print(response.text)
    card_elements = response.xpath('//div[@class="cc-cd"]')

    # 过滤出对应的卡片元素【什么值得买】
    buy_good_element = [card_element for card_element in card_elements if
                        card_element.xpath('.//div[@class="cc-cd-is"]//span/text()').extract_first() == '什么值得买'][0]

    # 获取内部文章标题及地址
    a_elements = buy_good_element.xpath('.//div[@class="cc-cd-cb nano"]//a')

    for a_element in a_elements:
        # 标题和链接
        title = a_element.xpath('.//span[@class="t"]/text()').extract_first()
        href = a_element.xpath('.//@href').extract_first()

        # 再次下发新任务,并带上文章标题
        yield feapder.Request(href, download_midware=self.download_midware, callback=self.parser_detail_page,
                              title=title)

第四步,爬取详情页面数据

上一步下发新的任务,通过关键字「 callback 」指定回调函数,最后在 parser_detail_page 中对详情页面进行数据解析

def parser_detail_page(self, request, response):
    """
    解析文章详情数据
    :param request:
    :param response:
    :return:
    """
    title = request.title

    url = request.url

    # 解析文章详情页面,获取点赞、收藏、评论数目及作者名称
    author = response.xpath('//a[@class="author-title"]/text()').extract_first().strip()

    print("作者:", author, '文章标题:', title, "地址:", url)

    desc_elements = response.xpath('//span[@class="xilie"]/span')

    print("desc数目:", len(desc_elements))

    # 点赞
    like_count = int(re.findall('d+', desc_elements[1].xpath('./text()').extract_first())[0])
    # 收藏
    collection_count = int(re.findall('d+', desc_elements[2].xpath('./text()').extract_first())[0])
    # 评论
    comment_count = int(re.findall('d+', desc_elements[3].xpath('./text()').extract_first())[0])

    print("点赞:", like_count, "收藏:", collection_count, "评论:", comment_count)

3-5 数据入库

使用上面实例化的数据库对象执行 SQL,将数据插入到数据库中即可

# 插入数据库
sql = "INSERT INTO topic(title,auth,like_count,collection,comment) values('%s','%s','%s','%d','%d')" % (
title, author, like_count, collection_count, comment_count)

# 执行
self.db.execute(sql)

4. 最后

本篇文章通过一个简单的实例,聊到了 feapder 中最简单的爬虫 AirSpider

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据
    +关注

    关注

    8

    文章

    6511

    浏览量

    87598
  • Redis
    +关注

    关注

    0

    文章

    362

    浏览量

    10492
  • 爬虫
    +关注

    关注

    0

    文章

    77

    浏览量

    6517
收藏 人收藏

    评论

    相关推荐

    一款功能强大的串口监视、检测、分析工具,Serial Monitor

    Serial Monitor是一款功能强大的串口监视、检测、分析工具,软件使用更加简单,尤其适合开发人员使用。 
    发表于 05-26 09:05

    史上最好用、功能强大的企业名录搜索软件!

      给大家推荐一款功能强大、好用的企业名录搜索软件,只需注册账号就可以使用,  安装包放百度云盘了, 这款企业名录搜索软件操作简单、数据精准,有需要的可以下载试试!  链接: http://pan.baidu.com/s/1pLJ52iv 密码: azi9  有图有真相!
    发表于 06-07 14:54

    SuperEye一款内置CPU的相机--mangotree出品

    功能强大的相机快速完成扫描二维码快速完成物体测量尺寸。原来几道工序节省至道工序体化解决安装、光源、防尘等问题。SuperEye一款小身板的相机可穿梭在各个小角落缩小空间,减少场地占
    发表于 03-31 10:34

    Python爬虫与Web开发库盘点

    的接口,般我们都是和正则结合使用,如果对速度有要求的话,建议用lmxp,它比bs4 速度要快很多。2.Scrapy爬虫的世界里面有没有懒人专用的框架,当然有啦,scrapy就是其中比较有名的,可以快速
    发表于 05-10 15:21

    爬虫框架scrapy包括了以下组件

    爬虫框架scrapy
    发表于 04-03 15:57

    变频串联谐振试验装置功能强大在哪?

    高压耐压试验装置中,变频串联谐振试验装置是非常理想的选择,。由于变频串联谐振相比传统的耐压试验装置有非常多的优势,因此串联谐振耐压试验装置也深受广大电力工作者的欢迎。变频串联谐振耐压试验装置功能强大
    发表于 11-26 15:19

    【免费试用福利!】一款功能强大的RV-STAR开发板

    了RV-STAR开发板,和电子发烧友合作推出了该板子的评测试用申请活动,接下来就让我们来深入了解下这块板子吧~1.开发板介绍RV-STAR是一款基于GD32VF103 MCU的RISC-V评估开发板,提供了
    发表于 09-02 10:56

    介绍一款功能编程器

    这里介绍的一款功能编程器,功能强大,支持大多数常用的EPROM, EEPROM, FLASH, I2C,PIC, MCS-51,AVR, 93Cxx等系列芯片(超过400种)。硬件成本较低,性价比
    发表于 07-13 08:18

    分享功能强大的APP蓝牙调试器

    数据发送到上位机,省去了串口连线到电脑的步骤。今天分享功能强大的APP,蓝牙调试器,它具备以下功能发送/接收蓝牙串口的数据自定义蓝牙串口 发送/接收数据包格式支持多种控件:如按键,文本,滑动窗口,坐标轴显示等。尤其是自定义数
    发表于 02-22 06:03

    【南京中科微CSM32RV20开发板试用体验】体验小巧体积而功能强大的性能

    手动焊接,芯片虽小,但功能却不小。功能强大如下图:功能强大的吧,4个串口,容量也够大,开发环境与之前开发的ST的IDE有些类似,使用起来有很大的熟悉感吧。由于时间方面的原因,这次报告
    发表于 07-14 21:10

    iPhone功能强大!被抢劫还能找到

    iPhone功能强大!被抢劫还能找到 国外一iphone用户在手机被抢劫后,通过GPS和MobileMe功能后又失而复得。    据被抢劫的用户描述,有三名
    发表于 02-03 11:02 415次阅读

    python爬虫框架有哪些

    本视频主要详细介绍了python爬虫框架有哪些,分别是Django、CherryPy、Web2py、TurboGears、Pylons、Grab、BeautifulSoup、Cola。
    的头像 发表于 03-22 16:13 6459次阅读

    一款最小巧的、功能强大、为电赛而生的FPGA核心模块!

    最小巧的FPGA核心模块,为电赛而生,但用途广泛、灵活! 来源:电子森林 今天给大家推荐一款最小巧的、但功能强大的FPGA核心模块,它为电赛而生,但可以广泛用于FPGA的学习、各种项目应用中,具有
    的头像 发表于 09-11 09:44 3579次阅读

    基于功能强大的子域收集工具

    OneForAll 收集能力强大、支持子域爆破、支持子域验证、支持子域爬取、支持子域置换、支持子域接管、处理功能强大、速度极快、体验良好,是一款集百家之长,功能强大的全面快速子域收集工
    的头像 发表于 10-25 14:50 624次阅读

    介绍一款功能强大的EtherCAT网络仿真软件

    EC-Simulator是一款盟通科技发行的功能强大的实时EtherCAT网络仿真软件,该软件可以通过仿真EtherCAT®从站设备进而实现虚拟化EtherCAT®网络,做到没有真实的EtherCAT®从站硬件同样可以运行EtherCAT®主站应用的效果。
    的头像 发表于 08-09 09:12 783次阅读
    介绍<b class='flag-5'>一款</b><b class='flag-5'>功能强大</b>的EtherCAT网络仿真软件