0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Python爬虫:寻找并分析百度云的转存api

马哥Linux运维 来源:未知 作者:李倩 2018-03-31 09:18 次阅读

寻找并分析百度云的转存api

首先你得有一个百度云盘的账号,然后登录,用浏览器(这里用火狐浏览器做示范)打开一个分享链接。F12打开控制台进行抓包。手动进行转存操作:全选文件->保存到网盘->选择路径->确定。点击【确定】前建议先清空一下抓包记录,这样可以精确定位到转存的api,这就是我们中学时学到的【控制变量法】2333。

可以看到上图中抓到了一个带有 “transfer” 单词的 post 请求,这就是我们要找的转存(transfer)api 。接下来很关键,就是分析它的请求头和请求参数,以便用代码模拟

点击它,再点击右边的【Cookies】就可以看到请求头里的 cookie 情况。

cookie分析

因为转存是登录后的操作,所以需要模拟登录状态,将与登录有关的 cookie 设置在请求头里。我们继续使用【控制变量法】,先将浏览器里关于百度的 cookie 全部删除(在右上角的设置里面,点击【隐私】,移除cookies。具体做法自己百度吧。)

然后登录,右上角进入浏览器设置->隐私->移除cookie,搜索 "bai" 观察 cookie 。这是所有跟百度相关的 cookie ,一个个删除,删一个刷新一次百度的页面,直到删除了 BDUSS ,刷新后登录退出了,所以得出结论,它就是与登录状态有关的 cookie 。

同理,删除掉 STOKEN 后,进行转存操作会提示重新登录。所以,这两个就是转存操作所必须带上的 cookie 。

弄清楚了 cookie 的情况,可以像下面这样构造请求头。

除了上面说到的两个 cookie ,其他的请求头参数可以参照手动转存时抓包的请求头。这两个 cookie 预留出来做参数的原因是 cookie 都是有生存周期的,过期了需要更新,不同的账号登录也有不同的 cookie 。

参数分析

接下来分析参数,点击【Cookies】右边的【Params】查看参数情况。如下:

上面的query string(也就是?后跟的参数)里,除了框起来的shareid、from、bdstoken需要我们填写以外,其他的都可以不变,模拟请求的时候直接抄下来。

前两个与分享的资源有关,bdstoken与登录的账号有关。下面的form data里的两个参数分别是资源在分享用户的网盘的所在目录和刚刚我们点击保存指定的目录。

所以,需要我们另外填写的参数为:shareid、from、bdstoken、filelist 和 path,bdstoken 可以手动转存抓包找到,path 根据你的需要自己定义,前提是你的网盘里有这个路径。其他三个需要从分享链接里爬取,这个将在后面的【爬取shareid、from、filelist,发送请求转存到网盘】部分中进行讲解。

搞清楚了参数的问题,可以像下面这样构造转存请求的 url 。

爬取shareid、from、filelist,发送请求转存到网盘

以上面这个资源链接为例(随时可能被河蟹,但是没关系,其他链接的结构也是一样的),我们先用浏览器手动访问,F12 打开控制台先分析一下源码,看看我们要的资源信息在什么地方。控制台有搜索功能,直接搜 “shareid”。

定位到4个shareid,前三个与该资源无关,是其他分享资源,最后一个定位到该 html 文件的最后一个标签块里。双击后可以看到格式化后的 js 代码,可以发现我们要的信息全都在里边。如下节选:

可以看到这两行

yunData.PATH 只指向了一个路径信息,完整的 filelist 可以从 yunData.FILEINFO 里提取,它是一个 json ,list 里的信息是Unicode编码的,所以在控制台看不到中文,用Python代码访问并获取输出一下就可以了。

直接用request请求会收获 404 错误,可能是需要构造请求头参数,不能直接请求,这里博主为了节省时间,直接用selenium的webdriver来get了两次,就收到了返回信息。第一次get没有任何 cookie ,但是baidu 会给你返回一个BAIDUID ,在第二次 get 就可以正常访问了。

yunData.FILEINFO 结构如下,你可以将它复制粘贴到json.cn里,可以看得更清晰。

清楚了这三个参数的位置,我们就可以用正则表达式进行提取了。代码如下:

爬取到了这三个参数,就可以调用之前的 transfer 方法进行转存了。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • python
    +关注

    关注

    51

    文章

    4666

    浏览量

    83433
  • 百度云
    +关注

    关注

    0

    文章

    52

    浏览量

    7643

原文标题:Python爬虫实战:抓取并保存百度云资源(附代码)

文章出处:【微信号:magedu-Linux,微信公众号:马哥Linux运维】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    百度地图静态API试用程序

    本帖最后由 Mercurial 于 2014-2-25 09:37 编辑 想用百度地图静态API做个公交车远程监控的,做个小程序验证下可行性。[/hide][hide=d1000][/hide]
    发表于 02-20 15:26

    Labview可以调用百度地图API吗?

    如题,Labview可以调用百度地图API,怎么调用?有例程就最好,新手求帮助
    发表于 07-19 15:44

    新手求助,如何用Labview调用百度地图API

    怎样用Labview调用百度地图API,同时在界面上显示硬件传回的经纬度和速度值,还要在地图中定位
    发表于 04-06 10:49

    百度地图离线API调用教程

    如何制作呢,今天就教大家简单实用的方法制作离线百度地图,绝对简单,甚至不需要具备任何编程知识都行。 1、材料准备水经注百度电子地图下载器 百度地图离线API:BaiduMap V1.3
    发表于 01-24 09:42

    百度云和百度开放是什么关系?愚人节不能不说的秘密。

    百度云和百度开放是什么关系?愚人节不能不说的秘密。
    发表于 03-29 15:23

    机械,求ADMAS软件的百度盘资料,有的兄弟快快分享下,谢谢

    机械,求ADMAS软件的百度盘资料,有的兄弟快快分享下,谢谢机械,求ADMAS软件的百度盘资料,有的兄弟快快分享下,谢谢机械,求ADMAS软件的
    发表于 02-28 19:42

    Python助力百度无人车 人工智能时代到来

    今年7月份,在“百度AI开发者大会”上,百度CEO李彦宏亲自乘坐百度无人车,在真实路况下演示了百度无人驾驶技术,预示着人工智能时代的到来。百度
    发表于 12-13 14:48

    Python数据爬虫学习内容

    现行环境下大数据与人工智能的重要依托还是庞大的数据和分析采集,就如淘宝、京东、百度、腾讯级别的企业能够通过数据可观的用户群体获取需要的数据。而一般企业可能就没有这种通过产品获取数据的能力和条件。因此
    发表于 05-09 17:25

    Python爬虫初学者需要准备什么?

    现行环境下大数据与人工智能的重要依托还是庞大的数据和分析采集,类似于淘宝 京东 百度 腾讯级别的企业 能够通过数据可观的用户群体获取需要的数据,而一般企业可能就没有这种通过产品获取数据的能力和条件
    发表于 06-20 17:14

    跪求DSC2015的下载百度资源

    跪求DSC2015的下载百度资源,在网上找的下载链接都打不开,跪求各位大神帮忙了
    发表于 05-16 15:15

    使用Python爬虫实现百度图片自动下载的方法

    如何用Python爬虫实现百度图片自动下载?
    发表于 05-23 14:55

    百度智能有什么计划?

    AI、大数据和计算,三大技术发展多年后,被颇具创意地归纳成ABC概念,读起来朗朗上口。不过,新技术总是层出不穷,ABC概念出现没多久,5G、物联网、边缘计算又纷至沓来。现在,将ABC作为技术三大战略的百度,又将这些技术归纳成一个新的概念:ABC+X。
    发表于 09-11 11:52

    0基础入门Python爬虫实战课

    大数据时代,有两种技能可以给自己增加竞争优势。一种是数据分析,旨在挖掘数据的价值,做出最佳决策;另一种是数据获取,即爬虫。学会它,相当于在数据时代掌握了攫取能源的最有效方式。谷歌百度等搜索引擎的崛起
    发表于 07-25 09:28

    百度API调用(三)——语音识别 精选资料推荐

    python 调用百度语音识别API 一、开通百度语音技术接口服务基本过程:1、打开百度ai开放平台 https://ai.baidu.co
    发表于 08-18 06:44

    python网络爬虫概述

    大的网络覆盖率,如 搜索引擎(百度、雅虎和谷歌等…)。聚焦网络爬虫:有目标性,选择性地访问万维网来爬取信息。增量式网络爬虫:只爬取新产生的或者已经更新的页面信息。特点:耗费少,难度大深层网络
    发表于 03-21 16:51