用Python脚本自动爬取Bilibili小视频,你学会了吗?

B站在小视频功能处提供了 API 接口,今天的任务爬取Bilibili视频~

B 站视频网址:https://vc.bilibili.com/p/eden/rank#/?tab=全部

image.png

此次爬取视频,我们爬取前100个~

我们做好前期准备~

1:Chrome 浏览器 (能使用开发者模式的浏览器都行)
2:Vim (编辑器任选,老实人比较喜欢Vim界面,所以才用这个啦)
3:Python3 开发环境
4:Kali Linux (其实随便一个操作系统都行啦)
5:API 寻找 && 提取

我们通过 F12 打开开发者模式,然后在 Networking -> Name 字段下找到这个链接:

http://api.vc.bilibili.com/board/v1/ranking/top?page_size=10&next_offset=&tag=%E4%BB%8A%E6%97%A5%E7%83%AD%E9%97%A8&platform=pc

我们查看一下 Headers 属性
image.png

我们可以看到Request URL这个属性值,我们向下滑动加载视频的过程中,发现只有这段url是不变的。

http://api.vc.bilibili.com/board/v1/ranking/top?

next_offset 会一直变化,我们可以猜测,这个可能就是获取下一个视频序号,我们只需要把这部分参数取出来,把 next_offset 写成变量值,用 JSON 的格式返回到目标网页即可。
image.png

代码实现

我们通过上面的尝试写了段代码,发现 B 站在一定程度上做了反爬虫操作,所以我们需要先获取 headers 信息,否则下载下来的视频是空的,然后定义 params 参数存储 JSON 数据,然后通过 requests.get 去获取其参数值信息,用 JSON 的格式返回到目标网页即可,实现代码如下:

def get_json(url):
 headers = {
 'User-Agent': 
 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'
 }

 params = {
 'page_size': 10,
 'next_offset': str(num),
 'tag': '今日热门',
 'platform': 'pc'
 }

 try:
 html = requests.get(url,params=params,headers=headers)
 return html.json()

 except BaseException:
 print('request error')
 pass

为了能够清楚的看到我们下载的情况,我们折腾了一个下载器上去,实现代码如下:

def download(url,path):
 start = time.time() # 开始时间
 size = 0
 headers = {
 'User-Agent': 
 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'
 }

 response = requests.get(url,headers=headers,stream=True) # stream属性必须带上
 chunk_size = 1024 # 每次下载的数据大小
 content_size = int(response.headers['content-length']) # 总大小
 if response.status_code == 200:
 print('[文件大小]:%0.2f MB' %(content_size / chunk_size / 1024)) # 换算单位
 with open(path,'wb') as file:
 for data in response.iter_content(chunk_size=chunk_size):
 file.write(data)
 size += len(data) # 已下载的文件大小

效果如下:


image.png

将上面的代码进行汇总,整个实现过程如下:

#!/usr/bin/env python#-*-coding:utf-8-*-import requestsimport randomimport timedef get_json(url):
 headers = {
 'User-Agent': 
 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'
 }

 params = {
 'page_size': 10,
 'next_offset': str(num),
 'tag': '今日热门',
 'platform': 'pc'
 }

 try:
 html = requests.get(url,params=params,headers=headers)
 return html.json()

 except BaseException:
 print('request error')
 passdef download(url,path):
 start = time.time() # 开始时间
 size = 0
 headers = {
 'User-Agent': 
 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'
 }

 response = requests.get(url,headers=headers,stream=True) # stream属性必须带上
 chunk_size = 1024 # 每次下载的数据大小
 content_size = int(response.headers['content-length']) # 总大小
 if response.status_code == 200:
 print('[文件大小]:%0.2f MB' %(content_size / chunk_size / 1024)) # 换算单位
 with open(path,'wb') as file:
 for data in response.iter_content(chunk_size=chunk_size):
 file.write(data)
 size += len(data) # 已下载的文件大小

 if __name__ == '__main__':
 for i in range(10):
 url = 'http://api.vc.bilibili.com/board/v1/ranking/top?'
 num = i*10 + 1
 html = get_json(url)
 infos = html['data']['items']
 for info in infos:
 title = info['item']['description'] # 小视频的标题
 video_url = info['item']['video_playurl'] # 小视频的下载链接
 print(title)

 # 为了防止有些视频没有提供下载链接的情况
 try:
 download(video_url,path='%s.mp4' %title)
 print('成功下载一个!')
 
 except BaseException:
 print('凉凉,下载失败')
 pass

 time.sleep(int(format(random.randint(2,8)))) # 设置随机等待时间

爬取效果图如下:


image.png

结果:

image.png

似乎爬取的效果还可以,当然喜欢的朋友不要忘记点赞分享转发哦。

豆瓣.png
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 大家平时空闲的时候都会有刷小视频的习惯吧,我也会在B站上看一些视频,今天就和大家分享一个用Python写的一个自动...
    叫我小包总阅读 1,817评论 0 0
  • B 站小视频网址:http://vc.bilibili.com/p/eden/rank#/?tab=%E5%85%...
    失忆的蝴蝶阅读 1,091评论 0 2
  • 文/西秦木子 杯子还是那个杯子 还在原来的地方 我坐在对面 时不时看一眼窗外变幻的天空 深呼吸,让心情平静 让大把...
    西秦木子阅读 344评论 0 5
  • 我怕别人说我丑于是我先自己说自己丑 我怕别人说我穷于是我先自己说自己穷 我怕别人欺骗伤害我于是我先试探别人保护自己...
    Gardenia_3094阅读 159评论 0 0
  • 不对别人的生活过度关心,我的关注点在自己身上,我在意自己舒不舒服,远超过好不好看。因为舒服所以自如,因为自如所以好...
    有点饿有点困阅读 367评论 0 0

友情链接更多精彩内容