百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程文章 > 正文

动态爬虫(ajax)-爬取bilibili热门视频信息

qiyuwang 2024-11-01 14:41 21 浏览 0 评论

前言

使用python爬虫爬取bilibli每日热门视频的数据
使用的第三方软件包括requests、my_fake_useragent

一、页面分析

在进行爬虫之前,我们先要对要爬取的页面进行分析,找到想要使用的接口
bilibili热门排行的地址:https://www.bilibili.com/v/popular/all?spm_id_from=333.851.b_7072696d61727950616765546162.3

如果我们直接进行http请求

import requests

url = 'https://www.bilibili.com/v/popular/all?' \
      'spm_id_from=333.851.b_7072696d61727950616765546162.3'
response = requests.get(url)
print(response.text)

你会发现,返回回来的html里面什么信息都没有,更别提去处理了

这是因为,这个页面是使用动态html来进行生成的。你去请求这个url,只会返回一个框架,里面的内容是由ajax&js动态生成的
所以,我们要捕获对方用来动态生成页面的接口,以此来请求信息
————————————————————————————————————————

那么,怎么捕获这个接口呢?
在这个页面中,我们点击F12进入开发者模式,选取network栏,过滤XHR(即ajax)

我们发现,每加载一批新的视频,页面都会调用一个接口

瞅一眼response

可以看到,所有视频的信息都在里面
所以,可以确定使用接口名叫做https://api.bilibili.com/x/web-interface/popular
ps和pn都是参数,ps是page_size代表每一页的视频个数,pn是page_num,代表请求的页数
为了确定接口的可用性,用浏览器请求一次试试

灰常成功,可以开心地写程序了!

二、编写爬虫

这个爬虫的大概流程就是访问对于每一页发送一个请求,解析数据后保存到/popular/page_n文件夹下

1.引入库

import requests
import my_fake_useragent
import time
import json
import os

2.发出请求

2.1生成请求头

def get_headers():
    """
    生成响应头
    :return: 生成的响应头
    """
    # 随机生成user_agent
    user_agent = my_fake_useragent.UserAgent()
    ua = str(user_agent.random())
    headers = {
        'user-agent': ua
    }
    return headers

2.2发出请求并获取响应

def get_response(url, page=1, headers=get_headers()):
    """
    请求该url并获得响应
    :param url: 要请求的url
    :param page: 要请求的页数
    :param headers: 请求头部
    :return: 对于请求的响应
    """
    # 请求的参数
    params = {
        'ps': '20',
        'pn': str(page)
    }
    try:
        # 发出请求
        response = requests.get(url=url, params=params, headers=headers)
    except Exception as e:
        # 异常识别
        return None
    return response

3.解析响应的内容

刚刚返回的响应特别乱,根本看不懂里面的元素是怎么排列的,所以先去json在线解析解析一下

可以看到,list里面存储了所有的视频对象(Object),我们只需要把它取出来再遍历就行了

def parse_text(text=None):
    """
    解析响应的文本
    :param text:响应的文本
    :return: 由信息字典组成的列表[{info1}, {info2}, {info3}]
    """
    # 将json文件解析为字典
    data = json.loads(text)

    """
    data['data']是一个字典,包含若干数据
    data['data']['list']是一个字典组成的list,包含每个视频的信息
    """
    ret_list = []
    temp_dict = {}

    # 提取数据,生成返回列表
    for list_dict in data['data']['list']:
        # 保存标题
        temp_dict['title'] = list_dict['title']
        # 保存封面图片的地址
        temp_dict['pic'] = list_dict['pic']
        # 保存描述
        temp_dict['desc'] = list_dict['desc']

        # 保存投稿用户id
        temp_dict['name'] = list_dict['owner']['name']

        # 保存观看量
        temp_dict['view'] = list_dict['stat']['view']
        # 保存收藏数
        temp_dict['favorite'] = list_dict['stat']['favorite']
        # 保存投币数
        temp_dict['coin'] = list_dict['stat']['coin']
        # 保存分享数
        temp_dict['share'] = list_dict['stat']['share']
        # 保存点赞数
        temp_dict['like'] = list_dict['stat']['like']

        # 保存BV号
        temp_dict['bvid'] = list_dict['bvid']

        # 将字典添加到返回列表
        ret_list.append(temp_dict.copy())
        # 清空字典
        temp_dict.clear()

    return ret_list

4.保存提取的信息到本地

ef save_infos(infos=None, page=1, main_path=None):
    """
    保存信息到指定的文件夹
    :param main_path: 主路径
    :param infos: 要保存的信息
    :param page: 要保存到的文件夹序号
    """
    # 让编译器识别一下列表,好把里面的方法识别出来。。。手懒
    # infos = [].append(infos)

    # 创建子文件夹
    dir_path = main_path + '/page%d' % page
    if not os.path.exists(dir_path):
        os.mkdir(dir_path)

    # 遍历读取到的信息
    for info in infos:
        # 以bv号命名文件
        file_path = dir_path + '/' +info['bvid'] + '.text'
        # 打开文件
        with open(file_path, 'w', encoding='utf-8') as fp:
            # 遍历字典
            for k, v in info.items():
                fp.write('%s: %s' % (str(k), str(v)))
                fp.write('\n')

5.看看主函数

def main():

    # 需要请求的url
    # 'https://api.bilibili.com/x/web-interface/popular?ps=20&pn=1'
    url = 'https://api.bilibili.com/x/web-interface/popular'

    # 创建主文件夹
    main_path = url.split('/')[-1]
    if not os.path.exists(main_path):
        os.mkdir(main_path)

    # 设定起始页码
    page_start = int(input('start: '))
    page_end = int(input('end: '))
    # page_start = 1
    # page_end = 1

    # 主循环开始
    # 主循环开始
    for i in range(page_end - page_start + 1):
        page_num = i + 1
        # 请求页面并获得响应
        print('第%d页开始下载……' % page_num)
        response = get_response(url=url, page=page_num, headers=get_headers())
        # 判断请求是否成功
        if not(response is None) and response.status_code == 200:
            # 请求成功
            # 获取并解析响应的内容
            text = response.text
            infos = parse_text(text)
            save_infos(infos=infos, page=page_num, main_path=main_path)
            print('第%d页下载完成' % page_num)
        else:
            # 请求失败
            print('!!第%d页请求失败!!' % page_num)
            continue

        # 文明爬虫!!!
        time.sleep(3)
if __name__ == '__main__':
    print('开始')
    start_time = time.time()
    main()
    end_time = time.time()
    print('完成<%f>' % (end_time - start_time))

三、运行结果

感谢阅读!!!

多说一句,很多人学Python过程中会遇到各种烦恼问题,没有人解答容易放弃。小编是一名python开发工程师,这里有我自己整理了一套最新的python系统学习教程,包括从基础的python脚本到web开发、爬虫、数据分析、数据可视化、机器学习等。想要这些资料的可以关注小编,并在后台私信小编:“01”即可领取。

相关推荐

# 安装打开 ubuntu-22.04.3-LTS 报错 解决方案

#安装打开ubuntu-22.04.3-LTS报错解决方案WslRegisterDistributionfailedwitherror:0x800701bcError:0x80070...

利用阿里云镜像在ubuntu上安装Docker

简介:...

如何将Ubuntu Kylin(优麒麟)19.10系统升级到20.04版本

UbuntuKylin系统使用一段时间后,有新的版本发布,如何将现有的UbuntuKylin系统升级到最新版本?可以通过下面的方法进行升级。1.先查看相关的UbuntuKylin系统版本情况。使...

Ubuntu 16.10内部代号确认为Yakkety Yak

在正式宣布Ubuntu16.04LTS(XenialXerus)的当天,Canonical创始人MarkShuttleworth还非常开心的在个人微博上宣布Ubuntu下个版本16.10的内...

如何在win11的wsl上装ubuntu(怎么在windows上安装ubuntu)

在Windows11的WSL(WindowsSubsystemforLinux)上安装Ubuntu非常简单。以下是详细的步骤:---...

Win11学院:如何在Windows 11上使用WSL安装Ubuntu

IT之家2月18日消息,科技媒体pureinfotech昨日(2月17日)发布博文,介绍了3中简便的方法,让你轻松在Windows11系统中,使用WindowsSubs...

如何查看Linux的IP地址(如何查看Linux的ip地址)

本头条号每天坚持更新原创干货技术文章,欢迎关注本头条号"Linux学习教程",公众号名称“Linux入门学习教程"。...

怎么看电脑系统?(怎么看电脑系统配置)

要查看电脑的操作系统信息,可以按照以下步骤操作,根据不同的操作系统选择对应的方法:一、Windows系统通过系统属性查看右键点击桌面上的“此电脑”(或“我的电脑”)图标,选择“属性”。在打开的...

如何查询 Linux 内核版本?这些命令一定要会!

Linux内核是操作系统的核心,负责管理硬件资源、调度进程、处理系统调用等关键任务。不同的内核版本可能支持不同的硬件特性、提供新的功能,或者修复了已知的安全漏洞。以下是查询内核版本的几个常见场景:...

深度剖析:Linux下查看系统版本与CPU架构

在Linux系统管理、维护以及软件部署的过程中,精准掌握系统版本和CPU架构是极为关键的基础操作。这些信息不仅有助于我们深入了解系统特性、判断软件兼容性,还能为后续的软件安装、性能优化提供重要依据。接...

504 错误代码解析与应对策略(504错误咋解决)

在互联网的使用过程中,用户偶尔会遭遇各种错误提示,其中504错误代码是较为常见的一种。504错误并非意味着网站被屏蔽,它实际上是指服务器在规定时间内未能从上游服务器获取响应,专业术语称为“Ga...

猎聘APP和官网崩了?回应:正对部分职位整改,临时域名可登录

10月12日,有网友反映猎聘网无法打开,猎聘APP无法登录。截至10月14日,仍有网友不断向猎聘官方微博下反映该情况,而猎聘官方微博未发布相关情况说明,只是在微博内对反映该情况的用户进行回复,“抱歉,...

域名解析的原理是什么?域名解析的流程是怎样的?

域名解析是网站正常运行的关键因素,因此网站管理者了解域名解析的原理和流程对于做好域名管理、解决常见解析问题,保障网站的正常运转十分必要。那么域名解析的原理是什么?域名解析的流程是怎样的?接下来,中科三...

Linux无法解析域名的解决办法(linux 不能解析域名)

如果由于误操作,删除了系统原有的dhcp相关设置就无法正常解析域名。  此时,需要手动修改配置文件:  /etc/resolv.conf  将域名解析服务器手动添加到配置文件中  该文件是DNS域名解...

域名劫持是什么?(域名劫持是什么)

域名劫持是互联网攻击的一种方式,通过攻击域名解析服务器(DNS),或伪造域名解析服务器(DNS)的方法,把目标网站域名解析到错误的地址从而实现用户无法访问目标网站的目的。说的直白些,域名劫持,就是把互...

取消回复欢迎 发表评论: