精华内容
下载资源
问答
  • python爬虫视频弹幕
    2021-11-03 09:38:42

    前言

    利用Python实现抓取芒果TV弹幕,废话不多说。

    让我们愉快地开始吧~

    开发工具

    Python版本: 3.6.4

    相关模块:

    requests模块;

    pandas模块

    以及一些Python自带的模块。

    环境搭建

    安装Python并添加到环境变量,pip安装需要的相关模块即可。

    思路分析

    本文以爬取电影《悬崖之上》为例,讲解如何爬取芒果TV视频的弹幕和评论!

    目标网址

    https://www.mgtv.com/b/335313/12281642.html?fpa=15800&fpos=8&lastp=ch_movie
    

    抓取弹幕

    分析网址

    弹幕数据所在的文件是动态加载的,需要进入浏览器的开发者工具进行抓包,得到弹幕数据所在的真实url。当视频播放一分钟它就会更新一个json数据包,里面包含我们需要的弹幕数据。

    弹幕数据

    获取真实的URL

    https://bullet-ali.hitv.com/bullet/2021/08/14/005323/12281642/0.json\
    https://bullet-ali.hitv.com/bullet/2021/08/14/005323/12281642/1.json
    

    可以发现,每条url的差别在于后面的数字,首条url为0,后面的逐步递增。视频一共120:20分钟,向上取整,也就是121条数据包。

    代码实现

    import requests\
    import pandas as pd\
    \
    headers = {\
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'\
    }\
    df = pd.DataFrame()\
    for e in range(0, 121):\
        print(f'正在爬取第{e}页')\
        resposen = requests.get(f'https://bullet-ali.hitv.com/bullet/2021/08/3/004902/12281642/{e}.json', headers=headers)\
    # 直接用json提取数据\
        for i in resposen.json()['data']['items']:\
            ids = i['ids']  # 用户id\
            content = i['content']  # 弹幕内容\
            time = i['time']  # 弹幕发生时间\
            # 有些文件中不存在点赞数\
            try:  \
                v2_up_count = i['v2_up_count']\
            except:\
                v2_up_count = ''\
            text = pd.DataFrame({'ids': [ids], '弹幕': [content], '发生时间': [time]})\
            df = pd.concat([df, text])\
    df.to_csv('悬崖之上.csv', encoding='utf-8', index=False)
    

    效果展示

    效果

    抓取评论

    分析网页

    芒果TV视频的评论需要拉取到网页下面进行查看。评论数据所在的文件依然是动态加载的,进入开发者工具,按下列步骤进行抓包:Network→js,最后点击查看更多评论。

    抓包

    加载出来的依然是js文件,里面包含评论数据。得到的真实url:

    https://comment.mgtv.com/v4/comment/getCommentList?page=1&subjectType=hunantv2014&subjectId=12281642&callback=jQuery1820749973529821774_1628942431449&_support=10000000&_=1628943290494\
    https://comment.mgtv.com/v4/comment/getCommentList?page=2&subjectType=hunantv2014&subjectId=12281642&callback=jQuery1820749973529821774_1628942431449&_support=10000000&_=1628943296653
    

    其中有差别的参数有page_,page是页数,_是时间戳;url中的时间戳删除后不影响数据完整性,但里面的callback参数会干扰数据解析,所以进行删除。最后得到url:

    https://comment.mgtv.com/v4/comment/getCommentList?page=1&subjectType=hunantv2014&subjectId=12281642&_support=10000000
    

    数据包中每页包含15条评论数据,评论总数是2527,得到最大页为169。

    数据包

    代码实现

    import requests\
    import pandas as pd\
    \
    headers = {\
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'\
    }\
    df = pd.DataFrame()\
    for o in range(1, 170):\
        url = f'https://comment.mgtv.com/v4/comment/getCommentList?page={o}&subjectType=hunantv2014&subjectId=12281642&_support=10000000'\
        res = requests.get(url, headers=headers).json()\
        for i in res['data']['list']:\
            nickName = i['user']['nickName']  # 用户昵称\
            praiseNum = i['praiseNum']  # 被点赞数\
            date = i['date']  # 发送日期\
            content = i['content']  # 评论内容\
            text = pd.DataFrame({'nickName': [nickName], 'praiseNum': [praiseNum], 'date': [date], 'content': [content]})\
            df = pd.concat([df, text])\
    df.to_csv('悬崖之上.csv', encoding='utf-8', index=False)
    

    效果展示

    效果

    更多相关内容
  • Python爬虫 视频弹幕提取过程,通过示例代码介绍的非常详细,需要的朋友可以参考下
  • 主要介绍了Python爬虫 bilibili视频弹幕提取过程详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
  • 先来思考一个问题,B站一个视频弹幕最多会有多少? 比较多的会有2000条吧,这么多数据,B站肯定是不会直接把弹幕和这个视频绑在一起的。 也就是说,有一个视频地址为https://www.bilibili.com/video/av67946325,...
  •  今天我们的爬虫内容是bilibili视频弹幕爬取,并保存到本地为JSON格式,正常爬虫只需要发送请求,解析相应内容,而爬取bilibili的内容,视频弹幕并没在响应的html中,而是保存在一个响应的url中,以XML格式保存,...
  • 利用Python实现抓取腾讯视频弹幕,废话不多说。 让我们愉快地开始吧~ 开发工具 Python版本: 3.6.4 相关模块: requests模块; pandas模块 以及一些Python自带的模块。 环境搭建 安装Python并添加到环境变量,pip...

    前言

    利用Python实现抓取腾讯视频弹幕,废话不多说。

    让我们愉快地开始吧~

    开发工具

    Python版本: 3.6.4

    相关模块:

    requests模块;

    pandas模块

    以及一些Python自带的模块。

    环境搭建

    安装Python并添加到环境变量,pip安装需要的相关模块即可。

    思路分析

    本文以爬取电影《革命者》为例,讲解如何爬取腾讯视频的弹幕和评论!

    目标网址

    https://v.qq.com/x/cover/mzc00200m72fcup.html
    

    抓取弹幕

    分析网址

    依然进入浏览器的开发者工具进行抓包,当视频播放30秒它就会更新一个json数据包,里面包含我们需要的弹幕数据。

    弹幕数据

    得到准确的URL:

    https://mfm.video.qq.com/danmu?otype=json&callback=jQuery19109541041335587612_1628947050538&target_id=7220956568%26vid%3Dt0040z3o3la&session_key=0%2C32%2C1628947057&timestamp=15&_=1628947050569\
    https://mfm.video.qq.com/danmu?otype=json&callback=jQuery19109541041335587612_1628947050538&target_id=7220956568%26vid%3Dt0040z3o3la&session_key=0%2C32%2C1628947057&timestamp=45&_=1628947050572
    

    其中有差别的参数有timestamp_。_是时间戳。timestamp是页数,首条url为15,后面以公差为30递增,公差是以数据包更新时长为基准,而最大页数为视频时长7245秒。依然删除不必要参数,得到URL:

    https://mfm.video.qq.com/danmu?otype=json&target_id=7220956568%26vid%3Dt0040z3o3la&session_key=0%2C18%2C1628418094&timestamp=15&_=1628418086509
    

    代码实现

    import pandas as pd\
    import time\
    import requests\
    \
    headers = {\
        'User-Agent': 'Googlebot'\
    }\
    # 初始为15,7245 为视频秒长,链接以三十秒递增\
    df = pd.DataFrame()\
    for i in range(15, 7245, 30):\
        url = "https://mfm.video.qq.com/danmu?otype=json&target_id=7220956568%26vid%3Dt0040z3o3la&session_key=0%2C18%2C1628418094&timestamp={}&_=1628418086509".format(i)\
        html = requests.get(url, headers=headers).json()\
        time.sleep(1)\
        for i in html['comments']:\
            content = i['content']\
            print(content)\
            text = pd.DataFrame({'弹幕': [content]})\
            df = pd.concat([df, text])\
    df.to_csv('革命者_弹幕.csv', encoding='utf-8', index=False)
    

    效果展示
    效果

    抓取评论

    网页分析

    腾讯视频评论数据在网页底部,依然是动态加载的,需要按下列步骤进入开发者工具进行抓包:

    抓包

    点击查看更多评论后,得到的数据包含有我们需要的评论数据,得到的真实URL:

    https://video.coral.qq.com/varticle/6655100451/comment/v2?callback=_varticle6655100451commentv2&orinum=10&oriorder=o&pageflag=1&cursor=0&scorecursor=0&orirepnum=2&reporder=o&reppageflag=1&source=132&_=1628948867522\
    https://video.coral.qq.com/varticle/6655100451/comment/v2?callback=_varticle6655100451commentv2&orinum=10&oriorder=o&pageflag=1&cursor=6786869637356389636&scorecursor=0&orirepnum=2&reporder=o&reppageflag=1&source=132&_=1628948867523
    

    URL中的参数callback以及_删除即可。重要的是参数cursor,第一条url参数cursor是等于0的,第二条url才出现,所以要查找cursor参数是怎么出现的。经过我的观察,cursor参数其实是上一条url的last参数:

    参数

    代码实现

    import requests\
    import pandas as pd\
    import time\
    import random\
    \
    headers = {\
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'\
    }\
    df = pd.DataFrame()\
    a = 1\
    # 此处必须设定循环次数,否则会无限重复爬取\
    # 281为参照数据包中的oritotal,数据包中一共10条数据,循环280次得到2800条数据,但不包括底下回复的评论\
    # 数据包中的commentnum,是包括回复的评论数据的总数,而数据包都包含10条评论数据和底下的回复的评论数据,所以只需要把2800除以10取整数+1即可!\
    while a < 281:\
        if a == 1:\
            url = 'https://video.coral.qq.com/varticle/6655100451/comment/v2?orinum=10&oriorder=o&pageflag=1&cursor=0&scorecursor=0&orirepnum=2&reporder=o&reppageflag=1&source=132'\
        else:\
            url = f'https://video.coral.qq.com/varticle/6655100451/comment/v2?orinum=10&oriorder=o&pageflag=1&cursor={cursor}&scorecursor=0&orirepnum=2&reporder=o&reppageflag=1&source=132'\
        res = requests.get(url, headers=headers).json()\
        cursor = res['data']['last']\
        for i in res['data']['oriCommList']:\
            ids = i['id']\
            times = i['time']\
            up = i['up']\
            content = i['content'].replace('\n', '')\
            text = pd.DataFrame({'ids': [ids], 'times': [times], 'up': [up], 'content': [content]})\
            df = pd.concat([df, text])\
        a += 1\
        time.sleep(random.uniform(2, 3))\
        df.to_csv('革命者_评论.csv', encoding='utf-8', index=False)
    

    ~完整代码私信获取

    效果展示
    在这里插入图片描述

    展开全文
  • B站爬取弹幕.zip,B站爬取弹幕,新建文件夹,B站爬取弹幕.py,第一次运行必看.txt,实例图片1.png,Bztm_pb2.py,实例图片2.png
  • Bilibili弹幕爬取 分析与弹幕相关的内容 BilibiliSpider源码 run.py 结果截图 QQ音乐热评爬取 QQ音乐热评爬取源码 run.py settting.py 结果截图: 结语: 前言 爬虫的方法很多比如用requests,beautifulsoup,scrapy这些...
  • 前言???? 本文的文字及图片来源于网络,仅...Python爬虫入门教程05:B站视频弹幕的爬取 Python爬虫入门教程06:爬取数据后的词云图制作 PS:如有需要 Python学习资料 以及 解答 的小伙伴可以加点击下方链接自行获取 pyth

    前言💨

    本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。

    前文内容💨

    Python爬虫入门教程01:豆瓣Top电影爬取

    Python爬虫入门教程02:小说爬取

    Python爬虫入门教程03:二手房数据爬取

    Python爬虫入门教程04:招聘信息爬取

    Python爬虫入门教程05:B站视频弹幕的爬取

    Python爬虫入门教程06:爬取数据后的词云图制作

    PS:如有需要 Python学习资料 以及 解答 的小伙伴可以加点击下方链接自行获取
    python免费学习资料以及群交流解答点击即可加入

    基本开发环境💨

    • Python 3.6
    • Pycharm

    相关模块的使用💨

    • jieba
    • wordcloud

    安装Python并添加到环境变量,pip安装需要的相关模块即可。

    一、💥明确需求

    选择 <欢乐喜剧人 第七季> 爬取网友发送的弹幕信息
    在这里插入图片描述

    二、💥分析网页数据

    复制网页中的弹幕,再开发者工具里面进行搜索。
    在这里插入图片描述
    这里面就有对应的弹幕数据。这个url地址有一个小特点,链接包含着 danmu 所以大胆尝试一下,过滤搜索一下 danmu 这个关键词,看一下是否有像类似的内容

    在这里插入图片描述
    通过链接的参数对比,可以看到每个url地址参数的变化
    在这里插入图片描述
    循环遍历就可以实现爬取整个视频的弹幕了。

    三、💥解析数据

    在这里插入图片描述

    在这里想问一下,你觉得请求这个url地址给你返回的数据是什么样的数据?给大家三秒考虑时间。

    1 …2…3…

    好的,现在公布答案了,它是一个 字符串 你没有听错。如果你直接获取 respons.json() 那你会出现报错
    在这里插入图片描述
    那如何才能让它编程json数据呢,毕竟json数据更好提取数据。

    💢第一种方法

    在这里插入图片描述

    • 正则匹配提取中间的数据部分的数据
    • 导入json模块,字符串转json数据
    import requests
    import re
    import json
    import pprint
    url = 'https://mfm.video.qq.com/danmu?otype=json&callback=jQuery19108312825154929784_1611577043265&target_id=6416481842%26vid%3Dt0035rsjty9&session_key=30475%2C0%2C1611577043&timestamp=105&_=1611577043296'
    
    headers = {
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
    }
    response = requests.get(url=url, headers=headers)
    result = re.findall('jQuery19108312825154929784_1611577043265\((.*?)\)', response.text)[0]
    json_data = json.loads(result)
    pprint.pprint(json_data)
    

    在这里插入图片描述

    💢第二种方法

    删除链接中的 callback=jQuery19108312825154929784_1611577043265 就可以直接使用 response.json()

    import requests
    import pprint
    url = 'https://mfm.video.qq.com/danmu?otype=json&target_id=6416481842%26vid%3Dt0035rsjty9&session_key=30475%2C0%2C1611577043&timestamp=105&_=1611577043296'
    
    headers = {
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
    }
    response = requests.get(url=url, headers=headers)
    # result = re.findall('jQuery19108312825154929784_1611577043265\((.*?)\)', response.text)[0]
    json_data = response.json()
    pprint.pprint(json_data)
    

    这样也可以,而且可以让代码更加简单。

    小知识点:
    pprint 是格式化输出模块,让类似json数据输出的效果更加好看

    💥完整实现代码

    import requests
    for page in range(15, 150, 15):
        url = 'https://mfm.video.qq.com/danmu'
        params = {
            'otype': 'json',
            'target_id': '6416481842&vid=t0035rsjty9',
            'session_key': '30475,0,1611577043',
            'timestamp': page,
            '_': '1611577043296',
        }
        headers = {
            'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
        }
        response = requests.get(url=url, params=params, headers=headers)
        json_data = response.json()
        contents = json_data['comments']
        for i in contents:
            content = i['content']
            with open('喜剧人弹幕.txt', mode='a', encoding='utf-8') as f:
                f.write(content)
                f.write('\n')
                print(content)
    

    代码还是比较简单的。没有什么特别的难度。
    在这里插入图片描述
    在这里插入图片描述

    展开全文
  • Python爬虫入门教程01:豆瓣Top电影爬取 Python爬虫入门教程02:小说爬取 Python爬虫入门教程03:二手房数据爬取 Python爬虫入门教程04:招聘信息爬取 PS:如有需要 Python学习资料 以及 解答 的小伙伴可以加点击...

    前言💨

    本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。

    前文内容💨

    Python爬虫入门教程01:豆瓣Top电影爬取

    Python爬虫入门教程02:小说爬取

    Python爬虫入门教程03:二手房数据爬取

    Python爬虫入门教程04:招聘信息爬取

    PS:如有需要 Python学习资料 以及 解答 的小伙伴可以加点击下方链接自行获取
    python免费学习资料以及群交流解答点击即可加入

    基本开发环境💨

    • Python 3.6
    • Pycharm

    相关模块的使用💨

    • requests
    • re

    安装Python并添加到环境变量,pip安装需要的相关模块即可。

    一、💥明确需求

    找一个弹幕比较多的视频爬取
    在这里插入图片描述
    在这里插入图片描述

    二、💥网页数据分析

    以前的B站弹幕视频,点击查看历史的弹幕,会给你返回一个json数据,包含了所有的弹幕内容。
    现在点击历史弹幕数据,同样是有数据加载出来,但是里面的都是乱码了。
    在这里插入图片描述
    在这里插入图片描述
    请求这个链接还是会得到想要的数据内容。
    在这里插入图片描述
    只需要使用正则表达匹配中文字符就可以匹配出来

    三、💥解析数据并多页爬取

    弹幕分页是根据日期来的,当点击 2021-01-01 的使用,返回的给我的数据并不是弹幕数据,而是所有的日期。
    在这里插入图片描述
    那么看到这里有人就会问了,那我想要爬取 2021-01-01 的弹幕数据怎么办?
    在这里插入图片描述
    这两个的url地址是不一样的,seg.so 才是弹幕数据url地址。

    import requests
    import re
    
    
    def get_response(html_url):
        headers = {
            'cookie': '你自己的cookie',
            'origin': 'https://www.bilibili.com',
            'referer': 'https://www.bilibili.com/video/BV19E41197Kc',
            'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36',
        }
        response = requests.get(url=html_url, headers=headers)
        return response
    
    
    def get_date(html_url):
        response = get_response(html_url)
        json_data = response.json()
        date = json_data['data']
        print(date)
        return date
        
    if __name__ == '__main__':
        one_url = 'https://api.bilibili.com/x/v2/dm/history/index?type=1&oid=120004475&month=2021-01'
        get_date(one_url)
    

    返回的数据是json数据,根据字典键值对取值就可以得到相关数据。
    在这里插入图片描述

    四、💥保存数据(数据持久化)

    def main(html_url):
        data = get_date(html_url)
        for date in data:
            url = f'https://api.bilibili.com/x/v2/dm/web/history/seg.so?type=1&oid=120004475&date={date}'
            html_data = get_response(url).text
            result = re.findall(".*?([\u4E00-\u9FA5]+).*?", html_data)
            for i in result:
                with open('B站弹幕.txt', mode='a', encoding='utf-8') as f:
                    f.write(i)
                    f.write('\n')
    

    在这里插入图片描述

    五、💥完整代码

    import requests
    import re
    
    
    def get_response(html_url):
        headers = {
            'cookie': '你自己的cookie',
            'origin': 'https://www.bilibili.com',
            'referer': 'https://www.bilibili.com/video/BV19E41197Kc',
            'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36',
        }
        response = requests.get(url=html_url, headers=headers)
        return response
    
    
    def get_date(html_url):
        response = get_response(html_url)
        json_data = response.json()
        date = json_data['data']
        print(date)
        return date
    
    
    def save(content):
        for i in content:
            with open('B站弹幕.txt', mode='a', encoding='utf-8') as f:
                f.write(i)
                f.write('\n')
                print(i)
    
    
    def main(html_url):
        data = get_date(html_url)
        for date in data:
            url = f'https://api.bilibili.com/x/v2/dm/web/history/seg.so?type=1&oid=120004475&date={date}'
            html_data = get_response(url).text
            result = re.findall(".*?([\u4E00-\u9FA5]+).*?", html_data)
            save(result)
    
    
    if __name__ == '__main__':
        one_url = 'https://api.bilibili.com/x/v2/dm/history/index?type=1&oid=120004475&month=2021-01'
        main(one_url)
    

    💥总结

    1、需要登陆才能查看历史弹幕,爬取时需要携带cookie
    2、可以保存到Excel里面,本文是保存txt文本
    3、保存数据之后可以做词云分析下篇文章再说吧
    展开全文
  • 这篇文章主要介绍了Python爬虫爬取Bilibili弹幕过程解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 先来思考一个问题,B站一个视频弹幕最多会有多少? ...
  • python爬虫b站三国演义全集弹幕
  • python爬虫热点项目(Flask ) asyncore 模块 介绍 这个模块为异步socket的服务器客户端通信提供简单的接口。该模块提供了异步socket服务客户端和服务器的基础架构。相比python原生的socket?api,asyncore具备有很大...
  • @[TOC]python爬取腾讯视频弹幕 前言 编写这个程序的出发点是……研究弹幕文化??额,不是,就是好奇,大家都发些什么,为什么有些弹幕反响很高,我每次发都无人问津(生气) 那还是和上次爬取晋江小说的程序流程...
  • 视频来源:https://www.bilibili.com/video/BV12E411A7ZQ?spm_id_from=333.1007.top_right_bar_window_default_collection.content.click
  • 系列文章目录 提示:写完文章后,目录可以自动...作为弹幕文化的大本营,必须是B站,B站的大部分有趣都来自于弹幕。 目录 与前两个爬虫实践如出一辙,都是一个主函数作为程序入口,并调用子函数。其它几个def定义的
  • Python爬虫视频弹幕&评论爬取) 前言 python课设大作业内容。基本所有视频都能爬取(换汤不换药)。 本案例视频BV号为:BV1MZ4y137oQ.python爬虫爬取B站视频评论内容(包含用户名,点赞数,评论时间等),...
  • 前言最近时间也是比较多,出于某些原因,对几个视频网站的弹幕进行了抓取。今天也是把手头的事情做完了,想着写一篇文章,也算对是一篇小小的总结。(要是有什么不对的地方,还请斧正)正文弹幕数据的格式根据网站视频...
  • 最近在学习爬虫,就拿我充了VIP的腾讯视频搞搞,挑个我追了好久的《天行九歌》开干。 第一步:简化url 尝试暴力删掉目标网址中不影响最终结果的部分参数(删了试试,结果不变,是无关参数) 原URL:...
  • 斗鱼一:前言这些天一直想做一个斗鱼爬取弹幕,但是一直考试时间不够,而且这个斗鱼的api接口虽然开放了但是我在github上没有找到可以完美实现连接。我看了好多文章,学了写然后总结一下。也为后面数据分析做准备,...
  • python爬取某站弹幕并制作词云
  • 只用改网站就可以。 非常方便。 # -*- codeing = utf-8 -*- # @Time : 2021/1/23 18:40 ... url = "https://www.bilibili.com/video/BV1kh411y78a" #此处个更换网址,只适用与哔哩哔哩的视频 data
  • Python爬取某站视频弹幕或者腾讯视频弹幕,绘制词云图 [知识点]: 1. 爬虫基本流程 2. 正则 3. requests >>> pip install requests 4. jieba >>> pip install jieba 5. imageio >>> pip ...
  • 如果安装python第三方模块: win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车 在pycharm中点击Terminal(终端) 输入安装命令 如何配置pycharm里面的python解释器? 选择...
  • 网页分析本文以爬取《脱口秀大会 第3季》最后一期视频弹幕为例,首先通过以下步骤找到存放弹幕的真实url。通过删减各参数,发现仅有timestamp参数的变化会影响弹幕数据的爬取,且timestamp参数是首项为15,公差为30...
  • Python工程师-APP实战思维导图,便捷整理思路,目标任务,SSL Pinning技术和Xposed框架,多任务端

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,211
精华内容 884
热门标签
关键字:

python爬虫视频弹幕