Python爬取下载m3u8加密视频,原来这么简单

liftword3个月前 (03-24)技术文章13

1.前言

爬取视频的时候发现,现在的视频都是经过加密(m3u8),不再是mp4或者avi链接直接在网页显示,都是经过加密形成ts文件分段进行播放。

今天就教大家如果通过python爬取下载m3u8加密视频。

2.分析网页

1.电影视频来源


http://www.caisetv.com/


2.分析m3u8加密目录


http://www.caisetv.com/dongzuopian/chaidanzhuanjia/0-1.html




在视频播放的页面,通过F12可以查看网络数据包


https://xigua-cdn.haima-zuida.com/20210219/19948_fcbc225a/1000k/hls/index.m3u8




这里的ts就电影的加密分段视频


https://xigua-cdn.haima-zuida.com/20210219/19948_fcbc225a/1000k/hls/

上面的m3u8链接掉index.m3u8后,在拼上075a34cccdd000000.ts等ts名称就是分段视频的链接

如下所示:


https://xigua-cdn.haima-zuida.com/20210219/19948_fcbc225a/1000k/hls/075a34cccdd000000.ts

通过浏览器把这个分段视频下载后打开:






所以只要把所有的ts下载并合并就是完整的电影视频!!!

3.下载ts

1.下载ts分段视频

刚刚已经把ts的所有名称下载下来了






接下来通过python代码去读取这个文件,提取出名称,拼接链接后下载保存到一个文件夹里!


headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; Win64; x64; rv:84.0) Gecko/20100101 Firefox/84.0',}

###下载ts文件
def download(url,name):
    r = requests.get(url, headers=headers)
    with open(name+"", "wb") as code:
        code.write(r.content)

with open("index.m3u8","r") as f:
    ts_list = f.readlines()

#去掉前面没用的信息
ts_list = ts_list[5:]
urlheader="https://xigua-cdn.haima-zuida.com/20210219/19948_fcbc225a/1000k/hls/"
count = 0
for i in ts_list:
    if "#" not in i:
        i = i.replace("\n","")
        download(urlheader+""+i,"cdzj2/"+str(count)+".ts")
        count = count+1
        print(count)




这样就可以把ts文件全部下载下来,但是一个一个下载很慢,下面通过多线程下载,提升下载速度!!!

2.多线程下载ts视频


for i in ts_list:
    if "#" not in i:
        i = i.replace("\n","")
        n = i[-7:]
        threading.Thread(target=download, args=(urlheader+""+i,"cdzj2/"+str(n),)).start()
        #download(urlheader+""+i,"cdzj2/"+str(count)+".ts")




通过多线程很快就可以将这些ts文件下载到本地!!!

4.合并ts

cmd合并文件


copy /b   *.ts   new.mp4

通过这个命令(cmd终端中运行),在含有ts文件的文件夹中就可以将ts文件合并(按名称顺序进行排列合并),并保存成new.mp4




5.总结

1.分析m3u8加密文件
2.python下载ts文件
3.cmd合并ts保存成mp4格式

相关文章

python爬取电子课本,送给居家上课的孩子们

在这个全民抗疫的日子,中小学生们也开启了居家上网课的生活。很多没借到书的孩子,不得不在网上看电子课本,有的电子课本是老师发的网络链接,每次打开网页去看,既费流量,也不方便。今天我们就利用python的...

python爬虫教程之爬取当当网 Top 500 本五星好评书籍

我们使用 requests 和 re 来写一个爬虫作为一个爱看书的你(说的跟真的似的)怎么能发现好书呢?所以我们爬取当当网的前 500 本好五星评书籍怎么样?ok接下来就是学习 python 的正确姿...

python利用Selenium爬取电影天堂实现电影自由

前几期我们实现了小说,音乐自由,当然不能少了影视自由啦,这期我们就来看看如何利用python实现电影自由。首先老办法我们打开电影天堂的网站,右击检查查看下网站的源码经过分析后暗暗窃喜,跟之前一个套路,...

Python“三步”即可爬取,毋庸置疑

声明:本实例仅供学习,切忌遵守robots协议,请不要使用多线程等方式频繁访问网站。#第一步导入模块import reimport requests#第二步获取你想爬取的网页地址,发送请求,获取网页内...

这样用Python爬虫爬取淘宝,京东商品信息,速度快的一皮

无私分享全套Python爬虫干货,如果你也想学习Python,可私信小编: 资料分享 获取。作为一个快乐的爬爬,爬来爬去当然是乐此不疲的事情,这样爬速度真正的快哦。使用的工具(Python+pycha...

python爬取并分析淘宝商品信息

python爬取并分析淘宝商品信息背景介绍一、模拟登陆二、爬取商品信息1. 定义相关参数2. 分析并定义正则3. 数据爬取三、简单数据分析1.导入库2.中文显示3.读取数据4.分析价格分布5.分析销售...