侯体宗的博客
  • 首页
  • Hyperf版
  • beego仿版
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

python爬虫爬取快手视频多线程下载功能

Python  /  管理员 发布于 7年前   210

环境: python 2.7 + win10

工具:fiddler postman 安卓模拟器

首先,打开fiddler,fiddler作为http/https 抓包神器,这里就不多介绍。

配置允许https

 

配置允许远程连接 也就是打开http代理

 

电脑ip: 192.168.1.110

然后 确保手机和电脑是在一个局域网下,可以通信。由于我这边没有安卓手机,就用了安卓模拟器代替,效果一样的。

打开手机浏览器,输入192.168.1.110:8888   也就是设置的代理地址,安装证书之后才能抓包

 

安装证书之后,在 WiFi设置 修改网络 手动指定http代理

 

保存后就可以了,fiddler就可以抓到app的数据了,打开快手 刷新,可以 看到有很多http请求进来,一般接口地址之类的很明显的,可以看到 是json类型的

 

http post请求,返回数据是json ,展开后发现一共是20条视频信息,先确保是否正确,找一个视频链接看下。

 

ok 是可以播放的 很干净也没有水印。

那么现在打开 postman 来模拟这个post 看看有没有检验参数

 

一共是这么多参数,我以为 client_key 和 sign 会验证...可是 后面 发现我错了 啥也没验证 就这样提交过去就行...

form-data 方式提交则报错

 

那换 raw 这种

 

报错信息不一样了,试试加上 headers

 

nice 成功返回数据,我又多试几次,发现每次返回结果不一样,都是 20个视频,刚才其中post参数中 有个page=1 可能一直都是第一页 就像一直在手机上不往下翻了 就开始一直刷新那样,反正 也无所谓,只要返回数据 不重复就好。

下面就开始上代码

# -*-coding:utf-8-*-# author : Corleoneimport urllib2,urllibimport json,os,re,socket,time,sysimport Queueimport threadingimport logging# 日志模块logger = logging.getLogger("AppName")formatter = logging.Formatter('%(asctime)s %(levelname)-5s: %(message)s')console_handler = logging.StreamHandler(sys.stdout)console_handler.formatter = formatterlogger.addHandler(console_handler)logger.setLevel(logging.INFO)video_q = Queue.Queue()  # 视频队列def get_video():  url = "http://101.251.217.210/rest/n/feed/hot?app=0&lon=121.372027&c=BOYA_BAIDU_PINZHUAN&sys=ANDROID_4.1.2&mod=HUAWEI(HUAWEI%20C8813Q)&did=ANDROID_e0e0ef947bbbc243&ver=5.4&net=WIFI&country_code=cn&iuid=&appver=5.4.7.5559&max_memory=128&oc=BOYA_BAIDU_PINZHUAN&ftt=&ud=0&language=zh-cn&lat=31.319303 "  data = {    'type': 7,    'page': 2,    'coldStart': 'false',    'count': 20,    'pv': 'false',    'id': 5,    'refreshTimes': 4,    'pcursor': 1,    'os': 'android',    'client_key': '3c2cd3f3',    'sig': '22769f2f5c0045381203fc57d1b5ad9b'  }  req = urllib2.Request(url)  req.add_header("User-Agent", "kwai-android")  req.add_header("Content-Type", "application/x-www-form-urlencoded")  params = urllib.urlencode(data)  try:    html = urllib2.urlopen(req, params).read()  except urllib2.URLError:    logger.warning(u"网络不稳定 正在重试访问")    html = urllib2.urlopen(req, params).read()  result = json.loads(html)  reg = re.compile(u"[\u4e00-\u9fa5]+")  # 只匹配中文  for x in result['feeds']:    try:      title = x['caption'].replace("\n","")      name = " ".join(reg.findall(title))      video_q.put([name, x['photo_id'], x['main_mv_urls'][0]['url']])    except KeyError:      passdef download(video_q):  path = u"D:\快手"  while True:    data = video_q.get()    name = data[0].replace("\n","")    id = data[1]    url = data[2]    file = os.path.join(path, name + ".mp4")    logger.info(u"正在下载:%s" %name)    try:      urllib.urlretrieve(url,file)    except IOError:      file = os.path.join(path, u"神经病呀"+ '%s.mp4') %id      try:        urllib.urlretrieve(url, file)      except (socket.error,urllib.ContentTooShortError):        logger.warning(u"请求被断开,休眠2秒")        time.sleep(2)        urllib.urlretrieve(url, file)    logger.info(u"下载完成:%s" % name)    video_q.task_done()def main():  # 使用帮助  try:    threads = int(sys.argv[1])  except (IndexError, ValueError):    print u"\n用法: " + sys.argv[0] + u" [线程数:10] \n"    print u"例如:" + sys.argv[0] + " 10" + u" 爬取视频 开启10个线程 每天爬取一次 一次2000个视频左右(空格隔开)"    return False  # 判断目录  if os.path.exists(u'D:\快手') == False:    os.makedirs(u'D:\快手')  # 解析网页  logger.info(u"正在爬取网页")  for x in range(1,100):    logger.info(u"第 %s 次请求" % x)    get_video()  num = video_q.qsize()  logger.info(u"共 %s 视频" %num)  # 多线程下载  for y in range(threads):    t = threading.Thread(target=download,args=(video_q,))    t.setDaemon(True)    t.start()  video_q.join()  logger.info(u"-----------全部已经爬取完成---------------")main()

下面测试

 

多线程下载 每次下载 2000 个视频左右  默认下载到D:\快手

 

好了 这次就到这结束了,其实也很简单,快手竟然没有加密。。。因为 爬 抖音的时候 就碰到问题了.....

总结

以上所述是小编给大家介绍的python爬虫爬取快手视频多线程下载,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对站的支持!


  • 上一条:
    用python与文件进行交互的方法
    下一条:
    python爬取m3u8连接的视频
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 智能合约Solidity学习CryptoZombie第三课:组建僵尸军队(高级Solidity理论)(0个评论)
    • 智能合约Solidity学习CryptoZombie第二课:让你的僵尸猎食(0个评论)
    • 智能合约Solidity学习CryptoZombie第一课:生成一只你的僵尸(0个评论)
    • 在go中实现一个常用的先进先出的缓存淘汰算法示例代码(0个评论)
    • 在go+gin中使用"github.com/skip2/go-qrcode"实现url转二维码功能(0个评论)
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(0个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 欧盟关于强迫劳动的规定的官方举报渠道及官方举报网站(0个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf文件功能(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客