侯体宗的博客
  • 首页
  • Hyperf版
  • beego仿版
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

Python+PyQt5实现美剧爬虫可视工具的方法

Python  /  管理员 发布于 7年前   164

美剧《权力的游戏》终于要开播最后一季了,作为马丁老爷子的忠实粉丝,为了能够看得懂第八季复杂庞大的剧情架构,本人想着将前几季再稳固一下,所以就上美剧天堂下载来看,可是每次都上去下载太麻烦了,于是干脆自己写个爬虫爬下来得了。

话不多说,先上图片。

本人才疏学浅,就写了个简单的可视化软件,关键是功能实现就行了嘛。

实现语言:Python ,版本 3.7.1

实现思路:首先运用 Python 工具爬取到数据再实现图形化软件。

由于这里只是实现简单的爬取数据,并没有牵扯到 cookie 之类的敏感信息,也没有设置代理,所以在选择 Python 库上并没有引入 Selenium 或者更高级的 Scrapy 框架,只是拿到数据就可以了,没必要那么麻烦。

所以选择了 urllib 这个库,在 Python 2.X 中应该是 urllib 和 urllib2 同时引入,由于本人选用的版本的 Python 3.X ,在 Python 3.X 中上面两个库已经被合并为 urllib 一个库,语法上有些不同,但语言这种东西都是大同小异的嘛。

先贴代码,缓和一下尴尬的气氛。

import urllib.requestfrom urllib import parsefrom lxml import etreeimport sslfrom PyQt5.QtWidgets import QApplication, QWidget, QLineEdit, QTextEdit, QVBoxLayout, QPushButton, QMessageBoximport sys# 取消代理验证ssl._create_default_https_context = ssl._create_unverified_contextclass TextEditMeiJu(QWidget): def __init__(self, parent=None):  super(TextEditMeiJu, self).__init__(parent)  # 定义窗口头部信息  self.setWindowTitle('美剧天堂')  # 定义窗口的初始大小  self.resize(500, 600)  # 创建单行文本框  self.textLineEdit = QLineEdit()  # 创建一个按钮  self.btnButton = QPushButton('确定')  # 创建多行文本框  self.textEdit = QTextEdit()  # 实例化垂直布局  layout = QVBoxLayout()  # 相关控件添加到垂直布局中  layout.addWidget(self.textLineEdit)  layout.addWidget(self.btnButton)  layout.addWidget(self.textEdit)  # 设置布局  self.setLayout(layout)  # 将按钮的点击信号与相关的槽函数进行绑定,点击即触发  self.btnButton.clicked.connect(self.buttonClick) # 点击确认按钮 def buttonClick(self):  # 爬取开始前提示一下  start = QMessageBox.information(   self, '提示', '是否开始爬取《' + self.textLineEdit.text() + "》",   QMessageBox.Ok | QMessageBox.No, QMessageBox.Ok  )  # 确定爬取  if start == QMessageBox.Ok:   self.page = 1   self.loadSearchPage(self.textLineEdit.text(), self.page)  # 取消爬取  else:   pass # 加载输入美剧名称后的页面 def loadSearchPage(self, name, page):  # 将文本转为 gb2312 编码格式  name = parse.quote(name.encode('gb2312'))  # 请求发送的 url 地址  url = "https://www.meijutt.com/search/index.asp?page=" + str(page) + "&searchword=" + name + "&searchtype=-1"  # 请求报头  headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36"}  # 发送请求  request = urllib.request.Request(url, headers=headers)  # 获取请求的 html 文档  html = urllib.request.urlopen(request).read()  # 对 html 文档进行解析  text = etree.HTML(html)  # xpath 获取想要的信息  pageTotal = text.xpath('//div[@class="page"]/span[1]/text()')  # 判断搜索内容是否有结果  if pageTotal:   self.loadDetailPage(pageTotal, text, headers)  # 搜索内容无结果  else:   self.infoSearchNull() # 加载点击搜索页面点击的本季页面 def loadDetailPage(self, pageTotal, text, headers):  # 取出搜索的结果一共多少页  pageTotal = pageTotal[0].split('/')[1].rstrip("页")  # 获取每一季的内容(剧名和链接)  node_list = text.xpath('//a[@class="B font_14"]')  items = {}  items['name'] = self.textLineEdit.text()  # 循环获取每一季的内容  for node in node_list:   # 获取信息   title = node.xpath('@title')[0]   link = node.xpath('@href')[0]   items["title"] = title   # 通过获取的单季链接跳转到本季的详情页面   requestDetail = urllib.request.Request("https://www.meijutt.com" + link, headers=headers)   htmlDetail = urllib.request.urlopen(requestDetail).read()   textDetail = etree.HTML(htmlDetail)   node_listDetail = textDetail.xpath('//div[@class="tabs-list current-tab"]//strong//a/@href')   self.writeDetailPage(items, node_listDetail)  # 爬取完毕提示  if self.page == int(pageTotal):   self.infoSearchDone()  else:   self.infoSearchContinue(pageTotal) # 将数据显示到图形界面 def writeDetailPage(self, items, node_listDetail):  for index, nodeLink in enumerate(node_listDetail):   items["link"] = nodeLink   # 写入图形界面   self.textEdit.append(    "<div>"     "<font color='black' size='3'>" + items['name'] + "</font>" + "\n"     "<font color='red' size='3'>" + items['title'] + "</font>" + "\n"     "<font color='orange' size='3'>第" + str(index + 1) + "集</font>" + "\n"     "<font color='green' size='3'>下载链接:</font>" + "\n"     "<font color='blue' size='3'>" + items['link'] + "</font>"     "<p></p>"    "</div>"   ) # 搜索不到结果的提示信息 def infoSearchNull(self):  QMessageBox.information(   self, '提示', '搜索结果不存在,请重新输入搜索内容',   QMessageBox.Ok, QMessageBox.Ok  ) # 爬取数据完毕的提示信息 def infoSearchDone(self):  QMessageBox.information(   self, '提示', '爬取《' + self.textLineEdit.text() + '》完毕',   QMessageBox.Ok, QMessageBox.Ok  ) # 多页情况下是否继续爬取的提示信息 def infoSearchContinue(self, pageTotal):  end = QMessageBox.information(   self, '提示', '爬取第' + str(self.page) + '页《' + self.textLineEdit.text() + '》完毕,还有' + str(int(pageTotal) - self.page) + '页,是否继续爬取',   QMessageBox.Ok | QMessageBox.No, QMessageBox.No  )  if end == QMessageBox.Ok:   self.page += 1   self.loadSearchPage(self.textLineEdit.text(), self.page)  else:   passif __name__ == '__main__': app = QApplication(sys.argv) win = TextEditMeiJu() win.show() sys.exit(app.exec_())

以上是实现功能的所有代码,可以运行 Python 的小伙伴直接复制到本地运行即可。都说 Python 是做爬虫最好的工具,写完之后发现确实是这样。

我们一点点分析代码:

import urllib.requestfrom urllib import parsefrom lxml import etreeimport sslfrom PyQt5.QtWidgets import QApplication, QWidget, QLineEdit, QTextEdit, QVBoxLayout, QPushButton, QMessageBox, QLabelimport sys

以上为我们引入的所需要的库,前 4 行是爬取 美剧天堂 官网所需要的库,后两个是实现图形化应用所需的库。

我们先来看一下如何爬取网站信息。

由于现在 美剧天堂 使用的是 https 协议,进入页面需要代理验证,为了不必要的麻烦,我们干脆取消代理验证,所以用到了 ssl 模块。

然后我们就可以正大光明的进入网站了:

令人遗憾的是 url 链接为https://www.meijutt.com/search/index.asp,显然没有为我们提供任何有用的信息,当我们刷新页面时,如下图:

当我们手动输入 ulr 链接https://www.meijutt.com/search/index.asp进行搜索时:

很明显了,当我们在首页输入想看的美剧并搜索时网站将我们的请求表单信息隐藏了,并没有给到 url 链接里,但是本人可不想每次都从首页进行搜索再提交表单获取信息,很不爽,还好本人发现了一个更好的方法。如下图:

在页面顶部有一个页面跳转的按钮,我们可以选择跳转的页码,当选择跳转页码后,页面变成了如下:

url 链接已经改变了:https://www.meijutt.com/search/index.asp?page=&searchword=%C8%A8%C1%A6%B5%C4%D3%CE%CF%B7&searchtype=-1

我们再将 page 中动态添加为page=1,页面效果不变。

经过搜索多个不同的美剧的多次验证发现只有 page 和 searchword 这两个字段是改变的,其中 page 字段默认为 1 ,而其本人搜索了许多季数很长的美剧,比如《老友记》、《生活大爆炸》、《邪恶力量》,这些美剧也就一页,但仍有更长的美剧,比如《辛普森一家》是两页,《法律与秩序》是两页,这就要求我们对页数进行控制,但是需要特别注意的是如果随意搜索内容,比如在搜索框只搜索了一个 ”i“,整整搜出了219页,这要扒下来需要很长的时间,所以就需要对其搜索的页数进行控制。

我们再来看一下 searchword 字段,将 searchword 字段解码转成汉字:

没错,正是我们想要的,万里长征终于实现了第一步。

# 加载输入美剧名称后的页面def loadSearchPage(self, name, page): # 将文本转为 gb2312 编码格式 name = parse.quote(name.encode('gb2312')) # 请求发送的 url 地址 url = "https://www.meijutt.com/search/index.asp?page=" + str(page) + "&searchword=" + name + "&searchtype=-1" # 请求报头 headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36"} # 发送请求 request = urllib.request.Request(url, headers=headers) # 获取请求的 html 文档 html = urllib.request.urlopen(request).read() # 对 html 文档进行解析 text = etree.HTML(html) # xpath 获取想要的信息 pageTotal = text.xpath('//div[@class="page"]/span[1]/text()') # 判断搜索内容是否有结果 if pageTotal:  self.loadDetailPage(pageTotal, text, headers) # 搜索内容无结果 else:  self.infoSearchNull()

接下来我们只需要将输入的美剧名转化成 url 编码格式就可以了。如上代码,通过 urllib 库对搜索的网站进行操作。

其中我们还需要做判断,搜索结果是否存在,比如我们搜索 行尸跑肉,结果不存在。

当搜索结果存在时:

我们通过谷歌的 xpath 插件对页面内的 dom 进行搜索,发现我们要选取的 class 类名。

我们根据获取到的页数,找到所有页面里我们要搜索的信息:

# 加载点击搜索页面点击的本季页面def loadDetailPage(self, pageTotal, text, headers): # 取出搜索的结果一共多少页 pageTotal = pageTotal[0].split('/')[1].rstrip("页") # 获取每一季的内容(剧名和链接) node_list = text.xpath('//a[@class="B font_14"]') items = {} items['name'] = self.textLineEdit.text() # 循环获取每一季的内容 for node in node_list:  # 获取信息  title = node.xpath('@title')[0]  link = node.xpath('@href')[0]  items["title"] = title  # 通过获取的单季链接跳转到本季的详情页面  requestDetail = urllib.request.Request("https://www.meijutt.com" + link, headers=headers)  htmlDetail = urllib.request.urlopen(requestDetail).read()  textDetail = etree.HTML(htmlDetail)  node_listDetail = textDetail.xpath('//div[@class="tabs-list current-tab"]//strong//a/@href')  self.writeDetailPage(items, node_listDetail) # 爬取完毕提示 if self.page == int(pageTotal):  self.infoSearchDone() else:  self.infoSearchContinue(pageTotal)

我们根据获取到的链接,再次通过 urllib 库进行页面访问,即我们手动点击进入其中的一个页面,比如 权利的游戏第一季,再次通过 xpath 获取到我们所需要的下载链接:

至此我们就将所有我们搜索到的 权力的游戏 的下载链接拿到手了,接下来就是写图形界面了。

本人选用了 PyQt5 这个框架,它内置了 QT 的操作语法,对于本人这种小白用起来也很友好。至于如何使用本人也都在代码上添加了注释,在这儿做一下简单的说明,就不过多解释了。

from PyQt5.QtWidgets import QApplication, QWidget, QLineEdit, QTextEdit, QVBoxLayout, QPushButton, QMessageBox, QLabelimport sys

将获取的信息写入搜索结果内:

# 将数据显示到图形界面def writeDetailPage(self, items, node_listDetail): for index, nodeLink in enumerate(node_listDetail):  items["link"] = nodeLink  # 写入图形界面  self.textEdit.append(   "<div>"    "<font color='black' size='3'>" + items['name'] + "</font>" + "\n"    "<font color='red' size='3'>" + items['title'] + "</font>" + "\n"    "<font color='orange' size='3'>第" + str(index + 1) + "集</font>" + "\n"    "<font color='green' size='3'>下载链接:</font>" + "\n"    "<font color='blue' size='3'>" + items['link'] + "</font>"    "<p></p>"   "</div>"  )

因为可能有多页情况,所以我们得做一次判断,提示一下剩余多少页,可以选择继续爬取或停止,做到人性化交互。

# 搜索不到结果的提示信息def infoSearchNull(self): QMessageBox.information(  self, '提示', '搜索结果不存在,请重新输入搜索内容',  QMessageBox.Ok, QMessageBox.Ok )# 爬取数据完毕的提示信息def infoSearchDone(self): QMessageBox.information(  self, '提示', '爬取《' + self.textLineEdit.text() + '》完毕',  QMessageBox.Ok, QMessageBox.Ok )# 多页情况下是否继续爬取的提示信息def infoSearchContinue(self, pageTotal): end = QMessageBox.information(  self, '提示', '爬取第' + str(self.page) + '页《' + self.textLineEdit.text() + '》完毕,还有' + str(int(pageTotal) - self.page) + '页,是否继续爬取',  QMessageBox.Ok | QMessageBox.No, QMessageBox.No ) if end == QMessageBox.Ok:  self.page += 1  self.loadSearchPage(self.textLineEdit.text(), self.page) else:  pass

demo 图形化软件操作如下:

在搜索框内输入要搜索的美剧名,点击确认。提示一下是否要爬取,点击 No 不爬取,点击 OK 爬取。

判断一下是否存在搜索结果,比如吧 ”辛普森一家“ 换成了 ”吉普森一家“,搜索内容不存在。

如果搜索内容存在,在搜索完成第一页后提示一下是否需要继续爬取,点击 No 表示停止爬取,点击 OK 表示继续爬取。

最后爬取完毕后提示爬取完毕:

由于本人对 Python 了解不深,代码中有很多不足之处,需要不断学习改进,代码中有任何要改进的地方请各位大佬批评指教!

最后本人做了一套包含 Mac 和 windows 版的图形化美剧天堂抓包程序,只需要在对应电脑上点击运行即可,需要的小伙伴可以在本人的公众号后台回复美剧天堂就可以拿到了,注:在 windows 上打包生成的 .exe 软件第一打开时被 360 阻止,大家允许操作就可以了,Mac 无此提示。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。


  • 上一条:
    Python对象转换为json的方法步骤
    下一条:
    详解用python实现基本的学生管理系统(文件存储版)(python3)
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 在windows10中升级go版本至1.24后LiteIDE的Ctrl+左击无法跳转问题解决方案(0个评论)
    • 智能合约Solidity学习CryptoZombie第四课:僵尸作战系统(0个评论)
    • 智能合约Solidity学习CryptoZombie第三课:组建僵尸军队(高级Solidity理论)(0个评论)
    • 智能合约Solidity学习CryptoZombie第二课:让你的僵尸猎食(0个评论)
    • 智能合约Solidity学习CryptoZombie第一课:生成一只你的僵尸(0个评论)
    • 在go中实现一个常用的先进先出的缓存淘汰算法示例代码(0个评论)
    • 在go+gin中使用"github.com/skip2/go-qrcode"实现url转二维码功能(0个评论)
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(0个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客