侯体宗的博客
  • 首页
  • Hyperf版
  • beego仿版
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

python爬取内容存入Excel实例

Python  /  管理员 发布于 7年前   189

最近老师布置了个作业,爬取豆瓣top250的电影信息。按照套路,自然是先去看看源代码了,一看,基本的信息竟然都有,心想这可省事多了。简单分析了下源代码,标记出所需信息的所在标签,ok,开始干活!

鉴于正则表达式的资料已经看了不少,所以本次除了beautifulsoup外,还有些re的使用,当然,比较简单。而爬到信息后,以往一般是存到txt文件,或者数据库中,老是重样的操作,难免有些‘厌倦'。心想,干嘛不存到Excel表呢?对啊,可以存到Excel表。

环境准备:pip install openpyxl  (假设你已配好了python环境)

好了,废话少说,上代码。  

# coding=UTF-8''' function:爬取豆瓣top250的电影信息,并写入Excel文件'''import requestsimport refrom openpyxl import workbook # 写入Excel表所用from openpyxl import load_workbook # 读取Excel表所用from bs4 import BeautifulSoup as bsimport osos.chdir('C:\Users\Administrator\Desktop') # 更改工作目录为桌面  def getHtml(src): html = requests.get(src).content getData(html, src) # 首页链接和其他页不同,所以单独获取信息 urls = re.findall('href="https:/article/(.*filter=?)', html) # re获取获取跳转链接的href for u in range(len(urls) - 2): # 匹配到的跳转链接最后两个重复,需去掉  next_url = 'https://movie.douban.com/top250' + urls[u]  html = requests.get(next_url).content  getData(html, next_url)  def getData(html, num_url): # html:网页源码 ,num_url:页面链接 global ws # 全局工作表对象 Name = [] # 存储电影名 Dr = [] # 存储导演信息 Ma = [] # 存储主演信息 Si = [] # 存储简介 R_score = [] # 存储评分 R_count = [] # 存储评论人数 R_year = [] # 存储年份 R_area = [] # 存储地区 R_about = [] # 存储剧情类型 soup = bs(html, 'lxml') for n in soup.find_all('div', class_='hd'):  # ts = n.contents[1].text # 得到电影的所有名称  ts = n.contents[1].text.strip().split('/')[0] # 得到电影中文名  Name.append(ts) for p in soup.find_all('p', class_=''):  infor = p.text.strip().encode('utf-8') #此处用utf-8编码,以免下面查找 ‘主演'下标报错  ya = re.findall('[0-9]+.*\/?', infor)[0] # re得到年份和地区  R_year.append(ya.split('/')[0]) # 得到年份  R_area.append(ya.split('/')[1]) # 得到地区  R_about.append(infor[infor.rindex('/') + 1:]) # rindex函数取最后一个/下标,得到剧情类型  try:   sub = infor.index('主演') # 取得主演下标   Dr.append(infor[0:sub].split(':')[1]) # 得到导演信息   mh = infor[sub:].split(':')[1] # 得到主演后面的信息   Ma.append(re.split('[1-2]+', mh)[0]) # 正则切片得到主演信息  except:   print '无主演信息'   Dr.append(infor.split(':')[1].split('/')[0])   Ma.append('无介绍...') for r in soup.find_all('div', class_='star'):  rs = r.contents # 得到该div的子节点列表  R_score.append(rs[3].text) # 得到评分  R_count.append(rs[7].text) # 得到评论人数 for s in soup.find_all('span', 'inq'):  Si.append(s.text) # 得到简介 if len(Si) < 25:  for k in range(25 - len(Si)):   Si.append('本页有的电影没简介,建议查看核对,链接:' + num_url)  for i in range(25): # 每页25条数据,写入工作表中  ws.append([Name[i], R_year[i], R_area[i], R_about[i],     Dr[i], Ma[i], R_score[i], R_count[i], Si[i]])  if __name__ == '__main__': # 读取存在的Excel表测试 #  wb = load_workbook('test.xlsx') #加载存在的Excel表 #  a_sheet = wb.get_sheet_by_name('Sheet1') #根据表名获取表对象 #  for row in a_sheet.rows: #遍历输出行数据 #   for cell in row: #每行的每一个单元格 #    print cell.value,  # 创建Excel表并写入数据 wb = workbook.Workbook() # 创建Excel对象 ws = wb.active # 获取当前正在操作的表对象 # 往表中写入标题行,以列表形式写入! ws.append(['电影名', '年份', '地区', '剧情类型', '导演', '主演', '评分', '评论人数', '简介']) src = 'https://movie.douban.com/top250' getHtml(src) wb.save('test2.xlsx') # 存入所有信息后,保存为filename.xlsx

代码中已有不少注释,这里说下爬取过程中遇到的小问题。

1.soup的contents方法,返回的是某标签下的子节点列表,但刚开始总是取不到想要的值,输出其长度后,有些傻眼..TM什么情况?有这么多的子节点吗?较真的我又去数了几遍,最后发现,它竟然连"换行"都算作是子节点!莫名地有点方...不知各位有没有遇到过。

如图,我按列表下标标记,0,2,4,6,8是换行,但也被算作子节点...

2.还是contents方法,代码中的 '#得到电影所有名称' 处的代码 n.contents[1]获取的除了a标签外,还有其下的span标签,这是为何?它们算一个整体?

3.对如下图的电影信息处理时,出现了几处错误,原因有以下几点:

(1)部分电影没有主演信息...

(2)主演信息为这样'主演: ',就一个主演字样,无内容

(3)部分电影没有简介

(4)当主演信息中没有'...'时,获取主演信息受阻

 解决方案:(1)(2)都是主演问题,判断是否存在即可。(我以捕获异常处理)

(3)是简介问题,我无法给出具体哪部电影没有简介,但给了该电影所在的页面链接,可访问核查。(貌似有点笨)

(4)获取受阻是因为后面没有精确定位点,最后以re.split('[1-2]+')方法解决,匹配年份第一位作为分片点

本次分享就到这儿了,最后,照旧放几张结果图吧。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。


  • 上一条:
    在Python中,不用while和for循环遍历列表的实例
    下一条:
    Python和Go语言的区别总结
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 在windows10中升级go版本至1.24后LiteIDE的Ctrl+左击无法跳转问题解决方案(0个评论)
    • 智能合约Solidity学习CryptoZombie第四课:僵尸作战系统(0个评论)
    • 智能合约Solidity学习CryptoZombie第三课:组建僵尸军队(高级Solidity理论)(0个评论)
    • 智能合约Solidity学习CryptoZombie第二课:让你的僵尸猎食(0个评论)
    • 智能合约Solidity学习CryptoZombie第一课:生成一只你的僵尸(0个评论)
    • 在go中实现一个常用的先进先出的缓存淘汰算法示例代码(0个评论)
    • 在go+gin中使用"github.com/skip2/go-qrcode"实现url转二维码功能(0个评论)
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(0个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客