侯体宗的博客
  • 首页
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

Python简单爬虫导出CSV文件的实例讲解

Python  /  管理员 发布于 7年前   203

流程:模拟登录→获取Html页面→正则解析所有符合条件的行→逐一将符合条件的行的所有列存入到CSVData[]临时变量中→写入到CSV文件中

核心代码:

 ####写入Csv文件中      with open(self.CsvFileName, 'wb') as csvfile:        spamwriter = csv.writer(csvfile, dialect='excel')        #设置标题        spamwriter.writerow(["游戏账号","用户类型","游戏名称","渠道","充值类型","充值金额","返利金额","单号","日期"])        #将CsvData中的数据循环写入到CsvFileName文件中        for item in self.CsvData:          spamwriter.writerow(item)

完整代码:

# coding=utf-8import urllibimport urllib2import cookielibimport reimport csvimport sys class Pyw():  #初始化数据  def __init__(self):    #登录的Url地址    self.LoginUrl="http://v.pyw.cn/login/check"    #所要获取的Url地址    self.PageUrl="http://v.pyw.cn/Data/accountdetail/%s"    # 传输的数据:用户名、密码、是否记住用户名    self.PostData = urllib.urlencode({      "username": "15880xxxxxx",      "password": "a123456",      "remember": "1"    })    #第几笔记录    self.PageIndex=0;    #循环获取共4页内容    self.PageTotal=1    #正则解析出tr    self.TrExp=re.compile("(?isu)<tr[^>]*>(.*?)</tr>")    #正则解析出td    self.TdExp = re.compile("(?isu)<td[^>]*>(.*?)</td>")    #创建cookie    self.cookie = cookielib.CookieJar()    #构建opener    self.opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(self.cookie))    #解析页面总页数    self.Total=4    #####设置csv文件    self.CsvFileName="Pyw.csv"    #####存储Csv数据    self.CsvData=[]    #解析网页中的内容  def GetPageItem(self,PageHtml):    #循环取出Table中的所有行    for row in self.TrExp.findall(PageHtml):      #取出当前行的所有列      coloumn=self.TdExp.findall(row)      #判断符合的记录      if len(coloumn) == 9:        # print "游戏账号:%s" % coloumn[0].strip()        # print "用户类型:%s" % coloumn[1].strip()        # print "游戏名称:%s" % coloumn[2].strip()        # print "渠道:%s" % coloumn[3].strip()        # print "充值类型:%s" % coloumn[4].strip()        # print "充值金额:%s" % coloumn[5].strip().replace("¥", "")        # print "返利金额:%s" % coloumn[6].strip().replace("¥", "")        # print "单号:%s" % coloumn[7].strip()        # print "日期:%s" % coloumn[8].strip()        #拼凑行数据        d=[coloumn[0].strip(),          coloumn[1].strip(),          coloumn[2].strip(),          coloumn[3].strip(),          coloumn[4].strip(),          coloumn[5].strip().replace("¥", ""),          coloumn[6].strip().replace("¥", ""),          coloumn[7].strip(),          coloumn[8].strip()]        self.CsvData.append(d)   #模拟登录并获取页面数据  def GetPageHtml(self):    try:      #模拟登录      request=urllib2.Request(url=self.LoginUrl,data=self.PostData)      ResultHtml=self.opener.open(request)      #开始执行获取页面数据      while self.PageTotal<=self.Total:        #动态拼凑所要解析的Url        m_PageUrl = self.PageUrl % self.PageTotal        #计算当期第几页        self.PageTotal = self.PageTotal + 1        #获取当前解析页面的所有内容        ResultHtml=self.opener.open(m_PageUrl)        #解析网页中的内容        self.GetPageItem(ResultHtml.read())       ####写入Csv文件中      with open(self.CsvFileName, 'wb') as csvfile:        spamwriter = csv.writer(csvfile, dialect='excel')        #设置标题        spamwriter.writerow(["游戏账号","用户类型","游戏名称","渠道","充值类型","充值金额","返利金额","单号","日期"])        #将CsvData中的数据循环写入到CsvFileName文件中        for item in self.CsvData:          spamwriter.writerow(item)       print "成功导出CSV文件!"    except Exception,e:      print "404 error!%s" % e#实例化类p=Pyw()#执行方法p.GetPageHtml()

导出结果

以上这篇Python简单爬虫导出CSV文件的实例讲解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。


  • 上一条:
    python脚本监控Tomcat服务器的方法
    下一条:
    Python实现的从右到左字符串替换方法示例
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 在windows10中升级go版本至1.24后LiteIDE的Ctrl+左击无法跳转问题解决方案(0个评论)
    • 智能合约Solidity学习CryptoZombie第四课:僵尸作战系统(0个评论)
    • 智能合约Solidity学习CryptoZombie第三课:组建僵尸军队(高级Solidity理论)(0个评论)
    • 智能合约Solidity学习CryptoZombie第二课:让你的僵尸猎食(0个评论)
    • 智能合约Solidity学习CryptoZombie第一课:生成一只你的僵尸(0个评论)
    • 在go中实现一个常用的先进先出的缓存淘汰算法示例代码(0个评论)
    • 在go+gin中使用"github.com/skip2/go-qrcode"实现url转二维码功能(0个评论)
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(0个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客