侯体宗的博客
  • 首页
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

python3使用scrapy生成csv文件代码示例

Python  /  管理员 发布于 7年前   347

去腾讯招聘网的信息,这个小项目有人做过,本着一个新手学习的目的,所以自己也来做着玩玩,大家可以参考一下。

这里使用的是调用cmdline命令来生成csv文件,而不是importcsv模块。

from scrapy import cmdline cmdline.execute("scrapy crawl field -o info.csv -t csv".split()) 

这段代码我保存在一个自建的.py文件中,然后在主文件中调用这个模块,这样就不用每次在cmd中敲命令了,大家可以使用这种方法我觉得很方便的。

进入正题(获取腾讯招聘网的信息http://hr.tencent.com/position.php):

保存的csv文件内容:

我们需要获取的数据首先应该使用scrapy的items容器记录下来:

import scrapy  class GetItem(scrapy.Item):   name = scrapy.Field()    #招聘单位   genre = scrapy.Field()   #招聘类型   number = scrapy.Field()   #招聘人数   place = scrapy.Field()   #招聘地点   time = scrapy.Field()    #招聘时间 

以上为我们等一下需要获取的信息

然后我们新建spider文件来编写爬去网站的代码:

# _*_ coding:utf-8 _*_ import scrapy from scrapy.http import Request from time import sleep import os import sys sys.path.append("D:\PYscrapy\get_Field") #我使用这种路径添加的方式来调用GetItem函数和main函数 from get_Field.items import GetItem import main  #main函数开头就说了两行调用程序的代码,你也可以在cmd中使用scrapy crawl field -o info.csv -t csv来调用。主要是方便  class Tencentzhaopin(scrapy.Spider):   name = "field"  #这个程序要执行的唯一标识名 可以自己设置   start_urls = ["http://hr.tencent.com/position.php?&start=0#a"] #首页网址   url = "http://hr.tencent.com/" #由于有翻页操作所以我们设置翻页前缀,等一下获取后缀   count = 0   names = []    #这五个列表记录我们获取的信息   genres = []   numbers = []   places = []   times = []   filename = "data.txt"  #保存的文件名   if os.path.exists(filename) == True:  #判断这个文件是否已经存在文件夹中,有就移除掉。     os.remove(filename)    def parse(self,response):     self.count += 1 #设置我们需要爬去多少页,不设置的话会有几百页需要爬取     name = response.xpath('//table//td[@class="l square"]//a//text()').extract()     #通过xpath方法获取我们需要的内容,再使用extract()抽取器获取到     for i in name:    #利用循环将每一次的内容存入我们上面设置的列表中去,方便后面存入csv文件(下面4个类似)       self.names.append(i)     genre = response.xpath('//table//tr[not(@class="h")]//td[2][not(@align="center")]//text()').extract()     for i in genre:       self.genres.append(i)     number = response.xpath('//table//tr[not(@class="h")]//td[3][not(@align="center")]//text()').extract()     for i in number:       self.numbers.append(i)     place = response.xpath('//table//tr[not(@class="h")]//td[4][not(@align="center")]//text()').extract()     for i in place:       self.places.append(i)     time = response.xpath('//table//tr[not(@class="h")]//td[5][not(@align="center")]//text()').extract()     for i in time:       self.times.append(i)      new_url = response.xpath('//*[@id="next"]//@href').extract()     #前面我们说过需要翻页操作,所以这里是获取到翻页的后缀     new_url = self.url+new_url[0] #再与前缀结合,获取到一个完整的下一页链接     sleep(0.5) #我们设置一个翻页的时间,太快了不好。。。。(我是这样想的)      #下面就是信息存入items容器     for i in range(len(self.genres)): #for循环列表的长度,获取到所有信息       info = GetItem()  #实例一个类info用来保存数据       info["name"] = self.names[i]    #将每一个属性列表中的每一个数据保存依次保存到info中去       info["genre"] = self.genres[i]       info["number"] = self.numbers[i]       info["place"] = self.places[i]       info["time"] = self.times[i]       yield info #这个yield注意了,嗯,这就很舒服了       #我们将每一次保存的数据返回,但是返回了我们还需要程序继续执行,所以使用yield函数返回后继续执行      if self.count<=20:       yield Request(url=new_url,callback=self.parse)       #如果满足20页以内,我们callback返回下一页的链接继续到parse这个默认函数, 

以上是spider中的代码。

其实实现这个代码不难,唯一有一点小疑惑的地方可能就是第一个yield的使用,一开始我是使用调用一个新的函数,然后在里面实现值的返回,但是麻烦还有一点小问题,所以这里我们就是用这种简单的方式就行了,yield将每次循环的数据返回,返回后再继续执行循环。

总结

以上就是本文关于python3使用scrapy生成csv文件代码示例的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站其他相关专题,如有不足之处,欢迎留言指出。感谢朋友们对本站的支持!


  • 上一条:
    python3.6连接MySQL和表的创建与删除实例代码
    下一条:
    Python解决N阶台阶走法问题的方法分析
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 在windows10中升级go版本至1.24后LiteIDE的Ctrl+左击无法跳转问题解决方案(0个评论)
    • 智能合约Solidity学习CryptoZombie第四课:僵尸作战系统(0个评论)
    • 智能合约Solidity学习CryptoZombie第三课:组建僵尸军队(高级Solidity理论)(0个评论)
    • 智能合约Solidity学习CryptoZombie第二课:让你的僵尸猎食(0个评论)
    • 智能合约Solidity学习CryptoZombie第一课:生成一只你的僵尸(0个评论)
    • 在go中实现一个常用的先进先出的缓存淘汰算法示例代码(0个评论)
    • 在go+gin中使用"github.com/skip2/go-qrcode"实现url转二维码功能(0个评论)
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(95个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客