侯体宗的博客
  • 首页
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

python爬虫爬取某站上海租房图片

Python  /  管理员 发布于 7年前   312

对于一个net开发这爬虫真真的以前没有写过。这段时间开始学习python爬虫,今天周末无聊写了一段代码爬取上海租房图片,其实很简短就是利用爬虫的第三方库Requests与BeautifulSoup。python 版本:python3.6 ,IDE :pycharm。其实就几行代码,但希望没有开发基础的人也能一下子看明白,所以大神请绕行。

第三方库首先安装

我是用的pycharm所以另为的脚本安装我这就不介绍了。

如上图打开默认设置选择Project Interprecter,双击pip或者点击加号,搜索要安装的第三方库。其中如果建立的项目多记得Project Interprecter要选择正确的安装位置不然无法导入。

Requests库

requests库的官方定义:Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用。其实他就是请求网络获取网页数据的。

import requestsheader={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}res=requests.get('http://sh.58.com/zufang/',headers=header)try:  print(res.text);except ConnectionError:  print('访问被拒绝!!!')

结果如下:

其中Request Headers的参数如下:

#headers的一些属性:#Accept:指定客户端能够接收的内容类型,内容类型的先后次序表示客户都接收的先后次序#Accept-Lanuage:指定HTTP客户端浏览器用来展示返回信息优先选择的语言#Accept-Encoding指定客户端浏览器可以支持的web服务器返回内容压缩编码类型。表示允许服务器在将输出内容发送到客户端以前进行压缩,以节约带宽。而这里设置的就是客户端浏览器所能够支持的返回压缩格式。#Accept-Charset:HTTP客户端浏览器可以接受的字符编码集# User-Agent : 有些服务器或 Proxy 会通过该值来判断是否是浏览器发出的请求# Content-Type : 在使用 REST 接口时,服务器会检查该值,用来确定 HTTP Body 中的内容该怎样解析。# application/xml : 在 XML RPC,如 RESTful/SOAP 调用时使用# application/json : 在 JSON RPC 调用时使用# application/x-www-form-urlencoded : 浏览器提交 Web 表单时使用# 在使用服务器提供的 RESTful 或 SOAP 服务时, Content-Type 设置错误会导致服务器拒绝服务

BeautifulSoup库

BeautifulSoup可以轻松的解析Requests库请求的页面,并把页面源代码解析为Soup文档,一边过滤提取数据。这是bs4.2的文档。

Beautiful Soup支持Python标准库中的HTML解析器,还支持一些第三方的解析器,如果我们不安装它,则 Python 会使用 Python默认的解析器,其中lxml 据说是相对而言比较强大的我下面的暗示是python 标准库的。

选择器select

# 选择所有div标签soup.select("div")# 选择所有p标签中的第三个标签soup.select("p:nth-of-type(3)")相当于soup.select(p)[2]# 选择div标签下的所有img标签soup.select("div img")# 选择div标签下的直接a子标签soup.select("div > a")# 选择id=link1后的所有兄弟节点标签soup.select("#link1 ~ .mybro")# 选择id=link1后的下一个兄弟节点标签soup.select("#link1 + .mybro")# 选择a标签,其类属性为className的标签soup.select("a .className")# 选择a标签,其id属性为idName的标签soup.select("a #idName")# 选择a标签,其属性中存在attrName的所有标签soup.select("a[attrName]")# 选择a标签,其属性href=http://wangyanling.com的所有标签soup.select("a[href='http://wangyanling.com']")# 选择a标签,其href属性以http开头soup.select('a[href^="http"]')# 选择a标签,其href属性以lacie结尾soup.select('a[href$="lacie"]')# 选择a标签,其href属性包含.comsoup.select('a[href*=".com"]')# 从html中排除某标签,此时soup中不再有script标签[s.extract() for s in soup('script')]# 如果想排除多个呢[s.extract() for s in soup(['script','fram']

BeautifulSoup库需要学习的知识点,请参考bs4.2的文档。在这不再过多叙述。

import requestsfrom bs4 import BeautifulSoupheader={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}res=requests.get('http://cd.58.com/zufang/',headers=header)soup=BeautifulSoup(res.text,'html.parser')print(soup.prettify())

案例:爬取上海租房图片

import requestsimport urllib.requestimport osimport timefrom bs4 import BeautifulSoupheader={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.62 Safari/537.36'}url=['http://sh.58.com/zufang/pn{}/?ClickID=2'.format(number) for number in range(6,51)]#分页抓取adminCout=6for arurl in url:  adminCout=adminCout+1  res=requests.get(arurl,headers=header)  soup=BeautifulSoup(res.text,'html.parser')  arryImg=soup.select('.img_list img')  print(arryImg)  count = 0;  for img in arryImg:    print(img['lazy_src'])    _url = img['lazy_src']    pathName = "E:\\2333\\" + str(adminCout)+"_"+str(count) + ".jpg" # 设置路径和文件名    result = urllib.request.urlopen(_url) # 打开链接,和python2.x不同请注意了    data = result.read() # 否则开始下载到本地    with open(pathName, "wb") as code:      code.write(data)      code.close()      count = count + 1 # 计数+1      print("正在下载第:", count)    time.sleep(30)

只是实现功能,至于代码结果如下:

结语:

对于python并非为了从net跳出来,学习python只是感兴趣,但是通过这段时间的学习确实有些思想从net的思路中跳了出来,接下来一年的业余时间应该都会花在学习python上,还希望自己能坚持下去。这应该是2017年最后一篇文章,在这给大家拜个早年。


  • 上一条:
    python负载均衡的简单实现方法
    下一条:
    Python爬虫实现百度图片自动下载
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 在windows10中升级go版本至1.24后LiteIDE的Ctrl+左击无法跳转问题解决方案(0个评论)
    • 智能合约Solidity学习CryptoZombie第四课:僵尸作战系统(0个评论)
    • 智能合约Solidity学习CryptoZombie第三课:组建僵尸军队(高级Solidity理论)(0个评论)
    • 智能合约Solidity学习CryptoZombie第二课:让你的僵尸猎食(0个评论)
    • 智能合约Solidity学习CryptoZombie第一课:生成一只你的僵尸(0个评论)
    • 在go中实现一个常用的先进先出的缓存淘汰算法示例代码(0个评论)
    • 在go+gin中使用"github.com/skip2/go-qrcode"实现url转二维码功能(0个评论)
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(95个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客