侯体宗的博客
  • 首页
  • Hyperf版
  • beego仿版
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

Python 爬虫实现增加播客访问量的方法实现

Python  /  管理员 发布于 7年前   192

一、序言:

世界 1024 程序猿节日不加班,闲着没事儿。。。随手写了个播客访问量爬虫玩玩,访问量过万不是事儿!!!每个步骤注释都很清晰,代码仅供学习参考!

---- Nick.Peng

二、所需环境:

Python3.x
相关模块: requests、json、lxml、urllib、bs4、fake_useragent

三、增加Blog访问量代码如下:

#!/usr/bin/env python# -*- coding: utf-8 -*-# @Author: Nick# @Date:  2019-10-24 15:40:58# @Last Modified by:  Nick# @Last Modified time: 2019-10-24 16:54:31import randomimport reimport timeimport urllibimport requestsfrom bs4 import BeautifulSoupfrom fake_useragent import UserAgenttry:  from lxml import etreeexcept Exception as e:  import lxml.html  # 实例化一个etree对象(解决通过from lxml import etree导包失败)  etree = lxml.html.etree# 实例化UserAgent对象,用于产生随机UserAgentua = UserAgent()class BlogSpider(object):  """  Increase the number of CSDN blog visits.  """  def __init__(self):    self.url = "https://blog.csdn.net/PY0312/article/list/{}"    self.headers = {      "Referer": "https://blog.csdn.net/PY0312/",      "User-Agent": ua.random    }    self.firefoxHead = {      "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}    self.IPRegular = r"(([1-9]?\d|1\d{2}|2[0-4]\d|25[0-5]).){3}([1-9]?\d|1\d{2}|2[0-4]\d|25[0-5])"  def send_request(self, num):    """    模拟浏览器发起请求    :param num: num    :return: html_str    """    html_str = requests.get(self.url.format(      num), headers=self.headers).content.decode()    # print(html_str)    return html_str  def parse_data(self, html_str):    """    用于解析发起请求返回的数据    :param html_str:    :return: each_page_urls    """    # 将返回的 html字符串 转换为 element对象,用于xpath操作    element_obj = etree.HTML(html_str)    # print(element_obj)    # 获取每一页所有blog的url    each_page_urls = element_obj.xpath(      '//*[@id="mainBox"]/main/div[2]/div/h4/a/@href')    # print(each_page_urls)    return each_page_urls  def parseIPList(self, url="http://www.xicidaili.com/"):    """    爬取最新代理ip,来源:西刺代理    注意:西刺代理容易被封,如遇到IP被封情况,采用以下两种方法即可解决:    方法一:请参考我上一篇博客《Python 实现快代理IP爬虫》 ===> 喜欢研究的同学,可参考对接此接口    方法二:直接屏蔽掉此接口,不使用代理也能正常使用    :param url: "http://www.xicidaili.com/"    :return: 代理IP列表ips    """    ips = []    request = urllib.request.Request(url, headers=self.firefoxHead)    response = urllib.request.urlopen(request)    soup = BeautifulSoup(response, "lxml")    tds = soup.find_all("td")    for td in tds:      string = str(td.string)      if re.search(self.IPRegular, string):        ips.append(string)    # print(ips)    return ips  def main(self, total_page, loop_times, each_num):    """    调度方法    :param total_page: 设置博客总页数    :param loop_times: 设置循环次数    :param each_num: 设置每一页要随机挑选文章数    :return:    """    i = 0    # 根据设置次数,打开循环    while i < loop_times:      # 遍历,得到每一页的页码      for j in range(total_page):        # 拼接每一页的url,并模拟发送请求, 返回响应数据        html_str = self.send_request(j + 1)        # 解析响应数据,得到每一页所有博文的url        each_page_urls = self.parse_data(html_str)        # 调用parseIPList随机产生代理IP,防反爬        # ips = self.parseIPList()        # proxies = {"http": "{}:8080".format(        #   ips[random.randint(0, 40)])}        # 遍历,每一页随机挑选each_num篇文章        for x in range(each_num):          # 随机抽取每一页的一篇博文进行访问,防反爬          current_url = random.choice(each_page_urls)          status = True if requests.get(current_url, headers=self.headers).content.decode() else False          print("当前正在访问的文章是:{},访问状态:{}".format(current_url, status))          time.sleep(1)  # 延时1秒,防反爬        time.sleep(1)  # 延时1秒,防反爬      i += 1if __name__ == '__main__':  bs = BlogSpider()  bs.main(7, 200, 3) # 参数参照main方法说明,酌情设置

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。


  • 上一条:
    python+Django实现防止SQL注入的办法
    下一条:
    基于Python+Appium实现京东双十一自动领金币功能
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(0个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 欧盟关于强迫劳动的规定的官方举报渠道及官方举报网站(0个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf文件功能(0个评论)
    • Laravel从Accel获得5700万美元A轮融资(0个评论)
    • 在go + gin中gorm实现指定搜索/区间搜索分页列表功能接口实例(0个评论)
    • 在go语言中实现IP/CIDR的ip和netmask互转及IP段形式互转及ip是否存在IP/CIDR(0个评论)
    • PHP 8.4 Alpha 1现已发布!(0个评论)
    • Laravel 11.15版本发布 - Eloquent Builder中添加的泛型(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客