侯体宗的博客
  • 首页
  • Hyperf版
  • beego仿版
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

Python爬虫实现爬取百度百科词条功能实例

Python  /  管理员 发布于 7年前   233

本文实例讲述了Python爬虫实现爬取百度百科词条功能。分享给大家供大家参考,具体如下:

爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索。常见的爬虫框架有Scrapy等。

自定义爬虫程序一般包含:URL管理器、网页下载器、网页解析器、输出处理器。

以下我写了一个爬取百度百科词条的实例。

爬虫主程序入口

from crawler_test.html_downloader import UrlDownLoaderfrom crawler_test.html_outer import HtmlOuterfrom crawler_test.html_parser import HtmlParserfrom crawler_test.url_manager import UrlManager# 爬虫主程序入口class MainCrawler():  def __init__(self):    # 初始值,实例化四大处理器:url管理器,下载器,解析器,输出器    self.urls = UrlManager()    self.downloader = UrlDownLoader()    self.parser = HtmlParser()    self.outer = HtmlOuter()  # 开始爬虫方法  def start_craw(self, main_url):    print('爬虫开始...')    count = 1    self.urls.add_new_url(main_url)    while self.urls.has_new_url():      try:        new_url = self.urls.get_new_url()        print('爬虫%d,%s' % (count, new_url))        html_cont = self.downloader.down_load(new_url)        new_urls, new_data = self.parser.parse(new_url, html_cont)        # 将解析出的url放入url管理器,解析出的数据放入输出器中        self.urls.add_new_urls(new_urls)        self.outer.conllect_data(new_data)        if count >= 10:# 控制爬取的数量          break        count += 1      except:        print('爬虫失败一条')    self.outer.output()    print('爬虫结束。')if __name__ == '__main__':  main_url = 'https://baike.baidu.com/item/Python/407313'  mc = MainCrawler()  mc.start_craw(main_url)

URL管理器

# URL管理器class UrlManager():  def __init__(self):    self.new_urls = set() # 待爬取    self.old_urls = set() # 已爬取  # 添加一个新的url  def add_new_url(self, url):    if url is None:      return    elif url not in self.new_urls and url not in self.old_urls:      self.new_urls.add(url)  # 批量添加url  def add_new_urls(self, urls):    if urls is None or len(urls) == 0:      return    else:      for url in urls:        self.add_new_url(url)  # 判断是否有url  def has_new_url(self):    return len(self.new_urls) != 0  # 从待爬取的集合中获取一个url  def get_new_url(self):    new_url = self.new_urls.pop()    self.old_urls.add(new_url)    return new_url

网页下载器

from urllib import request# 网页下载器class UrlDownLoader():  def down_load(self, url):    if url is None:      return None    else:      rt = request.Request(url=url, method='GET')   # 发GET请求      with request.urlopen(rt) as rp:         # 打开网页        if rp.status != 200:          return None        else:          return rp.read()# 读取网页内容

网页解析器

import refrom urllib import parsefrom bs4 import BeautifulSoup# 网页解析器,使用BeautifulSoupclass HtmlParser():  # 每个词条中,可以有多个超链接  # main_url指url公共部分,如“https://baike.baidu.com/”  def _get_new_url(self, main_url, soup):    # baike.baidu.com/    # <a target="_blank" href="https:item/%E8%AE%A1%E7%AE%97%E6%9C%BA%E7%A8%8B%E5%BA%8F%E8%AE%BE%E8%AE%A1%E8%AF%AD%E8%A8%80" rel="external nofollow" >计算机程序设计语言</a>    new_urls = set()    # 解析出main_url之后的url部分    child_urls = soup.find_all('a', href=re.compile(r'/item/(\%\w{2})+'))    for child_url in child_urls:      new_url = child_url['href']      # 再拼接成完整的url      full_url = parse.urljoin(main_url, new_url)      new_urls.add(full_url)    return new_urls  # 每个词条中,只有一个描述内容,解析出数据(词条,内容)  def _get_new_data(self, main_url, soup):    new_datas = {}    new_datas['url'] = main_url    # <dd class="lemmaWgt-lemmaTitle-title"><h1>计算机程序设计语言</h1>...    new_datas['title'] = soup.find('dd', class_='lemmaWgt-lemmaTitle-title').find('h1').get_text()    # class="lemma-summary" label-module="lemmaSummary"...    new_datas['content'] = soup.find('div', attrs={'label-module': 'lemmaSummary'},         class_='lemma-summary').get_text()    return new_datas  # 解析出url和数据(词条,内容)  def parse(self, main_url, html_cont):    if main_url is None or html_cont is None:      return    soup = BeautifulSoup(html_cont, 'lxml', from_encoding='utf-8')    new_url = self._get_new_url(main_url, soup)    new_data = self._get_new_data(main_url, soup)    return new_url, new_data

输出处理器

# 输出器class HtmlOuter():  def __init__(self):    self.datas = []  # 先收集数据  def conllect_data(self, data):    if data is None:      return    self.datas.append(data)    return self.datas  # 输出为HTML  def output(self, file='output_html.html'):    with open(file, 'w', encoding='utf-8') as fh:      fh.write('<html>')      fh.write('<head>')      fh.write('<meta charset="utf-8"></meta>')      fh.write('<title>爬虫数据结果</title>')      fh.write('</head>')      fh.write('<body>')      fh.write(        '<table style="border-collapse:collapse; border:1px solid gray; width:80%; word-break:break-all; margin:20px auto;">')      fh.write('<tr>')      fh.write('<th style="border:1px solid black; width:35%;">URL</th>')      fh.write('<th style="border:1px solid black; width:15%;">词条</th>')      fh.write('<th style="border:1px solid black; width:50%;">内容</th>')      fh.write('</tr>')      for data in self.datas:        fh.write('<tr>')        fh.write('<td style="border:1px solid black">{0}</td>'.format(data['url']))        fh.write('<td style="border:1px solid black">{0}</td>'.format(data['title']))        fh.write('<td style="border:1px solid black">{0}</td>'.format(data['content']))        fh.write('</tr>')      fh.write('</table>')      fh.write('</body>')      fh.write('</html>')

效果(部分):

更多关于Python相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python正则表达式用法总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》

希望本文所述对大家Python程序设计有所帮助。


  • 上一条:
    Python HTML解析模块HTMLParser用法分析【爬虫工具】
    下一条:
    Python3.5多进程原理与用法实例分析
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 在go+gin中使用"github.com/skip2/go-qrcode"实现url转二维码功能(0个评论)
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(0个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 欧盟关于强迫劳动的规定的官方举报渠道及官方举报网站(0个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf文件功能(0个评论)
    • Laravel从Accel获得5700万美元A轮融资(0个评论)
    • 在go + gin中gorm实现指定搜索/区间搜索分页列表功能接口实例(0个评论)
    • 在go语言中实现IP/CIDR的ip和netmask互转及IP段形式互转及ip是否存在IP/CIDR(0个评论)
    • PHP 8.4 Alpha 1现已发布!(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客