侯体宗的博客
  • 首页
  • Hyperf版
  • beego仿版
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

Python爬虫实现使用beautifulSoup4爬取名言网功能案例

Python  /  管理员 发布于 7年前   308

本文实例讲述了Python爬虫实现使用beautifulSoup4爬取名言网功能。分享给大家供大家参考,具体如下:

爬取名言网top10标签对应的名言,并存储到mysql中,字段(名言,作者,标签)

#! /usr/bin/python3# -*- coding:utf-8 -*-from urllib.request import urlopen as openfrom bs4 import BeautifulSoupimport reimport pymysqldef find_top_ten(url):  response = open(url)  bs = BeautifulSoup(response,'html.parser')  tags = bs.select('span.tag-item a')  top_ten_href = [tag.get('href') for tag in tags]  top_ten_tag = [tag.text for tag in tags]  # print(top_ten_href)  # print(top_ten_tag)  return top_ten_hrefdef insert_into_mysql(records):  con = pymysql.connect(host='localhost',user='root',password='root',database='quotes',charset='utf8',port=3306)  cursor = con.cursor()  sql = "insert into quotes(content,author,tags) values(%s,%s,%s)"  for record in records:    cursor.execute(sql, record)  con.commit()  cursor.close()  con.close()# http://quotes.toscrape.com/tag/love/#要获取对应标签中所有的名言 所以这里要考虑分页的情况#经过在网页上查看知道分页查询的url#http://quotes.toscrape.com/tag/love/page/1/#判断到那一页没有数据 div.container div.row [1]def find_link_content(link):  page = 1  while True:    new_link = "http://quotes.toscrape.com" + link + "page/"    # print(new_link)    new_link = new_link + str(page)    print(new_link)    sub_bs = open(new_link)    sub_bs = BeautifulSoup(sub_bs,'html.parser')    quotes = sub_bs.select('div.row div.col-md-8 span.text')    # 如果没有数据就退出    if len(quotes) == 0:      break    #名言    quotes = [quote.text.strip('“”') for quote in quotes]    #作者    authors = sub_bs.select('small.author')    authors = [author.text for author in authors]    # 标签    tags_list = sub_bs.select('meta.keywords')    tags_list = [tags.get('content') for tags in tags_list]    # print(authors)    # print(quotes)    #print(tags_list)    record_list = []    for i in range(len(quotes)):      tags = tags_list[i]      tags = tags.replace(',',',')      print(tags)      record = [quotes[i],authors[i],tags]      record_list.append(record)    insert_into_mysql(record_list)    page += 1#def main():  url = "http://quotes.toscrape.com/"  parent_link = find_top_ten(url)  for link in parent_link:    print(link)    find_link_content(link)if __name__ == '__main__':  main()

更多关于Python相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python正则表达式用法总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》

希望本文所述对大家Python程序设计有所帮助。


  • 上一条:
    python tkinter基本属性详解
    下一条:
    Python爬虫实现的根据分类爬取豆瓣电影信息功能示例
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 智能合约Solidity学习CryptoZombie第三课:组建僵尸军队(高级Solidity理论)(0个评论)
    • 智能合约Solidity学习CryptoZombie第二课:让你的僵尸猎食(0个评论)
    • 智能合约Solidity学习CryptoZombie第一课:生成一只你的僵尸(0个评论)
    • 在go中实现一个常用的先进先出的缓存淘汰算法示例代码(0个评论)
    • 在go+gin中使用"github.com/skip2/go-qrcode"实现url转二维码功能(0个评论)
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(0个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 欧盟关于强迫劳动的规定的官方举报渠道及官方举报网站(0个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf文件功能(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客