侯体宗的博客
  • 首页
  • Hyperf版
  • beego仿版
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

Python爬取当当、京东、亚马逊图书信息代码实例

Python  /  管理员 发布于 7年前   216

注:1.本程序采用MSSQLserver数据库存储,请运行程序前手动修改程序开头处的数据库链接信息

2.需要bs4、requests、pymssql库支持

3.支持多线程

from bs4 import BeautifulSoup import re,requests,pymysql,threading,os,traceback  try:   conn = pymysql.connect(host='127.0.0.1', port=3306, user='root', passwd='root', db='book',charset="utf8")   cursor = conn.cursor() except:   print('\n错误:数据库连接失败')  #返回指定页面的html信息 def getHTMLText(url):   try:     headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36'}     r = requests.get(url,headers = headers)     r.raise_for_status()     r.encoding = r.apparent_encoding     return r.text   except:     return '' #返回指定url的Soup对象 def getSoupObject(url):   try:     html = getHTMLText(url)     soup = BeautifulSoup(html,'html.parser')     return soup   except:     return '' #获取该关键字在图书网站上的总页数 def getPageLength(webSiteName,url):   try:     soup = getSoupObject(url)     if webSiteName == 'DangDang':       a = soup('a',{'name':'bottom-page-turn'})       return a[-1].string     elif webSiteName == 'Amazon':       a = soup('span',{'class':'pagnDisabled'})       return a[-1].string   except:     print('\n错误:获取{}总页数时出错...'.format(webSiteName))     return -1  class DangDangThread(threading.Thread):   def __init__(self,keyword):     threading.Thread.__init__(self)     self.keyword = keyword   def run(self):     print('\n提示:开始爬取当当网数据...')     count = 1        length = getPageLength('DangDang','http://search.dangdang.com/?key={}'.format(self.keyword))#总页数     tableName = 'db_{}_dangdang'.format(self.keyword)      try:       print('\n提示:正在创建DangDang表...')       cursor.execute('create table {} (id int ,title text,prNow text,prPre text,link text)'.format(tableName))       print('\n提示:开始爬取当当网页面...')       for i in range(1,int(length)):         url = 'http://search.dangdang.com/?key={}&page_index={}'.format(self.keyword,i)         soup = getSoupObject(url)         lis = soup('li',{'class':re.compile(r'line'),'id':re.compile(r'p')})         for li in lis:           a = li.find_all('a',{'name':'itemlist-title','dd_name':'单品标题'})           pn = li.find_all('span',{'class': 'search_now_price'})           pp = li.find_all('span',{'class': 'search_pre_price'})if not len(a) == 0: link = a[0].attrs['href'] title = a[0].attrs['title'].strip()           else: link = 'NULL' title = 'NULL'if not len(pn) == 0: prNow = pn[0].string           else: prNow = 'NULL'if not len(pp) == 0: prPre = pp[0].string           else: prPre = 'NULL'           sql = "insert into {} (id,title,prNow,prPre,link) values ({},'{}','{}','{}','{}')".format(tableName,count,title,prNow,prPre,link)           cursor.execute(sql)           print('\r提示:正在存入当当数据,当前处理id:{}'.format(count),end='')           count += 1           conn.commit()     except:       pass class AmazonThread(threading.Thread):   def __init__(self,keyword):     threading.Thread.__init__(self)     self.keyword = keyword    def run(self):     print('\n提示:开始爬取亚马逊数据...')     count = 1     length = getPageLength('Amazon','https://www.amazon.cn/s/keywords={}'.format(self.keyword))#总页数     tableName = 'db_{}_amazon'.format(self.keyword)          try:       print('\n提示:正在创建Amazon表...')       cursor.execute('create table {} (id int ,title text,prNow text,link text)'.format(tableName))          print('\n提示:开始爬取亚马逊页面...')       for i in range(1,int(length)):         url = 'https://www.amazon.cn/s/keywords={}&page={}'.format(self.keyword,i)         soup = getSoupObject(url)         lis = soup('li',{'id':re.compile(r'result_')})         for li in lis:           a = li.find_all('a',{'class':'a-link-normal s-access-detail-page a-text-normal'})           pn = li.find_all('span',{'class': 'a-size-base a-color-price s-price a-text-bold'})           if not len(a) == 0: link = a[0].attrs['href'] title = a[0].attrs['title'].strip()           else: link = 'NULL' title = 'NULL'if not len(pn) == 0: prNow = pn[0].string           else: prNow = 'NULL'sql = "insert into {} (id,title,prNow,link) values ({},'{}','{}','{}')".format(tableName,count,title,prNow,link)           cursor.execute(sql)           print('\r提示:正在存入亚马逊数据,当前处理id:{}'.format(count),end='')           count += 1           conn.commit()     except:       pass class JDThread(threading.Thread):   def __init__(self,keyword):     threading.Thread.__init__(self)     self.keyword = keyword   def run(self):     print('\n提示:开始爬取京东数据...')     count = 1      tableName = 'db_{}_jd'.format(self.keyword)          try:       print('\n提示:正在创建JD表...')       cursor.execute('create table {} (id int,title text,prNow text,link text)'.format(tableName))       print('\n提示:开始爬取京东页面...')       for i in range(1,100):         url = 'https://search.jd.com/Search?keyword={}&page={}'.format(self.keyword,i)         soup = getSoupObject(url)         lis = soup('li',{'class':'gl-item'})         for li in lis:           a = li.find_all('div',{'class':'p-name'})           pn = li.find_all('div',{'class': 'p-price'})[0].find_all('i')if not len(a) == 0: link = 'http:' + a[0].find_all('a')[0].attrs['href'] title = a[0].find_all('em')[0].get_text()           else: link = 'NULL' title = 'NULL'          if(len(link) > 128): link = 'TooLong'if not len(pn) == 0: prNow = '¥'+ pn[0].string           else: prNow = 'NULL'           sql = "insert into {} (id,title,prNow,link) values ({},'{}','{}','{}')".format(tableName,count,title,prNow,link)           cursor.execute(sql)           print('\r提示:正在存入京东网数据,当前处理id:{}'.format(count),end='')           count += 1           conn.commit()     except :       pass def closeDB():   global conn,cursor   conn.close()   cursor.close()  def main():   print('提示:使用本程序,请手动创建空数据库:Book,并修改本程序开头的数据库连接语句')   keyword = input("\n提示:请输入要爬取的关键字:")    dangdangThread = DangDangThread(keyword)   amazonThread = AmazonThread(keyword)   jdThread = JDThread(keyword)    dangdangThread.start()   amazonThread.start()   jdThread.start()   dangdangThread.join()   amazonThread.join()   jdThread.join()    closeDB()    print('\n爬取已经结束,即将关闭....')   os.system('pause')    main() 

示例截图:

关键词:Android下的部分运行结果(以导出至Excel)

总结

以上就是本文关于Python爬取当当、京东、亚马逊图书信息代码实例的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站:

python爬取亚马逊书籍信息代码分享

Python爬虫实例爬取网站搞笑段子

Python探索之爬取电商售卖信息代码示例

如有不足之处,欢迎留言指出。感谢朋友们对本站的支持!


  • 上一条:
    Python排序搜索基本算法之希尔排序实例分析
    下一条:
    Python数据结构与算法之图的广度优先与深度优先搜索算法示例
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 在windows10中升级go版本至1.24后LiteIDE的Ctrl+左击无法跳转问题解决方案(0个评论)
    • 智能合约Solidity学习CryptoZombie第四课:僵尸作战系统(0个评论)
    • 智能合约Solidity学习CryptoZombie第三课:组建僵尸军队(高级Solidity理论)(0个评论)
    • 智能合约Solidity学习CryptoZombie第二课:让你的僵尸猎食(0个评论)
    • 智能合约Solidity学习CryptoZombie第一课:生成一只你的僵尸(0个评论)
    • 在go中实现一个常用的先进先出的缓存淘汰算法示例代码(0个评论)
    • 在go+gin中使用"github.com/skip2/go-qrcode"实现url转二维码功能(0个评论)
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(0个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客