侯体宗的博客
  • 首页
  • Hyperf版
  • beego仿版
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

python消费kafka数据批量插入到es的方法

Python  /  管理员 发布于 7年前   198

1、es的批量插入

这是为了方便后期配置的更改,把配置信息放在logging.conf中

用elasticsearch来实现批量操作,先安装依赖包,sudo pip install Elasticsearch2

from elasticsearch import Elasticsearch class ImportEsData:  logging.config.fileConfig("logging.conf")  logger = logging.getLogger("msg")  def __init__(self,hosts,index,type):    self.es = Elasticsearch(hosts=hosts.strip(',').split(','), timeout=5000)    self.index = index    self.type = type  def set_date(self,data):     # 批量处理     # es.index(index="test-index",doc_type="test-type",id=42,body={"any":"data","timestamp":datetime.now()})    self.es.index(index=self.index,doc_type=self.index,body=data)

2、使用pykafka消费kafka

1.因为kafka是0.8,pykafka不支持zk,只能用get_simple_consumer来实现

2.为了实现多个应用同时消费而且不重消费,所以一个应用消费一个partition

3. 为是确保消费数据量在不满足10000这个批量值,能在一个时间范围内插入到es中,这里设置consumer_timeout_ms一个超时等待时间,退出等待消费阻塞。

4.退出等待消费阻塞后导致无法再消费数据,因此在获取self.consumer 的外层加入了while True 一个死循环

#!/usr/bin/python# -*- coding: UTF-8 -*-from pykafka import KafkaClientimport loggingimport logging.configfrom ConfigUtil import ConfigUtilimport datetimeclass KafkaPython:  logging.config.fileConfig("logging.conf")  logger = logging.getLogger("msg")  logger_data = logging.getLogger("data")  def __init__(self):    self.server = ConfigUtil().get("kafka","kafka_server")    self.topic = ConfigUtil().get("kafka","topic")    self.group = ConfigUtil().get("kafka","group")    self.partition_id = int(ConfigUtil().get("kafka","partition"))    self.consumer_timeout_ms = int(ConfigUtil().get("kafka","consumer_timeout_ms"))    self.consumer = None    self.hosts = ConfigUtil().get("es","hosts")    self.index_name = ConfigUtil().get("es","index_name")    self.type_name = ConfigUtil().get("es","type_name")  def getConnect(self):    client = KafkaClient(self.server)    topic = client.topics[self.topic]    p = topic.partitions    ps={p.get(self.partition_id)}    self.consumer = topic.get_simple_consumer(      consumer_group=self.group,      auto_commit_enable=True,      consumer_timeout_ms=self.consumer_timeout_ms,      # num_consumer_fetchers=1,      # consumer_id='test1',      partitions=ps      )    self.starttime = datetime.datetime.now()  def beginConsumer(self):    print("beginConsumer kafka-python")    imprtEsData = ImportEsData(self.hosts,self.index_name,self.type_name)    #创建ACTIONS     count = 0    ACTIONS = []     while True:      endtime = datetime.datetime.now()      print (endtime - self.starttime).seconds      for message in self.consumer:        if message is not None:          try:count = count + 1# print(str(message.partition.id)+","+str(message.offset)+","+str(count))# self.logger.info(str(message.partition.id)+","+str(message.offset)+","+str(count))action = {   "_index": self.index_name,   "_type": self.type_name,   "_source": message.value}ACTIONS.append(action)if len(ACTIONS) >= 10000:  imprtEsData.set_date(ACTIONS)  ACTIONS = []  self.consumer.commit_offsets()  endtime = datetime.datetime.now()  print (endtime - self.starttime).seconds  #break          except (Exception) as e:# self.consumer.commit_offsets()print(e)self.logger.error(e)self.logger.error(str(message.partition.id)+","+str(message.offset)+","+message.value+"\n")# self.logger_data.error(message.value+"\n")          # self.consumer.commit_offsets()      if len(ACTIONS) > 0:        self.logger.info("等待时间超过,consumer_timeout_ms,把集合数据插入es")        imprtEsData.set_date(ACTIONS)        ACTIONS = []        self.consumer.commit_offsets()  def disConnect(self):    self.consumer.close()from elasticsearch import Elasticsearch from elasticsearch.helpers import bulkclass ImportEsData:  logging.config.fileConfig("logging.conf")  logger = logging.getLogger("msg")  def __init__(self,hosts,index,type):    self.es = Elasticsearch(hosts=hosts.strip(',').split(','), timeout=5000)    self.index = index    self.type = type  def set_date(self,data):     # 批量处理     success = bulk(self.es, data, index=self.index, raise_on_error=True)     self.logger.info(success) 

3、运行

if __name__ == '__main__':  kp = KafkaPython()  kp.getConnect()  kp.beginConsumer()  # kp.disConnect()

注:简单的写了一个从kafka中读取数据到一个list里,当数据达到一个阈值时,在批量插入到 es的插件

现在还在批量的压测中。。。

以上这篇python消费kafka数据批量插入到es的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。


  • 上一条:
    对python操作kafka写入json数据的简单demo分享
    下一条:
    Python通过paramiko远程下载Linux服务器上的文件实例
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 在windows10中升级go版本至1.24后LiteIDE的Ctrl+左击无法跳转问题解决方案(0个评论)
    • 智能合约Solidity学习CryptoZombie第四课:僵尸作战系统(0个评论)
    • 智能合约Solidity学习CryptoZombie第三课:组建僵尸军队(高级Solidity理论)(0个评论)
    • 智能合约Solidity学习CryptoZombie第二课:让你的僵尸猎食(0个评论)
    • 智能合约Solidity学习CryptoZombie第一课:生成一只你的僵尸(0个评论)
    • 在go中实现一个常用的先进先出的缓存淘汰算法示例代码(0个评论)
    • 在go+gin中使用"github.com/skip2/go-qrcode"实现url转二维码功能(0个评论)
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(0个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客