侯体宗的博客
  • 首页
  • Hyperf版
  • beego仿版
  • 人生(杂谈)
  • 技术
  • 关于我
  • 更多分类
    • 文件下载
    • 文字修仙
    • 中国象棋ai
    • 群聊
    • 九宫格抽奖
    • 拼图
    • 消消乐
    • 相册

深入了解如何基于Python读写Kafka

Python  /  管理员 发布于 7年前   204

这篇文章主要介绍了深入了解如何基于Python读写Kafka,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下

本篇会给出如何使用python来读写kafka, 包含生产者和消费者.

以下使用kafka-python客户端

生产者

爬虫大多时候作为消息的发送端, 在消息发出去后最好能记录消息被发送到了哪个分区, offset是多少, 这些记录在很多情况下可以帮助快速定位问题, 所以需要在send方法后加入callback函数, 包括成功和失败的处理

# -*- coding: utf-8 -*-'''callback也是保证分区有序的, 比如2条消息, a先发送, b后发送, 对于同一个分区, 那么会先回调a的callback, 再回调b的callback'''import jsonfrom kafka import KafkaProducertopic = 'demo'def on_send_success(record_metadata):  print(record_metadata.topic)  print(record_metadata.partition)  print(record_metadata.offset)def on_send_error(excp):  print('I am an errback: {}'.format(excp))def main():  producer = KafkaProducer(    bootstrap_servers='localhost:9092'  )  producer.send(topic, value=b'{"test_msg":"hello world"}').add_callback(on_send_success).add_callback(    on_send_error)  # close() 方法会阻塞等待之前所有的发送请求完成后再关闭 KafkaProducer  producer.close()def main2():  '''  发送json格式消息  :return:  '''  producer = KafkaProducer(    bootstrap_servers='localhost:9092',    value_serializer=lambda m: json.dumps(m).encode('utf-8')  )  producer.send(topic, value={"test_msg": "hello world"}).add_callback(on_send_success).add_callback(    on_send_error)  # close() 方法会阻塞等待之前所有的发送请求完成后再关闭 KafkaProducer  producer.close()if __name__ == '__main__':  # main()  main2()

消费者

kafka的消费模型比较复杂, 我会分以下几种情况来进行说明

1.不使用消费组(group_id=None)

不使用消费组的情况下可以启动很多个消费者, 不再受限于分区数, 即使消费者数量 > 分区数, 每个消费者也都可以收到消息

# -*- coding: utf-8 -*-'''消费者: group_id=None'''from kafka import KafkaConsumertopic = 'demo'def main():  consumer = KafkaConsumer(    topic,    bootstrap_servers='localhost:9092',    auto_offset_reset='latest',    # auto_offset_reset='earliest',  )  for msg in consumer:    print(msg)    print(msg.value)  consumer.close()if __name__ == '__main__':  main()

2.指定消费组

以下使用pool方法来拉取消息

pool 每次拉取只能拉取一个分区的消息, 比如有2个分区1个consumer, 那么会拉取2次

pool 是如果有消息马上进行拉取, 如果timeout_ms内没有新消息则返回空dict, 所以可能出现某次拉取了1条消息, 某次拉取了max_records条

# -*- coding: utf-8 -*-'''消费者: 指定group_id'''from kafka import KafkaConsumertopic = 'demo'group_id = 'test_id'def main():  consumer = KafkaConsumer(    topic,    bootstrap_servers='localhost:9092',    auto_offset_reset='latest',    group_id=group_id,  )  while True:    try:      # return a dict      batch_msgs = consumer.poll(timeout_ms=1000, max_records=2)      if not batch_msgs:        continue      '''      {TopicPartition(topic='demo', partition=0): [ConsumerRecord(topic='demo', partition=0, offset=42, timestamp=1576425111411, timestamp_type=0, key=None, value=b'74', headers=[], checksum=None, serialized_key_size=-1, serialized_value_size=2, serialized_header_size=-1)]}      '''      for tp, msgs in batch_msgs.items():        print('topic: {}, partition: {} receive length: '.format(tp.topic, tp.partition, len(msgs)))        for msg in msgs:          print(msg.value)    except KeyboardInterrupt:      break  consumer.close()if __name__ == '__main__':  main()

关于消费组

我们根据配置参数分为以下几种情况

  • group_id=None
    • auto_offset_reset='latest': 每次启动都会从最新出开始消费, 重启后会丢失重启过程中的数据
    • auto_offset_reset='latest': 每次从最新的开始消费, 不会管哪些任务还没有消费
  • 指定group_id
    • 全新group_id
      • auto_offset_reset='latest': 只消费启动后的收到的数据, 重启后会从上次提交offset的地方开始消费
      • auto_offset_reset='earliest': 从最开始消费全量数据
    • 旧group_id(即kafka集群中还保留着该group_id的提交记录)
      • auto_offset_reset='latest': 从上次提交offset的地方开始消费
      • auto_offset_reset='earliest': 从上次提交offset的地方开始消费

性能测试

以下是在本地进行的测试, 如果要在线上使用kakfa, 建议提前进行性能测试

producer

# -*- coding: utf-8 -*-'''producer performanceenvironment:  mac  python3.7  broker 1  partition 2'''import jsonimport timefrom kafka import KafkaProducertopic = 'demo'nums = 1000000def main():  producer = KafkaProducer(    bootstrap_servers='localhost:9092',    value_serializer=lambda m: json.dumps(m).encode('utf-8')  )  st = time.time()  cnt = 0  for _ in range(nums):    producer.send(topic, value=_)    cnt += 1    if cnt % 10000 == 0:      print(cnt)  producer.flush()  et = time.time()  cost_time = et - st  print('send nums: {}, cost time: {}, rate: {}/s'.format(nums, cost_time, nums // cost_time))if __name__ == '__main__':  main()'''send nums: 1000000, cost time: 61.89236712455749, rate: 16157.0/ssend nums: 1000000, cost time: 61.29534196853638, rate: 16314.0/s'''

consumer

# -*- coding: utf-8 -*-'''consumer performance'''import timefrom kafka import KafkaConsumertopic = 'demo'group_id = 'test_id'def main1():  nums = 0  st = time.time()  consumer = KafkaConsumer(    topic,    bootstrap_servers='localhost:9092',    auto_offset_reset='latest',    group_id=group_id  )  for msg in consumer:    nums += 1    if nums >= 500000:      break  consumer.close()  et = time.time()  cost_time = et - st  print('one_by_one: consume nums: {}, cost time: {}, rate: {}/s'.format(nums, cost_time, nums // cost_time))def main2():  nums = 0  st = time.time()  consumer = KafkaConsumer(    topic,    bootstrap_servers='localhost:9092',    auto_offset_reset='latest',    group_id=group_id  )  running = True  batch_pool_nums = 1  while running:    batch_msgs = consumer.poll(timeout_ms=1000, max_records=batch_pool_nums)    if not batch_msgs:      continue    for tp, msgs in batch_msgs.items():      nums += len(msgs)      if nums >= 500000:        running = False        break  consumer.close()  et = time.time()  cost_time = et - st  print('batch_pool: max_records: {} consume nums: {}, cost time: {}, rate: {}/s'.format(batch_pool_nums, nums,          cost_time,          nums // cost_time))if __name__ == '__main__':  # main1()  main2()'''one_by_one: consume nums: 500000, cost time: 8.018627166748047, rate: 62354.0/sone_by_one: consume nums: 500000, cost time: 7.698841094970703, rate: 64944.0/sbatch_pool: max_records: 1 consume nums: 500000, cost time: 17.975456953048706, rate: 27815.0/sbatch_pool: max_records: 1 consume nums: 500000, cost time: 16.711708784103394, rate: 29919.0/sbatch_pool: max_records: 500 consume nums: 500369, cost time: 6.654940843582153, rate: 75187.0/sbatch_pool: max_records: 500 consume nums: 500183, cost time: 6.854053258895874, rate: 72976.0/sbatch_pool: max_records: 1000 consume nums: 500485, cost time: 6.504687070846558, rate: 76942.0/sbatch_pool: max_records: 1000 consume nums: 500775, cost time: 7.047331809997559, rate: 71058.0/s'''

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。


  • 上一条:
    python ftplib模块使用代码实例
    下一条:
    Python面向对象之继承原理与用法案例分析
  • 昵称:

    邮箱:

    0条评论 (评论内容有缓存机制,请悉知!)
    最新最热
    • 分类目录
    • 人生(杂谈)
    • 技术
    • linux
    • Java
    • php
    • 框架(架构)
    • 前端
    • ThinkPHP
    • 数据库
    • 微信(小程序)
    • Laravel
    • Redis
    • Docker
    • Go
    • swoole
    • Windows
    • Python
    • 苹果(mac/ios)
    • 相关文章
    • 在python语言中Flask框架的学习及简单功能示例(0个评论)
    • 在Python语言中实现GUI全屏倒计时代码示例(0个评论)
    • Python + zipfile库实现zip文件解压自动化脚本示例(0个评论)
    • python爬虫BeautifulSoup快速抓取网站图片(1个评论)
    • vscode 配置 python3开发环境的方法(0个评论)
    • 近期文章
    • 在go语言中使用api.geonames.org接口实现根据国际邮政编码获取地址信息功能(1个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf分页文件功能(0个评论)
    • gmail发邮件报错:534 5.7.9 Application-specific password required...解决方案(0个评论)
    • 欧盟关于强迫劳动的规定的官方举报渠道及官方举报网站(0个评论)
    • 在go语言中使用github.com/signintech/gopdf实现生成pdf文件功能(0个评论)
    • Laravel从Accel获得5700万美元A轮融资(0个评论)
    • 在go + gin中gorm实现指定搜索/区间搜索分页列表功能接口实例(0个评论)
    • 在go语言中实现IP/CIDR的ip和netmask互转及IP段形式互转及ip是否存在IP/CIDR(0个评论)
    • PHP 8.4 Alpha 1现已发布!(0个评论)
    • Laravel 11.15版本发布 - Eloquent Builder中添加的泛型(0个评论)
    • 近期评论
    • 122 在

      学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..
    • 123 在

      Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..
    • 原梓番博客 在

      在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..
    • 博主 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..
    • 1111 在

      佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
    • 2016-10
    • 2016-11
    • 2018-04
    • 2020-03
    • 2020-04
    • 2020-05
    • 2020-06
    • 2022-01
    • 2023-07
    • 2023-10
    Top

    Copyright·© 2019 侯体宗版权所有· 粤ICP备20027696号 PHP交流群

    侯体宗的博客