从零学习Kafka:配置参数

张开发
2026/5/4 9:17:49 15 分钟阅读
从零学习Kafka:配置参数
roker 端参数第一个要介绍的参数是log.dirs它是 Broker 的一个最基本的参数用来指定数据存储的目录多个目录之间用逗号分隔。这个参数是必填参数且没有默认值。因此必须要手动配置。在生产环境中我们可以给这个目录配置挂载在多个不同磁盘的路径这样既可以提升读写性能又可以实现故障转移。Kafka 还提供了log.dir参数作为log.dirs的补充这个参数只能配置一个目录默认值是/tmp/kafka-logs通常情况下我们只需要配置log.dirs就好。第二个参数是process.roles它用来指定 broker 的角色可以是 broker 或者 controller也可以同时指定为 broker,controller。第三个参数是listeners它是 broker 的“耳朵”指定了 broker 如何监听外部连接。连接的配置是一个三元组包括协议名称主机名端口号。Kafka 目前支持四种安全协议PLAINTEXT明文传输SSL/TLS加密传输SASL_PLAINTEXT认证明文传输SASL_SSL认证加密传输为最高安全级别此外还可以自定义协议名称但需要配置listener.security.protocol.map参数。主机名可以指定为一个确定的主机名也可以是 0.0.0.0 这代表了 broker 会监听所有网卡。主机名也可以是空代表监听默认接口。第四个参数是advertised.listeners这组配置是 Broker 发布的监听也就是告诉别人“怎么找到我”。它的配置格式和 listeners 相同。再来看几个集群稳定性和元数据管理相关的参数。第五个是auto.create.topics.enable表示是否允许自动创建 topic。在生产环境中一般设置为 false需要用户手动创建 topic方便管理。第六个是unclean.leader.election.enable表示是否允许 unclean leader 选举。unclean 就是落后太多的副本如果允许这部分副本参与选举可能会造成数据丢失因此最好手动设置 false。在最新版本中它的默认值就是 false为什么还要手动设置呢因为不同的 Kafka 版本中这个参数的默认值是不一样的最开始是 false后来改成了 true现在又改回了 false。为了避免数据丢失我们还是手动设置成 false 比较放心。第七个参数是auto.leader.rebalance.enable表示是否允许定期选举 leader这个参数最好也设置为 false如果设置为 true 的话即使当前 leader 一直运行的很稳定Kafka 也会重新选举出一个新的 leader 来替代它。替换 leader 的成本还是非常高的所有连接到旧 leader 的 client 都需要与新的 leader 重新建立连接。第八个参数是min.insync.replicas表示最小同步副本数它与生产者的 acksall 配合。如果存活的副本数小于这个值producer 在写入时会直接报错。这个配置可以保证我们在牺牲部分可用性的情况下确保数据的正确性。接下来我们再看几个数据生命周期相关的参数。第九个参数是log.retention.hours / minutes / ms这其实是三个参数表示的意思一样都是数据留存时长只是时间单位不同。如果三个参数都配置了优先级是 ms minutes hours。第十个参数log.retention.bytes它表示单个 broker 上存储的最大字节数默认是 -1也就是没有限制。在数据激增时它可以是保护磁盘不溢出的最后防线。第十一个参数是log.segment.bytes它表示单个日志文件的大小默认是 1GB。Topic 参数Topic 级别的参数会覆盖 Broker 参数的值它的主要作用针对不同的 topic 灵活的配置参数。最常见的是我们在生产环境中针对不同的 topic 会配置不同的数据保留时长。这也是我们要介绍的第一个参数retention.ms它对应的 broker 端的参数就是log.retention.ms。第二个参数是retention.bytes它对应的是log.retention.bytes。第三个参数是cleanup.policy它对应的是 broker 端的log.cleanup.policy这个参数代表了数据清理策略默认值是 delete即直接物理删除。也可以配置为 compact对每个 key 只保留最新的值这种策略比较适合一些状态保存的场景。第四个参数是segment.bytes与之对应的 broker 参数是log.segment.bytes同样是控制 Log Segment 文件的大小默认是 1GB。调小可以让 Kafka 更及时的回收磁盘空间但容易产生大量小文件增大索引压力。一般保持默认值就好。第五个参数是max.message.bytes它限制了该 Topic 能接收的最大单条消息的大小默认是 1MB对个别业务可以适当调大。需要注意的是它和消费端参数fetch.max.bytes的大小应该合理配置。如果max.message.bytes设置为 10MBfetch.max.bytes设置为 5MB当 Topic 中有超过 5MB 的消息时就会导致无法消费的问题。Producer 参数首先第一个参数是acks它有几个值0不管是否写入成功1Leader 写入成功即可all / -1ISR 都要写入成功默认值是 all如果设置成 0 或 1 性能会提高但有可能丢失数据。第二个参数是retries它控制请求的重试次数默认是 2147483647约等于无限重试了。第三个参数是batch.size默认是 16KB调大会提升吞吐量但是会增加内存占用。第四个参数是linger.ms它用来控制发送等待时间也就是“攒批”的时间Kafka 4.0 把它的默认值从 0 调成了 5。它可以和batch.size配合使用同时调大会提高吞吐但数据会有一定的延迟。在生产环境中我们可以根据不同的场景对其进行调整如果数据量极大但对延迟要求不高则可以考虑调大这两个参数。最后第五个参数是compression.type生产端的压缩算法默认不开启压缩目前支持的值为none、gzip、snappy、lz4、zstd。Consumer 参数最后我们再来看几个 Consumer 端的参数。第一个是group.id用来标识这个 consumer 属于哪个消费组。第二个是auto.offset.reset它用来标识 offset 的重置策略。支持以下几个值earliest从最早的 offset 开始消费latest从最新的 offset 开始消费by_duration需要配置为 by_duration:ISO-8601 格式的时间例如 by_duration:PT1H 即从 1 小时前的位移开始消费none如果没找到消费组的 offset就会抛出异常第三个参数是enable.auto.commit是否自动提交 offset默认是 true。在调用 poll 方法时会提交上一批次的 offset。也可以设置为 false这样就是手动提交自己控制在什么时候提交具体的细节我们以后再聊。第四个参数是max.poll.records表示单次拉取的消息条数默认是 500。如果单条数据的处理逻辑比较重可以调小这个值防止消费超时的情况。第五个参数是session.timeout.ms表示心跳超时时间默认是 45000即 45 秒。如果 Broker 超过 45 秒没收到 Consumer 的心跳就认为这个 Consumer 挂了会将它踢出消费组然后进行 Rebalance。总结

更多文章