苏州高端网站建设公司哪家好王福滨哈尔滨建设
- 作者: 五速梦信息网
- 时间: 2026年04月20日 08:26
当前位置: 首页 > news >正文
苏州高端网站建设公司哪家好,王福滨哈尔滨建设,个人不动产证查询官网,新乡做新网站#x1f33b;#x1f33b; 目录 一、Kafka Broker1.1 Kafka Broker工作流程1.1.1 Zookeeper 存储的Kafka信息1.1.2 Kafka Broker 总体工作流程1.1.3 Broker 重要参数 1.2 生产经验——节点服役和退役1.2.1 服役新节点1.2.2 退役旧节点 1.3 Kafka 副本1.3.1 副本基本信息1.3.2… 目录 一、Kafka Broker1.1 Kafka Broker工作流程1.1.1 Zookeeper 存储的Kafka信息1.1.2 Kafka Broker 总体工作流程1.1.3 Broker 重要参数 1.2 生产经验——节点服役和退役1.2.1 服役新节点1.2.2 退役旧节点 1.3 Kafka 副本1.3.1 副本基本信息1.3.2 Leader 选举流程1.3.3 Leader 和 Follower 故障处理细节1.3.4 分区副本分配1.3.5 生产经验——手动调整分区副本存储1.3.6 生产经验——Leader Partition负载平衡1.3.7 生产经验——增加副本因子 1.4 文件存储1.4.1 文件存储机制1.4.2 文件清理策略 1.5 高效读写数据 一、Kafka Broker 1.1 Kafka Broker工作流程 1.1.1 Zookeeper 存储的Kafka信息 1启动Zookeeper客户端。 cd /usr/local/zookeeper/bin/ls./zkCli.sh 2通过ls命令可以查看kafka相关信息。 ls /ls /kafka/ls /kafka/brokers/ls /kafka/brokers/idszookeerper 可视化工具 PrettyZoo 下载使用参考 ① ② 1.1.2 Kafka Broker 总体工作流程 1模拟Kafka上下线Zookeeper中数据变化 1查看/kafka/brokers/ids路径上的节点。 ./kafka-server-start.sh -daemon /usr/local/kafka/config/server.properties./kafka-server-stop.sh1.1.3 Broker 重要参数 1.2 生产经验——节点服役和退役 1.2.1 服役新节点 1新节点准备 1关闭linux-102(已经装了hadoop,jdk,zookeeper,kafka)并右键执行克隆操作,linux-103,linux-104(注之前若有直接可以删掉重新克隆) 2开启linux-103linux-104 并修改IP地址。 ① ② ③ ④ 修改ip将192.168.10.102修改为 192.168.10.103保存并重启网络 ⑤ 修改 主机名 ⑥ 重启进行远程连接 ⑦ 删除日志并分别修改linux-103与linux-102 的节点 id 和服务器 ip并开启集群配置 开启集群配置(linux-102,linux-103,linux-104都需修改) (3) 先启动linux-102,再启动linux-103再次启动 linux-104(脚本启动后期更新) cd /usr/local/zookeeper/bin/./zkServer.sh start./zkServer.sh statuscd /usr/local/kafka/bin./kafka-server-start.sh -daemon /usr/local/kafka/config/server.properties(4) 查看 linux-102 上有哪些主题并分配了分区(生产环境建议至少分两个副区如果不小心删除一个则还有一个类似备份的) ./kafka-topics.sh –bootstrap-server linux-102:9092 –list./kafka-topics.sh –bootstrap-server linux-102:9092 –topic first –describe思考如何将linux-102上面的一些分到linux-103达到负载均衡呢看下面 2 2执行负载均衡操作 1创建一个要均衡的主题在 linux-102 服务器的 kafka下面创建。 cd /usr/local/kafkavi topics-to-move.json{topics: [{topic: first}],version: 1 }2生成一个负载均衡的计划在 linux-102 服务器的 kafka下面生成。
0,1,2 代表三台服务器
bin/kafka-reassign-partitions.sh –bootstrap-server linux-102:9092 –topics-to-move-json-file topics-to-move.json –broker-list 0,1,2 –generate遇到错误java.io.IOException: Unable to read file topics-to-move.json 解决直接切换到kafka 根目录进行生成即可 3创建副本存储计划所有副本存储在broker2、broker3、broker4。 vi increase-replication-factor.json输入如下内容 {version:1,partitions:[{topic:first,partition:0,replicas:[2],log_dirs:[any]},{topic:first,partition:1,replicas:[2],log_dirs:[any]},{topic:first,partition:2,replicas:[2],log_dirs:[any]},{topic:first,partition:3,replicas:[2],log_dirs:[any]}]}4执行副本存储计划。 bin/kafka-reassign-partitions.sh –bootstrap-server linux-102:9092 –reassignment-json-file increase-replication-factor.json –execute5验证副本存储计划。 bin/kafka-reassign-partitions.sh –bootstrap-server linux-102:9092 –reassignment-json-file increase-replication-factor.json –verify上述操作都是在linux-102上操作的。 1.2.2 退役旧节点 1执行负载均衡操作 先按照退役一台节点生成执行计划然后按照服役时操作流程执行负载均衡。 1创建一个要均衡的主题。 与上面1创建一个要均衡的主题在 linux-102 服务器的 kafka下面创建。一样无需再创建。 2创建执行计划。 #上面是分配到了三台机器 234现在移除 4即服务器 linux-104 bin/kafka-reassign-partitions.sh –bootstrap-server linux-102:9092 –topics-to-move-json-file topics-to-move.json –broker-list 2,3 –generate3创建副本存储计划所有副本存储在broker2、broker3。 vi increase-replication-factor.json删除前面的将上面复制的粘贴里面保存即可。 粘贴上面复制的如下内容 {version:1,partitions:[{topic:first,partition:0,replicas:[2],log_dirs:[any]},{topic:first,partition:1,replicas:[2],log_dirs:[any]},{topic:first,partition:2,replicas:[2],log_dirs:[any]},{topic:first,partition:3,replicas:[2],log_dirs:[any]}]}4执行副本存储计划。 bin/kafka-reassign-partitions.sh –bootstrap-server linux-102:9092 –reassignment-json-file increase-replication-factor.json –execute5验证副本存储计划。 bin/kafka-reassign-partitions.sh –bootstrap-server linux-102:9092 –reassignment-json-file increase-replication-factor.json –verify2执行停止命令 在linux-104上执行停止命令即可 ./kafka-server-stop.sh1.3 Kafka 副本 下面的所有后期会详细更新可跳过直接看 大数据技术之Kafka3.x4 1.3.1 副本基本信息 1Kafka 副本作用提高数据可靠性。2Kafka默认副本1个生产环境一般配置为2个保证数据可靠性太多副本会增加磁盘存储空间增加网络上数据传输降低效率。3Kafka中副本分为Leader和Follower。Kafka生产者只会把数据发往Leader然后Follower找Leader进行同步数据。 4Kafka分区中的所有副本统称为ARAssigned Repllicas。 AR ISR OSR ISR表示和Leader保持同步的Follower集合。如果Follower长时间未向Leader发送通信请求或同步数据则该Follower将被踢出ISR。该时间阈值由replica.lag.time.max.ms参数设定默认30s。Leader发生故障之后就会从ISR中选举新的Leader。 OSR表示Follower与Leader副本同步时延迟过多的副本。 1.3.2 Leader 选举流程 (跳过后期更新) Kafka 集群中有一个broker的Controller会被选举为Controller Leader负责管理集群 broker 的上下线所有topic的分区副本分配和Leader选举等工作。 Controller的信息同步工作是依赖于Zookeeper的。 开启 linux-102,linux-103,linux-104,进行如下操作 1创建一个新的topic4个分区4个副本因为我是单节点所以设置了 1 bin/kafka-topics.sh –bootstrap-server linux-102:9092 –create –topic Daniel1 –partitions 1 –replication-factor 12查看Leader分布情况 bin/kafka-topics.sh –bootstrap-server linux-102:9092 –describe –topic Daniel13停止掉linux-103的kafka进程并查看Leader分区情况 4停止掉linux-104的kafka进程并查看Leader分区情况 5启动linux-104的kafka进程并查看Leader分区情况 6启动linux-104的kafka进程并查看Leader分区情况 7停止掉linux-103的kafka进程并查看Leader分区情况 1.3.3 Leader 和 Follower 故障处理细节 1.3.4 分区副本分配 (跳过后期更新) 如果kafka服务器只有4个节点那么设置kafka的分区数大于服务器台数在kafka底层如何分配存储副本呢 1创建16分区3个副本 1创建一个新的topic名称为second。 bin/kafka-topics.sh –bootstrap-server linux-102:9092 –create –topic second –partitions 16 –replication-factor 32查看分区和副本情况。 1.3.5 生产经验——手动调整分区副本存储 手动调整分区副本存储的步骤如下 1创建一个新的topic名称为three。 2查看分区副本存储情况。 3创建副本存储计划所有副本都指定存储在broker0、broker1中。 4执行副本存储计划。 5验证副本存储计划。 6查看分区副本存储情况。 1.3.6 生产经验——Leader Partition负载平衡 1.3.7 生产经验——增加副本因子 在生产环境当中由于某个主题的重要等级需要提升我们考虑增加副本。副本数的增加需要先制定计划然后根据计划执行。 1创建topic 2手动增加副本存储 1创建副本存储计划所有副本都指定存储在broker0、broker1、broker2中。 2执行副本存储计划。 1.4 文件存储 1.4.1 文件存储机制 1Topic数据的存储机制 2思考Topic数据到底存储在什么位置 1启动生产者并发送消息。 2查看linux-102或者linux-103、linux-104的/usr/local/kafka/datas/first-1first-0、first-2路径上的文件。 3直接查看log日志发现是乱码。 4通过工具查看index和log信息。 3index文件和log文件详解 说明日志存储参数配置 1.4.2 文件清理策略 Kafka中默认的日志保存时间为7天可以通过调整如下参数修改保存时间。 Kafka中默认的日志保存时间为7天可以通过调整如下参数修改保存时间。 log.retention.hours最低优先级小时默认7天。log.retention.minutes分钟。log.retention.ms最高优先级毫秒。log.retention.check.interval.ms负责设置检查周期默认5分钟。 那么日志一旦超过了设置的时间怎么处理呢 Kafka中提供的日志清理策略有delete和compact两种。 1delete日志删除将过期数据删除 log.cleanup.policy delete 所有数据启用删除策略 1基于时间默认打开。以segment中所有记录中的最大时间戳作为该文件时间戳。 2基于大小默认关闭。超过设置的所有日志总大小删除最早的segment。 log.retention.bytes默认等于-1表示无穷大。 思考如果一个segment中有一部分数据过期一部分没有过期怎么处理 2compact日志压缩 1.5 高效读写数据 1Kafka本身是分布式集群可以采用分区技术并行度高2读数据采用稀疏索引可以快速定位要消费的数据3顺序写磁盘 Kafka的producer生产数据要写入到log文件中写的过程是一直追加到文件末端为顺序写。官网有数据表明同样的磁盘顺序写能到600M/s而随机写只有100K/s。这与磁盘的机械机构有关顺序写之所以快是因为其省去了大量磁头寻址的时间。 4页缓存 零拷贝技术
相关文章
-
苏州电商网站建设手机发布 wordpress文章
苏州电商网站建设手机发布 wordpress文章
- 技术栈
- 2026年04月20日
-
苏州pc网站开发哈尔滨网站制作公司电话
苏州pc网站开发哈尔滨网站制作公司电话
- 技术栈
- 2026年04月20日
-
苏州 网站的公司哪家好南昌建设局网站
苏州 网站的公司哪家好南昌建设局网站
- 技术栈
- 2026年04月20日
-
苏州高端网站建设机构怎样搞到最新注册公司的电话
苏州高端网站建设机构怎样搞到最新注册公司的电话
- 技术栈
- 2026年04月20日
-
苏州高新区建设局网站管网贵州网站建设维护
苏州高新区建设局网站管网贵州网站建设维护
- 技术栈
- 2026年04月20日
-
苏州个人网站制作企业网站设计师
苏州个人网站制作企业网站设计师
- 技术栈
- 2026年04月20日
