北京鲜花的网站建设电商具体是做什么的上班
- 作者: 五速梦信息网
- 时间: 2026年03月21日 10:06
当前位置: 首页 > news >正文
北京鲜花的网站建设,电商具体是做什么的上班,怎么优化,搜索引擎优化管理实验报告问题描述 集群环境总共有2个NN节点#xff0c;3个JN节点#xff0c;40个DN节点#xff0c;基于hadoop-3.3.1的版本。集群采用的双副本#xff0c;未使用ec纠删码。 问题如下#xff1a; bin/hdfs fsck -list-corruptfileblocks / The list of corrupt files under path…问题描述 集群环境总共有2个NN节点3个JN节点40个DN节点基于hadoop-3.3.1的版本。集群采用的双副本未使用ec纠删码。 问题如下 bin/hdfs fsck -list-corruptfileblocks / The list of corrupt files under path / are: blk_1073779849 /warehouse/hive/customer_demographics/data-m-00488 blk_1073783404 /warehouse/hive/store_sales/data-m-00680 blk_1073786196 /warehouse/hive/catalog_sales/data-m-00015 blk_1073789561 /warehouse/hive/catalog_sales/data-m-00433 blk_1073798994 /warehouse/hive/web_sales/data-m-00214 blk_1073799110 /warehouse/hive/store_sales/data-m-00366 blk_1073800126 /warehouse/hive/web_sales/data-m-00336 blk_1073801710 /warehouse/hive/store_sales/data-m-00974 blk_1073807710 /warehouse/hive/inventory/data-m-01083 blk_1073809488 /warehouse/hive/store_sales/data-m-01035 blk_1073810929 /warehouse/hive/catalog_sales/data-m-01522 blk_1073811947 /warehouse/hive/customer_address/data-m-01304 blk_1073816024 /warehouse/hive/catalog_sales/data-m-01955 blk_1073819563 /warehouse/hive/web_sales/data-m-01265 blk_1073821438 /warehouse/hive/store_sales/data-m-01662 blk_1073822433 /warehouse/hive/web_sales/data-m-01696 blk_1073827763 /warehouse/hive/web_sales/data-m-01880 ……因为出现了missing block块高于namenode安全模式启动的阈值导致namenode起来一直处于安全模式 namenode 的启动日志 2023-02-23 18:50:38,336 INFO org.apache.hadoop.hdfs.server.namenode.RedundantEditLogInputStream: Fast-forwarding stream http://journalnode-2:8480/getJournal?jidcdp1segmentTxId225840498storageInfo-66%3A2104128967%3A1665026133759%3AcdpinProgressOktrue to transaction ID 225840498 2023-02-23 18:50:38,338 INFO org.apache.hadoop.hdfs.StateChange: STATE* Safe mode ON. The reported blocks 3102206 needs additional 729 blocks to reach the threshold 0.9990 of total blocks 3106041. The minimum number of live datanodes is not required. Safe mode will be turned off automatically once the thresholds have been reached. 2023-02-23 18:50:38,456 INFO org.apache.hadoop.hdfs.server.namenode.FSImage: Loaded 1 edits file(s) (the last named http:/journalnode-2:8480/getJournal?jidcdp1segmentTxId225840498storageInfo-66%3A2104128967%3A1665026133759%3AcdpinProgressOktrue, http://journalnode-1:8480/getJournal?jidcdp1segmentTxId225840498storageInfo-66%3A2104128967%3A1665026133759%3AcdpinProgressOktrue) of total size 1122.0, total edits 8.0, total load time 119.0 ms 2023-02-23 18:51:31,403 WARN org.apache.hadoop.hdfs.server.namenode.NameNode: Allowing manual HA control from 172.16.0.216 even though automatic HA is enabled, because the user specified the force flag问题解决思路 找到缺失块所在的DN节点 集群在写数据的时候Namenode会记录将数据块分配到那几个DN节点上日志格式如下 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* allocate blk1073807710, replicas172.16.0.244:9866, 172.16.0.227:9866 for /warehouse/hive/inventory/data-m-01083所以通过这个日志信息可以去全局查找日志中块缺失的相关信息找到块所在的dn节点然后登录到dn节点找寻是否数据还在。 如果上述是双副本的一个block块会有两个DN节点存储能报上述missing block的信息那么说明namenode中元数据记录的文件快和所有DN心跳的汇报块信息对不上即DN汇报上来的块信息缺少了 所以要么是blk对应的两个节点的数据都不见了被删除或者清理了或者两个节点同时宕机了无法对外提供服务了。 接着上述的思路去hdfs上排查这两个节点是否正常。 方式一通过hdfs web界面上去查看dn的节点是否状态正常 确实有几个节点同时宕机了上述只显示一个节点是因为事后其他节点被我手动修复了。 方式二通过命令行来排查 [rootnamenode-2-0 hadoop-3.3.1]# bin/hdfs dfsadmin -report -dead Configured Capacity: 63271003226112 (57.54 TB) Present Capacity: 62179794033930 (56.55 TB) DFS Remaining: 28580973518090 (25.99 TB) DFS Used: 33598820515840 (30.56 TB) DFS Used%: 54.03% Replicated Blocks:Under replicated blocks: 0Blocks with corrupt replicas: 0Missing blocks: 0Missing blocks (with replication factor 1): 0Low redundancy blocks with highest priority to recover: 0Pending deletion blocks: 0 Erasure Coded Block Groups:Low redundancy block groups: 0Block groups with corrupt internal blocks: 0Missing block groups: 0Low redundancy blocks with highest priority to recover: 0Pending deletion blocks: 0————————————————- Dead datanodes (1):Name: 172.16.1.8:9866 (datanode-16) Hostname: 172.16.1.8 Decommission Status : Normal Configured Capacity: 1437977346048 (1.31 TB) DFS Used: 754816651264 (702.98 GB) Non DFS Used: 22427271168 (20.89 GB) DFS Remaining: 660731326464 (615.35 GB) DFS Used%: 52.49% DFS Remaining%: 45.95% Configured Cache Capacity: 0 (0 B) Cache Used: 0 (0 B) Cache Remaining: 0 (0 B) Cache Used%: 100.00% Cache Remaining%: 0.00% Xceivers: 0 Last contact: Sun Feb 19 20:00:51 CST 2023 Last Block Report: Sun Feb 19 14:24:53 CST 2023 Num of Blocks: 0 通过上述方式能得出此节点有异常进而可以到上述节点恢复数据 但是此时还无法判断此节点上就一定存在着丢失数据块。 还需要继续登录到此节点上在datanode数据目录下 BP-344496998-172.16.0.216-1665026133759/current/ find . -name “blk*” 排查一下丢失的数据块是否还在此节点上。 数据恢复 重启宕机的DN节点 如果不是很严重的情况比如硬件硬盘内存条网络等原因导致的节点宕机那么登录到该节点重启一下服务DN服务正常启动后会自动report自己本身机器上管理的blk*块给到namenode那么namenode就会自动恢复上述元数据信息。 bin/hdfs –daemon start datanode查看日志。 节点无法启动恢复数据 如果节点因为其他外部原因导致没办法启动datanode服务并且blk块数据还在硬盘上那么此时只能通过拷贝blk块并且手动触发 dn 节点汇报 正常 dn 节点 172.16.1.6 目录 /data/current/BP-344496998-172.16.0.216-1665026133759 损坏的 dn 节点 172.16.1.8 目录 /data/current/BP-344496998-172.16.0.216-1665026133759 操作步骤 拷贝数据节点手动触发汇报机制 拷贝数据节点脚本 ssh root172.16.1.6scp root172.16.1.8:/data/current/BP-344496998-172.16.0.216-1665026133759 /data/current/BP-344496998-172.16.0.216-1665026133759cd /data/current/BP-344496998-172.16.0.216-1665026133759 for i in find . -name blk* -type f; doj\({i%/*}echo mv \){i} .\({j}mv -f \){i} .${j} done# 最终形成的数据拷贝命令mv ./current/finalized/subdir31/subdir31/blk_1105166085_31429045.meta ../current/finalized/subdir31/subdir31…… 最后触发DN汇报 bin/hdfs dfsadmin -triggerBlockReport 172.16.1.6:9876 最后数据完全恢复missing block 问题也得到解决。
- 上一篇: 北京微信网站建设电话上海自贸区注册公司的好处和坏处
- 下一篇: 北京响应式的网站公司组织架构图模板
相关文章
-
北京微信网站建设电话上海自贸区注册公司的好处和坏处
北京微信网站建设电话上海自贸区注册公司的好处和坏处
- 技术栈
- 2026年03月21日
-
北京微信网站建设报价手机网站pc网站
北京微信网站建设报价手机网站pc网站
- 技术栈
- 2026年03月21日
-
北京微信网站搭建费用用wordpress 帮客户建站
北京微信网站搭建费用用wordpress 帮客户建站
- 技术栈
- 2026年03月21日
-
北京响应式的网站公司组织架构图模板
北京响应式的网站公司组织架构图模板
- 技术栈
- 2026年03月21日
-
北京响应式的网站宜兴建设局网站
北京响应式的网站宜兴建设局网站
- 技术栈
- 2026年03月21日
-
北京鑫创网站建设做网站天通苑
北京鑫创网站建设做网站天通苑
- 技术栈
- 2026年03月21日






