执⾏start-dfs.sh后,datenode没有启动,很⼤⼀部分原因是因为在第⼀次格式化dfs后,启动并使⽤了hadoop,后来⼜重新执⾏了格式化命令(hdfs namenode -format),这时主节点namenode的clusterID会重新⽣成,⽽从节点datanode的clusterID 保持不变导致的。解决办法如下:
打开hdfs-site.xml找到如下节点
如上找到namenode和datanode(这个datanode是在从节点计算机中查看)的⽂件路径。分别进⼊这两个⽬录,分别打开VERSION查看clusterID是否⼀致。如果不⼀致,将namenode中的clusterID值赋值给datanode中VERSION中的clusterID。然后在重新运⾏脚本start-dfs.sh.
因篇幅问题不能全部显示,请点此查看更多更全内容