今天值班由于hdfs的日志满了导致磁盘爆了100%,zk和journal都挂了 删日志文件的时候,不知道删错哪个地方了。 该目录下一直报错,这个日志文件增长很快, /home/bigdata/hadoop/logs/ hadoop-hdfs-journalnode-xx.log 先备份journal/这个目录 方式一: 然后删除除version之外的文件,重启之后就没有错误日志了,但是从文件大小来看,是少了很多 方式二: 备份别的服务器上的文件,删除当前机器的除version之外的文件,并将别的机器的文件拷贝至journal目录下(不要覆盖version) 即可



