原文连接
1.以时间排序 列出当前目录下 前30文件数 时间以全时间显示ls -lhm --full-time /var/log/journal/20190711105006363114529432776998/ | sort -k6 | head -n302.显示当前目录下使用空间>1G
du -s * | sort -nr | awk '{if ( $1/1024 > 1024)printf("%0.4sG %sn"), $1/1024/1024, $2}'
3.找出25天之前的文件删除
find /var/log/journal/20190711105006363114529432776998/ -ctime +30 -exec rm -rf {} ;
4.文件太多无法删除
报错: /bin/rm: Argument list too long #分组删除 ls | xargs -n 10 rm -rf5.查当前目录下所有文件的总行数
find . -type f | xargs cat | wc -l6.查看占用最高的cpu的进程
ps -eo pid,pcpu,cmd | sort -n -k 2 | tail7.去除指定列重复行
cat 123.txt | sort -k1 | awk -F"|" '!i[$1]++' sort 先排序 awk 去除相邻行的重复行保留第一行8.查看所有docker的network对应的网络段
for i in $( docker network ls | grep -v NAME | awk '{print $2}' ); do aa=$(docker network inspect $i | grep -Ew "Subnet" | awk -F""" '{print $4}'); printf "%-50s%-30sn" ${i} ${aa} ;done
9.查看自建kafka指定topic的分区数据存储情况
topic_name="kafka-test-007"; aa=0; for i in $(kafka-run-class.sh kafka.tools.GetOffsetShell --topic "${topic_name}" --time -1 --broker-list kafka:9092 | awk -F":" '{print $3}'); do aa=$(($aa+$i)); echo "${topic_name}:${aa}" ;done



