ps aux |grep httpd
(flaskApi) [root@67 flaskDemo]# ps aux |grep httpd root 27835 0.0 0.0 112724 988 pts/0 S+ 15:46 0:00 grep --color=auto httpd2、杀死进程
kill -9 加进程ID(27835)
3、进程在后台运行3、在Linux中,如果要让进程在后台运行,一般情况下,我们在命令后面加上&即可,实际上,这样是将命令放入到一个作业队列中了:
./test.sh & [1] 17208
查看后台进程
jobs -l [1]+ 17208 Running ./test.sh &
对于已经在前台执行的命令,也可以重新放到后台执行,首先按ctrl+z暂停已经运行的进程,然后使用bg命令将停止的作业放到后台运行:
./test.sh
[1]+ Stopped ./test.sh
bg %1
[1]+ ./test.sh &
jobs -l
[1]+ 22794 Running ./test.sh &
systemctl stop firewalld.service 停止防火墙服务
systemctl disable firewalld.service 禁止firewall开机启动
systemctl start firewalld.service 开启防火墙服务
systemctl status firewalld.service 查看防火墙状态
systemctl start mysqld #启动mysql
systemctl stop mysqld #停止mysql
systemctl restart mysqld #重启mysql
systemctl enable mysqld #设置开机启动
systemctl status mysqld #查看mysql 状态
systemctl disable mysqld.service #停止mysql服务开机自启动
mysql -uroot -p #登录mysql
6、删除目录(非空目录)rm -rf /opt/kafka-logs
rm 文件
mkdir 目录
8、增加属主用户的执行权限chmod u+x kafka-all.sh
9、从一个节点复制文件到另一个节点scp -r 文件夹 root@node2:/usr/local
scp file-flume-kafka.conf root@node2:pwd
10、输入文字到文件echo hello>>hive.log
11、建立软链接ln -s /usr/local/hadoop-2.7.1/etc/hadoop/core-site.xml core-site.xml(当前路径下的)
12、当出现内存不足的情况df -h 查看(在所有目录下内存使用情况)
du -h --max-depth=1(查看当前目录内存使用情况)
14、修改属组和属主chown -R root:root spark-2.4.3-bin-hadoop2.7/
15、 redis相关的命令以下命令,均在/usr/local/redis/bin/下执行
./redis-cli 进入客户端(在bin目录下)
keys * 得到所有的键
get 键名 得到键对应的值
./redis-cli shutdown 关闭redis
需要加载自定义配置的话,用 ./redis-server redis.conf启动, 默认加载的话用 ./redis-server
测试远程连接 redis-cli -h [远程ip] -p [端口号] -a [密码]
16、ll -rt 按时间顺序排序(升序)


