| 主机 | 部署的程序 |
| 192.168.233.15 | elasticsearch、kibana |
| 192.168.233.16 | elasticsearch |
| 192.168.233.17 | logstash |
| 192.168.233.18 | filebeat |
操作系统:ubuntu18.04.5
软件版本:
elasticsearch-7.12.1
filebeat-7.12.1
logstash-7.12.1
kibana-7.12.1
要部署的效果是:
filebeat(日志收集)--->logstash(日志过滤/整合)--->elasticsearch(日志存储)--->kibana(日志展示)
安装可从官网上下载所需安装包
开源搜索:Elasticsearch、ELK Stack 和 Kibana 的开发者 | Elastichttps://www.elastic.co/cn/
配置 elasticsearch配置cluster.name: my-application #集群名称 node.name: node-15 #节点名称 path.data: /elk/data path.logs: /elk/logs bootstrap.memory_lock: true network.host: 0.0.0.0 http.port: 9200 discovery.seed_hosts: ["192.168.233.15", "192.168.233.16"] #有哪些节点 cluster.initial_master_nodes: ["192.168.233.15", "192.168.233.16"] #可选为主节点的ip action.destructive_requires_name: truelogstash配置
input {
beats {
port => 5044
}
}
output {
elasticsearch {
hosts => ["192.168.233.15:9200"] #发送到elasticsearch
index => "system-log-%{+YYYY.MM.dd}" #根据项目名称动态创建索引
}
}
filebeat配置
filebeat.inputs:
- input_type: log
paths:
- /var/log/messages #日志来源
- /var/log/*.log #日志来源
document_type: system-log-18 #类型,会在每条日志中插入标记
output.logstash: #发送到logstash
hosts: ["192.168.233.17:5044"]
启用服务
将elasticsearch、logstash、logstash、kibana开起来
查看数据在kibana界面查看数据
先按需求创建索引
之后查看数据



