联系我们联系我们
电子邮箱电子邮箱

ELK

[复制链接]

该用户从未签到

xiaobin 发表于 2021-4-14 18:24:35
63 0
ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具。

Elasticsearch是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。

Logstash 主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。一般工作方式为c/s架构,client端安装在需要收集日志的主机上,server端负责将收到的各节点日志进行过滤、修改等操作在一并发往elasticsearch上去。

Kibana 也是一个开源和免费的工具,Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助汇总、分析和搜索重要数据日志。

Filebeat隶属于Beats。目前Beats包含四种工具:

Packetbeat(搜集网络流量数据)
Topbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据)
Filebeat(搜集文件数据)
Winlogbeat(搜集 Windows 事件日志数据)

本机ip192.168.11.10
[root@localhost ~]# tar -zxf elasticsearch-6.3.2.tar.gz
[root@localhost ~]# mv elasticsearch-6.3.2 /usr/local/es
[root@localhost ~]# groupadd es
[root@localhost ~]# useradd es -g es
[root@localhost ~]# mkdir -p /es/{data,log}
[root@localhost ~]# chown -R es:es /es/
[root@localhost ~]# chown -R es:es /usr/local/es
[root@localhost ~]# ll /
drwxr-xr-x.   4 es   es     29 Nov 12 23:11 es
[root@localhost ~]# ll /usr/local/
drwxr-xr-x. 8 es   es   143 Jul 20  2018 es
[root@localhost ~]# echo '* soft nofile 819200' >> /etc/security/limits.conf
[root@localhost ~]# echo '* hard nofile 819200' >> /etc/security/limits.conf
[root@localhost ~]# echo '* soft nproc 2048' >> /etc/security/limits.conf
[root@localhost ~]# echo '* hard nproc 4096' >> /etc/security/limits.conf
[root@localhost ~]# echo '* soft memlock unlimited' >> /etc/security/limits.conf
[root@localhost ~]# echo '* hard memlock unlimited' >> /etc/security/limits.conf
[root@localhost ~]# echo 'vm.max_map_count=655360' >> /etc/sysctl.conf
[root@localhost ~]# sysctl -p
vm.max_map_count = 655360
[root@localhost ~]# vim /usr/local/es/config/elasticsearch.yml
17行 cluster.name: yunan
23行 node.name: es
node.data: true
node.master: true
35行 path.data: /es/data
39行 path.logs: /es/log
57行 network.host: 192.168.11.10  本机ip
61行 http.port: 9200
74行 discovery.zen.minimum_master_nodes: 1
bootstrap.memory_lock: false
bootstrap.system_call_filter: false
打开第二台:本机ip192.168.11.20
kafka_2.12-2.1.0.tgz
kibana-6.3.2-linux-x86_64.tar.gz
zookeeper-3.4.12.tar.gz
[root@localhost ~]# tar -zxf zookeeper-3.4.12.tar.gz -C /usr/local/
[root@localhost ~]# cd /usr/local/zookeeper-3.4.12/
[root@localhost zookeeper-3.4.12]# cp conf/zoo_sample.cfg conf/zoo.cfg
[root@localhost zookeeper-3.4.12]# mkdir -p /data/zookeeper/{zkdata,zkdatalog}
[root@localhost zookeeper-3.4.12]# ls /data/zookeeper/
zkdata  zkdatalog
[root@localhost zookeeper-3.4.12]# vim /usr/local/zookeeper-3.4.12/conf/zoo.cfg
12行 创建一个数据目录  dataDir=/data/zookeeper/zkdata
   Log日志  dataLogDir=/data/zookeeper/zkdatalog
[root@localhost zookeeper-3.4.12]# echo 1 > /data/zookeeper/zkdata/myid
[root@localhost ~]# tar -zxf kafka_2.12-2.1.0.tgz -C /usr/local/
[root@localhost ~]# cd /usr/local/
[root@localhost local]# ln -s kafka_2.12-2.1.0/ kafka
把kafak文件修改一下
[root@localhost local]# vim /usr/local/kafka/config/server.properties
21行 broker.id=1
31行 listeners=PLAINTEXT://192.168.11.20:9092
60行 log.dirs=/data/kafka/kfdata
delete.topic.enable: true
91行 log.flush.interval.messages=10000
94行 log.flush.interval.ms=1000
125行 zookeeper.connect=192.168.11.20:2181
[root@localhost local]# mkdir -p /data/kafka/kfdata
[root@localhost local]# /usr/local/zookeeper-3.4.12/bin/zkServer.sh start
[root@localhost local]# /usr/local/kafka/bin/kafka-server-start.sh -daemon /usr/local/kafka/config/server.properties
[root@localhost local]# yum -y install java
[root@localhost local]# netstat -anput | grep 2181 | grep LISTEN
tcp6       0      0 :::2181                 :::*                    LISTEN      11227/java         
[root@localhost local]# netstat -anput | grep 9092 | grep LISTEN
tcp6       0      0 192.168.11.20:9092      :::*                    LISTEN      13032/java      
   [root@localhost local]# /usr/local/kafka/bin/kafka-topics.sh \
> --create --zookeeper 192.168.11.20:2181 \
> --replication-factor 1 \
> --partitions 2 \
> --topic elktest
Created topic "elktest".
[root@localhost local]# /usr/local/kafka/bin/kafka-console-producer.sh --broker-list 192.168.11.20:9092 --topic elktest
>hllo^H
>hello
>world
>
>wushaobin
>


再打开一个终端
图片链接
file:///C:/Users/wu/AppData/Roaming/Tencent/QQ/Temp/S3%H35(L2)68QF5EXWPJK`P.png
[root@localhost ~]# tar -zxf kibana-6.3.2-linux-x86_64.tar.gz -C /usr/local/
[root@localhost ~]# cd /usr/local/
[root@localhost local]# ln -s kibana-6.3.2-linux-x86_64/ kibana
[root@localhost local]# vim /usr/local/kibana/config/kibana.yml
2行 server.port: 5601
7行 server.host: "192.168.11.20"
28行 elasticsearch.url: "http://192.168.11.20:9200"
第三台虚拟机:本机ip192.168.11.30
[root@localhost ~]# tar -zxf logstash-6.3.2.tar.gz
[root@localhost ~]# mv logstash-6.3.2 /usr/local/logstash
[root@localhost ~]# vim /usr/local/logstash/config/logstash.yml  修改配置文件
64行  path.config: /usr/local/logstash/config/*.conf
77行 config.reload.automatic: true
81行  config.reload.interval: 3s
190行  http.host: "192.168.11.30"
208行  path.logs: /var/log/logstash
第四台:
[root@localhost ~]# tar -zxf filebeat-6.3.2-linux-x86_64.tar.gz
[root@localhost ~]# mv filebeat-6.3.2-linux-x86_64 /usr/local/filebeat
[root@localhost ~]# tar -zxf nginx-1.15.4.tar.gz
[root@localhost ~]# mv nginx-1.15.4 /usr/local/
[root@localhost nginx-1.15.4]# yum -y install pcre-devel openssl-devel zlib-devel
[root@localhost nginx-1.15.4]# yum -y install gcc gcc-c
[root@localhost nginx-1.15.4]# ln -s /usr/local/nginx/sbin/nginx /usr/sbin/
[root@localhost ~]# vim /usr/local/filebeat/filebeat.yml
图片链接
file:///C:/Users/wu/AppData/Roaming/Tencent/QQ/Temp/[_`[EV7XDI_ZX@YCFB0M1(C.png
添加:filebeat:
  prospectors:
     - type: log
       paths:
         - /usr/local/nginx/logs/access.log
       tags: ["nginx"]
  enabled: true
图片链接
file:///C:/Users/wu/AppData/Roaming/Tencent/QQ/Temp/WE{(%1XRLUF}}G@~`)}7XRD.png
[root@localhost ~]# nginx  启动nginx
[root@localhost ~]# /usr/local/filebeat/filebeat -c /usr/local/filebeat/filebeat.yml  启动filebeat
第三台:
[root@localhost ~]# vim /usr/local/logstash/config/nginx-access.conf
input{
       beats {
        port => 5044
      }
   }

output {
    elasticsearch {
      hosts => "192.168.5.31:9200"
      index => "nginx-%{ YYYY.MM.dd}"
       }
  }
[root@localhost ~]# yum -y install java
[root@localhost ~]# /usr/local/logstash/bin/logstash -f /usr/local/logstash/config/nginx-access.conf
第二台:
[root@localhost ~]# /usr/local/kibana/bin/kibana


回到第一台
[root@localhost ~]# chown -R es.es /es
[root@localhost ~]# ll /es
total 0
drwxr-xr-x. 2 es es 6 Nov 14 09:11 data
drwxr-xr-x. 2 es es 6 Nov 14 09:11 log
[root@localhost ~]# ll /usr/local/
drwxr-xr-x. 8 es   es   143 Jul 20  2018 es
[root@localhost ~]# su es
[es@localhost root]$ /usr/local/es/bin/elasticsearch
图片链接
file:///C:/Users/wu/AppData/Roaming/Tencent/QQ/Temp/LOBSW0$H4I3D_4W{HF{$`8F.png
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

发表新帖