久久精品五月,日韩不卡视频在线观看,国产精品videossex久久发布 ,久久av综合

站長資訊網(wǎng)
最全最豐富的資訊網(wǎng)站

ELK日志分析系統(tǒng)安裝和部署

一、ELK平臺搭建準(zhǔn)備

1.1 平臺環(huán)境:
OS:CentOS release 6.4(Final)
ElasticSearch:6.3.2
Logstash:6.3.2
Kibana:6.3.2
JRE:1.8

注:由于Logstash的運行依賴于Java環(huán)境, 而Logstash 1.5以上版本不低于java 1.7,因此推薦使用最新版本的Java。因為我們只需要Java的運行環(huán)境,所以可以只安裝JRE,不過這里我依然使用JDK

1.2 ELK下載:https://www.elastic.co/downloads/

cd /data/package/  wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-6.3.2.tar.gz  wget https://artifacts.elastic.co/downloads/logstash/logstash-6.3.2.tar.gz  wget https://artifacts.elastic.co/downloads/kibana/kibana-6.3.2-linux-x86_64.tar.gz

1.3 安裝準(zhǔn)備

#配置iptables,保證內(nèi)網(wǎng)之間可以互通  [root@Elk_Server]# iptables -F;iptables -I INPUT -s 192.168.0.0/16 -j ACCEPT  [root@Elk_Server]# service iptables save;service iptables restart     #關(guān)閉selinux  [root@Elk_Server]# setenforce 0    [root@Elk_Server]# vim /etc/sysconfig/selinux   SELINUX=disabled

1.4 時間同步

cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime  yum install ntpdate -y;ntpdate time.windows.com  echo '01 00 * * * ntpdate time.windows.com' >>/etc/crontab

1.5 配置yum源

#導(dǎo)入公鑰  [root@Elk_Server ~]# rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch    [root@Elk_Server ~]# vim /etc/yum.repos.d/elasticsearch.repo    [elasticsearch-6.x]  name=Elasticsearch repository for 6.x packages  baseurl=https://artifacts.elastic.co/packages/6.x/yum  gpgcheck=1  gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch  enabled=1  autorefresh=1  type=rpm-md

1.6 安裝JAVA 1.8.0_151, 請見 http://m.wangcai868.com/Linux/2019-08/159733.htm

二、安裝Elasticsearch單機版集群

這個其實也是ELK中的核心,啟動的時候一定要注意,因為es不可以進行root賬戶啟動,所以你還需要開啟一個elsearch賬戶。**

2.1.1 yum方式安裝

[root@Elk_Server ~]# sudo yum install elasticsearch -y

2.1.2 源碼安裝(本文為編譯安裝配置)

#將解壓后的文件復(fù)制三份  tar zxvf elasticsearch-6.3.2.tar.gz -C /usr/local/  mv /usr/local/elasticsearch-6.3.2 /usr/local/es-master  cp -rf /usr/local/es-master /usr/local/es-data1  cp -rf /usr/local/es-master /usr/local/es-data2    groupadd elasticsearch  useradd elasticsearch -g elasticsearch

2.2 創(chuàng)建elasticsearch數(shù)據(jù)目錄

mkdir -p /data{,1,2}/elasticsearch/data  mkdir -p /data{,1,2}/elasticsearch/logs  chown -R elasticsearch:elasticsearch /data{,1,2}/elasticsearch

2.3 編輯Elasticsearch集群配置文件

cp /usr/local/es-master/config/elasticsearch.yml /usr/local/es-master/config/elasticsearch.yml-bak  #創(chuàng)建軟連接  mkdir /etc/elasticsearch/  ln -s /usr/local/es-master/config/elasticsearch.yml /etc/elasticsearch/es-master.yml  ln -s /usr/local/es-data1/config/elasticsearch.yml /etc/elasticsearch/es-data1.yml  ln -s /usr/local/es-data2/config/elasticsearch.yml /etc/elasticsearch/es-data2.yml

主節(jié)點配置:

vim /etc/elasticsearch/es-master.yml    # ======================== Elasticsearch Configuration =========================  #  cluster.name: elk-cluster  node.name: node-master  node.attr.rack: r1    # ----------------------------------- Paths ------------------------------------  #設(shè)置data存放的路徑為/data/elasticsearch/data  path.data: /data/elasticsearch/data  #設(shè)置logs日志的路徑為/data/elasticsearch/logs  path.logs: /data/elasticsearch/logs    # ---------------------------------- Network -----------------------------------  #本機地址  network.host: 192.168.6.108  #開啟監(jiān)聽的端口為9200  http.port: 9200  #tcp通訊端口  transport.tcp.port: 9330  #是否作為主機  node.master: true  #是否作為數(shù)據(jù)節(jié)點  node.data: false  node.max_local_storage_nodes: 3    #在刪除索引時,是否需要明確指定名稱.該值為false時,則可通過正則或_all刪除:   action.destructive_requires_name: true    # --------------------------------- Discovery ----------------------------------  #集群信息,默認(rèn)的通訊接口是9300  discovery.zen.ping.unicast.hosts: ["192.168.6.108:9330", "192.168.6.108:9331","192.168.6.108:9332"]    #在新集群搭建初期,總會出現(xiàn)某幾個節(jié)點與其他節(jié)點通信異常導(dǎo)致節(jié)點頻繁加入、退出集群。這個過程是自動執(zhí)行的。通過配置discovery.zen.ping_timeout來控制節(jié)點加入某個集群或者開始選舉的響應(yīng)時間(默認(rèn)3s)。  discovery.zen.ping_timeout: 60s    #這個關(guān)閉了自動創(chuàng)建索引。為的也是安全考慮,否則即使是內(nèi)網(wǎng),也有很多掃描程序,一旦開啟,掃描程序會自動給你創(chuàng)建很多索引。  action.auto_create_index: false    # ---------------------------------- Gateway -----------------------------------  #  # Block initial recovery after a full cluster restart until N nodes are started:    #設(shè)置集群中N個節(jié)點啟動時進行數(shù)據(jù)恢復(fù),默認(rèn)為1。  gateway.recover_after_nodes: 2  #設(shè)置初始化數(shù)據(jù)恢復(fù)進程的超時時間,默認(rèn)是5分鐘。  gateway.recover_after_time: 3m  #設(shè)置集群中節(jié)點的數(shù)量,默認(rèn)為2,一旦這N個節(jié)點啟動,就會立即進行數(shù)據(jù)恢復(fù)。  gateway.expected_nodes: 3    # ---------------------------------- Various -----------------------------------  #開啟跨域訪問支持,默認(rèn)為false  http.cors.enabled: true  #跨域訪問允許的域名地址,(允許所有域名)以上使用正則  http.cors.allow-origin: /.*/    

數(shù)據(jù)1節(jié)點配置:

vim /etc/elasticsearch/es-data1.yml    # ======================== Elasticsearch Configuration =========================  #  cluster.name: elk-cluster  node.name: node-data1  node.attr.rack: r1    # ----------------------------------- Paths ------------------------------------  #設(shè)置data存放的路徑為/dat1/elasticsearch/data  path.data: /data1/elasticsearch/data  #設(shè)置logs日志的路徑為/data1/elasticsearch/logs  path.logs: /data1/elasticsearch/logs    # ---------------------------------- Network -----------------------------------  #本機地址  network.host: 192.168.6.108  #開啟監(jiān)聽的端口為9201  http.port: 9201  #tcp通訊端口  transport.tcp.port: 9331  #是否作為主機  node.master: false  #是否作為數(shù)據(jù)節(jié)點  node.data: true  node.max_local_storage_nodes: 3    #在刪除索引時,是否需要明確指定名稱.該值為false時,則可通過正則或_all刪除:   action.destructive_requires_name: true    # --------------------------------- Discovery ----------------------------------  #集群信息,默認(rèn)的通訊接口是9300  discovery.zen.ping.unicast.hosts: ["192.168.6.108:9330", "192.168.6.108:9331","192.168.6.108:9332"]    discovery.zen.ping_timeout: 60s    action.auto_create_index: false    # ---------------------------------- Gateway -----------------------------------  #  # Block initial recovery after a full cluster restart until N nodes are started:    #設(shè)置集群中N個節(jié)點啟動時進行數(shù)據(jù)恢復(fù),默認(rèn)為1。  gateway.recover_after_nodes: 2  #設(shè)置初始化數(shù)據(jù)恢復(fù)進程的超時時間,默認(rèn)是5分鐘。  gateway.recover_after_time: 3m  gateway.expected_nodes: 3    # ---------------------------------- Various -----------------------------------  #開啟跨域訪問支持,默認(rèn)為false  http.cors.enabled: true  #跨域訪問允許的域名地址,(允許所有域名)以上使用正則  http.cors.allow-origin: /.*/  

數(shù)據(jù)2節(jié)點配置:

vim /etc/elasticsearch/es-data2.yml    # ======================== Elasticsearch Configuration =========================  #  cluster.name: elk-cluster  node.name: node-data2  node.attr.rack: r1    # ----------------------------------- Paths ------------------------------------  #設(shè)置data存放的路徑為/data2/elasticsearch/data  path.data: /data2/elasticsearch/data  #設(shè)置logs日志的路徑為/data2/elasticsearch/logs  path.logs: /data2/elasticsearch/logs    # ---------------------------------- Network -----------------------------------  #本機地址  network.host: 192.168.6.108  #開啟監(jiān)聽的端口為9202  http.port: 9202  #tcp通訊端口  transport.tcp.port: 9332  #是否作為主機  node.master: false  #是否作為數(shù)據(jù)節(jié)點  node.data: true  node.max_local_storage_nodes: 3    #在刪除索引時,是否需要明確指定名稱.該值為false時,則可通過正則或_all刪除:   action.destructive_requires_name: true    # --------------------------------- Discovery ----------------------------------  #集群信息,默認(rèn)的通訊接口是9300  discovery.zen.ping.unicast.hosts: ["192.168.6.108:9330", "192.168.6.108:9331","192.168.6.108:9332"]    discovery.zen.ping_timeout: 60s    #這個關(guān)閉了自動創(chuàng)建索引。為的也是安全考慮,否則即使是內(nèi)網(wǎng),也有很多掃描程序,一旦開啟,掃描程序會自動給你創(chuàng)建很多索引。  action.auto_create_index: false    # ---------------------------------- Gateway -----------------------------------  #  # Block initial recovery after a full cluster restart until N nodes are started:    #設(shè)置集群中N個節(jié)點啟動時進行數(shù)據(jù)恢復(fù),默認(rèn)為1。  gateway.recover_after_nodes: 2  #設(shè)置初始化數(shù)據(jù)恢復(fù)進程的超時時間,默認(rèn)是5分鐘。  gateway.recover_after_time: 3m  gateway.expected_nodes: 3    # ---------------------------------- Various -----------------------------------  #開啟跨域訪問支持,默認(rèn)為false  http.cors.enabled: true  #跨域訪問允許的域名地址,(允許所有域名)以上使用正則  http.cors.allow-origin: /.*/  

使用外網(wǎng)搭建集群時需注意:
network.host需要修改為0.0.0.0,同時要暴露你的外網(wǎng)地址,代碼如下:

network.host: 0.0.0.0  network.publish_host: xx.xx.xx.xx

discovery.zen.ping.unicast.hosts修改為各個服務(wù)器的外網(wǎng)地址和通訊端口即可。

2.4 安裝head插件
head插件能夠生成集群的統(tǒng)計數(shù)據(jù),并提供瀏覽器查詢,同時還能對elasticsearch索引進行結(jié)構(gòu)化查詢。

cd /usr/local/es-master/  mkdir head &&cd head  git clone https://github.com/mobz/elasticsearch-head.git  cd elasticsearch-head/  #install node v7.x  curl --silent --location https://rpm.nodesource.com/setup_7.x | bash -  sudo yum install nodejs  npm config set registry=http://registry.npm.taobao.org  npm install    ##運行緩慢  npm install -g grunt-cli  ##修改配置文件  [root@Elk_Server elasticsearch-head]# vim Gruntfile.js          connect: {                          server: {                                  options: {                                          port: 9100,                                          hostname: '192.168.6.108',   ##添加這行,冒號后面有空格                                          base: '.',                                          keepalive: true                                  }                          }                  }

2.5 系統(tǒng)參數(shù)調(diào)整

##修改es三個節(jié)點的JVM運行內(nèi)存,這個可以根據(jù)需要更改,但是-Xms和-Xmx的值必須一樣,不然啟動報錯  [root@Elk_Server ]# vim /usr/local/es-master/config/jvm.options  [root@Elk_Server ]# vim /usr/local/es-data1/config/jvm.options  [root@Elk_Server ]# vim /usr/local/es-data2/config/jvm.options  -------------------------------------------------------------------------  -Xms2g  -Xmx2g    ##修改Linux最大打開文件數(shù)  vim /etc/security/limits.conf  * soft nofile 655350   ##在末尾添加  * hard nofile 655350  ##這一步需要重啟linux使配置生效  reboot  [root@Elk_Server~]# ulimit -n  655350    ##修改sysctl.conf文件  [root@Elk_Server ~]# vim /etc/sysctl.conf   vm.max_map_count=655350  [root@Elk_Server ~]# sysctl -p

2.6 將ES的head插件啟動

cd  /usr/local/es-master/head/elasticsearch-head && grunt server &    [3] 5946  ##會開啟9100端口。

2.7 啟動Elasticsearch(ES只能使用普通用戶啟動)

chown -R elasticsearch:elasticsearch /usr/local/es-*  chown -R elasticsearch:elasticsearch /data{,1,2}/elasticsearch  ##切換到普通用戶啟動elasticsearch  su - elasticsearch  nohup  /usr/local/es-master/bin/elasticsearch &           # -d或&以后臺的方式進行啟動Elasticsearch  [1] 6202  ##啟動成功是會開啟9200,9300兩個端口的。  ##傳輸端口為9300接受http請求的端口為9200  ##在瀏覽器打開可以利用head插件查看elasticsearch的集群及索引情況

2.8 主節(jié)點啟動好后,用同樣的方法啟動子節(jié)點就可以了。
如果報錯,解決方式: http://m.wangcai868.com/Linux/2019-08/159734.htm

2.9 驗證啟動

ps axu |grep elasticsearch    方法一:  curl 'http://192.168.6.108:9200/_search?pretty'    -----    {    "took" : 9,    "timed_out" : false,    "_shards" : {      "total" : 0,      "successful" : 0,      "skipped" : 0,      "failed" : 0    },    "hits" : {      "total" : 0,      "max_score" : 0.0,      "hits" : [ ]    }  }    方法二:  //或者通過瀏覽器訪問:http://192.168.6.108:9200/
#檢查es版本信息  curl -u <user>:<passwd> http://192.168.6.108:9200    #此時觀察ES集群狀態(tài):  curl http://192.168.6.108:9200/_cluster/health?pretty    #觀察集群內(nèi)各索引狀態(tài):  curl http://192.168.6.108:9200/_cat/indices?pretty    #查詢elasticsearch節(jié)點狀態(tài):  curl -XGET http://192.168.6.108:9200/_cat/shards |grep UNASSIGNED    #查看節(jié)點列表  http://IP:9200/_cat/nodes?v  curl 'IP:9200/_cat/nodes?v'    #列出所有索引及存儲大小  http://IP:9200/_cat/indices?v  curl 'IP:9200/_cat/indices?v'--查詢所有索引及數(shù)據(jù)大小    #創(chuàng)建索引  創(chuàng)建索引名為XX,默認(rèn)會有5個分片,1個索引  curl -XPUT 'IP:9200/XX?pretty'    #添加一個類型  curl -XPUT 'IP:9200/XX/external/2?pretty' -d '  {     "gwyy": "John"  }'    #更新一個類型  curl -XPOST 'IP:9200/XX/external/1/_update?pretty' -d '  {     "doc": {"name": "Jaf"}  }'    #刪除指定索引  curl -XDELETE 'IP:9200/_index?pretty'

三、安裝Logstash:

Logstash的功能如下:
ELK日志分析系統(tǒng)安裝和部署

其實它就是一個收集器而已,我們需要為它指定Input和Output(當(dāng)然Input和Output可以為多個)。由于我們需要把Java代碼中Log4j的日志輸出到ElasticSearch中,因此這里的Input就是Log4j,而Output就是ElasticSearch。

3.1 安裝Logstash

tar zxvf logstash-6.3.2.tar.gz -C /usr/local/  mv /usr/local/logstash-6.3.2 /usr/local/logstash  ln -s /usr/local/logstash/bin/logstash /usr/bin/  mkdir -p /data/logs/logstash

3.2 驗證安裝是否成功,從下圖中可以看到,當(dāng)前開啟的是9600端口

logstash -e 'input { stdin { } } output { elasticsearch { hosts => ["192.168.6.108:9200"] } stdout { codec => rubydebug }}'  ###等待片刻后出現(xiàn)“The stdin plugin is now waiting for input:”,輸入“test”回車,返回下面標(biāo)準(zhǔn)的輸出。     -----    [2018-07-31T07:34:23,968][INFO ][logstash.agent           ] Successfully started Logstash API endpoint {:port=>9600}  test  {        "@version" => "1",            "host" => "Elk_Server",         "message" => "test",      "@timestamp" => 2018-07-31T07:34:40.422Z  }  

3.3 logstash配置
##接下來是重點,也是ELK的難點吧,就是將日志進行分析,使用正則匹配過濾日志中想要的內(nèi)容。

[root@Elk_Server logstash]# cat  /data/logs/test.log  120.79.189.51 - - [10/Jun/2018:12:58:12 +0800] "POST /wp-cron.php?doing_wp_cron=1528606692.3628709316253662109375 HTTP/1.1" 499 0 "-" "WordPress/4.8; http://120.79.189.51"

##這是日志中的一行,logstash的正則匹配默認(rèn)是匹配一行,以回車符作為分隔符。
##當(dāng)然如果日志是json格式的那么就沒有需要處理直接輸出即可。

#我們到config目錄中新建一個logstash.conf配置。  [root@Elk_Server logstash]# vim /etc/logstash/conf.d/logstash.conf    input {      file {          path => "/data/logs/test.log"          type => "test.log"          start_position => "beginning"      }  }  filter {      grok {          match => {              "message" => "(?<ip_addr>d+?.d+?.d+?.d+?)s-s-s[(?<log_date>d+?/w+?/d+?):(?<log_time>d+?:d+?:d+?)s+"          }        }    }  output {        stdout {codec => rubydebug}  }

##這是logstash的日志分析文件,總共分為三個大部分,input、flter、output,其中input是輸入日志,這里選擇的是file文件,path是文件的路徑,type是文件的類型,這個可以自定義,主要用來區(qū)分每個日志,start_position是設(shè)定為beginning是指從文件的開頭開始讀取。
##flter是處理日志的部分,使用grok這個強大的組件進行信息過濾,對于日志的正則匹配最總會以json的格式輸出,所以正則匹配的格式是(?<字段名>正則表達(dá)式過濾將要匹配的內(nèi)容)在每個括號內(nèi)創(chuàng)建過濾的內(nèi)容,將不需要的內(nèi)容放在括號外,可以一直做匹配知道日志結(jié)束,這里我只是簡單匹配日志前面的ip地址和日期時間。
針對正則匹配字段詳細(xì)說明:
##正則匹配字段通過“(?<字段名>正則表達(dá)式)”來定義,我們看到“(?<ip_addr>d+?.d+?.d+?.d+?”匹配了日志中的IP地址,然后將不需要的內(nèi)容放在括號外面匹配,接著是日期和時間,使用同樣的方式,然后不需要的內(nèi)容放在外面因為這里我只匹配了前面的一點內(nèi)容,如果有需要提取,可以一直匹配,知道這一行結(jié)束,logstash默認(rèn)只會匹配日志以行作為分割,下一行又是新的一次匹配了。
#output是處理輸出部分,這里我只是簡單輸出到終端,先實驗正則匹配沒問題后,將輸出指向elasticsearch。

[root@Elk_Server logstash]# logstash -r -f  /etc/logstash/conf.d/logstash.conf  ..............  {            "path" => "/data/logs/test.log",            "host" => "Elk_Server",            "type" => "test.log",        "log_date" => "10/Jun/2018",        "@version" => "1",        "log_time" => "12:58:12",      "@timestamp" => 2018-07-31T09:45:16.247Z,         "ip_addr" => "120.79.189.51",         "message" => "120.79.189.51 - - [10/Jun/2018:12:58:12 +0800] "POST /wp-cron.php?doing_wp_cron=1528606692.3628709316253662109375 HTTP/1.1" 499 0 "-" "WordPress/4.8; http://120.79.189.51""  }

接下來將日志輸出到elasticsearch,修改output里面的內(nèi)容即可。

output {      elasticsearch {              ##指定輸出到ES          action => "index"      ##建立索引          hosts => "192.168.6.108:9200"       ##ES地址端口          index => "test_log-%{+yyyy.MM.dd}"    ##索引的名稱      }      stdout {codec => rubydebug}  }  

3.4 驗證配置,并報告錯誤

logstash -f /etc/logstash/conf.d/logstash.conf --config.test_and_exit  \或者  logstash -t -f /etc/logstash/conf.d/logstash.conf

3.5 服務(wù)啟動

nohup logstash -f /etc/logstash/conf.d/logstash.conf --config.reload.automatic -l /data/logs/logstash &  \或者  nohup logstash -r -f /etc/logstash/conf.d/logstash.conf -l /data/logs/logstash &

–config.reload.automatic選項啟用自動配置重新加載,這樣您每次修改配置文件時都不必停止并重新啟動Logstash。

3.6 結(jié)合filebeat案例
日志內(nèi)容如下:

2018-12-20 17:40:50.665  INFO 1 --- [Thread-422] f.s.j.e.common.iml.AbstractJobWorker     : no task in app f.s.job.executor.social.users's job 0  2018-12-22 11:23:55.947  INFO -- [cluster-ClusterId{value='5xxx001145200', description='null'}-dds-xxxc9e41.mongodb.rds.aliyuncs.com:3717] org.mongodb.xxx.cluster               : Server xxx:3717 is no longer a member of the replica set.  Removing from client view of cluster.

filebeat配置文件:

#=========================== Filebeat inputs =============================  filebeat.inputs:  - type: log    enabled: true    paths:      - /data/log/*.log    fields:      app: tomcat      type: all    fields_under_root: true    #multiline.pattern: '^['    multiline.pattern: '^d+-d+-d+s+d+:d+:d+'    multiline.negate: true    multiline.match: after    multiline.max_lines: 200    multiline.timeout: 10s    #tags: ["filebeat"]    #exclude_lines: ['^d+-d+-d+s+d+:d+:d+s+DEBUG']    #include_lines: ['^ERR', '^WARN']    #----------------------------- Logstash output --------------------------------  output.logstash:  #  enabled: true    hosts: ["127.0.0.1:5044"]  #  index => "filebeat-%{+YYYY.MM.dd}"  #  worker: 4  #  bulk_max_size: 1024  #  compression_level: 6  #  loadbalance: false  #  backoff.max: 120s

logstash配置文件:

[root@Elk_Server logstash]# vim /etc/logstash/conf.d/logstash.conf    input {    beats {      host => '0.0.0.0'      port => "5044"    }  }    filter {    grok {      match => { "message" =>         ["%{TIMESTAMP_ISO8601:date}s+(?:%{LOGLEVEL:loglevel}|%{LOGLEVEL:loglevel}s+d) -+ [%{NOTSPACE:servicename}] %{JAVALOGMESSAGE:message}",        "%{TIMESTAMP_ISO8601:date}s+(?:%{LOGLEVEL:loglevel}|%{LOGLEVEL:loglevel}s+d) -+ [%{NOTSPACE:servicename}{%{DATA:description}}-%{DATA:db}] %{JAVALOGMESSAGE:message}"]     }      overwrite => [ "message" ]    }      #geoip {    #  source => "remote_addr"    #  target => "geoip"    #  database => "/opt/GeoLite2-City.mmdb"    #  add_field => ["[geoip][coordinates]", "%{[geoip][longitude]}"]     #  add_field => ["[geoip][coordinates]", "%{[geoip][latitude]}"]    #}    date {      locale => "en"      match => ["date", "dd/MMM/yyyy:HH:mm:ss Z"]    }  }    output {    elasticsearch {      hosts => [ "192.168.6.108:9200" ]      index => "logstash-%{type}-%{+YYYY.MM.dd}"    }  #  stdout {codec => rubydebug}  }

四、安裝Kibana

4.1 安裝Kibana

tar zxvf kibana-6.3.2-linux-x86_64.tar.gz -C /usr/local/  mv /usr/local/kibana-6.3.2-linux-x86_64 /usr/local/kibana

4.2 配置Kibana

cd /usr/local/kibana/  vim config/kibana.yml  #把以下注釋放開,使配置起作用。  -----   server.port: 5601   server.host: "192.168.6.108"   elasticsearch.url: "http://192.168.6.108:9200"   kibana.index: ".kibana"

4.3 啟動Kibana并進行測試訪問,從日志中可以看出,當(dāng)前開了5601端口

./bin/kibana  #后臺啟動    nohup /usr/local/kibana/bin/kibana &    -----    log   [03:30:39.833] [info][status][plugin:kibana@6.2.4] Status changed from uninitialized to green - Ready    log   [03:30:39.882] [info][status][plugin:elasticsearch@6.2.4] Status changed from uninitialized to yellow - Waiting for Elasticsearch    log   [03:30:40.026] [info][status][plugin:timelion@6.2.4] Status changed from uninitialized to green - Ready    log   [03:30:40.033] [info][status][plugin:console@6.2.4] Status changed from uninitialized to green - Ready    log   [03:30:40.037] [info][status][plugin:metrics@6.2.4] Status changed from uninitialized to green - Ready    log   [03:30:40.061] [info][listening] Server running at http://192.168.30.211:5601    log   [03:30:40.117] [info][status][plugin:elasticsearch@6.2.4] Status changed from yellow to green - Ready

4.4 查看啟動沒有報錯,可以通過192.168.6.108:5601在瀏覽器進行訪問了。

添加索引

①點擊Discover出現(xiàn)以下界面,在logstash日志分析文件里面有建立了一個索引,索引的名稱是test_log-${日期}這樣的形式,它是 Elasticsearch 中的一個索引名稱開頭。Kibana 會自動檢測在 Elasticsearch 中是否存在該索引名稱。

②按照注釋配置,然后點擊Next step,在第二頁 選擇@timestamp點擊create創(chuàng)建
ELK日志分析系統(tǒng)安裝和部署

③創(chuàng)建完成之后,可以看到以下一個界面,紅框內(nèi)是 自動生成的域,也可以理解為 跟數(shù)據(jù)庫中的字段類似,其中有一個message字段,就是我們想要的日志信息。
ELK日志分析系統(tǒng)安裝和部署

④再次點擊Discover出現(xiàn)以下界面,可以看到默認(rèn)搜索的是最后15分鐘的日志,可以通過點擊設(shè)置搜索的時間范圍.
ELK日志分析系統(tǒng)安裝和部署

⑤可以點擊右側(cè)域的add設(shè)置需要顯示的字段
ELK日志分析系統(tǒng)安裝和部署
添加完成之后,日志顯示如下:
ELK日志分析系統(tǒng)安裝和部署

⑥也可以查看請求體和響應(yīng)體
ELK日志分析系統(tǒng)安裝和部署

贊(0)
分享到: 更多 (0)
?
網(wǎng)站地圖   滬ICP備18035694號-2    滬公網(wǎng)安備31011702889846號
久久精品五月,日韩不卡视频在线观看,国产精品videossex久久发布 ,久久av综合
麻豆中文一区二区| 欧美精品一线| 日韩欧美高清一区二区三区| 免费日韩av| 免费观看在线综合色| 亚洲欧洲美洲国产香蕉| 91麻豆精品激情在线观看最新 | 午夜国产欧美理论在线播放| 亚洲天堂免费电影| 图片区亚洲欧美小说区| 丝瓜av网站精品一区二区| 日本不卡中文字幕| 国产精品欧美三级在线观看| 国产精品一区2区3区| 免费一级欧美片在线观看网站| 视频在线不卡免费观看| re久久精品视频| 国产日韩在线观看视频| 高清久久精品| 国产亚洲精品自拍| 国产美女精品视频免费播放软件| 久久久久久色| 91看片一区| 日韩视频一二区| 国产成人精品亚洲日本在线观看| 欧美资源在线| 日韩理论片av| 欧美午夜网站| 欧美日韩国产在线一区| 97成人在线| 高潮一区二区| 国产亚洲一区二区三区啪| 99热国内精品| 麻豆中文一区二区| 亚洲精品三级| 一区在线观看| 欧美激情国产在线| 日本v片在线高清不卡在线观看| 日本免费一区二区三区四区| 欧美啪啪一区| 午夜一级在线看亚洲| 不卡福利视频| 国产精品宾馆| 久久国产麻豆精品| 国产午夜精品一区二区三区欧美 | 国产aⅴ精品一区二区四区| 综合欧美精品| 女主播福利一区| 韩国三级一区| 国产成人a视频高清在线观看| 欧美一级二级三级视频| 亚洲一二av| 亚洲欧美不卡| 视频在线观看国产精品| 国产偷自视频区视频一区二区| 88xx成人免费观看视频库| 久久精品99国产精品| 日本亚洲欧洲无免费码在线| 国产一区导航| 亚洲一级在线| 免费成人在线观看| 日本不卡视频在线观看| 国产色99精品9i| 久久成人av| 国产不卡精品| 久久激情中文| av亚洲免费| 亚洲一区二区三区无吗| 午夜精品影视国产一区在线麻豆| 日韩视频1区| 国产一区二区三区四区五区| 国产精品毛片久久| 久久久一本精品| 午夜国产精品视频免费体验区| 99国产一区| 欧美日韩黄网站| 日韩88av| 亚洲欧洲一区二区天堂久久| 亚洲人www| 国产精品久久久久久久久妇女| 欧美日韩水蜜桃| 日韩精品视频网| 久久精品伊人| 偷拍欧美精品| 欧美日韩一视频区二区| www.com.cn成人| 夜久久久久久| 国产精品porn| 红桃视频欧美| 国语精品一区| 亚洲一区二区三区高清| 国产精品99久久久久久董美香| 免费污视频在线一区| 日韩一区二区三免费高清在线观看| 国产精品密蕾丝视频下载| 欧美日韩一区二区综合 | 国产精品欧美三级在线观看| 91精品综合| 国产福利资源一区| 欧美二区视频| 精品三级av| 亚洲精选91| 91成人网在线观看| 日韩av免费大片| 欧美日韩一视频区二区| 久久天堂av| 精品国产麻豆| 国产欧美日韩在线观看视频| 伊人久久婷婷| 91精品精品| 中文字幕在线看片| 国产精品巨作av| 日日夜夜免费精品视频| 日韩亚洲在线| 樱桃视频成人在线观看| 国产精品久久久久久av公交车| 亚洲专区一区| 免费视频久久| 麻豆久久精品| 亚洲一区二区三区高清| 欧美成人高清| 欧美日韩一二三四| 精品一区视频| 精品中文在线| 丰满少妇一区| 国产一区二区三区国产精品| 国产亚洲欧美日韩精品一区二区三区| 欧美gv在线| 日韩精品一卡二卡三卡四卡无卡| 一区免费在线| 首页欧美精品中文字幕| 宅男在线一区| 久久精品资源| 日韩av自拍| 99久久激情| 99在线|亚洲一区二区| 亚洲欧美日韩精品一区二区| 亚洲在线国产日韩欧美| 亚洲性视频在线| 国产亚洲电影| 国产va在线视频| 亚洲国产专区校园欧美| 1024精品久久久久久久久| 免费在线成人网| 亚洲欧洲美洲国产香蕉| 国产精品一区高清| 亚洲精品88| 蜜臀久久99精品久久久久久9| 日韩三区四区| 亚洲午夜天堂| 丝瓜av网站精品一区二区| 国产精品久久久久久久免费软件| 中国字幕a在线看韩国电影| 99re国产精品| 欧美国产亚洲精品| 欧美成人国产| 国产精品qvod| 激情综合在线| 日本va欧美va精品| 精品少妇一区| 亚洲精品在线观看91| 日韩精彩视频在线观看| 桃色av一区二区| 日韩精品乱码av一区二区| 久久电影tv| 欧美日韩精品一区二区三区视频 | 久久99视频| 丝袜国产日韩另类美女| 久久不见久久见免费视频7| 欧美日韩精品免费观看视欧美高清免费大片| 99在线精品视频在线观看| 福利在线一区| 国产精品4hu.www| 在线免费观看亚洲| 欧美日韩一区二区综合| 国产一区二区三区天码| 国产日韩欧美一区| 蜜臀av国产精品久久久久| 国产亚洲一区二区手机在线观看| 国产乱码精品一区二区三区四区 | 欧美日韩中文一区二区| 久久97视频| 久久国产三级| 日韩国产精品久久久久久亚洲| 伊人久久亚洲热| 日韩中文影院| 欧美天堂视频| 国产精品丝袜在线播放| 亚洲精品一二| 日本aⅴ精品一区二区三区| 蜜桃视频第一区免费观看| 国产一级一区二区| 免费视频久久| 亚洲另类视频| 免费国产自线拍一欧美视频| 99在线精品免费视频九九视| 91精品综合| 99riav国产精品| 亚洲综合二区| 四虎国产精品免费久久|