久久精品五月,日韩不卡视频在线观看,国产精品videossex久久发布 ,久久av综合

站長資訊網
最全最豐富的資訊網站

通過ELK快速搭建集中化日志平臺

在項目初期的時候,大家都是趕著上線,一般來說對日志沒有過多的考慮,當然日志量也不大,所以用log4net就夠了,隨著應用的越來越多,日志散落在各個服務器的logs文件夾下,確實有點不大方便,這個時候就想到了,在log4net中配置 mysql的數據源,不過這里面有一個坑,熟悉log4net的同學知道寫入mysql有一個batch的閾值,比如說batchcache中有100條,才寫入mysql,這樣的話,就有一個延遲的效果,而且如果batchcache中不滿100條的話,你在mysql中是看不到最新的100條日志。而且采用中心化的mysql,涉及到tcp傳輸,其中的性能大家也應該明白,而且mysql沒有一個好的日志界面,只能自己去寫UI,所以還還得繼續尋找其他的解決方案,也就是本篇的ELK。

一:ELK名字解釋

ELK就是ElasticSearch + LogStash + Kibana,這三樣搭配起來確實非常不錯,先畫張圖給大家看一下。

通過ELK快速搭建集中化日志平臺

1. LogStash

它可以流放到各自的服務器上收集Log日志,通過內置的ElasticSearch插件解析后輸出到ES中。

2.ElasticSearch

這是一個基于Lucene的分布式全文搜索框架,可以對logs進行分布式存儲,有點像hdfs哈。。。

3. Kibana

所有的log日志都到ElasticSearch之后,我們需要給他展示出來,對吧? 這個時候Kibana就出手了,它可以多維度的展示es中的數據。這也解決了

用mysql存儲帶來了難以可視化的問題。

二:快速搭建

上面只是名詞解釋,為了演示,我只在一臺CentOS上面搭建了。

1.  官方下載 :https://www.elastic.co/cn/products,在下面這張圖上,我們找到對應的三個產品,進行下載就好了。

通過ELK快速搭建集中化日志平臺

[root@slave1 myapp]# ls
elasticsearch              kafka_2.11-1.0.0.tgz              nginx-1.13.6.tar.gz
elasticsearch-5.6.4.tar.gz  kibana                            node
elasticsearch-head          kibana-5.2.0-linux-x86_64.tar.gz  node-v8.9.1-linux-x64.tar.xz
images                      logstash                          portal
java                        logstash-5.6.3.tar.gz            service
jdk1.8                      logstash-tutorial-dataset        sql
jdk-8u144-linux-x64.tar.gz  nginx
kafka                      nginx-1.13.6
[root@slave1 myapp]#

我這里下載的是elasticsearch 5.6.4,kibana5.2.0 ,logstash5.6.3三個版本。。。然后用 tar -xzvf解壓一下。

2. logstash配置

解壓完之后,我們到config目錄中新建一個logstash.conf配置。

[root@slave1 config]# ls
jvm.options  log4j2.properties  logstash.conf  logstash.yml  startup.options
[root@slave1 config]# pwd
/usr/myapp/logstash/config
[root@slave1 config]# vim logstash.conf

然后做好input ,filter,output三大塊, 其中input是吸取logs文件下的所有log后綴的日志文件,filter是一個過濾函數,這里不用配置,output配置了導入到

hosts為127.0.0.1:9200的elasticsearch中,每天一個索引。

input {
    file {
        type => “log”
        path => “/logs/*.log”
        start_position => “beginning”
    }
}

output {
  stdout {
  codec => rubydebug { }
  }

  elasticsearch {
    hosts => “127.0.0.1”
    index => “log-%{+YYYY.MM.dd}”
  }
}

配置完了之后,我們就可以到bin目錄下啟動logstash了,配置文件設置為conf/logstash.conf,從下圖中可以看到,當前開啟的是9600端口。

[root@slave1 bin]# ls
cpdump            logstash      logstash.lib.sh  logstash-plugin.bat  setup.bat
ingest-convert.sh  logstash.bat  logstash-plugin  ruby                system-install
[root@slave1 bin]# ./logstash -f ../config/logstash.conf
Sending Logstash’s logs to /usr/myapp/logstash/logs which is now configured via log4j2.properties
[2017-11-28T17:11:53,411][INFO ][logstash.modules.scaffold] Initializing module {:module_name=>”fb_apache”, :directory=>”/usr/myapp/logstash/modules/fb_apache/configuration”}
[2017-11-28T17:11:53,414][INFO ][logstash.modules.scaffold] Initializing module {:module_name=>”netflow”, :directory=>”/usr/myapp/logstash/modules/netflow/configuration”}
[2017-11-28T17:11:54,063][INFO ][logstash.outputs.elasticsearch] Elasticsearch pool URLs updated {:changes=>{:removed=>[], :added=>[http://127.0.0.1:9200/]}}
[2017-11-28T17:11:54,066][INFO ][logstash.outputs.elasticsearch] Running health check to see if an Elasticsearch connection is working {:healthcheck_url=>http://127.0.0.1:9200/, :path=>”/”}
[2017-11-28T17:11:54,199][WARN ][logstash.outputs.elasticsearch] Restored connection to ES instance {:url=>”http://127.0.0.1:9200/”}
[2017-11-28T17:11:54,244][INFO ][logstash.outputs.elasticsearch] Using mapping template from {:path=>nil}
[2017-11-28T17:11:54,247][INFO ][logstash.outputs.elasticsearch] Attempting to install template {:manage_template=>{“template”=>”logstash-*”, “version”=>50001, “settings”=>{“index.refresh_interval”=>”5s”}, “mappings”=>{“_default_”=>{“_all”=>{“enabled”=>true, “norms”=>false}, “dynamic_templates”=>[{“message_field”=>{“path_match”=>”message”, “match_mapping_type”=>”string”, “mapping”=>{“type”=>”text”, “norms”=>false}}}, {“string_fields”=>{“match”=>”*”, “match_mapping_type”=>”string”, “mapping”=>{“type”=>”text”, “norms”=>false, “fields”=>{“keyword”=>{“type”=>”keyword”, “ignore_above”=>256}}}}}], “properties”=>{“@timestamp”=>{“type”=>”date”, “include_in_all”=>false}, “@version”=>{“type”=>”keyword”, “include_in_all”=>false}, “geoip”=>{“dynamic”=>true, “properties”=>{“ip”=>{“type”=>”ip”}, “location”=>{“type”=>”geo_point”}, “latitude”=>{“type”=>”half_float”}, “longitude”=>{“type”=>”half_float”}}}}}}}}
[2017-11-28T17:11:54,265][INFO ][logstash.outputs.elasticsearch] New Elasticsearch output {:class=>”LogStash::Outputs::ElasticSearch”, :hosts=>[“//127.0.0.1”]}
[2017-11-28T17:11:54,266][INFO ][logstash.pipeline        ] Starting pipeline {“id”=>”main”, “pipeline.workers”=>2, “pipeline.batch.size”=>125, “pipeline.batch.delay”=>5, “pipeline.max_inflight”=>250}
[2017-11-28T17:11:54,427][INFO ][logstash.pipeline        ] Pipeline main started
[2017-11-28T17:11:54,493][INFO ][logstash.agent          ] Successfully started Logstash API endpoint {:port=>9600}

3. elasticSearch 

這個其實也是ELK中的核心,啟動的時候一定要注意,因為es不可以進行root賬戶啟動,所以你還需要開啟一個elsearch賬戶。

groupadd elsearch                  #新建elsearch組
useradd elsearch -g elsearch -p elasticsearch  #新建一個elsearch用戶
chown -R elsearch:elsearch  ./elasticsearch    #指定elasticsearch所屬elsearch組

接下來我們默認啟動就好了,什么也不用配置,然后在日志中大概可以看到開啟了9200,9300端口。

[elsearch@slave1 bin]$ ./elasticsearch
[2017-11-28T17:19:36,893][INFO ][o.e.n.Node              ] [] initializing …
[2017-11-28T17:19:36,973][INFO ][o.e.e.NodeEnvironment    ] [0bC8MSi] using [1] data paths, mounts [[/ (rootfs)]], net usable_space [17.9gb], net total_space [27.6gb], spins? [unknown], types [rootfs]
[2017-11-28T17:19:36,974][INFO ][o.e.e.NodeEnvironment    ] [0bC8MSi] heap size [1.9gb], compressed ordinary object pointers [true]
[2017-11-28T17:19:36,982][INFO ][o.e.n.Node              ] node name [0bC8MSi] derived from node ID [0bC8MSi_SUywaqz_Zl-MFA]; set [node.name] to override
[2017-11-28T17:19:36,982][INFO ][o.e.n.Node              ] version[5.6.4], pid[12592], build[8bbedf5/2017-10-31T18:55:38.105Z], OS[Linux/3.10.0-327.el7.x86_64/amd64], JVM[Oracle Corporation/Java HotSpot(TM) 64-Bit Server VM/1.8.0_144/25.144-b01]
[2017-11-28T17:19:36,982][INFO ][o.e.n.Node              ] JVM arguments [-Xms2g, -Xmx2g, -XX:+UseConcMarkSweepGC, -XX:CMSInitiatingOccupancyFraction=75, -XX:+UseCMSInitiatingOccupancyOnly, -XX:+AlwaysPreTouch, -Xss1m, -Djava.awt.headless=true, -Dfile.encoding=UTF-8, -Djna.nosys=true, -Djdk.io.permissionSUSECanonicalPath=true, -Dio.netty.noUnsafe=true, -Dio.netty.noKeySetOptimization=true, -Dio.netty.recycler.maxCapacityPerThread=0, -Dlog4j.shutdownHookEnabled=false, -Dlog4j2.disable.jmx=true, -Dlog4j.skipJansi=true, -XX:+HeapDumpOnOutOfMemoryError, -Des.path.home=/usr/myapp/elasticsearch]
[2017-11-28T17:19:37,780][INFO ][o.e.p.PluginsService    ] [0bC8MSi] loaded module [aggs-matrix-stats]
[2017-11-28T17:19:37,780][INFO ][o.e.p.PluginsService    ] [0bC8MSi] loaded module [ingest-common]
[2017-11-28T17:19:37,780][INFO ][o.e.p.PluginsService    ] [0bC8MSi] loaded module [lang-expression]
[2017-11-28T17:19:37,780][INFO ][o.e.p.PluginsService    ] [0bC8MSi] loaded module [lang-groovy]
[2017-11-28T17:19:37,780][INFO ][o.e.p.PluginsService    ] [0bC8MSi] loaded module [lang-mustache]
[2017-11-28T17:19:37,780][INFO ][o.e.p.PluginsService    ] [0bC8MSi] loaded module [lang-painless]
[2017-11-28T17:19:37,780][INFO ][o.e.p.PluginsService    ] [0bC8MSi] loaded module [parent-join]
[2017-11-28T17:19:37,780][INFO ][o.e.p.PluginsService    ] [0bC8MSi] loaded module [percolator]
[2017-11-28T17:19:37,781][INFO ][o.e.p.PluginsService    ] [0bC8MSi] loaded module [reindex]
[2017-11-28T17:19:37,781][INFO ][o.e.p.PluginsService    ] [0bC8MSi] loaded module [transport-netty3]
[2017-11-28T17:19:37,781][INFO ][o.e.p.PluginsService    ] [0bC8MSi] loaded module [transport-netty4]
[2017-11-28T17:19:37,781][INFO ][o.e.p.PluginsService    ] [0bC8MSi] no plugins loaded
[2017-11-28T17:19:39,782][INFO ][o.e.d.DiscoveryModule    ] [0bC8MSi] using discovery type [zen]
[2017-11-28T17:19:40,409][INFO ][o.e.n.Node              ] initialized
[2017-11-28T17:19:40,409][INFO ][o.e.n.Node              ] [0bC8MSi] starting …
[2017-11-28T17:19:40,539][INFO ][o.e.t.TransportService  ] [0bC8MSi] publish_address {192.168.23.151:9300}, bound_addresses {[::]:9300}
[2017-11-28T17:19:40,549][INFO ][o.e.b.BootstrapChecks    ] [0bC8MSi] bound or publishing to a non-loopback or non-link-local address, enforcing bootstrap checks
[2017-11-28T17:19:43,638][INFO ][o.e.c.s.ClusterService  ] [0bC8MSi] new_master {0bC8MSi}{0bC8MSi_SUywaqz_Zl-MFA}{xcbC53RVSHajdLop7sdhpA}{192.168.23.151}{192.168.23.151:9300}, reason: zen-disco-elected-as-master ([0] nodes joined)
[2017-11-28T17:19:43,732][INFO ][o.e.h.n.Netty4HttpServerTransport] [0bC8MSi] publish_address {192.168.23.151:9200}, bound_addresses {[::]:9200}
[2017-11-28T17:19:43,733][INFO ][o.e.n.Node              ] [0bC8MSi] started
[2017-11-28T17:19:43,860][INFO ][o.e.g.GatewayService    ] [0bC8MSi] recovered [1] indices into cluster_state
[2017-11-28T17:19:44,035][INFO ][o.e.c.r.a.AllocationService] [0bC8MSi] Cluster health status changed from [RED] to [YELLOW] (reason: [shards started [[.kibana][0]] …]).

4. kibana

它的配置也非常簡單,你需要在kibana.yml文件中指定一下你需要讀取的elasticSearch地址和可供外網訪問的bind地址就可以了。

[root@slave1 config]# pwd
/usr/myapp/kibana/config

[root@slave1 config]# vim kibana.yml

elasticsearch.url: “http://localhost:9200”
server.host: 0.0.0.0

然后就是啟動,從日志中可以看出,當前開了5601端口。

[root@slave1 kibana]# cd bin
[root@slave1 bin]# ls
kibana  kibana-plugin  nohup.out
[root@slave1 bin]# ./kibana
  log  [01:23:27.650] [info][status][plugin:kibana@5.2.0] Status changed from uninitialized to green – Ready
  log  [01:23:27.748] [info][status][plugin:elasticsearch@5.2.0] Status changed from uninitialized to yellow – Waiting for Elasticsearch
  log  [01:23:27.786] [info][status][plugin:console@5.2.0] Status changed from uninitialized to green – Ready
  log  [01:23:27.794] [warning] You’re running Kibana 5.2.0 with some different versions of Elasticsearch. Update Kibana or Elasticsearch to the same version to prevent compatibility issues: v5.6.4 @ 192.168.23.151:9200 (192.168.23.151)
  log  [01:23:27.811] [info][status][plugin:elasticsearch@5.2.0] Status changed from yellow to green – Kibana index ready
  log  [01:23:28.250] [info][status][plugin:timelion@5.2.0] Status changed from uninitialized to green – Ready
  log  [01:23:28.255] [info][listening] Server running at http://0.0.0.0:5601
  log  [01:23:28.259] [info][status][ui settings] Status changed from uninitialized to green – Ready

5. 瀏覽器中輸入:http://192.168.23.151:5601/ 你就可以打開kibana頁面了,,默認讓我指定一個查看的Index。

通過ELK快速搭建集中化日志平臺

接下來我們在本機的/logs文件夾下創建一個簡單的1.log文件,內容為“hello world”,然后在kibana上將logstash-*  改成 log* ,Create按鈕就會自動出來。

[root@slave1 logs]# echo ‘hello world’ > 1.log

通過ELK快速搭建集中化日志平臺

進入之后,點擊Discover,你就可以找到你輸入的內容啦~~~~ 是不是很帥氣。。。

通過ELK快速搭建集中化日志平臺

如果你裝了head安裝包,你還可以看到它確實帶了日期模式的Index索引,還自帶5個默認分片數。

通過ELK快速搭建集中化日志平臺

好了,本篇就說這么多吧,希望對你有幫助。

更多ELK相關教程見以下內容

基于CentOS 6.9搭建ELK環境指南  http://m.wangcai868.com/Linux/2017-07/145636.htm
Linux日志分析ELK環境搭建  http://m.wangcai868.com/Linux/2017-07/145494.htm
Logstash 監控日志文件時應對日志文件名改變的原理  http://m.wangcai868.com/Linux/2016-08/133994.htm
使用Elasticsearch + Logstash + Kibana搭建日志集中分析平臺實踐  http://m.wangcai868.com/Linux/2015-12/126587.htm
ELK日志管理平臺搭建教程  http://m.wangcai868.com/Linux/2018-07/153136.htm
CenttOS 6.6下部署ELK日志告警系統 http://m.wangcai868.com/Linux/2018-05/152192.htm
CentOS 7單機部署ELK  http://m.wangcai868.com/Linux/2017-11/148222.htm
CentOS 安裝 Logstash 2.2.0 和 Elasticsearch 2.2.0  http://m.wangcai868.com/Linux/2016-03/128794.htm

ELK日志管理平臺搭建教程  http://m.wangcai868.com/Linux/2018-07/153136.htm

贊(0)
分享到: 更多 (0)
?
網站地圖   滬ICP備18035694號-2    滬公網安備31011702889846號
久久精品五月,日韩不卡视频在线观看,国产精品videossex久久发布 ,久久av综合
日韩精品一级| 欧美日韩国产高清| 精品三级在线观看视频| 欧美亚洲免费| 国产日韩视频| 日韩av午夜在线观看| 综合一区二区三区| 亚洲精品观看| 欧美自拍一区| 日韩精品欧美精品| 99在线观看免费视频精品观看| 97人人精品| 日韩中文欧美| av不卡在线看| 亚洲精品影视| 麻豆精品一区二区综合av| 高清久久一区| 99热免费精品| 国产欧美精品| 久久精品影视| 午夜影院一区| 亚洲欧洲日本mm| 91精品福利观看| 日韩电影在线视频| 99视频精品免费观看| 国产日韩一区二区三区在线| 欧美激情另类| 一本一道久久a久久| 久久精品一区| 在线看片国产福利你懂的| 亚洲网站视频| 欧美久久亚洲| 在线国产一区| 国产一区二区精品久| 亚洲欧美日韩精品一区二区| 国产精品jk白丝蜜臀av小说| 亚洲精品网址| 国产精品99一区二区三区| 亚洲欧洲专区| 国产精品一区二区三区av| 欧美香蕉视频| 国产精品三p一区二区| 黄色欧美日韩| 日韩一区欧美| 欧美一区二区三区久久| 极品av在线| 久久的色偷偷| 日韩欧美激情| 精品一区免费| 日韩制服丝袜av| www.com.cn成人| 精品一区视频| 日本高清久久| 丝袜a∨在线一区二区三区不卡| 国产精品久久久久9999高清| 国产亚洲综合精品| av中文资源在线资源免费观看| 日本91福利区| 国产主播一区| 久久精品超碰| 911精品国产| 日本免费一区二区视频| 老鸭窝亚洲一区二区三区| 免费欧美一区| 九九久久电影| 亚洲高清影视| 欧美 日韩 国产精品免费观看| 日韩成人精品一区| 久久99国产精品视频| 亚洲欧洲一区| 日韩午夜精品| 亚洲精品黄色| 国产情侣久久| 国内自拍视频一区二区三区| 日韩av自拍| 亚洲电影在线一区二区三区| 99国产精品久久久久久久| 中文字幕成人| 成人午夜毛片| 精品中文字幕一区二区三区四区| 精品久久久网| 亚洲国产综合在线看不卡| 亚洲一区不卡| 国产精品亚洲二区| 国产一区三区在线播放| 蜜臀久久精品| 免费人成在线不卡| 国产精品久久久久av蜜臀| 黄色aa久久| 蜜桃91丨九色丨蝌蚪91桃色| 免费人成精品欧美精品| 久久精品超碰| 99久久夜色精品国产亚洲1000部| 免费日韩av片| 免费在线观看一区| 久久中文字幕av一区二区不卡| 热久久久久久久| 久久影视三级福利片| 亚洲主播在线| 免费日韩一区二区三区| 日韩精品1区2区3区| 日本一二区不卡| 天堂va欧美ⅴa亚洲va一国产| 国产自产自拍视频在线观看| 日韩**一区毛片| 蜜臀91精品国产高清在线观看| 欧美视频精品全部免费观看| 久久精品国产大片免费观看| 久久超级碰碰| 天堂精品久久久久| 国产精品婷婷| 国产欧美午夜| 免费在线视频一区| 在线日韩欧美| 黑人精品一区| 日本麻豆一区二区三区视频| 久久精品动漫| 久久久精品区| 国产精品一卡| 国产色99精品9i| 日韩欧乱色一区二区三区在线| 国产亚洲午夜| 欧美国产亚洲精品| 亚洲精品黄色| 亚洲免费播放| 亚洲国产综合在线看不卡| 新版的欧美在线视频| 久久在线91| 久久精品国产网站| 老司机免费视频一区二区| 美日韩精品视频| 国产模特精品视频久久久久| 不卡视频在线| 日韩综合在线| 日韩国产欧美| 麻豆精品蜜桃| 99久久视频| 女人天堂亚洲aⅴ在线观看| 美女网站一区| 噜噜噜久久亚洲精品国产品小说| 亚洲一区二区三区四区五区午夜| 欧美精品一二| 亚洲日本免费电影| 视频一区日韩精品| 日韩精品91亚洲二区在线观看| 成人亚洲一区| 国产中文一区| 亚洲精品日本| 成人影视亚洲图片在线| 精品一区91| 免费视频国产一区| 日韩高清二区| 日韩一区二区三区免费播放| 国产高清一区二区| 欧美在线资源| 亚洲综合不卡| 蜜臀久久99精品久久久久宅男 | 不卡中文一二三区| 青青草伊人久久| 日韩精品影视| 日韩高清不卡在线| 日韩在线精品| 国产丝袜一区| 国产日韩精品视频一区二区三区| 精品一区二区三区在线观看视频 | 亚洲精品极品| 精品欧美视频| 日本一不卡视频| 欧美日韩一区二区综合| 国产一级成人av| 欧美日韩一区二区三区视频播放| 久久中文字幕二区| 婷婷精品在线观看| 色在线中文字幕| 国产精品v日韩精品v欧美精品网站| 欧美~级网站不卡| 狠狠久久伊人中文字幕| 亚洲精品九九| 一级欧洲+日本+国产| 欧美一级二区| 午夜视频精品| 亚洲天堂1区| 91日韩欧美| 久久激情五月婷婷| 999精品色在线播放| 欧美国产不卡| 国产日韩欧美| 日韩二区三区四区| 噜噜噜躁狠狠躁狠狠精品视频| 日韩免费福利视频| 福利一区二区| 精品一区二区男人吃奶| 国产日韩欧美三区| 欧美日韩一区二区三区不卡视频 | 日本va欧美va精品| 一区二区三区四区在线观看国产日韩| 99久久精品国产亚洲精品| 日韩精品欧美| 蜜桃国内精品久久久久软件9| 久久伦理在线|