ELK6.0部署:Elasticsearch+Logstash+Kibana搭建分布式日志平台
一、前言
1、ELK簡介
ELK是Elasticsearch+Logstash+Kibana的簡稱
-
ElasticSearch是一個基于Lucene的分布式全文搜索引擎,提供 RESTful API進行數據讀寫
-
Logstash是一個收集,處理和轉發事件和日志消息的工具
- Kibana是Elasticsearch的開源數據可視化插件,為查看存儲在ElasticSearch提供了友好的Web界面,并提供了條形圖,線條和散點圖,餅圖和地圖等分析工具
總的來說,ElasticSearch負責存儲數據,Logstash負責收集日志,并將日志格式化后寫入ElasticSearch,Kibana提供可視化訪問ElasticSearch數據的功能。
2、ELK工作流
應用將日志按照約定的Key寫入Redis,Logstash從Redis中讀取日志信息寫入ElasticSearch集群。Kibana讀取ElasticSearch中的日志,并在Web頁面中以表格/圖表的形式展示。
二、準備工作
1、服務器&軟件環境說明
- 服務器
一共準備3臺CentOS7 Server
| es1 | 192.168.1.31 | 部署ElasticSearch主節點 |
| es2 | 192.168.1.32 | 部署ElasticSearch從節點 |
| elk | 192.168.1.21 | 部署Logstash + Kibana + Redis |
這里為了節省,只部署2臺Elasticsearch,并將Logstash + Kibana + Redis部署在了一臺機器上。
如果在生產環境部署,可以按照自己的需求調整。
- 軟件環境
| Linux Server | CentOS 7 |
| Elasticsearch | 6.0.0 |
| Logstash | 6.0.0 |
| Kibana | 6.0.0 |
| Redis | 4.0 |
| JDK | 1.8 |
2、ELK環境準備
由于Elasticsearch、Logstash、Kibana均不能以root賬號運行。
但是Linux對非root賬號可并發操作的文件、線程都有限制。
所以,部署ELK相關的機器都要調整:
- 修改文件限制
- 調整進程數
- 調整虛擬內存&最大并發連接
以上操作重啟系統后生效
reboot- JDK8安裝
CentO安裝JDK8:https://ken.io/note/centos-java-setup
- 創建ELK專用用戶
- 創建ELK相關目錄并賦權
- 下載ELK包并解壓
https://www.elastic.co/downloads
三、Elasticsearch 部署
本次一共要部署兩個Elasticsearch節點,所有文中沒有指定機器的操作都表示每個Elasticsearch機器都要執行該操作
1、準備工作
- 移動Elasticsearch到統一目錄
- 開放端口
- 切換賬號
- 數據&日志目錄
2、Elasticsearch節點配置
- 修改配置
- 主節點配置(192.168.1.31)
- 從節點配置(192.168.1.32)
- 配置項說明
| cluster.name | 集群名 |
| node.name | 節點名 |
| path.data | 數據保存目錄 |
| path.logs | 日志保存目錄 |
| network.host | 節點host/ip |
| http.port | HTTP訪問端口 |
| transport.tcp.port | TCP傳輸端口 |
| node.master | 是否允許作為主節點 |
| node.data | 是否保存數據 |
| discovery.zen.ping.unicast.hosts | 集群中的主節點的初始列表,當節點(主節點或者數據節點)啟動時使用這個列表進行探測 |
| discovery.zen.minimum_master_nodes | 主節點個數 |
3、Elasticsearch啟動&健康檢查
- 啟動
- 查看健康狀態
如果返回status=green表示正常
{"cluster_name": "esc","status": "green","timed_out": false, "number_of_nodes": 2, "number_of_data_nodes": 2, "active_primary_shards": 0, "active_shards": 0, "relocating_shards": 0, "initializing_shards": 0, "unassigned_shards": 0, "delayed_unassigned_shards": 0, "number_of_pending_tasks": 0, "number_of_in_flight_fetch": 0, "task_max_waiting_in_queue_millis": 0, "active_shards_percent_as_number": 100.0 }四、Logstash 部署
1、準備工作
- 部署Redis
Redis4 安裝與配置:https://ken.io/note/centos7-redis4-setup
由于本次核心是ELK搭建,所以ken.io偷懶,Redis沒有部署集群,采用的單節點。
- 移動Logstash到統一目錄
- 切換賬號
- 數據&日志目錄
2、Logstash配置
- 配置數據&日志目錄
- 配置Redis&Elasticsearch
該配置就是從redis中讀取數據,然后寫入指定的elasticsearch
Redis核心配置項說明:
| data_type => “list” | 數據類型為list |
| key => “logstash” | 緩存key為:logstash |
| codec => “json” | 數據格式為:json |
- 啟動
啟動成功后,在啟動輸出的最后一行會看到如下信息:
[INFO ][logstash.pipeline ] Pipeline started {"pipeline.id"=>"main"} [INFO ][logstash.agent ] Pipelines running {:count=>1, :pipelines=>["main"]}五、Kibana 部署
1、準備工作
- 移動Kibana到統一目錄
- 開放端口
- 切換賬號
3、Kibana配置與訪問測試
- 修改配置
- 啟動
- 訪問
瀏覽器訪問: 192.168.1.21:5601
警告提示:No default index pattern. You must select or create one to continue.
錯誤提示:Unable to fetch mapping. do you have indices matching the pattern?
不用擔心,這是因為還沒有寫入日志
六、測試
1、日志寫入
日歷寫入的話,寫入到logstash監聽的redis即可。
數據類型之前在/usr/elk/logstash-6.0.0/config/input-uput.conf中有配置
- redis命令方式
- Java代碼批量寫入(引入Jedis)
2、Kibana使用
瀏覽器訪問:192.168.1.21:5601
此時會提示:?Configure an index pattern
直接點擊create即可
瀏覽器訪問:192.168.1.21:5601/app/kibana#/discover 即可查看日志
大功告成!
七、備注
1、Kibana使用教程
- https://segmentfault.com/a/1190000002972420
2、 ELK開機啟動
ELK開機啟動,需要學習下以下知識
- nohup命令使用:https://www.ibm.com/developerworks/cn/linux/l-cn-nohup/index.html
- 自定義系統服務,可以參考Redis的開機啟動:https://ken.io/note/centos7-redis4-setup
轉載于:https://www.cnblogs.com/mylovelulu/p/10530002.html
總結
以上是生活随笔為你收集整理的ELK6.0部署:Elasticsearch+Logstash+Kibana搭建分布式日志平台的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 字符串:你看的懂的KMP算法(带验证)
- 下一篇: 判断浏览器是pc端还是移动端