日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区

您的位置:首頁技術文章
文章詳情頁

Docker Compose一鍵ELK部署的方法實現

瀏覽:162日期:2024-11-05 17:59:02
安裝

  Filebeat 已經完全替代了 Logstash-Forwarder 成為新一代的日志采集器,因為它更加輕量、安全。基于 Filebeat + ELK 的部署方案架構圖如下: 

Docker Compose一鍵ELK部署的方法實現

  軟件版本:

服務 版本 說明 CentOS 7.6 Docker 18.09.5 Docker Compose 1.25.0 ELK 7.5.1 Filebeat 7.5.1

docker-compose 文件

version: '3'services: es-master: container_name: es-master hostname: es-master image: elasticsearch:7.5.1 restart: always ports: - 9200:9200 - 9300:9300 volumes: - ./elasticsearch/master/conf/es-master.yml:/usr/share/elasticsearch/config/elasticsearch.yml - ./elasticsearch/master/data:/usr/share/elasticsearch/data - ./elasticsearch/master/logs:/usr/share/elasticsearch/logs environment: - 'ES_JAVA_OPTS=-Xms512m -Xmx512m' es-slave1: container_name: es-slave1 image: elasticsearch:7.5.1 restart: always ports: - 9201:9200 - 9301:9300 volumes: - ./elasticsearch/slave1/conf/es-slave1.yml:/usr/share/elasticsearch/config/elasticsearch.yml - ./elasticsearch/slave1/data:/usr/share/elasticsearch/data - ./elasticsearch/slave1/logs:/usr/share/elasticsearch/logs environment: - 'ES_JAVA_OPTS=-Xms512m -Xmx512m' es-slave2: container_name: es-slave2 image: elasticsearch:7.5.1 restart: always ports: - 9202:9200 - 9302:9300 volumes: - ./elasticsearch/slave2/conf/es-slave2.yml:/usr/share/elasticsearch/config/elasticsearch.yml - ./elasticsearch/slave2/data:/usr/share/elasticsearch/data - ./elasticsearch/slave2/logs:/usr/share/elasticsearch/logs environment: - 'ES_JAVA_OPTS=-Xms512m -Xmx512m' kibana: container_name: kibana hostname: kibana image: kibana:7.5.1 restart: always ports: - 5601:5601 volumes: - ./kibana/conf/kibana.yml:/usr/share/kibana/config/kibana.yml environment: - elasticsearch.hosts=http://es-master:9200 depends_on: - es-master - es-slave1 - es-slave2 # filebeat: # # 容器名稱 # container_name: filebeat # # 主機名稱 # hostname: filebeat # # 鏡像 # image: docker.elastic.co/beats/filebeat:7.5.1 # # 重啟機制 # restart: always # # 持久化掛載 # volumes: # - ./filebeat/conf/filebeat.yml:/usr/share/filebeat/filebeat.yml # # 映射到容器中[作為數據源] # - ./logs:/home/project/spring-boot-elasticsearch/logs # - ./filebeat/logs:/usr/share/filebeat/logs # - ./filebeat/data:/usr/share/filebeat/data # # 將指定容器連接到當前連接,可以設置別名,避免ip方式導致的容器重啟動態改變的無法連接情況 # links: # - logstash # # 依賴服務[可無] # depends_on: # - es-master # - es-slave1 # - es-slave2 logstash: container_name: logstash hostname: logstash image: logstash:7.5.1 command: logstash -f ./conf/logstash-filebeat.conf restart: always volumes: # 映射到容器中 - ./logstash/conf/logstash-filebeat.conf:/usr/share/logstash/conf/logstash-filebeat.conf - ./logstash/ssl:/usr/share/logstash/ssl environment: - elasticsearch.hosts=http://es-master:9200 # 解決logstash監控連接報錯 - xpack.monitoring.elasticsearch.hosts=http://es-master:9200 ports: - 5044:5044 depends_on: - es-master - es-slave1 - es-slave2

  這里把 Filebeat 給注釋掉了,打算在各個需要搜集日志的服務器上面單獨部署 Filebeat。

記得把 Elasticsearch 的 data 和 logs 設置 chmod 777

es-master.yml

# 集群名稱cluster.name: es-cluster# 節點名稱node.name: es-master# 是否可以成為master節點node.master: true# 是否允許該節點存儲數據,默認開啟node.data: false# 網絡綁定network.host: 0.0.0.0# 設置對外服務的http端口http.port: 9200# 設置節點間交互的tcp端口transport.port: 9300# 集群發現discovery.seed_hosts: - es-master - es-slave1 - es-slave2# 手動指定可以成為 mater 的所有節點的 name 或者 ip,這些配置將會在第一次選舉中進行計算cluster.initial_master_nodes: - es-master# 支持跨域訪問http.cors.enabled: truehttp.cors.allow-origin: '*'# 安全認證xpack.security.enabled: false#http.cors.allow-headers: 'Authorization'

es-slave1.yml

# 集群名稱cluster.name: es-cluster# 節點名稱node.name: es-slave1# 是否可以成為master節點node.master: true# 是否允許該節點存儲數據,默認開啟node.data: true# 網絡綁定network.host: 0.0.0.0# 設置對外服務的http端口http.port: 9201# 設置節點間交互的tcp端口#transport.port: 9301# 集群發現discovery.seed_hosts: - es-master - es-slave1 - es-slave2# 手動指定可以成為 mater 的所有節點的 name 或者 ip,這些配置將會在第一次選舉中進行計算cluster.initial_master_nodes: - es-master# 支持跨域訪問http.cors.enabled: truehttp.cors.allow-origin: '*'# 安全認證xpack.security.enabled: false#http.cors.allow-headers: 'Authorization'

es-slave2.yml

# 集群名稱cluster.name: es-cluster# 節點名稱node.name: es-slave2# 是否可以成為master節點node.master: true# 是否允許該節點存儲數據,默認開啟node.data: true# 網絡綁定network.host: 0.0.0.0# 設置對外服務的http端口http.port: 9202# 設置節點間交互的tcp端口#transport.port: 9302# 集群發現discovery.seed_hosts: - es-master - es-slave1 - es-slave2# 手動指定可以成為 mater 的所有節點的 name 或者 ip,這些配置將會在第一次選舉中進行計算cluster.initial_master_nodes: - es-master# 支持跨域訪問http.cors.enabled: truehttp.cors.allow-origin: '*'# 安全認證xpack.security.enabled: false#http.cors.allow-headers: 'Authorization'

logstash-filebeat.conf

input { # 來源beats beats { # 端口 port => '5044' ssl_certificate_authorities => ['/usr/share/logstash/ssl/ca.crt'] ssl_certificate => '/usr/share/logstash/ssl/server.crt' ssl_key => '/usr/share/logstash/ssl/server.key' ssl_verify_mode => 'force_peer' }}# 分析、過濾插件,可以多個filter { grok { match => { 'message' => '%{COMBINEDAPACHELOG}'} } geoip { source => 'clientip' }}output { # 選擇elasticsearch elasticsearch { hosts => ['http://es-master:9200'] index => '%{[fields][service]}-%{[@metadata][version]}-%{+YYYY.MM.dd}' }}

filebeat.yml

filebeat.inputs: - type: log enabled: true paths: # 當前目錄下的所有.log文件 - /root/tmp/logs/*.log fields: service: 'our31-java' multiline.pattern: ^[ multiline.negate: true multiline.match: after - type: log enabled: true paths: # 當前目錄下的所有.log文件 - /root/tmp/log/*.log fields: service: 'our31-nginx'filebeat.config.modules: path: ${path.config}/modules.d/*.yml reload.enabled: false# setup.template.settings:# index.number_of_shards: 1# setup.dashboards.enabled: false# setup.kibana:# host: 'http://localhost:5601'# 不直接傳輸至ES#output.elasticsearch:# hosts: ['http://es-master:9200']# index: 'filebeat-%{[beat.version]}-%{+yyyy.MM.dd}'setup.ilm.enabled: falseoutput.logstash: hosts: ['logstash.server.com:5044'] # Optional SSL. By default is off. # List of root certificates for HTTPS server verifications ssl.certificate_authorities: './ssl/ca.crt' # Certificate for SSL client authentication ssl.certificate: './ssl/client.crt' # Client Certificate Key ssl.key: './ssl/client.key'# processors:# - add_host_metadata: ~# - add_cloud_metadata: ~

注意

生成證書,配置 SSL,讓 Filebeat 與 Logstash 之間建立 SSL。

#生成ca私鑰openssl genrsa 2048 > ca.key #使用ca私鑰建立ca證書openssl req -new -x509 -nodes -key ca.key -subj /CN=elkCA CA/OU=Development group/O=HomeIT SIA/DC=elk/DC=com > ca.crt #生成服務器csr證書請求文件openssl req -newkey rsa:2048 -nodes -keyout server.key -subj /CN=logstash.server.com/OU=Development group/O=Home SIA/DC=elk/DC=com > server.csr #使用ca證書與私鑰簽發服務器證書openssl x509 -req -in server.csr -CA ca.crt -CAkey ca.key -set_serial 01 > server.crt #生成客戶端csr證書請求文件openssl req -newkey rsa:2048 -nodes -keyout client.key -subj /CN=filebeat.client.com/OU=Development group/O=Home SIA/DC=elk/DC=com > client.csr #使用ca證書與私鑰簽發客戶端證書openssl x509 -req -in client.csr -CA ca.crt -CAkey ca.key -set_serial 01 > client.crt

  證書記得放到對應的文件夾中。

Filebeat 中 output.logstash.hosts 配置的域名要與證書相符。

根據不同服務器、不同服務、不同日期動態生成索引

Docker Compose一鍵ELK部署的方法實現

  上面的這張圖片中,加上了一些自定義屬性,這些屬性會傳遞到 Logstash 中,Logstash 會拿到這些屬性動態的向 Elasticsearch 中創建索引,如下圖:

Docker Compose一鍵ELK部署的方法實現

詳細介紹看官方文檔,metadata,動態索引生成。

  這里本來想使用 indices 來動態生成索引,但是根據官方配置,并沒有成功,哪位兄弟知道可以告知下為什么。

利用 Nginx Http Basic Authorization 讓 Kibana 需要登錄

  先使用工具 htpasswd 生成用戶信息

$ yum -y install httpd-tools

  創建新密碼文件

Docker Compose一鍵ELK部署的方法實現

  追加用戶信息:

Docker Compose一鍵ELK部署的方法實現

  最后配置好 Nginx 即可:

server { ...... auth_basic 'Kibana Auth'; auth_basic_user_file /usr/local/nginx/pwd/kibana/passwd; ......}

單獨啟動 Filebeat 的方式

$ nohup ./filebeat 2>&1 &啟動 Docker Compose

  在 docker-compose.yml 所在目錄執行:

$ docker-compose up --build -d

到此這篇關于Docker Compose一鍵ELK部署的方法實現的文章就介紹到這了,更多相關Docker Compose ELK部署內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Docker
相關文章:
日本不卡不码高清免费观看,久久国产精品久久w女人spa,黄色aa久久,三上悠亚国产精品一区二区三区
日韩欧美一区二区三区在线观看| 国产探花在线精品| 欧美日韩中出| 亚洲免费成人av在线| 夜夜嗨av一区二区三区网站四季av| 天堂中文av在线资源库| 日韩欧美一区二区三区免费观看| 日韩不卡视频在线观看| 免费一区二区三区在线视频| 国产精久久久| 久久久久久久久成人| 卡一卡二国产精品| 免费日韩一区二区| 久久福利精品| 爽好久久久欧美精品| 日韩精选在线| 91麻豆精品| 麻豆成人综合网| 国产一区二区三区成人欧美日韩在线观看 | 激情综合网站| 国产精品日韩久久久| 久久国产毛片| 免费日韩视频| 日韩精品亚洲专区| 国产精品手机在线播放| 欧美激情91| 日韩在线第七页| 欧美在线亚洲| 日本大胆欧美人术艺术动态| 亚洲免费成人av在线| 欧美精品影院| 亚洲精品成人图区| 一区二区三区四区在线看| 亚洲一区国产| 日韩精品国产欧美| 久久一区亚洲| 成人福利视频| 99在线精品免费视频九九视 | 亚洲女同中文字幕| 综合亚洲色图| 国产精品videossex| 日韩中文影院| 亚洲一区国产| 久久99精品久久久久久园产越南| 国产91欧美| 欧美特黄一区| 国产毛片久久久| 在线一区视频观看| 四季av一区二区凹凸精品| 日韩中文视频| 日韩精品水蜜桃| 亚洲天堂免费| 精品一区视频| 亚洲欧洲另类| 日韩av一级片| 99精品一区| 亚洲毛片在线免费| 四虎成人av| 亚洲精品黄色| 天堂√8在线中文| 日韩 欧美一区二区三区| 91亚洲国产| 石原莉奈在线亚洲二区| 精品少妇一区| 免费视频最近日韩| 久久国产精品美女| 国产综合亚洲精品一区二| 国产日韩视频| 国产亚洲激情| 国产成人精品一区二区三区在线| 亚洲一区二区网站| 精品国产欧美日韩| 午夜性色一区二区三区免费视频| 成年男女免费视频网站不卡| 日韩一区二区三区四区五区| 久久九九精品| 国产精品成人**免费视频| 午夜在线精品| 婷婷激情一区| 麻豆传媒一区二区三区| 最新日韩欧美| 在线天堂资源www在线污| 日韩欧美久久| 精品欧美久久| 欧美国产小视频| 日本欧美一区二区| 不卡在线一区| 国内在线观看一区二区三区| 亚洲久久视频| 香蕉国产精品| 国产在线视频欧美一区| 日韩av成人高清| 欧美精品一卡| 群体交乱之放荡娇妻一区二区| 久久天堂影院| 亚洲免费中文| 美女少妇全过程你懂的久久| 国产成人久久| 国产精品一国产精品k频道56| 亚洲免费成人| 九九色在线视频| 精品免费视频| 国产一区 二区| 综合干狼人综合首页| 国内精品福利| 日韩av在线播放网址| 国产精选一区| 亚洲欧洲日韩| 视频在线在亚洲| 婷婷亚洲综合| 国产一区二区色噜噜| 国产欧美激情| 欧美日韩xxxx| 日韩中文av| 综合一区二区三区| 热久久免费视频| 欧美中文日韩| 午夜欧美理论片| 黄色成人91| 欧美亚洲国产激情| 久久一区二区三区喷水| 毛片在线网站| 欧美精品高清| 欧美成人a交片免费看| 色在线中文字幕| 国产 日韩 欧美 综合 一区| 国产精品美女午夜爽爽| 国产精品久久| 一区二区三区四区在线看| 性欧美69xoxoxoxo| 欧美日韩尤物久久| 久久精品国产大片免费观看| 亚洲国产欧美日本视频| 欧洲一区二区三区精品| 日韩在线综合| 欧美香蕉视频| 偷拍精品精品一区二区三区| 色黄视频在线观看| 亚洲一级高清| 午夜国产一区二区| 日韩中文字幕高清在线观看| 亚洲一级少妇| 久久精选视频| 国产农村妇女精品一二区| 久久成人一区| 亚洲va久久久噜噜噜久久| 国产欧美日韩影院| 精品视频高潮| 欧美日韩中文一区二区| 国产一区二区精品| 日本亚洲最大的色成网站www| 久久国产三级| 日韩成人免费| 国产精品7m凸凹视频分类| 日韩精品一区第一页| 亚洲丝袜美腿一区| 国产欧美精品| 麻豆视频在线看| 欧洲毛片在线视频免费观看| 久久国产精品亚洲77777| 日本亚洲视频在线| 精品视频高潮| 欧美日韩精品在线一区| 蜜桃视频免费观看一区| 欧美国产另类| 91精品国产91久久久久久黑人| 香蕉成人久久| 国产经典一区| 99久久夜色精品国产亚洲狼| 亚洲资源av| 日本aⅴ免费视频一区二区三区| 国产精品宾馆| 九一成人免费视频| 日韩avvvv在线播放| 成人精品视频| 国产精品视区| 国产精品xxx在线观看| 136国产福利精品导航网址| 亚洲精品人人| 成人福利一区 | 丝袜国产日韩另类美女| 国产精品免费不| 国内精品福利| 国产精品主播| 免费欧美一区| 国产日韩三级| 91精品啪在线观看国产18 | 日本在线不卡视频一二三区| 91亚洲国产高清| 亚洲精选成人| 中文字幕系列一区| 久久精品 人人爱| 美女少妇全过程你懂的久久| 国产精品伦一区二区| 在线综合欧美| 成人在线免费观看91| 亚洲免费成人av在线| 久久精品一区二区不卡| 91成人在线| 99在线观看免费视频精品观看|