{{ v.name }}
{{ v.cls }}類
{{ v.price }} ¥{{ v.price }}
使用 Docker Compose 快速部署 Elasticsearch 和 Kibana 可以幫助您在本地或開發環境中輕松設置和管理這兩個重要的工具,用于存儲和可視化日志數據、監控和搜索。以下是一個概述的步驟:
docker-compose up -d
# -d 選項用于在后臺運行容器。
這些步驟將幫助您快速部署 Elasticsearch 和 Kibana,以便進行日志分析、數據可視化和搜索等操作。請注意,您可以根據需要在 docker-compose.yml 文件中更改版本和配置選項。確保您的系統資源足夠以支持 Elasticsearch 和 Kibana 的運行。
圖片
Elasticsearch 是一個開源的分布式搜索和分析引擎,最初由 Elasticsearch N.V.(現在是 Elastic N.V.)開發并維護。它是基于 Apache Lucene 搜索引擎構建的,專門設計用于處理和分析大規模的數據,提供了強大的全文搜索、結構化數據存儲、分析和可視化功能。以下是 Elasticsearch 的主要特點和用途的概述:
總之,Elasticsearch 是一個強大且多才多藝的搜索和分析引擎,適用于各種用途,從全文搜索到日志分析和可視化數據。它在各種行業中被廣泛使用,包括搜索引擎、電子商務、日志管理、安全信息與事件管理、科學研究和更多領域。
圖片
服務布局:
服務名稱/主機名 |
開放端口 |
|
node-1 |
9200 |
1G |
node-2 |
9201 |
1G |
node-3 |
9202 |
1G |
kibana |
5601 |
不限 |
# 安裝yum-config-manager配置工具 yum -y install yum-utils # 建議使用阿里云yum源:(推薦) #yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo # 安裝docker-ce版本 yum install -y docker-ce # 啟動并開機啟動 systemctl enable --now docker docker --version
curl -SL https://github.com/docker/compose/releases/download/v2.16.0/docker-compose-linux-x86_64 -o /usr/local/bin/docker-compose chmod +x /usr/local/bin/docker-compose
docker-compose --version
# 創建 docker network create bigdata # 查看 docker network ls
#創建 es 目錄 chmod 777 ./es/node-{1..3}/{config,data,log}
chmod 777 ./es/plugins # 創建kibana的配置目錄 mkdir -p ./kibana/config #目錄授權 chmod 777 ./es/node-{1..3}/{config,data,log}
chmod 777 ./es/plugins
chmod 777 ./kibana/config
#查看當前最大句柄數 sysctl -a | grep vm.max_map_count #修改句柄數 vi /etc/sysctl.conf
vm.max_map_count=262144 #臨時生效,修改后需要重啟才能生效,不想重啟可以設置臨時生效 sysctl -w vm.max_map_count=262144
#修改后需要重新登錄生效 vi /etc/security/limits.conf # 添加以下內容 * soft nofile 65535 * hard nofile 65535 * soft nproc 4096 * hard nproc 4096 # 重啟服務,-h 立刻重啟,默認間隔一段時間才會開始重啟 reboot -h now
GitHub 下載地址:https://github.com/medcl/elasticsearch-analysis-ik/releases
# 將下載的分詞器復制到ES安裝目錄的plugins目錄中并進行解壓 mkdir ./es/plugins/ik && cd ./es/plugins/ik
wget https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.17.5/elasticsearch-analysis-ik-7.17.5.zip unzip elasticsearch-analysis-ik-7.17.5.zip
./es/node-1/config/elasticsearch.yml
#集群名稱 cluster.name: elastic #當前該節點的名稱 node.name: node-1 #是不是有資格競選主節點 node.master: true #是否存儲數據 node.data: true #最大集群節點數 node.max_local_storage_nodes: 3 #給當前節點自定義屬性(可以省略) #node.attr.rack: r1 #數據存檔位置 path.data: /usr/share/elasticsearch/data #日志存放位置 path.logs: /usr/share/elasticsearch/log #是否開啟時鎖定內存(默認為是) #bootstrap.memory_lock: true #設置網關地址,我是被這個坑死了,這個地址我原先填寫了自己的實際物理IP地址, #然后啟動一直報無效的IP地址,無法注入9300端口,這里只需要填寫0.0.0.0 network.host: 0.0.0.0 #設置映射端口 http.port: 9200 #內部節點之間溝通端口 transport.tcp.port: 9300 #集群發現默認值為127.0.0.1:9300,如果要在其他主機上形成包含節點的群集,如果搭建集群則需要填寫 #es7.x 之后新增的配置,寫入候選主節點的設備地址,在開啟服務后可以被選為主節點,也就是說把所有的節點都寫上 discovery.seed_hosts: ["node-1","node-2","node-3"] #當你在搭建集群的時候,選出合格的節點集群,有些人說的太官方了, #其實就是,讓你選擇比較好的幾個節點,在你節點啟動時,在這些節點中選一個做領導者, #如果你不設置呢,elasticsearch就會自己選舉,這里我們把三個節點都寫上 cluster.initial_master_nodes: ["node-1","node-2","node-3"] #在群集完全重新啟動后阻止初始恢復,直到啟動N個節點 #簡單點說在集群啟動后,至少復活多少個節點以上,那么這個服務才可以被使用,否則不可以被使用, gateway.recover_after_nodes: 2 #刪除索引是是否需要顯示其名稱,默認為顯示 #action.destructive_requires_name: true # 禁用安全配置,否則查詢的時候會提示警告 xpack.security.enabled: false
./es/node-2/config/elasticsearch.yml
#集群名稱 cluster.name: elastic #當前該節點的名稱 node.name: node-2 #是不是有資格競選主節點 node.master: true #是否存儲數據 node.data: true #最大集群節點數 node.max_local_storage_nodes: 3 #給當前節點自定義屬性(可以省略) #node.attr.rack: r1 #數據存檔位置 path.data: /usr/share/elasticsearch/data #日志存放位置 path.logs: /usr/share/elasticsearch/log #是否開啟時鎖定內存(默認為是) #bootstrap.memory_lock: true #設置網關地址,我是被這個坑死了,這個地址我原先填寫了自己的實際物理IP地址, #然后啟動一直報無效的IP地址,無法注入9300端口,這里只需要填寫0.0.0.0 network.host: 0.0.0.0 #設置映射端口 http.port: 9200 #內部節點之間溝通端口 transport.tcp.port: 9300 #集群發現默認值為127.0.0.1:9300,如果要在其他主機上形成包含節點的群集,如果搭建集群則需要填寫 #es7.x 之后新增的配置,寫入候選主節點的設備地址,在開啟服務后可以被選為主節點,也就是說把所有的節點都寫上 discovery.seed_hosts: ["node-1","node-2","node-3"] #當你在搭建集群的時候,選出合格的節點集群,有些人說的太官方了, #其實就是,讓你選擇比較好的幾個節點,在你節點啟動時,在這些節點中選一個做領導者, #如果你不設置呢,elasticsearch就會自己選舉,這里我們把三個節點都寫上 cluster.initial_master_nodes: ["node-1","node-2","node-3"] #在群集完全重新啟動后阻止初始恢復,直到啟動N個節點 #簡單點說在集群啟動后,至少復活多少個節點以上,那么這個服務才可以被使用,否則不可以被使用, gateway.recover_after_nodes: 2 #刪除索引是是否需要顯示其名稱,默認為顯示 #action.destructive_requires_name: true # 禁用安全配置,否則查詢的時候會提示警告 xpack.security.enabled: false
./es/node-3/config/elasticsearch.yml
#集群名稱 cluster.name: elastic #當前該節點的名稱 node.name: node-3 #是不是有資格競選主節點 node.master: true #是否存儲數據 node.data: true #最大集群節點數 node.max_local_storage_nodes: 3 #給當前節點自定義屬性(可以省略) #node.attr.rack: r1 #數據存檔位置 path.data: /usr/share/elasticsearch/data #日志存放位置 path.logs: /usr/share/elasticsearch/log #是否開啟時鎖定內存(默認為是) #bootstrap.memory_lock: true #設置網關地址,我是被這個坑死了,這個地址我原先填寫了自己的實際物理IP地址, #然后啟動一直報無效的IP地址,無法注入9300端口,這里只需要填寫0.0.0.0 network.host: 0.0.0.0 #設置映射端口 http.port: 9200 #內部節點之間溝通端口 transport.tcp.port: 9300 #集群發現默認值為127.0.0.1:9300,如果要在其他主機上形成包含節點的群集,如果搭建集群則需要填寫 #es7.x 之后新增的配置,寫入候選主節點的設備地址,在開啟服務后可以被選為主節點,也就是說把所有的節點都寫上 discovery.seed_hosts: ["node-1","node-2","node-3"] #當你在搭建集群的時候,選出合格的節點集群,有些人說的太官方了, #其實就是,讓你選擇比較好的幾個節點,在你節點啟動時,在這些節點中選一個做領導者, #如果你不設置呢,elasticsearch就會自己選舉,這里我們把三個節點都寫上 cluster.initial_master_nodes: ["node-1","node-2","node-3"] #在群集完全重新啟動后阻止初始恢復,直到啟動N個節點 #簡單點說在集群啟動后,至少復活多少個節點以上,那么這個服務才可以被使用,否則不可以被使用, gateway.recover_after_nodes: 2 #刪除索引是是否需要顯示其名稱,默認為顯示 #action.destructive_requires_name: true # 禁用安全配置,否則查詢的時候會提示警告 xpack.security.enabled: false
./kibana/config/kibana.yml
server.host: 0.0.0.0 # 監聽端口 server.port: 5601 server.name: "kibana" # kibana訪問es服務器的URL,就可以有多個,以逗號","隔開 elasticsearch.hosts: ["http://node-1:9200","http://node-2:9201","http://node-3:9202"] monitoring.ui.container.elasticsearch.enabled: true # kibana訪問Elasticsearch的賬號與密碼(如果ElasticSearch設置了的話) elasticsearch.username: "kibana" elasticsearch.password: "12345" # kibana日志文件存儲路徑 logging.dest: stdout # 此值為true時,禁止所有日志記錄輸出 logging.silent: false # 此值為true時,禁止除錯誤消息之外的所有日志記錄輸出 logging.quiet: false # 此值為true時,記錄所有事件,包括系統使用信息和所有請求 logging.verbose: false ops.interval: 5000 # kibana web語言 i18n.locale: "zh-CN"
這里就用別人已經構建好的好的鏡像,不再重復構建鏡像了,如果不了解怎么構建鏡像,可以私信我。
### ES docker pull elasticsearch:7.17.5 # tag docker tag docker.io/library/elasticsearch:7.17.5 registry.cn-hangzhou.aliyuncs.com/bigdata_cloudnative/elasticsearch:7.17.5 # 登錄將鏡像推送到阿里云 docker push registry.cn-hangzhou.aliyuncs.com/bigdata_cloudnative/elasticsearch:7.17.5 ### kibana docker pull docker.io/library/kibana:7.17.5 docker tag docker.io/library/kibana:7.17.5 registry.cn-hangzhou.aliyuncs.com/bigdata_cloudnative/kibana:7.17.5 docker push registry.cn-hangzhou.aliyuncs.com/bigdata_cloudnative/kibana:7.17.5
version: "3" services:
node-1:
image: registry.cn-hangzhou.aliyuncs.com/bigdata_cloudnative/elasticsearch:7.17.5 container_name: node-1 hostname: node-1 environment: - "ES_JAVA_OPTS=-Xms1024m -Xmx1024m" - "TZ=Asia/Shanghai" ulimits:
memlock:
soft: -1 hard: -1 nofile:
soft: 65536 hard: 65536 ports: - "9200:9200" logging:
driver: "json-file" options:
max-size: "50m" volumes: - ./es/node-1/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml - ./es/plugins:/usr/share/elasticsearch/plugins - ./es/node-1/data:/usr/share/elasticsearch/data - ./es/node-1/log:/usr/share/elasticsearch/log
networks: - bigdata
healthcheck:
test: ["CMD-SHELL", "curl -I http://localhost:9200 || exit 1"] interval: 10s
timeout: 10s
retries: 5 node-2:
image: registry.cn-hangzhou.aliyuncs.com/bigdata_cloudnative/elasticsearch:7.17.5 container_name: node-2 hostname: node-2 environment: - "ES_JAVA_OPTS=-Xms1024m -Xmx1024m" - "TZ=Asia/Shanghai" ulimits:
memlock:
soft: -1 hard: -1 nofile:
soft: 65536 hard: 65536 ports: - "9201:9200" logging:
driver: "json-file" options:
max-size: "50m" volumes: - ./es/node-2/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml - ./es/plugins:/usr/share/elasticsearch/plugins - ./es/node-2/data:/usr/share/elasticsearch/data - ./es/node-2/log:/usr/share/elasticsearch/log
networks: - bigdata
healthcheck:
test: ["CMD-SHELL", "curl -I http://localhost:9200 || exit 1"] interval: 10s
timeout: 10s
retries: 5 node-3:
image: registry.cn-hangzhou.aliyuncs.com/bigdata_cloudnative/elasticsearch:7.17.5 container_name: node-3 hostname: node-3 environment: - "ES_JAVA_OPTS=-Xms1024m -Xmx1024m" - "TZ=Asia/Shanghai" ulimits:
memlock:
soft: -1 hard: -1 nofile:
soft: 65536 hard: 65536 ports: - "9202:9200" logging:
driver: "json-file" options:
max-size: "50m" volumes: - ./es/node-3/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml - ./es/plugins:/usr/share/elasticsearch/plugins - ./es/node-3/data:/usr/share/elasticsearch/data - ./es/node-3/log:/usr/share/elasticsearch/log
networks: - bigdata
healthcheck:
test: ["CMD-SHELL", "curl -I http://localhost:9200 || exit 1"] interval: 10s
timeout: 10s
retries: 5 kibana:
container_name: kibana
hostname: kibana
image: registry.cn-hangzhou.aliyuncs.com/bigdata_cloudnative/kibana:7.17.5 environment:
TZ: 'Asia/Shanghai' volumes: - ./kibana/config/kibana.yml:/usr/share/kibana/config/kibana.yml
ports: - 5601:5601 networks: - bigdata
healthcheck:
test: ["CMD-SHELL", "curl -I http://localhost:5601 || exit 1"] interval: 10s
timeout: 10s
retries: 5 # 連接外部網絡 networks:
bigdata:
external: true
開始執行部署
docker-compose up -d
# 查看
docker-compose ps
ES 訪問地址:http://ip:9200
docker-compose ps
curl localhost:9200 curl localhost:9200/_cat/health
圖片
kibana:http://ip:5601/
圖片
git 地址:https://gitee.com/hadoop-bigdata/docker-compose-es-kibana.git