跳到主要內容

使用Docker執行Percona XDB

本篇介紹Percona XDB的Cluster架構,其中由於需要提供Cluster Member溝通,因此需要建立一層可以溝通的網路。在Docker中,我們可以用overlay network的方式提供集群溝通的管道。
docker network create cluster1_net
接下來有兩種方式可以建立所屬的cluster...
1. 透過join cluster name的方式
2. 透過etcd的discovery方式

Join Cluster Name

首先建立Master Node,並指定Cluster Name為cluster1... 在此我們指定master node的instance名稱為master,這樣有助於其他member在加入的時候可以使用該機器名稱識別cluster的位置...
docker run -d --name master -p 3306 \
 --net=cluster1_net \
 -e MYSQL_ROOT_PASSWORD=1234qwer \
 -e CLUSTER_NAME=cluster1 \
 -e XTRABACKUP_PASSWORD=1234qwer \
 percona/percona-xtradb-cluster
接下來可以啟動多台cluster member,只需要指定啟動參數中的CLUSTER_JOIN欄位為master(代表透過master的私有ip做認證)即可。
docker run -d -p 3306 --net=cluster1_net \
  -e MYSQL_ROOT_PASSWORD=1234qwer \
  -e CLUSTER_NAME=cluster1 \
  -e CLUSTER_JOIN=master \
  -e XTRABACKUP_PASSWORD=1234qwer \
  percona/percona-xtradb-cluster
接著可以分別登入master與後續啟動的member,分別建立資料,即可了解叢集是否正常運作...

使用etcd作為叢集discovery頻道

使用ETCD的方法,首先需要啟動ETCD,為了讓ETCD可以發佈到外部可以連線,我們將ETCD的IP指定為該docker環境的外部主機IP(即為你電腦的IP)...
export HostIP=172.26.8.38
然後可以設定第一台master啟動,啟動的參數中,我們指定HostIP作為docker啟動參數,讓啟動時所指定的參數可以由外部指定...
docker run -d -v /tmp:/etc/ssl/certs -p 4001:4001 -p 2380:2380 -p 2379:2379 \
 -e HostIP=172.26.8.38 \
 --name etcd quay.io/coreos/etcd:v2.3.8 \
 -name etcd0 \
 -advertise-client-urls http://$HostIP:2379,http://$HostIP:4001 \
 -listen-client-urls http://0.0.0.0:2379,http://0.0.0.0:4001 \
 -initial-advertise-peer-urls http://$HostIP:2380 \
 -listen-peer-urls http://0.0.0.0:2380 \
 -initial-cluster-token etcd-cluster-1 \
 -initial-cluster etcd0=http://$HostIP:2380 \
 -initial-cluster-state new
接下來可以啟動其他的member,這邊同樣需要指定discovery server(etcd)的ip,也就是啟動etcd時掛載到本機的HostIP...
docker run -d -p 3306 --net=cluster1_net \
  -e HostIP=$HostIP \
  -e MYSQL_ROOT_PASSWORD=1234qwer \
  -e CLUSTER_NAME=cluster1 \
  -e DISCOVERY_SERVICE=$HostIP:2379 \
  -e XTRABACKUP_PASSWORD=1234qwer \
  percona/percona-xtradb-cluster
如果啟動無誤,則可以用docker ps檢視一下這些啟動的DB的外部IP,然後連入測試一下^^

Reference

這個網誌中的熱門文章

使用GCP Cloud Builder建置CI/CD Flow

服務的建置通常是持續性的作業,而部署則一般是專案初期建置一次,未來可以沿用該部署設定... 這樣的流程走向自動化,在Container的環境又更是重要... 本篇介紹一下,在Google雲端,我們可以搭配Source Repository與Build Trigger等服務來完成服務的自動建置與部屬,讓封裝Container與部署到Container Engine的動作可以一氣呵成...
首先幾單瞭解一下一個Container Engine服務的建置與部屬過程...
使先,建立Container Engine Cluster,透過GCP Winzard可以很快速地開立您的GKE Cluster…

假設您的cluster是叫做demo-cluster,則可以透過下面的指令來跟GKE建立連線
$ gcloud container clusters get-credentials demo-cluster --zone asia-east1-a
這串指令不用記ㄛ~可以在Cluster的頁面找到他...

點選複製,即可貼到您的Terminal執行...

跟GKE建立鏈結後,接下來可以部署您的城市,這邊我們以我的一個範例程式Demoweb (https://github.com/peihsinsu/demoweb) 為例,

這個專案中,包含幾個重要結構:
app/ : 放置您的程式,在Dockerfile中會將該資料匣複製到Docker Image中 k8s/ : 放置k8s的deployment與service描述檔 Dockerfile : 封裝docker的描述檔,會以node.js的image為基礎來建置執行環境 cloudbuild.yaml : Google Cloud Build Trigger的步驟描述檔

使用 minikube 輕鬆上手 kubernetes

安裝minikube
macOS只需要透過brew即可快速安裝...
brew cask install minikube
Linux環境可以直接下載執行檔,放到環境變數可以吃到的路徑即可...
curl -Lo minikube https://storage.googleapis.com/minikube/releases/latest/minikube-linux-amd64 && \ chmod +x minikube && \
sudo mv minikube /usr/local/bin/
Windows的下載網址如下: https://storage.googleapis.com/minikube/releases/latest/minikube-windows-amd64.exe
如果您的kubectl尚未安裝,可以直接使用google cloud sdk來安裝:
curl https://sdk.cloud.google.com | bash
gcloud components install kubectl
安裝完成後,原則上minikube會在本地端加入minikube的k8s context,我們可以透過下面指令來使用該context…
kubectl config use-context minikube
然後,可檢查一下您的minikube node是否正常運作....

Oracle LISTAGG

同事介紹的一個Oracle的好用查詢:LISTAGG
SELECT A.GROUP_ID,A.KEY, LISTAGG(A.VALUE,'; ')WITHINGROUP(ORDERBYA.VALUE)as GG  fromSYS_PROPERTIESaGROUP byA.GROUP_ID,A.KEY
LISTAGG可以將group後的結果會總顯示於一個欄位 上述SQL原本A.VALUE會是一個row一個row的排列 使用LISTAGG之後,可以將A.VALUE顯示在同一個row中 並且可以指定間隔符號(在此設定為';') 針對某一些報表查詢非常有用唷 :D