VMware Tanzu デプロイしてみた③ Tanzu Kubernetes Clusterのデプロイ

 前回までの記事は以下から参照頂けます。

 

事前準備編

NSX-T 3.0 ラボ環境の作成

NSX-T 3.0 Edgeトランスポートノードの作成

NSX-T 3.0 Tier0、Tier1ゲートウェイの作成、テナントネットワークの作成

 

TANZUデプロイ編

VMware Tanzu デプロイしてみた① ワークロード管理の有効化から名前空間の作成

VMware Tanzu デプロイしてみた② コンテンツライブラリの作成

 VMware Tanzu デプロイしてみた(番外編) vSphere Podの作成からアクセスまで①

VMware Tanzu デプロイしてみた(番外編) vSphere Podの作成からアクセスまで②

 

 

今回はTanzu Kubernetes Clusterを作成します。

 

f:id:aritam:20201220222939p:plain

 ログインコマンドを実行後、名前空間を指定し、デプロイコマンドを実行します。

①ログイン

kubectl.exe vsphere login --server 10.12.52.65 --vsphere-username administrator@vsphere.local --insecure-skip-tls-verify

 

名前空間の指定

kubectl config use-context tanzu-ns

 

TKCのデプロイ

kubectl apply -f C:\Users\tech\Desktop\k8s\tkgcluster.yaml

利用したYAMLファイルはドキュメント上のファイルの例を参考にしました。

Tanzu Kubernetes クラスタの構成パラメータ

Tanzu Kubernetes クラスタをプロビジョニングするための YAML ファイルの例

 

f:id:aritam:20201220223645p:plain

f:id:aritam:20201220224327p:plain

名前空間「gt-ns」配下にクラスタ「tg-tkc-01」が作成され、masternode1台、workernode3台の構成で払い出されTanzu Kubernetes Clusterのステータスが実行中と表示されます。

 

f:id:aritam:20201220225925p:plain

さっそくTanzu Kubernetes Clusterへログインを試みます。

 

ログイン①

kubectl vsphere login --server=10.12.52.65 --tanzu-kubernetes-cluster-name gt-tkc-01 --tanzu-kubernetes-cluster-namespace gt-ns --vsphere-username administrator@vsphere.local --insecure-skip-tls-verify

 

Tanzu Kubernetes Clusterのクラスタ情報②

kubectl cluster-info
 
Pod情報③
kubectl get pod -o wide

 

クラスタへのログインが行え、クラスタの情報等が確認できます。

別途Podを作成してみましたが正常に表示されました。vSphere上からはmasternode,workernodeまでしか閲覧できず配下で稼働しているコンテナに関してはTanzu Kubernetes Cluster上から確認する仕様の様です。

 

次回は一癖ありそうなVMware Tanzuのシステム停止及び起動方法を確認します。

 

 

 

 

 

VMware Tanzu デプロイしてみた(番外編) vSphere Podの作成からアクセスまで②

 前回までの記事は以下から参照頂けます。

 

事前準備編

NSX-T 3.0 ラボ環境の作成

NSX-T 3.0 Edgeトランスポートノードの作成

NSX-T 3.0 Tier0、Tier1ゲートウェイの作成、テナントネットワークの作成

 

TANZUデプロイ編

VMware Tanzu デプロイしてみた① ワークロード管理の有効化から名前空間の作成

VMware Tanzu デプロイしてみた② コンテンツライブラリの作成

VMware Tanzu デプロイしてみた(番外編) Netive Podの作成からアクセスまで①

 

f:id:aritam:20201223231915p:plain


 前回はvSpherePodの作成からPodIPアドレスの疎通確認を実施致しました。

今回は外部からのアクセスが可能な事を確認します。

 

f:id:aritam:20201223232053p:plain

vSpherePodデプロイ時LoadBalancerを指定すると自動でNSX-Tと連携しEXTERNAL-IPを保持します。

YAML内のService でtype:LoadBalancerとして指定します。参考は以下の公式ドキュメントを参考にして下さい。

Tanzu Kubernetes サービス ロード バランサの例

 

 

 

f:id:aritam:20201223232542p:plain

EXTERNAL-IPはTanzuワークロードを構築時に指定した入力方向CIDRの範囲から払い出されます。

 

f:id:aritam:20201223232806p:plain

NSX-TからはEXTERNAL-IPがL4のロードバランサとして存在しています。

 

 

 

f:id:aritam:20201223232942p:plain

無事にアクセスできました。

 

次回は以下です。

VMware Tanzu デプロイしてみた③ Tanzu Kubernetes Clusterのデプロイ

VMware Tanzu デプロイしてみた(番外編) Netive Podの作成からアクセスまで①

 前回までの記事は以下から参照頂けます。

 

事前準備編

NSX-T 3.0 ラボ環境の作成

NSX-T 3.0 Edgeトランスポートノードの作成

NSX-T 3.0 Tier0、Tier1ゲートウェイの作成、テナントネットワークの作成

 

TANZUデプロイ編

VMware Tanzu デプロイしてみた① ワークロード管理の有効化から名前空間の作成

VMware Tanzu デプロイしてみた② コンテンツライブラリの作成

 

今回は番外編としてvSphere Podの作成からアクセスまでを紹介します。

※1Pod 1コンテナのシンプルな環境でのアクセス確認が目的です。

※ Tanzu Kubernetes Clusterをデプロイする為に直接必要な作業ではありません。

 

 

前々回のおさらい

f:id:aritam:20201102192223p:plain


上記からCLIモジュールをダウンロードします。

 

 

f:id:aritam:20201102192431p:plain

インストールの必要はなく、コマンドプロンプトから直接叩けます。

ログインコマンドを実行し、パスワードを入力します。

【コマンド備忘録】

 kubectl.exe vsphere login --server 10.10.60.49 --vsphere-username administrator@vsphere.local --insecure-skip-tls-verify

 ※Serverアドレスはモジュールのダウンロードページの値を入力します。

 

 

f:id:aritam:20201102192837p:plain

前々回の記事で作成した名前空間へアクセスします。

【コマンド備忘録】

kubectl config use-context ns-tanzu01

※前々回記事にて作成した名前空間の名前を入力

 

 

f:id:aritam:20201102193138p:plain

サンプルのyamlからPodを払い出してみます。

【コマンド備忘録】

kubectl apply -f .\nginx_sample.yaml

※任意 yamlファイルは別途ご用意ください。

 

 

f:id:aritam:20201102193320p:plain

PodのステータスがRunning表示になりました。正常にデプロイされた様です。

【コマンド備忘録】

kubectl get pod

 

 

 

f:id:aritam:20201102193600p:plain

vSphere上からも名前空間配下にPodが作成されている事が確認できます。

Podにも自動でIPアドレスが割り当てられています。

 

 

 

f:id:aritam:20201102193751p:plain

どうやらNSX-T上から自動で払い出されたオーバレイセグメントが割り当てられています。

 

 

 

 

f:id:aritam:20201102194857p:plain

接続用のテストVMに該当セグメントのPortGroupを割り当てたVMからアクセスを試みましたがアクセスできません。ブラウザアクセスも同様にアクセス不能です。

 

 

切り分けようにCentOSのPodを払い出しました。

【コマンド備忘録】

kubectl apply -f .\centos.yaml

※任意 yamlファイルは別途ご用意ください。

 

 

f:id:aritam:20201102195535p:plain

CentOSのPodが払い出されました。

 

 

f:id:aritam:20201102195743p:plain

kubectlからCentOSへコンソールアクセスを行い、Ping疎通を試みます。アクセス可能でした。

 

 次回は外部からのアクセスを確認します。

 

VMware Tanzu デプロイしてみた② コンテンツライブラリの作成

 前回までの記事は以下から参照頂けます。

 

事前準備編

NSX-T 3.0 ラボ環境の作成

NSX-T 3.0 Edgeトランスポートノードの作成

NSX-T 3.0 Tier0、Tier1ゲートウェイの作成、テナントネットワークの作成

 

TANZUデプロイ編

VMware Tanzu デプロイしてみた① ワークロード管理の有効化から名前空間の作成

 

今回はTanzu Kubernetesを利用するのに必要なコンテンツライブラリを作成します。

 

f:id:aritam:20201024012407p:plain

Tanzu Kubernetesクラスタをサポートするにはコンテンツライブラリの構成が必要な様です。Kubernetesのworker VM等のOVF File等をコンテンツライブラリから同期する目的で利用するのでしょう。

さっそくコンテンツライブラリを作成しましょう。

 

 

 

f:id:aritam:20201026131020p:plain
コンテンツライブラリ作成項目から「作成」をクリックします。

 

 

 

f:id:aritam:20201026131058p:plain

任意で「名前」を入力し、「NEXT」をクリックします。

 

 

 

 

f:id:aritam:20201026131249p:plain

私の環境はvCenterからインターネットアクセスが可能な為、「サブスクライブ済みコンテンツライブラリ」を選択し、サブスクリプションURLに以下を入力します。

https://wp-content.vmware.com/v2/latest/lib.json」URLは変更される可能性がある為、適宜ドキュメントを参照下さい。

Tanzu Kubernetes クラスタのサブスクライブ済みコンテンツ ライブラリの作成

 

 

 

f:id:aritam:20201026131800p:plain

「はい」をクリックします。

 

 

 

f:id:aritam:20201026131921p:plain

「ストレージポリシー」をクリックし、「NEXT」をクリックします。

 

 

 

f:id:aritam:20201026132031p:plain

コンテンツライブラリが作成されます。「FINISH」をクリックします。

 

 

 

f:id:aritam:20201026132130p:plain

続々とOVFがダウンロードされ始めました。TKG用のVMでしょうか。

 

 

 

f:id:aritam:20201026132332p:plain

名前空間」-「サマリ」ー「Tanzu Kubernetes」から「ライブラリの追加」をクリックします。

 

 

 

f:id:aritam:20201026132440p:plain

「ライブラリの追加」をクリックします。

 

 

 

 

f:id:aritam:20201026132530p:plain

コンテンツライブラリを選択し、「OK」をクリックします。

 

 

 

f:id:aritam:20201026132808p:plain

コンテンツライブラリとの同期が完了するとTanzu kubernetesクラスタが0として表示されました。Tanzu kubernetesクラスタを払い出す準備ができたものと思われます。

 

次回はNative Podを作成してみてコンテナへのアクセスまでを実施します。

 

 

 

 

 

VMware Tanzu デプロイしてみた① ワークロード管理の有効化から名前空間の作成

今回からはVMware Tanzuをキャッチアップしてみようと思います。

VMware Tanzuを構成する為にはNSX-T環境が必須となる為、事前にNestedのらぼ環境を構成済みです。ではさっそく始めます。

 

NSX-T 3.0 ラボ環境の作成

NSX-T 3.0 Edgeトランスポートノードの作成

NSX-T 3.0 Tier0、Tier1ゲートウェイの作成、テナントネットワークの作成

 

 

 

f:id:aritam:20201024005438p:plain
「メニュー」ー「ワークロード管理」をクリックします。



 

f:id:aritam:20201024005817p:plain
NSX-T構成済みのvSphere環境で以下の条件を満たしている場合は「有効化」をクリックします。

クラスタがセットアップされている事。

DRS及びHAが有効化されている事。

vsphere7 with kubernetesライセンスが適用されている事。

 

 

f:id:aritam:20201024005901p:plain

適用する「クラスタ名」にチェックを入れ「次へ」をクリックします。

 

 

 

 

f:id:aritam:20201024010018p:plain

制御プレーンVMのサイズを選択し、「次へ」をクリックします。

3台払い出されます。

 

 

 

 

f:id:aritam:20201024010159p:plain

管理ネットワークの情報を記入します。

特に注意する点はないですが、「開始IPアドレス」から3台分のIPアドレスが払い出されます。

 

 

 

f:id:aritam:20201024010349p:plain

ワークロードネットワークの情報を以下を参考に入力し「次へ」をクリックします。

「vSphere Distributed Switch」:NSXT環境で利用しているvDSを選択する

「Edgeクラスタ」:NSXT環境で作成済みのEdgeクラスタ名を選択する

APIサーバのエンドポイントFQDN」:任意、入力不要

DNSサーバ」DNSサーバを入力

「ポッドCIDR」デフォルト(10.244.0.0/21)から変更不要。NSX-T LB用のセグメント作成に利用されます

「サービスCIDR」デフォルト(10.96.0.0./24)から変更不要。NSX-T LBの分散ロードバランサIPアドレスとして使用されます

「入力方向CIDR」任意で入力。NSX-Tロードバランサのアドレスと使用されTanzu環境へアクセスする際のURLとなります

「出力方向CIDR」任意で入力。入力方向CIDRと通信できるセグメントを入力する

 

 

 

f:id:aritam:20201024011326p:plain

利用するストレージを選択し「次へ」をクリックします。

※事前にデータストアをタグ付けし、ストレージポリシーと紐づける必要があります。

 

 

 

f:id:aritam:20201024011436p:plain

「完了」をクリックするとデプロイが開始されます。

 

 

 

 

f:id:aritam:20201024011618p:plain

30分程度かかる為様子を見ていましたが、制御プレーンVMの払い出しや、Tier-1GWの構成、ロードバランサの構成などが自動で行われます。

 

 

 

f:id:aritam:20201024011749p:plain

完成しました。

NSX-T側の設定を事前にしっかり行えていればデプロイ自体は非常にシンプルに行えるソリューションの様です。

 

 

 

 

f:id:aritam:20201024011819p:plain

最初に名前空間を作成します。筆者は名前空間って何??ってレベルです。

 

 

 

f:id:aritam:20201024011921p:plain

「名前」を任意で入力し「作成」をクリックします。

 

 

 

 

f:id:aritam:20201024012029p:plain

正常に名前空間が作成された様です。くどい様ですが筆者は名前空間って何?ってレベルです。

ステータスから「開く」をクリックしてみます。

 

 

 

 

f:id:aritam:20201024012148p:plain

LBのURLが表示されKubernetes用のCLI Toolsなどがダウンロード可能な様です。

 

 

 

f:id:aritam:20201024012254p:plain

ストレージと権限の追加を触ってみます。

 

 

 

f:id:aritam:20201024012321p:plain

ほぼ選ぶだけです。

 

 

f:id:aritam:20201102184601p:plain

 権限とストレージの割り当てが可能になりました。

 

次回はTanzu kubenetesを利用する為に必要なコンテンツライブラリの作成を予定しています。

 

VMware Tanzu デプロイしてみた② コンテンツライブラリの作成

 

 

NSX-T 3.0 Tier0、Tier1ゲートウェイの作成、テナントネットワークの作成まで。

前回までの記事は以下から

NSX-T 3.0 ラボ環境の作成

NSX-T 3.0 Edgeトランスポートノードの作成

 

 

前回に引き続きテナントネットワークの作成を目標にTier0、Tier1ゲートウェイの作成を行います。グレーアウト部分に関しては前回記事にてご紹介済みです。

f:id:aritam:20201024000211p:plain

 

 

 

f:id:aritam:20201024000430p:plain

まずはTier0GWの作成から行います。

「ネットワーク」ー「Tier-0ゲートウェイ」-「ゲートウェイの追加」をクリックします。

 

 

 

f:id:aritam:20201024000613p:plain

以下を入力し、「保存」をクリックします。

「Tieer-0ゲートウェイの名前」:任意で入力します

「HAモード」アクティブ/スタンバイ ※らぼ環境にてEdgeVMシングル構成の為

「Edgeクラスタ」前回記事にて作成したEdgeクラスタを選択します。

 

 

 

 

f:id:aritam:20201024000822p:plain

Tier-0GWに追加の設定を行うかのポップアップが表示される為、「はい」をクリックします。※誤っていいえをクリックした場合は、「編集」をクリックしてください。

 

 

 

f:id:aritam:20201024001002p:plain

「インタフェース」プルダウンを表示させ、「設定」をクリックします。

 

 

 

f:id:aritam:20201024001056p:plain

「インターフェースの追加」をクリックします。

 

 

 

 

f:id:aritam:20201024001235p:plain

以下を入力し、「保存」をクリックします。

「名前」:任意で入力します。

IPアドレス/マスク」:Tier0のアップリンクインタフェースとなるIPアドレス/サブネットで入力を行います。

「接続先」:前回記事で事前準備としてに払い出したセグメントを選択します。

「Edgeノード」:前回記事で作成したEdgeVMを選択します。

 

 

 

 

f:id:aritam:20201024001537p:plain

IPアドレスが設定された事を確認し「閉じる」をクリックします。

※状態はすぐに成功ステータスとなります。

 

 

 

 

f:id:aritam:20201024001747p:plain

次に「ルーティング」プルダウンを表示させスタティックルートの「設定」をクリックします。

 

 

 

 

f:id:aritam:20201024001958p:plain
「スタティックルートの追加」をクリックし、以下を入力後、「ネクストホップの設定」を行います。

「名前」:任意で入力

「ネットワーク」:任意のネットワーク。※今回はすべてを対象としたい為、0.0.0.0/0を入力しています。

 

 

 

 

f:id:aritam:20201024002129p:plain

IPアドレス」にゲートウェイを追加し、「追加」をクリックします。

 

 

 

 

f:id:aritam:20201024002229p:plain

スタティックルートが追加されたことを確認して、「閉じる」をクリックします。※状態はすぐに成功ステータスに代わります。

 

 

 

 

f:id:aritam:20201024002329p:plain

「設定を終了」をクリックします。

 

 

 

 

f:id:aritam:20201024002511p:plain

Tier-0ゲートウェイが追加されました。

ここまででVMware Tanzu環境の構築準備が整った為、次回以降でご紹介したいと思います。

今回の記事では引き続きTier-1ゲートウェイの設定、テナントセグメントの払い出しまでを紹介します。

 

 

 

f:id:aritam:20201024002721p:plain

続いてTier-1ゲートウェイの作成に移ります。

「Tier-1ゲートウェイ」ー「Tier-1ゲートウェイの作成」をクリックします。

 

 

 

 

f:id:aritam:20201024002951p:plain

以下を入力し、「保存」をクリックします。

「名前」:任意で入力します。

「Edgeクラスタ」:前回記事で作成したEdgeクラスタを選択します。

「ルートアドバタイズ」必要な物にチェックを入れます。今回は「構成されているすべてのセグメイト及びサービスサポート」を有効化します。

 

 

 

f:id:aritam:20201024003214p:plain

Tier-1ゲートウェイが構成されました。

 

 

 

f:id:aritam:20201024003320p:plain

最後にテナントセグメントの払い出しを行います。

「セグメント」ー「セグメント」ー「セグメントの追加」をクリックします。

 

 

 

 

f:id:aritam:20201024003520p:plain

以下を入力し、「保存」をクリックします。

「セグメント名」:任意で入力します。

「接続」:先ほど作成したTier-1ゲートウェイを指定します。

「トランスポートゾーン」前々回記事で作成したオーバレイネットワーク用のトランスポートゾーンを指定します。

「サブネット」テナントネットワークのGWアドレスおよびサブネットを指定します。

 

 

 

 

f:id:aritam:20201024003739p:plain

セグメントが正常に払い出されました。「いいえ」をクリックします。

 

 

 

 

f:id:aritam:20201024003819p:plain

NSX-Tのトポロジ上は上記の様な構成になってます。

仮想マシンへのネットワーク接続は省略しますが、疎通できるか確認を行います。

 

 

 

 

f:id:aritam:20201024004018p:plain

オーバーレイネットワークを利用しているVMからTier1GWアドレスやTier0GWのアップリンク用インタフェースアドレスへの疎通が可能な事が確認できました。

らぼ環境でもしっかりと稼働していそうです。

 

 

次回は以下を予定しています。

VMware Tanzuデプロイしてみた。

 

NSX-T 3.0 Edgeトランスポートノードの作成

前回までの記事は以下から

NSX-T 3.0 ラボ環境の作成

 

 前回はNested環境を利用したNSX-T 3.0環境のラボ構築までをご紹介しました。

今回から数回でSNX-T環境を用いたテナントネットワークの作成方法をご紹介します。

 

f:id:aritam:20201023230447p:plain

上記の様なテナントネットワークを作成する目標で今回の記事では以下の部分を作成します。※目標のネットワーク10.10.0.254/16はVSSからじゃないとアクセスできない環境要因の為少し複雑なEdgeの構成で作成します。

 

 

f:id:aritam:20201023230333p:plain
今回はEdge トランスポートノードの作成が範囲の為グレーアウトしている部分の設定は次回以降にご紹介します。それではさっそく作成しましょう。

 

 

f:id:aritam:20201023230802p:plain

まずは事前準備としてTier0ゲートウェイアップリンクとして利用するセグメントを払い出します。アップリンクネットワークとして利用する為、オーバレイネットワークは利用せず、VLANネットワークとして払い出します。

「ネットワーク」ー「セグメント」ー「セグメント」ー「セグメントの追加」をクリックします。

 

 

f:id:aritam:20201023231139p:plain

以下を入力し「保存」をクリックします。

「セグメント名」:任意で入力します。

「トランスポートゾーン」前回の記事で作成したVLAN用のトランスポートゾーンを指定します。

「VLAN」任意のVLANを指定します。今回はタグ無しで実施しています。

 

 

f:id:aritam:20201023231841p:plain

VLANセグメントが払い出されました。

 

 

f:id:aritam:20201023231959p:plain

「システム」ー「ファブリック」ー「ノード」ー「Edgeトランスポートノード」ー「Edge仮想マシンの追加」をクリックします。

 

 

f:id:aritam:20201023232140p:plain

「名前」「ホスト名」を任意で入力し、「EdgeVMのサイズを選択」後、「次へ」をクリックします。

LBを払い出す必要があるVMware Tanzuの動作確認を今後行いたい為、今回はLargeを選択します。

 

 

f:id:aritam:20201023232437p:plain

パスワードを入力し「次へ」をクリックします。SSHログインに関してはデフォルトで無効になっている為、必要に応じてチェックを入れてください。

 

 

f:id:aritam:20201023232725p:plain

EdgeVMの管理用ネットワークの設定を行い、「次へ」をクリックします。

「管理IP」:割り当てるIPアドレス/サブネット形式で入力します。

デフォルトゲートウェイ」:GWを入力

ドメイン名の検索」:任意で入力

DNSサーバ」:任意で入力

「NTPサーバ」:任意で入力

 

 

f:id:aritam:20201023233328p:plain
次にTier0,Tier1ゲートウェイで利用するインタフェースの設定を行います。

まずはオーバレイネットワークを利用する為のインタフェースの設定を行います。

以下項目を設定し、「スイッチの追加」をクリックします。

「Edgeスイッチ名」:任意で入力

「トランスポートゾーン」:前回記事で作成したオーバレイ用のトランスポートゾーンをプルダウンから選択します。

アップリンクプロファイル」:前回記事で作成したアップリンクプロファイルを利用します。

「IPの割り当て」:IPプールを使用を選択します。固定IPにして任意で入力する事も可能です。

「IPプール」:前回記事で作成したIPプールを設定します。Edge用のTEPIPとして払い出されます。

「EPDK Fastpathインターフェイス」利用するポートグループを選択します。オーバレイネットワーク用の為VDS上のポートグループである必要があります。ポートグループはvSphereからトランクポートとして別途作成してください。

 

 

f:id:aritam:20201023234103p:plain

次にアップリンク用のインタフェースの設定を行います。

以下項目を設定し、「終了」をクリックします。

「Edgeスイッチ名」:任意で入力

「トランスポートゾーン」:前回記事で作成したVLAN用のトランスポートゾーンをプルダウンから選択します。

アップリンクプロファイル」:前回記事で作成したアップリンクプロファイルを利用します。

 

「EPDK Fastpathインターフェイス」利用するポートグループを選択します。VLAN通信の為VSS上のポートグループを選択する事も可能です。ポートグループはvSphereからトランクポートとして別途作成してください。

 

 

 

f:id:aritam:20201023234501p:plain

EdgeVMが作成され稼働中のステータスになりました。

 

 

f:id:aritam:20201023234619p:plain

先ほど作成したEdgeVMをEdgeクラスタとして設定します。

らぼ環境なので1台しかデプロイしませんが、設定としては必須です。

「Edgeクラスタ」ー「追加」をクリックします。

 

 

 

f:id:aritam:20201023234859p:plain

「名前」を任意に入力し、先ほど作成したEdgeVMにチェックを入れ→で選択済み枠に移動させた後、「追加」をクリックします。

 

 

 

f:id:aritam:20201023235137p:plain

Edgeクラスタが作成されました。※メンバーは1台です。

 

次回はTier0、Tier1ゲートウェイを作成し、テナントネットワーク通信まで設定します。

NSX-T 3.0 Tier0、Tier1ゲートウェイの作成