VMware Tanzu デプロイしてみた② コンテンツライブラリの作成

 前回までの記事は以下から参照頂けます。

 

事前準備編

NSX-T 3.0 ラボ環境の作成

NSX-T 3.0 Edgeトランスポートノードの作成

NSX-T 3.0 Tier0、Tier1ゲートウェイの作成、テナントネットワークの作成

 

TANZUデプロイ編

VMware Tanzu デプロイしてみた① ワークロード管理の有効化から名前空間の作成

 

今回はTanzu Kubernetesを利用するのに必要なコンテンツライブラリを作成します。

 

f:id:aritam:20201024012407p:plain

Tanzu Kubernetesクラスタをサポートするにはコンテンツライブラリの構成が必要な様です。Kubernetesのworker VM等のOVF File等をコンテンツライブラリから同期する目的で利用するのでしょう。

さっそくコンテンツライブラリを作成しましょう。

 

 

 

f:id:aritam:20201026131020p:plain
コンテンツライブラリ作成項目から「作成」をクリックします。

 

 

 

f:id:aritam:20201026131058p:plain

任意で「名前」を入力し、「NEXT」をクリックします。

 

 

 

 

f:id:aritam:20201026131249p:plain

私の環境はvCenterからインターネットアクセスが可能な為、「サブスクライブ済みコンテンツライブラリ」を選択し、サブスクリプションURLに以下を入力します。

https://wp-content.vmware.com/v2/latest/lib.json」URLは変更される可能性がある為、適宜ドキュメントを参照下さい。

Tanzu Kubernetes クラスタのサブスクライブ済みコンテンツ ライブラリの作成

 

 

 

f:id:aritam:20201026131800p:plain

「はい」をクリックします。

 

 

 

f:id:aritam:20201026131921p:plain

「ストレージポリシー」をクリックし、「NEXT」をクリックします。

 

 

 

f:id:aritam:20201026132031p:plain

コンテンツライブラリが作成されます。「FINISH」をクリックします。

 

 

 

f:id:aritam:20201026132130p:plain

続々とOVFがダウンロードされ始めました。TKG用のVMでしょうか。

 

 

 

f:id:aritam:20201026132332p:plain

名前空間」-「サマリ」ー「Tanzu Kubernetes」から「ライブラリの追加」をクリックします。

 

 

 

f:id:aritam:20201026132440p:plain

「ライブラリの追加」をクリックします。

 

 

 

 

f:id:aritam:20201026132530p:plain

コンテンツライブラリを選択し、「OK」をクリックします。

 

 

 

f:id:aritam:20201026132808p:plain

コンテンツライブラリとの同期が完了するとTanzu kubernetesクラスタが0として表示されました。Tanzu kubernetesクラスタを払い出す準備ができたものと思われます。

 

次回はNative Podを作成してみてコンテナへのアクセスまでを実施します。

 

 

 

 

 

VMware Tanzu デプロイしてみた① ワークロード管理の有効化から名前空間の作成

今回からはVMware Tanzuをキャッチアップしてみようと思います。

VMware Tanzuを構成する為にはNSX-T環境が必須となる為、事前にNestedのらぼ環境を構成済みです。ではさっそく始めます。

 

NSX-T 3.0 ラボ環境の作成

NSX-T 3.0 Edgeトランスポートノードの作成

NSX-T 3.0 Tier0、Tier1ゲートウェイの作成、テナントネットワークの作成

 

 

 

f:id:aritam:20201024005438p:plain
「メニュー」ー「ワークロード管理」をクリックします。



 

f:id:aritam:20201024005817p:plain
NSX-T構成済みのvSphere環境で以下の条件を満たしている場合は「有効化」をクリックします。

クラスタがセットアップされている事。

DRS及びHAが有効化されている事。

vsphere7 with kubernetesライセンスが適用されている事。

 

 

f:id:aritam:20201024005901p:plain

適用する「クラスタ名」にチェックを入れ「次へ」をクリックします。

 

 

 

 

f:id:aritam:20201024010018p:plain

制御プレーンVMのサイズを選択し、「次へ」をクリックします。

3台払い出されます。

 

 

 

 

f:id:aritam:20201024010159p:plain

管理ネットワークの情報を記入します。

特に注意する点はないですが、「開始IPアドレス」から3台分のIPアドレスが払い出されます。

 

 

 

f:id:aritam:20201024010349p:plain

ワークロードネットワークの情報を以下を参考に入力し「次へ」をクリックします。

「vSphere Distributed Switch」:NSXT環境で利用しているvDSを選択する

「Edgeクラスタ」:NSXT環境で作成済みのEdgeクラスタ名を選択する

APIサーバのエンドポイントFQDN」:任意、入力不要

DNSサーバ」DNSサーバを入力

「ポッドCIDR」デフォルト(10.244.0.0/21)から変更不要。NSX-T LB用のセグメント作成に利用されます

「サービスCIDR」デフォルト(10.96.0.0./24)から変更不要。NSX-T LBの分散ロードバランサIPアドレスとして使用されます

「入力方向CIDR」任意で入力。NSX-Tロードバランサのアドレスと使用されTanzu環境へアクセスする際のURLとなります

「出力方向CIDR」任意で入力。入力方向CIDRと通信できるセグメントを入力する

 

 

 

f:id:aritam:20201024011326p:plain

利用するストレージを選択し「次へ」をクリックします。

※事前にデータストアをタグ付けし、ストレージポリシーと紐づける必要があります。

 

 

 

f:id:aritam:20201024011436p:plain

「完了」をクリックするとデプロイが開始されます。

 

 

 

 

f:id:aritam:20201024011618p:plain

30分程度かかる為様子を見ていましたが、制御プレーンVMの払い出しや、Tier-1GWの構成、ロードバランサの構成などが自動で行われます。

 

 

 

f:id:aritam:20201024011749p:plain

完成しました。

NSX-T側の設定を事前にしっかり行えていればデプロイ自体は非常にシンプルに行えるソリューションの様です。

 

 

 

 

f:id:aritam:20201024011819p:plain

最初に名前空間を作成します。筆者は名前空間って何??ってレベルです。

 

 

 

f:id:aritam:20201024011921p:plain

「名前」を任意で入力し「作成」をクリックします。

 

 

 

 

f:id:aritam:20201024012029p:plain

正常に名前空間が作成された様です。くどい様ですが筆者は名前空間って何?ってレベルです。

ステータスから「開く」をクリックしてみます。

 

 

 

 

f:id:aritam:20201024012148p:plain

LBのURLが表示されKubernetes用のCLI Toolsなどがダウンロード可能な様です。

 

 

 

f:id:aritam:20201024012254p:plain

ストレージと権限の追加を触ってみます。

 

 

 

f:id:aritam:20201024012321p:plain

ほぼ選ぶだけです。

 

 

f:id:aritam:20201102184601p:plain

 権限とストレージの割り当てが可能になりました。

 

次回はTanzu kubenetesを利用する為に必要なコンテンツライブラリの作成を予定しています。

 

VMware Tanzu デプロイしてみた② コンテンツライブラリの作成

 

 

NSX-T 3.0 Tier0、Tier1ゲートウェイの作成、テナントネットワークの作成まで。

前回までの記事は以下から

NSX-T 3.0 ラボ環境の作成

NSX-T 3.0 Edgeトランスポートノードの作成

 

 

前回に引き続きテナントネットワークの作成を目標にTier0、Tier1ゲートウェイの作成を行います。グレーアウト部分に関しては前回記事にてご紹介済みです。

f:id:aritam:20201024000211p:plain

 

 

 

f:id:aritam:20201024000430p:plain

まずはTier0GWの作成から行います。

「ネットワーク」ー「Tier-0ゲートウェイ」-「ゲートウェイの追加」をクリックします。

 

 

 

f:id:aritam:20201024000613p:plain

以下を入力し、「保存」をクリックします。

「Tieer-0ゲートウェイの名前」:任意で入力します

「HAモード」アクティブ/スタンバイ ※らぼ環境にてEdgeVMシングル構成の為

「Edgeクラスタ」前回記事にて作成したEdgeクラスタを選択します。

 

 

 

 

f:id:aritam:20201024000822p:plain

Tier-0GWに追加の設定を行うかのポップアップが表示される為、「はい」をクリックします。※誤っていいえをクリックした場合は、「編集」をクリックしてください。

 

 

 

f:id:aritam:20201024001002p:plain

「インタフェース」プルダウンを表示させ、「設定」をクリックします。

 

 

 

f:id:aritam:20201024001056p:plain

「インターフェースの追加」をクリックします。

 

 

 

 

f:id:aritam:20201024001235p:plain

以下を入力し、「保存」をクリックします。

「名前」:任意で入力します。

IPアドレス/マスク」:Tier0のアップリンクインタフェースとなるIPアドレス/サブネットで入力を行います。

「接続先」:前回記事で事前準備としてに払い出したセグメントを選択します。

「Edgeノード」:前回記事で作成したEdgeVMを選択します。

 

 

 

 

f:id:aritam:20201024001537p:plain

IPアドレスが設定された事を確認し「閉じる」をクリックします。

※状態はすぐに成功ステータスとなります。

 

 

 

 

f:id:aritam:20201024001747p:plain

次に「ルーティング」プルダウンを表示させスタティックルートの「設定」をクリックします。

 

 

 

 

f:id:aritam:20201024001958p:plain
「スタティックルートの追加」をクリックし、以下を入力後、「ネクストホップの設定」を行います。

「名前」:任意で入力

「ネットワーク」:任意のネットワーク。※今回はすべてを対象としたい為、0.0.0.0/0を入力しています。

 

 

 

 

f:id:aritam:20201024002129p:plain

IPアドレス」にゲートウェイを追加し、「追加」をクリックします。

 

 

 

 

f:id:aritam:20201024002229p:plain

スタティックルートが追加されたことを確認して、「閉じる」をクリックします。※状態はすぐに成功ステータスに代わります。

 

 

 

 

f:id:aritam:20201024002329p:plain

「設定を終了」をクリックします。

 

 

 

 

f:id:aritam:20201024002511p:plain

Tier-0ゲートウェイが追加されました。

ここまででVMware Tanzu環境の構築準備が整った為、次回以降でご紹介したいと思います。

今回の記事では引き続きTier-1ゲートウェイの設定、テナントセグメントの払い出しまでを紹介します。

 

 

 

f:id:aritam:20201024002721p:plain

続いてTier-1ゲートウェイの作成に移ります。

「Tier-1ゲートウェイ」ー「Tier-1ゲートウェイの作成」をクリックします。

 

 

 

 

f:id:aritam:20201024002951p:plain

以下を入力し、「保存」をクリックします。

「名前」:任意で入力します。

「Edgeクラスタ」:前回記事で作成したEdgeクラスタを選択します。

「ルートアドバタイズ」必要な物にチェックを入れます。今回は「構成されているすべてのセグメイト及びサービスサポート」を有効化します。

 

 

 

f:id:aritam:20201024003214p:plain

Tier-1ゲートウェイが構成されました。

 

 

 

f:id:aritam:20201024003320p:plain

最後にテナントセグメントの払い出しを行います。

「セグメント」ー「セグメント」ー「セグメントの追加」をクリックします。

 

 

 

 

f:id:aritam:20201024003520p:plain

以下を入力し、「保存」をクリックします。

「セグメント名」:任意で入力します。

「接続」:先ほど作成したTier-1ゲートウェイを指定します。

「トランスポートゾーン」前々回記事で作成したオーバレイネットワーク用のトランスポートゾーンを指定します。

「サブネット」テナントネットワークのGWアドレスおよびサブネットを指定します。

 

 

 

 

f:id:aritam:20201024003739p:plain

セグメントが正常に払い出されました。「いいえ」をクリックします。

 

 

 

 

f:id:aritam:20201024003819p:plain

NSX-Tのトポロジ上は上記の様な構成になってます。

仮想マシンへのネットワーク接続は省略しますが、疎通できるか確認を行います。

 

 

 

 

f:id:aritam:20201024004018p:plain

オーバーレイネットワークを利用しているVMからTier1GWアドレスやTier0GWのアップリンク用インタフェースアドレスへの疎通が可能な事が確認できました。

らぼ環境でもしっかりと稼働していそうです。

 

 

次回は以下を予定しています。

VMware Tanzuデプロイしてみた。

 

NSX-T 3.0 Edgeトランスポートノードの作成

前回までの記事は以下から

NSX-T 3.0 ラボ環境の作成

 

 前回はNested環境を利用したNSX-T 3.0環境のラボ構築までをご紹介しました。

今回から数回でSNX-T環境を用いたテナントネットワークの作成方法をご紹介します。

 

f:id:aritam:20201023230447p:plain

上記の様なテナントネットワークを作成する目標で今回の記事では以下の部分を作成します。※目標のネットワーク10.10.0.254/16はVSSからじゃないとアクセスできない環境要因の為少し複雑なEdgeの構成で作成します。

 

 

f:id:aritam:20201023230333p:plain
今回はEdge トランスポートノードの作成が範囲の為グレーアウトしている部分の設定は次回以降にご紹介します。それではさっそく作成しましょう。

 

 

f:id:aritam:20201023230802p:plain

まずは事前準備としてTier0ゲートウェイアップリンクとして利用するセグメントを払い出します。アップリンクネットワークとして利用する為、オーバレイネットワークは利用せず、VLANネットワークとして払い出します。

「ネットワーク」ー「セグメント」ー「セグメント」ー「セグメントの追加」をクリックします。

 

 

f:id:aritam:20201023231139p:plain

以下を入力し「保存」をクリックします。

「セグメント名」:任意で入力します。

「トランスポートゾーン」前回の記事で作成したVLAN用のトランスポートゾーンを指定します。

「VLAN」任意のVLANを指定します。今回はタグ無しで実施しています。

 

 

f:id:aritam:20201023231841p:plain

VLANセグメントが払い出されました。

 

 

f:id:aritam:20201023231959p:plain

「システム」ー「ファブリック」ー「ノード」ー「Edgeトランスポートノード」ー「Edge仮想マシンの追加」をクリックします。

 

 

f:id:aritam:20201023232140p:plain

「名前」「ホスト名」を任意で入力し、「EdgeVMのサイズを選択」後、「次へ」をクリックします。

LBを払い出す必要があるVMware Tanzuの動作確認を今後行いたい為、今回はLargeを選択します。

 

 

f:id:aritam:20201023232437p:plain

パスワードを入力し「次へ」をクリックします。SSHログインに関してはデフォルトで無効になっている為、必要に応じてチェックを入れてください。

 

 

f:id:aritam:20201023232725p:plain

EdgeVMの管理用ネットワークの設定を行い、「次へ」をクリックします。

「管理IP」:割り当てるIPアドレス/サブネット形式で入力します。

デフォルトゲートウェイ」:GWを入力

ドメイン名の検索」:任意で入力

DNSサーバ」:任意で入力

「NTPサーバ」:任意で入力

 

 

f:id:aritam:20201023233328p:plain
次にTier0,Tier1ゲートウェイで利用するインタフェースの設定を行います。

まずはオーバレイネットワークを利用する為のインタフェースの設定を行います。

以下項目を設定し、「スイッチの追加」をクリックします。

「Edgeスイッチ名」:任意で入力

「トランスポートゾーン」:前回記事で作成したオーバレイ用のトランスポートゾーンをプルダウンから選択します。

アップリンクプロファイル」:前回記事で作成したアップリンクプロファイルを利用します。

「IPの割り当て」:IPプールを使用を選択します。固定IPにして任意で入力する事も可能です。

「IPプール」:前回記事で作成したIPプールを設定します。Edge用のTEPIPとして払い出されます。

「EPDK Fastpathインターフェイス」利用するポートグループを選択します。オーバレイネットワーク用の為VDS上のポートグループである必要があります。ポートグループはvSphereからトランクポートとして別途作成してください。

 

 

f:id:aritam:20201023234103p:plain

次にアップリンク用のインタフェースの設定を行います。

以下項目を設定し、「終了」をクリックします。

「Edgeスイッチ名」:任意で入力

「トランスポートゾーン」:前回記事で作成したVLAN用のトランスポートゾーンをプルダウンから選択します。

アップリンクプロファイル」:前回記事で作成したアップリンクプロファイルを利用します。

 

「EPDK Fastpathインターフェイス」利用するポートグループを選択します。VLAN通信の為VSS上のポートグループを選択する事も可能です。ポートグループはvSphereからトランクポートとして別途作成してください。

 

 

 

f:id:aritam:20201023234501p:plain

EdgeVMが作成され稼働中のステータスになりました。

 

 

f:id:aritam:20201023234619p:plain

先ほど作成したEdgeVMをEdgeクラスタとして設定します。

らぼ環境なので1台しかデプロイしませんが、設定としては必須です。

「Edgeクラスタ」ー「追加」をクリックします。

 

 

 

f:id:aritam:20201023234859p:plain

「名前」を任意に入力し、先ほど作成したEdgeVMにチェックを入れ→で選択済み枠に移動させた後、「追加」をクリックします。

 

 

 

f:id:aritam:20201023235137p:plain

Edgeクラスタが作成されました。※メンバーは1台です。

 

次回はTier0、Tier1ゲートウェイを作成し、テナントネットワーク通信まで設定します。

NSX-T 3.0 Tier0、Tier1ゲートウェイの作成

 

 

NSX-T 3.0 ラボ環境の作成。

NSX-T Data Center 3.0がリリースされて暫く経ちますが、vSphere7に導入するのが以前より容易になったとの噂を聞きつけラボ環境を作成してみる事にしました。NSX-Vとの差異や新機能をキャッチアップしたいと思います。

らぼは以下の通りの構成で作成してみます。

あくまでらぼ環境なのでNSXManagerはシングル構成で実施します。

f:id:aritam:20200916141229p:plain

 アプライアンスデプロイ

f:id:aritam:20200916143131p:plain

f:id:aritam:20200916143525p:plain

アプライアンスデプロイに関しては改めてご紹介する必要はないと思うので省きますが適宜パラメータを入力してください。注意点は設定しなくてよいパラメータの入力欄がある事です。

 

NSX-T環境の構築

ログイン

f:id:aritam:20200916143809p:plain

まずはログインを行います。

ユーザ名とパスワードはアプライアンスデプロイ時に指定した値です。

 

 

ライセンス

f:id:aritam:20200916144115p:plain

まずはライセンスを適用します。

「システム」ー「ライセンス」ー「追加」をクリックします。

 

 

f:id:aritam:20200916144227p:plain

ライセンスキーを投入し、「追加」をクリックします。

 

 

f:id:aritam:20200916144327p:plain

ライセンスが適用されました。

 

 

仮想IPの設定

今回はNSXManagerを単独構成で構築する為必要はありませんが仮想IPを設定可能です。もちろん単独構成であっても仮想IPでの管理UIアクセスは可能です。

 

f:id:aritam:20200916144441p:plain

「システム」ー「アプライアンス」ー「仮想IPの設定」をクリックします。

 

 

f:id:aritam:20200916144735p:plain

「仮想IPアドレス」を入力し、「保存」をクリックします。

 

 

f:id:aritam:20200916144823p:plain

仮想IPが設定されました。

 

 

コンピュートマネージャ

ラボ環境のvCenterをコンピュートマネージャオブジェクトとして登録します。

オーバレイネットワークの払い出し先やTEP用kernelの作成などはすべて登録されたvCenter上で行われます。

※NSXmanagerを追加する場合は登録したコンピュートマネージャ上に展開される為、複数払い出す場合は注意してください。1台目を物理側にデプロイした場合、2.3台目をNested側に展開する事になります。通信が可能であれば動作自体は問題ありません。

物理側のvCenterをコンピュートマネージャ上に登録する事も可能ですが、物理側でもNSX-T環境化である場合はvCenterの取り合いになります。

 

f:id:aritam:20200916145705p:plain

「システム」ー「コンピュートマネージャ」ー「追加」をクリックします。

 

 

f:id:aritam:20200916145751p:plain

「名前、FQDN(IP可)、ユーザパスワード」を入力し「保存」をクリックします。

 

 

f:id:aritam:20200916145908p:plain

「追加」をクリックします。

 

 

f:id:aritam:20200916145949p:plain

コンピュートマネージャオブジェクトとしてらぼ環境のvCneterが登録されました。

 

 

 

トランスポートゾーン

トランスポート ゾーンでは、特定のネットワークを使用できるホストと仮想マシンを指定する為のプロファイルを作成します。

シンプルな環境なのでオーバレイ用、VLAN用に各1つ作成します。

f:id:aritam:20200916150522p:plain

「システム」ー「トランスポートゾーン」ー「トランスポートゾーン」ー「追加」をクリックします。

 

 

 

f:id:aritam:20200916150634p:plain

「名前とスイッチ名」を入力し、トラフィックタイプに「オーバーレイ」を選択し「追加」をクリックします。スイッチ名に関しては任意で構いません。

 

 

 

f:id:aritam:20200916151022p:plain

同様の手順でトラフィックタイプを「VLAN」に設定し、2つ目のトランスポートゾーンを作成します。2つのトランスポートゾーンが作成されました。

 

 

 

アップリンクプロファイル

NSX Edge ノードから物理スイッチへの紐づけを行うプロファイルです。

チーミングポリシーやオーバレイネットワークが利用するVLANID等を指定します。

f:id:aritam:20200916151757p:plain

「システム」ー「プロファイル」ー「アップリンクプロファイル」ー「追加」をクリックします。

 

 

f:id:aritam:20200916151855p:plain

「名前とVLANID」を入力し、「保存」をクリックします。

※MTUに関しては入力しないでください。Nested側のVDSに設定されているMTUが採用されます。アップリンクプロファイルに入力するとNSX-T環境が動作しません。

 

 

 

IPアドレスプール

L3サブネットを定義します。様々な場面で利用されますが

今回はTEP-karnel払い出し用のアドレスプールを作成します。

f:id:aritam:20200916152333p:plain

「ネットワーク」ー「IPアドレスプール」ー「IPアドレスプール」ー「IPアドレスプールの追加」をクリックします。

 

 

 

f:id:aritam:20200916152439p:plain

「名前」を入力し、サブネットの「設定」をクリックします。

 

 

f:id:aritam:20200916152534p:plain

以下を入力し、「追加」をクリックします。

IP範囲「TEP-karnelに利用するIPアドレスの範囲」必須

CIDR「ネットワークアドレス/**」必須

ゲートウェイIP「任意」

DNS「任意」

サフィックス「任意」

 

 

f:id:aritam:20200916152748p:plain

「適用」をクリックします。

 

 

 

f:id:aritam:20200916152826p:plain

「保存」をクリックします。

 

 

 

f:id:aritam:20200916152858p:plain

IPアドレスプールが作成されました。

 

 

 

トランスポートノードプロファイル

クラスタに適用される構成を定義するプロファイルです。

トランスポート ゾーン、N-VDS スイッチの設定(アップリンク プロファイル、IP アドレスの割り当て(TEP)、物理 NICアップリンク仮想インターフェイスマッピングなど)を定義します。

f:id:aritam:20200916153246p:plain

「システム」ー「プロファイル」ー「トランスポートノードプロファイル」ー「追加」をクリックします。

 

 

 

f:id:aritam:20200916153520p:plain

以下の項目を入力し、「追加」をクリックします。

名前「任意」

タイプ「VDs」※vSphere7.0以降

モード「標準」

名前「コンピュートマネージャ名を選択」「vCenter配下のVDSを選択」

トランスポートゾーン「作成したトランスポートゾーンを指定」

アップリンクプロファイル「作成したアップリンクプロファイルを指定」

IPの割り当て「IPプールを使用」

IPプール「作成したIPアドレスプールを指定」

VDSアップリンク「Nested側VDSのアップリンクを指定」

 

 

 

f:id:aritam:20200916154422p:plain

トランスポートノードプロファイルが作成されました。

 

 

トランスポートノード

トランスポート ノードは、NSX-T オーバーレイ、 NSX-T VLAN ネットワークに参加するノードです。事前設定が済んでいればあとは追加するだけです。f:id:aritam:20200916154749p:plain

「システム」ー「ノード」ー「ホストトランスポートノード」ー「管理元でコンピュートマネージャオブジェクトを選択」

 

 

f:id:aritam:20200916154923p:plain

「導入対象のクラスタ」にチェックを入れ、「NSXの設定」をクリックします。

 

 

 

 

f:id:aritam:20200916155010p:plain

「作成したトランスポートノードプロファイル」を選択し、「適用」をクリックします。

 

 

 

f:id:aritam:20200916155102p:plain

ホストへのインストールが開始されます。

 

 

f:id:aritam:20200916155146p:plain

ホストへのNSXインストールが完了しました。

 

 

f:id:aritam:20200916155247p:plain

TEP用のカーネルがvSphere側に作成されました。

 

 

 

稼働確認

オーバレイセグメントを一つ作成し、仮想マシン間の疎通確認を実施してみます。

f:id:aritam:20200916155445p:plain

「ネットワーク」ー「セグメント」ー「セグメント」ー「セグメントの追加」をクリックします。

 

 

 

 

f:id:aritam:20200916155554p:plain

以下を入力し、「保存」をクリックします。

セグメント名「任意」

トランスポートゾーン「オーバレイ用に作成したトランスポートゾーン」

 

 

 

 

f:id:aritam:20200916155727p:plain

セグメントが追加されました。

 

 

f:id:aritam:20200916155808p:plain

vCenter上にオーバレイネットワークを利用したポートグループが作成されました。

 

 

 

f:id:aritam:20200916155913p:plain

テストVM間での疎通が可能である事まで確認できました。

問題なく利用できそうです。

 

 

f:id:aritam:20200916170431p:plain

パスワードの有効期間が短い為上記を忘れないでください。 

 

 

次回からはテナントネットワークの作成を目標にEdgeトランスポートノードの払い出しを紹介します。

NSX-T 3.0 Edgeトランスポートノードの作成

 

 

 

【Nutanix】 バックプレーンネットワークのセグメントを分割してみる。

Foundationを利用してNutanixクラスタを構築する際、バックプレーンネットワークのセグメント化は行えず、初期構築時はCVMの管理セグメントを通じてバックプレーンネットワークの通信が行われます。

 

バックプレーンネットワークのセグメント化を行う場合は以下のマニュアルを元に実施する事になります。

https://portal.nutanix.com/page/documents/details?targetId=Nutanix-Security-Guide-v5_15:wc-network-segment-on-existing-cluster-backplane-physically-isolate-wc-t.html

早速やってみます。

 

f:id:aritam:20201027141446p:plain

まずは物理スイッチとvSphereでの事前準備を行います。

物理スイッチ側へのTAGVLANの追加とvSphere上でポートグループの追加を行います。

 

 

f:id:aritam:20201027141800p:plain

事前にVMkernelを作成する必要はありません。Prismからセグメント化を実施する際に自動で追加されます。

 

 

f:id:aritam:20201027141951p:plain

Prism上で「ネットワーク構成」-「設定します」をクリックします。

 

 

 

 

f:id:aritam:20201027142048p:plain

「サブネット」「ネットマスク」を入力し、事前準備で作成したポートグループを指定します。Host Port Groupを利用してVMkernelが作成されCVM Port Groupとして指定したPort GroupをCVMのバックプレーンネットワークが差し変わります。

 

 

f:id:aritam:20201027142317p:plain

タスクが開始されます。

 

 

 

f:id:aritam:20201027142403p:plain

まず最初にCVMのポートが指定したPort Groupに差し変わります。

 

f:id:aritam:20201027142453p:plain

この時点でデータの信頼性の状態がCritical表示になります。

 

 

f:id:aritam:20201027142552p:plain

続いてVMkernel Portが自動で作成されます。

 

 

f:id:aritam:20201027142635p:plain

最後にCVMが分割されたセグメントのIPを保持します。

 

 

 

f:id:aritam:20201027142715p:plain

f:id:aritam:20201027142730p:plain

タスクが完了し、データの信頼性がグリーン表示となります。

 

 

 

f:id:aritam:20201027142804p:plain

作成されたVMkernelを通じてバックプレーンネットワークの通信が行われている事を確認できます。

 

 

 

vCloud Director 10.0 番外編② 外部で作成されたワイルドカード証明書の適用

-------------------------------------過去記事は以下から-------------------------------------

vCloud Director 10.0 ①インストール (プライマリ)

vCloud Director 10.0 ②インストール (スタンバイ)と公開アドレス

vCloud Director 10.0 ③ vCloud Director へのvSphereリソースの登録 

vCloud Director 10.0 ④ 組織及び組織vDCの作成

vCloud Director 10.0 ⑤ テナントへのNSXEdgeの導入とサービスの構成

vCloud Director 10.0 ⑥ 組織vCDネットワークの作成

vCloud Director 10.0 ⑦ vCloud Director上での新規仮想マシンの作成

vCloud Director 10.0 ⑧ カタログ作成

vCloud Director 10.0 番外編① vCloud Director Applianceのアップグレード

-------------------------------------------------------------------------------------------------

今回はvCloud Director Applianceの証明書適用に関しての記事を投稿します。

vCloud Director Appliance環境ではデプロイ時に自己証明書が作成されデフォルトで使用されます。アクセスすると以下の様自己証明書が使用されている為、コンソールが表示されません。

f:id:aritam:20200404010536p:plain

VMware社のドキュメントでは以下フローで、証明書差し替え手順として公開されています。

JAVA keytoolを使用して、自己証明書を作成する
・証明書署名リクエストを作成する
・証明書署名要求を認証局に送信する
認証局ルート証明書をインポートする
・署名済み証明書をインポートする

これまでに関わった本番環境の導入時はCell ServerでCSRを生成して送信することができず、代わりに作成済みのプライベートキーとワイルドカード証明書ルート証明書が提供されるケースがあります。
この様なケースはCell Serverがアプライアンスで提供される様になり、高可用性構成での導入が容易になった事でより多く見かけるようになりました。

 

今回はプライベートキーとワイルドカード証明書ルート証明書をPFXファイルに変換し、Cell Serverにインポートする方法を公開します。

 

f:id:aritam:20200404011035p:plain

①Cell Serverにログインしプライベートキー、ワイルドカード証明書ルート証明書を配置します。今回は以下のファイルで進めます。

プライベートキー:private.key

サーバ証明書:server.cer

ルート証明書:root.cer

 

f:id:aritam:20200404011137p:plain

②opensslを利用しPFXファイルを作成します。パスワードが求められれば、プライベートキーのパスフレーズを入力します。

openssl pkcs12 -export -inkey private.key -in server.cer -certfile root.cer -out server.pfx
Enter Export Password:パスフレーズを入力
Verifying - Enter Export Password:パスフレーズを入力

 

f:id:aritam:20200404012030p:plain

③デフォルトのキーストアファイルをコピーします。

cp /opt/vmware/vcloud-director/certificates.ks /opt/vmware/vcloud-director/certificates-new.ks

 

f:id:aritam:20200404012158p:plain

④コピーしたキーストアファイルにPFXファイルをインポートします。※エイリアスは1
/opt/vmware/vcloud-director/jre/bin/keytool -trustcacerts -storetype JCEKS -storepass VMware1! -importkeystore -srckeystore server.pfx -destkeystore /opt/vmware/vcloud-director/certificates-new.ks -srcstoretype pkcs12

 

f:id:aritam:20200404012448p:plain

 ⑤同じコマンドでキーストアファイルにPFXファイルをインポートします。※エイリアス1が使用されている為、上書きをせずに2としてインポートします。

 /opt/vmware/vcloud-director/jre/bin/keytool -trustcacerts -storetype JCEKS -storepass VMware1! -importkeystore -srckeystore server.pfx -destkeystore /opt/vmware/vcloud-director/certificates-new.ks -srcstoretype pkcs12

Existing entry alias 1 exists, overwrite? [no]: no
Enter new alias name (RETURN to cancel import for this entry): 2

 

 

f:id:aritam:20200404012800p:plain

 ⑥キーストアの証明書リストを表示します。

デフォルトのエイリアス(http,consoleproxy)に加えて項番⑤で追加したエイリアス(1,2)が追加されています。

/opt/vmware/vcloud-director/jre/bin/keytool -storetype JCEKS -storepass VMware1! -keystore /opt/vmware/vcloud-director/certificates-new.ks -list

 

f:id:aritam:20200404013102p:plain

⑦デフォルトエイリアス(http)を削除します。

/opt/vmware/vcloud-director/jre/bin/keytool -delete -alias http -keystore /opt/vmware/vcloud-director/certificates-new.ks -storetype JCEKS -storepass VMware1!

 

f:id:aritam:20200404013246p:plain

⑧デフォルトエイリアス(onsoleproxy)を削除します。

/opt/vmware/vcloud-director/jre/bin/keytool -delete -alias consoleproxy -keystore /opt/vmware/vcloud-director/certificates-new.ks -storetype JCEKS -storepass VMware1!

 

f:id:aritam:20200404013409p:plain

⑨リストを表示させます。エイリアスが(1,2)のみである事を確認します。

/opt/vmware/vcloud-director/jre/bin/keytool -storetype JCEKS -storepass VMware1! -keystore /opt/vmware/vcloud-director/certificates-new.ks -list

 

f:id:aritam:20200404013551p:plain

エイリアス1の名前をhttpに変更します。
/opt/vmware/vcloud-director/jre/bin/keytool -storetype JCEKS -storepass VMware1! -changealias -alias 1 -destalias http -keystore /opt/vmware/vcloud-director/certificates-new.ks

 

f:id:aritam:20200404013909p:plain

エイリアス2の名前をconsoleproxyに変更します。
/opt/vmware/vcloud-director/jre/bin/keytool -storetype JCEKS -storepass VMware1! -changealias -alias 2 -destalias consoleproxy -keystore /opt/vmware/vcloud-director/certificates-new.ks

 

f:id:aritam:20200404014036p:plain

エイリアスを表示させます。PFXファイルからインポートしたエイリアス(1,2)の名前がエイリアス(http,consoleproxy)変更されている事を確認します。

/opt/vmware/vcloud-director/jre/bin/keytool -storetype JCEKS -storepass VMware1! -keystore /opt/vmware/vcloud-director/certificates-new.ks -list

 

f:id:aritam:20200404014254p:plain

⑫項番③でコピーしたキーストアを移動します。

mv /opt/vmware/vcloud-director/certificates-new.ks /opt/vmware/vcloud-director/certificates.ks

f:id:aritam:20200404014534p:plain

⑬キーストアファイルの所有権を更新します。
chown vcloud:vcloud /opt/vmware/vcloud-director/certificates.ks

 

f:id:aritam:20200404014652p:plain

⑭vCDサービスを停止します。

service vmware-vcd stop

 

 

f:id:aritam:20200404014749p:plain

⑮更新したキーストアを使用するようにvCloud Directorを再構成します。サービスを開始するかどうか尋ねられたら、「Y」と答えます。

/opt/vmware/vcloud-director/bin/configure

 Start it now? [y/n]y

 

f:id:aritam:20200404015210p:plain

⑯証明書が更新され、コンソールが表示されました。

 

今回はここまで。