2021年12月20日月曜日

Nutanixの資格試験 2022年度版

Nutanixは、2022年8月から新しいFinancial Yearとなり、資格制度も新年度として一部変更が入っています。

Nutanixの資格試験は、価値のある資格である15の資格のうちの1つであることが発表されています。

(参考)CIO / The 15 most valuable IT certifications today

本日は、Nutanixの新しくなった資格制度についてお知らせいたします。


Nutanixの資格は、主にパートナー向け、コンサルタント(導入・構築者向け)、プロフェッショナルSE向けの3つの資格カテゴリがあります。
一般のエンジニアで、Nutanixのパートナー登録の有無に関係無く受験が出来る技術的な資格は、プロフェッショナル向けの資格となります。


■パートナー向け試験

パートナー向け試験は、NPN(Nutanix Partner Network)向けに提供される試験となります。主にNutanixのセールスに関わる人が受験する内容となり、NPNに所属している企業以外の人は受験することが出来ません。パートナー向け試験は、NPNのパートナーランクで一定のランクに属するために必要となります。

資格名難易度資格概要
NCSR 2022★☆☆☆☆営業向けのNutanixトレーニングです。今までのNCSRをお持ちの方もNSCR2022は再度取得する必要があります。
Nutanixの導入におけるメリットやNutanixで解決できる問題を問う内容がメインとなります。
昔は、NCSR Level 1〜3とありましたが、2022からは、「NSCR 2022」1つの試験だけとなります。
NCSE-CORE★★☆☆☆主にセールスエンジニア向けの問題が出題されます。
Nutanixのメリットを技術的な側面で問われたり、サイジング、3Tierからの移行に関する問題など具体的な案件における課題を理解しておく必要があります。
NCSEは、従来Level 1と2がありましたが、NCSE-COREになってからは、「NCSE CORE」の1つに統合されました。また、従来のNCSE Level 1を保持している場合は、NCSE-CORE相当の資格を保持している扱いになります。


■コンサルタント向け

コンサルタント向けの資格は、NPNでNutanixの製品導入に携わるための資格試験となります。本資格は、Nutanix Certified Services(NCS)と通称で呼ばれることもあります。NPNでなくても、NSP(Nutanix Service Parner)に参加することは可能です。

資格名難易度資格概要
NCS-CORE★★★☆☆NCP-MCI合格後受験する資格となります。
主にAOSとAHVの内容が問われます。
NCS-Proficient★★★☆☆以下の4つのカテゴリが存在する
・MultiCloud-Infrastructure (Clusters/Mine/Volumes/Leap/Files/Flow/Objects/Prism Ops)
・MultiCloud-Automation(Beam/Calm/Karbon)
・Database Modernization (Era)
・End User Computing (Frame/Flow/Files/Leap/Mine)
NCS-Advanced★★★★☆以下の4つのカテゴリが存在する
・MultiCloud-Infrastructure (Clusters/Mine/Volumes/Leap/Files/Flow/Objects/Prism Ops)
・MultiCloud-Automation(Beam/Calm/Karbon)
・Database Modernization (Era)
・End User Computing (Frame/Flow/Files/Leap/Mine)
NCS-Xpert★★★★★以下の4つのカテゴリが存在する
・MultiCloud-Infrastructure (Clusters/Mine/Volumes/Leap/Files/Flow/Objects/Prism Ops)
・MultiCloud-Automation(Beam/Calm/Karbon)
・Database Modernization (Era)
・End User Computing (Frame/Flow/Files/Leap/Mine)



■プロフェッショナル向け

おそらくNutanixに関わる人がもっとも関わる資格試験が、このプロフェッショナル向けの資格となります。

資格名難易度資格概要
NCA★★☆☆☆Nutanix Certified Associate
Nutanixをこれから始める人向けの資格です。
プロフェッショナル試験では最も難易度が易しいものとなります。
現在のところ試験はⅠ種類のみとなります。
NCP★★★☆☆Nutanix Certified Professional
従来NPP/NCPと呼ばれていた試験です。
従来のNPP/NCPは、AOSやAHVに特化した試験でしたが、そちらは、NCM-MCIと呼ばれる試験が後継となります。
試験は、Nutanixの各製品ごとに以下のように区分けされています。
NCM-MCI(AOSやAHVなどHCIをメインとする試験)
NCM-DS (Objects/Files/Volumesなどのデーターサービス)
NCM-EUC (FrameをはじめとするNutanix上でのVDI利用に特化した試験)
NCP-DB (Eraを利用したデーターベース管理)
NCP-MA (Calmを中心としたマルチクラウドの自動化に関する試験)
NCM系の試験は、製品の基本をしっかりとおさえておけば合格できる試験です。まれに難しい問題が数問出てきますが、全体的難易度は、きちんと製品を理解して触っておけば大体合格ラインに到達すると思われます。
アーキテクチャー回りは、Nutanix Bibleでおさえておくと良いと思います。
NCM★★★★☆NCMは、従来NCAPと呼ばれていた試験体系の後継となります。
現行では、NCMは、AOS/AHVなどHCI全体の試験となるNCM-MCIのみが提供されています。
NCMは、Nutanixのより細かい機能について問われます。特にメトロクラスターやNearSyncなどよりEnterpriseな場所で利用される機能について細かい仕様について問われます。
NCX★★★★★NPXホルダーもしくはそれ相当のレベルである必要がある。Nutanix Enterprise Cloud Solution Design Boot Campを受講する必要があります。(おそらくこのトレーニングの中で、合否が判定する物であると思います)
プロフェッショナル資格においての最高峰に位置するため、相当に難しいはずです。


最もNutanixの資格でポピュラーなのは、NCPになると思います。NCPは、AOS5.20に対応した試験が発表されました。逆にAOS5.15に準拠した試験は2022年2月で終了することが既に発表されています。

プロフェッショナル資格の場合、受験費用は1回あたり、$190で、オンラインまたは、試験会場でのオフラインでの受験が可能です。

試験問題は、プロフェッショナル試験の一部は日本語化されていますので、昔のNCPに比べたら受験に対するハードルはだいぶ低くなっていると思います。(問題のレベルは、NCSEをのぞき従来の試験レベルと変わっていないと思います)

2022年1月末までに、Nutanix Universityのサイトで、受けたい試験のトレーニングを受け終えると、無償で試験を受験できるバウチャーコードがもらえるようです。

New Year, New You with Nutanix University

是非この機会にNutanixの資格試験にチャレンジしてみて下さい。




2021年10月20日水曜日

Nutanix+vSphere ESXi利用時の「vSphere HA 仮想マシンのコンポーネント保護機能で必要な APD 処理が有効になりません」の対応方法

vSphere 7 Update2とNutanixの組み合わせで、vCenter Serverのクラスタに仮想ホストを登録しようとすると

「ホスト「192.168.XXX.YYY」では、vSphere HA 仮想マシンのコンポーネント保護機能で必要な APD 処理が有効になりません。指定されたクラスタでこの機能が有効になっている場合は、そのクラスタに追加または移動することはできません」

というメッセージが表示され、クラスタ内に追加が出来ない事象が発生します。


vSphere 7 Update2まではこのようなことがなかったような気がするのですが、どうもvCenter Server 7 Update 3との組み合わせですとこのメッセージが表示されるようです。

こちらですが、NutanixのノードをイメージングするFoundationツールを利用時に自動的に「Misc.APDhandlingEnable = 0」というパラメーターを設定していることが原因になっている模様です。

このフラグを書き換えない限り、クラスタ内に登録は出来ませんので、言い換えるとこのパラメーターを書き換えれば対処可能です。

まずは、vCenter Serverのデータセンタの下にホストを追加します。

その後、NutanixのESXiホストを選択し、「構成」メニューから「システム」の「システムの詳細」を開き、「編集」ボタンをクリックします。


詳細パラメーターが表示されますので、キー横のフィルターアイコンをクリックし「Misc.APDhandlingEnable」という値を検索します。

現行値が「0」で表示されていますので、値を「1」に変更し、OKをクリックします。


他のESXiホストがある場合、同じ操作を繰り返して下さい。

その後、ESXiホストをクラスタの中に登録します。

無事に登録されるとはずです。

こちらは、Nutanixでも「Enabling HA on vSphere 7.0 cluster fails to enable VMCP because of ESXi host(s) with APD Timeout disabled.」という名称でKB9918で公開されています。

(参考)
KB9918 : Enabling HA on vSphere 7.0 cluster fails to enable VMCP because of ESXi host(s) with APD Timeout disabled.


今後のFoundaionの改善でこの処理が不要になる可能性がありますが、現行APD処理が有効化できない場合は、こちらの手順を試してみて下さい。






2021年9月23日木曜日

2021年Nutanix .NEXT KeyNote Day2 まとめ

Nutanix .NEXTも佳境の2日目になりました。

今日は最近リリースされたNutanixの機能やこれからのNutanixの進化が見える情報が盛りだくさんの日です。

2日目のOpening Keynoteの発表内容をダイジェストにまとめました。


まずは、AOS6の改めての発表です。
STSとしてAOS6がリリースされ、多くの機能が追加されています。
AHVの利用率は53%を超えたようです。昨年より5%利用率が増えているとの発表もあり、AHVの利用率はさらに伸びていることが分ります。
AOS6.0.1からGAになった、Advanced Networking機能も紹介されました。
VPCを作成し、VLAN上にOverlayネットワークを構築することが出来ます。昨年の.NEXTで発表があった機能が今年GAとなりました。
DR周りのアップデートも紹介されました。DRダッシュボードの登場で、レプリケーションの状態を確認が出来ます。
またレプリケーショントラフィックの暗号化もリリースされるようです。
Prism Centralで、Nutanix以外のクラスターを管理出来るようになりました。
また、オペレーションとして、Terraform、Ansible、PowerShellでの制御が可能となりました。
自動化がより身近になる昨今、いろいろな自動化の方法が選択できるのは選択の地涌であるNutanixの良い面が出ているように感じます。
Nutanixが実現する、Zero Trustの話しも出てきました。
FlowとFlow Security Centralで、ワークロードのパッチ適用状態を把握。ランサムウェア感染等を検出すると、Flowの分散ファイアーウォールでブロックします。
ファイルサーバーは、Filesの機能で4000種類のランサムウェアのシグネチャーを元に、検出・ブロックが出来ます。
Flowセキュリティセントラルを利用した実際のデモも行われていました。


Filesのランサムウェア対策は、新たに登場した「Nutanix Data Lens」がその役割を担うようです。
画面を見ると「File Analytics」の画面にそっくりなことから、おそらくFile Analyticsのが名前が変わるのでは無いかと思います。

Nutanix Data Lensでは、Objectsも管理対象となり、画面も新しくなるようです。
ストレージやハードウェア周りのアップデートも発表されました。

I/Oパフォーマンスについては、DataSharding(水平分割)でパフォーマンスがさらに上がるようです。

また、Optainに対応や、IceLakeプラットフォトームも順次対応していきます。
NXモデルはG8として、HPEは、ProLiant DX Gen10 Plusとして、IceLakeモデルが順次リリースされていきます。


AOS6.0.1から、RF1がサポートされるようになりました。
これは、Hadoopなど、既にアプリケーションレベルでデーターを冗長化している場合、RF2のストレージコンテナを利用することで、データーの再冗長化が行われパフォーマンスと容量が無駄になることを防ぐことが出来ます。

RF1の動作は、こちらを御確認ください。
FilesやObjectsで保存されたCold DataをクラウドTierに保存し一元的に管理を出来るCloud Tier機能が改めて出てきています。
この機能はFilesでは2年前からロードマップに出てきていた機能であり、そろそろGAになる(やっと?)と思われます。
FilesのDR機能である、SmartDRの機能拡張も発表されました。
1分のRPOやNearZeroでのレプリケーションも出来るようになるようです。
また、リモートサイトのデーターを元にSelf Service Restoreを介したファイルリストアが可能になるようです。



Nutanix Eraも2.3がリリースされ、データーベースの展開・管理が便利になる旨の説明がありました。

Nutanix Eraの発表から3年が経ち、いよいよ実用的なフェーズに入ったことが伺えます。


Eraのデモも行われていましたが、Eraの画面もリリースされているバージョンと異なり機能が進化しているように思えます。
Nutanixが考える、ハイブリッドクラウドでの利用シーンが紹介されていました。
DRはもちろんのこと、一時的に必要なリソースが足りない際に利用することなども想定されています。
DR用途において、Nutanix Clusters on AWSを利用した、より高度なDRが可能となりました。それがElastic DRです。
これは、DRが必要になると、X-Playを利用し、自動でClusertsを展開し、必要に応じてClustersのノード数を増減できるという機能です。

DR環境を手動で構築することなく、コスト面でもメリットが生まれます。
また、Nutanix Clusters(当初はXi Clusters)発表当初から紹介されていた、展開したNutanix Clusters環境をS3へのレジュームが出来るHibernate機能も正式にGAとなりました。(正式リリースまで時間かかりましたね。。)
Nutanix Clusters on AWSに続き、昨日発表があったように、Nutanix Clusters on Azureもプレビューとなりました。もう数ヶ月するとGAになるのではないかと想像できます。
Nutanix Clusters on AWSに続き、昨日発表があったように、Nutanix Clusters on Azureもプレビューとなりました。もう数ヶ月するとGAになるのではないかと想像できます。
NutanixとRedHatの強いパートナーシップの連携の話しも改めて発表がありました。
新しいモダンアプリケーションの統合管理を実現するOpenShiftのプラットフォームとしてNutanixが選択できることは、インフラ面そしてアプリケーション面において、メリットがあることに違いはありません。
昨年の.NEXTで発表があった、Azure Arcへの対応も発表がされております。こちらはおそらく、Nutanix Clusters on Azureと同じ時期にGAされそうな気がします。
NutanixといえばAHVというような凝り固まった平成時代な古い考えでは時代遅れです。
Nutanixは、どんなハイパーバイザー・パブリッククラウドであっても、そしてどんなワークロードプラットフォームでも最適な環境そして連携を提供できるメリットがあります。
Nutanixは、PrismCentralでマルチプラットフォームをAIを使って管理でき、コスト管理を行うことも出来ます。
また、Calmを使ってマルチプラットフォームでワークロードの自動展開が可能となります。

今回のキーワードのまとめです。

  • HCIイノベーション
    • 仮想ネットワーク(Advanced Networking)
    • DR機能の進化(ElasticDRやSmartDRなど)
    • ゼロトラストセキュリティの実装
    • Files/ObjectsのCloud Tieringの実装
    • Nutanix Data Lensによる高度な管理
  • データーベース サービス
    • 1クリックで様々な条件でのDBを展開
    • RBAC,HAなどエンタープライズでの要求をサポート
    • DBパフォーマンスを2倍にアップ
  • クラウドイノベーション
    • NutanixからAWSへのリソース拡張
    • ElasticDRによるインテリジェントなDR
    • Clusters on Azureがまもなく提供開始
    • Clamによるクラウドネイティブなエコシステム(Calm as a Service)



今回の.NEXT 2021を見るに、マルチハイブリッドクラウドというキーワードが幾度となく出てきました。
ユーザーもマルチクラウド・ハイブリッドクラウドを求めていることを示していましたが、なによりNutanixが、マルチハイブリッドクラウド時代における、モダンなITシステムの形を提案そして提供できるようになったと感じる2日間でした。

オンプレミス基盤というと手のかかる古来のIT基盤というイメージがありましたが、そういった思想ではなく、オンプレミスであってもパブリッククラウドライクな利便性を提供するという従来からのNutanixのスタンスと理想はより進化し現実化しているように感じました。また、オンプレミスでは成しえない、短い時間で世界中のITリソースを利用できるパブリッククラウドをどう活用するかがキーになっている時代に、Nutanixは、オンプレミスとパブリッククラウドの親和性だけではなく、オンプレミスとパブリッククラウドの融合という形で、統合的な管理やリソースの活用ができ、ワークロードの場所を気にしない統合的なITプラットフォームを提供する準備が出来たことを表しているように感じました。




2021年9月22日水曜日

2021年Nutanix .NEXT KeyNote Day1 まとめ

今年も1年1回のNutanix最大のイベント、Nutanix .NEXTがはじまりました。
今年も昨年同様全面のオンラインとなりました。

日本では、10/7に日本人向けに「Nutanix .NEXT JAPAN」が開催されますので、日本語で提供される詳細な情報は、こちらに参加して頂くのが良いと思いますが、まずはワールドワイドで開催される.NEXTの情報を、個人的な視点ですが、簡単にまとめておきたいと思います。


まずは、CEOであるRAJIVより、Nutanixにおける近況の話がありました。
RAJIVは、2020年末にNutanixのCEOに着任したことから今年が初めてのNutanix .NEXTの参加となります。     
ここでは、日本の自動車メーカーであるトヨタ自動車が、3DCAD VDIをNutanix上で稼動させ、3Dモデル情報などを世界中で簡単にシェアができるようになったとの発表がありました。
2023年には、半分のワークロードがパブリックラウドに移行し、2024年には、より多くのワークロードがパブリッククラウドで動作するだろうと話がありました。2024年、それはもうすぐそこの話しですね。
その一方で、パブリッククラウドに支払うマージン費用は、年間で1000万ドルに上るという紹介がありました。
全てをパブリッククラウドに持っていくことは、コスト面で得策ではないが、パブリッククラウドのメリットを利用することも大事であり、マルチクラウド・ハイブリッドクラウドが重要である。
Nutanixは、マルチクラウドプラットフォームを提供し、ユーザーの管理を楽にさせることがミッションであると伝えられていました。
クラウドプラットフォームの管理には、運用の自動化、セキュリティガバナンスの監視などが求められます。
ハイブリッドクラウドには、DRやデーターの階層化(Cold/Hotデーター)などの利用があります。
これらをシンプルなプラットフォームをNutanixは、提供していくそうです。
この1枚のスライドに、AHVがRedHatの認定ハイパーバイザーになったことや、LeapのDRダッシュボードがリリースされたことなど、EraによるDB展開機能で大幅にDBの構築作業が効率化できるようになったなどの説明がありました。(かなり盛りだくさんでした)

また新しいデーターガバナンスサービスとして、「Nutanix Data Lens」が発表されました。
ユーザーのデーターのセキュリティとコンプライアンスを管理するハイブリッド/マルチクラウド向けのアクセス制御を提供するそうです。
マルチクラウドの管理として、画面のデモが行われておりました。
このシステムの名前が出てこなかったのですが、昨年発表されたNutanix Centralの画面ではないかと思います。
またマーケットプレイス経由でOpenShiftが簡単に展開できる説明も行われました。
これはおそらく、Nutanix Clustersの上に展開している物と思われます。
RedHatからは、MARCO BILL-PETER氏が、コンテナプラットフォームとしてNutanixを利用できることの重要性を解説していました。
ストレージやハイパーバイザーなど、OpenShiftを稼動させるプラットフォームが1つで全て揃うことのシンプルさであり、今後も共同のロードマップを用意するという説明もありました。
もう一つ大きな発表としては、Nutanix Clusters on Azureの発表です。昨年の.NEXTから発表がなされておりましたが、Test Driveにon Azureの体験が出来るようになりました。
https://www.nutanix.com/azure
最後に、CitrixとNutanixのより深いビジネスの協業についての説明がありました。
プレスリリースにも記載されています。
NutanixがFrameを買収し、VDIソリューションとしてはFrameがファーストチョイスと思われてしまっている側面もありますが、Citrix+AHVの強みも生かし、クラウドライクなFrameとトラディショナルな企業の柔軟な要望に応えられるCitrixを選択できるようになる(今までも選択できましたが)ということです。こちらは改めてのメッセージとなるかと思います。


本日はDay1ということもあり、全体的なお話しが多く技術的な細かい話しまでは、ありませんでしたが既にNutanix Data Lensという気になるキーワードも出てきました。

明日のDay2が楽しみです。





2021年9月14日火曜日

Rocky Linux 8.4にNGTをインストールする方法

CentOSの運営方針が変わり、今後のLinuxディストリビューションをどれを使うか悩んでいる方もいらっしゃることかと思います。

2021年9月現在、RedHat Enterprise Linux(RHEL)互換として、いくつかのディストリビューションが既にリリースされています。

NutanixでAHV環境においては、AlmaLinux 8.3及びRocky Linux8.4をそれぞれ、AOS 5.10以降でサポートしています。

▼Rocky LinuxのCompatibility List


元々RHEL互換ですから、RHELをサポートしているAHVとしてはある意味当然の話ではありますが...。

さて、コンパチは通っている新生RHEL互換OSですが、Nutanix上でNGTをインストーすると失敗してしまいます。

python3 /run/media/$USER/NUTANIX_TOOLS/installer/linux/install_ngt.py

Platform type is: x86_64

Unsupported distribution : rocky linux

ERROR: Failed to install Nutanix Guest Tools. Check /tmp/ngt_install_log_20210913232117.txt  for logs.

このような形で、Rocky LinuxはサポートされていないとエラーになってしまうNGTをインストールすることが出来ません。

どうやら、RockyLinuxをNGTが知らないことで起きているようです。

今回はこの問題を解消し、NGTをインストールする方法をお伝えします。

まず、既存のISOに入っているファイルに変更を加えるため、ISOの中身の一部を、ホームディレクトリにコピーします。

mkdir -p /home/$USER/ngt/installer
cp -rf /run/media/$USER/NUTANIX_TOOLS/config /home/$USER/ngt
cp -rf /run/media/$USER/NUTANIX_TOOLS/config/installer/config /home/$USER/ngt/installer
cp -rf /run/media/$USER/NUTANIX_TOOLS/config/installer/linux /home/$USER/ngt/installer


続いて、コピーしたファイル「/home/$USER/ngt/installer/linux/src/installer_factory.py」のファイルを書き換えます。

33行目付近を以下のように書き換えます。

  distribution = distro.linux_distribution()[0].lower()
  if ("centos" in distribution or
      "oracle linux server" in distribution or
     
"rocky linux" in distribution or  #★この行を追加する
      "redhatenterpriseserver" in distribution or
      "red hat" in distribution):
    # CentOS and Oracle Linux derive from the Red Hat Enterprise Linux
    # and hence the same installer works for them. For Oracle Linux, the

保存した上で、コピーして編集したNGTバイナリをインストールします。

cd /home/$USER/ngt/installer/linux
python3 install_ngt.py

数分時間がかかりますが、以下のようにインストーラーが実行され無事にインストールが終了します。

[root@rklnx linux]# python3 /home/$USER/ngt/installer/linux/install_ngt.py
Platform type is: x86_64
Using Linux Installer for rocky linux linux distribution.
Setting up folders...
Installing NGT Guest Agent...
Setting up Nutanix Guest Tools - VM mobility drivers.
Successfully set up Nutanix Guest Tools - VM mobility drivers.
Installing Nutanix Guest Agent Service.
Successfully installed Nutanix Guest Agent Service.
Installing Nutanix Self Service Restore Service.
Successfully installed Nutanix Self Service Restore Service.
Creating desktop shortcuts...
Cleaning up temporary files...
Waiting for Nutanix Guest Agent Service to start...
Waiting for Nutanix Self Service Restore Service to start...
Nutanix Guest Agent Service successfully started in the background.
Nutanix Self Service Restore Service successfully started in the background.
[root@rklnx linux]# 


GUIを起動するときちんと、SSRのアイコンも出来ています。


最後に、ncliからNGTのステータスが正常化も確認しておきましょう。

ncli

<ncli> ngt list vm-names=RockyLinuxVM

    VM Id                     : 00056d28-59d3-7bbc-0000-000000014005::c8a9e9d2-c47e-4772-9947-4505b4287078
    VM Name                   : RockyLinuxVM
    NGT Enabled               : true
    Tools ISO Mounted         : false
    Vss Snapshot              : true
    File Level Restore        : false
    Communication Link Active : true ★

<ncli> 


きちんとNGTエージェントがCVMと疎通できていることが分かります。

Rocky Linuxは、RedHat Enterprise Linuxの互換OSですので、CentOSやOracle Linuxと同様のバイナリにてNGTは正常にインストールできます。

今後新しいRHEL互換OSを利用する場合は、この方法を試してみてください。


2021年8月27日金曜日

AOS6.0.1からサポートされたReplication Factor 1を試してみる

前回、AOS6.0.1からサポートされたRF1(Replication Factor 1)についてご紹介しました。前回は、うまく仮想マシンを作成できずに終わったのですが、今回RF1環境で仮想ディスクを作成することが出来ましたので、今回は、RF1での実際の動作についてご紹介します。


仮想ディスクにRF1のストレージコンテナを選択した場合

仮想マシンを作成時に、RF1のストレージコンテナの仮想ディスクを割り当てた仮想マシンは、Prismの仮想マシン一覧にも「RF1」と表示されます。


なお、通常のRFのストレージコンテナの仮想ディスクを割り当てている仮想マシンに、RF1のストレージの仮想ディスクを割り当てても、同様にこの「RF1」が表示されます。



Volume Groupの作成は可能か?

VolumeGroupで、RF1のストレージコンテナは選択可能かを試してみました。サラッと作成可能です。なお、仮想マシンと同様に一覧表示でRF1であることを確認することが出来ます。



RF1で作成した仮想マシンは、Live Migration可能か?

ホストに紐付いたストレージにデーターが書き込まれることを考えると、Live Migrationによる仮想マシンの稼働ホストを変更するのは無理かと思ったのですが、実はLive Migrationできます。あくまでもデーターが保存される場所が特定ホストに限定されるだけであり、このRF1のストレージは、共有ディスクで提供され、Nutanixクラスター内の各ホストにLive Migrationすることができます。



仮想ディスクをRF2のコンテナに移動できるか?

AOS 5.19からAHVに搭載された、仮想ディスクのストレージコンテナ間移動を利用して、RF1のストレージコンテナにある仮想ディスクをRF2のストレージコンテナに移動するコマンドを実行した場合どうなるかを試してみました。

vm.update_container RF1-TESTVM container=DEFAULT_CONTAINER wait=false

実行すると、コマンド自体はエラーもなく通ります。しかし、タスク自体はキューに入ったままで処理されることはありません。(ずっとタスクに残ったままになります)

ということで、ちょっとロックの仕方が甘い気もしますが、仕様通りRF1で作成した仮想ディスクを他のストレージコンテナに移動することは出来ないということになります。



DataProtectionでRF1の仮想ディスクを持った仮想マシンは保護できるのか?

仕様上、RF1の仮想マシンはスナップショット作成はサポートされていないという記載があります。実際にProtection Domainで保護を行おうとしたのですが、仮想マシンの一覧候補画面から、RF1の仮想マシンが除外される設定になっています。そのため、RF1の仮想マシンを保護対象に入れることは出来ません。


では、RF2のストレージコンテナの仮想ディスクを割り当てた仮想マシンを、Protection Domainに入れ、その後その仮想マシンにRF1の仮想ディスクを割り当てた場合はどうなるのでしょうか?
結論としては、仮想マシン自体のProtection Domainに該当の仮想マシンが残ったままとなりますが、Take Snapshotで意図的にスナップショットを作成しようとした場合、処理自体は実行されますが、実際にはスナップショット処理はスキップされた旨のアラートが発生します。


では、Protection DomainAHVの仮想マシンスナップショットではどうなるのかを確認したところ、スナップショットエラーのメッセージが表示されます。


スナップショットはRF1の場合、Protection Domainであっても、普通の仮想マシンスナップショットであってもいずれも取得できないということになります。


RF1ストレージコンテナのホスト上にあるCVMをシャットダウンした場合どのような動作になるか?

RF1の場合、特定のホストのストレージにしかデーターが書き込まれませんので、該当ホストのCVMがいなくなるとホストのSSDやHDDにアクセスできなくなるので、I/O処理が出来なくなるはずです。RF2など通常のストレージコンテナで動作しいている仮想マシンは、CVMがいなくなると、自動的にハイパーバイザーが別のCVMにパスを切り替えてI/Oを継続させる仕組みとなっているため影響はありません。
今回はCVMを正常にシャットダウンする、「cvm_shutdown -P」コマンドを実行してみます。

nutanix@NTNX-21SM9C999999-A-CVM:192.168.XXX.171:~$ cvm_shutdown -P now
2021-08-27 12:29:23,979Z INFO MainThread zookeeper_session.py:193 cvm_shutdown is attempting to connect to Zookeeper
2021-08-27 12:29:23,984Z INFO Dummy-1 zookeeper_session.py:625 ZK session establishment complete, sessionId=0x27b86ada51404b1, negotiated timeout=20 secs
2021-08-27 12:29:24,032Z INFO MainThread lcm_genesis_utils.py:47 Rpc to [192.168.XXX.172] for LCM [LcmFramework.is_lcm_operation_in_progress] is successful
2021-08-27 12:29:24,033Z INFO MainThread cvm_shutdown:174 No upgrade was found to be in progress on the cluster
2021-08-27 12:29:24,197Z INFO MainThread cvm_shutdown:91 Acquired shutdown token successfully
2021-08-27 12:29:24,438Z CRITICAL MainThread cvm_shutdown:206 Found powered on VMs with RF1 disks managed by the current CVM. Please proceed to shutdown with --auto_shutdown_rf1_vms flag, and the system will attempt to shut them down before proceeding with CVM shutdown. RF1 VMs: RF1-TESTVM

どうやら、RF1の仮想マシンがいるためシャットダウンが出来ない旨が表示されています。合わせて「--auto_shutdown_rf1_vms」というパラメーターが出てきました。

では、「shutdown -P now --auto_shutdow_rf1_vms」を実行してみましょう。

nutanix@NTNX-21SM9C999999-A-CVM:192.168.XXX.171:~$ cvm_shutdown -P now --auto_shutdown_rf1_vms
2021-08-27 12:36:40,467Z INFO MainThread zookeeper_session.py:193 cvm_shutdown is attempting to connect to Zookeeper
2021-08-27 12:36:40,472Z INFO Dummy-1 zookeeper_session.py:625 ZK session establishment complete, sessionId=0x17b86ada50204e9, negotiated timeout=20 secs
2021-08-27 12:36:40,512Z INFO MainThread lcm_genesis_utils.py:47 Rpc to [192.168.XXX.172] for LCM [LcmFramework.is_lcm_operation_in_progress] is successful
2021-08-27 12:36:40,513Z INFO MainThread cvm_shutdown:174 No upgrade was found to be in progress on the cluster
2021-08-27 12:36:40,560Z INFO MainThread cvm_shutdown:91 Acquired shutdown token successfully
2021-08-27 12:36:40,842Z INFO MainThread cvm_shutdown:217 Found powered on VMs with RF1 disks managed by the current CVM. The system will attempt to automatically shut them down before proceeding with the CVM shutdown. RF1 VMs: RF1-TESTVM
2021-08-27 12:36:40,842Z INFO MainThread cvm_shutdown:116 Validating command arguments.
2021-08-27 12:36:40,842Z INFO MainThread cvm_shutdown:119 Executing cmd: sudo shutdown -k -P now
2021-08-27 12:36:41,005Z INFO MainThread cvm_shutdown:99 Setting up storage traffic forwarding
2021-08-27 12:36:41,016Z WARNING MainThread genesis_utils.py:145 Deprecated: use util.cluster.info.get_factory_config() instead
2021-08-27 12:36:41,021Z INFO MainThread genesis_utils.py:3192 Verifying if route is set for 192.168.XXX.171
2021-08-27 12:36:41,445Z INFO MainThread genesis_utils.py:3197 HA Route is not yet set for 192.168.XXX.171
2021-08-27 12:36:43,824Z INFO MainThread genesis_utils.py:3197 HA Route is not yet set for 192.168.XXX.171
2021-08-27 12:36:46,249Z INFO MainThread zookeeper_session.py:193 cvm_shutdown is attempting to connect to Zookeeper
2021-08-27 12:36:46,253Z INFO Dummy-2 zookeeper_session.py:625 ZK session establishment complete, sessionId=0x37b86b195f204c9, negotiated timeout=20 secs
2021-08-27 12:36:46,266Z INFO MainThread genesis_utils.py:1948 The CVM 192.168.XXX.171 is not in maintenance mode
2021-08-27 12:36:46,281Z INFO MainThread cluster_upgrade.py:824 ZK path /appliance/logical/genesis/rf1_vms is empty for SVM 3
2021-08-27 12:36:46,310Z INFO MainThread ahv_rf1_api_impl.py:258 Sending acropolis task HandleRf1VmBeforeAosMaintenance to SVM ID 3 to listed RF1 VMs, task_uuid 7fc7b917-d161-49a6-bc17-9dbdef499e05
2021-08-27 12:36:46,313Z INFO Dummy-3 client.py:232 Creating stub for Ergon on 192.168.XXX.171: 2090
2021-08-27 12:36:46,688Z INFO MainThread cluster_upgrade.py:844 Setting RF1 VM list into the ZK path /appliance/logical/genesis/rf1_vms for SVM 3, VM UUID list: ['90ba4083-ad15-40d2-8434-a1d299bacdd0']
2021-08-27 12:36:46,713Z INFO MainThread ahv_rf1_api_impl.py:258 Sending acropolis task HandleRf1VmBeforeAosMaintenance to SVM ID 3 to shut down RF1 VMs, task_uuid bbcd24f6-3ec2-4fed-b71e-d444fa2320de
2021-08-27 12:37:18,329Z INFO MainThread cluster_upgrade.py:851 Successfully complete handling RF1 VMs task before CVM 3 shutdown
2021-08-27 12:37:18,340Z INFO MainThread genesis_utils.py:1810 Adding entry of planned_outage in planned_outage_history
2021-08-27 12:37:18,341Z INFO MainThread genesis_utils.py:1870 Planned outage entry is start_time: 1630067838

reason: "CVM shutdown"

2021-08-27 12:37:18,348Z INFO MainThread configuration_validator.py:962 Did Configuration Validator succeed : True
2021-08-27 12:37:18,394Z INFO MainThread genesis_utils.py:1826 Configured CVM 192.168.XXX.171 with maintenance mode status True
2021-08-27 12:37:18,399Z INFO MainThread cluster_upgrade.py:905 Stopping all services before reboot
2021-08-27 12:37:18,399Z INFO MainThread cluster_upgrade.py:905 Stopping all services before reboot
2021-08-27 12:37:54,131Z INFO MainThread cluster_upgrade.py:914 Attempting to stop any remaining services forcefully!
2021-08-27 12:37:54,141Z INFO MainThread service_utils.py:1097 No process has lock_path /home/nutanix/data/locks/catalog open
...

RF1の仮想マシンが自動でシャットダウンされた後、CVMは正常にシャットダウンされました。

なお、CVMが復活すると自動でシャットダウンされたRF1の仮想マシンが起動します。この動作からすると、アンチアフィニティルールが指定されている仮想マシンが、ハイパーバイザーのアップデートなどでライブマイグレーションが出来ない仮想マシンをシャットダウンし、アップデート完了後に起動する動作と同じ挙動のように思われます。

では、RF1で作成したVolume Groupを他のホストでRF2で稼動中の仮想マシンにSCSI Direct Attachすると、この仮想マシンもシャットダウンされるのかも確認してみたところ、SCSIダイレクトアタッチでVolumeGroupのディスクをマウントした仮想マシンは正常にシャットダウンされました。(おそらくiSCSI経由の接続の場合、OS制御が出来ませんので無視してシャットダウンされると思われます)


少しだけですが、RF1の挙動について調べてみました。Nutanix上ではRF1の利用は制約があることから制約のロックもそれぞれUIレベルで行われていることが分かりました。

PrismのData Resiliency Status部分には、RF1の仮想ディスクが幾つ存在するかも数量が表示されています。



RF1は、検証等々では便利ですが、制約が多いので、ご利用は計画的に。












AOS6.0.1からサポートされたReplication Factor 1について

先日AOS 6.0リリースの紹介をしましたが、AOS6.0.1から新たにサポートされる機能があります。それは「Replication Factor 1」です。

本来、データーの冗長性から考えてデーターを二重化(ないしは三重化)しないというのは、大事なデーターを保存する上であり得ない話しですが、逆に言うと大事ではないデーターを二重化するのは、ストレージ容量がもったいないと考えることも出来ます。極端な話し消えても問題ないデーターを保存する際に、このRF1を活用するという物です。

かといって、RF1を多用すると確実に事故が発生しますので、Nutanixでは、RF1の利用について厳しく制限が設けられております。

  • RF1コンテナは、レプリケーション係数の増加をサポートしていません。
    (RF1からRF2への変更)
  • RF1コンテナは、AHVイメージサービスで利用するISOやDISKの保存をサポートしていません。
  • RF1コンテナでは、Reserved Capacityの設定は許可されていません。
  • ホストのメンテナンス作業を行う場合、RF1の仮想マシンは停止する必要があります。(RF1の仮想マシンは、ライブマイグレーションできません)
  • AHV/ESXi環境のみをサポートします。HyperV環境はサポートされていません。
  • パフォーマンス上の理由から、SSD層の容量がクラスター容量の6%未満であるクラスターにRF1ストレージを構成することはお勧めしません。
  • RF1の仮想マシンは、スナップショットやレプリケーションはサポートされていません。
  • ESXiクラスターをAHVクラスターに変更は、サポートされません。
  • イレイジャーコーディングや重複排除は、RFストレージコンテナではサポートされません。
  • ストレージコンテナのゴミ箱機能はサポートされず削除したデーターは即座に削除されます。
  • RF1 vDiskを備えたVMは、DRおよびMetro-Clusters環境ではサポートされていません。
  • 以下のメンテナンスを行う場合、RF1の仮想マシンはシャットダウンする必要があります。
    • ワンクリックのAOSアップグレード
    • CVMのシャットダウン
    • ホストのメモリの更新
    • ESXワンクリックハイパーバイザーのアップグレード
    • ネットワークセグメンテーションワークフロー
    • ローリングリブートフレームワーク(AHVでの仮想スイッチサポートの有効化)
    • ホストブートディスクの交換

ここで重要なことは、AOSのアップグレードであっても、RF1の仮想マシンはシャットダウンしなければいけないというのは、気になる表現です。

これは、RF1のストレージコンテナは、ノード毎に作成されるという仕様に起因しています。そのため、RF1で作成した仮想マシンはノードのローカルストレージで動作している形になりますので、ライブマイグレーションが出来ないという制限事項があります。

そのため、以下のような制限が発生します。
  • ノードの削除-RF1のあるノードをクラスターから削除すると、RF1vDiskとコンテナーに削除されます
  • ノードの一部のディスクやフラッシュが故障し交換した場合、RF1の仮想マシンは削除されます。
  • ストレージ専用ノードを搭載したクラスターの場合、コンピュートノードのにのみRF1のストレージコンテナを作成できます。


Nutanixの各アプリケーションもサポート可否が明確に記載されています。

Nutanix Era / Files / Carbon /Objects  / Prism Central

RF1ストレージコンテナを領域の一部で利用することや、仮想アプライアンス自体をRF1のストレージコンテナに展開することはサポートされていません。

もはやここまで制限されると何の意味があるのかと思う気もしますが、先程記載したとおり、データーを保存する領域ではなく、データーベースのテンポラリーやAI,機械学習のデーターの学習用データーの保存場所としての活用が考えられます。


では、RF1のストレージコンテナの作成方法をご紹介します。

PrismのSettingsから「Redundancy State」を選択し、「Enable Replication Factor 1」にチェックを入れます。


RF1の制限事項が表示されますので確認してYesをクリックします。


元の画面に戻ったら「Save」ボタンをクリックし設定を終えます。

PrismのStorageメニューに進み、「+ Storage Container」をクリックします。

REPLICATION FACTORを選択し「1」を選択します。

すると、ドロップダウンリストが追加されます。このストレージコンテナをどのノードで作成するかの選択肢が追加されます。


予約は出来ないと言う制限がある一方でRESERVED CAPACITYが入力できますが、こちらは値を入れると、設定保存できません。なお、Advatized Capacityは設定可能です。
重複排除やイレイジャーコーディングは、明確に画面上にロックがかかっています。


Saveすればこれでストレージコンテナの作成は完了です。制約事項を除けば、通常のストレージコンテナ作成と何も変わりません。

では、仮想マシンを作成する際にこのRF1のストレージコンテナをどのように選択するのでしょうか?

通常通り仮想マシン画面から「+ Add New Disk」をクリックし、仮想ディスクを作成したいストレージコンテナをドロップダウンリストから一覧を表示させると、RF1のストレージコンテナは、横側にホスト名が表示されます。




AOS 6.0.1は、AOS 6.0.1.1として、8/27にリリース予定となります。

今回AOS6.0.1の環境でRF1の仮想ディスクを作成しようとしたところ、正しく作成が出来ませんでしたので、おそらくAOS6.0.1.1でここも修正されるのではないかと思います。
(本当は仮想ディスク作成後の動作もご紹介したかったのですが...)

RF1の利用は限定的ですが、テンポラリーの仮想マシンや検証用の仮想マシンですぐに削除する物であれば、RF1はリソースの削減として利用可能と思います。(とくに容量単価が高いオールフラッシュの場合は、コスト面のメリットもあります)

ただ、あくまでもデーターの冗長性がないので、データーベースなど大事なデーターを保存する場合には、くれぐれも利用しないようにしてください。