2017年12月23日土曜日

Nutanix AHVの紹介 その3 AHVへのお引越しはどうすればいいの?

この記事はNutanix Advent Calendar 2017/12/23 の記事です


前回までのにAHVが実用的に利用できるのかを中心に見てきました。
では、既存の環境からAHVに移行するためにはどうすればよいのでしょうか?
実際に移行のプロセスについて検討をしてみたいと思います。

1.OSの対応状況
まず、移行するOSがAHVに対応しているかを確認しましょう。
Windows Server 2003など古めのOSは、AHVではサポートされていないことに注意が必要です。

2.VirtIO Driverのインストール
AHVは、ディスクバスをSCSIにした際、WindowsOSでは標準で保有していないデバイスドライバーが必要になります。また、LinuxOSにおいても、Nutanixが提供するVirtIOドライバーを入れることが推奨されます。
移行を計画するマシンには、あらかじめVirtIO Driverのインストールを行いましょう。
VirtIO Driverは、Nutanix Supoprt PortalのDownloadメニューの「Tools & Firmware 」のページからダウンロードできます。

Windowsの場合、msiファイルとなっていますので、インストールウィザードに従うだけで簡単にインストール可能です。

3.移行の手法を考える
さて、ここまでの準備ができたら、移行の手法について具体的に考える必要があります。

vSphereの場合


ポイントは、3つあります。
まず、vSphere 5.5以上(ESXi 5.5以上)を利用している場合、Nutanixから提供される、Xtract for VMsを利用するのが、最もRPOが短く、かつ簡単なオペレーションで作業が可能です。Xtarct for VMsは、vCenter Serverとの接続が必要になるため、vSphere Essentials 以上が移行対象のエディションとなります。
2つ目のポイントは、vSphere(ESXi)5.1の場合、Standard以上のエディションを利用していれば、Storage vMotionが利用可能ですので、NutanixのストレージコンテナをESXi環境であらかじめマウントしておき、仮想マシンの仮想ディスク等、オンラインのままあらかじめ移行しておくことが可能になります。
vSphere(ESXi)5.0以下、また、vSphere(ESXi)5.1であっても、Essentials Plus以下の場合は、Storage vMotionが利用できませんので、仮想マシンをシャットダウンしパワーオフになった後、「仮想マシンの移行」を利用して、仮想ディスクをNutanixのストレージ移行することができます。
Xtarct for VMsを利用しない場合、Nutanixのストレージコンテナに仮想マシンデーターを移行できても、形式を変更しなければAHVでは利用できません。
そのため、ストレージの移行が完了した仮想マシンは、ESXi上で稼働している場合は、シャットダウンし、パワーオフ状態になった後、「-flat.vmdk」のファイルをNutanixのImage Serviceに登録し、AHV形式のディスクに変換を行い、移行は完了です。


HyperVの場合


HyperVの場合、仮想マシンの世代数で移行の方法が異なります。
BIOSレベルで起動する第一世代の場合、VHD/VHDXファイルを、Image Serviceに登録するだけで移行は完了します。HyperVの場合、ファイルフォーマットとしてNFSのストレージをマウントすることができませんので、仮想マシンのパワーオフ後、VHD/VHDXファイルを、Webブラウザ経由で、Prismの画面からPUTするか、Windowsマシンから、NFS共有フォルダをマウント後、コピーする形でNutanixのストレージコンテナに移行可能です。


物理サーバーの場合


物理サーバーからの移行の場合、いくつかの方法があります。
一番確実なのは、市販のイメージバックアップソフトウェアを利用し、リストアする方法が確実です。
ただ、物理サーバーのディスクを、何らかの形で仮想ディスクの形式変換すれば、HyperVやvSphereと同じようにImage Service経由で仮想マシンを変換することが可能です。
例えば、Windowsの場合、DISK2VHDを利用すれば、物理・仮想に関係なくWindows上で見えるディスクドライブの内容をVHDXファイルに変換することできます。
変換後の仮想ディスクファイルは、NutanixのストレージコンテナにPUT後、Image Serviceに入れることでAHVで稼働可能な形式に変換することができます。

AHVで新規に仮想マシンを作成するのは、非常に手軽にできますが、既存資産からの移行の場合も、手順さえあらかじめ押さえておけばそこまで、大掛かりな作業でも、大変な手法が必要でもありません。
これは、NutanixのImage Serviceの機能に、仮想ディスク形式の変換機能が実装されているという利便性になります。

クリスマスはもうすぐそこです。
明日は、日本人数人しかいない希少なNutanix Technology Championホルダーの@hiroito1118さんです。




2017年12月20日水曜日

PrismCentral 5.5の小ネタ

この記事はNutanix Advent Calendar[2枚目] 2017/12/20 の記事です

AOS及びPrism Central5.5が、12月の上旬に発表されました。
たくさんの機能が追加またはアップデートされたことは言うまでもありません。
ただ、一部仕様変更が加わったところも有り、今回はその中でもPrism Centralのことについてご紹介をしたいと思います。

まず、Prism Centralとは、簡単に言うと複数のNutanixクラスターを統合管理する管理アプライアンスとして登場しました。その後、ただの統合管理という枠を超え、分析やプランニング機能が搭載され、AOS5.5からは、Nutanixのオー消すとレーションツールであるCalmの搭載など、より管理面を強化した管理アプライアンスとしての立ち位置を持っています。

では、このPrism Centralの変更点は何かと言いますと、単純に言うとたくさんあるのですが、ここは、2枚目カレンダーですのでニッチな情報をお伝えしたいと思います。

それは、Prism Centralへの登録は、各NutanixクラスターのPrism Element画面から行うことが出来るのですが、Prism Centralからの登録解除が、Prism Element及びPrism CentralのWebGUIから出来なくなったと言うことです。

AOS

しかし、AOS5.5からは、Prism Centralの登録解除をしようとしても以下の画面が表示され、手順が記載されたドキュメントが案内されるだけになっています。

これは、機能ダウンではなくオペレーションミスによるPrism Centralへの登録解除により、今までのワークロードデーターなどの実績データーや設定データーの消失を防ぐためについたいわば防護機能です。
詳細は、NutanixのKB:4944を参考にしてください。

本番運用においては、この機能がありがたい反面、検証環境等で定期的に環境を作り直す場合においては、GUIでできなくなったところはいささか不便ではありますが、その手順をきちんと押さえておく必要があります。
では、どうやって登録解除をすればよいのでしょうか?

まずは、CVMにSSHで接続します。
その後、ncliにログインします。その際にただのncliではなく、以下のコマンドを利用し、ncliに入ります。

ncliへ入る方法
ncli -h true

次にPrism Centralの登録解除コマンドを実行します。
multicluster remove-from-multicluster external-ip-address-or-svm-ips=PrismCentraのIPまたはFQDN username=admin password=PrismCentralのパスワード force=true

最後にStatusが、trueで帰ってくればOKです。
Status : true

これで、NutanixクラスターのPrism Centralの登録が解除されました。
しかし、これではPrism Central側にメトリックが取得できないNutanixクラスターの状態が残ったままになってしまいます。
そのため、Prism Central側でも登録情報を削除する必要があります。

こちらはまず、Prism CentralにSSHでログインします。
次にncliに入ります。

ncliへ入る方法
ncli -h true

次に、登録されているNutanixクラスターのID情報を取得します。
multicluster get-cluster-state

このコマンドによって、クラスターIDを取得します。
    Cluster Id                : 00054f22-24fc-c164-6145-246e961925b0
    Cluster Name              : AHV-CLST
    Is Multicluster           : false
    Controller VM IP Addre... : [192.168.38.XX, 192.168.38.YY, 192.168.38.ZZ]
    External IP Address       : 192.168.38.A
    Marked for Removal        : false
    Remote Connection Exists  : false
    Cluster Id                : 00054f21-3043-5f5d-0000-000000014005
    Cluster Name              : ESXi-CLST
    Is Multicluster           : false
    Controller VM IP Addre... : [192.168.37.XX, 192.168.37.YY, 192.168.37.ZZ]
    External IP Address       : 192.168.37.A
    Marked for Removal        : false
    Remote Connection Exists  : true

ここで、Prism Centralから登録解除したいNutanixクラスターのCluster IDを取得します。

では次に、登録削除のコマンドを実行します。
multicluster delete-cluster-state cluster-id=削除したいクラスタID

結果でSuccessfulが帰ってくれば作業完了です。
Cluster state deleted successfully

これで、作業は完了です。

作業としてはたいした作業ではありませんが、検証環境としてNutanixを利用している側としては一手間増える作業となっていますので、あらかじめこの手順は押さえておきたい物です。

明日は、毎度たくさんのNutanix情報を日本語で提供していただいている@Networld_NTNXさんです。



2017年12月16日土曜日

Nutanix AHVの紹介 その2 AHVは、オールマイティなの?

この記事はNutanix Advent Calendar 2017/12/16 の記事です

前回は、AHVというハイパーバイザーがきちんとしたエンタープライズな機能を保有していることを紹介しました。
では、世の中で広く使われている一般的なハイパーバイザーと同じようにAHVは、使えるのかというのを、見ていきたいと思います。


対応しているゲストOS

AHVが正式に対応しているゲストOSは、以下の通りです。

サポートゲスト(SCSI/IDE)
Windows 7, 8, 8.1, 10
Windows Server 2008 R2, 2012, 2012 R2,2016
RHEL 6.4, 6.5, 6.6, 7.0, 7.1, 7.2,7.3
CentOS 6.4, 6.5, 6.6, 7.0, 7.1, 7.2,7.3
Ubuntu 12.04.5, 14.04.x, 16.04.x, 16.10, Server, Desktop (32-bit and 64-bit)
FreeBSD 9.3, 10.0, 10.1
SUSE Linux Enterprise Server 11 SP3 / SP4, 12
Oracle Linux 6.x, 7.x
サポートゲスト(PCI/IDE)
RHEL 5.10, 5.11, 6.3
CentOS 5.10, 5.11, 6.3
Ubuntu 12.04

ここ10年ぐらいに発売されたOSであれば、問題なく動作することがここからわかります。
言い換えると、仮想化されて塩漬けされたゲストOS、例えばWindows NT4.0などはどうさせることが出来ません。
ただ、すでにOS提供メーカーがサポートを終了したOSを使うこと自体がリスクであり、本来は新しいOSに移行するべきで有り、メンテナンスを放棄したただの延命という意味での仮想化は正しい使い方ではありません。


AHVホストの上限

AHVにおける制限事項は以下の通りです。


ホストあたりのオンラインVM数128
ホストあたりのオンライン仮想ディスクの数256
コンシステンシーグループごとのVM数(スナップショット利用時)8
同時に編集するVMの数(たとえば、 vm.create / deleteおよびpower操作etc)64

正直、一般的に利用する場合なにも気にすることがない事項だtrお思いマス。
コンシステンシーグループ毎のスナップショットは、Nutanixオリジナルのデーター保護機能であり、この機能を利用して複数の仮想マシンの一貫性のあるバックアップを取得する機能があり、そのグルーピングの上限が8台の仮想マシンと言うことになります。


仮想マシンの上限


VMごとの最大vCPUホストあたりの物理コア数
VMあたりの最大メモリ2TB
VMごとの仮想ディスク数SCSI: 256
PCI: 6
IDE: 4

Nutanixから提供されるドキュメントを読む限り、これ以上の情報を見つけることは出来ませんでした。
では、実際に仮想マシンに12個のNICを割与えた場合、どうなるのでしょうか?
(vSphere仮想マシンの場合、1つの仮想マシンに割り与えられるNIC数は、10個となります)

実際に、Prismの画面から仮想マシンにNICを12個割与えるとことができました。


では、OSから見るとどようになっているでしょうか?
今回はWindows Server 2016で試してみましたが、きちんとNICが12枚認識されています。


実際に12個のNICが必要となるケースはほとんど無いと思いますが、仮想マシンに対して自由な構成が出来ることがわかります。


そのほか

AHVでのそのほかの対応事項も併せて書いておきます。

  • 仮想マシンNICにトランクポート(VLANトランク)での接続が可能
  • vGPU/GPUパススルーの対応
  • CPU仮想化(ネスト)の対応
  • CPU/RAMのホットプラグに対応
vGPUなどは、VDIの用途に最適ですし、CPUの仮想化は、検証環境等で利用する際にも威力を発揮します。



まとめ

今回は、AHVの制限事項を中心に見てきました。
結果、AHVがオールマイティかどうかというと、一般的な仮想マシンの利用において何も困ることはないと言うことが証明できると思います。仮想ハードウェアの制限事項やサポートのゲストOSも、これからNutanixを導入する場合においてなにも気にすることはないと思われます。

明日は、仮想化の魔術師@Wataru Unnoさんです。





2017年12月10日日曜日

Nutanix AHVの紹介 その1 ぶっちゃけAHVって使えるの?

この記事はNutanix Advent Calendar 2017/12/10 の記事です

Nutanixの知名度が上がると同時に、AHVの存在も徐々に知られるようになりってきました。しかし、AHVにおける情報は未だ少ないということもあり、AHVのおいて、懐疑的に思われている方もいます。
今回は、まずAHVの紹介をしていきたいと思います。

その1 AHVは、Nutanixを買えば使える無料のハイパーバイザー

このAHVが無料というキーワードは多く浸透している気がしますが、ただほど高い物はないと考えられる方もいるため、疑いを持っている方も居るかもしれません。
AHVは、KVMをベースとしたハイパーバイザーですが、KVMは世界で多く使われているオープンソースのハイパーバイザーです。
ただ、KVMの機能だけでは、Enterpriseな環境ではどうしても機能として不足する面があります。そこを補う形にしてEnterpriseな企業においても利用できるハイパーバイザーとしてAHVが誕生したのです。


その2 AHVエンタープライズな機能を搭載

AHVは、エンタープライズな機能を搭載していると言っていますが具体的にどのような機能かを含め、紹介したいと思います。
まずは、仮想マシンとしては今までの仮想基盤と同じ、vCPUやRAM等必要なコンポーネントを作成すると言うことは何も変わりません。

(参考)AHVでの仮想マシン作成の画面


エンタープライズな機能とは、まさ、「可用性」の話しです。
まずは、仮想化ホストのダウンに伴う、仮想マシンの共倒れについてです。
これを防ぐための機能として一般的なハイパーバイザーでは「HA (High Availability)」が搭載されています。
Nutanixにももちろん、HA機能が搭載されています。しかも、この機能はデフォルトで有効です。ホストがダウンした場合、自動的に別の稼働中のホストで仮想マシンを再起動する機能は標準で有効です。また、ホストダウンを考慮し、N+1の概念に基づき、1台分のリソースをあらかじめ確保する動きを自動で行う機能も有効化することが出来ます。

(参考)HAによるリソース確保の設定画面


では、特定の仮想マシンが大幅にCPUリソースを消費してしまう、いわばNoisyNaverの対応に関してはどうでしょうか。VMware vSphereの場合は、NoisyNaiverの仮想マシンが居るホストに所属する他の仮想マシンを、あいているESXiホストに自動で動かしてくれる機能「DRS」があります。
Nutanixも同様に、NoisyNaverな仮想マシンを見つけると、同じホストに所属するそのほかの仮想マシンをよそのホストに移動する「ADS」という機能が存在しています。
また、特定の仮想マシンはこのホストだけでしか動作してほしくないと言ったアフィニティルールの設定ももちろん可能です。

(参考)アフィニティルールの設定画面(仮想マシンが稼働可能なホストをマウスで選択)


さて、ハイパーバイザーとしての高機能性はわかりましたが、アプリケーションの冗長構成を行い、OSやマシンレベルではなくサービスレベルでの冗長性を組みたいと要望されるケースもあります。その際に、よく使われるのがWindows Serverの場合、WSFC(Windows Server Failover Cluster)だと思います。
WSFCを構成する場合、SCSIやFCを利用したQuorumディスクを構成し、Active/Stanbyの構成を組みます。これは通常の仮想ディスクの構成では、組むことが出来ないので、VMware vSphereの場合は、RDM(Raw Device Mapping)とよばれる、FC等で接続された共有ディスクを直接仮想マシンに見せる機能を利用していました。
では、これがNutanixの場合どうなるのでしょうか?
Nutanixには、ABS(Acropolis Block Service)といわれる、仮想マシンや物理マシンに対して、iSCSIを利用してディスクを共有ディスクを提供できます。これを利用することで、WSFCの構成も簡単にできます。
また、iSCSIで提供するディスクボリュームもNutanixオリジナル機能である、スナップショット機能でバックアップやレプリケーションも出来ます。

(参考)iSCSIでマウントできるディスクボリュームの作成画面(ABS)

(参考)Oracle Fail Safeも問題なくAHV上で構成可能です。



さて、ここまで見てみると、AHVは、企業のミッションクリティカルな現場で利用するにも十分な機能をもっていることがわかりました。
では、次回以降で、AHVを利用する際の注意点や使いどころをご紹介したいと思います。

明日は、仮想化からそれ以外までの幅広い知識をお持ちのエンジニア @intertoさんです。

2017年12月3日日曜日

Nutanix AHVで、Intel e1000のNICデバイスを利用する方法をご紹介

この記事はNutanix Advent Calendar 2017/12/3 の記事です

今日は、AHVにおける小ネタをご紹介します。

AHVから仮想マシンに提供されるNICは、「Nutanix VirtIO Ethernet Adapter」が提供されます。これは、Windowsの場合、Nutanixから提供されるドライバーを適用しないと利用できません。

▼Windows Server 2016にNGTインストール後のNICの様子


仮想アプライアンス製品や、OSにカスタマイズが出来ない場合、デバイスドライバーを後から入れることが困難なこともありますので、vSphere ESXiの場合、昔から互換性の高い「Intel NIC」の1つである「e1000」の互換デバイスを仮想マシンに提供できます。

実はNutanixのAHVにおいても「e1000」の互換NICを仮想マシンに提供可能です。
今日は、この「e1000」NICの追加方法をお教えします。

この方法は、コマンドでしか出来ません。
まず、任意のCVMにSSHでログインします。
その後、acliに入り、以下のコマンドを入力します。

vm.nic_create 仮想マシン名称 model=e1000 network=ネットワーク名

仮想マシン名称には、Prismで登録した仮想マシン名称を入力します。
ネットワーク名は、Prismで登録したVLAN名称を入力します。

登録が完了すると、「NicReate: complete」と表示されます。
なお、このコマンドは対象の仮想マシンがパワーオン状態でも作業可能です。

そうすると、仮想マシン上ではe1000のNICが認識していることがわかります。
Windows Server 2016の場合、e1000ドライバーはWindows標準で搭載しているので、そのまま認識されます。

Nutanixから、NGTによりNICドライバーは提供されていますので、通常はe1000ドライバーを使うことはまず無いかと思いますが、OSやそのほか互換性の都合でIntel NICを利用為たい場合は、AHVでも対応可能であることは是非知っておいていただきたいです。

明日は、広くて深いスキルをお持ちの@intertoさんです!






2017年12月1日金曜日

Nutanixにかんするウワサを検証その4

この記事はNutanix Advent Calendar 2017 12/1の記事です。

今回は、毎度ながら好評のNutanixでよく聞くウワサの真相を確認する、ウワサシリーズです。
Nutanixを提案していると、競合他社からこういう話を聞いたとか、こんなウワサを聞いたなど、Nutanixに関していろいろなうわさ話を耳にすることがあります。
Nutanixは、2016年に上場しもはや大手企業の仲間入りをしていますが、まだNutanixという会社の知名度は低いところが有り、怪しい会社の怪しい製品と時に勘違いされることがあります。
今日は、その噂の真相第4回目となります。

ウワサ1
Nutanixのストレージは、シック(Thic)プロビジョニングの仮想ディスクが作成できないので、Disk I/Oパフォーマンスが悪い

真相
ウソ

これは、誤解が無いように説明をしておきたいのですが、NutanixとAHVにおいては、シックディスクを作成することはできません。基本シンプロビジョニングとなります。
vSphereの場合は、VAAIドライバーが組み込まれているため、シックディスクの構成が可能です。
ココで問題なのは、シックかシンかで、パフォーマンスが異なるかと言うことです。
Nutanixは、階層型のストレージであることから、上手にキャッシュを利用することと、SSDのハイパフォーマンスを利用して、高速I/Oを提供します。
一部のデーターベースソフトウェアでは、シックディスクでないとパフォーマンスが出ないと思われている方がいますが、これは、まだHDDでしかストレージが構成出来なかった時代の話しです。Nutanix+AHVでもNutanix+vSphereで、シンディスクを利用しても、Nutanixの高速I/Oを体感できることに変わりがありません。

ウワサ2
Nutanixは、オープンソースソフトウェアを多用しており、信頼性に欠ける

真相
ウソ

残念ながら、OSSという文化を否定すると、世の中で稼働しているたくさんのシステムそのものを信用できないと言っていることになります。
例えば、SSHの世界ではOpenSSH、SSLの世界ではOpenSSL、もっといえば、世の中に様々な機器はLinuxというOSSの代表格のようなOSに支えられています。
GoogleやFacebookも、OSSを多用して大量のアクセスをさばける分散システムを構築しています。
OSSは、フリーウェアーや個人が作成した物ではなく、世界中のスゴイ技術者達が知恵を持ち寄って作っている物で有り、バグの報告やFixや機能追加も積極的に行われています。OSSで高い信頼性があるものが提供されているのに、同じことができるソフトウェアをわざわざ自社で開発しその開発コストを製品に転嫁する形は無駄で有り、ユーザーの求める物ではありません。
OSSは、信頼性がないというのは、ただの印象操作の話しです。



ウワサ3
Nutanixは分散ストレージのため1本のディスクが故障するとリビルドに長時間がかかる。

真相
ウソ

これは残念ながら完全なウソです。なぜならNutanixには、RAIDの概念がありませんので、そもそもリビルドは発生しません。
Nutanixは、1本のでぃすくが故障した場合、故障したディスクに入っていたデーターは当然冗長化を失いますが、ディスク故障を検知した瞬間、その他のディスクに分散されて配置されたデーターを瞬時に別のノードにコピーします。
リビルドはRAIDグループの全てのディスクに対してリビルド処理が走るため、負荷がかかりますが、Nutanixは、失われたデーターブロックだけをコピーして終わりですので、1本のディスクが壊れても、数十分の単位で修復が終わります。



ウワサ4
Nutanixは、小さい会社なのでどこかに買収される可能性がある

真相
小さい会社というのは、もはやウソと言っていいでしょう。
買収は状況によりわかりませんが、現状その可能性はまずないでしょう。

そもそも、小さい会社ではないということは、
これは、投資家やそのほか経営的な問題ですので、絶対という話はありません。
ただ、Nutanixはすでに上場企業であり、その行方はわかりませんが、まず経営者の戦略的に売却をしたり、競合から金を積まれて買収されると言ったことはないでしょう。
ストレージの王者であるEMCでさえも、Dellに買収される時代ですので、企業の行方はわかりませんが、Nutanixは、元気な上場企業ですので、このタイミングでの買収は考えられないでしょう。



ウワサ5
Nutanixは、ハード保守会社を選べないので自由がきかない

真相
ウソ

Nutanix単体で見たときは、Nutanix純正の場合、保守は全てNutanixになります。
IBMのAS400などすでにIBM製品をコアで利用されているユーザーの場合、IBM保守の高い品質を好まれ、IBM保守を指定で希望ケースに出会うことがあります。
Nutanixの場合、IBM PowerのモデルのNutanixは、IBM自身が販売しているモデルになるため、IBM保守を受けることが出来ます。
また、Intel CPUを希望される場合、Dell XCを利用すると、IBM保守を利用できるオプションが存在しています。
保守も、ハードウェアも自由に選べるのが、Nutanixの「選択の自由」なのです。

今回も5つのウワサに言及しました。
端的に答えられない話もありますが、技術的な話しや機能的な話しでは、まだまだデマが流れていることがあります。
Nutanixに対する正しい情報を入手し、正しく判断をしていくことが大事です。

明日は、私と最も近い(場所?関係?)、@mmorishiさんです!



2017年10月10日火曜日

Nutanix X-Rayの紹介と活用法 その3

では、早速X-Rayを実際にデプロイしたいと思いますが、その前に必要な環境をまずは押さえておきましょう。

X-Rayは、仮想アプライアンスで提供されます。
中のOSは、CentOS6.6がベースになっています。
X-Rayを利用するためには、仮想マシンが稼働する環境を用意しなければなりません。X-Rayは、qcow2とovaの2つが提供されています。そのため、AHVでも動作しますし、ESXiでも動作します。
また、VMware WorkstationやFusionなどPCで仮想マシンを稼働させる環境でも動作させることができます。つまりX-RayはNutanix上でない環境でも動作させることができます。

X-Ray稼働環境
  • ESXi5.5~
  • AHV
  • VMware Workstation / Player / Fusion
  • KVM


次に検証できる環境を確認していきましょう。
X-Rayは、Nutanixの環境をテストできることは当たり前ですが、Nutanix以外にESXiで構成された仮想化基盤もテストすることができます。

X-Rayがテストできる環境
  • Nutanix
    • AHV
    • ESXi
  • 非Nutanix
    • ESXi(vCenterが存在すること)




次にX-Rayを稼働させるネットワーク環境です。
X-RayのVAは、NIC2枚挿しの構成になっています。
eth0は、vCenter Serverなどの管理サーバーとの接続できるネットワークにeth1は、DHCPの存在させないネットワーク環境を接続し、そこに検証用の仮想マシンを大量展開し、X-RayのVAと通信します。(IPは、169.254~のIPアドレスを利用します)
そのため、テスト行うNutanixやESXi環境にあらかじめテスト用にVLANを作成しておく必要があります。

▼X-Rayを利用する際のネットワーク構成

また、X-Rayは、インターネットに接続できる環境が必要です。
そのため、インターネットの環境は事前に準備をしておきましょう。


ここまでわかったら、早速X-Rayのバイナリを入手しましょう。
X-Rayのバイナリを取得するには、まずMyNutanixのアカウントを作成する必要があります。

MyNutanix
https://my.nutanix.com/

こちらのアカウントをお持ちでない方は、まずログイン下の「+Create account」からアカウントを作成しましょう。

実際のX-Rayのバイナリは、Nutanix Communityの中にあります。
https://next.nutanix.com/t5/Nutanix-X-Ray/Download-Nutanix-X-Ray-and-Docs/m-p/21754#M6


イメージが、qcow2とOVAの2つがありますので、必要なものをダウンロードしましょう。容量は1.5GB程度ありますのでダウンロードには結構な時間がかかります。

次回は、実際にインポートして動作することろまでもっていきましょう。







2017年10月9日月曜日

Nutanix X-Rayの紹介と活用法 その2

前回はX-Rayができた背景を紹介しました。
では、X-Rayのメリットをご紹介します。

その1
X-Rayは、無料
X-Rayは、無料で提供されています。
Nutanix Communityからダウンロードできますので、だれでも試すことができます。
提供バイナリは、qcow2か、ovfで提供されていますので、仮想マシンが動作する環境があればそれだけで大丈夫です。


その2
X-Rayは、GUIで使いやすい
X-Rayは、GUIで操作できます。
また、従来のテストツールではわかりにくかった、時間軸をもとにした表示をしてくれますので、キャッシュありきの現代ストレージであってもどのタイミングでキャッシュが枯渇して動作が変わったかなどを見ることも可能です。

▼X-RayのGUI画面(サンプルで入っているパフォーマンス画面)


その3
X-Rayは、テストケースが実体のワークロードにかなり近い
X-Rayは、従来のIOパフォーマンス測定ツールと違い、特殊なパラメーターを入れるわけではなく、実体のワークロードの種類があらかじめ設定されており、そこから測定したいワークロードを選ぶだけです。難しいパラメーターをいろいろと設定することもありません。また、HCIという観点に基づいたテストツールのため、ノードを1台ダウンさせた際のパフォーマンス測定を行うシナリオなどもあります。
シナリオは以下のようなしなりが用意されています。

シナリオの種類
Database Colocation
Snapshot Impact
Rolling Upgrade
HCI Workflow
OLTP Simulator
Four CornersMicrobenchmark
Sequential Node Failure
VDI Simulator
Extended Node Failure


その4
X-Rayは、偏りがない
X-RayはNutanixが作ったものなので、Nutanixに有利なように作られているんでしょ?って思われるのは普通だと思います。
しかし、その答えはNOです。
X-Rayは、オープンソースのfio(エフアイオー)を採用しています。
fioは、オープンソースでgithubに公開されていますので、もしfioの動作が偏っていると思われるのであれば、ぜひソースコードを読んでいただければと思います。


無料で、ワークロードは現実的、GUIで使いやすくて、特定のメーカーに偏りがいのであれば、これは使うしかないですね!

次回からは、構成と導入について紹介したいと思います。




2017年10月8日日曜日

Nutanixにかんするウワサを検証その3

Nutanixを拡販していると、こんなウワサ話を聞いたけどホントですか?などの聞かれることがしばしばあります。
これは、Nutanixの情報がまだまだ少ないことも影響しているようですが、正しくない情報がそのまま流れ続けることは、フェアではないと思います。
今回は、Nutanixに対するウワサの第3弾と記載します。


ウワサ1
Nutanixは、台湾メーカーの製品で故障しやすい。

真相
ウソ

これは、前回のウワサ2でも書きましたが、壊れるか壊れにくいかは、個人の判断によるところもでありますので、何とも言いにくいところがありますが、この噂の中で明確な嘘が1点入っています。
それは、「台湾メーカー」という表現です。
Nutanix純正のNXシリーズは、スーパーマイクロ製のハードウェアを利用しています。
スーパーマイクロは"アメリカ"の会社です。

(参考)スーパーマイクロの紹介(wikipedia)
https://ja.wikipedia.org/wiki/Supermicro

スーパーマイクロは、Nutanix以外でも様々なメーカーにOEM/ODMでハードを提供したり、レンタルサーバー事業者など大量のサーバーを必要とする会社で多く使われている大変実績のあるハードウェアであることをまずは理解しておく必要があります。


ウワサ2
Nutanixは、SSDに相当な負荷をかけているのでSSDが短時間で故障する

真相
ウソ

これもまたウソな話ですね。
そもそもHCI製品はどこのハードウェアもSSDの高速なパフォーマンスとHDDの容量コストをうまく使っています。そのため、どのハードウェアにおいてもSSDをフル活用するのは間違いありません。
ここで出てくるのは、Nutanixが採用しているSSDは、耐久性の高いSLCのモデルを採用しています。そのため、壊れにくいパーツを採用していることはきちんと押さえておく必要があります。
一般的に考えても、SSDよりもHDDのほうが壊れやすいことは容易に想像できます。


ウワサ3
Nutanixは、内部構造が複雑で障害が発生すると復旧まで時間を要する

真相
ウソ

Nutanixはソフトウェアですので、ソフトウェア内部プロセスとしては様々なプロセスが動作していることは事実です。
しかし、これらのプロセスに動作異常が発生した場合、Prism側できちんと何が悪いかのエラーがきちんと表示されます。
Nutanixには、優秀な保守エンジニアがそろっていることは前回のウワサ2で紹介した通りです。
従来のサーバー故障の感覚から行くと、サーバー機の不調があった場合、まずサポートセンターに電話をしてコールセンターの方に症状を伝えて、とりあえず保守員に現地に来てもらうという対応をしていただいたこともあります。
保守員は、あーでもないこうでーもないと電話でサポートエンジニアと会話しながら切り分けをするケースはよく見る光景です。
一方で、Nutanixは、ハードウェアは、極限までシンプルにしていますので、まずハードの故障は保守員が直行してあーでもないこーでもないといった切り分けをする必要が全く必要ありません。では、ソフトウェア面での切り分けはというと、NCC(Nutanix Cluster Check)といわれるNutanixを全体にわたってチェックする総合ツールがあります。これは、単純に言えばshow tech-supportみたいなもので、全体の情報をチェックしてクラスター全体の情報を収集します、これを見ることで原因個所をすぐに突き止めることができます。また、Nutanixには、WebEXを使ったリモートサポートがありますので、電話して保守員が来るまでの時間を待つよりも、障害があればすぐに、Nutanixのサポートエンジニアが直接そのNutanixクラスターを遠隔で操作し調査をしますので、従来よりもより高速かつ適切に、短時間で問題を解決できます。


ウワサ4
Nutanixは、ハードウェアとソフトウェアで保守がわかれる

真相
一部ホント、一部ウソ

まず、Nutanix純正を購入し、AHVを利用した場合、このウワサは明確にウソになります。それは、NutanixのハードウェアもAHVもNutanix自身がサポートをしてくれるからです。
では、Nutanix純正を購入し、ESXiを利用した場合どうなるかというと、Nutanixに関するソフトウェア・ハードウェアはNutanixが保守を行い、ESXiの問題はVMwareが保守を行うことになります。
じゃあ、保守は2つの窓口に分かれることになるのですね?と聞かれれば、答えはYesです。保守窓口が2つに分かれると、どちらに聞いてよいのかわからないということと、双方で回答が異なるなどが、不安要素になるかと思います。
そこでNutanixは、Nutanix上で稼働しているもので、Nutanixがハイパーバイザーかの切り分けができない場合は、"Nutanixにまず問い合わせてください"というポリシーがあります。Nutanix側で切り分けとどちらが悪いかの判断、明確にハイパーバイザー側の問題であれば、ハイパーバイザーメーカーへの問い合わせ方法について指南してくれます。
どうしても保守窓口は一本化したいという希望がある場合は、DellEMCのXCシリーズ、Lenovo社のHXシリーズを利用することで、ハイパーバイザーとハードウェア、さらにNutanixの内容までを一括で保守受けしてもらえますので、このような心配は、必要なくなります。


ウワサ5
Nutanixの、重複排除・圧縮機能は使い物にならない

真相
ウソ

これも何が根拠で出てきているのかが全く謎です。
まず、重複排除機能ですが、Nutanixのキャッシュエリアに相当する部分の重複排除機能であるインライン重複排除機能と実際の保存領域の重複排除を行うポストプロセス圧縮の2つがあります。ポストプロセス重複排除機能があります。
この2段階のプロセスを経て、負荷をかけずに重複したデーターをきちんと排除し、容量の削減に寄与します。
重複排除による、重複データー分の要領削減はもちろん行われます。
圧縮機能も、インライン圧縮と、ポストプロセス圧縮の2つの圧縮機能があり、2段階での圧縮を行い高い圧縮率でデーターを保存していきます。
重複排除や圧縮機能は、ストレージコンテナ(Datastore)単位で行うことが可能ですので、複数のストレージコンテナを作成し、用途に合わせて利用することも可能です。

Nutanixは、圧縮機能を利用することを強く推奨しています。
これは、重複排除は保存されるデーターによりどれぐらいの容量が節約できるのかが異なり、サイジングしづらいという問題があります。一方で圧縮は、非圧縮ファイルであれば一定の圧縮がかけられるのは明確で、重複排除に比べてサイジングしやすいというメリットがあります。そのため、圧縮機能を積極的に利用することを推奨していますし、合わせて重複排除機能を利用してさらに容量の削減を行うことは、Nutanixでも普通にできることであり、利用してなにも問題はありません。

▼重複排除・圧縮の設定



さて今回も5つのウワサを紹介しました。
Nutanixは、知名度が上がっていく一方でまだまだ、一般的に情報がいきわたっていない側面もあり、正しくない情報が出回ることもありますが、是非正しい情報に触れていただきたいと思います。




Nutanix X-Rayの紹介と活用法 その1

今回から数回にわたって、Nutanixから提供されているX-Rayについてお話をしていきます。

まず、Nutanix X-Rayはなにかというと、端的な回答をすると「ベンチマークソフト」ということになります。

なぜ、Nutanixがベンチマークソフトウェアを今更出すのかと思われる方もいるかもしれませんが、それには事情があります。

理由その1
キャッシュありき時代のストレージパフォーマンスは測りづらい
ストレージのパフォーマンスは、従来ディスクの本数でIOPSを稼ぐといった手法で速度を上げていました。この時のパフォーマンスを図る際によく利用されていたのがIOMatereでした。
IOMaterは、ディスクパフォーマンスを様々なパラメーター値をもとに計測するとても便利なツールです。しかし、キャッシュなき時代の考え方ですので、キャッシュが効いていると本来のパフォーマンスかどうかが判断できなくなります。

理由その2
実態のワークロードと異なるテストは意味がない
IOMaterは、ランダムライトやシーケンシャルリードなど、様々なIOをシミュレートした動作をしてくれますが、DBでの利用とVDIでの利用では、IOの種類はばらばらであり、ストレージのキャッシュの使われ方も異なります。
キャッシュありきのストレージ時代に、一方的なシナリオだけでパフォーマンスを図っても、それが実体のワークロードと異なっていればそのパフォーマンス値は意味がない元となります。

理由その3
IOテストツールは難しい
IOMaterは、GUIが提供されているので、まだわかりやすいほうですが、世の中で提供されているIOテストツールはCUIしか提供されていないものも多くあります。
また、複雑なパラメーターをもとに、実態のワークロードに近いIOをシミュレートさせようとしますが、そのパラメーターの設定は、経験値がないと設定は難しく、まさにストレージ屋さんの勘と経験が必要になってきます。

この3つの理由から、もっと実態に即したパフォーマンス値を手軽に検証することができないかということから出てきたのが、X-Rayとなります。

次回はX-Rayのメリットを紹介します。



2017年9月27日水曜日

Nutanixって大丈夫なの?Nutanixの事例を紹介

Nutanixは、ハイパーコンバージドインフラストラクチャーという、仮想化にとって最もシンプルで効率のよい、仮想化を最大限に使いやすくするインフラ基盤として誕生しました。
会社は2009年に生まれた会社で、日本でも知名度はだいぶ伸びてきましたが、 まだまだ変な会社とか、マンション経営の会社じゃないのとか、Nutanixという会社を知らない人にとっては、怪しいイメージを持っている人も居るかもしれません。

今日は、Nutanixの導入されている企業を紹介したいと思います。
この導入企業は、Nutanixサイトで公開されています。

まず、公共分野では、
があげられます。
どこも人口の多い都市であることは、見てすぐわかります。
こういった役所の重要な基盤は、Nutanixで稼働しています。
また、事例では公開されていませんが、日本中のかなり多くの市町村や府県でもNutanixの導入が進んでいます。

では次に医療分野を見てみましょう
がメーカー事例としてあげられています。
実は医療分野でもNutanixの導入はかなり進んでいるのですが、まだ出せる事例が少ないというのはあります。ただ、医療分野では電カル導入に伴うVDI導入も盛んですので、事例はどんどん増えるでしょう。


では次に金融を見てみましょう。
医療や金融はシステムの堅牢性や安定動作にかなり厳しい要求をしてきます。
ここで注目は、日本の株式を仕切る、東京証券取引所に導入されているということです。

これは、NutanixのWebスケールな分散の仕組みはこのような大規模でも威力を発揮すると言うことの表れです。言い換えれば、東証で動かせる高度な仕組みをNutanix3ノードで小さな企業でもその俊敏性と利便性が享受されるのは凄いことだと思います。

Nutanixにおいて重要なことは、できたてのスタートアップの企業が社内基盤に最小限のNutanixを導入して、その企業がどんどん成長して、東証に上場したとしても、ずっとNutanixを使い続けることができるのです。企業の成長に合わせてシステムを見直したり、リプレースする必要はありません。Nutanixは会社の成長に合わせて拡張ができます。ずっとその企業とつきあうことのできる基盤であることを是非知っておいてほしいです。

大企業のためNutanixでもなく、中小零細企業のためのNutanixでもなく、どんな企業にもフィットする仮想化基盤がNutanixなのです。

Nutanixの事例はこちらから参照することができます。





2017年9月26日火曜日

AFS(Acropolis File Service)を使ってみよう その6

Acroplis File Service(AFS)が、ファイルサーバーんの機能として十分な機能を持っているということと、必要に応じてむ停止で容量の拡張ができる点や、OneClickUpgradeによる無停止の機能拡張ができるというメリットは、今までの検証でよくわかってきました。

今回は機能ではなく、メンテナンス時のAFSの起動と終了方法について抑えていきたいと思います。

AFSは、無停止でソフトウェアアップグレード(OneClick Upgrade)ができる点や、容量拡張も無停止でできる側面から、AFSを止めてメンテナンスをするということは、まずないといえるでしょう。

ただ、社内の電源設備点検や、移設作業など、なんらかの理由によってNutanixクラスターを停止させる場合、あらかじめAFSのサービスを安全に停止した上で、Nutanixクラスターの停止を行う必要があります。

AFSのシャットダウンは簡単です。

  1. 任意のCVMにSSHでログインします。
  2. 「minerva -a stop」コマンドを入力します
  3. 自動的にAFSのサービスが終了し、AFSのFSVMがシャットダウンされ、パワーオフ状態になります。

以上で終了です。

とても簡単で、かつ、各FSVMをすべてシャットダウンしてくれるのは大変便利です。
シャットダウンはFSVMの数により異なりますが、今回の検証環境では、3台のFSVMで、だいたい3分程度でシャットダウンがで完了しました。

では、起動はというとこちらも簡単で以下の手順で行います。

  1. 任意のCVMにSSHでログインする
  2. 「minerva -a start」 
  3. 自動的にFSVMが起動し、AFSサービスが起動する
こちらもコマンド1つ投げて、あとは待つばかりです。
こちらの起動も3台のFSVM環境で、約1分程度で起動が完了しました。
もちろん、起動完了後は、\\afs01で普通にアクセス可能となります。

▼menrva -a startコマンド実行後、3分程度でファイルサーバーにアクセス可能




シャットダウンコマンドと起動コマンドは、CVMから発行することと、コマンド自体(minerva)も忘れずに覚えておきましょう。


起動コマンド
nutanix@NTNX-HVXXXX-A-CVM:192.168.XX.XX:~$ minerva -a stop

シャットダウンコマンド
nutanix@NTNX-HVXXXX-A-CVM:192.168.XX.XX:~$ minerva -a start


これで、急なメンテナンスや停電によるUPSシャットダウンにも安心して対応が可能です。






2017年9月25日月曜日

AFS(Acropolis File Service)を使ってみよう その5

AFSがファイルサーバーとして実装されている一通りの機能を見てきました。
ファイルサーバーを運用するにあったて課題事項になるのが、ユーザー側の操作ミスによるファイルの誤った上書きや削除なのです。

この場合、管理者にお願いをしてファイルをリストアしてもらう必要が出てきますが、利用するユーザーが多いとこれもまたシステム管理者の負荷を上げてしまうことになります。

そこで利用するのが、Self Service Restore(SSR)機能です。

前回の項で、「DivisionShare」フォルダは、SSRを有効にしましたので、この内容は一応おさらいとしましょう。

▼SSRの有効を確認

では、実際にSSR機能を使ったファイルリストアを行ってみたいと思います。

今回は「shizuka」アカウントで、大事な焼き芋データーベースである「imo.mdb」を誤って削除したという想定で行います。

まずは、「静香の焼き芋データーベース」フォルダを右クリックし、「プロパティ」を開きます。

▼リストアしたファイルが配置されるディレクトリのプロパティを開く

プロパティウィンドウから、「以前のバージョン」を開きます。
すると、AFSで定期的にバックアップがとられている履歴のディレクトリが表示されます。



開いたディレクトリは、そのバックアップが取得された時点のファイルが表示されますのでその ファイルを本来のAFSのディレクトリにコピーを取ればリストアは完了です。

▼ファイルの復元で表示されたファイルと実際のAFS01のディレクトリ


さて、このバックアップはいったいどのようにだれがとっているのでしょうか?

これは、AFS展開時に自動的にDataProtectionの設定が行われています。
PrismのFileServer画面から、「Protect」メニューをクリックします。



Protect画面を確認すると、1時間に1回が24世代、1日に1回が7世代といった方のジョブが自動的に生成されています。



このジョブによって、自動的にファイルが守られており、必要に応じてファイルの復元で戻すことができるということです。

スケジュールや世代数は、変更がこの画面から可能ですので、自分で好きな世代数にすることも可能です。

ここまで、ファイルサーバーの構築から運用までを見てきましたが、AFSにはファイルサーバーとして必要十分な機能が搭載されていることがわかりました。







2017年9月24日日曜日

AFS(Acropolis File Service)を使ってみよう その4

前回までに、共有フォルダに対してより細かい権限設定ができることがわかりました。
しかし、ユーザー権限を付与するごとに共有フォルダを作成すると、共有フォルダだらけになり、一般的によく起きゆるファイルサーバーの無法地帯化の一歩に近づいてしまっている気がします。

そのため、共有フォルダを1つ作成しその中のサブフォルダで細かい権限を設定し、共有フォルダの数を減らしつつ、セキュアな環境を作成したいと思います。

まず、Prism画面で、前回までに作成したDivisionShareの設定変更を行います。
FileServerの項で、「DivisionShare」選択し、Updateをクリックします。



オプションとして、「Enable Access Based Enumeration(ABE)」と「Self Service Restore」にチェックを入れ、Saveをクリックします。

では、この状態で2つのフォルダを作成し、権限付与をしたいと思います。

「\\afs01\DivisionShare」の配下に以下のフォルダを作成します。

「のび太の100点テストPDF」フォルダ
こちらは、権限設定で管理者とのび太くんのみが見えるように設定します。

ここで必要になることは、このフォルダはDivisionShareの配下にあるフォルダのため、前フォルダの権限情報を継承しています。

そのため、DivisionShareフォルダは以下に、管理者権限でWindowsPCから、フォルダ「のび太の100点テストPDF」を作成し、プロパティを開きます。
セキュリティタブから「詳細設定ボタン」をクリックします。

このフォルダは、その権限を継承しないため、継承の無効化をクリックします。

その後許可ユーザーを制限し、OKをクリックし反映させます。

同様の要領で、 「静香の焼き芋データーベース」も作成し、静香ちゃんとシステム管理者だけがアクセスできる権限を付与します。

▼管理者から見た「\\afs01\DivisionShare」を確認しておきましょう。



では、実際にクライアントからアクセスしてみましょう。
まずは、suneoアカウントでログインをし、「\\afs01\divisionshare」配下を見てみます。

▼suneoアカウントから見た「\\afs01\divisionshare」配下

▼nobitaアカウントから見てみましょう。

のび太くんからは、静香ちゃんの焼き芋データーベースフォルダは表示されていません。

では、shizukaアカウントから見てみましょう。



このように、共有フォルダ配下にフォルダを作成し、個別の権限を設定した場合、Enable Access Based Enumeration(ABE)機能が有効になり、必要のないフォルダが表示から除外されます。

では、Prism上から「DivisionShare」のABE機能をオフにしてみましょう。


それで、もう一度shizukaユーザーから、「\\afs01\DivisionShare」を見てみましょう。
すると、先ほどと異なりすべてのフォルダが見えることがわかります。
ここでは、静香ちゃんがアクセス許可されていない、「のび太の100点テストPDF」フォルダを開いてみましょう。

▼shizukaユーザーからアクセス権限のないフォルダをアクセスしたところ

ABEをオフにするとすべてのフォルダが見えてしまいますので、セキュアな環境を作成するという観点から考えると、ABEの機能は有効にしておいたほうがメリットがあるように思います。

また、従来のSamba2.xのように、サブフォルダに別の権限が付与できないといったこともありませんし、ABEを利用することで、従来の単体のWindowsサーバーでは難しかったフォルダを必要に応じて隠すこともできます。

ファイルサーバーとして利用するには必要十分な機能が実装されていることが今回わかりました。
次回は、ファイルリストアの機能を確認してみたいと思います。











2017年9月23日土曜日

AFS(Acropolis File Service)を使ってみよう その3

前回はQuotaに対する動作を確認しました。
では、次に権限設定を確認してみましょう。

今回は、DivisionShareという共有ディレクトリを作成し、以下のような権限を設定したいともいます。


氏名ユーザー名権限設定
源 静香shizukaアクセス読書可能
野比 のび太nobitaアクセス読書可能
骨川 スネ夫suneoアクセス読書可能
出木杉 英才dekisugiアクセス読取可能
剛田 武takeshiアクセス不可
※アカウントがみんな名前なのに出木杉君だけ、苗字なのはご愛嬌ということで...。

▼DivisionShareディレクトリの設定


では、次に共有フォルダ地震に対する権限設定を行います。

これは、Prism画面からではできません。
管理者権限(Administrator)権限でログインしたWindowsPCにログインし、コンピューターの管理を開きます。(画面はWindows10 x64 1703にて作業を行います)

まずは、PCで、コンピューターの管理を開きます。



コンピューターの管理を開くと、「別のコンピューターへ接続」をクリックします。

接続するサーバーはafs01になりますので、「\\afs01」と入力し、OKをクリックします。


接続が完了したら、コンピューターの管理(AFS01)となっていることを確認します。
続いて、システムツールのツリーを開きます。
AFSは純粋はWindowsサーバー派ではないため、COM+とリモートイベントの取得に失敗した旨のメッセージが表示されますが、OKをクリックし継続します。


続いて共有フォルダツリーを開き、「共有フォルダ」から「共有」を開き、AFSで作成した「DivisionShare」フォルダを右クリックし、プロパティを開きます。

続いてアクセス権を確認します。

デフォルトでは、Everyoneになっています。
そのため、共有フォルダを作成したら、だれでもフルコントロールでアクセスできるというのがわかりました。これはセキュリティ的にもよくありませんので、最初に定義をしたユーザーのアクセス権の追加を行い、剛田武だけを権限を入れない形で設定をします。
なお、ユーザーのみに権限を与えると、Administrators権限ユーザーが管理できなくなってしまいますので、AdministratorsとAdministratorもフルコントロールを入れておくことも忘れずに行います。

▼出木杉くんは読み取り専用

▼のび太はフルコントロール





設定が終わるとこれでOKをクリックします。

さて、Windowsクライアントから実際のアクセスを試してみたいと思います。

まずは、権限が付与されていない剛田武のアカウントで\\afs01を開いてみたいと思います。
共有フォルダである「DivisionShare」が表示されていることがわかります。
このディレクトリをダブルクリックすると、アカウント情報の入力が求められます。
この操作しているPCは、AFS01も参加している「toriten.oita」ドメインに参加しており、takeshiカウアントでログインしているので、AD認証情報は持っているはずなのですが、それでも認証情報を聞いてくるというのがポイントです。
OSログインのユーザーでは、このフォルダにアクセスができないことがわかります。

▼takeshiアカウントでは、DivisionShareディレクトリを開こうとしてもアカウント情報を求められる

では、一方でのび太アカウントでも確認をしてみましょう。


のび太はファイルの作成やディレクトリの作成もすんなりできていることがわかります。
これで、権限設定が正しく割り当たっていることがわかりました。

では、最後に読み取り専用の出木杉くんアカウントで見てみましょう。
ディレクトリの閲覧やファイルのオープンも可能ですが、出木杉君自身がファイルを作成しようとすると、アクセス権が拒否されたとの画面が表示されました。
これも想定通りですね。
のび太君が作成したファイルに上書きをしようとするもこれも拒否されました。


明確に、出木杉君は読み取り専用アクセスがついていることがわかります。

これで、ユーザー権限が正しく反映されていることがわかりました。
次回は、より深い権限についてみていきたいと思います。








2017年9月22日金曜日

AFS(Acropolis File Service)を使ってみよう その2

前回までにQuotaの細かい設定を確認しました。
では、具体的に細かな設定を入れてみて動作を試したいと思います。

共有名:AllShare
MAS SHARE SIZE(全体サイズ制限):20GiB




の状態で設定を行います。

次に、ユーザー別のQuota設定を行います。
Quotaには、以下のような設定を施します。

nobita@toriten.oita -> 10GiBの容量制限 / SoftLimit
suneo@toriten.oita -> 1GiBの容量制限 / HardLimit

また、通知用のメールアドレスも設定をしておきたいと思います。

▼suneoに対する制限の画面



ユーザーごとに設定したQuota設定状態は、Prismの画面から確認可能ですし、そこから編集が可能です。


では、nobitaユーザーから、CentOS7.3と7.4の2つのISOファイルをコピーしてどうなるかを確認してみましょう。



nobitaユーザーはソフトリミットの5TiBでしたので、今回合計で8.29GB程度のファイルでしたが、問題なくコピーができました。
一方ソフトリミットとはいえ、ポリシーを違反したコピーが行われていますので、管理者には以下のような形でアラートのメールが届いています。


一歩で、ユーザー、suneoは、ファイルコピーが1GiBで制限されるかを確認してみましょう。
suneoは、Redhat Enterprise Linux 7.4のISO(3.78GB)をコピーしてみましょう。


ちなみにsuneoの場合、いきなり容量超過したファイルをコピーしようとしてファイルサーバー(AFS)から拒否されているので、この場合、通知のメールは管理者には送られません。

これで、ユーザーごとにQuotaの動作が正常に行われていることがわかります。


次回はアクセス権限とABEについて紹介をしたいと思います。