[prev in list] [next in list] [prev in thread] [next in thread] 

List:       linux-ha-jp
Subject:    Re: [Linux-ha-jp] =?utf-8?b?bisx5qeL5oiQ44Gn44K544OX44Oq44OD44OI44OW?=
From:       renayama19661014 () ybb ! ne ! jp
Date:       2012-01-18 4:26:00
Message-ID: 583188.40911.qm () web200013 ! mail ! kks ! yahoo ! co ! jp
[Download RAW message or body]

和田さん

こんにちは、山内です。

また何かありましたら、MLに投稿してください。

では、検証がんばってください。

以上です。

--- On Wed, 2012/1/18, 和田 伸一朗 <wada.shinichiro@jp.fujitsu.com> wrote:

> 山内さん
> 
> こんにちは。
> 和田です。
> 
> いろいろと丁寧なご説明ありがとうございました。
> 
> おかげでもやもやしていたところもだいぶすっきりしました。
> ご教示いただいた内容をもとに検証を進めていきたいと思います。
> 
> ありがとうございました。
> 
> > 和田さん
> > 
> > こんにちは。山内です。
> > 
> > > 丁寧なご説明ありがとうございました。
> > > 
> > > > 1. stonith-helper ....stonithを実行する必要があるかどうかをチェック
> > > > 2. ssh...実際にstonithを実行する(実機によっては、ibmrsa-telnetやriloe,ipmi)
> > > > 3. meatware ...最終的にstonithに失敗した場合の保守者の介在を促す
> > > 
> > > この方法で、リブートできることまで確認ができました。
> > > ただ、リソースを登録したときに、
> > > 
> > > crm_verify[14385]: 2012/01/18_11:25:42 WARN: unpack_nodes: Blind faith: not \
> > > fencing unseen nodes 
> > > というようなメッセージが表示されました。
> > > 
> > > http://linux-ha.sourceforge.jp/wp/archives/1809/3
> > > には「STONITHを設定していない場合(stonith-enabled=”false”)、上記のエラーが出力されますが
> > > 今回は無視してください。」とあります。
> > > stonith-enabled="true"は設定しています。
> > > 
> > > 特に問題ないメッセージなのでしょうか?
> > > それとも設定に不足があるのでしょうか。。。?
> > 
> > 正確には、[STONITH]を設定していない場合ではなくて、startup-fencing=falseの場合にここの警告メッセージが出力されます。
> > ですが、問題はありませんので無視していただいて結構です。
> > 
> > > また、サーバがSTONITHによってリブートされた後、リブートされたサーバで動作していた
> > > STONITHの設定が、(当たり前ですが)ほかのサーバに移動しました。
> > > これを元に戻すには手動で移動するようになるのでしょうか?
> > 
> > はい。手動でリブートした(復帰した)ノードにSTONITHのグループリソースは戻す必要があります。
> > もし、cloneでSTONITHリソースグループをお使いになられるのでしたら、当然、戻す必要はありませんが。。。。
> > 
> > > 
> > > > start,monitorに関しては、restartで良いと思います。
> > > > 
> > > > また、stopに関しては、diskd,pingd以外はfenceで良いと思います。
> > > > #追加したstonithリソースによって、stopに失敗するとfencing動作が入ります。
> > > > diskd,pingdに関しては、ignoreで良いと思います。
> > > 
> > > ACT/SBYの構成で確認した際に、restartに設定したgroup内に複数のリソースがあった場合、
> > > group内の最後のリソース以外に異常が発生した場合、うまく切り替わらなかったため
> > > standbyに設定していました。
> > > 今回、いろいろとやり取りをさせていただいて、stop の on-fail が "block" になって
> > > いたからではないかと推測しています。
> > > STONITHの設定も含めて、ご指摘頂いた方向で見直したいと思います。
> > 
> > よろしく御願いします。
> > 
> > 
> > > > colocationに関しては、全て1000ではなくinfでOKかと思います。
> > > > #何か意図されていることがあるようでしたら、1000で構いませんが。。。。
> > > > 
> > > > > > > colocation clnPing-colocation 1000: clnApache clnPing
> > > > > > > colocation clnDiskd-colocation 1000: clnApache clnDiskd
> > > 
> > > はい、そうですね。。。意図はないです。
> > > INFINITYにしたいと思います。
> > 
> > はい。その方が良いと思います。
> > 
> > 以上です。
> > 
> > 
> > --- On Wed, 2012/1/18, 和田 伸一朗<wada.shinichiro@jp.fujitsu.com>  wrote:
> > 
> > > 山内さん
> > > 
> > > こんにちは。
> > > 和田です。
> > > 
> > > 丁寧なご説明ありがとうございました。
> > > 
> > > > 1. stonith-helper ....stonithを実行する必要があるかどうかをチェック
> > > > 2. ssh...実際にstonithを実行する(実機によっては、ibmrsa-telnetやriloe,ipmi)
> > > > 3. meatware ...最終的にstonithに失敗した場合の保守者の介在を促す
> > > 
> > > この方法で、リブートできることまで確認ができました。
> > > ただ、リソースを登録したときに、
> > > 
> > > crm_verify[14385]: 2012/01/18_11:25:42 WARN: unpack_nodes: Blind faith: not \
> > > fencing unseen nodes 
> > > というようなメッセージが表示されました。
> > > 
> > > http://linux-ha.sourceforge.jp/wp/archives/1809/3
> > > には「STONITHを設定していない場合(stonith-enabled=”false”)、上記のエラーが出力されますが
> > > 今回は無視してください。」とあります。
> > > stonith-enabled="true"は設定しています。
> > > 
> > > 特に問題ないメッセージなのでしょうか?
> > > それとも設定に不足があるのでしょうか。。。?
> > > 
> > > また、サーバがSTONITHによってリブートされた後、リブートされたサーバで動作していた
> > > STONITHの設定が、(当たり前ですが)ほかのサーバに移動しました。
> > > これを元に戻すには手動で移動するようになるのでしょうか?
> > > 
> > > > start,monitorに関しては、restartで良いと思います。
> > > > 
> > > > また、stopに関しては、diskd,pingd以外はfenceで良いと思います。
> > > > #追加したstonithリソースによって、stopに失敗するとfencing動作が入ります。
> > > > diskd,pingdに関しては、ignoreで良いと思います。
> > > 
> > > ACT/SBYの構成で確認した際に、restartに設定したgroup内に複数のリソースがあった場合、
> > > group内の最後のリソース以外に異常が発生した場合、うまく切り替わらなかったため
> > > standbyに設定していました。
> > > 今回、いろいろとやり取りをさせていただいて、stop の on-fail が "block" になって
> > > いたからではないかと推測しています。
> > > STONITHの設定も含めて、ご指摘頂いた方向で見直したいと思います。
> > > 
> > > > colocationに関しては、全て1000ではなくinfでOKかと思います。
> > > > #何か意図されていることがあるようでしたら、1000で構いませんが。。。。
> > > > 
> > > > > > > colocation clnPing-colocation 1000: clnApache clnPing
> > > > > > > colocation clnDiskd-colocation 1000: clnApache clnDiskd
> > > 
> > > はい、そうですね。。。意図はないです。
> > > INFINITYにしたいと思います。
> > > 
> > > よろしくお願い致します。
> > > 
> > > > 和田さん
> > > > 
> > > > おはようございます。山内です。
> > > > 
> > > > 先日の件、回答いたします。
> > > > 
> > > > stonithの設定に関しては、本家だと
> > > > * http://www.clusterlabs.org/doc/crm_fencing.html
> > > > のあたりにありますが、わかりずらいかと思います。
> > > > 
> > > > 基本的には、N+1ノードの場合であれば、それぞれのノードに他の1ノードをstonith出来るようなstonithのリソースグループをタスキ掛けに配置して、自ノード分のstonithは配置出来ないような設定をすることが良いと思います。
> > > >  (stonithで利用するリソースによっては、cloneで配置することも可能です)
> > > > 
> > > > 制御ボードを持ったクラスタを構成する実機がIBMであれば、ibmrsa-telnet。
> > > > HPであれば、riloe。
> > > > 制御ボードでipmiが使えるならば、ipmi。。といったstonithリソースを使って、対象の障害ノードを落とす(fencing)することが可能です。
> > > > 制御ボードを持たない場合であれば、sshあたりを利用することになります。
> > > > * stonithリソースに関しては、stonith -Lコマンドで利用可能なstonithリソースが表示可能です。
> > > > 
> > > > stonithのグループリソースとしては以下のような構成が望ましいと思います。
> > > > 
> > > > 1. stonith-helper ....stonithを実行する必要があるかどうかをチェック
> > > > 2. ssh...実際にstonithを実行する(実機によっては、ibmrsa-telnetやriloe,ipmi)
> > > > 3. meatware ...最終的にstonithに失敗した場合の保守者の介在を促す
> > > > 
> > > > これらのstonithのグループリソースを全てのノード毎に用意して、タスキ掛けで配置するイメージになります。(cloneでの設定は割愛します)
> > > > 
> > > > 以下にcib.xml形式ですが、stonithグループの1つの例と、配置制約を記載しておきます。
> > > > このようなstonithのグループリソースをタスキ掛けの配置します。
> > > > #実際の設定が最新のstonithのパラメータにあっているかどうかは、再度、ご確認ください。
> > > > 
> > > > * grpStonith1は、srv02をfencingする為のリソース
> > > > <group id="grpStonith1">
> > > > <primitive class="stonith" id="prmStonith1-1" type="external/stonith-helper">
> > > > <instance_attributes id="prmStonith1-1-instance_attributes">
> > > > <nvpair id="prmStonith1-1-priority" name="priority" value="1"/>
> > > > <nvpair id="prmStonith1-1-stonith-timeout" name="stonith-timeout" \
> > > > value="60s"/> <nvpair id="prmStonith1-1-hostlist" name="hostlist" \
> > > > value="srv02"/> <nvpair id="prmStonith1-1-dead_check_target" \
> > > > name="dead_check_target" value="192.168.40.20"/> <nvpair \
> > > > id="prmStonith1-1-run_standby_wait" name="run_standby_wait" value="no"/> \
> > > > </instance_attributes> <operations>
> > > > <op id="prmStonith1-1-start" interval="0" name="start" timeout="60s"/>
> > > > <op id="prmStonith1-1-monitor" interval="3600s" name="monitor" \
> > > > timeout="60s"/> <op id="prmStonith1-1-stop" interval="0" name="stop" \
> > > > timeout="60s"/> </operations>
> > > > </primitive>
> > > > <primitive class="stonith" id="prmStonith1-3" type="external/ssh">
> > > > <instance_attributes id="prmStonith1-3-instance_attributes">
> > > > <nvpair id="prmStonith1-3-priority" name="priority" value="3"/>
> > > > <nvpair id="prmStonith1-3-stonith-timeout" name="stonith-timeout" \
> > > > value="60s"/> <nvpair id="prmStonith1-3-ip_address" name="hostlist" \
> > > > value="srv02"/> </instance_attributes>
> > > > <operations>
> > > > <op id="prmStonith1-3-start" interval="0" name="start" timeout="60s"/>
> > > > <op id="prmStonith1-3-monitor" interval="3600s" name="monitor" \
> > > > timeout="60s"/> <op id="prmStonith1-3-stop" interval="0" name="stop" \
> > > > timeout="60s"/> </operations>
> > > > </primitive>
> > > > <primitive class="stonith" id="prmStonith1-4" type="meatware">
> > > > <instance_attributes id="prmStonith1-4-instance_attributes">
> > > > <nvpair id="prmStonith1-4-priority" name="priority" value="4"/>
> > > > <nvpair id="prmStonith1-4-stonith-timeout" name="stonith-timeout" \
> > > > value="60s"/> <nvpair id="prmStonith1-4-hostlist" name="hostlist" \
> > > > value="srv02"/> </instance_attributes>
> > > > <operations>
> > > > <op id="prmStonith1-4-start" interval="0" name="start" timeout="60s"/>
> > > > <op id="prmStonith1-4-monitor" interval="3600s" name="monitor" \
> > > > timeout="60s"/> <op id="prmStonith1-4-stop" interval="0" name="stop" \
> > > > timeout="60s"/> </operations>
> > > > </primitive>
> > > > </group>
> > > > * grpStonith1はsrv02以外のノードにsrv01->srv03の優先度で配置される。
> > > > <rsc_location id="location-grpStonith01-1" rsc="grpStonith1">
> > > > <rule id="rule-grpStonith01-1" score="300">
> > > > <expression id="exp-grpStonith01-1" attribute="#uname" operation="eq" \
> > > > value="srv01"/> </rule>
> > > > <rule id="rule-grpStonith01-2" score="-INFINITY">
> > > > <expression id="exp-grpStonith01-2" attribute="#uname" operation="eq" \
> > > > value="srv02"/> </rule>
> > > > <rule id="rule-grpStonith01-3" score="200">
> > > > <expression id="exp-grpStonith01-3" attribute="#uname" operation="eq" \
> > > > value="srv03"/> </rule>
> > > > </rsc_location>
> > > > 
> > > > quorum-policyに関してですが、再度整理して書かせて頂くと。。。
> > > > ignore....何もしません。クラスタ構成がquorum定数(2+1の場合、2より小さくなった)を満たさなくなっても何もしません。よって、孤立したノードもそのままで起動しています。
> > > >  
> > > > stop...quorum定数を満たさないノードはリソースを停止して、quorum定数を満たす構成からstonithが実行されます。よって、孤立したノードはstonithでリブートされます。
> > > >  
> > > > freee...quorum定数を満たさないノードは何もしません。ですが、quorum定数を満たす構成からstonithが実行されます。よって、孤立したノードはstonithでリブートされます。
> > > >  
> > > > 注意する点は、stopの場合ですと、全ノードが孤立した場合には全てquorum定数を消失しますので、リソースは全ノードで停止してサービス停止が起きます。
> > > > freezeの場合は上記でも、リソースは起動したままですので、サービスは稼動可能です。
> > > > 
> > > > 設定に関してですが、quorum-policyは上記を参考に設定していただくとして、stonithグループリソースを設定していただいてから、
> > > > 
> > > > propertyで、stonith-enabled="true",startup-fencing="false"と
> > > > stonith-timeout="stonithグループリソースの計算上の処理にかかる秒数"を
> > > > 設定してください。
> > > > #とりあえず、stonith-helper+ssh+meatwareであれば、stonith-timeout=430sあたりで十分かと思いますが、このあたりは実際の動作で調整してください。
> > > >  
> > > > また、各リソースのon-fail設定ですが、
> > > > 
> > > > start,monitorに関しては、restartで良いと思います。
> > > > 
> > > > また、stopに関しては、diskd,pingd以外はfenceで良いと思います。
> > > > #追加したstonithリソースによって、stopに失敗するとfencing動作が入ります。
> > > > diskd,pingdに関しては、ignoreで良いと思います。
> > > > 
> > > > colocationに関しては、全て1000ではなくinfでOKかと思います。
> > > > #何か意図されていることがあるようでしたら、1000で構いませんが。。。。
> > > > 
> > > > > > > colocation clnPing-colocation 1000: clnApache clnPing
> > > > > > > colocation clnDiskd-colocation 1000: clnApache clnDiskd
> > > > 
> > > > 以上です。
> > > > 
> > > > 
> > > > --- On Tue, 2012/1/17, 和田 伸一朗<wada.shinichiro@jp.fujitsu.com>   wrote:
> > > > 
> > > > > 山内さん
> > > > > 
> > > > > こんばんは。
> > > > > 和田です。
> > > > > 
> > > > > 早々のご回答ありがとうございます。
> > > > > 
> > > > > いろいろと設定の見直しが必要そうですね。。。
> > > > > それでは、明日、よろしくお願い致します。
> > > > > 
> > > > > > 和田さん
> > > > > > 
> > > > > > こんばんは、山内です。
> > > > > > 
> > > > > > > 早々のご回答ありがとうございます。
> > > > > > > 
> > > > > > > > 設定が気になりますが、PacemakerのQuorumPolicyはどうされていますか?
> > > > > > > 
> > > > > > > 現状、ignore を設定しています。
> > > > > > > #freezeに設定する必要があるのですね。。。
> > > > > > 
> > > > > > はい。
> > > > > > 基本的には、分断の制御をPacemakerにさせるのであれば、freeze(もしくはstop)に設定する必要があります。
> > > > > > 
> > > > > > > 
> > > > > > > > #ただし、この場合、STONITHのリソース設定は必須です。
> > > > > > > 
> > > > > > > STONITHの設定というのが、十分に理解できていないのですが、
> > > > > > > stonith-helperのみを設定すればよいのでしょうか?
> > > > > > > また、N + 1構成の場合の設定方法がよくわからないのですが、参考となる
> > > > > > > サイト等をご教示いただけないでしょうか?
> > > > > > 
> > > > > > いえ、stonith-helperの他に実際に孤立したノードを落とす為のstonithリソースが必要になります。
> > > > > > #サイトなどは明日ご連絡しますね。
> > > > > > 
> > > > > > > 
> > > > > > > また、freezeというキーワードをもとに検索したところ過去の山内さんの
> > > > > > > 回答にたどり着いたのですが、
> > > > > > > http://sourceforge.jp/projects/linux-ha/lists/archive/japan/2011-April/000541.html
> > > > > > > 
> > > > > > 
> > > > > > はい。
> > > > > > 
> > > > > > 
> > > > > > > 2:1で分断されたときに、1を停止して問題ないとすると、no-quorum-policy を stop に
> > > > > > > 設定する。(この場合、STONITHの設定はしなくてもよい。)
> > > > > > > という理解であっているでしょうか?
> > > > > > 
> > > > > > いえ、そういうことではありません。
> > > > > > 1でリソースを停止して問題ないということまでは正しいのですが、その後、1
> > > > > > を2側から落とす事が必要になりますので、STONITHは必要です。
> > > > > > #このあたりももう少し詳細に明日回答します。
> > > > > > 
> > > > > > 
> > > > > > 
> > > > > > > 
> > > > > > > 投入したcrmファイルを以下に記載します。
> > > > > > > 
> > > > > > > -------------------------------------------------------------------------------
> > > > > > >  primitive prmPing ocf:pacemaker:ping \
> > > > > > > params \
> > > > > > > name="ping_set" \
> > > > > > > host_list="192.168.1.1 192.168.2.1" \
> > > > > > > multiplier="100" \
> > > > > > > dampen="0" \
> > > > > > > meta \
> > > > > > > migration-threshold="3" \
> > > > > > > failure-timeout="60s" \
> > > > > > > op start interval="0s" timeout="90s" on-fail="standby" \
> > > > > > > op monitor interval="10s" timeout="60s" on-fail="standby" \
> > > > > > > op stop interval="0s" timeout="100s" on-fail="block"
> > > > > > > 
> > > > > > > primitive prmApache ocf:heartbeat:apache \
> > > > > > > params configfile="/etc/httpd/conf/httpd.conf" \
> > > > > > > port="80" \
> > > > > > > op start interval="0s" timeout="40s" on-fail="standby" \
> > > > > > > op monitor interval="10s" timeout="60s" on-fail="standby" \
> > > > > > > op stop interval="0s" timeout="60s" on-fail="block"
> > > > > > > 
> > > > > > > primitive prmDiskd ocf:pacemaker:diskd \
> > > > > > > params name="diskd_set" \
> > > > > > > device="/dev/sda1" \
> > > > > > > op start interval="0s" timeout="60s" on-fail="standby" \
> > > > > > > op monitor interval="10s" timeout="60s" on-fail="standby" \
> > > > > > > op stop interval="0s" timeout="60s" on-fail="block"
> > > > > > > 
> > > > > > > clone clnApache prmApache \
> > > > > > > meta clone-max="2" clone-node-max="1"
> > > > > > > 
> > > > > > > clone clnPing prmPing \
> > > > > > > meta clone-max="3" clone-node-max="1"
> > > > > > > 
> > > > > > > clone clnDiskd prmDiskd \
> > > > > > > meta clone-max="3" clone-node-max="1"
> > > > > > > 
> > > > > > > location clnApache-location clnApache \
> > > > > > > rule 200: #uname eq it08 \
> > > > > > > rule 200: #uname eq it09 \
> > > > > > > rule 100: #uname eq it10 \
> > > > > > > rule -INFINITY: defined ping_set and ping_set lt 200 \
> > > > > > > rule -INFINITY: defined diskd_set and diskd_set eq SUCCESS
> > > > > > > 
> > > > > > > colocation clnPing-colocation 1000: clnApache clnPing
> > > > > > > colocation clnDiskd-colocation 1000: clnApache clnDiskd
> > > > > > > order order_clnPing_after_all 0: clnPing clnApache symmetrical=false
> > > > > > > order order_clnDiskd_after_all 0: clnDiskd clnApache symmetrical=false
> > > > > > > 
> > > > > > > property stonith-enabled="false" \
> > > > > > > no-quorum-policy="stop"
> > > > > > > 
> > > > > > > rsc_defaults resource-stickiness="INFINITY" \
> > > > > > > migration-threshold="1"
> > > > > > > 
> > > > > > > -------------------------------------------------------------------------------
> > > > > > >  
> > > > > > > よろしくお願い致します。
> > > > > > 
> > > > > > STONITHを設定した後で、apacheなどのstopのon-failはfenceにして頂いた方が良いです。
> > > > > > blockですと、そのままリソース停止に失敗した状態で止まってしまい、リソースは停止(サービス停止)となります。
> > > > > > 
> > > > > > こちらも設定に関して、明日見直してさらに詳細をご連絡いたします。
> > > > > > 
> > > > > > 以上です。
> > > > > > 
> > > > > > 
> > > > > > > 
> > > > > > > > 和田さん
> > > > > > > > 
> > > > > > > > こんにちは、山内です。
> > > > > > > > 
> > > > > > > > 設定が気になりますが、PacemakerのQuorumPolicyはどうされていますか?
> > > > > > > > 
> > > > > > > > もし、孤立した1ノードが孤立した時点で、リブートされて問題ないのであれば、通常
> > > > > > > > freezeなどの設定を行っていただければ、残りの2ノード側からstonithが実行されます。
> > > > > > > > #ただし、この場合、STONITHのリソース設定は必須です。
> > > > > > > > 
> > > > > > > > また、たぶん、孤立したノードが参加しようとはしているはずですが、なんらかの要因(Pacemakerもしくはcorosync)で再構成を取れない状況だと思います。
> > > > > > > >  
> > > > > > > > 各ノードのログ、cib.xml(もしくは投入されたcrmファイル)を開示していただければ
> > > > > > > > もう少し詳細な回答が可能なのですが。。。
> > > > > > > > 
> > > > > > > > #予断ですが、Pacemakerでは複数ノード構成時にノード分断からのそのままの復旧は今の所うまく動きませんので、必ず、STONITHなりリブートなりの手順を行うことをお勧めいたします。
> > > > > > > >  
> > > > > > > > 
> > > > > > > > 以上です。
> > > > > > > > 
> > > > > > > > 
> > > > > > > > 
> > > > > > > > --- On Tue, 2012/1/17, 和田 伸一朗<wada.shinichiro@jp.fujitsu.com>     \
> > > > > > > > wrote: 
> > > > > > > > > 和田と申します。
> > > > > > > > > はじめまして。
> > > > > > > > > 
> > > > > > > > > Corosync + Pacemaker + アプリケーションで N + 1構成を
> > > > > > > > > 作成しようとしています。
> > > > > > > > > #暫定的にアプリケーションは Apache を利用し、Clone を用いて
> > > > > > > > > #2 + 1構成としています。
> > > > > > > > > 
> > > > > > > > > 通常の状態では、2 + 1構成を問題なく構築することが
> > > > > > > > > できたのですが、インタフェースの down / up を行った際に、
> > > > > > > > > インタフェースの down / up を行ったサーバの Current DC が
> > > > > > > > > 自分自身となり、回復しない状態となってしまいます。
> > > > > > > > > 
> > > > > > > > > このような状態に発生させない方法、または、Corosync の restart を
> > > > > > > > > 行わずに Current DC を統一する方法はございますでしょうか?
> > > > > > > > > 
> > > > > > > > > なお、インタフェースの冗長化は行っておりません。
> > > > > > > > > 
> > > > > > > > > ------- 正常時 ここから ------------------
> > > > > > > > > ============
> > > > > > > > > Last updated: Tue Jan 17 15:27:22 2012
> > > > > > > > > Stack: openais
> > > > > > > > > Current DC: it09 - partition with quorum
> > > > > > > > > Version: 1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87
> > > > > > > > > 3 Nodes configured, 3 expected votes
> > > > > > > > > 3 Resources configured.
> > > > > > > > > ============
> > > > > > > > > 
> > > > > > > > > Online: [ it08 it09 it10 ]
> > > > > > > > > 
> > > > > > > > > Clone Set: clnApache
> > > > > > > > > Started: [ it08 it09 ]
> > > > > > > > > Clone Set: clnDiskd
> > > > > > > > > Started: [ it08 it09 it10 ]
> > > > > > > > > Clone Set: clnPing
> > > > > > > > > Started: [ it08 it09 it10 ]
> > > > > > > > > ------- 正常時 ここまで ------------------
> > > > > > > > > 
> > > > > > > > > ------- 異常時 ここから ------------------
> > > > > > > > > ============
> > > > > > > > > Last updated: Tue Jan 17 15:28:05 2012
> > > > > > > > > Stack: openais
> > > > > > > > > Current DC: it09 - partition with quorum
> > > > > > > > > Version: 1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87
> > > > > > > > > 3 Nodes configured, 3 expected votes
> > > > > > > > > 3 Resources configured.
> > > > > > > > > ============
> > > > > > > > > 
> > > > > > > > > Online: [ it08 it09 ]
> > > > > > > > > OFFLINE: [ it10 ]
> > > > > > > > > 
> > > > > > > > > Clone Set: clnApache
> > > > > > > > > Started: [ it08 it09 ]
> > > > > > > > > Clone Set: clnDiskd
> > > > > > > > > Started: [ it08 it09 ]
> > > > > > > > > Stopped: [ prmDiskd:2 ]
> > > > > > > > > Clone Set: clnPing
> > > > > > > > > Started: [ it08 it09 ]
> > > > > > > > > Stopped: [ prmPing:2 ]
> > > > > > > > > ------------------------------------------
> > > > > > > > > ============
> > > > > > > > > Last updated: Tue Jan 17 16:18:28 2012
> > > > > > > > > Stack: openais
> > > > > > > > > Current DC: it10 - partition WITHOUT quorum
> > > > > > > > > Version: 1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87
> > > > > > > > > 3 Nodes configured, 3 expected votes
> > > > > > > > > 3 Resources configured.
> > > > > > > > > ============
> > > > > > > > > 
> > > > > > > > > Online: [ it10 ]
> > > > > > > > > OFFLINE: [ it08 it09 ]
> > > > > > > > > 
> > > > > > > > > Clone Set: clnApache
> > > > > > > > > Started: [ it10 ]
> > > > > > > > > Stopped: [ prmApache:1 ]
> > > > > > > > > Clone Set: clnDiskd
> > > > > > > > > Started: [ it10 ]
> > > > > > > > > Stopped: [ prmDiskd:0 prmDiskd:1 ]
> > > > > > > > > Clone Set: clnPing
> > > > > > > > > Started: [ it10 ]
> > > > > > > > > Stopped: [ prmPing:0 prmPing:1 ]
> > > > > > > > > ------- 異常時 ここまで ------------------
> > > > > > > > > 
> > > > > > > > > よろしくお願い致します。
> > > > > > > > > 
> > > > > > > > > _______________________________________________
> > > > > > > > > Linux-ha-japan mailing list
> > > > > > > > > Linux-ha-japan@lists.sourceforge.jp
> > > > > > > > > http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan
> > > > > > > > > 
> > > > > > > > 
> > > > > > > > _______________________________________________
> > > > > > > > Linux-ha-japan mailing list
> > > > > > > > Linux-ha-japan@lists.sourceforge.jp
> > > > > > > > http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan
> > > > > > > 
> > > > > > > ___________# crm configure____________________________________
> > > > > > > Linux-ha-japan mailing list
> > > > > > > Linux-ha-japan@lists.sourceforge.jp
> > > > > > > http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan
> > > > > > > 
> > > > > > 
> > > > > > _______________________________________________
> > > > > > Linux-ha-japan mailing list
> > > > > > Linux-ha-japan@lists.sourceforge.jp
> > > > > > http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan
> > > > > 
> > > > > _______________________________________________
> > > > > Linux-ha-japan mailing list
> > > > > Linux-ha-japan@lists.sourceforge.jp
> > > > > http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan
> > > > > 
> > > > 
> > > > _______________________________________________
> > > > Linux-ha-japan mailing list
> > > > Linux-ha-japan@lists.sourceforge.jp
> > > > http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan
> > > 
> > > _______________________________________________
> > > Linux-ha-japan mailing list
> > > Linux-ha-japan@lists.sourceforge.jp
> > > http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan
> > > 
> > 
> > _______________________________________________
> > Linux-ha-japan mailing list
> > Linux-ha-japan@lists.sourceforge.jp
> > http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan
> 
> _______________________________________________
> Linux-ha-japan mailing list
> Linux-ha-japan@lists.sourceforge.jp
> http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan
> 

_______________________________________________
Linux-ha-japan mailing list
Linux-ha-japan@lists.sourceforge.jp
http://lists.sourceforge.jp/mailman/listinfo/linux-ha-japan


[prev in list] [next in list] [prev in thread] [next in thread] 

Configure | About | News | Add a list | Sponsored by KoreLogic