[go: up one dir, main page]

JP2008123412A - 計算機システム、システムソフトウェア更新方法及び第1サーバ装置 - Google Patents

計算機システム、システムソフトウェア更新方法及び第1サーバ装置 Download PDF

Info

Publication number
JP2008123412A
JP2008123412A JP2006308895A JP2006308895A JP2008123412A JP 2008123412 A JP2008123412 A JP 2008123412A JP 2006308895 A JP2006308895 A JP 2006308895A JP 2006308895 A JP2006308895 A JP 2006308895A JP 2008123412 A JP2008123412 A JP 2008123412A
Authority
JP
Japan
Prior art keywords
server device
system software
virtual server
node
vnas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006308895A
Other languages
English (en)
Other versions
JP4359609B2 (ja
Inventor
Takahiro Nakano
隆裕 中野
Masakuni Agetsuma
匡邦 揚妻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006308895A priority Critical patent/JP4359609B2/ja
Priority to US11/622,253 priority patent/US8015559B2/en
Publication of JP2008123412A publication Critical patent/JP2008123412A/ja
Application granted granted Critical
Publication of JP4359609B2 publication Critical patent/JP4359609B2/ja
Priority to US13/195,942 priority patent/US8255898B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/203Failover techniques using migration
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2035Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant without idle spare hardware
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2046Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share persistent storage
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/65Updates
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1415Saving, restoring, recovering or retrying at system level
    • G06F11/1433Saving, restoring, recovering or retrying at system level during software upgrading

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Stored Programmes (AREA)
  • Multi Processors (AREA)
  • Hardware Redundancy (AREA)

Abstract

【課題】仮想サーバ装置が提供するサービスの停止時間を短縮する。
【解決手段】第1サーバ装置と、ストレージ装置と、を備える計算機システムであって、前記第1サーバ装置では、第1仮想サーバ装置と、第2仮想サーバ装置と、が稼動し、前記第2仮想サーバ装置は、前記第1仮想サーバ装置の起動要求を受けると、当該起動を要求された第1仮想サーバ装置のシステムソフトウェアと、当該第1仮想サーバ装置が稼動する第1サーバ装置のシステムソフトウェアと、が整合するか否かを判定し、前記二つのシステムソフトウェアが整合しない場合には、前記起動を要求された第1仮想サーバ装置のシステムソフトウェアを更新してから、前記第1仮想サーバ装置を起動することを特徴とする。
【選択図】図3

Description

本発明は、仮想サーバ装置が稼動する複数のノードによってクラスタが構成されている計算機システムに関し、特に、システムソフトウェアをバージョンアップする技術に関する。
ノードのシステムソフトウェアをバージョンアップする技術が特許文献1に開示されている。この技術によると、クライアント計算機(クライアントPC)へのサービス停止時間を最小限に抑えることができる。具体的には、クライアントPCへ提供されるサービスが待機中のノードへフェイルオーバされる。その後、ノードのシステムソフトウェアがバージョンアップされる。これによって、ノードのシステムソフトウェアがバージョンアップされている最中であっても、クライアントPCが、サービスを利用できる。
また、ノード上で複数の仮想サーバ装置が稼動する計算機システムが特許文献2に開示されている。当該計算機システムでは、それぞれの仮想サーバ装置が、サービスを提供する。このような計算機システムの中には、アプリケーションプログラム群ごとに仮想サーバ装置が稼動する計算機システムがある。当該計算機システムは、環境の切り替えに応じて、仮想サーバ装置のルートファイルシステムを切り替える。これによって、異なる設定を個々の仮想サーバ装置ごとに実現できる。なお、ルートファイルシステムは、システムソフトウェア及び当該システムソフトウェアの稼動に必要な設定情報などを含む。
更に、ノード上で複数の仮想サーバ装置が稼動する計算機システムを高信頼化する技術が特許文献3に開示されている。当該計算機システムでは、仮想サーバ装置ごとのファイルシステムが、クラスタを構成する複数のノードで共有される。そして、仮想サーバ装置は、クラスタを構成する複数のノードのうちの一つで稼動する。フェイルオーバの際には、フェイルオーバ元で稼動している仮想サーバ装置が停止される。そして、停止された仮想サーバ装置は、フェイルオーバ先のノードで起動される。これによって、クラスタを構成する複数のノードは、クライアントPCにサービスを継続して提供できる。
特開2005−148922号公報 特開2004−227127号公報 特開2005−267327号公報
特許文献3に開示されている計算機システムのシステムソフトウェアには、ノード用システムソフトウェア及びVNAS用システムソフトウェアが存在する。ノード用システムソフトウェアは、クラスタを構成するノードによって実行される。また、VNAS用システムソフトウェアは、ノードで稼動する仮想サーバ装置によって実行される。
ノード用システムソフトウェアは、特許文献1に開示されている技術によって、バージョンアップできる。
一方、仮想サーバ装置は、ノード用システムソフトウェアを実行しているノード上で、VNAS用システムソフトウェアを実行する。そのため、ノード用システムソフトウェアのバージョンとVNAS用システムソフトウェアのバージョンとが異なると、二つのシステムソフトウェアの互換性が維持できない場合がある。この場合、仮想サーバ装置の稼動でエラーが発生したり、誤った結果を返してしまったりという不具合を生じてしまう可能性がある。
このため、フェイルオーバ先のノードのノード用システムソフトウェアがバージョンアップされると、当該フェイルオーバ先のノードに仮想サーバ装置をフェイルオーバできない。なぜなら、フェイルオーバ元のノードで稼動している仮想サーバ装置のVNAS用システムソフトウェアは、古いバージョンだからである。
そこで、仮想サーバ装置のVNAS用システムソフトウェアをバージョンアップするためには、仮想サーバ装置のサービスを停止する必要がある。仮想サーバ装置のサービスを停止後に、仮想サーバ装置のVNAS用システムソフトウェアをバージョンアップする。そして、仮想サーバ装置を、フェイルオーバ先のノードにフェイルオーバする。
このように、仮想サーバ装置のVNAS用システムソフトウェアのバージョンアップでは、クライアントPCに提供されるサービスを長時間にわたって停止しなければならない。
また、仮想サーバ装置の管理者が仮想サーバ装置ごとに異なる場合、仮想サーバ装置のシステムソフトウェアをバージョンアップする作業者は、それぞれの管理者に仮想サーバ装置のサービス停止及び再開を依頼しなければない。そのため、仮想サーバ装置のシステムソフトウェアをバージョンアップする作業者の負担が大きい。
本発明は、前述した問題に鑑みてなされたものであって、仮想サーバ装置が提供するサービスの停止時間を短縮する計算機システムを提供することを目的とする。
本発明の代表的な形態は、第1プロセッサ、第1メモリ及び第1インタフェースを備える第1サーバ装置と、データが格納される記憶部及び前記記憶部に対するデータの入出力を制御する入出力制御部を備え、前記第1サーバ装置に接続されるストレージ装置と、を備える計算機システムであって、前記第1プロセッサ、前記第1メモリ及び前記第1インタフェースのそれぞれは、論理的に分割され、前記分割された第1プロセッサ、第1メモリ及び第1インタフェースは、独立した仮想サーバ装置として、前記第1サーバ装置上で稼動し、前記仮想サーバ装置は、サービスを提供する一つ以上の第1仮想サーバ装置及び前記第1仮想サーバ装置を管理する第2仮想サーバ装置を含み、前記第2仮想サーバ装置は、前記第1仮想サーバ装置の起動要求を受けると、当該起動を要求された第1仮想サーバ装置のシステムソフトウェアと、当該第1仮想サーバ装置が稼動する第1サーバ装置のシステムソフトウェアと、が整合するか否かを判定し、前記二つのシステムソフトウェアが整合しない場合には、前記起動を要求された第1仮想サーバ装置のシステムソフトウェアを更新してから、前記第1仮想サーバ装置を起動することを特徴とする。
本発明の代表的な形態によると、仮想サーバ装置が提供するサービスの停止時間を短縮できる。更に、仮想サーバ装置のシステムソフトウェアをバージョンアップする作業者の負担を削減できる。
以下、本発明の実施の形態を、図面を参照して説明する。
図1は、本発明の実施の形態の計算機システムの構成のブロック図である。
計算機システムは、管理用計算機(管理用PC)110、クライアント計算機(クライアントPC)120、管理LAN(Local Area Network)130、データLAN131、ストレージネットワーク140、ノード100及びストレージ装置170を備える。
管理LAN130は、管理用PC110とノード100とを接続する。データLAN131は、クライアントPC120とノード100とを接続する。ストレージネットワーク140は、ノード100とストレージ装置170とを接続する。ストレージネットワーク140には、例えば、SCSI又はFibreChannelが適用される。
管理用PC110は、CPU、メモリ、インタフェース及び記憶媒体読取装置111を備える。そして、管理用PC110は、管理LAN130を介して、ノード100を管理する。なお、管理用PC110については、図8で詳細を説明する。
記憶媒体読取装置111は、インストール用記憶媒体からデータを読み取る。例えば、記憶媒体読取装置111は、CD−ROM、DVD−ROM又はフラッシュメモリの読取ドライブである。このため、管理用PC110は、インストール用記憶媒体にアクセスできる。なお、インストール用記憶媒体については、図4で詳細を説明する。また、管理用PC110は、記憶媒体読取装置111を備えずに、記憶媒体読取装置111が接続されていてもよい。
クライアントPC120は、CPU、メモリ及びインタフェースを備える。そして、クライアントPC120は、ノード100からサービスの提供を受ける。本説明図では、クライアントPC120は、六台が図示されているが、計算機システムに何台備わっていてもよい。
ノード100は、クラスタを構成し、クライアントPC120にサービスを提供する。また、ノード100は、CPU101、メモリ102、ストレージインタフェース103、管理用ネットワークインタフェース104、データ用ネットワークインタフェース105、クラスタ通信用ネットワークインタフェース108及びバス109を備える。
バス109は、PU101、メモリ102、ストレージインタフェース103、管理用ネットワークインタフェース104、データ用ネットワークインタフェース105及びクラスタ通信用ネットワークインタフェース108を相互に接続する。
CPU101は、メモリ102に記憶されるプログラムを実行することによって、各種処理を行う。例えば、CPU101は、ストレージ装置170に対してデータを入出力する。
メモリ102は、CPU101によって実行されるプログラム及びCPU101によって必要とされる情報等を記憶する。
ストレージインタフェース103は、ストレージネットワーク140を介して、ストレージ装置170に接続されるインタフェースである。例えば、ストレージインタフェース103は、SCSIインタフェース又はFibreChannelインタフェース等である。管理用ネットワークインタフェース104は、管理LAN130を介して管理用PC110に接続されるインタフェースである。
データ用ネットワークインタフェース105は、データLAN131を介して、クライアントPC120に接続されるインタフェースである。なお、本説明図では、それぞれのノード100が、三つのデータ用ネットワークインタフェース105を備えているが、いくつ備えていてもよい。
本説明図では、ノード100は、三つのデータ用ネットワークインタフェース105A〜105Cを備える。データ用ネットワークインタフェース105Aは、データLAN131Aを介して、クライアントPC120A及び120Bに接続される。また、データ用ネットワークインタフェース105Bは、データLAN131Bを介して、クライアントPC120C及び120Dに接続される。また、データ用ネットワークインタフェース105Cは、データLAN131Cを介して、クライアントPC120E及び120Fに接続される。
異なるデータLAN131A〜131C同士では、通信が干渉しない。
本実施の形態では、データLAN131A〜131Cは、物理的に異なる三つのネットワークである。しかし、データLAN131A〜131Cは、一つの物理的なネットワークがファイアウォール(Firewall)によって論理的に分割されたものであってもよい。
例えば、クライアントPC120側のLANとノード100側のLANとがファイアウォールを介して接続されることによって、データLAN131〜131Cが論理的に構築される。また、クライアントPC120側のLAN及びノード100側のLANがそれぞれ異なるファイアウォールを介してインターネットに接続されることによって、データLAN131〜131Cが論理的に構築される。他にも、クライアントPC120側のLAN及びノード100側のLANが複数ポートを持つ共通のファイアウォールを介してインターネットに接続されることによって、データLAN131〜131Cが論理的に構築される。
クラスタ通信用ネットワークインタフェース108は、ノード100同士の間を接続するインタフェースである。
例えば、管理用ネットワークインタフェース104、データ用ネットワークインタフェース105又はクラスタ通信用ネットワークインタフェース108には、IEEE802シリーズ規格又はATM(Asynchronous Transfer Mode)などが適用される。
また、管理用ネットワークインタフェース104、データ用ネットワークインタフェース105又はクラスタ通信用ネットワークインタフェース108には、IEEE802.3ad規格が適用されてもよい。この場合、複数の物理的なネットワークインタフェースが一つの接続とみなされるので、耐障害性が高まり、且つ、負荷が分散される。
更に、ノード100は、カーネル(図示省略)に備わる論理分割機能を使用することによって、当該ノード100上に、仮想的なサーバ装置(VNAS)を構築する。これによって、ノード100は、独立した複数のVNASをクライアントPC120等に提供する。
ストレージ装置170は、ディスクコントローラ(DKC)171及びディスクドライブを備える。DKC171は、ディスクドライブに対するデータの入出力を制御する。また、DKC171は、ディスクディスクの記憶領域を、一つ以上の論理ボリューム(LU)150、151、160として、ノード100に提供する。なお、DKC171は、LUでなく、ディスクドライブをノード100に提供してもよい。
ノード100A用システムLU150は、ノード100Aのシステムソフトウェア等を記憶し、ノード100Aからアクセスされる。更に、ノード100A用システムLU150は、ノード100Aのシステムソフトウェアのバージョンを記憶する。
一方、ノード100B用システムLU151は、ノード100Bのシステムソフトウェア等を記憶し、ノード100Bからアクセスされる。LU160は、各種情報を記憶し、ノード100AのVNAS及びノード100BのVNASの双方からアクセスされる。更に、ノード100B用システムLU151は、ノード100Bのシステムソフトウェアのバージョンを記憶する。
図2は、本発明の実施の形態のノード100A用システムLU150及びノード100B用システムLU151に記憶されるVNAS構成表200の構成図である。
VNAS構成表200は、VNAS名201、ネットワークデバイス202、ブロックデバイス203、ルートファイルシステム204及びシステムソフトウェアバージョン205を含む。
VNAS名201は、ノード100上で稼動するVNASの一意な識別子である。本実施の形態では、VNAS1、VNAS2及びVNAS3が、ノード100上で稼動する。
ネットワークデバイス202は、当該列のVNAS名201によって識別されるVNASに割り当てられるデータ用ネットワークインタフェース105の一意な識別子である。なお、VNASは、割り当てられているデータ用ネットワークインタフェース105を独占的に使用する。
本実施の形態では、VNAS1に、データ用ネットワークインタフェース105Aが割り当てられる。また、VNAS2に、データ用ネットワークインタフェース105Bが割り当てられる。また、VNAS3に、データ用ネットワークインタフェース105Cが割り当てられる。
ブロックデバイス203は、当該列のVNAS名201によって識別されるVNASに割り当てられるLU160の一意な識別子である。なお、VNASは、割り当てられているLU160を独占的に使用する。
本実施の形態では、VNAS1に、LU1(160)及びLU2(160)が割り当てられる。また、VNAS2に、LU3(160)及びLU4(160)が割り当てられる。また、VNAS3に、LU5(160)及びLU6(160)が割り当てられる。
ルートファイルシステム204は、当該列のブロックデバイス203によって識別されるLU160のうち、ルートファイルシステムを含むLU160の一意な識別子である。本実施の形態では、LU1(160)、LU3(160)及びLU5(160)がルートファイルシステムを含む。
システムソフトウェアバージョン205は、当該列のルートファイルシステム204によって識別されるLU160に含まれるルートファイルシステムのシステムソフトウェアのバージョンを示す。本実施の形態では、LU1(160)、LU3(160)及びLU5(160)に含まれるルートファイルシステムのシステムソフトウェアは、バージョン1.0である。
図6は、本発明の実施の形態の管理用PC110のハードウェア構成のブロック図である。
管理用PC110は、CPU801、メモリ802、ネットワークインタフェース804、入力装置805、表示装置806及び記憶媒体読取装置111を備える。
メモリ802は、CPU801によって実行されるプログラム及びCPU801によって必要とされる情報などを記憶する。例えば、メモリ802は、バージョンアップ指示プログラム330及びオペレーティングシステム807を記憶する。オペーレーティングシステム807は、管理用PC110の処理の全体を制御する。
CPU801は、メモリ802に記憶されるプログラムを実行することによって、各種処理を行う。例えば、CPU801は、バージョンアップ指示プログラム330及びオペレーティングシステム807をメモリ802から呼び出して実行する。更に、CPU801は、ネットワークインタフェース804、入力装置805、表示装置806及び記憶媒体読取装置111を制御する。
ネットワークインタフェース804は、管理LAN130を介して、ノード100A及び100Bに接続されるインタフェースである。
入力装置805には、バージョンアップ作業者などから情報が入力される。例えば、入力装置805は、バージョンアップ指示プログラム330の実行の指示、又はバージョンアップ指示プログラム330の進行の指示を受け付ける。
表示装置806は、各種情報を表示する。例えば、表示装置806は、バージョンアップ指示プログラム330の進行状況を表示する。
記憶媒体読取装置111は、インストール用記憶媒体700からデータを読み取る。そして、記憶媒体読取装置111は、読み取ったデータを、メモリ802又はネットワークインタフェース804に転送する。
図3は、本発明の実施の形態の計算機システムの機能構成のブロック図である。
管理用PC110のメモリ(図示省略)には、バージョンアップ指示プログラム330が記憶されている。バージョンアップ指示プログラム330は、ノード100のバージョンアップ処理プログラム310と連携して、システムソフトウェアのバージョンアップを行う。
クライアントPC120のメモリ(図示省略)には、クライアントプログラムが記憶されている。クライアントプログラムは、VNASのアプリケーションプログラム320と通信して、ユーザデータ360の作成、参照又は更新等を行う。
ノード100のCPU101は、オペレーティングシステム300を実行する。オペレーティングシステム300は、ノード100の処理の全体を制御する。
また、ノード100では、管理VNAS301が稼動している。管理VNAS301は、ノード100のリソースを管理する。具体的には、管理VNAS301は、ノード100のリソースを、VNAS1(302)、VNAS2(303)又はVNAS3(307)に割り当てる。これによって、管理VNAS301は、VNAS1(302)、VNAS2(303)及びVNAS3(307)の環境を構築する。
また、管理VNAS301は、バージョンアップ処理プログラム310、VNAS管理プログラム311及びクラスタ管理プログラム312を実行する。
つまり、管理VNAS301に割り当てられているメモリ102には、バージョンアップ処理プログラム310、VNAS管理プログラム311及びクラスタ管理プログラム312が格納される。
管理VNAS301に割り当てられているCPU101は、メモリ102から、バージョンアップ処理プログラム310、VNAS管理プログラム311及びクラスタ管理プログラム312を呼び出して実行する。
バージョンアップ処理プログラム310は、バージョンアップ指示プログラム330と連携して、システムソフトウェアのバージョンアップを行う。
VNAS管理プログラム311は、VNAS1(302)、VNAS2(303)又はVNAS3(307)を起動又は停止する。
クラスタ管理プログラム312は、当該クラスタ管理プログラム312を実行するノード100に接続されているノード100(外部ノード100)の状態を監視する。クラスタ管理プログラム312は、外部ノード100の異常を検知すると、当該外部ノード100で稼動中のVNASをフェイルオーバする。また、クラスタ管理プログラム312は、フェイルオーバ指示を受けると、当該フェイルオーバ指示で指定されたVNASをファイルオーバする。
本説明図において、ノード100Aでは、VNAS1(302)及びVNAS2(303)が稼動している。また、ノード100Bでは、VNAS3(307)が稼動している。この場合、ノード100Aは、VNAS3フェイルオーバ先304を備える。また、ノード100Bは、VNAS1フェイルオーバ先305及びVNAS2フェイルオーバ先306を備える。
VNAS1(302)、VNAS2(303)及びVNAS3(307)のそれぞれは、管理VNAS301によって割り当てられたノード100のリソースを使用して、サービスをクライアントPC120に提供する。また、VNAS1(302)、VNAS2(303)及びVNAS3(307)は、アプリケーションプログラム320及び管理プログラム321を実行する。
つまり、VNAS1(302)、VNAS2(303)及びVNAS3(307)のいずれかに割り当てられているメモリ102には、アプリケーションプログラム320及び管理プログラム321が格納される。
VNAS1(302)、VNAS2(303)及びVNAS3(307)のいずれかに割り当てられているCPU101は、メモリ102から、アプリケーションプログラム320及び管理プログラム321を呼び出して実行する。
アプリケーションプログラム320は、クライアントPC120にサービスを提供する。例えば、アプリケーションプログラム320は、Webサーバ、ファイルサーバ、DBサーバ又は認証サーバ等である。
管理プログラム321は、VNASの起動又は停止の際に、アプリケーションプログラム320の実行環境を用意する。
VNAS1フェイルオーバ先305は、VNAS1(302)の稼動に必要なリソースを確保していることを示す。このため、VNAS1(302)は、ノード100A及び100Bのいずれで稼動しても、同一の構成となる。また、VNAS1(302)は、ノード100Aとノード100Bとの間を円滑に移動できる。
また、ノード100A及び100Bのいずれもが、ルートファイルシステムを含むLU160にアクセス可能である。よって、VNAS1(302)は、ノード100A又は100Bのいずれで稼動しても、同一のアプリケーションプログラム320を実行できる。
同様に、VNAS2フェイルオーバ先306は、VNAS2(303)の稼動に必要なリソースを確保していることを示す。また、VNAS3フェイルオーバ先304は、VNAS3(307)の稼動に必要なリソースを確保していることを示す。
ストレージ装置170は、ノード100A用システムLU150、ノード100B用システムLU151及びLU1〜6(160)を提供する。
ノード100A用システムLU150は、ノード100A上で稼動している管理VNAS301からアクセスされる。また、ノード100B用システムLU151は、ノード100B上で稼動している管理VNAS301からアクセスされる。
ノード100A用システムLU150及びノード100B用システムLU151のそれぞれには、オペレーティングシステムファイル340、バージョンアップ処理プログラムファイル341、VNAS管理プログラムファイル342、クラスタ管理プログラムファイル343、VNAS用システムソフトウェアパッケージ713及びVNAS構成表200が格納されている。
オペレーティングシステムファイル340は、ノード100に備わるCPU101によって実行されるオペレーティングシステム300を含む。バージョンアップ処理プログラムファイル341は、ノード100に備わる管理VNAS301によって実行されるバージョンアップ処理プログラム310を含む。
VNAS管理プログラムファイル342は、ノード100に備わる管理VNAS301によって実行されるVNAS管理プログラム311を含む。クラスタ管理プログラムファイル343は、ノード100に備わる管理VNAS301によって実行されるクラスタ管理プログラム312を含む。
VNAS用システムソフトウェアパッケージ713は、VNAS1(302)、VNAS2(303)及びVNAS3(307)のルートファイルシステムに適用されるソフトウェアパッケージである。具体的には、VNAS用システムソフトウェアパッケージ713は、アプリケーションプログラムファイル350の更新イメージ及び管理プログラムファイル351の更新イメージ等を含む。
VNAS構成表200(図2)は、VNAS1(302)、VNAS2(303)及びVNAS3(307)の構成を示す。
LU1(160)及びLU2(160)は、ノード100A又はノード100B上で稼動しているVNAS1(302)からアクセスされる。また、LU3(160)及びLU4(160)は、ノード100A又はノード100B上で稼動しているVNAS2(303)からアクセスされる。また、LU5(160)及びLU6(160)は、ノード100A又はノード100B上で稼動しているVNAS3(307)からアクセスされる。
LU1(160)、LU3(160)及びLU5(160)は、ルートファイルシステムを含む。ルートファイルシステムは、アプリケーションプログラムファイル350及び管理プログラムファイル351を含む。
アプリケーションプログラムファイル350は、ノード100に備わるVNAS1(302)、VNAS2(303)又はVNAS3(307)によって実行されるアプリケーションプログラム320を含む。管理プログラムファイル351は、ノード100に備わるVNAS1(302)、VNAS2(303)又はVNAS3(307)によって実行される管理プログラム321を含む。
LU2(160)、LU4(160)及びLU6(160)は、ユーザデータ360を含む。具体的には、VNAS1(302)は、LU2(160)にユーザデータ360を格納する。また、VNAS2(303)は、LU4(160)にユーザデータ360を格納する。また、VNAS3(307)は、LU6(160)にユーザデータ360を格納する。
このように、VNAS1(302)、VNAS2(303)及びVNAS3(307)は、それぞれ異なるクライアントPC120にサービスを提供する。また、二つのノード100A及び100Bは、VNAS1(302)、VNAS2(303)及びVNAS3(307)を分散して稼動する。よって、当該計算機システムは、負荷を分散しているので、性能を高めることができる。更に、ノード100A又は100Bのいずれかに障害が発生しても、障害が発生していないノード100A又は100Bが、VNAS1(302)、VNAS2(303)及びVNAS3(307)を稼動する。そのため、ノード100A又は100Bのいずれか一方に障害が発生しても、当該計算機システムは、サービスを継続できる。
なお、高性能及び高信頼の計算機システムであっても、ソフトウェアのミスが発見されたり、機能を変更をしたり、新機能を追加する場合がある。この場合、システムソフトウェアを入れ替える(バージョンアップする)必要が生じる。以下、当該計算システムにおけるソフトウェアのバージョンアップについて説明する。
図4は、本発明の実施の形態のインストール用記憶媒体700の説明図である。
インストール用記憶媒体700には、バージョン情報711、ノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713が格納されている。
バージョン情報711は、ノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713のバージョンを示す。
ノード用システムソフトウェアパッケージ712は、ノード100A用システムLU150及びノード100B用システムLU151に適用されるパッケージである。例えば、ノード用システムソフトウェアパッケージ712は、オペレーティングシステムファイル340、バージョンアップ処理プログラムファイル341、VNAS管理プログラムファイル342及びクラスタ管理プログラムファイル343のうち少なくとも一つの更新イメージを含む。
VNAS用システムソフトウェアパッケージ713は、ルートファイルシステムを含むLU1(160)、LU3(160)及びLU5(160)に適用されるパッケージである。例えば、VNAS用システムソフトウェアパッケージ713は、アプリケーションプログラムファイル350及び管理プログラムファイル351のうち少なくとも一方の更新イメージを含む。
図5A〜Eは、本発明の実施の形態の計算システムのシステムソフトウェアバージョンアップ処理のシーケンス図である。
管理用PC110に備わる記憶媒体読取装置111には、新しいバージョンのシステムソフトウェアパッケージを含むインストール用記憶媒体700が予めセットされている。
まず、管理用PC110のバージョンアップ指示プログラム330は、ノード100Aのバージョンアップ処理プログラム310にバージョンアップを指示する(400)。
ノード100Aのバージョンアップ処理プログラム310は、バージョンアップの指示を受ける。すると、ノード100Aのバージョンアップ処理プログラム310は、ノード100Aで稼動しているすべてのVNASをノード100Bにフェイルオーバすることを、ノード100Aのクラスタ管理プログラム312に指示する(410)。
なお、ノード100Aのバージョンアップ処理プログラム310が、ノード100Aのクラスタ管理プログラム312からフェイルオーバの完了を通知されるまでには、時間がかかる。そこで、管理用PC110のバージョンアップ指示プログラム330は、インストール用記憶媒体700から、ノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を読み出す。次に、管理用PC110のバージョンアップ指示プログラム330は、読み出したノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を、ノード100Aのバージョンアップ処理プログラム310に送信する(401)。
すると、ノード100Aのバージョンアップ処理プログラム310は、ノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を受信する。次に、ノード100Aのバージョンアップ処理プログラム310は、受信したノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を、ノード100A用システムLU150に格納する(411)。
一方、ノード100Aのクラスタ管理プログラム312は、ノード100Aのバージョンアップ処理プログラム310からフェイルオーバの指示を受ける。すると、ノード100Aのクラスタ管理プログラム312は、ノード100Aで稼動しているすべてのVNASに対して、繰返処理(ステップ420〜423)を実行する。本実施の形態では、ノード100Aのクラスタ管理プログラム312は、VNAS1(302)及びVNAS2(303)に対して、繰返処理を実行する。
まず、ノード100Aのクラスタ管理プログラム312は、ノード100Aで稼動しているVNASを、順番に選択する(420)。次に、ノード100Aのクラスタ管理プログラム312は、選択したVNASの停止を、ノード100AのVNAS管理プログラム311に要求する(421)。
ノード100AのVNAS管理プログラム311は、VNASの停止要求を受けると、停止を要求されたVNASの稼動を停止する(430)。そして、ノード100AのVNAS管理プログラム311は、VNASの停止完了を、ノード100Aのクラスタ管理プログラム312に通知する。
ノード100Aのクラスタ管理プログラム312は、VNASの停止完了の通知を、ノード100AのVNAS管理プログラム311から受ける。すると、ノード100Aのクラスタ管理プログラム312は、ステップ420で選択したVNASの識別子とVNAS名201とが一致する列を、ノード100A用システムLU150に格納されているVNAS構成表200から選択する。
次に、ノード100Aのクラスタ管理プログラム312は、選択した列から、システムソフトウェアバージョン205を抽出する。次に、ノード100Aのクラスタ管理プログラム312は、ステップ420で選択したVNASの起動要求を、ノード100Bのクラスタ管理プログラム312に送信する(422)。なお、VNASの起動要求には、抽出されたシステムソフトウェアバージョン205が含まれる。
ノード100Aのクラスタ管理プログラム312は、ノード100Aで稼動しているすべてのVNASをステップ420で選択するまで、繰返処理を実行する。そして、ノード100Aのクラスタ管理プログラム312は、ノード100Aで稼動しているすべてのVNASをステップ420で選択すると、繰返処理を終了する(423)。本実施の形態では、繰返処理によって、VNAS1(302)及びVNAS2(303)の稼動が停止される。
その後、ノード100Aのクラスタ管理プログラム312は、ノード100Aのバージョンアップ処理プログラム310に、フェイルオーバの完了を通知する(424)。
一方、ノード100Bのクラスタ管理プログラム312は、VNASの起動要求を、ノード100Aのクラスタ管理プログラム312から受信する。すると、ノード100Bのクラスタ管理プログラム312は、VNASの起動要求で指定されたVNASの起動を、ノード100BのVNAS管理プログラム311に要求する(450)。このとき、ノード100Bのクラスタ管理プログラム312は、受信したVNASの起動要求に含まれるシステムソフトウェアバージョンを、ノード100BのVNAS管理プログラム311に通知する。
ノード100BのVNAS管理プログラム311は、VNASの起動要求を受けると、ノード100B用システムLU151から、当該ノード100Bのシステムソフトウェアのバージョンを取得する。次に、ノード100BのVNAS管理プログラム311は、通知されたシステムソフトウェアバージョンと取得したノード100Bのシステムソフトウェアのバージョンとが、一致するか否かを判定する(460)。ここでは、通知されたシステムソフトウェアバージョンと当該ノード100Bのシステムソフトウェアのバージョンとが一致する。
二つのバージョンが一致する場合、起動を要求されたVNASのシステムソフトウェアのバージョンアップは不要である。そこで、ノード100BのVNAS管理プログラム311は、起動を要求されたVNASを起動する(461)。更に、ノード100BのVNAS管理プログラム311は、起動したVNASの識別子とVNAS名201とが一致する列を、ノード100B用システムLU151に格納されているVNAS構成表200から選択する。次に、ノード100BのVNAS管理プログラム311は、通知されたシステムソフトウェアバージョンを、選択した列のシステムソフトウェアバージョン205に格納する。
本実施の形態では、ノード100BのVNAS管理プログラム311は、VNAS1(302)及びVNAS2(303)を起動する。
一方、ノード100Aのバージョンアップ処理プログラム310は、受信したノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713をノード100A用システムLU150に格納し、且つ、フェイルオーバの完了通知を受けると、ステップS412に進む。
ノード100Aのバージョンアップ処理プログラム310は、ノード100A用システムLU150に、ノード用システムソフトウェアパッケージ712を適用する。これによって、ノード100Aのバージョンアップ処理プログラム310は、ノード100Aのシステムソフトウェアをバージョンアップする(412)。
ノード100Aのバージョンアップ処理プログラム310は、バージョンアップを完了すると、管理用PC110のバージョンアップ指示プログラム330にバージョンアップの完了を通知する。
そして、ノード100Aのバージョンアップ処理プログラム310は、バージョンアップしたシステムソフトウェアを実行するため、ノード100Aをリブートする(413)。つまり、ノード100Aのすべてのプログラムは、一旦終了してから(440)、再度開始する(441)。
すると、ノード100Aのバージョンアップ処理プログラム310は、リブートの完了を、管理用PC110のバージョンアップ指示プログラム330に通知する(414)。
これによって、ノード100Aのシステムソフトウェアは、新しいバージョンに更新されている。更に、ノード100Aでは、VNASが一つも稼動していない。一方、ノード100Bのシステムソフトウェアは、古いバージョンのままである。更に、ノード100Bでは、すべてのVNASが稼動している。
管理用PC110のバージョンアップ指示プログラム330は、ノード100Aのバージョンアップ処理プログラム310からリブートの完了通知を受ける。すると、管理用PC110のバージョンアップ指示プログラム330は、ノード100Bのバージョンアップ処理プログラム310にバージョンアップを指示する(500)。
ノード100Bのバージョンアップ処理プログラム310は、バージョンアップの指示を受ける。すると、ノード100Bのバージョンアップ処理プログラム310は、ノード100Bで稼動しているすべてのVNASをノード100Aにフェイルオーバすることを、ノード100Bのクラスタ管理プログラム312に指示する(510)。
なお、ノード100Bのバージョンアップ処理プログラム310が、ノード100Bのクラスタ管理プログラム312からフェイルオーバの完了を通知されるまでには、時間がかかる。そこで、管理用PC110のバージョンアップ指示プログラム330は、インストール用記憶媒体700から、ノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を読み出す。次に、管理用PC110のバージョンアップ指示プログラム330は、読み出したノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を、ノード100Bのバージョンアップ処理プログラム310に送信する(501)。
すると、ノード100Bのバージョンアップ処理プログラム310は、ノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を受信する。次に、ノード100Bのバージョンアップ処理プログラム310は、受信したノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713を、ノード100B用システムLU151に格納する(511)。
一方、ノード100Bのクラスタ管理プログラム312は、ノード100Bのバージョンアップ処理プログラム310からフェイルオーバの指示を受ける。すると、ノード100Bのクラスタ管理プログラム312は、ノード100Bで稼動しているすべてのVNASに対して、繰返処理(ステップ520〜523)を実行する。本実施の形態では、ノード100Bのクラスタ管理プログラム312は、VNAS1(302)、VNAS2(303)及びVNAS3(307)に対して、繰返処理を実行する。
まず、ノード100Bのクラスタ管理プログラム312は、ノード100Bで稼動しているVNASを、順番に選択する(520)。次に、ノード100Bのクラスタ管理プログラム312は、選択したVNASの停止を、ノード100BのVNAS管理プログラム311に要求する(521)。
ノード100BのVNAS管理プログラム311は、VNASの停止要求を受けると、停止を要求されたVNASの稼動を停止する(530)。そして、ノード100BのVNAS管理プログラム311は、VNASの停止完了を、ノード100Bのクラスタ管理プログラム312に通知する。
ノード100Bのクラスタ管理プログラム312は、VNASの停止完了の通知を、ノード100BのVNAS管理プログラム311から受ける。すると、ノード100Bのクラスタ管理プログラム312は、ステップ520で選択したVNASの識別子とVNAS名201とが一致する列を、ノード100B用システムLU151に格納されているVNAS構成表200から選択する。
次に、ノード100Bのクラスタ管理プログラム312は、選択した列から、システムソフトウェアバージョン205を抽出する。次に、ノード100Bのクラスタ管理プログラム312は、ステップ520で選択したVNASの起動要求を、ノード100Aのクラスタ管理プログラム312に送信する(522)。なお、VNASの起動要求には、抽出されたシステムソフトウェアバージョン205が含まれる。
ノード100Bのクラスタ管理プログラム312は、ノード100Bで稼動しているすべてのVNASをステップ520で選択するまで、繰返処理を繰り返す。そして、ノード100Bのクラスタ管理プログラム312は、ノード100Bで稼動しているすべてのVNASをステップ520で選択すると、繰返処理を終了する(523)。本実施の形態では、繰返処理によって、VNAS1(302)、VNAS2(303)及びVNAS3(307)の稼動が停止される。
その後、ノード100Bのクラスタ管理プログラム312は、ノード100Bのバージョンアップ処理プログラム310に、フェイルオーバの完了を通知する(524)。
一方、ノード100Aのクラスタ管理プログラム312は、VNASの起動要求を、ノード100Bのクラスタ管理プログラム312から受信する。すると、ノード100Aのクラスタ管理プログラム312は、VNASの起動要求で指定されたVNASの起動を、ノード100AのVNAS管理プログラム311に要求する(550)。このとき、ノード100Aのクラスタ管理プログラム312は、受信したVNASの起動要求に含まれるシステムソフトウェアバージョンを、ノード100AのVNAS管理プログラム311に通知する。
ノード100AのVNAS管理プログラム311は、VNASの起動要求を受けると、ノード100A用システムLU150から、当該ノード100Aのシステムソフトウェアのバージョンを取得する。次に、ノード100AのVNAS管理プログラム311は、通知されたシステムソフトウェアバージョンと取得したノード100Aのシステムソフトウェアのバージョンとが、一致するか否かを判定する(560)。ここでは、通知されたシステムソフトウェアバージョンと当該ノード100Aのシステムソフトウェアのバージョンとが異なる。
二つのバージョンが異なる場合、起動を要求されたVNASのシステムソフトウェアのバージョンアップが必要となる。そこで、ノード100AのVNAS管理プログラム311は、起動を要求されたVNASのシステムソフトウェアのバージョンアップを、ノード100Aのバージョンアップ処理プログラム310に要求する(561)。
ノード100Aのバージョンアップ処理プログラム310は、バージョンアップの要求を受けると、バージョンアップの対象となるVNASのルートファイルシステムを含むLU160を、当該ノード100Aにマウントする(570)。
次に、ノード100Aのバージョンアップ処理プログラム310は、ノード100A用システムLU150に格納されているVNAS用システムソフトウェアパッケージ713を、マウントしたLU160に適用する(571)。これによって、ノード100Aのバージョンアップ処理プログラム310は、VNASのシステムソフトウェアをバージョンアップする。
次に、ノード100Aのバージョンアップ処理プログラム310は、VNAS用システムソフトウェアパッケージ713が適用されたLU160をアンマウントする。
そして、ノード100Aのバージョンアップ処理プログラム310は、バージョンアップの完了をノード100AのVNAS管理プログラム311に通知する(572)。
ノード100AのVNAS管理プログラム311は、バージョンアップの完了通知をノード100Aのバージョンアップ処理プログラム310から受ける。すると、ノード100AのVNAS管理プログラム311は、起動を要求されたVNASを起動する(562)。更に、ノード100AのVNAS管理プログラム311は、起動したVNASの識別子とVNAS名201とが一致する列を、ノード100A用システムLU150に格納されているVNAS構成表200から選択する。次に、ノード100AのVNAS管理プログラム311は、通知されたシステムソフトウェアバージョンを、選択した列のシステムソフトウェアバージョン205に格納する。
本実施の形態では、ノード100Aのバージョンアップ処理プログラム310は、VNAS1(302)、VNAS2(303)及びVNAS3(307)のシステムソフトウェアをバージョンアップする。更に、ノード100AのVNAS管理プログラム311は、VNAS1(302)、VNAS2(303)及びVNAS3(307)を起動する。
一方、ノード100Bのバージョンアップ処理プログラム310は、受信したノード用システムソフトウェアパッケージ712及びVNAS用システムソフトウェアパッケージ713をノード100B用システムLU151に格納し、且つ、フェイルオーバの完了通知を受けると、ステップS512に進む。
ノード100Bのバージョンアップ処理プログラム310は、ノード100B用システムLU151に、ノード用システムソフトウェアパッケージ712を適用する。これによって、ノード100Bのバージョンアップ処理プログラム310は、ノード100Bのシステムソフトウェアをバージョンアップする(512)。
ノード100Bのバージョンアップ処理プログラム310は、バージョンアップを完了すると、管理用PC110のバージョンアップ指示プログラム330にバージョンアップの完了を通知する。
そして、ノード100Bのバージョンアップ処理プログラム310は、バージョンアップしたシステムソフトウェアを実行するため、ノード100Bをリブートする(513)。つまり、ノード100Bのすべてのプログラムは、一旦終了してから(540)、再度開始する(541)。
すると、ノード100Bのバージョンアップ処理プログラム310は、リブートの完了を、管理用PC110のバージョンアップ指示プログラム330に通知する(514)。
一方、管理用PC110のバージョンアップ指示プログラム330は、ノード100Bのバージョンアップ処理プログラム310からバージョンアップの完了通知を受ける。すると、管理用PC110のバージョンアップ指示プログラム330は、原状復帰をノード100Aのバージョンアップ処理プログラム310に指示する(600)。
ノード100Aのバージョンアップ処理プログラム310は、原状復帰の指示を受ける。すると、ノード100Aのバージョンアップ処理プログラム310は、当初(ステップ400以前)にノード100Bで稼動していたVNASをノード100Bにフェイルオーバすることを、ノード100Aのクラスタ管理プログラム312に指示する。
本実施の形態では、ノード100Aのバージョンアップ処理プログラム310は、VNAS3(307)のフェイルオーバを、ノード100Aのクラスタ管理プログラム312に指示する(610)。
ノード100Aのクラスタ管理プログラム312は、ノード100Aのバージョンアップ処理プログラム310からフェイルオーバの指示を受ける。すると、ノード100Aのクラスタ管理プログラム312は、VNAS3(307)の停止を、ノード100AのVNAS管理プログラム311に要求する(621)。
ノード100AのVNAS管理プログラム311は、VNAS3(307)の停止要求を受けると、VNAS3(307)の稼動を停止する(630)。そして、ノード100AのVNAS管理プログラム311は、VNAS3(307)の停止完了を、ノード100Aのクラスタ管理プログラム312に通知する。
ノード100Aのクラスタ管理プログラム312は、VNAS3(307)の停止完了の通知を、ノード100AのVNAS管理プログラム311から受ける。すると、ノード100Aのクラスタ管理プログラム312は、VNAS3(307)の識別子とVNAS名201とが一致する列を、ノード100A用システムLU150に格納されているVNAS構成表200から選択する。
次に、ノード100Aのクラスタ管理プログラム312は、選択した列から、システムソフトウェアバージョン205を抽出する。次に、ノード100Aのクラスタ管理プログラム312は、VNAS3(307)の起動要求を、ノード100Bのクラスタ管理プログラム312に送信する(622)。なお、VNAS3(307)の起動要求には、抽出されたシステムソフトウェアバージョン205が含まれる。
次に、ノード100Aのクラスタ管理プログラム312は、ノード100Aのバージョンアップ処理プログラム310に、フェイルオーバの完了を通知する(624)。
一方、ノード100Bのクラスタ管理プログラム312は、VNAS3(307)の起動要求を、ノード100Aのクラスタ管理プログラム312から受信する。すると、ノード100Bのクラスタ管理プログラム312は、VNAS3(307)の起動を、ノード100BのVNAS管理プログラム311に要求する(650)。このとき、ノード100Bのクラスタ管理プログラム312は、受信したVNAS3(307)の起動要求に含まれるシステムソフトウェアバージョンを、ノード100BのVNAS管理プログラム311に通知する。
ノード100BのVNAS管理プログラム311は、ノード100B用システムLU151から、当該ノード100Bのシステムソフトウェアのバージョンを取得する。次に、ノード100BのVNAS管理プログラム311は、VNAS3(307)の起動要求を受けると、通知されたシステムソフトウェアバージョンと取得したノード100Bのシステムソフトウェアのバージョンとが、一致するか否かを判定する(660)。ここでは、通知されたシステムソフトウェアバージョンと当該ノード100Bのシステムソフトウェアのバージョンとが一致する。
二つのバージョンが一致する場合、VNAS3(307)のシステムソフトウェアのバージョンアップは不要である。そこで、ノード100BのVNAS管理プログラム311は、VNAS3(307)を起動する(661)。更に、ノード100BのVNAS管理プログラム311は、VNAS3(307)の識別子とVNAS名201とが一致する列を、ノード100B用システムLU151に格納されているVNAS構成表200から選択する。次に、ノード100BのVNAS管理プログラム311は、通知されたシステムソフトウェアバージョンを、選択した列のシステムソフトウェアバージョン205に格納する。
一方、ノード100Aのバージョンアップ処理プログラム310は、ノード100Aのクラスタ管理プログラム312からフェイルオーバの完了通知を受ける。すると、ノード100Aのバージョンアップ処理プログラム310は、管理用PC110のバージョンアップ指示プログラム330に原状復帰の完了を通知する(611)。
管理用PC110のバージョンアップ指示プログラム330が、原状復帰の完了の通知を受けると、当該システムソフトウェアバージョンアップ処理は終了する(601)。
なお、バージョンアップ処理プログラム310、VNAS管理プログラム311及びクラスタ管理プログラム312は、ノード100A又はノード100Bに備わるCPU101によって実行される。また、バージョンアップ指示プログラム330は、管理用PC110に備わるCPU801によって実行される。
以上のように、新バージョンのシステムソフトウェアが適用されているノード100は、旧バージョンのシステムソフトウェアが適用されているVNASを起動する際に、当該VNASに適用されているシステムソフトウェアを自動的にバージョンアップする。これによって、新バージョンのシステムソフトウェアと旧バージョンのシステムソフトウェアとが混在するという問題を解決できる。更に、VNASによって提供されるサービスの停止時間は、フェイルオーバのための時間及びLU160にVNAS用システムソフトウェアパッケージ713を適用するための時間だけである。よって、VNASによって提供されるサービスの停止時間が、従来よりも短縮される。
従来では、VNASのシステムソフトウェアがバージョンアップされる度に、VNAS用システムソフトウェアパッケージ713は、管理用PC110からノード100に転送されていた。一方、本実施の形態では、ノード100がバージョンアップされる際に、VNAS用システムソフトウェアパッケージ713は、ノード100A用システムLU150又はノード100B用システムLU151に格納される。そのため、VNASのシステムソフトウェアがバージョンアップされる際には、VNAS用システムソフトウェアパッケージ713は、管理用PC110からノード100に転送される必要がない。よって、本実施の形態では、VNASによって提供されるサービスの停止時間が、従来よりも短縮される。
また、本実施の形態では、管理VNAS301が、VNASのシステムソフトウェアを更新する。そのため、VNASがバージョンアップ機能を備える必要がない。
更に、VNASのシステムソフトウェアをバージョンアップするために、管理用PC110が、VNASにアクセス可能なデータLAN131に接続される必要がない。そのため、バージョンアップ作業者が、VANSによって提供されるサービスの顧客データを覗き見たり、改変したりする脅威を排除できる。
なお、VNAS1(302)、VNAS2(303)及びVNAS3(307)は、同一のアプリケーションプログラム320を実行してもよいし、それぞれ異なるアプリケーションプログラム320を実行してもよい。同様に、VNAS1(302)、VNAS2(303)及びVNAS3(307)は、同一の管理プログラム321を実行してもよいし、それぞれ異なる管理プログラム321を実行してもよい。
VNAS1(302)、VNAS2(303)及びVNAS3(307)が、それぞれ異なるアプリケーションプログラム320又はそれぞれ異なる管理プログラム321を実行する場合を説明する。この場合、インストール用記憶媒体700は、VNAS用システムソフトウェアパッケージ713を、VNASごとに記憶する。そして、ノード100Aは、ステップ571において、適切なVNAS用システムソフトウェアパッケージ713を、マウントしたLU160に適用する。
本発明の実施の形態の計算機システムの構成のブロック図である。 本発明の実施の形態のノード100A用システムLU及びノード100B用システムLUに記憶されるVNAS構成表の構成図である。 本発明の実施の形態の計算機システムの機能構成のブロック図である。 本発明の実施の形態のインストール用記憶媒体の説明図である。 本発明の実施の形態の計算システムのシステムソフトウェアバージョンアップ処理のシーケンス図である。 本発明の実施の形態の計算システムのシステムソフトウェアバージョンアップ処理のシーケンス図である。 本発明の実施の形態の計算システムのシステムソフトウェアバージョンアップ処理のシーケンス図である。 本発明の実施の形態の計算システムのシステムソフトウェアバージョンアップ処理のシーケンス図である。 本発明の実施の形態の計算システムのシステムソフトウェアバージョンアップ処理のシーケンス図である。 本発明の実施の形態の管理用PC110のハードウェア構成のブロック図である。
符号の説明
100 ノード
101 CPU
102 メモリ
103 ストレージインタフェース
104 管理用ネットワークインタフェース
105 データ用ネットワークインタフェース
108 クラスタ通信用ネットワークインタフェース
110 管理用PC
111 記憶媒体読取装置
120 クライアントPC
130 管理LAN
131 データLAN
150 ノード100A用システムLU
151 ノード100B用システムLU
160 LU
170 ストレージ装置
171 DKC
301 管理VNAS
302 VNAS1
303 VNAS2
304 VNAS3フェイルオーバ先
305 VNAS1フェイルオーバ先
306 VNAS2フェイルオーバ先
307 VNAS3
310 バージョンアップ処理プログラム
311 VNAS管理プログラム
312 クラスタ管理プログラム
320 アプリケーションプログラム
321 管理プログラム

Claims (17)

  1. 第1プロセッサ、第1メモリ及び第1インタフェースを備える第1サーバ装置と、データが格納される記憶部及び前記記憶部に対するデータの入出力を制御する入出力制御部を備え、前記第1サーバ装置に接続されるストレージ装置と、を備える計算機システムであって、
    前記第1プロセッサ、前記第1メモリ及び前記第1インタフェースのそれぞれは、論理的に分割され、
    前記分割された第1プロセッサ、第1メモリ及び第1インタフェースは、独立した仮想サーバ装置として、前記第1サーバ装置上で稼動し、
    前記仮想サーバ装置は、サービスを提供する一つ以上の第1仮想サーバ装置及び前記第1仮想サーバ装置を管理する第2仮想サーバ装置を含み、
    前記第2仮想サーバ装置は、
    前記第1仮想サーバ装置の起動要求を受けると、当該起動を要求された第1仮想サーバ装置のシステムソフトウェアと、当該第1仮想サーバ装置が稼動する第1サーバ装置のシステムソフトウェアと、が整合するか否かを判定し、
    前記二つのシステムソフトウェアが整合しない場合には、前記起動を要求された第1仮想サーバ装置のシステムソフトウェアを更新してから、前記第1仮想サーバ装置を起動することを特徴とする計算機システム。
  2. 前記第2仮想サーバ装置は、
    前記第1サーバ装置のシステムソフトウェアが更新される時に、前記第1仮想サーバ装置のシステムソフトウェアの更新データを、前記ストレージ装置に格納し、
    前記二つのシステムソフトウェアが整合しない場合には、前記ストレージ装置に格納されている前記更新データを用いて、前記起動を要求された第1仮想サーバ装置のシステムソフトウェアを更新することを特徴とする請求項1に記載の計算機システム。
  3. 前記第2仮想サーバ装置は、前記二つのシステムソフトウェアが整合しない場合には、前記第1仮想サーバ装置のシステムソフトウェアの更新データを、前記ストレージ装置内の前記第1仮想サーバ装置がアクセス可能な記憶領域に格納することによって、前記起動を要求された第1仮想サーバ装置のシステムソフトウェアを更新することを特徴とする請求項1に記載の計算機システム。
  4. 更に、第2プロセッサ、第2メモリ及び第2インタフェースを備える管理計算機を備え、
    前記第2仮想サーバ装置は、
    前記第1サーバ装置のシステムソフトウェアを更新するためのデータである第1更新データ及び前記第1仮想サーバ装置のシステムソフトウェアを更新するためのデータである第2更新データを、前記第2インタフェースを介して前記管理計算機から受信し、
    前記受信した第1更新データを用いて、前記第1サーバ装置のシステムソフトウェアを更新し、
    前記受信した第2更新データを、前記ストレージ装置に格納し、
    前記二つのシステムソフトウェアが整合しない場合には、前記ストレージ装置に格納されている前記第2更新データを用いて、前記起動を要求された第1仮想サーバ装置のシステムソフトウェアを更新することを特徴とする請求項1に記載の計算機システム。
  5. 更に、第3プロセッサ、第3メモリ及び第3インタフェースを備える第2サーバ装置を備え、
    前記第3プロセッサ、前記第3メモリ及び前記第3インタフェースのそれぞれは、論理的に分割され、
    前記分割された第3プロセッサ、第3メモリ及び第3インタフェースは、独立した前記仮想サーバ装置として、前記第2サーバ装置上で稼動し、
    前記第2サーバ装置で稼動している前記第2仮想サーバ装置は、
    前記第2サーバ装置で稼動している前記第1仮想サーバ装置を停止し、
    前記停止された第1仮想サーバ装置の起動を、前記第1サーバ装置で稼動している前記第2仮想サーバ装置に要求することを特徴とする請求項1に記載の計算機システム。
  6. 更に、第3プロセッサ、第3メモリ及び第3インタフェースを備える第2サーバ装置を備え、
    前記第3プロセッサ、前記第3メモリ及び前記第3インタフェースのそれぞれは、論理的に分割され、
    前記分割された第3プロセッサ、第3メモリ及び第3インタフェースは、独立した前記仮想サーバ装置として、前記第2サーバ装置上で稼動し、
    前記第1サーバ装置で稼動している前記仮想第2サーバ装置は、
    前記第1サーバ装置のシステムソフトウェアの更新要求を受けると、前記第1サーバ装置で稼動しているすべての第1仮想サーバ装置を停止し、
    前記停止された第1仮想サーバ装置の起動を、前記第2サーバ装置で稼動している前記第2仮想サーバ装置に要求してから、前記第1サーバ装置のシステムソフトウェアを更新することを特徴とする請求項1に記載の計算機システム。
  7. 第1プロセッサ、第1メモリ及び第1インタフェースを備える第1サーバ装置と、データが格納される記憶部及び前記記憶部に対するデータの入出力を制御する入出力制御部を備え、前記第1サーバ装置に接続されるストレージ装置と、を備える計算機システムにおけるシステムソフトウェア更新方法であって、
    前記第1プロセッサ、前記第1メモリ及び前記第1インタフェースのそれぞれは、論理的に分割され、
    前記分割された第1プロセッサ、第1メモリ及び第1インタフェースは、独立した仮想サーバ装置として、前記第1サーバ装置上で稼動し、
    前記仮想サーバ装置は、サービスを提供する一つ以上の第1仮想サーバ装置及び前記第1仮想サーバ装置を管理する第2仮想サーバ装置を含み、
    前記第2仮想サーバ装置は、
    前記第1仮想サーバ装置の起動要求を受けると、当該起動を要求された第1仮想サーバ装置のシステムソフトウェアと、当該第1仮想サーバ装置が稼動する第1サーバ装置のシステムソフトウェアと、が整合するか否かを判定し、
    前記二つのシステムソフトウェアが整合しない場合には、前記起動を要求された第1仮想サーバ装置のシステムソフトウェアを更新してから、前記第1仮想サーバ装置を起動することを特徴とするシステムソフトウェア更新方法。
  8. 前記第2仮想サーバ装置は、
    前記第1サーバ装置のシステムソフトウェアが更新される時に、前記第1仮想サーバ装置のシステムソフトウェアの更新データを、前記ストレージ装置に格納し、
    前記二つのシステムソフトウェアが整合しない場合には、前記ストレージ装置に格納されている前記更新データを用いて、前記起動を要求された第1仮想サーバ装置のシステムソフトウェアを更新することを特徴とする請求項7に記載のシステムソフトウェア更新方法。
  9. 前記第2仮想サーバ装置は、前記二つのシステムソフトウェアが整合しない場合には、前記第1仮想サーバ装置のシステムソフトウェアの更新データを、前記ストレージ装置内の前記第1仮想サーバ装置がアクセス可能な記憶領域に格納することによって、前記起動を要求された第1仮想サーバ装置のシステムソフトウェアを更新することを特徴とする請求項7に記載のシステムソフトウェア更新方法。
  10. 前記計算機システムは、更に、第2プロセッサ、第2メモリ及び第2インタフェースを備える管理計算機を備え、
    前記システムソフトウェア更新方法は、
    前記第2仮想サーバ装置が、
    前記第1サーバ装置のシステムソフトウェアを更新するためのデータである第1更新データ及び前記第1仮想サーバ装置のシステムソフトウェアを更新するためのデータである第2更新データを、前記第2インタフェースを介して前記管理計算機から受信し、
    前記受信した第1更新データを用いて、前記第1サーバ装置のシステムソフトウェアを更新し、
    前記受信した第2更新データを、前記ストレージ装置に格納し、
    前記二つのシステムソフトウェアが整合しない場合には、前記ストレージ装置に格納されている前記第2更新データを用いて、前記起動を要求された第1仮想サーバ装置のシステムソフトウェアを更新することを特徴とする請求項7に記載のシステムソフトウェア更新方法。
  11. 前記計算機システムは、更に、第3プロセッサ、第3メモリ及び第3インタフェースを備える第2サーバ装置を備え、
    システムソフトウェア更新方法は、
    前記第3プロセッサ、前記第3メモリ及び前記第3インタフェースのそれぞれは、論理的に分割され、
    前記分割された第3プロセッサ、第3メモリ及び第3インタフェースは、独立した前記仮想サーバ装置として、前記第2サーバ装置上で稼動し、
    前記第2サーバ装置で稼動している前記第2仮想サーバ装置は、
    前記第2サーバ装置で稼動している前記第1仮想サーバ装置を停止し、
    前記停止された第1仮想サーバ装置の起動を、前記第1サーバ装置で稼動している前記第2仮想サーバ装置に要求することを特徴とする請求項7に記載のシステムソフトウェア更新方法。
  12. 前記計算機システムは、更に、第3プロセッサ、第3メモリ及び第3インタフェースを備える第2サーバ装置を備え、
    システムソフトウェア更新方法は、
    前記第3プロセッサ、前記第3メモリ及び前記第3インタフェースのそれぞれは、論理的に分割され、
    前記分割された第3プロセッサ、第3メモリ及び第3インタフェースは、独立した前記仮想サーバ装置として、前記第2サーバ装置上で稼動し、
    前記第1サーバ装置で稼動している前記仮想第2サーバ装置は、
    前記第1サーバ装置のシステムソフトウェアの更新要求を受けると、前記第1サーバ装置で稼動しているすべての第1仮想サーバ装置を停止し、
    前記停止された第1仮想サーバ装置の起動を、前記第2サーバ装置で稼動している前記第2仮想サーバ装置に要求してから、前記第1サーバ装置のシステムソフトウェアを更新することを特徴とする請求項7に記載のシステムソフトウェア更新方法。
  13. データが格納される記憶部及び前記記憶部に対するデータの入出力を制御する入出力制御部を備えるストレージ装置に接続され、第1プロセッサ、第1メモリ及び第1インタフェースを備える第1サーバ装置であって、
    前記第1プロセッサ、前記第1メモリ及び前記第1インタフェースのそれぞれは、論理的に分割され、
    前記分割された第1プロセッサ、第1メモリ及び第1インタフェースは、独立した仮想サーバ装置として、前記第1サーバ装置上で稼動し、
    前記仮想サーバ装置は、サービスを提供する一つ以上の第1仮想サーバ装置及び前記第1仮想サーバ装置を管理する第2仮想サーバ装置を含み、
    前記第2仮想サーバ装置は、
    前記第1仮想サーバ装置の起動要求を受けると、当該起動を要求された第1仮想サーバ装置のシステムソフトウェアと、当該第1仮想サーバ装置が稼動する第1サーバ装置のシステムソフトウェアと、が整合するか否かを判定し、
    前記二つのシステムソフトウェアが整合しない場合には、前記起動を要求された第1仮想サーバ装置のシステムソフトウェアを更新してから、前記第1仮想サーバ装置を起動することを特徴とする第1サーバ装置。
  14. 前記第2仮想サーバ装置は、
    前記第1サーバ装置のシステムソフトウェアが更新される時に、前記第1仮想サーバ装置のシステムソフトウェアの更新データを、前記ストレージ装置に格納し、
    前記二つのシステムソフトウェアが整合しない場合には、前記ストレージ装置に格納されている前記更新データを用いて、前記起動を要求された第1仮想サーバ装置のシステムソフトウェアを更新することを特徴とする請求項13に記載の第1サーバ装置。
  15. 前記第2仮想サーバ装置は、前記二つのシステムソフトウェアが整合しない場合には、前記第1仮想サーバ装置のシステムソフトウェアの更新データを、前記ストレージ装置内の前記第1仮想サーバ装置がアクセス可能な記憶領域に格納することによって、前記起動を要求された第1仮想サーバ装置のシステムソフトウェアを更新することを特徴とする請求項13に記載の第1サーバ装置。
  16. 更に、管理計算機に接続され、
    前記第2仮想サーバ装置は、
    前記第1サーバ装置のシステムソフトウェアを更新するためのデータである第1更新データ及び前記第1仮想サーバ装置のシステムソフトウェアを更新するためのデータである第2更新データを、前記管理計算機から受信し、
    前記受信した第1更新データを用いて、前記第1サーバ装置のシステムソフトウェアを更新し、
    前記受信した第2更新データを、前記ストレージ装置に格納し、
    前記二つのシステムソフトウェアが整合しない場合には、前記ストレージ装置に格納されている前記第2更新データを用いて、前記起動を要求された第1仮想サーバ装置のシステムソフトウェアを更新することを特徴とする請求項13に記載の第1サーバ装置。
  17. 更に、第3プロセッサ、第3メモリ及び第3インタフェースを備える第2サーバ装置に接続され、
    前記第3プロセッサ、前記第3メモリ及び前記第3インタフェースのそれぞれは、論理的に分割され、
    前記分割された第3プロセッサ、第3メモリ及び第3インタフェースは、独立した前記仮想サーバ装置として、前記第2サーバ装置上で稼動し、
    前記第1サーバ装置で稼動している前記仮想第2サーバ装置は、
    前記第1サーバ装置のシステムソフトウェアの更新要求を受けると、前記第1サーバ装置で稼動しているすべての第1仮想サーバ装置を停止し、
    前記停止された第1仮想サーバ装置の起動を、前記第2サーバ装置で稼動している前記第2仮想サーバ装置に要求してから、前記第1サーバ装置のシステムソフトウェアを更新することを特徴とする請求項13に記載の第1サーバ装置。
JP2006308895A 2006-11-15 2006-11-15 計算機システム、システムソフトウェア更新方法及び第1サーバ装置 Expired - Fee Related JP4359609B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006308895A JP4359609B2 (ja) 2006-11-15 2006-11-15 計算機システム、システムソフトウェア更新方法及び第1サーバ装置
US11/622,253 US8015559B2 (en) 2006-11-15 2007-01-11 System software update method
US13/195,942 US8255898B2 (en) 2006-11-15 2011-08-02 System software update method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006308895A JP4359609B2 (ja) 2006-11-15 2006-11-15 計算機システム、システムソフトウェア更新方法及び第1サーバ装置

Publications (2)

Publication Number Publication Date
JP2008123412A true JP2008123412A (ja) 2008-05-29
JP4359609B2 JP4359609B2 (ja) 2009-11-04

Family

ID=39370678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006308895A Expired - Fee Related JP4359609B2 (ja) 2006-11-15 2006-11-15 計算機システム、システムソフトウェア更新方法及び第1サーバ装置

Country Status (2)

Country Link
US (2) US8015559B2 (ja)
JP (1) JP4359609B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210930A (ja) * 2012-03-30 2013-10-10 Nec Corp フォールトトレラントサーバ、デフラグ方法、およびプログラム
JP2014130648A (ja) * 2009-04-23 2014-07-10 Nec Corp 若化処理装置、若化処理システム、コンピュータプログラムおよびデータ処理方法
JP2014206889A (ja) * 2013-04-15 2014-10-30 セイコーエプソン株式会社 電子機器、及び、通信システム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8898653B2 (en) * 2007-06-27 2014-11-25 International Business Machines Corporation Non-disruptive code update of a single processor in a multi-processor computing system
JP5222573B2 (ja) * 2008-01-29 2013-06-26 株式会社日立製作所 サーバ計算機及びネットワーク処理方法
US8484653B2 (en) * 2010-07-28 2013-07-09 Red Hat Israel, Ltd. Mechanism for delayed hardware upgrades in virtualization systems
JP5843595B2 (ja) 2011-12-13 2016-01-13 キヤノン株式会社 生産装置
DE102012200155A1 (de) * 2012-01-05 2013-07-11 Continental Automotive Gmbh Rechnersystem und Verfahren zum Betreiben eines Rechnersystems
RU2523113C1 (ru) * 2012-12-25 2014-07-20 Закрытое акционерное общество "Лаборатория Касперского" Система и способ целевой установки сконфигурированного программного обеспечения
RU2541935C2 (ru) 2012-12-25 2015-02-20 Закрытое акционерное общество "Лаборатория Касперского" Система и способ развертывания предварительно сконфигурированного программного обеспечения
US9383986B2 (en) 2013-06-18 2016-07-05 Disney Enterprises, Inc. Safe low cost web services software deployments
GB2520343A (en) 2013-11-19 2015-05-20 Ibm A system having a cluster of communication controllers and a method for modification of the latter
CN104468235A (zh) * 2014-12-25 2015-03-25 浙江中控研究院有限公司 一种基于iap的可配置全网络远程节点固件升级系统及装置
CN106059791B (zh) * 2016-05-13 2020-04-14 华为技术有限公司 一种存储系统中业务的链路切换方法和存储设备
DE102017107277B4 (de) * 2017-04-05 2024-06-13 Hanon Systems Verfahren zur Aktualisierung einer Steuersoftware in einem Hochvolt-Steuergerät
CN109189457B (zh) * 2018-11-05 2021-06-22 北京原子机器人科技有限公司 智能惯导传感系统的固件升级系统及方法
CN109582372B (zh) * 2018-11-12 2022-01-28 海信视像科技股份有限公司 一种系统的启动方法及装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5701492A (en) * 1996-03-29 1997-12-23 Canon Kabushiki Kaisha Fail-safe flashing of EPROM
US6317844B1 (en) * 1998-03-10 2001-11-13 Network Appliance, Inc. File server storage arrangement
US6324692B1 (en) * 1999-07-28 2001-11-27 Data General Corporation Upgrade of a program
US7080134B2 (en) * 2001-06-29 2006-07-18 Intel Corporation Systems and methods for software distribution and management
US20030032425A1 (en) * 2001-08-11 2003-02-13 Hong-Sik Kim Schema change method of dual system
US7356677B1 (en) * 2001-10-19 2008-04-08 Flash Vos, Inc. Computer system capable of fast switching between multiple operating systems and applications
JP2003131839A (ja) * 2001-10-29 2003-05-09 Canon Inc ネットワークシステム、情報処理装置、情報処理方法、及び、制御プログラム
DE10206001A1 (de) * 2002-02-14 2003-08-28 Alcatel Sa Verfahren zur Steuerung der Installation von Programmcode auf Netzelementen
US7380113B2 (en) * 2002-05-17 2008-05-27 Xiotech Corporation Method for updating memory resident firmware as a background operation
US7249174B2 (en) * 2002-06-12 2007-07-24 Bladelogic, Inc. Method and system for executing and undoing distributed server change operations
JP4152755B2 (ja) * 2003-01-10 2008-09-17 富士通株式会社 新旧プログラムモジュールの切り替え機能を有するサーバ装置
JP4567293B2 (ja) * 2003-01-21 2010-10-20 株式会社日立製作所 ファイルサーバ
US7810088B2 (en) * 2003-06-20 2010-10-05 Samsung Electronics Co., Ltd. Apparatus and method for performing a fail-safe over-the-air software update in a mobile station
US7266677B1 (en) * 2003-09-25 2007-09-04 Rockwell Automation Technologies, Inc. Application modifier based on operating environment parameters
JP4420275B2 (ja) * 2003-11-12 2010-02-24 株式会社日立製作所 フェイルオーバクラスタシステム及びフェイルオーバクラスタシステムを用いたプログラムのインストール方法
JP4448719B2 (ja) 2004-03-19 2010-04-14 株式会社日立製作所 ストレージシステム
US8583770B2 (en) * 2005-02-16 2013-11-12 Red Hat, Inc. System and method for creating and managing virtual services
US7685461B2 (en) * 2006-12-20 2010-03-23 International Business Machines Corporation Method, apparatus and program storage device for performing fault tolerant code upgrade on a fault tolerant system by determining when functional code reaches a desired state before resuming an upgrade
JP4961411B2 (ja) * 2008-10-16 2012-06-27 株式会社日立製作所 計算機システム及びその構成管理方法
US20110055299A1 (en) * 2008-12-18 2011-03-03 Virtual Computer, Inc. Managing User Data in a Layered Virtual Workspace
US8650559B2 (en) * 2009-08-27 2014-02-11 Red Hat Israel, Ltd. Automatic remote installation of a virtualization host

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014130648A (ja) * 2009-04-23 2014-07-10 Nec Corp 若化処理装置、若化処理システム、コンピュータプログラムおよびデータ処理方法
JP2013210930A (ja) * 2012-03-30 2013-10-10 Nec Corp フォールトトレラントサーバ、デフラグ方法、およびプログラム
JP2014206889A (ja) * 2013-04-15 2014-10-30 セイコーエプソン株式会社 電子機器、及び、通信システム

Also Published As

Publication number Publication date
US8015559B2 (en) 2011-09-06
US20080115126A1 (en) 2008-05-15
US8255898B2 (en) 2012-08-28
US20110289494A1 (en) 2011-11-24
JP4359609B2 (ja) 2009-11-04

Similar Documents

Publication Publication Date Title
US8255898B2 (en) System software update method
US7930371B2 (en) Deployment method and system
TWI902620B (zh) 自動部署資訊技術(it)系統及方法
CN106991035B (zh) 一种基于微服务架构的主机监控系统
US7849221B2 (en) Online instance deletion in a multi-instance computer system
US7992032B2 (en) Cluster system and failover method for cluster system
US8583770B2 (en) System and method for creating and managing virtual services
US7937455B2 (en) Methods and systems for modifying nodes in a cluster environment
US7574627B2 (en) Memory dump method, memory dump program and computer system
US20100115342A1 (en) System evaluation apparatus
US20060015861A1 (en) Storage system
JP2002328813A (ja) プログラム修正方法
JP2009140194A (ja) 障害回復環境の設定方法
US9753718B1 (en) Non-disruptive upgrade including rollback capabilities for a distributed file system operating within a cluster of nodes
US20040139308A1 (en) System and apparatus for eliminating user interaction during hardware configuration at system boot
US12360708B2 (en) Allocation, distribution, and configuration of volumes in storage systems
US20080263183A1 (en) Management of Kernel configurations for nodes in a clustered system
US20060036832A1 (en) Virtual computer system and firmware updating method in virtual computer system
US11086615B2 (en) Virtual appliance upgrades in high-availability (HA) computing clusters
CN1834912B (zh) 用于可扩展互联网引擎的iSCSI引导驱动系统及方法
JP5048498B2 (ja) ブート・ディスク管理のユティリティ
EP1645969B1 (en) Remote configuration management for data processing units
WO2023125482A1 (zh) 集群管理方法、设备及计算系统
CN101131653A (zh) 超级操作系统与其媒介之间的透视性沟通方法
JP3527756B2 (ja) システムファイルの更新方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090526

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090804

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090810

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130814

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees