[go: up one dir, main page]

JP2009252114A - ストレージシステム及びデータ退避方法 - Google Patents

ストレージシステム及びデータ退避方法 Download PDF

Info

Publication number
JP2009252114A
JP2009252114A JP2008101846A JP2008101846A JP2009252114A JP 2009252114 A JP2009252114 A JP 2009252114A JP 2008101846 A JP2008101846 A JP 2008101846A JP 2008101846 A JP2008101846 A JP 2008101846A JP 2009252114 A JP2009252114 A JP 2009252114A
Authority
JP
Japan
Prior art keywords
data
spare
drive
drives
hdd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008101846A
Other languages
English (en)
Inventor
Koji Iwamitsu
幸治 岩満
Junji Ogawa
純司 小川
Sukemitsu Matsui
佑光 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008101846A priority Critical patent/JP2009252114A/ja
Priority to US12/213,851 priority patent/US20090259812A1/en
Publication of JP2009252114A publication Critical patent/JP2009252114A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/08Error detection or correction by redundancy in data representation, e.g. by using checking codes
    • G06F11/10Adding special bits or symbols to the coded information, e.g. parity check, casting out 9's or 11's
    • G06F11/1076Parity data used in redundant arrays of independent storages, e.g. in RAID systems
    • G06F11/1092Rebuilding, e.g. when physically replacing a failing disk
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/1658Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit
    • G06F11/1662Data re-synchronization of a redundant component, or initial sync of replacement, additional or spare unit the resynchronized component or unit being a persistent storage device
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】スペアドライブの冗長化の構成を実現し、スペアドライブにデータを連続して書き込むことで、効率的な管理を可能とするストレージシステム及びデータ退避方法を提案しようとするものである。
【解決手段】複数のデータドライブと、複数のデータドライブのうち少なくとも1つのデータドライブ内に格納されるデータを退避対象データとして格納する複数のスペアドライブと、複数のデータドライブから構成される1以上のレイドグループと、1以上のレイドグループと関連付けられ、複数のスペアドライブから構成される1以上のスペア用レイドグループと、少なくとも1つのデータドライブから退避対象データを読み出した順に1以上のスペア用レイドグループを構成する複数のスペアドライブに書き込む書き込み部と、を備えることを特徴とする。
【選択図】図1

Description

本発明は、ストレージシステム及びデータ退避方法に関する。特に、データを交替用のドライブに書き込む技術について適用する。
従来、ストレージシステムのストレージ装置には、複数のハードディスクドライブが実装されている。この複数のハードディスクドライブをRAID方式で管理することで、ストレージシステムの信頼性が向上している。
複数のハードディスクドライブのうち、いずれかのハードディスクドライブに障害が発生した場合には、障害が発生したハードディスクドライブ(以下、データドライブという)に格納されるデータを、ストレージ装置に予め実装されている交替用のハードディスクドライブ(以下、スペアドライブという)に退避させる方法が知られている。しかし、このスペアドライブは、障害が発生したデータドライブ内のデータを復元させるために構成されるレイドグループに対して、1台しか用いられない。このため、スペアドライブにデータドライブ内のデータを退避させる際の時間がかかり、スペアドライブに退避させていたデータを交換後のデータドライブに書き込む際の時間もかかってしまう。また、スペアドライブの容量不足から、障害が発生したデータドライブ内のデータをスペアドライブに全て書き込むことができず、障害が発生したデータドライブ内データを復元させることができない、ということも生じている。
特許文献1には、スペアドライブを複数台実装し、複数台のスペアドライブから構成されるプール領域に、障害が発生したデータドライブ内のデータを退避させる技術が開示されている。
特開2005−149374号公報
特許文献1に開示される技術によれば、スペアドライブの物理的な容量を考慮する必要はないが、スペアドライブを冗長化できる構成ではない。またスペアドライブの物理的な容量を考慮していないため、物理的なスペアドライブにデータを連続して書き込むことはできない。このため冗長化の構成を実現し、スペアドライブにデータを連続して書き込むために必要となる、スペア用のレイドグループに書き込まれるデータの具体的な管理方法や、書き込まれるデータ容量及びプール領域の容量の具体的な管理方法等、については記載されていない。
そこで、本発明は、スペアドライブの冗長化の構成を実現し、スペアドライブにデータを連続して書き込むことで効率的な管理を可能とするストレージシステム及びデータ退避方法を提案しようとするものである。
かかる課題を解決するため、本発明は、複数のデータドライブと、複数のデータドライブのうち少なくとも1つのデータドライブ内に格納されるデータを退避対象データとして格納する複数のスペアドライブと、複数のデータドライブから構成される1以上のレイドグループと、1以上のレイドグループと関連付けられ、複数のスペアドライブから構成される1以上のスペア用レイドグループと、少なくとも1つのデータドライブから退避対象データを読み出した順に1以上のスペア用レイドグループを構成する複数のスペアドライブに書き込む書き込み部と、を備えることを特徴とする。
その結果、複数のスペアドライブをレイド構成にすることで、スペアドライブの冗長化を実現することができる。また、退避対象データを読み出した順に複数のスペアドライブに連続して書き込むことができるため、ストレージシステムの性能が向上する。
また、本発明においては、複数のデータドライブから1以上のレイドグループを構成するステップと、複数のデータドライブのうち少なくとも1つのデータドライブ内に格納されるデータを退避対象データとして複数のスペアドライブに格納するステップと、1以上のレイドグループと関連付けられ、複数のスペアドライブから構成される1以上のスペア用レイドグループと、少なくとも1つのデータドライブから退避対象データを読み出した順に1以上のスペア用レイドグループを構成する複数のスペアドライブに書き込む書き込みステップと、を備えることを特徴とする。
その結果、複数のスペアドライブをレイド構成にすることで、スペアドライブの冗長化を実現することができる。また、退避対象データを読み出した順に複数のスペアドライブに連続して書き込むことができるため、ストレージシステムの性能が向上する。
本発明によれば、スペアドライブの冗長化の構成を実現し、スペアドライブにデータを連続して書き込むことで、ストレージシステムを効率的に管理することができる。
また、複数のデータドライブから構成される複数のレイドグループが1つのスペアドライブを共有することができるので、ストレージシステムを効率的に管理することができる。
以下図面について、本発明の一実施の形態を詳述する。
(1)本実施の形態によるストレージシステムの構成
図1において、1は全体として本実施の形態によるストレージシステム1を示す。このストレージシステム11は、ホスト装置2がネットワーク3を介してストレージ装置4と接続され、ストレージ装置4が管理端末7と接続される構成である。
ホスト装置2は、CPU65やメモリ等の情報処理資源を備えたコンピュータ装置であり、例えばパーソナルコンピュータ、ワークステーション、メインフレームなどから構成される。またホスト装置22は、キーボード、スイッチ等の情報入力装置(図示せず)と、モニタディスプレイやスピーカ等の情報出力装置(図示せず)とを備える。
ネットワーク3は、例えばSAN(Storage Area Network)、LAN(Local Area Network)、インターネット、公衆回線又は専用回線などから構成される。例えばネットワーク3がSANの場合には、ファイバチャネルプロトコルに従って行われ、ネットワーク3がLANの場合には、TCP/IPプロトコルに従って行われる。本実施の形態では、ホスト装置2とストレージ装置4とを接続するネットワーク3には、SANを使用する。
ストレージ装置4は、複数のハードディスクドライブHDDからなるディスク部5と、複数のハードディスクをRAID方式で管理するコントローラ部6と、を備えて構成される。
ハードディスクドライブHDDは、例えばSCSIディスク等のアクセス性能の高い高価なディスクや、SATAディスクや光ディスク等のアクセス性能の低い安価なディスク等から構成される。
ハードディスクドライブHDDには、ホスト装置2からのデータ及びデータのパリティデータを格納するためのデータドライブD−HDDと、障害が発生したデータドライブD−HDDに格納するデータ(パリティデータも含む)を退避させるためのスペアドライブS−HDDと、がある。
そして、ディスク部5は、複数のデータドライブD−HDDからデータ用のレイドグループRG(以下、データ用レイドグループRGという)を構成し、複数のスペアドライブS−HDDからスペア用のレイドグループS−RG(以下、スペア用レイドグループS−RGという)を構成してなる。
ここで、データ用レイドグループRGとは、ストレージ装置4がRAID方式で管理するグループであって、障害が発生したデータドライブD−HDD内のデータを復旧できるグループをいい、グループを構成するデータドライブD−HDDの台数は特定しない。
また、スペア用レイドグループS−RGとは、ストレージ装置4がRAID方式で管理するグループであって、2台以上のスペアドライブS−HDDから構成されるグループをいう。スペア用レイドグループS−RGを構成する2台以上のスペアドライブS−HDDに、障害が発生したデータドライブD−HDD内のデータが、分散されて格納される。
なお、レイドレベルは、データを連続して書き込めることのできるレイド3やレイド4のレベルが最適であるが、このレベルには限られない。
そして、1つのデータ用レイドグループRGが提供する記憶領域上に、1又は複数の論理ボリューム(図示しない)が定義される。
論理ボリュームには、固有の識別子LUN(Logical Block Number)が割り当てられる。データの入出力は、この識別子及び論理ボリューム内を論理的に分割したブロックに割り当てられる固有の番号LBA(Logical Block Addressing)を組み合わせたアドレスを、指定して行われる。
また、この1つのスペア用レイドグループS−RGが提供する記憶領域をプール領域と呼ぶ。
コントローラ部6は、チャネル制御部61、接続部62、キャッシュメモリ63、ディスク制御部64、CPU65、及びメインメモリ66を備えて構成される。
チャネル制御部61は、ホスト装置2との間のインタフェースとして機能し、当該ホスト装置2との間で各種コマンドやデータを送受する。また、チャネル制御部61は、ホスト装置2から送信される各種コマンドを解釈して、必要な処理を実行する。
接続部62は、例えば相互接続可能なスイッチ又はバス等で構成される。チャネル制御部61、ディスク制御部64、キャッシュメモリ63、メインメモリ66及びCPU65間のデータやコマンドの授受は、この接続部62を介して行われる。
ディスク制御部64は、ディスク部5との通信時におけるプロトコル制御を行うインタフェースとして機能する。ディスク制御部64は、例えばファイバチャネルケーブルを介して対応するディスク部5と接続されており、ファイバチャネルプロトコルに従ってディスク部5との間のデータの授受を行う。
キャッシュメモリ63は、チャネル制御部61及びディスク制御部64により共有される記憶メモリである。キャッシュメモリ63は、主にストレージ装置4に入出力されるデータを一時的に記憶するために利用される。
メインメモリ66も、チャネル制御部61及びディスク制御部64により共有される記憶メモリである。メインメモリ66は、主にシステム構成情報及び各種制御プログラムや、ホスト装置2からのコマンドなどを記憶するために利用される。また、メインメモリ66には、図2に示すように、ドライブ管理情報テーブル10、データドライブ管理情報テーブル11、スペアドライブ管理情報テーブル12、ログテーブル13、データ用レイドグループRGを追加又は削除した場合に設定を変更する変更プログラム14、障害が発生したデータドライブD−HDD内のデータをスペアドライブS−HDDに書き込むための書き込みプログラム15、交換後のデータドライブD−HDDにデータを書き戻すために必要な再構成時間の設定する再構成時間プログラム16、及び、スペアドライブS−HDDから交換後のデータドライブD−HDDにデータを書き戻すコピーバックプログラム17が格納される。なお、メインメモリ66に格納される各種テーブルについては、後述で説明する。
図1に戻り、CPU65は、メインメモリ66上にあるプログラムを読み込み、解釈し、その結果に従ってデータの移動等を行う中央処理部である。チャネル制御部61、ディスク制御部64、キャッシュメモリ63、及びメインメモリ66と直接または接続部62を介して接続され、データやプログラムのやり取りを行う。
管理端末7は、ストレージ装置4の管理のために操作されるコンピュータ装置であり、例えばパーソナルコンピュータから構成される。管理端末7は、データ用レイドグループRGとスペア用レイドグループS−RGとの関連づけの管理や、交換後のデータドライブD−HDDにデータを書き戻すために必要な再構成時間の設定等を行う。また、管理端末7は、このような管理処理や設定処理を行うための管理画面71を備える。
(2)テーブルの構成
それでは次に、メインメモリ66に格納されるドライブ管理情報テーブル10、データドライブ管理情報テーブル11、スペアドライブ管理情報テーブル12、及びログテーブル13のそれぞれの構成について説明する。
(2−1)ドライブ管理情報テーブル
ドライブ管理情報テーブル10は、ストレージ装置4がデータドライブD−HDD及びスペアドライブS−HDDとしてハードディスクドライブHDDを制御する上で必要な情報を管理するテーブルである。
図3に示すように、ドライブ管理情報テーブル10は、「ドライブ管理番号」欄100、「ドライブ種別」欄101、「ドライブ容量」欄102、「RG割り当て」欄103、「RG番号」欄104、「スペア割り当て」欄105、及び「スペアRG番号」欄106から構成されている。
「ドライブ管理番号」欄100には、ハードディスクドライブHDDをデータドライブD−HDD又はスペアドライブS−HDDとして用いるために、ストレージ装置4に実装される全てのハードディスクドライブHDDの識別番号が格納される。
「ドライブ種別」欄101には、コントローラ部6とハードディスクドライブHDDとの通信インタフェースの違いにより分類されるドライブの種別情報が格納される。例えば、「ドライブ種別」欄101には、SASディスクには「2」、SATAディスクには「1」、FCディスクには「0」が格納される。
「ドライブ容量」欄102には、1台分のハードディスクドライブHDDの容量が格納される。
「RG割り当て」欄103には、ハードディスクドライブHDDがデータドライブD−HDDとして使用され、当該ハードディスクドライブHDDがデータ用レイドグループRGに所属されているか否かの情報が格納される。例えば、ハードディスクドライブHDDがデータ用レイドグループRGに所属されている場合には、ハードディスクドライブHDDがレイドグループに割り当て済みであるとして「1」が格納される。一方、ハードディスクドライブHDDがデータ用レイドグループRGに所属されていない場合には、ハードディスクドライブHDDがレイドグループに未割り当てであるとして「0」が格納される。
「RG番号」欄104には、ハードディスクドライブHDDがデータドライブD−HDDとして使用される場合に、所属するデータ用レイドグループ番号が格納される。したがって、ハードディスクドライブHDDがデータ用レイドグループRGに所属されていない場合には、データ用レイドグループ番号は付与されない(図中「−」で表記)。
「スペア割り当て」欄105には、ハードディスクドライブHDDがスペアドライブS−HDDとして使用され、当該ハードディスクドライブHDDがスペア用レイドグループS−RGに所属されているか否かの情報が格納される。例えば、ハードディスクドライブHDDがスペア用レイドグループS−RGに所属されている場合には、ハードディスクドライブHDDがレイドグループに割り当て済みであるとして「1」が格納される。一方、ハードディスクドライブHDDがスペア用レイドグループS−RGに所属されていない場合には、ハードディスクドライブHDDがレイドグループに未割り当てであるとして「0」が格納される。
「スペアRG番号」欄106には、ハードディスクドライブHDDがスペアドライブS−HDDとして使用される場合に、所属するスペア用のレイドグループ番号が格納される。したがって、ハードディスクドライブHDDがスペア用レイドグループS−RGに所属されていない場合には、スペア用のレイドグループ番号は付与されない(図中「−」で表記)。
(2−2)データドライブ管理情報テーブル
データドライブ管理情報テーブル11は、データドライブD−HDDをデータ用レイドグループRG毎に管理するテーブルであって、データ用レイドグループRGとスペア用レイドグループS−RGとを関連付けるためのテーブルである。データ用レイドグループRGに所属するデータドライブD−HDDに障害が発生すると、障害が発生したデータドライブD−HDD内のデータは、このデータドライブ管理情報テーブル11で関連付けられたスペア用レイドグループS−RGに所属するスペアドライブS−HDDに退避される。
図4に示すように、データドライブ管理情報テーブル11は、データ用レイドグループ番号を示す「RG番号」欄110、データ用レイドグループRGと関連付けられるスペア用のレイドグループ番号を示す「スペアRG番号」欄111、及び、「状態」欄112から構成される。
「状態」欄112は、そのデータ用レイドグループRGに所属したデータドライブD−HDDの状態の情報が格納される。例えば、そのデータ用レイドグループRGに所属したデータドライブD−HDDが、正常に動作している場合には「0」、障害が発生した場合には「1」、関連付けられるスペア用レイドグループS−RGに所属するスペアドライブS−HDDにデータを退避している場合には「2」が格納される。また、データドライブD−HDD内のデータの退避を完了した場合には「3」、障害が発生したため新しいデータドライブD−HDDに交換した場合には「4」、スペアドライブS−HDDから交換後のデータドライブD−HDDにデータを書き戻している場合には「5」が格納される。
(2−3)スペアドライブ管理情報テーブル
スペアドライブ管理情報テーブル12は、スペアドライブS−HDDをデータ用レイドグループRG毎に管理するテーブルであって、スペア用レイドグループS−RGとデータ用レイドグループRGとを関連付けるためのテーブルである。
図5に示すように、スペアドライブ管理情報テーブル12は、スペア用のレイドグループ番号を示す「スペアRG番号」欄120、スペア用レイドグループS−RGを構成するスペアドライブS−HDDの全記憶領域を示す「プール容量」欄121、スペア用レイドグループS−RGと関連付けられているデータ用レイドグループ番号を示す「割り当て済みRG番号」欄122、スペア用レイドグループS−RGを構成するスペアドライブS−HDDの未使用の記憶領域を示す「残り容量」欄123、及び、スペア用のレイドレベルを示す「RAIDレベル」欄124から構成される。
(2−4)ログテーブル
ログテーブル13は、スペアドライブS−HDDに書き込まれる退避対象のデータを管理するためのテーブルである。障害が発生したデータドライブD−HDDから退避対象のデータがメインメモリ66に送られてくる順番にログテーブル13で管理される。
図6に示すように、ログテーブル13は、データ用レイドグループ番号を示す「RG番号」欄130、退避対象のデータをスペアドライブS−HDDに書き込む日時を記録したログ情報を示す「タイムスタンプ」欄131、退避対象のデータがデータドライブD−HDDに格納される位置を示す「アドレス」欄132、及び退避対象のデータの内容を示す「実データ」欄133とから構成される。
ログテーブル13は、レイドグループ番号情報、タイムスタンプ情報、及びアドレス情報(データの関連情報R)と、データとを関連づけて管理している。データの関連情報とは、メモリに読み上げられた順にスペアドライブに書き込めることができる退避対象データの識別情報をいう。
本実施の形態においては、退避対象のデータをスペアドライブS−HDDに書き込む日時で管理するというログ方式を採用しているが、レイドグループに所属する退避対象のデータのうち、メモリに読み上げられた順にスペアドライブに書き込めることができる識別子であればよく、タイムスタンプに限られない。
例えば、「タイムスタンプ」欄131の代わりに、「通し番号」欄を設けてもよい。「通し番号」欄には、データドライブD−HDDから読み出した退避対象データの新旧データを識別する識別情報を格納する。具体的には、CPU65が退避対象のデータを最初にスペアドライブS−HDDに書き込むデータ群には通し番号「0」を付与する。そして、退避対象データをスペアドライブS−HDDに書き込んでいる最中に、ホスト装置2から上書きデータ群が送信された場合には、CPU65が上書きデータ群に通り番号「1」を付与する。このように新しいデータに付与する通し番号の番号を上げることで、古いデータと新しいデータとを管理することができる。
(3)準備
それでは次に、退避対象データをスペアドライブS−HDDに書き込むための事前準備について説明する。
まず、管理者が管理端末7の管理画面71から、メインメモリ66に格納されるドライブ管理情報テーブル10、データドライブ管理情報テーブル11、スペアドライブ管理情報テーブル12に登録される各種情報を設定する。
具体的には、管理者はスペアドライブS−HDDをレイド構成に設定する。そして管理者はデータ用レイドグループRGとスペア用レイドグループS−RGとの関連付けを設定する。このとき、複数のデータ用レイドグループRGが1つのスペア用レイドグループS−RGを共有するように設定することができる。また、管理者はレイドレベルを設定してもよい。
設定方法としては、管理者がデータ用レイドグループRGやスペア用レイドグループS−RGを手動で設定する方法や、管理者がデータ用レイドグループRGとして割り当てられなかったハードディスクドライブHDDを自動的にスペア用レイドグループS−RGとして設定する方法がある。また、ハードディスクドライブHDDの物理的な格納位置を管理画面71に表示して、表示されたハードディスクドライブHDDの中から管理者がデータ用レイドグループRGやスペア用レイドグループS−RGを設定する方法等がある。
(4)変更処理
上述の初期設定後に、レイドグループの構成を変更する変更処理について説明する。特に、ハードディスクドライブHDDを追加することでレイドグループの構成を変更する場合について説明する。変更処理は、CPU65が変更プログラム14に基づいて実行する。
図7に示すように、まずCPU65は、ハードディスクドライブHDDを追加することでデータ用レイドグループRGの構成を変更すると変更処理を開始する(S0)。
次にCPU65は、変更したデータ用レイドグループRGが必要とするスペア用レイドグループS−RGの容量(以下、スペアプール容量という)を算出する(S1)。本実施の形態によれば、退避対象のデータはデータの関連情報RとともにスペアドライブS−HDDに書き込まれるので、スペアプール容量としては、退避対象のデータより多いデータ量が書き込めるだけの容量を確保する必要がある。例えばCPU65は、データ関連情報を格納するために、退避対象のデータの格納に必要な容量に10%上乗せした容量をスペアプール容量とする。
CPU65は、スペアドライブ管理情報テーブル12を参照し、算出したスペアプール容量に合致したスペア用のレイドグループ番号があるか否かを判断する(S2)。
算出したスペアプール容量に合致したスペア用のレイドグループ番号がある場合には(S2:YES)、CPU65は、さらにこのスペア用のレイドグループ番号が複数あるか否かを判断する(S3)。
そして、算出したスペアプール容量に合致したスペア用のレイドグループ番号が複数ある場合には(S3:YES)、CPU65は、スペア用レイドグループS−RGを構成するスペアドライブS−HDDの数が多いスペア用レイドグループS−RGを選択して(S4)、変更処理を終了する(S7)。
一方、算出したスペアプール容量に合致したスペア用のレイドグループ番号が複数ない場合には(S3:NO)、CPU65は、合致したスペア用レイドグループS−RGを、変更したデータ用レイドグループRGのスペア用レイドグループS−RGとして割り当てて(S5)、変更処理を終了する(S7)。
ステップS2において、算出したスペアプール容量に合致したスペア用のレイドグループ番号がない場合には(S2:NO)、CPU65は、その旨のメッセージを管理端末7に送信して管理者に通知し(S6)、変更処理を終了する(S7)。
なお、上述の変更処理では、データの関連情報RをスペアドライブS−HDDに書き込む場合について説明したが、データの関連情報Rをメモリ上に残す場合には、退避対象のデータを格納できるだけのスペアプール容量を確保すればよい。
(5)書き込み処理
それでは次に、退避対象データをスペアドライブS−HDDに書き込む処理について説明する。
(5−1)従来の書き込み処理
まず、本実施の形態の書き込み処理を説明する前に、図8を用いて従来の書き込み処理について説明する。
具体的には、まずCPU65は、データドライブD−HDDのドライブ障害を検出すると、書き込み処理を開始する(S10)。そして、CPU65は、障害が発生したデータドライブD−HDDが、どのレイドグループ番号に所属しているのかを確認する(S11)。
CPU65は、障害が発生したデータドライブD−HDDが所属するレイドグループであって、障害が発生していないデータドライブD−HDDに格納されるデータ及びパリティデータをメインメモリ66に読み出す(S12)。その後、CPU65は、読み出したデータ及びパリティデータに基づいて障害が発生したデータドライブD−HDD内のデータを算出し、障害が発生したデータドライブD−HDD内のデータを復元する(S13)。
そしてCPU65は、復元したデータをスペアドライブS−HDDに書き込み(S14)、障害が発生したデータドライブD−HDD内の全てのデータを復元するまで書き込み処理を実行する(S15:NO)。
CPU65は、障害が発生したデータドライブD−HDD内の全てのデータを復元し、スペアドライブS−HDDへ書き込むと(S15:YES)、書き込み処理を終了する(S16)。なお、復元したデータが書き込まれるスペアドライブS−HDDは、障害が発生したデータドライブD−HDDが所属するレイドグループに関連付けられたスペアドライブS−HDDである。
以上の処理が、従来の書き込み処理の手順である。
(5−2)書き込み処理
それでは次に、本実施の形態において、退避対象データをスペアドライブS−HDDに書き込む処理について説明する。書き込み処理は、CPU65が書き込みプログラム15に基づいて実行する。
図9に示すように、CPU65は、ステップS20からステップS22までの処理をステップS10からステップS12と同様の処理手順で実行する。
その後、CPU65は、読み出したデータ及びパリティデータに基づいて障害が発生したデータドライブD−HDD内のデータを算出し、障害が発生したデータドライブD−HDD内のデータを復元する(S23)。読み出したデータ及びパリティデータの順番で、復元した退避対象データがメインメモリ66に格納される。
そしてCPU65は、復元した退避対象データにデータの関連情報Rを関連付けて、ログテーブル13に登録する(S24)。このとき例えば、図10に示すように、スペア用レイドグループS−RG「0」をデータ用レイドグループRG「0」、「1」、「2」が共有し、データ用レイドグループRG「0」、「1」のそれぞれに所属するデータドライブD−HDDの1つに障害が発生している場合に、ステップS14において、CPU65が読み出したデータ及びパリティデータの順番で、退避対象データDにデータの関連情報Rを関連付ける。
その後、登録されたログテーブル13の行情報I1〜I4の情報量がメモリ領域の閾値以上になると、CPU65はログテーブル13の行情報I1〜I4を、スペアドライブS−HDDに連続して書き込む(S25)。CPU65が、データドライブ管理情報テーブル11、スペアドライブ管理情報テーブル12を参照することで、書き込まれるスペアドライブS−HDDが決定する。
メモリ領域の閾値設定は、管理者が管理端末7から設定し、例えば、登録されたログテーブル13の行情報I1〜I4の情報量がメモリ領域の50%以上になると、ログテーブル13の行情報I1〜I4がスペアドライブS−HDDに書き込まれるように設定する。この場合には、ログテーブル13の行情報が全てスペアドライブS−HDDに書き込まれるので、メモリ領域の圧迫を防止することができる。
そしてCPU65は、障害が発生したデータドライブD−HDD内の全てのデータを復元し、するまで書き込み処理を実行する(S26:NO)。
CPU65は、障害が発生したデータドライブD−HDD内の全てのデータを復元し、データの関連情報Rを関連付けた退避対象データをスペアドライブS−HDDへ書き込むと(S26:YES)、書き込み処理を終了する(S27)。
本実施の形態においては、ログテーブル13の行情報をそのままスペアドライブS−HDDに書き込んだが、RG番号情報、タイムスタンプ情報、及びアドレス情報(データの関連情報R)は、メインメモリ66上に残し、実データのみをスペアドライブS−HDDに書き込んでも良い。この場合には、データの関連情報RがCPU65の近くに保存されるので、CPU65がデータの関連情報Rにアクセスする速度が速くなる。また関連情報がメモリ上に保存されるので、ハードディスクドライブHDDより処理速度が速くなる。
また、本実施の形態におけるログテーブル13はメインメモリ66内に格納されているが、キャッシュメモリ63内に格納されていても良く、メモリの格納場所は制限されない。
このように、CPU65が、メモリ上に読み出したデータ順に、ある程度まとまった情報量を、連続してスペアドライブS−HDDに書き込むことができるため、書き込む際に磁気ヘッドを移動させる必要がなくなり、ストレージシステム1の処理速度を向上させることができる。
(5−3)再構成時間の設定処理
書き込み処理を実行する前提として、障害が発生してから、復元したデータを交換後のデータドライブD−HDDに書き戻すまでの再構成時間を設定することもできる。その際の再構成時間の設定処理について説明する。再構成時間の設定処理は、CPU65が再構成時間プログラム16に基づいて実行する。
まず、図11に示すように、管理者が管理端末7の管理画面71から再構成に必要な許容時間の設定指示をストレージ装置4に送信し、ストレージ装置4が当該設定指示を受信すると再構成時間の設定処理を開始する(S30)。
次にCPU65は、管理者からの指示に従って、再構成に必要な許容時間を設定する(S31)。CPU65は、障害が発生したデータドライブD−HDDを検出すると(S32)、ドライブ管理情報テーブル10を参照して、このデータドライブD−HDDのドライブ容量を抽出する(S33)。
そして引き続き、CPU65は、データドライブ管理情報テーブル11及びスペアドライブS−HDD管理情報を参照して、未使用のスペアプール容量を抽出する(S34)。未使用のスペアプール容量とは、障害が発生したデータドライブD−HDDが所属するデータ用レイドグループRGと関連付けられたスペア用レイドグループS−RGの未使用容量であって、このスペア用レイドグループS−RGに所属する全てのスペアドライブS−HDDの未使用容量をいう。
CPU65は、障害が発生したデータドライブD−HDDを再構成するのに許容される時間、障害が発生したデータドライブD−HDD容量、及び現時点で関連付けられた未使用のスペアプール容量から、許容される時間内で復旧するためのスペアドライブS−HDD容量を算出する(S35)。
CPU65は、算出したスペアドライブS−HDD容量が現時点で関連付けられた未使用のスペアプール容量で足りるか否かを判断し(S36)、未使用のスペアプール容量で足りる場合には(S36:YES)書き込み処理を実行後に(S42)再構成時間の設定処理を終了する(S43)。
一方、算出したスペアドライブS−HDD容量が現時点で関連付けられた未使用のスペアプール容量で足りない場合には(S36:NO)、次にCPU65は、追加できるスペアドライブS−HDDが有り、未使用のスペアプール容量を増やせるか否かを判断する(S37)。CPU65は、ドライブ管理情報テーブル10を参照して、データ用レイドグループRG及びスペア用レイドグループS−RGのいずれにも割り当てられていないハードディスクドライブHDDがあれば、追加できるスペアドライブS−HDDがあると判断する。
追加できるスペアドライブS−HDDが有ると判断すると(S37:YES)、CPU65はスペアドライブS−HDDを追加して、未使用のスペアプール容量を増やす(S38)。このとき、スペア用レイドグループS−RGを再設定するために、CPU65はドライブ管理情報テーブル10及びスペアドライブ管理情報テーブル12の登録を更新する。その後CPU65は、書き込み処理を実行後に(S42)、再構成時間の設定処理を終了する(S43)。
追加できるスペアドライブS−HDDが無いと判断すると(S37:NO)、CPU65は、現時点で関連付けられた未使用のスペアプール容量では管理者が指示をした許容時間をオーバーする旨のメッセージを管理端末7に送信して管理者に通知する(S39)。
そしてCPU65は、障害が発生したデータドライブD−HDD容量、及び現時点で関連付けられた未使用のスペアプール容量から、再構成するためにかかる再構成時間を改めて算出すると(S40)、算出した再構成時間を管理端末7に送信して管理者に通知する(S41)。その後CPU65は、書き込み処理を実行後に(S42)、再構成時間の設定処理を終了する(S43)。
なお、ステップS42における書き込み処理は、CPU65が上述したステップS20からステップS26までの処理を実行するため、説明を省略する。
このように、再構成時間処理では、管理者が希望する再構成時間内でデータを復元できるか否かをストレージ装置4側で判断することができるため、より高性能なストレージシステム1を実現することができる。
(5−4)書き込み更新処理
書き込み処理の実行中に、ホスト装置2から送信された更新データをスペアドライブS−HDDに退避させる書き込み更新処理について説明する。この書き込み更新処理は、CPU65が書き込みプログラム15に基づいて実行する。
具体的には、図12及び図13に示すように、CPU65が、退避対象データをスペアドライブS−HDDに書き込み中に、ストレージ装置4が、ホスト装置2から障害が発生したデータドライブD−HDD内のデータに対する上書き指示を受信すると、CPU65は書き込み更新処理を開始する(S50)。
次に、CPU65は、データドライブ管理情報テーブル11を参照して、障害が発生したデータドライブD−HDD内のデータを上書きする上書きデータD´を受信したか否かを判定する(S51)。
障害が発生したデータドライブD−HDD内の上書きデータD´を受信した場合には(S51:YES)、ログテーブル13のタイムスタンプ情報を更新して、ログテーブル13の最後の行に登録する(S52)。
その後、CPU65は、上書きデータD´及び上書きデータの関連情報Rを、書き込み中の最後尾データINとしてスペアドライブS−HDDに書き込む(S53)。
そしてCPU65は、障害が発生したデータドライブD−HDD内の全てのデータを復元するまで書き込み処理を実行する(S54:NO)。
CPU65は、障害が発生したデータドライブD−HDD内の全てのデータを復元し、データの関連情報Rを関連付けた退避対象データをスペアドライブS−HDDへ書き込むと(S54:YES)、書き込み処理を終了する(S55)。
このように、CPU65が、上書きデータD´をログテーブル13の最後の行に登録するため、上書き指示をホスト装置2から受信した場合であっても、メモリ上に読み出したデータ順に、ある程度まとまった情報量を連続してスペアドライブS−HDDに書き込むことができる。このため、書き込む際に磁気ヘッドを移動させる必要がなくなり、ストレージシステム1の処理速度を向上させることができる。
(6)コピーバック処理
では、次に退避対象データを交換後のデータドライブD−HDDに書き戻すコピーバック処理について説明する。コピーバック処理は、CPU65がコピーバックプログラム17に基づいて実行する。
図14及び図15に示すように、管理者が、障害が発生したデータドライブD−HDDを新しいデータドライブD−HDDに交換後、ディスク制御部64からデータドライブD−HDDを交換した旨の通知を受信することで、CPU65はコピーバック処理を開始する(S60)。
CPU65は、退避したデータが保存されているスペア用レイドグループS−RGから、退避したデータDとデータの関連情報Rとの行情報I1〜INを連続してメインメモリ66上に読み出す(S61)。
その後CPU65は、ドライブ管理情報テーブル10及びデータの関連情報Rのうちのレイドグループ番号情報を参照して、交換後のデータドライブD−HDDに書き戻すためのデータ用レイドグループRGを決定する(S62)。このとき、メインメモリ66上に読み上げたデータD及びデータの関連情報Rはレイドグループ毎にまとまっていないので、CPU65は、レイドグループ番号を参照して、決定したレイドグループに該当するデータ及びデータの関連情報Rを拾い上げる。
そして、CPU65は、書き戻すデータ用レイドグループRGに所属する退避したデータを、タイムスタンプ情報及びアドレス情報を参照して、古いデータから順に指定されたデータドライブD−HDDのアドレスに書き戻すと(S63)。コピーバック処理を終了する(S64)。
このように、古いデータから先にデータドライブD−HDDに書き戻すことで、必然的に新しいデータが上書きされながらデータドライブD−HDD内のデータを再構成することができる。
(7)本実施の形態の効果
本実施の形態によれば、スペアドライブの冗長化の構成を実現し、スペアドライブにデータを連続して書き込むことで、スペア用のレイドグループに書き込まれるデータを具体的に管理し、データ容量及びプール領域の容量に関して具体的な管理を行うことができる。このため、障害が発生したデータドライブ内のデータを連続してスペアドライブに書き込めることができるので、ストレージシステムを効率的に管理することができる。
また、複数のデータドライブから構成される複数のレイドグループが1つのスペアドライブを共有することができるので、ストレージシステムを効率的に管理することができる。
本発明は、複数のストレージシステムや、その他の形態のストレージシステムに広く適用することができる。
本実施の形態におけるストレージシステムの構成を示すブロック図である。 本実施の形態におけるメインメモリの内容を示す図表である。 本実施の形態におけるドライブ管理情報テーブルを示す図表である。 本実施の形態におけるデータドライブ管理情報テーブルを示す図表である。 本実施の形態におけるスペアドライブ管理情報テーブルを示す図表である。 本実施の形態におけるログテーブルを示す図表である。 本実施の形態における変更処理を示すフローチャートである。 従来の書き込み処理を示すフローチャートである。 本実施の形態における書き込み処理を示すフローチャートである。 本実施の形態の書き込み処理を示す概念図である。 本実施の形態における再構成時間の設定処理を示すフローチャートである。 本実施の形態における書き込み更新処理を示すフローチャートである。 本実施の形態の書き込み更新処理を示す概念図である。 本実施の形態におけるコピーバック処理を示すフローチャートである。 本実施の形態のコピーバック処理を示す概念図である。
符号の説明
1……ストレージシステム、2……ホスト装置、3……ネットワーク、4……ストレージ装置、5……ディスク部、6……コントローラ部、61……チャネル制御部61、62……接続部、63……メインメモリ、64……ディスク制御部、65……CPU、66……メインメモリ、7……管理端末、71……管理画面、HDD……ハードディスクドライブ、D−HDD……データドライブ、S−HDD……スペアドライブ、RG……データ用のレイドグループ、S−RG……スペア用のレイドグループ、10……ドライブ管理情報テーブル、11……データドライブ管理情報テーブル、12……スペアドライブ管理情報テーブル、13……ログテーブル、14……変更プログラム、15……書き込みプログラム、16……再構成時間プログラム、17……コピーバックプログラム。

Claims (16)

  1. 複数のデータドライブと、
    前記複数のデータドライブのうち少なくとも1つのデータドライブ内に格納されるデータを退避対象データとして格納する複数のスペアドライブと、
    前記複数のデータドライブから構成される1以上のレイドグループと、
    前記1以上のレイドグループと関連付けられ、前記複数のスペアドライブから構成される1以上のスペア用レイドグループと、
    前記少なくとも1つのデータドライブから前記退避対象データを読み出した順に、前記1以上のスペア用レイドグループを構成する前記複数のスペアドライブに前記退避対象データを書き込む書き込み部と、
    を備えることを特徴とするストレージシステム。
  2. 前記少なくとも1つのデータドライブから前記退避対象データを読み出した順に前記1以上のスペア用レイドグループを構成する前記複数のスペアドライブに書き込むための退避対象データの関連情報を付与する付与部をさらに備える、
    ことを特徴とする請求項1記載のストレージシステム。
  3. 複数のレイドグループは、
    1つのスペア用レイドグループと関連付けられるように管理される
    ことを特徴とする請求項1記載のストレージシステム。
  4. 前記退避対象データの関連情報は、
    前記退避対象データを前記1以上のスペア用レイドグループを構成する前記複数のスペアドライブに書き込む日時を記録するログ情報を含む
    ことを特徴とする請求項2記載のストレージシステム。
  5. 前記退避対象データの関連情報は、
    前記少なくとも1つのデータドライブから読み出した前記退避対象データの新旧データを識別する識別情報を含む
    ことを特徴とする請求項2記載のストレージシステム。
  6. 前記退避対象データが前記メモリ内の領域の閾値以上格納されると、前記少なくとも1つのデータドライブから前記退避対象データを読み出した順に前記1以上のスペア用レイドグループを構成する前記複数のスペアドライブに書き込む
    ことを特徴とする請求項1記載のストレージシステム。
  7. 前記少なくとも1つのデータドライブから前記退避対象データを読み出した順に前記1以上のスペア用レイドグループを構成する前記複数のスペアドライブに書き込む際に、前記退避対象データの上書きデータを受信した場合には、前記退避対象データが書き込まれた後に連続して書き込む
    ことを特徴とする請求項1記載のストレージシステム。
  8. 前記複数のスペアドライブに格納された前記退避対象データを交換後のデータドライブに書き戻す場合には、前記退避対象データの関連情報に基づいて古い退避対象データから前記交換後のデータドライブに書き戻す
    ことを特徴とする請求項1記載のストレージシステム。
  9. 複数のデータドライブから1以上のレイドグループを構成するステップと、
    前記複数のデータドライブのうち少なくとも1つのデータドライブ内に格納されるデータを退避対象データとして複数のスペアドライブに格納するステップと、
    前記1以上のレイドグループと関連付けられ、前記複数のスペアドライブから構成される1以上のスペア用レイドグループと、
    前記少なくとも1つのデータドライブから前記退避対象データを読み出した順に、前記1以上のスペア用レイドグループを構成する前記複数のスペアドライブに前記退避対象データを書き込む書き込みステップと、
    こと備えることを特徴とするデータ退避方法。
  10. 前記少なくとも1つのデータドライブから前記退避対象データを読み出した順に前記1以上のスペア用レイドグループを構成する前記複数のスペアドライブに書き込むための退避対象データの関連情報を付与するステップをさらに備える、
    ことを特徴とする請求項9記載のデータ退避方法。
  11. 複数のレイドグループと1つのスペア用レイドグループと、を関連付けて管理するステップをさらに備える
    ことを特徴とする請求項9記載のデータ退避方法。
  12. 前記退避対象データの関連情報は、
    前記退避対象データを前記1以上のスペア用レイドグループを構成する前記複数のスペアドライブに書き込む日時を記録するログ情報を含む
    ことを特徴とする請求項10記載のデータ退避方法。
  13. 前記退避対象データの関連情報は、
    前記少なくとも1つのデータドライブから読み出した前記退避対象データの新旧データを識別する識別情報を含む
    ことを特徴とする請求項10記載のデータ退避方法。
  14. 前記退避対象データが前記メモリ内の領域の閾値以上格納されると、前記少なくとも1つのデータドライブから前記退避対象データを読み出した順に前記1以上のスペア用レイドグループを構成する前記複数のスペアドライブに書き込むステップ、をさらに備える
    ことを特徴とする請求項9記載のデータ退避方法。
  15. 前記少なくとも1つのデータドライブから前記退避対象データを読み出した順に前記1以上のスペア用レイドグループを構成する前記複数のスペアドライブに書き込む際に、前記退避対象データの上書きデータを受信した場合には、前記退避対象データが書き込まれた後に連続して書き込むステップ、をさらに備える
    ことを特徴とする請求項9記載のデータ退避方法。
  16. 前記複数のスペアドライブに格納された前記退避対象データを交換後のデータドライブに書き戻す場合には、前記退避対象データの関連情報に基づいて古い退避対象データから前記交換後のデータドライブに書き戻すステップ、をさらに備える
    ことを特徴とする請求項9記載のデータ退避方法。
JP2008101846A 2008-04-09 2008-04-09 ストレージシステム及びデータ退避方法 Pending JP2009252114A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008101846A JP2009252114A (ja) 2008-04-09 2008-04-09 ストレージシステム及びデータ退避方法
US12/213,851 US20090259812A1 (en) 2008-04-09 2008-06-25 Storage system and data saving method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008101846A JP2009252114A (ja) 2008-04-09 2008-04-09 ストレージシステム及びデータ退避方法

Publications (1)

Publication Number Publication Date
JP2009252114A true JP2009252114A (ja) 2009-10-29

Family

ID=41164932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008101846A Pending JP2009252114A (ja) 2008-04-09 2008-04-09 ストレージシステム及びデータ退避方法

Country Status (2)

Country Link
US (1) US20090259812A1 (ja)
JP (1) JP2009252114A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011030754A1 (ja) 2009-09-09 2011-03-17 三菱マテリアル株式会社 ヒートシンク付パワーモジュール用基板の製造方法、ヒートシンク付パワーモジュール用基板及びパワーモジュール
JP2014219787A (ja) * 2013-05-07 2014-11-20 富士通株式会社 ストレージシステム、情報処理装置の制御プログラム、およびストレージシステムの制御方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5843010B2 (ja) * 2012-06-25 2016-01-13 富士通株式会社 ストレージ制御装置、ストレージ制御方法およびストレージ制御プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6629211B2 (en) * 2001-04-20 2003-09-30 International Business Machines Corporation Method and system for improving raid controller performance through adaptive write back/write through caching
US7076606B2 (en) * 2002-09-20 2006-07-11 Quantum Corporation Accelerated RAID with rewind capability
JP4493321B2 (ja) * 2003-11-19 2010-06-30 株式会社日立製作所 ディスクアレイ装置及びデータ退避方法
US20070088990A1 (en) * 2005-10-18 2007-04-19 Schmitz Thomas A System and method for reduction of rebuild time in raid systems through implementation of striped hot spare drives

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011030754A1 (ja) 2009-09-09 2011-03-17 三菱マテリアル株式会社 ヒートシンク付パワーモジュール用基板の製造方法、ヒートシンク付パワーモジュール用基板及びパワーモジュール
JP2014219787A (ja) * 2013-05-07 2014-11-20 富士通株式会社 ストレージシステム、情報処理装置の制御プログラム、およびストレージシステムの制御方法

Also Published As

Publication number Publication date
US20090259812A1 (en) 2009-10-15

Similar Documents

Publication Publication Date Title
US8234467B2 (en) Storage management device, storage system control device, storage medium storing storage management program, and storage system
US7831764B2 (en) Storage system having plural flash memory drives and method for controlling data storage
US8209505B2 (en) Storage system and method of taking over logical unit in storage system
US9684591B2 (en) Storage system and storage apparatus
JP4958739B2 (ja) 障害の発生した記憶装置に記憶されているデータを修復するストレージシステム
US20070067585A1 (en) Snapshot maintenance apparatus and method
US20070162692A1 (en) Power controlled disk array system using log storage area
US9003140B2 (en) Storage system, storage control apparatus, and storage control method
US20060155944A1 (en) System and method for data migration and shredding
JPWO2006123416A1 (ja) ディスク故障復旧方法及びディスクアレイ装置
JP2009098996A (ja) ストレージシステム
JP2010271808A (ja) ストレージ装置及びデータコピー方法
US7660946B2 (en) Storage control system and storage control method
US8433949B2 (en) Disk array apparatus and physical disk restoration method
CN104166601B (zh) 一种存储数据的备份方法和装置
JPH07200191A (ja) ディスクアレイ装置
US20130080725A1 (en) Control apparatus, control method, and storage apparatus
JP2008234056A (ja) ストレージシステム及びストレージシステムにおけるキャッシュ常駐化の制御方法
JP4783076B2 (ja) ディスクアレイ装置及びその制御方法
JP2009252114A (ja) ストレージシステム及びデータ退避方法
US8566558B2 (en) Storage apparatus and data management method
US7493443B2 (en) Storage system utilizing improved management of control information
JP4740354B2 (ja) ディスク制御装置およびディスク制御方法
US20110173387A1 (en) Storage system having function of performing formatting or shredding
JPWO2008126169A1 (ja) ストレージ管理プログラム、ストレージ管理方法およびストレージ管理装置