JP4115093B2 - Computer system - Google Patents
Computer system Download PDFInfo
- Publication number
- JP4115093B2 JP4115093B2 JP2001053458A JP2001053458A JP4115093B2 JP 4115093 B2 JP4115093 B2 JP 4115093B2 JP 2001053458 A JP2001053458 A JP 2001053458A JP 2001053458 A JP2001053458 A JP 2001053458A JP 4115093 B2 JP4115093 B2 JP 4115093B2
- Authority
- JP
- Japan
- Prior art keywords
- storage
- file
- storage area
- data
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、記憶装置に記憶されたデータを再配置する技術に関し、特に、複数の記憶装置を有する計算機システムでのデータの再配置に好適な技術に関する。
【0002】
【従来の技術】
計算機システムにおける、ストレージサブシステム内に記憶されたデータを再配置する技術として、特開平9-274544号公報記載のディスクアレイシステムがある。ここで、ストレージサブシステムとは、複数の記憶装置から構成される記憶装置システムのことを言う。
【0003】
ディスクアレイシステムとは、複数のディスク装置をアレイ状に配置し、各ディスク装置を並列に動作させることで、各ディスク装置に分割格納されるデータのリード/ライトを高速に行うシステムのことである。D.A.Patterson, G.Gibson, and R.H.Kats,”A Case for Redundant Arrays of Inexpensive Disks (RAID)”(in Proc. ACM SIGMOD, pp.109-116, June 1988)に記載されているように、冗長性を付加したディスクアレイシステムには、その冗長構成に応じてレベル1からレベル5の種別が与えられている。これらの種別に加えて、冗長性無しのディスクアレイシステムをレベル0と呼ぶこともある。
【0004】
ディスクアレイシステムを構成するためのコスト、ディスクアレイシステムの性能や特性等は、ディスクアレイシステムのレベルによって異なる。そこで、システムの使用目的に応じて、ディスクアレイシステムの構築の際にレベルの異なる複数のアレイ(ディスク装置の組)を混在させることも多い。このようにレベルの異なるアレイを混在させたディスクアレイシステムにおいて、各レベルのアレイは、パリティグループと呼ばれる。また、ディスク装置についても性能や容量等によりコストが異なるので、最適のコストパフォーマンスを実現するシステムを構築するために、性能や容量の異なる複数種のディスク装置を用いることがある。
【0005】
ディスクアレイシステムでは、データが複数のディスク装置に分散して配置されるため、ディスクアレイシステムに接続されるホストコンピュータが、論理記憶領域とディスク装置の記憶領域を示す物理記憶領域との対応付け(アドレス変換)を行っている。
【0006】
特開平9-274544号公報には、ディスクアレイシステム内において、物理記憶領域間におけるデータの再配置を実行し、データの論理記憶領域に対する物理記憶領域への対応付けを、再配置前の物理記憶領域から再配置後の物理記憶領域に変更する技術が開示されている。また、ディスクアレイシステムがホストコンピュータからの各論理記憶領域に対するアクセスによる負荷状況を管理し、その実績に応じて再配置後にデータが適正配置となるように、再配置の内容を決定するという技術も開示されている。
【0007】
ホストコンピュータおよびディスクアレイシステム等のストレージサブシステム間におけるデータ転送の技術としては、M.T.O’Keefe,”Shared File Systems and Fibre Channel”(in Proc. Sixth Goddard Conference on Mass Storage Systems and Technologies, pp.1-16, March 1998)に開示された技術がある。
【0008】
この技術は、高速のネットワークであるFibre Channel(以下「FC」と称する。)で複数のホストコンピュータと複数のストレージサブシステムとを接続し、FC経由でデータ共有を実現するストレージ環境、いわゆるStorage Area Network(SAN)を実現するための技術である。このように、FC経由でデータ転送を行うことにより、一般的なネットワーク経由に比べ、ホストコンピュータおよびネットワークの負荷が削減される。
【0009】
高速なFCを使用しない、一般的なネットワークに接続されたストレージサブシステムに保持されているファイル等のデータを、複数のコンピュータで共有する技術としては、NFS(Network File System)が広く知られている。
【0010】
NFSを用いてネットワーク間でデータ共有を行う場合には、FCを使用する場合に比べ、ファイルを共有しているコンピュータや、コンピュータとストレージサブシステムをつなぐネットワークに対する負荷が大きくなる。しかし、NFSを用いると、既存のネットワークを使用できることから、新たにFCのネットワークを敷設することと比較すると、新規設備コストを抑えられ、またファイル共有等の管理が容易である等の利点がある。
【0011】
【発明が解決しようとする課題】
上述したように、特開平9-274544号公報に開示された技術では、1つのストレージサブシステム内におけるデータの再配置が可能となる。しかしながら、複数のストレージサブシステムを有する計算機システムにおいて、異なるストレージサブシステム間でのデータの再配置を行うことはできない。また、ディスクアレイシステムはファイルを認識できないため、ファイル単位でデータの再配置を行うことができない。
【0012】
一方、SANの技術を用いれば、異なるストレージサブシステムにおける高速なデータ転送が可能となる。しかしながら、従来技術においては、SANの技術を利用してストレージサブシステム間でデータの再配置を行うことは出来なかった。
【0013】
つまり、従来技術においては、SANを構成する各ストレージサブシステムの各記憶領域の負荷状況等、データの適正な配置を決定するために必要な情報を、ホストコンピュータやシステムを使用するユーザが得ることについて、何ら考えられていない。このため、ホストコンピュータや、そのユーザが、どのようにしてデータの再配置を行えば、データの適正な配置を実現することができるのかを判断できない。
【0014】
さらに、仮にユーザが自らストレージサブシステム間におけるデータの再配置を行おうとしても、データを再配置するための未使用領域の管理等を、全てユーザが詳細に検討して行わなければならず、ユーザに対する負担は大きいものがあった。
【0015】
また、異なるストレージサブシステム間でデータを転送すると、アプリケーションが認識するデータの位置、すなわち、アプリケーションが同じデータにアクセスするために指定すべきアクセス先が再配置の前後で変化してしまうが、この変化についても従来技術では何ら考慮されていない。
【0016】
さらに、一般的なネットワークで接続されているコンピュータ同士で、NFSを使用してデータ共有を行う場合にも、以下の問題がある。
【0017】
すなわち、従来、NFSによるデータ共有を実現するために使用されるホストコンピュータ(NFSサーバ)が、複数のストレージサブシステムを管理している場合、NFSサーバ自身は、その複数のストレージサブシステム間でのデータの物理的再配置等を行うことはできなかった。このため、NFSサーバを用いてデータ共有を行うコンピュータ毎に、共有されるデータの物理的位置を変更するといった、ストレージサブシステムの有する記憶領域についてのより細かい区別および管理を行うことができなかった。
【0018】
本発明は上記事情に鑑みてなされたものであり、本発明の目的は、NFSサーバを含めたホストコンピュータがデータの適正配置の決定に必要な情報をストレージサブシステムから取得できるようにし、SAN環境において、データの再配置を実現することにある。また、異なる目的としては、ユーザのストレージサブシステムの管理負担を軽減することにある。また、異なるストレージサブシステム間におけるデータの再配置を、アプリケーションが認識するデータの位置が、再配置の前後で変化しないようにして、行えるようにすることにある。さらにまた、ファイルを対象とするデータの再配置を可能とすることにある。
【0019】
【課題を解決するための手段】
前記の課題を解決するため、本発明においては、計算機と、前記計算機に接続される複数のストレージサブシステムとを有する計算機システムであって、前記複数のストレージサブシステムの各々は、該ストレージサブシステムが有する記憶領域の各々について、前記記憶領域の使用状況を取得する取得手段と、前記計算機からの指示に従って、ほかの前記複数のストレージサブシステムのうちのいずれかからデータの移動を行う移動手段と、前記移動が完了したことを前記計算機に通知する通知手段と、を有しており、前記計算機は、前記複数のストレージサブシステムの各々から、前記取得手段によって取得された記憶領域各々の使用状況を収集する収集手段と、前記データを記憶する記憶領域と、前記計算機で実行されるファイルシステムが管理するファイルとの対応関係を保持するファイル対応関係記録部と、前記収集手段で収集した前記複数のストレージサブシステムの各々が有する記憶領域の使用状況の情報と、前記ファイル対応関係記録部とを使用して、前記ファイルごとに前記記憶領域の使用状況を収集する第2の収集手段と、前記第2の収集手段で収集した前記複数のストレージサブシステムの各々が有する記憶領域のファイルごとの使用状況の情報に基づいて、各ストレージサブシステムにおける記憶領域の使用状況を計算する第2の計算手段と、前記計算した結果と、前記収集手段で収集した各ストレージサブシステムの記憶領域の使用状況の情報とを少なくとも表示する表示部と、該計算機の使用者から、前記表示部で表示された各々の記憶領域のいずれかの選択の入力を受け付ける選択手段と、前記データの論理的な位置と、前記ストレージサブシステムにおいて前記データが格納される記憶領域との対応を記憶する対応記憶部と、前記通知手段によって前記ストレージサブシステム間でのデータの移動が完了した通知を受け取った場合に、前記対応記憶部を更新する更新手段と、を有しており、前記計算機からの指示には、前記選択手段によって選択された記憶領域を指定する情報が含まれている、ことを特徴とする。
また本発明においては、計算機と、前記計算機に接続される複数のストレージサブシステムとを有する計算機システムであって、前記複数のストレージサブシステムの各々は、該ストレージサブシステムが有する記憶領域の各々について、前記記憶領域の使用状況を取得する取得手段と、前記計算機からの指示に従って、ほかの前記複数のストレージサブシステムのうちのいずれかからデータの移動を行う移動手段と、前記移動が完了したことを前記計算機に通知する通知手段と、を有しており、前記計算機は、前記複数のストレージサブシステムの各々から、前記取得手段によって取得された記憶領域各々の使用状況を収集する収集手段と、前記データを記憶する記憶領域と、前記計算機で実行されるファイルシステムが管理するファイルとの対応関係を保持するファイル対応関係記録部と、前記収集手段で収集した前記複数のストレージサブシステムの各々が有する記憶領域の使用状況の情報と、前記ファイル対応関係記録部とを使用して、前記ファイルごとに前記記憶領域の使用状況を収集する第2の収集手段と、前記第2の収集手段で収集した前記複数のストレージサブシステムの各々が有する記憶領域のファイルごとの使用状況の情報に基づいて、各ストレージサブシステムにおける記憶領域の使用状況を計算する第2の計算手段と、前記計算した結果と、前記収集手段で収集した各ストレージサブシステムの記憶領域の情報とに基づいて、所定の条件を満たす前記記憶領域を自動的に選択する第2の選択手段と、前記データの論理的な位置と、前記ストレージサブシステムにおいて前記データが格納される記憶領域との対応を記憶する対応記憶部と、前記通知手段によって前記ストレージサブシステム間でのデータの移動が完了した通知を受け取った場合に、前記対応記憶部を更新する更新手段と、を有しており、前記計算機からの指示には、前記第2の選択手段によって選択された記憶領域を指定する情報が含まれている、ことを特徴とする。
【0020】
ここで、各記憶領域の使用状況とは、例えば、その記憶領域の物理的な記憶空間の使用状況やその記憶空間へのアクセス処理に消費された処理時間等である。
【0021】
また、ストレージサブシステムで移動されるデータの単位及び計算機で管理されるデータの単位がファイル単位であることも考えられる。
【0022】
さらに、全てのストレージサブシステムが有する論理的な記憶領域全体を管理する手段と、記憶装置の特徴と論理的な記憶領域との対応関係を管理する手段とを計算機に付加した構成も考えられる。
【0023】
また、計算機に、ストレージサブシステムに格納されているデータをネットワーク間で共有する手段を付加した構成も考えられる。
【0024】
【発明の実施の形態】
図1は、本発明が適用された計算機システムの第1実施形態の構成を示す図である。
【0025】
本実施形態の計算機システムは、ホストコンピュータ(ホスト)100、ディスクアレイ200、スイッチ500、クライアント800及びローカルディスク190を有する。
【0026】
ホスト100は、ネットワークインタフェース170により、ネットワーク700を介して、クライアント800及びディスクアレイ200に接続される。ホスト100は、また、FCインタフェース160、スイッチ500及びFC600を介して、ディスクアレイ200及びローカルディスク190に接続される。
【0027】
ホスト100は、ファイルシステム110、オペレーティングシステム(以下「OS」と称する。)120、マネージャ130及びアプリケーション140をホスト100自身が有する記憶領域に有する。
【0028】
アプリケーションプログラム(以下、単にアプリケーションと呼ぶ)140は、OS120およびファイルシステム110を介してディスクアレイ200に対してリードやライトの要求を出す。
【0029】
ホスト100及びクライアント800としては、一般的な電子計算機が用いられる。ファイルシステム110等のプログラムは、ホスト100の外部にあるローカルディスク190に記憶され、必要に応じてホスト100に読み込まれて実行される。
【0030】
ホスト100がその内部に記憶装置を有する場合には、当該記憶装置をローカルディスク190として使用することも考えられる。
【0031】
ローカルディスク190には、OS120及びファイルシステム110が使用する論理ユニット(以下、「LU」と称する)論理位置名テーブル191及びLU内アドレス論理位置名テーブル195等の各種管理情報が格納されている。LU論理位置名テーブル191は、アプリケーション140がディスクアレイシステム200のデータにアクセスするときに指定する論理位置名と、論理位置名により特定されるデータを格納するLUとの対応を示す情報を保持したテーブルである。
【0032】
LU内アドレス論理位置名テーブル195は、アプリケーション140がディスクアレイシステム200のデータにアクセスするときに指定する論理位置名と、論理位置名により特定されるデータのLU内アドレスとの対応を示す情報を保持したテーブルである。
【0033】
ディスクアレイ200は、制御部300、複数のディスク装置210、ネットワークインタフェース270及びFCインタフェース260を有する。
【0034】
制御部300は、処理を実行するためのCPU310、メモリ320及びキャッシュメモリ330を有する。
【0035】
メモリ320には、論理/物理対応情報321、論理ボリューム使用状況322及びコピー領域管理テーブル323が格納される。これらの情報の詳細については後述する。
【0036】
本実施形態では、n台(nは2以上の整数)のディスク装置210でアレイ(以下「RAID」と称する。)が構成されており、このn台のディスク装置210によるRAIDをパリティグループ220と呼ぶ。
【0037】
RAIDとしては、1つのパリティグループ220に含まれるn台のディスク装置210のうち、n-1台のディスク装置210の格納内容から生成される冗長データ(以下「パリティ」と称する。)を残りの1台に格納する構成や、n/2台に格納されている内容を残りのn/2台がコピーしたミラーディスク(RAIDレベル1)構成が考えられる。また、各パリティグループ220を、ホスト100からのアクセス対象の1単位とみなすことができる。
【0038】
本実施形態においては、ディスクアレイ200を構築する各パリティグループ220の性能、信頼性、特性などの属性は、同一であってもよいし、あるいは、異なっていてもかまわない。
【0039】
制御部300は、ホスト100がリード/ライトする論理ボリュームとディスク装置210の記憶領域を示す物理アドレスとの対応付け(アドレス変換)を行い、ホスト100に論理ボリュームを提供する。ディスクアレイ200は、アドレス変換において、複数の論理ボリュームを結合して1つのLUとしてホスト100に提供することもできる。すなわち、ディスクアレイ200は、少なくとも1つの論理ボリュームからなるLUをホスト100に提供する。ホスト100は、LUに対してリード/ライトを行う。
【0040】
本実施形態では、複数のディスクアレイ200間における、ディスクアレイ200の使用状況を考慮したデータの物理的再配置を可能とする。具体的には、ディスクアレイ200は、ホスト100からのリード/ライトに対するディスク装置210の使用状況を取得する。ホスト100は、複数のディスクアレイ200各々が取得した使用状況を収集し、ユーザに提示する。さらに、ホスト100は、ディスクアレイ200の使用状況の提示を受けたユーザからの指示等に応じ、ローカルディスク190内のLU論理位置名テーブル191を変更すると共に、ディスクアレイ200がLUに格納しているデータをコピーする。これにより、複数のディスクアレイ200間におけるLUの再配置が行われる。そして、ディスクアレイ200の使用状況を考慮したデータの再配置を可能とすることにより、データの適正配置が可能となる。
【0041】
図2は、ディスクアレイ200が、ホスト100からのリード/ライト要求に応答して行うリード/ライト処理、及びディスクアレイ200が、ディスク装置210の使用状況を取得する使用状況取得の処理の手順を示すフロー図である。使用状況取得の処理は、随時、又はホスト100からのリード/ライト要求時に行われる。
【0042】
ホスト100のアプリケーション140は、ファイル論理位置名によってファイルを指定し、ファイルに対するリード/ライトをOS120に要求する。OS120は、ファイルシステム110にファイルのリード/ライトを要求する。
【0043】
ファイルシステム110は、FCインターフェース160を介してローカルディスク190にアクセスし、指定されたファイルが格納されているLU番号をLU論理位置名テーブル191から求める。ファイルシステム110は、指定されたファイルが格納されているLU内アドレス等を、LU内アドレス論理位置名テーブル195から求める。
【0044】
ホスト100は、FCインターフェース160を介して、求めたLU番号のLUを提供するディスクアレイ200に対し、LU番号やLU内アドレスを伴うSmall Computer System Interface(SCSI)規格のリードコマンド、あるいはライトコマンドを発行する。
【0045】
アプリケーション140が、論理ドライブ名、ディレクトリ名及びファイル名によるファイルの論理位置までのパスの記述によりファイルを指定するシステムでは、論理位置(論理ドライブやディレクトリやファイル)へのパスの記述が、ファイルの論理位置の論理位置名となる。一般的には、論理位置名とは、アプリケーションがアクセス対象の指定に使用する論理位置の情報である。
【0046】
ファイルシステム110は、各論理位置を管理するため、ディレクトリ構造などの各論理位置間の階層的な論理構造を管理する他、各論理位置の論理位置名とLU番号との対応をLU論理位置名テーブル191に記述し管理する。また、各論理位置の論理位置名とLU内アドレスとの対応をLU内アドレス論理位置名テーブル195に記述し管理する。なお、LU番号は、そのLU番号のLUを提供するディスクアレイ200も表す(ステップ1000)。
【0047】
ホスト100からリード/ライトのコマンドを受領した制御部300は、メモリ320内の論理/物理対応情報321を用いて、コマンドで指定されているLU番号により特定されるLUを構成する論理ボリュームを特定する。制御部300は、論理ボリュームに対応するディスク装置210の領域を求め、コマンドで指定されているLU内アドレスの物理アドレスへの変換を行う。
【0048】
論理/物理対応情報321は、図3に示すように、LUとディスク装置210の物理アドレスとの対応関係についての情報を保持するテーブルである。
【0049】
図中、LU番号5001およびLU内アドレス5002は、ホスト100のファイルシステム110がリード/ライト処理で指定するLU番号及びLU内アドレスを示す。論理ボリューム番号5003は、LU番号5001で特定されるLUに対応する論理ボリュームの番号である。論理ボリュームアドレス5004は、LU内アドレス5002に対応する論理ボリューム内のアドレスである。
【0050】
物理アドレスは、データとパリティが格納されるディスク装置210上の領域を示すアドレスである。物理アドレスは、パリティグループ番号5005、データおよびパリティ各々に対するディスク装置番号5006及びディスク装置内アドレス5007を有する。パリティグループ番号5005は、個々のパリティグループ220を示す。ディスク装置番号5006は、個々のディスク装置210を示す。ディスク装置内アドレス5007は、ディスク装置210内での領域を示すアドレスである(ステップ1010)。
【0051】
データのリードの場合、制御部300は、アドレス変換で得た物理アドレスに基づいて、ディスク装置210のデータを読み出し、ホスト100に転送する。データのライトの場合、制御部300は、ホスト100から転送されたデータ及びデータに関連して生成したパリティを、アドレス変換で得たディスク装置210の物理アドレスの位置に格納する(ステップ1020)。
【0052】
、リード/ライト処理を終了した制御部300は、使用状況取得処理を実行する。この処理では、制御部300は、リード/ライト処理でのリード/ライト種別やシーケンシャル/ランダムアクセス種別を判別し、メモリ320のリード/ライト対象となった論理ボリュームの論理ボリューム使用状況322を更新する。論理ボリューム使用状況322は、ディスクアレイ200に含まれるLUの使用状況についての情報を保持したテーブルである。論理ボリューム使用状況322の一例を、図4に示す。
【0053】
論理ボリューム使用状況322には、論理ボリューム毎に、論理ボリューム番号5101及びリード/ライト種別およびシーケンシャル/ランダムアクセス種別毎のディスク使用時間(マイクロ秒単位)5102が記述される。ここでは、リード/ライト対象となった論理ボリュームの論理ボリューム番号5101に対応する、ディスク使用時間5102に、リード/ライトに要した時間が加算される(ステップ1030)。
【0054】
図5は、ホスト100が、各ディスクアレイ200からディスク装置210の使用状況を収集する使用状況収集処理の手順を示すフロー図である。この処理は、随時行われる。
【0055】
ホスト100のマネージャ130は、FCインターフェース160を介し、コマンドボリュームに対して、情報収集用のパラメータをライトデータとするSCSI規格のライトコマンドを発行する。コマンドボリュームは、ディスクアレイ200が有する情報転送用のLUであって、対応する物理領域が指定されない論理ボリュームである。(ステップ1100)。
【0056】
制御部300は、発行されたコマンドがコマンドボリュームに対するライトコマンドであることを確認すると、ホスト100から転送された情報収集用のパラメータに含まれるオペレーションコードから、要求された情報を判別する。制御部300は、要求された情報をメモリ320上に用意する(ステップ1110)。制御部300は、FCインターフェース260を介して、ホスト100にライトの完了を報告する(ステップ1120)。
【0057】
完了報告を受けたホスト100のマネージャ130は、FCインターフェース160を介して、ディスクアレイ200のコマンドボリュームに、SCSI規格のリードコマンドを発行する(ステップ1130)。
【0058】
制御部300は、コマンドボリュームに対するリードコマンドを受領すると、メモリ320上に用意した情報を、FCインターフェース260を介してホスト100に転送する(ステップ1140)。制御部300は、FCインターフェース260を介してホスト100にリードの完了を報告する(ステップ1150)。
【0059】
ステップ1100でライトされる情報収集用のパラメータ及びステップ1110で用意される情報には、論理ボリューム情報、パリティグループ情報及び使用状況情報の3種類の情報が含まれる。
【0060】
ステップ1100でライトされる情報収集用のパラメータが、図6に示すような論理ボリューム情報のパラメータである場合、制御部300は、その0〜1バイト目で指定された論理ボリューム番号5201で特定される論理ボリュームについて、図7に示すような論理ボリューム情報(ディスクアレイ200内のその論理ボリュームの構成を示す情報)を用意する。
【0061】
図7に示す論理ボリューム情報において、8〜47バイト目には、その0〜1バイト目に記述されている論理ボリューム番号5201で特定される論理ボリュームの各種情報5202が記述される。49〜121バイト目には、その論理ボリュームが属するLUを構成する各論理ボリュームの情報5203が記述される。
【0062】
情報収集用のパラメータが、パリティグループ情報のパラメータの場合、制御部300は、パラメータで指定された論理ボリュームが属するパリティグループ220のパリティグループ情報(RAIDの構成、ディスク装置210の型名等、ディスクアレイ200内のそのパリティグループ220の構成を示す情報)を用意する。
【0063】
情報収集用のパラメータが、ディスク装置210の使用状況を確認するためのパラメータの場合、制御部300は、パラメータで指定された論理ボリュームの使用状況情報(ディスクアレイ200内のリソースの使用状況、例えば論理ボリュームが占有される時間、論理ボリュームの各種コマンド受領回数やキャッシュメモリ330のヒット回数等の情報、プロセッサ310の占有時間及び内部バスの占有時間等の情報等)を用意する。
【0064】
制御部300は、あらかじめ、論理ボリューム毎に、各種コマンド受領回数やキャッシュメモリ330のヒット回数やプロセッサ310の占有時間や内部バスの占有時間等を取得している。マネージャ130は、例えば複数回取得した占有時間の平均を取得間隔で割ることにより、単位時間あたりの占有時間率を求めることができる。
【0065】
制御部300は、論理ボリューム情報やパリティグループ情報を生成する際に、論理/物理対応情報321の一部あるいは全部を使用する。マネージャ130は、各型のディスク装置210の性能に関する情報を保持しており、ディスク装置210の型名を基に、パリティグループ220を構成するディスク装置210の性能を得ることができる。
【0066】
また、ホスト100のマネージャ130は、LUに対しSCSI規格のINQUIRYコマンドを発行して応答データを得ることで、この応答データからLUに属する論理ボリューム番号を得ることもできる。
【0067】
図8は、ホスト100が再配置すべきデータを決定する再配置対象決定処理の手順を示すフロー図である。本処理は、ユーザが再配置すべきデータを検索する際に使用するアプリケーションが実行された時に実行される。
【0068】
ホスト100のマネージャ130は、OS120が使用しているLU及び使用していないLU(空きLU)を、例えばローカルディスク190に格納されているLU論理位置名テーブル191から判定する。マネージャ130は、OS120が使用している各LUについて、LUが属するディスクアレイ200における各論理ボリュームの使用状況や、LUに対応する論理ボリュームの使用状況等を計算する。この計算には、INQUIRYコマンドを発行して得られるLUに属する論理ボリューム番号、使用状況収集処理で得られる各ディスクアレイ200における論理ボリューム情報、パリティグループ情報および論理ボリュームの使用状況等が使用される(ステップ1200)。
【0069】
マネージャ130は、使用状況等の計算結果を、各論理ボリュームが属するパリティグループ220の属性(RAID構成、ディスク装置210の型名又はディスク装置210の性能等)等と共にユーザに提示する(ステップ1210)。
【0070】
マネージャ130は、各LUについて、INQUIRYコマンドを発行して得られた各LUに属する論理ボリューム番号、使用状況収集処理で得られた各ディスクアレイ200における論理ボリューム情報、パリティグループ情報及び論理ボリュームの使用状況等とから、各空きLUが対応する各論理ボリュームの使用状況等を計算する(ステップ1220)。この計算結果が、各空きLUに関連するパリティグループ220の属性等と共にユーザに分類されて提示される(ステップ1230)。
【0071】
使用状況等の情報は、ホスト100あるいはホスト100にネットワーク接続された他の計算機で表示することもできる。
【0072】
ユーザは、各ディスクアレイ200の各LUについての情報を参照し、データを再配置すべきLU(再配置元LU)及びデータの再配置先のLUを決定する。ただし、ユーザではなく、ホスト100のマネージャ130が、各LUについての情報から自動的にデータ再配置元又は再配置先を決定してもよい。再配置の決定は、たとえば、再配置後に、ディスクアレイ200間での負荷分散、パリティグループ220間での負荷分散、高性能を要求するファイルが存在するLUの高性能パリティグループ220への配置等が実現されるように行なわれる。再配置先LUのサイズは、再配置元LUのサイズ以上でなければならない。各LUのサイズは、SCSI規格のREAD CAPACITYコマンドで取得することができる(ステップ1240)。
【0073】
図9は、ホスト100が行う、データの再配置処理の手順を示すフロー図である。ホスト100は、再配置を決定したユーザの指示、例えば再配置を指示する実行コマンドの入力等があった場合に本処理を実行する。
【0074】
ユーザからの指示が入力されたホスト100のマネージャ130は、ファイルシステム110に再配置元LUのロックを指示する(ステップ1300)。ファイルシステム110は、ロック指示に応じて、再配置元LUへのリード/ライト要求の受付を禁止する(ステップ1310)。
【0075】
次に、マネージャ130は、ファイルシステム110に、再配置元LUについてのキャッシュメモリのフラッシュを指示する(ステップ1320)。ファイルシステム110は、再配置元LUに格納されるデータであって、ホスト100上のメモリにキャッシュされていて且つディスクアレイ200に未だライトされていないデータを、ディスクアレイ200の再配置元LUにライトする(ステップ1330)。
【0076】
マネージャ130は、ファイルシステム110に、再配置元LUについてのキャッシュの無効化を指示する(ステップ1340)。ファイルシステム110は、再配置元LUに格納されるデータであってホスト100上のメモリにキャッシュされているデータを無効にする(ステップ1350)。
【0077】
LUのロック、キャッシュメモリのフラッシュ及び無効化の処理は、LUのアンマウントの処理に相当する。
【0078】
マネージャ130は、再配置先LUが存在するディスクアレイ200に、再配置元LUから再配置先LUへのデータのコピーを指示する。この指示は、使用状況収集処理と同様、再配置先LUが存在するディスクアレイ200のコマンドボリュームに、コピー指示オペレーションコードや再配置元LUや再配置先LU等のコピー指示のパラメータを含んだライトコマンドを発行することで行われる(ステップ1360)。ディスクアレイ200は、後述のコピー処理を開始し、コピー指示の受領をマネージャ130に通知する(ステップ1370)。
【0079】
マネージャ130は、ローカルディスク190に格納されているファイルシステム110が使用するLU論理位置名テーブル191を書き換え、再配置元LUと再配置先LUとの論理位置名を入れ替える。入れ替えられるLU論理位置名テーブル191の例を、図10及び図11に示す。
【0080】
図中、ディスクアレイ番号、IDおよびLUNは、LU番号6001を特定するために必要な情報である。図10は、論理位置名をディレクトリ形式で示したものであり、図11は、論理位置名をドライブ形式で示したものである。いずれも、アプリケーション140が使用する記憶領域としてのLUの論理位置を示している(ステップ1380)。マネージャ130は、ファイルシステム110に、LU論理位置名テーブル191の更新(再読み込み)及びステップ1300で指示したロックの解除を指示する(ステップ1390)。
【0081】
ファイルシステム110は、LU論理位置名テーブル191を再度読み込んで情報を更新する(ステップ1400)。ファイルシステム110は、ロックを解除してリード/ライト要求の受け付けを再開する(ステップ1410)。
【0082】
ステップ1400及び1410の処理は、LUのマウント処理に相当する。
【0083】
ステップ1410の処理が実行された後は、ファイルシステム110のリード/ライトの対象となるLUが再配置の対象であるLUであれば、ファイルシステム110のリード/ライト処理は、ステップ1380において情報が入れ替えられた再配置先LUに対して行われる。
【0084】
図12は、再配置処理において、ディスクアレイ200が、ホスト100からコピー指示を受けた際に行うコピー処理の手順を示すフロー図である。
【0085】
再配置先LUが存在するディスクアレイ200が、FCインターフェース260を介してホスト100からコピー指示を受け取ると、制御部300は、コピー指示で指定された再配置先LUについてのコピー領域管理テーブル323をメモリ320上に用意する。
【0086】
図13は、コピー領域管理テーブル323の内容を示す図である。コピー領域管理テーブル323は、コピーされるデータの範囲、大きさ等の情報が登録されているテーブルである。
【0087】
図中、コピー先LU番号6101及びコピー元LU番号6102は、FC600のネットワーク内において再配置先LUと再配置元LUを一義的に示す番号を格納する領域である。具体的には、ホスト100からコピー指示のパラメータとして指定された8バイトの番号(WORLD WIDE NAME)、3バイトの番号(N_PORT ID)、SCSI規格のターゲットIDもしくはLUNが格納される。コピーブロック数6103には、コピーする領域のブロック(最小リード/ライト単位)の数であり、コピー領域の大きさを示すデータが格納される。ビットマップ6104のビットには、LUのコピー対象領域の各ブロックが割り当てられる。ビットが「1」である場合は未コピーを示し、「0」である場合はコピー済を示す。初期時は、コピー対象領域に対応するすべてのビットが1に設定される(ステップ1500)。
【0088】
制御部300は、コピー指示の受領をホスト100に通知する。この通知は、コピー指示を実際に受領してから、コピー領域管理テーブル323の設定後、実際にコピーを行う前の時点で行われる。このため、コピー指示の受領から当該通知までの時間は短い(ステップ1510)。
【0089】
制御部300は、FCインターフェース260を介して再配置元LUから格納すべきデータをリードし、再配置先LUに格納するコピーを行う(ステップ1520)。
【0090】
制御部300は、LUのコピー対象領域について、コピー済の領域に対応するビットマップ6104のビットを順次0に変更する(ステップ1530)。制御部300は、対象となるLU全体のコピーが終了したら、コピー処理を終了する(ステップ1540)。
【0091】
再配置元LUが存在するディスクアレイ200と再配置先LUが存在するディスクアレイ200とが同一の場合には、ディスクアレイ200内でLUのコピーが行われる。
【0092】
ホスト100からの再配置対象LUへのリード/ライトは、再配置対象LUのデータがコピー中であっても、再配置先LU、すなわち再配置先LUの存在するディスクアレイ200に対して行われる。
【0093】
図14は、再配置先LUの存在するディスクアレイ200が、データの再配置におけるコピー処理の最中に、再配置の対象となるLUに対するリード/ライトコマンドを受けた場合における処理の手順について示すフロー図である。
【0094】
ディスクアレイ200が、FCインターフェース260を介してリードコマンドを受け取ると、制御部300は、リード対象範囲とテーブル323のビットマップ6104とを比較する(ステップ1610)。リード対象領域に未コピーの領域が含まれている場合には、制御部300は、リード対象領域のデータを優先して読み出してコピーを済ませる(ステップ1630)。制御部300は、ビットマップ6104のリード対象領域に対応するビットをコピー済みに更新する(ステップ1640)。制御部300は、ディスクアレイ200内のコピーしたデータをホスト100に転送する(ステップ1650)。リード対象領域がすべてコピー済であれば、制御部300は、ディスクアレイ200内のコピー済みのデータをホスト100に転送する(ステップ1650)。
【0095】
制御部300は、FCインターフェース260を介してライトコマンドを受け取ると、ホスト100から転送されたデータについて、ライト対象領域にライトを行う(ステップ1670)。制御部300は、コピー領域管理テーブル323のビットマップ6104のライト対象領域に対応するビットをコピー済に更新する(ステップ1680)。制御部300は、残りの未コピー領域のコピーを継続する(ステップ1690)。
【0096】
以上の処理により、再配置先LUが存在するディスクアレイ200は、データ再配置におけるコピー処理中であっても、ホスト100からのリード/ライトを処理することができる。
【0097】
なお、このリード/ライトの処理の際、制御部300は、同時に、先に説明した使用状況取得処理も行う。
【0098】
また、ホスト100のマネージャ130は、データ再配置におけるコピー処理中に、ディスクアレイ200のコマンドボリュームにコピー進捗取得のためのパラメータを含むデータのライトコマンドを発行し、ディスクアレイ200が用意したデータをリードすることで、コピーの進捗情報等をディスクアレイ200に問い合わせることができる。
【0099】
具体的には、コマンドボリュームに対するライトコマンドを受け付けた制御部300は、コマンドボリュームにライトされたパラメータを確認する。制御部300は、コピー領域管理テーブル323を参照してパラメータに対応するコピーの進捗率などの情報をメモリ320上に用意し、ライト完了をホスト100に通知する。マネージャ130は、コマンドボリュームに対するリードを行う。制御部300は、ホスト100のリードに対して、メモリ320上に用意したデータを転送することによって、コピーの進捗等の問い合わせに答える。
【0100】
本実施形態によれば、複数のディスクアレイ200間におけるLUの再配置によるデータの適正配置を、アプリケーション140にとって再配置前後で論理的に等価となるように、すなわち、アクセス対象のアクセスにアプリケーションが使用すべき論理位置名が変化しないようにしつつ実現できる。
【0101】
また、本態様によれば、計算機は、ディスクアレイから取得した、各記憶領域の物理的な記憶装置資源の使用状況を、例えば記憶装置資源の負荷分散等の観点による、データの適正配置の決定に用いることができる。したがって、この情報を用いて、例えば異なるストレージサブシステム間でデータを再配置することにより、データの適正配置を行うことができる。
【0102】
なお、本実施形態では、複数のディスクアレイ200間におけるデータの再配置について説明した。しかし、再配置対象データを格納するストレージサブシステムは、ディスクアレイサブシステムでなくてもよい。磁気ディスク装置、光磁気ディスク装置、磁気テープ装置又は半導体ディスク装置などを用いた他の種類のストレージサブシステムであってもよい。
【0103】
尚、マネージャ130は、FC600経由ではなく、ネットワーク700経由で、例えばSimple Network Management Protocol(SNMP)で規定されているプロトコルを用いて情報の収集や指示を行ってもよい。
【0104】
本実施形態では、ディスクアレイ200の制御部300が取得する論理ボリューム使用状況322が使用時間の累積値である場合について説明した。しかし、制御部300が単位時間毎の使用時間を使用率の形式にしてメモリ320に蓄積し、これを論理ボリューム使用状況322として、ホスト100のマネージャ130が収集するようにしてもよい。
【0105】
図15は、本発明が適用された計算機システムの第2実施形態の構成を示す図である。
【0106】
図示するように、本実施形態の計算機システムは、ローカルディスク190にLU領域範囲テーブル192を格納し、スイッチ500にコピー制御部510を設けた構成を有している点が、第1実施形態の計算機システムと異なる。
【0107】
本実施形態では、ディスクアレイ200がディスク装置210の使用状況を取得し、ホスト100が複数のディスクアレイ200から使用状況を収集し、使用状況を計算機システムのファイルに基づく分析も含めてユーザに提示する。ホスト100は、ファイル管理のためのデータ(以下「メタデータ」と称する)を変更する。スイッチ500は、ホスト100の指示に基づいて、ディスクアレイ200に格納されているデータをコピーする。これにより、複数のディスクアレイ200間におけるファイルの再配置を可能とし、データの適正配置を行えるようにする。
【0108】
第1実施形態においては、ホスト100のファイルシステム110は、各LUを、使用中のものと使用していないものとに区別して管理した。本実施形態では、ファイルシステム110は、全てのLUを使用し、全てのLUの領域の集合を単一領域(以下、「統合領域」と称する。)として管理する。また、統合領域上のファイルを、後述するメタデータで管理する。メタデータは、統合領域の既定の位置に格納される。
【0109】
図16は、本実施形態において、ファイルシステム110が統合領域を管理するために用いるLU領域範囲テーブル192の例を示した図である。LU領域範囲テーブル192は、統合領域の範囲と各LU内領域の範囲との対応を示す情報を保持している。
【0110】
図中、領域内アドレス6301には、統合領域内でのアドレスが格納される。LU番号6302は、ディスクアレイ番号、ID及びLUNを含み、領域内アドレス6301に格納されるLUを示す。LU内アドレス6303は、対応するLU番号6302で特定されるLU内でのアドレスが格納される
図17は、ホスト100がリード/ライトを行う場合の処理の手順を示すフロー図である。
【0111】
前提として、ホスト100のアプリケーション140は、ファイルシステム110が管理するファイルの論理位置を指定して、ディスクアレイ200が格納するデータにリードやライトを行うものとする。また、ファイルシステム110は、データをファイルとして管理するために、メタデータをディスクアレイ200に格納している。
【0112】
なお、メタデータはディスクアレイ200に格納されているが、ファイルシステム110の管理に基づき、ホスト100上のメモリにキャッシュされている場合もある。以下、メタデータがホスト100上のメモリにキャッシュされている場合で説明する。
【0113】
図18は、メタデータの内容を示す図である。
【0114】
図示するように、メタデータには、各ファイルの作成日時、更新日時、アクセス日時、属性、ファイル論理位置名、セキュリティ情報、及びファイル位置等が含まれる。各ファイルに対応する統合領域内の範囲は、ファイル位置6407に格納された情報で示される。
【0115】
ホスト100のアプリケーション140は、ファイル論理位置名によってファイルを指定し、ファイルに対するリード/ライトをOS120に要求する(ステップ1700)。OS120は、ファイルシステム110に、ファイルのリード/ライトを要求する(ステップ1710)。ファイルシステム110は、キャッシュメモリされているメタデータを参照し、メタデータ及びLU領域範囲テーブル192の情報から、指定されたファイルの位置(LUおよびLU内アドレス)を得る(ステップ1720)。
【0116】
要求がライト要求である場合、ファイルシステム110は、さらにメタデータの更新を行う(ステップ1740)。ファイルシステム110は、ステップ1720で得たファイルの位置が示す領域内のリード/ライトをディスクアレイ200に対して行い(ステップ1750)、キャッシュされたメタデータ及びディスクアレイ200のメタデータを更新する(ステップ1760)。
【0117】
ステップ1740及び1760でのメタデータの更新は、アクセスされたファイルについて、作成日時6401、更新日時6402、アクセス日時6403、属性6404、ファイル論理位置名6405、セキュリティ情報64060、及びファイル位置6407等に格納された情報を、アクセス内容に応じて更新することで行われる。例えば、ライトによりファイルサイズが増減する場合は、これに合わせて、メタデータのファイル位置6407が示す領域内の範囲が増減される。また、ファイルが新規に作成される場合は、メタデータに新規ファイルのエントリが追加され、ファイルが削除される場合は対応するエントリが削除される。
【0118】
本実施形態において、制御部300は、第1実施形態と同様の使用状況取得処理を行う。また、ホスト100のマネージャ130は、第1実施形態と同様の使用状況収集処理を行う。
【0119】
図19は、ホスト100が行うファイル単位の再配置対象決定処理の手順を示すフロー図である。
【0120】
ホスト100のマネージャ130は、統合領域に存在する各ファイルについて、ファイルとLUとの対応を、ファイルシステム110に問い合わせる(ステップ1800)。ファイルシステム110は、キャッシュされたメタデータ及びLU領域範囲テーブル192を用いて、問い合わせに答える(ステップ1810)。
【0121】
マネージャ130は、ディスクアレイ200毎の各論理ボリュームの使用状況、各LUの各論理ボリュームの使用状況及びファイル毎の各論理ボリュームの使用状況等を計算する。この計算には、INQUIRYコマンドによって得られた各ディスクアレイ200における各LUに属する論理ボリューム番号、使用状況収集処理で得られた各ディスクアレイ200における論理ボリューム情報及びパリティグループ情報及び論理ボリュームの使用状況等が使用される(ステップ1820)。マネージャ130は、計算結果を、各論理ボリュームが属するパリティグループ220の属性等と共にユーザに提示する。すなわち、ホスト100は、使用状況に関する情報を、ディスクアレイ200、論理ボリューム、LU、ファイルといった各種の視点でユーザに提供する(ステップ1830)。
【0122】
マネージャ130は、各ディスクアレイ200が提供するLUや論理ボリュームについて利用可能な空き領域を計算し、ユーザに提示する(ステップ1840)。マネージャ130は、各ディスクアレイ200が提供するLUや論理ボリュームについて利用可能な空き領域を、ファイルシステム110に問い合わせる(ステップ1850)。ファイルシステム110は、キャッシュされたメタデータ及びLU領域範囲テーブル192を参照して、ファイルが存在しない空き領域を特定し、マネージャ130に答える(ステップ1860)。マネージャ130は、使用状況収集処理で得た各種使用状況等から、空き領域の論理ボリュームの使用状況等を、論理ボリュームやパリティグループ220の属性等と共にユーザに分類して提示する(ステップ1870)。
【0123】
使用状況や空き領域の情報は、ホスト100またはホスト100にネットワークで接続された他の計算機で表示することができる。ユーザは、これらの情報より再配置すべきファイルと再配置先の空き領域とを決定する。マネージャ130は、これらの情報から、自動的に同様の再配置対象や空き領域を決定してもよい(ステップ1880)。
【0124】
ホスト100のファイルシステム110が、OS120やアプリケーション140からの各ファイルへのリード/ライト要求頻度(アクセス頻度)を監視して統計情報を生成し、ステップ1830でユーザに提示しするようにしてもよい。
【0125】
これにより、ユーザは、ホスト100での各ファイルのアクセス頻度を勘案して再配置すべきファイルを決定することができる。
【0126】
図20は、ホスト100が、再配置対象決定処理の結果を受けて行う再配置処理の手順を示すフロー図である。本処理は、基本的には、図9に示すLU単位の再配置決定処理の手順において、LUをファイルに、ディスクアレイ200をスイッチ500に読み替えた処理と同じである。以下、図9とは異なる部分についてのみ説明する。
【0127】
マネージャ130は、ファイルシステム110に、再配置先の空き領域についての領域の使用予約を指示する(ステップ1940)。ファイルシステム110は、指定された再配置先領域が確保されるよう、キャッシュされたメタデータを更新する(ステップ1950)。マネージャ130は、ファイルシステム110に、メタデータのキャッシュメモリのフラッシュを指示する(ステップ1960)。ファイルシステム110は、ホスト100上のメモリにキャッシュメモリしてあるメタデータを、ディスクアレイ200にライトする(ステップ1970)。
【0128】
マネージャ130は、メタデータを書き換え、指定されたファイルの位置を、再配置元領域から再配置先領域へ入れ替える。これにより、再配置元の領域を空き領域とする(ステップ2010)。マネージャ130は、ファイルシステム110に、メタデータについて、キャッシュの無効化を指示する(ステップ2020)。ファイルシステム110は、ホスト100上のメモリにキャッシュしてあるメタデータを無効にする(ステップ2030)。
【0129】
以降、ファイルシステム110が、ファイルにリード/ライトする場合には、再配置先領域にコピーされたデータに対して正常にリード/ライトを行うことができる。
【0130】
本実施形態によれば、複数のディスクアレイ200間でのファイルの適正配置を、アプリケーション140にとって再配置前後で論理的に等価となるように行うことが可能となる。
【0131】
図21は、本発明が適用された計算機システムの第3実施形態の構成を示す図である。
【0132】
本実施形態の計算機システムは、クライアント800が、FCインタフェース860及びネットワークインタフェース870を有する。そして、クライアント800がFCインターフェース860を介してFC600経由でホスト100、ディスクアレイ200及びスイッチ500に接続され、かつネットワークインターフェース870を介してネットワーク700経由でホスト100およびディスクアレイ200に接続される点が、第2実施形態の計算機システムと異なる。本実施形態では、複数のクライアント800とホスト100とが、ディスクアレイ200上のファイルを共有する。クライアント800は、OS820とアプリケーション840を有する。クライアント800は一般的な電子計算機である。
【0133】
第2実施形態と同様に、本実施形態のファイルシステム110は、全てのLUを使用し、全てのLUの領域を集合して単一の統合領域として管理する。そして、統合領域上のファイルを、第2実施形態と同様にメタデータにより管理する。
【0134】
クライアント800が、ディスクアレイ200に格納されているファイルへアクセスする処理について説明する。
【0135】
図22は、クライアント800がディスクアレイ200に格納されているファイルのリードを行う場合の処理の手順を示すフロー図である。
【0136】
クライアント800のアプリケーション840は、OS820にファイルのリードを要求する(ステップ2100)。OS820は、ネットワークインターフェース870あるいはFCインターフェース860を介して、ホスト100のファイルシステム110にファイルのリードを通知する(ステップ2110)。
【0137】
ファイルのリードの通知を受けたファイルシステム110は、ファイルが格納されているLUおよびLU内アドレスを、メタデータとLU領域範囲テーブル192とを参照して求める(ステップ2120)。ファイルシステム110は、ファイルが格納されているLUのLU内アドレスを他のクライアント800からのライトに対してロックする(ステップ2130)。ファイルシステム110は、ホスト100のキャッシュメモリにあるメタデータをフラッシュする(ステップ2140)。ファイルシステム110は、クライアント800のOS820に、ファイルが格納されているLUおよびLU内アドレスと、メタデータの格納されているLUおよびLU内アドレスとを返答する(ステップ2150)。
【0138】
返答を受けたクライアント800のOS820は、リードの対象となるファイルが格納されているLUが存在するディスクアレイ200に対し、FCインターフェース860を介して、ファイルが格納されているLU内アドレスに対するリードを行って、アプリケーション840からの要求を処理する(ステップ2160)。
【0139】
クライアント800から要求されたデータのリード処理が終了したら、OS820は、ホスト100のファイルシステム110から通知されたLUおよびLU内アドレスにあるメタデータ上のファイルのアクセス日時を更新する(ステップ2170)。OS820は、ファイルシステム110に、ネットワークインターフェース870またはFCインターフェース860を介して、処理の完了を通知する(ステップ2180)。
【0140】
完了通知を受けたファイルシステム110は、ホスト100上のメタデータのキャッシュメモリを無効化し(ステップ2190)、ステップ2130で行ったロックを解除する(ステップ2200)。
【0141】
図23は、ライトを行う場合の処理の手順を示すフロー図である。
【0142】
ライト処理は、図22のリード処理において、リードをライトに置き換えた処理とほぼ同一である。以下、異なる部分について説明する。
【0143】
ファイルシステム110は、ライトで増加する可能性のあるファイル使用領域のための領域の予約をメタデータに記述する(ステップ2340)。ファイルシステム110は、クライアント800のOS820に、ファイルが格納されているLUおよびLU内アドレス(ライトで増加する可能性のあるファイル使用領域のために予約した領域を含める)と、メタデータが格納されているLU及びLU内アドレスとを返答する。なお、ライトで増加する可能性のあるファイル使用領域の増加量は、クライアント800のOS820からのライトの通知に含まれているものとする(ステップ2360)。
【0144】
返答を受けたOS820は、ライトの対象となるファイルが格納されているLUが存在するディスクアレイ200に対し、FCインターフェース860を介して、ファイルが格納されているLU内アドレスに対するライトを行い、アプリケーション840からの要求を処理する(ステップ2370)。
【0145】
このようにして、クライアント800のアクセスを処理することにより、クライアント800およびホスト100は、ディスクアレイ200に格納されているファイルを矛盾なく共有して使用することができる。なお、ホスト100自身のファイルアクセスも、クライアント800によるファイルアクセスと同様に処理される。
【0146】
次に、本実施形態でのファイルの再配置について説明する。
【0147】
本実施形態でのファイルの再配置に関する処理(使用状況取得処理、使用状況収集処理、再配置対象決定処理および再配置処理)は、第2実施形態と同様である。ただし、アプリケーション840が要求するデータのリード/ライト処理でファイルがロックされている間、再配置処理は実行されない。また、図20に示す再配置処理のステップ1920及び1930におけるファイルのキャッシュメモリのフラッシュと、ディスクアレイへ200への書き戻しは、ファイルシステム110がそのファイルをキャッシュメモリしているクラインアント800に対して指示し、これを行わせる。
【0148】
本実施形態によれば、ディスクアレイ200に格納されているデータを共有して使用する環境においても、複数のディスクアレイ200間におけるファイルの物理的な再配置を、アプリケーション140、840に対して、再配置前後で論理的に等価となるように行うことができる。
【0149】
本実施形態においても、ホスト100のファイルシステム110が、OS120、820やアプリケーション140、840からの各ファイルへのリード/ライト要求頻度を監視し、統計情報を生成して、再配置対象決定処理においてユーザに提示するようにしてもよい。
【0150】
本実施形態において、クライアント800上にマネージャ130のプログラムが格納され、そのマネージャ130が、FCインターフェース860あるいはネットワークインターフェース870を用いて、使用状況等の情報の収集や指示などの処理を、ホスト100のファイルシステム110やディスクアレイ200に要求するようにしてもよい。
【0151】
図24は、本発明が適用された計算機システムの第4実施形態の構成を示す図である。
【0152】
本実施形態の計算機システムは、ホスト100がLUプールマネージャ900及びLU管理テーブル910を有する点で、第1実施形態の計算機システムと異なる。
【0153】
本実施形態によれば、LUの再配置先の選択を容易にすることができる。
【0154】
図25は、LU管理テーブル910を示す図である。
【0155】
LU管理テーブル910は、システム全体のLUの状態に関する情報が登録されているテーブルである。
【0156】
LU番号3310には、各LUに一意に割り当てられた番号が登録される。この番号は、LUプールマネージャ900が各LUを管理するために使用される。サイズ3320には、対応するLUの容量が登録される。構成3330には、RAID構成の種別が格納される。構成3330には、LUがキャッシュメモリ330や単体ディスクで構成されている場合には、その情報も格納される。
【0157】
状態3340には、LUの状態を示す情報が格納される。その種別として、「オンライン」、「オフライン」、「未実装」及び「障害オフライン」が設けられている。「オンライン」は、LUが正常な状態であり、ホスト100からアクセス可能であることを示す。「オフライン」は空きLU、すなわちLUは正常に存在するが、ホスト100からはアクセス不能の状態におかれていることを示す。「未実装」は、このLUは定義されておらず、ホスト100からアクセス不能であることを示す。「障害オフライン」は、LUに障害が発生してホスト100からのアクセスができないことを示す。
【0158】
ディスクアレイ番号3350には、対応するLUが存在するディスクアレイ200を示す情報が格納される。
【0159】
パス3360には、各ディスクアレイ200に複数接続するFC600のどれにLUが割り当てられているかを示す番号が格納される。ID3370及びLUN3380には、LUを示す番号が格納される。
【0160】
ディスク性能3390には、対応するLUが現在配置されているディスク装置210の性能を示す指標が格納される。具体的には、図25に示すとおり、ディスク装置210の平均シーク時間、平均回転待ち時間及び構成から、ディスク装置210の性能が高性能、中性能、低性能の指標に分類されて格納されている。キャッシュメモリ上のLUは、超高性能に分類される。
【0161】
エミュレーションタイプ3400には、ディスクアレイ200がホスト100に提供する各LUのディスク装置としての型を示す情報が格納される。
【0162】
再配置可能フラグ3410には、LUの再配置を行う際に、LUの再配置先として使用できるか否かを指定するためのフラグが格納される。ユーザは、このフラグを用いて再配置用のLUとその他のLUを区別することができる。ユーザはフラグのオン/オフを変更することができる。
【0163】
図25は、ディスクアレイ番号0についてのLU管理テーブルを示す図である。マネージャ130は、すべてのディスクアレイ200についてのLU管理テーブルを保持している。
【0164】
本実施形態における再配置対象の決定は、以下のようにして行われる。
【0165】
ユーザは、マネージャ130に対して、再配置元LUの指定及び再配置先LUとして必要とされる条件を指定する。具体的な条件としては、性能条件や信頼性レベル等がある。
【0166】
例えば、あるLUが過度に使用され、そのLUを含むディスク装置の能力を超えて負荷がかかっている場合、そのLUの再配置先としてより高性能のディスク装置を指定すれば、LUの処理能力が増大し、計算機システムの性能向上が期待できる。
【0167】
又、重要なデータを格納しているLUが単体ディスクや冗長なしRAID(RAID0)上に存在する場合、再配置先としてRAID5やRAID1を指定すれば、冗長性による耐障害性を確保できる。
【0168】
マネージャ130は、LU管理テーブル910に登録された情報を用いて再配置先のLUを決定し、ユーザに通知した上で、LUの再配置を行う。
【0169】
図26は、本実施形態における再配置対象決定処理の手順を示すフロー図である。本処理は、ユーザの指示に対応して実行される。
ユーザは、マネージャ130に対して再配置元LUのディスクアレイ番号、パス、ID及びLUNを指定する。この場合、パス及びID等の代わりに、ディスクアレイ番号及びLU番号を指定してもよい(ステップ2500)。
【0170】
ユーザは、マネージャ130に対して、再配置先についての要求条件として性能条件や信頼性レベルを指定する(ステップ2510)。
【0171】
マネージャ130は、再配置元LU、および再配置先についての要求条件をLUプールマネージャ900に通知する(ステップ2520)。LUプールマネージャ900は、LU管理テーブル910内を検索して、要求された条件を満たすLUの有無を確認する(ステップ2530)。
【0172】
この場合、検索条件は、「状態がオフライン」かつ「サイズが再配置元LU以上」かつ「エミュレーションタイプが再配置元LUと同じ」かつ「再配置可能フラグがオン(真)すなわち可能」かつ「性能条件が要求を満たす」かつ「信頼性レベルが要求を満たす」でなければならない。
【0173】
ステップ2540において条件を満たすLUが存在した場合、LUプールマネージャは、該当するLUをマネージャ130に通知する(ステップ2550)。マネージャ130は、通知されたLUを再配置先LUとして決定する(ステップ2560)。
【0174】
ステップ2540で条件を満たすLUが存在しなかった場合、LUプールマネージャ900は、LU管理テーブル910内を検索して「状態が未実装」のLU番号3310を探す(ステップ2570)。
【0175】
未実装のLU番号3310が存在しなかった場合は、LUプールマネージャ900は、マネージャ130に条件を満たすLUの利用不可を通知する(ステップ2580)。通知を受けたマネージャ130は、ユーザに再配置先LU決定不可を通知する(ステップ2590)。
【0176】
ステップ2570で未実装のLUが存在した場合は、LUプールマネージャ900は、未実装のLU番号と再配置先LUについての条件を指定して、該当するディスクアレイ200に再配置先LUの構築を指示する(ステップ2600)。
【0177】
この場合の再配置先LUについての条件は、「サイズが再配置元LU以上」かつ「エミュレーションタイプが再配置元LUと同じ」かつ「性能条件が要求を満たす」かつ「信頼性レベルが要求を満たす」である。
【0178】
LUの構築を指示されたディスクアレイ200は、LU構築処理を行う(ステップ2610)。構築が成功した場合は、ディスクアレイ200は、LUプールマネージャ900に、構築したLUについてのディスクアレイ番号、パス、ID及びLUNなどを含む一連の情報を通知する(ステップ2620)。構築が失敗した場合には、ディスクアレイ200は、LUプールマネージャ900に構築不可の通知を行う(ステップ2610)。
【0179】
LUプールマネージャ900は、通知されたLUの情報をLU管理テーブル910に登録し(ステップ2630)、マネージャ130に通知する(ステップ2550)。マネージャ130は、このLUを再配置先LUとして決定する(ステップ2560)。
【0180】
構築不可の通知を受けたLUプールマネージャ900は、マネージャ130に条件を満たすLUの利用不可を通知する(ステップ2580)。通知を受けたマネージャ130は、ユーザに再配置先LU決定不可を通知する(ステップ2590)。
【0181】
図27は、ディスクアレイ200が行うLU構築処理の手順を示すフロー図である。この処理は、LUプールマネージャ900の指示を受けた時に行われる
ディスクアレイ200は、LUプールマネージャ900からの指示により、未実装のLU番号と再配置先LUについての条件を受け取る(ステップ2700)。
【0182】
ディスクアレイ200は、ディスク装置210やキャッシュメモリ330などの内部資源割り当て状況等と受け取った条件を比較して、要求された条件のLUが構築可能かどうかを判断する(ステップ2710)。LUが構築可能な場合は、ディスクアレイ200は、内部資源を割り当て、フォーマット/初期化処理を行ってLUを構築する。ディスクアレイ200は、構築したLUに、LUプールマネージャー900から受けとった未実装のLUに対応するLU番号を割り当てる(ステップ2720)。
【0183】
ディスクアレイ200は、FCインタフェース260を設定し、LUにパス、ID、LUNを割り当てる(ステップ2730)。ディスクアレイ200は、構築したLUについての、ディスクアレイ番号、パス、ID及びLUN等を含む一連の情報をLUプールマネージャ900に通知する(ステップ2740)。
【0184】
ステップ2710においてLUが構築不可能だった場合は、ディスクアレイ200は、構築不可をLUプールマネージャ900に通知する(ステップ2750)。
【0185】
再配置先LUが決定されたら、マネージャ130は、第一の実施の形態と同様に再配置元LUと再配置先LUについての再配置処理を行う。
【0186】
図28は、再配置元LUのオフライン化処理の手順を示すフロー図である。
【0187】
マネージャ130は、第一の実施の形態で説明した方法でコピーの進捗を取得し、コピーが終了した場合は、LUプールマネージャ900に再配置元LUのオフライン化を指示する(ステップ2800)。
【0188】
オフライン化の指示を受けたLUプールマネージャ900は、再配置元LUのディスクアレイ200に、再配置元LUのオフライン化を指示する(ステップ2810)。オフライン化の指示をうけたディスクアレイ200は、FCインタフェース260を設定してLUにロックをかけることで、LUをオフラインにする(ステップ2820)。ディスクアレイ200は、オフライン化したことをLUプールマネージャ900に通知する(ステップ2830)。
【0189】
オフライン化の通知を受けたLUプールマネージャは、LU管理テーブル910のLUの状態3340の内容をオフラインに更新する(2840)。
【0190】
ここでは、マネージャ130がコピーの進捗情報を取得する例を説明したが、ディスクアレイ200がコピー終了をマネージャ130に通知してもよい。
【0191】
また、マネージャ130がオフライン化を指示する代わりにディスクアレイ200がコピー終了時点で再配置元LUをオフライン化し、オフライン化したことをLUプールマネージャ900に通知してもよい。
【0192】
本実施形態においては、マネージャ130が、SCSI規格のEXTENDED COPYコマンドを用いてスイッチ500のコピー制御部510へのコピー指示を行う場合について説明したが、他のコマンドを用いてもよい。他のコマンドとは、例えば、コマンドボリュームへのライトコマンド等である。また、図15に示すように、ディスクアレイ200がコピー制御部510を有し、マネージャ130がディスクアレイ200のコピー制御部510に、コピー指示を行って、ディスクアレイ200がコピー処理を行うようにしてもよい。
【0193】
本実施形態では、再配置先LUとして要求する条件などの情報はユーザが指定しているとしたが、マネージャ130が自動的に判断して指定してもよい。
【0194】
本実施形態では、LUプールマネージャ900とマネージャ130が同じホスト100に存在するとしたが、LUプールマネージャ900がリモートコンピュータ400といった、マネージャ130とは異なるコンピュータに存在してもよい。この場合、LUプールマネージャ900とマネージャ130は、FC600やネットワーク700を介してSCSIやSNMPや他のプロトコルやコマンド体系で指示や通知を行う。
【0195】
本実施形態によれば、LUの再配置の処理において、再配置先のLUの管理や選択を容易にしてユーザの負荷を削減し、計算機システムの管理を容易にすることができる。
【0196】
図29は、本発明を適用した計算機システムの第5実施形態を示す図である。本実施形態の計算機システムは、LU領域範囲テーブル192に新たな項目を付加したLU領域範囲テーブル193を用いて、クライアント800からのリード/ライト要求に基づき、ホスト100がファイルをリード/ライトする。そして、クライアント800との間でネットワーク700を介してデータを転送する処理を行う点が、第3実施形態の計算機システムと異なる。
ネットワーク700を経由したファイル共有のためのプロトコルとしては、Network File System(NFS)やCommon Internet File System(CIFS)が広く用いられている。これらのプロトコルや広く普及しているネットワーク700を用いることにより、容易にファイル共有環境を実現することができる。本実施形態においても、NFS又はCIFSを使用することを考える。
【0197】
図30は、LU領域範囲テーブル193を示す図である。LU領域範囲テーブル193には、LU領域に対するアクセスがネットワークを使用するか否かに関する情報が格納される。
【0198】
使用種別3510には、LU領域が、リード/ライトの処理が第3実施形態のようにFC600を介して行われるLU領域であるか、本実施形態で説明するようにネットワーク700を介してリード/ライトの処理が行われるLU領域であるかを示す情報が格納される。
【0199】
使用種別3510には、LU領域が、第1実施形態のようにLUを再配置する構成および方法に用いる領域(この場合のリード/ライト要求はFC600を経由する)であるか、LUへのリード/ライトの処理が、ネットワーク700を介して行う領域であるかの情報を格納することができる。使用種別3510には、未使用領域の情報を格納することもできる。その他、領域内アドレス、ディスクアレイ番号、ID、LUN、LU内アドレスは、第3実施形態で説明したものと同様なので、説明を省略する。
【0200】
LU領域範囲テーブル193を用いてLUを集中して管理することで、ファイルシステム110は、LUを少なくとも使用種別毎に区別された、複数の領域として管理することができる。
【0201】
LU領域範囲テーブル193が設定されることによって、ホスト100は、クライアント800からの要求が、第3実施形態で説明した方法でのアクセスか、ネットワークを介した形でのアクセスかを、要求で用いられるプロトコルなどで区別する。ホスト100は、この種別に応じて、LU領域を使用種別3510毎に区別して扱う。
【0202】
ホスト100は、第3実施形態の方法でアクセスされるファイルおよび領域と、本実施形態の方法でアクセスされるファイルおよび領域を区別して処理する。したがって、同一のファイルおよび領域へアクセスする方法が混在することはない。
【0203】
ホスト100は、アクセス可能なファイルの検索においても、同様の区別を行う。つまり、同一のディスクアレイ200に存在する各ファイルに、クライアント800からのアクセス要求があった場合、クライアント800からの使用種別を識別することにより、クライアント800の使用種別とは異なる他の使用種別のファイルをクライアント800に対して返答しない。したがって、クライアント800には、自己が使用するアクセス方法でのみアクセス可能なファイルだけが通知される。このことにより、本システムにおいては、共有ファイルの管理を容易に行うことができる。
【0204】
さらに、第1実施形態のように、LUを再配置する構成および方法に用いる領域(リード/ライトはFC600経由)と、LUへのリード/ライトをホスト100およびネットワーク700を介して行う領域との区別を行うことによって、上述したような効果をこれら全ての使用種別に対して得ることができる。又、ユーザは、ホスト100またはリモートコンピュータ400を介して、LU領域範囲テーブル193を自由に設定することができる。
【0205】
本実施形態では、NFSやCIFSのようなファイル共有プロトコルをネットワーク700経由で使用し、ホスト100とクライアント800間のデータ転送をネットワーク700経由で行うとしたが、ネットワーク700の代わりに、FC800経由で行う処理も考えられる。更に、クライアント800が行う各LUへのリード/ライト要求を、ホスト100およびネットワーク700を介して行う処理も考えられる。この場合、ホスト100は、クライアント800が要求するリード/ライト対象領域を、LU領域範囲テーブル192を用いて求める。ホスト100は、対象となるデータをリードしてクライアント800にネットワーク700経由で転送する。あるいは、ホスト100は、クライアント800からデータをネットワーク700経由で受領してライトする。
【0206】
図31は、クライアント800のアプリケーション840が、ディスクアレイ200に格納されているファイルに対してリードを行う場合における、ホスト100の処理の手順を示すフロー図である。
【0207】
第3実施形態と同様に、リード通知をうけたホスト100のファイルシステム110は、LU領域範囲テーブル193とメタデータを参照することで、ファイルの格納されているLU及びLU内領域を求める(ステップ2900)。ファイルシステム110は、他のライト要求に対してリード対象となるファイルをロックする(ステップ2910)。ファイルシステム110は、ファイル内のデータをリードして(ステップ2920)、クライアント800にネットワーク700を介してリードした内容を転送する(ステップ2930)。ファイルシステム110は、メタデータ上のファイルアクセス日時を更新する(ステップ2940)。ファイルシステム110は、ファイルのロックを解除し(ステップ2950)、リード処理の完了をクライアント800に通知する(ステップ2960)。
【0208】
図32は、アプリケーション840が、ライトを行う場合の処理の手順を示すフロー図である。
【0209】
ライト通知を受けたホスト100は、ネットワーク700経由でクライアント800からライトデータを受け取る(ステップ3000)。ホスト100は、LU領域範囲テーブル193とメタデータを参照することで、ファイルの格納されているLUとLU内領域を求める(ステップ3010)。ホスト100は、ファイルをロックし(ステップ3020)、ファイルにデータをライトする。このとき、必要ならばメタデータを更新してファイル使用領域の追加を行う(ステップ3030)。
【0210】
ホスト100は、メタデータ上のファイル更新日時とアクセス日時を更新する(ステップ3040)。ホスト100は、ロックを解除し(ステップ3050)、ライト完了をクライアント800に通知する(ステップ3060)。
【0211】
図33は、クライアント800のアプリケーション840またはOS820が、アクセス可能なファイルの存在についてホスト100に問い合わせた場合の処理の手順を示すフロー図である。
【0212】
アプリケーション840またはOS820自身の要求があった時、OS820は、ネットワーク700を介してホスト100にアクセス可能なファイルの存在を問い合わせる(ステップ3100)。
【0213】
通知をうけたホスト100のファイルシステム110は、アクセス可能なファイルを、LU領域範囲テーブル193とメタデータを参照して求める(ステップ3110)。ファイルシステム110は、各ファイルのファイル名などの情報をクライアント800に通知する(ステップ3120)。
【0214】
本実施形態では、クライアント800およびホスト100は、ディスクアレイ200に格納されているファイルをホスト100経由で共有して使用することができる。データの再配置の方法等は第3実施形態と同様である。ただし、再配置処理は各使用種別の領域内で行われる。
【0215】
本実施形態では、ディスクアレイ200に格納されているデータを共有して使用する環境においても、アプリケーション140およびアプリケーション840が関与することなく、複数のディスクアレイ200間でのファイルの物理的再配置を行うことができる。
【0216】
本発明は、各実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。
【0217】
たとえば、図1、図15および図21に示すように、マネージャ130を、ネットワークインタフェース470とFCインタフェース460とを有するリモートコンピュータ400上のプログラムとして、ホスト100の外部に配置してもよい。ホスト100外部のマネージャ130がFC600あるいはネットワーク700経由で情報の収集や指示を行い、各実施形態と同様の処理を行って、複数のディスクアレイ200間におけるLUの再配置によるデータの適正配置を、アプリケーション140に対して透過的に行うことができる。
【0218】
また、第1実施形態において、第3実施形態と同様に、ファイルの共有等を行うようにしてもよい。この場合も、記第1実施形態と同様に、複数のディスクアレイ200間でのデータの物理的再配置を、アプリケーション140、840に対し、再配置前後で論理的に等価となるように透過的に行うことができる。
【0219】
【発明の効果】
以上説明したように、本発明によれば、ストレージサブシステム間におけるデータの再配置を容易に行うことが出来る。また、本発明によれば、ホストコンピュータが適正配置の決定に必要な情報を複数のストレージサブシステムから取得することができる。また、異なるストレージサブシステム間におけるデータの再配置を、アプリケーションにとってのデータ位置が、再配置の前後で変化しないように行うことができる。さらに、異なるストレージサブシステム間におけるファイルを対象とするデータの再配置を行うことができる。
【図面の簡単な説明】
【図1】本発明の第1実施形態が適用された計算機システムの構成を示す図である。
【図2】本発明の第1実施形態でのリード/ライト処理および使用状況取得処理の手順を示すフロー図である。
【図3】本発明の第1実施形態で用いる論理/物理対応情報を示す図である。
【図4】本発明の第1実施形態で用いる論理ボリューム使用状況を示す図である。
【図5】本発明の第1実施形態での使用状況収集処理の手順を示すフロー図である。
【図6】本発明の第1実施形態で用いる論理ボリューム情報のパラメータを示す図である。
【図7】本発明の第1実施形態で用いる論理ボリューム情報を示す図である。
【図8】本発明の第1実施形態での再配置対象決定処理の手順を示すフロー図である。
【図9】本発明の第1実施形態での再配置処理の手順を示すフロー図である。
【図10】本発明の第1実施形態で用いるLU論理位置名テーブルを示す図である。
【図11】本発明の第1実施形態で用いるLU論理位置名テーブルを示す図である。
【図12】本発明の第1実施形態でのコピー処理の手順を示すフロー図である。
【図13】本発明の第1実施形態で用いるコピー領域管理テーブルを示す図である。
【図14】本発明の第1実施形態での、図16に示す処理によるコピー中における、再配置先LUへのリード/ライトコマンドに対する処理の手順を示すフロー図である。
【図15】本発明の第2実施形態が適用された計算機システムの構成を示す図である。
【図16】本発明の第2実施形態で用いるLU領域範囲テーブルを示す図である。
【図17】本発明の第2実施形態でのリード/ライト処理の手順を示すフロー図である。
【図18】本発明の第2実施形態で用いるメタデータを示す図である。
【図19】本発明の第2実施形態での再配置対象決定処理の手順を示すフロー図である。
【図20】本発明の第2実施形態での再配置処理の手順を示すフロー図である。
【図21】本発明の第3実施形態が適用された計算機システムの構成を示す図である。
【図22】本発明の第3実施形態において、クライアントのアプリケーションがファイルのリードを行う際の処理の手順を示すフロー図である。
【図23】本発明の第3実施形態において、クライアントのアプリケーションがファイルのライトを行う際の処理の手順を示すフロー図である。
【図24】本発明の第4実施形態が適用された計算機システムの構成を示す図である。
【図25】本発明の第4実施形態でのLU管理テーブル910を示す図である。
【図26】本発明の第4実施形態での再配置対象決定処理の手順を示すフロー図である。
【図27】本発明の第4実施形態でのLU構築処理の手順を示すフロー図である。
【図28】本発明の第4実施形態での再配置元LUオフライン化処理の手順を示すフロー図である。
【図29】本発明の第5実施形態が適用された計算機システムの構成を示す図である。
【図30】本発明の第5実施形態でのLU領域範囲テーブル193を示す図である。
【図31】本発明の第5実施形態でのクライアント800のアプリケーション840がファイルのリードを行う際の処理の手順を示したフロー図である。
【図32】本発明の第5実施形態でのクライアント800のアプリケーション840がファイルのライトを行う際の処理の手順を示すフロー図である。
【図33】本発明の第5実施形態でのアクセス可能ファイル応答処理の手順を示すフロー図である。
【符号の説明】
100…ホスト、110…ファイルシステム、120、820…OS、130…マネージャ、140、840…アプリケーション、160、260、460、860…FCインタフェース、170、270、470、870…ネットワークインタフェース、190…ローカルディスク、191…LU論理位置名テーブル、192…LU領域範囲テーブル、200…ディスクアレイ、210…ディスク装置、220…パリティグループ、300…制御部、310…CPU、320…メモリ、321…論理/物理対応情報、322…論理ボリューム使用状況、323…コピー領域管理テーブル、330…キャッシュメモリ、400…リモートコンピュータ、500…スイッチ、510…コピー制御部、600…Fibre Channel(FC)、700…ネットワーク、800…クライアント。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique for rearranging data stored in a storage device, and particularly to a technique suitable for data rearrangement in a computer system having a plurality of storage devices.
[0002]
[Prior art]
As a technique for rearranging data stored in a storage subsystem in a computer system, there is a disk array system described in JP-A-9-274544. Here, the storage subsystem refers to a storage device system composed of a plurality of storage devices.
[0003]
A disk array system is a system that reads / writes data stored separately in each disk device by arranging multiple disk devices in an array and operating each disk device in parallel. . D. A. Patterson, G. Gibson, and R. H. As described in Kats, “A Case for Redundant Arrays of Inexpensive Disks (RAID)” (in Proc. ACM SIGMOD, pp. 109-116, June 1988), Types of
[0004]
The cost for configuring the disk array system, the performance and characteristics of the disk array system, and the like vary depending on the level of the disk array system. Therefore, depending on the purpose of use of the system, a plurality of arrays (sets of disk devices) having different levels are often mixed when the disk array system is constructed. In such a disk array system in which arrays of different levels are mixed, the array of each level is called a parity group. Also, since the cost of disk devices also varies depending on performance, capacity, etc., a plurality of types of disk devices with different performance and capacity may be used in order to construct a system that realizes optimal cost performance.
[0005]
In a disk array system, since data is distributed and arranged in a plurality of disk devices, a host computer connected to the disk array system associates a logical storage area with a physical storage area indicating a storage area of the disk device ( Address conversion).
[0006]
In JP-A-9-274544, in a disk array system, data rearrangement between physical storage areas is executed, and the correspondence between the logical storage area of data and the physical storage area is indicated by the physical storage before the rearrangement. A technique for changing from an area to a physical storage area after rearrangement is disclosed. There is also a technology in which the disk array system manages the load status due to access to each logical storage area from the host computer, and determines the contents of the relocation so that the data is properly arranged after the relocation according to the actual results. It is disclosed.
[0007]
As a technology for transferring data between storage subsystems such as a host computer and a disk array system, M.M. T. There is a technique disclosed in O′Keefe, “Shared File Systems and Fiber Channel” (in Proc. Sixth Goddard Conference on Mass Storage Systems and Technologies, pp. 1-16, March 1998).
[0008]
This technology is a storage environment that connects multiple host computers and multiple storage subsystems via Fiber Channel (hereinafter referred to as “FC”), which is a high-speed network, and realizes data sharing via FC, a so-called Storage Area. This is a technology for realizing Network (SAN). In this way, by transferring data via FC, the load on the host computer and the network is reduced as compared with a general network.
[0009]
Network File System (NFS) is widely known as a technology for sharing data such as files held in a storage subsystem connected to a general network that does not use high-speed FC among multiple computers. Yes.
[0010]
When sharing data between networks using NFS, the load on the computer sharing the file and the network connecting the computer and the storage subsystem is greater than when using FC. However, if NFS is used, the existing network can be used. Therefore, compared to installing a new FC network, there are advantages such as reduced new equipment costs and easy management of file sharing. .
[0011]
[Problems to be solved by the invention]
As described above, with the technique disclosed in Japanese Patent Laid-Open No. 9-274544, data can be rearranged in one storage subsystem. However, in a computer system having a plurality of storage subsystems, data cannot be relocated between different storage subsystems. In addition, since the disk array system cannot recognize a file, data cannot be rearranged in units of files.
[0012]
On the other hand, using SAN technology enables high-speed data transfer in different storage subsystems. However, in the prior art, data could not be relocated between storage subsystems using SAN technology.
[0013]
In other words, in the prior art, the user who uses the host computer or system obtains information necessary for determining the proper arrangement of data, such as the load status of each storage area of each storage subsystem that constitutes the SAN. Nothing is thought about. For this reason, it cannot be determined how the host computer or the user can rearrange the data to realize the proper data placement.
[0014]
Furthermore, even if the user tries to relocate the data between the storage subsystems himself, the user has to perform detailed management of all unused areas to relocate the data. There was a heavy burden on the user.
[0015]
In addition, when data is transferred between different storage subsystems, the location of the data recognized by the application, that is, the access destination to be specified for the application to access the same data, changes before and after the relocation. The change is not considered at all in the prior art.
[0016]
Furthermore, there are the following problems when data is shared between computers connected by a general network using NFS.
[0017]
In other words, when a host computer (NFS server) used to realize data sharing by NFS has conventionally managed multiple storage subsystems, the NFS server itself is used between the multiple storage subsystems. Physical relocation of data could not be performed. For this reason, it was not possible to perform further distinction and management of storage areas of the storage subsystem, such as changing the physical location of shared data for each computer that shares data using an NFS server. .
[0018]
The present invention has been made in view of the above circumstances, and an object of the present invention is to enable a host computer including an NFS server to acquire information necessary for determining proper arrangement of data from a storage subsystem, and to create a SAN environment. Is to realize data rearrangement. Another purpose is to reduce the management burden on the user's storage subsystem. Another object of the present invention is to enable data relocation between different storage subsystems so that the position of data recognized by an application does not change before and after relocation. Furthermore, it is to enable rearrangement of data for a file.
[0019]
[Means for Solving the Problems]
In order to solve the above-mentioned problems, the present inventionIn,A computer system having a computer and a plurality of storage subsystems connected to the computer, wherein each of the plurality of storage subsystems uses the storage area for each storage area of the storage subsystem. In accordance with an instruction from the computer, an acquisition unit that acquires a situation, a moving unit that moves data from one of the other storage subsystems, and notifies the computer that the migration is complete Notification means, and the computer collects the usage status of each storage area acquired by the acquisition means from each of the plurality of storage subsystems, and the storage for storing the data Maintains the correspondence between the area and the file managed by the file system executed on the computer The file correspondence recording unit, the storage status information of each of the plurality of storage subsystems collected by the collecting unit, and the file correspondence recording unit are used to store the information for each file. Based on the second collection means for collecting the usage status of the area and the usage status information for each file of the storage area of each of the plurality of storage subsystems collected by the second collection means, A second calculation means for calculating a storage area usage status in the system, a display unit for displaying at least the calculation result, and storage area usage status information of each storage subsystem collected by the collection means; Selection means for receiving an input of selection of each storage area displayed on the display unit from a user of the computer; A correspondence storage unit that stores a correspondence between a logical location of the data and a storage area in which the data is stored in the storage subsystem, and a notification that the data movement between the storage subsystems is completed by the notification unit And an update unit that updates the correspondence storage unit, and the instruction from the computer includes information specifying the storage area selected by the selection unit, It is characterized by that.
Further, in the present invention, a computer system having a computer and a plurality of storage subsystems connected to the computer, wherein each of the plurality of storage subsystems is associated with each storage area of the storage subsystem. , Acquisition means for acquiring the usage status of the storage area, movement means for moving data from any of the plurality of other storage subsystems in accordance with instructions from the computer, and the movement has been completed Notification means for notifying the computer, the computer collecting from each of the plurality of storage subsystems the usage status of each storage area acquired by the acquisition means, A storage area for storing the data, and a file managed by a file system executed on the computer Using the file correspondence recording unit that holds the correspondence relationship, the storage area usage information of each of the plurality of storage subsystems collected by the collection unit, and the file correspondence recording unit A second collection unit that collects the usage status of the storage area for each file, and information on the usage status of each storage area of each of the plurality of storage subsystems collected by the second collection unit. Based on the second calculation means for calculating the usage status of the storage area in each storage subsystem, the calculated result, and the storage area information of each storage subsystem collected by the collection means A second selection unit that automatically selects the storage area that satisfies the following condition; a logical location of the data; and the storage subsystem. A storage unit that stores a correspondence with a storage area in which the data is stored in the storage system, and a notification that the data transfer between the storage subsystems is completed by the notification unit. Updating means for updating, and the instruction from the computer includes information specifying the storage area selected by the second selection means.
[0020]
Here, the usage status of each storage area is, for example, the usage status of the physical storage space of the storage area, the processing time consumed for access processing to the storage space, and the like.
[0021]
It is also conceivable that the unit of data moved by the storage subsystem and the unit of data managed by the computer are file units.
[0022]
Further, a configuration in which means for managing the entire logical storage area of all the storage subsystems and means for managing the correspondence between the characteristics of the storage device and the logical storage area is also conceivable.
[0023]
Further, a configuration in which a computer is added with means for sharing data stored in the storage subsystem between networks is also conceivable.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing a configuration of a first embodiment of a computer system to which the present invention is applied.
[0025]
The computer system of this embodiment includes a host computer (host) 100, a
[0026]
The
[0027]
The
[0028]
An application program (hereinafter simply referred to as an application) 140 issues a read or write request to the
[0029]
A general electronic computer is used as the
[0030]
When the
[0031]
The local disk 190 stores various management information such as a logical unit (hereinafter referred to as “LU”) logical location name table 191 and an in-LU address logical location name table 195 used by the
[0032]
The in-LU address logical location name table 195 includes information indicating the correspondence between the logical location name specified when the
[0033]
The
[0034]
The
[0035]
The
[0036]
In this embodiment, an array (hereinafter referred to as “RAID”) is configured by n disk devices 210 (n is an integer of 2 or more), and the RAID by the
[0037]
As RAID, redundant data (hereinafter referred to as “parity”) generated from the stored contents of n−1
[0038]
In the present embodiment, attributes such as performance, reliability, and characteristics of each
[0039]
The
[0040]
In the present embodiment, physical rearrangement of data in consideration of the usage status of the
[0041]
FIG. 2 shows a procedure of read / write processing performed by the
[0042]
The
[0043]
The
[0044]
The
[0045]
In a system in which the
[0046]
In order to manage each logical position, the
[0047]
The
[0048]
The logical /
[0049]
In the figure, an
[0050]
The physical address is an address indicating an area on the
[0051]
In the case of data read, the
[0052]
After completing the read / write process, the
[0053]
The logical
[0054]
FIG. 5 is a flowchart showing the procedure of usage status collection processing in which the
[0055]
The
[0056]
Upon confirming that the issued command is a write command for the command volume, the
[0057]
Upon receiving the completion report, the
[0058]
When receiving a read command for the command volume, the
[0059]
The information collection parameter written in
[0060]
When the information collection parameter written in
[0061]
In the logical volume information shown in FIG. 7,
[0062]
When the information collection parameter is a parity group information parameter, the
[0063]
When the information collection parameter is a parameter for confirming the usage status of the
[0064]
For each logical volume, the
[0065]
The
[0066]
Further, the
[0067]
FIG. 8 is a flowchart showing the procedure of a rearrangement target determination process in which the
[0068]
The
[0069]
The
[0070]
For each LU, the
[0071]
Information such as usage status can also be displayed on the
[0072]
The user refers to information about each LU of each
[0073]
FIG. 9 is a flowchart showing a procedure of data rearrangement processing performed by the
[0074]
The
[0075]
Next, the
[0076]
The
[0077]
LU lock, cache memory flush, and invalidation processing correspond to LU unmount processing.
[0078]
The
[0079]
The
[0080]
In the figure, the disk array number, ID, and LUN are information necessary for specifying the
[0081]
The
[0082]
[0083]
Step1410After the above process is executed, if the LU to be read / written in the
[0084]
FIG. 12 is a flowchart showing a copy process procedure performed when the
[0085]
When the
[0086]
FIG. 13 shows the contents of the copy area management table 323. The copy area management table 323 is a table in which information such as the range and size of data to be copied is registered.
[0087]
In the figure, a copy
[0088]
The
[0089]
The
[0090]
The
[0091]
When the
[0092]
Read / write from the
[0093]
FIG. 14 shows a processing procedure when the
[0094]
When the
[0095]
When receiving the write command via the
[0096]
With the above processing, the
[0097]
At the time of this read / write process, the
[0098]
In addition, the
[0099]
Specifically, the
[0100]
According to the present embodiment, the proper arrangement of data by relocation of LUs among a plurality of
[0101]
Further, according to this aspect, the computer determines the appropriate arrangement of data from the viewpoint of, for example, load distribution of storage device resources, etc., based on the physical storage device resource usage status of each storage area acquired from the disk array. Can be used. Therefore, using this information, for example, data can be properly arranged by rearranging data between different storage subsystems.
[0102]
In the present embodiment, the data rearrangement between the plurality of
[0103]
Note that the
[0104]
In this embodiment, the case where the logical
[0105]
FIG. 15 is a diagram showing a configuration of a second embodiment of a computer system to which the present invention is applied.
[0106]
As shown in the figure, the computer system of this embodiment has a configuration in which an LU area range table 192 is stored in the local disk 190 and a
[0107]
In this embodiment, the
[0108]
In the first embodiment, the
[0109]
FIG. 16 is a diagram showing an example of the LU area range table 192 used by the
[0110]
In the drawing, an in-area address 6301 stores an address in the integrated area. The LU number 6302 includes a disk array number, ID, and LUN, and indicates an LU stored in the area address 6301. The LU address 6303 stores an address in the LU specified by the corresponding LU number 6302.
FIG. 17 is a flowchart showing a processing procedure when the
[0111]
It is assumed that the
[0112]
The metadata is stored in the
[0113]
FIG. 18 is a diagram showing the contents of metadata.
[0114]
As shown in the figure, the metadata includes the creation date / time, update date / time, access date / time, attribute, file logical position name, security information, file position, and the like of each file. The range in the integrated area corresponding to each file is indicated by information stored in the
[0115]
The
[0116]
If the request is a write request, the
[0117]
The metadata update in
[0118]
In the present embodiment, the
[0119]
FIG. 19 is a flowchart showing a procedure of file-based relocation target determination processing performed by the
[0120]
The
[0121]
The
[0122]
The
[0123]
The usage status and free space information can be displayed on the
[0124]
The
[0125]
Thereby, the user can determine the file to be rearranged in consideration of the access frequency of each file in the
[0126]
FIG. 20 is a flowchart showing the procedure of the rearrangement process performed by the
[0127]
The
[0128]
The
[0129]
Thereafter, when the
[0130]
According to the present embodiment, it is possible to appropriately arrange the files among the plurality of
[0131]
FIG. 21 is a diagram showing a configuration of a third embodiment of a computer system to which the present invention is applied.
[0132]
In the computer system of this embodiment, the
[0133]
Similar to the second embodiment, the
[0134]
A process in which the
[0135]
FIG. 22 is a flowchart showing a processing procedure when the
[0136]
The
[0137]
Upon receiving the file read notification, the
[0138]
Upon receiving the response, the
[0139]
When the read processing of the data requested from the
[0140]
Upon receiving the completion notification, the
[0141]
FIG. 23 is a flowchart showing a processing procedure when writing is performed.
[0142]
The write process is almost the same as the process of replacing the read with the write in the read process of FIG. Hereinafter, different parts will be described.
[0143]
The
[0144]
Upon receiving the response, the
[0145]
In this way, by processing the access of the
[0146]
Next, file rearrangement in the present embodiment will be described.
[0147]
The processing related to file relocation in this embodiment (usage status acquisition processing, usage status collection processing, relocation target determination processing, and relocation processing) is the same as that in the second embodiment. However, the relocation process is not executed while the file is locked in the data read / write process requested by the
[0148]
According to the present embodiment, even in an environment where data stored in the
[0149]
Also in this embodiment, the
[0150]
In this embodiment, a program of the
[0151]
FIG. 24 is a diagram showing the configuration of the fourth embodiment of the computer system to which this invention is applied.
[0152]
The computer system of this embodiment differs from the computer system of the first embodiment in that the
[0153]
According to the present embodiment, it is possible to easily select the LU relocation destination.
[0154]
FIG. 25 is a diagram showing the LU management table 910.
[0155]
The LU management table 910 is a table in which information related to the LU status of the entire system is registered.
[0156]
In the
[0157]
The
[0158]
The
[0159]
In the
[0160]
The
[0161]
The
[0162]
The relocation enable
[0163]
FIG. 25 shows an LU management table for
[0164]
The determination of the rearrangement target in the present embodiment is performed as follows.
[0165]
The user designates the relocation source LU and the conditions required as the relocation destination LU to the
[0166]
For example, if a certain LU is used excessively and the load exceeds the capacity of the disk device that includes the LU, the processing capacity of the LU can be specified by specifying a higher-performance disk device as the relocation destination of the LU. Can be expected to improve the performance of the computer system.
[0167]
Further, when an LU storing important data exists on a single disk or a non-redundant RAID (RAID 0), fault tolerance due to redundancy can be ensured by specifying
[0168]
The
[0169]
FIG. 26 is a flowchart showing the procedure of the rearrangement target determination process in the present embodiment. This process is executed in response to a user instruction.
The user designates the disk array number, path, ID, and LUN of the relocation source LU to the
[0170]
The user designates performance conditions and reliability levels as requirements for the relocation destination to the manager 130 (step 2510).
[0171]
The
[0172]
In this case, the search conditions are: “state is offline”, “size is greater than or equal to relocation source LU”, “emulation type is the same as relocation source LU”, and “relocatable flag is on (true) or possible” and “ The performance condition must meet the requirement "and the reliability level must meet the requirement.
[0173]
If there is an LU that satisfies the condition in
[0174]
If there is no LU satisfying the condition in
[0175]
If there is no
[0176]
If there is an unmounted LU in
[0177]
In this case, the conditions for the relocation destination LU are “size is equal to or larger than the relocation source LU”, “emulation type is the same as the relocation source LU”, “performance condition meets requirements”, and “reliability level is required” Satisfy.
[0178]
The
[0179]
The
[0180]
The
[0181]
FIG. 27 is a flowchart showing the procedure of LU construction processing performed by the
The
[0182]
The
[0183]
The
[0184]
If the LU cannot be constructed in
[0185]
When the relocation destination LU is determined, the
[0186]
FIG. 28 is a flowchart showing the procedure of offline processing of the relocation source LU.
[0187]
The
[0188]
The
[0189]
The LU pool manager that has received the notification of offline update updates the contents of the
[0190]
Here, an example in which the
[0191]
Further, instead of the
[0192]
In the present embodiment, the case where the
[0193]
In the present embodiment, it is assumed that the user specifies information such as conditions requested as the relocation destination LU, but the
[0194]
In this embodiment, the
[0195]
According to the present embodiment, in LU relocation processing, it is possible to easily manage and select a relocation destination LU, reduce the load on the user, and facilitate management of the computer system.
[0196]
FIG. 29 is a diagram showing a fifth embodiment of a computer system to which the present invention is applied. In the computer system of this embodiment, the
Network File System (NFS) and Common Internet File System (CIFS) are widely used as protocols for file sharing via the
[0197]
FIG. 30 is a diagram showing the LU area range table 193. The LU area range table 193 stores information regarding whether or not access to the LU area uses the network.
[0198]
In the
[0199]
In the
[0200]
By centrally managing LUs using the LU area range table 193, the
[0201]
By setting the LU area range table 193, the
[0202]
The
[0203]
The
[0204]
Further, as in the first embodiment, there are an area used for the configuration and method for relocating the LU (read / write via the FC 600) and an area where read / write to the LU is performed via the
[0205]
In the present embodiment, a file sharing protocol such as NFS or CIFS is used via the
[0206]
FIG. 31 is a flowchart showing the processing procedure of the
[0207]
As in the third embodiment, the
[0208]
FIG. 32 is a flowchart illustrating a processing procedure when the
[0209]
Receiving the write notification, the
[0210]
The
[0211]
FIG. 33 is a flowchart showing a processing procedure when the
[0212]
When there is a request from the
[0213]
Upon receiving the notification, the
[0214]
In this embodiment, the
[0215]
In the present embodiment, even in an environment where data stored in the
[0216]
The present invention is not limited to each embodiment, and various modifications are possible within the scope of the gist.
[0217]
For example, as shown in FIGS. 1, 15, and 21, the
[0218]
In the first embodiment, file sharing or the like may be performed as in the third embodiment. Also in this case, as in the first embodiment, the physical rearrangement of data between the plurality of
[0219]
【The invention's effect】
As described above, according to the present invention, data can be easily rearranged between storage subsystems. Furthermore, according to the present invention, information necessary for the host computer to determine proper placement can be acquired from a plurality of storage subsystems. In addition, data relocation between different storage subsystems can be performed such that the data position for the application does not change before and after relocation. Furthermore, it is possible to perform data relocation for files among different storage subsystems.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a computer system to which a first embodiment of the present invention is applied.
FIG. 2 is a flowchart showing a procedure of read / write processing and usage status acquisition processing in the first embodiment of the present invention;
FIG. 3 is a diagram showing logical / physical correspondence information used in the first embodiment of the present invention.
FIG. 4 is a diagram showing a usage status of a logical volume used in the first embodiment of the present invention.
FIG. 5 is a flowchart showing a procedure of usage status collection processing in the first embodiment of the present invention.
FIG. 6 is a diagram showing parameters of logical volume information used in the first embodiment of the present invention.
FIG. 7 is a diagram showing logical volume information used in the first embodiment of the present invention.
FIG. 8 is a flowchart showing a procedure of a rearrangement target determination process in the first embodiment of the present invention.
FIG. 9 is a flowchart showing a procedure of rearrangement processing in the first embodiment of the present invention.
FIG. 10 is a diagram showing an LU logical location name table used in the first embodiment of the present invention.
FIG. 11 is a diagram showing an LU logical location name table used in the first embodiment of the present invention.
FIG. 12 is a flowchart showing a copy processing procedure according to the first embodiment of the present invention;
FIG. 13 is a diagram showing a copy area management table used in the first embodiment of the present invention.
14 is a flowchart showing a processing procedure for a read / write command to a relocation destination LU during copying by the processing shown in FIG. 16 in the first embodiment of the present invention. FIG.
FIG. 15 is a diagram showing a configuration of a computer system to which a second embodiment of the present invention is applied.
FIG. 16 is a diagram showing an LU area range table used in the second embodiment of the present invention.
FIG. 17 is a flowchart showing a read / write processing procedure according to the second embodiment of the present invention;
FIG. 18 is a diagram showing metadata used in the second embodiment of the present invention.
FIG. 19 is a flowchart showing a procedure of a rearrangement target determination process in the second embodiment of the present invention.
FIG. 20 is a flowchart showing a procedure of rearrangement processing in the second embodiment of the present invention.
FIG. 21 is a diagram showing a configuration of a computer system to which a third embodiment of the present invention is applied.
FIG. 22 is a flowchart showing a processing procedure when a client application reads a file in the third embodiment of the present invention;
FIG. 23 is a flowchart showing a processing procedure when a client application writes a file in the third embodiment of the present invention;
FIG. 24 is a diagram showing a configuration of a computer system to which a fourth embodiment of the present invention is applied.
FIG. 25 is a diagram showing an LU management table 910 according to the fourth embodiment of this invention.
FIG. 26 is a flowchart showing the procedure of a rearrangement target determination process in the fourth embodiment of the present invention.
FIG. 27 is a flowchart showing the procedure of LU construction processing in the fourth embodiment of the present invention.
FIG. 28 is a flowchart showing a procedure of relocation source LU offline processing in the fourth embodiment of the present invention;
FIG. 29 is a diagram showing a configuration of a computer system to which a fifth embodiment of the present invention is applied.
FIG. 30 is a diagram showing an LU area range table 193 according to the fifth embodiment of the present invention.
FIG. 31 is a flowchart showing a processing procedure when an
FIG. 32 is a flowchart showing a processing procedure when an
FIG. 33 is a flowchart showing an accessible file response processing procedure according to the fifth embodiment of the present invention;
[Explanation of symbols]
DESCRIPTION OF
Claims (6)
前記複数のストレージサブシステムの各々は、
該ストレージサブシステムが有する記憶領域の各々について、前記記憶領域の使用状況を取得する取得手段と、
前記計算機からの指示に従って、ほかの前記複数のストレージサブシステムのうちのいずれかからデータの移動を行う移動手段と、
前記移動が完了したことを前記計算機に通知する通知手段と、を有しており、
前記計算機は、
前記複数のストレージサブシステムの各々から、前記取得手段によって取得された記憶領域各々の使用状況を収集する収集手段と、
前記データを記憶する記憶領域と、前記計算機で実行されるファイルシステムが管理するファイルとの対応関係を保持するファイル対応関係記録部と、
前記収集手段で収集した前記複数のストレージサブシステムの各々が有する記憶領域の使用状況の情報と、前記ファイル対応関係記録部とを使用して、前記ファイルごとに前記記憶領域の使用状況を収集する第2の収集手段と、
前記第2の収集手段で収集した前記複数のストレージサブシステムの各々が有する記憶領域のファイルごとの使用状況の情報に基づいて、各ストレージサブシステムにおける記憶領域の使用状況を計算する第2の計算手段と、
前記計算した結果と、前記収集手段で収集した各ストレージサブシステムの記憶領域の使用状況の情報とを少なくとも表示する表示部と、
該計算機の使用者から、前記表示部で表示された各々の記憶領域のいずれかの選択の入力を受け付ける選択手段と、
前記データの論理的な位置と、前記ストレージサブシステムにおいて前記データが格納される記憶領域との対応を記憶する対応記憶部と、
前記通知手段によって前記ストレージサブシステム間でのデータの移動が完了した通知を受け取った場合に、前記対応記憶部を更新する更新手段と、を有しており、
前記計算機からの指示には、前記選択手段によって選択された記憶領域を指定する情報が含まれている、
ことを特徴とする計算機システム。A computer system having a computer and a plurality of storage subsystems connected to the computer,
Each of the plurality of storage subsystems is
Obtaining means for obtaining a usage status of the storage area for each of the storage areas of the storage subsystem;
Moving means for moving data from any of the other storage subsystems according to an instruction from the computer;
Notification means for notifying the computer that the movement has been completed,
The calculator is
A collection unit that collects a usage status of each storage area acquired by the acquisition unit from each of the plurality of storage subsystems;
A file correspondence recording unit that retains a correspondence between a storage area for storing the data and a file managed by a file system executed by the computer;
Using the storage area usage information of each of the plurality of storage subsystems collected by the collection means and the file correspondence recording unit, the usage status of the storage area is collected for each file. A second collection means;
A second calculation for calculating the storage area usage status in each storage subsystem based on the usage status information for each storage area file of each of the plurality of storage subsystems collected by the second collection means Means,
A display unit for displaying at least the calculation result and information on the usage status of the storage area of each storage subsystem collected by the collection unit;
Selection means for receiving an input of selection of each storage area displayed on the display unit from a user of the computer;
A correspondence storage unit that stores a correspondence between a logical position of the data and a storage area in which the data is stored in the storage subsystem;
Updating means for updating the correspondence storage unit when receiving notification that the data movement between the storage subsystems has been completed by the notification means;
The instruction from the computer includes information specifying the storage area selected by the selection means.
A computer system characterized by that.
前記複数のストレージサブシステムの各々は、
該ストレージサブシステムが有する記憶領域の各々について、前記記憶領域の使用状況を取得する取得手段と、
前記計算機からの指示に従って、ほかの前記複数のストレージサブシステムのうちのいずれかからデータの移動を行う移動手段と、
前記移動が完了したことを前記計算機に通知する通知手段と、を有しており、
前記計算機は、
前記複数のストレージサブシステムの各々から、前記取得手段によって取得された記憶領域各々の使用状況を収集する収集手段と、
前記データを記憶する記憶領域と、前記計算機で実行されるファイルシステムが管理するファイルとの対応関係を保持するファイル対応関係記録部と、
前記収集手段で収集した前記複数のストレージサブシステムの各々が有する記憶領域の使用状況の情報と、前記ファイル対応関係記録部とを使用して、前記ファイルごとに前記記憶領域の使用状況を収集する第2の収集手段と、
前記第2の収集手段で収集した前記複数のストレージサブシステムの各々が有する記憶領域のファイルごとの使用状況の情報に基づいて、各ストレージサブシステムにおける記憶領域の使用状況を計算する第2の計算手段と、
前記計算した結果と、前記収集手段で収集した各ストレージサブシステムの記憶領域の情報とに基づいて、所定の条件を満たす前記記憶領域を自動的に選択する第2の選択手段と、
前記データの論理的な位置と、前記ストレージサブシステムにおいて前記データが格納される記憶領域との対応を記憶する対応記憶部と、
前記通知手段によって前記ストレージサブシステム間でのデータの移動が完了した通知を受け取った場合に、前記対応記憶部を更新する更新手段と、を有しており、
前記計算機からの指示には、前記第2の選択手段によって選択された記憶領域を指定する情報が含まれている、
ことを特徴とする計算機システム。A computer system having a computer and a plurality of storage subsystems connected to the computer,
Each of the plurality of storage subsystems is
Obtaining means for obtaining a usage status of the storage area for each of the storage areas of the storage subsystem;
Moving means for moving data from any of the other storage subsystems according to an instruction from the computer;
Notification means for notifying the computer that the movement has been completed,
The calculator is
A collection unit that collects a usage status of each storage area acquired by the acquisition unit from each of the plurality of storage subsystems;
A file correspondence recording unit that retains a correspondence between a storage area for storing the data and a file managed by a file system executed by the computer;
Using the storage area usage information of each of the plurality of storage subsystems collected by the collection means and the file correspondence recording unit, the usage status of the storage area is collected for each file. A second collection means;
A second calculation for calculating the storage area usage status in each storage subsystem based on the usage status information for each storage area file of each of the plurality of storage subsystems collected by the second collection means Means,
Second selection means for automatically selecting the storage area satisfying a predetermined condition based on the calculated result and storage area information of each storage subsystem collected by the collection means;
A correspondence storage unit that stores a correspondence between a logical position of the data and a storage area in which the data is stored in the storage subsystem;
Updating means for updating the correspondence storage unit when receiving notification that the data movement between the storage subsystems has been completed by the notification means;
The instruction from the computer includes information specifying the storage area selected by the second selection unit.
A computer system characterized by that.
ことを特徴とする請求項1または請求項2に記載の計算機システム。The predetermined condition is a condition that the frequency of access to the storage area is a certain value or more.
The computer system according to claim 1 or claim 2, characterized in that.
ことを特徴とする請求項1または請求項2に記載の計算機システム。Wherein the computer by the notification unit, when the movement of files between the storage subsystem is informed of the completion, the file correspondence means for updating the recording unit further claim 1 or characterized in that it has a The computer system according to claim 2 .
ことを特徴とする請求項1から請求項5のいずれかに記載の計算機システム。The usage status includes a time when the storage area is occupied when data is read.
The computer system according to any one of claims 1 to 5 , wherein
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001053458A JP4115093B2 (en) | 2000-07-06 | 2001-02-28 | Computer system |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000-205510 | 2000-07-06 | ||
| JP2000205510 | 2000-07-06 | ||
| JP2001053458A JP4115093B2 (en) | 2000-07-06 | 2001-02-28 | Computer system |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008063185A Division JP4862006B2 (en) | 2000-07-06 | 2008-03-12 | Computer system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2002082775A JP2002082775A (en) | 2002-03-22 |
| JP4115093B2 true JP4115093B2 (en) | 2008-07-09 |
Family
ID=26595536
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001053458A Expired - Fee Related JP4115093B2 (en) | 2000-07-06 | 2001-02-28 | Computer system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4115093B2 (en) |
Families Citing this family (37)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6752120B2 (en) | 2002-03-25 | 2004-06-22 | Toyoda Koki Kabushiki Kaisha | Crankshaft and engine |
| JP5106093B2 (en) * | 2002-04-26 | 2012-12-26 | 株式会社日立製作所 | Storage system control method and storage control device |
| JP4183443B2 (en) | 2002-05-27 | 2008-11-19 | 株式会社日立製作所 | Data relocation method and apparatus |
| JP2004013215A (en) | 2002-06-03 | 2004-01-15 | Hitachi Ltd | Storage system, storage subsystem, and information processing system including them |
| JP4100968B2 (en) | 2002-06-06 | 2008-06-11 | 株式会社日立製作所 | Data mapping management device |
| US6925541B2 (en) * | 2002-06-12 | 2005-08-02 | Hitachi, Ltd. | Method and apparatus for managing replication volumes |
| JP2004252934A (en) * | 2002-06-12 | 2004-09-09 | Hitachi Ltd | Method and apparatus for managing replicated volumes |
| US7457822B1 (en) * | 2002-11-01 | 2008-11-25 | Bluearc Uk Limited | Apparatus and method for hardware-based file system |
| JP4509089B2 (en) * | 2002-11-25 | 2010-07-21 | 株式会社日立製作所 | Virtualization control device and data migration control method |
| JP4116413B2 (en) | 2002-12-11 | 2008-07-09 | 株式会社日立製作所 | Prefetch appliance server |
| JP4294353B2 (en) | 2003-03-28 | 2009-07-08 | 株式会社日立製作所 | Storage system failure management method and apparatus having job management function |
| JP2004302751A (en) | 2003-03-31 | 2004-10-28 | Hitachi Ltd | Performance management method for computer system and computer system for managing performance of storage device |
| US7613945B2 (en) | 2003-08-14 | 2009-11-03 | Compellent Technologies | Virtual disk drive system and method |
| US9489150B2 (en) | 2003-08-14 | 2016-11-08 | Dell International L.L.C. | System and method for transferring data between different raid data storage types for current data and replay data |
| JP4486632B2 (en) * | 2003-09-17 | 2010-06-23 | 株式会社日立製作所 | Storage system |
| JP2005115506A (en) | 2003-10-06 | 2005-04-28 | Hitachi Ltd | Storage system |
| JP4282464B2 (en) | 2003-12-17 | 2009-06-24 | 株式会社日立製作所 | Remote copy system |
| JP4547162B2 (en) * | 2004-01-27 | 2010-09-22 | 株式会社日立製作所 | Dynamic load balancing method |
| JP2005234834A (en) | 2004-02-19 | 2005-09-02 | Hitachi Ltd | Relocation method of logical volume |
| EP2442576A3 (en) | 2004-04-26 | 2013-08-21 | Olympus Corporation | Generating, editing and updating data of a stereoscopic image file, generating a stereoscopic image file and reproducing data therefrom |
| US7065611B2 (en) * | 2004-06-29 | 2006-06-20 | Hitachi, Ltd. | Method for controlling storage policy according to volume activity |
| JP4842909B2 (en) * | 2004-08-30 | 2011-12-21 | 株式会社日立製作所 | Storage system and data relocation control device |
| JP4549787B2 (en) * | 2004-09-10 | 2010-09-22 | 株式会社日立製作所 | Storage device |
| US7523286B2 (en) * | 2004-11-19 | 2009-04-21 | Network Appliance, Inc. | System and method for real-time balancing of user workload across multiple storage systems with shared back end storage |
| JP4741304B2 (en) * | 2005-07-11 | 2011-08-03 | 株式会社日立製作所 | Data migration method or data migration system |
| JP4704161B2 (en) * | 2005-09-13 | 2011-06-15 | 株式会社日立製作所 | How to build a file system |
| JP4890048B2 (en) * | 2006-02-24 | 2012-03-07 | 株式会社日立製作所 | Storage control device and data migration method using storage control device |
| US7555575B2 (en) * | 2006-07-27 | 2009-06-30 | Hitachi, Ltd. | Method and apparatus for migrating data between storage volumes of different data pattern |
| JP4943081B2 (en) * | 2006-07-27 | 2012-05-30 | 株式会社日立製作所 | File storage control device and method |
| JP4552957B2 (en) * | 2007-04-06 | 2010-09-29 | 株式会社日立製作所 | Centralized storage management method |
| JP5362975B2 (en) * | 2007-10-17 | 2013-12-11 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Control apparatus, method, program, and storage system for controlling data replication between storage devices |
| KR101189766B1 (en) * | 2008-12-22 | 2012-10-10 | 한국전자통신연구원 | Hot Data Management Based on Hit Counter from Data Servers in Parallelism |
| JP2011221570A (en) * | 2010-04-02 | 2011-11-04 | Nec Corp | Data shift system and data shift method |
| WO2012017493A1 (en) | 2010-08-06 | 2012-02-09 | 株式会社日立製作所 | Computer system and data migration method |
| JP2012133436A (en) * | 2010-12-20 | 2012-07-12 | Nec Corp | Data storage device, data migration method and program |
| JP5860462B2 (en) | 2011-03-02 | 2016-02-16 | 株式会社日立製作所 | Computer system and data migration method |
| JP6736932B2 (en) * | 2016-03-24 | 2020-08-05 | 日本電気株式会社 | Information processing system, storage device, information processing method, and program |
-
2001
- 2001-02-28 JP JP2001053458A patent/JP4115093B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2002082775A (en) | 2002-03-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4115093B2 (en) | Computer system | |
| JP4862006B2 (en) | Computer system | |
| US6895483B2 (en) | Method and apparatus for data relocation between storage subsystems | |
| US6973556B2 (en) | Data element including metadata that includes data management information for managing the data element | |
| US8510508B2 (en) | Storage subsystem and storage system architecture performing storage virtualization and method thereof | |
| US7069380B2 (en) | File access method in storage-device system, and programs for the file access | |
| US7441096B2 (en) | Hierarchical storage management system | |
| JP4147198B2 (en) | Storage system | |
| JP5020673B2 (en) | A computer system that prevents the storage of duplicate files | |
| US7730275B2 (en) | Information processing system and management device for managing relocation of data based on a change in the characteristics of the data over time | |
| US8200631B2 (en) | Snapshot reset method and apparatus | |
| US11409454B1 (en) | Container ownership protocol for independent node flushing | |
| JP4229626B2 (en) | File management system | |
| JP2004295457A (en) | Storage device | |
| JP2004110218A (en) | Virtual volume creation and management method for DBMS | |
| JP2009043030A (en) | Storage system | |
| US11592988B2 (en) | Utilizing a hybrid tier which mixes solid state device storage and hard disk drive storage | |
| Zhang et al. | Design and implementation of an out-of-band virtualization system for large SANs | |
| JP2008152695A (en) | Storage control apparatus for protecting a protection target with a protection capability required for the electronic protection target | |
| US12093187B1 (en) | Read I/O processing techniques using remote mapping resolution with logical address space slicing |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040914 |
|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20060418 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070316 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070410 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070604 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20070604 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20070731 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080110 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080229 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080318 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080409 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080415 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110425 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110425 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120425 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120425 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130425 Year of fee payment: 5 |
|
| LAPS | Cancellation because of no payment of annual fees |