[go: up one dir, main page]

JP6033985B2 - 性能評価方法及び情報処理装置 - Google Patents

性能評価方法及び情報処理装置 Download PDF

Info

Publication number
JP6033985B2
JP6033985B2 JP2016506046A JP2016506046A JP6033985B2 JP 6033985 B2 JP6033985 B2 JP 6033985B2 JP 2016506046 A JP2016506046 A JP 2016506046A JP 2016506046 A JP2016506046 A JP 2016506046A JP 6033985 B2 JP6033985 B2 JP 6033985B2
Authority
JP
Japan
Prior art keywords
performance
load
configuration
computer system
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016506046A
Other languages
English (en)
Other versions
JPWO2015132945A1 (ja
Inventor
信明 小崎
信明 小崎
大介 飯塚
大介 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Application granted granted Critical
Publication of JP6033985B2 publication Critical patent/JP6033985B2/ja
Publication of JPWO2015132945A1 publication Critical patent/JPWO2015132945A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3409Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment
    • G06F11/3433Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment for performance assessment for load management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/04Processing captured monitoring data, e.g. for logfile generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/06Generation of reports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0805Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability
    • H04L43/0817Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters by checking availability by checking functioning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/81Threshold
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/508Monitor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Environmental & Geological Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Debugging And Monitoring (AREA)

Description

本発明は、計算機システムの性能予測技術に関する。
計算機システムの設計時、または計算機システムの構成変更を実施する時には、その設計や変更後の構成が、システム利用者より求められる性能目標を満足するか評価・検証する必要がある。例えば、特許文献1には、仮想化された計算機システムについて、仮想化技術を用いることによるオーバーヘッドを考慮した性能評価モデルを生成し、計算機システムの性能評価を行う性能評価手法が記載されている。
特開2012−146015号公報
特許文献1によれば、ある時点のシステム構成及びシステムへの負荷に基づいた計算機システムの性能を評価することが出来る。しかし、計算機システムが稼動している状態でシステムの構成が変更される場合は、構成変更によって縮退(稼働停止)するサーバに対して構成変更時に割り振られていた処理要求が、サーバ縮退の結果、処理されなかったため他のサーバに再度割り振り直されることにより、システムの構成要素に対する負荷が一時的に増加することが考えられる。従って、評価の精度を上げるためには、構成変更に伴うシステムへの一時的な負荷の増加がシステムの性能に与える影響も考慮する必要がある。このように、たとえば構成変更が生じた際に処理要求が再送されることを考慮していなかった点で、従来の性能評価手法には改善の余地があった。
上記課題を解決するため、本発明が提供する情報処理装置の一形態は、計算機システムに含まれるサーバが稼動停止した場合の計算機システムの性能を、稼働停止時のサーバに要求されていた処理量に基づいて推定し、推定した計算機システムの性能を出力することを特徴とする。
本発明の一つの効果としては、システムの構成変更に伴う一時的な負荷の増加を考慮することで、計算機システムの性能について評価の精度を高めることが出来る。
図1は、実施例の概要図である。 図2(A)は、実施例1にかかるシステム構成図を示す。 図2(B)は、実施例1にかかるシステム構成図を示す。 図3は、実施例1にかかる管理対象システムの構成例を示す。 図4は、実施例1にかかる物理システム構成情報を示す。 図5は、実施例1にかかる仮想システム構成情報を示す。 図6は、実施例1にかかるマシンスペック情報を示す。 図7は、実施例1にかかるテナントシステムの構成例を示す。 図8は、実施例1にかかるテナント構成情報を示す。 図9は、実施例1にかかるタスクスケジュール情報を示す。 図10は、実施例1にかかるタスク管理情報を示す。 図11は、実施例1にかかるシステム期待性能情報を示す。 図12は、実施例1にかかるシステム性能劣化度合い情報を示す。 図13は、実施例1にかかる処理中負荷情報を示す。 図14は、実施例2にかかる負荷−キュー使用量対応情報を示す。 図15は、実施例2にかかるキュー使用量−性能対応情報を示す。 図16は、実施例2にかかる性能−キュー消化容量対応テーブルを示す。 図17は、実施例1にかかる負荷トレンド情報を示す。 図18は、実施例1にかかる運用ポリシー情報を示す。 図19(A)は、実施例1にかかる出力画面の表示例を示す。 図19(B)は、実施例1にかかる出力画面の表示例を示す。 図19(C)は、実施例1にかかる出力画面の表示例を示す。 図20は、実施例にかかる性能見積もり処理を示すフローチャートである。 図21は、実施例にかかる瞬間性能見積もり処理を示すフローチャートである。 図22は、実施例にかかる運用ポリシー判定処理の詳細を示すフローチャートである。 図23は、実施例にかかる応答時間算出処理を示すフローチャートである。 図24は、実施例にかかるSPOF検出処理を示すフローチャートである。
以下、各実施例における動作を実行する装置は、必要な目的のために特別に構築されてもよいし、または、一つ以上のコンピュータプログラムにより選択的に起動または再設定される一つ以上の汎用コンピュータを含んでもよい。そのようなコンピュータプログラムは、例えば、光ディスク、磁気ディスク、読出専用メモリ、ランダムアクセスメモリ、固体記憶装置(Solid−State Device:SSD)およびドライブ等のコンピュータ可読記憶媒体、または電子情報の保存に適している他の任意の媒体に保存できるが、これらに限定されない。
<実施例の概要>
図1は、実施例を示す概略図である。
後述するように、管理サーバ201の備える記憶装置213には、管理対象の計算機システムのシステム構成を示すシステム構成情報231、管理対象装置において実行される処理タスクの情報を示すタスク情報232、計算機システムのテナントを構成する装置群の量や種類の組合せ毎に、システム全体の負荷に応じた性能の劣化度合いを格納する負荷−性能対応情報233、システムに要求される処理による負荷の傾向を示す負荷トレンド情報234、計算機システムの運用ポリシー情報235を格納している。システム構成情報231には管理対象装置のコンポーネント情報の他に、ロードバランサによるノードサーバの負荷分散状況などの情報が格納されている。
管理サーバ201は、ある時刻に計算機システムの構成変更が行われることを想定した、システムの性能見積もり処理を行う。性能見積もり処理部221が、見積もり対象時刻について、システム構成情報231に基づいて計算機システムのピーク性能として期待される期待性能を算出する。また、負荷トレンド情報234やタスク情報232に基づいて、その時刻に想定される負荷の下で計算機システムが発揮し得る性能値の変動の幅(性能低下量)を示す性能劣化度合いを算出する。さらに、例えば想定する構成変更が急なサーバ縮退などである場合、縮退したサーバに対する処理要求が処理されなかったため他のサーバに再度割り振り直されることにより、システムの構成要素にかかる負荷が一時的に増加することによる、計算機システムの性能劣化度合いを算出する。これらの算出した性能劣化度合いに基づいて、応答時間算出処理部222がシステム応答時間を算出し、閾値と比較して結果を出力する。
近年、計算機システムの運用管理にサービスレベルマネジメント(SLM)が求められるようになった。SLMでは、ITシステムの応答時間や帯域などの目標値(サービスレベルオブジェクティブ:SLO)を、ITシステム提供者と利用者の間で取り決めており、この取り決めのことをサービスレベルアグリーメント(SLA)と呼ぶ。サーバ障害などの原因によりシステムの構成変更が起こったとしても、計算機システムが簡単にSLAに違反しない構成であるかを予め評価することは、システム運用において重要である。また、ITシステムの構成変更時、特にシステムの縮退を行う時、構成変更によりSLAを違反しないか確認したいという要求が有る。
本実施例により、特に構成変更が生じた場合の計算機システムの性能を精度良く見積もることができる。障害発生時のシミュレーションの他、例えばクラウドデータセンタなどのように、綿密な運用スケジュールに従うのではなく動的にシステム構成に変化が起こりえる環境においても、VMの縮退やボリュームのデプロイなどの構成変更を実行する前に性能の推移をシミュレートしSLOと比較することで、計算機システムの運用管理者は、構成変更によるSLA違反の可能性について予め評価することが出来る。
また、例えばシステムの状況に応じて、システム構成のオートスケールなどの構成変更を実施する運用ポリシーが設定されている際に、オートスケールによる構成変更が実行される前に性能の変化をシミュレートし、SLA違反が起こる可能性について評価して、オートスケールによる構成変更実行の妥当性を判定することができるなど、より可用性の高い計算機システムを提供することが出来るようになる。
特にクラウドサービスにおいては、クラウドベンダは、計算機システムの可用性を容易に判定できるため、管理者の負担を軽減することが出来る。一方で、クラウドサービスの利用者にとっては、より信頼性の高いクラウドシステムを利用できることが考えられる。
以下、実施例1について図面を参照しながら説明する。
図2(A)および図2(B)は、本実施例のシステム構成を表す図である。
管理サーバ201、操作端末202、サーバ装置203、ストレージ装置204、ネットワーク装置205は、リンク206を介して管理用ネットワーク207に接続される。サーバ装置203とストレージ装置204は、リンク208を介してネットワーク装置205に接続される。リンク206や208は、有線または無線の接続方式であり、一つ以上のサブネットワークや、VPN(仮想プライベートネットワーク)を含んでいてもよい。管理サーバ201、操作端末202、サーバ装置203、ストレージ装置204、ネットワーク装置205は、それぞれ異なる方式で、管理用ネットワーク207ないしネットワーク装置205と接続されても良い。また、サーバ装置203とストレージ装置204は、ネットワーク装置205を介さずに、有線または無線の接続方式で直接接続されていても良い。なお、管理サーバ201は、本実施例の処理の目的のためには必ずしもサーバ装置203やストレージ装置204と接続されていなくても良く、処理に用いる各情報を取得し格納可能な構成であれば良い。
計算機システムが備える各装置は、図2(A)に例示の台数でなくて良い。また、管理サーバ201、操作端末202、サーバ装置203、ストレージ装置204、ネットワーク装置205は、いずれか2つ以上が、同一の筐体ないし同一の仮想マシンであっても良い。ネットワーク装置205は、他のネットワーク装置205と優先または無線の接続方式で接続されていても良い。また、ネットワーク装置205により提供されるネットワークが、管理用ネットワーク207と同一でも良い。また、リンク206とリンク208が同一であっても良いし、リンク206またはリンク208に無線接続方式と有線接続方式が混在していても良い。
ネットワーク装置205は、図2(B)に示す通り、IPスイッチ205AとFCスイッチ205Bの様に複数種類のネットワーク装置から構成されていてもよく、リンク208が、例えばイーサネット(登録商標)とSANの様に、複数のネットワークで構成されていてもよい。操作端末202は、図示しないプロセッサ、メモリ、主記憶、及び入力装置217、出力装置218を含む汎用コンピュータでよい。入力装置217と出力装置218は、例えばタブレット端末の様に、同一の装置であっても良い。
管理サーバ201は、プロセッサ211、主記憶212、記憶装置213、入力装置214、出力装置215、ネットワークI/F(インターフェース)216を備え、それらが相互に通信できるように接続されている。プロセッサ211が、主記憶212に格納された性能見積もり処理部221、応答時間算出処理部222、SPOF(単一障害点:Single Point of Failure)検出部223を実行することで、本実施例の各処理を行う。各処理部は、プロセッサ211で実行される代わりに、例えば各処理を行う集積回路等のハードウェアで実現しても良い。以下、説明を簡略化するため、主記憶212にあるプログラムをプロセッサ211が実行することで実現される処理について、各処理部を処理主体として説明する。
記憶装置213に格納されるシステム構成情報231、タスク情報232、負荷−性能対応情報233、負荷トレンド情報234、運用ポリシー情報235は、例えば、一部は管理サーバ201の記憶装置213に保存し、一部はストレージ装置204のDISK254に保存するなどのように、それぞれ異なる記憶媒体等に保存されていても良い。各情報は、計算機システムの管理者が手作業で端末装置によって入力してもよいし、何らかのツールやユーティリティにより生成され格納されても良い。なお、記憶装置213は、管理サーバ201の外部装置I/Fや、ネットワークI/Fを介して接続される装置が備えるものであっても良い。主記憶212と記憶装置213は同一の装置であっても良い。入力装置214と出力装置215は同一の装置であってもよいし、これらの両方または片方が存在しなくても良い。
サーバ装置203は、プロセッサ241、メモリ242、ネットワークI/F243、主記憶244を含む汎用コンピュータで良い。サーバ装置203は、管理サーバ201の管理対象装置であり、アプリケーション等を実行する。監視エージェント246は、サーバ装置203の状態を監視し、例えば、プロセッサ241やメモリ242、ネットワークI/F243、ディスク244、HBA245の使用率、単位時間当たりの処理リクエスト数などの情報を取得する。
図2(B)に示す代表的な実施例において、サーバ装置203はHBA(Host Bus Adaper)245を有する。例えば、サーバ装置203は、ディスク244を仮想的にローカルディスクのように利用できる。このディスク244はHBA245及びストレージ装置204の記憶領域によって提供される。
ストレージ装置204は、管理サーバ201の管理対象装置であり、サーバ装置203上で動作するアプリケーション等が使用する記憶容量を提供する。ストレージ装置204は、ストレージコントローラ251、例えばイーサネットによるLANに接続するためのネットワークI/F252、例えばファイバチャネルなどのようなSANに接続するためのI/Oポート253、複数のDISK254から構成されるRAIDグループ255を含み、これらのデバイスが相互に通信できるように接続されている。DISK254は、SSD、光記憶媒体など他の種類の記憶媒体でも良い。また、RAIDグループは論理的に複数のボリューム256を構成していて良い。監視エージェント257は、ストレージ装置204の状態を監視し、例えば、プロセッサ241やメモリ242、ネットワークI/F243、ディスク244、HBA245の使用率、単位時間当たりの処理リクエスト数などの、管理対象装置の性能情報を取得する。IPスイッチ205Aは、LANを構成するため、または他の目的のための管理対象装置で良い。FCスイッチ205Bは、SANを構成するため、または他の目的のための管理対象装置で良い。
ネットワーク装置205A、205Bは、それぞれ、他の装置と同様の監視エージェントを含んでいて良い。
図3は管理対象システムのシステム構成例を示す。図4、図5及び図6は、図3に例示される管理対象システムの構成情報を示す。図7は管理対象システム内に含まれるテナントシステムの構成例を示し、図8は図7に例示されるテナントシステムの構成情報を示す。
システム構成情報231は、図4、図5、図6及び図8に例示する情報を含んで構成される。システム構成情報231は、計算機システムの管理者等が手作業で入力しても良いし、例えば監視エージェントが管理対象システムを構成する装置の情報を収集して生成するなど、何らかのツールやユーティリティにより生成されても良い。
図3に例示する管理対象システムは、ルータ(Router_0)、スイッチ(SW_0)のネットワーク装置とサーバ装置(Machine_0、Machine_1、Machine_2)、ストレージ装置(Storage_A)から構成されている。図3では、物理的なシステム構成の中で、仮想的なシステム構成として、Router_0上に仮想ルータ(Virtual Router_0)が、SW_0上に仮想スイッチ(Virtual SW_0)が、Machine_0上に仮想サーバ(Virtual Machine_0、Virtual Machine_1)が、Machine_2上に仮想サーバ(Virtual Machine_2)が配置されており、Machine_0、Machine_1、Machine_2はSW_0と接続されており、SW_0はRouter_0と接続されており、Router_0は外部のネットワークと接続されていることを示している。Inputはシステム外部との接続点を示しており、管理対象システムの利用者からのアクセスが入力される箇所である。図3では単純なシステム構成例を示したが、実際には、多くの装置が含まれ、システム構成上の単一障害を発生させない様に複雑なトポロジで接続し、その上にさらに多くの仮想的なシステムが構築されると考えてよい。
図4はシステム構成情報231の一部である、物理的なシステム構成情報である物理システム構成情報400を示す。物理システム構成情報400は、システムを構成する物理装置の名前を示すホスト名401、ホスト名401に示される装置が接続されている装置を示す接続先402、システムを構成する物理装置の種類を示すホスト種別403を含む。物理システム構成情報400は、更にプロセッサ等の詳細な構成情報を保持するなど、これら以外の不図示の列を含んでいても良いし、幾つかが存在しなくても良い。
図5にシステム構成情報231の一部である、仮想的なシステム構成情報である仮想システム構成情報500を示す。仮想システム構成情報500は、システムを構成する仮想的な装置の名前を示す仮想ホスト名501、ホスト名に示される仮想的な装置を提供する物理装置のホスト名を示す配置502、システムを構成する仮想的な装置の種類を示すホスト種別503を含む。仮想システム構成情報500は、例えば、仮想マシンとして割り当てられたプロセッサの情報といった更に詳細な構成情報を保持するなど、これら以外の不図示の列を含んでいても良いし、幾つかが存在しなくても良い。
図6はシステム構成情報231の一部である、ホストのスペックを示すマシンスペック情報600を示す。図6に例示されるマシンスペック情報600は、システムを構成する物理装置や仮想的な装置の種類を示すホスト種別601、ホスト種別で示される装置が発揮できるカタログスペックを示す性能602を含む。マシンスペック情報600は、例えば、サーバ装置を構成するプロセッサの動作周波数やメモリの容量などの更に詳細なスペック情報を保持するなど、これら以外の不図示の列を含んでいても良いし、幾つかが存在しなくても良い。ここで示す性能とは、例えばストレージ装置であればIOPS(Input Output Per Second)、サーバであればFLOPS(Floating−point Operations Per Second)などの、単位時間当たりに処理可能な処理量のことであり、以下の説明では比較を簡単にするために単位時間当たりに処理可能なリクエスト数(Krequest/sec)とする。例えばカタログに記載されている性能値を基に作成する等の手法で作成されれば良い。後述する性能劣化度合いも同様の単位であり、マシンスペック情報に示す値と性能劣化度合いに示す値は、足し引きなどの四則演算が可能である。
図7は、計算機システムを利用して構成される、1つのテナントシステムの構成例を示す。図7に例示されるテナントシステム構成は、Virual Router_0、Virual SW_0、Virtual Machine_0、Virtual Machine_1、Virtual Machine_2から構成される。Virtual Machine_0とVirtual Machine_1、Virtual Machine_2はVirual SW_0に接続されており、Virtual SW_0はVirual Router_0に接続されており、Virtual Router_0はInputに接続されている。Inputは、外部のネットワークとの接続点を示しており、テナントシステムの利用者からのアクセスが入力される箇所である。
図7では、単純なテナントシステム構成を示したが、実際には、さらに多くの装置がテナントシステムを構成し、テナントシステム構成上の単一障害点を発生させない様に複雑なトポロジで接続され、テナントシステムが構成されると考えてよい。また、図7には一つのテナントシステムのシステム構成のみを示したが、実際には、異なるテナントシステム構成を持つ複数のテナントシステムが管理対象システムを構成すると考えてよい。
図8は、テナントシステム構成情報を示す。図8に例示されるテナントシステム構成情報800は、テナントシステムを構成する装置名を示すホスト名801、ホストの接続先を示す接続先802、ホストのテナントシステム上の役割を示すホスト種別803を含む。これら以外の不図示の列を含んでいても良い。管理対象システムが複数のテナントシステムを含む場合、テナントシステム毎に、図8に例示する構成情報を保持すると良い。テナントシステム構成情報800は、例えば構成管理用のプログラムなどを用いて作成されても良いし、運用管理者等が手作業で作成しても良い。
タスク情報232は、図9と図10に例示される情報を含んで構成される。図10はタスクの内容に関する詳細情報を示すタスク管理情報1000を示す。図9は管理対象システムまたは管理対象システムに含まれるテナントシステムにおいて実行が予定されるタスクのスケジュール情報を示すタスクスケジュール情報900である。
図10に例示されるタスク管理情報1000は、情報を識別するためのタスクID1001、タスクの処理内容を示す処理内容1002、タスクの実行開始から実行完了までにかかると見込まれる時間を示す実行所要時間1003、タスクの実行によりシステムに与える負荷を示す操作負荷1004、操作対象となる物理的または仮想的な装置のホスト種別を示すホスト種別1005を含む。タスク管理情報1000は、計算機システムの管理者が手作業で入力しても良いし、例えば実際にシステムを監視しつつタスクを複数回実行して統計的に所要時間やシステムに与える負荷を算出するなど、何らかのツールやユーティリティにより生成されても良い。
タスク管理情報1000に格納される情報は、例えば、タスクIDがT03とT04のように同じ処理内容であっても、高負荷かつ短時間で終わるT03と、低負荷だが長い処理時間を必要とするT04のように、異なる特徴をもつタスク毎に保持すると良い。ここで、操作負荷とは、例えば単位時間あたりのリクエスト数(Krequest/sec)のことで、例えば図3と図7に示すInputからのアクセスなど、外部のネットワークからのアクセスにより管理対象システムまたはテナントシステムに与えられる負荷と加算出来る値である。操作負荷は、例えば、実際にタスクを実行してシステムの処理性能劣化の度合いを計測し、性能劣化の度合いから、後述のシステム性能劣化度合い情報1200を用いて、性能劣化の度合いと対応する負荷を算出するなどの手段により予め求めて、格納することが出来る。
図9に例示されるタスクスケジュール情報900は、情報を識別するためのスケジュールID901、タスク管理情報のエントリとの対応関係を示すタスクID902、タスクの処理対象の構成要素を示す操作対象903、タスクの実行が予定される日時を示す実行予定日時904を含む。タスクスケジュール情報900は、計算機システムの管理者が手作業で入力しても良いし、例えば管理サーバが不図示の管理情報に基づいて自動でタスクの実行予定を算出するなど、何らかのツールやユーティリティにより生成されても良い。また、テナントシステムごとに本テーブルが作成されていてよい。
負荷−性能対応情報233は、図11、図12、および図13に例示される情報から構成される。図11はシステム構成と構成毎の期待性能を示すシステム期待性能情報1100を示す。図12はシステム負荷と性能劣化度合いの対応を示すシステム性能劣化度合い情報1200を示す。図13は、システム負荷と各ホストで処理中の処理量との対応を示す処理中負荷情報1300を示す。負荷−性能対応情報233は、例えば当該システム構成で発揮可能なピーク性能を負荷テストにより計測する等の手段で算出し、計算機システムの管理者が手作業で入力しても良いし、何らかのツールやユーティリティにより生成されても良い。性能見積もりに用いられる範囲の数値が格納されていればよい。また、例えば読み書き比率やリクエスト辺りのデータサイズなどのトランザクション(ここでトランザクションとは負荷の一例である)の特徴によりシステムが発揮可能なピーク性能が異なる場合に、負荷の特徴毎に異なる負荷−性能対応情報233を保持していて良い。図7に例示したテナントシステム構成は、構成IDがC04の行に該当する。
図11に例示されるシステム期待性能情報1100は、システム構成の識別子である構成ID1101と、システムを構成する装置群を示す構成内容1102、当該システム構成において発揮されることが期待されるピーク性能を示す期待性能1103を含む。ここで示す性能とは、マシンスペック情報600の性能602と同様に、例えばストレージではIOPS、サーバであればFLOPS等のような、単位時間当たりにシステムで処理可能な処理量のことであり、ここでは単位時間当たりにシステムで処理できるリクエスト数(Krequest/sec)のことを示す。なお、システム期待性能情報1100は、構成IDとひもづけたシステムの構成内容を示す情報としても用いる。
図12に例示されるシステム性能劣化度合い情報1200は、外部のネットワークから管理対象システムまたはテナントシステムへの処理要求である負荷がかかっているときのシステム構成毎の性能劣化度合いを示す。外部からシステムに対してかかっている負荷の大きさを示す負荷1201と、負荷1201がかかっているとき実際に発揮し得る性能値の変動の幅を示す性能劣化度合い1202を含む。ここで負荷とは、例えばストレージであればボリュームへのI/O要求、WebサーバであればWebページへのアクセス要求量、APサーバであれば、サーバを利用する業務のデータ処理要求量などのような、単位時間あたりにシステムに要求される処理量(Krequest/sec)のことである。また、性能劣化度合いはマシンスペック情報600の性能602やシステム期待性能情報1100の期待性能1103と同様の単位(Krequest/sec)であり、例えば負荷テストなどで性能劣化の程度を実際に計測する等の手法で求めることができる。システムに期待されるピーク性能を示す期待性能1103から、システム性能の変動の幅である性能劣化度合い1202を引き、システムが発揮しうる性能の最悪値を算出するという計算が可能である。
図13に例示される処理中負荷情報1300は、外部から負荷がかかっているときの各装置における処理中の負荷量を示す。外部から管理対象システムまたはテナントシステムへの処理要求である負荷を示す負荷1301と、システムに負荷1301がかかっているとき各装置において処理中である負荷の量を示す処理負荷1302とを含む。システム構成毎に各装置で処理される負荷が異なるため、システム構成ID1303毎に情報を保持している。ここで示す負荷1301と処理負荷1302はシステム性能劣化度合い情報1200の負荷1201と同様の単位である。
図17は、外部のネットワークから管理対象システムまたはテナントシステムへの処理要求である負荷情報の傾向を示す負荷トレンド情報234の一例を示す。図17に例示する負荷トレンド情報234は、日時1701と、日時1701にシステムにかかる負荷の大きさを示す負荷1702を含む。管理サーバ201は、過去の負荷情報から算出された1日の各時間帯における負荷の平均値を、負荷トレンド情報234に予め格納している。図17では例として各日の5秒おきのトレンドを示しているが、週ごとや月ごとであってもよく、時間帯の区切りもこれに限られない。算出した平均値を基に、システム管理者による調整した値の入力を受け付けて、負荷トレンド情報234に格納してもよい。また、例えば過去1ヶ月の負荷情報を基に生成された負荷トレンド情報と過去半年の負荷情報を基に生成された負荷トレンド情報などの様に、傾向算出のための情報取得の期間毎に、複数の負荷トレンドを保有していてもよい。
図18は、運用ポリシー情報235の内容を示す。運用ポリシー情報235は、例えばテナントが利用するシステムの状況に応じて、ユーザ操作の入力を受け付けることなく自動的にシステム構成を変更するためのポリシーを格納する。運用ポリシーの識別子であるポリシーID、ポリシーにより実行されるタスクの実行内容を示す自動実行内容1802と、運用ポリシーにより実行されるタスクの識別子を示すタスクID1803、とを含み、運用ポリシーの実行条件を示す条件、例えば条件1804、条件1805、条件1806などを少なくとも1つ以上含む。
図19(A)、図19(B)、図19(C)は、本実施例の性能見積もり処理の結果を、出力装置215または出力装置218に出力する画面(以下、出力画面)の表示内容を例示する図である。横軸が時刻を示しており、性能見積もり処理を実施した対象期間が表示されていれば良い。
図19(A)の縦軸は性能であり、性能見積もり処理221により算出したシステム性能を用いる。性能の単位はシステム期待性能情報1100のシステム期待性能1103等と同様に、単位時間当たりにシステムが処理できるリクエスト数である。図19(A)は、例えば性能を帯域で表される場合の一例であり、構成変更に伴うシステムの期待性能の推移を実線で、そのときのタスクと負荷トレンドによる性能の劣化範囲を点描で示された領域で、構成変更時に構成変更箇所で未完了であった処理についての再リクエスト分の負荷増大による性能の悪化範囲を、ひし形の背景パターンで表示される領域で示している。これらの性能の予測結果と、SLOなどの閾値をあわせて表示する。これらの性能予測範囲は、区別して表示しなくてもよく、例えば予測される最悪値、または平均値のみなど、予測範囲の一部だけを示しても良い。
図19(B)と図19(C)は応答時間の推移を示しており、予測されるシステム応答時間の最悪の値が表示されている。この性能の予測結果と、例えばSLOなどの閾値をあわせて表示する。図19(B)と図19(C)の縦軸は応答時間であり、応答時間算出処理により算出したシステムの応答時間を表示する。図19(B)に例示する出力画面例は、システムの構成変更により応答時間が瞬間的に増大するが、その後は応答時間が収束して閾値よりも低い値に応答時間が落ち着くことを示している。一方、図19(C)に例示する出力画面例は、構成変更によりシステムの応答時間が、例えばシステムのタイムアウト時間よりも遅くなるなど、閾値を超えて悪化し、それにより応答時間が自然には回復しなくなる可能性があることを警告している。
出力画面にはグラフ表示とともに、たとえばシミュレーションの情報として、どのVMがいつ縮退する場合を想定したかなど、構成変更に関する情報を表示してもよい。さらに図19(B)においてはSLOの超過が推定される時間、また図19(C)の場合は現状のシステム構成では構成変更に耐えられない旨のアラートを表示してもよい。また、後述のように構成変更タスクの自動実行ポリシーが満たされたことを契機として当該タスクによる構成変更に関して性能見積もり処理を行った場合は、グラフ表示を当該タスクが実行された場合の想定結果として、システムの状況及び当該タスクを自動実行予定である旨とともに表示してよい。
図20、図21、図22は、管理サーバ201の性能見積もり処理部221の処理内容を示すフローチャートの一例である。図20に例示する性能見積もり処理フローが図21に例示する瞬間性能見積もり処理フローを再帰的に呼び出すことでシステム性能の変化の推移を算出する。また、図21に例示する瞬間性能見積もり処理フローは図22に例示する運用ポリシー判定処理フローを呼び出し、運用ポリシーによりタスクが自動実行される可能性があるか否かを判定し、タスクが実行される可能性がある場合は当該タスクの負荷による性能劣化の度合いを算出する。
図20は、性能見積もり処理部221がある期間のシステム性能の推移をシミュレーションする性能見積もり処理を示すフローチャートである。性能見積もりを行う対象期間について、任意の時間間隔ごとに、ある時点(以降、「見積もり対象時刻」という)のシステムの性能を見積もる瞬間性能見積もり処理を行う。その時点までの構成変更の有無を考慮して見積もり対象時刻のシステム構成を特定し、期待性能を算出する。また、システム内で実行が予定されるタスクや、外部からシステムにかかっている負荷によって起こりうるシステム性能の変動の幅を、システム性能劣化度合いとして算出する。さらに、想定する構成変更が、例えばVM縮退など、システムを縮退させる構成変更である場合は、縮退する構成要素において未完了状態であった処理の再リクエストによるシステムへの負荷によってさらに生じうる、性能劣化の範囲を算出する。また、構成変更によるシステム性能の変化の結果、例えばオートスケールなどのタスクを自動実行する運用ポリシーの条件を満たす可能性があるか否かを判定し、可能性があると判断した場合は、自動実行タスクによる構成変更や処理負荷の影響を考慮した性能値を算出する。これらの、各対象時刻についてそれぞれ算出した性能に関する情報を、システム性能の変化の推移として出力する。性能の変化の推移と併せて、例えばSLOなどの閾値を出力してもよい。
性能見積もり処理は、例えば計算機システム管理者が構成変更を計画する際に、管理対象システムの中から構成変更を想定するテナントシステムを選択し、当該テナントシステムについて性能見積もり処理を行うなど、計算機システム管理者の指示を受け付けて実行されても良い。また、例えば構成変更を実行するタスクの自動実行ポリシーが、システム性能やシステム負荷などの実行条件と共に設定されている管理システムにおいて、タスクが自動実行される前に性能見積もりを行い実行条件が満たされているか判定するなど、何らかのツールやユーティリティにより実行されても良い。
性能見積もり処理部221は、S2001で、
1)性能見積もり処理を実施する対象システムの構成ID1101、
2)性能見積もり処理を行う対象期間、
3)瞬間性能見積もりの見積もり対象時刻の時間間隔、
4)構成変更を想定する管理対象ホスト名(ホスト名401または仮想ホスト名501)、
5)構成変更の想定時刻、
6)想定する構成変更の内容に対応するタスクID1001、
を、入力情報として取得する。ここで取得する情報は、それぞれ入力装置214または入力装置216を用いてシステム管理者からの入力を受け付けても良いし、何らかのツールやユーティリティにより入力されても良い。たとえば、1)はシステム管理者が対象システムのテナント構成情報800を確認するなどして、対象システムの構成を把握し、該当する構成ID1101を入力することとしても良い。
また、タスクの自動実行前に性能見積もり処理を行う構成の場合は、S2001はたとえば以下の処理となる。
あるテナントシステム等が構成変更タスクの自動実行ポリシーに合致する状況になったことを契機として、不図示のツールやユーティリティが、1)自動実行タスクにより構成変更を実施する予定のシステムの構成ID1101と、4)構成変更の対象となるホスト名、5)構成変更の予定時刻、6)自動実行予定のタスクのタスクIDを、性能見積もり処理部221に通知する。構成変更の予定時刻は、自動実行されるまでに一定の猶予期間が設けられており、ポリシーに合致する状況となってから一定時間後の実行が予定される構成であることが考えられる。また、2)対象期間(長さ)、及び3)時間間隔は、性能見積もり処理部221が予め定められた値を備えていて良い。
また、計画外の構成変更を想定して見積もりを行うのではなく、既にタスクスケジュール情報900に格納されているタスクの処理による影響を見積もりたい場合には、4)−6)の情報を受け付けなくてよい。あるいは、スケジューリング済みの特定のタスクの実行前後のシミュレーションを行う場合は、スケジュールID901をユーザが選択して、入力を受け付けることとしてもよい。また、ユーザにはタスクIDやスケジュールIDではなくそれに対応する情報を入力、選択させて、入力に対応するID等を参照する処理を行ってよい。
対象期間を期間の長さとして受け付ける場合は、入力された構成変更の想定時刻(または選択されたタスクの実行日時904)から対象期間の半分の時間を差し引くなどの手段により、対象期間の開始時刻を算出して良い。また、具体的な開始・終了時刻の指定を受け付ける構成であっても良い。
システム構成情報231の物理システム構成情報400または仮想システム構成情報500を参照して、取得した管理対象ホスト名に該当する装置のホスト種別を取得する。また、タスクスケジュール情報900を参照して、対象期間中に実行している(実行中、または実行を開始する)予定のスケジュール情報を取得する。タスク管理情報1000を参照し、入力されたタスクID1001及び取得したスケジュール済みのタスクID902に対応する、各情報1002−1005を取得する。
S2002では見積もり対象時刻について瞬間性能見積もり処理を実施し、
1)対象時刻のシステム構成における期待性能、
2)システム負荷、システムで実行されるタスク、及び構成変更の影響によるシステム性能の変動の幅である性能劣化の度合い、
3)構成変更が縮退方向であった場合に、未完了状態の処理の再リクエスト負荷による性能劣化の度合い、
4)運用ポリシーに基づき自動実行されるタスクの影響による性能劣化の度合い
を算出する。瞬間性能見積もり処理の詳細については、図21を用いて後述する。
S2003では、S2001で受信した対象期間全体の各見積もり対象時刻について見積もり処理を実行したかを判定する。対象期間の瞬間性能見積もり処理を完了した場合はS2004に進み、そうではない場合S2002を再度実行する。S2003からS2002に戻る際は、前回の見積もり対象時刻にS2001で取得した3)時間間隔を足し合わせた値を、次の見積もり対象時刻とする。
S2004では、算出した計算機システムの性能と、SLAまたはSLOなどの閾値を比較する。システム性能が下回ってはいけない閾値を超えた場合はS2005に進む。算出した結果がSLAやSLOを違反しない場合は、対象期間の瞬間性能見積もりの値をシステム性能の変化の推移として出力し、性能見積もり処理フローを終了する。
S2005では、算出結果に閾値を超える値が含まれる場合に、各時刻の瞬間性能と閾値を比較する。例えば、瞬間性能が閾値を超えた結果の数とS2001で取得した時間間隔とを掛け合わせるなどの手段により、システム性能が閾値を超えている時間を算出し、算出したシステム性能の変化の推移とともにシステム性能が閾値を超えている時間を出力して性能見積もり処理を終了する。
性能見積もり処理は、これら以外の不図示の処理を含んでいても良い。各ステップにおいて算出された値は、例えばメモリに格納するまたはファイルに出力するなどの形式で出力されれば良い。
図21は、瞬間性能見積もり処理S2002の詳細を示すフローチャートである。瞬間性能見積もり処理は、これら以外の不図示の処理を含んでいても良いし、例えばS2106など幾つかのステップが実施されなくても良い。
S2101では、見積もり対象時刻を、S2001で取得した構成変更の想定時刻、及びタスクスケジュール情報900に格納されている各構成変更の予定時刻と比較し、見積もり対象時刻が構成変更よりも前か(以降、「構成変更前」という)、見積もり対象時刻が構成変更完了後なのか(以降、「構成変更後」という)を、判定する。タスクID1001の示す処理内容1002が、例えばVMデプロイなどの様に、システムを拡張する構成変更の場合は、構成変更の実行予定時刻から実行所要時間1003が経過した時刻以降を構成変更後とみなす。処理内容1002が、例えばVM縮退など、システムを縮退させる構成変更の場合は、構成変更の実行予定時刻以降を構成変更後とみなす。また、処理内容1002がいずれでもない場合は、構成変更が実行される時刻以後を構成変更後とみなす。いずれの場合においても、構成変更が実行される時刻から、実行所要時間が経過するまでの期間は実行中として、構成変更による操作負荷1004がシステムにかかり続けると考えてよい。
S2102では、S2101の判定結果、負荷−性能対応情報232、及びシステム構成情報231を用いて、見積もり対象時刻に想定されているシステム構成の期待性能を算出する。見積もり対象時刻が各タスクの構成変更前か後かを考慮して見積もり対象時刻のシステム構成を特定し、システム期待性能情報1100の該当する構成ID1101に対応する期待性能1103を、対象時刻の期待性能として取得する。構成変更後の場合、システム構成IDは、当該変更がシステムの縮退処理であれば、構成変更前のシステム構成IDが示す構成内容1102から構成変更対象装置のホスト種別を差し引いた構成内容を示す構成IDとなる。当該変更がシステムの拡大処理の場合は、対象装置を加えた構成内容を示す構成IDが構成変更後のシステム構成に該当し、これら以外の処理の場合は構成変更前と同じ構成IDを構成変更後のシステムの構成IDとする。タスクが縮退方向の構成変更処理であるかどうかは、タスクIDごとに不図示のフラグが付されており、フラグにより判別できるとして良い。
S2103では、タスク情報232、負荷−性能対応情報233、負荷トレンド情報234を用いて、システム負荷とタスクの実行による負荷と構成変更の負荷によるシステムの性能劣化の度合いを算出する。システム負荷とは、性能見積もり対象システムに対して外部のネットワーク等を介してなされる業務処理、データへのアクセスなどの処理要求のことであり、負荷トレンド情報234を参照して、見積もり対象時刻の負荷1702を取得することで求める。タスクの実行による負荷とは、タスクの操作処理がシステムに与える負荷のことであり、タスクスケジュール情報900の実行日時904からタスク管理情報1000の実行所要時間1003が経過するまでの期間に、見積もり対象時刻が該当する場合に、操作負荷1004をタスクの実行による負荷として取得する。なお、同時に複数のタスクが実行されている場合などは、複数のタスクの操作負荷1004の総計をタスクの実行による負荷として扱う。
構成変更の負荷とは、想定する構成変更を実現する処理がシステムへかける負荷のことであり、見積もり対象時刻が、当該構成変更の実行中である場合に、構成変更のタスクID1001が示す操作負荷1004を構成変更による負荷として扱う。システム負荷と各タスクの実行による負荷と構成変更による負荷の総和を、システムにかかる総負荷(後述の再リクエストによる負荷を除く)として扱って良い。
システム性能劣化度合い情報1200を参照して、算出したシステムの総負荷が相当する負荷1201に対応する性能劣化度合いのうち、見積もり対象時刻のシステムの構成IDに対応する性能劣化度合い1202を、システム性能劣化度合いとして算出する。
S2104では、負荷−性能対応情報233を用いて、構成変更による縮退箇所で未完了状態の処理の再リクエストによる負荷を算出する。本処理ステップにより、急な縮退により発生した未完了状態の処理のリクエストが、他の構成要素に再送されると想定した時にかかるシステムの負荷を求めることができる。本処理ステップは、見積もり対象時刻が、縮退処理となる構成変更後である場合に実行される。
S2104では、処理中負荷情報1300を参照して、S2103で算出したシステムの総負荷が相当する負荷1301に対応する処理負荷1302より、見積もり対象時刻の構成ID(構成変更実行前のシステム構成)及び構成変更対象装置のホスト種別403または503に対応する処理負荷1302を、縮退箇所で未完了状態の処理の再リクエストによる負荷として取得する。負荷1301の値は、処理中負荷情報1300に格納されている中から総負荷の値に一番近いものを選択すればよい。
S2104は、性能見積もり処理221の中で構成変更による縮退の直後に一度実行されればよく、不図示の設定情報を保持しておき、ループの2度目以降は実行されない設定としても良い。また、例えば3回まで実行するなどのように、回数を指定するなどの設定でも良い。複数の対象時刻について実行する場合は、縮退後から前回のループ処理までの見積もり対象時刻について算出したシステムの瞬間性能値に基づいて、縮退直後の未完了処理として算出したうちの既に処理された量を算出し、未完了処理の残量について以降の処理を行う。前回までの時刻の瞬間性能値は最悪値を用いればよい。
S2105では、負荷−性能対応情報233を用いて、縮退箇所で未完了状態であった処理の再リクエストによる性能劣化の度合いを算出する。このステップは、S2104が実行された場合のみ実行されれば良い。S2103で算出したシステムの総負荷と、S2104で算出した未完了状態の処理の再リクエストによる負荷を足し合わせた値をシステム瞬間負荷とする。システム性能劣化度合い情報1200を参照して、システム瞬間負荷に相当する負荷1201に対応する性能劣化度合い1202より、S2102で算出した構成変更後のシステム構成IDに対応する性能劣化度合いを取得し、取得した性能劣化度合いからS2103で算出したシステム性能劣化度合いを差し引いた値を、縮退箇所で未完了状態であった処理の再リクエストの負荷によるシステムの性能劣化の度合として算出する。
S2106では、システムの状況が変化した等で、運用ポリシー情報235の条件が満たされた結果として自動実行されるタスクの影響によるシステム性能劣化の度合いを算出する。S2101〜S2105で算出したシステムの期待性能から、システムの総負荷によるシステム性能劣化の度合いと、未完了状態である処理の再リクエストの負荷による性能劣化の度合いとを差し引いた値を、システム性能の想定内の最悪値として算出する。算出結果と運用ポリシーの条件を比較して、条件を満たす運用ポリシーが存在する場合は、ポリシーによりタスクが自動実行される可能性があると判断し、当該タスクの影響によるシステム性能劣化の度合いを算出する。図22を用いて本ステップの詳細を説明する。
以上の瞬間性能見積もり処理により算出された結果は、例えばメモリに格納する、ファイルに出力するなどの形式で出力されれば良い。
図22は、S2106の運用ポリシー判定処理の詳細を示すフローチャートである。本処理フローでは、運用ポリシーに基づき自動実行されるタスクの負荷や構成変更を考慮した性能見積もりを実施する。システムの状況改善のために自動実行による構成変更が行われたにも関わらず、その構成変更そのものによる負荷がかかることにより、性能がさらに悪化する可能性がある。性能見積もりの際に、運用ポリシーに基づく自動実行も考慮して算出することにより、そのポリシーの妥当性についても予め評価することができる。たとえば自動実行の結果SLAを満たせなくなる場合、そのようなポリシーは妥当でない可能性があることが分かる。
瞬間性能見積もり対象時刻において、運用ポリシー情報235の条件11803などの条件が満たされた結果自動実行されるタスクの操作負荷1004によるシステム性能劣化の度合いを算出する。運用ポリシー判定処理はこれら以外の不図示の処理を含んでいても良い。ここでタスクが自動実行されるとは、予め定められた運用ポリシーの条件に合致したことを契機として、管理者等によるユーザ操作の受付を要件とせずに実行されることを指す。
S2201では運用ポリシー情報235に格納されている運用ポリシーに対して、運用ポリシーの条件1804、1805などの条件が全て満たされているか否かを判定する。条件の全てが満たされなければタスクの自動実行はされないとして良い。計算機システムの性能への影響の算出にあたっては、対象期間において初めて運用ポリシーの条件を満たしてから、当該ポリシーにより自動実行されるタスクを実行完了するまでの期間(初めて運用ポリシーの条件を満たした時刻から、実行されるタスクの実行所要時間1003が経過するまでの期間)を当該タスクの実行期間と見做す。当該タスクの実行期間の間は、当該タスクの操作負荷1004がシステムに余剰にかかる。当該タスクの実行期間以後は、例えば以後10分間の間は同一のタスクは自動実行しないなどのように、一定期間の間同一の運用ポリシーは有効としないという不図示の設定情報が保持されていれば、その内容に従って特定の運用ポリシーに関しては運用ポリシー判定処理での判定対象から外すなどの例外処理をしてもよい。この例外処理により、同一の運用ポリシーにより何度も同一の構成変更を実施するといった不具合を解消するなどの効果がある。S2201の判定ですべての条件が満たされている運用ポリシーがないと判定された場合、運用ポリシー判定処理フローは終了し、いずれかの運用ポリシーの条件が全て満たされている場合は、S2202に進む。
S2202では、S2102と同様にシステム構成に基づくシステムの期待性能を算出する。運用ポリシーに基づき自動実行されるタスクが、構成変更を行いかつシステムを縮退させる処理であった場合、タスクの実行期間及びタスクの実行終了以後は、タスク実行前のシステム構成からタスクにより縮退する構成要素を差し引いたシステム構成の構成ID1101の期待性能1103を取得する。運用ポリシーにより実行されるタスクがシステムに構成変更を加え、かつシステムを拡張させる処理であった場合、タスクの実行期間中はタスク実行前のシステム構成の期待性能を取得し、タスクの実行期間以後であればシステム構成IDの指し示すシステム構成にタスクにより追加される構成要素を足したシステム構成の構成ID1101の期待性能1103を取得する。
S2203では、システム性能劣化度合い情報1200を参照して、S2202で判断したシステム構成における、負荷に応じた性能劣化度合い1202を取得する。運用ポリシーの実行期間中であれば、前述のシステムの総負荷と運用ポリシーにより実行されるタスクによる操作負荷1005を足し合わせた負荷量を、運用ポリシーの実行期間終了後であれば、前述のシステム総負荷を、負荷1201として用いれば良い。
S2204では、運用ポリシーにより実行されるタスクが縮退方向の処理であった場合に、S2104と同様の手法により、タスクにより縮退する装置で未完了状態となるリクエストの処理量を算出する。
S2205では、S2204で算出した未完了状態である処理の再リクエスト負荷による性能劣化の度合いを、S2105と同様の手法により算出する。
運用ポリシー判定処理により算出された、システムの期待性能、負荷による性能劣化の度合い、未完了状態である処理の再リクエスト負荷による性能劣化の度合いは、例えばS2102、S2103、S2105で算出された値を上書き保存する等の手法で更新することで出力されればよい。
以上の性能見積もり処理の具体例を説明する。例えば、図7に例示する構成IDがC04のテナントシステムについて、2013年10月30日8時00分00秒に、Virtual Machine_2の縮退というタスクIDがT05の構成変更を実行することを想定した場合に、構成変更を実行する前後1分間を対象期間とし、見積もり対象時刻を5秒間隔で、システム性能の変化の推移をシミュレーションするなどの情報の入力を受け付ける。ここで、仮想システム構成情報500を参照してVirtual Machine_2のホスト種別がVM_Bであることを取得する(S2001)。
2013年10月30日7時59分00秒から2013年10月30日8時01分00秒まで5秒間隔のテナントシステムの瞬間性能を算出する(S2002)。
2013年10月30日8時00分00秒を対象時刻とする瞬間性能見積もり処理の例を説明すると、S2101では、まず瞬間性能見積もり対象時刻が構成変更の予定時刻であり、想定するタスクのタスクID T05と対応する処理内容1002のVM縮退が、縮退方向の構成変更であるため、構成変更後のシステム構成を取得する。システム期待性能情報1100を参照して、構成変更前のシステム構成ID C04の構成から、縮退されるVirtual Machine_2のホスト種別であるVM_Bが差し引かれたシステム構成の構成内容1102を検索し、C01を選択する。
S2102では、システム期待性能情報1100から、C01のシステムにおける期待性能2.0[KRequest/sec]を取得する。
S2103では、まず負荷トレンド情報234から、2013年10月30日8時00分00秒におけるシステムへの負荷は、1.3[KRequest/sec]であることを取得する。さらに、タスク情報232から2013年10月30日8時00分00秒に実行中のタスクがあるかを調べる。スケジュールID S01のタスクの実行日時904が2013年10月30日7時00分00秒であり、タスクID04のタスクの実行所要時間1003は2時間であるため、2013年10月30日8時00分00秒は当該タスクが実行中であり、システムに対して操作負荷1004の0.2[KRequest/sec]相当の負荷をかけている。また、想定される構成変更の処理による負荷は、タスク管理情報1000から、タスクIDT05の操作負荷1004の0.1[KRequest/sec]相当であることが分かる。算出したシステム負荷とタスクの実行による負荷と構成変更の負荷を足し合わせて、構成変更を実行する瞬間にシステムにかかっているシステム総負荷は1.6[KRequest]相当であると算出する。次に、システム性能劣化度合い情報1200から、システムへの負荷が1.6[KRequest]であるときのC01のシステムにおける性能劣化度合いは1.0[KRequest/sec]であることを算出する。
S2104では、想定される構成変更がVMの縮退であることから、縮退箇所で未完了状態であるリクエストの処理量を算出する。縮退箇所のVirtual Machine_2のホスト種別はVM_Bであるため、処理中負荷情報1300を参照して、構成変更前のシステム構成であるC04のシステムの総負荷が1.6[KRequest]の時に、VM_Bで処理中の負荷量0.8[KRequest]を取得する。
S2105では、縮退箇所で未完了状態である処理の再リクエストによる性能劣化の度合いを算出する。構成変更が実行される瞬間のシステムの総負荷1.6[KRequest]と縮退箇所で未完了状態である処理である0.8[KRequest]を足し合わせて、システムの瞬間負荷が2.4[KRequest]であると算出する。システム性能劣化度合い情報1200から、算出したシステムの瞬間負荷2.4[KRequest]がかかっているときの、システム構成C01のシステムの性能劣化の度合いは1.8[KRequest/sec]であることを取得し、S2105で算出した性能劣化度合い1.8[KRequest/sec]からS2103で算出したシステムの性能劣化度合い1.0[KRequest/sec]を差し引くことで、縮退箇所で未完了状態である処理の再リクエストによる性能劣化の度合いは0.8[KRequest/sec]と算出する。
S2106の運用ポリシー判定処理の具体例を説明する。運用ポリシー235のポリシーIDがP01のポリシーは、条件を3つ備えている。テナント構成情報800から、構成変更後にテナントを構成するWebサーバはVirtual Machine_0とVirtual Machine_1の2台になることが分かり、条件1805に該当する。仮想システム構成情報500を参照すると、Virtual Machine_0とVirtual Machine_1のホスト種別はVM_Aである。処理中負荷情報1300より、システムの瞬間負荷2.4[KRequest]がかかっているとき、システム構成IDがC01のVM_Aでの処理中負荷は1.0[KRequest]であることが分かり、条件1804を満たす。運用ポリシーP01により実行されるタスクのタスクIDはT01である。タスク管理情報1000を参照すると、T01によりデプロイされる装置のホスト種別はVM_Aである。物理システム構成情報400を参照して、Machine_0のホスト種別はServer_Aであり、仮想システム構成情報500を参照するとMachine_0にはVM_Aが2台存在する。マシンスペック情報600から、Server_Aの性能は4.0[Krequest/sec]であり、VM_Aの性能は2.0[Krequest/sec]であるため、Server_Aには、VM_Aをデプロイさせるだけの空き容量があり、条件1806を満たす。以上より、ポリシーIDP01に基づいてタスクT01が自動実行されるため、S2201はYesである。
S2202では、システムの期待性能を算出する。運用ポリシーに基づき自動実行されるタスクはVMデプロイであるため、システムの期待性能はS2105までの処理で算出したシステム構成であるC01の構成の期待性能を算出する。システム期待性能情報1100から、C01のシステムでのシステム期待性能は2.0[Krequest/sec]であるとわかる。
S2203では、システムにかかっている負荷による性能劣化の度合いを算出する。運用ポリシーに基づき自動実行されるタスクの処理負荷は、タスク管理情報1000よりT01の操作負荷である0.1[Krequest/sec]である。運用ポリシーに基づき自動実行されるタスクの処理負荷とS2105までの処理で算出したシステムの瞬間の総負荷を足すと1.7[Krequest]である。システム性能劣化度合い情報1200より、瞬間に1.7[Krequest]の負荷がかかっているときのC01構成におけるシステム性能劣化度合いは0.85[Krequest/sec]である。
S2204では、縮退箇所で未完了状態のリクエストの処理量を算出する。運用ポリシーにより実行されるタスクはVMのデプロイであり、新たに未完了状態の処理量は増えず、S2105で算出した縮退箇所で未完了状態の処理量0.8[Krequest]を用いる。
S2205では、縮退箇所で未完了状態である処理の再リクエストによる性能劣化の度合いを算出する。S2202で算出したシステムの総負荷1.7[Krequest]と、S2203で算出した縮退箇所で未完了状態の処理量0.8[Krequest]から、システムの瞬間負荷は2.5[Krequest]である。システム性能劣化度合い情報1200より、システムにかかっている瞬間負荷が2.5[Krequest]のとき、C01の構成のシステムでの性能劣化度合は1.9[Krequest/sec]である。S2205で算出した性能劣化度合1.9[Krequest/sec]から、S2203で算出した性能劣化度合0.85[Krequest/sec]を差し引くことで、運用ポリシーに基づきタスクが自動実行された場合、縮退箇所で未完了状態である処理の再リクエストによる性能劣化の度合いは1.05[Krequest/sec]と算出できる。
これらの処理により、運用ポリシーにより実行されるタスクの負荷を考慮した性能劣化の度合いが算出できる。また、システムの期待性能から、システムにかかっている負荷による性能劣化の度合いと縮退箇所で未完了状態の処理の再アクセスによる性能劣化の度合いを差し引くことにより、システムの性能の最悪値を0.1[KRequest/sec]と算出できる。
S2003では、性能見積もり期間が終了したか否かを判定する。S2002の瞬間性性能見積もりの対象時刻は2013年10月30日8時00分00秒であった、見積もり期間は2013年10月30日8時01分00秒までであるため、Noと判定され、次の瞬間性能見積もり処理を2013年10月30日8時00分05秒を対象時刻としてS2002を実行する。
S2004では、S2003までの処理で算出したシステム性能の変化の推移が、閾値を超えていないかを判定する。閾値としてシステム性能は常に0.3[KRequest/sec]を維持することがSLAとして定められている場合、構成変更が実行される瞬間のシステム性能の最悪値が0.1[KRequest/sec]であることから、閾値を超えてしまうと判断する。
S2005では、算出した瞬間性能の最悪値が閾値を下回る回数を、違反回数としてカウントし、違反回数と瞬間性能見積もりを実施する間隔である5秒を乗算して、システム性能がSLA違反している時間を算出する。
なお本実施例は、仮にサーバ障害が起こってサーバがダウンしシステムが縮退した場合を想定したシステム性能の見積もりについても適用可能である。その場合は、S2001で障害発生を想定するホストと障害発生想定時刻を受け付けて、上記と同様の処理を行えば良い。
以上の処理により、テナントの構成について、構成変更を想定した場合の性能評価を行うことができる。SLOなどの閾値を超える場合は、どの程度の時間超過するのかもあわせて把握することができ、現状の構成で障害が起きた場合のテナントの可用性や、実施予定のテナントの構成変更の妥当性を評価することができる。また、システムの動的な状況に応じた構成変更の自動実行について運用ポリシーが設定されている場合は、その構成変更の負荷も考慮して性能を見積もることにより、当該運用ポリシーについても、妥当性を評価することができる。
図23は、本実施例における応答時間算出処理部222による処理の一例を示すフローチャートである。応答時間変更処理は、これら以外の不図示のステップを含んでいてもいいし、幾つかが存在しなくても良い。
まずS2301にて、性能見積もり処理において算出した性能値に基づき、見積もり対象期間の各対象時刻における、処理要求に対する応答時間を算出する。具体的には、例えば、瞬間性能見積もり処理で算出した単位時間当たりのリクエスト処理数である性能値の逆数によって、リクエストあたりの期待応答時間を算出しても良いし、不図示の性能見積もり処理で算出した性能値と応答時間の対応表を保持して算出しても良い。ここで性能値は、算出した性能劣化度合いを考慮した最悪値を用いても良いし、期待性能と最悪値の平均の値を算出して瞬間性能値として用いても良い。
S2302は、例えば不図示のリクエストのタイムアウト時間の設定を保存している場合に、処理リクエストに対するシステム応答時間がタイムアウト時間を超えるか否かを判定する処理である。システム応答時間がリクエストのタイムアウト時間を超える場合は(Yes)S2303に進み、システム応答時間がリクエストのタイムアウト時間を超えない場合(No)S2304に進む。
S2303は、例えばリクエストがタイムアウト期間を過ぎても処理されない場合は、同一の処理要求についての再リクエストが自動的に送信されるというポリシー設定がされているシステムにおいて、システム応答時間がリクエストのタイムアウト時間を超えた場合に行う処理である。一度タイムアウト時間を超えてしまうと、再リクエストが繰り返されることにより、システムへの負荷が増大し続け、システムの処理能力を超えて、状況を改善しない限り応答時間が悪化し続けることが考えられる。そのため、システム応答時間がタイムアウト時間を超えた以降の時刻における応答時間を、S2301で算出した値から、不定値または、算出されたシステム応答時間の最大値に置き換えることにより、システム応答時間がタイムアウト時間以下に回復しない予測を示す出力を行う。これにより、図19(C)のようにシステム構成変更が応答時間に重大な影響を与えることをシステムの利用者に示すことができる。S2303実行後は、算出したシステム応答時間を出力し、応答時間算出処理を終了する。
S2304は、例えば不図示のSLO情報としてシステムが発揮すべき応答時間の目標値を保持している場合に、SLOによって定められた応答時間の目標値と、算出したシステム応答時間を比較し、システム応答時間が目標値を超える(目標を達成できない値である)か否かを判定する処理である。システム応答時間が目標値を超えている場合(Yes)S2305に進み、システム応答時間が目標値を超えていない場合(No)算出した応答時間を出力して応答時間算出処理を終了する。
S2305では、システム応答時間が目標値を超えている場合に、システム応答時間が目標値を超えている時間を超過時間として算出する。超過時間は、例えば、算出した応答時間と閾値とをグラフに描画し、応答時間と閾値の交点から求めるなどの手法により算出する。S2305の実行後は、算出したシステム応答時間と超過時間を出力し、応答時間算出処理を終了する。
応答時間算出処理により算出された結果は、例えば、メモリに格納する、ファイルに保存する、GUIに表示するなどの形式で出力されればよい。
図24は、本実施例におけるシステムの単一障害点の有無を検出するSPOF検出処理を示すフローチャートである。SPOF検出処理は、これら以外の不図示のステップを含んでいてもいいし、幾つかが存在しなくても良い。
SPOF検出処理は、テナントシステムまたはITシステム全体における性能面でのSPOFを検出する処理である。例えば、図3に例示するシステム構成において実現される図7に例示されるようなテナントシステム構成において、テナント構成情報800の種別803がWebサーバであるVirtual_Machine_0が縮退し、テナントシステムを構成するホストの種別803がWebサーバであるホストが2台になった構成で性能見積もり処理を実施した時に、不図示のSLO情報に定められる応答時間や単位時間あたりに処理できるリクエスト量である性能の目標値を違反するか否かを判定するなどの処理を、各コンポーネントについて実施し、性能面でのSPOFが存在するか否かを判定するものである。
S2401では、負荷トレンド情報234の負荷1702のうち、例えば、直近一ヶ月間での最大の値を求め、システム負荷を算出する。
S2402では、例えば、SPOF検出処理をテナントシステムに対して実行する場合はテナント構成情報800に記載されているホストを昇順に選択するなどして、縮退すると仮定するテナントシステムのホストを選択する。
S2403では、S2401で算出した値とS2402で選択したホストを縮退させる操作の負荷の足し合わせた結果をシステム負荷とする。また、S2402で選択したホストを縮退させる操作を実行される構成変更として、S2402で選択したホストを縮退させるシステムにおける縮退前の構成を構成変更前として、S2402で選択したホストを縮退させるシステムにおける縮退後の構成を構成変更後として扱い、性能見積もり処理フローを実行する。この処理により、S2402で選択したホストが縮退した時刻において、システムの期待性能から、システム負荷による性能劣化度合いと未完了処理の再アクセスによる性能劣化の度合いを引いて算出したシステムの最悪性能値が、閾値を超えている場合、S2402で選択したホストはシステム性能面での単一障害点として、出力する。
S2404では、システムの単一障害点の有無を検出するシステムの全てのホストにおいて、S2403の処理を実行したか否かを判定する。全てのホストにおいてS2403の処理を実行完了した場合は、S2403で算出した単一障害点箇所をファイルまたはGUI等に出力して、SPOF検出処理を終了する。全てのホストにおいてS2403の処理を実行していない場合は、S2402の処理を再度実行する。
実施例1における負荷−性能対応情報233を用いた瞬間性能見積もり処理は、計算機システムの構成変更が起こる時点で構成変更箇所にかかっている負荷の量を、未完了状態の処理量と近似した。実施例2では、処理のキュー等を考慮することで、構成変更時に未完了である処理量の近似の精度を上げる。
図14、図15、図16は、負荷−性能対応情報233の変形例である。実施例2における負荷−性能対応情報233を用いた場合は、計算機システムで処理されるユーザからのリクエストがキューイングされるような場合を考慮して、急な縮退に伴う未完了状態の処理量をより精度良く算出することができる。
図14は、テナントシステムに負荷がかかっているときの各ホストにおけるキューの使用量の対応関係を示す、負荷−キュー使用量対応情報1400である。負荷−キュー使用量対応情報1400は、負荷1401とキュー使用量1402を含む。ここで負荷とは、実施例1と同様にシステムへのリクエスト数である。キュー使用量とは単位時間あたりに各サーバのキューに貯まる処理量のことであり、キューに貯まっているリクエスト数のことである。キュー使用量1402は、システムを構成する装置毎に保持すると良い。
図15は、図7に示すテナントシステムにおいて、キューの使用量とその時点のシステムの性能劣化の度合いの対応をホスト毎に示す、キュー使用量−性能対応情報1500である。キュー使用量と性能対応テーブル1500は、各ホストのキュー使用量を示すキュー使用量1501と、当該装置がネックになっているときのシステムの性能劣化の度合いを示す性能劣化の度合い1502を含む。性能劣化度合い1502は、システムを構成する装置毎に保持すると良い。ここで、キュー使用量は負荷とキュー対応テーブル1400のキュー使用量1402と同様に各装置のキューに貯まっているリクエスト数である。性能劣化度合いとは、システム性能劣化度合い情報1200の性能劣化度合い1202と同様に負荷がかかっているときのシステム性能の変動の幅の値である。
図16は、図7に示すテナントシステムにおいて、システム性能を発揮する時に各ホストで消化されるキューの使用量の対応関係を示す、性能とホストのキュー消化容量対応テーブル1600である。性能とホストのキュー消化容量対応テーブル1600は、システム性能を示す性能1601と、キュー消化容量1602を含む。キュー消化容量1602はシステムを構成する装置毎に保持すると良い。ここで、キュー消化容量とは、単位時間あたりに各装置で処理できるキューに貯まっているリクエスト数のことである。従って、負荷とキュー使用量対応テーブルの負荷1401がかかっているときのキュー使用量1402よりも、負荷1401がかかっているときのシステム性能1601に対応するキュー消化容量1602が少ない場合、各装置のキューに貯まっている処理の総量は増加していく。
図14、図15、図16に例示する負荷−性能対応情報233は、例えば、計算機システムの運用中に監視して得られた実測値の統計処理によって算出した値を格納する等のように、計算機システムの管理者が手作業で入力してもよし、何らかのツールやユーティリティにより生成されても良い。例えば読み書き比率などの負荷の特徴により、負荷とキュー使用量の対応関係や、キュー使用量と性能の対応関係、性能とホストのキュー消化容量の対応関係が変動することが一般的に知られているため、負荷−性能対応情報233は、負荷の特徴ごとに保持していても良いし、負荷の特徴により負荷−性能対応情報233の値を調整する何らかのツールやユーティリティを保持していても良い。
実施例2における以上の負荷−性能対応情報233を用いた瞬間性能見積もり処理のS2103、S2104、S2105、S2106は、実施例1における瞬間性能見積もり処理と異なる処理をする。その他の処理は実施例1と同様で良い。
実施例2におけるS2103では、タスク情報232、負荷−性能対応情報233、負荷トレンド情報234を用いて、システムにかかっている負荷による性能劣化の範囲を算出する。具体的には、まず実施例1におけるS2103と同様の手法でシステム負荷の算出を行う。次に負荷−性能対応情報233の負荷1901と算出したシステム負荷を比較し、キュー使用量1402を取得する。負荷−性能対応情報233のキュー使用量1501と取得したキュー使用量を比較してシステムを構成する各ホストの性能劣化度合い1502を取得する。次に、取得した各ホストにおける性能劣化度合い1502の中で最も性能劣化度合いの大きい値を算出し、算出した性能劣化度合いをシステムの性能劣化度合いとして、最も性能劣化度合いの大きいホストをネック箇所として、例えばメモリに保存するか、またはファイルに保存する等の手法で出力する。
実施例2におけるS2104では、負荷−性能対応情報233を用いて、構成変更による縮退箇所で未完了状態の処理を算出する。S2103で算出したシステム負荷およびS2101で取得した操作対象のホスト種別に対応する、キュー使用量1402を取得する。取得したキュー使用量1402を構成変更箇所で未完了状態の処理量として扱い、例えばメモリに保存する、またはファイルに保存する等の手法で出力する。実施例2におけるS2104は実施例1におけるS2104と同様の条件下の場合に実行されれば良い。
実施例2におけるS2105では、負荷−性能対応情報233を用いて、縮退箇所で未完了状態であった処理の再リクエストによる性能劣化の度合いを算出する。このステップは、S2104が実行された場合に実行する。処理の具体例を説明する。まず、S2103で算出したシステム負荷とS2104で取得した未完了状態の処理とを足した負荷の量を算出し、算出した負荷に対応する各ホストのキュー使用量1402を取得する。取得した各ホストのキュー使用量とテーブル1500から各ホストの性能劣化度合いを取得し、取得した各ホストの性能劣化度合いの中で最も大きな値を、未完了処理の再アクセスによる負荷がかかった場合のシステムの性能劣化度合いとして扱う。S2105で算出したシステムの性能劣化度合いと、S2103で算出した性能劣化度合いの差分を、未完了処理の再アクセスの影響による性能劣化度合いとして算出し、例えばメモリに保存する、またはファイルに保存する等の手法で出力する。
実施例2におけるS2106についても、実施例1の処理にS2103−S2105と同様の変更を加えて実行する。
以上の通り、実施例において提供する管理計算機によれば、構成変更に伴う一時的な負荷の増大を考慮することで、構成変更がシステム性能に与える影響について評価の精度を高めることが出来る。
なお、実施例におけるシステム構成情報231は、簡略化のため装置単位でのシステム構成しか示していないが、例えば、ストレージ装置内のストレージコントローラ、DISK、I/Oポートの数や性能などの情報を保存しても良い。ストレージ装置内のコンポーネントの構成変更などに対しても、実施例が提供する性能見積もり処理を適用することが可能である。
201:管理サーバ 203:サーバ装置 204:ストレージ装置 221:性能見積もり処理部 222:応答時間算出処理部 223:SPOF検出処理部

Claims (9)

  1. 計算機システムに含まれるサーバが稼動停止した場合の前記計算機システムの性能を、稼働停止時の前記サーバに要求されていた処理量に基づいて推定し、
    前記推定した前記計算機システムの性能を出力する
    制御部を備える、情報処理装置。
  2. 前記制御部は、
    前記稼働停止時の前記サーバに要求されていた処理量を、前記サーバによって処理されなかった要求の再送を、前記サーバの稼働停止後に前記計算機システムに含まれる他のサーバが受け付けることにより増加する前記計算機システムの負荷量として算出することにより、前記計算機システムの性能を推定する
    請求項1記載の情報処理装置。
  3. 前記制御部は、
    システム構成及び負荷に応じた前記計算機システムの性能低下量を示す、負荷性能対応情報を参照可能であり、
    前記算出した計算機システムの負荷量及び前記サーバの稼働停止後の前記計算機システムの構成に対応する性能低下量を、前記負荷性能対応情報より取得して、前記計算機システムの性能を見積もる
    請求項2記載の情報処理装置。
  4. 前記制御部は、さらに
    前記計算機システムの構成を示す構成情報と、
    前記計算機システムに対する処理要求による負荷を示す負荷情報と、を参照可能であり、
    前記稼働停止時における前記計算機システムに対する処理要求による負荷を算出し、
    前記構成情報より、前記稼働停止時の前記計算機システムの構成を取得し、
    前記処理要求による負荷及び前記計算機システムの構成に基づいて、前記サーバへの処理要求量を算出する
    請求項3記載の情報処理装置。
  5. 前記制御部は、
    前記計算機システムの構成を示す構成情報と、
    構成に応じた前記計算機システムの期待性能を示す期待性能情報と、
    システム構成と負荷に応じた前記計算機システムの性能低下量を示す負荷性能対応情報と、を参照可能であり、
    前記サーバの稼働停止時刻及び、前記計算機システムの性能評価を行う評価対象期間の入力を受け付けると、
    前記評価対象期間の所定の単位時間ごとの評価対象時刻における構成に応じた前記計算機システムの期待性能を取得し、
    前記稼働停止時刻における、前記サーバに要求されていた処理量を算出し、
    算出した前記サーバに要求されていた処理量と前記負荷性能対応情報とに基づき、前記サーバの稼働停止による前記計算機システムの性能低下量を算出し、
    少なくとも、各評価対象時刻における、前記期待性能及び前記性能低下量を、前記計算機システムの性能見積もり情報として出力する
    請求項1記載の情報処理装置。
  6. 前記制御部は、
    前記性能見積もり情報に基づき、各評価対象時刻の前記計算機システムへの処理要求に対する応答時間を算出し、
    前記評価対象期間における前記応答時間を出力する
    請求項5記載の情報処理装置。
  7. 前記制御部は、
    前記評価対象期間において、前記応答時間が、予め定められた閾値を超えるか否か判定し、
    前記閾値を超える場合は、超過する時間を算出し、
    算出した前記超過する時間を、前記応答時間とあわせて出力する
    請求項6記載の情報処理装置。
  8. 前記計算機システムには、処理要求についてのタイムアウト時間と、前記処理要求がタイムアウトした場合に同一の処理要求を再度送信される再リクエストポリシとが設定されており、
    前記制御部は、
    前記評価対象期間における応答時間について、前記タイムアウト時間を超えるか否か判定し、
    前記タイムアウト時間を超える場合は、再リクエストの影響で応答時間が増大する可能性があることを示す情報を出力する
    請求項7記載の情報処理装置。
  9. 計算機システムに含まれるサーバが稼動停止した場合の前記計算機システムの性能を、稼働停止時の前記サーバに要求されていた処理量に基づいて推定し、
    前記推定した前記計算機システムの性能を出力する
    性能評価方法。
JP2016506046A 2014-03-07 2014-03-07 性能評価方法及び情報処理装置 Active JP6033985B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/055898 WO2015132945A1 (ja) 2014-03-07 2014-03-07 性能評価方法及び情報処理装置

Publications (2)

Publication Number Publication Date
JP6033985B2 true JP6033985B2 (ja) 2016-11-30
JPWO2015132945A1 JPWO2015132945A1 (ja) 2017-03-30

Family

ID=54054780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016506046A Active JP6033985B2 (ja) 2014-03-07 2014-03-07 性能評価方法及び情報処理装置

Country Status (3)

Country Link
US (1) US9712404B2 (ja)
JP (1) JP6033985B2 (ja)
WO (1) WO2015132945A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015119472A (ja) * 2013-11-18 2015-06-25 株式会社リコー 選択システム、通信管理システム、通信システム、プログラム、及び選択方法
US11283697B1 (en) 2015-03-24 2022-03-22 Vmware, Inc. Scalable real time metrics management
JP6451497B2 (ja) * 2015-05-20 2019-01-16 富士通株式会社 情報処理装置、情報処理プログラム、及びデータセンタシステム
US10594562B1 (en) 2015-08-25 2020-03-17 Vmware, Inc. Intelligent autoscale of services
JPWO2017138506A1 (ja) * 2016-02-08 2018-12-13 日本電気株式会社 変更手順生成システム、変更手順生成方法およびプログラム
US10212041B1 (en) 2016-03-04 2019-02-19 Avi Networks Traffic pattern detection and presentation in container-based cloud computing architecture
US10931548B1 (en) 2016-03-28 2021-02-23 Vmware, Inc. Collecting health monitoring data pertaining to an application from a selected set of service engines
US10684933B2 (en) * 2016-11-28 2020-06-16 Sap Se Smart self-healing service for data analytics systems
US10389594B2 (en) * 2017-03-16 2019-08-20 Cisco Technology, Inc. Assuring policy impact before application of policy on current flowing traffic
US10547672B2 (en) 2017-04-27 2020-01-28 Microsoft Technology Licensing, Llc Anti-flapping system for autoscaling resources in cloud networks
US20180316547A1 (en) * 2017-04-27 2018-11-01 Microsoft Technology Licensing, Llc Single management interface to route metrics and diagnostic logs for cloud resources to cloud storage, streaming and log analytics services
US10496531B1 (en) * 2017-04-27 2019-12-03 EMC IP Holding Company LLC Optimizing virtual storage groups by determining and optimizing associations between virtual devices and physical devices
JP6972735B2 (ja) * 2017-07-26 2021-11-24 富士通株式会社 表示制御プログラム、表示制御方法及び表示制御装置
JP6570606B2 (ja) * 2017-12-15 2019-09-04 ソフトバンク株式会社 作業管理装置、作業管理方法及びプログラム
US10503672B2 (en) * 2018-04-26 2019-12-10 EMC IP Holding Company LLC Time dependent service level objectives
US10999168B1 (en) 2018-05-30 2021-05-04 Vmware, Inc. User defined custom metrics
US11044180B2 (en) 2018-10-26 2021-06-22 Vmware, Inc. Collecting samples hierarchically in a datacenter
US11582120B2 (en) 2019-05-30 2023-02-14 Vmware, Inc. Partitioning health monitoring in a global server load balancing system
US11240049B2 (en) 2019-06-05 2022-02-01 International Business Machines Corporation Automatic recharging of data quota for successful completion of transaction
JP7261195B2 (ja) * 2020-03-25 2023-04-19 株式会社日立製作所 サーバ負荷予測システム及びサーバ負荷予測方法
US12353907B1 (en) * 2020-09-04 2025-07-08 Pure Storage, Inc. Application migration using data movement capabilities of a storage system
US11860757B2 (en) * 2020-10-09 2024-01-02 Lakeside Software, Llc Apparatus and method for determining the performance impact of changes in a computing system
US11283863B1 (en) * 2020-11-24 2022-03-22 Kyndryl, Inc. Data center management using digital twins
US11811861B2 (en) 2021-05-17 2023-11-07 Vmware, Inc. Dynamically updating load balancing criteria
US11799824B2 (en) 2021-06-14 2023-10-24 Vmware, Inc. Method and apparatus for enhanced client persistence in multi-site GSLB deployments
US12200008B2 (en) 2021-07-20 2025-01-14 VMware LLC Security aware load balancing for a global server load balancing system
JP2023100222A (ja) * 2022-01-05 2023-07-18 株式会社日立製作所 システム構成管理装置、システム構成管理方法、及びシステム構成管理プログラム
US20230232195A1 (en) 2022-01-19 2023-07-20 Vmware, Inc. Collective scaling of applications
US12531791B2 (en) * 2022-02-17 2026-01-20 Rakuten Mobile, Inc. Validation system and validation method
US12107821B2 (en) 2022-07-14 2024-10-01 VMware LLC Two tier DNS
US12316601B2 (en) 2022-07-14 2025-05-27 VMware LLC Two tier DNS

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196601A (ja) * 2004-01-09 2005-07-21 Hitachi Ltd 自律管理システム向けポリシシミュレータ
JP2007128382A (ja) * 2005-11-07 2007-05-24 Nec Corp クラスタシステムの性能予測方法および装置
US20120239376A1 (en) * 2011-03-14 2012-09-20 Sap Ag Predicting performance of a consolidated virtualized computing environment

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302751A (ja) * 2003-03-31 2004-10-28 Hitachi Ltd 計算機システムの性能管理方法、および、記憶装置の性能を管理する計算機システム
US20060037018A1 (en) * 2004-08-16 2006-02-16 Dell Products L.P. System, method and software providing an adaptive job dispatch algorithm for large distributed jobs
US8024737B2 (en) * 2006-04-24 2011-09-20 Hewlett-Packard Development Company, L.P. Method and a system that enables the calculation of resource requirements for a composite application
JP2008108120A (ja) * 2006-10-26 2008-05-08 Hitachi Ltd エージェントを使用して性能を監視する計算機システム及びその方法
US8209684B2 (en) * 2007-07-20 2012-06-26 Eg Innovations Pte. Ltd. Monitoring system for virtual application environments
JP4782100B2 (ja) * 2007-12-11 2011-09-28 株式会社日立製作所 ストレージシステムの性能を監視する管理計算機、その管理計算機を含む計算機システム、及び、その制御方法
WO2009088435A1 (en) * 2007-12-31 2009-07-16 Netapp, Inc. System and method for automatic storage load balancing in virtual server environments
US8286139B2 (en) * 2008-03-19 2012-10-09 International Businesss Machines Corporation Call stack sampling for threads having latencies exceeding a threshold
JP5428075B2 (ja) * 2009-04-17 2014-02-26 株式会社日立製作所 性能モニタリングシステム、ボトルネック判定方法及び管理計算機
US20120030346A1 (en) * 2010-07-29 2012-02-02 Hitachi, Ltd. Method for inferring extent of impact of configuration change event on system failure
JP5568776B2 (ja) * 2010-11-05 2014-08-13 株式会社日立製作所 計算機のモニタリングシステム及びモニタリング方法
JP5691529B2 (ja) 2011-01-07 2015-04-01 日本電気株式会社 性能評価システム、性能評価方法および性能評価用プログラム
US10558544B2 (en) * 2011-02-14 2020-02-11 International Business Machines Corporation Multiple modeling paradigm for predictive analytics
WO2012120634A1 (ja) * 2011-03-08 2012-09-13 株式会社日立製作所 管理計算機、ストレージシステム管理方法、及び、ストレージシステム
DE112012005356T5 (de) * 2012-12-18 2014-10-02 Intel Corporation Techniken in Verbindung mit Server-Transaktionslatenzinformationen
US20140215077A1 (en) * 2013-01-26 2014-07-31 Lyatiss, Inc. Methods and systems for detecting, locating and remediating a congested resource or flow in a virtual infrastructure
JP5976230B2 (ja) * 2013-10-04 2016-08-23 株式会社日立製作所 リソース管理システムおよびリソース管理方法
WO2015145664A1 (ja) * 2014-03-27 2015-10-01 株式会社日立製作所 リソース管理方法およびリソース管理システム
JP6260407B2 (ja) * 2014-03-28 2018-01-17 富士通株式会社 ストレージ管理装置、性能調整方法及び性能調整プログラム
US9575810B2 (en) * 2015-01-30 2017-02-21 Ca, Inc. Load balancing using improved component capacity estimation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196601A (ja) * 2004-01-09 2005-07-21 Hitachi Ltd 自律管理システム向けポリシシミュレータ
JP2007128382A (ja) * 2005-11-07 2007-05-24 Nec Corp クラスタシステムの性能予測方法および装置
US20120239376A1 (en) * 2011-03-14 2012-09-20 Sap Ag Predicting performance of a consolidated virtualized computing environment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6014022052; 鶴長鎮一: '「スケールアウト/スケールアップの基礎知識」' Software Design 通巻294号, 20091018, pp.18-29, 株式会社技術評論社 *

Also Published As

Publication number Publication date
WO2015132945A1 (ja) 2015-09-11
JPWO2015132945A1 (ja) 2017-03-30
US9712404B2 (en) 2017-07-18
US20160127204A1 (en) 2016-05-05

Similar Documents

Publication Publication Date Title
JP6033985B2 (ja) 性能評価方法及び情報処理装置
Veeraraghavan et al. Kraken: Leveraging live traffic tests to identify and resolve resource utilization bottlenecks in large scale web services
AU2012221821B2 (en) Network event management
CN106452818B (zh) 一种资源调度的方法和系统
JP6248560B2 (ja) 管理プログラム、管理方法、および管理装置
US8930757B2 (en) Operations management apparatus, operations management method and program
US10855791B2 (en) Clustered storage system path quiescence analysis
US10318399B2 (en) Using canary instances for software analysis
US10362100B2 (en) Determining load state of remote systems using delay and packet loss rate
CN109684071B (zh) 任意工作负载在超融合节点之间的分配
US10069753B2 (en) Relationship-based resource-contention analysis system and method
US9747156B2 (en) Management system, plan generation method, plan generation program
US10432483B1 (en) General-purpose metrics publishing with variable resolution
US9804993B1 (en) Data volume placement techniques
CN117331696A (zh) 一种基于多租户的服务提供系统及方法
CN103647723B (zh) 一种流量监控的方法和系统
CN104917639B (zh) 基于集群监控分配数据业务方法及装置
US7467291B1 (en) System and method for calibrating headroom margin
CN109726151B (zh) 用于管理输入输出栈的方法、设备和介质
CN112703485A (zh) 使用机器学习方法支持对分布式系统内的计算环境的修改的实验评估
US20180095798A1 (en) Method and apparatus for software performance tuning with dispatching
US11275529B2 (en) Maintenance management on backup storage systems
US10599509B2 (en) Management system and management method for computer system
JP2018041296A (ja) 計算機システムおよびジョブ実行計画変更方法
JP6234759B2 (ja) 情報システム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161026

R150 Certificate of patent or registration of utility model

Ref document number: 6033985

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350