[go: up one dir, main page]

JP6984576B2 - リソース決定装置、方法及びプログラム - Google Patents

リソース決定装置、方法及びプログラム Download PDF

Info

Publication number
JP6984576B2
JP6984576B2 JP2018203673A JP2018203673A JP6984576B2 JP 6984576 B2 JP6984576 B2 JP 6984576B2 JP 2018203673 A JP2018203673 A JP 2018203673A JP 2018203673 A JP2018203673 A JP 2018203673A JP 6984576 B2 JP6984576 B2 JP 6984576B2
Authority
JP
Japan
Prior art keywords
virtual machine
resource
resources
amount
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018203673A
Other languages
English (en)
Other versions
JP2020072327A (ja
Inventor
超 呉
信吾 堀内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
NTT Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NTT Inc filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018203673A priority Critical patent/JP6984576B2/ja
Priority to US17/289,398 priority patent/US11995460B2/en
Priority to PCT/JP2019/042411 priority patent/WO2020090830A1/ja
Publication of JP2020072327A publication Critical patent/JP2020072327A/ja
Application granted granted Critical
Publication of JP6984576B2 publication Critical patent/JP6984576B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0894Policy-based network configuration management
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0876Network utilisation, e.g. volume of load or congestion level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/20Arrangements for monitoring or testing data switching networks the monitoring system or the monitored elements being virtualised, abstracted or software-defined entities, e.g. SDN or NFV
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0806Configuration setting for initial configuration or provisioning, e.g. plug-and-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0895Configuration of virtualised networks or elements, e.g. virtualised network function or OpenFlow elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0896Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5003Managing SLA; Interaction between SLA and QoS
    • H04L41/5009Determining service level performance parameters or violations of service level contracts, e.g. violations of agreed response time or mean time between failures [MTBF]

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Debugging And Monitoring (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Description

本発明の実施形態は、リソース決定装置、方法及びプログラムに関する。
様々な法人ユーザ(以下、ユーザ)が、クラウド提供者が提供するクラウドサービス(以下、サービスと称することがある)を利用し、自組織内あるいはエンドユーザにサービスを提供する形態が今後増えると考えられる。そこで、クラウド提供者に対しては、ユーザが求めるサービスを迅速かつ低コストに正確に提供することが求められる。クラウド提供者は、仮想化技術を用いてサービスをユーザに提供している。
この仮想化技術は、汎用サーバ上で仮想マシンであるVM(Virtual Machine)を生成し、VMに様々な機能(例えば、Firewall(FW)機能、Web Server(WS)機能、Deep Packet Inspection(DPI)、Database(DB)機能等)を実装できる。さらに、仮想化技術は、各VMに割り当てられるリソース量(例えばvCPU(virtual Central Processing Unit)数、メモリ量)を自由に変更することによって、機能の処理能力を自由に変更できる。クラウド提供者は、上記の機能を組み合わせて、ユーザにサービスを提供する(例えば、非特許文献1、2を参照)。
A. Iosup, N. Yigitbasi, and D. Epema, "On the PerformanceVariability of Production Cloud Services," IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing, 2011 G.Kousiouriset al, "Translation of application-level terms to resource level attributes across the Cloud stack layers," IEEE Symposium on Computers and Communications, pp. 153-160, 2011
現在、クラウドサービスの一般的な提供形態としては、リソース量単位(例えばvCPUの数、メモリの量)でサービスを提供する。しかし、非特許文献1では、リソース量を保障した条件で、サービスのパフォーマンスを保障することができない。現状としては、サービスのパフォーマンスを保障するために、次の課題(1)、(2)が存在する。
(1)サービス開通する際に、ユーザが求めるサービスのパフォーマンス要件を満たすため、ワークロード、環境条件、及び運用ポリシを考慮して、VMに配置される必要なリソース量に関する決定
(2)サービスを運用する際に、ユーザが求めるサービスのパフォーマンス要件を満たし続けるため、ワークロード、環境条件、及び運用ポリシの少なくとも1つが変動する際の、VMに配置されるリソース量の調整に関する決定
上記の(1)、(2)の決定のためには高いスキルが必要になり、クラウド提供者または法人ユーザの有スキル者に依存するため、人的コストの高さが問題になっている。
そのため、非特許文献2では、パフォーマンス要件を保障するためにリソース量を決定する方法を提案している。しかしながら、実運用でリソース量の決定に影響を与える要素としての環境条件および運用ポリシは考慮されていなかった。
パフォーマンス要件は、主にワークロード処理能力要件と遅延要件でなる2つの分類がある。
ワークロード処理能力は、サービス処理能力への、ユーザからの要求を表す。
例えば、クラウドベースのweb service、 firewall、 DPIサービス等のワークロード処理能力要件は、95[%]以上のリクエストを処理する、90[%]以上のユーザを収容できる、等が挙げられる。
また、遅延要件は、サービスの処理時間への、ユーザからの要求を表す。
例えば、クラウドベースのweb service、 firewall、 DPIサービス等の遅延要件は、リクエストの処理時間の90[%]を100[ms]以下にする、等が挙げられる。
また、例えば、クラウドベースの機械学習訓練サービス等のワークロード処理能力要件は、1batchの訓練データを130[ms]内に処理する、等が挙げられる。
この例では、上記のワークロードは、ユーザがクラウドを使って収容・処理しようとしているワークロードの種類、ワークロードの特徴、及びワークロードの量を総称したものである。
例えば、ワークロードの種類をweb serviceと定義し、ワークロードの特徴をweb pageのサイズ20[KB]等と定義し、ワークロードの量を1秒で10000リクエスト(以下、10000 [requests per second]と記述する)と定義する、等が挙げられる。
また、別の例として、ワークロードの種類を機械学習訓練と定義し、特徴を学習アルゴリズムの構成と定義し、ワークロードの量を1batchの訓練データのサイズ(例えば30枚の32*32[pixel]、256色の画像)と定義する、等が挙げられる。
上記の環境条件は、サービスを構成するVMが収容される物理サーバ(ホスト)の状態である。
動的な環境条件の例として、物理サーバのリソースの利用率(ここではホストの混雑度とも呼ぶ)が挙げられる。また、静的な環境条件の例として、物理サーバのCPUの種類、メモリのアーキテクチャ等が挙げられる。
上記の運用ポリシは、ユーザあるいはクラウド提供者が定めたポリシであって、クラウドサービスが運用される際に従われるポリシである。運用ポリシを定めることで、クラウドサービスの運用状態を望ましい状態に維持することができる。例えば、VM内のリソース利用率制限に関する運用ポリシを定めることで、VMのリソース利用率の向上、ボトルネック発生可能性の低減、等の効果が期待できる。
この発明は、上記事情に着目してなされたもので、その目的とするところは、仮想マシンに必要なリソース量を適切に求めることができるようにしたリソース決定装置、方法及びプログラムを提供することにある。
上記目的を達成するために、この発明の一実施形態に係るリソース決定装置の第1の態様は、リソース決定装置が、仮想マシンの処理負荷、前記仮想マシンの処理性能、前記仮想マシンが収容される物理マシンのリソースの運用状態、及び前記仮想マシンのリソースの運用状態と、前記仮想マシンに配置されるリソース量との関係を示すモデルを格納する格納部と、前記仮想マシンが収容される物理マシンのリソースの運用状態の監視結果、前記仮想マシンの処理負荷、及び前記格納部に格納されるモデルに基づいて、前記仮想マシンの処理性能の要件及び前記仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、前記仮想マシンに配置されるリソース量を算出する算出手段とを備えるようにしたものである。
この発明のリソース決定装置の第2の態様は、第1の態様において、前記算出手段は、前記仮想マシンの処理負荷、前記仮想マシンの処理性能の要件、前記仮想マシンのリソースの運用状態のポリシ、及び前記仮想マシンが収容される物理マシンのリソースの運用状態の監視結果のうち少なくとも1つが変動したときに、前記仮想マシンの処理性能の要件及び前記仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、前記仮想マシンに配置されるリソース量を再度算出するようにしたものである。
この発明のリソース決定装置の第3の態様は、第1の態様において、前記算出手段による算出結果に基づいて、前記仮想マシンにリソースを実装する実装手段と、前記実装手段によりリソースが実装された前記仮想マシンが収容される前記物理マシンのリソースの運用状態、前記実装手段によりリソースが実装された仮想マシンのリソースの運用状態、前記実装手段によりリソースが実装された仮想マシンの処理負荷、前記実装手段によりリソースが実装された仮想マシンの処理性能をそれぞれ監視し、前記監視結果として出力する監視手段と、をさらに備え、前記モデルは、前記監視手段による監視結果に基づいて学習され、前記算出手段は、前記実装手段によりリソースが実装された仮想マシンの処理負荷、前記実装手段によりリソースが実装された仮想マシンが収容される物理マシンのリソースの運用状態の監視結果、及び前記格納部に格納されるモデルに基づいて、前記仮想マシンの処理性能の要件及び前記仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、前記仮想マシンに配置されるリソース量を算出するようにしたものである。
本発明の一実施形態に係る、リソース決定装置が行うリソース決定方法の一つの態様は、仮想マシンの処理負荷、前記仮想マシンの処理性能、前記仮想マシンが収容される物理マシンのリソースの運用状態、及び前記仮想マシンのリソースの運用状態と、前記仮想マシンに配置されるリソース量との関係を示すモデルを格納部から取得し、前記取得されたモデルと、前記仮想マシンが収容される物理マシンのリソースの運用状態の監視結果と、前記仮想マシンの処理負荷とに基づいて、前記仮想マシンの処理性能の要件及び前記仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、前記仮想マシンに配置されるリソース量を算出するようにしたものである。
本発明の一実施形態に係るリソース決定処理プログラムの一つの態様は、第1乃至第3の態様のいずれか1つにおけるリソース決定装置の前記各手段としてプロセッサを機能させるものである。
この発明の一実施形態に係るリソース決定装置の第1の態様によれば、仮想マシンが収容される物理マシンのリソースの運用状態の監視結果、仮想マシンの処理負荷に基づいて、仮想マシンの処理性能の要件及び仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、仮想マシンに配置されるリソース量が算出されるので、仮想マシンに必要なリソース量を適切に求め、リソース決定にかかる人的コストを低減することができる。
この発明の一実施形態に係るリソース決定装置の第2の態様によれば、仮想マシンの処理負荷、仮想マシンの処理性能の要件、仮想マシンのリソースの運用状態のポリシ、及び仮想マシンが収容される物理マシンのリソースの運用状態の監視結果のうち少なくとも1つが変動したときに、仮想マシンの処理性能の要件及び仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、仮想マシンに配置されるリソース量が再度算出されるので、リソース量を適切に調整できる。
この発明の一実施形態に係るリソース決定装置の第3の態様によれば、リソースが実装された仮想マシンが収容される物理マシンのリソースの運用状態、リソースが実装された仮想マシンのリソースの運用状態、リソースが実装された仮想マシンの処理負荷、リソースが実装された仮想マシンの処理性能がそれぞれ監視されて、その結果が出力され、この監視結果に基づいて必要に応じて前記モデルが再学習される。監視データの蓄積量に伴い、モデルを用いたリソース量の算出精度を向上することが可能である。また、監視結果に応じて、仮想マシンに配置されるリソース量が算出されるので、ユーザが設定してなくても、自主的にリソース量を適切に求めることができ、仮想マーションの処理性能を維持することができる。
すなわち、本発明によれば、仮想マシンに必要なリソース量を適切に求めることが可能になる。
本発明の一実施形態に係るリソース決定装置の適用例を示す図。 本発明の一実施形態に係るリソース決定装置の実装方式の一例を示す図。 本発明の一実施形態に係るリソース決定装置が入力する環境条件の影響の一例を示す図。 本発明の一実施形態に係るリソース決定装置が入力する運用ポリシに制限を設けない場合に発生しやすい運用問題の一例を示す図。 本発明の一実施形態に係るリソース決定装置が出力する監視データの一例を表形式で示す図。 本発明の一実施形態に係るリソース決定装置に適用されるモデルの一例を示す図。 本発明の一実施形態に係るリソース決定装置のリソース量算出部のロジックの一例を示す図。 本発明の一実施形態に係るリソース決定装置に適用されるニューラルネットワークモデル・学習手法における第1のモデルの一例を示す図。 本発明の一実施形態に係るリソース決定装置に適用されるニューラルネットワークモデル・学習手法における第2のモデルの一例を示す図。 本発明の一実施形態に係るリソース決定装置のリソース量算出部のロジックの一例を示す図。 本発明の一実施形態に係るリソース決定装置によるサービス開通、スケーリングの支援の流れの一例を示す図。 本発明の一実施形態に係るリソース決定装置によるサービス開通する際における、VMに配置されるリソース量の算出の具体例を示す図。 本発明の一実施形態に係るリソース決定装置によるサービス開通後のスケーリングにおける、VMに配置されるリソース量の調整の具体例を示す図。
以下、図面を参照しながら、この発明に係わる一実施形態を説明する。
本実施形態に係るリソース決定装置は、有スキル者に依存せずに、サービス開通する際にユーザが求めるサービスのパフォーマンス要件を満たすために、ワークロード、環境条件、運用ポリシに応じて、仮想マシン(VM)に配置される必要なリソース量を自動的に決定する。ワークロードは仮想マシンの処理負荷に対応し、パフォーマンス要件は仮想マシンの処理性能要件に対応し、環境条件は、仮想マシンが収容される物理マシンのリソースの運用状態に対応し、運用ポリシは、仮想マシンのリソースの運用状態のポリシに対応する。
また、本実施形態に係るリソース決定装置は、サービスを運用する際に、ユーザが求めるサービスのパフォーマンス要件を満たし続けるために、パフォーマンス要件、ワークロード、環境条件、運用ポリシの少なくとも1つが変動する際に、VMに配置されるリソース量を自動的に調整する。
故に、クラウドサービスのパフォーマンス要件を保障し、パフォーマンス単位でクラウドサービスの契約を可能にし、クラウドサービスを提供するための人的なコストを削減する、等の効果が期待できる。
図1は、本発明の一実施形態に係るリソース決定装置の適用例を示す図である。
図1に示すように、本発明の一実施形態に係るリソース決定装置10は、モデル管理・保存部11、リソース量算出部12、VM実装・スケーリング制御部13、監視・データ収集部14を備える。VM実装・スケーリング制御部13と監視・データ収集部14とをあわせて実装・監視部と称することもできる。
また、リソース決定装置10は、パーソナルコンピュータ(PC)などのコンピュータデバイスを用いたシステムにより実現可能である。例えば、コンピュータデバイスは、CPUなどのプロセッサと、プロセッサに接続されるメモリと、入出力インタフェースとを備える。このうちメモリは、不揮発性メモリなどの記憶媒体を有する記憶装置により構成される。
リソース決定装置10のリソース量算出部12、VM実装・スケーリング制御部13、監視・データ収集部14の機能は、例えば、プロセッサがメモリに格納されているプログラムを読み出して実行することにより実現される。なお、これらの機能の一部又は全部は、特定用途向け集積回路(ASIC)などの回路によって実現されてもよい。
モデル管理・保存部11は、上記メモリのうち随時書込及び読み出しが可能な不揮発性メモリに設けられる。
モデル管理・保存部11は、VMのパフォーマンス、VMのワークロード、VMのリソースの運用状態、環境条件とリソース量との関係性(相互影響度合)を表すフィッティング・学習モデル(以下、後述するフィッティングモデル又は学習モデル)を記憶する。このフィッティング・学習モデルは初期モデルに対し、過去監視データを用いて図示しない既存の学習器によりフィッティング・学習することで生成される。過去監視データとは、クラウドサービスを提供する際に蓄積された、ワークロードに関するログデータ、パフォーマンスに関するログデータ、VMのリソースの運用状態に関するログデータ、環境条件に関するログデータ、リソース量に関するログデータ、等によって構成される。
リソース量算出部12は、入力データ(ワークロードに関するログデータ)、パフォーマンス要件、運用ポリシ、環境条件に関するログデータ)をフィッティング・学習モデルに入力することで、VMに配置される必要なリソース量を算出する。
環境条件に関するログデータは監視・データ収集部14部の出力となる監視データからリアルタイムに抽出することができる。ワークロードに関するログデータは、クラウドユーザの設定データあるいは上記の監視データから抽出が可能である。パフォーマンス要件は、クラウドユーザが設定可能である。運用ポリシは、クラウドユーザあるいはクラウド提供者が設定可能である。
VM実装・スケーリング制御部13は、リソース量算出部12の出力である、VMに配置される必要なリソース量に従って、VMを実装あるいはスケーリングし、他のオペレーションサポートシステムと連携してサービスを提供する。
監視・データ収集部14は、VM実装・スケーリング制御部13により実装あるいはスケーリングされたVMまたはVMを収容する物理マシンに関する監視データを収集する。
具体的には、監視・データ収集部14は、VM実装・スケーリング制御部13により実装あるいはスケーリングされたVMのパフォーマンスに関するログデータ、VM実装・スケーリング制御部13により実装あるいはスケーリングされたVMのワークロードに関するログデータ、VM実装・スケーリング制御部13により実装あるいはスケーリングされたVMのリソースの運用状態に関するログデータ、VM実装・スケーリング制御部13により実装あるいはスケーリングされたVMを収容する物理マシンに関する環境条件に関するログデータ、VM実装・スケーリング制御部13により実装あるいはスケーリングされたVMのリソース量に関するログデータ、等でなる監視データを収集し、また、この監視データを過去監視データとしてフィッティング・学習モデルの継続学習(更新)に用いることもできる。
VM実装・スケーリング制御部13の機能を実現する方法は、以下の(1)、(2)が挙げられる。
(1)必要なリソース量をYAML(yaml ain't markup language)に書き込み、HEATに渡してVMを実装する。
(2)必要なリソース量をTOSCA(Topology and Orchestration Specification for Cloud Applications)に書き込み、Tackerに渡してVMを実装する。
監視・データ収集部14を実現する方法としては、openstack(登録商標) ceilometer、top、dstat、sar、httpry等を用いて監視・収集する方法が挙げられる。
YAML、HEAT、TOSCA、Tacker、openstack ceilometerは以下に開示されている。
YAML:http://yaml.org/
HEAT:https://wiki.openstack.org/wiki/Heat
TOSCA:http://docs.oasis-open.org/tosca/tosca-nfv/v1.0/tosca-nfv-v1.0.html
Tacker:https://wiki.openstack.org/wiki/Tacker
openstack ceilometer:https://docs.openstack.org/ceilometer/queens/
次に、リソース決定装置10をシステムとして実装する方式の例について説明する。図2は、本発明の一実施形態に係るリソース決定装置の実装方式の一例を示す図である。
図2に示す方式では、モデル管理・保存部11、リソース量算出部12、VM実装・スケーリング制御部13、監視・データ収集部14でなる各機能部を一つの計算機に実装する方式、または各機能部をそれぞれ単独に計算機に実装する方式が挙げられる。
機能部間の通信はhttp等の通信プロトコルによって実現可能である。
また、クラウドリソースを提供する物理サーバ(ホスト)群20を設け、各サーバに、監視client、及びVM実装clientをそれぞれ実装する。
監視clientと監視・データ収集部14間の通信、及びVM実装clientとVM実装・スケーリング制御部13間の通信は、http等の通信プロトコルによって実現可能である。
上記のように、リソース決定装置10は、ワークロード、パフォーマンス要件、運用ポリシ、環境条件を考慮して、VMに配置するリソース量を決定できる。
また、パフォーマンス要件を満たしつつ、運用ポリシに従って、サービスを運用可能である。
また、(1)パフォーマンス要件の新規追加、変更、及び(2)ワークロード、環境条件、及び運用ポリシの変更に応じて、リアルタイムで適切なリソース量を算出することができる。
次に、環境条件によるVMのパフォーマンスへの影響について説明する。
図3は、本発明の一実施形態に係るリソース決定装置が入力する環境条件の影響の一例を示す図である。
環境条件の例としては、ホスト混雑度(即ちホストリソース利用率)が挙げられる。
ホスト混雑度の変動によって、VMの処理能力等のパフォーマンス指標が変動する可能性がある。従って、パフォーマンス要件を満たし続けるために、ホスト混雑度を考慮して、VMに配置されるリソース量を決定及び調整する必要がある。
次に、VMに配置されるリソース量を決定する際に、ホスト混雑度を考慮する必要性を示す。
まず、混雑度が低いホスト(図3に示した例では、ホストCPU(ホストに搭載されたCPU)利用率が0[%]であるホスト(A))に配置された、vCPU数が4であるVM(A)のパフォーマンスと、混雑度が高いホスト(図3に示した例では、ホストCPU利用率が90[%]であるホスト(B))に配置された、vCPU数が4であるVM(B)のパフォーマンスとは等しくない可能性が高い。そのため、同じパフォーマンス要件を満たすため、VM(B)に、VM(A)と比較して、より多くのリソースを配置する必要がある。
また、ホスト混雑度が極めて高い場合は、該当ホストに収容されるVMに配置されるリソース量を増やしてもパフォーマンス要件を満たせない可能性があり、この場合、VMを他のホストに配置する必要がある。
次に、運用ポリシを考慮する必要性について説明する。図4は、本発明の一実施形態に係るリソース決定装置が入力する運用ポリシを制限しない場合に発生しやすい運用問題の一例を示す図である。
運用ポリシの例としては、VM内のリソース利用率制限が挙げられる。
サービスの差別化、運用の安定性向上、及びリソース利用効率化、等のため、クラウド提供者のVM内のリソース利用率に制限を定めることがある。図4では、リソース利用率制限を定めないことが、パフォーマンス要件の不満足、ボトルネックの発生、リソース利用効率の低下につながることを示す。
VM内のリソース利用率を制限範囲に維持するには、ワークロードに応じて、VMに配置されるリソース量を決定・調整する必要がある。
図4に示した第1の例では、VM(vCPU数=3)内のリソース利用率がすでに100[%]であることから、VMが提供できる処理力がワークロード処理量要件(要求処理量)を満たせない。
図4に示した第2の例では、ワークロード等の増加によって、VM(vCPU数=4)内のリソース利用率が70[%]から100[%]に増加したことから、SLA(Service Level Agreement)に違反する可能性が上昇する。
図4に示した第3の例では、サービスを構成する複数のVM(例えば1つ目のVM(vCPU数=4)、2つ目のVM(vCPU数=6))において、1つ目のVM内のリソース利用率が99[%]で2つ目のVM内のリソース利用率が20[%]であることから、リソース使用率が高い1つ目のVMがボトルネックになる可能性が高い。また、2つ目のVMに過剰なリソースが配置されることを防ぐことができないため、2つ目のVMのリソース利用効率が低下する可能性がある。
上記を踏まえ、VM内のリソース利用率を適切な範囲(例えば、50〜70[%])に維持することによって、(1)パフォーマンス要件の達成、(2)ボトルネックの防止、及び(3)ワークロード増減に応じてリソースを効率的に配置する、等の効果がある。
該当のパフォーマンス要件に対して、VM内のリソース利用率を適切な範囲に維持するためには、適切なリソース量を決定する必要がある。
次に監視データの例について説明する。図5は、本発明の一実施形態に係るリソース決定装置が出力する監視データの一例を表形式で示す図である。
図5に示した例では、監視データは、timestamp(年月日)、sent requests per second、received responses per second、average process time[ms]、VMに配置したvCPU数、VMに配置したメモリ量[GB]、VMに配置したstorage size[GB]、VM内のCPU利用率[%]、VM内のメモリ利用率[%]、ホストCPU利用率[%]、ホストメモリ(ホストに配置されたメモリ)利用率[%]を含む。その他、監視データは、i/o throughput、storage 利用率、paging ratioなどを含んでもよい。
timestampは、1分ごとに過去監視データを収集することを示す。
sent requests per secondはワークロードの量に関するログデータに対応する。
received responses per second、average process timeは、パフォーマンスに関するログデータに対応する。また、received responses per secondは、該当環境条件及び運用ポリシのときに実際に処理したワークロードの量を示す。
VMに配置したvCPU数、VMに配置したメモリ量、VMに配置したstorage sizeは、VMに配置されたリソース量に関するログデータに対応する。
VM内のCPU利用率、VM内のメモリ利用率は、VMのリソースの運用状態に対応する。
ホストCPU利用率、ホストメモリ利用率は、環境条件に対応する。
次に、リソース決定装置10の実現にかかる詳細について説明する。
モデルの形、モデルのフィッティング・学習手法及びリソース量の算出手法の実現手法は複数存在する。ここでは以下の2つの例をあげる。
(1)数理モデル・フィッティング手法
(2)ニューラルネットワークモデル(Neural Network Model)・学習手法
数理モデル・フィッティング手法のモデル、フィッティング手法は、以下のとおりである。
モデル:数理関数、例えば線形モデル、多項式モデル及びその組み合わせ
フィッティング手法:選定された関数にフィッティング(近似)する。
ニューラルネットワークモデルのモデル、学習手法は、以下のとおりである。
モデル:ニューラルネットワークモデル
学習手法:過去監視データを訓練データとして、ニューラルネットワークを学習させる。
次に、上記の2種類の手法をそれぞれ使ってモデルを生成し、この生成されたモデルを使って、ワークロード、ワークロード処理能力要件(パフォーマンス要件の一種)、ホスト混雑度(環境条件の一種)、VM内のリソース利用率制限(運用ポリシの一種)に応じて、VMに割り当てられるvCPU数(リソース量の一種)を算出する例を説明する。
次に、モデルの形について説明する。図6は、本発明の一実施形態に係るリソース決定装置に適用されるモデルの一例を示す図である。
フィッティング・学習モデルに相当する、リソースパラメータ決定・変更用モデルは、リソースパラメータ、ワークロード、環境条件を入力し、パフォーマンスに関する推測結果、及びVMのリソースの運用状態に関する推測結果をそれぞれ出力する。
リソースパラメータは、リソース量(e.g. vCPU: x[個]、memory: y [MB])を含む。
ワークロードは、ワークロード種類・特性(e.g. LB(Load Balancer)/ WS/ DB...)、ワークロード量(e.g. 1000[requests/s]...)を含む。
環境条件は、Hostリソース利用率(混雑度)(e.g. ホストCPU利用率20[%]...)、その他ハードウエア条件を含む。
パフォーマンスに関する推測結果は、パフォーマンス(workload収容量等)(e.g. m [requests/s]...)を含む。
VMのリソースの運用状態に関する推測結果は、VM リソース利用率(e.g. CPU: 60〜80[%]、 memory: < 60[%])を含む。
次に、数理モデル・フィッティング手法の例について説明する。図6は、本発明の一実施形態に係るリソース決定装置に適用される数理モデル・フィッティング手法の一例を示す図である。
数理モデル・フィッティング手法における初期モデルは、2つの多項式モデルf1、f2を用いて構成される。多項式モデルの選定基準は、過去監視データに対する観察分析結果である。また、多項式モデル以外に、他の数理モデルの形もありうる。
モデルf1は、パフォーマンスを推測するモデルで、VM最大ワークロード処理能力を求めるモデルである。
VM最大ワークロード処理能力は、以下の式(1)で表される。
VM最大ワークロード処理能力=f1(vCPU数、ホスト混雑度) …式(1)
VM最大ワークロード処理能力は、過去監視データから、該当のvCPU数とホスト混雑度に対して抽出することができる。
モデルf2は、VMのリソースの運用状態を推測するモデルで、VM内のリソース利用率を求めるモデルである。
VM内のリソース利用率は、以下の式(2)で表される。
VM内のリソース利用率=f2(vCPU数、ワークロード) …式(2)
過去監視データに対する観察分析では、VM内のリソース利用率は、vCPU数とワークロードに影響され、ホスト混雑度に影響されないことが示されている。
学習器により、初期モデルに過去監視データがフィッティングされることよって、初期モデルの関数f1とf2が確定されて、フィッティングモデルが生成される。
次に、数理モデル・フィッティング手法におけるモデルを用いたときの、リソース量算出部のロジックについて説明する。図7は、本発明の一実施形態に係るリソース決定装置のリソース量算出部のロジックの一例を示す図である。
まず、リソース量算出部12は、ワークロードのログデータ、パフォーマンス要件(ワークロード処理能力要件)、環境条件(ホストの混雑度)のログデータ、及び運用ポリシ(VM内のリソース利用率制限)をそれぞれ入力する(S11)。
リソース量算出部12は、S11での入力結果と、数理モデル・フィッティング手法におけるモデルの関数f1とを用いて、現時点で入力されたホストの混雑度において、vCPU数が設定許容値最小値から最大値までの条件におけるパフォーマンス(VMの最大ワークロード処理能力)をそれぞれ算出する(S12)。この算出結果は、パフォーマンスに関する推測結果に対応する。
リソース量算出部12は、S12で算出したパフォーマンス(VMの最大ワークロード処理能力)を、クラウドユーザにより設定されるパフォーマンス要件(ワークロード処理能力要件)と比較して、当該パフォーマンス要件を満たせるリソース量(vCPU数)を選出する(S13)。この選出結果は、パフォーマンス要件を満たせるリソース量の選出結果に対応する。ここで選出されるvCPU数は単一種類(例えば4つ)であってもよいし、複数種類(例えば、4つ、5つ)であってもよい。
リソース量算出部12は、S11での入力結果と、数理モデル・フィッティング手法におけるモデルの関数f2とを用いて、S11で入力されたワークロードにおいて、S13で選出されたvCPU数に対して、VM内のリソース利用率を算出する(S14)。この算出結果は、VMのリソースの運用状態に関する推測結果に対応する。
リソース量算出部12は、S11で入力された、VM内のリソース利用率制限を満たせるために必要なvCPU数を選出する(S15)。この選出結果は、運用ポリシを満たせるリソース量の選出結果に対応する。
リソース量算出部12は、S15での選出結果であるvCPU数を、ワークロード処理能力要件、運用ポリシをそれぞれ満たせる、VMに配置するリソース量としてVM実装・スケーリング制御部13に出力する(S16)。
次に、上記のニューラルネットワークモデル・学習手法の例について説明する。
ニューラルネットワークモデル・学習手法における初期モデルは、2つのニューラルネットワークモデル(モデルA、モデルB)によって構成される。
モデルAは、VMのパフォーマンスを推測するモデルであって、ワークロード処理量に対して、該当のホスト混雑度及びVM内のリソース利用率の条件で、処理できるワークロード量を算出するモデルである。
図8は、本発明の一実施形態に係るリソース決定装置に適用されるニューラルネットワークモデル・学習手法における第1のモデルの一例を示す図である。
図8に示すように、モデルAは、ワークロード、ホストCPUリソース混雑度、VM内のCPUリソース利用率、vCPU数を入力し、VMが処理できるワークロード処理量を出力する。
モデルBは、VMのリソースの運用状態を推測するモデルであって、要求されたワークロード要件及び該当ホスト混雑度に対して、VM内のリソース利用率を算出するモデルである。
図9は、本発明の一実施形態に係るリソース決定装置に適用されるニューラルネットワークモデル・学習手法における第2のモデルの一例を示す図である。
図9に示すように、モデルBは、ワークロード、ホストCPUリソース混雑度、ワークロード処理量、vCPU数を入力し、VM内のCPUリソース利用率を出力する。
過去監視データの一部分が訓練データとして初期モデルに入力されて、ニューラルネットワークに学習させることで、学習モデルが生成される。また、リソース決定装置10は、過去監視データの一部分を用いて、学習モデルの精度を評価する。
また、図8、9に示したニューラルネットワークモデルの形以外に、他のニューラルネットワークモデルの形もありうる。
次に、ニューラルネットワークにおけるモデルを用いたときの、リソース量算出部のロジックについて説明する。図10は、本発明の一実施形態に係るリソース決定装置のリソース量算出部のロジックの一例を示す図である。
まず、リソース量算出部12は、ワークロードのログデータ、パフォーマンス要件(ワークロード処理能力要件)、環境条件(ホストの混雑度)のログデータ、及び運用ポリシ(VM内のリソース利用率制限)をそれぞれ入力する(S21)。
リソース量算出部12は、S21での入力結果と、ニューラルネットワークにおけるモデルのモデルAを用いて、現時点のワークロード及びホスト混雑度において、vCPU数が最小値から最大値までの条件におけるパフォーマンス(VMが処理できるワークロード量)を算出する(S22)。この算出結果は、パフォーマンスに関する推測結果に対応する。
リソース量算出部12は、S12で算出されたパフォーマンス(VMが処理できるワークロード量)と、クラウドユーザにより設定されるパフォーマンス要件(VMが処理できるワークロード量の要件)とを比較して、当該パフォーマンス要件を満たせるリソース量(vCPU数)を選出する(S23)。この選出結果は、パフォーマンス要件を満たせるリソース量の選出結果に対応する。
リソース量算出部12は、S21での入力結果と、ニューラルネットワークにおけるモデルのモデルBを使って、S21で入力されたワークロード及びホスト混雑度において、S21で入力されたvCPU数に対して、VM内のリソース利用率を算出する(S24)。この算出結果は、VMのリソースの運用状態に関する推測結果に対応する。
リソース量算出部12は、S21で入力された、VM内のリソース利用率制限を満たすために必要なvCPU数を選出する(S25)。この選出結果は、運用ポリシを満たせるリソース量の選出結果に対応する。
リソース量算出部12は、S15での選出結果であるvCPU数を、ワークロード処理能力要件、運用ポリシをそれぞれ満たせる、VMに配置するリソース量としてVM実装・スケーリング制御部13に出力する(S26)。
次に、リソース決定装置10を用いて、サービス開通・スケーリングを支援する例について説明する。図11は、本発明の一実施形態に係るリソース決定装置によるサービス開通、スケーリングの支援の流れの一例を示す図である。
(1)サービス開通する際に、リソース決定装置10のリソース量算出部12は、ワークロード、パフォーマンス要件、環境状況、運用ポリシに応じて、VMに配置されるリソース量を算出する。
(2)サービス開通後に、サービスの運用保守とともに、リソース量算出部12は、ワークロード、パフォーマンス要件、環境状況、運用ポリシの監視の結果を取得し、この監視の結果の変化に応じて、VMに配置されたリソース量を調整(スケーリング)する。
次に、サービス開通する際における、VMに配置されるリソース量の算出の具体例について説明する。図12は、本発明の一実施形態に係るリソース決定装置によるサービス開通する際における、VMに配置されるリソース量の算出の具体例を示す図である。
ここでは、初期モデルにニューラルネットワークが用いられる。
図12に示した例において、クラウドサービスを開通する際に、リソース決定装置10のリソース量算出部12は、パフォーマンス要件を満たすために、ワークロード、ホスト混雑度(環境条件の一種)、VM内のリソース利用率制限(運用ポリシの一種)に応じて、VMに配置される必要なリソース量(vCPU数、メモリ量)をそれぞれ算出する。必要なリソース量とは、パフォーマンス要件、運用ポリシをそれぞれ満たせるリソース量である。
初期モデルにはニューラルネットワークモデルが用いられる。ニューラルネットワークモデルの構築、学習は、既存の機械学習ライブラリ例えばtensorflow(登録商標)(例えばhttps://www.tensorflow.org/を参照)によって実現可能である。
ここでは、過去に提供されたサービスの過去監視データが学習器に入力されて学習モデルが生成されてモデル管理・保存部11に格納されている。
リソース量算出部12が入力する、新規のサービスのワークロード(種類:web server、特徴値:web pageサイズ=10[KB]の条件)は10000[requests per second]であり、VM内のリソース利用率制限は50〜70[%]に定められ、VMが配置されようとしているホストのCPUリソースの混雑度は10[%]で、当該ホストのメモリリソースの混雑度は40[%]である。
リソース量算出部12は、ワークロード、VM内のリソース利用率制限、VMが配置されようとしているホストのCPUリソースの混雑度は、当該ホストのメモリリソースの混雑度を入力し、パフォーマンス要件(97%以上のrequestsを処理する)を満たすために、VMに配置されるリソース量(vCPU数:4、メモリ量:1[GB])を算出する。
VM実装・スケーリング制御部13は、vCPU数が4で、メモリ量が1[GB]のVMを実装し、他のオペレーションサポートシステムと連携してサービスを提供する。
監視・データ収集部14は、サービスのワークロード、パフォーマンス、サービスを収容するVM内のリソース利用率、ホストの混雑度、リソース量等を監視し、監視データを収集する。監視・データ収集部14は、収集した、ホストの混雑度をリソース量算出部12の入力であるホスト混雑度をリアルタイムに更新する。また、定期的に監視データを過去監視データとして学習器に渡して再学習させることで、モデルを更新することができる。
次に、サービス開通後のスケーリングにおける、VMに配置されるリソース量の調整の具体例について説明する。図13は、本発明の一実施形態に係るリソース決定装置によるサービス開通後のスケーリングにおける、VMに配置されるリソース量の調整の具体例を示す図である。
ここでは、初期モデルにニューラルネットワークが用いられる。
図13に示した例において、運用中のクラウドサービスにおいて、リソース決定装置10のリソース量算出部12は、パフォーマンス要件、ワークロード、ホスト混雑度(環境状況の一種)、VM内のリソース利用率制限(運用ポリシの一種)のうち少なくとも1つが変動する際に、パフォーマンス要件を満たし続けるための、VMのリソース量(vCPU数、メモリ量)を調整する。ここではパフォーマンス要件は変動しない例について説明するが、このパフォーマンス要件が変動する際に、この要件を満たし続けるためのVMのリソース量を調整することも考えられる。
ここでは、過去監視データが学習器に入力されて、学習モデルが生成されてモデル管理・保存部11に格納されている。
サービスのワークロード量が10000[requests per second]から20000[requests per second]に変更され、VM内のリソース利用率制限が50〜70[%]から60〜80[%]に変更され、また、VMが収容されるホストのCPUリソースの混雑が10[%]から30[%]に変動し、ホストのメモリリソースの混雑度が40[%]から50[%]に変動したと仮定する。
リソース量算出部12は、これらの変動した情報を入力し、サービス開通時からのパフォーマンス要件(97[%]以上のrequestsを処理する)を満たし続けるために、適切なリソース量(vCPU数:10メモリ:1.5[GB])を算出する。
VM実装・スケーリング制御部13は、リソース量算出部12による算出結果を受けて、VMにおいて実装されるvCPU数を4から10にスケールアップし、実装されるメモリ量を1[GB]から1.5[GB]にスケールアップする。
監視・データ収集部14は、提供したサービスのワークロード、パフォーマンス、サービスが収容されるVM内のリソース利用率、ホストCPU及びメモリの混雑度、リソース量をそれぞれ監視し、データを収集する。
監視・データ収集部14により収集されたホスト混雑度により、リソース量算出部12の入力となるホスト混雑度がリアルタイムに更新され、また、過去監視データとして学習器に渡され、再学習することで、学習モデルを更新することができる。
以上説明したように、本発明の一実施形態に係るリソース決定装置は、仮想マシンが収容される物理マシンのリソースの運用状態の監視結果、仮想マシンの処理負荷に基づいて、仮想マシンの処理性能の要件及び仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、仮想マシンに配置されるリソース量を算出するので、仮想マシンに必要なリソース量を適切に求め、リソース決定にかかる人的コストを低減することができる。
なお、本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
また、各実施形態に記載した手法は、計算機(コンピュータ)に実行させることができるプログラム(ソフトウエア手段)として、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウエア手段(実行プログラムのみならずテーブル、データ構造も含む)を計算機内に構成させる設定プログラムをも含む。本装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウエア手段を構築し、このソフトウエア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスク、半導体メモリ等の記憶媒体を含むものである。
10…リソース決定装置、11…モデル管理・保存部、12…リソース量算出部、13…VM実装・スケーリング制御部、14…監視・データ収集部。

Claims (5)

  1. 仮想マシンの処理負荷、前記仮想マシンの処理性能、前記仮想マシンが収容される物理マシンのリソースの運用状態、及び前記仮想マシンのリソースの運用状態と、前記仮想マシンに配置されるリソース量との関係を示すモデルを格納する格納部と、
    前記仮想マシンが収容される物理マシンのリソースの運用状態の監視結果、前記仮想マシンの処理負荷、及び前記格納部に格納されるモデルに基づいて、前記仮想マシンの処理性能の要件及び前記仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、前記仮想マシンに配置されるリソース量を算出する算出手段と、
    を備えたリソース決定装置。
  2. 前記算出手段は、
    前記仮想マシンの処理負荷、前記仮想マシンの処理性能の要件、前記仮想マシンのリソースの運用状態のポリシ、及び前記仮想マシンが収容される物理マシンのリソースの運用状態の監視結果のうち少なくとも1つが変動したときに、前記仮想マシンの処理性能の要件及び前記仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、前記仮想マシンに配置されるリソース量を再度算出する、
    請求項1に記載のリソース決定装置。
  3. 前記算出手段による算出結果に基づいて、前記仮想マシンにリソースを実装する実装手段と、
    前記実装手段によりリソースが実装された前記仮想マシンが収容される前記物理マシンのリソースの運用状態、前記実装手段によりリソースが実装された仮想マシンのリソースの運用状態、前記実装手段によりリソースが実装された仮想マシンの処理負荷、前記実装手段によりリソースが実装された仮想マシンの処理性能をそれぞれ監視し、前記監視結果として出力する監視手段と、
    をさらに備え、
    前記モデルは、前記監視手段による監視結果に基づいて学習され、
    前記算出手段は、
    前記実装手段によりリソースが実装された仮想マシンの処理負荷、前記実装手段によりリソースが実装された仮想マシンが収容される物理マシンのリソースの運用状態の監視結果、及び前記格納部に格納されるモデルに基づいて、前記仮想マシンの処理性能の要件及び前記仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、前記仮想マシンに配置されるリソース量を算出する、
    請求項1に記載のリソース決定装置。
  4. リソース決定装置が行うリソース決定方法であって、
    仮想マシンの処理負荷、前記仮想マシンの処理性能、前記仮想マシンが収容される物理マシンのリソースの運用状態、及び前記仮想マシンのリソースの運用状態と、前記仮想マシンに配置されるリソース量との関係を示すモデルを格納部から取得し、前記取得されたモデルと、前記仮想マシンが収容される物理マシンのリソースの運用状態の監視結果と、前記仮想マシンの処理負荷とに基づいて、前記仮想マシンの処理性能の要件及び前記仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、前記仮想マシンに配置されるリソース量を算出する、リソース決定方法。
  5. 請求項1乃至3のいずれか1項に記載のリソース決定装置の前記各手段としてプロセッサを機能させるリソース決定処理プログラム。
JP2018203673A 2018-10-30 2018-10-30 リソース決定装置、方法及びプログラム Active JP6984576B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018203673A JP6984576B2 (ja) 2018-10-30 2018-10-30 リソース決定装置、方法及びプログラム
US17/289,398 US11995460B2 (en) 2018-10-30 2019-10-29 Resource determination device, method, and program
PCT/JP2019/042411 WO2020090830A1 (ja) 2018-10-30 2019-10-29 リソース決定装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018203673A JP6984576B2 (ja) 2018-10-30 2018-10-30 リソース決定装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020072327A JP2020072327A (ja) 2020-05-07
JP6984576B2 true JP6984576B2 (ja) 2021-12-22

Family

ID=70463769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018203673A Active JP6984576B2 (ja) 2018-10-30 2018-10-30 リソース決定装置、方法及びプログラム

Country Status (3)

Country Link
US (1) US11995460B2 (ja)
JP (1) JP6984576B2 (ja)
WO (1) WO2020090830A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240248745A1 (en) * 2021-03-25 2024-07-25 Nippon Telegraph And Telephone Corporation Resource determination device, method, and program
CN115643178B (zh) * 2022-10-26 2024-12-06 新华三信息安全技术有限公司 一种网络靶场配置方法、装置、设备及机器可读存储介质
CN117858262B (zh) * 2024-03-07 2024-05-14 成都爱瑞无线科技有限公司 基站资源调度优化方法、装置、基站、设备、介质及产品

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012511292A (ja) * 2008-12-10 2012-05-17 エヌイーシー ヨーロッパ リミテッド 基盤ネットワーク上で少なくとも1つの仮想ネットワークを動作させる方法および仮想ネットワーク環境
US9274918B2 (en) * 2013-07-25 2016-03-01 International Business Machines Corporation Prediction of impact of workload migration
US11307884B2 (en) * 2014-07-16 2022-04-19 Vmware, Inc. Adaptive resource management of a cluster of host computers using predicted data
JP6466789B2 (ja) * 2015-06-22 2019-02-06 日本電信電話株式会社 物理経路割当装置、物理経路割当方法、及びプログラム
JP6885403B2 (ja) * 2016-07-21 2021-06-16 日本電気株式会社 リソース管理装置、リソース管理方法及びプログラム

Also Published As

Publication number Publication date
JP2020072327A (ja) 2020-05-07
US20220004419A1 (en) 2022-01-06
WO2020090830A1 (ja) 2020-05-07
US11995460B2 (en) 2024-05-28

Similar Documents

Publication Publication Date Title
US11799901B2 (en) Predictive rate limiting system for cloud computing services
Polamarasetti Machine learning techniques analysis to Efficient resource provisioning for elastic cloud services
Ghanbari et al. Exploring alternative approaches to implement an elasticity policy
Wood et al. Sandpiper: Black-box and gray-box resource management for virtual machines
US8661136B2 (en) Method and system for work load balancing
WO2017000628A1 (zh) 一种云计算系统中的资源调度方法及装置
US20120221730A1 (en) Resource control system and resource control method
Duggan et al. A reinforcement learning approach for the scheduling of live migration from under utilised hosts
Al-Dulaimy et al. Multiscaler: A multi-loop auto-scaling approach for cloud-based applications
CN113543160B (zh) 5g切片资源配置方法、装置、计算设备及计算机存储介质
JP6984576B2 (ja) リソース決定装置、方法及びプログラム
Bauer et al. On the value of service demand estimation for auto-scaling
Chouliaras et al. Auto-scaling containerized cloud applications: A workload-driven approach
Kim et al. Dynamic control of cpu usage in a lambda platform
Klusáček et al. Analysis of mixed workloads from shared cloud infrastructure
Carrusca et al. Microservices management on cloud/edge environments
Dechouniotis et al. A control‐theoretic approach towards joint admission control and resource allocation of cloud computing services
Rout et al. A Dynamic Scalable Auto-Scaling Model as a Load Balancer in the Cloud Computing Environment.
Singh et al. Decentralized LPV-MPC controller with heuristic load balancing for a private cloud hosted application
Sood Function points‐based resource prediction in cloud computing
Giannakopoulos et al. Smilax: statistical machine learning autoscaler agent for apache FLINK
EP4357975A1 (en) Improved prediction methods of resource usage or physical quantities
Melhem et al. Minimizing biased VM selection in live VM migration
Shi et al. Power-aware performance management of virtualized enterprise servers via robust adaptive control
Vachhani et al. Enhancing Cloud Computing Efficiency: Dynamic and Predictive Resource Allocation and Load Balancing Strategies

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211108

R150 Certificate of patent or registration of utility model

Ref document number: 6984576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350