[go: up one dir, main page]

JP2018190355A - リソース管理方法 - Google Patents

リソース管理方法 Download PDF

Info

Publication number
JP2018190355A
JP2018190355A JP2017095021A JP2017095021A JP2018190355A JP 2018190355 A JP2018190355 A JP 2018190355A JP 2017095021 A JP2017095021 A JP 2017095021A JP 2017095021 A JP2017095021 A JP 2017095021A JP 2018190355 A JP2018190355 A JP 2018190355A
Authority
JP
Japan
Prior art keywords
resource
group
apl
server
applications
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017095021A
Other languages
English (en)
Inventor
悠司 大嶋
Yuji Oshima
悠司 大嶋
圭 大村
Kei Omura
圭 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017095021A priority Critical patent/JP2018190355A/ja
Publication of JP2018190355A publication Critical patent/JP2018190355A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)

Abstract

【課題】複数のアプリケーションを動作させるサーバにおいて、重要度の高いアプリケーションのリソース不足を防止し、かつ、リソースの利用効率を向上させる。
【解決手段】サーバ1は、サーバ1上で起動させるアプリケーション(コンテナ)の重要度に基づき、APLグループを作成する。そして、サーバ1は、重要度の高いAPLグループから優先的に、リソースを割り当てる。APLグループの各コンテナは、当該APLグループに割り当てられたリソースを共用する。その後、サーバ1は、APLグループそれぞれのリソース利用量を監視し、いずれかのAPLグループにおいてリソース不足が発生した場合、余剰リソースを持つAPLグループのリソース割り当て量の一部を、リソース不足が発生したAPLグループに割り当てる。
【選択図】図1

Description

本発明は、リソース管理方法に関する。
サーバ上で動作する様々なアプリケーションに計算リソース(リソース)を割り当てる際、アプリケーションから申告のあったリソース量を動的に割り当てる技術がある(非特許文献1参照)。このような技術によれば、サーバのリソースを有効利用できる。
Benjamin Hindman, et al.,"Mesos: A Platform for Fine-Grained Resource Sharing in the Data Center",NSDI. Vol. 11. No. 2011. 2011.
しかし、上記の技術は、各アプリケーションにリソースの割り当てを行った結果、リソースが枯渇してしまい、重要度の高いアプリケーションにリソースを割り当てることができないおそれがある。例えば、エッジコンピューティングアーキテクチャに用いられるサーバ等、限られたリソースで複数のアプリケーションを動作させる必要のあるサーバに、上記の技術によりリソースの割り当てを行った場合、重要度の低いアプリケーションがリソースを使い切ってしまい、重要度の高いアプリケーションにリソース不足が発生するおそれがある。
また、上記の技術では、各アプリケーションが利用リソース量の最大値を要求するため、要求通りにリソースを割り当てると、各アプリケーションでリソースを使い切らない場合もある。このため、リソースの利用効率が低くなる可能性がある。
そこで、本発明は、前記した問題を解決し、複数のアプリケーションを動作させるサーバにおいて、重要度の高いアプリケーションのリソース不足を防止し、かつ、リソースの利用効率を向上させることを課題とする。
前記した課題を解決するため、本発明は、サーバ上で動作する複数のアプリケーションに対するリソース割り当て量を管理するリソース管理装置において実行されるリソース管理方法であって、前記アプリケーションそれぞれの重要度を受け付ける受け付けステップと、前記受け付けた重要度に応じて、前記アプリケーションを2以上のグループにグルーピングするグルーピングステップと、前記重要度の高いアプリケーションのグループから優先的にリソースを割り当てるリソース割り当てステップと、前記グループそれぞれのアプリケーションのリソース利用量を監視する監視ステップと、前記監視の結果、割り当てリソース量に対する前記リソース利用量であるリソース利用率が所定値以上のグループを検出した場合、余剰リソースを持つグループのリソース割り当て量の少なくとも一部を、前記リソース利用率が前記所定値以上のグループに割り当てるリソース再割り当てステップと、を含んだことを特徴とする。
本発明によれば、複数のアプリケーションを動作させるサーバにおいて、重要度の高いアプリケーションのリソース不足を防止し、かつ、リソースの利用効率を向上させることができる。
図1は、本実施形態のサーバの構成例を示すブロック図である。 図2は、図1のリソース管理情報の例を示す図である。 図3は、図1のサーバの処理手順の概要を示すフローチャートである。 図4は、図3のS1の処理の詳細を示すフローチャートである。 図5は、図3のS2およびS3の処理の詳細を示すフローチャートである。 図6は、図3のS4の処理の詳細を示すフローチャートである。 図7は、リソース管理プログラムを実行するコンピュータを示す図である。
以下、図面を参照しながら、本発明の実施形態を説明する。なお、本発明は、以下に示す実施形態に限定されない。
まず、図1を用いて、本実施形態のリソース管理装置(リソース管理部13)が装備されるサーバ1の概要を説明する。
なお、サーバ1は、例えば、エッジコンピューティングアーキテクチャにおいてエッジサーバとして用いられるサーバであり、複数のアプリケーションを動作させるものとする。サーバ1は、例えば、管理用アプリケーション等、重要度が比較的高いアプリケーションと、3rdパーティの開発したアプリケーション等、重要度が比較的低いアプリケーションとを動作させる。
また、サーバ1の動作させる各アプリケーションは、例えば、コンテナ仮想化技術により、各アプリケーションが利用可能なリソース(CPUやメモリ等)が隔離されているものとする。例えば、サーバ1は、アプリケーションAのコンテナA、アプリケーションBのコンテナB、および、アプリケーションCのコンテナCを備える。
このサーバ1は、コンテナA,B,Cを、各コンテナのアプリケーションの重要度に基づきグルーピングする。例えば、サーバ1は、管理用アプリケーション等、比較的重要度の高いアプリケーションのコンテナA,BをAPLグループAにグルーピングし、3rdパーティの開発したアプリケーション等、比較的重要度の低いアプリケーションのコンテナCをAPLグループBにグルーピングする。
また、サーバ1は、優先度の高いアプリケーション(コンテナ)のAPLグループから優先的にリソースを割り当てる。例えば、サーバ1は、比較的重要度の高いアプリケーションのAPLグループAには、ユーザにより要求された当該アプリケーションの割り当てリソース量をそのまま割り当て、比較的重要度の低いアプリケーションのAPLグループBには、ユーザにより要求された当該アプリケーションの割り当てリソース量よりも少ない(例えば、8割程度の)リソースを割り当てる。
その後、サーバ1は、各APLグループのリソース利用量を監視し、いずれかのAPLグループで、リソース利用率が高くなっていれば、他のAPLグループの余剰リソースを割り当てる。例えば、サーバ1は、APLグループAのリソース利用率が高くなっており、APLグループBに余剰リソースがあれば、APLグループBの余剰リソースの一部を割り当てる。これにより、サーバ1は、重要度の高いアプリケーションのコンテナのリソース不足を防止し、かつ、リソースの利用効率を向上させることができる。
引き続き、図1を用いてサーバ1の構成例を説明する。図1に示すように、サーバ1は、例えば、コンテナA,B,Cと、ハードウェア11と、コンテナ制御部12と、リソース管理部13とを備える。
コンテナは、サーバ1上でアプリケーションが動作する当該アプリケーションの専用領域である。つまり、サーバ1上の各アプリケーションは、コンテナ仮想化技術によりリソースが隔離される。例えば、コンテナは、コンテナ制御部12により設定された割り当てリソース量の範囲内でリソースを利用する。これにより、サーバ1は、アプリケーションごとのリソース利用量を制限することができる。また、各アプリケーション間の通信はAPI(Application Programming Interface)を介して行うことになる。したがって、サーバ1は、アプリケーション間の通信の頻度等の制御を行いやすくなる。その結果、サーバ1は、一部のアプリケーションが大量の通信を重要なアプリケーションに対して行うことによる、システムの停止を防止することができる。
また、コンテナがAPLグループにグルーピングされた後は、APLグループは、当該APLグループ内の各コンテナリソース利用量の合計が、コンテナ制御部12により設定された当該APLグループの割り当てリソース量の範囲内でリソースを利用する。
例えば、サーバ1の作成したAPLグループが、管理用アプリケーション等、重要度が比較的高いアプリケーションのAPLグループAと、3rdパーティの開発したアプリケーション等、重要度が比較的低いアプリケーションとのAPLグループBとである場合を考える。
この場合、APLグループBの一部のアプリケーション(コンテナ)がリソースを大量に利用した場合でも、APLグループBは、APLグループB全体としてのリソース利用量が割り当てリソース量以内となるようリソースを利用する。例えば、サーバ1は、APLグループBのアプリケーションが必要とするリソースに対するオーバーコミットを行うことでAPLグループB全体としてのリソース利用量が割り当てリソース量以内となるようにする。その結果、サーバ1は、APLグループBの一部のアプリケーション(コンテナ)がリソースを大量に利用した場合でも、重要度が比較的高いアプリケーションに影響が及ばないようにすることができる。
ハードウェア11は、サーバ1の備えるCPUやメモリ、ハードディスク、通信インタフェース、入出力インタフェース等である。
コンテナ制御部12は、コンテナに対する各種制御を行う。例えば、コンテナ制御部12は、リソース管理部13のリソース管理情報131(詳細は後記)を参照して、コンテナ(アプリケーション)それぞれに、当該コンテナの割り当てリソース量を設定する。なお、各コンテナがAPLグループにグルーピングされた後は、コンテナ制御部12は、リソース管理情報131を参照して、APLグループそれぞれに、当該APLグループの割り当てリソース量を設定する。
リソース管理部13は、コンテナそれぞれの重要度に基づき、コンテナをAPLグループにグルーピングし、APLグループのそれぞれのリソース割り当て量を管理する。このリソース管理部13は、リソース管理情報131と、リソース割当部132と、リソース監視部133と、リソース再割当部134とを備える。
リソース管理情報131は、コンテナごとに、当該コンテナの割り当てリソース量と、当該コンテナの属するAPLグループと、当該APLグループの割り当てリソース量とを示した情報である。
例えば、図2に示すリソース管理情報131は、コンテナの識別情報と、当該コンテナの割り当てリソース量と、当該コンテナ(アプリケーション)の重要度と、当該コンテナの属するAPLグループと、当該APLグループの割り当てリソース量とを対応付けた情報である。このリソース管理情報131は、サーバ1の備える記憶部(図示省略)に記憶される。
リソース割当部132は、コンテナそれぞれの重要度に基づき、コンテナをAPLグループにグルーピングし、重要度の高いアプリケーションのグループ(APLグループ)から優先的にリソースの割り当てを行う。具体的には、まず、リソース割当部132は、サーバ1のユーザ等から、アプリケーションそれぞれの重要度と、当該重要度のアプリケーションに割り当てたいリソース量(要求リソース量)との入力を受け付ける。次に、リソース割当部132は、入力されたアプリケーションそれぞれの重要度に基づき、アプリケーションのコンテナを2以上のAPLグループにグルーピングする。
例えば、リソース割当部132は、アプリケーションの重要度が同一または類似であり、かつ、当該アプリケーションが重点的に利用するリソースの種類の異なるアプリケーションのコンテナ同士を同じAPLグループにグルーピングする。
一例を挙げると、リソース割当部132は、重要度が同一または類似するアプリケーションのコンテナうち、メモリ使用量の多いアプリケーションのコンテナとCPU使用率の高いアプリケーションのコンテナとを、同じAPLグループにグルーピングする。これにより、同じAPLグループに属するコンテナのアプリケーション同士が、当該APLグループに割り当てられたリソースを奪い合わないので、効率のよいリソース割り当てを行うことができる。
また、リソース割当部132は、重要度の高いAPLグループから優先的に、要求リソース量のリソースを割り当てる。
例えば、リソース割当部132は、重要度の高いAPLグループには、ユーザからの要求リソース量どおりのリソース量を割り当てるが、重要度の低いAPLグループには、ユーザからの要求リソース量の8割程度のリソース量を割り当てる。
つまり、リソース割当部132は、重要度の高いAPLグループほど、ユーザの要求リソース量に対する、当該APLグループへの実際の割り当てリソース量の割合を高くし、重要度の低いAPLグループほど、ユーザの要求リソース量に対する、当該APLグループへの実際の割り当てリソース量の割合を低くする。
リソース割当部132は、上記のようにして各APLグループのコンテナの割り当てリソース量を決定すると、決定した割り当てリソース量をリソース管理情報131(図2参照)に記録する。
リソース監視部133は、各APLグループのコンテナのリソース利用量を監視し、各APLグループにリソースの再割り当て(再分配)が必要か否かを判定する。
例えば、リソース監視部133は、各APLグループのリソース利用量を監視した結果、優先度の高いAPLグループAにおけるリソース利用率(割り当てリソース量に対するリソース利用量の割合)が所定値(例えば、80%)以上であった場合を考える。この場合、リソース監視部133は、優先度の低いAPLグループBに余剰リソースがあれば、リソースの再割り当て(再分配)を行う必要があると判定する。そして、リソース監視部133は、リソース再割当部134に、APLグループBにおける割り当てリソース量の一部(例えば、当該APLグループBの割り当てリソース量の20%)を、APLグループAへ割り当てるよう指示する。
リソース再割当部134は、リソース監視部133からの指示に従い、APLグループ間でのリソースの再割り当てを行う。例えば、リソース再割当部134に、リソース監視部133からの指示に従い、優先度が低く余剰リソースのあるAPLグループBの割り当てリソース量の一部を、優先度が高くリソース利用率が所定値以上のAPLグループAへ割り当てる。具体的には、リソース再割当部134は、リソース管理情報131におけるAPLグループBの割り当てリソース量の一部を減らし、減らした分のリソース量をAPLグループAに割り当てる。
以上説明したサーバ1によれば、重要度(優先度)の高いアプリケーションにおけるリソース不足を防止し、かつ、リソースの利用効率を向上させることができる。
なお、上記の例では、サーバ1が、優先度の低いAPLグループBの余剰リソースを、優先度の高いAPLグループAへ割り当てる(リソース移動を行う)場合について説明したが、これに限定されない。例えば、サーバ1は、優先度の低いAPLグループBのリソース利用率が所定値以上となった場合、優先度の高いAPLグループAの余剰リソースをAPLグループBに割り当ててもよい。この場合、優先度の高いAPLグループAの余剰リソースが、当該APLグループAの割り当てリソース量の30%以上あること等の条件を設ける。このようにすることで、優先度の高いAPLグループの余剰リソースを確保しつつ、優先度の低いAPLグループのリソース不足を防止することができる。
次に、サーバ1の処理手順を説明する。まず、図3を用いて、サーバ1の処理手順の概要を説明する。
まず、サーバ1のリソース割当部132は、アプリケーション(コンテナ)をグルーピングする(S1)。これにより、APLグループが複数個作成される。その後、リソース監視部133は、各APLグループのリソース利用量を監視し(S2)、リソースの再割り当てが必要と判定した場合(S3でYes)、リソース再割当部134は、各APLグループのリソースの再割り当てを行う(S4)。一方、リソース監視部133が、リソースの再割り当てが不要と判定した場合(S3でNo)、S2の処理へ戻る。
次に、図4を用いて、図3のS1の処理を、具体例を交えながら詳細に説明する。
例えば、サーバ1のリソース割当部132は、APLグループを複数個作成する(S11)。例えば、リソース割当部132は、アプリケーションの重要度:高、アプリケーションの重要度:中、アプリケーションの重要度:低の3つのAPLグループを作成する。その後、リソース割当部132は、サーバ1のユーザ等から、起動するアプリケーション(コンテナ)と、当該アプリケーションの重要度および要求リソース量との入力を受け付ける(S12)。
次に、リソース割当部132は、S12で受け付けた要求リソース量に任意の倍率をかけたリソース量を各APLグループに割り当て、起動させる(S13)。例えば、リソース割当部132は、S12で受け付けた重要度に対応するAPLグループを特定する。そして、リソース割当部132は、当該APLグループの割り当てリソース量について、S12で受け付けた要求リソース量*任意のかけ率(例えば、アプリケーションの重要度:高ならば「1.0」、アプリケーションの重要度:中ならば「0.8」等)分、増加させる。その後、リソース割当部132は、S12で入力されたアプリケーションを、S12で入力された重要度のAPLグループとして起動させる。なお、上記の任意のかけ率は、S12で入力されたアプリケーションの重要度が高いほど高い値とし、アプリケーションの重要度が引くほど低い値とする。この任意のかけ率の値は、ユーザが設定可能である。
このようにすることで、サーバ1は、各アプリケーション(コンテナ)の重要度に応じ、各アプリケーションをAPLグループにグルーピングできる。また、サーバ1は、重要度の高いアプリケーションのAPLグループから優先的に、リソースの割り当てを行うことができる。その結果、サーバ1は、重要度の高いアプリケーションにおけるリソース不足を防止することができる。
次に、図5を用いて、図3のS2およびS3の処理を、具体例を交えながら詳細に説明する。
まず、サーバ1のリソース監視部133は、各APLグループのリソース利用量を監視する(S21)。例えば、リソース監視部133は、各APLグループのリソース利用量を定期的に監視する。そして、リソース監視部133が、リソース利用率が所定値(例えば、80%)以上のAPLグループが存在し、かつ、余剰リソースのある(例えば、リソース利用率が50%以下の)APLグループが存在する場合(S22でYes)、リソース再割当部134に対してリソースの再割り当てを要求する(S23)。
例えば、リソース再割当部134に対して、余剰リソースのあるAPLグループの割り当てリソース量の一部(例えば、当該APLグループの割り当てリソース量の20%)を、リソース利用率が所定値(例えば、80%)以上のAPLグループに割り当てるよう要求する。そして、S21の処理へ戻る。
一方、リソース監視部133が、リソース利用率が所定値以上のAPLグループがない場合、または、リソース利用率が所定値以上のAPLグループがあったとしても、余剰リソースのあるAPLグループが存在しない場合(S22でNo)、リソース再割当部134に対してリソースの再割り当ては要求せず、S21の処理へ戻る。
次に、図6を用いて、図3のS4の処理を、具体例を交えながら詳細に説明する。サーバ1のリソース再割当部134は、リソース監視部133からリソースの再割り当ての要求を受け付けると(S41でYes)、リソース管理情報131を参照して、リソースの再割り当てが可能か否かを判定する(S42)。例えば、リソース再割当部134は、リソース管理情報131を参照して、余剰リソースのあるAPLグループの割り当てリソース量の一部(例えば、当該APLグループの割り当てリソース量の20%)を、リソース利用率が所定値(例えば、80%)以上のAPLグループに割り当てることができるか否かを判定する。
S42において、リソース再割当部134が、リソースの再割り当てが可能と判定した場合(S42でYes)、リソースの再割り当てを実行する(S43)。つまり、リソース再割当部134は、リソース管理情報131におけるAPLグループ間の割り当てリソース量を変更する。例えば、リソース再割当部134は、リソース管理情報131における、余剰リソースのあるAPLグループの割り当てリソース量の一部を減らし、減らした分の割り当てリソース量を、リソース利用率が所定値以上のAPLグループの割り当てリソース量に加算する。なお、ここでは図示を省略しているが、S43の後、コンテナ制御部12は、更新後のリソース管理情報131に基づき、各APLグループの割り当てリソース量の設定を行う。
また、リソース再割当部134は、リソース監視部133からリソースの再割り当ての要求を受け付けなかった場合(S41でNo)、または、S42でリソースの再割り当てが不可能と判定した場合(S42でNo)、処理を終了する。
このようにすることで、サーバ1は、いずれかのAPLグループにおいてリソース不足が発生した場合、余剰リソースのあるAPLグループのリソースを割り当てることができる。その結果、サーバ1は各アプリケーションのリソース不足を防止し、かつ、リソースの利用効率を向上させることができる。
なお、リソース管理部13は、サーバ1に装備される場合を例に説明したが、これに限定されない。例えば、リソース管理部13を、サーバ1とは別個の装置により実現してもよい。この場合、リソース管理部13は、ネットワーク経由で、サーバ1のリソースの管理を行えばよい。
(プログラム)
また、各実施形態で述べたサーバ1の機能を実現するプログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実装できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記のプログラムを情報処理装置に実行させることにより、情報処理装置をサーバ1として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistants)等がその範疇に含まれる。また、サーバ1を、クラウドサーバに実装してもよい。
図7を用いて、上記のプログラム(リソース管理プログラム)を実行するコンピュータの一例を説明する。図7に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
ここで、図7に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。
そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、上記のリソース管理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、上記のプログラムに係るプログラムモジュール1093やプログラムデータ1094は、LANやWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
1 サーバ
11 ハードウェア
12 コンテナ制御部
13 リソース管理部
131 リソース管理情報
132 リソース割当部
133 リソース監視部
134 リソース再割当部

Claims (4)

  1. サーバ上で動作する複数のアプリケーションに対するリソース割り当て量を管理するリソース管理装置において実行されるリソース管理方法であって、
    前記アプリケーションそれぞれの重要度を受け付ける受け付けステップと、
    前記受け付けた重要度に応じて、前記アプリケーションを2以上のグループにグルーピングするグルーピングステップと、
    前記重要度の高いアプリケーションのグループから優先的にリソースを割り当てるリソース割り当てステップと、
    前記グループそれぞれのアプリケーションのリソース利用量を監視する監視ステップと、
    前記監視の結果、いずれかのグループにおいて割り当てリソース量に対する前記リソース利用量であるリソース利用率が所定値以上となった場合、余剰リソースを持つグループのリソース割り当て量の少なくとも一部を、前記リソース利用率が前記所定値以上のグループに割り当てるリソース再割り当てステップと、
    を含んだことを特徴とするリソース管理方法。
  2. 前記リソース割り当てステップにおいて、さらに、
    前記重要度が高いアプリケーションのグループほど、前記アプリケーションのグループに対する割り当てリソース量を多くし、前記重要度が低いアプリケーションのグループほど、前記アプリケーションのグループに対する割り当てリソース量を少なくする
    ことを特徴とする請求項1に記載のリソース管理方法。
  3. 前記リソース割り当てステップにおいて、
    前記アプリケーションそれぞれの重要度が類似しており、かつ、当該アプリケーションそれぞれが重点的に利用するリソースの種類が異なるアプリケーション同士を同じグループにグルーピングする
    ことを特徴とする請求項1に記載のリソース管理方法。
  4. 前記アプリケーションは、コンテナ仮想化技術により、当該アプリケーションが利用可能なリソースが隔離されている
    ことを特徴とする請求項1に記載のリソース管理方法。
JP2017095021A 2017-05-11 2017-05-11 リソース管理方法 Pending JP2018190355A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017095021A JP2018190355A (ja) 2017-05-11 2017-05-11 リソース管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017095021A JP2018190355A (ja) 2017-05-11 2017-05-11 リソース管理方法

Publications (1)

Publication Number Publication Date
JP2018190355A true JP2018190355A (ja) 2018-11-29

Family

ID=64478839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017095021A Pending JP2018190355A (ja) 2017-05-11 2017-05-11 リソース管理方法

Country Status (1)

Country Link
JP (1) JP2018190355A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154392A (ja) * 2019-03-18 2020-09-24 日本電気株式会社 コンテナ管理装置、方法およびプログラム
JP2022100244A (ja) * 2020-12-23 2022-07-05 インテル コーポレイション コンテナイメージのロードのための方法および装置
CN115086324A (zh) * 2022-06-27 2022-09-20 中国电信股份有限公司 服务链分配方法和系统、计算机设备和存储介质
US20220318061A1 (en) * 2021-03-31 2022-10-06 Mcafee, Llc Dynamic process criticality scoring
JP2024522297A (ja) * 2021-06-04 2024-06-13 アビニシオ テクノロジー エルエルシー 計算リソースの動的な割り当て

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002244869A (ja) * 2001-02-19 2002-08-30 Hitachi Ltd メモリ管理装置
JP2004062911A (ja) * 2002-07-26 2004-02-26 Hewlett-Packard Development Co Lp コンピュータ資源の割り当てを管理するシステム
JP2005032242A (ja) * 2003-07-10 2005-02-03 Hewlett-Packard Development Co Lp リソースの利用およびアプリケーションの性能の監視システムおよび監視方法
JP2009176097A (ja) * 2008-01-25 2009-08-06 Mitsubishi Electric Corp サービス管理装置及びプログラム
JPWO2013011624A1 (ja) * 2011-07-15 2015-02-23 日本電気株式会社 仮想マシン管理システム及び仮想マシン管理方法
JP2016110428A (ja) * 2014-12-08 2016-06-20 株式会社富士通アドバンストエンジニアリング 観測要求管理プログラム、観測要求管理方法、および情報処理装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002244869A (ja) * 2001-02-19 2002-08-30 Hitachi Ltd メモリ管理装置
JP2004062911A (ja) * 2002-07-26 2004-02-26 Hewlett-Packard Development Co Lp コンピュータ資源の割り当てを管理するシステム
JP2005032242A (ja) * 2003-07-10 2005-02-03 Hewlett-Packard Development Co Lp リソースの利用およびアプリケーションの性能の監視システムおよび監視方法
JP2009176097A (ja) * 2008-01-25 2009-08-06 Mitsubishi Electric Corp サービス管理装置及びプログラム
JPWO2013011624A1 (ja) * 2011-07-15 2015-02-23 日本電気株式会社 仮想マシン管理システム及び仮想マシン管理方法
JP2016110428A (ja) * 2014-12-08 2016-06-20 株式会社富士通アドバンストエンジニアリング 観測要求管理プログラム、観測要求管理方法、および情報処理装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154392A (ja) * 2019-03-18 2020-09-24 日本電気株式会社 コンテナ管理装置、方法およびプログラム
JP7230603B2 (ja) 2019-03-18 2023-03-01 日本電気株式会社 コンテナ管理装置、方法およびプログラム
JP2022100244A (ja) * 2020-12-23 2022-07-05 インテル コーポレイション コンテナイメージのロードのための方法および装置
US20220318061A1 (en) * 2021-03-31 2022-10-06 Mcafee, Llc Dynamic process criticality scoring
US11966787B2 (en) * 2021-03-31 2024-04-23 Mcafee Llc Dynamic process criticality scoring
JP2024522297A (ja) * 2021-06-04 2024-06-13 アビニシオ テクノロジー エルエルシー 計算リソースの動的な割り当て
JP7789092B2 (ja) 2021-06-04 2025-12-19 アビニシオ テクノロジー エルエルシー 計算リソースの動的な割り当て
CN115086324A (zh) * 2022-06-27 2022-09-20 中国电信股份有限公司 服务链分配方法和系统、计算机设备和存储介质

Similar Documents

Publication Publication Date Title
CN108701059B (zh) 多租户资源分配方法和系统
US10937125B2 (en) Resource-utilization-based workload re-allocation system
RU2569805C2 (ru) Виртуальная архитектура неоднородной памяти для виртуальных машин
US8910153B2 (en) Managing virtualized accelerators using admission control, load balancing and scheduling
EP3483730B1 (en) Resource allocation method and resource manager
US20150286492A1 (en) Optimized resource allocation and management in a virtualized computing environment
CN112825042A (zh) 资源管理方法和装置、电子设备及存储介质
JP2018190355A (ja) リソース管理方法
US10108459B2 (en) System and method to dynamically allocate varying processing capacity entitlements based on workload importance
WO2016041118A1 (en) Memory management in virtualized computing
WO2016041446A1 (zh) 一种资源分配方法、装置及设备
US11012316B2 (en) Methods and apparatus to generate and manage workload domains in virtual server racks
US20110153971A1 (en) Data Processing System Memory Allocation
CN116827798A (zh) 一种设备管理方法、装置、设备及机器可读存储介质
CN113742028A (zh) 资源使用方法、电子设备和计算机程序产品
CN114546587A (zh) 一种在线图像识别服务的扩缩容方法及相关装置
CN112384898A (zh) 使用初始分布的快速、低存储器、一致哈希
CN116414561A (zh) 资源调度方法、装置、电子设备和存储介质
CN111813564B (zh) 集群资源管理方法、装置及容器集群管理系统
CN105677481A (zh) 一种数据处理方法、系统及电子设备
US20150220442A1 (en) Prioritizing shared memory based on quality of service
CN105607955A (zh) 一种计算任务分配的方法及装置
US9405470B2 (en) Data processing system and data processing method
US20240231943A9 (en) Bin Packing
US11470015B1 (en) Allocating workloads to heterogenous worker fleets

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191210