JP2018190355A - Resource management method - Google Patents
Resource management method Download PDFInfo
- Publication number
- JP2018190355A JP2018190355A JP2017095021A JP2017095021A JP2018190355A JP 2018190355 A JP2018190355 A JP 2018190355A JP 2017095021 A JP2017095021 A JP 2017095021A JP 2017095021 A JP2017095021 A JP 2017095021A JP 2018190355 A JP2018190355 A JP 2018190355A
- Authority
- JP
- Japan
- Prior art keywords
- resource
- group
- apl
- server
- applications
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Debugging And Monitoring (AREA)
Abstract
Description
本発明は、リソース管理方法に関する。 The present invention relates to a resource management method.
サーバ上で動作する様々なアプリケーションに計算リソース(リソース)を割り当てる際、アプリケーションから申告のあったリソース量を動的に割り当てる技術がある(非特許文献1参照)。このような技術によれば、サーバのリソースを有効利用できる。 There is a technique for dynamically allocating a resource amount reported from an application when computing resources (resources) are allocated to various applications operating on a server (see Non-Patent Document 1). According to such a technique, server resources can be effectively used.
しかし、上記の技術は、各アプリケーションにリソースの割り当てを行った結果、リソースが枯渇してしまい、重要度の高いアプリケーションにリソースを割り当てることができないおそれがある。例えば、エッジコンピューティングアーキテクチャに用いられるサーバ等、限られたリソースで複数のアプリケーションを動作させる必要のあるサーバに、上記の技術によりリソースの割り当てを行った場合、重要度の低いアプリケーションがリソースを使い切ってしまい、重要度の高いアプリケーションにリソース不足が発生するおそれがある。 However, in the above technique, as a result of allocating resources to each application, the resources are depleted, and there is a possibility that resources cannot be allocated to a highly important application. For example, if resources are allocated to a server that needs to run multiple applications with limited resources, such as a server used in edge computing architecture, the less important application uses up resources. This may cause a shortage of resources in highly important applications.
また、上記の技術では、各アプリケーションが利用リソース量の最大値を要求するため、要求通りにリソースを割り当てると、各アプリケーションでリソースを使い切らない場合もある。このため、リソースの利用効率が低くなる可能性がある。 In the above technique, each application requests the maximum value of the amount of used resources. Therefore, if resources are allocated as requested, the resources may not be used up in each application. For this reason, the utilization efficiency of resources may be lowered.
そこで、本発明は、前記した問題を解決し、複数のアプリケーションを動作させるサーバにおいて、重要度の高いアプリケーションのリソース不足を防止し、かつ、リソースの利用効率を向上させることを課題とする。 Accordingly, an object of the present invention is to solve the above-described problems, to prevent resource shortage of a highly important application in a server that operates a plurality of applications, and to improve resource utilization efficiency.
前記した課題を解決するため、本発明は、サーバ上で動作する複数のアプリケーションに対するリソース割り当て量を管理するリソース管理装置において実行されるリソース管理方法であって、前記アプリケーションそれぞれの重要度を受け付ける受け付けステップと、前記受け付けた重要度に応じて、前記アプリケーションを2以上のグループにグルーピングするグルーピングステップと、前記重要度の高いアプリケーションのグループから優先的にリソースを割り当てるリソース割り当てステップと、前記グループそれぞれのアプリケーションのリソース利用量を監視する監視ステップと、前記監視の結果、割り当てリソース量に対する前記リソース利用量であるリソース利用率が所定値以上のグループを検出した場合、余剰リソースを持つグループのリソース割り当て量の少なくとも一部を、前記リソース利用率が前記所定値以上のグループに割り当てるリソース再割り当てステップと、を含んだことを特徴とする。 In order to solve the above-described problem, the present invention provides a resource management method executed in a resource management apparatus that manages resource allocation amounts for a plurality of applications operating on a server, and accepts the importance of each of the applications. A grouping step for grouping the applications into two or more groups according to the received importance level, a resource allocation step for preferentially allocating resources from the group of high importance applications, A monitoring step for monitoring the resource usage of the application; and, as a result of the monitoring, if a resource usage rate that is the resource usage with respect to the allocated resource amount is detected to be a predetermined value or more, a surplus resource is One group at least a part of the resource allocation amount of the resource utilization, characterized in that the containing, and resource reallocation step of allocating said predetermined value or more groups.
本発明によれば、複数のアプリケーションを動作させるサーバにおいて、重要度の高いアプリケーションのリソース不足を防止し、かつ、リソースの利用効率を向上させることができる。 ADVANTAGE OF THE INVENTION According to this invention, in the server which operate | moves a some application, the resource shortage of a highly important application can be prevented and the utilization efficiency of a resource can be improved.
以下、図面を参照しながら、本発明の実施形態を説明する。なお、本発明は、以下に示す実施形態に限定されない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, this invention is not limited to embodiment shown below.
まず、図1を用いて、本実施形態のリソース管理装置(リソース管理部13)が装備されるサーバ1の概要を説明する。
First, the outline of the
なお、サーバ1は、例えば、エッジコンピューティングアーキテクチャにおいてエッジサーバとして用いられるサーバであり、複数のアプリケーションを動作させるものとする。サーバ1は、例えば、管理用アプリケーション等、重要度が比較的高いアプリケーションと、3rdパーティの開発したアプリケーション等、重要度が比較的低いアプリケーションとを動作させる。
The
また、サーバ1の動作させる各アプリケーションは、例えば、コンテナ仮想化技術により、各アプリケーションが利用可能なリソース(CPUやメモリ等)が隔離されているものとする。例えば、サーバ1は、アプリケーションAのコンテナA、アプリケーションBのコンテナB、および、アプリケーションCのコンテナCを備える。
In addition, it is assumed that each application operated by the
このサーバ1は、コンテナA,B,Cを、各コンテナのアプリケーションの重要度に基づきグルーピングする。例えば、サーバ1は、管理用アプリケーション等、比較的重要度の高いアプリケーションのコンテナA,BをAPLグループAにグルーピングし、3rdパーティの開発したアプリケーション等、比較的重要度の低いアプリケーションのコンテナCをAPLグループBにグルーピングする。
The
また、サーバ1は、優先度の高いアプリケーション(コンテナ)のAPLグループから優先的にリソースを割り当てる。例えば、サーバ1は、比較的重要度の高いアプリケーションのAPLグループAには、ユーザにより要求された当該アプリケーションの割り当てリソース量をそのまま割り当て、比較的重要度の低いアプリケーションのAPLグループBには、ユーザにより要求された当該アプリケーションの割り当てリソース量よりも少ない(例えば、8割程度の)リソースを割り当てる。
Further, the
その後、サーバ1は、各APLグループのリソース利用量を監視し、いずれかのAPLグループで、リソース利用率が高くなっていれば、他のAPLグループの余剰リソースを割り当てる。例えば、サーバ1は、APLグループAのリソース利用率が高くなっており、APLグループBに余剰リソースがあれば、APLグループBの余剰リソースの一部を割り当てる。これにより、サーバ1は、重要度の高いアプリケーションのコンテナのリソース不足を防止し、かつ、リソースの利用効率を向上させることができる。
Thereafter, the
引き続き、図1を用いてサーバ1の構成例を説明する。図1に示すように、サーバ1は、例えば、コンテナA,B,Cと、ハードウェア11と、コンテナ制御部12と、リソース管理部13とを備える。
The configuration example of the
コンテナは、サーバ1上でアプリケーションが動作する当該アプリケーションの専用領域である。つまり、サーバ1上の各アプリケーションは、コンテナ仮想化技術によりリソースが隔離される。例えば、コンテナは、コンテナ制御部12により設定された割り当てリソース量の範囲内でリソースを利用する。これにより、サーバ1は、アプリケーションごとのリソース利用量を制限することができる。また、各アプリケーション間の通信はAPI(Application Programming Interface)を介して行うことになる。したがって、サーバ1は、アプリケーション間の通信の頻度等の制御を行いやすくなる。その結果、サーバ1は、一部のアプリケーションが大量の通信を重要なアプリケーションに対して行うことによる、システムの停止を防止することができる。
The container is a dedicated area of the application where the application runs on the
また、コンテナがAPLグループにグルーピングされた後は、APLグループは、当該APLグループ内の各コンテナリソース利用量の合計が、コンテナ制御部12により設定された当該APLグループの割り当てリソース量の範囲内でリソースを利用する。 In addition, after containers are grouped into APL groups, the APL group determines that the total usage amount of each container resource in the APL group is within the allocated resource amount range of the APL group set by the container control unit 12. Use resources.
例えば、サーバ1の作成したAPLグループが、管理用アプリケーション等、重要度が比較的高いアプリケーションのAPLグループAと、3rdパーティの開発したアプリケーション等、重要度が比較的低いアプリケーションとのAPLグループBとである場合を考える。
For example, the APL group created by the
この場合、APLグループBの一部のアプリケーション(コンテナ)がリソースを大量に利用した場合でも、APLグループBは、APLグループB全体としてのリソース利用量が割り当てリソース量以内となるようリソースを利用する。例えば、サーバ1は、APLグループBのアプリケーションが必要とするリソースに対するオーバーコミットを行うことでAPLグループB全体としてのリソース利用量が割り当てリソース量以内となるようにする。その結果、サーバ1は、APLグループBの一部のアプリケーション(コンテナ)がリソースを大量に利用した場合でも、重要度が比較的高いアプリケーションに影響が及ばないようにすることができる。
In this case, even when some applications (containers) in the APL group B use a large amount of resources, the APL group B uses the resources so that the resource usage amount of the APL group B as a whole is within the allocated resource amount. . For example, the
ハードウェア11は、サーバ1の備えるCPUやメモリ、ハードディスク、通信インタフェース、入出力インタフェース等である。
The hardware 11 is a CPU, a memory, a hard disk, a communication interface, an input / output interface, and the like included in the
コンテナ制御部12は、コンテナに対する各種制御を行う。例えば、コンテナ制御部12は、リソース管理部13のリソース管理情報131(詳細は後記)を参照して、コンテナ(アプリケーション)それぞれに、当該コンテナの割り当てリソース量を設定する。なお、各コンテナがAPLグループにグルーピングされた後は、コンテナ制御部12は、リソース管理情報131を参照して、APLグループそれぞれに、当該APLグループの割り当てリソース量を設定する。
The container control unit 12 performs various controls on the container. For example, the container control unit 12 refers to the resource management information 131 (described later in detail) of the
リソース管理部13は、コンテナそれぞれの重要度に基づき、コンテナをAPLグループにグルーピングし、APLグループのそれぞれのリソース割り当て量を管理する。このリソース管理部13は、リソース管理情報131と、リソース割当部132と、リソース監視部133と、リソース再割当部134とを備える。
The
リソース管理情報131は、コンテナごとに、当該コンテナの割り当てリソース量と、当該コンテナの属するAPLグループと、当該APLグループの割り当てリソース量とを示した情報である。 The resource management information 131 is information indicating, for each container, the allocated resource amount of the container, the APL group to which the container belongs, and the allocated resource amount of the APL group.
例えば、図2に示すリソース管理情報131は、コンテナの識別情報と、当該コンテナの割り当てリソース量と、当該コンテナ(アプリケーション)の重要度と、当該コンテナの属するAPLグループと、当該APLグループの割り当てリソース量とを対応付けた情報である。このリソース管理情報131は、サーバ1の備える記憶部(図示省略)に記憶される。
For example, the resource management information 131 shown in FIG. 2 includes the container identification information, the allocated resource amount of the container, the importance of the container (application), the APL group to which the container belongs, and the allocated resource of the APL group. This is information that associates quantities. The resource management information 131 is stored in a storage unit (not shown) included in the
リソース割当部132は、コンテナそれぞれの重要度に基づき、コンテナをAPLグループにグルーピングし、重要度の高いアプリケーションのグループ(APLグループ)から優先的にリソースの割り当てを行う。具体的には、まず、リソース割当部132は、サーバ1のユーザ等から、アプリケーションそれぞれの重要度と、当該重要度のアプリケーションに割り当てたいリソース量(要求リソース量)との入力を受け付ける。次に、リソース割当部132は、入力されたアプリケーションそれぞれの重要度に基づき、アプリケーションのコンテナを2以上のAPLグループにグルーピングする。
The
例えば、リソース割当部132は、アプリケーションの重要度が同一または類似であり、かつ、当該アプリケーションが重点的に利用するリソースの種類の異なるアプリケーションのコンテナ同士を同じAPLグループにグルーピングする。
For example, the
一例を挙げると、リソース割当部132は、重要度が同一または類似するアプリケーションのコンテナうち、メモリ使用量の多いアプリケーションのコンテナとCPU使用率の高いアプリケーションのコンテナとを、同じAPLグループにグルーピングする。これにより、同じAPLグループに属するコンテナのアプリケーション同士が、当該APLグループに割り当てられたリソースを奪い合わないので、効率のよいリソース割り当てを行うことができる。
For example, the
また、リソース割当部132は、重要度の高いAPLグループから優先的に、要求リソース量のリソースを割り当てる。
Further, the
例えば、リソース割当部132は、重要度の高いAPLグループには、ユーザからの要求リソース量どおりのリソース量を割り当てるが、重要度の低いAPLグループには、ユーザからの要求リソース量の8割程度のリソース量を割り当てる。
For example, the
つまり、リソース割当部132は、重要度の高いAPLグループほど、ユーザの要求リソース量に対する、当該APLグループへの実際の割り当てリソース量の割合を高くし、重要度の低いAPLグループほど、ユーザの要求リソース量に対する、当該APLグループへの実際の割り当てリソース量の割合を低くする。
That is, the
リソース割当部132は、上記のようにして各APLグループのコンテナの割り当てリソース量を決定すると、決定した割り当てリソース量をリソース管理情報131(図2参照)に記録する。
When the
リソース監視部133は、各APLグループのコンテナのリソース利用量を監視し、各APLグループにリソースの再割り当て(再分配)が必要か否かを判定する。
The
例えば、リソース監視部133は、各APLグループのリソース利用量を監視した結果、優先度の高いAPLグループAにおけるリソース利用率(割り当てリソース量に対するリソース利用量の割合)が所定値(例えば、80%)以上であった場合を考える。この場合、リソース監視部133は、優先度の低いAPLグループBに余剰リソースがあれば、リソースの再割り当て(再分配)を行う必要があると判定する。そして、リソース監視部133は、リソース再割当部134に、APLグループBにおける割り当てリソース量の一部(例えば、当該APLグループBの割り当てリソース量の20%)を、APLグループAへ割り当てるよう指示する。
For example, the
リソース再割当部134は、リソース監視部133からの指示に従い、APLグループ間でのリソースの再割り当てを行う。例えば、リソース再割当部134に、リソース監視部133からの指示に従い、優先度が低く余剰リソースのあるAPLグループBの割り当てリソース量の一部を、優先度が高くリソース利用率が所定値以上のAPLグループAへ割り当てる。具体的には、リソース再割当部134は、リソース管理情報131におけるAPLグループBの割り当てリソース量の一部を減らし、減らした分のリソース量をAPLグループAに割り当てる。
The
以上説明したサーバ1によれば、重要度(優先度)の高いアプリケーションにおけるリソース不足を防止し、かつ、リソースの利用効率を向上させることができる。
According to the
なお、上記の例では、サーバ1が、優先度の低いAPLグループBの余剰リソースを、優先度の高いAPLグループAへ割り当てる(リソース移動を行う)場合について説明したが、これに限定されない。例えば、サーバ1は、優先度の低いAPLグループBのリソース利用率が所定値以上となった場合、優先度の高いAPLグループAの余剰リソースをAPLグループBに割り当ててもよい。この場合、優先度の高いAPLグループAの余剰リソースが、当該APLグループAの割り当てリソース量の30%以上あること等の条件を設ける。このようにすることで、優先度の高いAPLグループの余剰リソースを確保しつつ、優先度の低いAPLグループのリソース不足を防止することができる。
In the above example, the case where the
次に、サーバ1の処理手順を説明する。まず、図3を用いて、サーバ1の処理手順の概要を説明する。
Next, the processing procedure of the
まず、サーバ1のリソース割当部132は、アプリケーション(コンテナ)をグルーピングする(S1)。これにより、APLグループが複数個作成される。その後、リソース監視部133は、各APLグループのリソース利用量を監視し(S2)、リソースの再割り当てが必要と判定した場合(S3でYes)、リソース再割当部134は、各APLグループのリソースの再割り当てを行う(S4)。一方、リソース監視部133が、リソースの再割り当てが不要と判定した場合(S3でNo)、S2の処理へ戻る。
First, the
次に、図4を用いて、図3のS1の処理を、具体例を交えながら詳細に説明する。 Next, the process of S1 in FIG. 3 will be described in detail with reference to FIG. 4 with a specific example.
例えば、サーバ1のリソース割当部132は、APLグループを複数個作成する(S11)。例えば、リソース割当部132は、アプリケーションの重要度:高、アプリケーションの重要度:中、アプリケーションの重要度:低の3つのAPLグループを作成する。その後、リソース割当部132は、サーバ1のユーザ等から、起動するアプリケーション(コンテナ)と、当該アプリケーションの重要度および要求リソース量との入力を受け付ける(S12)。
For example, the
次に、リソース割当部132は、S12で受け付けた要求リソース量に任意の倍率をかけたリソース量を各APLグループに割り当て、起動させる(S13)。例えば、リソース割当部132は、S12で受け付けた重要度に対応するAPLグループを特定する。そして、リソース割当部132は、当該APLグループの割り当てリソース量について、S12で受け付けた要求リソース量*任意のかけ率(例えば、アプリケーションの重要度:高ならば「1.0」、アプリケーションの重要度:中ならば「0.8」等)分、増加させる。その後、リソース割当部132は、S12で入力されたアプリケーションを、S12で入力された重要度のAPLグループとして起動させる。なお、上記の任意のかけ率は、S12で入力されたアプリケーションの重要度が高いほど高い値とし、アプリケーションの重要度が引くほど低い値とする。この任意のかけ率の値は、ユーザが設定可能である。
Next, the
このようにすることで、サーバ1は、各アプリケーション(コンテナ)の重要度に応じ、各アプリケーションをAPLグループにグルーピングできる。また、サーバ1は、重要度の高いアプリケーションのAPLグループから優先的に、リソースの割り当てを行うことができる。その結果、サーバ1は、重要度の高いアプリケーションにおけるリソース不足を防止することができる。
By doing in this way, the
次に、図5を用いて、図3のS2およびS3の処理を、具体例を交えながら詳細に説明する。 Next, the processing of S2 and S3 of FIG. 3 will be described in detail with reference to FIG.
まず、サーバ1のリソース監視部133は、各APLグループのリソース利用量を監視する(S21)。例えば、リソース監視部133は、各APLグループのリソース利用量を定期的に監視する。そして、リソース監視部133が、リソース利用率が所定値(例えば、80%)以上のAPLグループが存在し、かつ、余剰リソースのある(例えば、リソース利用率が50%以下の)APLグループが存在する場合(S22でYes)、リソース再割当部134に対してリソースの再割り当てを要求する(S23)。
First, the
例えば、リソース再割当部134に対して、余剰リソースのあるAPLグループの割り当てリソース量の一部(例えば、当該APLグループの割り当てリソース量の20%)を、リソース利用率が所定値(例えば、80%)以上のAPLグループに割り当てるよう要求する。そして、S21の処理へ戻る。
For example, a part of the allocated resource amount of an APL group with surplus resources (for example, 20% of the allocated resource amount of the APL group) is given to the
一方、リソース監視部133が、リソース利用率が所定値以上のAPLグループがない場合、または、リソース利用率が所定値以上のAPLグループがあったとしても、余剰リソースのあるAPLグループが存在しない場合(S22でNo)、リソース再割当部134に対してリソースの再割り当ては要求せず、S21の処理へ戻る。
On the other hand, when the
次に、図6を用いて、図3のS4の処理を、具体例を交えながら詳細に説明する。サーバ1のリソース再割当部134は、リソース監視部133からリソースの再割り当ての要求を受け付けると(S41でYes)、リソース管理情報131を参照して、リソースの再割り当てが可能か否かを判定する(S42)。例えば、リソース再割当部134は、リソース管理情報131を参照して、余剰リソースのあるAPLグループの割り当てリソース量の一部(例えば、当該APLグループの割り当てリソース量の20%)を、リソース利用率が所定値(例えば、80%)以上のAPLグループに割り当てることができるか否かを判定する。
Next, with reference to FIG. 6, the process of S4 in FIG. 3 will be described in detail with specific examples. When the
S42において、リソース再割当部134が、リソースの再割り当てが可能と判定した場合(S42でYes)、リソースの再割り当てを実行する(S43)。つまり、リソース再割当部134は、リソース管理情報131におけるAPLグループ間の割り当てリソース量を変更する。例えば、リソース再割当部134は、リソース管理情報131における、余剰リソースのあるAPLグループの割り当てリソース量の一部を減らし、減らした分の割り当てリソース量を、リソース利用率が所定値以上のAPLグループの割り当てリソース量に加算する。なお、ここでは図示を省略しているが、S43の後、コンテナ制御部12は、更新後のリソース管理情報131に基づき、各APLグループの割り当てリソース量の設定を行う。
In S42, when the
また、リソース再割当部134は、リソース監視部133からリソースの再割り当ての要求を受け付けなかった場合(S41でNo)、または、S42でリソースの再割り当てが不可能と判定した場合(S42でNo)、処理を終了する。
Further, the
このようにすることで、サーバ1は、いずれかのAPLグループにおいてリソース不足が発生した場合、余剰リソースのあるAPLグループのリソースを割り当てることができる。その結果、サーバ1は各アプリケーションのリソース不足を防止し、かつ、リソースの利用効率を向上させることができる。
By doing in this way, the
なお、リソース管理部13は、サーバ1に装備される場合を例に説明したが、これに限定されない。例えば、リソース管理部13を、サーバ1とは別個の装置により実現してもよい。この場合、リソース管理部13は、ネットワーク経由で、サーバ1のリソースの管理を行えばよい。
In addition, although the
(プログラム)
また、各実施形態で述べたサーバ1の機能を実現するプログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実装できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記のプログラムを情報処理装置に実行させることにより、情報処理装置をサーバ1として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistants)等がその範疇に含まれる。また、サーバ1を、クラウドサーバに実装してもよい。
(program)
Further, it can be implemented by installing a program for realizing the function of the
図7を用いて、上記のプログラム(リソース管理プログラム)を実行するコンピュータの一例を説明する。図7に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
An example of a computer that executes the program (resource management program) will be described with reference to FIG. As illustrated in FIG. 7, the
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
The
ここで、図7に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。
Here, as shown in FIG. 7, the hard disk drive 1090 stores, for example, an
そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
Then, the
なお、上記のリソース管理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、上記のプログラムに係るプログラムモジュール1093やプログラムデータ1094は、LANやWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
Note that the
1 サーバ
11 ハードウェア
12 コンテナ制御部
13 リソース管理部
131 リソース管理情報
132 リソース割当部
133 リソース監視部
134 リソース再割当部
1 server 11 hardware 12
Claims (4)
前記アプリケーションそれぞれの重要度を受け付ける受け付けステップと、
前記受け付けた重要度に応じて、前記アプリケーションを2以上のグループにグルーピングするグルーピングステップと、
前記重要度の高いアプリケーションのグループから優先的にリソースを割り当てるリソース割り当てステップと、
前記グループそれぞれのアプリケーションのリソース利用量を監視する監視ステップと、
前記監視の結果、いずれかのグループにおいて割り当てリソース量に対する前記リソース利用量であるリソース利用率が所定値以上となった場合、余剰リソースを持つグループのリソース割り当て量の少なくとも一部を、前記リソース利用率が前記所定値以上のグループに割り当てるリソース再割り当てステップと、
を含んだことを特徴とするリソース管理方法。 A resource management method executed in a resource management device that manages resource allocation amounts for a plurality of applications that operate on a server,
A receiving step for receiving the importance of each of the applications;
A grouping step of grouping the applications into two or more groups according to the received importance;
A resource allocation step of preferentially allocating resources from the group of applications with high importance;
A monitoring step of monitoring resource usage of each group application;
As a result of the monitoring, when the resource usage rate, which is the resource usage amount relative to the allocated resource amount in any group, is equal to or greater than a predetermined value, at least a part of the resource allocation amount of the group having surplus resources is used as the resource usage amount. A resource reallocation step of allocating to a group having a rate equal to or greater than the predetermined value;
A resource management method comprising:
前記重要度が高いアプリケーションのグループほど、前記アプリケーションのグループに対する割り当てリソース量を多くし、前記重要度が低いアプリケーションのグループほど、前記アプリケーションのグループに対する割り当てリソース量を少なくする
ことを特徴とする請求項1に記載のリソース管理方法。 In the resource allocation step,
The group of applications having higher importance increases the amount of resources allocated to the group of applications, and the amount of resources allocated to groups of applications decreases as the group of applications having lower importance. The resource management method according to 1.
前記アプリケーションそれぞれの重要度が類似しており、かつ、当該アプリケーションそれぞれが重点的に利用するリソースの種類が異なるアプリケーション同士を同じグループにグルーピングする
ことを特徴とする請求項1に記載のリソース管理方法。 In the resource allocation step,
2. The resource management method according to claim 1, wherein applications having similar importance levels and different types of resources mainly used by the applications are grouped into the same group. .
ことを特徴とする請求項1に記載のリソース管理方法。 The resource management method according to claim 1, wherein a resource that can be used by the application is isolated by container virtualization technology.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017095021A JP2018190355A (en) | 2017-05-11 | 2017-05-11 | Resource management method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017095021A JP2018190355A (en) | 2017-05-11 | 2017-05-11 | Resource management method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018190355A true JP2018190355A (en) | 2018-11-29 |
Family
ID=64478839
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017095021A Pending JP2018190355A (en) | 2017-05-11 | 2017-05-11 | Resource management method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018190355A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020154392A (en) * | 2019-03-18 | 2020-09-24 | 日本電気株式会社 | Container management equipment, methods and programs |
| JP2022100244A (en) * | 2020-12-23 | 2022-07-05 | インテル コーポレイション | Methods and apparatus for loading of container image |
| CN115086324A (en) * | 2022-06-27 | 2022-09-20 | 中国电信股份有限公司 | Service chain allocation method and system, computer device and storage medium |
| US20220318061A1 (en) * | 2021-03-31 | 2022-10-06 | Mcafee, Llc | Dynamic process criticality scoring |
| JP2024522297A (en) * | 2021-06-04 | 2024-06-13 | アビニシオ テクノロジー エルエルシー | Dynamic allocation of computing resources |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002244869A (en) * | 2001-02-19 | 2002-08-30 | Hitachi Ltd | Memory management device |
| JP2004062911A (en) * | 2002-07-26 | 2004-02-26 | Hewlett-Packard Development Co Lp | System for managing allocation of computer resource |
| JP2005032242A (en) * | 2003-07-10 | 2005-02-03 | Hewlett-Packard Development Co Lp | Monitoring system and monitoring method of utilization of resource, and performance of application |
| JP2009176097A (en) * | 2008-01-25 | 2009-08-06 | Mitsubishi Electric Corp | Service management apparatus and program |
| JPWO2013011624A1 (en) * | 2011-07-15 | 2015-02-23 | 日本電気株式会社 | Virtual machine management system and virtual machine management method |
| JP2016110428A (en) * | 2014-12-08 | 2016-06-20 | 株式会社富士通アドバンストエンジニアリング | Observation request management program, observation request management method, and information processing device |
-
2017
- 2017-05-11 JP JP2017095021A patent/JP2018190355A/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002244869A (en) * | 2001-02-19 | 2002-08-30 | Hitachi Ltd | Memory management device |
| JP2004062911A (en) * | 2002-07-26 | 2004-02-26 | Hewlett-Packard Development Co Lp | System for managing allocation of computer resource |
| JP2005032242A (en) * | 2003-07-10 | 2005-02-03 | Hewlett-Packard Development Co Lp | Monitoring system and monitoring method of utilization of resource, and performance of application |
| JP2009176097A (en) * | 2008-01-25 | 2009-08-06 | Mitsubishi Electric Corp | Service management apparatus and program |
| JPWO2013011624A1 (en) * | 2011-07-15 | 2015-02-23 | 日本電気株式会社 | Virtual machine management system and virtual machine management method |
| JP2016110428A (en) * | 2014-12-08 | 2016-06-20 | 株式会社富士通アドバンストエンジニアリング | Observation request management program, observation request management method, and information processing device |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020154392A (en) * | 2019-03-18 | 2020-09-24 | 日本電気株式会社 | Container management equipment, methods and programs |
| JP7230603B2 (en) | 2019-03-18 | 2023-03-01 | 日本電気株式会社 | Container management device, method and program |
| JP2022100244A (en) * | 2020-12-23 | 2022-07-05 | インテル コーポレイション | Methods and apparatus for loading of container image |
| US20220318061A1 (en) * | 2021-03-31 | 2022-10-06 | Mcafee, Llc | Dynamic process criticality scoring |
| US11966787B2 (en) * | 2021-03-31 | 2024-04-23 | Mcafee Llc | Dynamic process criticality scoring |
| JP2024522297A (en) * | 2021-06-04 | 2024-06-13 | アビニシオ テクノロジー エルエルシー | Dynamic allocation of computing resources |
| JP7789092B2 (en) | 2021-06-04 | 2025-12-19 | アビニシオ テクノロジー エルエルシー | Dynamic allocation of computing resources |
| CN115086324A (en) * | 2022-06-27 | 2022-09-20 | 中国电信股份有限公司 | Service chain allocation method and system, computer device and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108701059B (en) | Multi-tenant resource allocation method and system | |
| US10937125B2 (en) | Resource-utilization-based workload re-allocation system | |
| RU2569805C2 (en) | Virtual non-uniform memory architecture for virtual machines | |
| US8910153B2 (en) | Managing virtualized accelerators using admission control, load balancing and scheduling | |
| EP3483730B1 (en) | Resource allocation method and resource manager | |
| US20150286492A1 (en) | Optimized resource allocation and management in a virtualized computing environment | |
| CN112825042A (en) | Resource management method and device, electronic equipment and storage medium | |
| JP2018190355A (en) | Resource management method | |
| US10108459B2 (en) | System and method to dynamically allocate varying processing capacity entitlements based on workload importance | |
| WO2016041118A1 (en) | Memory management in virtualized computing | |
| WO2016041446A1 (en) | Resource allocation method, apparatus and device | |
| US11012316B2 (en) | Methods and apparatus to generate and manage workload domains in virtual server racks | |
| US20110153971A1 (en) | Data Processing System Memory Allocation | |
| CN116827798A (en) | Device management method, device, equipment and machine-readable storage medium | |
| CN113742028A (en) | Resource using method, electronic device and computer program product | |
| CN114546587A (en) | A method for expanding and shrinking capacity of online image recognition service and related device | |
| CN112384898A (en) | Fast, low memory, consistent hashing using initial distribution | |
| CN116414561A (en) | Resource scheduling method, device, electronic device and storage medium | |
| CN111813564B (en) | Cluster resource management method and device and container cluster management system | |
| CN105677481A (en) | Method and system for processing data and electronic equipment | |
| US20150220442A1 (en) | Prioritizing shared memory based on quality of service | |
| CN105607955A (en) | Calculation task distribution method and apparatus | |
| US9405470B2 (en) | Data processing system and data processing method | |
| US20240231943A9 (en) | Bin Packing | |
| US11470015B1 (en) | Allocating workloads to heterogenous worker fleets |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181106 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190822 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190903 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191105 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191210 |