[go: up one dir, main page]

JP2018190355A - Resource management method - Google Patents

Resource management method Download PDF

Info

Publication number
JP2018190355A
JP2018190355A JP2017095021A JP2017095021A JP2018190355A JP 2018190355 A JP2018190355 A JP 2018190355A JP 2017095021 A JP2017095021 A JP 2017095021A JP 2017095021 A JP2017095021 A JP 2017095021A JP 2018190355 A JP2018190355 A JP 2018190355A
Authority
JP
Japan
Prior art keywords
resource
group
apl
server
applications
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017095021A
Other languages
Japanese (ja)
Inventor
悠司 大嶋
Yuji Oshima
悠司 大嶋
圭 大村
Kei Omura
圭 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017095021A priority Critical patent/JP2018190355A/en
Publication of JP2018190355A publication Critical patent/JP2018190355A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)

Abstract

PROBLEM TO BE SOLVED: To inhibit resource shortage for an application of high importance, and improve utilization efficiency of resources, in a server that operates multiple applications.SOLUTION: A server 1 creates APL groups on the basis of a degree of importance of an application (container) activated by the server 1. Further, the server 1 preferentially allocates resources in descending order of the degrees of importance of the APL groups. Each container in an APL group shares the resources allocated to the APL group. Subsequently, the server 1 monitors an amount of resource utilization in the APL groups respectively, and when resource shortage occurs in any of the APL groups, a portion of the allocated resource amount in an APL group with surplus resources is allocated to the APL group in which the resource shortage has occurred.SELECTED DRAWING: Figure 1

Description

本発明は、リソース管理方法に関する。   The present invention relates to a resource management method.

サーバ上で動作する様々なアプリケーションに計算リソース(リソース)を割り当てる際、アプリケーションから申告のあったリソース量を動的に割り当てる技術がある(非特許文献1参照)。このような技術によれば、サーバのリソースを有効利用できる。   There is a technique for dynamically allocating a resource amount reported from an application when computing resources (resources) are allocated to various applications operating on a server (see Non-Patent Document 1). According to such a technique, server resources can be effectively used.

Benjamin Hindman, et al.,"Mesos: A Platform for Fine-Grained Resource Sharing in the Data Center",NSDI. Vol. 11. No. 2011. 2011.Benjamin Hindman, et al., "Mesos: A Platform for Fine-Grained Resource Sharing in the Data Center", NSDI. Vol. 11. No. 2011. 2011.

しかし、上記の技術は、各アプリケーションにリソースの割り当てを行った結果、リソースが枯渇してしまい、重要度の高いアプリケーションにリソースを割り当てることができないおそれがある。例えば、エッジコンピューティングアーキテクチャに用いられるサーバ等、限られたリソースで複数のアプリケーションを動作させる必要のあるサーバに、上記の技術によりリソースの割り当てを行った場合、重要度の低いアプリケーションがリソースを使い切ってしまい、重要度の高いアプリケーションにリソース不足が発生するおそれがある。   However, in the above technique, as a result of allocating resources to each application, the resources are depleted, and there is a possibility that resources cannot be allocated to a highly important application. For example, if resources are allocated to a server that needs to run multiple applications with limited resources, such as a server used in edge computing architecture, the less important application uses up resources. This may cause a shortage of resources in highly important applications.

また、上記の技術では、各アプリケーションが利用リソース量の最大値を要求するため、要求通りにリソースを割り当てると、各アプリケーションでリソースを使い切らない場合もある。このため、リソースの利用効率が低くなる可能性がある。   In the above technique, each application requests the maximum value of the amount of used resources. Therefore, if resources are allocated as requested, the resources may not be used up in each application. For this reason, the utilization efficiency of resources may be lowered.

そこで、本発明は、前記した問題を解決し、複数のアプリケーションを動作させるサーバにおいて、重要度の高いアプリケーションのリソース不足を防止し、かつ、リソースの利用効率を向上させることを課題とする。   Accordingly, an object of the present invention is to solve the above-described problems, to prevent resource shortage of a highly important application in a server that operates a plurality of applications, and to improve resource utilization efficiency.

前記した課題を解決するため、本発明は、サーバ上で動作する複数のアプリケーションに対するリソース割り当て量を管理するリソース管理装置において実行されるリソース管理方法であって、前記アプリケーションそれぞれの重要度を受け付ける受け付けステップと、前記受け付けた重要度に応じて、前記アプリケーションを2以上のグループにグルーピングするグルーピングステップと、前記重要度の高いアプリケーションのグループから優先的にリソースを割り当てるリソース割り当てステップと、前記グループそれぞれのアプリケーションのリソース利用量を監視する監視ステップと、前記監視の結果、割り当てリソース量に対する前記リソース利用量であるリソース利用率が所定値以上のグループを検出した場合、余剰リソースを持つグループのリソース割り当て量の少なくとも一部を、前記リソース利用率が前記所定値以上のグループに割り当てるリソース再割り当てステップと、を含んだことを特徴とする。   In order to solve the above-described problem, the present invention provides a resource management method executed in a resource management apparatus that manages resource allocation amounts for a plurality of applications operating on a server, and accepts the importance of each of the applications. A grouping step for grouping the applications into two or more groups according to the received importance level, a resource allocation step for preferentially allocating resources from the group of high importance applications, A monitoring step for monitoring the resource usage of the application; and, as a result of the monitoring, if a resource usage rate that is the resource usage with respect to the allocated resource amount is detected to be a predetermined value or more, a surplus resource is One group at least a part of the resource allocation amount of the resource utilization, characterized in that the containing, and resource reallocation step of allocating said predetermined value or more groups.

本発明によれば、複数のアプリケーションを動作させるサーバにおいて、重要度の高いアプリケーションのリソース不足を防止し、かつ、リソースの利用効率を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, in the server which operate | moves a some application, the resource shortage of a highly important application can be prevented and the utilization efficiency of a resource can be improved.

図1は、本実施形態のサーバの構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of a server according to the present embodiment. 図2は、図1のリソース管理情報の例を示す図である。FIG. 2 is a diagram illustrating an example of the resource management information of FIG. 図3は、図1のサーバの処理手順の概要を示すフローチャートである。FIG. 3 is a flowchart showing an outline of the processing procedure of the server of FIG. 図4は、図3のS1の処理の詳細を示すフローチャートである。FIG. 4 is a flowchart showing details of the processing in S1 of FIG. 図5は、図3のS2およびS3の処理の詳細を示すフローチャートである。FIG. 5 is a flowchart showing details of the processing of S2 and S3 of FIG. 図6は、図3のS4の処理の詳細を示すフローチャートである。FIG. 6 is a flowchart showing details of the process of S4 of FIG. 図7は、リソース管理プログラムを実行するコンピュータを示す図である。FIG. 7 is a diagram illustrating a computer that executes a resource management program.

以下、図面を参照しながら、本発明の実施形態を説明する。なお、本発明は、以下に示す実施形態に限定されない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, this invention is not limited to embodiment shown below.

まず、図1を用いて、本実施形態のリソース管理装置(リソース管理部13)が装備されるサーバ1の概要を説明する。   First, the outline of the server 1 equipped with the resource management apparatus (resource management unit 13) of this embodiment will be described with reference to FIG.

なお、サーバ1は、例えば、エッジコンピューティングアーキテクチャにおいてエッジサーバとして用いられるサーバであり、複数のアプリケーションを動作させるものとする。サーバ1は、例えば、管理用アプリケーション等、重要度が比較的高いアプリケーションと、3rdパーティの開発したアプリケーション等、重要度が比較的低いアプリケーションとを動作させる。   The server 1 is, for example, a server used as an edge server in the edge computing architecture, and operates a plurality of applications. The server 1 operates, for example, an application having a relatively high importance such as a management application and an application having a relatively low importance such as an application developed by a 3rd party.

また、サーバ1の動作させる各アプリケーションは、例えば、コンテナ仮想化技術により、各アプリケーションが利用可能なリソース(CPUやメモリ等)が隔離されているものとする。例えば、サーバ1は、アプリケーションAのコンテナA、アプリケーションBのコンテナB、および、アプリケーションCのコンテナCを備える。   In addition, it is assumed that each application operated by the server 1 has resources (CPU, memory, etc.) that can be used by each application isolated by, for example, container virtualization technology. For example, the server 1 includes a container A for application A, a container B for application B, and a container C for application C.

このサーバ1は、コンテナA,B,Cを、各コンテナのアプリケーションの重要度に基づきグルーピングする。例えば、サーバ1は、管理用アプリケーション等、比較的重要度の高いアプリケーションのコンテナA,BをAPLグループAにグルーピングし、3rdパーティの開発したアプリケーション等、比較的重要度の低いアプリケーションのコンテナCをAPLグループBにグルーピングする。   The server 1 groups containers A, B, and C based on the importance of each container application. For example, the server 1 groups containers A and B of relatively high importance applications such as management applications into the APL group A, and sets a container C of relatively low importance applications such as applications developed by the 3rd party. Group into APL group B.

また、サーバ1は、優先度の高いアプリケーション(コンテナ)のAPLグループから優先的にリソースを割り当てる。例えば、サーバ1は、比較的重要度の高いアプリケーションのAPLグループAには、ユーザにより要求された当該アプリケーションの割り当てリソース量をそのまま割り当て、比較的重要度の低いアプリケーションのAPLグループBには、ユーザにより要求された当該アプリケーションの割り当てリソース量よりも少ない(例えば、8割程度の)リソースを割り当てる。   Further, the server 1 preferentially allocates resources from the APL group of the application (container) having a high priority. For example, the server 1 allocates the allocated resource amount of the application requested by the user as it is to the APL group A of the relatively high importance application, and the user to the APL group B of the relatively low importance application. Allocate a resource that is smaller (for example, about 80%) than the allocated resource amount of the application requested by.

その後、サーバ1は、各APLグループのリソース利用量を監視し、いずれかのAPLグループで、リソース利用率が高くなっていれば、他のAPLグループの余剰リソースを割り当てる。例えば、サーバ1は、APLグループAのリソース利用率が高くなっており、APLグループBに余剰リソースがあれば、APLグループBの余剰リソースの一部を割り当てる。これにより、サーバ1は、重要度の高いアプリケーションのコンテナのリソース不足を防止し、かつ、リソースの利用効率を向上させることができる。   Thereafter, the server 1 monitors the resource usage of each APL group, and if the resource usage rate is high in any APL group, the server 1 allocates surplus resources of other APL groups. For example, if the resource utilization rate of the APL group A is high and the APL group B has surplus resources, the server 1 allocates a part of the surplus resources of the APL group B. Thereby, the server 1 can prevent the resource shortage of the container of the application with high importance, and can improve the utilization efficiency of the resource.

引き続き、図1を用いてサーバ1の構成例を説明する。図1に示すように、サーバ1は、例えば、コンテナA,B,Cと、ハードウェア11と、コンテナ制御部12と、リソース管理部13とを備える。   The configuration example of the server 1 will be described with reference to FIG. As illustrated in FIG. 1, the server 1 includes, for example, containers A, B, and C, hardware 11, a container control unit 12, and a resource management unit 13.

コンテナは、サーバ1上でアプリケーションが動作する当該アプリケーションの専用領域である。つまり、サーバ1上の各アプリケーションは、コンテナ仮想化技術によりリソースが隔離される。例えば、コンテナは、コンテナ制御部12により設定された割り当てリソース量の範囲内でリソースを利用する。これにより、サーバ1は、アプリケーションごとのリソース利用量を制限することができる。また、各アプリケーション間の通信はAPI(Application Programming Interface)を介して行うことになる。したがって、サーバ1は、アプリケーション間の通信の頻度等の制御を行いやすくなる。その結果、サーバ1は、一部のアプリケーションが大量の通信を重要なアプリケーションに対して行うことによる、システムの停止を防止することができる。   The container is a dedicated area of the application where the application runs on the server 1. That is, resources of each application on the server 1 are isolated by the container virtualization technology. For example, the container uses resources within the range of the allocated resource amount set by the container control unit 12. Thereby, the server 1 can restrict | limit the resource usage-amount for every application. Communication between each application is performed via an API (Application Programming Interface). Therefore, the server 1 can easily control the frequency of communication between applications. As a result, the server 1 can prevent the system from being stopped due to a part of applications performing a large amount of communication with important applications.

また、コンテナがAPLグループにグルーピングされた後は、APLグループは、当該APLグループ内の各コンテナリソース利用量の合計が、コンテナ制御部12により設定された当該APLグループの割り当てリソース量の範囲内でリソースを利用する。   In addition, after containers are grouped into APL groups, the APL group determines that the total usage amount of each container resource in the APL group is within the allocated resource amount range of the APL group set by the container control unit 12. Use resources.

例えば、サーバ1の作成したAPLグループが、管理用アプリケーション等、重要度が比較的高いアプリケーションのAPLグループAと、3rdパーティの開発したアプリケーション等、重要度が比較的低いアプリケーションとのAPLグループBとである場合を考える。   For example, the APL group created by the server 1 is an APL group A having a relatively high importance such as a management application, and an APL group B having a relatively low importance such as an application developed by a 3rd party. Consider the case.

この場合、APLグループBの一部のアプリケーション(コンテナ)がリソースを大量に利用した場合でも、APLグループBは、APLグループB全体としてのリソース利用量が割り当てリソース量以内となるようリソースを利用する。例えば、サーバ1は、APLグループBのアプリケーションが必要とするリソースに対するオーバーコミットを行うことでAPLグループB全体としてのリソース利用量が割り当てリソース量以内となるようにする。その結果、サーバ1は、APLグループBの一部のアプリケーション(コンテナ)がリソースを大量に利用した場合でも、重要度が比較的高いアプリケーションに影響が及ばないようにすることができる。   In this case, even when some applications (containers) in the APL group B use a large amount of resources, the APL group B uses the resources so that the resource usage amount of the APL group B as a whole is within the allocated resource amount. . For example, the server 1 performs overcommit on the resources required by the application of the APL group B so that the resource usage amount as the whole APL group B is within the allocated resource amount. As a result, even when some applications (containers) in the APL group B use a large amount of resources, the server 1 can prevent an application having a relatively high importance from being affected.

ハードウェア11は、サーバ1の備えるCPUやメモリ、ハードディスク、通信インタフェース、入出力インタフェース等である。   The hardware 11 is a CPU, a memory, a hard disk, a communication interface, an input / output interface, and the like included in the server 1.

コンテナ制御部12は、コンテナに対する各種制御を行う。例えば、コンテナ制御部12は、リソース管理部13のリソース管理情報131(詳細は後記)を参照して、コンテナ(アプリケーション)それぞれに、当該コンテナの割り当てリソース量を設定する。なお、各コンテナがAPLグループにグルーピングされた後は、コンテナ制御部12は、リソース管理情報131を参照して、APLグループそれぞれに、当該APLグループの割り当てリソース量を設定する。   The container control unit 12 performs various controls on the container. For example, the container control unit 12 refers to the resource management information 131 (described later in detail) of the resource management unit 13 and sets the allocated resource amount of the container for each container (application). After each container is grouped into an APL group, the container control unit 12 refers to the resource management information 131 and sets the allocated resource amount of the APL group for each APL group.

リソース管理部13は、コンテナそれぞれの重要度に基づき、コンテナをAPLグループにグルーピングし、APLグループのそれぞれのリソース割り当て量を管理する。このリソース管理部13は、リソース管理情報131と、リソース割当部132と、リソース監視部133と、リソース再割当部134とを備える。   The resource management unit 13 groups containers into APL groups based on the importance of each container, and manages the resource allocation amount of each APL group. The resource management unit 13 includes resource management information 131, a resource allocation unit 132, a resource monitoring unit 133, and a resource reallocation unit 134.

リソース管理情報131は、コンテナごとに、当該コンテナの割り当てリソース量と、当該コンテナの属するAPLグループと、当該APLグループの割り当てリソース量とを示した情報である。   The resource management information 131 is information indicating, for each container, the allocated resource amount of the container, the APL group to which the container belongs, and the allocated resource amount of the APL group.

例えば、図2に示すリソース管理情報131は、コンテナの識別情報と、当該コンテナの割り当てリソース量と、当該コンテナ(アプリケーション)の重要度と、当該コンテナの属するAPLグループと、当該APLグループの割り当てリソース量とを対応付けた情報である。このリソース管理情報131は、サーバ1の備える記憶部(図示省略)に記憶される。   For example, the resource management information 131 shown in FIG. 2 includes the container identification information, the allocated resource amount of the container, the importance of the container (application), the APL group to which the container belongs, and the allocated resource of the APL group. This is information that associates quantities. The resource management information 131 is stored in a storage unit (not shown) included in the server 1.

リソース割当部132は、コンテナそれぞれの重要度に基づき、コンテナをAPLグループにグルーピングし、重要度の高いアプリケーションのグループ(APLグループ)から優先的にリソースの割り当てを行う。具体的には、まず、リソース割当部132は、サーバ1のユーザ等から、アプリケーションそれぞれの重要度と、当該重要度のアプリケーションに割り当てたいリソース量(要求リソース量)との入力を受け付ける。次に、リソース割当部132は、入力されたアプリケーションそれぞれの重要度に基づき、アプリケーションのコンテナを2以上のAPLグループにグルーピングする。   The resource allocation unit 132 groups containers into APL groups based on the importance of each container, and allocates resources preferentially from a group of applications with high importance (APL group). Specifically, first, the resource allocation unit 132 receives input of the importance level of each application and the resource amount (requested resource amount) to be allocated to the application of the importance level from the user of the server 1 or the like. Next, the resource allocation unit 132 groups application containers into two or more APL groups based on the importance of each input application.

例えば、リソース割当部132は、アプリケーションの重要度が同一または類似であり、かつ、当該アプリケーションが重点的に利用するリソースの種類の異なるアプリケーションのコンテナ同士を同じAPLグループにグルーピングする。   For example, the resource allocation unit 132 groups containers of applications having the same or similar importance of applications and different types of resources used by the application into the same APL group.

一例を挙げると、リソース割当部132は、重要度が同一または類似するアプリケーションのコンテナうち、メモリ使用量の多いアプリケーションのコンテナとCPU使用率の高いアプリケーションのコンテナとを、同じAPLグループにグルーピングする。これにより、同じAPLグループに属するコンテナのアプリケーション同士が、当該APLグループに割り当てられたリソースを奪い合わないので、効率のよいリソース割り当てを行うことができる。   For example, the resource allocation unit 132 groups application containers having a large memory usage amount and applications having a high CPU usage rate into the same APL group among application containers having the same or similar importance. Thereby, since the applications of the containers belonging to the same APL group do not compete for the resources allocated to the APL group, efficient resource allocation can be performed.

また、リソース割当部132は、重要度の高いAPLグループから優先的に、要求リソース量のリソースを割り当てる。   Further, the resource allocation unit 132 allocates a requested resource amount with priority from an APL group having high importance.

例えば、リソース割当部132は、重要度の高いAPLグループには、ユーザからの要求リソース量どおりのリソース量を割り当てるが、重要度の低いAPLグループには、ユーザからの要求リソース量の8割程度のリソース量を割り当てる。   For example, the resource allocation unit 132 allocates a resource amount according to the requested resource amount from the user to the highly important APL group, but about 80% of the requested resource amount from the user to the less important APL group. Allocate the amount of resources.

つまり、リソース割当部132は、重要度の高いAPLグループほど、ユーザの要求リソース量に対する、当該APLグループへの実際の割り当てリソース量の割合を高くし、重要度の低いAPLグループほど、ユーザの要求リソース量に対する、当該APLグループへの実際の割り当てリソース量の割合を低くする。   That is, the resource allocation unit 132 increases the ratio of the actual allocated resource amount to the APL group with respect to the user's requested resource amount for the higher importance APL group, and the user request for the APL group with the lower importance level. The ratio of the resource amount actually allocated to the APL group with respect to the resource amount is lowered.

リソース割当部132は、上記のようにして各APLグループのコンテナの割り当てリソース量を決定すると、決定した割り当てリソース量をリソース管理情報131(図2参照)に記録する。   When the resource allocation unit 132 determines the allocated resource amount of the container of each APL group as described above, it records the determined allocated resource amount in the resource management information 131 (see FIG. 2).

リソース監視部133は、各APLグループのコンテナのリソース利用量を監視し、各APLグループにリソースの再割り当て(再分配)が必要か否かを判定する。   The resource monitoring unit 133 monitors the resource usage of the containers of each APL group, and determines whether or not resource reassignment (redistribution) is necessary for each APL group.

例えば、リソース監視部133は、各APLグループのリソース利用量を監視した結果、優先度の高いAPLグループAにおけるリソース利用率(割り当てリソース量に対するリソース利用量の割合)が所定値(例えば、80%)以上であった場合を考える。この場合、リソース監視部133は、優先度の低いAPLグループBに余剰リソースがあれば、リソースの再割り当て(再分配)を行う必要があると判定する。そして、リソース監視部133は、リソース再割当部134に、APLグループBにおける割り当てリソース量の一部(例えば、当該APLグループBの割り当てリソース量の20%)を、APLグループAへ割り当てるよう指示する。   For example, the resource monitoring unit 133 monitors the resource usage of each APL group, and as a result, the resource usage rate (the ratio of the resource usage to the allocated resource) in the APL group A having a high priority is a predetermined value (for example, 80% ) Consider the case above. In this case, the resource monitoring unit 133 determines that it is necessary to reallocate (redistribute) resources if there is a surplus resource in the APL group B with low priority. Then, the resource monitoring unit 133 instructs the resource reallocation unit 134 to allocate a part of the allocated resource amount in the APL group B (for example, 20% of the allocated resource amount of the APL group B) to the APL group A. .

リソース再割当部134は、リソース監視部133からの指示に従い、APLグループ間でのリソースの再割り当てを行う。例えば、リソース再割当部134に、リソース監視部133からの指示に従い、優先度が低く余剰リソースのあるAPLグループBの割り当てリソース量の一部を、優先度が高くリソース利用率が所定値以上のAPLグループAへ割り当てる。具体的には、リソース再割当部134は、リソース管理情報131におけるAPLグループBの割り当てリソース量の一部を減らし、減らした分のリソース量をAPLグループAに割り当てる。   The resource reallocation unit 134 reallocates resources between APL groups in accordance with instructions from the resource monitoring unit 133. For example, in accordance with an instruction from the resource monitoring unit 133, the resource reallocation unit 134 determines a part of the allocated resource amount of the APL group B having a low priority and a surplus resource that has a high priority and a resource utilization rate equal to or higher than a predetermined value. Assign to APL group A. Specifically, the resource reallocation unit 134 reduces a part of the allocated resource amount of the APL group B in the resource management information 131 and allocates the reduced resource amount to the APL group A.

以上説明したサーバ1によれば、重要度(優先度)の高いアプリケーションにおけるリソース不足を防止し、かつ、リソースの利用効率を向上させることができる。   According to the server 1 described above, it is possible to prevent resource shortage in an application with high importance (priority), and to improve resource utilization efficiency.

なお、上記の例では、サーバ1が、優先度の低いAPLグループBの余剰リソースを、優先度の高いAPLグループAへ割り当てる(リソース移動を行う)場合について説明したが、これに限定されない。例えば、サーバ1は、優先度の低いAPLグループBのリソース利用率が所定値以上となった場合、優先度の高いAPLグループAの余剰リソースをAPLグループBに割り当ててもよい。この場合、優先度の高いAPLグループAの余剰リソースが、当該APLグループAの割り当てリソース量の30%以上あること等の条件を設ける。このようにすることで、優先度の高いAPLグループの余剰リソースを確保しつつ、優先度の低いAPLグループのリソース不足を防止することができる。   In the above example, the case where the server 1 allocates the surplus resource of the APL group B with low priority to the APL group A with high priority (performs resource movement) is described, but the present invention is not limited to this. For example, the server 1 may assign the surplus resource of the APL group A having the higher priority to the APL group B when the resource usage rate of the APL group B having the lower priority becomes a predetermined value or more. In this case, a condition is set such that the surplus resource of the APL group A having a high priority is 30% or more of the allocated resource amount of the APL group A. By doing so, it is possible to prevent a shortage of resources of the APL group having a low priority while securing surplus resources of the APL group having a high priority.

次に、サーバ1の処理手順を説明する。まず、図3を用いて、サーバ1の処理手順の概要を説明する。   Next, the processing procedure of the server 1 will be described. First, the outline of the processing procedure of the server 1 will be described with reference to FIG.

まず、サーバ1のリソース割当部132は、アプリケーション(コンテナ)をグルーピングする(S1)。これにより、APLグループが複数個作成される。その後、リソース監視部133は、各APLグループのリソース利用量を監視し(S2)、リソースの再割り当てが必要と判定した場合(S3でYes)、リソース再割当部134は、各APLグループのリソースの再割り当てを行う(S4)。一方、リソース監視部133が、リソースの再割り当てが不要と判定した場合(S3でNo)、S2の処理へ戻る。   First, the resource allocation unit 132 of the server 1 groups applications (containers) (S1). As a result, a plurality of APL groups are created. After that, the resource monitoring unit 133 monitors the resource usage of each APL group (S2), and when it is determined that resource reassignment is necessary (Yes in S3), the resource reassignment unit 134 Are reassigned (S4). On the other hand, when the resource monitoring unit 133 determines that resource reassignment is unnecessary (No in S3), the process returns to S2.

次に、図4を用いて、図3のS1の処理を、具体例を交えながら詳細に説明する。   Next, the process of S1 in FIG. 3 will be described in detail with reference to FIG. 4 with a specific example.

例えば、サーバ1のリソース割当部132は、APLグループを複数個作成する(S11)。例えば、リソース割当部132は、アプリケーションの重要度:高、アプリケーションの重要度:中、アプリケーションの重要度:低の3つのAPLグループを作成する。その後、リソース割当部132は、サーバ1のユーザ等から、起動するアプリケーション(コンテナ)と、当該アプリケーションの重要度および要求リソース量との入力を受け付ける(S12)。   For example, the resource allocation unit 132 of the server 1 creates a plurality of APL groups (S11). For example, the resource allocating unit 132 creates three APL groups of application importance: high, application importance: medium, and application importance: low. After that, the resource allocation unit 132 receives an input of the application (container) to be activated, the importance of the application, and the requested resource amount from the user of the server 1 (S12).

次に、リソース割当部132は、S12で受け付けた要求リソース量に任意の倍率をかけたリソース量を各APLグループに割り当て、起動させる(S13)。例えば、リソース割当部132は、S12で受け付けた重要度に対応するAPLグループを特定する。そして、リソース割当部132は、当該APLグループの割り当てリソース量について、S12で受け付けた要求リソース量*任意のかけ率(例えば、アプリケーションの重要度:高ならば「1.0」、アプリケーションの重要度:中ならば「0.8」等)分、増加させる。その後、リソース割当部132は、S12で入力されたアプリケーションを、S12で入力された重要度のAPLグループとして起動させる。なお、上記の任意のかけ率は、S12で入力されたアプリケーションの重要度が高いほど高い値とし、アプリケーションの重要度が引くほど低い値とする。この任意のかけ率の値は、ユーザが設定可能である。   Next, the resource allocation unit 132 allocates a resource amount obtained by multiplying the requested resource amount received in S12 by an arbitrary magnification to each APL group and activates it (S13). For example, the resource allocation unit 132 identifies the APL group corresponding to the importance received in S12. Then, the resource allocating unit 132 determines the requested resource amount received in S12 for the allocated resource amount of the APL group * an arbitrary multiplication rate (for example, “1.0” if the importance of the application is high, : If it is medium, increase it by “0.8”. After that, the resource allocation unit 132 activates the application input in S12 as the APL group of the importance level input in S12. The arbitrary multiplication rate is set to a higher value as the importance of the application input in S12 is higher, and to a lower value as the importance of the application is reduced. The value of this arbitrary multiplication rate can be set by the user.

このようにすることで、サーバ1は、各アプリケーション(コンテナ)の重要度に応じ、各アプリケーションをAPLグループにグルーピングできる。また、サーバ1は、重要度の高いアプリケーションのAPLグループから優先的に、リソースの割り当てを行うことができる。その結果、サーバ1は、重要度の高いアプリケーションにおけるリソース不足を防止することができる。   By doing in this way, the server 1 can group each application into an APL group according to the importance of each application (container). Further, the server 1 can perform resource allocation preferentially from the APL group of the application having high importance. As a result, the server 1 can prevent a resource shortage in a highly important application.

次に、図5を用いて、図3のS2およびS3の処理を、具体例を交えながら詳細に説明する。   Next, the processing of S2 and S3 of FIG. 3 will be described in detail with reference to FIG.

まず、サーバ1のリソース監視部133は、各APLグループのリソース利用量を監視する(S21)。例えば、リソース監視部133は、各APLグループのリソース利用量を定期的に監視する。そして、リソース監視部133が、リソース利用率が所定値(例えば、80%)以上のAPLグループが存在し、かつ、余剰リソースのある(例えば、リソース利用率が50%以下の)APLグループが存在する場合(S22でYes)、リソース再割当部134に対してリソースの再割り当てを要求する(S23)。   First, the resource monitoring unit 133 of the server 1 monitors the resource usage of each APL group (S21). For example, the resource monitoring unit 133 periodically monitors the resource usage of each APL group. Then, the resource monitoring unit 133 has an APL group with a resource usage rate of a predetermined value (for example, 80%) or more and an APL group with surplus resources (for example, a resource usage rate of 50% or less). If so (Yes in S22), the resource reallocation unit 134 is requested to reallocate resources (S23).

例えば、リソース再割当部134に対して、余剰リソースのあるAPLグループの割り当てリソース量の一部(例えば、当該APLグループの割り当てリソース量の20%)を、リソース利用率が所定値(例えば、80%)以上のAPLグループに割り当てるよう要求する。そして、S21の処理へ戻る。   For example, a part of the allocated resource amount of an APL group with surplus resources (for example, 20% of the allocated resource amount of the APL group) is given to the resource reallocation unit 134 with a resource utilization rate of a predetermined value (for example, 80 %) Request to be assigned to the above APL groups. Then, the process returns to S21.

一方、リソース監視部133が、リソース利用率が所定値以上のAPLグループがない場合、または、リソース利用率が所定値以上のAPLグループがあったとしても、余剰リソースのあるAPLグループが存在しない場合(S22でNo)、リソース再割当部134に対してリソースの再割り当ては要求せず、S21の処理へ戻る。   On the other hand, when the resource monitoring unit 133 does not have an APL group with a resource utilization rate equal to or greater than a predetermined value, or there is no APL group with surplus resources even if there is an APL group with a resource utilization rate greater than or equal to a predetermined value (No in S22), no resource reallocation is requested to the resource reallocation unit 134, and the process returns to S21.

次に、図6を用いて、図3のS4の処理を、具体例を交えながら詳細に説明する。サーバ1のリソース再割当部134は、リソース監視部133からリソースの再割り当ての要求を受け付けると(S41でYes)、リソース管理情報131を参照して、リソースの再割り当てが可能か否かを判定する(S42)。例えば、リソース再割当部134は、リソース管理情報131を参照して、余剰リソースのあるAPLグループの割り当てリソース量の一部(例えば、当該APLグループの割り当てリソース量の20%)を、リソース利用率が所定値(例えば、80%)以上のAPLグループに割り当てることができるか否かを判定する。   Next, with reference to FIG. 6, the process of S4 in FIG. 3 will be described in detail with specific examples. When the resource reallocation unit 134 of the server 1 receives a resource reallocation request from the resource monitoring unit 133 (Yes in S41), the resource reallocation unit 134 refers to the resource management information 131 and determines whether the resource can be reallocated. (S42). For example, the resource reallocation unit 134 refers to the resource management information 131 and uses a part of the allocated resource amount of an APL group with surplus resources (for example, 20% of the allocated resource amount of the APL group) as a resource usage rate. Is determined to be able to be assigned to an APL group having a predetermined value (for example, 80%) or more.

S42において、リソース再割当部134が、リソースの再割り当てが可能と判定した場合(S42でYes)、リソースの再割り当てを実行する(S43)。つまり、リソース再割当部134は、リソース管理情報131におけるAPLグループ間の割り当てリソース量を変更する。例えば、リソース再割当部134は、リソース管理情報131における、余剰リソースのあるAPLグループの割り当てリソース量の一部を減らし、減らした分の割り当てリソース量を、リソース利用率が所定値以上のAPLグループの割り当てリソース量に加算する。なお、ここでは図示を省略しているが、S43の後、コンテナ制御部12は、更新後のリソース管理情報131に基づき、各APLグループの割り当てリソース量の設定を行う。   In S42, when the resource reassignment unit 134 determines that the resource can be reassigned (Yes in S42), the resource reassignment unit 134 executes resource reassignment (S43). That is, the resource reallocation unit 134 changes the allocated resource amount between APL groups in the resource management information 131. For example, the resource reallocation unit 134 reduces a part of the allocated resource amount of the APL group with surplus resources in the resource management information 131, and uses the reduced allocated resource amount for the APL group whose resource usage rate is equal to or greater than a predetermined value. Add to the allocated resource amount. Although not shown here, after S43, the container control unit 12 sets the allocated resource amount of each APL group based on the updated resource management information 131.

また、リソース再割当部134は、リソース監視部133からリソースの再割り当ての要求を受け付けなかった場合(S41でNo)、または、S42でリソースの再割り当てが不可能と判定した場合(S42でNo)、処理を終了する。   Further, the resource reallocation unit 134 does not accept the resource reallocation request from the resource monitoring unit 133 (No in S41), or determines that the resource reallocation is impossible in S42 (No in S42). ), The process is terminated.

このようにすることで、サーバ1は、いずれかのAPLグループにおいてリソース不足が発生した場合、余剰リソースのあるAPLグループのリソースを割り当てることができる。その結果、サーバ1は各アプリケーションのリソース不足を防止し、かつ、リソースの利用効率を向上させることができる。   By doing in this way, the server 1 can allocate the resource of the APL group with a surplus resource, when the resource shortage occurs in any APL group. As a result, the server 1 can prevent resource shortage of each application and improve resource utilization efficiency.

なお、リソース管理部13は、サーバ1に装備される場合を例に説明したが、これに限定されない。例えば、リソース管理部13を、サーバ1とは別個の装置により実現してもよい。この場合、リソース管理部13は、ネットワーク経由で、サーバ1のリソースの管理を行えばよい。   In addition, although the resource management part 13 demonstrated as an example the case where it is equipped with the server 1, it is not limited to this. For example, the resource management unit 13 may be realized by a device separate from the server 1. In this case, the resource management unit 13 may manage the resources of the server 1 via the network.

(プログラム)
また、各実施形態で述べたサーバ1の機能を実現するプログラムを所望の情報処理装置(コンピュータ)にインストールすることによって実装できる。例えば、パッケージソフトウェアやオンラインソフトウェアとして提供される上記のプログラムを情報処理装置に実行させることにより、情報処理装置をサーバ1として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistants)等がその範疇に含まれる。また、サーバ1を、クラウドサーバに実装してもよい。
(program)
Further, it can be implemented by installing a program for realizing the function of the server 1 described in each embodiment in a desired information processing apparatus (computer). For example, the information processing apparatus can function as the server 1 by causing the information processing apparatus to execute the program provided as package software or online software. The information processing apparatus referred to here includes a desktop or notebook personal computer. In addition, the information processing apparatus includes mobile communication terminals such as smartphones, mobile phones and PHS (Personal Handyphone System), PDA (Personal Digital Assistants), and the like. Further, the server 1 may be mounted on a cloud server.

図7を用いて、上記のプログラム(リソース管理プログラム)を実行するコンピュータの一例を説明する。図7に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。   An example of a computer that executes the program (resource management program) will be described with reference to FIG. As illustrated in FIG. 7, the computer 1000 includes, for example, a memory 1010, a CPU 1020, a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. These units are connected by a bus 1080.

メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。   The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM (Random Access Memory) 1012. The ROM 1011 stores a boot program such as BIOS (Basic Input Output System). The hard disk drive interface 1030 is connected to the hard disk drive 1090. The disk drive interface 1040 is connected to the disk drive 1100. A removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive 1100, for example. For example, a mouse 1110 and a keyboard 1120 are connected to the serial port interface 1050. For example, a display 1130 is connected to the video adapter 1060.

ここで、図7に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。前記した実施形態で説明した各種データや情報は、例えばハードディスクドライブ1090やメモリ1010に記憶される。   Here, as shown in FIG. 7, the hard disk drive 1090 stores, for example, an OS 1091, an application program 1092, a program module 1093, and program data 1094. Various data and information described in the above embodiment are stored in, for example, the hard disk drive 1090 or the memory 1010.

そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。   Then, the CPU 1020 reads out the program module 1093 and the program data 1094 stored in the hard disk drive 1090 to the RAM 1012 as necessary, and executes the above-described procedures.

なお、上記のリソース管理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、上記のプログラムに係るプログラムモジュール1093やプログラムデータ1094は、LANやWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。   Note that the program module 1093 and the program data 1094 related to the resource management program are not limited to being stored in the hard disk drive 1090. For example, the program module 1093 and the program data 1094 are stored in a removable storage medium and the CPU 1020 via the disk drive 1100 or the like. May be read. Alternatively, the program module 1093 and the program data 1094 related to the above program are stored in another computer connected via a network such as a LAN or a WAN (Wide Area Network) and read by the CPU 1020 via the network interface 1070. May be.

1 サーバ
11 ハードウェア
12 コンテナ制御部
13 リソース管理部
131 リソース管理情報
132 リソース割当部
133 リソース監視部
134 リソース再割当部
1 server 11 hardware 12 container control unit 13 resource management unit 131 resource management information 132 resource allocation unit 133 resource monitoring unit 134 resource reallocation unit

Claims (4)

サーバ上で動作する複数のアプリケーションに対するリソース割り当て量を管理するリソース管理装置において実行されるリソース管理方法であって、
前記アプリケーションそれぞれの重要度を受け付ける受け付けステップと、
前記受け付けた重要度に応じて、前記アプリケーションを2以上のグループにグルーピングするグルーピングステップと、
前記重要度の高いアプリケーションのグループから優先的にリソースを割り当てるリソース割り当てステップと、
前記グループそれぞれのアプリケーションのリソース利用量を監視する監視ステップと、
前記監視の結果、いずれかのグループにおいて割り当てリソース量に対する前記リソース利用量であるリソース利用率が所定値以上となった場合、余剰リソースを持つグループのリソース割り当て量の少なくとも一部を、前記リソース利用率が前記所定値以上のグループに割り当てるリソース再割り当てステップと、
を含んだことを特徴とするリソース管理方法。
A resource management method executed in a resource management device that manages resource allocation amounts for a plurality of applications that operate on a server,
A receiving step for receiving the importance of each of the applications;
A grouping step of grouping the applications into two or more groups according to the received importance;
A resource allocation step of preferentially allocating resources from the group of applications with high importance;
A monitoring step of monitoring resource usage of each group application;
As a result of the monitoring, when the resource usage rate, which is the resource usage amount relative to the allocated resource amount in any group, is equal to or greater than a predetermined value, at least a part of the resource allocation amount of the group having surplus resources is used as the resource usage amount. A resource reallocation step of allocating to a group having a rate equal to or greater than the predetermined value;
A resource management method comprising:
前記リソース割り当てステップにおいて、さらに、
前記重要度が高いアプリケーションのグループほど、前記アプリケーションのグループに対する割り当てリソース量を多くし、前記重要度が低いアプリケーションのグループほど、前記アプリケーションのグループに対する割り当てリソース量を少なくする
ことを特徴とする請求項1に記載のリソース管理方法。
In the resource allocation step,
The group of applications having higher importance increases the amount of resources allocated to the group of applications, and the amount of resources allocated to groups of applications decreases as the group of applications having lower importance. The resource management method according to 1.
前記リソース割り当てステップにおいて、
前記アプリケーションそれぞれの重要度が類似しており、かつ、当該アプリケーションそれぞれが重点的に利用するリソースの種類が異なるアプリケーション同士を同じグループにグルーピングする
ことを特徴とする請求項1に記載のリソース管理方法。
In the resource allocation step,
2. The resource management method according to claim 1, wherein applications having similar importance levels and different types of resources mainly used by the applications are grouped into the same group. .
前記アプリケーションは、コンテナ仮想化技術により、当該アプリケーションが利用可能なリソースが隔離されている
ことを特徴とする請求項1に記載のリソース管理方法。
The resource management method according to claim 1, wherein a resource that can be used by the application is isolated by container virtualization technology.
JP2017095021A 2017-05-11 2017-05-11 Resource management method Pending JP2018190355A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017095021A JP2018190355A (en) 2017-05-11 2017-05-11 Resource management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017095021A JP2018190355A (en) 2017-05-11 2017-05-11 Resource management method

Publications (1)

Publication Number Publication Date
JP2018190355A true JP2018190355A (en) 2018-11-29

Family

ID=64478839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017095021A Pending JP2018190355A (en) 2017-05-11 2017-05-11 Resource management method

Country Status (1)

Country Link
JP (1) JP2018190355A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154392A (en) * 2019-03-18 2020-09-24 日本電気株式会社 Container management equipment, methods and programs
JP2022100244A (en) * 2020-12-23 2022-07-05 インテル コーポレイション Methods and apparatus for loading of container image
CN115086324A (en) * 2022-06-27 2022-09-20 中国电信股份有限公司 Service chain allocation method and system, computer device and storage medium
US20220318061A1 (en) * 2021-03-31 2022-10-06 Mcafee, Llc Dynamic process criticality scoring
JP2024522297A (en) * 2021-06-04 2024-06-13 アビニシオ テクノロジー エルエルシー Dynamic allocation of computing resources

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002244869A (en) * 2001-02-19 2002-08-30 Hitachi Ltd Memory management device
JP2004062911A (en) * 2002-07-26 2004-02-26 Hewlett-Packard Development Co Lp System for managing allocation of computer resource
JP2005032242A (en) * 2003-07-10 2005-02-03 Hewlett-Packard Development Co Lp Monitoring system and monitoring method of utilization of resource, and performance of application
JP2009176097A (en) * 2008-01-25 2009-08-06 Mitsubishi Electric Corp Service management apparatus and program
JPWO2013011624A1 (en) * 2011-07-15 2015-02-23 日本電気株式会社 Virtual machine management system and virtual machine management method
JP2016110428A (en) * 2014-12-08 2016-06-20 株式会社富士通アドバンストエンジニアリング Observation request management program, observation request management method, and information processing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002244869A (en) * 2001-02-19 2002-08-30 Hitachi Ltd Memory management device
JP2004062911A (en) * 2002-07-26 2004-02-26 Hewlett-Packard Development Co Lp System for managing allocation of computer resource
JP2005032242A (en) * 2003-07-10 2005-02-03 Hewlett-Packard Development Co Lp Monitoring system and monitoring method of utilization of resource, and performance of application
JP2009176097A (en) * 2008-01-25 2009-08-06 Mitsubishi Electric Corp Service management apparatus and program
JPWO2013011624A1 (en) * 2011-07-15 2015-02-23 日本電気株式会社 Virtual machine management system and virtual machine management method
JP2016110428A (en) * 2014-12-08 2016-06-20 株式会社富士通アドバンストエンジニアリング Observation request management program, observation request management method, and information processing device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154392A (en) * 2019-03-18 2020-09-24 日本電気株式会社 Container management equipment, methods and programs
JP7230603B2 (en) 2019-03-18 2023-03-01 日本電気株式会社 Container management device, method and program
JP2022100244A (en) * 2020-12-23 2022-07-05 インテル コーポレイション Methods and apparatus for loading of container image
US20220318061A1 (en) * 2021-03-31 2022-10-06 Mcafee, Llc Dynamic process criticality scoring
US11966787B2 (en) * 2021-03-31 2024-04-23 Mcafee Llc Dynamic process criticality scoring
JP2024522297A (en) * 2021-06-04 2024-06-13 アビニシオ テクノロジー エルエルシー Dynamic allocation of computing resources
JP7789092B2 (en) 2021-06-04 2025-12-19 アビニシオ テクノロジー エルエルシー Dynamic allocation of computing resources
CN115086324A (en) * 2022-06-27 2022-09-20 中国电信股份有限公司 Service chain allocation method and system, computer device and storage medium

Similar Documents

Publication Publication Date Title
CN108701059B (en) Multi-tenant resource allocation method and system
US10937125B2 (en) Resource-utilization-based workload re-allocation system
RU2569805C2 (en) Virtual non-uniform memory architecture for virtual machines
US8910153B2 (en) Managing virtualized accelerators using admission control, load balancing and scheduling
EP3483730B1 (en) Resource allocation method and resource manager
US20150286492A1 (en) Optimized resource allocation and management in a virtualized computing environment
CN112825042A (en) Resource management method and device, electronic equipment and storage medium
JP2018190355A (en) Resource management method
US10108459B2 (en) System and method to dynamically allocate varying processing capacity entitlements based on workload importance
WO2016041118A1 (en) Memory management in virtualized computing
WO2016041446A1 (en) Resource allocation method, apparatus and device
US11012316B2 (en) Methods and apparatus to generate and manage workload domains in virtual server racks
US20110153971A1 (en) Data Processing System Memory Allocation
CN116827798A (en) Device management method, device, equipment and machine-readable storage medium
CN113742028A (en) Resource using method, electronic device and computer program product
CN114546587A (en) A method for expanding and shrinking capacity of online image recognition service and related device
CN112384898A (en) Fast, low memory, consistent hashing using initial distribution
CN116414561A (en) Resource scheduling method, device, electronic device and storage medium
CN111813564B (en) Cluster resource management method and device and container cluster management system
CN105677481A (en) Method and system for processing data and electronic equipment
US20150220442A1 (en) Prioritizing shared memory based on quality of service
CN105607955A (en) Calculation task distribution method and apparatus
US9405470B2 (en) Data processing system and data processing method
US20240231943A9 (en) Bin Packing
US11470015B1 (en) Allocating workloads to heterogenous worker fleets

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191210