JP6984576B2 - リソース決定装置、方法及びプログラム - Google Patents
リソース決定装置、方法及びプログラム Download PDFInfo
- Publication number
- JP6984576B2 JP6984576B2 JP2018203673A JP2018203673A JP6984576B2 JP 6984576 B2 JP6984576 B2 JP 6984576B2 JP 2018203673 A JP2018203673 A JP 2018203673A JP 2018203673 A JP2018203673 A JP 2018203673A JP 6984576 B2 JP6984576 B2 JP 6984576B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual machine
- resource
- resources
- amount
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0894—Policy-based network configuration management
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/40—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
- H04L43/0876—Network utilisation, e.g. volume of load or congestion level
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/20—Arrangements for monitoring or testing data switching networks the monitoring system or the monitored elements being virtualised, abstracted or software-defined entities, e.g. SDN or NFV
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/4557—Distribution of virtual machine instances; Migration and load balancing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
- H04L41/0806—Configuration setting for initial configuration or provisioning, e.g. plug-and-play
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0895—Configuration of virtualised networks or elements, e.g. virtualised network function or OpenFlow elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0896—Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/50—Network service management, e.g. ensuring proper service fulfilment according to agreements
- H04L41/5003—Managing SLA; Interaction between SLA and QoS
- H04L41/5009—Determining service level performance parameters or violations of service level contracts, e.g. violations of agreed response time or mean time between failures [MTBF]
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Environmental & Geological Engineering (AREA)
- Debugging And Monitoring (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Description
(2)サービスを運用する際に、ユーザが求めるサービスのパフォーマンス要件を満たし続けるため、ワークロード、環境条件、及び運用ポリシの少なくとも1つが変動する際の、VMに配置されるリソース量の調整に関する決定
上記の(1)、(2)の決定のためには高いスキルが必要になり、クラウド提供者または法人ユーザの有スキル者に依存するため、人的コストの高さが問題になっている。
そのため、非特許文献2では、パフォーマンス要件を保障するためにリソース量を決定する方法を提案している。しかしながら、実運用でリソース量の決定に影響を与える要素としての環境条件および運用ポリシは考慮されていなかった。
ワークロード処理能力は、サービス処理能力への、ユーザからの要求を表す。
例えば、クラウドベースのweb service、 firewall、 DPIサービス等のワークロード処理能力要件は、95[%]以上のリクエストを処理する、90[%]以上のユーザを収容できる、等が挙げられる。
例えば、クラウドベースのweb service、 firewall、 DPIサービス等の遅延要件は、リクエストの処理時間の90[%]を100[ms]以下にする、等が挙げられる。
また、例えば、クラウドベースの機械学習訓練サービス等のワークロード処理能力要件は、1batchの訓練データを130[ms]内に処理する、等が挙げられる。
例えば、ワークロードの種類をweb serviceと定義し、ワークロードの特徴をweb pageのサイズ20[KB]等と定義し、ワークロードの量を1秒で10000リクエスト(以下、10000 [requests per second]と記述する)と定義する、等が挙げられる。
動的な環境条件の例として、物理サーバのリソースの利用率(ここではホストの混雑度とも呼ぶ)が挙げられる。また、静的な環境条件の例として、物理サーバのCPUの種類、メモリのアーキテクチャ等が挙げられる。
本実施形態に係るリソース決定装置は、有スキル者に依存せずに、サービス開通する際にユーザが求めるサービスのパフォーマンス要件を満たすために、ワークロード、環境条件、運用ポリシに応じて、仮想マシン(VM)に配置される必要なリソース量を自動的に決定する。ワークロードは仮想マシンの処理負荷に対応し、パフォーマンス要件は仮想マシンの処理性能要件に対応し、環境条件は、仮想マシンが収容される物理マシンのリソースの運用状態に対応し、運用ポリシは、仮想マシンのリソースの運用状態のポリシに対応する。
また、本実施形態に係るリソース決定装置は、サービスを運用する際に、ユーザが求めるサービスのパフォーマンス要件を満たし続けるために、パフォーマンス要件、ワークロード、環境条件、運用ポリシの少なくとも1つが変動する際に、VMに配置されるリソース量を自動的に調整する。
図1に示すように、本発明の一実施形態に係るリソース決定装置10は、モデル管理・保存部11、リソース量算出部12、VM実装・スケーリング制御部13、監視・データ収集部14を備える。VM実装・スケーリング制御部13と監視・データ収集部14とをあわせて実装・監視部と称することもできる。
モデル管理・保存部11は、上記メモリのうち随時書込及び読み出しが可能な不揮発性メモリに設けられる。
環境条件に関するログデータは監視・データ収集部14部の出力となる監視データからリアルタイムに抽出することができる。ワークロードに関するログデータは、クラウドユーザの設定データあるいは上記の監視データから抽出が可能である。パフォーマンス要件は、クラウドユーザが設定可能である。運用ポリシは、クラウドユーザあるいはクラウド提供者が設定可能である。
具体的には、監視・データ収集部14は、VM実装・スケーリング制御部13により実装あるいはスケーリングされたVMのパフォーマンスに関するログデータ、VM実装・スケーリング制御部13により実装あるいはスケーリングされたVMのワークロードに関するログデータ、VM実装・スケーリング制御部13により実装あるいはスケーリングされたVMのリソースの運用状態に関するログデータ、VM実装・スケーリング制御部13により実装あるいはスケーリングされたVMを収容する物理マシンに関する環境条件に関するログデータ、VM実装・スケーリング制御部13により実装あるいはスケーリングされたVMのリソース量に関するログデータ、等でなる監視データを収集し、また、この監視データを過去監視データとしてフィッティング・学習モデルの継続学習(更新)に用いることもできる。
(1)必要なリソース量をYAML(yaml ain't markup language)に書き込み、HEATに渡してVMを実装する。
(2)必要なリソース量をTOSCA(Topology and Orchestration Specification for Cloud Applications)に書き込み、Tackerに渡してVMを実装する。
YAML、HEAT、TOSCA、Tacker、openstack ceilometerは以下に開示されている。
YAML:http://yaml.org/
HEAT:https://wiki.openstack.org/wiki/Heat
TOSCA:http://docs.oasis-open.org/tosca/tosca-nfv/v1.0/tosca-nfv-v1.0.html
Tacker:https://wiki.openstack.org/wiki/Tacker
openstack ceilometer:https://docs.openstack.org/ceilometer/queens/
図2に示す方式では、モデル管理・保存部11、リソース量算出部12、VM実装・スケーリング制御部13、監視・データ収集部14でなる各機能部を一つの計算機に実装する方式、または各機能部をそれぞれ単独に計算機に実装する方式が挙げられる。
機能部間の通信はhttp等の通信プロトコルによって実現可能である。
監視clientと監視・データ収集部14間の通信、及びVM実装clientとVM実装・スケーリング制御部13間の通信は、http等の通信プロトコルによって実現可能である。
また、パフォーマンス要件を満たしつつ、運用ポリシに従って、サービスを運用可能である。
図3は、本発明の一実施形態に係るリソース決定装置が入力する環境条件の影響の一例を示す図である。
環境条件の例としては、ホスト混雑度(即ちホストリソース利用率)が挙げられる。
まず、混雑度が低いホスト(図3に示した例では、ホストCPU(ホストに搭載されたCPU)利用率が0[%]であるホスト(A))に配置された、vCPU数が4であるVM(A)のパフォーマンスと、混雑度が高いホスト(図3に示した例では、ホストCPU利用率が90[%]であるホスト(B))に配置された、vCPU数が4であるVM(B)のパフォーマンスとは等しくない可能性が高い。そのため、同じパフォーマンス要件を満たすため、VM(B)に、VM(A)と比較して、より多くのリソースを配置する必要がある。
運用ポリシの例としては、VM内のリソース利用率制限が挙げられる。
サービスの差別化、運用の安定性向上、及びリソース利用効率化、等のため、クラウド提供者のVM内のリソース利用率に制限を定めることがある。図4では、リソース利用率制限を定めないことが、パフォーマンス要件の不満足、ボトルネックの発生、リソース利用効率の低下につながることを示す。
VM内のリソース利用率を制限範囲に維持するには、ワークロードに応じて、VMに配置されるリソース量を決定・調整する必要がある。
図4に示した第2の例では、ワークロード等の増加によって、VM(vCPU数=4)内のリソース利用率が70[%]から100[%]に増加したことから、SLA(Service Level Agreement)に違反する可能性が上昇する。
図4に示した第3の例では、サービスを構成する複数のVM(例えば1つ目のVM(vCPU数=4)、2つ目のVM(vCPU数=6))において、1つ目のVM内のリソース利用率が99[%]で2つ目のVM内のリソース利用率が20[%]であることから、リソース使用率が高い1つ目のVMがボトルネックになる可能性が高い。また、2つ目のVMに過剰なリソースが配置されることを防ぐことができないため、2つ目のVMのリソース利用効率が低下する可能性がある。
該当のパフォーマンス要件に対して、VM内のリソース利用率を適切な範囲に維持するためには、適切なリソース量を決定する必要がある。
図5に示した例では、監視データは、timestamp(年月日)、sent requests per second、received responses per second、average process time[ms]、VMに配置したvCPU数、VMに配置したメモリ量[GB]、VMに配置したstorage size[GB]、VM内のCPU利用率[%]、VM内のメモリ利用率[%]、ホストCPU利用率[%]、ホストメモリ(ホストに配置されたメモリ)利用率[%]を含む。その他、監視データは、i/o throughput、storage 利用率、paging ratioなどを含んでもよい。
sent requests per secondはワークロードの量に関するログデータに対応する。
received responses per second、average process timeは、パフォーマンスに関するログデータに対応する。また、received responses per secondは、該当環境条件及び運用ポリシのときに実際に処理したワークロードの量を示す。
VM内のCPU利用率、VM内のメモリ利用率は、VMのリソースの運用状態に対応する。
ホストCPU利用率、ホストメモリ利用率は、環境条件に対応する。
モデルの形、モデルのフィッティング・学習手法及びリソース量の算出手法の実現手法は複数存在する。ここでは以下の2つの例をあげる。
(1)数理モデル・フィッティング手法
(2)ニューラルネットワークモデル(Neural Network Model)・学習手法
数理モデル・フィッティング手法のモデル、フィッティング手法は、以下のとおりである。
モデル:数理関数、例えば線形モデル、多項式モデル及びその組み合わせ
フィッティング手法:選定された関数にフィッティング(近似)する。
モデル:ニューラルネットワークモデル
学習手法:過去監視データを訓練データとして、ニューラルネットワークを学習させる。
フィッティング・学習モデルに相当する、リソースパラメータ決定・変更用モデルは、リソースパラメータ、ワークロード、環境条件を入力し、パフォーマンスに関する推測結果、及びVMのリソースの運用状態に関する推測結果をそれぞれ出力する。
ワークロードは、ワークロード種類・特性(e.g. LB(Load Balancer)/ WS/ DB...)、ワークロード量(e.g. 1000[requests/s]...)を含む。
環境条件は、Hostリソース利用率(混雑度)(e.g. ホストCPU利用率20[%]...)、その他ハードウエア条件を含む。
パフォーマンスに関する推測結果は、パフォーマンス(workload収容量等)(e.g. m [requests/s]...)を含む。
VMのリソースの運用状態に関する推測結果は、VM リソース利用率(e.g. CPU: 60〜80[%]、 memory: < 60[%])を含む。
数理モデル・フィッティング手法における初期モデルは、2つの多項式モデルf1、f2を用いて構成される。多項式モデルの選定基準は、過去監視データに対する観察分析結果である。また、多項式モデル以外に、他の数理モデルの形もありうる。
VM最大ワークロード処理能力は、以下の式(1)で表される。
VM最大ワークロード処理能力=f1(vCPU数、ホスト混雑度) …式(1)
VM最大ワークロード処理能力は、過去監視データから、該当のvCPU数とホスト混雑度に対して抽出することができる。
VM内のリソース利用率は、以下の式(2)で表される。
VM内のリソース利用率=f2(vCPU数、ワークロード) …式(2)
過去監視データに対する観察分析では、VM内のリソース利用率は、vCPU数とワークロードに影響され、ホスト混雑度に影響されないことが示されている。
学習器により、初期モデルに過去監視データがフィッティングされることよって、初期モデルの関数f1とf2が確定されて、フィッティングモデルが生成される。
まず、リソース量算出部12は、ワークロードのログデータ、パフォーマンス要件(ワークロード処理能力要件)、環境条件(ホストの混雑度)のログデータ、及び運用ポリシ(VM内のリソース利用率制限)をそれぞれ入力する(S11)。
リソース量算出部12は、S15での選出結果であるvCPU数を、ワークロード処理能力要件、運用ポリシをそれぞれ満たせる、VMに配置するリソース量としてVM実装・スケーリング制御部13に出力する(S16)。
ニューラルネットワークモデル・学習手法における初期モデルは、2つのニューラルネットワークモデル(モデルA、モデルB)によって構成される。
図8に示すように、モデルAは、ワークロード、ホストCPUリソース混雑度、VM内のCPUリソース利用率、vCPU数を入力し、VMが処理できるワークロード処理量を出力する。
図9に示すように、モデルBは、ワークロード、ホストCPUリソース混雑度、ワークロード処理量、vCPU数を入力し、VM内のCPUリソース利用率を出力する。
また、図8、9に示したニューラルネットワークモデルの形以外に、他のニューラルネットワークモデルの形もありうる。
まず、リソース量算出部12は、ワークロードのログデータ、パフォーマンス要件(ワークロード処理能力要件)、環境条件(ホストの混雑度)のログデータ、及び運用ポリシ(VM内のリソース利用率制限)をそれぞれ入力する(S21)。
リソース量算出部12は、S15での選出結果であるvCPU数を、ワークロード処理能力要件、運用ポリシをそれぞれ満たせる、VMに配置するリソース量としてVM実装・スケーリング制御部13に出力する(S26)。
(1)サービス開通する際に、リソース決定装置10のリソース量算出部12は、ワークロード、パフォーマンス要件、環境状況、運用ポリシに応じて、VMに配置されるリソース量を算出する。
ここでは、初期モデルにニューラルネットワークが用いられる。
ここでは、過去に提供されたサービスの過去監視データが学習器に入力されて学習モデルが生成されてモデル管理・保存部11に格納されている。
VM実装・スケーリング制御部13は、vCPU数が4で、メモリ量が1[GB]のVMを実装し、他のオペレーションサポートシステムと連携してサービスを提供する。
ここでは、初期モデルにニューラルネットワークが用いられる。
サービスのワークロード量が10000[requests per second]から20000[requests per second]に変更され、VM内のリソース利用率制限が50〜70[%]から60〜80[%]に変更され、また、VMが収容されるホストのCPUリソースの混雑が10[%]から30[%]に変動し、ホストのメモリリソースの混雑度が40[%]から50[%]に変動したと仮定する。
Claims (5)
- 仮想マシンの処理負荷、前記仮想マシンの処理性能、前記仮想マシンが収容される物理マシンのリソースの運用状態、及び前記仮想マシンのリソースの運用状態と、前記仮想マシンに配置されるリソース量との関係を示すモデルを格納する格納部と、
前記仮想マシンが収容される物理マシンのリソースの運用状態の監視結果、前記仮想マシンの処理負荷、及び前記格納部に格納されるモデルに基づいて、前記仮想マシンの処理性能の要件及び前記仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、前記仮想マシンに配置されるリソース量を算出する算出手段と、
を備えたリソース決定装置。 - 前記算出手段は、
前記仮想マシンの処理負荷、前記仮想マシンの処理性能の要件、前記仮想マシンのリソースの運用状態のポリシ、及び前記仮想マシンが収容される物理マシンのリソースの運用状態の監視結果のうち少なくとも1つが変動したときに、前記仮想マシンの処理性能の要件及び前記仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、前記仮想マシンに配置されるリソース量を再度算出する、
請求項1に記載のリソース決定装置。 - 前記算出手段による算出結果に基づいて、前記仮想マシンにリソースを実装する実装手段と、
前記実装手段によりリソースが実装された前記仮想マシンが収容される前記物理マシンのリソースの運用状態、前記実装手段によりリソースが実装された仮想マシンのリソースの運用状態、前記実装手段によりリソースが実装された仮想マシンの処理負荷、前記実装手段によりリソースが実装された仮想マシンの処理性能をそれぞれ監視し、前記監視結果として出力する監視手段と、
をさらに備え、
前記モデルは、前記監視手段による監視結果に基づいて学習され、
前記算出手段は、
前記実装手段によりリソースが実装された仮想マシンの処理負荷、前記実装手段によりリソースが実装された仮想マシンが収容される物理マシンのリソースの運用状態の監視結果、及び前記格納部に格納されるモデルに基づいて、前記仮想マシンの処理性能の要件及び前記仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、前記仮想マシンに配置されるリソース量を算出する、
請求項1に記載のリソース決定装置。 - リソース決定装置が行うリソース決定方法であって、
仮想マシンの処理負荷、前記仮想マシンの処理性能、前記仮想マシンが収容される物理マシンのリソースの運用状態、及び前記仮想マシンのリソースの運用状態と、前記仮想マシンに配置されるリソース量との関係を示すモデルを格納部から取得し、前記取得されたモデルと、前記仮想マシンが収容される物理マシンのリソースの運用状態の監視結果と、前記仮想マシンの処理負荷とに基づいて、前記仮想マシンの処理性能の要件及び前記仮想マシンのリソースの運用状態のポリシをそれぞれ満たす、前記仮想マシンに配置されるリソース量を算出する、リソース決定方法。 - 請求項1乃至3のいずれか1項に記載のリソース決定装置の前記各手段としてプロセッサを機能させるリソース決定処理プログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018203673A JP6984576B2 (ja) | 2018-10-30 | 2018-10-30 | リソース決定装置、方法及びプログラム |
| US17/289,398 US11995460B2 (en) | 2018-10-30 | 2019-10-29 | Resource determination device, method, and program |
| PCT/JP2019/042411 WO2020090830A1 (ja) | 2018-10-30 | 2019-10-29 | リソース決定装置、方法及びプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018203673A JP6984576B2 (ja) | 2018-10-30 | 2018-10-30 | リソース決定装置、方法及びプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020072327A JP2020072327A (ja) | 2020-05-07 |
| JP6984576B2 true JP6984576B2 (ja) | 2021-12-22 |
Family
ID=70463769
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018203673A Active JP6984576B2 (ja) | 2018-10-30 | 2018-10-30 | リソース決定装置、方法及びプログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US11995460B2 (ja) |
| JP (1) | JP6984576B2 (ja) |
| WO (1) | WO2020090830A1 (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20240248745A1 (en) * | 2021-03-25 | 2024-07-25 | Nippon Telegraph And Telephone Corporation | Resource determination device, method, and program |
| CN115643178B (zh) * | 2022-10-26 | 2024-12-06 | 新华三信息安全技术有限公司 | 一种网络靶场配置方法、装置、设备及机器可读存储介质 |
| CN117858262B (zh) * | 2024-03-07 | 2024-05-14 | 成都爱瑞无线科技有限公司 | 基站资源调度优化方法、装置、基站、设备、介质及产品 |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012511292A (ja) * | 2008-12-10 | 2012-05-17 | エヌイーシー ヨーロッパ リミテッド | 基盤ネットワーク上で少なくとも1つの仮想ネットワークを動作させる方法および仮想ネットワーク環境 |
| US9274918B2 (en) * | 2013-07-25 | 2016-03-01 | International Business Machines Corporation | Prediction of impact of workload migration |
| US11307884B2 (en) * | 2014-07-16 | 2022-04-19 | Vmware, Inc. | Adaptive resource management of a cluster of host computers using predicted data |
| JP6466789B2 (ja) * | 2015-06-22 | 2019-02-06 | 日本電信電話株式会社 | 物理経路割当装置、物理経路割当方法、及びプログラム |
| JP6885403B2 (ja) * | 2016-07-21 | 2021-06-16 | 日本電気株式会社 | リソース管理装置、リソース管理方法及びプログラム |
-
2018
- 2018-10-30 JP JP2018203673A patent/JP6984576B2/ja active Active
-
2019
- 2019-10-29 WO PCT/JP2019/042411 patent/WO2020090830A1/ja not_active Ceased
- 2019-10-29 US US17/289,398 patent/US11995460B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2020072327A (ja) | 2020-05-07 |
| US20220004419A1 (en) | 2022-01-06 |
| WO2020090830A1 (ja) | 2020-05-07 |
| US11995460B2 (en) | 2024-05-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11799901B2 (en) | Predictive rate limiting system for cloud computing services | |
| Polamarasetti | Machine learning techniques analysis to Efficient resource provisioning for elastic cloud services | |
| Ghanbari et al. | Exploring alternative approaches to implement an elasticity policy | |
| Wood et al. | Sandpiper: Black-box and gray-box resource management for virtual machines | |
| US8661136B2 (en) | Method and system for work load balancing | |
| WO2017000628A1 (zh) | 一种云计算系统中的资源调度方法及装置 | |
| US20120221730A1 (en) | Resource control system and resource control method | |
| Duggan et al. | A reinforcement learning approach for the scheduling of live migration from under utilised hosts | |
| Al-Dulaimy et al. | Multiscaler: A multi-loop auto-scaling approach for cloud-based applications | |
| CN113543160B (zh) | 5g切片资源配置方法、装置、计算设备及计算机存储介质 | |
| JP6984576B2 (ja) | リソース決定装置、方法及びプログラム | |
| Bauer et al. | On the value of service demand estimation for auto-scaling | |
| Chouliaras et al. | Auto-scaling containerized cloud applications: A workload-driven approach | |
| Kim et al. | Dynamic control of cpu usage in a lambda platform | |
| Klusáček et al. | Analysis of mixed workloads from shared cloud infrastructure | |
| Carrusca et al. | Microservices management on cloud/edge environments | |
| Dechouniotis et al. | A control‐theoretic approach towards joint admission control and resource allocation of cloud computing services | |
| Rout et al. | A Dynamic Scalable Auto-Scaling Model as a Load Balancer in the Cloud Computing Environment. | |
| Singh et al. | Decentralized LPV-MPC controller with heuristic load balancing for a private cloud hosted application | |
| Sood | Function points‐based resource prediction in cloud computing | |
| Giannakopoulos et al. | Smilax: statistical machine learning autoscaler agent for apache FLINK | |
| EP4357975A1 (en) | Improved prediction methods of resource usage or physical quantities | |
| Melhem et al. | Minimizing biased VM selection in live VM migration | |
| Shi et al. | Power-aware performance management of virtualized enterprise servers via robust adaptive control | |
| Vachhani et al. | Enhancing Cloud Computing Efficiency: Dynamic and Predictive Resource Allocation and Load Balancing Strategies |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210127 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211026 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211108 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6984576 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |