[go: up one dir, main page]

JP2018032245A - Computer system and resource control method - Google Patents

Computer system and resource control method Download PDF

Info

Publication number
JP2018032245A
JP2018032245A JP2016164570A JP2016164570A JP2018032245A JP 2018032245 A JP2018032245 A JP 2018032245A JP 2016164570 A JP2016164570 A JP 2016164570A JP 2016164570 A JP2016164570 A JP 2016164570A JP 2018032245 A JP2018032245 A JP 2018032245A
Authority
JP
Japan
Prior art keywords
event
information
business system
monitoring unit
network service
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016164570A
Other languages
Japanese (ja)
Inventor
達也 白井
Tatsuya Shirai
達也 白井
古橋 亮慈
Ryoji Furuhashi
亮慈 古橋
大輔 岡部
Daisuke Okabe
大輔 岡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016164570A priority Critical patent/JP2018032245A/en
Publication of JP2018032245A publication Critical patent/JP2018032245A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)

Abstract

【課題】突発的な通信量の増加時に伴って、ネットワークへの接続不良及び通信速度の低下等の問題が発生する。【解決手段】ネットワークサービスを構成する業務システムにリソースを提供する第1システム及び第1システムを管理する第2システムを含む計算機システムであって、第1システムには業務システムが構築され、第2システムは、スケーリングを実行するリソース管理部と、ネットワークサービスに影響を与えるイベントの発生を監視する監視部とを含み、監視部は、検出された第1イベントの後に発生する第2イベントの発生予測日時を算出し、第2イベントの影響を受けるネットワークサービスを特定し、ネットワークサービスを構成する業務システムに対するスケーリングの種別、変更リソース量、及び実行日時を含む設定情報を生成する。【選択図】図2[PROBLEMS] A problem such as a poor connection to a network and a reduction in communication speed occurs with a sudden increase in traffic. A computer system including a first system for providing resources to a business system constituting a network service and a second system for managing the first system, wherein a business system is constructed in the first system, The system includes a resource management unit that performs scaling and a monitoring unit that monitors the occurrence of an event affecting a network service, wherein the monitoring unit predicts the occurrence of a second event that occurs after the detected first event. A date and time is calculated, a network service affected by the second event is specified, and setting information including a type of scaling, a change resource amount, and an execution date and time for the business system configuring the network service is generated. [Selection diagram] FIG.

Description

本発明は、ネットワーク仮想化技術におけるスケーリングの制御方法に関する。   The present invention relates to a scaling control method in network virtualization technology.

近年、ネットワークを介してサーバ群のリソースを活用して、仮想化されたサーバ装置、ストレージ装置、及びネットワーク装置等の運用の自動化を実現するクラウドコンピューティング(以下、クラウド)が普及している。   2. Description of the Related Art In recent years, cloud computing (hereinafter referred to as “cloud”) that realizes automation of operations of virtualized server devices, storage devices, network devices, and the like by utilizing resources of a server group via a network has become widespread.

クラウドを使用することによって、システム管理者は、自前でサーバ等を保持することなく、必要なときに必要な量のリソースを調達し、低コストで柔軟なシステムを構築することができる。   By using the cloud, the system administrator can procure a necessary amount of resources when necessary without using a server or the like, and can construct a flexible system at a low cost.

クラウドを利用したシステムの例として、ネットワーク装置の機能を汎用的なサーバ装置上で稼働する仮想マシン(VM)上のソフトウェアを用いて実現するNFV(Network Functions Virtualization)がある。   As an example of a system using the cloud, there is NFV (Network Functions Virtualization) that realizes the function of a network device using software on a virtual machine (VM) running on a general-purpose server device.

クラウド環境において、VMの負荷に応じて処理性能を制御する方法として、スケーリングが利用されている。   In a cloud environment, scaling is used as a method for controlling processing performance in accordance with a VM load.

スケーリングでは、監視装置等が、対象システムの処理負荷を監視し、処理負荷が一定の閾値より大きい場合、対象システム上で稼働するVMの数又はVMに割り当てるリソースを増減させることによって、リソースの利用効率を向上させることができる。   In scaling, a monitoring device or the like monitors the processing load of the target system, and when the processing load is larger than a certain threshold, resource usage is performed by increasing or decreasing the number of VMs operating on the target system or the resources allocated to the VM. Efficiency can be improved.

スケーリングには、VMの数を追加するスケールアウト、VMの数を削減するスケールイン、VMに割り当てるリソース量を増やすスケールアップ、VMに割り当てるリソースを減らすスケールダウンがある。   The scaling includes a scale-out for adding the number of VMs, a scale-in for reducing the number of VMs, a scale-up for increasing the amount of resources allocated to VMs, and a scale-down for reducing resources allocated to VMs.

クラウド環境におけるスケーリングについては、特許文献1及び特許文献2に記載されている技術が知られている。   Regarding scaling in a cloud environment, techniques described in Patent Document 1 and Patent Document 2 are known.

特許文献1には、「本システムは、対象システムの仮想サーバのスケール制御を行う機能を有し、対象システムを利用する顧客企業のカレンダー情報及びスケール制御のための実スケジュールを生成するための定義情報を設定する処理部と、設定情報を参照して、スケール制御のための実スケジュール情報を生成するスケジューリング処理を行う処理部と、実スケジュール情報に従う日時タイミングで、仮想サーバに対するスケール制御の指示を送信する処理を行う処理部とを有する。」ことが記載されている。   Patent Document 1 states that “This system has a function to perform scale control of a virtual server of a target system, and defines a calendar information of a client company that uses the target system and an actual schedule for scale control. A processing unit for setting information, a processing unit for performing scheduling processing for generating actual schedule information for scale control with reference to the setting information, and a scale control instruction to the virtual server at a date and time timing according to the actual schedule information And a processing section that performs processing to transmit. "

また、特許文献2には、「通信システムは通信装置と情報処理装置とを含む。通信装置は、通信インタフェース部を介して伝送されるパケットを処理する1つ以上の機能を含み、自通信装置の負荷の状態を監視し、負荷が閾値より高くなった場合に、負荷が閾値より高くなった状態の要因となっている1つ以上の機能の中の特定機能に関する情報を情報処理装置に供給した後、受信したパケットを情報処理装置に転送する。情報処理装置は、特定機能に関する情報を受信して、特定機能に対応する機能を含む仮想装置を動的に生成し、転送されたパケットを受け取って仮想装置に処理させる。」ことが記載されている。   Patent Document 2 also discloses that “a communication system includes a communication device and an information processing device. The communication device includes one or more functions for processing a packet transmitted via a communication interface unit. When the load becomes higher than the threshold value, information related to a specific function among one or more functions that cause the load to become higher than the threshold value is supplied to the information processing apparatus. After that, the received packet is transferred to the information processing device, which receives the information related to the specific function, dynamically generates a virtual device including the function corresponding to the specific function, and transmits the transferred packet. It is received and processed by the virtual device ”.

特開2013−41397号公報JP 2013-41397 A 特開2015−70446号公報Japanese Patent Laying-Open No. 2015-70446

OpenStack Foundation、"OpenStack Operations Guide"、[online]、[平成28年3月17日検索]、インターネット〈URL: http://docs.openstack.org/openstack-ops/openstack-ops-manual.pdf〉OpenStack Foundation, "OpenStack Operations Guide", [online], [Search March 17, 2016], Internet <URL: http://docs.openstack.org/openstack-ops/openstack-ops-manual.pdf>

近年、IoTの普及によって、ネットワークに接続されるIoTデバイスの数が飛躍的に増加している。IoTデバイスは、センサ及び通信機能を内蔵し、センサによって収集された情報をデータ収集装置に送信する。   In recent years, with the spread of IoT, the number of IoT devices connected to a network has increased dramatically. The IoT device incorporates a sensor and a communication function, and transmits information collected by the sensor to a data collection device.

IoTデバイスとデータ収集装置との間の通信経路には、クラウド上で運用されるネットワーク機能を有するVMが存在し、当該ネットワーク機能によって転送処理が行われる。   On the communication path between the IoT device and the data collection device, there is a VM having a network function operated on the cloud, and a transfer process is performed by the network function.

IoTデバイスは、センサを用いてリアルタイムに情報を収集し、宛先の装置に収集した情報を送信するため、通信量は一定ではない。そのため、IoTデバイスと宛先の装置との間の通信量が、突発的に増加した場合、スケーリングが間に合わず、ネットワーク機能の処理負荷が増大することによってパケットロスが発生する。したがって、IoTデバイスの情報を有効に活用することが困難となる。   Since the IoT device collects information in real time using a sensor and transmits the collected information to a destination device, the amount of communication is not constant. For this reason, when the amount of communication between the IoT device and the destination device suddenly increases, the scaling is not in time, and the processing load of the network function increases, resulting in packet loss. Therefore, it becomes difficult to effectively use information of the IoT device.

また、停電等、予測が困難な第1イベントが発生した場合、第1イベントが発生してから一定時間経過した後に発生が見込まれるネットワーク復旧等の第2イベントの発生に伴って通信量が増加する。この場合も、ネットワークへの接続不良及び通信速度の低下という問題が発生する。   In addition, when a first event that is difficult to predict occurs, such as a power failure, the amount of communication increases with the occurrence of a second event such as network recovery that is expected to occur after a certain period of time has elapsed since the first event. To do. Also in this case, problems such as poor connection to the network and a decrease in communication speed occur.

特許文献1又は特許文献2に記載のシステムでは、第2イベントの予測に基づいてスケーリングが行われない。したがって、大規模なネットワーク障害が復旧した場合等、突発的に通信量が増加した場合、スケーリングが間に合わない可能性がある。ネットワーク機能の処理負荷に伴って発生するネットワークの輻輳によって、ネットワークへの接続不良及び通信速度の低下等の問題を引き起こす。   In the system described in Patent Document 1 or Patent Document 2, scaling is not performed based on the prediction of the second event. Therefore, if the communication traffic suddenly increases, such as when a large-scale network failure is recovered, scaling may not be in time. Network congestion caused by the processing load of the network function causes problems such as poor connection to the network and a reduction in communication speed.

本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、ネットワークサービスを構成する業務システムにリソースを提供する複数の第1システム及び前記複数の第1システムを管理する第2システムを含む計算機システムであって、前記複数の第1システムの各々は、複数の第1計算機を含み、前記第2システムは、少なくとも一つの第2計算機を含み、前記第1システムには、異なるネットワークサービスを提供する業務システムが構築され、前記業務システムは、前記第1計算機のリソースを用いて生成され、かつ、ネットワーク機能を有する仮想計算機を含み、前記複数の第1計算機は、前記仮想計算機を管理する仮想化制御部を含み、前記少なくとも一つの第2計算機は、前記業務システムに割り当てるリソース量を制御するためのスケーリングを実行するリソース管理部と、前記ネットワークサービスに影響を与えるイベントの発生を監視する監視部と、を含み、前記監視部は、第1イベントの発生を検出した場合、前記第1イベントの後に発生する第2イベントの発生予測日時を算出し、前記第2イベントの影響を受けるネットワークサービスを特定し、前記特定されたネットワークサービスを構成する業務システムに対する前記スケーリングの種別、前記スケーリングによって変更される業務システムのリソース量を表す変更リソース量、及び前記スケーリングの実行日時を含む設定情報を生成することを特徴とする。   A typical example of the invention disclosed in the present application is as follows. That is, a computer system including a plurality of first systems that provide resources to a business system that constitutes a network service and a second system that manages the plurality of first systems, each of the plurality of first systems including: The first system includes a plurality of first computers, the second system includes at least one second computer, and a business system that provides different network services is constructed in the first system, and the business system includes the first computer A virtual computer generated using a computer resource and having a network function, wherein the plurality of first computers includes a virtualization control unit that manages the virtual computer, and the at least one second computer includes: A resource management unit that performs scaling for controlling the amount of resources allocated to the business system; A monitoring unit that monitors the occurrence of an event that affects the network service, and when the monitoring unit detects the occurrence of the first event, the predicted occurrence date and time of the second event that occurs after the first event And a network resource that is affected by the second event, a type of scaling for the business system that constitutes the specified network service, and a change resource that represents the resource amount of the business system that is changed by the scaling The setting information including the amount and the execution date and time of the scaling is generated.

本発明によれば、監視部は、第2イベントに応じたスケーリングに必要なパラメータ及び実行タイミングを含むスケジュールを設定できる。当該スケジュールに基づいてスケーリングが行われることによって、突発的な通信量の増加に伴うネットワークの接続不良及び通信速度の低下等を防ぐことができる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。   According to the present invention, the monitoring unit can set a schedule including parameters and execution timing necessary for scaling according to the second event. By performing scaling based on the schedule, it is possible to prevent a network connection failure and a decrease in communication speed due to a sudden increase in communication amount. Problems, configurations, and effects other than those described above will become apparent from the following description of embodiments.

実施例1の計算機システムの構成例を示す図である。1 is a diagram illustrating a configuration example of a computer system according to a first embodiment. 実施例1のイベント分析サーバのハードウェア構成及びソフトウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration and a software configuration of an event analysis server according to the first embodiment. 実施例1のオーケストレーションサーバのハードウェア構成及びソフトウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration and a software configuration of an orchestration server according to the first embodiment. 実施例1のイベント種別情報の一例を示す図である。It is a figure which shows an example of the event classification information of Example 1. 実施例1のイベント監視対象情報の一例を示す図である。It is a figure which shows an example of the event monitoring object information of Example 1. 実施例1のスケーリング種別情報の一例を示す図である。It is a figure which shows an example of the scaling classification information of Example 1. 実施例1の場所管理情報の一例を示す図である。It is a figure which shows an example of the location management information of Example 1. FIG. 実施例1のサービス情報の一例を示す図である。It is a figure which shows an example of the service information of Example 1. 実施例1のイベント情報の一例を示す図である。It is a figure which shows an example of the event information of Example 1. 実施例1のオーケストレーション設定情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of orchestration setting information according to the first embodiment. 実施例1のネットワーク機能情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of network function information according to the first embodiment. 実施例1のパッケージ情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of package information according to the first embodiment. 実施例1のシナリオ情報の一例を示す図である。It is a figure which shows an example of the scenario information of Example 1. 実施例1のハイパバイザ情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of hypervisor information according to the first embodiment. 実施例1のテナント情報の一例を示す図である。It is a figure which shows an example of the tenant information of Example 1. 実施例1のネットワーク機能インスタンス情報の一例を示す図である。It is a figure which shows an example of the network function instance information of Example 1. 実施例1のスケジュール情報の一例を示す図である。It is a figure which shows an example of the schedule information of Example 1. 実施例1の実行中シナリオ情報の一例を示す図である。It is a figure which shows an example of the scenario information in execution of Example 1. FIG. 実施例1のイベント分析サーバの監視部が実行する処理を説明するフローチャートである。6 is a flowchart illustrating processing executed by a monitoring unit of the event analysis server according to the first embodiment. 実施例1のイベント分析サーバのイベント分析部が実行する処理を説明するフローチャートである。6 is a flowchart illustrating processing executed by an event analysis unit of the event analysis server according to the first embodiment. 実施例1のイベント分析サーバのイベント分析部が実行するオーケストレーション設定情報の更新処理を説明するフローチャートである。6 is a flowchart for explaining an orchestration setting information update process executed by an event analysis unit of the event analysis server according to the first embodiment. 実施例1のイベント分析サーバのオーケストレーション設定部が実行する処理を説明するフローチャートである。6 is a flowchart illustrating processing executed by an orchestration setting unit of the event analysis server according to the first embodiment. 実施例1のオーケストレーションサーバのスケジュール部が実行する処理を説明するフローチャートである。6 is a flowchart illustrating processing executed by a schedule unit of the orchestration server according to the first embodiment. 実施例1のオーケストレーションサーバのシナリオ登録部が実行する処理を説明するフローチャートである。7 is a flowchart illustrating processing executed by a scenario registration unit of the orchestration server according to the first embodiment. 実施例1のオーケストレーションサーバのオーケストレーション実行部が実行する処理を説明するフローチャートである。6 is a flowchart illustrating processing executed by an orchestration execution unit of the orchestration server according to the first embodiment. 実施例1のオーケストレーションサーバのオーケストレーション実行部が実行するシナリオ処理の一例を説明するフローチャートである。7 is a flowchart illustrating an example of scenario processing executed by an orchestration execution unit of the orchestration server according to the first embodiment.

以下、添付図面を参照して本発明の実施例を説明する。各図において共通の構成については同一の参照符号が付されている。   Embodiments of the present invention will be described below with reference to the accompanying drawings. In each figure, the same reference numerals are given to common configurations.

図1は、実施例1の計算機システムの構成例を示す図である。   FIG. 1 is a diagram illustrating a configuration example of a computer system according to the first embodiment.

計算機システムは、クライアント端末101、イベント分析サーバ102、オーケストレーションサーバ103、クラウド管理サーバ104、イベント情報サーバ105、計算サーバ106、サービスSW107、IoT GW108、及びセンサノード109から構成される。   The computer system includes a client terminal 101, an event analysis server 102, an orchestration server 103, a cloud management server 104, an event information server 105, a calculation server 106, a service SW 107, an IoT GW 108, and a sensor node 109.

イベント分析サーバ102は、インターネット110を介してイベント情報サーバ105と接続する。クラウド管理サーバ104は、サービスSW107を介して計算サーバ106と接続する。また、計算サーバ106は、外部NW111及びIoT GW108を介してセンサノード109と接続する。   The event analysis server 102 is connected to the event information server 105 via the Internet 110. The cloud management server 104 is connected to the calculation server 106 via the service SW 107. The calculation server 106 is connected to the sensor node 109 via the external NW 111 and the IoT GW 108.

なお、本実施例は、装置間を接続するネットワークの種別に限定されない。例えば、LAN(Local Area Network)及びWAN(Wide Area Network)等を用いてもよい。装置間の接続形式は、無線又は有線のいずれであってもよい。また、各装置は、直接接続されてもよい。   Note that the present embodiment is not limited to the type of network that connects apparatuses. For example, a LAN (Local Area Network), a WAN (Wide Area Network), or the like may be used. The connection form between the apparatuses may be either wireless or wired. Each device may be directly connected.

クライアント端末101は、イベント分析サーバ102に接続し、監視対象のイベント情報サーバ105に関する情報等を登録する。また、クライアント端末101は、オーケストレーションサーバ103に接続し、計算サーバ106のリソースを制御するためのオーケストレーション処理に必要な情報を登録する。   The client terminal 101 connects to the event analysis server 102 and registers information related to the event information server 105 to be monitored. The client terminal 101 connects to the orchestration server 103 and registers information necessary for orchestration processing for controlling the resources of the calculation server 106.

計算サーバ106は、クラウドを実現する計算機基盤を構成する計算機であり、仮想ネットワークサービスを実現するシステムを構成するためのリソースを提供する。計算サーバ106は、図示しないCPU、メモリ、記憶装置、及びネットワークインタフェースを有する。計算サーバ106上では、仮想マシン(VM)を管理する仮想化制御部が稼働する。なお、計算サーバ106の詳細は、非特許文献1の8ページの9行目に「Compute nodes」として記載されている。   The calculation server 106 is a computer that constitutes a computer infrastructure that realizes a cloud, and provides resources for configuring a system that realizes a virtual network service. The calculation server 106 includes a CPU, a memory, a storage device, and a network interface (not shown). On the calculation server 106, a virtualization control unit that manages a virtual machine (VM) operates. The details of the calculation server 106 are described as “Compute nodes” on the ninth line of page 8 of Non-Patent Document 1.

本実施例では、仮想化制御部としてハイパバイザを例に説明する。なお、仮想化制御部は、ハイパバイザに限定されない。   In this embodiment, a hypervisor will be described as an example of the virtualization control unit. Note that the virtualization control unit is not limited to a hypervisor.

なお、計算機基盤は、複数の地域に存在するデータセンタから構成される。データセンタは、複数の計算サーバ106から構成される。また、仮想ネットワークサービスは、仮想ネットワークサービスを実現するシステムであるテナントから構成される。テナントは、データセンタのリソースを用いて生成された一つ以上のVMから構成される。VMは、所定のネットワーク機能を有する。   The computer base is composed of data centers existing in a plurality of regions. The data center is composed of a plurality of calculation servers 106. In addition, the virtual network service is composed of a tenant that is a system for realizing the virtual network service. A tenant is composed of one or more VMs generated using data center resources. The VM has a predetermined network function.

オーケストレーションサーバ103は、テナントに提供するリソースを管理する。具体的には、オーケストレーションサーバ103は、クライアント端末101又はイベント分析サーバ102からの指示にしたがって、リソースの制御内容(スケーリングの処理内容)を決定し、決定した制御内容を含むオーケストレーション指示をクラウド管理サーバ104に送信する。   The orchestration server 103 manages resources provided to the tenant. Specifically, the orchestration server 103 determines resource control content (scaling processing content) in accordance with an instruction from the client terminal 101 or the event analysis server 102, and sends the orchestration instruction including the determined control content to the cloud Transmit to the management server 104.

クラウド管理サーバ104は、計算サーバ106のリソースを管理する。本実施例のクラウド管理サーバ104は、オーケストレーションサーバ103から受信したオーケストレーション指示にしたがって、スケーリングを実行する。クラウド管理サーバ104の詳細は、非特許文献の8ページの1行目に、「Cloud controller」として記載されている。クラウド管理サーバ104は、オーケストレーションサーバ103と連携することによってリソース管理機能を実現する。   The cloud management server 104 manages the resources of the calculation server 106. The cloud management server 104 according to the present embodiment performs scaling according to the orchestration instruction received from the orchestration server 103. The details of the cloud management server 104 are described as “Cloud controller” on the first line of page 8 of the non-patent document. The cloud management server 104 realizes a resource management function by cooperating with the orchestration server 103.

センサノード109は、図示しないセンサ、CPU、メモリ、及びネットワークインタフェースを有し、センサを用いて計測対象の値を計測する。センサノード109は、IoT GW108及び外部NW111を介して、計算サーバ106上で稼働するVMに計測値を送信する。VMは、計測値を受信した場合、当該VMが有するネットワーク機能に基づいて計測値の転送処理等を実行する。   The sensor node 109 includes a sensor, a CPU, a memory, and a network interface (not shown), and measures a measurement target value using the sensor. The sensor node 109 transmits the measurement value to the VM operating on the calculation server 106 via the IoT GW 108 and the external NW 111. When the VM receives the measurement value, the VM executes a measurement value transfer process based on the network function of the VM.

イベント分析サーバ102は、イベント情報サーバ105に接続して、イベントの発生の有無を監視する。イベント分析サーバ102は、任意のイベントの発生を検出した場合、仮想ネットワークサービスに与える影響を分析し、分析結果に基づいてオーケストレーション指示を行うための情報を生成する。イベント分析サーバ102は、オーケストレーション指示を行うための情報をオーケストレーションサーバ103に送信する。以下の説明では、オーケストレーション指示を行うための設定情報を設定情報と記載する。   The event analysis server 102 connects to the event information server 105 and monitors whether an event has occurred. When the occurrence of an arbitrary event is detected, the event analysis server 102 analyzes the influence on the virtual network service and generates information for performing an orchestration instruction based on the analysis result. The event analysis server 102 transmits information for performing an orchestration instruction to the orchestration server 103. In the following description, setting information for performing an orchestration instruction is described as setting information.

イベント情報サーバ105は、イベント分析サーバ102が監視するサーバである。イベント情報サーバ105は、任意のイベントの情報を発信する。例えば、イベント情報サーバ105は、電力会社が運用するWebサーバ等が考えられる。当該Webサーバには、予測することが困難な停電等のイベントの情報が掲載される。   The event information server 105 is a server monitored by the event analysis server 102. The event information server 105 transmits information on an arbitrary event. For example, the event information server 105 may be a Web server operated by an electric power company. Information on events such as power outages that are difficult to predict are posted on the Web server.

本実施例では、複数の計算サーバ106及びサービスSW107が計算機基盤を構成する一つのデータセンタを構成し、イベント分析サーバ102、オーケストレーションサーバ103、及びクラウド管理サーバ104が計算機基盤の監視及び管理を行うシステムを構成する。   In this embodiment, a plurality of calculation servers 106 and service SW 107 constitute one data center constituting the computer base, and the event analysis server 102, orchestration server 103, and cloud management server 104 monitor and manage the computer base. Configure the system to do.

図1では、クライアント端末101、イベント分析サーバ102、オーケストレーションサーバ103、クラウド管理サーバ104、及びイベント情報サーバ105の数は、それぞれ一つずつであるが、二つ以上であってもよい。   In FIG. 1, the number of client terminals 101, event analysis server 102, orchestration server 103, cloud management server 104, and event information server 105 is one each, but may be two or more.

本実施例では、クライアント端末101、イベント分析サーバ102、オーケストレーションサーバ103、クラウド管理サーバ104、及びイベント情報サーバ105は、物理計算機として記載しているが、VMを用いて実現してもよい。   In this embodiment, the client terminal 101, the event analysis server 102, the orchestration server 103, the cloud management server 104, and the event information server 105 are described as physical computers, but may be realized using a VM.

また、各装置が有する機能は、一つの装置に集約してもよい。例えば、オーケストレーションサーバ103に、イベント分析サーバ102が有する機能を集約してもよい。また、クラウド管理サーバ104に、オーケストレーションサーバ103が有する機能を集約してもよい。   Further, the functions of each device may be integrated into one device. For example, the functions of the event analysis server 102 may be integrated into the orchestration server 103. Further, the functions of the orchestration server 103 may be integrated into the cloud management server 104.

図2は、実施例1のイベント分析サーバ102のハードウェア構成及びソフトウェア構成の一例を示す図である。   FIG. 2 is a diagram illustrating an example of a hardware configuration and a software configuration of the event analysis server 102 according to the first embodiment.

イベント分析サーバ102は、CPU(Central Processing Unit)201、メモリ202、及びネットワークIF203を有する。各ハードウェアは、内部バス等を介して互いに接続される。なお、イベント分析サーバ102は、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等の記憶装置を有してもよい。   The event analysis server 102 includes a CPU (Central Processing Unit) 201, a memory 202, and a network IF 203. Each hardware is connected to each other via an internal bus or the like. The event analysis server 102 may include a storage device such as an HDD (Hard Disk Drive) and an SSD (Solid State Drive).

CPU201は、メモリ202に格納されるプログラムを実行する。CPU201がプログラムを実行することによって、イベント分析サーバ102が有する機能を実現する。以下の説明では、機能部を主語に処理を説明する場合、CPU201が当該機能部を実現するプログラムを実行していることを表す。   The CPU 201 executes a program stored in the memory 202. The function which the event analysis server 102 has is implement | achieved when CPU201 runs a program. In the following description, when a process is described using a functional unit as a subject, it indicates that the CPU 201 is executing a program that realizes the functional unit.

メモリ202は、CPU201が実行するプログラム及び当該プログラムによって使用される情報を格納する。また、メモリ202は、プログラムが一時的に使用するワークエリアを含む。   The memory 202 stores a program executed by the CPU 201 and information used by the program. The memory 202 includes a work area that is temporarily used by the program.

ネットワークIF203は、ネットワークを介して外部装置と接続するインタフェースである。   The network IF 203 is an interface connected to an external device via a network.

ここで、メモリ202に格納されるプログラム及び情報について説明する。メモリ202は、監視部211、イベント分析部212、及びオーケストレーション設定部213を実現するプログラムを格納する。また、メモリ202は、イベント種別情報221、イベント監視対象情報222、スケーリング種別情報223、場所管理情報224、サービス情報225、イベント情報226、及びオーケストレーション設定情報227を格納する。   Here, the program and information stored in the memory 202 will be described. The memory 202 stores programs for realizing the monitoring unit 211, the event analysis unit 212, and the orchestration setting unit 213. The memory 202 stores event type information 221, event monitoring target information 222, scaling type information 223, location management information 224, service information 225, event information 226, and orchestration setting information 227.

イベント種別情報221は、イベント分析サーバ102が監視するイベントの種別等の情報を格納する。イベント種別情報221の詳細は、図4を用いて説明する。   The event type information 221 stores information such as the type of event monitored by the event analysis server 102. Details of the event type information 221 will be described with reference to FIG.

イベント監視対象情報222は、監視対象のイベント情報サーバ105の情報を格納する。イベント監視対象情報222の詳細は、図5を用いて説明する。   The event monitoring target information 222 stores information of the event information server 105 to be monitored. Details of the event monitoring target information 222 will be described with reference to FIG.

スケーリング種別情報223は、スケーリングの種別を格納する。スケーリング種別情報223の詳細は、図6を用いて説明する。   The scaling type information 223 stores the type of scaling. Details of the scaling type information 223 will be described with reference to FIG.

場所管理情報224は、データセンタの場所等の情報を格納する。場所管理情報224の詳細は、図7を用いて説明する。   The location management information 224 stores information such as the location of the data center. Details of the location management information 224 will be described with reference to FIG.

サービス情報225は、仮想ネットワークサービスの情報を格納する。サービス情報225の詳細は、図8を用いて説明する。   The service information 225 stores virtual network service information. Details of the service information 225 will be described with reference to FIG.

イベント情報226は、検出されたイベントの情報を格納する。イベント情報226の詳細は、図9を用いて説明する。   The event information 226 stores information on the detected event. Details of the event information 226 will be described with reference to FIG.

オーケストレーション設定情報227は、イベント分析サーバ102によって生成される設定情報を格納する。オーケストレーション設定情報227の詳細は、図10を用いて説明する。   The orchestration setting information 227 stores setting information generated by the event analysis server 102. Details of the orchestration setting information 227 will be described with reference to FIG.

監視部211は、イベント監視対象情報222に基づいて、イベント情報サーバ105を監視する。監視部211は、予測が困難なイベントの発生を検出した場合、当該イベントの後に発生する可能性があるイベントを特定し、イベント情報226に検出したイベント等に関する情報を書き込む。監視部211が実行する処理の詳細は、図19を用いて説明する。   The monitoring unit 211 monitors the event information server 105 based on the event monitoring target information 222. When the occurrence of an event that is difficult to predict is detected, the monitoring unit 211 identifies an event that may occur after the event, and writes information about the detected event or the like in the event information 226. Details of the processing executed by the monitoring unit 211 will be described with reference to FIG.

以下の説明では、イベント情報サーバ105から検出されたイベントを第1イベントと記載し、第1イベントの後に発生するイベントを第2イベントと記載する。   In the following description, an event detected from the event information server 105 is referred to as a first event, and an event that occurs after the first event is referred to as a second event.

イベント分析部212は、監視部211によって検出された第1イベントを解析し、解析結果に基づいて設定情報を生成し、オーケストレーション設定情報227に設定情報を書き込む。イベント分析部212が実行する処理の詳細は、図20及び図21を用いて説明する。   The event analysis unit 212 analyzes the first event detected by the monitoring unit 211, generates setting information based on the analysis result, and writes the setting information in the orchestration setting information 227. Details of processing executed by the event analysis unit 212 will be described with reference to FIGS.

オーケストレーション設定部213は、オーケストレーション設定情報227から設定情報を読み出し、オーケストレーションサーバ103に読み出された設定情報を送信する。オーケストレーション設定部213が実行する処理の詳細は、図22を用いて説明する。   The orchestration setting unit 213 reads the setting information from the orchestration setting information 227 and transmits the read setting information to the orchestration server 103. Details of processing executed by the orchestration setting unit 213 will be described with reference to FIG.

図3は、実施例1のオーケストレーションサーバ103のハードウェア構成及びソフトウェア構成の一例を示す図である。   FIG. 3 is a diagram illustrating an example of a hardware configuration and a software configuration of the orchestration server 103 according to the first embodiment.

オーケストレーションサーバ103は、CPU301、メモリ302、及びネットワークIF303を有する。各ハードウェアは、内部バス等を介して互いに接続される。なお、オーケストレーションサーバ103は、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等の記憶装置を有してもよい。   The orchestration server 103 includes a CPU 301, a memory 302, and a network IF 303. Each hardware is connected to each other via an internal bus or the like. The orchestration server 103 may have a storage device such as an HDD (Hard Disk Drive) and an SSD (Solid State Drive).

CPU301、メモリ302、及びネットワークIF303は、CPU201、メモリ202、及びネットワークIF203と同様のものである。   The CPU 301, the memory 302, and the network IF 303 are the same as the CPU 201, the memory 202, and the network IF 203.

ここで、メモリ302に格納されるプログラム及び情報について説明する。メモリ302は、スケジュール部311、シナリオ登録部312、及びオーケストレーション実行部313を実現するプログラムを格納する。また、メモリ302は、ネットワーク機能情報321、パッケージ情報322、シナリオ情報323、ハイパバイザ情報324、テナント情報325、ネットワーク機能インスタンス情報326、スケジュール情報327、及び実行中シナリオ情報328を格納する。さらに、メモリ302は、各ネットワーク機能のシナリオとして、MMEシナリオ331、SAE−GWシナリオ332、及びWACシナリオ333を格納する。   Here, programs and information stored in the memory 302 will be described. The memory 302 stores programs that implement the schedule unit 311, the scenario registration unit 312, and the orchestration execution unit 313. The memory 302 stores network function information 321, package information 322, scenario information 323, hypervisor information 324, tenant information 325, network function instance information 326, schedule information 327, and running scenario information 328. Further, the memory 302 stores an MME scenario 331, an SAE-GW scenario 332, and a WAC scenario 333 as scenarios of each network function.

ネットワーク機能情報321は、ネットワーク機能を実現するソフトウェア等の情報を格納する。ネットワーク機能情報321の詳細は、図11を用いて説明する。   The network function information 321 stores information such as software for realizing the network function. Details of the network function information 321 will be described with reference to FIG.

パッケージ情報322は、ネットワーク機能を実現するソフトウェア及び各種設定を含むパッケージに含まれるVMの設定情報を格納する。パッケージ情報322の詳細は、図12を用いて説明する。   The package information 322 stores setting information of VM included in a package including software and various settings for realizing a network function. Details of the package information 322 will be described with reference to FIG.

パッケージは、VMの設定情報、ネットワークの設定情報、起動ディスク、及びシナリオ等を一つにまとめたアーカイブファイルである。オーケストレーションサーバ103は、ネットワーク機能及びシナリオの種別の組み合わせの数だけパッケージを含む。   The package is an archive file in which VM setting information, network setting information, a startup disk, a scenario, and the like are collected together. The orchestration server 103 includes as many packages as the number of combinations of network functions and scenario types.

シナリオ情報323は、スケーリングシナリオの情報を格納する。シナリオ情報323の詳細は、図13を用いて説明する。   The scenario information 323 stores scaling scenario information. Details of the scenario information 323 will be described with reference to FIG.

スケーリングシナリオは、スケーリングの手順及び設定項目を含む情報である。以下の説明では、スケーリングシナリオを単にシナリオと記載する。   The scaling scenario is information including a scaling procedure and setting items. In the following description, a scaling scenario is simply referred to as a scenario.

ハイパバイザ情報324は、計算サーバ106上で稼働するハイパバイザの情報を格納する。ハイパバイザ情報324の詳細は、図14を用いて説明する。   The hypervisor information 324 stores information on the hypervisor operating on the calculation server 106. Details of the hypervisor information 324 will be described with reference to FIG.

テナント情報325は、仮想ネットワークサービスを構成するテナントの情報を格納する。テナント情報325の詳細は、図15を用いて説明する。   The tenant information 325 stores information on tenants that constitute the virtual network service. Details of the tenant information 325 will be described with reference to FIG.

ネットワーク機能インスタンス情報326は、運用中の仮想ネットワークサービスの情報を格納する。ネットワーク機能インスタンス情報326の詳細は、図16を用いて説明する。   The network function instance information 326 stores information on the virtual network service being operated. Details of the network function instance information 326 will be described with reference to FIG.

スケジュール情報327は、オーケストレーション指示の具体的な内容を示す情報を格納する。スケジュール情報327の詳細は、図17を用いて説明する。   The schedule information 327 stores information indicating specific contents of the orchestration instruction. Details of the schedule information 327 will be described with reference to FIG.

実行中シナリオ情報328は、実行中のスケーリングの情報を格納する。実行中シナリオ情報328の詳細は、図18を用いて説明する。   The executing scenario information 328 stores information on the scaling being executed. Details of the running scenario information 328 will be described with reference to FIG.

MMEシナリオ331は、ネットワーク機能の一つであるMME(Mobility Management Entity)のスケーリングに関するファイル群であり、MMEスケールインシナリオ341、MMEスケールアウトシナリオ342、MMEスケールアップシナリオ343、及びMMEスケールダウンシナリオ344を含む。   The MME scenario 331 is a file group related to scaling of MME (Mobility Management Entity) which is one of network functions. including.

SAE−GWシナリオ332は、ネットワーク機能の一つであるSAE−GW(System Architecture Evolution−Gateway)のスケーリングに関するファイル群であり、SAE−GWスケールインシナリオ351、SAE−GWスケールアウトシナリオ352、SAE−GWスケールアップシナリオ353、及びSAE−GWスケールダウンシナリオ354を含む。   The SAE-GW scenario 332 is a file group related to scaling of SAE-GW (System Architecture Evolution-Gateway), which is one of network functions, and includes SAE-GW scale-in scenario 351, SAE-GW scale-out scenario 352, and SAE-. GW scale-up scenario 353 and SAE-GW scale-down scenario 354 are included.

WACシナリオ333は、ネットワーク機能の一つであるWAC(WAN Accelerator)のスケーリングに関するファイル群であり、WACスケールインシナリオ361、WACスケールアウトシナリオ362、WACスケールアップシナリオ363、及びWACスケールダウンシナリオ364を含む。   The WAC scenario 333 is a file group related to scaling of a WAN Accelerator (WAC), which is one of network functions, and includes a WAC scale-in scenario 361, a WAC scale-out scenario 362, a WAC scale-up scenario 363, and a WAC scale-down scenario 364. Including.

スケジュール部311は、イベント分析サーバ102のオーケストレーション設定部213から設定情報を受信した場合、当該設定情報をスケーリングのスケジュールとしてスケジュール情報327に書き込む。スケジュール部311が実行する処理の詳細は、図23を用いて説明する。   When receiving the setting information from the orchestration setting unit 213 of the event analysis server 102, the scheduling unit 311 writes the setting information in the schedule information 327 as a scaling schedule. Details of processing executed by the schedule unit 311 will be described with reference to FIG.

シナリオ登録部312は、スケジュール情報327を参照し、実行日時を経過したスケジュールの情報を実行中シナリオ情報328に書き込む。シナリオ登録部312が実行する処理の詳細は、図24を用いて説明する。   The scenario registration unit 312 refers to the schedule information 327 and writes the schedule information whose execution date and time has passed into the executing scenario information 328. Details of processing executed by the scenario registration unit 312 will be described with reference to FIG.

オーケストレーション実行部313は、実行中シナリオ情報328に登録されたスケジュールの情報に基づいて、クラウド管理サーバ104にオーケストレーション指示を送信する。オーケストレーション実行部313が実行する処理の詳細は、図25及び図26を用いて説明する。   The orchestration execution unit 313 transmits an orchestration instruction to the cloud management server 104 based on the schedule information registered in the running scenario information 328. Details of the process executed by the orchestration execution unit 313 will be described with reference to FIGS. 25 and 26.

なお、クライアント端末101、クラウド管理サーバ104、イベント情報サーバ105、サービスSW107、及びIoT GW108のハードウェア構成は、イベント分析サーバ102と同様のものであるものとする。   Note that the hardware configurations of the client terminal 101, the cloud management server 104, the event information server 105, the service SW 107, and the IoT GW 108 are the same as those of the event analysis server 102.

次に、図4から図10を用いて、イベント分析サーバ102が管理する情報について説明する。   Next, information managed by the event analysis server 102 will be described with reference to FIGS.

図4は、実施例1のイベント種別情報221の一例を示す図である。   FIG. 4 is a diagram illustrating an example of the event type information 221 according to the first embodiment.

イベント種別情報221は、クライアント端末101を操作するシステム管理者によって設定される情報であり、イベント種別ID401、イベント種別名402、及び影響度403から構成されるレコードを含む。   The event type information 221 is information set by a system administrator who operates the client terminal 101 and includes a record including an event type ID 401, an event type name 402, and an influence degree 403.

イベント種別ID401は、イベントの種別を一意に識別するための識別情報である。イベント種別ID401は、イベント種別情報221のレコードを一意に識別する識別情報としても用いられる。   The event type ID 401 is identification information for uniquely identifying the event type. The event type ID 401 is also used as identification information for uniquely identifying the record of the event type information 221.

イベント種別名402は、イベントの種別を表す名称である。本実施例では、停電、強風、及び列車事故等の障害を第1イベントと定義し、また、障害の復旧を第2イベントと定義している。そのため、イベント種別情報221には、第2イベントを識別するカラムを含めていないが、イベント種別情報221に第2イベントを設定するカラムを設けてもよい。なお、第1イベント及び第2イベントの組合わせは、前述したものに限定されない。   The event type name 402 is a name representing the type of event. In this embodiment, failures such as power outages, strong winds, and train accidents are defined as first events, and failure recovery is defined as a second event. Therefore, the event type information 221 does not include a column for identifying the second event, but the event type information 221 may include a column for setting the second event. The combination of the first event and the second event is not limited to that described above.

影響度403は、レコードに対応するイベント(第1イベント)の後に発生するイベント(第2イベント)が仮想ネットワークサービスに与える影響の大きさを示す数値である。影響度403は、後述するようにシナリオ(スケーリングの制御内容)を決定する場合に使用される。なお、影響度403の値が「1」より大きい場合、リソース量を追加するためのスケーリングが行われ、影響度403の値が「1」より小さい場合、リソース量を削減するためのスケーリングが行われる。   The degree of influence 403 is a numerical value indicating the magnitude of the influence that the event (second event) occurring after the event (first event) corresponding to the record has on the virtual network service. The influence degree 403 is used when determining a scenario (scaling control content) as will be described later. Note that when the value of the influence degree 403 is larger than “1”, scaling for adding the resource amount is performed, and when the value of the influence degree 403 is smaller than “1”, scaling for reducing the resource amount is performed. Is called.

図5は、実施例1のイベント監視対象情報222の一例を示す図である。   FIG. 5 is a diagram illustrating an example of the event monitoring target information 222 according to the first embodiment.

イベント監視対象情報222は、クライアント端末101を操作するシステム管理者によって設定される情報であり、イベント監視対象ID501、イベント種別ID502、監視対象名503、及び公開URL504から構成されるレコードを含む。   The event monitoring target information 222 is information set by a system administrator who operates the client terminal 101 and includes a record including an event monitoring target ID 501, an event type ID 502, a monitoring target name 503, and a public URL 504.

イベント監視対象ID501は、監視対象を一意に識別するための識別情報である。イベント監視対象ID501は、イベント監視対象情報222のレコードを一意に識別する識別情報としても用いられる。   The event monitoring target ID 501 is identification information for uniquely identifying the monitoring target. The event monitoring target ID 501 is also used as identification information for uniquely identifying the record of the event monitoring target information 222.

イベント種別ID502は、イベント種別ID401と同一のものである。   The event type ID 502 is the same as the event type ID 401.

監視対象名503は、監視対象の名称である。監視対象名503には、Webページを公開している企業の名称等が格納される。なお、監視対象名503に格納される企業は、仮想ネットワークサービスを運用するユーザとは必ずしも一致するわけではない。   The monitoring target name 503 is the name of the monitoring target. The monitoring target name 503 stores the name of the company that publishes the Web page. The company stored in the monitoring target name 503 does not necessarily match the user who operates the virtual network service.

公開URL504は、監視するWebサイトのURLである。イベント分析サーバ102は、公開URL504に設定されたURLに基づいて、Webサイトにアクセスし、イベントの発生の有無を判定する。   The public URL 504 is the URL of the website to be monitored. The event analysis server 102 accesses the website based on the URL set in the public URL 504 and determines whether an event has occurred.

図6は、実施例1のスケーリング種別情報223の一例を示す図である。   FIG. 6 is a diagram illustrating an example of the scaling type information 223 according to the first embodiment.

スケーリング種別情報223は、クライアント端末101を操作するシステム管理者によって設定される情報であり、スケーリング種別ID601及びスケーリング種別602から構成されるレコードを含む。   The scaling type information 223 is information set by a system administrator who operates the client terminal 101, and includes a record including a scaling type ID 601 and a scaling type 602.

スケーリング種別ID601は、スケーリングの種別を一意に識別するための識別情報である。スケーリング種別ID601は、スケーリング種別情報223のレコードを一意に識別するための識別情報としても用いられる。   The scaling type ID 601 is identification information for uniquely identifying the type of scaling. The scaling type ID 601 is also used as identification information for uniquely identifying the record of the scaling type information 223.

スケーリング種別602は、スケーリングの種別の名称である。本実施例では、スケーリングの種別は、「スケールイン」、「スケールアウト」、「スケールアップ」、及び「スケールダウン」の四つであるため、スケーリング種別情報223は四つのレコードを含む。   The scaling type 602 is the name of the scaling type. In this embodiment, since there are four types of scaling, “scale in”, “scale out”, “scale up”, and “scale down”, the scaling type information 223 includes four records.

図7は、実施例1の場所管理情報224の一例を示す図である。   FIG. 7 is a diagram illustrating an example of the location management information 224 according to the first embodiment.

場所管理情報224は、クライアント端末101を操作するシステム管理者によって設定される情報であり、場所ID701、イベント監視対象ID702、場所703、及びユーザ数704から構成されるレコードを含む。   The location management information 224 is information set by a system administrator who operates the client terminal 101, and includes a record including a location ID 701, an event monitoring target ID 702, a location 703, and the number of users 704.

場所ID701は、データセンタが存在する場所を一意に識別するための識別情報である。場所ID701は、場所管理情報224のレコードを一意に識別するための識別情報としても用いられる。   The location ID 701 is identification information for uniquely identifying the location where the data center exists. The place ID 701 is also used as identification information for uniquely identifying a record of the place management information 224.

イベント監視対象ID702は、イベント監視対象ID501と同一のものである。   The event monitoring target ID 702 is the same as the event monitoring target ID 501.

場所703は、場所の名称である。場所703には、例えば、データセンタが存在する地域の名称が格納される。   A place 703 is a name of the place. The location 703 stores, for example, the name of the area where the data center exists.

ユーザ数704は、場所703に対応する場所に収容可能なユーザの数である。   The number of users 704 is the number of users that can be accommodated in a place corresponding to the place 703.

図8は、実施例1のサービス情報225の一例を示す図である。   FIG. 8 is a diagram illustrating an example of the service information 225 according to the first embodiment.

サービス情報225は、クライアント端末101を操作するシステム管理者によって設定される情報であり、サービスID801、サービス名802、及び場所リスト803から構成されるレコードを含む。   The service information 225 is information set by a system administrator who operates the client terminal 101, and includes a record including a service ID 801, a service name 802, and a location list 803.

サービスID801は、仮想ネットワークサービスを一意に識別するための識別情報である。サービスID801は、サービス情報225のレコードを一意に識別する識別情報としても用いられる。   The service ID 801 is identification information for uniquely identifying the virtual network service. The service ID 801 is also used as identification information for uniquely identifying the record of the service information 225.

サービス名802は、仮想ネットワークサービスの名称である。例えば、ネットワーク機能及びサービスの提供地域を組み合わせた名称がサービス名802に設定される。   The service name 802 is the name of the virtual network service. For example, a name combining the network function and the service providing area is set in the service name 802.

場所リスト803は、サービス名802に対応する仮想ネットワークサービスを構成するテナントが存在する場所のリストである。場所リスト803には、場所管理情報224に定義された場所ID701が格納される。   The location list 803 is a list of locations where tenants constituting the virtual network service corresponding to the service name 802 exist. The place list 803 stores the place ID 701 defined in the place management information 224.

図9は、実施例1のイベント情報226の一例を示す図である。   FIG. 9 is a diagram illustrating an example of the event information 226 according to the first embodiment.

イベント情報226は、監視部211によって生成される情報であり、イベントID901、イベント種別ID902、イベント監視対象ID903、場所ID904、発生日時905、及び次イベント予測日時906から構成されるレコードを含む。なお、レコードは、第2イベントの識別情報を格納するカラムを含んでもよい。   The event information 226 is information generated by the monitoring unit 211 and includes a record including an event ID 901, an event type ID 902, an event monitoring target ID 903, a place ID 904, an occurrence date and time 905, and a next event prediction date and time 906. The record may include a column that stores identification information of the second event.

イベントID901は、検出された第1イベントを一意に識別するための識別情報である。イベントID901は、イベント情報226のレコードを一意に識別するための識別情報としても用いられる。   The event ID 901 is identification information for uniquely identifying the detected first event. The event ID 901 is also used as identification information for uniquely identifying the record of the event information 226.

イベント種別ID902は、イベント種別ID401と同一のものである。また、イベント監視対象ID903は、イベント監視対象ID501と同一のものである。場所ID904は、場所ID701と同一のものである。   The event type ID 902 is the same as the event type ID 401. The event monitoring target ID 903 is the same as the event monitoring target ID 501. The location ID 904 is the same as the location ID 701.

発生日時905は、第1イベントが発生した日時である。発生日時905には、実際に第1イベントが発生した日時が格納されてもよいし、また、イベント分析サーバ102が第1イベントの発生を検出した日時が格納されてもよい。   Occurrence date and time 905 is the date and time when the first event occurred. The occurrence date and time 905 may store the date and time when the first event actually occurred, or the date and time when the event analysis server 102 detected the occurrence of the first event.

次イベント予測日時906は、第2イベントの発生予測日時である。   The next event prediction date and time 906 is the occurrence prediction date and time of the second event.

図10は、実施例1のオーケストレーション設定情報227の一例を示す図である。   FIG. 10 is a diagram illustrating an example of the orchestration setting information 227 according to the first embodiment.

オーケストレーション設定情報227は、イベント分析部212によって生成される情報であり、オーケストレーション設定ID1001、実行日時1002、スケーリング種別ID1003、規模1004、及びサービスID1005から構成されるレコードを含む。   The orchestration setting information 227 is information generated by the event analysis unit 212 and includes a record including an orchestration setting ID 1001, an execution date and time 1002, a scaling type ID 1003, a scale 1004, and a service ID 1005.

オーケストレーション設定ID1001は、設定情報を一意に識別するための識別情報である。オーケストレーション設定ID1001は、オーケストレーション設定情報227のレコードを一意に識別するための識別情報としても用いられる。   The orchestration setting ID 1001 is identification information for uniquely identifying setting information. The orchestration setting ID 1001 is also used as identification information for uniquely identifying the record of the orchestration setting information 227.

実行日時1002は、スケーリングが開始される日時である。例えば、オーケストレーションサーバ103がオーケストレーション指示を送信する日時が、実行日時1002に格納される。   The execution date and time 1002 is the date and time when scaling is started. For example, the date and time when the orchestration server 103 transmits the orchestration instruction is stored in the execution date and time 1002.

スケーリング種別ID1003は、スケーリング種別ID601と同一のものである。また、サービスID1005は、サービスID801と同一のものである。   The scaling type ID 1003 is the same as the scaling type ID 601. Service ID 1005 is the same as service ID 801.

規模1004は、テナントに割り当てるリソースの変更量(変更リソース量)を表す情報である。例えば、スケールアウトの場合、規模1004には、追加するVMの数が格納される。スケールアップの場合、規模1004には、VMに追加するCPUコア及びメモリ容量等の値が格納される。スケールインの場合、規模1004には、削除するVMの数が格納される。スケールダウンの場合、規模1004には、VMから削減するCPUコア及びメモリ容量等の値が格納される。   The scale 1004 is information representing the amount of change of resources to be allocated to the tenant (change resource amount). For example, in the case of scale out, the scale 1004 stores the number of VMs to be added. In the case of scale-up, the scale 1004 stores values such as a CPU core and memory capacity to be added to the VM. In the case of scale-in, the scale 1004 stores the number of VMs to be deleted. In the case of scale-down, the scale 1004 stores values such as CPU core and memory capacity to be reduced from the VM.

なお、イベント種別情報221、イベント監視対象情報222、スケーリング種別情報223、場所管理情報224、及びサービス情報225は、システム管理者によって設定される情報と記載したが、これに限定されない。例えば、場所管理情報224は、クラウド管理サーバ104から取得してもよい。   The event type information 221, the event monitoring target information 222, the scaling type information 223, the location management information 224, and the service information 225 are described as information set by the system administrator, but are not limited thereto. For example, the location management information 224 may be acquired from the cloud management server 104.

次に、図11から図18を用いて、オーケストレーションサーバ103が管理する情報について説明する。   Next, information managed by the orchestration server 103 will be described with reference to FIGS.

図11は、実施例1のネットワーク機能情報321の一例を示す図である。   FIG. 11 is a diagram illustrating an example of the network function information 321 according to the first embodiment.

ネットワーク機能情報321は、クライアント端末101を操作するシステム管理者によって設定される情報であり、ネットワーク機能ID1101、ネットワーク機能名1102、及び起動イメージファイル1103を含む。   The network function information 321 is information set by a system administrator who operates the client terminal 101, and includes a network function ID 1101, a network function name 1102, and a startup image file 1103.

ネットワーク機能ID1101は、ネットワーク機能を一意に識別するための識別情報である。ネットワーク機能ID1101は、ネットワーク機能情報321のレコードを一意に識別するための識別情報としても用いられる。   The network function ID 1101 is identification information for uniquely identifying the network function. The network function ID 1101 is also used as identification information for uniquely identifying a record of the network function information 321.

ネットワーク機能名1102は、ネットワーク機能の名称である。   The network function name 1102 is the name of the network function.

起動イメージファイル1103は、ネットワーク機能を有するVMを起動するための起動イメージファイルである。   The boot image file 1103 is a boot image file for booting a VM having a network function.

図12は、実施例1のパッケージ情報322の一例を示す図である。   FIG. 12 is a diagram illustrating an example of the package information 322 according to the first embodiment.

パッケージ情報322は、クライアント端末101を操作するシステム管理者によって設定される情報であり、パッケージID1201、ネットワーク機能ID1202、仮想CPUコア数1203、メモリ容量1204、及びディスク容量1205から構成されるレコードを含む。   The package information 322 is information set by a system administrator who operates the client terminal 101, and includes a record including a package ID 1201, a network function ID 1202, a virtual CPU core number 1203, a memory capacity 1204, and a disk capacity 1205. .

パッケージID1201は、パッケージを一意に識別するための識別情報である。パッケージID1201は、パッケージ情報322のレコードを一意に識別するための識別情報としても用いられる。   The package ID 1201 is identification information for uniquely identifying a package. The package ID 1201 is also used as identification information for uniquely identifying the record of the package information 322.

ネットワーク機能ID1202は、ネットワーク機能ID1101と同一のものである。   The network function ID 1202 is the same as the network function ID 1101.

仮想CPUコア数1203、メモリ容量1204は、及びディスク容量1205、VMに割り当てるリソース量である。具体的には、仮想CPUコア数1203はVMに割り当てる仮想CPUコアの数であり、メモリ容量1204はVMに割り当てるメモリの記憶容量であり、ディスク容量1205はVMに割り当てる記憶装置の記憶容量である。   The number of virtual CPU cores 1203, the memory capacity 1204, the disk capacity 1205, and the resource amount allocated to the VM. Specifically, the number of virtual CPU cores 1203 is the number of virtual CPU cores assigned to the VM, the memory capacity 1204 is the storage capacity of the memory assigned to the VM, and the disk capacity 1205 is the storage capacity of the storage device assigned to the VM. .

図13は、実施例1のシナリオ情報323の一例を示す図である。   FIG. 13 is a diagram illustrating an example of the scenario information 323 according to the first embodiment.

シナリオ情報323は、クライアント端末101を操作するシステム管理者によって設定される情報であり、シナリオID1301、スケーリング種別ID1302、ネットワーク機能ID1303、及びシナリオ1304から構成されるレコードを含む。   The scenario information 323 is information set by a system administrator who operates the client terminal 101, and includes a record including a scenario ID 1301, a scaling type ID 1302, a network function ID 1303, and a scenario 1304.

シナリオID1301は、スケーリングに使用するシナリオを一意に識別するための識別情報である。シナリオID1301は、シナリオ情報323のレコードを一意に識別するための識別情報としても用いられる。   The scenario ID 1301 is identification information for uniquely identifying a scenario used for scaling. The scenario ID 1301 is also used as identification information for uniquely identifying the record of the scenario information 323.

スケーリング種別ID1302は、スケーリング種別ID601と同一のものである。ネットワーク機能ID1303は、ネットワーク機能ID1101と同一のものである。   The scaling type ID 1302 is the same as the scaling type ID 601. The network function ID 1303 is the same as the network function ID 1101.

シナリオ1304は、スケーリング種別ID1302及びネットワーク機能ID1303に対応するシナリオである。   A scenario 1304 is a scenario corresponding to the scaling type ID 1302 and the network function ID 1303.

図14は、実施例1のハイパバイザ情報324の一例を示す図である。   FIG. 14 is a diagram illustrating an example of the hypervisor information 324 according to the first embodiment.

ハイパバイザ情報324は、クライアント端末101を操作するシステム管理者によって設定される情報であり、ハイパバイザID1401、ハイパバイザ名1402、CPUコア数1403、メモリ容量1404、及びディスク容量1405から構成されるレコードを含む。   The hypervisor information 324 is information set by a system administrator who operates the client terminal 101, and includes a record including a hypervisor ID 1401, a hypervisor name 1402, a CPU core number 1403, a memory capacity 1404, and a disk capacity 1405.

ハイパバイザID1401は、ハイパバイザを一意に識別するための識別情報である。ハイパバイザID1401は、ハイパバイザ情報324のレコードを一意に識別するための識別情報としても用いられる。   The hypervisor ID 1401 is identification information for uniquely identifying the hypervisor. The hypervisor ID 1401 is also used as identification information for uniquely identifying a record of the hypervisor information 324.

ハイパバイザ名1402は、ハイパバイザID1401に対応するハイパバイザの名称である。   The hypervisor name 1402 is the name of the hypervisor corresponding to the hypervisor ID 1401.

CPUコア数1403、メモリ容量1404、及びディスク容量1405は、ハイパバイザID1401に対応するハイパバイザが稼働する計算サーバ106が有するリソース量である。具体的には、CPUコア数1403は計算サーバ106が有するCPUに含まれるコアの総数であり、メモリ容量1404は計算サーバ106が有するメモリの全記憶容量であり、ディスク容量1405は、計算サーバ106が有する記憶装置の記憶容量である。   The number of CPU cores 1403, the memory capacity 1404, and the disk capacity 1405 are resource amounts of the calculation server 106 on which the hypervisor corresponding to the hypervisor ID 1401 operates. Specifically, the CPU core number 1403 is the total number of cores included in the CPU of the calculation server 106, the memory capacity 1404 is the total storage capacity of the memory of the calculation server 106, and the disk capacity 1405 is the calculation server 106. Is the storage capacity of the storage device.

図15は、実施例1のテナント情報325の一例を示す図である。   FIG. 15 is a diagram illustrating an example of the tenant information 325 according to the first embodiment.

テナント情報325は、クライアント端末101を操作するシステム管理者によって設定される情報であり、テナントID1501、テナント名1502、及びハイパバイザリスト1503から構成されるレコードを含む。   The tenant information 325 is information set by a system administrator who operates the client terminal 101, and includes a record including a tenant ID 1501, a tenant name 1502, and a hypervisor list 1503.

テナントID1501は、テナントを一意に識別するための識別情報である。テナントID1501は、テナント情報325のレコードを一意に識別するための識別情報としても用いられる。   The tenant ID 1501 is identification information for uniquely identifying a tenant. The tenant ID 1501 is also used as identification information for uniquely identifying the tenant information 325 record.

テナント名1502は、テナントID1501に対応するテナントの名称である。   The tenant name 1502 is the name of the tenant corresponding to the tenant ID 1501.

ハイパバイザリスト1503は、テナントを構成するVMに割り当てるリソース量を制御するハイパバイザのリストである。すなわち、テナントにリソースを提供する計算サーバ106のリストである。ハイパバイザリスト1503には、ハイパバイザ情報324に定義されたハイパバイザID1401が格納される。   The hypervisor list 1503 is a list of hypervisors that controls the amount of resources allocated to the VMs constituting the tenant. That is, it is a list of calculation servers 106 that provide resources to tenants. The hypervisor list 1503 stores the hypervisor ID 1401 defined in the hypervisor information 324.

図16は、実施例1のネットワーク機能インスタンス情報326の一例を示す図である。   FIG. 16 is a diagram illustrating an example of the network function instance information 326 according to the first embodiment.

ネットワーク機能インスタンス情報326は、クライアント端末101を操作するシステム管理者によって設定される情報であり、インスタンスID1601、ネットワーク機能ID1602、パッケージID1603、テナントID1604、及び起動ハイパバイザリスト1605から構成されるレコードを含む。   The network function instance information 326 is information set by a system administrator who operates the client terminal 101, and includes a record including an instance ID 1601, a network function ID 1602, a package ID 1603, a tenant ID 1604, and an activation hypervisor list 1605.

インスタンスID1601は、任意のネットワーク機能を提供する稼働中の仮想ネットワークサービスのインスタンスを一意に識別するための識別情報である。インスタンスID1601は、ネットワーク機能インスタンス情報326のレコードを一意に識別するための識別情報としても用いられる。また、インスタンスID1601は、サービスID801と対応付けられる。これによって、オーケストレーションサーバ103は、受信した設定情報の対象がどのインスタンス(仮想ネットワークサービス)であるかを把握できる。   The instance ID 1601 is identification information for uniquely identifying an instance of an operating virtual network service that provides an arbitrary network function. The instance ID 1601 is also used as identification information for uniquely identifying the record of the network function instance information 326. The instance ID 1601 is associated with the service ID 801. Thereby, the orchestration server 103 can grasp which instance (virtual network service) the target of the received setting information is.

ネットワーク機能ID1602は、ネットワーク機能ID1101と同一のものである。パッケージID1603は、パッケージID1201と同一のものである。テナントID1604は、テナントID1501と同一のものである。本実施例では、一つのテナントを用いて、一つの仮想ネットワークサービスが提供されるものとする。   The network function ID 1602 is the same as the network function ID 1101. The package ID 1603 is the same as the package ID 1201. The tenant ID 1604 is the same as the tenant ID 1501. In this embodiment, it is assumed that one virtual network service is provided using one tenant.

起動ハイパバイザリスト1605は、ネットワーク機能ID1602に対応するネットワーク機能を有するVMが稼働しているハイパバイザのリストである。起動ハイパバイザリスト1605には、ハイパバイザ情報324に定義されたハイパバイザID1401が格納される。   The activated hypervisor list 1605 is a list of hypervisors in which VMs having a network function corresponding to the network function ID 1602 are operating. The activated hypervisor list 1605 stores the hypervisor ID 1401 defined in the hypervisor information 324.

図17は、実施例1のスケジュール情報327の一例を示す図である。   FIG. 17 is a diagram illustrating an example of the schedule information 327 according to the first embodiment.

スケジュール情報327は、スケジュール部311によって生成される情報であり、スケジュールID1701、インスタンスID1702、シナリオID1703、パッケージID1704、テナントID1705、実行日時1706、及び規模1707から構成されるレコードを含む。   The schedule information 327 is information generated by the schedule unit 311 and includes a record including a schedule ID 1701, an instance ID 1702, a scenario ID 1703, a package ID 1704, a tenant ID 1705, an execution date 1706, and a scale 1707.

スケジュールID1701は、スケジュールを一意に識別するための識別情報である。スケジュールID1701は、スケジュール情報327のレコードを一意に識別するための識別情報としても用いられる。   The schedule ID 1701 is identification information for uniquely identifying a schedule. The schedule ID 1701 is also used as identification information for uniquely identifying the record of the schedule information 327.

インスタンスID1702は、インスタンスID1601と同一のものである。シナリオID1703は、シナリオID1301と同一のものである。パッケージID1704は、パッケージID1201と同一のものである。テナントID1705は、テナントID1501と同一のものである。実行日時1706は、実行日時1002と同一のものである。規模1707は、規模1004と同一のものである。   The instance ID 1702 is the same as the instance ID 1601. The scenario ID 1703 is the same as the scenario ID 1301. The package ID 1704 is the same as the package ID 1201. The tenant ID 1705 is the same as the tenant ID 1501. The execution date and time 1706 is the same as the execution date and time 1002. The scale 1707 is the same as the scale 1004.

図18は、実施例1の実行中シナリオ情報328の一例を示す図である。   FIG. 18 is a diagram illustrating an example of the running scenario information 328 according to the first embodiment.

実行中シナリオ情報328は、シナリオ登録部312によって生成される情報であり、実行中シナリオID1801、インスタンスID1802、シナリオID1803、パッケージID1804、テナントID1805、及び規模1806から構成されるレコードを含む。   The executing scenario information 328 is information generated by the scenario registration unit 312 and includes a record including an executing scenario ID 1801, an instance ID 1802, a scenario ID 1803, a package ID 1804, a tenant ID 1805, and a scale 1806.

実行中シナリオID1801は、実行中のスケーリングを一意に識別するための識別情報である。実行中シナリオID1801は、実行中シナリオ情報328のレコードを一意に識別するための識別情報としても用いられる。   The executing scenario ID 1801 is identification information for uniquely identifying the scaling being executed. The executing scenario ID 1801 is also used as identification information for uniquely identifying a record of the executing scenario information 328.

インスタンスID1802は、インスタンスID1601と同一のものである。シナリオID1803は、シナリオID1301と同一のものである。パッケージID1804は、パッケージID1201と同一のものである。テナントID1805は、テナントID1501と同一のものである。規模1806は、規模1004と同一のものである。   The instance ID 1802 is the same as the instance ID 1601. The scenario ID 1803 is the same as the scenario ID 1301. The package ID 1804 is the same as the package ID 1201. The tenant ID 1805 is the same as the tenant ID 1501. The scale 1806 is the same as the scale 1004.

なお、ネットワーク機能情報321、パッケージ情報322、シナリオ情報323、ハイパバイザ情報324、テナント情報325、及びネットワーク機能インスタンス情報326は、システム管理者によって設定される情報と記載したが、これに限定されない。例えば、ハイパバイザ情報324、テナント情報325、及びネットワーク機能インスタンス情報326は、クラウド管理サーバ104から取得してもよい。   Although the network function information 321, the package information 322, the scenario information 323, the hypervisor information 324, the tenant information 325, and the network function instance information 326 are described as information set by the system administrator, the present invention is not limited to this. For example, the hypervisor information 324, the tenant information 325, and the network function instance information 326 may be acquired from the cloud management server 104.

イベント分析サーバ102及びオーケストレーションサーバ103が保持する情報は、図4から図18に示すようにテーブル形式の情報であるが、本実施例はこれに限定されない。   The information held by the event analysis server 102 and the orchestration server 103 is information in a table format as shown in FIGS. 4 to 18, but the present embodiment is not limited to this.

次に、図19から図22を用いてイベント分析サーバ102が実行する処理について説明する。以下の説明では、符号を含まないカラムの名称は、カラムから取得された値を表すものとする。例えば、イベントIDは、イベント情報226に含まれるレコードのイベントID901の値を示す。   Next, processing executed by the event analysis server 102 will be described with reference to FIGS. In the following description, it is assumed that the name of a column that does not include a code represents a value acquired from the column. For example, the event ID indicates the value of the event ID 901 of the record included in the event information 226.

図19は、実施例1のイベント分析サーバ102の監視部211が実行する処理を説明するフローチャートである。   FIG. 19 is a flowchart illustrating processing executed by the monitoring unit 211 of the event analysis server 102 according to the first embodiment.

イベント分析サーバ102は、起動後、監視部211を実現するプログラムをメモリ202にロードし、実行する。これによって、監視部211は、処理を開始する(ステップS1901)。   After being activated, the event analysis server 102 loads a program that implements the monitoring unit 211 into the memory 202 and executes it. As a result, the monitoring unit 211 starts processing (step S1901).

監視部211は、プログラムの終了指示を受け付けたか否かを判定する(ステップS1902)。   The monitoring unit 211 determines whether an instruction to end the program has been received (step S1902).

プログラムの終了指示を受け付けたと判定された場合、監視部211は、処理を終了する(ステップS1910)。   If it is determined that an instruction to end the program has been received, the monitoring unit 211 ends the process (step S1910).

プログラムの終了指示を受け付けていないと判定された場合、監視部211は、第1ループ処理を開始する(ステップS1903)。このとき、監視部211は、イベント監視対象情報222からレコードを一つ選択し、選択されたレコードについてステップS1904からステップS1908までの処理を実行する。なお、監視部211は、周期的に第1ループ処理を実行する場合、前回の第1ループ処理が終了してから一定時間経過した後に第1ループ処理を開始する。   When it is determined that the program end instruction has not been received, the monitoring unit 211 starts the first loop process (step S1903). At this time, the monitoring unit 211 selects one record from the event monitoring target information 222, and executes the processing from step S1904 to step S1908 for the selected record. Note that, when the first loop process is periodically executed, the monitoring unit 211 starts the first loop process after a predetermined time has elapsed since the previous first loop process was completed.

監視部211は、イベント監視対象情報222から選択されたレコードの公開URLに基づいてイベント情報サーバ105にアクセスして、イベント発生情報を取得する(ステップS1904)。例えば、監視部211は、障害情報を提示するWebページにアクセスし、当該Webページに表示された情報(例えば、テキストデータ)をイベント発生情報として取得する。   The monitoring unit 211 accesses the event information server 105 based on the public URL of the record selected from the event monitoring target information 222, and acquires event occurrence information (step S1904). For example, the monitoring unit 211 accesses a Web page that presents failure information, and acquires information (for example, text data) displayed on the Web page as event occurrence information.

監視部211は、取得されたイベント発生情報に基づいて、監視対象のイベントが発生しているか否かを判定する(ステップS1905)。すなわち、第1イベントが発生したか否かが判定される。例えば、以下のような処理が実行される。   The monitoring unit 211 determines whether or not an event to be monitored has occurred based on the acquired event occurrence information (step S1905). That is, it is determined whether or not the first event has occurred. For example, the following processing is executed.

監視部211は、Webページが更新されているか否かを判定する。例えば、監視部211は、前回のイベント発生情報の更新日時を履歴情報として保持し、新たに取得したイベント発生情報の更新日時と履歴情報とを比較し、Webページが更新されているか否かを判定する。   The monitoring unit 211 determines whether the web page has been updated. For example, the monitoring unit 211 stores the update date and time of the previous event occurrence information as history information, compares the update date and time of the newly acquired event occurrence information with the history information, and determines whether or not the Web page has been updated. judge.

Webページが更新されていると判定された場合、監視部211は、イベント種別情報221を参照して、イベント種別ID401がイベント監視対象情報222から選択されたレコードのイベント種別IDに一致するレコードを検索する。監視部211は、イベント種別情報221から検索されたレコードのイベント種別名402に対応するイベントがイベント発生情報に含まれるか否かを判定する。例えば、監視部211は、イベント種別名402に設定された文字がテキストデータに含まれるか否かを判定する。   When it is determined that the Web page has been updated, the monitoring unit 211 refers to the event type information 221 and selects a record in which the event type ID 401 matches the event type ID of the record selected from the event monitoring target information 222. Search for. The monitoring unit 211 determines whether an event corresponding to the event type name 402 of the record retrieved from the event type information 221 is included in the event occurrence information. For example, the monitoring unit 211 determines whether the text set in the event type name 402 is included in the text data.

なお、前述の処理は一例であって、これに限定されない。以上がステップS1905の処理の説明である。   Note that the above-described processing is an example, and the present invention is not limited to this. The above is the description of the processing in step S1905.

監視対象のイベントが発生していないと判定された場合、監視部211は、イベント監視対象情報222の全てのレコードについて処理が完了したか否かを判定する(ステップS1909)。   If it is determined that no event to be monitored has occurred, the monitoring unit 211 determines whether or not the processing has been completed for all records of the event monitoring target information 222 (step S1909).

イベント監視対象情報222の全てのレコードについて処理が完了していないと判定された場合、監視部211は、ステップS1903に戻り、イベント監視対象情報222から新たなレコードを選択し、ステップS1904からステップS1908までの処理を実行する。   When it is determined that the processing has not been completed for all the records of the event monitoring target information 222, the monitoring unit 211 returns to step S1903, selects a new record from the event monitoring target information 222, and performs steps S1904 to S1908. The process up to is executed.

イベント監視対象情報222の全てのレコードについて処理が完了したと判定された場合、監視部211は、第1ループ処理を終了する。その後、監視部211は、ステップS1902に戻り、同様の処理を実行する。   When it is determined that the processing has been completed for all the records of the event monitoring target information 222, the monitoring unit 211 ends the first loop processing. Thereafter, the monitoring unit 211 returns to step S1902 and executes similar processing.

ステップS1905において、監視対象のイベントが発生していると判定された場合、監視部211は、イベント発生情報から第1イベントの発生場所及び発生日時を取得し、また、イベント発生情報に基づいて第2イベントの予測日時を算出する(ステップS1906)。   If it is determined in step S1905 that an event to be monitored has occurred, the monitoring unit 211 acquires the occurrence location and date / time of the first event from the event occurrence information, and the first occurrence based on the event occurrence information. The predicted date and time of two events is calculated (step S1906).

第2イベントの予測日時の算出方法は、様々な方法が考えられる。例えば、イベント発生情報に第2イベントの発生日時が含まれる場合、監視部211は、当該発生日時を第2イベントの予測日時として算出する。他の方法としては、監視部211は、第1イベントの発生日時に所定の時間を加算することによって、第2イベントの予測日時を算出する。なお、本実施例は、第2イベントの予測日時の算出方法に限定されない。   There are various methods for calculating the predicted date and time of the second event. For example, when the occurrence date and time of the second event is included in the event occurrence information, the monitoring unit 211 calculates the occurrence date and time as the predicted date and time of the second event. As another method, the monitoring unit 211 calculates the predicted date and time of the second event by adding a predetermined time to the occurrence date and time of the first event. In addition, a present Example is not limited to the calculation method of the prediction date and time of a 2nd event.

次に、監視部211は、第1イベントの発生場所に基づいて場所管理情報224を参照し、発生場所の識別情報を取得する(ステップS1907)。   Next, the monitoring unit 211 refers to the location management information 224 based on the occurrence location of the first event, and acquires the occurrence location identification information (step S1907).

具体的には、監視部211は、イベント監視対象ID702がイベント監視対象情報222から選択されたレコードのイベント監視対象IDに一致し、かつ、場所703が第1イベントの発生場所に一致するレコードを検索し、検索されたレコードの場所ID701の値を取得する。   Specifically, the monitoring unit 211 selects a record in which the event monitoring target ID 702 matches the event monitoring target ID of the record selected from the event monitoring target information 222 and the location 703 matches the occurrence location of the first event. Search and obtain the value of the location ID 701 of the searched record.

次に、監視部211は、イベント情報226を更新する(ステップS1908)。その後、監視部211は、ステップS1909に進む。具体的には、以下のような処理が実行される。   Next, the monitoring unit 211 updates the event information 226 (step S1908). Thereafter, the monitoring unit 211 proceeds to step S1909. Specifically, the following processing is executed.

監視部211は、イベント情報226にレコードを一つ追加し、追加されたレコードのイベントID901に識別情報を設定する。なお、監視部211は、採番機能を有し、当該採番機能に基づいて、他のレコードと重複しないように識別情報を設定する。   The monitoring unit 211 adds one record to the event information 226 and sets identification information in the event ID 901 of the added record. Note that the monitoring unit 211 has a numbering function, and sets identification information based on the numbering function so as not to overlap with other records.

監視部211は、追加されたレコードのイベント種別ID902及びイベント監視対象ID903に、イベント監視対象情報222から選択されたレコードのイベント種別ID及びイベント監視対象IDを設定する。   The monitoring unit 211 sets the event type ID and event monitoring target ID of the record selected from the event monitoring target information 222 in the event type ID 902 and event monitoring target ID 903 of the added record.

また、監視部211は、追加されたレコードの場所ID904に、場所管理情報224から取得された場所IDを設定する。さらに、監視部211は、追加されたレコードの発生日時905にイベント発生情報から取得された第1イベントの発生日時を設定し、追加されたレコードの次イベント予測日時906に算出された第2イベントの予測日時を設定する。以上が、ステップS1908の処理の説明である。   Further, the monitoring unit 211 sets the location ID acquired from the location management information 224 in the location ID 904 of the added record. Furthermore, the monitoring unit 211 sets the occurrence date and time of the first event acquired from the event occurrence information in the occurrence date and time 905 of the added record, and the second event calculated as the next event prediction date and time 906 of the added record. Set the predicted date and time. The above is the description of the processing in step S1908.

図20は、実施例1のイベント分析サーバ102のイベント分析部212が実行する処理を説明するフローチャートである。   FIG. 20 is a flowchart illustrating processing executed by the event analysis unit 212 of the event analysis server 102 according to the first embodiment.

なお、本実施例のイベント分析部212は、イベント情報226の更新日時を更新履歴として管理しているものとする。   Note that the event analysis unit 212 of this embodiment manages the update date and time of the event information 226 as an update history.

イベント分析サーバ102は、起動後、イベント分析部212を実現するプログラムをメモリ202にロードし、実行する。これによって、イベント分析部212は、処理を開始する(ステップS2001)。   After being activated, the event analysis server 102 loads a program for realizing the event analysis unit 212 into the memory 202 and executes it. Thereby, the event analysis unit 212 starts processing (step S2001).

イベント分析部212は、プログラムの終了指示を受け付けたか否かを判定する(ステップS2002)。   The event analysis unit 212 determines whether a program end instruction has been received (step S2002).

プログラムの終了指示を受け付けたと判定された場合、イベント分析部212は、処理を終了する(ステップS2012)。   When it is determined that the program termination instruction has been received, the event analysis unit 212 terminates the process (step S2012).

プログラムの終了指示を受け付けていないと判定された場合、イベント分析部212は、イベント情報226を参照し(ステップS2003)、イベント情報226が更新されているか否かを判定する(ステップS2004)。なお、イベント分析部212は、周期的にイベント情報226を参照する場合、前回、イベント情報226を参照してから一定時間経過した後にイベント情報226を参照する。   When it is determined that the program termination instruction has not been received, the event analysis unit 212 refers to the event information 226 (step S2003) and determines whether the event information 226 has been updated (step S2004). When the event analysis unit 212 periodically refers to the event information 226, the event analysis unit 212 refers to the event information 226 after a predetermined time has elapsed since the last time the event information 226 was referred to.

具体的には、イベント分析部212は、現在のイベント情報226の更新日時と更新履歴とを比較することによって、イベント情報226が更新されているか否かを判定する。このとき、イベント分析部212は、現在のイベント情報226の更新日時を更新履歴に設定する。   Specifically, the event analysis unit 212 determines whether or not the event information 226 has been updated by comparing the update date and time of the current event information 226 with the update history. At this time, the event analysis unit 212 sets the update date and time of the current event information 226 in the update history.

イベント情報226が更新されていないと判定された場合、イベント分析部212は、ステップS2002に戻り、同様の処理を実行する。   If it is determined that the event information 226 has not been updated, the event analysis unit 212 returns to step S2002 and executes the same processing.

イベント情報226が更新されていると判定された場合、イベント分析部212は、第1ループ処理を開始する(ステップS2005)。このとき、イベント分析部212は、イベント情報226からレコードを一つ選択し、選択されたレコードについてステップS2006からステップS2010までの処理を実行する。   If it is determined that the event information 226 has been updated, the event analysis unit 212 starts the first loop process (step S2005). At this time, the event analysis unit 212 selects one record from the event information 226, and executes the processing from step S2006 to step S2010 for the selected record.

イベント分析部212は、イベント情報226から選択されたレコードの値を取得し、イベント情報226から選択されたレコードを削除する(ステップS2006)。具体的には、以下のような処理が実行される。   The event analysis unit 212 acquires the value of the record selected from the event information 226, and deletes the selected record from the event information 226 (step S2006). Specifically, the following processing is executed.

イベント分析部212は、選択されたレコードに含まれる全てのカラムの値を取得する。すなわち、イベントID、イベント種別ID、イベント監視対象ID、場所ID、発生日時、及び次イベント予測日時が取得される。   The event analysis unit 212 acquires the values of all the columns included in the selected record. That is, the event ID, event type ID, event monitoring target ID, location ID, occurrence date and time, and next event prediction date and time are acquired.

また、イベント分析部212は、イベント種別情報221を参照し、イベント種別ID401がイベント情報226から選択されたレコードのイベント種別IDに一致するレコードを検索する。イベント分析部212は、検索されたレコードの影響度403の値を取得する。以上がステップS2006の処理の説明である。   In addition, the event analysis unit 212 refers to the event type information 221 and searches for a record in which the event type ID 401 matches the event type ID of the record selected from the event information 226. The event analysis unit 212 acquires the value of the influence degree 403 of the retrieved record. The above is the description of the process in step S2006.

次に、イベント分析部212は、サービス情報225を参照し、第2イベントの影響を受ける仮想ネットワークサービスを特定する(ステップS2007)。   Next, the event analysis unit 212 refers to the service information 225 and identifies a virtual network service that is affected by the second event (step S2007).

具体的には、イベント分析部212は、サービス情報225を参照し、場所リスト803に、イベント情報226から選択されたレコードの場所IDを含むレコードを検索する。イベント分析部212は、検索されたレコードのサービスID801の値を取得する。取得されたサービスIDに対応する仮想ネットワークサービスが第2イベントの影響を受ける仮想ネットワークサービスとなる。   Specifically, the event analysis unit 212 refers to the service information 225 and searches the location list 803 for a record including the location ID of the record selected from the event information 226. The event analysis unit 212 acquires the value of the service ID 801 of the retrieved record. The virtual network service corresponding to the acquired service ID becomes a virtual network service affected by the second event.

次に、イベント分析部212は、第2ループ処理を開始する(ステップS2008)。このとき、イベント分析部212は、ステップS2007において取得したサービスIDの中から、対象のサービスIDを一つ選択する。イベント分析部212は、選択されたサービスIDに対してステップS2010の処理を実行する。   Next, the event analysis unit 212 starts the second loop process (step S2008). At this time, the event analysis unit 212 selects one target service ID from the service IDs acquired in step S2007. The event analysis unit 212 executes the process of step S2010 for the selected service ID.

イベント分析部212は、選択されたサービスIDに対して、オーケストレーション設定情報227の更新処理を実行する(ステップS2009)。これによって、第2イベントの影響を受ける仮想ネットワークサービスに対するスケーリングに必要な設定情報が生成される。当該処理の詳細は、図21を用いて説明する。   The event analysis unit 212 updates the orchestration setting information 227 for the selected service ID (step S2009). Thereby, setting information necessary for scaling for the virtual network service affected by the second event is generated. Details of this processing will be described with reference to FIG.

オーケストレーション設定情報227の更新処理が終了した後、イベント分析部212は、ステップS2007において特定された全ての仮想ネットワークサービスについて処理が完了したか否かを判定する(ステップS2010)。   After the update process of the orchestration setting information 227 is completed, the event analysis unit 212 determines whether or not the process has been completed for all virtual network services specified in step S2007 (step S2010).

ステップS2007において特定された全ての仮想ネットワークサービスについて処理が完了していないと判定された場合、イベント分析部212は、ステップS2008に戻り、新たなサービスIDを選択し、ステップS2009の処理を実行する。   If it is determined in step S2007 that the processing has not been completed for all the virtual network services specified, the event analysis unit 212 returns to step S2008, selects a new service ID, and executes the processing of step S2009. .

ステップS2007において特定された全ての仮想ネットワークサービスについて処理が完了したと判定された場合、イベント分析部212は、第2ループ処理を終了する。その後、イベント分析部212は、イベント情報226の全てのレコードについて処理が完了したか否かを判定する(ステップS2011)。   If it is determined that the processing has been completed for all the virtual network services specified in step S2007, the event analysis unit 212 ends the second loop processing. Thereafter, the event analysis unit 212 determines whether or not the processing has been completed for all records of the event information 226 (step S2011).

イベント情報226の全てのレコードについて処理が完了していないと判定された場合、イベント分析部212は、ステップS2005に戻り、イベント情報226から新たなレコードを選択し、ステップS2006からステップS2010までの処理を実行する。   When it is determined that the processing has not been completed for all the records of the event information 226, the event analysis unit 212 returns to step S2005, selects a new record from the event information 226, and performs the processing from step S2006 to step S2010. Execute.

イベント情報226の全てのレコードについて処理が完了したと判定された場合、イベント分析部212は、ステップS2002に戻り、同様の処理を実行する。   When it is determined that the processing has been completed for all the records of the event information 226, the event analysis unit 212 returns to step S2002 and executes the same processing.

図21は、実施例1のイベント分析サーバ102のイベント分析部212が実行するオーケストレーション設定情報227の更新処理を説明するフローチャートである。   FIG. 21 is a flowchart illustrating the orchestration setting information 227 update process executed by the event analysis unit 212 of the event analysis server 102 according to the first embodiment.

イベント分析部212は、次イベント予測日時、影響度、及びサービスIDを入力パラメータとして処理を開始する(ステップS2101)。なお、次イベント予測日時はイベント情報226から選択されたレコードから取得された値であり、影響度はイベント種別情報221から検索されたレコードから取得された値であり、サービスIDはステップS2008において選択された値である。   The event analysis unit 212 starts processing using the next event prediction date and time, the degree of influence, and the service ID as input parameters (step S2101). The next event prediction date / time is a value acquired from the record selected from the event information 226, the influence level is a value acquired from the record searched from the event type information 221, and the service ID is selected in step S2008. Value.

イベント分析部212は、次イベント予測日時に基づいて実行日時を算出する(ステップS2102)。   The event analysis unit 212 calculates the execution date based on the predicted next event date (step S2102).

具体的には、イベント分析部212は、次イベント予測日時から所定の時間前を実行日時として算出する。例えば、イベント分析部212は、次イベント予測日時の2時間前を実行日時として算出する。   Specifically, the event analysis unit 212 calculates a predetermined time before the next event prediction date and time as the execution date and time. For example, the event analysis unit 212 calculates 2 hours before the next event prediction date and time as the execution date and time.

次に、イベント分析部212は、影響を受けるテナントの使用リソース量を算出する(ステップS2103)。具体的には以下のような処理が実行される。   Next, the event analysis unit 212 calculates the used resource amount of the affected tenant (step S2103). Specifically, the following processing is executed.

イベント分析部212は、サービスIDを含むリソース量の算出要求をオーケストレーションサーバ103に送信する。オーケストレーションサーバ103は、当該算出要求を受信した場合、以下の(1)、(2)、(3)の処理を実行する。   The event analysis unit 212 transmits a resource amount calculation request including the service ID to the orchestration server 103. When receiving the calculation request, the orchestration server 103 executes the following processes (1), (2), and (3).

(1)オーケストレーションサーバ103は、影響を受けるテナントを特定する。具体的には、オーケストレーションサーバ103は、ネットワーク機能インスタンス情報326を参照し、インスタンスID1601が算出要求に含まれるサービスIDに一致するレコードを検索する。オーケストレーションサーバ103は、検索されたレコードのテナントID1604の値を取得する。取得されたテナントIDに対応するテナントが影響を受けるテナントとなる。   (1) The orchestration server 103 identifies affected tenants. Specifically, the orchestration server 103 refers to the network function instance information 326 and searches for a record in which the instance ID 1601 matches the service ID included in the calculation request. The orchestration server 103 acquires the value of the tenant ID 1604 of the retrieved record. The tenant corresponding to the acquired tenant ID becomes the affected tenant.

(2)オーケストレーションサーバ103は、特定されたテナントについて、テナントを構成するVMが稼働するハイパバイザのリソース量、当該ハイパバイザの使用リソース量、及び当該ハイパバイザの残りリソース量を算出する。なお、各リソース量の算出方法は以下の通りである。   (2) For the identified tenant, the orchestration server 103 calculates the amount of resources of the hypervisor in which the VMs that constitute the tenant operate, the amount of resources used by the hypervisor, and the amount of remaining resources of the hypervisor. The method for calculating each resource amount is as follows.

(ハイパバイザのリソース量)
オーケストレーションサーバ103は、(1)において、ネットワーク機能インスタンス情報326から検索されたレコードの起動ハイパバイザリスト1605からハイパバイザIDを取得する。オーケストレーションサーバ103は、取得したハイパバイザIDの中から対象のハイパバイザIDを選択する。オーケストレーションサーバ103は、ハイパバイザ情報324を参照し、ハイパバイザID1401が選択されたハイパバイザIDに一致するレコードを検索する。オーケストレーションサーバ103は、検索されたレコードのCPUコア数1403、メモリ容量1404、及びディスク容量1405の値を、ハイパバイザのリソース量として算出する。オーケストレーションサーバ103は、起動ハイパバイザリスト1605から取得された全てのテナントIDについて同様の処理を実行する。
(Hypervisor resource amount)
The orchestration server 103 acquires the hypervisor ID from the activation hypervisor list 1605 of the record retrieved from the network function instance information 326 in (1). The orchestration server 103 selects a target hypervisor ID from the acquired hypervisor IDs. The orchestration server 103 refers to the hypervisor information 324 and searches for a record in which the hypervisor ID 1401 matches the selected hypervisor ID. The orchestration server 103 calculates the values of the CPU core number 1403, the memory capacity 1404, and the disk capacity 1405 of the retrieved record as the hypervisor resource amount. The orchestration server 103 executes the same process for all tenant IDs acquired from the startup hypervisor list 1605.

(ハイパバイザの使用リソース量)
オーケストレーションサーバ103は、起動ハイパバイザリスト1605から取得されたハイパバイザIDの中から対象のハイパバイザIDを選択する。オーケストレーションサーバ103は、ネットワーク機能インスタンス情報326を参照し、起動ハイパバイザリスト1605に選択されたハイパバイザIDを含むレコードを検索する。オーケストレーションサーバ103は、検索された各レコードについて以下の処理を実行する。
(Hypervisor resource usage)
The orchestration server 103 selects a target hypervisor ID from the hypervisor IDs acquired from the startup hypervisor list 1605. The orchestration server 103 refers to the network function instance information 326 and searches for a record including the selected hypervisor ID in the activated hypervisor list 1605. The orchestration server 103 executes the following processing for each retrieved record.

オーケストレーションサーバ103は、検索されたレコードの中から対象のレコードを選択し、選択されたレコードのネットワーク機能ID1602及びパッケージID1603の値を取得する。オーケストレーションサーバ103は、パッケージ情報322を参照し、パッケージID1201及びネットワーク機能ID1202が取得したパッケージID及びネットワーク機能IDに一致するレコードを検索する。オーケストレーションサーバ103は、検索されたレコードの仮想CPUコア数1203、メモリ容量1204、及びディスク容量1205の値を取得する。オーケストレーションサーバ103は、ネットワーク機能インスタンス情報326から検索された全てのレコードについて同様の処理を実行し、取得された値の合計値を選択されたハイパバイザIDに対応するハイパバイザの使用リソース量として算出する。   The orchestration server 103 selects a target record from the retrieved records, and acquires the values of the network function ID 1602 and the package ID 1603 of the selected record. The orchestration server 103 refers to the package information 322 and searches for a record that matches the package ID and network function ID acquired by the package ID 1201 and network function ID 1202. The orchestration server 103 acquires the values of the number of virtual CPU cores 1203, the memory capacity 1204, and the disk capacity 1205 of the retrieved record. The orchestration server 103 executes the same process for all records retrieved from the network function instance information 326, and calculates the total value of the acquired values as the amount of resources used by the hypervisor corresponding to the selected hypervisor ID. .

(ハイパバイザの残りリソース量)
オーケストレーションサーバ103は、ハイパバイザのリソース量からハイパバイザの使用リソース量を減算することによって、ハイパバイザの残りリソース量を算出する。以上が、リソース量の算出方法の説明である。
(Remaining amount of hypervisor resources)
The orchestration server 103 calculates the remaining amount of resources of the hypervisor by subtracting the amount of resources used by the hypervisor from the amount of resources of the hypervisor. The above is the description of the resource amount calculation method.

なお、リソース量はクラウド管理サーバ104によって管理されているため、イベント分析部212は、オーケストレーションサーバ103を介してクラウド管理サーバ104から各種リソース量を取得してもよい。   Since the resource amount is managed by the cloud management server 104, the event analysis unit 212 may acquire various resource amounts from the cloud management server 104 via the orchestration server 103.

(3)オーケストレーションサーバ103は、サービスID、テナントID、ハイパバイザのリソース量、ハイパバイザの使用リソース量、及びハイパバイザの残りリソース量を含む応答をイベント分析サーバ102に送信する。以上がステップS2103の処理の説明である。   (3) The orchestration server 103 transmits a response including a service ID, a tenant ID, a hypervisor resource amount, a hypervisor resource usage amount, and a hypervisor remaining resource amount to the event analysis server 102. The above is the description of step S2103.

次に、イベント分析部212は、影響を受けるテナントの予測リソース量を算出する(ステップS2104)。   Next, the event analysis unit 212 calculates the predicted resource amount of the affected tenant (step S2104).

具体的には、イベント分析部212は、テナントを構成するVMが稼働するハイパバイザの使用リソース量に影響度を乗算することによって予測リソース量を算出する。なお、前述した算出方法は一例であってこれに限定されない。ハイパバイザのリソース量及び影響度を用いた算出方法であればよい。   Specifically, the event analysis unit 212 calculates the predicted resource amount by multiplying the resource usage amount of the hypervisor in which the VM that configures the tenant operates by the influence degree. The calculation method described above is an example, and the present invention is not limited to this. Any calculation method using the hypervisor resource amount and the degree of influence may be used.

なお、ユーザ数704を重みとして用いてもよい。これによって、より適切な予測リソース量を算出することができる。   Note that the number of users 704 may be used as a weight. Thereby, a more appropriate predicted resource amount can be calculated.

次に、イベント分析部212は、影響を受けるテナントのスケーリング種別を決定する(ステップS2105)。ステップS2105の処理は、以下で説明するように、入力された影響度の大きさに応じて二通りの処理に分かれる。なお、以下で示す数式に用いるリソース量は、CPUコア数であるものとする。   Next, the event analysis unit 212 determines the scaling type of the affected tenant (step S2105). The process of step S2105 is divided into two processes according to the magnitude of the input influence as described below. Note that the resource amount used in the following formula is the number of CPU cores.

影響度が「1」より大きい場合は以下のような処理が実行される。イベント分析部212は、各ハイパバイザの残りリソース量の合計値及び各ハイパバイザの使用リソース量の合計値を算出する。イベント分析部212は、式(1)及び式(2)のいずれを満たすかを判定する。式(1)を満たす場合、イベント分析部212は、スケーリング種別を「スケールアウト」に決定する。式(2)を満たす場合、イベント分析部212は、スケーリング種別を「スケールアップ」に決定する。   When the influence degree is larger than “1”, the following processing is executed. The event analysis unit 212 calculates the total value of the remaining resource amount of each hypervisor and the total value of the used resource amount of each hypervisor. The event analysis unit 212 determines which of Equation (1) and Equation (2) is satisfied. When Expression (1) is satisfied, the event analysis unit 212 determines the scaling type as “scale-out”. When the expression (2) is satisfied, the event analysis unit 212 determines the scaling type as “scale-up”.

Figure 2018032245
Figure 2018032245

Figure 2018032245
Figure 2018032245

影響度が「1」より小さい場合は以下のような処理が実行される。イベント分析部212は、式(3)及び式(4)のいずれを満たすかを判定する。式(3)を満たす場合、イベント分析部212は、スケーリング種別を「スケールイン」に決定する。式(4)を満たす場合、イベント分析部212は、スケーリング種別を「スケールダウン」に決定する。   When the influence degree is smaller than “1”, the following processing is executed. The event analysis unit 212 determines which of Expression (3) and Expression (4) is satisfied. When Expression (3) is satisfied, the event analysis unit 212 determines the scaling type as “scale-in”. When the expression (4) is satisfied, the event analysis unit 212 determines the scaling type as “scale down”.

Figure 2018032245
Figure 2018032245

Figure 2018032245
Figure 2018032245

なお、前述した判定方法は一例であってこれに限定されない。   The above-described determination method is an example and is not limited to this.

イベント分析部212は、スケーリング種別情報223を参照し、スケーリング種別602が決定されたスケーリング種別に一致するレコードを検索する。イベント分析部212は、検索されたレコードのスケーリング種別ID601の値を取得する。以上がステップS2105の処理の説明である。   The event analysis unit 212 refers to the scaling type information 223 and searches for a record that matches the scaling type for which the scaling type 602 has been determined. The event analysis unit 212 acquires the value of the scaling type ID 601 of the searched record. The above is the description of step S2105.

次に、イベント分析部212は、影響を受けるテナントのスケーリングの規模を算出する(ステップS2106)。具体的には、以下のような処理が実行される。   Next, the event analysis unit 212 calculates the scale of scaling of the affected tenant (step S2106). Specifically, the following processing is executed.

スケーリング種別が「スケールアウト」である場合、イベント分析部212は、式(5)に基づいて規模を算出する。なお、予測リソース量の合計値は、各ハイパバイザの予測リソース量の合計値を表す。式(5)に基づいてテナントに追加するVMの数が規模として算出される。ここで、式(5)の(VMのリソース量)は、テナントを構成するVMの仮想CPUコア数の最小を用いるものとする。なお、VMの仮想CPUコア数の平均値を(VMのリソース量)としてもよい。   When the scaling type is “scale-out”, the event analysis unit 212 calculates the scale based on Expression (5). The total value of the predicted resource amount represents the total value of the predicted resource amount of each hypervisor. The number of VMs to be added to the tenant is calculated as a scale based on Expression (5). Here, as the (VM resource amount) in Expression (5), the minimum of the number of virtual CPU cores of the VM constituting the tenant is used. The average value of the number of virtual CPU cores of VM may be defined as (VM resource amount).

Figure 2018032245
Figure 2018032245

スケーリング種別が「スケールアップ」である場合、イベント分析部212は、式(6)に基づいて規模を算出する。この場合、既存のVMに追加するリソース量が規模として算出される。   When the scaling type is “scale-up”, the event analysis unit 212 calculates the scale based on Expression (6). In this case, the resource amount added to the existing VM is calculated as the scale.

Figure 2018032245
Figure 2018032245

スケーリング種別が「スケールイン」である場合、イベント分析部212は、式(7)に基づいて規模を算出する。この場合、テナントから削除するVMの数が規模として算出される。ここで、(VMのリソース量)は、式(5)の(VMのリソース量)と同一のものである。   When the scaling type is “scale-in”, the event analysis unit 212 calculates the scale based on Expression (7). In this case, the number of VMs to be deleted from the tenant is calculated as the scale. Here, (VM resource amount) is the same as (VM resource amount) in equation (5).

Figure 2018032245
Figure 2018032245

スケーリング種別が「スケールダウン」である場合、イベント分析部212は、式(8)に基づいて規模を算出する。この場合、既存のVMから削減するリソース量が規模として算出される。   When the scaling type is “scale down”, the event analysis unit 212 calculates the scale based on Expression (8). In this case, the resource amount to be reduced from the existing VM is calculated as the scale.

Figure 2018032245
Figure 2018032245

なお、前述した算出方法は一例であってこれに限定されない。以上がステップS2106の処理の説明である。   The calculation method described above is an example, and the present invention is not limited to this. The above is the description of the process in step S2106.

次に、イベント分析部212は、オーケストレーション設定情報227を更新する(ステップS2107)。その後、イベント分析部212は、オーケストレーション設定情報の更新処理を終了する(ステップS2108)。ステップS2107では、以下のような処理が実行される。   Next, the event analysis unit 212 updates the orchestration setting information 227 (step S2107). Thereafter, the event analysis unit 212 ends the orchestration setting information update process (step S2108). In step S2107, the following processing is executed.

イベント分析部212は、オーケストレーション設定情報227に、影響を受けるテナントの数だけレコードを追加する。本実施例では、一つの仮想ネットワークサービスは一つのテナントから構成されるため、オーケストレーション設定情報227には一つのレコードが追加される。イベント分析部212は、追加されたレコードのオーケストレーション設定ID1001に識別情報を設定する。なお、イベント分析部212は、採番機能を有し、当該採番機能に基づいて、他のレコードと重複しないように識別情報を設定する。   The event analysis unit 212 adds records to the orchestration setting information 227 by the number of affected tenants. In this embodiment, since one virtual network service is composed of one tenant, one record is added to the orchestration setting information 227. The event analysis unit 212 sets identification information in the orchestration setting ID 1001 of the added record. Note that the event analysis unit 212 has a numbering function, and sets identification information based on the numbering function so as not to overlap with other records.

イベント分析部212は、追加されたレコードの実行日時1002にステップS2102において算出された実行日時を設定する。イベント分析部212は、追加されたレコードのサービスID1005に入力パラメータであるサービスIDを設定する。また、イベント分析部212は、追加されたレコードのスケーリング種別ID1003にステップS2105において決定されたスケーリング種別IDを設定し、追加されたレコードの規模1004にステップS2106において算出された規模を設定する。一つのレコードが一つの設定情報に対応する。   The event analysis unit 212 sets the execution date and time calculated in step S2102 to the execution date and time 1002 of the added record. The event analysis unit 212 sets a service ID that is an input parameter in the service ID 1005 of the added record. In addition, the event analysis unit 212 sets the scaling type ID determined in step S2105 to the scaling type ID 1003 of the added record, and sets the scale calculated in step S2106 to the scale 1004 of the added record. One record corresponds to one setting information.

なお、イベント分析部212は、オーケストレーション設定情報227にテナントIDを設定してもよい。この場合、オーケストレーション設定情報227のレコードは、テナントIDのカラムを含む。以上がステップS2107の処理の説明である。   Note that the event analysis unit 212 may set a tenant ID in the orchestration setting information 227. In this case, the record of the orchestration setting information 227 includes a tenant ID column. The above is the description of step S2107.

以上の処理によって、影響を受ける仮想ネットワークサービスに対するスケーリングの制御内容が決定される。これによって、第2イベントの発生前に適切なスケーリングを行うことができる。   With the above processing, the scaling control content for the affected virtual network service is determined. As a result, appropriate scaling can be performed before the occurrence of the second event.

図22は、実施例1のイベント分析サーバ102のオーケストレーション設定部213が実行する処理を説明するフローチャートである。   FIG. 22 is a flowchart illustrating processing executed by the orchestration setting unit 213 of the event analysis server 102 according to the first embodiment.

なお、本実施例のオーケストレーション設定部213は、更新前のオーケストレーション設定情報227を更新履歴として管理しているものとする。   Note that the orchestration setting unit 213 according to the present embodiment manages the orchestration setting information 227 before update as an update history.

イベント分析サーバ102は、起動後、メモリ202にオーケストレーション設定部213を実現するプログラムをロードし、実行する。これによって、オーケストレーション設定部213は、処理を開始する(ステップS2201)。   After being activated, the event analysis server 102 loads and executes a program for realizing the orchestration setting unit 213 in the memory 202. As a result, the orchestration setting unit 213 starts processing (step S2201).

オーケストレーション設定部213は、プログラムの終了指示を受け付けたか否かを判定する(ステップS2202)。   The orchestration setting unit 213 determines whether an instruction to end the program has been received (step S2202).

プログラムの終了指示を受け付けたと判定された場合、オーケストレーション設定部213は、処理を終了する(ステップS2208)。   If it is determined that an instruction to end the program has been received, the orchestration setting unit 213 ends the process (step S2208).

プログラムの終了指示を受け付けていないと判定された場合、オーケストレーション設定部213は、オーケストレーション設定情報227を参照し(ステップS2203)、オーケストレーション設定情報227が更新されているか否かを判定する(ステップS2204)。なお、周期的にオーケストレーション設定情報227を参照する場合、オーケストレーション設定部213は、前回、オーケストレーション設定情報227を参照してから一定時間経過した後にオーケストレーション設定情報227を参照する。   When it is determined that the program termination instruction has not been received, the orchestration setting unit 213 refers to the orchestration setting information 227 (step S2203) and determines whether or not the orchestration setting information 227 has been updated (step S2203). Step S2204). When the orchestration setting information 227 is periodically referred to, the orchestration setting unit 213 refers to the orchestration setting information 227 after a predetermined time has passed since the last time the orchestration setting information 227 was referred to.

具体的には、オーケストレーション設定部213は、現在のオーケストレーション設定情報227と更新履歴とを比較することによって、オーケストレーション設定情報227が更新されているか否かを判定する。   Specifically, the orchestration setting unit 213 determines whether the orchestration setting information 227 has been updated by comparing the current orchestration setting information 227 and the update history.

オーケストレーション設定情報227が更新されていないと判定された場合、オーケストレーション設定部213は、ステップS2202に戻り、同様の処理を実行する。   If it is determined that the orchestration setting information 227 has not been updated, the orchestration setting unit 213 returns to step S2202 and executes the same processing.

オーケストレーション設定情報227が更新されたと判定された場合、オーケストレーション設定部213は、第1ループ処理を開始する(ステップS2205)。このとき、オーケストレーション設定部213は、オーケストレーション設定情報227の更新されたレコードを特定し、特定されたレコードの中から対象のレコードを一つ選択し、選択されたレコードについてステップS2206の処理を実行する。   When it is determined that the orchestration setting information 227 has been updated, the orchestration setting unit 213 starts the first loop process (step S2205). At this time, the orchestration setting unit 213 specifies an updated record of the orchestration setting information 227, selects one target record from the specified records, and performs the process of step S2206 on the selected record. Run.

オーケストレーション設定部213は、オーケストレーションサーバ103に設定情報を送信する(ステップS2206)。   The orchestration setting unit 213 transmits setting information to the orchestration server 103 (step S2206).

具体的には、オーケストレーション設定部213は、選択されたレコードの実行日時1002、スケーリング種別ID1003、規模1004、及びサービスID1005の値を取得し、オーケストレーションサーバ103に、設定情報として取得した値を送信する。なお、選択されたレコードにテナントIDが含まれる場合、テナントIDも送信される。   Specifically, the orchestration setting unit 213 acquires the execution date and time 1002, the scaling type ID 1003, the scale 1004, and the service ID 1005 of the selected record, and sends the values acquired as setting information to the orchestration server 103. Send. In addition, when the tenant ID is included in the selected record, the tenant ID is also transmitted.

次に、オーケストレーション設定部213は、更新された全てのレコードについて処理が完了したか否かを判定する(ステップS2207)。   Next, the orchestration setting unit 213 determines whether or not processing has been completed for all updated records (step S2207).

更新された全てのレコードについて処理が完了していないと判定された場合、オーケストレーション設定部213は、ステップS2205に戻り、新たなレコードを選択し、選択されたレコードに対してステップS2206の処理を実行する。   When it is determined that the processing has not been completed for all the updated records, the orchestration setting unit 213 returns to step S2205, selects a new record, and performs the processing of step S2206 on the selected record. Run.

更新された全てのレコードについて処理が完了したと判定された場合、オーケストレーション設定部213は、第1ループ処理を終了する。このとき、オーケストレーション設定部213は、現在のオーケストレーション設定情報227を更新履歴に設定する。その後、オーケストレーション設定部213は、ステップS2202に戻り、同様の処理を実行する。   When it is determined that the processing has been completed for all the updated records, the orchestration setting unit 213 ends the first loop processing. At this time, the orchestration setting unit 213 sets the current orchestration setting information 227 in the update history. Thereafter, the orchestration setting unit 213 returns to step S2202 and executes the same processing.

次に、図23から図26を用いてオーケストレーションサーバ103が実行する処理について説明する。以下の説明では、符号を含まないカラムの名称は、カラムから取得された値を表すものとする。例えば、シナリオIDは、シナリオ情報323に含まれるレコードのシナリオID1301の値を示す。   Next, processing executed by the orchestration server 103 will be described with reference to FIGS. In the following description, it is assumed that the name of a column that does not include a code represents a value acquired from the column. For example, the scenario ID indicates the value of the scenario ID 1301 of the record included in the scenario information 323.

図23は、実施例1のオーケストレーションサーバ103のスケジュール部311が実行する処理を説明するフローチャートである。   FIG. 23 is a flowchart illustrating processing executed by the schedule unit 311 of the orchestration server 103 according to the first embodiment.

オーケストレーションサーバ103は、起動後、メモリ302にスケジュール部311を実現するプログラムをロードし、実行する。これによって、スケジュール部311は、処理を開始する(ステップS2301)。   The orchestration server 103 loads and executes a program for realizing the schedule unit 311 in the memory 302 after being started. Thereby, the schedule part 311 starts a process (step S2301).

スケジュール部311は、プログラムの終了指示を受け付けたか否かを判定する(ステップS2302)。   The schedule unit 311 determines whether an instruction to end the program has been received (step S2302).

プログラムの終了指示を受け付けたと判定された場合、スケジュール部311は、処理を終了する(ステップS2306)。   If it is determined that an instruction to end the program has been received, the schedule unit 311 ends the process (step S2306).

プログラムの終了指示を受け付けていないと判定された場合、スケジュール部311は、イベント分析サーバ102から設定情報が送信されるまで待ち続ける。スケジュール部311は、設定情報を受信した場合(ステップS2303)、影響を受ける仮想ネットワークサービスのネットワーク機能、テナント、パッケージ、及びシナリオを特定する(ステップS2304)。具体的には、以下のような処理が実行される。   When it is determined that the program termination instruction has not been received, the schedule unit 311 continues to wait until the setting information is transmitted from the event analysis server 102. When receiving the setting information (step S2303), the scheduling unit 311 identifies the network function, tenant, package, and scenario of the affected virtual network service (step S2304). Specifically, the following processing is executed.

スケジュール部311は、ネットワーク機能インスタンス情報326を参照し、インスタンスID1601が設定情報に含まれるサービスIDと一致するレコードを検索する。スケジュール部311は、検索されたレコードのネットワーク機能ID1602、パッケージID1603、及びテナントID1604の値を取得する。なお、設定情報にテナントIDが含まれる場合、スケジュール部311は、テナントID1604から値を取得しなくてもよい。   The schedule unit 311 refers to the network function instance information 326 and searches for a record in which the instance ID 1601 matches the service ID included in the setting information. The schedule unit 311 acquires the values of the network function ID 1602, the package ID 1603, and the tenant ID 1604 of the retrieved record. Note that when the setting information includes a tenant ID, the schedule unit 311 does not have to acquire a value from the tenant ID 1604.

スケジュール部311は、シナリオ情報323を参照し、スケーリング種別ID1302が設定情報に含まれるスケーリング種別IDに一致し、かつ、ネットワーク機能ID1303がネットワーク機能インスタンス情報326から検索されたレコードのネットワーク機能IDに一致するレコードを検索する。スケジュール部311は、検索されたレコードのシナリオID1301の値を取得する。以上がステップS2304の処理の説明である。   The scheduling unit 311 refers to the scenario information 323, the scaling type ID 1302 matches the scaling type ID included in the setting information, and the network function ID 1303 matches the network function ID of the record retrieved from the network function instance information 326. Search for the record you want. The schedule unit 311 acquires the value of the scenario ID 1301 of the retrieved record. The above is the description of the process in step S2304.

次に、スケジュール部311は、スケジュール情報327を更新する(ステップS2305)。その後、スケジュール部311は、ステップS2302に戻り、同様の処理を実行する。具体的には、以下のような処理が実行される。   Next, the schedule unit 311 updates the schedule information 327 (step S2305). Thereafter, the schedule unit 311 returns to step S2302 and executes the same processing. Specifically, the following processing is executed.

スケジュール部311は、スケジュール情報327にレコードを一つ追加し、追加されたレコードのスケジュールID1701に識別情報を設定する。なお、スケジュール部311は、採番機能を有し、当該採番機能に基づいて、他のレコードと重複しないように識別情報を設定する。   The schedule unit 311 adds one record to the schedule information 327 and sets identification information in the schedule ID 1701 of the added record. The schedule unit 311 has a numbering function, and sets identification information based on the numbering function so as not to overlap with other records.

スケジュール部311は、追加されたレコードのインスタンスID1702、実行日時1706、及び規模1707に、設定情報に含まれるサービスID、実行日時、及び規模を設定する。   The schedule unit 311 sets the service ID, the execution date and time, and the scale included in the setting information in the instance ID 1702, the execution date and time 1706, and the scale 1707 of the added record.

また、スケジュール部311は、追加されたレコードのシナリオID1703、パッケージID1704、及びテナントID1705に、ステップS2305において取得したシナリオID、パッケージID、及びテナントIDを設定する。以上がステップS2306の処理の説明である。   Also, the schedule unit 311 sets the scenario ID, package ID, and tenant ID acquired in step S2305 in the scenario ID 1703, package ID 1704, and tenant ID 1705 of the added record. The above is the description of the process in step S2306.

図24は、実施例1のオーケストレーションサーバ103のシナリオ登録部312が実行する処理を説明するフローチャートである。   FIG. 24 is a flowchart illustrating processing executed by the scenario registration unit 312 of the orchestration server 103 according to the first embodiment.

オーケストレーションサーバ103は、起動後、メモリ302にシナリオ登録部312を実現するプログラムをロードし、実行する。これによって、シナリオ登録部312は、処理を開始する(ステップS2401)。   The orchestration server 103 loads and executes a program for realizing the scenario registration unit 312 in the memory 302 after being started. As a result, the scenario registration unit 312 starts processing (step S2401).

シナリオ登録部312は、プログラムの終了指示を受け付けたか否かを判定する(ステップS2402)。   The scenario registration unit 312 determines whether an instruction to end the program has been received (step S2402).

プログラムの終了指示を受け付けたと判定された場合、シナリオ登録部312は、処理を終了する(ステップS2408)。   When it is determined that the program end instruction has been received, the scenario registration unit 312 ends the process (step S2408).

プログラムの終了指示を受け付けていないと判定された場合、シナリオ登録部312は、第1ループ処理を開始する(ステップS2403)。このとき、シナリオ登録部312は、スケジュール情報327のレコードの中から対象のレコードを一つ選択し、選択されたレコードに対してステップS2404からステップS2406までの処理を実行する。なお、周期的に第1ループ処理が実行される場合、シナリオ登録部312は、前回の第1ループ処理が終了してから一定時間経過した後に第1ループ処理を開始する。   When it is determined that the program termination instruction has not been received, the scenario registration unit 312 starts the first loop process (step S2403). At this time, the scenario registration unit 312 selects one target record from the records of the schedule information 327, and executes the processing from step S2404 to step S2406 on the selected record. When the first loop process is periodically executed, the scenario registration unit 312 starts the first loop process after a predetermined time has elapsed since the last first loop process was completed.

次に、シナリオ登録部312は、現在時刻が実行日時を経過しているか否かを判定する(ステップS2404)。   Next, the scenario registration unit 312 determines whether or not the current time has passed the execution date (step S2404).

具体的には、シナリオ登録部312は、スケジュール情報327から選択されたレコードの実行日時1706と現在時刻とを比較し、現在時刻が実行日時を経過しているか否かを判定する。   Specifically, the scenario registration unit 312 compares the execution date and time 1706 of the record selected from the schedule information 327 with the current time, and determines whether or not the current time has passed the execution date and time.

現在時刻が実行日時を経過していないと判定された場合、シナリオ登録部312は、スケジュール情報327の全てのレコードについて処理が完了したか否かを判定する(ステップS2407)。   When it is determined that the current time has not passed the execution date and time, the scenario registration unit 312 determines whether or not the processing has been completed for all records of the schedule information 327 (step S2407).

スケジュール情報327の全てのレコードについて処理が完了していないと判定された場合、シナリオ登録部312は、ステップS2403に戻り、スケジュール情報327から新たなレコードを選択し、選択されたレコードに対してステップS2404からステップS2406の処理を実行する。   When it is determined that the processing has not been completed for all the records of the schedule information 327, the scenario registration unit 312 returns to step S2403, selects a new record from the schedule information 327, and performs a step for the selected record. The processing from S2404 to step S2406 is executed.

スケジュール情報327の全てのレコードについて処理が完了したと判定された場合、シナリオ登録部312は、ステップS2402に戻り、同様の処理を実行する。   When it is determined that the processing has been completed for all the records of the schedule information 327, the scenario registration unit 312 returns to step S2402 and executes the same processing.

ステップS2404において、現在時刻が実行日時を経過していると判定された場合、シナリオ登録部312は、実行中シナリオ情報328を更新する(ステップS2405)。具体的には、以下のような処理が実行される。   If it is determined in step S2404 that the current time has passed the execution date and time, the scenario registration unit 312 updates the executing scenario information 328 (step S2405). Specifically, the following processing is executed.

シナリオ登録部312は、実行中シナリオ情報328にレコードを一つ追加し、追加されたレコードの実行中シナリオID1801に識別情報を設定する。なお、シナリオ登録部312は、採番機能を有し、当該採番機能に基づいて、他のレコードと重複しないように識別情報を設定する。   The scenario registration unit 312 adds one record to the running scenario information 328 and sets identification information in the running scenario ID 1801 of the added record. The scenario registration unit 312 has a numbering function, and sets identification information based on the numbering function so as not to overlap with other records.

シナリオ登録部312は、追加されたレコードのインスタンスID1802、シナリオID1803、パッケージID1804、テナントID1805、及び規模1806に、スケジュール情報327から選択されたレコードのインスタンスID、シナリオID、パッケージID、テナントID、及び規模を設定する。以上がステップS2405の処理の説明である。   The scenario registration unit 312 includes the instance ID 1802, scenario ID 1803, package ID 1804, tenant ID 1805, and scale 1806 of the added record, the instance ID, scenario ID, package ID, tenant ID of the record selected from the schedule information 327, and Set the scale. The above is the description of the process in step S2405.

次に、シナリオ登録部312は、スケジュール情報327から選択されたレコードを削除する(ステップS2406)。その後、シナリオ登録部312は、ステップS2407に進む。   Next, the scenario registration unit 312 deletes the record selected from the schedule information 327 (step S2406). Thereafter, the scenario registration unit 312 proceeds to step S2407.

図25は、実施例1のオーケストレーションサーバ103のオーケストレーション実行部313が実行する処理を説明するフローチャートである。   FIG. 25 is a flowchart illustrating processing executed by the orchestration execution unit 313 of the orchestration server 103 according to the first embodiment.

なお、本実施例のオーケストレーション実行部313は、実行中シナリオ情報328の更新日時を更新履歴として管理しているものとする。   Note that the orchestration execution unit 313 of this embodiment manages the update date and time of the running scenario information 328 as an update history.

オーケストレーションサーバ103は、起動後、メモリ302にオーケストレーション実行部313を実現するプログラムをロードし、実行する。これによって、オーケストレーション実行部313は、処理を開始する(ステップS2501)。   The orchestration server 103 loads and executes a program for realizing the orchestration execution unit 313 in the memory 302 after being started. Accordingly, the orchestration execution unit 313 starts processing (step S2501).

オーケストレーション実行部313は、プログラムの終了指示を受け付けたか否かを判定する(ステップS2502)。   The orchestration execution unit 313 determines whether an instruction to end the program has been received (step S2502).

プログラムの終了指示を受け付けたと判定された場合、オーケストレーション実行部313は、処理を終了する(ステップS2510)。   When it is determined that the program end instruction has been received, the orchestration execution unit 313 ends the process (step S2510).

プログラムの終了指示を受け付けていないと判定された場合、オーケストレーション実行部313は、実行中シナリオ情報328を参照し(ステップS2503)、実行中シナリオ情報328が更新されているか否かを判定する(ステップS2504)。なお、周期的に実行中シナリオ情報328を参照する場合、オーケストレーション実行部313は、前回、実行中シナリオ情報328を参照してから一定時間経過した後に実行中シナリオ情報328を参照する。   When it is determined that the program termination instruction has not been received, the orchestration execution unit 313 refers to the running scenario information 328 (step S2503) and determines whether the running scenario information 328 has been updated (step S2503). Step S2504). When periodically referencing the running scenario information 328, the orchestration executing unit 313 refers to the running scenario information 328 after a predetermined time has elapsed since the last time the running scenario information 328 was referred to.

具体的には、オーケストレーション実行部313は、現在の実行中シナリオ情報328の更新日時と更新履歴とを比較することによって、実行中シナリオ情報328が更新されているか否かを判定する。このとき、オーケストレーション実行部313は、現在の実行中シナリオ情報328の更新日時を更新履歴に設定する。   Specifically, the orchestration execution unit 313 determines whether or not the ongoing scenario information 328 has been updated by comparing the update date and time of the currently executing scenario information 328 with the update history. At this time, the orchestration execution unit 313 sets the update date and time of the currently executing scenario information 328 in the update history.

実行中シナリオ情報328が更新されていないと判定された場合、オーケストレーション実行部313は、ステップS2502に戻り、同様の処理を実行する。   If it is determined that the running scenario information 328 has not been updated, the orchestration execution unit 313 returns to step S2502 and executes the same processing.

実行中シナリオ情報328が更新されたと判定された場合、オーケストレーション実行部313は、第1ループ処理を開始する(ステップS2505)。このとき、オーケストレーション実行部313は、実行中シナリオ情報328の更新されたレコードを特定し、特定されたレコードの中から対象のレコードを一つ選択し、選択されたレコードについてステップS2506からステップS2508までの処理を実行する。   If it is determined that the ongoing scenario information 328 has been updated, the orchestration execution unit 313 starts the first loop process (step S2505). At this time, the orchestration execution unit 313 specifies the updated record of the running scenario information 328, selects one target record from the specified records, and performs steps S2506 to S2508 for the selected record. The process up to is executed.

次に、オーケストレーション実行部313は、シナリオ情報323からシナリオを取得する(ステップS2506)。   Next, the orchestration execution unit 313 acquires a scenario from the scenario information 323 (step S2506).

具体的には、オーケストレーション実行部313は、シナリオID1301が実行中シナリオ情報328から選択したレコードのシナリオIDと一致するレコードを検索し、検索されたレコードのシナリオ1304からシナリオを取得する。   Specifically, the orchestration execution unit 313 searches for a record in which the scenario ID 1301 matches the scenario ID of the record selected from the executing scenario information 328, and acquires the scenario from the scenario 1304 of the searched record.

次に、オーケストレーション実行部313は、取得されたシナリオに基づいて、シナリオ処理を実行する(ステップS2507)。なお、インスタンスID、パッケージID、テナントID、及び規模は、シナリオ処理のパラメータとして扱われる。図26を用いてシナリオ処理の一例を説明する。   Next, the orchestration execution unit 313 executes scenario processing based on the acquired scenario (step S2507). Note that the instance ID, package ID, tenant ID, and scale are handled as parameters for scenario processing. An example of scenario processing will be described with reference to FIG.

オーケストレーション実行部313は、シナリオ処理の実行後、実行中シナリオ情報328から選択されたレコードを削除する(ステップS2508)。また、オーケストレーション実行部313は、更新された全てのレコードについて処理が完了したか否かを判定する(ステップS2509)。   The orchestration execution unit 313 deletes the selected record from the executing scenario information 328 after executing the scenario process (step S2508). In addition, the orchestration execution unit 313 determines whether or not the processing has been completed for all the updated records (step S2509).

更新された全てのレコードについて処理が完了していないと判定された場合、オーケストレーション実行部313は、ステップS2505に戻り、新たなレコードを選択し、選択されたレコードに対してステップS2506からステップS2508までの処理を実行する。   When it is determined that the processing has not been completed for all the updated records, the orchestration execution unit 313 returns to step S2505, selects a new record, and performs steps S2506 to S2508 for the selected record. The process up to is executed.

更新された全てのレコードについて処理が完了したと判定された場合、オーケストレーション実行部313は、第1ループ処理を終了する。その後、オーケストレーション実行部313は、ステップS2502に戻り、同様の処理を実行する。   When it is determined that the processing has been completed for all the updated records, the orchestration execution unit 313 ends the first loop processing. Thereafter, the orchestration execution unit 313 returns to step S2502 and executes the same processing.

図26は、実施例1のオーケストレーションサーバ103のオーケストレーション実行部313が実行するシナリオ処理の一例を説明するフローチャートである。   FIG. 26 is a flowchart illustrating an example of scenario processing executed by the orchestration execution unit 313 of the orchestration server 103 according to the first embodiment.

ここでは、シナリオID1301が「2」である場合のシナリオ処理(スケールアウト処理)について説明する。   Here, scenario processing (scale-out processing) when the scenario ID 1301 is “2” will be described.

オーケストレーション実行部313は、シナリオを取得した後、シナリオ処理を開始する(ステップS2601)。まず、オーケストレーション実行部313は、インスタンスID、パッケージID、テナントID、及び規模を引数として受け取る(ステップS2602)。   The orchestration execution unit 313 starts the scenario process after acquiring the scenario (step S2601). First, the orchestration execution unit 313 receives the instance ID, package ID, tenant ID, and scale as arguments (step S2602).

次に、オーケストレーション実行部313は、スケールアウト処理に必要なリソース量を算出する(ステップS2603)。   Next, the orchestration execution unit 313 calculates a resource amount necessary for the scale-out process (step S2603).

具体的には、オーケストレーション実行部313は、パッケージ情報322を参照し、パッケージID1201が引数として受け取ったパッケージIDと一致するレコードを検索する。オーケストレーション実行部313は、検索されたレコードのネットワーク機能ID、仮想CPUコア数、メモリ容量、及びディスク容量を取得する。取得した値は、スケールアウト処理に必要なリソース量として算出される。   Specifically, the orchestration execution unit 313 refers to the package information 322 and searches for a record in which the package ID 1201 matches the package ID received as an argument. The orchestration execution unit 313 acquires the network function ID, the number of virtual CPU cores, the memory capacity, and the disk capacity of the retrieved record. The acquired value is calculated as a resource amount necessary for the scale-out process.

次に、オーケストレーション実行部313は、ネットワーク機能の起動イメージファイル名を取得する(ステップS2604)。   Next, the orchestration execution unit 313 acquires the startup image file name of the network function (step S2604).

具体的には、オーケストレーション実行部313は、ネットワーク機能情報321を参照し、ネットワーク機能ID1101がパッケージ情報322から検索されたレコードのネットワーク機能IDと一致するレコードを検索する。オーケストレーション実行部313は、検索されたレコードの起動イメージファイル1103から起動イメージファイルを取得する。   Specifically, the orchestration execution unit 313 refers to the network function information 321 and searches for a record in which the network function ID 1101 matches the network function ID of the record searched from the package information 322. The orchestration execution unit 313 acquires a startup image file from the startup image file 1103 of the found record.

次に、オーケストレーション実行部313は、テナントを構成するVMが稼働するハイパバイザを特定する(ステップS2605)。   Next, the orchestration execution unit 313 identifies the hypervisor on which the VM that constitutes the tenant operates (step S2605).

具体的には、オーケストレーション実行部313は、テナント情報325を参照し、テナントID1501が引数として受け取ったテナントIDと一致するレコードを検索する。オーケストレーション実行部313は、検索されたレコードのハイパバイザリスト1503からハイパバイザIDを取得する。   Specifically, the orchestration execution unit 313 refers to the tenant information 325 and searches for a record that matches the tenant ID that the tenant ID 1501 receives as an argument. The orchestration execution unit 313 acquires a hypervisor ID from the hypervisor list 1503 of the found record.

次に、オーケストレーション実行部313は、特定されたハイパバイザのリソース量を算出する(ステップS2606)。具体的には、以下のような処理が実行される。   Next, the orchestration execution unit 313 calculates the resource amount of the identified hypervisor (step S2606). Specifically, the following processing is executed.

オーケストレーション実行部313は、テナント情報325から取得されたハイパバイザIDの中から対象のハイパバイザIDを選択する。   The orchestration execution unit 313 selects a target hypervisor ID from the hypervisor IDs acquired from the tenant information 325.

オーケストレーション実行部313は、ハイパバイザ情報324を参照し、ハイパバイザID1401が選択されたハイパバイザIDに一致するレコードを検索する。オーケストレーション実行部313は、検索されたレコードのCPUコア数、メモリ容量、及びディスク容量を取得する。取得された値は、ハイパバイザのリソース量として算出される。   The orchestration execution unit 313 refers to the hypervisor information 324 and searches for a record in which the hypervisor ID 1401 matches the selected hypervisor ID. The orchestration execution unit 313 acquires the number of CPU cores, the memory capacity, and the disk capacity of the retrieved record. The acquired value is calculated as the resource amount of the hypervisor.

オーケストレーション実行部313は、ハイパバイザリスト1503に含まれる全てのハイパバイザIDについて同様の処理を実行する。これによって、テナントに含まれるVMが稼働するハイパバイザのリソース量を把握できる。以上がステップS2606の処理の説明である。   The orchestration execution unit 313 executes the same process for all hypervisor IDs included in the hypervisor list 1503. Thereby, it is possible to grasp the resource amount of the hypervisor in which the VM included in the tenant operates. The above is the description of the processing in step S2606.

次に、オーケストレーション実行部313は、ステップS2603において算出されたリソース量と、ステップS2606において算出されたリソース量とを比較し(ステップS2607)、スケールアウト処理に必要なリソース量が不足しているか否かを判定する(ステップS2608)。なお、リソース量に基づく判定処理は公知の技術であるため詳細な説明を省略する。   Next, the orchestration execution unit 313 compares the resource amount calculated in step S2603 with the resource amount calculated in step S2606 (step S2607), and is the resource amount necessary for the scale-out process insufficient? It is determined whether or not (step S2608). Note that the determination process based on the resource amount is a known technique, and thus detailed description thereof is omitted.

スケールアウト処理に必要なリソース量が不足していないと判定された場合、オーケストレーション実行部313は、起動イメージファイル、シナリオ、及び引数に基づいてスケールアウト処理を実行する(ステップS2609)。スケールアウト処理は、公知のものであるため詳細な説明は省略する。   When it is determined that the amount of resources necessary for the scale-out process is not insufficient, the orchestration execution unit 313 executes the scale-out process based on the startup image file, the scenario, and the argument (step S2609). Since the scale-out process is a known one, a detailed description thereof is omitted.

オーケストレーション実行部313は、スケールアウト処理の実行後、処理を終了する(ステップS2610)。   The orchestration execution unit 313 ends the process after executing the scale-out process (step S2610).

ステップS2608において、スケールアウト処理に必要なリソース量が不足していると判定された場合、オーケストレーション実行部313は、エラーを出力し、処理を終了する(ステップS2611)。   If it is determined in step S2608 that the amount of resources necessary for the scale-out process is insufficient, the orchestration execution unit 313 outputs an error and ends the process (step S2611).

以上で説明したように、イベント分析サーバ102は、第1イベントを検出した場合、第1イベントの後に発生する第2イベントの影響を受ける仮想ネットワークサービスを特定し、仮想ネットワークサービスを構成するテナント(VM)のリソース量を変更するためのスケーリングのパラメータ及び実行日時等を含む設定情報を生成する。第2イベントの発生前に、設定情報に基づくスケーリングが行われることによって、ネットワーク機能の処理性能の低下等を回避することができる。   As described above, when the event analysis server 102 detects the first event, the event analysis server 102 identifies the virtual network service affected by the second event that occurs after the first event, and configures the tenant ( Setting information including a scaling parameter and an execution date and time for changing the resource amount of VM). By performing scaling based on the setting information before the occurrence of the second event, it is possible to avoid a decrease in processing performance of the network function.

また、突発的な通信量の増加に備えて、予め、余分なリソースを確保する必要がないため、システムの運用にかかるコストの増加を抑えることができる。   In addition, since it is not necessary to secure extra resources in advance in preparation for a sudden increase in communication volume, an increase in the cost of system operation can be suppressed.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。   In addition, this invention is not limited to an above-described Example, Various modifications are included. Further, for example, the above-described embodiments are described in detail for easy understanding of the present invention, and are not necessarily limited to those provided with all the described configurations. In addition, a part of the configuration of the embodiment can be added to, deleted from, or replaced with another configuration.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるCPUが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。   Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. The present invention can also be realized by software program codes that implement the functions of the embodiments. In this case, a storage medium in which the program code is recorded is provided to the computer, and a CPU included in the computer reads the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing it constitute the present invention. As a storage medium for supplying such a program code, for example, a flexible disk, a CD-ROM, a DVD-ROM, a hard disk, an SSD (Solid State Drive), an optical disk, a magneto-optical disk, a CD-R, a magnetic tape, A non-volatile memory card, ROM, or the like is used.

また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。   The program code for realizing the functions described in the present embodiment can be implemented by a wide range of programs or script languages such as assembler, C / C ++, perl, Shell, PHP, Java (registered trademark).

さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD−RW、CD−R等の記憶媒体に格納し、コンピュータが備えるCPUが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。   Furthermore, by distributing the program code of the software that implements the functions of the embodiments via a network, the program code is stored in a storage means such as a hard disk or memory of a computer or a storage medium such as a CD-RW or CD-R The CPU included in the computer may read and execute the program code stored in the storage unit or the storage medium.

上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。   In the above-described embodiments, the control lines and information lines indicate what is considered necessary for the explanation, and not all control lines and information lines on the product are necessarily shown. All the components may be connected to each other.

101 クライアント端末
102 イベント分析サーバ
103 オーケストレーションサーバ
104 クラウド管理サーバ
105 イベント情報サーバ
106 計算サーバ
107 サービスSW
108 IoT GW
109 センサノード
110 インターネット
111 外部NW
201、301 CPU
202、302 メモリ
203、303 ネットワークIF
211 監視部
212 イベント分析部
213 オーケストレーション設定部
221 イベント種別情報
222 イベント監視対象情報
223 スケーリング種別情報
224 場所管理情報
225 サービス情報
226 イベント情報
227 オーケストレーション設定情報
311 スケジュール部
312 シナリオ登録部
313 オーケストレーション実行部
321 ネットワーク機能情報
322 パッケージ情報
323 シナリオ情報
324 ハイパバイザ情報
325 テナント情報
326 ネットワーク機能インスタンス情報
327 スケジュール情報
328 実行中シナリオ情報
101 Client terminal 102 Event analysis server 103 Orchestration server 104 Cloud management server 105 Event information server 106 Calculation server 107 Service SW
108 IoT GW
109 Sensor node 110 Internet 111 External NW
201, 301 CPU
202, 302 Memory 203, 303 Network IF
211 Monitoring unit 212 Event analysis unit 213 Orchestration setting unit 221 Event type information 222 Event monitoring target information 223 Scaling type information 224 Location management information 225 Service information 226 Event information 227 Orchestration setting information 311 Scheduling unit 312 Scenario registration unit 313 Orchestration Execution unit 321 Network function information 322 Package information 323 Scenario information 324 Hypervisor information 325 Tenant information 326 Network function instance information 327 Schedule information 328 Running scenario information

Claims (10)

ネットワークサービスを構成する業務システムにリソースを提供する複数の第1システム及び前記複数の第1システムを管理する第2システムを含む計算機システムであって、
前記複数の第1システムの各々は、複数の第1計算機を含み、
前記第2システムは、少なくとも一つの第2計算機を含み、
前記第1システムには、異なるネットワークサービスを提供する業務システムが構築され、
前記業務システムは、前記第1計算機のリソースを用いて生成され、かつ、ネットワーク機能を有する仮想計算機を含み、
前記複数の第1計算機は、前記仮想計算機を管理する仮想化制御部を含み、
前記少なくとも一つの第2計算機は、前記業務システムに割り当てるリソース量を制御するためのスケーリングを実行するリソース管理部と、前記ネットワークサービスに影響を与えるイベントの発生を監視する監視部と、を含み、
前記監視部は、
第1イベントの発生を検出した場合、前記第1イベントの後に発生する第2イベントの発生予測日時を算出し、
前記第2イベントの影響を受けるネットワークサービスを特定し、
前記特定されたネットワークサービスを構成する業務システムに対する前記スケーリングの種別、前記スケーリングによって変更される業務システムのリソース量を表す変更リソース量、及び前記スケーリングの実行日時を含む設定情報を生成することを特徴とする計算機システム。
A computer system including a plurality of first systems for providing resources to a business system constituting a network service and a second system for managing the plurality of first systems,
Each of the plurality of first systems includes a plurality of first computers,
The second system includes at least one second computer,
In the first system, a business system that provides different network services is constructed,
The business system includes a virtual computer that is generated using the resources of the first computer and has a network function,
The plurality of first computers includes a virtualization control unit that manages the virtual computers,
The at least one second computer includes a resource management unit that performs scaling for controlling the amount of resources allocated to the business system, and a monitoring unit that monitors the occurrence of an event that affects the network service,
The monitoring unit
When the occurrence of the first event is detected, the occurrence prediction date and time of the second event that occurs after the first event is calculated,
Identifying a network service affected by the second event;
Generating setting information including a type of scaling for the business system constituting the specified network service, a changed resource amount indicating a resource amount of the business system changed by the scaling, and an execution date and time of the scaling; A computer system.
請求項1に記載の計算機システムであって、
前記監視部は、
前記第1イベントの識別情報及び前記第2イベントによって受ける影響の大きさを示す影響度から構成されるレコードを含むイベント種別情報を管理し、
前記第2イベントの発生予測日時に基づいて、前記スケーリングの実行日時を算出し、
前記特定されたネットワークサービスを構成する業務システムを特定し、
前記特定された業務システムの使用リソース量及び前記影響度に基づいて、前記特定された業務システムの予測リソース量を算出し、
前記特定された業務システムの使用リソース量及び前記特定された業務システムの予測リソース量に基づいて、前記スケーリングの種別を決定し、
前記特定された業務システムの使用リソース量、前記特定された業務システムの予測リソース量、及び前記スケーリングの種別に基づいて、前記変更リソース量を算出することを特徴とする計算機システム。
The computer system according to claim 1,
The monitoring unit
Managing event type information including a record composed of the identification information of the first event and the degree of influence indicating the magnitude of the influence received by the second event;
Based on the predicted occurrence date and time of the second event, the execution date and time of the scaling is calculated,
Identifying a business system that constitutes the identified network service;
Based on the use resource amount of the specified business system and the degree of influence, calculate the predicted resource amount of the specified business system,
Determining the type of scaling based on the resource usage amount of the identified business system and the predicted resource amount of the identified business system;
A computer system characterized in that the changed resource amount is calculated based on a resource usage amount of the identified business system, a predicted resource amount of the identified business system, and a type of scaling.
請求項2に記載の計算機システムであって、
前記監視部は、前記ネットワークサービスの識別情報及び前記ネットワークサービスを構成する業務システムが構築された前記第1システムの場所を示す識別情報から構成されるレコードを含むサービス情報を管理し、
前記リソース管理部は、前記ネットワークサービスの識別情報及び前記ネットワークサービスを構成する業務システムの識別情報から構成されるレコードを含むインスタンス情報を管理し、
前記監視部は、
前記第1イベントが発生した場所を特定し、
前記第1イベントが発生した場所に基づいて前記サービス情報を参照して、前記第2イベントの影響を受けるネットワークサービスの識別情報を取得し、
前記リソース管理部を介して前記インスタンス情報を参照することによって、前記取得されたネットワークサービスの識別情報に一致する業務システムを特定することを特徴とする計算機システム。
The computer system according to claim 2,
The monitoring unit manages service information including a record including identification information of the network service and identification information indicating a location of the first system where a business system configuring the network service is constructed;
The resource management unit manages instance information including a record including identification information of the network service and identification information of a business system constituting the network service;
The monitoring unit
Identify where the first event occurred;
Referring to the service information based on a location where the first event occurs, and obtaining identification information of a network service affected by the second event;
A computer system that identifies a business system that matches the acquired identification information of a network service by referring to the instance information via the resource management unit.
請求項3に記載の計算機システムであって、
前記監視部は、
イベントが発生する監視対象にアクセスするための情報を含む監視対象情報を管理し、
前記監視対象情報に基づいて、前記監視対象にアクセスすることによって前記第1イベントが発生しているか否かを判定することを特徴とする計算機システム。
The computer system according to claim 3,
The monitoring unit
Manages monitoring target information including information for accessing the monitoring target where the event occurs,
A computer system that determines whether or not the first event has occurred by accessing the monitoring target based on the monitoring target information.
請求項2に記載の計算機システムであって、
前記監視部は、前記第1イベントの発生日時に基づいて、前記第2イベントの発生予測日時を算出することを特徴とする計算機システム。
The computer system according to claim 2,
The computer system according to claim 1, wherein the monitoring unit calculates a predicted occurrence date and time of the second event based on an occurrence date and time of the first event.
ネットワークサービスを構成する業務システムにリソースを提供する複数の第1システム及び前記複数の第1システムを管理する第2システムを含む計算機システムにおけるリソース制御方法であって、
前記複数の第1システムの各々は、複数の第1計算機を含み、
前記第2システムは、少なくとも一つの第2計算機を含み、
前記第1システムには、異なるネットワークサービスを提供する業務システムが構築され、
前記業務システムは、前記第1計算機のリソースを用いて生成され、かつ、ネットワーク機能を有する仮想計算機を含み、
前記複数の第1計算機は、前記仮想計算機を管理する仮想化制御部を含み、
前記少なくとも一つの第2計算機は、前記業務システムに割り当てるリソース量を制御するためのスケーリングを実行するリソース管理部と、前記ネットワークサービスに影響を与えるイベントの発生を監視する監視部と、を含み、
前記リソース制御方法は、
前記監視部が、第1イベントの発生を検出した場合、前記第1イベントの後に発生する第2イベントの発生予測日時を算出する第1のステップと、
前記監視部が、前記第2イベントの影響を受けるネットワークサービスを特定する第2のステップと、
前記監視部が、前記特定されたネットワークサービスを構成する業務システムに対する前記スケーリングの種別、前記スケーリングによって変更される業務システムのリソース量を表す変更リソース量、及び前記スケーリングの実行日時を含む設定情報を生成する第3のステップと、を含むことを特徴とするリソース制御方法。
A resource control method in a computer system including a plurality of first systems for providing resources to a business system constituting a network service and a second system for managing the plurality of first systems,
Each of the plurality of first systems includes a plurality of first computers,
The second system includes at least one second computer,
In the first system, a business system that provides different network services is constructed,
The business system includes a virtual computer that is generated using the resources of the first computer and has a network function,
The plurality of first computers includes a virtualization control unit that manages the virtual computers,
The at least one second computer includes a resource management unit that performs scaling for controlling the amount of resources allocated to the business system, and a monitoring unit that monitors the occurrence of an event that affects the network service,
The resource control method includes:
A first step of calculating a predicted occurrence date and time of a second event that occurs after the first event when the monitoring unit detects the occurrence of a first event;
A second step in which the monitoring unit identifies a network service affected by the second event;
The monitoring unit includes setting information including a type of scaling for the business system constituting the specified network service, a changed resource amount indicating a resource amount of the business system changed by the scaling, and an execution date and time of the scaling. And a third step of generating the resource control method.
請求項6に記載のリソース制御方法であって、
前記監視部は、前記第1イベントの識別情報及び前記第2イベントによって受ける影響の大きさを示す影響度から構成されるレコードを含むイベント種別情報を管理し、
前記第3のステップは、
前記監視部が、前記第2イベントの発生予測日時に基づいて、前記スケーリングの実行日時を算出する第4のステップと、
前記監視部が、前記特定されたネットワークサービスを構成する業務システムを特定する第5のステップと、
前記監視部が、前記特定された業務システムの使用リソース量及び前記影響度に基づいて、前記特定された業務システムの予測リソース量を算出する第6のステップと、
前記監視部が、前記特定された業務システムの使用リソース量及び前記特定された業務システムの予測リソース量に基づいて、前記スケーリングの種別を決定する第7のステップと、
前記監視部が、前記特定された業務システムの使用リソース量、前記特定された業務システムの予測リソース量、及び前記スケーリングの種別に基づいて、前記変更リソース量を算出する第8のステップと、を含むことを特徴とするリソース制御方法。
The resource control method according to claim 6, comprising:
The monitoring unit manages event type information including a record composed of identification information of the first event and an influence degree indicating a magnitude of influence received by the second event,
The third step includes
A fourth step in which the monitoring unit calculates the execution date and time of the scaling based on the predicted occurrence date and time of the second event;
A fifth step in which the monitoring unit identifies a business system constituting the identified network service;
A sixth step in which the monitoring unit calculates a predicted resource amount of the identified business system based on a use resource amount of the identified business system and the degree of influence;
A seventh step in which the monitoring unit determines the type of scaling based on a use resource amount of the specified business system and a predicted resource amount of the specified business system;
An eighth step in which the monitoring unit calculates the changed resource amount based on the resource usage amount of the identified business system, the predicted resource amount of the identified business system, and the type of scaling; A resource control method comprising:
請求項7に記載のリソース制御方法であって、
前記監視部は、前記ネットワークサービスの識別情報及び前記ネットワークサービスを構成する業務システムが構築された前記第1システムの場所を示す識別情報から構成されるレコードを含むサービス情報を管理し、
前記リソース管理部は、前記ネットワークサービスの識別情報及び前記ネットワークサービスを構成する業務システムの識別情報から構成されるレコードを含むインスタンス情報を管理し、
前記第1のステップは、前記監視部が、前記第1イベントが発生した場所を特定するステップを含み、
前記第2のステップは、前記監視部が、前記第1イベントが発生した場所に基づいて前記サービス情報を参照して、前記第2イベントの影響を受けるネットワークサービスの識別情報を取得するステップを含み、
前記第5のステップは、前記監視部が、前記リソース管理部を介して前記インスタンス情報を参照することによって、前記取得されたネットワークサービスの識別情報に一致する業務システムを特定するステップを含むことを特徴とするリソース制御方法。
The resource control method according to claim 7, comprising:
The monitoring unit manages service information including a record including identification information of the network service and identification information indicating a location of the first system where a business system configuring the network service is constructed;
The resource management unit manages instance information including a record including identification information of the network service and identification information of a business system constituting the network service;
The first step includes a step in which the monitoring unit specifies a location where the first event has occurred,
The second step includes a step in which the monitoring unit refers to the service information based on a location where the first event has occurred and acquires identification information of a network service affected by the second event. ,
The fifth step includes a step in which the monitoring unit specifies a business system that matches the acquired network service identification information by referring to the instance information via the resource management unit. A characteristic resource control method.
請求項8に記載のリソース制御方法であって、
前記監視部は、イベントが発生する監視対象にアクセスするための情報を含む監視対象情報を管理し、
前記第1のステップは、前記監視部が、前記監視対象情報に基づいて、前記監視対象にアクセスすることによって前記第1イベントが発生しているか否かを判定するステップを含むことを特徴とするリソース制御方法。
The resource control method according to claim 8, comprising:
The monitoring unit manages monitoring target information including information for accessing a monitoring target in which an event occurs,
The first step includes a step in which the monitoring unit determines whether the first event has occurred by accessing the monitoring target based on the monitoring target information. Resource control method.
請求項7に記載のリソース制御方法であって、
前記第1のステップは、前記監視部が、前記第1イベントの発生日時に基づいて、前記第2イベントの発生予測日時を算出するステップを含むことを特徴とするリソース制御方法。
The resource control method according to claim 7, comprising:
The resource control method according to claim 1, wherein the first step includes a step in which the monitoring unit calculates a predicted occurrence date and time of the second event based on the occurrence date and time of the first event.
JP2016164570A 2016-08-25 2016-08-25 Computer system and resource control method Pending JP2018032245A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016164570A JP2018032245A (en) 2016-08-25 2016-08-25 Computer system and resource control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016164570A JP2018032245A (en) 2016-08-25 2016-08-25 Computer system and resource control method

Publications (1)

Publication Number Publication Date
JP2018032245A true JP2018032245A (en) 2018-03-01

Family

ID=61303423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016164570A Pending JP2018032245A (en) 2016-08-25 2016-08-25 Computer system and resource control method

Country Status (1)

Country Link
JP (1) JP2018032245A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020234917A1 (en) * 2019-05-17 2020-11-26
CN116627618A (en) * 2023-07-21 2023-08-22 北京万界数据科技有限责任公司 A computing resource pre-scheduling method and system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020234917A1 (en) * 2019-05-17 2020-11-26
JP7367758B2 (en) 2019-05-17 2023-10-24 日本電信電話株式会社 Virtualization infrastructure control device, virtualization infrastructure control method, and virtualization infrastructure control program
CN116627618A (en) * 2023-07-21 2023-08-22 北京万界数据科技有限责任公司 A computing resource pre-scheduling method and system
CN116627618B (en) * 2023-07-21 2023-09-19 北京万界数据科技有限责任公司 Computing resource pre-scheduling method and system

Similar Documents

Publication Publication Date Title
US20250071023A1 (en) Methods, system, articles of manufacture, and apparatus to manage telemetry data in an edge environment
US10693740B2 (en) Data transformation of performance statistics and ticket information for network devices for use in machine learning models
EP3028406B1 (en) Profile-based sla guarantees under workload migration in a distributed cloud
EP3281360B1 (en) Virtualized network function monitoring
Dam et al. Genetic algorithm and gravitational emulation based hybrid load balancing strategy in cloud computing
US8424059B2 (en) Calculating multi-tenancy resource requirements and automated tenant dynamic placement in a multi-tenant shared environment
US11093296B2 (en) System, virtualization control apparatus, method for controlling a virtualization control apparatus, and program
US20120167081A1 (en) Application Service Performance in Cloud Computing
US20140215076A1 (en) Allocation of Virtual Machines in Datacenters
JP6558374B2 (en) Scale number estimation apparatus, scale number management system, scale number estimation method, scale number management method, and computer program
US20180176289A1 (en) Information processing device, information processing system, computer-readable recording medium, and information processing method
JP2011258098A (en) Virtual computer system, monitoring method of virtual computer system and network system
Marques et al. Proactive resource management for cloud of services environments
Barve et al. FECBench: A holistic interference-aware approach for application performance modeling
JP2017097707A (en) Virtual machine dynamic placement system and server
US20170149615A1 (en) Client-space network monitoring
JP6279816B2 (en) Storage monitoring system and monitoring method thereof
JP2006285316A (en) Server performance measurement method, server performance measurement system, and computer program used therefor
JP2011013711A (en) Service system, cloud computing system, and service program
US11212174B2 (en) Network management device and network management method
JP2018032245A (en) Computer system and resource control method
JP5377775B1 (en) System management apparatus, network system, system management method and program
Nema et al. A new efficient Virtual Machine load balancing Algorithm for a cloud computing environment
JP6070717B2 (en) Distributed data processing system and distributed data processing method
WO2012117471A1 (en) Virtual server system, management server device, and system management method