JP2007011497A - Performance test method and test server - Google Patents
Performance test method and test server Download PDFInfo
- Publication number
- JP2007011497A JP2007011497A JP2005188532A JP2005188532A JP2007011497A JP 2007011497 A JP2007011497 A JP 2007011497A JP 2005188532 A JP2005188532 A JP 2005188532A JP 2005188532 A JP2005188532 A JP 2005188532A JP 2007011497 A JP2007011497 A JP 2007011497A
- Authority
- JP
- Japan
- Prior art keywords
- test
- performance
- data file
- server
- under test
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Debugging And Monitoring (AREA)
- Test And Diagnosis Of Digital Computers (AREA)
Abstract
【課題】 システム全体を対象として信頼性の高いテスト結果を提供すること。
【解決手段】 テストサーバ1は、クライアント4間で同期を取りつつ入力された操作手順をクライアント4ごとに時系列に記憶して操作データファイル36を作成するようにクライアント4を制御する操作記録モジュール32と、操作記録モジュール32で作成された操作データファイル36の操作手順を再生するようにクライアント4を制御する再生モジュール34と、再生モジュール34が操作手順を再生する期間において、被テスト機の性能データを記録してテスト結果データファイル38を作成するように被テスト機1Aを制御する性能記録モジュール22と、を備える。
【選択図】 図2PROBLEM TO BE SOLVED: To provide a highly reliable test result for the entire system.
An operation recording module that controls a client so that an operation procedure inputted while synchronizing between the clients is stored in a time series for each client and an operation data file is created. 32, the playback module 34 that controls the client 4 to play back the operation procedure of the operation data file 36 created by the operation recording module 32, and the performance of the device under test in the period during which the playback module 34 plays back the operation procedure. A performance recording module 22 for controlling the device under test 1A so as to record the data and create the test result data file 38.
[Selection] Figure 2
Description
本発明は、性能テスト方法およびテストサーバに関する。 The present invention relates to a performance test method and a test server.
従来の大規模なテストシステムのテストでは、テストシステムのクライアントが設置されている支部に、限られた人員を派遣し、手動でテストしていた。また、性能テストにおいては、システム開発者の観点により事前に設けられた単純な打鍵手順を、派遣されたテスト実施者が一斉に繰り返す方式にて実施していた。そこでは、テスト実施者の人数は限られているため、全国各地に位置する支部をテストするときには、支部ごとに複数回に分けてテストを行っていた。そのため、本テスト方式では、地理的、時間的制約から限定された支部による、本番業務の特性を無視した画一的な操作手順でのテストしか実現できなかった。 In the conventional large-scale test system test, a limited number of personnel are dispatched to the branch where the test system client is installed and manually tested. In the performance test, a simple key-pressing procedure provided in advance from the viewpoint of the system developer is performed by a method in which the dispatched tester repeats all at once. There, the number of testers was limited, so when testing branches located in various parts of the country, each branch was tested in multiple steps. For this reason, this test method could only implement tests with a uniform operating procedure that ignores the characteristics of production work by branches limited by geographical and time constraints.
本テスト方式により性能テストを完了し、本番稼動したとき、クライアントやサーバのリソースの高負荷が原因となり、レスポンスタイムが劣化したり、システムがダウンしたりする問題が発生していた。本問題は、性能テストを実施する上で、限定された支部に設置されたクライアントからのみテストを行っていたため、システムに対して部分的に負荷を与えたテスト結果しか得られなかったことや、システム開発者が決定した画一的な操作手順を繰り返すテストを行っていたため、本番業務の特性である、支部ごとの処理内容の傾向や処理量の違いといった地域性や、システム全体ならびに支部ごとにおける処理内容の傾向や処理量が時刻に合わせて遷移するといった時間性を要因としたシステムに対する負荷の偏りを反映したテスト結果が得られなかったことから発生していた。 When the performance test was completed using this test method and the system was in production, there were problems that the response time deteriorated and the system went down due to the high load of client and server resources. Because this problem was tested only from clients installed in limited branches when performing performance tests, only partial test results were obtained for the system, Tests that repeat the uniform operation procedure determined by the system developer were conducted, so the characteristics of the production work, such as regional characteristics such as trends in processing contents and processing amount of each branch, and the entire system and each branch This occurred because the test results reflecting the load imbalance on the system due to time characteristics such as the trend of the processing contents and the processing amount transitioning with the time could not be obtained.
このような問題点を解決する方法として、特許文献1、特許文献2に示すようなシステムを用いた方法が提案されている。特許文献1のシステムでは、クライアントを遠隔地から操作、監視することにより、地理的、人的な制約を解消している。また、特許文献2のシステムでは過去に採取されたジャーナルファイルとパラメータによりオンライン入力電文を作成し、仮想クライアントから入力することにより、本番業務の特性を再現する性能テストを実現している。
前記従来のシステムを用いた性能テスト方法は、以下の2つの問題点があり、システム全体を対象として信頼性の高いテスト結果を提供することができなかった。 The performance test method using the conventional system has the following two problems and cannot provide a highly reliable test result for the entire system.
第1の問題点は、特許文献1のシステムおよび方式によりクライアントを一斉操作することにより性能テストを実施した場合でも、画一的なテストデータを使用するため、支部ごとの処理内容の傾向や処理量が異なるといった地域性が無視され、本番業務では、地域によって被テスト機ごとにかかる負荷が異なることや、システム全体ならびに支部ごとにおける処理内容の傾向や処理量が時刻に合わせて遷移するといった時間性が無視され、支部における処理量が最大となる時間が重なる傾向があった場合、当該支部と通信を行い処理を行う被テスト機の負荷が大きくなることが性能テストに反映されないことを原因とした事故が発生する恐れがある。
The first problem is that even when a performance test is performed by operating the clients all at once using the system and method of
なお、第1の問題点の解決を図るため、クライアントにおける最大処理量を実現するテストデータを用いて、全クライアントにて同時実行する性能テストを行った場合、システムに過剰な負荷がかかったテスト結果が得られ、その結果、本番業務におけるシステムへの負荷の量と特性を無視した余剰なリソース増強を行う恐れがある。 In order to solve the first problem, when a performance test that is executed simultaneously on all clients using test data that achieves the maximum processing amount on the client is performed, a test in which an excessive load is applied to the system. The result is obtained, and as a result, there is a risk of excessive resource augmentation ignoring the amount and characteristics of the load on the system in the actual business.
第2の問題点は、特許文献2のシステムおよび方式は仮想クライアントを使用したテストのため、実在の被テストサーバや、クライアントと被業務サーバを中継する中継サーバに負荷をかけることができない。その結果、クライアントや中継サーバを原因とする性能の問題を検知することができない。 The second problem is that the system and method of Patent Document 2 is a test using a virtual client, and therefore, it is not possible to place a load on a real server under test or a relay server that relays a client and a business server. As a result, it is not possible to detect performance problems caused by clients or relay servers.
そこで、本発明は、前記した問題を解決し、システム全体を対象として信頼性の高いテスト結果を提供することを主な目的とする。 In view of the above, the main object of the present invention is to solve the above-described problems and provide a highly reliable test result for the entire system.
前記課題を解決するために、本発明は、被テストサーバ、および、前記被テストサーバから遠隔地に設置されている複数台のクライアントを被テスト機とし、前記被テスト機の性能をテストするテストサーバによる性能テスト方法であって、前記テストサーバが、前記クライアント間で同期を取りつつ入力された操作手順を前記クライアントごとに時系列に記憶した操作データファイルを作成するように前記クライアントを制御する操作記録ステップと、前記操作記録ステップで作成された前記操作データファイルの前記操作手順を再生するように前記クライアントを制御する再生ステップと、前記再生ステップで前記操作手順を再生する期間において、前記被テスト機の性能データを記録してテスト結果データファイルを作成するように前記被テスト機を制御する性能記録ステップと、前記性能記録ステップで記録した前記テスト結果データファイルを前記被テスト機から受信して出力するテスト結果出力ステップと、を実行することを特徴とする。 In order to solve the above-mentioned problems, the present invention provides a test for testing the performance of a test target machine using a test target server and a plurality of clients installed remotely from the test target server. A performance test method using a server, wherein the test server controls the client to create an operation data file in which operation procedures input while synchronizing between the clients are stored in time series for each client. An operation recording step; a reproduction step for controlling the client to reproduce the operation procedure of the operation data file created in the operation recording step; and a period during which the operation procedure is reproduced in the reproduction step. Before recording test machine performance data and creating test result data file And performance recording step of controlling the testing machine, and executes and a test result output step of receiving and outputting the test result data file recorded from the object tester in the performance recording step.
これにより、例えば、本番業務における地域性や時間性を考慮したテストを実現することと、被テスト機としてのクライアントや中継サーバを原因とする性能の問題をテスト段階にて検知することができる。 Thereby, for example, it is possible to realize a test in consideration of regional characteristics and time characteristics in production work, and to detect a performance problem caused by a client or a relay server as a machine under test.
本発明では、システム全体を対象として信頼性の高いテスト結果を提供することができる。 In the present invention, a highly reliable test result can be provided for the entire system.
以下に、本発明の実施形態を図によって詳細に説明する。図1は、テストシステムの概要を示す構成図である。 Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a configuration diagram showing an outline of a test system.
テストサーバ1は、クライアント4にて一連のオンライン処理を遠隔実行することにより性能テストを実行するように被テスト機1Aに指示する。被テスト機1Aは、クライアント4および被テストサーバ1Bを総称する。被テストサーバ1Bは、業務サーバ2および中継サーバ3を総称する。業務サーバ2は、クライアント4からの要求を受けて業務処理を行う。中継サーバ3は、業務サーバ2とクライアント4との間の通信を中継する。クライアント4は、ユーザからの操作を操作データとして収集する。
The
図1の各装置(テストサーバ1および被テスト機1A)は、演算処理を行う際に用いられる記憶手段としてのメモリと、前記演算処理を行う演算処理装置とを少なくとも備えるコンピュータとして構成される。なお、メモリは、RAM(Random Access Memory)などにより構成され、後記するテーブルやモジュールを格納する。演算処理は、CPU(Central Processing Unit)によって構成される演算処理装置が、メモリ上のプログラム(後記するモジュールを含む)を実行することで、実現される。また、クライアント4の場合は、マウスなどの入力装置やコンピュータディスプレイなどの出力装置が、クライアント4に接続されている。
Each apparatus (the
図2は、テストシステムのハードおよび各ハード内におけるモジュールの構成を示すブロック図である。図2のテストシステムは、複数個のモジュールにより実現する。 FIG. 2 is a block diagram showing the hardware of the test system and the configuration of modules in each hardware. The test system of FIG. 2 is realized by a plurality of modules.
テストサーバ1は、配布・収集モジュール11、遠隔制御モジュール12、時刻同期モジュール13、収集結果格納モジュール14、テスト結果出力モジュール15、性能テスト管理テーブル16、および、閾値設定テーブル17を有する。
The
業務サーバ2は、業務処理を実行するモジュール(図示省略)に加え、遠隔制御モジュール21、性能記録モジュール22、および、テスト結果データファイル23を有する。中継サーバ3は、通信中継処理を実行するモジュール(図示省略)に加え、遠隔制御モジュール21、性能記録モジュール22、および、テスト結果データファイル23を有する。
The business server 2 includes a
クライアント4は、遠隔制御モジュール31、操作記録モジュール32、編集モジュール33、再生モジュール34、性能記録モジュール35、操作データファイル36、テストデータファイル37、および、テスト結果データファイル38を有する。図2では1台のクライアント4の構成が詳述されているが、他のクライアント4の構成も同様である。以上説明した被テスト機1Aの各モジュールは、例えば、テストサーバ1からオンラインでインストールされる。以下、各モジュールおよび各ファイルについて、詳細に説明する。
The client 4 includes a
配布・収集モジュール11は、全被テストサーバ1Bと全クライアント4に対して任意のファイルを配布・収集する。配布するファイルは、例えば、ユーザの本番業務が開始する前に配布される、被テスト機1Aを遠隔制御する機能を実現するテストデータファイル37である。収集するファイルは、例えば、テスト終了後、被テスト機1Aにて作成されたテスト結果データと各種ログである。
The distribution / collection module 11 distributes and collects arbitrary files to all the servers under test 1B and all the clients 4. The file to be distributed is, for example, a
遠隔制御モジュール12は、全被テストサーバ1Bと全クライアント4を遠隔制御する。時刻同期モジュール13は、テストサーバ1と被テスト機1Aの時刻同期を行う。収集結果格納モジュール14は、被テスト機1Aから収集したテスト結果データから性能テスト管理テーブル16にデータを格納する。
The
テスト結果出力モジュール15は、収集した結果から性能テスト結果を整理して出力する。整理とは、例えば、システム全体と支部ごとの性能テスト結果について、性能テスト管理テーブル16に格納されたデータと閾値設定テーブル17に格納された値と各種ログにより時系列に整理することである。 The test result output module 15 organizes and outputs the performance test results from the collected results. Arrangement refers to, for example, arranging the performance test results for the entire system and each branch in time series using the data stored in the performance test management table 16, the values stored in the threshold setting table 17, and various logs.
さらに、テスト結果出力モジュール15は、性能テスト管理テーブル16から、任意の被テスト機1Aのレスポンスタイムと内部処理時間とリソースの使用率の相関関係を表すマトリックスの出力、任意の被テスト機1Aのリソース使用率のグラフの出力、エラーが発生した被テスト機1Aの時系列の出力、および、性能データの閾値(図4参照)を超えた場合は出力結果に網かけなどを行う出力などを行い、ユーザにテスト結果を把握しやすくしてもよい。これにより、被テスト機1Aごとの負荷状況の関連と被テスト機1Aの地理的、時間的な負荷傾向をテスト者が直感的に把握することができる。 Further, the test result output module 15 outputs from the performance test management table 16 an output of a matrix representing the correlation between the response time of the arbitrary device under test 1A, the internal processing time, and the resource usage rate, and the arbitrary device under test 1A. Output the resource utilization graph, time-series output of the machine under test 1A in which an error occurred, and output that performs shading on the output result when the performance data threshold (see Fig. 4) is exceeded It may be easy for the user to grasp the test result. As a result, the tester can intuitively grasp the relationship between the load statuses of each of the test machines 1A and the geographical and temporal load trends of the test machine 1A.
遠隔制御モジュール21は、テストサーバ1から自装置の各モジュールを遠隔制御する。性能記録モジュール22は、テストサーバ1から配布されたファイルにより、自装置における内部処理時間とリソースの使用率を監視・記憶する。テスト結果データファイル23は、テストデータファイル37を再生している間における被テストサーバ1Bの各リソースの使用率と内部処理時間である。
The
遠隔制御モジュール31は、テストサーバ1から自装置の各モジュールを遠隔制御する。操作記録モジュール32は、ユーザの操作(マウスなどの入力操作)に従って、後記する操作データファイル36を記録する。
The
編集モジュール33は、操作記録モジュール32により記憶した操作手順を編集し、操作データファイル36からテストデータファイル37を作成する。
The
再生モジュール34は、編集モジュール33により編集した操作手順を再現実行する。具体的には、テスト実施時に、テストサーバ1から配布したファイルを遠隔操作することにより、任意の対象となるクライアント全台もしくは複数台上にて、クライアント4ごとに作成したテストデータファイル37をテスト対象となるクライアント全台同時に再生する。
The
性能記録モジュール35は、テストサーバ1から配布されたファイルにより、自クライアント4におけるテストシステムのレスポンスタイムとリソースの使用率を監視して記憶する。例えば、再生モジュール34がテストデータファイル37を再生中に、監視して記憶する。
The
操作データファイル36は、ユーザのクライアント4におけるテストシステムの操作手順を操作データとして記録したファイルである。つまり、本番業務中に任意の対象となる1台以上のクライアント4にて入力された操作手順を、他クライアント4と同期を取りつつ時系列に記憶したものである。操作手順は、例えば、クライアント4において実装されているウインドウ上でのマウスの移動・クリック情報、キーボードの打鍵情報、コピーと貼付により入力された情報である(図5参照)。 The operation data file 36 is a file in which the operation procedure of the test system in the user client 4 is recorded as operation data. That is, the operation procedure input by one or more clients 4 to be arbitrarily selected during the actual work is stored in time series while synchronizing with other clients 4. The operation procedure is, for example, mouse movement / click information on a window implemented in the client 4, keyboard keystroke information, and information input by copying and pasting (see FIG. 5).
テストデータファイル37は、操作データファイル36を編集またはコピーして作成されたファイルである。例えば、テストデータファイル37は、操作データファイル36に記憶された操作手順を時間軸に対して全体の比率を保ったまま任意に短縮したものである。これにより、通常の本番業務を早送りで実行し単位時間あたりの処理件数を増加させたテストを実現することが可能となり、そのため、被テスト機1Aにて処理件数の増加を原因とする事故の発生を抑止することができる。例えば、年間ごとのユーザ数や処理量の増加により次期システム改修時までに予想される単位時間あたりの処理量の増加を包括するために必要とするリソースを検証することで、性能テスト後、当該システムにて処理件数が増加した場合に性能を原因とした事故の発生を事前に発見できる。 The test data file 37 is a file created by editing or copying the operation data file 36. For example, the test data file 37 is obtained by arbitrarily shortening the operation procedure stored in the operation data file 36 while maintaining the overall ratio with respect to the time axis. As a result, it is possible to realize a test in which normal production operations are executed at a fast forward speed and the number of processing cases per unit time is increased, so that an accident due to an increase in the number of processing cases occurs in the machine under test 1A. Can be suppressed. For example, by verifying the resources required to cover the increase in throughput per unit time expected by the next system upgrade due to the increase in the number of users and throughput per year, When the number of processing increases in the system, it is possible to detect in advance the occurrence of an accident due to performance.
テスト結果データファイル38は、テストデータファイル37を再生している間におけるクライアント4の各リソースの使用率とオンラインレスポンスタイムなどの被テスト機1Aの性能データを格納する。 The test result data file 38 stores performance data of the device under test 1A such as the usage rate and online response time of each resource of the client 4 while the test data file 37 is being reproduced.
図3は、性能テスト管理テーブル16を示す構成図である。性能テスト管理テーブル16は、被テスト機1Aのリソース使用率や内部処理時間、オンラインレスポンスタイムを格納する。被テスト機1Aの名称は、図1のテストシステム上の被テスト機1Aを識別するために、あらかじめ設定しておく。性能テスト実施後、被テスト機1Aで記録されたリソース使用率、内部処理時間やオンラインレスポンス時間は被テスト機1Aの名称をキーとして格納する。 FIG. 3 is a configuration diagram showing the performance test management table 16. The performance test management table 16 stores the resource usage rate, internal processing time, and online response time of the device under test 1A. The name of the machine under test 1A is set in advance to identify the machine under test 1A on the test system of FIG. After performing the performance test, the resource usage rate, internal processing time, and online response time recorded in the machine under test 1A are stored using the name of the machine under test 1A as a key.
図4は、閾値設定テーブル17を示す構成図である。閾値設定テーブル17は、被テスト機1Aごとのリソース使用率と内部処理時間とオンラインレスポンスタイムの閾値を格納する。被テスト機1Aの名称は、図1のテストシステム上の被テスト機1Aを識別するために、あらかじめ設定しておく。また、被テストサーバ1Bにおける内部処理時間とクライアント4におけるオンライン処理の名称は、処理名称を識別するためにあらかじめ設定しておく。オンライン被テスト機1Aごとのリソースの使用率の閾値は被テスト機1Aの名称をキーとして格納する。内部処理時間やオンラインレスポンスタイムは、被テスト機1Aの名称を主キーとして、処理名称をサブキーとして格納する。 FIG. 4 is a configuration diagram showing the threshold setting table 17. The threshold setting table 17 stores thresholds for resource usage rate, internal processing time, and online response time for each machine under test 1A. The name of the machine under test 1A is set in advance to identify the machine under test 1A on the test system of FIG. The internal processing time in the server under test 1B and the name of the online processing in the client 4 are set in advance to identify the processing name. The threshold of the resource usage rate for each online device under test 1A is stored using the name of the device under test 1A as a key. The internal processing time and online response time are stored with the name of the machine under test 1A as a main key and the processing name as a subkey.
図5は、操作データファイル36を示す構成図である。クライアント4にて、テストシステムのウインドウにフォーカスがあり、ユーザによるマウスもしくはキーボードでの作業が発生した場合、操作が発生した時間、フォーカス対象のウインドウ名、カーソル位置を記憶し、操作対象となるマウスカーソルの位置や左クリック・右クリックの押す(on)と離す(off)の動作や、キーボードの打鍵内容や貼り付けによる入力情報を記録する。 FIG. 5 is a configuration diagram showing the operation data file 36. When the client 4 has a focus on the test system window and the user performs a mouse or keyboard operation, the time when the operation occurs, the name of the window to be focused, and the cursor position are stored, and the mouse to be operated The cursor position, left-click / right-click pressing (on) and releasing (off) operations, the keystroke content of the keyboard, and input information by pasting are recorded.
図6は、テストシステム全体における性能テスト結果データファイルを示す構成図である。図6は、性能テスト終了後にテスト作業者が本番業務におけるシステムの地域性と時間性により、システム全体における負荷の分散具合を確認するための性能テスト出力結果である。性能テストの開始時刻から終了時刻までの間の出力単位とする時間ごとの被テスト機1Aにおける性能テスト結果が別々に出力される。 FIG. 6 is a configuration diagram showing a performance test result data file in the entire test system. FIG. 6 is a performance test output result for the test operator to confirm the load distribution in the entire system based on the locality and timeliness of the system in the actual work after the performance test is completed. The performance test results in the machine under test 1A for each time as an output unit from the start time to the end time of the performance test are output separately.
次に性能テスト結果(システム全体)の各項目について説明する。本部と支部ごとに設置された被テスト機1Aごとの最大リソース使用率と平均使用率、最大内部処理時間と平均処理時間、最大オンラインレスポンスタイムと平均オンラインレスポンス時間が出力される。また、事前に閾値設定テーブル17に被テスト機1Aにおけるリソースごとならびに処理時間ごとに閾値が設定されている場合は、閾値を超える結果に網かけを行い出力される。 Next, each item of the performance test result (the entire system) will be described. The maximum resource usage rate and average usage rate, maximum internal processing time and average processing time, maximum online response time and average online response time for each machine under test 1A installed at each headquarter and branch are output. If threshold values are set in advance in the threshold setting table 17 for each resource and processing time in the machine under test 1A, the result exceeding the threshold is shaded and output.
図7は、支部Bにおける性能テスト結果データファイルを示す構成図である。図7は性能テスト終了後に、テスト作業者が本番業務における支部の性能テスト結果として支部Bを選択したときの出力結果である。性能テストの開始時刻から終了時刻までの間の出力単位とする時間ごとに被テスト機1Aにおける性能テスト結果が一覧表に出力される。 FIG. 7 is a configuration diagram showing a performance test result data file in the branch B. FIG. 7 shows an output result when the test operator selects the branch B as the branch performance test result in the actual work after the performance test. Performance test results in the machine under test 1A are output to the list for each time set as an output unit from the start time to the end time of the performance test.
次に性能テスト結果(支部B)の各項目について説明する。被テスト機1Aにおける性能テストの出力単位時間ごとの最大リソース使用率、最大内部処理時間、最大オンラインレスポンスタイムが出力される。また、事前に閾値管理テーブルに被テスト機1Aにおけるリソースごとならびに処理時間ごとに閾値が設定されている場合は、閾値を超える結果に網かけを行い出力される。 Next, each item of the performance test result (branch B) will be described. The maximum resource usage rate, the maximum internal processing time, and the maximum online response time for each output unit time of the performance test in the machine under test 1A are output. If threshold values are set in advance in the threshold management table for each resource and processing time in the machine under test 1A, the result exceeding the threshold value is shaded and output.
以下、性能テストの準備から終了後に性能テストの結果を出力するまでの一連の動作について、フローチャートに沿って説明する。なお、フローチャートを説明するときの各パラメータ(時刻、閾値など)は、あくまで一例であり、この例に限定されることなく実施することができる。まず、本オンライン性能テストの準備作業として、配布・収集モジュール11は被テストサーバ1Bとクライアント4に対してモジュール21、22と31から35を配布する。配布後、時刻同期モジュール13はテストサーバ1と被テスト機1Aの時刻同期を行う。
Hereinafter, a series of operations from the preparation of the performance test to the output of the performance test result after completion will be described with reference to a flowchart. In addition, each parameter (time, threshold value, etc.) when explaining a flowchart is an example to the last, and it can implement without being limited to this example. First, as preparation work for this online performance test, the distribution / collection module 11 distributes
図8は、本番業務におけるユーザのクライアント4の操作データを作成する動作を示すフローチャートである。 FIG. 8 is a flowchart showing an operation of creating operation data of the user's client 4 in the actual business.
本番業務中、テスト作業者はテストサーバ1より、遠隔制御モジュール12からテスト対象となるクライアント4の遠隔制御モジュール31に操作記録を行うための指定時刻(開始時刻:2005年3月28日9:00、終了時刻:2005年3月28日17:00)と実行指令を入出力装置から入力する(S101)。
During the actual operation, the test operator from the
その指定時刻情報と実行指令(操作記録開始指令)は、該テストサーバ1に備える通信網インタフェース、各支部に備える通信網インタフェースを介してクライアント4に送信される(S102、S103)。
The designated time information and the execution command (operation recording start command) are transmitted to the client 4 via the communication network interface provided in the
操作記憶を行うための指定時刻(開始時刻:2005年3月28日9:00、終了時刻:2005年3月28日17:00)と実行指令を受けたクライアント4の遠隔制御モジュール31は指定された開始時刻(2005年3月28日9:00)に(S104、YES)操作記録モジュール32に操作記録の開始を指示する。
The
操作記録モジュール32は、ユーザのクライアント4におけるテストシステム上の操作手順として、テストシステムのウインドウにフォーカスがあることを条件とし、ユーザによるマウスもしくはキーボードでの作業を契機として、操作が発生した時間を主キーに、フォーカス対象のウインドウ名、カーソル位置、操作対象となるマウスカーソルの位置座標、左クリック・右クリックの押す(on)と離す(off)の動作、キーボードによる入力コード、貼り付けによる入力情報などを、操作データとしてメモリ上に記憶する(S105)。 The operation recording module 32 determines, as an operation procedure on the test system in the client 4 of the user, the time when the operation has occurred with the mouse or keyboard operation by the user on the condition that the window of the test system has focus. The main key includes the name of the window to be focused, the cursor position, the position coordinates of the mouse cursor to be operated, the left click / right click press (on) and release (off) actions, the keyboard input code, and the paste input. Information or the like is stored on the memory as operation data (S105).
指定された操作記録の終了時刻(2005年3月28日17:00)になると(S106、YES)、遠隔制御モジュール31は、操作記録モジュール32に記録操作の停止を指示する。
When the designated operation recording end time (March 28, 2005, 17:00) comes (S106, YES), the
操作記録モジュール32は停止を指示されるまでにメモリ上に記録した操作手順から、操作が発生した時間をキーとして時系列に整理した操作データファイル36を作成する(S107)。 The operation recording module 32 creates an operation data file 36 arranged in chronological order using the operation occurrence time as a key from the operation procedure recorded in the memory until the stop is instructed (S107).
同時に遠隔制御モジュール31はクライアント4が設置された支部に備える通信網インタフェース、該テストサーバ1に備える通信網インタフェースを介して該テストサーバ1に操作記録終了のメッセージを送信する(S108)。
At the same time, the
テストサーバ1の遠隔制御モジュール12はテスト対象となる全クライアント4からの操作記録終了のメッセージを受信後(S109)、テスト作業者へ操作記録終了のメッセージをコンピュータなどの入出力装置から出力する(S110、S111)。
The
図9は、図8の動作により作成されたユーザの操作データを編集し、テストデータファイル37を作成する動作を示すフローチャートである。 FIG. 9 is a flowchart showing the operation of creating the test data file 37 by editing the user operation data created by the operation of FIG.
テスト作業者は、操作記録終了のメッセージを確認後、操作データファイル36の編集作業を行うための縮尺率(0.5)と実行指令を入出力装置からテストサーバ1に入力する(S121)。 After confirming the operation record end message, the test worker inputs a scale ratio (0.5) and an execution command for editing the operation data file 36 from the input / output device to the test server 1 (S121).
その操作データファイル36の編集作業を行うための縮尺率と実行指令(操作記録開始指令)は、該テストサーバ1に備える通信網インタフェースに、各支部に備える通信網インタフェースを介してクライアント4に送信される(S122、S123)。
The scale ratio and execution command (operation recording start command) for editing the operation data file 36 are transmitted to the client 4 via the communication network interface provided in each branch to the communication network interface provided in the
編集作業を行うための実行指令を受信した遠隔制御モジュール31は編集モジュール33に縮尺率(0.5)と編集開始を指示する。編集モジュール33は前記操作データファイル36を時間軸に対して全体の比率を保ったまま縮尺率(0.5)をもとに操作時間を短縮するために、操作データファイル36の主キーである操作が発生した時間(第1操作9:05:00、第2操作9:06:00) と記憶を開始した時刻(9:00:00)との差分(第1操作00:05:00、第2操作00:06:00)に縮尺率(0.5)をかけた値(第1操作00:02:50、第2操作00:03:00)を操作時間(第1操作00:02:50、第2操作00:03:00)として全操作記録の操作が発生した時間の編集作業を行い(S124)、テストデータファイル37を作成する(S125)。
The
編集モジュール33はテストデータファイル37作成後、遠隔制御モジュール31に編集作業が終了したことを返信し、返信を受けた遠隔制御モジュール31はクライアント4が設置された支部に備える通信網インタフェースや、テストサーバ1に備える通信網インタフェースを介してテストサーバ1に編集作業終了のメッセージを送信する(S126)。
After creating the test data file 37, the
テストサーバ1の遠隔制御モジュール12はテスト対象となる全クライアント4からの編集作業終了のメッセージを受信後(S127)、テスト作業者へ編集作業終了のメッセージを入出力装置から出力する(S128、S129)。
The
図10は、図9の動作により作成された各被クライアント4のテストデータファイル37を再生し、リソースと内部処理時間とオンラインレスポンスタイムを記録して性能テストを実施する動作を示すフローチャートである。 FIG. 10 is a flowchart showing the operation of reproducing the test data file 37 of each client 4 created by the operation of FIG. 9 and recording the resource, internal processing time, and online response time to perform the performance test.
本番業務が終了し性能テストを開始するとき、テスト作業者はテストサーバ1より、遠隔制御モジュール12からテスト対象となる被テストサーバ1Bの遠隔制御モジュール21に性能テストの開始時刻(2005年4月2日8:00)とテスト結果データ作成の実行指令を、クライアント4の遠隔制御モジュール31に性能テストの開始時刻(2005年4月2日8:00)と性能テストの実行指令を入出力装置から入力する(S131)。
When the production operation is finished and the performance test is started, the test operator starts the performance test from the
その性能テストの開始時刻情報とテスト結果データ作成の実行指令は、本部の該テストサーバ1に備える被テストサーバ1Bと通信網インタフェース、各支部に備える通信網インタフェースを介して被テストサーバ1Bに送信される(S132〜S135)。
The performance test start time information and test result data creation execution command are transmitted to the server under test 1B via the server under test 1B provided in the
性能テストの開始時刻情報と性能テストの実行指令情報は、該テストサーバ1に備える通信網インタフェースや、各支部に備える通信網インタフェースを介してクライアント4に送信される(S136)。
The performance test start time information and the performance test execution command information are transmitted to the client 4 via the communication network interface provided in the
性能テストの開始時刻(2005年4月2日8:00)とテスト結果データ作成の実行指令を受けた遠隔制御モジュール21は、性能テストの開始時刻(2005年4月2日8:00)に(S137〜S139)、性能記録モジュール22にリソースの使用率と内部処理時間の記録の開始指示を出す。
The
指示を受けた性能記録モジュール22はリソース使用率(CPU、メモリ、ネットワーク、RDエリア)を出力するコマンドを一定間隔(5秒)ごとに発行し、その出力結果を記憶した時間をキーにメモリ上に記憶する作業と、内部処理時間として被テストサーバ1Bにおけるオンライン電文の処理時間を内部処理の開始時間をキーとしてメモリ上に記録する作業を開始する(S141〜S143)。
Upon receiving the instruction, the
また、性能テストの開始時刻(2005年4月2日8:00)と性能テストの実行指令を受けた遠隔制御モジュール31は性能テストの開始時刻(2005年4月2日8:00)に(S140、YES)、再生モジュール34に対して再生開始の指示を、性能記録モジュール32にリソースの使用率とオンラインレスポンス時間の記録の開始指示を出す。
Further, the
指示を受けた再生モジュール34は、性能テストの開始時刻に、テストデータファイル37に記録された操作時間の間隔で、操作対象のウインドウ、カーソル位置に対して、マウスカーソルの位置操作、左クリック・右クリックの押す(on)と離す(off)の動作、キーボードによる入力コードの入力、貼り付けによる入力情報の入力による再生する作業を、性能記録モジュール35はリソース使用率(CPU、メモリ、ネットワーク)を出力するコマンドを一定間隔(5秒)ごとに発行し、その出力結果を記憶した時間をキーにメモリ上に記憶する作業と、オンラインレスポンスタイムとオンライン処理開始時間をキーとしてメモリ上に記録する作業を開始する(S144)。
Upon receipt of the instruction, the
図11は、図10の動作により実施されたテストに関するテスト結果データを作成する動作を示すフローチャートである。 FIG. 11 is a flowchart showing an operation of creating test result data related to the test performed by the operation of FIG.
テスト作業者はテストサーバ1より、遠隔制御モジュール12からテスト対象となる被テストサーバ1Bの遠隔制御モジュール21にテスト結果データ作成の終了指令を、クライアント4の遠隔制御モジュール31に性能テストの終了指令を入出力装置から入力する(S145)。そのテスト結果データ作成の終了指令は、本部の該テストサーバ1に備える被テストサーバ1Bと通信網インタフェース、各支部に備える通信網インタフェースを介して被テストサーバ1Bに送信され(S146〜S149)、性能テストの終了指令情報は該テストサーバ1に備える通信網インタフェース、各支部に備える通信網インタフェースを介してクライアント4に送信される(S150)。
From the
テスト結果データ作成の終了指令を受けた(S151〜S153)遠隔制御モジュール21は性能記録モジュール22に記録作業の停止を指示し、指示を受けた性能記録モジュール22は、記録作業を停止し、メモリ上に記録したリソース使用率と内部処理時間のデータから、記憶した時間をキーとして時系列に整理したテスト結果データファイル23を作成する(S155〜S157)。
Receiving the test result data creation end command (S151 to S153), the
性能記録モジュール22はテスト結果データファイル23作成後、遠隔制御モジュール21にテスト結果データ作成の作業が終了したことを送信する(S160〜S162)。送信を受けた遠隔制御モジュール21は被テストサーバ1Bが該テストサーバ1と同じ本部に設定されている場合は該テストサーバ1に、被テストサーバ1Bが支部に設定されている場合は、被テストサーバ1Bが設置された支部に備える通信網インタフェース、該テストサーバ1に備える通信網インタフェースを介して該テストサーバ1にテスト結果データ作成作業終了のメッセージを送信する(S164〜S166)。
After creating the test result data file 23, the
また、性能テスト終了の指令を受けた(S154、YES)遠隔制御モジュール31は、再生モジュール34に再生作業の停止を、性能記録モジュール35に記録作業の停止を指示し、再生作業の停止指示を受けた再生モジュール34はテストデータファイル37の再生を停止し、記録作業の停止指示を受けた性能記録モジュール35は、記録作業を停止し、メモリ上に記録したリソース使用率とオンラインレスポンスタイムのデータから、記憶した時間をキーとして時系列に整理したテスト結果データファイル38を作成する(S158)。
Also, the
性能記録モジュール35はテスト結果データ作成後、遠隔制御モジュール31にテスト結果データ作成の作業が終了したことを送信する(S163)。送信を受けた遠隔制御モジュール31は、クライアント4が設置された支部に備える通信網インタフェース、該テストサーバ1に備える通信網インタフェースを介して該テストサーバ1にテスト結果データ作成作業終了のメッセージを送信する(S167)。
After creating the test result data, the
遠隔制御モジュール12は、全テスト対象の本部と支部に設置された被テストサーバ1Bとクライアント4からテスト結果データ作成作業終了のメッセージを受信後、テスト作業者へ性能テスト終了の旨のメッセージを入出力装置から出力する(S168、S169)。
The
次に、図11の動作により作成されたテスト結果データをテスト終了後に出力する処理について、説明する。 Next, a process for outputting the test result data created by the operation of FIG. 11 after the test is completed will be described.
テスト終了後、テスト作業者はテストサーバ1の配布・収集モジュール11により、テスト対象となる被テストサーバ1Bとクライアント4上に作成された、テスト結果データファイル23とテスト結果データファイル38とテストシステムにより出力されたログを収集する。
After the test is completed, the test operator uses the distribution / collection module 11 of the
全被テストサーバ1Bとクライアント4からの収集作業が終了した配布・収集モジュール11は、収集結果格納モジュール14に収集をした被テスト機1Aの名前情報と収集したテスト結果データとログと性能テスト管理テーブル16へのデータ格納指示を出す。性能テスト管理テーブル16へのデータ格納指示を受けた収集結果格納モジュール15は、被テスト機1Aの名前をキーとして、テスト結果データから各リソース使用率の記録時間とリソース使用率を、処理時間の記録時間と内部処理時間もしくはオンラインレスポンスタイムを格納する。性能テスト管理テーブル16への全テスト結果データの格納終了後、収集結果格納モジュール15は、テスト結果データの収集作業が終了した旨のメッセージをテスト作業者に入出力装置から出力する。 The distribution / collection module 11 that has completed the collection work from all the servers under test 1B and the clients 4 receives the name information of the machine under test 1A collected in the collection result storage module 14, the collected test result data, the log, and the performance test management. An instruction to store data in the table 16 is issued. The collection result storage module 15 that has received an instruction to store data in the performance test management table 16 uses the name of the device under test 1A as a key and the recording time and resource usage rate of each resource usage rate from the test result data. Stores recording time and internal processing time or online response time. After the storage of all test result data in the performance test management table 16 is completed, the collection result storage module 15 outputs a message to the test worker from the input / output device indicating that the collection of test result data has been completed.
テスト結果データの収集作業が完了した後、テスト作業者は、テスト結果出力モジュール15に性能テストの出力対象とする性能テスト結果の開始時刻(2005年4月2日8:00)と終了時刻(2005年4月2日17:00)と出力単位とする時間(1時間)とシステム全体の性能テスト結果の出力指令を入出力装置から入力する。 After the test result data collection work is completed, the test operator sends the test result output module 15 the performance test result start time (April 2, 2005, 8:00) and end time ( (April 2, 2005, 17:00), an output unit time (1 hour) and an output command of the performance test result of the entire system are input from the input / output device.
性能テスト結果の出力指令を受けたテスト結果出力モジュール15は、性能テスト管理テーブル16に格納されたデータを参照し、出力対象とする性能テストの開始時刻(2005年4月2日8:00)から終了時刻(2005年4月2日17:00)までの単位時間あたり(1時間)の本部と全支部に設置された被テスト機1Aごとの最大リソース使用率と平均使用率、最大内部処理時間と平均処理時間、最大オンラインレスポンスタイムと平均オンラインレスポンス時間を入出力装置により出力する。 The test result output module 15 receiving the performance test result output command refers to the data stored in the performance test management table 16 and starts the performance test to be output (April 2, 2005, 8:00) To the end time (April 2, 2005, 17:00) per unit time (1 hour) The maximum resource usage, average usage, and maximum internal processing for each unit under test 1A installed in the headquarters and all branches The time and average processing time, maximum online response time and average online response time are output by the input / output device.
また、事前に閾値設定テーブル17に被テスト機1Aにおけるリソースごとならびに処理時間ごとに閾値が設定されている場合は、前記出力結果において閾値を超える結果があった場合、テスト結果出力モジュール15は、閾値を超える結果に網かけを行い入出力装置から出力する。 If threshold values are set in advance in the threshold setting table 17 for each resource and processing time in the machine under test 1A, if there is a result exceeding the threshold in the output result, the test result output module 15 The result exceeding the threshold is shaded and output from the input / output device.
テスト作業者は、例えば、リソース使用率が高いもしくは処理時間の長い被テスト機1Aが多数存在する支部を選択し、テスト結果出力モジュール15に出力対象とする性能テスト結果の開始時刻(2005年4月2日11:00) と終了時刻(2005年4月2日12:00)と出力単位とする時間(5分)と対象とする支部の出力指令を入出力装置から入力する。 For example, the test operator selects a branch where a large number of test machines 1A having a high resource usage rate or a long processing time exist, and starts the performance test result to be output to the test result output module 15 (as of April 2005). 12:00), the end time (April 2, 2005 12:00), the output unit time (5 minutes), and the output command of the target branch are input from the input / output device.
性能テスト結果の出力指令を受けたテスト結果出力モジュール15は、性能テスト管理テーブル16に格納されたデータを参照し、出力対象とする性能テストの開始時刻(2005年4月2日11:00)から終了時刻(2005年4月2日12:00)までの単位時間あたり(5分)の対象とする支部に設置された被テスト機1Aごとの最大リソース使用率、最大内部処理時間と最大オンラインレスポンスタイムを入出力装置により出力する。 The test result output module 15 receiving the performance test result output command refers to the data stored in the performance test management table 16 and starts the performance test to be output (April 2, 2005, 11:00) To the end time (April 2, 2005, 12:00) per unit time (5 minutes), maximum resource usage, maximum internal processing time and maximum online for each unit under test installed in the target branch 1A The response time is output by the input / output device.
テスト作業者は全システムの性能テスト結果出力により時間ごとの各支部におけるシステムの負荷の偏りを確認し、負荷の高い支部においては、支部における性能テスト結果を出力し、内部処理時間やオンラインレスポンスタイムが大きくなるときの被テスト機1Aのリソース使用率を確認する。これにより、システムの地域的、時間的な負荷状況を把握することができ、かつ、必要な支部の必要な被テスト機1Aにおけるリソース増強のための再設計を行うことが可能となる。
The test operator checks the system load bias in each branch every time by outputting the performance test results of all the systems, and outputs the performance test results in the branch in the heavily loaded branch, internal processing time and online response time The resource usage rate of the machine under
以上説明した本実施形態は、1台以上の業務サーバ2を本部に設置し、業務サーバ2とクライアント4の通信を中継する1台以上の中継サーバ3を本部ならびに各支部に設置し、1台以上のクライアント4を各支部に設置する大規模なオンラインシステムに適用され、システム全体の性能テストを実現する。このテストシステムは、遠隔によりクライアント4を操作することを特徴とする。
In the present embodiment described above, one or more business servers 2 are installed in the headquarters, and one or
1 テストサーバ
1A 被テスト機
1B 被テストサーバ
2 業務サーバ
3 中継サーバ
4 クライアント
11 配布・収集モジュール
12 遠隔制御モジュール
13 時刻同期モジュール
14 収集結果格納モジュール
15 テスト結果出力モジュール
16 性能テスト管理テーブル
17 閾値設定テーブル
21 遠隔制御モジュール
22 性能記録モジュール
23 テスト結果データファイル
31 遠隔制御モジュール
32 操作記録モジュール
33 編集モジュール
34 再生モジュール
35 性能記録モジュール
36 操作データファイル
37 テストデータファイル
38 テスト結果データファイル
DESCRIPTION OF
Claims (5)
前記テストサーバが、
前記クライアント間で同期を取りつつ入力された操作手順を前記クライアントごとに時系列に記憶した操作データファイルを作成するように前記クライアントを制御する操作記録ステップと、
前記操作記録ステップで作成された前記操作データファイルの前記操作手順を再生するように前記クライアントを制御する再生ステップと、
前記再生ステップで前記操作手順を再生する期間において、前記被テスト機の性能データを記録してテスト結果データファイルを作成するように前記被テスト機を制御する性能記録ステップと、
前記性能記録ステップで記録した前記テスト結果データファイルを前記被テスト機から受信して出力するテスト結果出力ステップと、
を実行することを特徴とする性能テスト方法。 A performance test method by a test server that tests a performance of the server under test, and a plurality of clients installed at remote locations from the server under test as test machines,
The test server is
An operation recording step of controlling the client so as to create an operation data file in which operation procedures input while synchronizing between the clients are stored in time series for each client;
A reproduction step of controlling the client to reproduce the operation procedure of the operation data file created in the operation recording step;
A performance recording step for controlling the device under test so as to record performance data of the device under test and create a test result data file in a period during which the operation procedure is reproduced in the reproduction step;
A test result output step for receiving and outputting the test result data file recorded in the performance recording step from the device under test;
A performance test method characterized by executing
前記クライアント間で同期を取りつつ入力された操作手順を前記クライアントごとに時系列に記憶した操作データファイルを作成するように前記クライアントを制御する操作記録モジュールと、
前記操作記録モジュールで作成された前記操作データファイルの前記操作手順を再生するように前記クライアントを制御する再生モジュールと、
前記再生モジュールで前記操作手順を再生する期間において、前記被テスト機の性能データを記録してテスト結果データファイルを作成するように前記被テスト機を制御する性能記録モジュールと、
前記性能記録モジュールで記録した前記テスト結果データファイルを前記被テスト機から受信して出力するテスト結果出力モジュールと、
を備えることを特徴とするテストサーバ。 A server under test, and a plurality of clients installed remotely from the server under test as a test machine, and a test server for testing the performance of the machine under test,
An operation recording module for controlling the client so as to create an operation data file in which operation procedures input in synchronization between the clients are stored in time series for each client;
A reproduction module for controlling the client to reproduce the operation procedure of the operation data file created by the operation recording module;
A performance recording module for controlling the device under test so as to record performance data of the device under test and create a test result data file during a period of replaying the operation procedure with the playback module;
A test result output module for receiving and outputting the test result data file recorded by the performance recording module from the device under test;
A test server comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005188532A JP2007011497A (en) | 2005-06-28 | 2005-06-28 | Performance test method and test server |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005188532A JP2007011497A (en) | 2005-06-28 | 2005-06-28 | Performance test method and test server |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2007011497A true JP2007011497A (en) | 2007-01-18 |
Family
ID=37749949
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005188532A Pending JP2007011497A (en) | 2005-06-28 | 2005-06-28 | Performance test method and test server |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2007011497A (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2009259275A (en) * | 2009-07-30 | 2009-11-05 | Toshiba Corp | Scenario generation device, and scenario generation program |
| JP2010033170A (en) * | 2008-07-25 | 2010-02-12 | Ntt Docomo Inc | Debugging support device |
| JP2010146260A (en) * | 2008-12-18 | 2010-07-01 | Hitachi Ltd | Reproduction processing method, computer system, and program |
| WO2016117007A1 (en) * | 2015-01-19 | 2016-07-28 | 株式会社日立製作所 | Database system and database management method |
| JP2019195852A (en) * | 2018-05-07 | 2019-11-14 | 川崎重工業株式会社 | System for operating device |
| JP2021507325A (en) * | 2018-05-18 | 2021-02-22 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Systems and methods to improve the reliability of medical imaging devices |
-
2005
- 2005-06-28 JP JP2005188532A patent/JP2007011497A/en active Pending
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010033170A (en) * | 2008-07-25 | 2010-02-12 | Ntt Docomo Inc | Debugging support device |
| JP2010146260A (en) * | 2008-12-18 | 2010-07-01 | Hitachi Ltd | Reproduction processing method, computer system, and program |
| JP2009259275A (en) * | 2009-07-30 | 2009-11-05 | Toshiba Corp | Scenario generation device, and scenario generation program |
| WO2016117007A1 (en) * | 2015-01-19 | 2016-07-28 | 株式会社日立製作所 | Database system and database management method |
| JP2019195852A (en) * | 2018-05-07 | 2019-11-14 | 川崎重工業株式会社 | System for operating device |
| JP7152180B2 (en) | 2018-05-07 | 2022-10-12 | 川崎重工業株式会社 | system for operating equipment |
| JP2021507325A (en) * | 2018-05-18 | 2021-02-22 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Systems and methods to improve the reliability of medical imaging devices |
| JP7299881B2 (en) | 2018-05-18 | 2023-06-28 | コーニンクレッカ フィリップス エヌ ヴェ | Systems and methods for improving reliability of medical imaging devices |
| JP2023100766A (en) * | 2018-05-18 | 2023-07-19 | コーニンクレッカ フィリップス エヌ ヴェ | Systems and methods for improving reliability of medical imaging devices |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN110928774B (en) | Automatic test system based on node type | |
| CN110162471B (en) | Pressure testing method and system based on container cloud | |
| CN109889381B (en) | Automatic configuration management method and device based on fort machine | |
| JP5483965B2 (en) | Web application operation recording / reproducing method and system | |
| US7620856B2 (en) | Framework for automated testing of enterprise computer systems | |
| JP2004227359A (en) | Storage system operation management method based on policy | |
| KR101948927B1 (en) | Collaborative test device | |
| JP2006040222A (en) | Message display method and message display device | |
| JP2011108157A (en) | Man-machine device for plant monitoring | |
| JP2021056763A (en) | Information processing program, information processing method, and information processing device | |
| JP2001005690A (en) | Program test system | |
| JP2007011497A (en) | Performance test method and test server | |
| JP4295775B2 (en) | GUI test support system and application program for test support | |
| CN110011853B (en) | Cross fault troubleshooting method and device for multiple platforms and clusters | |
| JP5425497B2 (en) | Software verification system and method and program | |
| JP4257364B2 (en) | COMMUNICATION ERROR INFORMATION OUTPUT PROGRAM, COMMUNICATION ERROR INFORMATION OUTPUT METHOD, AND COMMUNICATION ERROR INFORMATION OUTPUT DEVICE | |
| CN118819955A (en) | Storage operation and maintenance management platform and implementation method for film and television production | |
| JP2011034274A (en) | Automatic test execution system | |
| JP2011095886A (en) | Application server, method and program for reproducing application failure | |
| JP4672532B2 (en) | Operator simulation system and operator simulation method | |
| JP5668836B2 (en) | Information processing apparatus, information acquisition method, and information acquisition program | |
| CN119109981B (en) | A method and system for obtaining cloud server performance data based on Windows system | |
| JP2000267891A (en) | Device and method for monitoring execution of processing inside digital computer | |
| JP2015043181A (en) | Regression test supporting system | |
| CN120434145B (en) | Automated traffic monitoring system based on the Playwright framework |