JP2010061461A - System for automatic evaluation of software performance - Google Patents
System for automatic evaluation of software performance Download PDFInfo
- Publication number
- JP2010061461A JP2010061461A JP2008227296A JP2008227296A JP2010061461A JP 2010061461 A JP2010061461 A JP 2010061461A JP 2008227296 A JP2008227296 A JP 2008227296A JP 2008227296 A JP2008227296 A JP 2008227296A JP 2010061461 A JP2010061461 A JP 2010061461A
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- software
- report
- execution
- performance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Debugging And Monitoring (AREA)
- Stored Programmes (AREA)
Abstract
Description
本発明は、開発したアプリケーションソフトウェアの性能評価を自動で行うソフトウェアの自動性能評価システムに関するものである。 The present invention relates to an automatic software performance evaluation system that automatically performs performance evaluation of developed application software.
従来の画像処理を行う複写機、ファクシミリ装置、スキャナ装置、あるいは、コピー機能、ファックス機能、プリンタ機能などの複数の機能を一つの筐体に収納した複合機(マルチファンクション装置、MFP:Multi Function Peripherals)等では、新たなアプリケーションソフトウェアを開発し、それを組み込むことが行われている。このアプリケーションは、開発後に試験的に起動させて初めてソフトウェアの性能(ROM使用量、RAM使用量、起動時間等)を評価することが可能となる。 Conventional copiers, facsimile machines, scanners that perform image processing, or multi-function devices (multifunction devices, MFP: Multi Function Peripherals) that house multiple functions such as copy functions, fax functions, and printer functions. ) Etc., new application software is developed and incorporated. It is possible to evaluate the performance of the software (ROM usage, RAM usage, startup time, etc.) only after this application is experimentally started after development.
従来、開発した組み込みソフトウェアを性能評価する場合は、評価対象となるアプリケーションを手動で組み込み対象となる実機(例えば、MFP)にインストールし、実行させて評価を行っていた。 Conventionally, when performance evaluation of developed embedded software is performed, an application to be evaluated is manually installed on an actual machine (for example, MFP) to be embedded and executed for evaluation.
また、これに関連したソフトウェアの品質測定装置としては、ソフトウェアを構成するプログラムの構造を定量的に把握する尺度であるメトリクス値を算出し、これをソフトウェアの品質特性値に変換して、その品質特性値がどのように影響するのかを明確化するものがあった(特許文献1参照)。 In addition, as a software quality measurement device related to this, a metric value, which is a measure for quantitatively grasping the structure of a program constituting the software, is calculated, converted into a quality characteristic value of the software, and the quality Some clarified how the characteristic value affects (see Patent Document 1).
しかしながら、上記従来例にあっては、アプリケーションの開発が進行するたびに、毎回手動でアプリケーションを実機にインストールし、評価を行うのは、手間やコストが非常にかかるという問題があった。 However, in the above-described conventional example, there is a problem that it takes much time and cost to manually install and evaluate the application every time the application development progresses.
また、上記特許文献1は、品質測定装置の使い勝手や、ソフトウェアの品質測定の信頼性を向上させるものであるが、開発したアプリケーションソフトウェアの性能評価を自動で行うものではなかった。
Moreover, although the said
本発明は、上記に鑑みてなされたものであって、開発したアプリケーションソフトウェアの性能評価を自動、かつ継続的に行うことができるソフトウェアの自動性能評価システムを提供することを目的とする。 The present invention has been made in view of the above, and an object thereof is to provide an automatic software performance evaluation system capable of automatically and continuously performing performance evaluation of developed application software.
上述した課題を解決し、目的を達成するために、本発明にかかるソフトウェアの自動性能評価システムは、開発したアプリケーションソフトウェアの性能を評価するソフトウェアの自動性能評価システムであって、ソフトウェア部品、ソフトウェア部品の仕様書、およびソフトウェア部品を使って作成された実行プログラムを格納し、管理する構成管理装置と、前記構成管理装置が格納するソフトウェア部品を取得して実行プログラムを作成し、その解析を行って、プログラムの作成と解析結果とをレポート化し、作成した実行プログラムの性能計測に必要なプログラムを埋め込んで計測付実行プログラムを作成するビルド装置と、前記ビルド装置から計測付実行プログラムの作成完了通知を受領して、インストール開始の通知を出力する性能測定装置と、前記性能測定装置からインストール開始の通知を受領すると、前記ビルド装置から前記計測付実行プログラムを取得してインストールを行う実機と、を備え、前記実機は、インストールした前記計測付実行プログラムを実行し、前記性能測定装置はその実行結果と所定のしきい値とを比較した結果に基づいて、開発したアプリケーションソフトウェアの性能評価を行うことを特徴とする。 In order to solve the above-described problems and achieve the object, an automatic software performance evaluation system according to the present invention is a software automatic performance evaluation system for evaluating the performance of developed application software. Specifications management and configuration management device that stores and manages execution programs created using software components, and obtains software components stored in the configuration management device, creates execution programs, and analyzes them , Create a program and report the analysis results, embed a program required for performance measurement of the created execution program to create an execution program with measurement, and notify the completion of creation of the execution program with measurement from the build device Receive and output installation start notification A measurement device, and a real machine that acquires the execution program with measurement from the build device upon receiving a notification of installation start from the performance measurement device, and the real machine installs the execution program with measurement And the performance measuring apparatus performs performance evaluation of the developed application software based on a result of comparing the execution result with a predetermined threshold value.
本発明によれば、開発したアプリケーションソフトウェアの性能評価を自動、かつ継続的に行うことができるという効果を奏する。 According to the present invention, the performance evaluation of the developed application software can be performed automatically and continuously.
以下に添付図面を参照して、この発明にかかるソフトウェアの自動性能評価システムの最良な実施の形態を詳細に説明する。 Exemplary embodiments of an automatic software performance evaluation system according to the present invention will be explained below in detail with reference to the accompanying drawings.
(第1の実施の形態)
図1は、第1の実施の形態にかかる自動性能評価システムのハードウェア構成を示すブロック図である。図1に示す自動性能評価システム10は、構成管理装置としての構成管理サーバ11、ビルド装置としてのビルドサーバ12、実機であるMFP(複合機)13、性能測定装置としての性能測定サーバ14などで構成されている。そして、性能測定サーバ14には、ここではディスプレイ15とプリンタ16が接続されている。また、構成管理サーバ11、ビルドサーバ12、MFP13、および性能測定サーバ14は、ネットワーク17によって相互に接続されている。さらに、性能測定サーバ14とディスプレイ15との間は、シリアルケーブル18で接続され、性能測定サーバ14とプリンタ16との間は、シリアルケーブル18あるいはネットワーク17で接続されている。上記した自動性能評価システム10を構成する構成管理サーバ11、ビルドサーバ12、MFP13、性能測定サーバ14のそれぞれの具体的なハードウェア構成は、図1に示していないが、CPUなどの制御装置、ROM(Read Only Memory)やRAMなどの記憶装置、HDD、CDドライブ装置などの外部記憶装置の他、ディスプレイなどの表示装置、および、キーボードやマウスなどの入力装置を備えている。そして、以下の実施の形態において実行される動作プログラムは、インストール可能な形式、または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
(First embodiment)
FIG. 1 is a block diagram illustrating a hardware configuration of the automatic performance evaluation system according to the first embodiment. An automatic
図2は、図1における自動性能評価システムを機能別に表したソフトウェア構成を示すブロック図である。また、図3−1は、第1の実施の形態にかかる自動性能評価システムの前半動作を説明するフローチャートであり、図3−2は、第1の実施の形態にかかる自動性能評価システムの後半動作を説明するフローチャートである。さらに、図4−1は、構成管理サーバの実行プログラム格納部に格納されている実行プログラムの図であり、図4−2は、構成管理サーバのソース格納部に格納されている部品のソースの図であり、図5−1は、ビルドサーバのレポート格納部に格納されているビルド結果の図であり、図5−2は、ビルドサーバのレポート格納部に格納されている静的解析結果の図であり、図6は、ビルドサーバの計測付実行プログラム格納部に格納されている計測付実行プログラムの図であり、図7は、MFPの取得先情報格納部に格納されている取得先情報の図であり、図8−1および図8−2は、MFPの実行結果格納部に格納されている実行時の計測データの図であり、図9は、性能測定サーバの計測プログラム格納部に格納されている計測プログラムの図であり、図10は、性能測定サーバのしきい値格納部に格納されているしきい値の図であり、図11−1および図11−2は、性能測定サーバの履歴格納部に格納されている履歴データの図であり、図12は、性能測定サーバの参照履歴数格納部に格納されている参照履歴数の図であり、図13−1、図13−2、図13−3は、性能測定サーバのレポート格納部に格納されているレポート例を示す図である。
FIG. 2 is a block diagram showing a software configuration representing the automatic performance evaluation system in FIG. 1 by function. FIG. 3A is a flowchart for explaining the first half operation of the automatic performance evaluation system according to the first embodiment. FIG. 3B is the second half of the automatic performance evaluation system according to the first embodiment. It is a flowchart explaining operation | movement. Further, FIG. 4A is a diagram of an execution program stored in the execution program storage unit of the configuration management server, and FIG. 4B is a diagram of the source of parts stored in the source storage unit of the configuration management server. FIG. 5A is a diagram of the build result stored in the report storage unit of the build server, and FIG. 5B is a diagram of the static analysis result stored in the report storage unit of the build server. FIG. 6 is a diagram of the execution program with measurement stored in the execution program storage unit with measurement of the build server, and FIG. 7 is the acquisition destination information stored in the acquisition destination information storage unit of the MFP. FIGS. 8A and 8B are diagrams of measurement data at the time of execution stored in the execution result storage unit of the MFP, and FIG. 9 shows the measurement program storage unit of the performance measurement server.
図2の構成管理サーバ11は、ソフトウェア部品のソース、仕様書、実行プログラムのバージョンなどを一元管理する管理部111、ソフトウェア部品のソースを格納するソース格納部112、ソフトウェア部品の仕様書を格納する仕様書格納部113、ビルドサーバ12でビルドされた実行プログラムを格納する実行プログラム格納部114などで構成されている。そして、実行プログラム格納部114には、図4−1に示すビルドされた実行プログラムが格納されており、ソース格納部112には、図4−2に示すソフトウェア部品のソースが格納されている。
The
図2のビルドサーバ12は、ソフトウェア部品のソースから実行プログラムを作成すると共に、作成した実行プログラムに計測プログラムを付与した計測付実行プログラムを作成するビルド部121、ビルド部121で作成された実行プログラムを動作させることなく静的に解析を行う静的解析手段としての静的解析部122、ビルド部121におけるビルド結果と静的解析部122における静的解析結果のレポートを作成する第1のレポート作成手段としてのレポート部123、レポート部123で作成されたレポートを格納するレポート格納部124、および、ビルド部121で作成された実行プログラムに計測プログラムを合わせて作成した計測付実行プログラムを格納する計測付実行プログラム格納部125などで構成されている。そして、レポート格納部124には、図5−1に示すビルド結果、あるいは、図5−2に示す静的解析結果が格納されている。
The
図2の実機としてのMFP13は、ビルドサーバ12上に格納されている計測付実行プログラムを取得してMFP13にインストールを行うインストール部131、インストール部131によりインストールされた計測付実行プログラムを実行する実行部132、実行部132によるプログラム実行時に計測された実行結果(実測値)を格納する実行結果格納手段としての実行結果格納部133、および、インストールを行う計測付実行プログラムの取得先であるビルドサーバ12の情報を格納する取得先情報格納部134などで構成されている。そして、MFP13の取得先情報格納部134には、図7に示すインストールする実行プログラムの取得先情報が格納されている。また、MFP13の実行結果格納部133には、図8−1および図8−2に示す実行プログラムの実行時における計測データが格納されている。
2 acquires the execution program with measurement stored on the
図2の性能測定サーバ14は、ビルドサーバ12のビルド部121からプログラムの作成完了の通知を受けると、MFP13に対してインストール実行の通知を送信する通知制御部141、MFP13の実行結果格納部133から必要な計測データを取得する結果取得部142、計測付実行プログラムを実行した実行結果と目標値とを比較した比較結果に、後述の履歴格納部147に格納されている履歴を参照して評価する評価手段としての評価部143、評価部143の評価結果をレポートする第2のレポート作成手段としてのレポート部144、性能計測に必要なプログラムを格納する計測プログラム格納部145、MFP13の性能を表すしきい値を格納するしきい値格納部146、過去の評価結果を格納する履歴格納手段としての履歴格納部147、過去の履歴を何回まで遡って参照するかの回数を格納する参照履歴数格納部148、および、レポート部144で作成されたレポートを格納するレポート格納手段としてのレポート格納部149などで構成されている。そして、性能測定サーバ14の計測プログラム格納部145には、図9に示す性能計測に必要なプログラムが格納されている。また、性能測定サーバ14のしきい値格納部146には、図10に示すMFP13の性能を表すしきい値が格納されている。さらに、性能測定サーバ14の履歴格納部147には、図11−1および図11−2に示す過去の履歴データが格納されている。また、性能測定サーバ14の参照履歴数格納部148には、図12に示す過去の履歴をどこまで遡るかの参照回数を格納している。また、性能測定サーバ14のレポート格納部149には、図13−1、図13−2、図13−3に示すレポート部144で作成されたレポートが格納されている。
When the
第1の実施の形態にかかる自動性能評価システムは、上記のように構成されており、以下、図3−1および図3−2のフローチャートを使い動作を説明する。まず、図3−1に示すように、ビルドサーバ12のビルド部121が構成管理サーバ11の管理部111に対して、ソフトウェア部品のソースの更新の有無を確認する(ステップS100)。
The automatic performance evaluation system according to the first embodiment is configured as described above, and the operation will be described below using the flowcharts of FIGS. 3-1 and 3-2. First, as shown in FIG. 3A, the
ソースの更新があった場合、ビルド部121は、管理部111を通じてソース格納部112から更新のあったソースを取得し、ビルドを実行する(ステップS101)。そして、ステップS102において、ビルドが成功したか否かを判断し、成功した場合は、作成された実行プログラムが管理部111を介して実行プログラム格納部114に格納される。
When the source is updated, the
また、ビルドサーバ12の静的解析部122では、ビルドされた実行プログラムの静的解析が行われる(ステップS104)。このように、ビルド部121によるビルド結果と静的解析部122による静的解析結果に基づいて、レポート部123がレポートを作成し、レポート格納部124に保存する(ステップS105)。
Further, the
続いて、ビルド部121は、性能測定サーバ14の計測プログラム格納部145より計測プログラムを取得し、ビルドされた実行プログラムに埋め込んで再度ビルドすることにより、計測付実行プログラムを作成し、計測付実行プログラム格納部125に保存する(ステップS106)。
Subsequently, the
そして、ビルド部121が性能測定サーバ14の通知制御部141に対してビルド完了通知を出すと、それを受けた通知制御部141は、実機であるMFP13のインストール部131に対してインストール開始通知を出す(ステップS107)。
When the
インストール部131は、MFP13の取得先情報格納部134を参照して、ビルドサーバ12の計測付実行プログラム格納部125から計測付実行プログラムを取得して、MFP13にインストールさせる(ステップS108)。
The
MFP13の実行部132は、インストールされた計測付実行プログラムを実行することにより、実測値として出力される実行結果を実行結果格納部133に保存する(ステップS109)。
The
続いて、性能測定サーバ14の評価部143は、しきい値格納部146からMFP13の性能を表すしきい値を取得し、結果取得部142を通じて実行結果格納部133から必要な計測データを取得する(ステップS110)。
Subsequently, the
そして、図3−2に示すように、評価部143は、取得した計測データとしきい値とを比較し、計測データがしきい値内か否かを判断して(ステップS111)、しきい値以内であれば合格(Passed)とし(ステップS112)、しきい値を超えていれば失敗(Failed)という評価結果を下す(ステップS113)。このように、評価部143は、今回の評価結果と、評価に用いた各計測データおよびしきい値を履歴格納部147に保存する(ステップS114)。
Then, as illustrated in FIG. 3B, the
また、評価部143は、参照履歴数格納部148から参照回数を取得して、その参照回数分の履歴が履歴格納部147から取得できたか否かを判断する(ステップS115)。参照回数に見合った履歴が取得できた場合は、レポート部144が今回の内容と履歴からの内容に基づいてレポートを作成し、レポート格納部149に保存する(ステップS116)。上記ステップS115において、参照回数に見合った履歴が取得できない場合は、評価部143が参照可能な履歴を取得し、レポート部144が今回の内容と取得可能な履歴内容に基づいてレポートを作成し、レポート格納部149に保存する(ステップS116)。
Further, the
なお、上記ステップS102において、ビルドが成功しなかった場合については、ビルドサーバ12のレポート部123でエラーレポートを出力する(ステップS118)。
If the build is not successful in step S102, an error report is output from the
このように、第1の実施の形態によれば、構成管理サーバ11、ビルドサーバ12、および性能測定サーバ14が実機であるMFP13に接続されていて、構成管理サーバ11に格納された部品のソースを使ってビルドサーバ12が実行プログラムを作成し、それに計測機能を埋め込んだ計測付実行プログラムを作成し、MFP13にインストールして、実行させた実行結果を得る。そして、性能測定サーバ14の評価部143は、その実行結果と過去の評価履歴とを用いることにより、アプリケーションを自動的にビルドし、そのビルドされたアプリケーションの性能を自動的に評価することができる。
As described above, according to the first embodiment, the
(第2の実施の形態)
第2の実施の形態の特徴は、第1の実施の形態における性能測定サーバ14にメトリクス値を算出するメトリクス演算部と、メトリクス値と実測値の関係を示す係数を格納する係数格納部を新たに具備したことにある。
(Second Embodiment)
The feature of the second embodiment is that the
図14は、第2の実施の形態にかかる自動性能評価システムを機能別に表したソフトウェア構成を示すブロック図である。第1の実施の形態にかかる図2の構成図と異なるのは、性能測定サーバ14の破線枠内に示したメトリクス演算手段としてのメトリクス演算部151と、係数格納手段としての係数格納部152とが追加された点であり、その他の構成部については図2と同じであるため、重複説明を省略する。
FIG. 14 is a block diagram illustrating a software configuration in which the automatic performance evaluation system according to the second embodiment is represented by function. 2 is different from the configuration diagram of FIG. 2 according to the first embodiment in that a
メトリクス演算部151は、構成管理サーバ11の仕様書格納部113に格納されている仕様書を管理部111経由で取得し、これに基づいて各計測項目のメトリクス値を算出するものである。ここでいうメトリクスとは、ソフトウェアを構成するプログラムの構造を定量的に把握するための尺度のことである。
The
係数格納部152は、メトリクス演算部151で算出したメトリクス値と実測値との関係を示す係数を格納するものである。この係数格納部152には、過去の係数も格納されている。
The
図15−1は、メトリクス演算部がファンクションポイント法を用いてROMのメトリクス値を算出する場合に用いる外部仕様書の概略構成図であり、図15−2は、図15−1の概念クラス図の一例を示す図であり、図15−3は、図15−1のインターフェース(I/F)記述の一例を示す図であり、図16−1は、メトリクス演算部でメトリクス値を算出する際に用いられた履歴データを示す図であり、図16−2は、メトリクス演算部でメトリクス値を算出した際に用いられた部品毎の履歴データを示す図であり、図17は、係数格納部に格納されている係数例を示す図であり、図18は、第2の実施の形態にかかる自動性能評価システムの後半動作を説明するフローチャートであり、図19−1は、評価部が部品毎にメトリクス値と実測値の関係をプロットして係数およびしきい値を決定する方法を説明する図であり、図19−2は、今回と過去数回の履歴に基づいて再度係数を設定し直す場合を説明する図である。 FIG. 15A is a schematic configuration diagram of an external specification used when the metrics calculation unit calculates a ROM metric value using the function point method, and FIG. 15B is a conceptual class diagram of FIG. 15-3 is a diagram illustrating an example of the interface (I / F) description of FIG. 15-1, and FIG. 16-1 is a diagram for calculating a metric value by the metric calculation unit. 16-2 is a diagram showing history data for each component used when the metrics value is calculated by the metrics calculation unit, and FIG. 17 is a diagram showing the coefficient storage unit. FIG. 18 is a flowchart for explaining the second half operation of the automatic performance evaluation system according to the second embodiment. FIG. Metric value FIG. 19B is a diagram for explaining a method of determining a coefficient and a threshold value by plotting a relationship between actually measured values, and FIG. 19B illustrates a case where the coefficient is reset again based on the current and past history. FIG.
図15−1に示すように、外部仕様書20は、概念クラス図201とインターフェース記述202とで構成されている。図15−2に示すように、概念クラス図201は、ソフトウェアを構成する部品A21、部品B22、部品C23からなり、部品A21にはデータ1とデータ2を含み、部品B22にはデータ3を含み、部品C23にはデータ4が含まれている。図15−2および図15−3に示すように、部品A21のデータ1は、部品Aの内部データであるILF(内部論理ファイル)であり、データ2は、外部にデータを出力する機能であるEO(外部出力)である。また、部品B22のデータ3は、部品Aの内部を変える外部からのデータ入力を受け付ける機能であるEI(外部入力)である。さらに、部品C23のデータ4は、外部照会を行って検索する機能であるEQ(外部照会)である。
As illustrated in FIG. 15A, the
ファンクションポイント法とは、ソフトウェアの機能要素を抽出し、その機能数および複雑さからソフトウェアの規模(ファンクションポイント)を導き出す手法のことである。見積対象となるソフトウェアをEI(外部入力)、EO(外部出力)、EQ(外部照会)、ILF(内部論理ファイル)、EIF(外部インターフェースファイル)といった5種類の機能、データに分割し、これらの機能、データの複雑さに応じてポイント数を計算する。機能の複雑さとは、その機能が扱う項目数や参照するデータの数であり、低、中、高にカテゴライズされる。EI、EO、EQでは、複雑さのカテゴリ毎に規定のポイント数が決められている。ILF、EIFでは、項目数、レコード種類数から低、中、高にカテゴライズされ、ポイント数が決定される。このように、機能、データについてポイント数を算定し、システム特性や開発言語などによって決定される補正特性をかけたものがファンクションポイントとなる。 The function point method is a method of extracting functional elements of software and deriving the scale of the software (function points) from the number and complexity of the functions. The software to be estimated is divided into five types of functions and data such as EI (external input), EO (external output), EQ (external inquiry), ILF (internal logical file), and EIF (external interface file). Calculate the number of points according to the complexity of the function and data. The complexity of a function is the number of items handled by the function or the number of data to be referenced, and is categorized as low, medium, or high. In EI, EO, and EQ, a prescribed number of points is determined for each complexity category. In ILF and EIF, the number of points is determined by categorizing the number of items and the number of record types into low, medium, and high. As described above, the function points are obtained by calculating the number of points for the function and data and applying the correction characteristics determined by the system characteristics and the development language.
このように、性能測定サーバ14のメトリクス演算部151は、ソフトウェア部品の外部仕様書を利用し、ファンクションポイント法によってROMのメトリクス値をより正確に算出することができる。
As described above, the
また、上記算出されたメトリクス値は、図14に示すように、評価部143がメトリクス値と実測値との関係を部品毎にプロットし、全ての部品の結果に基づいて係数としきい値とを決定し、しきい値はしきい値格納部146へ、係数は係数格納部152へ保存する。また、今回用いられたデータは、履歴格納部147に保存され、レポート部144が今回のレポートを作成して、レポート格納部149に保存される。
Further, as shown in FIG. 14, the calculated metric value is calculated by the
また、上記の履歴格納部147には、図16−1に示すようなメトリクス演算部151でメトリクス値を算出する際に用いた履歴データ、あるいは、図16−2に示すようなメトリクス演算部151でメトリクス値を算出した際に用いた部品毎の履歴データなどが保存される。また、上記の係数格納部152には、図17に示すような、日付、係数、種別などのデータが係数格納部152に格納される。
Further, the
第2の実施の形態にかかる自動性能評価システムは、上記のように構成されており、以下、図18のフローチャートを用いて動作を説明する。なお、図18以前の動作フローについては、第1の実施の形態で説明した図3−1のフローチャートである。この図3−1のフローチャートでは、ビルドサーバ12が構成管理サーバからソースを取得して実行プログラムを作成し、静的解析を行ってレポートを作成する。ビルドサーバ12は、性能測定サーバ14から計測プログラムを取得して、計測付実行プログラムを作成する。MFP13は、この計測付実行プログラムをインストールして実行し、出力された実行結果を保存する。性能測定サーバ14の評価部は、しきい値とMFP13から必要な実行結果とを取得するところまでが行われる。
The automatic performance evaluation system according to the second embodiment is configured as described above, and the operation will be described below using the flowchart of FIG. The operation flow before FIG. 18 is the flowchart of FIG. 3A described in the first embodiment. In the flowchart of FIG. 3A, the
これに続く図18のステップ211では、メトリクス演算部151が構成管理サーバ11の管理部111に対して仕様書の更新の有無を確認し、更新ない場合は、メトリクス演算部151が履歴格納部147から前回のメトリクス値を取得し(ステップS212)、更新ある場合は、メトリクス演算部151が更新された仕様書に基づいて新メトリクス値を算出する(ステップS213)。
In step 211 of FIG. 18 subsequent to this, the
ここで、評価部143がメトリクス値と実測値に基づいて、係数としきい値を決めていない初回の場合は(ステップS214)、評価部143が部品ごとにメトリクス値と実測値との関係を順次プロットしていき、全ての部品のプロット結果に基づいて、係数としきい値とを決定する(ステップS215)。
Here, in the first time when the
これを図19−1で見ると、横軸がメトリクス値であり、縦軸が実測値であって、部品ごとのメトリクス値と実測値との関係を黒点で表し、全ての部品に対応した黒点をプロットする。評価部143は、プロットされた全ての黒点のほぼ平均値を示す線分を係数とし、上下の特異点を除外して(図中に×印で示した)、係数から最大離れている点をしきい値としている。特異点の除外については、直ちに除外せずに除外フラグを付けておき、何度も特異点として認識される場合に初めて除外するようにしても良い。また、しきい値の決定方法についても、上記に限定されず、特異点を除外せずに係数から最大離れているものの中間点をしきい値としたり、各プロットした点の係数からの絶対値の標準偏差をしきい値としたりしても良い。
When this is seen in FIG. 19A, the horizontal axis is the metric value, the vertical axis is the actual measurement value, the relationship between the metric value and the actual measurement value for each part is represented by black dots, and the black dots corresponding to all parts. Plot. The
続くステップS216では、評価部143で決定された係数としきい値とを係数格納部152としきい値格納部146へ保存する。このしきい値格納部146には、図10に示すようなデータが格納されている。そして、評価部143は、今回の係数としきい値の決定に際して用いたデータを履歴格納部147に保存する(ステップS217)。この履歴格納部147には、図11−1および図11−2に示すようなデータが格納されている。
In the subsequent step S216, the coefficient and threshold value determined by the
さらに、性能測定サーバ14のレポート部144は、今回のレポートを作成してレポート格納部149に保存する。このレポート格納部149には、作成したレポート以外に、MFP13の実行結果格納部133の情報も保存される。レポートの作成例としては、図13−1〜図13−3に示すようなものがあり、図13−1に示すように、データ種別ごとの結果と値とを表形式にまとめたもの、図13−2に示すように、全体のRAMの使用量をグラフで表示したもの、図13−3に示すように、部品ごとのRAMの使用量をグラフで表示したものなどを一例としてあげることができる。
Further, the
再び、ステップS214に戻り、評価部143が係数としきい値を決めた後の2回目以降は、ステップS219に移行して、評価部143が係数格納部152から係数を取得する。そして、評価部143は、メトリクス値と取得した係数とを掛け合わせることで、目標値を算出し(ステップS220)、実測値と目標値との差分がしきい値以内かを判断する(ステップS221)。
The process returns to step S214 again, and after the second time after the
評価部143は、実測値と目標値との差分がしきい値以内であれば合格(Passed)とし(ステップS222)、しきい値を超えていれば失敗(Failed)という評価結果を下す(ステップS223)。このように、評価部143は、今回の評価結果と、評価に用いた各計測データおよびしきい値を履歴格納部147に保存する(ステップS224)。
The
これらの処理は、部品の数だけ繰り返され、失敗(Failed)と評価された部品の数が一定数より少量か否かを判断する(ステップS225)。失敗(Failed)と評価された部品の数が一定数未満の場合は、失敗(Failed)と評価された部品をピックアップレポートとしてレポート部144が作成し、これと履歴格納部147が保存する過去の履歴を参照して、その変化についてもレポートする(ステップS226)。
These processes are repeated by the number of parts, and it is determined whether or not the number of parts evaluated as failed is less than a certain number (step S225). If the number of parts evaluated as failed (Failed) is less than a certain number, the
また、失敗(Failed)と評価された部品の数が一定数以上ある場合は、履歴格納部147が保存する過去の履歴を参照し、失敗(Failed)と評価された部品が増加傾向にあるか否かを判断する。増加傾向が見られない場合は、上記したステップS226の処理が行われる。
If there are more than a certain number of parts evaluated as failed, whether the number of parts evaluated as failed is increasing with reference to the past history stored in the
一方、増加傾向にある場合は、履歴格納部147が保存する過去数回の履歴より、評価部143が再度係数を設定し直して、係数格納部152に保存し(ステップS228)、レポート部144でレポートを作成して(ステップS229)、レポート格納部149に保存する。どこまで過去の履歴を参照するかについては、参照履歴数格納部148に図12に示すような参照履歴数(ここでは、「2」)が保存されているため、これに基づいて必要な回数の履歴を参照するようにする。また、過去数回の履歴に基づいて、評価部143が再度係数を設定し直す場合については、図19−2に示すように、当初設定していた係数1に対して、過去数回の履歴を参照して、新たな係数2を設定し直すようにする。
On the other hand, if there is a tendency to increase, the
このように、第2の実施の形態によれば、ソフトウェアを構成するプログラムの構造を定量的に把握する尺度であるメトリクス値を部品の仕様書に基づいて算出し、そのメトリクス値と実測値との関係から係数としきい値を求め、メトリクス値と係数から目標値を求めて、実測値と目標値との差分としきい値を比較することによって、仕様書からソフトウェアの性能を見積もることが可能となる。 As described above, according to the second embodiment, a metric value, which is a scale for quantitatively grasping the structure of the program constituting the software, is calculated based on the specification of the part, and the metric value and the actual measurement value are calculated. It is possible to estimate the performance of the software from the specifications by calculating the coefficient and threshold value from the relationship, obtaining the target value from the metric value and coefficient, and comparing the difference between the measured value and the target value and the threshold value. Become.
また、第2の実施の形態によれば、評価結果の割合に応じて過去の履歴を参照することにより、部品の傾向が把握可能となり、その結果に応じたレポートを作成すると共に、係数の再設定を行うことができる。 In addition, according to the second embodiment, by referring to the past history according to the ratio of the evaluation result, it becomes possible to grasp the tendency of the parts, create a report according to the result, and regenerate the coefficient. Settings can be made.
(第3の実施の形態)
第3の実施の形態の特徴は、上記第2の実施の形態では、全ての部品の係数を1つと考えていたが、各部品同士で類似しているものや傾向の異なるものがある場合に、類似した性質を持った部品ごとにグループ分けして計測を行い、評価できるようにする点に特徴がある。
(Third embodiment)
The feature of the third embodiment is that in the second embodiment, the coefficients of all the parts are considered to be one. However, there are cases where each part is similar or has a different tendency. It is characterized in that measurement can be performed by grouping parts with similar properties so that they can be evaluated.
基本的な構成や動作については、上記第2の実施の形態にかかる構成図やフローチャートとほぼ同様であるため省略するが、第3の実施の形態に特徴的な構成および動作部分に絞って以下説明する。 The basic configuration and operation are omitted because they are almost the same as the configuration diagram and flowchart according to the second embodiment, but the following is limited to the configuration and operation part characteristic to the third embodiment. explain.
図3の実施の形態にかかる動作は、第2の実施の形態で説明した図18のフローチャートとほぼ同様であるが、ステップS215〜ステップS218において、グループごとに部品のメトリクス値と実測値との関係をプロットし、1つのグループ内の全ての部品のプロット結果に基づいて係数としきい値とを決定する。そして、これをグループ単位で繰り返す点が第2の実施の形態の動作と異なる点である。 The operation according to the embodiment of FIG. 3 is almost the same as the flowchart of FIG. 18 described in the second embodiment. However, in step S215 to step S218, the metric value and the actual measurement value of the part are grouped for each group. Plot relationships and determine coefficients and thresholds based on the plot results for all parts in a group. And the point which repeats this per group is a different point from the operation | movement of 2nd Embodiment.
図20−1は、ソフトウェア部品の中で類似した性質や機能毎にグループ分けが可能な場合のそれぞれの係数を示す図であり、図20−2は、図20−1における部品とグループとの関係を示す図であり、図21−1は、ベース部分が同じユーザインターフェースである部品同士をグループ化した場合の系統図であり、図21−2は、ベース部分が同じフィルタである部品同士をグループ化した場合の系統図である。 FIG. 20A is a diagram illustrating coefficients in a case where grouping is possible for each of similar properties and functions among software components. FIG. 20B is a diagram illustrating the relationship between the components and groups in FIG. FIG. 21A is a system diagram when parts whose base parts are the same user interface are grouped together, and FIG. 21B is a schematic diagram of parts whose base parts are the same filter. It is a systematic diagram at the time of grouping.
図14の構成図と図18のステップS215とを参照し、評価部143が部品ごとにメトリクス値と実測値の関係をプロットしていき、全ての部品の結果をプロットし終わった時点で、図20−1に示すように、性質の異なる2つの部品グループ(G1,G2)に分けることができ、グループ毎に係数を求めることができる。
Referring to the configuration diagram of FIG. 14 and step S215 of FIG. 18, when the
例えば、図20−2に示すように、部品A、B、Cについてそれぞれ図20−1にプロットしたとする。この場合、部品Aと部品Cは、互いに性質が類似しているため、同じグループG1に含まれる。また、部品Bは、部品A,Cと性質が異なることから、もう一方のグループG2に含まれる。 For example, as shown in FIG. 20-2, parts A, B, and C are plotted in FIG. In this case, since the parts A and C are similar in nature, they are included in the same group G1. In addition, the component B is included in the other group G2 because the property is different from the components A and C.
性質の類似した部品例としては、図21−1に示すように、同じユーザインターフェース(UI)のファームウェアで親子関係にある部品同士では、ベース部分と同じ機能を子も継承しているため、親と子にはある程度の相関がある可能性が高くなる。その場合は、性質が類似し、似たような係数となる。特に、ユーザインターフェースなどは、一般的なロジックアプリケーションと傾向が異なり、特異点となり易いことから、別のグループに分けた方が都合の良い場合が多い。 As an example of parts having similar properties, as shown in FIG. 21A, since parts having a parent-child relationship with the same user interface (UI) firmware inherit the same functions as the base part, There is a high possibility that there is some degree of correlation between and children. In that case, the properties are similar and the coefficients are similar. In particular, user interfaces and the like are different from general logic applications and tend to be singularities, so it is often convenient to divide them into different groups.
また、図21−2に示す別の部品例では、同じフィルタのファームウェアで親子関係にある部品同士の場合も同様であって、部品のベース部分が同じ場合は、機能を継承して性質が類似するため、似たような係数となる。 Also, in another part example shown in FIG. 21B, the same applies to parts having a parent-child relationship with firmware of the same filter. If the base part of the part is the same, the function is inherited and the properties are similar. Therefore, the coefficients are similar.
このように、第3の実施の形態によれば、部品を性質や機能に応じて複数のグループに分け、グループごとに係数としきい値を決めて、グループごとに性能評価が行われる。これにより、係数やしきい値の精度を上げることができるため、開発したソフトウェアをより詳細かつ正確に性能評価することが可能となる。 Thus, according to the third embodiment, parts are divided into a plurality of groups according to their properties and functions, coefficients and thresholds are determined for each group, and performance evaluation is performed for each group. As a result, the accuracy of the coefficients and thresholds can be increased, so that it becomes possible to evaluate the performance of the developed software in more detail and accurately.
10 自動性能評価システム
11 構成管理サーバ
111 管理部
112 ソース格納部
113 仕様書格納部
114 実行プログラム格納部
12 ビルドサーバ
121 ビルド部
122 静的解析部
123 レポート部
124 レポート格納部
125 計測付実行プログラム格納部
13 MFP(複合機)
131 インストール部
132 実行部
133 実行結果格納部
134 取引先情報格納部
14 性能測定サーバ
141 通知制御部
142 結果取得部
143 評価部
144 レポート部
145 計測プログラム格納部
146 しきい値格納部
147 履歴格納部
148 参照履歴数格納部
149 レポート格納部
151 メトリクス演算部
152 係数格納部
17 ネットワーク
18 シリアルケーブル
DESCRIPTION OF
131
Claims (11)
ソフトウェア部品、ソフトウェア部品の仕様書、およびソフトウェア部品を使って作成された実行プログラムを格納し、管理する構成管理装置と、
前記構成管理装置が格納するソフトウェア部品を取得して実行プログラムを作成し、その解析を行って、プログラムの作成と解析結果とをレポート化し、作成した実行プログラムの性能計測に必要なプログラムを埋め込んで計測付実行プログラムを作成するビルド装置と、
前記ビルド装置から計測付実行プログラムの作成完了通知を受領して、インストール開始の通知を出力する性能測定装置と、
前記性能測定装置からインストール開始の通知を受領すると、前記ビルド装置から前記計測付実行プログラムを取得してインストールを行う実機と、
を備え、前記実機は、インストールした前記計測付実行プログラムを実行し、前記性能測定装置はその実行結果と所定のしきい値とを比較した結果に基づいて、開発したアプリケーションソフトウェアの性能評価を行うことを特徴とするソフトウェアの自動性能評価システム。 An automatic software performance evaluation system for evaluating the performance of developed application software,
A configuration management device that stores and manages software components, software component specifications, and execution programs created using software components;
Obtain the software parts stored in the configuration management device, create an execution program, analyze it, report the program creation and analysis results, and embed the program necessary for performance measurement of the created execution program A build device for creating an execution program with measurement;
A performance measurement device that receives a notification of completion of creation of an execution program with measurement from the build device and outputs a notification of installation start;
Upon receiving a notification of installation start from the performance measurement device, an actual machine that acquires the execution program with measurement from the build device and installs it,
The actual machine executes the installed execution program with measurement, and the performance measurement device evaluates the performance of the developed application software based on a result of comparing the execution result with a predetermined threshold value. Software automatic performance evaluation system.
前記性能測定装置は、前記ビルド装置で作成された計測付実行プログラムを前記実機にインストールし、その実行結果に基づいて開発したアプリケーションソフトウェアの性能を自動評価することを特徴とする請求項1に記載のソフトウェアの自動性能評価システム。 The build device and the performance measuring device are connected to the actual machine,
The performance measuring apparatus installs an execution program with measurement created by the build apparatus in the actual machine, and automatically evaluates the performance of application software developed based on the execution result. Software automatic performance evaluation system.
装置内で作成したプログラムの静的解析を行う静的解析手段と、
前記静的解析手段による解析結果をレポート化する第1のレポート作成手段と、
を備えたことを特徴とする請求項1または2に記載のソフトウェアの自動性能評価システム。 The build device
Static analysis means for static analysis of programs created in the device,
First report creation means for reporting the analysis result by the static analysis means;
The automatic performance evaluation system for software according to claim 1 or 2, further comprising:
前記性能評価装置は、前記実行結果格納手段からの実行結果に基づいて動的解析を行うことを特徴とする請求項1または2に記載のソフトウェアの自動性能評価システム。 The actual machine includes an execution result storage means for storing the execution program with measurement created by the build device and storing an execution result of executing the program.
The automatic performance evaluation system for software according to claim 1, wherein the performance evaluation device performs dynamic analysis based on an execution result from the execution result storage unit.
以前に行われた評価結果を格納する履歴格納手段を備え、
次回以降の評価時に、前記履歴格納手段に格納されている履歴を用いて解析を行うことを特徴とする請求項1〜4のいずれか一つに記載のソフトウェアの自動性能評価システム。 The performance measuring device is
It has a history storage means for storing the results of previous evaluations,
The automatic performance evaluation system for software according to any one of claims 1 to 4, wherein an analysis is performed using a history stored in the history storage means at the time of subsequent evaluation.
前記計測付実行プログラムを前記実機で実行させた実行結果の評価をレポート化する第2のレポート作成手段と、
前記第2のレポート作成手段で作成されたレポートを格納するレポート格納手段と、
を備え、
前記第2のレポート作成手段は、前記実機で前記計測付実行プログラムを実行して出力された実行結果としきい値との比較結果に加え、前記履歴格納手段に格納された履歴と、前記レポート格納手段に格納されたレポートに基づいて、以前の実行結果の変化やしきい値違反のあったソフトウェア部品を列挙したレポートを作成することを特徴とする請求項1〜5のいずれか一つに記載のソフトウェアの自動性能評価システム。 The performance measuring device is
A second report creating means for reporting an evaluation of an execution result obtained by executing the execution program with measurement on the actual machine;
Report storage means for storing the report created by the second report creation means;
With
The second report creation means includes a history stored in the history storage means in addition to a comparison result between the execution result output by executing the execution program with measurement on the actual machine and a threshold value, and the report storage. 6. The report according to claim 1, wherein a report listing software components having a change in a previous execution result or a threshold violation is created based on a report stored in the means. Software automatic performance evaluation system.
前記実機は、前記ビルド装置から前記ネットワークを介して前記計測付実行プログラムを取得して、インストールすることを特徴とする請求項1〜6のいずれか一つに記載のソフトウェアの自動性能評価システム。 The actual machine and the build device are network-connected,
7. The software automatic performance evaluation system according to claim 1, wherein the actual machine acquires and installs the execution program with measurement from the build apparatus via the network.
前記構成管理装置が格納するソフトウェア部品の仕様書に基づいて各計測項目のメトリクス値を算出するメトリクス演算手段と、
前記メトリクス演算手段により算出されたメトリクス値と実測値との関係を示す係数を格納する係数格納手段と、
をさらに備えていることを特徴とする請求項1〜7のいずれか一つに記載のソフトウェアの自動性能評価システム。 The performance measuring device is
Metric calculation means for calculating a metric value of each measurement item based on a specification of software parts stored in the configuration management device;
Coefficient storage means for storing a coefficient indicating the relationship between the metric value calculated by the metrics calculation means and the actual measurement value;
The software automatic performance evaluation system according to claim 1, further comprising:
前記ソフトウェア部品の仕様書を用いて、ファンクションポイント法によりROMのメトリクス値を算出することを特徴とする請求項8に記載のソフトウェアの自動性能評価システム。 The metrics calculation means includes
9. The software automatic performance evaluation system according to claim 8, wherein a metric value of the ROM is calculated by a function point method using the specification of the software component.
前記メトリクス値と前記係数格納手段の係数から目標値を算出し、前記計測付実行プログラムを実行して出力された実行結果と前記目標値とを比較して、前記実行結果が前記目標値を超えた場合に、前記履歴格納手段の履歴を参照して評価を行う評価手段を備え、
前記評価手段は、前記目標値と前記実行結果とを継続して比較することにより、前記係数としきい値の精度を向上させることを特徴とする請求項1〜9のいずれか一つに記載のソフトウェアの自動性能評価システム。 The performance measuring device is
A target value is calculated from the metrics value and the coefficient of the coefficient storage means, and the execution result output by executing the execution program with measurement is compared with the target value, and the execution result exceeds the target value. An evaluation means for performing an evaluation with reference to the history of the history storage means,
The said evaluation means improves the precision of the said coefficient and a threshold value by continuously comparing the said target value and the said execution result, The Claim 1 characterized by the above-mentioned. Software automatic performance evaluation system.
類似した性質や類似した機能を持った前記ソフトウェア部品をグループ分けすることにより、前記係数としきい値の精度を向上させることを特徴とする請求項10に記載のソフトウェアの自動性能評価システム。 The evaluation means of the performance measuring device is:
11. The software automatic performance evaluation system according to claim 10, wherein the accuracy of the coefficient and the threshold is improved by grouping the software parts having similar properties and similar functions.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008227296A JP2010061461A (en) | 2008-09-04 | 2008-09-04 | System for automatic evaluation of software performance |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008227296A JP2010061461A (en) | 2008-09-04 | 2008-09-04 | System for automatic evaluation of software performance |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010061461A true JP2010061461A (en) | 2010-03-18 |
Family
ID=42188182
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008227296A Pending JP2010061461A (en) | 2008-09-04 | 2008-09-04 | System for automatic evaluation of software performance |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010061461A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012118777A (en) * | 2010-12-01 | 2012-06-21 | Ricoh Co Ltd | Information processing system, information processing apparatus, method, program and recording medium |
| CN102902621A (en) * | 2011-07-28 | 2013-01-30 | 塔塔咨询服务有限公司 | Application performance measurement and reporting |
| WO2014065206A1 (en) * | 2012-10-25 | 2014-05-01 | 株式会社Ubic | Source code management system, method, and program |
| JP2016143146A (en) * | 2015-01-30 | 2016-08-08 | 日本電信電話株式会社 | Auto resource logging system, auto resource logging method and program |
| JP2023544493A (en) * | 2020-09-25 | 2023-10-24 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Detecting performance degradation in remotely deployed applications |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000089976A (en) * | 1998-09-09 | 2000-03-31 | Nec Corp | System and method for debugging remote program and recording medium stored with remote program debugging program |
| JP2000339147A (en) * | 1999-05-31 | 2000-12-08 | Mitsubishi Electric Corp | Software development cost estimation support system and recording medium |
| EP1179776A1 (en) * | 2000-08-11 | 2002-02-13 | Sony Service Centre (Europe) N.V. | Test automation framework |
| JP2002082926A (en) * | 2000-09-06 | 2002-03-22 | Nippon Telegr & Teleph Corp <Ntt> | Distributed application test and operation management system |
| JP2004258728A (en) * | 2003-02-24 | 2004-09-16 | Nippon Telegr & Teleph Corp <Ntt> | Program execution time measurement method |
| JP2005275949A (en) * | 2004-03-25 | 2005-10-06 | Nec Electronics Corp | Switching apparatus for debugging, and debugging method |
| WO2007070414A2 (en) * | 2005-12-12 | 2007-06-21 | Archivas, Inc. | Automated software testing framework |
| WO2007145745A1 (en) * | 2006-06-13 | 2007-12-21 | Microsoft Corporation | Iterative static and dynamic software analysis |
-
2008
- 2008-09-04 JP JP2008227296A patent/JP2010061461A/en active Pending
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000089976A (en) * | 1998-09-09 | 2000-03-31 | Nec Corp | System and method for debugging remote program and recording medium stored with remote program debugging program |
| JP2000339147A (en) * | 1999-05-31 | 2000-12-08 | Mitsubishi Electric Corp | Software development cost estimation support system and recording medium |
| EP1179776A1 (en) * | 2000-08-11 | 2002-02-13 | Sony Service Centre (Europe) N.V. | Test automation framework |
| JP2002082926A (en) * | 2000-09-06 | 2002-03-22 | Nippon Telegr & Teleph Corp <Ntt> | Distributed application test and operation management system |
| JP2004258728A (en) * | 2003-02-24 | 2004-09-16 | Nippon Telegr & Teleph Corp <Ntt> | Program execution time measurement method |
| JP2005275949A (en) * | 2004-03-25 | 2005-10-06 | Nec Electronics Corp | Switching apparatus for debugging, and debugging method |
| WO2007070414A2 (en) * | 2005-12-12 | 2007-06-21 | Archivas, Inc. | Automated software testing framework |
| WO2007145745A1 (en) * | 2006-06-13 | 2007-12-21 | Microsoft Corporation | Iterative static and dynamic software analysis |
| JP2009540464A (en) * | 2006-06-13 | 2009-11-19 | マイクロソフト コーポレーション | Iterative static and dynamic software analysis |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2012118777A (en) * | 2010-12-01 | 2012-06-21 | Ricoh Co Ltd | Information processing system, information processing apparatus, method, program and recording medium |
| CN102902621A (en) * | 2011-07-28 | 2013-01-30 | 塔塔咨询服务有限公司 | Application performance measurement and reporting |
| CN102902621B (en) * | 2011-07-28 | 2017-04-12 | 塔塔咨询服务有限公司 | Application performance measurement and reporting |
| WO2014065206A1 (en) * | 2012-10-25 | 2014-05-01 | 株式会社Ubic | Source code management system, method, and program |
| JP2016143146A (en) * | 2015-01-30 | 2016-08-08 | 日本電信電話株式会社 | Auto resource logging system, auto resource logging method and program |
| JP2023544493A (en) * | 2020-09-25 | 2023-10-24 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Detecting performance degradation in remotely deployed applications |
| JP7721236B2 (en) | 2020-09-25 | 2025-08-12 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Detecting Performance Degradation in Remotely Deployed Applications |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8381184B2 (en) | Dynamic test coverage | |
| US7676703B2 (en) | Failure diagnosis system, image forming apparatus, computer readable medium and data signal | |
| US7903844B2 (en) | Failure analysis system, failure analysis method, and program product for failure analysis | |
| CN1836208A (en) | Model-based management of computer systems and distributed applications | |
| JP2010061461A (en) | System for automatic evaluation of software performance | |
| US20090313335A1 (en) | Managing Software Component Versions within a Service Oriented Architecture | |
| US10621069B2 (en) | Information processing apparatus and non-transitory computer readable medium | |
| KR101976397B1 (en) | Method and Apparatus for service level agreement management | |
| US8233669B2 (en) | System and method to detect changes in image quality | |
| JP2019507454A (en) | How to identify the root cause of problems observed while running an application | |
| US20140089531A1 (en) | Generating recommendations for peripheral devices compatible with a processor and operating system of a computer | |
| JP6237138B2 (en) | Information processing apparatus, image forming apparatus, and program | |
| JP6500663B2 (en) | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING APPARATUS, PROGRAM, AND METHOD FOR EMBEDDING FAULT PREDICTION LOGIC | |
| CN119829469B (en) | Firmware testing method, electronic device, storage medium and program product | |
| JP6163707B2 (en) | Embedded device, program creation device, program | |
| CN100351808C (en) | E-business operations measurements reporting | |
| Brown et al. | Reducing the cost of it operations-is automation always the answer? | |
| US20070282644A1 (en) | System and method for calibrating and extrapolating complexity metrics of information technology management | |
| CN113326193A (en) | Applet testing method and device | |
| JP6586788B2 (en) | Information processing apparatus, information processing method, and program | |
| KR20220037616A (en) | Providing Solutions on an Error occurred | |
| WO2008020468A1 (en) | Program analyzing method and device | |
| AU2005242149A1 (en) | Baseline architecture monitor application for distributed systems | |
| CN113032287B (en) | Distributed multi-component performance testing method and system | |
| US10101701B1 (en) | Paper path sensing of non-reflective paper with reflective sensors |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110613 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120810 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121030 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130402 |