[go: up one dir, main page]

JP2019101581A - ソフトウェア品質判定装置、ソフトウェア品質判定方法、及びソフトウェア品質判定プログラム - Google Patents

ソフトウェア品質判定装置、ソフトウェア品質判定方法、及びソフトウェア品質判定プログラム Download PDF

Info

Publication number
JP2019101581A
JP2019101581A JP2017229603A JP2017229603A JP2019101581A JP 2019101581 A JP2019101581 A JP 2019101581A JP 2017229603 A JP2017229603 A JP 2017229603A JP 2017229603 A JP2017229603 A JP 2017229603A JP 2019101581 A JP2019101581 A JP 2019101581A
Authority
JP
Japan
Prior art keywords
test
bug
viewpoint
convergence
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017229603A
Other languages
English (en)
Other versions
JP6897524B2 (ja
Inventor
英祐 青木
Hidesuke Aoki
英祐 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2017229603A priority Critical patent/JP6897524B2/ja
Priority to US16/156,083 priority patent/US11068379B2/en
Priority to EP18200682.5A priority patent/EP3493065A1/en
Priority to CN201811383764.8A priority patent/CN110032504A/zh
Publication of JP2019101581A publication Critical patent/JP2019101581A/ja
Application granted granted Critical
Publication of JP6897524B2 publication Critical patent/JP6897524B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Prevention of errors by analysis, debugging or testing of software
    • G06F11/362Debugging of software
    • G06F11/3648Debugging of software using additional hardware
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Prevention of errors by analysis, debugging or testing of software
    • G06F11/3604Analysis of software for verifying properties of programs
    • G06F11/3616Analysis of software for verifying properties of programs using software metrics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Prevention of errors by analysis, debugging or testing of software
    • G06F11/3668Testing of software
    • G06F11/3672Test management
    • G06F11/3688Test management for test execution, e.g. scheduling of test suites
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/50Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
    • G06F21/57Certifying or maintaining trusted computer platforms, e.g. secure boots or power-downs, version controls, system software checks, secure updates or assessing vulnerabilities
    • G06F21/577Assessing vulnerabilities and evaluating computer system security

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computer Security & Cryptography (AREA)
  • Computing Systems (AREA)
  • Stored Programmes (AREA)
  • Debugging And Monitoring (AREA)

Abstract

【課題】過去のバグ発生実績データを用いなくても、バグの収束判定ができ、かつ、バグの収束判定の判定精度の低下を抑制できるソフトウェア品質判定装置を提供すること。【解決手段】ソフトウェア品質判定装置は、システムをテストする際の観点であるテスト観点毎に、該テスト観点のテストで発生したバグの検出率を算出するバグ検出率算出部と、テスト観点毎に、該テスト観点のテストの実施量が、該テスト観点の実施量の基準となる実施基準量に到達した後に、該テスト観点の算出された検出率が、該テスト観点の検出率の基準となる基準値以下であるか否かに応じて、該テスト観点のバグの収束を判定するバグ収束判定部と、を備える。【選択図】図1

Description

本発明は、ソフトウェア品質判定装置、ソフトウェア品質判定方法、及びソフトウェア品質判定プログラムに関する。
近年、システムに発生するバグの収束を判定する技術が提案されている。
例えば、特許文献1には、過去のバグ発生実績データからシステムに将来発生するバグ件数を予測し、予測したバグ件数とシステムに要求される品質を示す品質指標とに基づいて、バグが収束する収束時期を予測する技術が開示されている。
また、非特許文献1には、テスト期間の最終段階で、バグ検出率の増加率がゼロに近づくことを以って、バグが収束していると判定する技術が開示されている。
特開2014−174895号公報
独立行政法人情報処理推進機構 技術本部 ソフトウェア・エンジニアリング・センター編著、「改訂版 組込みソフトウェア開発向け 品質作り込みガイド」、2012、第102−103頁
しかし、特許文献1に開示された技術は、バグ発生実績データが必要であるため、過去にバグの収束を判定したシステムにしか利用することができないという問題がある。
他方、非特許文献1に開示された技術は、バグ発生実績データが不要であるため、過去にバグの収束を判定していないシステムにも利用でき、特許文献1の問題は生じない。
しかし、非特許文献1に開示された技術は、バグが収束していると判定した時点で、システムをテストする際の観点であるテスト観点の中で、実際にバグが発生しているテスト観点が未テストの状態である可能性がある。そのため、バグが収束していると判定した直後に、バグが発生し、バグ検出率が増加することにより、バグの収束判定の判定精度が低下してしまうという不測の事態が生じるおそれがある。
本発明は、上記を鑑みなされたものであって、過去のバグ発生実績データを用いなくても、バグの収束判定ができ、かつ、バグの収束判定の判定精度の不測の低下を抑制できるソフトウェア品質判定装置、ソフトウェア品質判定方法、及びソフトウェア品質判定プログラムを提供するものである。
本発明の一態様に係るソフトウェア品質判定装置は、
システムに発生するバグの収束を判定するソフトウェア品質判定装置であって、
前記システムをテストする際の観点であるテスト観点毎に、該テスト観点のテストで発生したバグの検出率を算出するバグ検出率算出部と、
前記テスト観点毎に、該テスト観点のテストの実施量が、該テスト観点の前記実施量の基準となる実施基準量に到達した後に、該テスト観点の前記算出された前記検出率が、該テスト観点の前記検出率の基準となる基準値以下であるか否かに応じて、該テスト観点のバグの収束を判定するバグ収束判定部と、を備える。
本発明の一態様に係るソフトウェア品質判定方法は、
システムに発生するバグの収束を判定するソフトウェア品質判定装置によるソフトウェア品質判定方法であって、
前記システムをテストする際の観点であるテスト観点毎に、該テスト観点のテストで発生したバグの検出率を算出するステップと、
前記テスト観点毎に、該テスト観点のテストの実施量が、該テスト観点の前記実施量の基準となる実施基準量に到達した後に、該テスト観点の前記算出された前記検出率が、該テスト観点の前記検出率の基準となる基準値以下であるか否かに応じて、該テスト観点のバグの収束を判定するステップと、を含む。
本発明の一態様に係るソフトウェア品質判定プログラムは、
システムに発生するバグの収束を判定するコンピュータに、
前記システムをテストする際の観点であるテスト観点毎に、該テスト観点のテストで発生したバグの検出率を算出する手順と、
前記テスト観点毎に、該テスト観点のテストの実施量が、該テスト観点の前記実施量の基準となる実施基準量に到達した後に、該テスト観点の前記算出された前記検出率が、該テスト観点の前記検出率の基準となる基準値以下であるか否かに応じて、該テスト観点のバグの収束を判定する手順と、を実行させるためのプログラムである。
上述した本発明の態様によれば、過去のバグ発生実績データを用いなくても、バグの収束判定ができ、かつ、バグの収束判定の判定精度の不測の低下を抑制できるソフトウェア品質判定装置、ソフトウェア品質判定方法、及びソフトウェア品質判定プログラムを提供することができる。
実施の形態1に係るソフトウェア品質判定装置のブロック構成の一例を示すブロック図である。 実施の形態1に係るテスト観点の一例を示す図である。 実施の形態1に係るテスト観点の一例を示す図である。 実施の形態1に係るテスト観点の一例を示す図である。 実施の形態1に係るソフトウェア品質判定装置によるソフトウェア品質判定方法の一例を示すフロー図である。 図5のステップS12のバグ収束判定処理の一例を示すフロー図である。 実施の形態1に係るソフトウェア品質判定装置により、テスト観点のテスト実施量を判定した結果の一例を示すグラフである。 実施の形態1に係るソフトウェア品質判定装置により、テスト観点のテスト実施量を判定した結果の一例を示すグラフである。 実施の形態1に係るソフトウェア品質判定装置により、テスト観点のテスト実施量を判定した結果の一例を示すグラフである。 実施の形態1に係るソフトウェア品質判定装置により、テスト観点のテスト実施量を判定した結果の一例を示すグラフである。 実施の形態1に係るソフトウェア品質判定装置により、テスト観点のバグの収束を判定した結果の一例を示すグラフである。 実施の形態1に係るソフトウェア品質判定装置により、テスト観点のバグの収束を判定した結果の一例を示すグラフである。 テスト観点のバグ曲線の一例を示すグラフである。 テスト観点のバグ曲線の一例を示すグラフである。 テスト観点のバグ曲線の一例を示すグラフである。 テスト観点のバグ曲線の一例を示すグラフである。 テスト観点のバグ曲線の一例を示すグラフである。 テスト観点のバグ曲線の一例を示すグラフである。 テスト観点のバグ曲線の一例を示すグラフである。 テスト観点のバグ曲線の一例を示すグラフである。 図15〜図20のバグ曲線の判定結果をまとめて示す図である。 テスト観点毎のテストの実施方法の一例を示す図である。 実施の形態2に係るソフトウェア品質判定装置のブロック構成の一例を示すブロック図である。 実施の形態2に係るテスト観点毎の単位開発規模当たりのテスト実施基準量の一例を示す図である。 実施の形態2に係るテスト観点毎の単位開発規模当たりのテスト実施基準量の一例を示す図である。 実施の形態2に係るソフトウェア品質判定装置によるソフトウェア品質判定方法の一例を示すフロー図である。
以下、図面を参照して本発明の実施の形態について説明する。なお、以下で説明する各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。また、以下の実施の形態で示す具体的な数値などは、発明の理解を容易とするための例示にすぎず、これに限定されるものではない。
<実施の形態1>
<実施の形態1に係るソフトウェア品質判定装置の構成>
まず、本実施の形態1に係るソフトウェア品質判定装置1の構成について説明する。
図1は、本実施の形態1に係るソフトウェア品質判定装置1のブロック構成の一例を示すブロック図である。本実施の形態1に係るソフトウェア品質判定装置1は、システム(テスト対象)に発生するバグの収束を判定するものである。
図1に示されるように、本実施の形態1に係るソフトウェア品質判定装置1は、入力部11と、データベース12と、バグ検出率算出部13と、バグ収束判定部14と、を備えている。
入力部11は、例えば、ユーザが任意のデータ(後述のバグ検出数やテスト実施量など)をソフトウェア品質判定装置1に入力し設定するための入力装置である。入力部11は、例えば、キーボート、マウス、タッチスクリーン、無線携帯端末(スマートフォンやタブレットなど)などの任意の入力装置である。
データベース12は、ユーザが入力部11に入力し設定したデータなどを保持する。
例えば、データベース12は、システムをテストする際の観点であるテスト観点毎に、そのテスト観点のテストで発生したバグの検出数(以下、バグ検出数)を保持する。テスト観点とは、例えば、プログラムが正常に動作するか否かを確認するための、テスト項目、着眼点、発想方法といった、テストを行う上での「切り口」であり、テストを実施するときの操作や手順の着眼点である。バグは、このような着眼点を変更することによって、検出できることが知られている。
また、データベース12は、テスト観点毎に、そのテスト観点のテストの実施量(以下、テスト実施量)を保持する。テスト実施量とは、例えば、テストの工数(以下、テスト工数)や件数(以下、テスト件数)である。
また、データベース12は、テスト観点毎に、そのテスト観点のテストで発生したバグの検出率(以下、バグ検出率)の基準となる基準値を保持する。バグ検出率は、バグ検出数をテスト実施量で除算したものである。
また、データベース12は、テスト観点毎に、そのテスト観点のテスト実施量の基準となる実施基準量(以下、テスト実施基準量)を保持する。テスト実施基準量は、バグ収束判定部14が、バグの収束判定を行うトリガとなる。すなわち、バグ収束判定部14は、テスト観点毎に、そのテスト観点のテスト実施量が、そのテスト観点のテスト実施基準量に到達した後に、バグの収束判定を行う。
また、データベース12は、テスト観点毎に、そのテスト観点の追加テストの実施量の基準となる実施基準量(以下、追加テスト実施基準量)を保持する。追加テストは、テスト観点毎に、そのテスト観点のテスト実施量がそのテスト観点のテスト実施基準量に到達した後に実施されるテストである。
バグ検出率算出部13は、テスト観点毎に、そのテスト観点のバグ検出率を算出する。具体的には、バグ検出率算出部13は、データベース12に保持されているバグ検出数を、データベース12に保持されているテスト実施量で除算して、バグ検出率を算出する。
バグ収束判定部14は、テスト観点毎に、そのテスト観点のテスト実施量が、そのテスト観点のテスト実施基準量に到達した後に、そのテスト観点のバグ検出率が、そのテスト観点の基準値以下であるかに応じて、そのテスト観点のバグの収束判定を行う。具体的には、バグ収束判定部14は、テスト観点毎に、以下の動作を行う。すなわち、バグ収束判定部14は、データベース12に保持されているテスト実施量が、データベース12に保持されているテスト実施基準量に到達したか否かを判定する。テスト実施量がテスト実施基準量に到達していれば、バグ収束判定部14は、バグ検出率算出部13で算出されたバグ検出率が、データベース12に保持されているバグ検出率の基準値以下であるかに応じて、バグの収束判定を行う。
テスト実施量がテスト実施基準量に到達した後のバグの収束を判定する方法は、種々の方法で行うことが可能である。例えば、以下の第1及び第2の方法が考えられる。
第1の方法は、テスト実施量がテスト実施基準量に到達した後に、追加テスト実施基準量分の追加テストの実施を終了した時点でバグ検出率が基準値以下であれば、バグが収束していると判定する方法である。
また、第2の方法は、テスト実施量がテスト実施基準量に到達した後に、追加テスト実施基準量分の追加テストを実施している期間、バグ検出率が基準値以下である状態が継続していれば、バグが収束していると判定する方法である。
なお、バグ収束判定部14によるバグの収束判定の判定結果は、必要に応じて、不図示の表示装置に表示し、ユーザに提示することができる。表示装置は、例えば、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイなどである。
<実施の形態1に係るテスト観点>
続いて、本実施の形態1に係るテスト観点の具体例について説明する。
図2に示されるように、テスト観点は、ISO(International Organization for Standardization)9126の品質特性としても良い。図2の例では、テスト観点は、「機能性」、「効率性」、「信頼性」、「使用性」、「保守性」、「可搬性」となっている。
また、図3に示されるように、テスト観点は、次世代ソフトウェア品質評価規格群ISO/IEC(International Electrotechnical Commission)25000シリーズ(SQuaRE:Software product Quality Requirements and Evaluation)の品質特性としても良い。図3の例では、テスト観点は、「機能適合性」、「性能適合性」、「互換性」、「使用性」、「信頼性」、「セキュリティ」、「保守性」、「移植性」となっている。
また、図4に示されるように、テスト観点は、ODC(Orthogonal Defect Classification)分析(ODC分析は、例えば、以下の非特許文献2を参照)でバグを発見するトリガーとなる発見トリガーとしても良い。図4の例では、テスト観点は、結合テストの場合、「基本操作」、「組み合わせ」、「順序・繰り返し」、「相互作用」となり、システムテストの場合、「負荷・ストレス」、「回復・例外」、「起動・再起動」、「構成」、「シナリオ」となっている。システムテストとは、ソフトウェア全体のテストであり、統合テスト又は総合テストとも呼ばれる。結合テストとは、一部の構成要素がない状態での全てのテストである。
非特許文献2:山崎隆 オリンパスソフトウェアテクノロジー株式会社、「ODC分析による欠陥除去と品質成熟度の可視化」、Embedded Technology West 2014 IPAセミナー、2014年7月29日
<実施の形態1に係るソフトウェア品質判定方法>
続いて、本実施の形態1に係るソフトウェア品質判定装置1によるソフトウェア品質判定方法について説明する。
図5は、本実施の形態1に係るソフトウェア品質判定装置1によるソフトウェア品質判定方法の一例を示すフロー図である。
図5に示されるように、データベース12は、ユーザが入力部11に入力し設定した以下のデータを取得し保持する(ステップS11)。
・テスト観点毎のバグ検出数
・テスト観点毎のテスト実施量
・テスト観点毎のバグ検出率の基準値
・テスト観点毎のテスト実施基準量
・テスト観点毎の追加テスト実施基準量
以降、バグ検出率算出部13及びバグ収束判定部14により、テスト観点毎に、そのテスト観点でのバグの収束を判定するためのバグ収束判定処理が行われる(ステップS12)。
続いて、図5のステップS12のバグ収束判定処理について説明する。
図6は、図5のステップS12のバグ収束判定処理の一例を示すフロー図である。ここでは、テスト実施量がテスト実施基準量に到達した後のバグ収束を判定する方法として、上記の第1の方法を用いるものとする。なお、図6は、テスト観点Aのバグ収束判定処理のフローの例を示している。
図6に示されるように、バグ検出率算出部13は、データベース12に保持されているテスト観点Aのバグ検出数を、データベース12に保持されているテスト観点Aのテスト実施量で除算して、テスト観点Aのバグ検出率を算出する(ステップS21)。
バグ収束判定部14は、バグ検出率算出部13で算出されたテスト観点Aのバグ検出率が、データベース12に保持されているテスト観点Aのバグ検出率の基準値以下であるか否かを判定する(ステップS22)。バグ検出率が基準値を上回っていれば(ステップS22のNo)、ステップS21の処理に戻る。
バグ検出率が基準値以下であれば(ステップS22のYes)、続いて、バグ収束判定部14は、データベース12に保持されているテスト観点Aのテスト実施量が、データベース12に保持されているテスト観点Aのテスト実施基準量に到達したか否かを判定する(ステップS23)。テスト実施量がテスト実施基準量に到達していなければ(ステップS23のNo)、ステップS23の処理に戻る。
テスト実施量がテスト実施基準量に到達していれば(ステップS23のYes)、続いて、データベース12に保持されているテスト観点Aの追加テスト実施基準量分の追加テストが実施される。バグ収束判定部14は、テスト観点Aの追加テスト実施基準量分の追加テストの実施が終了した時点で、バグ検出率算出部13で算出されたテスト観点Aのバグ検出率が、データベース12に保持されているテスト観点Aのバグ検出率の基準値以下であるか否かを判定する(ステップS24)。バグ検出率が基準値以下であれば(ステップS24のYes)、バグ収束判定部14は、テスト観点Aのバグは収束していると判定し(ステップS25)、処理を終了する。
バグ検出率が基準値を上回っていれば(ステップS24のNo)、ステップS23の処理に戻る。このように、テスト実施量がテスト実施基準量に到達した後は、バグ検出率が基準値以下になるまで、追加テスト実施基準量分の追加テストが繰り返し実施され、追加テストの実施が終了する度に、バグ収束判定部14は、その時点のバグ検出率が基準値以下であるか否かに応じて、テスト観点Aのバグが収束しているか否かを判定することになる。
以上がテスト観点Aのバグ収束判定処理のフローとなる。テスト観点Aの他にテスト観点B,C,Dが存在する場合は、テスト観点B,C,Dについても図6と同様のバグ収束判定処理のフローを実施する。
そして、バグ収束判定部14は、テスト観点A,B,C,Dの全ておいて、バグが収束していると判定した場合は、システムのバグが収束していると判定する。
ここで、本実施の形態1に係るソフトウェア品質判定装置1により、テスト観点毎のバグ収束判定を行った結果について具体例を挙げて説明する。
図7〜図10は、本実施の形態1に係るソフトウェア品質判定装置1により、テスト観点A,B,C,D毎のテスト実施量を判定した結果の一例を示すグラフである。図11及び図12は、本実施の形態1に係るソフトウェア品質判定装置1により、テスト観点B,D毎のバグ収束を判定した結果の一例を示すグラフである。ここでは、テスト実施量がテスト実施基準量に到達した後のバグの収束を判定する方法として、上記の第1の方法を用いるものとする。なお、図11及び図12は、テスト実施量がテスト実施基準量に到達した後の波形を示しており、図11及び図12の横軸の原点は、テスト実施基準量に相当する。
図7〜図10に示されるように、テスト観点B,Dについては、テスト実施量がテスト実施基準量に到達している。そのため、バグ収束判定部14は、テスト観点B,Dについては、テスト実施基準量に到達した後の追加テストにおいて、バグの収束を判定する。一方、テスト観点A,Cについては、テスト実施量がテスト実施基準量に到達していない。そのため、バグ収束判定部14は、バグの収束を判定しない。
図11及び図12に示されるように、テスト観点B,Dについては、テスト実施量がテスト実施基準量に到達した後の追加テストにおいて、バグの収束を判定する。このうち、テスト観点Bについては、追加テスト実施基準量分の追加テストの実施が終了した時点で、バグ検出率が基準値以下になっている。そのため、バグ収束判定部14は、テスト観点Bのバグは収束していると判定する。一方、テスト観点Dについては、追加テスト実施基準量分の追加テストの実施が終了した時点で、バグ検出率が基準値を上回っている。そのため、バグ収束判定部14は、テスト観点Dのバグは収束していないと判定する。
<バグ曲線の応用>
ユーザは、本実施の形態1に係るソフトウェア品質判定方法を、従来のバグ曲線(信頼度成長曲線とも呼ばれる)に応用して、テストを実施していないテスト観点があるか、すなわち、テスト漏れ(テスト抜けとも呼ばれる)がないかを確認することができる。この場合の手順を以下に示す。ここでは、テスト実施量がテスト実施基準量に到達した後のバグの収束を判定する方法として、上記の第2の方法を用いるものとする。
ステップ1:テスト観点毎に、横軸を「テスト実施量」とし、縦軸を「バグ検出率」としたグラフを作成する。
ステップ2:テストの実施を進めていくうちに、「バグ検出率」が「バグ検出率の基準値」以下になるかどうかを監視する。
ステップ3:「バグ検出率」が「バグ検出率の基準値」以下になったら、「テスト実施量」が「テスト実施基準量」に到達していれば、「追加テスト実施基準量」分の追加テストを実施する。そして、追加テストを実施している期間、「バグ検出率」が「バグ検出率の基準値」以下である状態が継続するかを監視する。
ステップ4:その結果、「バグ検出率」が「バグ検出率の基準値」以下である状態が継続していれば、バグは収束しており、品質はOKと判定する。一方、「バグ検出率」が「バグ検出率の基準値」以下である状態が継続していなければ、バグは収束しておらず、品質はNGと判定する。
上記のステップ1〜4をテスト観点毎に実施する。
図13及び図14は、テスト観点毎のバグ曲線の一例を示すグラフである。
図13に示されるテスト観点は、追加テストを実施している期間、「バグ検出率」が「バグ検出率の基準値」以下である状態が継続していない。そのため、ユーザは、バグは収束しておらず、品質はNGと判定する。一方、図14に示されるテスト観点は、追加テストを実施している期間、「バグ検出率」が「バグ検出率の基準値」以下である状態が継続している。そのため、ユーザは、バグは収束しており、品質はOKと判定する。
このように、ユーザは、図14に示されるようなテスト観点は、バグが出し切れており、品質がOKと判定するが、図13に示されるようなテスト観点は、バグが出し切れておらず、品質がNGと判定する。
従って、ユーザは、品質がNGで問題のあるテスト観点については、テストを補強するなどの具体的な方針を立てることができる。
続いて、本実施の形態1に係るソフトウェア品質判定方法を、従来のバグ曲線に応用して、テスト漏れがないかを確認する方法について、具体例を挙げて説明する。以下では、テスト観点は、ODC分析の発見トリガーに基づき、「基本」、「相互作用」、「操作順序」、「負荷・ストレス」、「回復・例外」、「GUI(Graphical User Interface)」の6つであるものとする。
図15〜図20は、テスト観点毎のバグ曲線の一例を示すグラフである。図15は「基本」、図16は「相互作用」、図17は「操作順序」、図18は「負荷・ストレス」、図19は「回復・例外」、図20は「GUI」のバグ曲線をそれぞれ示している。図21は、図15〜図20の判定結果をまとめて示す図である。
ユーザは、テスト実施量がテスト実施基準量に到達した後、バグ検出率が基準値を上回っている場合は、バグが収束しておらず、まだバグが検出される可能性が高いと判定する(品質はNG)。一方、ユーザは、テスト実施量がテスト実施基準量に到達した後、バグ検出率が基準値以下である場合は、バグが収束しており、これからバグが検出される可能性は低いと判定する(品質はOK)。
図15〜図21に示されるように、「基本」、「相互作用」、「GUI」については、テスト実施量がテスト実施基準量に到達した後に、バグ検出率が基準値以下である。そのため、ユーザは、品質はOKと判定する。
一方、「操作順序」、「負荷・ストレス」、「回復・例外」については、テスト実施量がテスト実施基準量に到達した後に、バグ検出率が基準値を上回っている。そのため、ユーザは、品質はNGと判定する。詳細には、「操作順序」については、バグ検出率と基準値との差分が大きく、バグ検出率も悪化傾向にある。「負荷・ストレス」については、バグ検出率と基準値との差分が大きいが、バグ検出率は改善傾向にある。「回復・例外」については、バグ検出率と基準値との差分が非常に大きいが、バグ検出率は改善傾向にある。
従って、ユーザは、品質がNGと判定した「操作順序」、「負荷・ストレス」、「回復・例外」については、テストを重点的に実施する方針とし、品質がOKと判定した「基本」、「相互作用」、「GUI」については、優先度を下げる(テストの実施量を減らす、又は、テストを止める)方針とするなど、各テスト観点の方針を決めることができる。そのため、ユーザは、費用対効果の高いテストを実施することができる。
<テスト観点毎のテストの実施方法>
図22は、テスト観点毎のテストの実施方法の一例を示す図である。
図22に示されるように、ユーザは、各テスト観点のテストを実施する順番を、フェーズ(Phase)1,2,3,4,5,6のように、予め決めておき、各フェーズでテスト観点のテストを完了させる。そして、次のフェーズのテスト観点のテストを実施するときに、前のフェーズのテスト観点のテストの実施結果を振り返る。その結果、前のフェーズのテスト観点のバグの収束度合に問題があった場合は、次のフェーズのテスト観点のテストに、前のフェーズのテスト観点のバグの収束度合を改善するテストを追加していく。図22の例では、フェーズ5の「回復・例外/起動・再起動」のテストを実施するときに、前のフェーズ4の「負荷・ストレス」のテストの実施結果を振り返ると、「負荷・ストレス」のバグの収束度合に問題があることがわかる。そのため、フェーズ5の「回復・例外/起動・再起動」のテストに、前のフェーズ4の「負荷・ストレス」のバグの収束度合を改善するテストを追加する。なお、テスト観点を実施する順番は、最もリスクが高いバグを抽出することできるテスト観点の順番を最も早くするのが良い。
<実施の形態1の効果>
上述したように本実施の形態1によれば、バグ検出率算出部13は、テスト観点毎に、そのテスト観点のバグ検出率を算出し、バグ収束判定部14は、テスト観点毎に、そのテスト観点のテスト実施量が、そのテスト観点のテスト実施基準量に到達した後に、そのテスト観点のバグ検出率が、そのテスト観点の基準値以下であるか否かに応じて、そのテスト観点のバグの収束を判定する。
従って、過去のバグ発生実績データを用いなくても、バグの収束を判定することができる。また、テスト実施量がテスト実施基準量に到達した後に、バグの収束を判定することから、テスト実施量が少ない期間やバグ検出数が多い期間といった、不確定要素の多いデータが発生する期間が経過した後に、バグの収束を判定することになる。そのため、バグの収束判定の判定精度の向上を図ることができる。また、テスト観点毎に、バグの収束を判定することから、あるテスト観点のテストが漏れることが回避されるため、バグの収束判定の不測の誤判定を抑制することができる。
<実施の形態2>
上記実施の形態1においては、テスト観点毎のテスト実施基準量は、ユーザが入力し設定するものであった。そのため、テスト実施基準量は、テスト観点の開発規模に応じたテスト実施基準量には必ずしもなっていなかった。開発規模とは、ソースコードの規模、ソースコードの複雑度を表す指標、ファンクションポイント(FP:Function Point)などのいずれかである。
そのため、上記実施の形態1は、テスト観点の開発規模に対して、そもそものテスト実施量が少ないために、バグが検出されておらず、バグが収束しているという誤判定してしまう可能性が少なからずあった。
これに対して、本実施の形態2は、テスト観点毎のテスト実施基準量を、各々のテスト観点の開発規模に応じたテスト実施基準量とすることで、バグの収束判定の誤判定を抑制するものである。
<実施の形態2に係るソフトウェア品質判定装置の構成>
まず、本実施の形態2に係るソフトウェア品質判定装置2の構成について説明する。
図23は、本実施の形態2に係るソフトウェア品質判定装置2のブロック構成の一例を示すブロック図である。
図23に示されるように、本実施の形態2に係るソフトウェア品質判定装置2は、上記実施の形態1と比較して、テスト実施基準量算出部15を追加している。以下、上記実施の形態1と異なる構成について説明する。
データベース12は、上記実施の形態1と同様のデータに加えて、テスト観点毎の開発規模及びテスト観点毎の単位開発規模当たりのテスト実施基準量を保持している。
テスト実施基準量算出部15は、テスト観点毎に、そのテスト観点のテスト実施基準量を算出する。具体的には、テスト実施基準量算出部15は、データベース12に保持されている単位開発規模当たりのテスト実施基準量に、データベース12に保持されている開発規模を乗算して、テスト実施基準量を算出する。
データベース12は、テスト観点毎のテスト実施基準量として、テスト実施基準量算出部15でテスト観点毎に算出されたテスト実施基準量を保持する。
上記構成以外は、上記実施の形態1と同様である。
<実施の形態2に係るテスト実施基準量>
ここで、本実施の形態2に係るテスト観点毎の単位開発規模当たりのテスト実施基準量の具体例について説明する。ここでは、テスト観点は、図2と同様のテスト観点であるとする。
図24に示されるように、テスト観点毎の単位開発規模当たりのテスト実施基準量は、テスト工数/KLOCとしても良い。図24の例では、「機能性」の単位開発規模当たりのテスト実施基準量をAとした場合、「効率性」、「信頼性」、「使用性」、「保守性」、「可搬性」の単位開発規模当たりのテスト実施基準量は、それぞれ、0.1A、0.4A、0.6A、1.1A、0.2Aとなっている。
また、図25の例では、結合テストの場合、「機能性」の単位開発規模当たりのテスト実施基準量をAとした場合、「効率性」、「信頼性」、「使用性」、「保守性」、「可搬性」の単位開発規模当たりのテスト実施基準量は、それぞれ、0.7A、0.5A、0.5A、0.5A、0.1Aとなっている。また、システムテストの場合、「機能性」の単位開発規模当たりのテスト実施基準量をaとした場合、「効率性」、「信頼性」、「使用性」、「保守性」、「可搬性」の単位開発規模当たりのテスト実施基準量は、それぞれ、0.8a、0.3a、0.3a、0.1a、0.1aとなっている。
また、テスト観点毎の単位開発規模当たりのテスト実施基準量は、以下の非特許文献3に記載された、単位開発規模当たりのテスト件数の統計データを使用しても良い。
非特許文献3:独立行政法人情報処理推進機構 技術本部 ソフトウェア高信頼化センター、「ソフトウェア開発データ白書2016−2017」、2016年10月1日、第214頁
<実施の形態2に係るソフトウェア品質判定方法>
続いて、本実施の形態2に係るソフトウェア品質判定装置2によるソフトウェア品質判定方法について説明する。
図26は、本実施の形態2に係るソフトウェア品質判定装置2によるソフトウェア品質判定方法を示すフロー図である。
図26に示されるように、データベース12は、ユーザが入力部11に入力し設定した以下のデータを取得し保持する(ステップS31)。
・テスト観点毎の開発規模
・テスト観点毎の単位開発規模当たりのテスト実施基準量
・テスト観点毎のバグ検出数
・テスト観点毎のテスト実施量
・テスト観点毎のバグ検出率の基準値
・テスト観点毎の追加テスト実施基準量
続いて、テスト実施基準量算出部15は、テスト観点毎に、そのテスト観点の単位開発規模当たりのテスト実施基準量に、そのテスト観点の開発規模を乗算して、そのテスト観点のテスト実施基準量を算出する(ステップS32)。
続いて、テスト実施基準量算出部15は、上記で算出したテスト観点毎のテスト実施基準量をデータベース12に登録し、データベース12は、テスト観点毎のテスト実施基準量を保持する(ステップS33)。
以降、上記実施の形態1と同様に、テスト観点毎に、そのテスト観点でのバグの収束を判定するためのバグ収束判定処理が行われる(ステップS12)。なお、ステップS12のバグ収束判定処理も、上記実施の形態1と同様に、図6のフローで実施される。
<実施の形態2の効果>
上述したように本実施の形態2によれば、テスト実施基準量算出部15は、テスト観点毎に、そのテスト観点の開発規模に応じて、そのテスト観点のテスト実施基準量を算出し、バグ収束判定部14は、テスト観点毎に、そのテスト観点のテスト実施量が、そのテスト観点の開発規模に応じて算出されたテスト実施基準量に到達した後に、そのテスト観点のバグの収束を判定する。
従って、テスト観点の開発規模に対して、そもそものテスト実施量が少ないために、バグが検出されておらず、この状態でバグの収束判定が行われてしまうことが抑制される。これにより、バグの収束判定の誤判定をさらに抑制することができる。
その他の効果は、上記実施の形態1と同様である。
なお、本実施の形態2においては、テスト観点毎のテスト実施基準量として、そのテスト観点毎の開発規模に応じたものを用いたが、テスト観点毎の追加テスト実施基準量も、そのテスト観点毎の開発規模に応じたものを用いても良い。この場合、データベース12が、テスト観点毎の単位開発規模当たりの追加テスト実施基準量をさらに保持し、テスト実施基準量算出部15が、テスト観点毎の開発規模に応じた追加テスト実施基準量を算出すれば良い。
以上、実施の形態を参照して本発明を説明したが、本発明は、上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、上記実施の形態1,2に係るソフトウェア品質判定装置1,2は、設計及び実装のレビュー工程に適用されても良い。この場合、テスト実施量をレビュー工数、開発規模をドキュメントのボリューム(行数、頁数、文字数など)、テスト観点をレビュー観点に置き換えて適用できる。なお、レビュー観点は、例えば、組織が有する観点表を用いても良いし、ODC分析のレビュー工程の発見トリガーを用いても良い。
また、上記実施の形態1,2に係るソフトウェア品質判定装置1,2は、例えば、演算処理などを行うCPU(Central Processing Unit)などのプロセッサ、プロセッサによって実行されるプログラムや各種のデータなどを記憶するROM(Read Only Memory)やRAM(Random Access Memory)などからなるメモリ、及び、外部と信号の入出力を行うインターフェイス部(I/F)などからなるハードウェア構成のコンピュータで実現される。プロセッサ、メモリ及びインターフェイス部は、データバスなどを介して相互に接続される。
メモリは、データベース12の役割を果たす。また、メモリは、バグ検出率算出部13、バグ収束判定部14、及びテスト実施基準量算出部15の機能を実現するプログラムを記憶し、プロセッサは、これらプログラムを実行することで、バグ検出率算出部13、バグ収束判定部14、及びテスト実施基準量算出部15の機能をそれぞれ実現する。
また、上記プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD−ROM(Compact Disc-Read Only Memory)、CD−R(CD-Recordable)、CD−R/W(CD-ReWritable)、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバなどの有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
1,2 ソフトウェア品質判定装置
11 入力部
12 データベース
13 バグ検出率算出部
14 バグ収束判定部
15 テスト実施基準量算出部

Claims (6)

  1. システムに発生するバグの収束を判定するソフトウェア品質判定装置であって、
    前記システムをテストする際の観点であるテスト観点毎に、該テスト観点のテストで発生したバグの検出率を算出するバグ検出率算出部と、
    前記テスト観点毎に、該テスト観点のテストの実施量が、該テスト観点の前記実施量の基準となる実施基準量に到達した後に、該テスト観点の前記算出された前記検出率が、該テスト観点の前記検出率の基準となる基準値以下であるか否かに応じて、該テスト観点のバグの収束を判定するバグ収束判定部と、を備える、ソフトウェア品質判定装置。
  2. 前記バグ収束判定部は、前記テスト観点毎に、該テスト観点の前記実施量が、該テスト観点の前記実施基準量に到達した後に、該テスト観点の前記算出された前記検出率が該テスト観点の前記基準値以下である状態が、予め設定された期間、継続しているか否かに応じて、該テスト観点のバグの収束を判定する、請求項1に記載のソフトウェア品質判定装置。
  3. 前記バグ収束判定部は、前記テスト観点毎に、該テスト観点の前記算出された前記検出率が該テスト観点の前記基準値以下となり、その後に、該テスト観点の前記実施量が、該テスト観点の前記実施基準量に到達した後に、該テスト観点のバグの収束を判定する、請求項1又は2に記載のソフトウェア品質判定装置。
  4. 前記テスト観点毎に、該テスト観点の開発規模に応じて、該テスト観点の前記実施基準量を算出する実施基準量算出部をさらに備え、
    前記バグ収束判定部は、前記テスト観点毎に、該テスト観点のテストの実施量が、該テスト観点の前記算出された前記実施基準量に到達した後に、該テスト観点のバグの収束を判定する、請求項1から3のいずれか1項に記載のソフトウェア品質判定装置。
  5. システムに発生するバグの収束を判定するソフトウェア品質判定装置によるソフトウェア品質判定方法であって、
    前記システムをテストする際の観点であるテスト観点毎に、該テスト観点のテストで発生したバグの検出率を算出するステップと、
    前記テスト観点毎に、該テスト観点のテストの実施量が、該テスト観点の前記実施量の基準となる実施基準量に到達した後に、該テスト観点の前記算出された前記検出率が、該テスト観点の前記検出率の基準となる基準値以下であるか否かに応じて、該テスト観点のバグの収束を判定するステップと、を含む、ソフトウェア品質判定方法。
  6. システムに発生するバグの収束を判定するコンピュータに、
    前記システムをテストする際の観点であるテスト観点毎に、該テスト観点のテストで発生したバグの検出率を算出する手順と、
    前記テスト観点毎に、該テスト観点のテストの実施量が、該テスト観点の前記実施量の基準となる実施基準量に到達した後に、該テスト観点の前記算出された前記検出率が、該テスト観点の前記検出率の基準となる基準値以下であるか否かに応じて、該テスト観点のバグの収束を判定する手順と、を実行させるためのソフトウェア品質判定プログラム。
JP2017229603A 2017-11-29 2017-11-29 ソフトウェア品質判定装置、ソフトウェア品質判定方法、及びソフトウェア品質判定プログラム Expired - Fee Related JP6897524B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017229603A JP6897524B2 (ja) 2017-11-29 2017-11-29 ソフトウェア品質判定装置、ソフトウェア品質判定方法、及びソフトウェア品質判定プログラム
US16/156,083 US11068379B2 (en) 2017-11-29 2018-10-10 Software quality determination apparatus, software quality determination method, and software quality determination program
EP18200682.5A EP3493065A1 (en) 2017-11-29 2018-10-16 Software quality determination apparatus, software quality determination method, and software quality determination program
CN201811383764.8A CN110032504A (zh) 2017-11-29 2018-11-20 软件质量确定设备、软件质量确定方法和软件质量确定程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017229603A JP6897524B2 (ja) 2017-11-29 2017-11-29 ソフトウェア品質判定装置、ソフトウェア品質判定方法、及びソフトウェア品質判定プログラム

Publications (2)

Publication Number Publication Date
JP2019101581A true JP2019101581A (ja) 2019-06-24
JP6897524B2 JP6897524B2 (ja) 2021-06-30

Family

ID=63878389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017229603A Expired - Fee Related JP6897524B2 (ja) 2017-11-29 2017-11-29 ソフトウェア品質判定装置、ソフトウェア品質判定方法、及びソフトウェア品質判定プログラム

Country Status (4)

Country Link
US (1) US11068379B2 (ja)
EP (1) EP3493065A1 (ja)
JP (1) JP6897524B2 (ja)
CN (1) CN110032504A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7296502B1 (ja) 2022-03-28 2023-06-22 楽天グループ株式会社 バグ検出率閾値更新システム、バグ検出率閾値更新方法、及びバグ検出率閾値更新プログラム
JP7296501B1 (ja) 2022-03-28 2023-06-22 楽天グループ株式会社 バグ検出率閾値更新システム、バグ検出率閾値更新方法、及びバグ検出率閾値更新プログラム
CN117194267A (zh) * 2023-09-26 2023-12-08 江苏天好富兴数据技术有限公司 一种基于云平台的软件质量评级系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11106460B2 (en) * 2019-09-03 2021-08-31 Electronic Arts Inc. Software change tracking and analysis
JP7436614B1 (ja) 2022-12-16 2024-02-21 楽天グループ株式会社 支援装置、支援方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033662A (ja) * 2006-07-28 2008-02-14 Nec Corp ソフトウェアテスト終了判定方法、情報処理装置、プログラム、記録媒体
JP2014203095A (ja) * 2013-04-01 2014-10-27 三菱電機株式会社 情報処理装置及び情報処理方法及びプログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050114829A1 (en) * 2003-10-30 2005-05-26 Microsoft Corporation Facilitating the process of designing and developing a project
US8032863B2 (en) * 2004-11-18 2011-10-04 Parasoft Corporation System and method for global group reporting
JP4646248B2 (ja) 2007-03-26 2011-03-09 株式会社日立情報システムズ プログラム検査項目生成システムと方法およびプログラムテストシステムと方法ならびにプログラム
US8266592B2 (en) * 2008-04-21 2012-09-11 Microsoft Corporation Ranking and optimizing automated test scripts
US20100030626A1 (en) 2008-05-08 2010-02-04 Hughes John M Distributed software fault identification and repair
JP2010113527A (ja) 2008-11-06 2010-05-20 Hitachi Systems & Services Ltd バグ摘出予測システム
US8296724B2 (en) * 2009-01-15 2012-10-23 Raytheon Company Software defect forecasting system
US9268665B2 (en) 2011-07-26 2016-02-23 Trimble Navigation Limited System and method for identifying fault prone computer code files
US20130311968A1 (en) * 2011-11-09 2013-11-21 Manoj Sharma Methods And Apparatus For Providing Predictive Analytics For Software Development
US8881095B1 (en) * 2012-03-30 2014-11-04 Sprint Communications Company L.P. Software defect prediction
US20140033174A1 (en) 2012-07-29 2014-01-30 International Business Machines Corporation Software bug predicting
US9632771B2 (en) 2012-12-13 2017-04-25 Microsoft Technology Licensing, Llc Association of metadata with source code and applications and services premised thereon
JP2014174895A (ja) 2013-03-12 2014-09-22 Mitsubishi Electric Corp バグ収束予測装置及びバグ収束予測プログラム
US9244810B2 (en) 2013-05-23 2016-01-26 Nvidia Corporation Debugger graphical user interface system, method, and computer program product
JP5946068B2 (ja) 2013-12-17 2016-07-05 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 演算コア上で複数の演算処理単位が稼働可能なコンピュータ・システムにおける応答性能を評価する計算方法、計算装置、コンピュータ・システムおよびプログラム
US9916227B2 (en) * 2014-05-05 2018-03-13 Citrix Systems, Inc. Systems and methods for analyzing software compatibility
US20160077942A1 (en) * 2014-09-12 2016-03-17 Celestica Technology Consultancy (Shanghai) Co., Ltd. Storage system and test method for testing pci express interface
US20160321586A1 (en) * 2015-04-29 2016-11-03 Microsoft Technology Licensing, Llc Selecting tests for execution on a software product
US20160364318A1 (en) 2015-06-10 2016-12-15 International Business Machines Corporation Enhanced bug resolution
CN105095086A (zh) 2015-08-27 2015-11-25 浪潮电子信息产业股份有限公司 一种改进的软件测试模型及测试方法
US9830255B2 (en) * 2015-12-03 2017-11-28 Wipro Limited System and method for optimizing test suite comprising plurality of test cases
US10114732B2 (en) 2016-01-29 2018-10-30 Ca, Inc. Debugging in-cloud distributed code in live load environment
JP6747161B2 (ja) 2016-08-12 2020-08-26 トヨタ自動車株式会社 ソフトウェア品質判定方法
US20180060221A1 (en) * 2016-08-24 2018-03-01 Google Inc. Multi-layer test suite generation
JP6583191B2 (ja) * 2016-08-30 2019-10-02 トヨタ自動車株式会社 ソフトウェア品質判定方法
CN106528433B (zh) 2016-12-12 2018-10-02 西安邮电大学 一种用于白盒测试的测试用例优先级排序方法
US10585780B2 (en) 2017-03-24 2020-03-10 Microsoft Technology Licensing, Llc Enhancing software development using bug data
US20190079854A1 (en) * 2017-09-12 2019-03-14 Facebook, Inc. Systems and methods for executing tests
US11270228B2 (en) 2017-11-17 2022-03-08 Panasonic Intellectual Property Management Co., Ltd. Information processing method and information processing system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033662A (ja) * 2006-07-28 2008-02-14 Nec Corp ソフトウェアテスト終了判定方法、情報処理装置、プログラム、記録媒体
JP2014203095A (ja) * 2013-04-01 2014-10-27 三菱電機株式会社 情報処理装置及び情報処理方法及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
堀 明広: "「ソフトウェアテストの見積り技術[入門編]」", ソフトウェア・テストPRESS VOL.7, vol. 初版, JPN6019030525, 10 September 2008 (2008-09-10), pages 24 - 33, ISSN: 0004498261 *
野中 誠 ほか, 「データ指向のソフトウェア品質マネジメント」, JPN6021015950, 19 September 2012 (2012-09-19), pages 38 - 50, ISSN: 0004498260 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7296502B1 (ja) 2022-03-28 2023-06-22 楽天グループ株式会社 バグ検出率閾値更新システム、バグ検出率閾値更新方法、及びバグ検出率閾値更新プログラム
JP7296501B1 (ja) 2022-03-28 2023-06-22 楽天グループ株式会社 バグ検出率閾値更新システム、バグ検出率閾値更新方法、及びバグ検出率閾値更新プログラム
JP2023144422A (ja) * 2022-03-28 2023-10-11 楽天グループ株式会社 バグ検出率閾値更新システム、バグ検出率閾値更新方法、及びバグ検出率閾値更新プログラム
JP2023144423A (ja) * 2022-03-28 2023-10-11 楽天グループ株式会社 バグ検出率閾値更新システム、バグ検出率閾値更新方法、及びバグ検出率閾値更新プログラム
CN117194267A (zh) * 2023-09-26 2023-12-08 江苏天好富兴数据技术有限公司 一种基于云平台的软件质量评级系统
CN117194267B (zh) * 2023-09-26 2024-04-26 江苏天好富兴数据技术有限公司 一种基于云平台的软件质量评级系统

Also Published As

Publication number Publication date
EP3493065A1 (en) 2019-06-05
JP6897524B2 (ja) 2021-06-30
US11068379B2 (en) 2021-07-20
US20190163611A1 (en) 2019-05-30
CN110032504A (zh) 2019-07-19

Similar Documents

Publication Publication Date Title
JP7110415B2 (ja) 故障注入方法、装置、電子設備、記憶媒体、及びプログラム
JP6897524B2 (ja) ソフトウェア品質判定装置、ソフトウェア品質判定方法、及びソフトウェア品質判定プログラム
CN111026645B (zh) 用户界面自动化测试方法、装置、存储介质及电子设备
US9465725B2 (en) Software defect reporting
JP6891780B2 (ja) ソフトウェア品質判定装置、ソフトウェア品質判定方法、及びソフトウェア品質判定プログラム
CN103329108B (zh) 测试装置
CN104572446B (zh) 一种自动化测试方法及系统
CN111338943A (zh) 一种测试方法、装置、电子设备及可读存储介质
CN111625835B (zh) 程序漏洞路径追踪方法、装置、计算机设备及存储介质
CN114327682A (zh) WebView白屏检测方法、系统、电子设备和存储介质
CN110609786A (zh) 软件测试方法、装置、计算机设备和存储介质
CN112817869A (zh) 测试方法、装置、介质及电子设备
JP2006268666A (ja) 補正機能を持つ自動試験システム、自動試験方法、およびプログラム
CN106970870B (zh) 网页测试平台、网页测试方法和网页测试系统
US20130338799A1 (en) Availability model generation support device, availability model generation support method, and program
CN109359042A (zh) 一种基于路径搜索算法的自动化测试方法
CN107102938B (zh) 测试脚本的更新方法及装置
KR101794016B1 (ko) 분산 컴퓨팅 기반의 어플리케이션 객체 분석 방법, 이를 수행하는 어플리케이션 객체 분석 서버 및 이를 저장하는 기록매체
JP6747161B2 (ja) ソフトウェア品質判定方法
CN113742240B (zh) 用户界面测试方法、装置、存储介质和电子设备
JP6864227B2 (ja) 比較プログラム、比較装置及び比較方法
CN116185874A (zh) 一种测试报告生成方法、装置、设备和存储介质
CN110795338B (zh) 一种基于前后端交互的自动化测试方法、装置及电子设备
CN117992262A (zh) 故障处理方法、样本分析仪及其计算机可读存储介质
JP2008262473A (ja) 設備保全管理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R151 Written notification of patent or utility model registration

Ref document number: 6897524

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees