JP2019197210A - Speech recognition error correction support device and its program - Google Patents
Speech recognition error correction support device and its program Download PDFInfo
- Publication number
- JP2019197210A JP2019197210A JP2019081066A JP2019081066A JP2019197210A JP 2019197210 A JP2019197210 A JP 2019197210A JP 2019081066 A JP2019081066 A JP 2019081066A JP 2019081066 A JP2019081066 A JP 2019081066A JP 2019197210 A JP2019197210 A JP 2019197210A
- Authority
- JP
- Japan
- Prior art keywords
- correction
- editing
- speech recognition
- error correction
- material content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Document Processing Apparatus (AREA)
Abstract
【課題】複数の修正端末での待ち時間を抑えて、迅速に音声認識の誤りを修正することが可能な音声認識誤り修正支援装置を提供する。【解決手段】音声認識誤り修正支援装置1は、音声の認識結果と単語ごとの時間情報とを生成する音声認識手段11と、複数の修正端末2を介して、認識結果に対する修正内容を取得して誤りを修正する複数の編集手段15と、を備え、編集手段15は、認識結果を含んだ編集画面を表示する編集画面制御手段151と、編集画面上で指定されたテキスト内における単語の時間情報に基づいて、対応する音声を出力する音声再生手段153と、編集画面で修正された修正内容を用いて、認識結果を後書き優先で更新するとともに、他の編集手段に更新通知を通知して反映させる誤り修正手段152と、を備える。【選択図】図2PROBLEM TO BE SOLVED: To provide a voice recognition error correction support device capable of promptly correcting a voice recognition error while suppressing a waiting time at a plurality of correction terminals. SOLUTION: A voice recognition error correction support device 1 acquires a correction content for a recognition result via a voice recognition means 11 for generating a voice recognition result and time information for each word, and a plurality of correction terminals 2. A plurality of editing means 15 for correcting an error by editing, and the editing means 15 displays the editing screen control means 151 for displaying the editing screen including the recognition result, and the time of the word in the text specified on the editing screen. Based on the information, the recognition result is updated with the postscript priority by using the sound reproduction unit 153 that outputs a corresponding sound and the correction content corrected on the editing screen, and the other updating unit is notified of the update notification. Error correction means 152 for reflecting the information. [Selection diagram] Figure 2
Description
本発明は、音声認識の誤り修正を支援する音声認識誤り修正支援装置およびそのプログラムに関する。 The present invention relates to a speech recognition error correction support device that supports error correction in speech recognition and a program thereof.
番組取材等で収録した音声素材(映像・音声素材を含む)の音声を文字として利用する場合、音声の書き起こし作業が必須の作業となっている。通常、この作業は、作業者が、収録した素材の音声を聴取し、端末のキーボード等で文字を入力することにより行っている。このとき、作業者は、音声の再生と停止を頻繁に繰り返したり、何度も同一箇所の音声を聞き直したりすることになるが、この作業は熟練者であっても素材の収録時間に対して約6倍の作業時間がかかるとも言われている。 When using the sound of audio material (including video / audio material) recorded in a program interview, etc. as a character, the transcription work of the audio is indispensable. Usually, this work is performed by the operator listening to the sound of the recorded material and inputting characters using a keyboard or the like of the terminal. At this time, the worker frequently repeats playback and stop of the sound or listens to the sound at the same location many times. It is said that it takes about six times as much work time.
従来の音声の書き起こし作業を支援する技術として、ライブストリーミングのコンテンツをリアルタイムに音声認識し、不特定多数の複数のユーザが音声認識結果中の誤りに対して正しい文字列を入力する技術が開示されている(特許文献1参照)。
また、書き起こし作業を支援する技術として、入力された音声を任意の単位に区切った文(セル)ごとに音声認識処理を施し、作業者が、音声認識処理された認識結果と、これに対応する音声とを比較し、音声認識処理の誤りを修正する技術が開示されている(特許文献2参照)。この技術は、音声認識処理においてセル単位で音声を再生し、作業者がセル単位で認識結果を修正し、セルの修正を一般的なテキストエディタの操作で行う。また、この技術では、作業者は、セルの修正後、セルの先頭から音声を再生して、認識結果を正しく修正したか否かを確認する。
Disclosed is a technology that supports real-time voice transcription work by recognizing live streaming content in real time, and allowing multiple unspecified users to input correct character strings for errors in the speech recognition results. (See Patent Document 1).
In addition, as a technology to support the transcription work, speech recognition processing is performed for each sentence (cell) in which the input speech is divided into arbitrary units, and the worker recognizes the recognition result after the speech recognition processing and responds to this. A technique for correcting an error in speech recognition processing by comparing with speech to be performed is disclosed (see Patent Document 2). In this technology, voice is reproduced in units of cells in the speech recognition process, the operator corrects the recognition result in units of cells, and the cells are corrected by a general text editor operation. Further, in this technique, after the cell is corrected, the worker reproduces the sound from the head of the cell and confirms whether or not the recognition result is correctly corrected.
特許文献1で開示されている技術は、書き起こしの対象がライブストリーミングのコンテンツであるため、過去に遡ってコンテンツの内容を確認することができない。そのため、この技術は、音声認識誤りが多い場合、発話内容が不明瞭で何度も聞き直す必要がある場合等、誤りが残存してしまうという問題がある。
特許文献2で開示されている技術は、セル単位で音声の再生および認識結果の修正を行うため、修正箇所が少なくても、修正箇所の音声と修正結果が合致するか否かを確認するために、セルの先頭から音声を再生する必要がある。そのため、この技術は、セルの途中にある修正対象箇所の音声が再生されるまで、待ち時間が発生してしまうという問題があった。
In the technique disclosed in Patent Document 1, since the transcription target is live streaming content, it is not possible to check the content contents retroactively. Therefore, this technique has a problem that errors remain when there are many speech recognition errors, or when the utterance content is unclear and it is necessary to listen again and again.
Since the technique disclosed in
そこで、本発明は、単語単位で音声の再生を可能とし、音声認識の完了済みまたは音声認識中のコンテンツであっても、複数の修正端末での待ち時間を抑えて、迅速に音声認識の誤りを修正することが可能な音声認識誤り修正支援装置およびそのプログラムを提供することを課題とする。 Therefore, the present invention enables speech reproduction in units of words, and even if the speech recognition has been completed or the content is being speech-recognized, the speech recognition error can be quickly performed by suppressing waiting time at a plurality of correction terminals. It is an object of the present invention to provide a speech recognition error correction support device and a program thereof that can correct the error.
前記課題を解決するため、本発明に係る音声認識誤り修正支援装置は、素材コンテンツを入力し、当該素材コンテンツに含まれる音声に対する音声認識の誤りを複数の修正端末を介して修正する音声認識誤り修正支援装置であって、音声認識手段と、記憶手段と、複数の編集手段と、を備え、編集手段が、編集画面制御手段と、音声出力手段と、誤り修正手段と、を備える構成とした。 In order to solve the above problems, a speech recognition error correction support device according to the present invention inputs a material content, and corrects a speech recognition error for a speech included in the material content via a plurality of correction terminals. A correction support device comprising a voice recognition means, a storage means, and a plurality of editing means, wherein the editing means comprises an editing screen control means, a voice output means, and an error correction means. .
かかる構成において、音声認識誤り修正支援装置は、音声認識手段によって、音声を認識し、テキストデータである認識結果を生成するとともに、当該認識結果を構成する単語ごとの時間情報とを生成する。この時間情報は、素材コンテンツの先頭からの相対的な経過時間である。これによって、音声認識手段は、認識した単語ごとに、素材コンテンツの先頭からの相対的な経過時間を対応付ける。
また、音声認識誤り修正支援装置は、認識結果および時間情報を、素材コンテンツとともに記憶手段に記憶する。
そして、音声認識誤り修正支援装置は、複数の修正端末に対応した編集手段によって、修正端末を介して、認識結果に対する修正内容を取得し、音声認識の誤りを修正する。
In such a configuration, the speech recognition error correction support device recognizes speech by the speech recognition means, generates a recognition result that is text data, and generates time information for each word constituting the recognition result. This time information is a relative elapsed time from the top of the material content. Thereby, the voice recognition means associates the relative elapsed time from the top of the material content with each recognized word.
Further, the speech recognition error correction support device stores the recognition result and the time information in the storage unit together with the material content.
Then, the speech recognition error correction support device acquires the correction content for the recognition result via the correction terminal by the editing means corresponding to the plurality of correction terminals, and corrects the speech recognition error.
ここで、編集手段は、編集画面制御手段によって、修正対象となる素材コンテンツの認識結果を含んだ編集画面を修正端末に表示する。
また、編集手段は、編集画面上で指定されたテキスト内における単語の時間情報に基づいて、対応する音声を修正端末に出力する。これによって、作業者は、音声認識されたテキストと音声とを単語ごとに確認することが可能になる。
そして、音声認識誤り修正支援装置は、誤り修正手段によって、編集画面で修正された修正内容を用いて、記憶手段に記憶されている認識結果を後書き優先(上書き)で更新するとともに、認識結果が後書きされた旨の更新通知を他の編集手段に通知して修正端末に対応する修正内容を反映させる。これによって、作業者は、他の修正端末で修正された修正箇所を認識することが可能になる。
Here, the editing means displays the editing screen including the recognition result of the material content to be corrected on the correction terminal by the editing screen control means.
The editing means outputs the corresponding voice to the correction terminal based on the time information of the word in the text designated on the editing screen. As a result, the operator can check the speech-recognized text and speech for each word.
Then, the speech recognition error correction support device updates the recognition result stored in the storage means with the postscript priority (overwrite) using the correction content corrected on the editing screen by the error correction means, and the recognition result is An update notification to the effect that the postscript has been written is sent to the other editing means to reflect the correction content corresponding to the correction terminal. As a result, the operator can recognize the corrected portion corrected by another correction terminal.
なお、音声認識誤り修正支援装置は、音声認識手段を外部に備える構成としてもよい。
また、音声認識誤り修正支援装置は、コンピュータを、前記した各手段として機能させるための音声認識誤り修正支援プログラムで動作させることができる。
Note that the voice recognition error correction support device may include a voice recognition unit outside.
Further, the speech recognition error correction support apparatus can be operated by a speech recognition error correction support program for causing a computer to function as each of the above-described means.
本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、素材コンテンツを音声認識した認識結果を、修正端末の編集画面上に表示し、任意の単語位置で音声を再生して認識結果を把握することができるとともに、複数の修正端末で修正内容を共有して認識誤りを修正することができる。
また、本発明によれば、複数の修正端末による修正を後書き優先で行うことで、修正端末間で排他制御を行うことなく、修正端末の待ち時間を減らすことができる。
The present invention has the following excellent effects.
According to the present invention, the recognition result obtained by voice recognition of the material content can be displayed on the editing screen of the correction terminal, and the recognition result can be grasped by reproducing the voice at an arbitrary word position. Can share corrections and correct recognition errors.
Further, according to the present invention, by performing correction by a plurality of correction terminals with priority on the postscript, the waiting time of the correction terminals can be reduced without performing exclusive control between the correction terminals.
以下、本発明の実施形態について図面を参照して説明する。
[音声認識誤り修正システムの概要]
最初に、図1を参照して、本発明の実施形態に係る音声認識誤り修正支援装置1を含んだ音声認識誤り修正システムSの概要について説明する。
Embodiments of the present invention will be described below with reference to the drawings.
[Outline of speech recognition error correction system]
First, an outline of a speech recognition error correction system S including a speech recognition error correction support device 1 according to an embodiment of the present invention will be described with reference to FIG.
音声認識誤り修正システムSは、少なくとも音声を含んだ素材コンテンツにおける音声の認識誤りを修正するものである。なお、本実施形態では、素材コンテンツは、映像と音声とからなるコンテンツ、例えば、放送用素材とする。
音声認識誤り修正システムSは、音声認識誤り修正支援装置1と、複数の修正端末2(2,…,2)と、を備える。
The speech recognition error correction system S corrects a speech recognition error in material content including at least speech. In the present embodiment, the material content is content composed of video and audio, for example, broadcasting material.
The speech recognition error correction system S includes a speech recognition error correction support device 1 and a plurality of correction terminals 2 (2,..., 2).
音声認識誤り修正支援装置1は、素材コンテンツを入力し、当該素材コンテンツに含まれる音声に対する音声認識の誤りを複数の修正端末2を介して修正するものである。
この音声認識誤り修正支援装置1は、素材コンテンツを逐次音声認識して認識結果と音声とを単語ごとに対応付け、修正端末2において、作業者が指定する任意の単語位置からの音声再生を可能とする。また、音声認識誤り修正支援装置1は、複数の修正端末2による修正を逐次反映し、複数の修正端末2で異なる修正があった場合、排他制御を行わずに、後の修正を有効とする。
The speech recognition error correction support apparatus 1 inputs material content and corrects speech recognition errors for speech included in the material content via a plurality of
This speech recognition error correction support device 1 sequentially recognizes material content, associates recognition results with speech for each word, and can perform speech playback from an arbitrary word position designated by the operator on the
修正端末2は、音声認識誤り修正支援装置1が音声認識したテキストデータである認識結果に含まれている誤りを修正するものである。この修正端末2は、キーボード等の入力装置、編集画面を表示する表示装置、音声を表示するスピーカ等を備える。表示装置は、タッチパネルを備える構成としてもよい。
音声認識誤り修正支援装置1と修正端末2とは、インターネット、イントラネット等で接続する。
このように、音声認識誤り修正支援装置1は、同じ素材コンテンツに対して、排他制御を行わずに、複数の修正端末2により音声認識の誤りを修正する。
The
The speech recognition error correction support apparatus 1 and the
Thus, the speech recognition error correction support apparatus 1 corrects speech recognition errors by the plurality of
これによって、音声認識誤り修正システムSは、音声認識中の素材コンテンツであっても、単語単位で音声と認識結果とを確認することができるとともに、排他制御を行わないため、リアルタイムに複数の修正端末2によって迅速に音声認識の誤りを修正することができる。
以下、音声認識誤り修正支援装置1の構成および動作について説明する。
As a result, the speech recognition error correction system S can confirm the speech and the recognition result in units of words even for the material content during speech recognition, and does not perform exclusive control. The
Hereinafter, the configuration and operation of the speech recognition error correction support apparatus 1 will be described.
[音声認識誤り修正支援装置の構成]
まず、図2を参照して、音声認識誤り修正支援装置1の構成について説明する。
音声認識誤り修正支援装置1は、図2に示すように、素材コンテンツ入力手段10と、音声認識手段11と、認識結果分割手段12と、項目情報抽出手段13と、素材情報記憶手段14と、編集手段15(15,…,15)と、情報削除手段16と、を備える。
[Configuration of voice recognition error correction support device]
First, the configuration of the speech recognition error correction support device 1 will be described with reference to FIG.
As shown in FIG. 2, the speech recognition error correction support apparatus 1 includes a material
素材コンテンツ入力手段10は、素材コンテンツを入力するものである。
素材コンテンツ入力手段10は、例えば、外部の記憶媒体から素材コンテンツを入力するものであってもよいし、通信回線を介して入力するものであってもよい。
この素材コンテンツ入力手段10は、入力した素材コンテンツのうち、音声については、音声認識手段11に出力する。また、素材コンテンツ入力手段10は、入力した素材コンテンツ(映像・音声)を、後記する編集手段15における修正作業に使用するため、素材情報記憶手段14に書き込み記憶する。
The material content input means 10 inputs material content.
The material
The material
音声認識手段11は、素材コンテンツ入力手段10が入力した素材コンテンツの音声を認識し、テキストデータである認識結果と当該認識結果を構成する単語ごとの時間情報とを生成するものである。
この音声認識手段11は、図示を省略した言語モデル、音響モデル、発音辞書により、音声認識を行い、認識した単語と、その単語の音声の先頭からの経過時間を示す時間情報とを生成する。音声認識手段11は、生成した認識結果の単語と時間情報とを、順次、認識結果分割手段12に通知するとともに、素材情報記憶手段14に書き込み記憶する。
なお、音声認識手段11における音声認識の手法は、例えば、特開2010−175765等に開示された音声から単語列を認識し、その結果を出力する手法を用いてもよい。
The
The
Note that the speech recognition method in the speech recognition means 11 may be, for example, a method of recognizing a word string from speech disclosed in JP 2010-175765 A and outputting the result.
認識結果分割手段12は、音声認識手段11で認識された認識結果(単語列)を、予め定めた基準で分割するものである。以下、認識結果分割手段12で生成された分割認識結果のそれぞれのかたまり(単語列)をセグメントとよぶ。
認識結果分割手段12が用いる分割の基準は、任意の基準を予め定めることができる。
例えば、分割の基準として、音声の無音区間を用いることができる。この場合、認識結果分割手段12は、音声認識手段11から取得する音声認識結果の時間情報を利用して、単語間の時間間隔が予め定めた時間以上存在した場合は無音区間と判定し、無音区間の前後で分割する。
The recognition
As a division criterion used by the recognition
For example, a silent section of speech can be used as a division criterion. In this case, the recognition
また、例えば、分割の基準として、映像のカット点を用いることができる。この場合、認識結果分割手段12は、素材情報記憶手段14に記憶されている映像から、隣接するフレームの画像特徴が予め定めた基準よりも大きく異なるフレームをカット点として検出し、カット点の時間の前後で認識結果を分割する。
Further, for example, a cut point of the video can be used as a reference for division. In this case, the recognition
また、例えば、分割の基準として、素材コンテンツに予め付加されているメタ情報を用いてもよい。メタ情報としては、GPS(Global Positioning System)の位置情報(ジオタグ)等がある。この場合、認識結果分割手段12は、位置情報によって、素材コンテンツを撮影または集音した場所が異なっている時点で、認識結果を分割する。
Further, for example, meta information previously added to the material content may be used as a division criterion. The meta information includes GPS (Global Positioning System) position information (geotag) and the like. In this case, the recognition
認識結果分割手段12は、音声認識結果を分割したセグメントを、項目情報抽出手段13に出力する。また、認識結果分割手段12は、セグメントごとに、単語とその時間情報とを素材情報記憶手段14に書き込み記憶する。
The recognition
項目情報抽出手段13は、認識結果分割手段12で分割されたセグメントごとに、当該セグメントに含まれる特徴単語を項目として抽出するものである。
この特徴単語は、セグメント内に含まれる特徴的な単語である。例えば、項目情報抽出手段13は、TF−IDF法(TF:Term Frequency、単語の出現頻度、IDF:Inverse Document Frequency、逆文書頻度)によりセグメントを特徴付ける単語を抽出する。TF−IDFは、文書(本実施形態では、セグメント)中の単語に関する重みの一種であり、主に情報検索や文章要約などの分野で利用される。
具体的には、項目情報抽出手段13は、セグメントs内の単語wの出現頻度tf(w,s)を、以下の式(1)で算出する。
The item
This characteristic word is a characteristic word included in the segment. For example, the item
Specifically, the item
この式(1)で、nw,sは、ある単語wのセグメントs内での出現回数、Σt∈snt,sは、セグメントs内のすべての単語の出現回数の和を示す。
また、項目情報抽出手段13は、ある単語wの逆文書頻度idf(w)を、以下の式(2)で算出する。
In this equation (1), n w, s represents the number of appearances of a word w in the segment s, and Σtεs n t, s represents the sum of the number of occurrences of all words in the segment s.
Further, the item
この式(2)で、Nは、素材コンテンツ内の全セグメント数、df(w)は、ある単語wが出現する素材コンテンツのセグメントの数(総セグメント数〔総文書数〕)を示す。
そして、項目情報抽出手段13は、セグメント内の各単語について、以下の式(3)に示すように、式(1)のtf値と式(2)のidf値との積が最も大きい単語、あるいは、予め定めた基準値よりも大きい単語を、当該セグメントの特徴単語とする。
In this equation (2), N represents the total number of segments in the material content, and df (w) represents the number of material content segments in which a certain word w appears (total number of segments [total number of documents]).
Then, for each word in the segment, the item information extraction means 13 is the word having the largest product of the tf value of the expression (1) and the idf value of the expression (2), as shown in the following expression (3): Alternatively, a word larger than a predetermined reference value is set as a feature word of the segment.
項目情報抽出手段13は、抽出した項目を、セグメントに対応付けて素材情報記憶手段14に書き込み記憶する。
なお、項目情報抽出手段13は、TF−IDF法を用いずに、セグメントを形態素解析し、名詞や固有名詞を特徴単語として抽出することとしてもよい。
The item
In addition, the item information extraction means 13 is good also as extracting a noun and a proper noun as a feature word by carrying out the morphological analysis of a segment, without using TF-IDF method.
また、項目情報抽出手段13は、素材コンテンツが映像を含んでいる場合、特徴単語以外に、セグメントに対応する時間区間の映像からサムネイル画像を抽出してもよい。例えば、項目情報抽出手段13は、セグメントに対応する時間区間の映像の先頭フレームをサムネイル画像として抽出する。項目情報抽出手段13は、抽出したサムネイル画像を、セグメントに対応付けて素材情報記憶手段14に書き込み記憶する。
In addition, when the material content includes video, the item
素材情報記憶手段(記憶手段)14は、音声認識の誤りを修正する対象となる素材コンテンツと、素材コンテンツをセグメントに分割した各種情報とを記憶するものである。この素材情報記憶手段14は、ハードディスク、半導体メモリ等の一般的な記憶媒体で構成することができる。 The material information storage unit (storage unit) 14 stores material content that is a target for correcting an error in speech recognition and various types of information obtained by dividing the material content into segments. This material information storage means 14 can be constituted by a general storage medium such as a hard disk or a semiconductor memory.
ここで、図3〜図5(適宜図2参照)して、素材情報記憶手段14が記憶する素材情報について具体的に説明する。
図3に示すように、素材情報記憶手段14は、音声認識誤りを修正する対象となる素材コンテンツ(映像・音声)Conを記憶する。素材コンテンツ(映像・音声)Conは、素材コンテンツ入力手段10によって、記憶されたものである。
Here, the material information stored in the material
As shown in FIG. 3, the material
また、図3に示すように、素材情報記憶手段14は、素材コンテンツConごとに、音声認識情報Recとセグメント情報Segとを対応付けて記憶する。なお、素材コンテンツConには、当該素材コンテンツConの識別情報(ID等)および時間情報を付加(不図示)しておく。時間情報は、予め定めた基準時間であって、例えば、音声認識誤り修正支援装置1に入力された時間(入力開始時間(年月日時分等))等である。
Further, as shown in FIG. 3, the material
音声認識情報Recは、音声認識手段11で認識され、対応付けられた単語および時間情報である。
例えば、図4に示すように、音声認識情報Recは、素材コンテンツを識別する識別情報(素材コンテンツ識別情報)に対応付けて、単語wごとに、時間情報tと修正フラグfとを対応付ける。ここで、修正フラグfは、修正端末2によって修正が加えられたか否かを示す情報である(例えば、修正あり“1”、修正なし“0”)。
The speech recognition information Rec is the word and time information recognized and associated with the speech recognition means 11.
For example, as shown in FIG. 4, the voice recognition information Rec associates time information t with a correction flag f for each word w in association with identification information (material content identification information) for identifying material content. Here, the correction flag f is information indicating whether or not correction has been made by the correction terminal 2 (for example, “1” with correction, “0” without correction).
セグメント情報Segは、音声認識情報Recを、認識結果分割手段12でセグメントに分割した内容を示す情報である。
例えば、図5に示すように、セグメント情報Segは、素材コンテンツ識別情報に対応付けて、個々のセグメントを識別する識別情報(番号等)ごとに、開始時間tsと、終了時間teと、項目kと、サムネイル画像gとを対応付ける。
ここで、開始時間tsおよび終了時間teは、セグメントの時間区間を示す。項目kは、項目情報抽出手段13が抽出した特徴単語である。サムネイル画像gは、項目情報抽出手段13が当該セグメントの先頭の時間情報に対応した、素材コンテンツの映像から抽出したフレーム画像である。
The segment information Seg is information indicating the content obtained by dividing the speech recognition information Rec into segments by the recognition
For example, as shown in FIG. 5, the segment information Seg is associated with the material content identification information, for each identification information (number etc.) for identifying each segment, a start time ts, an end time te, and an item k. Is associated with the thumbnail image g.
Here, the start time ts and the end time te indicate the time interval of the segment. The item k is a feature word extracted by the item
なお、図3の例では、素材コンテンツCon3については、音声認識がすべて終了しておらず、セグメント情報Segが確定していない状態を示している。
また、ここでは、素材コンテンツConと、音声認識情報Recおよびセグメント情報Segとを、同一の記憶手段に記憶しているが、別々の記憶手段に記憶することとしてもよい。
図2に戻って、音声認識誤り修正支援装置1の構成について説明を続ける。
In the example of FIG. 3, for the material content Con3, all the speech recognition is not completed and the segment information Seg is not determined.
Here, the material content Con, the voice recognition information Rec, and the segment information Seg are stored in the same storage unit, but may be stored in separate storage units.
Returning to FIG. 2, the description of the configuration of the speech recognition error correction support apparatus 1 will be continued.
編集手段15は、外部に接続された修正端末2を用いて、作業者が、素材情報記憶手段14に記憶されている音声認識結果を修正するものである。この編集手段15は、複数の修正端末2ごとに複数存在する。なお、編集手段15は、修正端末2に対する1つのプロセスとして動作し、修正端末2が接続されるたびに、プロセスが複製される構成であっても構わない。
編集手段15は、図2に示すように、修正対象選択手段150と、編集画面制御手段151と、誤り修正手段152と、映像/音声再生手段153と、修正結果出力手段154と、を備える。
The editing means 15 is for the operator to correct the speech recognition result stored in the material information storage means 14 by using the
As shown in FIG. 2, the editing unit 15 includes a correction
修正対象選択手段150は、音声認識誤りを修正する対象の素材コンテンツを選択するものである。修正対象選択手段150は、修正端末2に修正対象の素材コンテンツを選択する画面を表示し、修正端末2からの選択を受け付ける。
ここで、図6を参照して、素材コンテンツを選択する画面の一例を説明する。例えば、修正対象選択手段150は、図6(a)に示すような選択画面30を表示する。
The correction target selection means 150 selects the material content that is the target of correcting the voice recognition error. The correction
Here, an example of a screen for selecting material content will be described with reference to FIG. For example, the correction
選択画面30は、時間区間を特定することで、修正対象となる素材コンテンツを特定する画面である。選択画面30は、時間設定領域301と、現時間設定ボタン302と、修正開始ボタン303と、を備える。
The
時間設定領域301は、開始時刻および終了時刻を設定する領域である。例えば、時間設定領域301は、年月日、時、分をそれぞれ設定するリストボックスとする。この時間設定領域301は、例えば、図6(b)に示すように、ボタン301aを押下されることで、候補となるリストをスクロールバー301b付きで表示する。時、分についても同様である。この開始時刻と終了時刻とによって、修正対象となる素材コンテンツが特定される。
The
現時間設定ボタン302は、現在の時刻から現在入力中(あるいは、それ以降)の素材コンテンツを修正対象とするための設定ボタンである。
例えば、図6(c)に示すように、現時間設定ボタン302を押下されることで、開始時刻に現時刻を設定し、終了時刻を指定しないこととし、現在の時刻から現在入力中(あるいは、それ以降)の素材コンテンツを修正対象とする。
修正開始ボタン303は、開始時刻および終了時刻を設定した後、修正対象となる素材コンテンツの修正を開始するためのボタンである。
The current
For example, as shown in FIG. 6C, when the current
The
ここで、図7を参照して、修正対象選択手段150で選択された開始時刻および終了時刻で特定される素材コンテンツの時間区間について説明する。
図7は、本日のn日(予め定めた日数)前から本日までの時間を時系列で示したものである。
Here, with reference to FIG. 7, the time interval of the material content specified by the start time and the end time selected by the correction target selection means 150 will be described.
FIG. 7 shows the time from today before n days (a predetermined number of days) to today, in time series.
時間区間T1は、本日から2日前のある時刻を開始時刻とし、本日から1日前のある時刻を終了時刻としたときの例である。なお、時間区間T1は、開始時刻については、設定された時刻よりも予め定めた時間bt(例えば、数十秒〜数分)だけ早い時刻とする。これによって、修正端末2の作業者は、実際に修正を行う時点よりも前の音声を確認することが可能になる。
The time interval T1 is an example when a certain time two days before today is a start time and a certain time one day before today is an end time. The time interval T1 is set to a time earlier than the set time by a predetermined time bt (for example, several tens of seconds to several minutes). As a result, the operator of the
時間区間T2は、素材情報記憶手段14に記憶されている素材コンテンツの最も古い日で、開始時刻と終了時刻とを設定したときの例である。時間区間T2は、設定された時刻よりも予め定めた時間btだけ早い時間の素材コンテンツが存在しない場合、開示時刻を、最も古い素材コンテンツに対応する時刻とする。
The time interval T2 is an example when the start time and the end time are set on the oldest day of the material content stored in the material
時間区間T3は、本日のある時刻が開始時刻として設定され、終了時刻が設定されていない場合の例である。時間区間T3も、設定された時刻よりも予め定めた時間btだけ早い時刻を開始時刻とする。
図2に戻って、音声認識誤り修正支援装置1の構成について説明を続ける。
修正対象選択手段150は、設定された素材コンテンツのファイル名等の識別情報を、編集画面制御手段151に出力する。
The time interval T3 is an example when a certain time of today is set as the start time and the end time is not set. Also for the time section T3, the start time is a time earlier than the set time by a predetermined time bt.
Returning to FIG. 2, the description of the configuration of the speech recognition error correction support apparatus 1 will be continued.
The correction
編集画面制御手段151は、セグメントごとに、項目と当該セグメントに含まれる単語列を表示するか否かを指定する選択ボタンとを表示し、選択ボタンの押下により、セグメントの単語列を表示するか否かを制御するものである。
For each segment, the edit
ここで、図8および図9を参照(適宜図2参照)して、編集画面制御手段151が表示する画面例について、その制御内容とともに説明する。
図8に示すように、編集画面制御手段151は、編集画面制御手段151が表示する修正端末2の画面上に表示する。
Here, referring to FIG. 8 and FIG. 9 (refer to FIG. 2 as appropriate), an example of the screen displayed by the editing screen control means 151 will be described together with its control contents.
As shown in FIG. 8, the edit screen control means 151 displays on the screen of the
項目一覧画面31は、選択ボタン311と、項目表示欄312と、サムネイル画像表示領域313と、タイムテーブル表示欄314と、スクロールバー表示欄315と、修正結果取得ボタン316と、で構成される。
The
選択ボタン311は、セグメントごとに単語列を表示するか否かの選択を行うボタンである。
項目表示欄312は、セグメント内で抽出された項目を表示する領域である。編集画面制御手段151は、素材情報記憶手段14から、当該セグメントに対応する項目(図5の項目k)を読み出して、項目表示欄312に表示する。なお、ライブ素材など、現在入力中でセグメント情報が確定していない場合、編集画面制御手段151は、項目表示欄312を空欄とする。
The
The
サムネイル画像表示領域313は、セグメント内で抽出されたサムネイル画像を表示する領域である。編集画面制御手段151は、素材情報記憶手段14から、当該セグメントに対応するサムネイル画像(図5のサムネイル画像g)を読み出して、サムネイル画像表示領域313に表示する。なお、素材コンテンツに対応するセグメント情報が確定していない場合、編集画面制御手段151は、対応する素材コンテンツの先頭フレームをサムネイル画像として表示する。
The thumbnail
タイムテーブル表示欄314は、素材コンテンツの時間軸上におけるセグメント位置を示すタイムテーブルを表示する欄である。編集画面制御手段151は、素材情報記憶手段14のセグメントの時間情報(図5の開始時間tsおよび終了時間te)を参照して、タイムテーブルを生成し表示する。なお、素材コンテンツに対応するセグメント情報が確定していない場合、編集画面制御手段151は、対応する素材コンテンツの先頭の単語と最後の単語の時間情報t(図4参照)を参照する。
スクロールバー表示欄315は、項目一覧が画面に収まらない場合に、どの部分のセグメントを表示しているのかを示すスクロールバーを表示する欄である。編集画面制御手段151は、スクロールバーの上下によって、画面上の項目一覧を更新する。
The time
The scroll
修正結果取得ボタン316は、修正対象選択手段150で選択した修正対象の素材コンテンツに対する修正結果を要求するボタンである。修正結果取得ボタン316を押下された場合、編集画面制御手段151は、修正対象選択手段150で選択された修正対象の素材コンテンツの識別情報(素材コンテンツ識別情報)を修正結果出力手段154に出力する。
このように、項目一覧画面31を表示することで、作業者は、項目を確認することができ、一度に音声認識結果を表示する場合に比べて、音声認識結果を確認したいセグメントを容易に選択することができる。
The correction result
Thus, by displaying the
この項目一覧画面31において、作業者が行う修正端末2のマウスのクリック、あるいは、タッチパネルへのタッチによる選択ボタン(図8中、「open」)311の押下により、編集画面制御手段151は、項目一覧画面31において、セグメントの単語列の修正を行う編集領域317(図9参照)を表示する。
In this
図9は、編集領域317を表示した項目一覧画面31Bを示す画面例である。
この項目一覧画面31Bは、図8で説明した項目一覧画面31に対して、選択されたセグメントにおいて、動画表示領域313Bと、編集領域317とが表示される。
FIG. 9 is a screen example showing an
In the
動画表示領域313Bは、セグメントに対応する素材コンテンツを再生する領域である。編集画面制御手段151は、当該セグメントが選択されたタイミングで、素材情報記憶手段14のセグメントの時間情報(図5の開始時間tsおよび終了時間te)を参照して、対応する素材コンテンツの映像区間の先頭フレームを動画表示領域313Bに表示する。なお、素材コンテンツに対応するセグメント情報が確定していない場合、編集画面制御手段151は、対応する素材コンテンツの先頭の単語の時間情報t(図4参照)を参照して、対応する素材コンテンツの先頭フレームを動画表示領域313Bに表示する。
この動画表示領域313Bの画像領域をマウス等でクリック、あるいは再生開始ボタンstを押下されることで、編集画面制御手段151は、映像/音声再生手段153に当該素材コンテンツの再生を指示する。
The moving
When the image area of the moving
編集領域317は、セグメントに対応する単語列を表示し、修正を行う編集を領域である。編集画面制御手段151は、編集領域317に、素材情報記憶手段14に記憶されている当該セグメントに対応する単語列を展開する。
The
なお、編集画面制御手段151は、編集領域317表示している場合、音声認識情報Rec(図3参照)の単語が追加されるたびに、逐次、表示する文字列を追加する。これに伴い、編集画面制御手段151は、編集領域317を拡大していく。これによって、音声認識誤り修正支援装置1は、リアルタイムに素材コンテンツの音声認識に対する誤りを修正することができる。
編集領域317の編集は、後記する誤り修正手段152によって行われる。なお、編集領域317において任意の単語をマウス等でクリックされることで、編集画面制御手段151は、クリックされた単語の時間に対応する素材コンテンツの再生を映像/音声再生手段153に指示する。
また、編集画面制御手段151は、選択ボタン(図9中、「close」)311の押下により、編集領域317を非表示とし、動画表示領域313Bをサムネイル画像表示領域313として、図8の項目一覧画面31に表示を戻す。
図2に戻って、音声認識誤り修正支援装置1の構成について説明を続ける。
Note that the edit
The editing of the
Also, the edit
Returning to FIG. 2, the description of the configuration of the speech recognition error correction support apparatus 1 will be continued.
誤り修正手段152は、修正端末2の作業者の編集操作により、編集領域317(図9)において、セグメントの単語列の誤りを修正するものである。この誤り修正手段152は、単語列を修正する編集動作においては、一般的なテキストエディタ(スクリーンエディタ)として機能する。
また、誤り修正手段152は、修正内容を、他の修正端末2に対応する編集手段15(別プロセスで起動した編集手段)に対して通知することで、他の修正端末2の編集領域317に反映させる。逆に、他の編集手段15から修正内容を通知された場合、誤り修正手段152は、自身の修正端末2の編集領域317に修正内容を反映させる。
The
Further, the
この誤り修正手段152は、修正が行われた場合、音声認識情報Rec(図4)の単語を上書きして修正するとともに、修正フラグfをセットする。この誤り修正手段152は、他の編集手段15の誤り修正手段152が同じ修正対象に対して修正を行う場合でも、上書き(後書き優先)で更新することで、複雑な排他制御を行わないこととする。
そして、誤り修正手段152は、他の編集手段15に対して修正を行ったことを通知することで、対応する誤り修正手段152が、音声認識情報Rec(図4)を参照して、修正内容を反映させる。あるいは、誤り修正手段152は、変更前の単語と変更後の単語とを通知することとしてもよい。
このとき、誤り修正手段152は、修正が行われた単語を修正が行われていない単語とは異なる色属性(例えば、赤色)で表示する。
これによって、誤り修正手段152は、他の修正端末2で修正された内容を作業者に視認させることができる。
When the correction is made, the
Then, the error correction means 152 notifies the other editing means 15 that the correction has been made, so that the corresponding error correction means 152 refers to the voice recognition information Rec (FIG. 4), and the correction contents. Reflect. Or the error correction means 152 is good also as notifying the word before a change and the word after a change.
At this time, the
Thereby, the error correction means 152 can make an operator visually recognize the content corrected by the
例えば、図10に示すように、編集領域317において、同じ修正対象を異なる修正端末21,22で修正が行われるとする。
この場合、図10(a)に示すように、修正端末21の作業者は、編集領域317において「京」を「今日」に修正する。また、図10(b)に示すように、修正端末22の作業者は、編集領域317において「ハタ」を「肌」に修正する。
そして、修正端末21,22に対応するそれぞれの誤り修正手段152が、それぞれの修正内容を通知しあうことで、他の修正内容を反映させる。
これによって、複数の修正端末2で迅速に音声認識の誤りを修正することができる。
For example, as shown in FIG. 10, it is assumed that the same correction target is corrected by
In this case, as shown in FIG. 10 (a), the
Then, the respective error correction means 152 corresponding to the
As a result, it is possible to quickly correct an error in speech recognition with a plurality of
また、誤り修正手段152は、単語列を修正する際に、音声を再生する機能を有する。
具体的には、誤り修正手段152は、編集領域317(図9)において、マウスのクリック、あるいは、タッチパネルへのタッチにより、選択された単語から音声を再生する。また、音声再生中、再度、任意の位置を選択されることで、誤り修正手段152は、音声の再生を停止する。
In addition, the
Specifically, the
図11は、編集領域における編集作業の一例を説明するための説明図である。
例えば、図11の編集領域317において、マウスクリック等で「3月」が選択された場合、誤り修正手段152は、素材情報記憶手段14のセグメントに含まれる単語の時間情報(図4の時間情報t)を参照して、対応する素材セグメントの位置から音声を再生するように、映像/音声再生手段153に指示する。なお、このとき、音声に連動して、動画表示領域313Bにおいて、音声再生の時間に対応する映像を再生することとしてもよい。
FIG. 11 is an explanatory diagram for explaining an example of editing work in the editing area.
For example, in the
そして、誤り修正手段152は、図11に示すように、音声の再生位置とセグメント中の再生有無とを明示するように、音声の再生に連動して、再生される音声に対応する各単語の表示部分の表示属性を変更する。例えば、誤り修正手段152は、音声に対応する単語を、白黒反転または予め定めた色でカラー表示する。
図2に戻って、音声認識誤り修正支援装置1の構成について説明を続ける。
Then, as shown in FIG. 11, the
Returning to FIG. 2, the description of the configuration of the speech recognition error correction support apparatus 1 will be continued.
映像/音声再生手段153は、素材コンテンツの映像および音声を修正端末2に出力するものである。この映像/音声再生手段153は、編集画面制御手段151または誤り修正手段152により指定された位置に基づいて、素材情報記憶手段14から映像/音声を読み出して、修正端末2に出力する
The video / audio reproduction means 153 outputs the video and audio of the material content to the
修正結果出力手段154は、誤り修正手段152で修正された音声認識結果(書き起こし結果)を、外部に出力するものである。
この修正結果出力手段154は、編集画面制御手段151から出力される修正対象の素材コンテンツに対する修正後の音声認識結果を、素材情報記憶手段14から読み出して、対応する修正端末2に出力する。
The correction result output means 154 outputs the voice recognition result (transcription result) corrected by the error correction means 152 to the outside.
The correction
例えば、修正結果出力手段154は、図12に示すように、タイトルTと、時間情報・項目Kと、修正結果Wとを含んだテキストデータを生成する。なお、時間情報・項目Kと、修正結果Wとは、セグメントの数だけ複数存在する。
For example, the correction
タイトルTには、例えば、修正日を記載する。
時間情報・項目Kには、例えば、セグメントの開始時間tsと、当該セグメントに対応付けられた項目k(図5参照)を記載する。なお、現在入力中の素材コンテンツで、セグメント情報が確定していない場合、修正結果出力手段154は、時間情報には、先頭単語の時間情報t(図4参照)を記載し、項目を空欄とする。
In the title T, for example, a correction date is described.
In the time information / item K, for example, a segment start time ts and an item k (see FIG. 5) associated with the segment are described. If the segment information is not finalized for the material content currently being input, the correction result output means 154 describes the time information t (see FIG. 4) of the first word in the time information, and sets the item as blank. To do.
修正結果Wには、例えば、セグメントに対応する修正後の単語w列(図4参照)を記載する。なお、現在入力中の素材コンテンツで、セグメント情報が確定していない場合、修正結果出力手段154は、現在入力中の素材コンテンツに対応する音声認識情報の現時点までの単語w列(図4参照)を記載する。 In the correction result W, for example, a corrected word w string (see FIG. 4) corresponding to the segment is described. If the segment information is not finalized in the currently input material content, the correction result output means 154 displays the word w string up to the present time of the speech recognition information corresponding to the currently input material content (see FIG. 4). Is described.
この修正結果出力手段154は、修正後の音声認識結果を、テキストデータとして、修正端末2に出力することとしてもよいし、音声認識情報に修正フラグf(図4参照)が設定されている単語については、色情報を付加した予め定めたフォーマット、例えば、PDF(Portable Document Format)等のデータとして出力することとしてもよい。
The correction result output means 154 may output the corrected speech recognition result as text data to the
情報削除手段16は、素材情報記憶手段14に記憶されている情報を定期的に削除するものである。例えば、情報削除手段16は、予め保存日数等が設定され、当該日数を超過した情報(素材コンテンツCon、音声認識情報Rec、セグメント情報Seg(図3参照))を削除する。
The
以上説明したように音声認識誤り修正支援装置1を構成することで、音声認識誤り修正支援装置1は、複数の修正端末2によって、同一の修正対象であっても、後で行った修正を有効とすることで、排他制御を行うことなく、作業者の修正を迅速に反映することができる。また、音声認識誤り修正支援装置1は、ある修正端末2で行った修正を他の修正端末2に通知することができるため、複数の修正端末2で同じ修正を行うことを防止することができ、全体として修正時間を短くすることができ、入力される素材コンテンツに対してリアルタイムに音声認識誤りを修正することができる。
また、音声認識誤り修正支援装置1は、簡易なテキスト編集操作で、認識結果の単語とその元となった音声とを確認しながら、音声認識の誤りを修正することができる。
なお、音声認識誤り修正支援装置1は、コンピュータを、前記した各手段として機能させるための音声認識誤り修正支援プログラムで動作させることができる。
By configuring the speech recognition error correction support device 1 as described above, the speech recognition error correction support device 1 enables the correction performed later by the plurality of
In addition, the speech recognition error correction support device 1 can correct a speech recognition error while confirming a recognition result word and a speech that is a source of the recognition result by a simple text editing operation.
Note that the speech recognition error correction support apparatus 1 can be operated by a speech recognition error correction support program for causing a computer to function as each of the above-described means.
[音声認識誤り修正支援装置の動作]
次に、図13〜図15を参照して、本発明の実施形態に係る音声認識誤り修正支援装置1の動作について説明する。なお、ここでは、音声認識誤り修正支援装置1の動作として、素材コンテンツに対して音声認識による認識結果をセグメント単位で生成するセグメント情報生成動作と、認識結果をセグメント単位で修正端末2に提示するセグメント情報提示動作と、音声再生を行いながら認識結果を修正するセグメント修正動作と、について説明する。
[Operation of voice recognition error correction support device]
Next, the operation of the speech recognition error correction support apparatus 1 according to the embodiment of the present invention will be described with reference to FIGS. Here, as the operation of the speech recognition error correction support apparatus 1, the segment information generation operation for generating the recognition result by the speech recognition for the material content in the segment unit and the recognition result in the segment unit are presented to the
(セグメント情報生成動作)
まず、図13を参照(適宜図2参照)して、音声認識誤り修正支援装置1のセグメント情報生成動作について説明する。
(Segment information generation operation)
First, the segment information generation operation of the speech recognition error correction support apparatus 1 will be described with reference to FIG. 13 (refer to FIG. 2 as appropriate).
ステップS1において、素材コンテンツ入力手段10は、音声認識を行う素材コンテンツを入力する。このとき、素材コンテンツ入力手段10は、入力した素材コンテンツを素材情報記憶手段14に書き込み記憶する。
ステップS2において、音声認識手段11は、ステップS1で入力した素材コンテンツの音声を認識し、テキストデータである認識結果と当該認識結果を構成する単語ごとの時間情報とを対応付けて、認識結果分割手段12に通知するとともに、素材情報記憶手段14に書き込み記憶する。
In step S1, the material content input means 10 inputs material content for voice recognition. At this time, the material
In step S2, the speech recognition means 11 recognizes the speech of the material content input in step S1, associates the recognition result as text data with the time information for each word constituting the recognition result, and divides the recognition result. The information is notified to the
ステップS3において、認識結果分割手段12は、ステップS2で認識された認識結果を、予め定めた基準、例えば、映像のカット点、音声の無音区間等によりセグメントに分割する。
In step S3, the recognition
ステップS4において、項目情報抽出手段13は、ステップS3で分割されたセグメントごとに、セグメントに含まれる特徴単語を項目として抽出するとともに、セグメントに対応する映像からサムネイル画像を抽出する。このとき、項目情報抽出手段13は、抽出した項目およびサムネイル画像を、セグメントに対応付けて素材情報記憶手段14に書き込み記憶する。
ここで、素材コンテンツの入力が完了していない場合(ステップS5でNo)、音声認識誤り修正支援装置1は、ステップS1に戻って、素材コンテンツの入力を続ける。
一方、素材コンテンツの入力が完了した場合(ステップS5でYes)、音声認識誤り修正支援装置1は、動作を終了する。
以上の動作によって、音声認識誤り修正支援装置1は、図3に示すように、素材情報記憶手段14に、素材コンテンツと、音声認識情報およびセグメント情報とを対応付ける。
In step S4, the item
Here, when the input of the material content is not completed (No in step S5), the speech recognition error correction support apparatus 1 returns to step S1 and continues the input of the material content.
On the other hand, when the input of the material content is completed (Yes in step S5), the speech recognition error correction support apparatus 1 ends the operation.
Through the above operation, the speech recognition error correction support apparatus 1 associates material content, speech recognition information, and segment information with the material
(セグメント情報提示動作)
次に、図14を参照(適宜図2参照)して、音声認識誤り修正支援装置1のセグメント情報提示動作について説明する。なお、このセグメント情報提示動作は、修正端末2との接続が開始された後の編集手段15の動作である。
(Segment information presentation operation)
Next, the segment information presentation operation of the speech recognition error correction support apparatus 1 will be described with reference to FIG. 14 (refer to FIG. 2 as appropriate). The segment information presentation operation is an operation of the editing unit 15 after the connection with the
ステップS10において、修正対象選択手段150は、素材情報記憶手段14に記憶されている音声認識誤りを修正する対象の素材コンテンツを選択する選択画面30(図6参照)を修正端末2に表示する。
ステップS11において、修正対象選択手段150は、画面上で、修正対象の素材コンテンツの開始時間と終了時間とが設定され、修正開始ボタンが押下されるまで待機する(ステップS11でNo)。そして、修正開始ボタンが押下された場合(ステップS11でYes)、修正対象選択手段150は、ステップS12以降の制御を行う編集画面制御手段151に制御を移す。
In step S <b> 10, the correction
In step S11, the correction
ステップS12において、編集画面制御手段151は、素材情報記憶手段14に記憶されている各種の情報に基づいて、セグメントごとに、項目と当該セグメントに含まれる単語列を表示するか否かを指定する選択ボタンとを含んだ項目一覧画面31(図8参照)を修正端末2に表示する。
In step S12, the edit
ステップS13において、編集画面制御手段151は、項目一覧画面で選択ボタン(open)が押下されるまで待機する(ステップS13でNo)。
一方、選択ボタン(open)が押下された場合(ステップS13でYes)、ステップS14において、編集画面制御手段151は、図9に示すように、選択されたセグメントに対応して編集領域317を表示し、素材情報記憶手段14に記憶されている当該セグメントに対応する認識結果である単語列を編集領域317に展開する。
In step S13, the edit
On the other hand, when the selection button (open) is pressed (Yes in step S13), in step S14, the edit screen control means 151 displays an
この動作以降、編集手段15は、作業者が修正端末2の画面上で編集結果を修正可能な状態に移行する。なお、選択ボタン(open)の押下により編集領域317を表示した場合、編集画面制御手段151は、任意のタイミングで、選択ボタン(close)の押下により編集領域317を非表示とすることができるが、この非表示の動作については図示を省略した。また、項目一覧画面31B(図9参照)の動画表示領域313Bにおける素材コンテンツの再生動作についてもここでは説明を省略する。
以上の動作によって、音声認識誤り修正支援装置1は、素材コンテンツをセグメント単位で、音声認識の誤りを修正することが可能になる。
After this operation, the editing means 15 shifts to a state in which the operator can correct the editing result on the screen of the
With the above operation, the speech recognition error correction support apparatus 1 can correct a speech recognition error for each segment of material content.
(セグメント修正動作)
次に、図15を参照(適宜図2参照)して、音声認識誤り修正支援装置1のセグメント修正動作について説明する。なお、セグメント修正動作は、作業者が行う任意の手順であるため、ここでは、音声再生と修正動作とを併せて行う動作の一例で説明する。
(Segment correction operation)
Next, the segment correction operation of the speech recognition error correction support apparatus 1 will be described with reference to FIG. 15 (refer to FIG. 2 as appropriate). Since the segment correction operation is an arbitrary procedure performed by the operator, here, an example of an operation performed in combination with audio reproduction and correction operation will be described.
ステップS20において、誤り修正手段152は、作業者のマウスのクリック、あるいは、タッチパネルへのタッチにより、編集領域317(図9)内の音声を再生したい単語または単語列を選択する。このとき、誤り修正手段152は、映像/音声再生手段153を介して、素材情報記憶手段14のセグメントの時間情報を参照して、単語または単語列に対応する時間の音声を修正端末2に出力する。これによって、修正端末2で音声が再生され、作業者は、音声と音声認識された単語列とを対比して確認することができる。
In step S20, the
ステップS21において、誤り修正手段152は、作業者のマウスのクリック、あるいは、タッチパネルへのタッチにより、修正箇所の位置の指定を受け付ける。このとき、誤り修正手段152は、音声が再生中であれば、修正端末2への出力を停止する。これによって、音声の再生が停止される。
In step S <b> 21, the
ステップS22において、誤り修正手段152は、編集領域の指定された位置にカーソルを表示して、文字削除、文字挿入等の作業者の編集作業により、認識誤りを修正する。ここで、誤り修正手段152は、素材情報記憶手段14の単語を修正結果で更新する。
ステップS23において、誤り修正手段152は、他の編集手段15に修正内容を通知することで、他の編集手段15の誤り修正手段152が、対応する修正端末2に表示する内容を反映する。
In step S22, the
In step S <b> 23, the
ステップS24において、誤り修正手段152は、作業者のマウスのクリック、あるいは、タッチパネルへのタッチにより、修正を行った箇所の位置の指定を受け付ける。このとき、誤り修正手段152は、映像/音声再生手段153を介して、素材情報記憶手段14のセグメントの時間情報を参照して、単語または単語列に対応する時間の音声を修正端末2に出力する。これによって、修正端末2で音声が再生され、作業者は、修正結果が正しいか否かを確認することができる。
In step S <b> 24, the
なお、図示を省略しているが、ステップS24における作業者の確認で、修正箇所がまだ正しく修正されていない場合、ステップS22に戻って、動作を繰り返す。
以上の動作によって、音声認識誤り修正支援装置1は、複数の修正端末2で迅速に音声認識の誤りを修正することができる。
Although illustration is omitted, if the corrected part has not been corrected correctly by the operator's confirmation in step S24, the process returns to step S22 and the operation is repeated.
With the above operation, the speech recognition error correction support apparatus 1 can quickly correct a speech recognition error with the plurality of
以上、本発明の実施形態について説明したが、本発明は、この実施形態に限定されるものではない。
ここでは、素材コンテンツを、映像および音声を含んだものとして説明したが、音声のみの素材コンテンツであっても構わない。
その場合、項目情報抽出手段13は、項目のみを抽出し、サムネイル画像を抽出しないこととすればよい。また、映像/音声再生手段153は、音声のみを出力する音声出力手段とすればよい。
Although the embodiment of the present invention has been described above, the present invention is not limited to this embodiment.
Here, the material content has been described as including video and audio, but it may be audio-only material content.
In that case, the item information extraction means 13 may extract only the items and not the thumbnail images. Further, the video /
また、ここでは、音声認識誤りの修正対象を、すでに音声認識が完了した素材コンテンツと、現在音声認識中の素材コンテンツとしたが、いずれか一方のみであっても構わない。例えば、現在音声認識中の素材コンテンツのみを音声認識誤りの修正対象とする場合、音声認識誤り修正支援装置1は、認識結果分割手段12、項目情報抽出手段13および修正対象選択手段150を省略して簡易に構成しても構わない。
また、ここでは、修正対象選択手段150は、素材コンテンツを記憶した日時を基準として、修正対象の素材コンテンツを選択することとしたが、選択基準は、日時に限定されるものではない。例えば、素材コンテンツが、放送素材として、ニュース、スポーツ等の電子番組ガイドのジャンルが対応付けられている場合、ジャンルを指定して、素材コンテンツを選択することとしてもよい。あるいは、素材コンテンツに当該素材を収録した際のイベント情報が付加されている場合、イベントを指定して、素材コンテンツを選択することとしてもよい。
In addition, here, the correction target of the voice recognition error is the material content that has already been voice-recognized and the material content that is currently being voice-recognized. For example, when only the material content that is currently undergoing speech recognition is the target of speech recognition error correction, the speech recognition error correction support device 1 omits the recognition
Here, the correction
また、音声認識誤り修正支援装置1は、音声認識手段11を外部に備えてもよい。
例えば、図16に示す音声認識誤り修正支援装置1Bの構成としてもよい。音声認識誤り修正支援装置1Bは、音声認識誤り修正支援装置1(図2)の音声認識手段11を音声認識装置として外部に備える。この場合、入力インタフェースである認識結果入力手段19が単語および時間情報を対応付けて素材情報記憶手段14に記憶するとともに、認識結果分割手段12に通知することとすればよい。
なお、音声認識誤り修正支援装置1Bも、コンピュータを、前記した各手段として機能させるための音声認識誤り修正支援プログラムで動作させることができる。
Further, the voice recognition error correction support device 1 may include voice recognition means 11 outside.
For example, it is good also as a structure of the speech recognition error
Note that the speech recognition error
また、編集画面制御手段151は、項目一覧画面31,31B(図8,図9参照)で表示する各項目に対応付けて時間情報を表示することとしてもよい。
例えば、図17に示すように、編集画面制御手段151は、項目ごとに、時間情報318,318Bを表示する。これによって、複数表示されている項目の中から、参照したい時間の項目に対して容易にアクセスすることができる。
このとき、編集画面制御手段151は、選択ボタンが「open」の項目については、素材コンテンツの先頭単語の時間情報である開始時間ts(図5参照)を、固定的に時間情報318として表示する。また、編集画面制御手段151は、選択ボタンが「close」の項目については、素材コンテンツの開始時間から映像/音声再生手段153(音声出力手段)が出力する音声の再生時間に対応する時間を、可変的に時間情報318Bとして表示する。
Further, the edit screen control means 151 may display time information in association with each item displayed on the item list screens 31 and 31B (see FIGS. 8 and 9).
For example, as shown in FIG. 17, the edit screen control means 151
At this time, the edit screen control means 151 displays the start time ts (see FIG. 5), which is the time information of the first word of the material content, as
また、ここでは、時間情報として音声認識誤り修正支援装置1に入力された時間を用いたが、図17に示すような時間情報を表示する場合、素材コンテンツに付加されているタイムコードを用いてもよい。
その場合、素材コンテンツ入力手段10は、素材情報記憶手段14の先頭の項目の開始時間ts(図5参照)に、「00:00:00:00」を設定する。そして、素材コンテンツにタイムコードがタグ情報として付加されている場合、例えば、XDCAM(登録商標)等の動画フォーマットの素材コンテンツの場合、素材コンテンツ入力手段10は、タイムコードを素材コンテンツごとに素材情報記憶手段14に記憶する。
Here, the time input to the speech recognition error correction support apparatus 1 is used as the time information. However, when displaying the time information as shown in FIG. 17, the time code added to the material content is used. Also good.
In this case, the material
そして、編集画面制御手段151は、図18に示すように、タイムコードが付加されている素材コンテンツについては、タイムコードが付加されていない時間情報を基準として、タイムコード分の時間を加算する。なお、図18では、タイムコードのうち、「時:分:秒」のみを表示している。
Then, as shown in FIG. 18, the edit
例えば、編集画面制御手段151は、タイムコードが付加されていない素材コンテンツについては、図19(a)に示すように、タイムテーブル表示欄314に素材コンテンツの先頭開始時間314aを表示するとともに、各項目に時間情報318を表示する。
また、編集画面制御手段151は、タイムコードが付加されている素材コンテンツについては、図19(b)に示すように、タイムテーブル表示欄314に素材コンテンツの先頭開始時間とタイムコードの時間とを加算した時間を先頭開始時間314aとして表示するとともに、各項目の時間情報318についてもそれぞれの項目の時間情報にタイムコードの時間を加算して表示する。
これによって、発話内容とタイムコードとの対応を明確にすることができる。
For example, as shown in FIG. 19A, the edit
Further, the edit screen control means 151 sets the start time of the material content and the time of the time code in the time
This makes it possible to clarify the correspondence between the utterance content and the time code.
また、誤り修正手段152は、編集動作をコンテキストメニューから選択することとしてもよい。
例えば、図20に示すように、誤り修正手段152は、マウスの右クリックキー等によって、コンテキストメニュー319を表示する。
コンテキストメニュー319には、機能(コピー等)とショートカットキー(Ctrl+C等)とが併せて表示され、マウスの左クリック等によって機能が選択されることで、誤り修正手段152は、該当する編集動作を実行する。あるいは、機能に対応するショートカットキーが押下されることで、修正手段152は、該当する編集動作を実行する。
これによって、作業者の操作方法の習得や、操作手順を最小限に抑えることができる。
Further, the
For example, as shown in FIG. 20, the
In the
As a result, the operator can learn the operation method and the operation procedure can be minimized.
また、ここでは、修正結果出力手段154が、修正後の音声認識結果を修正端末2に出力することとした。
しかし、修正結果出力手段154は、修正時において、任意の文字列を他のデバイスに表示可能な形態で出力することとしてもよい。
例えば、編集画面制御手段151は、編集領域317(図9参照)を編集中に、マウスにより、2次元コード(例えば、QRコード〔登録商標〕)で出力したい文字列を選択し、修正結果出力手段154に2次元コードで文字列を出力することを指示する。
Here, the correction result output means 154 outputs the corrected speech recognition result to the
However, the correction result output means 154 may output an arbitrary character string in a form that can be displayed on another device at the time of correction.
For example, the editing
この場合、編集画面制御手段151は、文字列を選択し、図20に示したコンテキストメニュー319で「選択文字列のQR表示」を選択するか、ショートカットキー(ここでは、Ctrl+Q)を押下されることで、選択文字列を修正結果出力手段154に出力する。なお、このとき、編集画面制御手段151は、選択文字列とともに、選択文字列の先頭の単語に対応する時間情報も修正結果出力手段154に出力する。
In this case, the edit screen control means 151 selects a character string and selects “QR display of selected character string” from the
そして、修正結果出力手段154は、図21(a)に示すように、時間情報と選択文字列とをテキストとするQRコードを生成し、例えば、モーダルウインドウ320としてQRコードを表示する。なお、編集画面制御手段151は、モーダルウインドウ320の任意の場所をマウスでクリックされるまで、モーダルウインドウ320を表示し、クリック後、モーダルウインドウ320を非表示とする。
これによって、QRコードを読み込み可能な機器(スマートフォン、タブレット等)はQR読み込み機能によってQRコードを読み込み復号することで、選択文字列を表示することができる。
例えば、スマートフォンの画面には、図21(b)に示すように、選択文字列と、先頭単語(ここでは、「東北」)に対応する時間情報とが表示される。
これによって、修正結果出力手段154は、音声認識結果(書き起こし結果)を、ネットワークに接続されていない機器に伝達することができる。
Then, as shown in FIG. 21A, the correction
Thereby, a device (smart phone, tablet, etc.) that can read the QR code can display the selected character string by reading and decoding the QR code by the QR reading function.
For example, as shown in FIG. 21B, the selected character string and time information corresponding to the first word (here, “Tohoku”) are displayed on the screen of the smartphone.
Thereby, the correction result output means 154 can transmit the voice recognition result (transcription result) to a device not connected to the network.
1,1B 音声認識誤り修正支援装置
10 素材コンテンツ入力手段
11 音声認識手段
12 認識結果分割手段
13 項目情報抽出手段
14 素材情報記憶手段(記憶手段)
15 編集手段
150 編集対象選択手段
151 編集画面制御手段
152 誤り修正手段
153 映像/音声再生手段(音声出力手段)
154 修正結果出力手段
19 認識結果入力手段
1, 1B Voice recognition error
DESCRIPTION OF SYMBOLS 15 Editing means 150 Editing object selection means 151 Editing screen control means 152 Error correction means 153 Video / audio reproduction means (audio output means)
154 Correction result output means 19 Recognition result input means
Claims (9)
前記音声を認識し、テキストデータである認識結果と当該認識結果を構成する単語ごとの時間情報とを生成する音声認識手段と、
前記認識結果ごとに、当該認識結果に含まれる前記単語ごとの時間情報を対応付けて、前記素材コンテンツおよび当該素材コンテンツの時間情報とともに記憶する記憶手段と、
前記複数の修正端末を介して、前記認識結果に対する修正内容を取得し、前記音声認識の誤りを修正する複数の編集手段と、を備え、
前記編集手段は、
修正対象となる素材コンテンツの前記認識結果を含んだ編集画面を前記修正端末に表示する編集画面制御手段と、
前記編集画面上で指定されたテキスト内における単語の前記時間情報に基づいて、対応する音声を、前記修正端末に出力する音声出力手段と、
前記編集画面で修正された修正内容を用いて、前記記憶手段に記憶されている前記認識結果を後書き優先で更新するとともに、前記認識結果が後書きされた旨の更新通知を他の編集手段に通知して前記修正端末に対応する前記修正内容を反映させる誤り修正手段と、
を備えることを特徴とする音声認識誤り修正支援装置。 A speech recognition error correction support device that inputs material content and corrects an error in speech recognition for speech included in the material content via a plurality of correction terminals,
Voice recognition means for recognizing the voice and generating a recognition result that is text data and time information for each word constituting the recognition result;
Storage means for associating time information for each word included in the recognition result for each of the recognition results, and storing together with the material content and the time information of the material content;
A plurality of editing means for acquiring correction contents for the recognition result via the plurality of correction terminals and correcting an error in the speech recognition; and
The editing means includes
An editing screen control means for displaying an editing screen including the recognition result of the material content to be corrected on the correction terminal;
A voice output means for outputting a corresponding voice to the correction terminal based on the time information of the word in the text designated on the editing screen;
The recognition result stored in the storage unit is updated with priority on the postscript using the correction content corrected on the editing screen, and an update notification to the effect that the recognition result has been postwritten is sent to other editing units. And error correction means for reflecting the correction content corresponding to the correction terminal;
A speech recognition error correction support apparatus comprising:
外部の音声認識手段により前記音声を認識されたテキストデータである認識結果と当該認識結果を構成する単語ごとの時間情報とを記憶する記憶手段と、
前記複数の修正端末を介して、前記認識結果に対する修正内容を取得し、前記音声認識の誤りを修正する複数の編集手段と、を備え、
前記編集手段は、
修正対象となる素材コンテンツの前記認識結果を含んだ編集画面を前記修正端末に表示する編集画面制御手段と、
前記編集画面上で指定されたテキスト内における単語の前記時間情報に基づいて、対応する音声を、前記修正端末に出力する音声出力手段と、
前記編集画面で修正された修正内容を用いて、前記記憶手段に記憶されている前記認識結果を更新するとともに、前記認識結果が後書きされた旨の更新通知を他の編集手段に通知して前記修正端末に対応する前記修正内容を反映させる誤り修正手段と、
を備えることを特徴とする音声認識誤り修正支援装置。 A speech recognition error correction support device that inputs material content and corrects an error in speech recognition for speech included in the material content via a plurality of correction terminals,
Storage means for storing a recognition result, which is text data recognized by the external voice recognition means, and time information for each word constituting the recognition result;
A plurality of editing means for acquiring correction contents for the recognition result via the plurality of correction terminals and correcting an error in the speech recognition; and
The editing means includes
An editing screen control means for displaying an editing screen including the recognition result of the material content to be corrected on the correction terminal;
A voice output means for outputting a corresponding voice to the correction terminal based on the time information of the word in the text designated on the editing screen;
Update the recognition result stored in the storage unit using the correction content corrected on the editing screen, and notify the other editing unit of an update notification indicating that the recognition result has been postwritten. Error correction means for reflecting the correction content corresponding to the correction terminal;
A speech recognition error correction support apparatus comprising:
前記編集画面制御手段は、前記修正対象選択手段で選択された1以上の修正対象の前記認識結果を含んだ編集画面を前記修正端末に表示することを特徴とする請求項1から請求項3のいずれか一項に記載の音声認識誤り修正支援装置。 The editing means further includes a correction target selection means for displaying a correction target selection screen for selecting one or more material contents to be corrected on the correction terminal,
The said edit screen control means displays the edit screen containing the said recognition result of the 1 or more correction object selected by the said correction object selection means on the said correction terminal, The Claim 1 to Claim 3 characterized by the above-mentioned. The speech recognition error correction support device according to any one of the above.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018089633 | 2018-05-08 | ||
JP2018089633 | 2018-05-08 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019197210A true JP2019197210A (en) | 2019-11-14 |
JP2019197210A5 JP2019197210A5 (en) | 2021-05-20 |
JP6949075B2 JP6949075B2 (en) | 2021-10-13 |
Family
ID=68537953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019081066A Active JP6949075B2 (en) | 2018-05-08 | 2019-04-22 | Speech recognition error correction support device and its program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6949075B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021140084A (en) * | 2020-03-06 | 2021-09-16 | 日本放送協会 | Speech recognition error correction support device, program and method, and speech recognition device |
CN116229975A (en) * | 2023-03-17 | 2023-06-06 | 杭州盈禾嘉田科技有限公司 | System and method for voice reporting of field diseases and insect pests in intelligent interaction scene |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000089786A (en) * | 1998-09-08 | 2000-03-31 | Nippon Hoso Kyokai <Nhk> | Method and apparatus for correcting speech recognition result |
JP2004226910A (en) * | 2003-01-27 | 2004-08-12 | Nippon Hoso Kyokai <Nhk> | Speech recognition error correction device, speech recognition error correction method, and speech recognition error correction program |
JP2006330170A (en) * | 2005-05-24 | 2006-12-07 | Nhk Engineering Services Inc | Recorded document creation support system |
WO2010146869A1 (en) * | 2009-06-18 | 2010-12-23 | 日本電気株式会社 | Editing support system, editing support method and editing support program |
JP2011076540A (en) * | 2009-10-01 | 2011-04-14 | King Jim Co Ltd | Document editing device and data transfer method using the same |
JP2014134640A (en) * | 2013-01-09 | 2014-07-24 | Nippon Hoso Kyokai <Nhk> | Transcription device and program |
JP2014146066A (en) * | 2013-01-25 | 2014-08-14 | Canon Inc | Document data generation device, document data generation method, and program |
JP2015184564A (en) * | 2014-03-25 | 2015-10-22 | 株式会社アドバンスト・メディア | Voice transcribing support system, server, device, method and program |
-
2019
- 2019-04-22 JP JP2019081066A patent/JP6949075B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000089786A (en) * | 1998-09-08 | 2000-03-31 | Nippon Hoso Kyokai <Nhk> | Method and apparatus for correcting speech recognition result |
JP2004226910A (en) * | 2003-01-27 | 2004-08-12 | Nippon Hoso Kyokai <Nhk> | Speech recognition error correction device, speech recognition error correction method, and speech recognition error correction program |
JP2006330170A (en) * | 2005-05-24 | 2006-12-07 | Nhk Engineering Services Inc | Recorded document creation support system |
WO2010146869A1 (en) * | 2009-06-18 | 2010-12-23 | 日本電気株式会社 | Editing support system, editing support method and editing support program |
JP2011076540A (en) * | 2009-10-01 | 2011-04-14 | King Jim Co Ltd | Document editing device and data transfer method using the same |
JP2014134640A (en) * | 2013-01-09 | 2014-07-24 | Nippon Hoso Kyokai <Nhk> | Transcription device and program |
JP2014146066A (en) * | 2013-01-25 | 2014-08-14 | Canon Inc | Document data generation device, document data generation method, and program |
JP2015184564A (en) * | 2014-03-25 | 2015-10-22 | 株式会社アドバンスト・メディア | Voice transcribing support system, server, device, method and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021140084A (en) * | 2020-03-06 | 2021-09-16 | 日本放送協会 | Speech recognition error correction support device, program and method, and speech recognition device |
JP7481863B2 (en) | 2020-03-06 | 2024-05-13 | 日本放送協会 | Speech recognition error correction support device, program, and method |
CN116229975A (en) * | 2023-03-17 | 2023-06-06 | 杭州盈禾嘉田科技有限公司 | System and method for voice reporting of field diseases and insect pests in intelligent interaction scene |
CN116229975B (en) * | 2023-03-17 | 2023-08-18 | 杭州盈禾嘉田科技有限公司 | System and method for voice reporting of field diseases and insect pests in intelligent interaction scene |
Also Published As
Publication number | Publication date |
---|---|
JP6949075B2 (en) | 2021-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210165973A1 (en) | Generating and Editing Media | |
US20200126583A1 (en) | Discovering highlights in transcribed source material for rapid multimedia production | |
US11024316B1 (en) | Systems and methods for capturing, processing, and rendering one or more context-aware moment-associating elements | |
US20200126559A1 (en) | Creating multi-media from transcript-aligned media recordings | |
JP6280312B2 (en) | Minutes recording device, minutes recording method and program | |
WO2016146978A1 (en) | Media generating and editing system | |
JP5206553B2 (en) | Browsing system, method, and program | |
JP2020079982A (en) | Tagging device for moving images, method, and program | |
CN111885416B (en) | Audio and video correction method, device, medium and computing equipment | |
JP6865701B2 (en) | Speech recognition error correction support device and its program | |
CN111885313A (en) | Audio and video correction method, device, medium and computing equipment | |
US10089898B2 (en) | Information processing device, control method therefor, and computer program | |
US12400661B2 (en) | Systems and methods for capturing, processing, and rendering one or more context-aware moment-associating elements | |
US20110113357A1 (en) | Manipulating results of a media archive search | |
KR20190083532A (en) | System for learning languages using the video selected by the learners and learning contents production method thereof | |
JP5568953B2 (en) | Information processing apparatus, scene search method, and program | |
JP6949075B2 (en) | Speech recognition error correction support device and its program | |
CN114157823A (en) | Information processing apparatus, information processing method, and computer-readable medium | |
CN110782899B (en) | Information processing device, storage medium and information processing method | |
JP7575804B2 (en) | Voice recognition program, voice recognition method, voice recognition device, and voice recognition system | |
JP7481863B2 (en) | Speech recognition error correction support device, program, and method | |
US10657202B2 (en) | Cognitive presentation system and method | |
JP2016151856A (en) | Note preparation support device, note preparation support method, and note preparation support program | |
JP6815254B2 (en) | Minutes support device, minutes support method, and computer program | |
WO2019069997A1 (en) | Information processing device, screen output method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210407 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210407 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210407 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210617 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210824 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210921 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6949075 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |