[go: up one dir, main page]

JP2019197210A - Speech recognition error correction support device and its program - Google Patents

Speech recognition error correction support device and its program Download PDF

Info

Publication number
JP2019197210A
JP2019197210A JP2019081066A JP2019081066A JP2019197210A JP 2019197210 A JP2019197210 A JP 2019197210A JP 2019081066 A JP2019081066 A JP 2019081066A JP 2019081066 A JP2019081066 A JP 2019081066A JP 2019197210 A JP2019197210 A JP 2019197210A
Authority
JP
Japan
Prior art keywords
correction
editing
speech recognition
error correction
material content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019081066A
Other languages
Japanese (ja)
Other versions
JP6949075B2 (en
JP2019197210A5 (en
Inventor
三島 剛
Takeshi Mishima
剛 三島
庄衛 佐藤
Shoe Sato
庄衛 佐藤
麻乃 一木
Manon Ichiki
麻乃 一木
伊藤均
Hitoshi Ito
均 伊藤
愛子 所澤
Aiko Tokorozawa
愛子 所澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Publication of JP2019197210A publication Critical patent/JP2019197210A/en
Publication of JP2019197210A5 publication Critical patent/JP2019197210A5/ja
Application granted granted Critical
Publication of JP6949075B2 publication Critical patent/JP6949075B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)

Abstract

【課題】複数の修正端末での待ち時間を抑えて、迅速に音声認識の誤りを修正することが可能な音声認識誤り修正支援装置を提供する。【解決手段】音声認識誤り修正支援装置1は、音声の認識結果と単語ごとの時間情報とを生成する音声認識手段11と、複数の修正端末2を介して、認識結果に対する修正内容を取得して誤りを修正する複数の編集手段15と、を備え、編集手段15は、認識結果を含んだ編集画面を表示する編集画面制御手段151と、編集画面上で指定されたテキスト内における単語の時間情報に基づいて、対応する音声を出力する音声再生手段153と、編集画面で修正された修正内容を用いて、認識結果を後書き優先で更新するとともに、他の編集手段に更新通知を通知して反映させる誤り修正手段152と、を備える。【選択図】図2PROBLEM TO BE SOLVED: To provide a voice recognition error correction support device capable of promptly correcting a voice recognition error while suppressing a waiting time at a plurality of correction terminals. SOLUTION: A voice recognition error correction support device 1 acquires a correction content for a recognition result via a voice recognition means 11 for generating a voice recognition result and time information for each word, and a plurality of correction terminals 2. A plurality of editing means 15 for correcting an error by editing, and the editing means 15 displays the editing screen control means 151 for displaying the editing screen including the recognition result, and the time of the word in the text specified on the editing screen. Based on the information, the recognition result is updated with the postscript priority by using the sound reproduction unit 153 that outputs a corresponding sound and the correction content corrected on the editing screen, and the other updating unit is notified of the update notification. Error correction means 152 for reflecting the information. [Selection diagram] Figure 2

Description

本発明は、音声認識の誤り修正を支援する音声認識誤り修正支援装置およびそのプログラムに関する。   The present invention relates to a speech recognition error correction support device that supports error correction in speech recognition and a program thereof.

番組取材等で収録した音声素材(映像・音声素材を含む)の音声を文字として利用する場合、音声の書き起こし作業が必須の作業となっている。通常、この作業は、作業者が、収録した素材の音声を聴取し、端末のキーボード等で文字を入力することにより行っている。このとき、作業者は、音声の再生と停止を頻繁に繰り返したり、何度も同一箇所の音声を聞き直したりすることになるが、この作業は熟練者であっても素材の収録時間に対して約6倍の作業時間がかかるとも言われている。   When using the sound of audio material (including video / audio material) recorded in a program interview, etc. as a character, the transcription work of the audio is indispensable. Usually, this work is performed by the operator listening to the sound of the recorded material and inputting characters using a keyboard or the like of the terminal. At this time, the worker frequently repeats playback and stop of the sound or listens to the sound at the same location many times. It is said that it takes about six times as much work time.

従来の音声の書き起こし作業を支援する技術として、ライブストリーミングのコンテンツをリアルタイムに音声認識し、不特定多数の複数のユーザが音声認識結果中の誤りに対して正しい文字列を入力する技術が開示されている(特許文献1参照)。
また、書き起こし作業を支援する技術として、入力された音声を任意の単位に区切った文(セル)ごとに音声認識処理を施し、作業者が、音声認識処理された認識結果と、これに対応する音声とを比較し、音声認識処理の誤りを修正する技術が開示されている(特許文献2参照)。この技術は、音声認識処理においてセル単位で音声を再生し、作業者がセル単位で認識結果を修正し、セルの修正を一般的なテキストエディタの操作で行う。また、この技術では、作業者は、セルの修正後、セルの先頭から音声を再生して、認識結果を正しく修正したか否かを確認する。
Disclosed is a technology that supports real-time voice transcription work by recognizing live streaming content in real time, and allowing multiple unspecified users to input correct character strings for errors in the speech recognition results. (See Patent Document 1).
In addition, as a technology to support the transcription work, speech recognition processing is performed for each sentence (cell) in which the input speech is divided into arbitrary units, and the worker recognizes the recognition result after the speech recognition processing and responds to this. A technique for correcting an error in speech recognition processing by comparing with speech to be performed is disclosed (see Patent Document 2). In this technology, voice is reproduced in units of cells in the speech recognition process, the operator corrects the recognition result in units of cells, and the cells are corrected by a general text editor operation. Further, in this technique, after the cell is corrected, the worker reproduces the sound from the head of the cell and confirms whether or not the recognition result is correctly corrected.

特開2013−29684号公報JP 2013-29684 A 特開2015−184564号公報Japanese Patent Laying-Open No. 2015-184564

特許文献1で開示されている技術は、書き起こしの対象がライブストリーミングのコンテンツであるため、過去に遡ってコンテンツの内容を確認することができない。そのため、この技術は、音声認識誤りが多い場合、発話内容が不明瞭で何度も聞き直す必要がある場合等、誤りが残存してしまうという問題がある。
特許文献2で開示されている技術は、セル単位で音声の再生および認識結果の修正を行うため、修正箇所が少なくても、修正箇所の音声と修正結果が合致するか否かを確認するために、セルの先頭から音声を再生する必要がある。そのため、この技術は、セルの途中にある修正対象箇所の音声が再生されるまで、待ち時間が発生してしまうという問題があった。
In the technique disclosed in Patent Document 1, since the transcription target is live streaming content, it is not possible to check the content contents retroactively. Therefore, this technique has a problem that errors remain when there are many speech recognition errors, or when the utterance content is unclear and it is necessary to listen again and again.
Since the technique disclosed in Patent Document 2 performs sound reproduction and correction of recognition results in cell units, even if there are few correction points, it is necessary to check whether the correction points and the correction results match. In addition, it is necessary to reproduce audio from the beginning of the cell. For this reason, this technique has a problem that a waiting time occurs until the sound of the correction target portion in the middle of the cell is reproduced.

そこで、本発明は、単語単位で音声の再生を可能とし、音声認識の完了済みまたは音声認識中のコンテンツであっても、複数の修正端末での待ち時間を抑えて、迅速に音声認識の誤りを修正することが可能な音声認識誤り修正支援装置およびそのプログラムを提供することを課題とする。   Therefore, the present invention enables speech reproduction in units of words, and even if the speech recognition has been completed or the content is being speech-recognized, the speech recognition error can be quickly performed by suppressing waiting time at a plurality of correction terminals. It is an object of the present invention to provide a speech recognition error correction support device and a program thereof that can correct the error.

前記課題を解決するため、本発明に係る音声認識誤り修正支援装置は、素材コンテンツを入力し、当該素材コンテンツに含まれる音声に対する音声認識の誤りを複数の修正端末を介して修正する音声認識誤り修正支援装置であって、音声認識手段と、記憶手段と、複数の編集手段と、を備え、編集手段が、編集画面制御手段と、音声出力手段と、誤り修正手段と、を備える構成とした。   In order to solve the above problems, a speech recognition error correction support device according to the present invention inputs a material content, and corrects a speech recognition error for a speech included in the material content via a plurality of correction terminals. A correction support device comprising a voice recognition means, a storage means, and a plurality of editing means, wherein the editing means comprises an editing screen control means, a voice output means, and an error correction means. .

かかる構成において、音声認識誤り修正支援装置は、音声認識手段によって、音声を認識し、テキストデータである認識結果を生成するとともに、当該認識結果を構成する単語ごとの時間情報とを生成する。この時間情報は、素材コンテンツの先頭からの相対的な経過時間である。これによって、音声認識手段は、認識した単語ごとに、素材コンテンツの先頭からの相対的な経過時間を対応付ける。
また、音声認識誤り修正支援装置は、認識結果および時間情報を、素材コンテンツとともに記憶手段に記憶する。
そして、音声認識誤り修正支援装置は、複数の修正端末に対応した編集手段によって、修正端末を介して、認識結果に対する修正内容を取得し、音声認識の誤りを修正する。
In such a configuration, the speech recognition error correction support device recognizes speech by the speech recognition means, generates a recognition result that is text data, and generates time information for each word constituting the recognition result. This time information is a relative elapsed time from the top of the material content. Thereby, the voice recognition means associates the relative elapsed time from the top of the material content with each recognized word.
Further, the speech recognition error correction support device stores the recognition result and the time information in the storage unit together with the material content.
Then, the speech recognition error correction support device acquires the correction content for the recognition result via the correction terminal by the editing means corresponding to the plurality of correction terminals, and corrects the speech recognition error.

ここで、編集手段は、編集画面制御手段によって、修正対象となる素材コンテンツの認識結果を含んだ編集画面を修正端末に表示する。
また、編集手段は、編集画面上で指定されたテキスト内における単語の時間情報に基づいて、対応する音声を修正端末に出力する。これによって、作業者は、音声認識されたテキストと音声とを単語ごとに確認することが可能になる。
そして、音声認識誤り修正支援装置は、誤り修正手段によって、編集画面で修正された修正内容を用いて、記憶手段に記憶されている認識結果を後書き優先(上書き)で更新するとともに、認識結果が後書きされた旨の更新通知を他の編集手段に通知して修正端末に対応する修正内容を反映させる。これによって、作業者は、他の修正端末で修正された修正箇所を認識することが可能になる。
Here, the editing means displays the editing screen including the recognition result of the material content to be corrected on the correction terminal by the editing screen control means.
The editing means outputs the corresponding voice to the correction terminal based on the time information of the word in the text designated on the editing screen. As a result, the operator can check the speech-recognized text and speech for each word.
Then, the speech recognition error correction support device updates the recognition result stored in the storage means with the postscript priority (overwrite) using the correction content corrected on the editing screen by the error correction means, and the recognition result is An update notification to the effect that the postscript has been written is sent to the other editing means to reflect the correction content corresponding to the correction terminal. As a result, the operator can recognize the corrected portion corrected by another correction terminal.

なお、音声認識誤り修正支援装置は、音声認識手段を外部に備える構成としてもよい。
また、音声認識誤り修正支援装置は、コンピュータを、前記した各手段として機能させるための音声認識誤り修正支援プログラムで動作させることができる。
Note that the voice recognition error correction support device may include a voice recognition unit outside.
Further, the speech recognition error correction support apparatus can be operated by a speech recognition error correction support program for causing a computer to function as each of the above-described means.

本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、素材コンテンツを音声認識した認識結果を、修正端末の編集画面上に表示し、任意の単語位置で音声を再生して認識結果を把握することができるとともに、複数の修正端末で修正内容を共有して認識誤りを修正することができる。
また、本発明によれば、複数の修正端末による修正を後書き優先で行うことで、修正端末間で排他制御を行うことなく、修正端末の待ち時間を減らすことができる。
The present invention has the following excellent effects.
According to the present invention, the recognition result obtained by voice recognition of the material content can be displayed on the editing screen of the correction terminal, and the recognition result can be grasped by reproducing the voice at an arbitrary word position. Can share corrections and correct recognition errors.
Further, according to the present invention, by performing correction by a plurality of correction terminals with priority on the postscript, the waiting time of the correction terminals can be reduced without performing exclusive control between the correction terminals.

本発明の実施形態に係る音声認識誤り修正システムの構成を示すブロック構成図である。It is a block block diagram which shows the structure of the speech recognition error correction system which concerns on embodiment of this invention. 本発明の実施形態に係る音声認識誤り修正支援装置の構成を示すブロック構成図である。It is a block block diagram which shows the structure of the speech recognition error correction assistance apparatus which concerns on embodiment of this invention. 素材情報記憶手段が記憶する記憶内容を説明するための説明図である。It is explanatory drawing for demonstrating the memory content which a raw material information storage means memorize | stores. 音声認識情報の内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of voice recognition information. セグメント情報の内容を説明するための説明図である。It is explanatory drawing for demonstrating the content of segment information. 素材コンテンツを選択する画面の例を示す図であって、(a)は選択画面例、(b)はリストボックス例、(c)は現時間設定ボタンを押下された際の選択画面例を示す。It is a figure which shows the example of the screen which selects material content, Comprising: (a) is an example of a selection screen, (b) is an example of a list box, (c) is an example of a selection screen when a current time setting button is pressed. . 素材コンテンツを選択する際の開始時刻および終了時刻を説明するための説明図である。It is explanatory drawing for demonstrating the start time and end time at the time of selecting material content. 素材コンテンツの音声認識結果を分割した項目の一覧を示す項目一覧画面の一例を示す画面構成図である。It is a screen block diagram which shows an example of the item list screen which shows the list of the item which divided | segmented the voice recognition result of material content. 項目一覧画面で編集領域に音声認識結果を展開した例を示す画面構成図である。It is a screen block diagram which shows the example which expanded the voice recognition result to the edit area | region on the item list screen. 異なる修正端末での編集画面を示し、同じ対象を修正している状態を説明するための説明図である。It is explanatory drawing for demonstrating the edit screen in a different correction terminal, and demonstrating the state which is correcting the same object. 編集領域における編集作業の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the edit operation | work in an edit area. 修正結果出力手段が生成する修正結果の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the correction result which a correction result output means produces | generates. 本発明の実施形態に係る音声認識誤り修正支援装置の音声認識結果をセグメント単位で生成するセグメント情報生成動作を示すフローチャートである。It is a flowchart which shows the segment information production | generation operation | movement which produces | generates the speech recognition result of the speech recognition error correction assistance apparatus which concerns on embodiment of this invention per segment. 本発明の実施形態に係る音声認識誤り修正支援装置の音声認識結果をセグメント単位で修正端末に提示するセグメント情報提示動作を示すフローチャートである。It is a flowchart which shows the segment information presentation operation | movement which shows the speech recognition result of the speech recognition error correction assistance apparatus which concerns on embodiment of this invention to a correction terminal per segment. 本発明の実施形態に係る音声認識誤り修正支援装置の音声再生を行いながら認識結果を修正するセグメント修正動作を示すフローチャートである。It is a flowchart which shows the segment correction operation | movement which corrects a recognition result, performing voice reproduction of the speech recognition error correction assistance apparatus which concerns on embodiment of this invention. 本発明の変形例の実施形態に係る音声認識誤り修正支援装置の構成を示すブロック構成図である。It is a block block diagram which shows the structure of the speech recognition error correction assistance apparatus which concerns on embodiment of the modification of this invention. 項目一覧画面で編集領域に時間情報を表示した例を示す画面構成図である。It is a screen block diagram which shows the example which displayed time information on the edit area | region on the item list screen. タイムコードの有無による表示時間の違いを説明するための説明図である。It is explanatory drawing for demonstrating the difference in the display time by the presence or absence of a time code. 項目一覧画面の一例を示す画面構成図であって、(a)はタイムコードがない例、(b)はタイムコードがある場合の例を示す。It is a screen block diagram which shows an example of an item list screen, Comprising: (a) is an example without a time code, (b) shows an example when there is a time code. コンテキストメニューを表示した項目一覧画面の一例を示す画面構成図である。It is a screen block diagram which shows an example of the item list screen which displayed the context menu. 選択文字列を2次元コードで符号化して表示する例を示す画面構成図であって、(a)は2次元コードを表示した画面、(b)は符号化された文字列の内容を示す図である。It is a screen block diagram which shows the example which encodes and displays a selection character string with a two-dimensional code, Comprising: (a) is a screen which displayed the two-dimensional code, (b) is a figure which shows the content of the encoded character string It is.

以下、本発明の実施形態について図面を参照して説明する。
[音声認識誤り修正システムの概要]
最初に、図1を参照して、本発明の実施形態に係る音声認識誤り修正支援装置1を含んだ音声認識誤り修正システムSの概要について説明する。
Embodiments of the present invention will be described below with reference to the drawings.
[Outline of speech recognition error correction system]
First, an outline of a speech recognition error correction system S including a speech recognition error correction support device 1 according to an embodiment of the present invention will be described with reference to FIG.

音声認識誤り修正システムSは、少なくとも音声を含んだ素材コンテンツにおける音声の認識誤りを修正するものである。なお、本実施形態では、素材コンテンツは、映像と音声とからなるコンテンツ、例えば、放送用素材とする。
音声認識誤り修正システムSは、音声認識誤り修正支援装置1と、複数の修正端末2(2,…,2)と、を備える。
The speech recognition error correction system S corrects a speech recognition error in material content including at least speech. In the present embodiment, the material content is content composed of video and audio, for example, broadcasting material.
The speech recognition error correction system S includes a speech recognition error correction support device 1 and a plurality of correction terminals 2 (2,..., 2).

音声認識誤り修正支援装置1は、素材コンテンツを入力し、当該素材コンテンツに含まれる音声に対する音声認識の誤りを複数の修正端末2を介して修正するものである。
この音声認識誤り修正支援装置1は、素材コンテンツを逐次音声認識して認識結果と音声とを単語ごとに対応付け、修正端末2において、作業者が指定する任意の単語位置からの音声再生を可能とする。また、音声認識誤り修正支援装置1は、複数の修正端末2による修正を逐次反映し、複数の修正端末2で異なる修正があった場合、排他制御を行わずに、後の修正を有効とする。
The speech recognition error correction support apparatus 1 inputs material content and corrects speech recognition errors for speech included in the material content via a plurality of correction terminals 2.
This speech recognition error correction support device 1 sequentially recognizes material content, associates recognition results with speech for each word, and can perform speech playback from an arbitrary word position designated by the operator on the correction terminal 2. And In addition, the voice recognition error correction support device 1 sequentially reflects the corrections made by the plurality of correction terminals 2, and if there are different corrections at the plurality of correction terminals 2, the subsequent correction is made effective without performing exclusive control. .

修正端末2は、音声認識誤り修正支援装置1が音声認識したテキストデータである認識結果に含まれている誤りを修正するものである。この修正端末2は、キーボード等の入力装置、編集画面を表示する表示装置、音声を表示するスピーカ等を備える。表示装置は、タッチパネルを備える構成としてもよい。
音声認識誤り修正支援装置1と修正端末2とは、インターネット、イントラネット等で接続する。
このように、音声認識誤り修正支援装置1は、同じ素材コンテンツに対して、排他制御を行わずに、複数の修正端末2により音声認識の誤りを修正する。
The correction terminal 2 corrects an error included in a recognition result which is text data recognized by the voice recognition error correction support apparatus 1. The correction terminal 2 includes an input device such as a keyboard, a display device that displays an editing screen, a speaker that displays sound, and the like. The display device may include a touch panel.
The speech recognition error correction support apparatus 1 and the correction terminal 2 are connected via the Internet, an intranet, or the like.
Thus, the speech recognition error correction support apparatus 1 corrects speech recognition errors by the plurality of correction terminals 2 without performing exclusive control on the same material content.

これによって、音声認識誤り修正システムSは、音声認識中の素材コンテンツであっても、単語単位で音声と認識結果とを確認することができるとともに、排他制御を行わないため、リアルタイムに複数の修正端末2によって迅速に音声認識の誤りを修正することができる。
以下、音声認識誤り修正支援装置1の構成および動作について説明する。
As a result, the speech recognition error correction system S can confirm the speech and the recognition result in units of words even for the material content during speech recognition, and does not perform exclusive control. The terminal 2 can quickly correct a speech recognition error.
Hereinafter, the configuration and operation of the speech recognition error correction support apparatus 1 will be described.

[音声認識誤り修正支援装置の構成]
まず、図2を参照して、音声認識誤り修正支援装置1の構成について説明する。
音声認識誤り修正支援装置1は、図2に示すように、素材コンテンツ入力手段10と、音声認識手段11と、認識結果分割手段12と、項目情報抽出手段13と、素材情報記憶手段14と、編集手段15(15,…,15)と、情報削除手段16と、を備える。
[Configuration of voice recognition error correction support device]
First, the configuration of the speech recognition error correction support device 1 will be described with reference to FIG.
As shown in FIG. 2, the speech recognition error correction support apparatus 1 includes a material content input unit 10, a speech recognition unit 11, a recognition result division unit 12, an item information extraction unit 13, a material information storage unit 14, Editing means 15 (15,..., 15) and information deletion means 16 are provided.

素材コンテンツ入力手段10は、素材コンテンツを入力するものである。
素材コンテンツ入力手段10は、例えば、外部の記憶媒体から素材コンテンツを入力するものであってもよいし、通信回線を介して入力するものであってもよい。
この素材コンテンツ入力手段10は、入力した素材コンテンツのうち、音声については、音声認識手段11に出力する。また、素材コンテンツ入力手段10は、入力した素材コンテンツ(映像・音声)を、後記する編集手段15における修正作業に使用するため、素材情報記憶手段14に書き込み記憶する。
The material content input means 10 inputs material content.
The material content input unit 10 may input material content from an external storage medium, for example, or input via a communication line.
The material content input unit 10 outputs the audio of the input material content to the voice recognition unit 11. The material content input means 10 writes and stores the input material content (video / audio) in the material information storage means 14 for use in correction work in the editing means 15 described later.

音声認識手段11は、素材コンテンツ入力手段10が入力した素材コンテンツの音声を認識し、テキストデータである認識結果と当該認識結果を構成する単語ごとの時間情報とを生成するものである。
この音声認識手段11は、図示を省略した言語モデル、音響モデル、発音辞書により、音声認識を行い、認識した単語と、その単語の音声の先頭からの経過時間を示す時間情報とを生成する。音声認識手段11は、生成した認識結果の単語と時間情報とを、順次、認識結果分割手段12に通知するとともに、素材情報記憶手段14に書き込み記憶する。
なお、音声認識手段11における音声認識の手法は、例えば、特開2010−175765等に開示された音声から単語列を認識し、その結果を出力する手法を用いてもよい。
The voice recognition unit 11 recognizes the voice of the material content input by the material content input unit 10 and generates a recognition result as text data and time information for each word constituting the recognition result.
The voice recognition unit 11 performs voice recognition using a language model, an acoustic model, and a pronunciation dictionary (not shown), and generates a recognized word and time information indicating an elapsed time from the head of the voice of the word. The voice recognition unit 11 sequentially notifies the recognition result dividing unit 12 of the generated recognition result words and time information, and writes and stores them in the material information storage unit 14.
Note that the speech recognition method in the speech recognition means 11 may be, for example, a method of recognizing a word string from speech disclosed in JP 2010-175765 A and outputting the result.

認識結果分割手段12は、音声認識手段11で認識された認識結果(単語列)を、予め定めた基準で分割するものである。以下、認識結果分割手段12で生成された分割認識結果のそれぞれのかたまり(単語列)をセグメントとよぶ。
認識結果分割手段12が用いる分割の基準は、任意の基準を予め定めることができる。
例えば、分割の基準として、音声の無音区間を用いることができる。この場合、認識結果分割手段12は、音声認識手段11から取得する音声認識結果の時間情報を利用して、単語間の時間間隔が予め定めた時間以上存在した場合は無音区間と判定し、無音区間の前後で分割する。
The recognition result dividing unit 12 divides the recognition result (word string) recognized by the voice recognition unit 11 according to a predetermined reference. Hereinafter, each block (word string) of the divided recognition results generated by the recognition result dividing unit 12 is referred to as a segment.
As a division criterion used by the recognition result dividing unit 12, an arbitrary criterion can be determined in advance.
For example, a silent section of speech can be used as a division criterion. In this case, the recognition result dividing unit 12 uses the time information of the speech recognition result acquired from the speech recognition unit 11, and determines that the interval between words is longer than a predetermined time as a silent section, Split before and after the section.

また、例えば、分割の基準として、映像のカット点を用いることができる。この場合、認識結果分割手段12は、素材情報記憶手段14に記憶されている映像から、隣接するフレームの画像特徴が予め定めた基準よりも大きく異なるフレームをカット点として検出し、カット点の時間の前後で認識結果を分割する。   Further, for example, a cut point of the video can be used as a reference for division. In this case, the recognition result dividing unit 12 detects, from the video stored in the material information storage unit 14, a frame whose image feature of an adjacent frame is significantly different from a predetermined reference as a cut point, and the time of the cut point Divide the recognition result before and after.

また、例えば、分割の基準として、素材コンテンツに予め付加されているメタ情報を用いてもよい。メタ情報としては、GPS(Global Positioning System)の位置情報(ジオタグ)等がある。この場合、認識結果分割手段12は、位置情報によって、素材コンテンツを撮影または集音した場所が異なっている時点で、認識結果を分割する。   Further, for example, meta information previously added to the material content may be used as a division criterion. The meta information includes GPS (Global Positioning System) position information (geotag) and the like. In this case, the recognition result dividing unit 12 divides the recognition result at a point in time where the location where the material content is shot or collected differs according to the position information.

認識結果分割手段12は、音声認識結果を分割したセグメントを、項目情報抽出手段13に出力する。また、認識結果分割手段12は、セグメントごとに、単語とその時間情報とを素材情報記憶手段14に書き込み記憶する。   The recognition result dividing unit 12 outputs the segment obtained by dividing the speech recognition result to the item information extracting unit 13. The recognition result dividing unit 12 writes and stores the word and its time information in the material information storage unit 14 for each segment.

項目情報抽出手段13は、認識結果分割手段12で分割されたセグメントごとに、当該セグメントに含まれる特徴単語を項目として抽出するものである。
この特徴単語は、セグメント内に含まれる特徴的な単語である。例えば、項目情報抽出手段13は、TF−IDF法(TF:Term Frequency、単語の出現頻度、IDF:Inverse Document Frequency、逆文書頻度)によりセグメントを特徴付ける単語を抽出する。TF−IDFは、文書(本実施形態では、セグメント)中の単語に関する重みの一種であり、主に情報検索や文章要約などの分野で利用される。
具体的には、項目情報抽出手段13は、セグメントs内の単語wの出現頻度tf(w,s)を、以下の式(1)で算出する。
The item information extraction unit 13 extracts a feature word included in the segment as an item for each segment divided by the recognition result division unit 12.
This characteristic word is a characteristic word included in the segment. For example, the item information extraction unit 13 extracts a word characterizing a segment by a TF-IDF method (TF: Term Frequency, word appearance frequency, IDF: Inverse Document Frequency, inverse document frequency). The TF-IDF is a kind of weight related to a word in a document (in this embodiment, a segment), and is mainly used in fields such as information retrieval and sentence summarization.
Specifically, the item information extraction unit 13 calculates the appearance frequency tf (w, s) of the word w in the segment s by the following equation (1).

Figure 2019197210
Figure 2019197210

この式(1)で、nw,sは、ある単語wのセグメントs内での出現回数、Σt∈st,sは、セグメントs内のすべての単語の出現回数の和を示す。
また、項目情報抽出手段13は、ある単語wの逆文書頻度idf(w)を、以下の式(2)で算出する。
In this equation (1), n w, s represents the number of appearances of a word w in the segment s, and Σtεs n t, s represents the sum of the number of occurrences of all words in the segment s.
Further, the item information extraction unit 13 calculates the inverse document frequency idf (w) of a certain word w by the following equation (2).

Figure 2019197210
Figure 2019197210

この式(2)で、Nは、素材コンテンツ内の全セグメント数、df(w)は、ある単語wが出現する素材コンテンツのセグメントの数(総セグメント数〔総文書数〕)を示す。
そして、項目情報抽出手段13は、セグメント内の各単語について、以下の式(3)に示すように、式(1)のtf値と式(2)のidf値との積が最も大きい単語、あるいは、予め定めた基準値よりも大きい単語を、当該セグメントの特徴単語とする。
In this equation (2), N represents the total number of segments in the material content, and df (w) represents the number of material content segments in which a certain word w appears (total number of segments [total number of documents]).
Then, for each word in the segment, the item information extraction means 13 is the word having the largest product of the tf value of the expression (1) and the idf value of the expression (2), as shown in the following expression (3): Alternatively, a word larger than a predetermined reference value is set as a feature word of the segment.

Figure 2019197210
Figure 2019197210

項目情報抽出手段13は、抽出した項目を、セグメントに対応付けて素材情報記憶手段14に書き込み記憶する。
なお、項目情報抽出手段13は、TF−IDF法を用いずに、セグメントを形態素解析し、名詞や固有名詞を特徴単語として抽出することとしてもよい。
The item information extraction unit 13 writes and stores the extracted item in the material information storage unit 14 in association with the segment.
In addition, the item information extraction means 13 is good also as extracting a noun and a proper noun as a feature word by carrying out the morphological analysis of a segment, without using TF-IDF method.

また、項目情報抽出手段13は、素材コンテンツが映像を含んでいる場合、特徴単語以外に、セグメントに対応する時間区間の映像からサムネイル画像を抽出してもよい。例えば、項目情報抽出手段13は、セグメントに対応する時間区間の映像の先頭フレームをサムネイル画像として抽出する。項目情報抽出手段13は、抽出したサムネイル画像を、セグメントに対応付けて素材情報記憶手段14に書き込み記憶する。   In addition, when the material content includes video, the item information extraction unit 13 may extract a thumbnail image from the video in the time section corresponding to the segment, in addition to the feature word. For example, the item information extraction unit 13 extracts the first frame of the video in the time interval corresponding to the segment as a thumbnail image. The item information extraction unit 13 writes and stores the extracted thumbnail image in the material information storage unit 14 in association with the segment.

素材情報記憶手段(記憶手段)14は、音声認識の誤りを修正する対象となる素材コンテンツと、素材コンテンツをセグメントに分割した各種情報とを記憶するものである。この素材情報記憶手段14は、ハードディスク、半導体メモリ等の一般的な記憶媒体で構成することができる。   The material information storage unit (storage unit) 14 stores material content that is a target for correcting an error in speech recognition and various types of information obtained by dividing the material content into segments. This material information storage means 14 can be constituted by a general storage medium such as a hard disk or a semiconductor memory.

ここで、図3〜図5(適宜図2参照)して、素材情報記憶手段14が記憶する素材情報について具体的に説明する。
図3に示すように、素材情報記憶手段14は、音声認識誤りを修正する対象となる素材コンテンツ(映像・音声)Conを記憶する。素材コンテンツ(映像・音声)Conは、素材コンテンツ入力手段10によって、記憶されたものである。
Here, the material information stored in the material information storage unit 14 will be specifically described with reference to FIGS.
As shown in FIG. 3, the material information storage unit 14 stores material content (video / audio) Con that is a target for correcting a voice recognition error. The material content (video / audio) Con is stored by the material content input means 10.

また、図3に示すように、素材情報記憶手段14は、素材コンテンツConごとに、音声認識情報Recとセグメント情報Segとを対応付けて記憶する。なお、素材コンテンツConには、当該素材コンテンツConの識別情報(ID等)および時間情報を付加(不図示)しておく。時間情報は、予め定めた基準時間であって、例えば、音声認識誤り修正支援装置1に入力された時間(入力開始時間(年月日時分等))等である。   Further, as shown in FIG. 3, the material information storage unit 14 stores the voice recognition information Rec and the segment information Seg in association with each material content Con. In addition, identification information (ID etc.) and time information of the material content Con are added (not shown) to the material content Con. The time information is a predetermined reference time, and is, for example, a time (input start time (year, month, date, etc.)) input to the speech recognition error correction support device 1 or the like.

音声認識情報Recは、音声認識手段11で認識され、対応付けられた単語および時間情報である。
例えば、図4に示すように、音声認識情報Recは、素材コンテンツを識別する識別情報(素材コンテンツ識別情報)に対応付けて、単語wごとに、時間情報tと修正フラグfとを対応付ける。ここで、修正フラグfは、修正端末2によって修正が加えられたか否かを示す情報である(例えば、修正あり“1”、修正なし“0”)。
The speech recognition information Rec is the word and time information recognized and associated with the speech recognition means 11.
For example, as shown in FIG. 4, the voice recognition information Rec associates time information t with a correction flag f for each word w in association with identification information (material content identification information) for identifying material content. Here, the correction flag f is information indicating whether or not correction has been made by the correction terminal 2 (for example, “1” with correction, “0” without correction).

セグメント情報Segは、音声認識情報Recを、認識結果分割手段12でセグメントに分割した内容を示す情報である。
例えば、図5に示すように、セグメント情報Segは、素材コンテンツ識別情報に対応付けて、個々のセグメントを識別する識別情報(番号等)ごとに、開始時間tsと、終了時間teと、項目kと、サムネイル画像gとを対応付ける。
ここで、開始時間tsおよび終了時間teは、セグメントの時間区間を示す。項目kは、項目情報抽出手段13が抽出した特徴単語である。サムネイル画像gは、項目情報抽出手段13が当該セグメントの先頭の時間情報に対応した、素材コンテンツの映像から抽出したフレーム画像である。
The segment information Seg is information indicating the content obtained by dividing the speech recognition information Rec into segments by the recognition result dividing unit 12.
For example, as shown in FIG. 5, the segment information Seg is associated with the material content identification information, for each identification information (number etc.) for identifying each segment, a start time ts, an end time te, and an item k. Is associated with the thumbnail image g.
Here, the start time ts and the end time te indicate the time interval of the segment. The item k is a feature word extracted by the item information extraction unit 13. The thumbnail image g is a frame image extracted from the material content video corresponding to the time information at the head of the segment by the item information extraction unit 13.

なお、図3の例では、素材コンテンツCon3については、音声認識がすべて終了しておらず、セグメント情報Segが確定していない状態を示している。
また、ここでは、素材コンテンツConと、音声認識情報Recおよびセグメント情報Segとを、同一の記憶手段に記憶しているが、別々の記憶手段に記憶することとしてもよい。
図2に戻って、音声認識誤り修正支援装置1の構成について説明を続ける。
In the example of FIG. 3, for the material content Con3, all the speech recognition is not completed and the segment information Seg is not determined.
Here, the material content Con, the voice recognition information Rec, and the segment information Seg are stored in the same storage unit, but may be stored in separate storage units.
Returning to FIG. 2, the description of the configuration of the speech recognition error correction support apparatus 1 will be continued.

編集手段15は、外部に接続された修正端末2を用いて、作業者が、素材情報記憶手段14に記憶されている音声認識結果を修正するものである。この編集手段15は、複数の修正端末2ごとに複数存在する。なお、編集手段15は、修正端末2に対する1つのプロセスとして動作し、修正端末2が接続されるたびに、プロセスが複製される構成であっても構わない。
編集手段15は、図2に示すように、修正対象選択手段150と、編集画面制御手段151と、誤り修正手段152と、映像/音声再生手段153と、修正結果出力手段154と、を備える。
The editing means 15 is for the operator to correct the speech recognition result stored in the material information storage means 14 by using the correction terminal 2 connected to the outside. There are a plurality of editing means 15 for each of the plurality of correction terminals 2. Note that the editing unit 15 may operate as one process for the correction terminal 2 and the process may be duplicated each time the correction terminal 2 is connected.
As shown in FIG. 2, the editing unit 15 includes a correction target selection unit 150, an editing screen control unit 151, an error correction unit 152, a video / audio reproduction unit 153, and a correction result output unit 154.

修正対象選択手段150は、音声認識誤りを修正する対象の素材コンテンツを選択するものである。修正対象選択手段150は、修正端末2に修正対象の素材コンテンツを選択する画面を表示し、修正端末2からの選択を受け付ける。
ここで、図6を参照して、素材コンテンツを選択する画面の一例を説明する。例えば、修正対象選択手段150は、図6(a)に示すような選択画面30を表示する。
The correction target selection means 150 selects the material content that is the target of correcting the voice recognition error. The correction target selection unit 150 displays a screen for selecting the material content to be corrected on the correction terminal 2 and accepts a selection from the correction terminal 2.
Here, an example of a screen for selecting material content will be described with reference to FIG. For example, the correction target selection unit 150 displays a selection screen 30 as shown in FIG.

選択画面30は、時間区間を特定することで、修正対象となる素材コンテンツを特定する画面である。選択画面30は、時間設定領域301と、現時間設定ボタン302と、修正開始ボタン303と、を備える。   The selection screen 30 is a screen for specifying material content to be corrected by specifying a time section. The selection screen 30 includes a time setting area 301, a current time setting button 302, and a correction start button 303.

時間設定領域301は、開始時刻および終了時刻を設定する領域である。例えば、時間設定領域301は、年月日、時、分をそれぞれ設定するリストボックスとする。この時間設定領域301は、例えば、図6(b)に示すように、ボタン301aを押下されることで、候補となるリストをスクロールバー301b付きで表示する。時、分についても同様である。この開始時刻と終了時刻とによって、修正対象となる素材コンテンツが特定される。   The time setting area 301 is an area for setting a start time and an end time. For example, the time setting area 301 is a list box for setting the date, hour, and minute. For example, as shown in FIG. 6B, the time setting area 301 displays a candidate list with a scroll bar 301b when the button 301a is pressed. The same applies to hours and minutes. The material content to be corrected is specified by the start time and the end time.

現時間設定ボタン302は、現在の時刻から現在入力中(あるいは、それ以降)の素材コンテンツを修正対象とするための設定ボタンである。
例えば、図6(c)に示すように、現時間設定ボタン302を押下されることで、開始時刻に現時刻を設定し、終了時刻を指定しないこととし、現在の時刻から現在入力中(あるいは、それ以降)の素材コンテンツを修正対象とする。
修正開始ボタン303は、開始時刻および終了時刻を設定した後、修正対象となる素材コンテンツの修正を開始するためのボタンである。
The current time setting button 302 is a setting button for setting the material content currently being input (or later) from the current time to be corrected.
For example, as shown in FIG. 6C, when the current time setting button 302 is pressed, the current time is set as the start time, and the end time is not specified. , And later) are subject to correction.
The correction start button 303 is a button for starting correction of the material content to be corrected after setting the start time and the end time.

ここで、図7を参照して、修正対象選択手段150で選択された開始時刻および終了時刻で特定される素材コンテンツの時間区間について説明する。
図7は、本日のn日(予め定めた日数)前から本日までの時間を時系列で示したものである。
Here, with reference to FIG. 7, the time interval of the material content specified by the start time and the end time selected by the correction target selection means 150 will be described.
FIG. 7 shows the time from today before n days (a predetermined number of days) to today, in time series.

時間区間T1は、本日から2日前のある時刻を開始時刻とし、本日から1日前のある時刻を終了時刻としたときの例である。なお、時間区間T1は、開始時刻については、設定された時刻よりも予め定めた時間bt(例えば、数十秒〜数分)だけ早い時刻とする。これによって、修正端末2の作業者は、実際に修正を行う時点よりも前の音声を確認することが可能になる。   The time interval T1 is an example when a certain time two days before today is a start time and a certain time one day before today is an end time. The time interval T1 is set to a time earlier than the set time by a predetermined time bt (for example, several tens of seconds to several minutes). As a result, the operator of the correction terminal 2 can check the voice before the point of actual correction.

時間区間T2は、素材情報記憶手段14に記憶されている素材コンテンツの最も古い日で、開始時刻と終了時刻とを設定したときの例である。時間区間T2は、設定された時刻よりも予め定めた時間btだけ早い時間の素材コンテンツが存在しない場合、開示時刻を、最も古い素材コンテンツに対応する時刻とする。   The time interval T2 is an example when the start time and the end time are set on the oldest day of the material content stored in the material information storage unit 14. In the time section T2, when there is no material content at a time earlier than the set time by a predetermined time bt, the disclosure time is set as the time corresponding to the oldest material content.

時間区間T3は、本日のある時刻が開始時刻として設定され、終了時刻が設定されていない場合の例である。時間区間T3も、設定された時刻よりも予め定めた時間btだけ早い時刻を開始時刻とする。
図2に戻って、音声認識誤り修正支援装置1の構成について説明を続ける。
修正対象選択手段150は、設定された素材コンテンツのファイル名等の識別情報を、編集画面制御手段151に出力する。
The time interval T3 is an example when a certain time of today is set as the start time and the end time is not set. Also for the time section T3, the start time is a time earlier than the set time by a predetermined time bt.
Returning to FIG. 2, the description of the configuration of the speech recognition error correction support apparatus 1 will be continued.
The correction target selection unit 150 outputs identification information such as the file name of the set material content to the editing screen control unit 151.

編集画面制御手段151は、セグメントごとに、項目と当該セグメントに含まれる単語列を表示するか否かを指定する選択ボタンとを表示し、選択ボタンの押下により、セグメントの単語列を表示するか否かを制御するものである。   For each segment, the edit screen control unit 151 displays an item and a selection button for designating whether or not to display a word string included in the segment, and whether to display the word string of the segment by pressing the selection button. Whether or not.

ここで、図8および図9を参照(適宜図2参照)して、編集画面制御手段151が表示する画面例について、その制御内容とともに説明する。
図8に示すように、編集画面制御手段151は、編集画面制御手段151が表示する修正端末2の画面上に表示する。
Here, referring to FIG. 8 and FIG. 9 (refer to FIG. 2 as appropriate), an example of the screen displayed by the editing screen control means 151 will be described together with its control contents.
As shown in FIG. 8, the edit screen control means 151 displays on the screen of the correction terminal 2 displayed by the edit screen control means 151.

項目一覧画面31は、選択ボタン311と、項目表示欄312と、サムネイル画像表示領域313と、タイムテーブル表示欄314と、スクロールバー表示欄315と、修正結果取得ボタン316と、で構成される。   The item list screen 31 includes a selection button 311, an item display field 312, a thumbnail image display area 313, a time table display field 314, a scroll bar display field 315, and a correction result acquisition button 316.

選択ボタン311は、セグメントごとに単語列を表示するか否かの選択を行うボタンである。
項目表示欄312は、セグメント内で抽出された項目を表示する領域である。編集画面制御手段151は、素材情報記憶手段14から、当該セグメントに対応する項目(図5の項目k)を読み出して、項目表示欄312に表示する。なお、ライブ素材など、現在入力中でセグメント情報が確定していない場合、編集画面制御手段151は、項目表示欄312を空欄とする。
The selection button 311 is a button for selecting whether to display a word string for each segment.
The item display field 312 is an area for displaying items extracted in the segment. The editing screen control unit 151 reads the item corresponding to the segment (item k in FIG. 5) from the material information storage unit 14 and displays it in the item display field 312. If the segment information is not being confirmed while currently being input, such as live material, the editing screen control unit 151 sets the item display field 312 to be blank.

サムネイル画像表示領域313は、セグメント内で抽出されたサムネイル画像を表示する領域である。編集画面制御手段151は、素材情報記憶手段14から、当該セグメントに対応するサムネイル画像(図5のサムネイル画像g)を読み出して、サムネイル画像表示領域313に表示する。なお、素材コンテンツに対応するセグメント情報が確定していない場合、編集画面制御手段151は、対応する素材コンテンツの先頭フレームをサムネイル画像として表示する。   The thumbnail image display area 313 is an area for displaying thumbnail images extracted in the segment. The edit screen control unit 151 reads out a thumbnail image (thumbnail image g in FIG. 5) corresponding to the segment from the material information storage unit 14 and displays it in the thumbnail image display area 313. If the segment information corresponding to the material content is not confirmed, the editing screen control unit 151 displays the first frame of the corresponding material content as a thumbnail image.

タイムテーブル表示欄314は、素材コンテンツの時間軸上におけるセグメント位置を示すタイムテーブルを表示する欄である。編集画面制御手段151は、素材情報記憶手段14のセグメントの時間情報(図5の開始時間tsおよび終了時間te)を参照して、タイムテーブルを生成し表示する。なお、素材コンテンツに対応するセグメント情報が確定していない場合、編集画面制御手段151は、対応する素材コンテンツの先頭の単語と最後の単語の時間情報t(図4参照)を参照する。
スクロールバー表示欄315は、項目一覧が画面に収まらない場合に、どの部分のセグメントを表示しているのかを示すスクロールバーを表示する欄である。編集画面制御手段151は、スクロールバーの上下によって、画面上の項目一覧を更新する。
The time table display field 314 is a field for displaying a time table indicating the segment position on the time axis of the material content. The editing screen control unit 151 generates and displays a time table with reference to the segment time information (start time ts and end time te in FIG. 5) in the material information storage unit 14. If the segment information corresponding to the material content is not confirmed, the editing screen control unit 151 refers to the time information t (see FIG. 4) of the first word and the last word of the corresponding material content.
The scroll bar display column 315 is a column for displaying a scroll bar indicating which segment is being displayed when the item list does not fit on the screen. The edit screen control means 151 updates the item list on the screen by moving the scroll bar up and down.

修正結果取得ボタン316は、修正対象選択手段150で選択した修正対象の素材コンテンツに対する修正結果を要求するボタンである。修正結果取得ボタン316を押下された場合、編集画面制御手段151は、修正対象選択手段150で選択された修正対象の素材コンテンツの識別情報(素材コンテンツ識別情報)を修正結果出力手段154に出力する。
このように、項目一覧画面31を表示することで、作業者は、項目を確認することができ、一度に音声認識結果を表示する場合に比べて、音声認識結果を確認したいセグメントを容易に選択することができる。
The correction result acquisition button 316 is a button for requesting a correction result for the material content to be corrected selected by the correction target selection unit 150. When the correction result acquisition button 316 is pressed, the editing screen control unit 151 outputs the identification information (material content identification information) of the material content to be corrected selected by the correction target selection unit 150 to the correction result output unit 154. .
Thus, by displaying the item list screen 31, the operator can check the items, and easily select a segment for which the speech recognition result is to be confirmed as compared to displaying the speech recognition result at a time. can do.

この項目一覧画面31において、作業者が行う修正端末2のマウスのクリック、あるいは、タッチパネルへのタッチによる選択ボタン(図8中、「open」)311の押下により、編集画面制御手段151は、項目一覧画面31において、セグメントの単語列の修正を行う編集領域317(図9参照)を表示する。   In this item list screen 31, when the operator clicks the mouse of the correction terminal 2 or presses the selection button (“open” in FIG. 8) 311 by touching the touch panel, the editing screen control means 151 displays the item. On the list screen 31, an editing area 317 (see FIG. 9) for correcting the word string of the segment is displayed.

図9は、編集領域317を表示した項目一覧画面31Bを示す画面例である。
この項目一覧画面31Bは、図8で説明した項目一覧画面31に対して、選択されたセグメントにおいて、動画表示領域313Bと、編集領域317とが表示される。
FIG. 9 is a screen example showing an item list screen 31 </ b> B displaying the editing area 317.
In the item list screen 31B, a moving image display area 313B and an edit area 317 are displayed in the selected segment with respect to the item list screen 31 described in FIG.

動画表示領域313Bは、セグメントに対応する素材コンテンツを再生する領域である。編集画面制御手段151は、当該セグメントが選択されたタイミングで、素材情報記憶手段14のセグメントの時間情報(図5の開始時間tsおよび終了時間te)を参照して、対応する素材コンテンツの映像区間の先頭フレームを動画表示領域313Bに表示する。なお、素材コンテンツに対応するセグメント情報が確定していない場合、編集画面制御手段151は、対応する素材コンテンツの先頭の単語の時間情報t(図4参照)を参照して、対応する素材コンテンツの先頭フレームを動画表示領域313Bに表示する。
この動画表示領域313Bの画像領域をマウス等でクリック、あるいは再生開始ボタンstを押下されることで、編集画面制御手段151は、映像/音声再生手段153に当該素材コンテンツの再生を指示する。
The moving image display area 313B is an area for reproducing material content corresponding to a segment. The edit screen control unit 151 refers to the time information (start time ts and end time te in FIG. 5) of the segment in the material information storage unit 14 at the timing when the segment is selected, and the video section of the corresponding material content Is displayed in the moving image display area 313B. If the segment information corresponding to the material content is not fixed, the editing screen control unit 151 refers to the time information t (see FIG. 4) of the first word of the corresponding material content, and the corresponding material content. The first frame is displayed in the moving image display area 313B.
When the image area of the moving image display area 313B is clicked with a mouse or the like or the reproduction start button st is pressed, the editing screen control means 151 instructs the video / audio reproduction means 153 to reproduce the material content.

編集領域317は、セグメントに対応する単語列を表示し、修正を行う編集を領域である。編集画面制御手段151は、編集領域317に、素材情報記憶手段14に記憶されている当該セグメントに対応する単語列を展開する。   The editing area 317 is an area for displaying a word string corresponding to a segment and performing editing. The editing screen control unit 151 expands a word string corresponding to the segment stored in the material information storage unit 14 in the editing area 317.

なお、編集画面制御手段151は、編集領域317表示している場合、音声認識情報Rec(図3参照)の単語が追加されるたびに、逐次、表示する文字列を追加する。これに伴い、編集画面制御手段151は、編集領域317を拡大していく。これによって、音声認識誤り修正支援装置1は、リアルタイムに素材コンテンツの音声認識に対する誤りを修正することができる。
編集領域317の編集は、後記する誤り修正手段152によって行われる。なお、編集領域317において任意の単語をマウス等でクリックされることで、編集画面制御手段151は、クリックされた単語の時間に対応する素材コンテンツの再生を映像/音声再生手段153に指示する。
また、編集画面制御手段151は、選択ボタン(図9中、「close」)311の押下により、編集領域317を非表示とし、動画表示領域313Bをサムネイル画像表示領域313として、図8の項目一覧画面31に表示を戻す。
図2に戻って、音声認識誤り修正支援装置1の構成について説明を続ける。
Note that the edit screen control unit 151 sequentially adds a character string to be displayed each time a word of the speech recognition information Rec (see FIG. 3) is added when the edit area 317 is displayed. Accordingly, the editing screen control unit 151 expands the editing area 317. Thereby, the voice recognition error correction support apparatus 1 can correct errors in the voice recognition of the material content in real time.
The editing of the editing area 317 is performed by an error correction unit 152 described later. When an arbitrary word is clicked with the mouse or the like in the editing area 317, the editing screen control unit 151 instructs the video / audio reproduction unit 153 to reproduce the material content corresponding to the time of the clicked word.
Also, the edit screen control unit 151 depresses the selection button (“close” in FIG. 9) 311 to hide the edit area 317 and the moving image display area 313B as the thumbnail image display area 313, and the list of items in FIG. The display is returned to the screen 31.
Returning to FIG. 2, the description of the configuration of the speech recognition error correction support apparatus 1 will be continued.

誤り修正手段152は、修正端末2の作業者の編集操作により、編集領域317(図9)において、セグメントの単語列の誤りを修正するものである。この誤り修正手段152は、単語列を修正する編集動作においては、一般的なテキストエディタ(スクリーンエディタ)として機能する。
また、誤り修正手段152は、修正内容を、他の修正端末2に対応する編集手段15(別プロセスで起動した編集手段)に対して通知することで、他の修正端末2の編集領域317に反映させる。逆に、他の編集手段15から修正内容を通知された場合、誤り修正手段152は、自身の修正端末2の編集領域317に修正内容を反映させる。
The error correction unit 152 corrects an error in the word string of the segment in the editing area 317 (FIG. 9) by the editing operation of the operator of the correction terminal 2. The error correcting means 152 functions as a general text editor (screen editor) in an editing operation for correcting a word string.
Further, the error correction unit 152 notifies the editing unit 15 (an editing unit activated in a separate process) corresponding to the other correction terminal 2 of the correction content, so that the editing area 317 of the other correction terminal 2 is notified. To reflect. On the other hand, when the correction content is notified from the other editing means 15, the error correction means 152 reflects the correction content in the editing area 317 of its correction terminal 2.

この誤り修正手段152は、修正が行われた場合、音声認識情報Rec(図4)の単語を上書きして修正するとともに、修正フラグfをセットする。この誤り修正手段152は、他の編集手段15の誤り修正手段152が同じ修正対象に対して修正を行う場合でも、上書き(後書き優先)で更新することで、複雑な排他制御を行わないこととする。
そして、誤り修正手段152は、他の編集手段15に対して修正を行ったことを通知することで、対応する誤り修正手段152が、音声認識情報Rec(図4)を参照して、修正内容を反映させる。あるいは、誤り修正手段152は、変更前の単語と変更後の単語とを通知することとしてもよい。
このとき、誤り修正手段152は、修正が行われた単語を修正が行われていない単語とは異なる色属性(例えば、赤色)で表示する。
これによって、誤り修正手段152は、他の修正端末2で修正された内容を作業者に視認させることができる。
When the correction is made, the error correction unit 152 overwrites the word of the voice recognition information Rec (FIG. 4) and corrects it, and sets the correction flag f. This error correction unit 152 does not perform complicated exclusive control by updating by overwriting (prior writing priority) even when the error correction unit 152 of the other editing unit 15 corrects the same correction target. To do.
Then, the error correction means 152 notifies the other editing means 15 that the correction has been made, so that the corresponding error correction means 152 refers to the voice recognition information Rec (FIG. 4), and the correction contents. Reflect. Or the error correction means 152 is good also as notifying the word before a change and the word after a change.
At this time, the error correction unit 152 displays the corrected word with a different color attribute (for example, red) from the uncorrected word.
Thereby, the error correction means 152 can make an operator visually recognize the content corrected by the other correction terminal 2.

例えば、図10に示すように、編集領域317において、同じ修正対象を異なる修正端末2,2で修正が行われるとする。
この場合、図10(a)に示すように、修正端末2の作業者は、編集領域317において「京」を「今日」に修正する。また、図10(b)に示すように、修正端末2の作業者は、編集領域317において「ハタ」を「肌」に修正する。
そして、修正端末2,2に対応するそれぞれの誤り修正手段152が、それぞれの修正内容を通知しあうことで、他の修正内容を反映させる。
これによって、複数の修正端末2で迅速に音声認識の誤りを修正することができる。
For example, as shown in FIG. 10, it is assumed that the same correction target is corrected by different correction terminals 2 1 and 2 2 in the editing area 317.
In this case, as shown in FIG. 10 (a), the editing terminals 2 1 operator may modify the "Kyo" to "day" in the edit area 317. Further, as shown in FIG. 10 (b), the editing terminals 2 2 operator may modify the "Hata" to "skin" in the edit area 317.
Then, the respective error correction means 152 corresponding to the correction terminals 2 1 and 2 2 notify other correction contents to reflect the other correction contents.
As a result, it is possible to quickly correct an error in speech recognition with a plurality of correction terminals 2.

また、誤り修正手段152は、単語列を修正する際に、音声を再生する機能を有する。
具体的には、誤り修正手段152は、編集領域317(図9)において、マウスのクリック、あるいは、タッチパネルへのタッチにより、選択された単語から音声を再生する。また、音声再生中、再度、任意の位置を選択されることで、誤り修正手段152は、音声の再生を停止する。
In addition, the error correcting unit 152 has a function of reproducing sound when correcting a word string.
Specifically, the error correction unit 152 reproduces sound from the selected word by clicking the mouse or touching the touch panel in the editing area 317 (FIG. 9). In addition, when an arbitrary position is selected again during the audio reproduction, the error correction unit 152 stops the audio reproduction.

図11は、編集領域における編集作業の一例を説明するための説明図である。
例えば、図11の編集領域317において、マウスクリック等で「3月」が選択された場合、誤り修正手段152は、素材情報記憶手段14のセグメントに含まれる単語の時間情報(図4の時間情報t)を参照して、対応する素材セグメントの位置から音声を再生するように、映像/音声再生手段153に指示する。なお、このとき、音声に連動して、動画表示領域313Bにおいて、音声再生の時間に対応する映像を再生することとしてもよい。
FIG. 11 is an explanatory diagram for explaining an example of editing work in the editing area.
For example, in the editing area 317 of FIG. 11, when “March” is selected by mouse click or the like, the error correction unit 152 displays the time information of the words included in the segment of the material information storage unit 14 (time information of FIG. 4). Referring to t), the video / audio reproduction means 153 is instructed to reproduce audio from the position of the corresponding material segment. At this time, a video corresponding to the audio playback time may be played back in the moving image display area 313B in conjunction with the audio.

そして、誤り修正手段152は、図11に示すように、音声の再生位置とセグメント中の再生有無とを明示するように、音声の再生に連動して、再生される音声に対応する各単語の表示部分の表示属性を変更する。例えば、誤り修正手段152は、音声に対応する単語を、白黒反転または予め定めた色でカラー表示する。
図2に戻って、音声認識誤り修正支援装置1の構成について説明を続ける。
Then, as shown in FIG. 11, the error correction unit 152 links each word corresponding to the reproduced voice in conjunction with the reproduction of the voice so as to clearly indicate the reproduction position of the voice and the presence / absence of the reproduction in the segment. Change the display attribute of the display part. For example, the error correction means 152 displays the word corresponding to the voice in black and white inversion or in a predetermined color.
Returning to FIG. 2, the description of the configuration of the speech recognition error correction support apparatus 1 will be continued.

映像/音声再生手段153は、素材コンテンツの映像および音声を修正端末2に出力するものである。この映像/音声再生手段153は、編集画面制御手段151または誤り修正手段152により指定された位置に基づいて、素材情報記憶手段14から映像/音声を読み出して、修正端末2に出力する   The video / audio reproduction means 153 outputs the video and audio of the material content to the correction terminal 2. The video / audio reproduction means 153 reads the video / audio from the material information storage means 14 based on the position designated by the editing screen control means 151 or the error correction means 152 and outputs it to the correction terminal 2.

修正結果出力手段154は、誤り修正手段152で修正された音声認識結果(書き起こし結果)を、外部に出力するものである。
この修正結果出力手段154は、編集画面制御手段151から出力される修正対象の素材コンテンツに対する修正後の音声認識結果を、素材情報記憶手段14から読み出して、対応する修正端末2に出力する。
The correction result output means 154 outputs the voice recognition result (transcription result) corrected by the error correction means 152 to the outside.
The correction result output unit 154 reads the corrected speech recognition result for the material content to be corrected output from the editing screen control unit 151 from the material information storage unit 14 and outputs it to the corresponding correction terminal 2.

例えば、修正結果出力手段154は、図12に示すように、タイトルTと、時間情報・項目Kと、修正結果Wとを含んだテキストデータを生成する。なお、時間情報・項目Kと、修正結果Wとは、セグメントの数だけ複数存在する。   For example, the correction result output unit 154 generates text data including a title T, time information / item K, and a correction result W, as shown in FIG. There are a plurality of pieces of time information / items K and correction results W corresponding to the number of segments.

タイトルTには、例えば、修正日を記載する。
時間情報・項目Kには、例えば、セグメントの開始時間tsと、当該セグメントに対応付けられた項目k(図5参照)を記載する。なお、現在入力中の素材コンテンツで、セグメント情報が確定していない場合、修正結果出力手段154は、時間情報には、先頭単語の時間情報t(図4参照)を記載し、項目を空欄とする。
In the title T, for example, a correction date is described.
In the time information / item K, for example, a segment start time ts and an item k (see FIG. 5) associated with the segment are described. If the segment information is not finalized for the material content currently being input, the correction result output means 154 describes the time information t (see FIG. 4) of the first word in the time information, and sets the item as blank. To do.

修正結果Wには、例えば、セグメントに対応する修正後の単語w列(図4参照)を記載する。なお、現在入力中の素材コンテンツで、セグメント情報が確定していない場合、修正結果出力手段154は、現在入力中の素材コンテンツに対応する音声認識情報の現時点までの単語w列(図4参照)を記載する。   In the correction result W, for example, a corrected word w string (see FIG. 4) corresponding to the segment is described. If the segment information is not finalized in the currently input material content, the correction result output means 154 displays the word w string up to the present time of the speech recognition information corresponding to the currently input material content (see FIG. 4). Is described.

この修正結果出力手段154は、修正後の音声認識結果を、テキストデータとして、修正端末2に出力することとしてもよいし、音声認識情報に修正フラグf(図4参照)が設定されている単語については、色情報を付加した予め定めたフォーマット、例えば、PDF(Portable Document Format)等のデータとして出力することとしてもよい。   The correction result output means 154 may output the corrected speech recognition result as text data to the correction terminal 2, or a word for which the correction flag f (see FIG. 4) is set in the speech recognition information. The data may be output as data in a predetermined format to which color information is added, for example, PDF (Portable Document Format).

情報削除手段16は、素材情報記憶手段14に記憶されている情報を定期的に削除するものである。例えば、情報削除手段16は、予め保存日数等が設定され、当該日数を超過した情報(素材コンテンツCon、音声認識情報Rec、セグメント情報Seg(図3参照))を削除する。   The information deleting unit 16 periodically deletes information stored in the material information storage unit 14. For example, the information deletion means 16 deletes information (material content Con, voice recognition information Rec, segment information Seg (see FIG. 3)) that has been stored in advance and has exceeded the number of days in advance.

以上説明したように音声認識誤り修正支援装置1を構成することで、音声認識誤り修正支援装置1は、複数の修正端末2によって、同一の修正対象であっても、後で行った修正を有効とすることで、排他制御を行うことなく、作業者の修正を迅速に反映することができる。また、音声認識誤り修正支援装置1は、ある修正端末2で行った修正を他の修正端末2に通知することができるため、複数の修正端末2で同じ修正を行うことを防止することができ、全体として修正時間を短くすることができ、入力される素材コンテンツに対してリアルタイムに音声認識誤りを修正することができる。
また、音声認識誤り修正支援装置1は、簡易なテキスト編集操作で、認識結果の単語とその元となった音声とを確認しながら、音声認識の誤りを修正することができる。
なお、音声認識誤り修正支援装置1は、コンピュータを、前記した各手段として機能させるための音声認識誤り修正支援プログラムで動作させることができる。
By configuring the speech recognition error correction support device 1 as described above, the speech recognition error correction support device 1 enables the correction performed later by the plurality of correction terminals 2 even if it is the same correction target. By doing so, the operator's correction can be quickly reflected without performing exclusive control. In addition, since the voice recognition error correction support device 1 can notify the other correction terminal 2 of the correction made by a certain correction terminal 2, it can prevent the same correction from being made by a plurality of correction terminals 2. As a whole, the correction time can be shortened, and the voice recognition error can be corrected in real time for the input material content.
In addition, the speech recognition error correction support device 1 can correct a speech recognition error while confirming a recognition result word and a speech that is a source of the recognition result by a simple text editing operation.
Note that the speech recognition error correction support apparatus 1 can be operated by a speech recognition error correction support program for causing a computer to function as each of the above-described means.

[音声認識誤り修正支援装置の動作]
次に、図13〜図15を参照して、本発明の実施形態に係る音声認識誤り修正支援装置1の動作について説明する。なお、ここでは、音声認識誤り修正支援装置1の動作として、素材コンテンツに対して音声認識による認識結果をセグメント単位で生成するセグメント情報生成動作と、認識結果をセグメント単位で修正端末2に提示するセグメント情報提示動作と、音声再生を行いながら認識結果を修正するセグメント修正動作と、について説明する。
[Operation of voice recognition error correction support device]
Next, the operation of the speech recognition error correction support apparatus 1 according to the embodiment of the present invention will be described with reference to FIGS. Here, as the operation of the speech recognition error correction support apparatus 1, the segment information generation operation for generating the recognition result by the speech recognition for the material content in the segment unit and the recognition result in the segment unit are presented to the correction terminal 2. The segment information presenting operation and the segment correcting operation for correcting the recognition result while performing audio reproduction will be described.

(セグメント情報生成動作)
まず、図13を参照(適宜図2参照)して、音声認識誤り修正支援装置1のセグメント情報生成動作について説明する。
(Segment information generation operation)
First, the segment information generation operation of the speech recognition error correction support apparatus 1 will be described with reference to FIG. 13 (refer to FIG. 2 as appropriate).

ステップS1において、素材コンテンツ入力手段10は、音声認識を行う素材コンテンツを入力する。このとき、素材コンテンツ入力手段10は、入力した素材コンテンツを素材情報記憶手段14に書き込み記憶する。
ステップS2において、音声認識手段11は、ステップS1で入力した素材コンテンツの音声を認識し、テキストデータである認識結果と当該認識結果を構成する単語ごとの時間情報とを対応付けて、認識結果分割手段12に通知するとともに、素材情報記憶手段14に書き込み記憶する。
In step S1, the material content input means 10 inputs material content for voice recognition. At this time, the material content input unit 10 writes and stores the input material content in the material information storage unit 14.
In step S2, the speech recognition means 11 recognizes the speech of the material content input in step S1, associates the recognition result as text data with the time information for each word constituting the recognition result, and divides the recognition result. The information is notified to the means 12 and written and stored in the material information storage means 14.

ステップS3において、認識結果分割手段12は、ステップS2で認識された認識結果を、予め定めた基準、例えば、映像のカット点、音声の無音区間等によりセグメントに分割する。   In step S3, the recognition result dividing unit 12 divides the recognition result recognized in step S2 into segments according to predetermined criteria, for example, video cut points, audio silence intervals, and the like.

ステップS4において、項目情報抽出手段13は、ステップS3で分割されたセグメントごとに、セグメントに含まれる特徴単語を項目として抽出するとともに、セグメントに対応する映像からサムネイル画像を抽出する。このとき、項目情報抽出手段13は、抽出した項目およびサムネイル画像を、セグメントに対応付けて素材情報記憶手段14に書き込み記憶する。
ここで、素材コンテンツの入力が完了していない場合(ステップS5でNo)、音声認識誤り修正支援装置1は、ステップS1に戻って、素材コンテンツの入力を続ける。
一方、素材コンテンツの入力が完了した場合(ステップS5でYes)、音声認識誤り修正支援装置1は、動作を終了する。
以上の動作によって、音声認識誤り修正支援装置1は、図3に示すように、素材情報記憶手段14に、素材コンテンツと、音声認識情報およびセグメント情報とを対応付ける。
In step S4, the item information extraction unit 13 extracts a feature word included in the segment as an item for each segment divided in step S3, and extracts a thumbnail image from the video corresponding to the segment. At this time, the item information extraction unit 13 writes and stores the extracted items and thumbnail images in the material information storage unit 14 in association with the segments.
Here, when the input of the material content is not completed (No in step S5), the speech recognition error correction support apparatus 1 returns to step S1 and continues the input of the material content.
On the other hand, when the input of the material content is completed (Yes in step S5), the speech recognition error correction support apparatus 1 ends the operation.
Through the above operation, the speech recognition error correction support apparatus 1 associates material content, speech recognition information, and segment information with the material information storage unit 14 as shown in FIG.

(セグメント情報提示動作)
次に、図14を参照(適宜図2参照)して、音声認識誤り修正支援装置1のセグメント情報提示動作について説明する。なお、このセグメント情報提示動作は、修正端末2との接続が開始された後の編集手段15の動作である。
(Segment information presentation operation)
Next, the segment information presentation operation of the speech recognition error correction support apparatus 1 will be described with reference to FIG. 14 (refer to FIG. 2 as appropriate). The segment information presentation operation is an operation of the editing unit 15 after the connection with the correction terminal 2 is started.

ステップS10において、修正対象選択手段150は、素材情報記憶手段14に記憶されている音声認識誤りを修正する対象の素材コンテンツを選択する選択画面30(図6参照)を修正端末2に表示する。
ステップS11において、修正対象選択手段150は、画面上で、修正対象の素材コンテンツの開始時間と終了時間とが設定され、修正開始ボタンが押下されるまで待機する(ステップS11でNo)。そして、修正開始ボタンが押下された場合(ステップS11でYes)、修正対象選択手段150は、ステップS12以降の制御を行う編集画面制御手段151に制御を移す。
In step S <b> 10, the correction target selection unit 150 displays on the correction terminal 2 a selection screen 30 (see FIG. 6) for selecting material content to be corrected for speech recognition errors stored in the material information storage unit 14.
In step S11, the correction target selection unit 150 sets the start time and end time of the material content to be corrected on the screen, and waits until the correction start button is pressed (No in step S11). Then, when the correction start button is pressed (Yes in step S11), the correction target selection unit 150 transfers control to the edit screen control unit 151 that performs the control after step S12.

ステップS12において、編集画面制御手段151は、素材情報記憶手段14に記憶されている各種の情報に基づいて、セグメントごとに、項目と当該セグメントに含まれる単語列を表示するか否かを指定する選択ボタンとを含んだ項目一覧画面31(図8参照)を修正端末2に表示する。   In step S12, the edit screen control unit 151 designates whether to display an item and a word string included in the segment for each segment based on various types of information stored in the material information storage unit 14. An item list screen 31 (see FIG. 8) including a selection button is displayed on the correction terminal 2.

ステップS13において、編集画面制御手段151は、項目一覧画面で選択ボタン(open)が押下されるまで待機する(ステップS13でNo)。
一方、選択ボタン(open)が押下された場合(ステップS13でYes)、ステップS14において、編集画面制御手段151は、図9に示すように、選択されたセグメントに対応して編集領域317を表示し、素材情報記憶手段14に記憶されている当該セグメントに対応する認識結果である単語列を編集領域317に展開する。
In step S13, the edit screen control unit 151 waits until the selection button (open) is pressed on the item list screen (No in step S13).
On the other hand, when the selection button (open) is pressed (Yes in step S13), in step S14, the edit screen control means 151 displays an edit area 317 corresponding to the selected segment as shown in FIG. Then, the word string which is the recognition result corresponding to the segment stored in the material information storage unit 14 is developed in the editing area 317.

この動作以降、編集手段15は、作業者が修正端末2の画面上で編集結果を修正可能な状態に移行する。なお、選択ボタン(open)の押下により編集領域317を表示した場合、編集画面制御手段151は、任意のタイミングで、選択ボタン(close)の押下により編集領域317を非表示とすることができるが、この非表示の動作については図示を省略した。また、項目一覧画面31B(図9参照)の動画表示領域313Bにおける素材コンテンツの再生動作についてもここでは説明を省略する。
以上の動作によって、音声認識誤り修正支援装置1は、素材コンテンツをセグメント単位で、音声認識の誤りを修正することが可能になる。
After this operation, the editing means 15 shifts to a state in which the operator can correct the editing result on the screen of the correction terminal 2. When the editing area 317 is displayed by pressing the selection button (open), the editing screen control unit 151 can hide the editing area 317 by pressing the selection button (close) at an arbitrary timing. The non-display operation is not shown. The description of the material content playback operation in the moving image display area 313B of the item list screen 31B (see FIG. 9) is also omitted here.
With the above operation, the speech recognition error correction support apparatus 1 can correct a speech recognition error for each segment of material content.

(セグメント修正動作)
次に、図15を参照(適宜図2参照)して、音声認識誤り修正支援装置1のセグメント修正動作について説明する。なお、セグメント修正動作は、作業者が行う任意の手順であるため、ここでは、音声再生と修正動作とを併せて行う動作の一例で説明する。
(Segment correction operation)
Next, the segment correction operation of the speech recognition error correction support apparatus 1 will be described with reference to FIG. 15 (refer to FIG. 2 as appropriate). Since the segment correction operation is an arbitrary procedure performed by the operator, here, an example of an operation performed in combination with audio reproduction and correction operation will be described.

ステップS20において、誤り修正手段152は、作業者のマウスのクリック、あるいは、タッチパネルへのタッチにより、編集領域317(図9)内の音声を再生したい単語または単語列を選択する。このとき、誤り修正手段152は、映像/音声再生手段153を介して、素材情報記憶手段14のセグメントの時間情報を参照して、単語または単語列に対応する時間の音声を修正端末2に出力する。これによって、修正端末2で音声が再生され、作業者は、音声と音声認識された単語列とを対比して確認することができる。   In step S20, the error correction unit 152 selects a word or a word string for which the voice in the editing area 317 (FIG. 9) is to be reproduced by clicking the operator's mouse or touching the touch panel. At this time, the error correction unit 152 refers to the time information of the segment in the material information storage unit 14 via the video / audio reproduction unit 153 and outputs the audio of the time corresponding to the word or the word string to the correction terminal 2. To do. As a result, the sound is reproduced by the correction terminal 2, and the operator can confirm the sound by comparing the sound and the recognized word string.

ステップS21において、誤り修正手段152は、作業者のマウスのクリック、あるいは、タッチパネルへのタッチにより、修正箇所の位置の指定を受け付ける。このとき、誤り修正手段152は、音声が再生中であれば、修正端末2への出力を停止する。これによって、音声の再生が停止される。   In step S <b> 21, the error correction unit 152 accepts designation of the position of the correction part by clicking the operator's mouse or touching the touch panel. At this time, the error correction means 152 stops the output to the correction terminal 2 if the sound is being reproduced. Thereby, the reproduction of the sound is stopped.

ステップS22において、誤り修正手段152は、編集領域の指定された位置にカーソルを表示して、文字削除、文字挿入等の作業者の編集作業により、認識誤りを修正する。ここで、誤り修正手段152は、素材情報記憶手段14の単語を修正結果で更新する。
ステップS23において、誤り修正手段152は、他の編集手段15に修正内容を通知することで、他の編集手段15の誤り修正手段152が、対応する修正端末2に表示する内容を反映する。
In step S22, the error correction unit 152 displays a cursor at a specified position in the editing area, and corrects the recognition error by an operator's editing operation such as character deletion or character insertion. Here, the error correction unit 152 updates the word in the material information storage unit 14 with the correction result.
In step S <b> 23, the error correction unit 152 notifies the other editing unit 15 of the correction content, thereby reflecting the content displayed on the corresponding correction terminal 2 by the error correction unit 152 of the other editing unit 15.

ステップS24において、誤り修正手段152は、作業者のマウスのクリック、あるいは、タッチパネルへのタッチにより、修正を行った箇所の位置の指定を受け付ける。このとき、誤り修正手段152は、映像/音声再生手段153を介して、素材情報記憶手段14のセグメントの時間情報を参照して、単語または単語列に対応する時間の音声を修正端末2に出力する。これによって、修正端末2で音声が再生され、作業者は、修正結果が正しいか否かを確認することができる。   In step S <b> 24, the error correction unit 152 accepts designation of the position of the correction by clicking the operator's mouse or touching the touch panel. At this time, the error correction unit 152 refers to the time information of the segment in the material information storage unit 14 via the video / audio reproduction unit 153 and outputs the audio of the time corresponding to the word or the word string to the correction terminal 2. To do. As a result, the sound is reproduced on the correction terminal 2, and the operator can confirm whether or not the correction result is correct.

なお、図示を省略しているが、ステップS24における作業者の確認で、修正箇所がまだ正しく修正されていない場合、ステップS22に戻って、動作を繰り返す。
以上の動作によって、音声認識誤り修正支援装置1は、複数の修正端末2で迅速に音声認識の誤りを修正することができる。
Although illustration is omitted, if the corrected part has not been corrected correctly by the operator's confirmation in step S24, the process returns to step S22 and the operation is repeated.
With the above operation, the speech recognition error correction support apparatus 1 can quickly correct a speech recognition error with the plurality of correction terminals 2.

以上、本発明の実施形態について説明したが、本発明は、この実施形態に限定されるものではない。
ここでは、素材コンテンツを、映像および音声を含んだものとして説明したが、音声のみの素材コンテンツであっても構わない。
その場合、項目情報抽出手段13は、項目のみを抽出し、サムネイル画像を抽出しないこととすればよい。また、映像/音声再生手段153は、音声のみを出力する音声出力手段とすればよい。
Although the embodiment of the present invention has been described above, the present invention is not limited to this embodiment.
Here, the material content has been described as including video and audio, but it may be audio-only material content.
In that case, the item information extraction means 13 may extract only the items and not the thumbnail images. Further, the video / audio reproduction unit 153 may be an audio output unit that outputs only audio.

また、ここでは、音声認識誤りの修正対象を、すでに音声認識が完了した素材コンテンツと、現在音声認識中の素材コンテンツとしたが、いずれか一方のみであっても構わない。例えば、現在音声認識中の素材コンテンツのみを音声認識誤りの修正対象とする場合、音声認識誤り修正支援装置1は、認識結果分割手段12、項目情報抽出手段13および修正対象選択手段150を省略して簡易に構成しても構わない。
また、ここでは、修正対象選択手段150は、素材コンテンツを記憶した日時を基準として、修正対象の素材コンテンツを選択することとしたが、選択基準は、日時に限定されるものではない。例えば、素材コンテンツが、放送素材として、ニュース、スポーツ等の電子番組ガイドのジャンルが対応付けられている場合、ジャンルを指定して、素材コンテンツを選択することとしてもよい。あるいは、素材コンテンツに当該素材を収録した際のイベント情報が付加されている場合、イベントを指定して、素材コンテンツを選択することとしてもよい。
In addition, here, the correction target of the voice recognition error is the material content that has already been voice-recognized and the material content that is currently being voice-recognized. For example, when only the material content that is currently undergoing speech recognition is the target of speech recognition error correction, the speech recognition error correction support device 1 omits the recognition result division unit 12, the item information extraction unit 13, and the correction target selection unit 150. It may be configured simply.
Here, the correction target selection unit 150 selects the material content to be corrected on the basis of the date and time when the material content is stored. However, the selection criterion is not limited to the date and time. For example, when the material content is associated with a genre of an electronic program guide such as news or sports as a broadcast material, the genre may be specified and the material content may be selected. Alternatively, when event information when the material is recorded is added to the material content, the event may be specified and the material content may be selected.

また、音声認識誤り修正支援装置1は、音声認識手段11を外部に備えてもよい。
例えば、図16に示す音声認識誤り修正支援装置1Bの構成としてもよい。音声認識誤り修正支援装置1Bは、音声認識誤り修正支援装置1(図2)の音声認識手段11を音声認識装置として外部に備える。この場合、入力インタフェースである認識結果入力手段19が単語および時間情報を対応付けて素材情報記憶手段14に記憶するとともに、認識結果分割手段12に通知することとすればよい。
なお、音声認識誤り修正支援装置1Bも、コンピュータを、前記した各手段として機能させるための音声認識誤り修正支援プログラムで動作させることができる。
Further, the voice recognition error correction support device 1 may include voice recognition means 11 outside.
For example, it is good also as a structure of the speech recognition error correction assistance apparatus 1B shown in FIG. The speech recognition error correction support device 1B includes the speech recognition unit 11 of the speech recognition error correction support device 1 (FIG. 2) as a speech recognition device. In this case, the recognition result input means 19 which is an input interface stores the word and time information in association with each other in the material information storage means 14 and notifies the recognition result division means 12 of them.
Note that the speech recognition error correction support apparatus 1B can also be operated by a speech recognition error correction support program for causing a computer to function as each of the above-described means.

また、編集画面制御手段151は、項目一覧画面31,31B(図8,図9参照)で表示する各項目に対応付けて時間情報を表示することとしてもよい。
例えば、図17に示すように、編集画面制御手段151は、項目ごとに、時間情報318,318Bを表示する。これによって、複数表示されている項目の中から、参照したい時間の項目に対して容易にアクセスすることができる。
このとき、編集画面制御手段151は、選択ボタンが「open」の項目については、素材コンテンツの先頭単語の時間情報である開始時間ts(図5参照)を、固定的に時間情報318として表示する。また、編集画面制御手段151は、選択ボタンが「close」の項目については、素材コンテンツの開始時間から映像/音声再生手段153(音声出力手段)が出力する音声の再生時間に対応する時間を、可変的に時間情報318Bとして表示する。
Further, the edit screen control means 151 may display time information in association with each item displayed on the item list screens 31 and 31B (see FIGS. 8 and 9).
For example, as shown in FIG. 17, the edit screen control means 151 displays time information 318 and 318B for each item. Thereby, it is possible to easily access the item of the time to be referred to from among a plurality of displayed items.
At this time, the edit screen control means 151 displays the start time ts (see FIG. 5), which is the time information of the first word of the material content, as time information 318 for the item whose selection button is “open”. . Further, the edit screen control unit 151 sets the time corresponding to the playback time of the audio output by the video / audio playback unit 153 (sound output unit) from the start time of the material content for the item whose selection button is “close”. The time information 318B is variably displayed.

また、ここでは、時間情報として音声認識誤り修正支援装置1に入力された時間を用いたが、図17に示すような時間情報を表示する場合、素材コンテンツに付加されているタイムコードを用いてもよい。
その場合、素材コンテンツ入力手段10は、素材情報記憶手段14の先頭の項目の開始時間ts(図5参照)に、「00:00:00:00」を設定する。そして、素材コンテンツにタイムコードがタグ情報として付加されている場合、例えば、XDCAM(登録商標)等の動画フォーマットの素材コンテンツの場合、素材コンテンツ入力手段10は、タイムコードを素材コンテンツごとに素材情報記憶手段14に記憶する。
Here, the time input to the speech recognition error correction support apparatus 1 is used as the time information. However, when displaying the time information as shown in FIG. 17, the time code added to the material content is used. Also good.
In this case, the material content input unit 10 sets “00:00:00” as the start time ts (see FIG. 5) of the first item in the material information storage unit 14. When the time code is added as tag information to the material content, for example, in the case of material content in a moving image format such as XDCAM (registered trademark), the material content input means 10 uses the material information for each material content. Store in the storage means 14.

そして、編集画面制御手段151は、図18に示すように、タイムコードが付加されている素材コンテンツについては、タイムコードが付加されていない時間情報を基準として、タイムコード分の時間を加算する。なお、図18では、タイムコードのうち、「時:分:秒」のみを表示している。   Then, as shown in FIG. 18, the edit screen control unit 151 adds the time code time for the material content to which the time code is added, based on the time information to which the time code is not added. In FIG. 18, only “hour: minute: second” of the time code is displayed.

例えば、編集画面制御手段151は、タイムコードが付加されていない素材コンテンツについては、図19(a)に示すように、タイムテーブル表示欄314に素材コンテンツの先頭開始時間314aを表示するとともに、各項目に時間情報318を表示する。
また、編集画面制御手段151は、タイムコードが付加されている素材コンテンツについては、図19(b)に示すように、タイムテーブル表示欄314に素材コンテンツの先頭開始時間とタイムコードの時間とを加算した時間を先頭開始時間314aとして表示するとともに、各項目の時間情報318についてもそれぞれの項目の時間情報にタイムコードの時間を加算して表示する。
これによって、発話内容とタイムコードとの対応を明確にすることができる。
For example, as shown in FIG. 19A, the edit screen control unit 151 displays the start start time 314a of the material content in the time table display field 314 for the material content to which no time code is added. The time information 318 is displayed in the item.
Further, the edit screen control means 151 sets the start time of the material content and the time of the time code in the time table display field 314 for the material content to which the time code is added, as shown in FIG. The added time is displayed as the head start time 314a, and the time information 318 of each item is also displayed by adding the time of the time code to the time information of each item.
This makes it possible to clarify the correspondence between the utterance content and the time code.

また、誤り修正手段152は、編集動作をコンテキストメニューから選択することとしてもよい。
例えば、図20に示すように、誤り修正手段152は、マウスの右クリックキー等によって、コンテキストメニュー319を表示する。
コンテキストメニュー319には、機能(コピー等)とショートカットキー(Ctrl+C等)とが併せて表示され、マウスの左クリック等によって機能が選択されることで、誤り修正手段152は、該当する編集動作を実行する。あるいは、機能に対応するショートカットキーが押下されることで、修正手段152は、該当する編集動作を実行する。
これによって、作業者の操作方法の習得や、操作手順を最小限に抑えることができる。
Further, the error correction unit 152 may select an editing operation from a context menu.
For example, as shown in FIG. 20, the error correction unit 152 displays a context menu 319 by a right click key of the mouse or the like.
In the context menu 319, a function (copy, etc.) and a shortcut key (Ctrl + C, etc.) are displayed together. When the function is selected by left-clicking the mouse, the error correction means 152 performs the corresponding editing operation. Execute. Alternatively, when the shortcut key corresponding to the function is pressed, the correction unit 152 executes the corresponding editing operation.
As a result, the operator can learn the operation method and the operation procedure can be minimized.

また、ここでは、修正結果出力手段154が、修正後の音声認識結果を修正端末2に出力することとした。
しかし、修正結果出力手段154は、修正時において、任意の文字列を他のデバイスに表示可能な形態で出力することとしてもよい。
例えば、編集画面制御手段151は、編集領域317(図9参照)を編集中に、マウスにより、2次元コード(例えば、QRコード〔登録商標〕)で出力したい文字列を選択し、修正結果出力手段154に2次元コードで文字列を出力することを指示する。
Here, the correction result output means 154 outputs the corrected speech recognition result to the correction terminal 2.
However, the correction result output means 154 may output an arbitrary character string in a form that can be displayed on another device at the time of correction.
For example, the editing screen control unit 151 selects a character string to be output with a two-dimensional code (for example, QR code [registered trademark]) with the mouse while editing the editing area 317 (see FIG. 9), and outputs a correction result. The means 154 is instructed to output a character string with a two-dimensional code.

この場合、編集画面制御手段151は、文字列を選択し、図20に示したコンテキストメニュー319で「選択文字列のQR表示」を選択するか、ショートカットキー(ここでは、Ctrl+Q)を押下されることで、選択文字列を修正結果出力手段154に出力する。なお、このとき、編集画面制御手段151は、選択文字列とともに、選択文字列の先頭の単語に対応する時間情報も修正結果出力手段154に出力する。   In this case, the edit screen control means 151 selects a character string and selects “QR display of selected character string” from the context menu 319 shown in FIG. 20 or presses a shortcut key (here, Ctrl + Q). As a result, the selected character string is output to the correction result output means 154. At this time, the editing screen control unit 151 outputs time information corresponding to the first word of the selected character string to the correction result output unit 154 together with the selected character string.

そして、修正結果出力手段154は、図21(a)に示すように、時間情報と選択文字列とをテキストとするQRコードを生成し、例えば、モーダルウインドウ320としてQRコードを表示する。なお、編集画面制御手段151は、モーダルウインドウ320の任意の場所をマウスでクリックされるまで、モーダルウインドウ320を表示し、クリック後、モーダルウインドウ320を非表示とする。
これによって、QRコードを読み込み可能な機器(スマートフォン、タブレット等)はQR読み込み機能によってQRコードを読み込み復号することで、選択文字列を表示することができる。
例えば、スマートフォンの画面には、図21(b)に示すように、選択文字列と、先頭単語(ここでは、「東北」)に対応する時間情報とが表示される。
これによって、修正結果出力手段154は、音声認識結果(書き起こし結果)を、ネットワークに接続されていない機器に伝達することができる。
Then, as shown in FIG. 21A, the correction result output unit 154 generates a QR code having the time information and the selected character string as text, and displays the QR code as a modal window 320, for example. Note that the edit screen control unit 151 displays the modal window 320 until an arbitrary place in the modal window 320 is clicked with the mouse, and hides the modal window 320 after the click.
Thereby, a device (smart phone, tablet, etc.) that can read the QR code can display the selected character string by reading and decoding the QR code by the QR reading function.
For example, as shown in FIG. 21B, the selected character string and time information corresponding to the first word (here, “Tohoku”) are displayed on the screen of the smartphone.
Thereby, the correction result output means 154 can transmit the voice recognition result (transcription result) to a device not connected to the network.

1,1B 音声認識誤り修正支援装置
10 素材コンテンツ入力手段
11 音声認識手段
12 認識結果分割手段
13 項目情報抽出手段
14 素材情報記憶手段(記憶手段)
15 編集手段
150 編集対象選択手段
151 編集画面制御手段
152 誤り修正手段
153 映像/音声再生手段(音声出力手段)
154 修正結果出力手段
19 認識結果入力手段
1, 1B Voice recognition error correction support device 10 Material content input means 11 Voice recognition means 12 Recognition result division means 13 Item information extraction means 14 Material information storage means (storage means)
DESCRIPTION OF SYMBOLS 15 Editing means 150 Editing object selection means 151 Editing screen control means 152 Error correction means 153 Video / audio reproduction means (audio output means)
154 Correction result output means 19 Recognition result input means

Claims (9)

素材コンテンツを入力し、当該素材コンテンツに含まれる音声に対する音声認識の誤りを複数の修正端末を介して修正する音声認識誤り修正支援装置であって、
前記音声を認識し、テキストデータである認識結果と当該認識結果を構成する単語ごとの時間情報とを生成する音声認識手段と、
前記認識結果ごとに、当該認識結果に含まれる前記単語ごとの時間情報を対応付けて、前記素材コンテンツおよび当該素材コンテンツの時間情報とともに記憶する記憶手段と、
前記複数の修正端末を介して、前記認識結果に対する修正内容を取得し、前記音声認識の誤りを修正する複数の編集手段と、を備え、
前記編集手段は、
修正対象となる素材コンテンツの前記認識結果を含んだ編集画面を前記修正端末に表示する編集画面制御手段と、
前記編集画面上で指定されたテキスト内における単語の前記時間情報に基づいて、対応する音声を、前記修正端末に出力する音声出力手段と、
前記編集画面で修正された修正内容を用いて、前記記憶手段に記憶されている前記認識結果を後書き優先で更新するとともに、前記認識結果が後書きされた旨の更新通知を他の編集手段に通知して前記修正端末に対応する前記修正内容を反映させる誤り修正手段と、
を備えることを特徴とする音声認識誤り修正支援装置。
A speech recognition error correction support device that inputs material content and corrects an error in speech recognition for speech included in the material content via a plurality of correction terminals,
Voice recognition means for recognizing the voice and generating a recognition result that is text data and time information for each word constituting the recognition result;
Storage means for associating time information for each word included in the recognition result for each of the recognition results, and storing together with the material content and the time information of the material content;
A plurality of editing means for acquiring correction contents for the recognition result via the plurality of correction terminals and correcting an error in the speech recognition; and
The editing means includes
An editing screen control means for displaying an editing screen including the recognition result of the material content to be corrected on the correction terminal;
A voice output means for outputting a corresponding voice to the correction terminal based on the time information of the word in the text designated on the editing screen;
The recognition result stored in the storage unit is updated with priority on the postscript using the correction content corrected on the editing screen, and an update notification to the effect that the recognition result has been postwritten is sent to other editing units. And error correction means for reflecting the correction content corresponding to the correction terminal;
A speech recognition error correction support apparatus comprising:
素材コンテンツを入力し、当該素材コンテンツに含まれる音声に対する音声認識の誤りを複数の修正端末を介して修正する音声認識誤り修正支援装置であって、
外部の音声認識手段により前記音声を認識されたテキストデータである認識結果と当該認識結果を構成する単語ごとの時間情報とを記憶する記憶手段と、
前記複数の修正端末を介して、前記認識結果に対する修正内容を取得し、前記音声認識の誤りを修正する複数の編集手段と、を備え、
前記編集手段は、
修正対象となる素材コンテンツの前記認識結果を含んだ編集画面を前記修正端末に表示する編集画面制御手段と、
前記編集画面上で指定されたテキスト内における単語の前記時間情報に基づいて、対応する音声を、前記修正端末に出力する音声出力手段と、
前記編集画面で修正された修正内容を用いて、前記記憶手段に記憶されている前記認識結果を更新するとともに、前記認識結果が後書きされた旨の更新通知を他の編集手段に通知して前記修正端末に対応する前記修正内容を反映させる誤り修正手段と、
を備えることを特徴とする音声認識誤り修正支援装置。
A speech recognition error correction support device that inputs material content and corrects an error in speech recognition for speech included in the material content via a plurality of correction terminals,
Storage means for storing a recognition result, which is text data recognized by the external voice recognition means, and time information for each word constituting the recognition result;
A plurality of editing means for acquiring correction contents for the recognition result via the plurality of correction terminals and correcting an error in the speech recognition; and
The editing means includes
An editing screen control means for displaying an editing screen including the recognition result of the material content to be corrected on the correction terminal;
A voice output means for outputting a corresponding voice to the correction terminal based on the time information of the word in the text designated on the editing screen;
Update the recognition result stored in the storage unit using the correction content corrected on the editing screen, and notify the other editing unit of an update notification indicating that the recognition result has been postwritten. Error correction means for reflecting the correction content corresponding to the correction terminal;
A speech recognition error correction support apparatus comprising:
前記誤り修正手段は、修正を行っていないテキストと異なる色属性で、前記修正内容を表示することを特徴とする請求項1または請求項2に記載の音声認識誤り修正支援装置。   The speech recognition error correction support apparatus according to claim 1 or 2, wherein the error correction means displays the correction content with a color attribute different from that of the text that has not been corrected. 前記編集手段は、前記修正対象となる素材コンテンツを1以上選択する修正対象選択画面を前記修正端末に表示する修正対象選択手段をさらに備え、
前記編集画面制御手段は、前記修正対象選択手段で選択された1以上の修正対象の前記認識結果を含んだ編集画面を前記修正端末に表示することを特徴とする請求項1から請求項3のいずれか一項に記載の音声認識誤り修正支援装置。
The editing means further includes a correction target selection means for displaying a correction target selection screen for selecting one or more material contents to be corrected on the correction terminal,
The said edit screen control means displays the edit screen containing the said recognition result of the 1 or more correction object selected by the said correction object selection means on the said correction terminal, The Claim 1 to Claim 3 characterized by the above-mentioned. The speech recognition error correction support device according to any one of the above.
前記編集手段は、前記修正端末からの修正結果の取得指示に対して、前記修正対象選択手段で選択された修正対象の修正結果を前記修正端末に出力する修正結果出力手段をさらに備えることを特徴とする請求項4に記載の音声認識誤り修正支援装置。   The editing means further includes a correction result output means for outputting the correction result of the correction target selected by the correction target selection means to the correction terminal in response to an instruction to acquire the correction result from the correction terminal. The speech recognition error correction support device according to claim 4. 前記修正結果出力手段は、前記編集画面上で選択された文字列から、前記文字列をテキストとするQRコード(登録商標)を生成し、前記修正端末に表示することを特徴とする請求項5に記載の音声認識誤り修正支援装置。   6. The correction result output means generates a QR code (registered trademark) having the character string as text from the character string selected on the editing screen, and displays the QR code on the correction terminal. The speech recognition error correction support device according to claim 1. 前記編集画面制御手段は、前記修正対象となる素材コンテンツの認識結果に対応付けて、前記認識結果の先頭単語の時間情報を前記修正端末に表示することを特徴とする請求項1から請求項6のいずれか一項に記載の音声認識誤り修正支援装置。   The edit screen control means displays time information of the first word of the recognition result on the correction terminal in association with the recognition result of the material content to be corrected. The speech recognition error correction support device according to any one of the above. 前記編集画面制御手段は、前記音声出力手段が出力する音声の再生時間に対応して、前記修正端末に表示する時間情報を更新することを特徴とする請求項7に記載の音声認識誤り修正支援装置。   8. The voice recognition error correction support according to claim 7, wherein the editing screen control unit updates time information displayed on the correction terminal in accordance with a playback time of the voice output by the voice output unit. apparatus. コンピュータを、請求項1から請求項8のいずれか一項に記載の音声認識誤り修正支援装置として機能させるための音声認識誤り修正支援プログラム。   A speech recognition error correction support program for causing a computer to function as the speech recognition error correction support device according to any one of claims 1 to 8.
JP2019081066A 2018-05-08 2019-04-22 Speech recognition error correction support device and its program Active JP6949075B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018089633 2018-05-08
JP2018089633 2018-05-08

Publications (3)

Publication Number Publication Date
JP2019197210A true JP2019197210A (en) 2019-11-14
JP2019197210A5 JP2019197210A5 (en) 2021-05-20
JP6949075B2 JP6949075B2 (en) 2021-10-13

Family

ID=68537953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019081066A Active JP6949075B2 (en) 2018-05-08 2019-04-22 Speech recognition error correction support device and its program

Country Status (1)

Country Link
JP (1) JP6949075B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021140084A (en) * 2020-03-06 2021-09-16 日本放送協会 Speech recognition error correction support device, program and method, and speech recognition device
CN116229975A (en) * 2023-03-17 2023-06-06 杭州盈禾嘉田科技有限公司 System and method for voice reporting of field diseases and insect pests in intelligent interaction scene

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000089786A (en) * 1998-09-08 2000-03-31 Nippon Hoso Kyokai <Nhk> Method and apparatus for correcting speech recognition result
JP2004226910A (en) * 2003-01-27 2004-08-12 Nippon Hoso Kyokai <Nhk> Speech recognition error correction device, speech recognition error correction method, and speech recognition error correction program
JP2006330170A (en) * 2005-05-24 2006-12-07 Nhk Engineering Services Inc Recorded document creation support system
WO2010146869A1 (en) * 2009-06-18 2010-12-23 日本電気株式会社 Editing support system, editing support method and editing support program
JP2011076540A (en) * 2009-10-01 2011-04-14 King Jim Co Ltd Document editing device and data transfer method using the same
JP2014134640A (en) * 2013-01-09 2014-07-24 Nippon Hoso Kyokai <Nhk> Transcription device and program
JP2014146066A (en) * 2013-01-25 2014-08-14 Canon Inc Document data generation device, document data generation method, and program
JP2015184564A (en) * 2014-03-25 2015-10-22 株式会社アドバンスト・メディア Voice transcribing support system, server, device, method and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000089786A (en) * 1998-09-08 2000-03-31 Nippon Hoso Kyokai <Nhk> Method and apparatus for correcting speech recognition result
JP2004226910A (en) * 2003-01-27 2004-08-12 Nippon Hoso Kyokai <Nhk> Speech recognition error correction device, speech recognition error correction method, and speech recognition error correction program
JP2006330170A (en) * 2005-05-24 2006-12-07 Nhk Engineering Services Inc Recorded document creation support system
WO2010146869A1 (en) * 2009-06-18 2010-12-23 日本電気株式会社 Editing support system, editing support method and editing support program
JP2011076540A (en) * 2009-10-01 2011-04-14 King Jim Co Ltd Document editing device and data transfer method using the same
JP2014134640A (en) * 2013-01-09 2014-07-24 Nippon Hoso Kyokai <Nhk> Transcription device and program
JP2014146066A (en) * 2013-01-25 2014-08-14 Canon Inc Document data generation device, document data generation method, and program
JP2015184564A (en) * 2014-03-25 2015-10-22 株式会社アドバンスト・メディア Voice transcribing support system, server, device, method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021140084A (en) * 2020-03-06 2021-09-16 日本放送協会 Speech recognition error correction support device, program and method, and speech recognition device
JP7481863B2 (en) 2020-03-06 2024-05-13 日本放送協会 Speech recognition error correction support device, program, and method
CN116229975A (en) * 2023-03-17 2023-06-06 杭州盈禾嘉田科技有限公司 System and method for voice reporting of field diseases and insect pests in intelligent interaction scene
CN116229975B (en) * 2023-03-17 2023-08-18 杭州盈禾嘉田科技有限公司 System and method for voice reporting of field diseases and insect pests in intelligent interaction scene

Also Published As

Publication number Publication date
JP6949075B2 (en) 2021-10-13

Similar Documents

Publication Publication Date Title
US20210165973A1 (en) Generating and Editing Media
US20200126583A1 (en) Discovering highlights in transcribed source material for rapid multimedia production
US11024316B1 (en) Systems and methods for capturing, processing, and rendering one or more context-aware moment-associating elements
US20200126559A1 (en) Creating multi-media from transcript-aligned media recordings
JP6280312B2 (en) Minutes recording device, minutes recording method and program
WO2016146978A1 (en) Media generating and editing system
JP5206553B2 (en) Browsing system, method, and program
JP2020079982A (en) Tagging device for moving images, method, and program
CN111885416B (en) Audio and video correction method, device, medium and computing equipment
JP6865701B2 (en) Speech recognition error correction support device and its program
CN111885313A (en) Audio and video correction method, device, medium and computing equipment
US10089898B2 (en) Information processing device, control method therefor, and computer program
US12400661B2 (en) Systems and methods for capturing, processing, and rendering one or more context-aware moment-associating elements
US20110113357A1 (en) Manipulating results of a media archive search
KR20190083532A (en) System for learning languages using the video selected by the learners and learning contents production method thereof
JP5568953B2 (en) Information processing apparatus, scene search method, and program
JP6949075B2 (en) Speech recognition error correction support device and its program
CN114157823A (en) Information processing apparatus, information processing method, and computer-readable medium
CN110782899B (en) Information processing device, storage medium and information processing method
JP7575804B2 (en) Voice recognition program, voice recognition method, voice recognition device, and voice recognition system
JP7481863B2 (en) Speech recognition error correction support device, program, and method
US10657202B2 (en) Cognitive presentation system and method
JP2016151856A (en) Note preparation support device, note preparation support method, and note preparation support program
JP6815254B2 (en) Minutes support device, minutes support method, and computer program
WO2019069997A1 (en) Information processing device, screen output method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210407

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210407

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210921

R150 Certificate of patent or registration of utility model

Ref document number: 6949075

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250