[go: up one dir, main page]

JP2019062381A - Video editing system - Google Patents

Video editing system Download PDF

Info

Publication number
JP2019062381A
JP2019062381A JP2017185167A JP2017185167A JP2019062381A JP 2019062381 A JP2019062381 A JP 2019062381A JP 2017185167 A JP2017185167 A JP 2017185167A JP 2017185167 A JP2017185167 A JP 2017185167A JP 2019062381 A JP2019062381 A JP 2019062381A
Authority
JP
Japan
Prior art keywords
video data
editing
information
processing
processing target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017185167A
Other languages
Japanese (ja)
Other versions
JP6994886B2 (en
Inventor
裕通 小薗
Hiromichi Kozono
裕通 小薗
田中 宏幸
Hiroyuki Tanaka
宏幸 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kokusai Denki Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2017185167A priority Critical patent/JP6994886B2/en
Publication of JP2019062381A publication Critical patent/JP2019062381A/en
Application granted granted Critical
Publication of JP6994886B2 publication Critical patent/JP6994886B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

【課題】配信される映像データに対するレンダリング処理を容易かつ速やかに行う。【解決手段】記録装置12には自動編集情報作成装置13が接続され、素材映像データは自動編集情報作成装置13に入力されてから、記録装置12に記憶される。自動編集情報作成装置13は、この素材映像データを読み込み、処理対象認識部131で、レンダリング処理を施す部分を認識する。この際、処理対象認識部131におけるプロセッサは、情報記憶部132に記憶された処理対象情報を基にして、この認識を行い、このように処理の対象となる部分とその処理についての情報(自動編集情報)を記録装置12に記憶させる。自動編集情報の内容における処理の対象となる部分に関する情報としては、具体的には、処理対象となる部分の映像フレーム位置、映像上の座標、あるいは処理対象が音声の場合には音声サンプルの位置の範囲、処理の内容等がある。【選択図】図1PROBLEM TO BE SOLVED: To easily and promptly perform a rendering process on a delivered video data. An automatic editing information creating device 13 is connected to a recording device 12, and material video data is input to the automatic editing information creating device 13 and then stored in the recording device 12. The automatic editing information creation device 13 reads the material video data, and the processing target recognition unit 131 recognizes a portion to be rendered. At this time, the processor in the processing target recognition unit 131 performs this recognition based on the processing target information stored in the information storage unit 132, and thus information on the part to be processed and the processing (automatic). The editing information) is stored in the recording device 12. As information about the part to be processed in the content of the automatic editing information, specifically, the video frame position of the part to be processed, the coordinates on the video, or the position of the audio sample when the processing target is audio. There is a range of, processing contents, etc. [Selection diagram] Fig. 1

Description

本発明は、映像に編集を施して出力する映像編集システムに関する。   The present invention relates to a video editing system that edits and outputs video.

放送される番組の映像データにおいて、放送に不適切な部分が画像の一部に存在する場合がある。こうした部分の例としては、例えば、海外のニュース番組の画像中において表示された時刻、映り込んだ特定の企業名、映り込んだ自動車の登録ナンバー、映り込んだ通行人の顔等がある。このため、映像データを記憶してから配信させる際に、こうした部分に対応する画像の一部にレンダリング処理(ブラー処理等)を施してから配信するビデオサーバシステムが知られている。こうしたビデオサーバシステムの構成の一例は、例えば特許文献1に記載されている。   In video data of a program to be broadcasted, a portion inappropriate for broadcasting may be present in part of the image. Examples of such parts are, for example, the time displayed in the image of the news program overseas, the specific company name reflected, the registration number of the reflected vehicle, the face of the passerby reflected, etc. For this reason, there is known a video server system which performs rendering processing (such as blur processing) on a part of an image corresponding to such a portion and then distributes the video data when storing and then distributing the video data. An example of the configuration of such a video server system is described, for example, in Patent Document 1.

このような処理の対象となる部分は、映像データの配信先あるいは配信目的に応じて異なる場合もあるため、同一の映像データに対して異なるレンダリング処理が施されたものを用いることが必要な場合も多い。特許文献1に記載の技術においては、このようなレンダリング処理後の映像データを配信すると共に、この処理後においてもレンダリング処理が施されていない元の映像データに対するアクセスが特に容易とされている。このため、先に施されたレンダリング処理とは異なる処理を再び元の映像データに対して容易に行うことができ、その処理後の映像データを配信することを容易、かつ速やかに行うことができる。   Since the part to be the target of such processing may differ depending on the delivery destination or delivery purpose of the video data, it is necessary to use the same video data that has been subjected to different rendering processing. There are also many. In the technique described in Patent Document 1, the video data after such rendering processing is distributed, and access to the original video data not subjected to the rendering processing is particularly facilitated even after this processing. Therefore, processing different from the rendering processing performed earlier can be easily performed again on the original video data, and distribution of the video data after the processing can be performed easily and promptly. .

ここで、レンダリング処理の対象となる部分としては、上記のように複数種類のものがある。こうした部分の特定、あるいはこうした部分に対して具体的にどのような処理(ブラー処理等)を行うかは、ユーザによって設定されている。   Here, there are a plurality of types of parts to be subjected to rendering processing as described above. The user specifies the identification of such a part or what kind of processing (blurring processing etc.) is to be specifically performed on such a part.

特開2012−34218号公報JP 2012-34218 A

上記の技術においては、レンダリング処理のための操作はユーザによって行われ、このためには、ユーザは、実際に対象となる映像データを全場面にわたりチェックした上で、全ての場面において処理の対象となる部分を特定してから上記の処理を行わせることが必要となった。このため、上記の処理に際しては、ユーザの負担が大きくなった。また、上記のように同一の映像データに対して異なる処理を施す場合には、異なる処理を施した複数の映像データを作成する作業が必要となるため、特にその負担が大きくなった。   In the above technology, the operation for the rendering process is performed by the user, and for this purpose, the user checks the video data to be actually targeted over the entire scene, and then performs the processing in all the scenes. It is necessary to perform the above process after identifying the For this reason, the burden on the user has increased in the above processing. In addition, when different processes are performed on the same video data as described above, it is necessary to create a plurality of video data subjected to different processes, so that the burden is particularly large.

また、このために、処理のミスが発生し、必要な部分に処理が施されずに処理が不要の部分に処理が施された映像データが誤って使用される場合もあった。こうした点を改善するために、レンダリング処理を確実かつ容易に行うことができることが望まれた。   For this reason, processing errors may occur, and video data in which processing is not performed on necessary portions and in which processing is not necessary may be erroneously used. In order to improve these points, it is desirable that the rendering process can be performed reliably and easily.

本発明は、このような状況に鑑みなされたもので、上記課題を解決することを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to solve the above-mentioned problems.

本発明は、入力された素材映像データにおける画像又は音声の一部に対して処理を施した映像データを出力する映像編集システムであって、前記処理を施す部分を特定するための情報である処理対象情報を記憶する情報記憶手段と、前記処理対象情報に基づいて前記素材映像データにおける前記処理の対象となる部分を認識する処理対象認識手段と、を具備する。
また、前記処理対象認識手段は、前記処理の対象となる部分と、当該部分に対する前記処理の内容とを特定した自動編集情報を生成し、前記映像編集システムは、前記自動編集情報を用いて前記素材映像データを編集する編集手段を具備する。
また、前記編集手段において、前記自動編集情報が使用者によって改変された最終編集情報が生成され、当該最終編集情報に従って前記素材映像データが編集される。
また、前記映像編集システムは、前記最終編集情報と、前記最終編集情報が生成された際に用いられた前記自動編集情報との違いをフィードバックすることによって、前記処理対象情報を改変する処理対象情報改変手段を具備する。
また、前記映像編集システムは、前記素材映像データと、前記自動編集情報に基づいて編集された後の前記素材映像データと、を同時に表示させる表示手段を具備する。
また、前記表示手段は、前記自動編集情報に基づいて編集された後の前記素材映像データを表示させる際に、前記部分を強調表示する。
また、前記編集手段は、前記表示手段によって前記素材映像データと前記自動編集情報に基づいて編集された後の前記素材映像データとを表示させた後で、使用者からの操作によって前記自動編集情報に基づいて編集された後の前記素材映像データを出力する。
また、前記処理対象情報において設定された前記処理を施す部分のうち、特定の種類の前記部分が設定され、前記処理対象認識手段は、前記素材映像データにおいて前記特定の種類の前記部分を認識した際に、警告を発する。
また、前記編集手段は、前記処理対象認識手段が前記素材映像データにおいて前記特定の種類の前記部分を認識した場合に、前記自動編集情報を用いて前記素材映像データを編集する作業を中断する。
The present invention is a video editing system for outputting video data obtained by processing a part of an image or audio in input material video data, the processing being information for specifying a part to be subjected to the processing. The information processing apparatus comprises: information storage means for storing target information; and processing target recognition means for recognizing a portion to be processed of the material video data based on the processing target information.
Further, the processing target recognition means generates automatic editing information specifying a portion to be processed and the content of the processing for the portion, and the video editing system uses the automatic editing information to generate the editing information. It comprises an editing means for editing material video data.
Further, final editing information in which the automatic editing information is modified by the user is generated in the editing means, and the material video data is edited according to the final editing information.
Further, the video editing system may process target information for modifying the processing target information by feeding back the difference between the final editing information and the automatic editing information used when the final editing information is generated. It has a modification means.
Further, the video editing system comprises display means for simultaneously displaying the material video data and the material video data after being edited based on the automatic editing information.
Further, the display means highlights the portion when displaying the material video data after being edited based on the automatic editing information.
Further, the editing means displays the material video data after being edited based on the material video data and the automatic editing information by the display means, and then the automatic editing information is operated by a user operation. And outputs the material video data after being edited on the basis of.
Further, among the portions to be subjected to the processing set in the processing target information, the portion of a specific type is set, and the processing target recognition unit recognizes the portion of the specific type in the material video data At the same time, issue a warning.
Further, the editing means interrupts an operation of editing the material video data using the automatic editing information, when the processing object recognition means recognizes the part of the specific type in the material video data.

本発明によると、配信される映像データに対するレンダリング処理を容易かつ速やかに行うことができる。   According to the present invention, rendering processing for distributed video data can be performed easily and quickly.

実施形態に係る映像編集システムの構成を示すブロック図である。It is a block diagram showing composition of a video editing system concerning an embodiment. 実施形態に係る映像編集システムにおける処理前の映像(a)、処理後の映像(b)の例である。It is an example of the image | video (a) before a process in the image | video editing system which concerns on embodiment, and the image | video (b) after a process. 実施形態に係る映像編集システムにおいて編集内容の確認のために表示部で表示される画像の例(その1)である。It is an example (the 1) of an image displayed on a display part for confirmation of edit contents in a video editing system concerning an embodiment. 実施形態に係る映像編集システムにおいて編集内容の確認のために表示部で表示される画像の例(その2)である。It is an example (the 2) of an image displayed on a display part for confirmation of edit contents in a video editing system concerning an embodiment. 実施形態に係る映像編集システムにおいて編集内容の確認のために表示部で表示される画像の例(その3)である。It is an example (the 3) of an image displayed on a display part for confirmation of edit content in a video editing system concerning an embodiment. 実施形態に係る映像編集システムにおいて編集内容の確認のために表示部で表示される画像の例(その4)である。It is an example (the 4) of an image displayed on a display part for confirmation of edit contents in a video editing system concerning an embodiment. 実施形態に係る映像編集システムにおける制御部の動作(その1)を示すフローチャートである。It is a flowchart which shows operation | movement (the 1) of the control part in the video editing system which concerns on embodiment. 実施形態に係る映像編集システムにおける制御部の動作(その2)を示すフローチャートである。It is a flowchart which shows operation | movement (the 2) of the control part in the video editing system which concerns on embodiment. 実施形態に係る映像編集システムにおける制御部の動作(その3)を示すフローチャートである。It is a flowchart which shows operation | movement (the 3) of the control part in the video editing system which concerns on embodiment. 処理対象情報改変手段が処理対象情報を更新する動作の流れを示す図である。It is a figure which shows the flow of the operation | movement which a process target information modification means updates process target information. ユーザによる自動編集済み映像データの評価をするための表示部における画像の一例である。It is an example of the image in the display part for evaluating a user's automatically edited image data.

次に、本発明を実施するための形態となる映像編集システムを、図面を参照して具体的に説明する。この映像編集システムは、元となる映像データ(素材映像データ)に対して、映像の一部に加工(レンダリング処理:ブラー等)を施した映像データ(編集済み映像データ)を作成し、出力する。映像におけるこのような処理が施される部分は、自動的に認識されて処理が施される。あるいは、このような部分の候補が認識され、この中から実際に処理を施す対象をユーザが選択した上で処理が施される。又は、画像の中からこのような部分をユーザが設定することができる。なお、上記の「処理が施される部分」は、映像データの一部又は、映像に伴う音声の一部分であってもよく、以下では、映像の一部であるものとして説明する。   Next, a video editing system according to an embodiment of the present invention will be specifically described with reference to the drawings. This video editing system creates and outputs video data (edited video data) obtained by processing (rendering processing: blur, etc.) a part of the video with respect to the original video data (source video data). . The portion of the image to be subjected to such processing is automatically recognized and processed. Alternatively, candidates for such a portion are recognized, and a user selects an object to be actually processed from among these, and then processing is performed. Alternatively, the user can set such a portion from the image. The “part to be processed” may be a part of video data or a part of audio accompanying a video, and in the following, it will be described as a part of video.

図1は、本発明の実施の形態に係る映像編集システム1の構成のブロック図である。ここで、HD−SDI規格の素材映像データは、収録装置11を介して入力し、記録装置(ビデオサーバ)12は、これを記憶することができる。記録装置12には自動編集情報作成装置13が接続され、素材映像データは自動編集情報作成装置13に入力されてから、記録装置12に記憶される。ただし、素材映像データを自動編集情報作成装置13を介さずに記録装置12に直接入力させて記憶させてもよい。   FIG. 1 is a block diagram of the configuration of a video editing system 1 according to an embodiment of the present invention. Here, material video data of the HD-SDI standard can be input via the recording device 11, and the recording device (video server) 12 can store this. The automatic editing information creation device 13 is connected to the recording device 12, and the material video data is input to the automatic editing information creation device 13 and then stored in the recording device 12. However, the material video data may be directly input to and stored in the recording device 12 without the aid of the automatic editing information creation device 13.

自動編集情報作成装置13は、この素材映像データを読み込み、処理対象認識部(処理対象認識手段)131で、レンダリング処理を施す部分を認識する。この際、処理対象認識部131におけるプロセッサは、情報記憶部(情報記憶手段)132に記憶された処理対象情報を基にして、この認識を行い、このように処理の対象となる部分とその処理についての情報(自動編集情報)を記録装置12に記憶させる。自動編集情報の内容における処理の対象となる部分に関する情報としては、具体的には、処理対象となる部分の映像フレーム位置、映像上の座標、あるいは処理対象が音声の場合には音声サンプルの位置の範囲、処理の内容等がある。処理の内容としては、処理対象が映像の場合にはモザイク処理、ブラー処理、映像カット、輝度の増減処理、処理対象が音声の場合にはミュート処理、音量調整等がある。また、処理の対象とする理由(例えば放送禁止に該当する、特定企業名である等)も処理対象情報に含まれる。   The automatic editing information creation device 13 reads the material video data, and the processing target recognition unit (processing target recognition means) 131 recognizes a portion to be subjected to rendering processing. At this time, the processor in the processing target recognition unit 131 performs this recognition based on the processing target information stored in the information storage unit (information storage means) 132, and thus the parts to be processed and the processing thereof Information (automatic editing information) is stored in the recording device 12. More specifically, the information on the part to be processed in the contents of the automatic editing information includes the video frame position of the part to be processed, the coordinates on the video, or the position of the audio sample when the processing target is audio. Range, content of processing, etc. The contents of the process include mosaic process, blur process, video cut, increase / decrease process of luminance when the process object is video, mute process, volume adjustment, etc. when the process object is audio. The processing target information also includes the reason for the processing (for example, the name of a specific company that corresponds to a broadcast prohibition, etc.).

処理対象情報としては、例えば映像の配信先(目的)等に応じ、複数のものを設定することができる。これに応じて、例えばある一つの配信先に対しては処理の対象とならない部分を他の配信先に対しては処理の対象とすること、上記の処理の内容を配信先に応じて変える、等の操作が可能となる。こうした場合には、処理対象情報がユーザによって選択される構成とされる。   As the processing target information, for example, a plurality of pieces of information can be set according to the delivery destination (purpose) of the video. In response to this, for example, a part not to be processed for one distribution destination is to be processed for another distribution destination, and the contents of the above processing are changed according to the distribution destination. Such operations are possible. In such a case, the processing target information is selected by the user.

また、後述するように、最終的に素材映像データに対して編集が行われる際には、処理対象となった部分や処理の内容は、ユーザによって確認された後に、修正が施される。こうした最終的な編集情報(最終編集情報)あるいは最終編集情報と自動編集情報との違いに関する情報も、情報記憶部132に記憶される。   Further, as described later, when the editing is finally performed on the material video data, the portion to be processed and the content of the process are corrected after being confirmed by the user. Information on the difference between the final editing information (final editing information) or the final editing information and the automatic editing information is also stored in the information storage unit 132.

記録装置12には、素材映像データに対して実際にレンダリング処理を施す編集を行う編集装置14も、接続されている。編集装置14には、実際にこの編集作業を行うプロセッサを具備する編集制御部(編集手段)141と、素材映像データ、及びこれに編集が施された後の映像データに基づく映像を表示させる表示部(表示手段:ディスプレイ)142と、その画像や音声における各部分を選択する、あるいは指示を入力するための操作パネル(操作手段)143が設けられる。表示部142と操作パネル143とが一体化されたタッチパネルディスプレイを用いることがより好ましい。   Also connected to the recording device 12 is an editing device 14 for performing editing for actually performing rendering processing on material video data. A display for displaying an image based on the editing control unit (editing means) 141 having a processor that actually performs this editing work, the material video data, and the video data after the editing is performed on the editing device 14 A unit (display unit: display) 142 and an operation panel (operation unit) 143 for selecting each portion of the image or sound or inputting an instruction are provided. It is more preferable to use a touch panel display in which the display unit 142 and the operation panel 143 are integrated.

編集制御部141は、素材映像データと上記の自動編集情報を記録装置12から読み出し、自動編集情報に基づいて素材映像データを編集した新たな映像データ(自動編集済み映像データ)を作成し、自動編集済み映像データを記録装置12に記憶させることができる。ただし、編集装置14においては、この自動編集済み映像データに基づく画像をユーザが表示部142で確認した上で、操作パネル143を操作して、自動編集済み映像データにおいて処理が施された部分のうち、適切でないと認識された部分の処理を解除するための指示を編集制御部141に出し、この処理の解除を行うこともできる。この場合には、素材映像データを参照することもできる。   The editing control unit 141 reads out the material video data and the above-mentioned automatic editing information from the recording device 12 and creates new video data (automatically edited video data) in which the material video data is edited based on the automatic editing information. The edited video data can be stored in the recording device 12. However, in the editing device 14, after the user confirms the image based on the automatically edited video data on the display unit 142, the operation panel 143 is operated to perform processing of the automatically edited video data. It is also possible to issue an instruction to cancel the processing of the portion recognized as not appropriate among them to the editing control unit 141 and cancel this processing. In this case, material video data can also be referenced.

同様に、編集制御部141は、自動編集済み映像データに対して、更に追加の処理を施すこともできる。この際に新たに処理の対象となる部分は、ユーザによって指定される。この際にも、ユーザは、自動編集済み映像データに基づく映像を表示部142で確認した上で、操作パネル143を操作して、この操作を行うことができる。こうしたユーザによる操作によって、前記の自動編集情報が書き換えられた最終編集情報が生成される。この最終編集情報は素材映像データに対する編集処理に反映されると共に、後述されるように、処理対象情報の更新に利用される。   Similarly, the editing control unit 141 can further perform additional processing on the automatically edited video data. At this time, the part to be newly processed is designated by the user. Also at this time, the user can perform this operation by operating the operation panel 143 after confirming the video based on the automatically edited video data on the display unit 142. By such an operation by the user, final editing information in which the automatic editing information is rewritten is generated. The final editing information is reflected in the editing process on the material video data, and is also used to update the processing target information as described later.

同様に、編集制御部141は、記録装置12から素材映像データを直接読み込み、この素材映像データに基づく画像を表示部142でユーザに確認させた上で操作パネル143を操作させ、前記の自動編集情報を用いずに、処理の対象となる部分を指定し、レンダリング処理を施す操作を行うこともできる。この操作においては、ユーザは、自動編集情報とは無関係に、素材映像データに対してレンダリング処理を行うことができる。   Similarly, the editing control unit 141 directly reads the material video data from the recording device 12, causes the user to confirm an image based on the material video data on the display unit 142, and then operates the operation panel 143 to perform the automatic editing. It is also possible to specify a portion to be processed and perform an operation to perform rendering processing without using information. In this operation, the user can perform rendering processing on the material video data regardless of the automatic editing information.

編集制御部141は、このように、自動編集情報に基づいて編集された自動編集済み映像データ、ユーザによって自動編集済み映像データ又は素材映像データが編集された編集済み映像データを、記録装置12に記録させることができる。   Thus, the editing control unit 141 causes the recording device 12 to edit the automatically edited video data edited based on the automatic editing information, the edited video data edited by the user or the material video data. It can be recorded.

制御部15は、上記の操作を行わせるために、上記の構成要素を全て制御する。制御部15におけるプロセッサは、ユーザからの指示によって、上記のように記録装置12に記憶された映像データ(素材映像データ、自動編集済み映像データ、編集済み映像データ)のうち、いずれかを選択して配信させることができる。なお、制御部15においてユーザに操作される部分と編集装置14(操作パネル143)とを一体化させてもよい。   The control unit 15 controls all the components described above in order to perform the above operation. The processor in the control unit 15 selects one of video data (source video data, automatically edited video data, and edited video data) stored in the recording device 12 as described above according to an instruction from the user. Can be distributed. In the control unit 15, the portion operated by the user may be integrated with the editing device 14 (operation panel 143).

以下に、自動編集情報作成装置13、編集装置14の動作について説明する。自動編集情報作成装置13において、処理対象認識部131が処理の対象であると認識する部分は、情報記憶部132に記憶された処理対象情報に基づいて認識される。ここでは、一例として、海外のニュース番組の映像である素材映像データが用いられ、この画像の中で表示された時刻表示が対象となるものとする。この場合には、例えば「15:00」のように、0〜9までの数字と「:」とが組み合わされた表示がこれに該当するものと推定することができ、こうした部分が処理の対象となる旨が処理対象情報に記載されており、これを画像中において周知の文字認識手法で認識することができる。また、この数値が時間経過に従って変化している場合にも、この表示が時刻表示であると認識することができる。   The operations of the automatic editing information creation device 13 and the editing device 14 will be described below. In the automatic editing information creation apparatus 13, a portion that the processing target recognition unit 131 recognizes as a processing target is recognized based on the processing target information stored in the information storage unit 132. Here, as one example, material video data, which is a video of a news program from overseas, is used, and it is assumed that time display displayed in this image is an object. In this case, it can be estimated that a display in which numbers 0 to 9 and ":" are combined, such as "15:00", corresponds to this, and such a part is the target of processing. Is described in the processing target information, which can be recognized in the image by a known character recognition method. Also, even when this numerical value changes as time passes, it can be recognized that this display is a time display.

図2(a)は、このような時刻表示が存在する素材映像データ中の画像の一例である。処理対象認識部131は、上記のようにこの画像の中で「15:00」を認識し、これが時刻表示であるために、処理の対象となることを認識する。このため、処理対象認識部131は、この部分に対してブラー処理を施す自動編集情報を作成し、これを読み込んだ編集制御部141は、図2(b)に示されるように、この画像において「15:00」の表示を含む領域にブラー処理を施した画像を生成する。素材映像データ中のある時点において上記のように処理の対象となる部分が認識されたら、素材映像データ中の全ての画像において対応する部分に同様の処理が施されて自動編集情報が作成され、記録装置12に記録される。   FIG. 2A is an example of an image in the material video data in which such time display exists. The processing target recognition unit 131 recognizes “15:00” in this image as described above, and recognizes that it is a processing target because it is a time display. For this reason, the processing target recognition unit 131 creates automatic editing information for blurring the portion, and the editing control unit 141 that has read the portion generates the automatic editing information, as shown in FIG. An image is generated in which an area including the display of "15:00" is subjected to blur processing. When a portion to be processed is recognized as described above at a certain point in the material video data, the same processing is applied to the corresponding portions of all the images in the material video data to create the automatic editing information, It is recorded on the recording device 12.

編集装置14においては、この処理が適切であるか否かの判定がユーザによって行われる。このためには、この自動編集情報に基づく自動編集済み映像データの画像が表示部142において表示される。しかしながら、ユーザが処理後の画像のみを見た場合には、処理前の画像との違いを認識することが困難であるため、この処理あるいは処理対象となった部分が適切であるか否かを認識することが困難である。このため、編集制御部141は、自動処理が行われる前の画像と自動処理後の画像とを表示部142で並べて表示させることができる。これによって、ユーザは、2つの画像を対比し、この処理あるいは処理対象となった部分が適正であるか否かを判定することができる。   In the editing device 14, the user determines whether this process is appropriate. For this purpose, an image of automatically edited video data based on the automatic editing information is displayed on the display unit 142. However, when the user views only the image after processing, it is difficult to recognize the difference from the image before processing, so it is determined whether the processing or the portion to be processed is appropriate. It is difficult to recognize. Therefore, the editing control unit 141 can display the image before the automatic processing and the image after the automatic processing side by side on the display unit 142. This allows the user to compare the two images and to determine whether the process or the part to be processed is appropriate.

こうした場合における表示方法を図3に示す。ここでは、表示部142と操作パネル143とが一体化されたタッチパネルディスプレイ144が用いられているものとする。ここでは、画面の上側に表示A(左側)、表示B(右側)が設けられ、画面の下側の表示Cが操作パネル143に対応した部分となっている。ここでは、表示Aにおいては処理前の画像(素材映像データ)、表示Bにおいてはこれに対応して生成されるべき処理後の画像(自動処理済み映像データ)が示されている。ここで、処理対象となった部分を表示A、表示Bにおいて強調表示すれば、ユーザは、これらを容易に認識することができる。表示Cにおいては、現在表示A、Bにおいて示された画像の開始時からの経過時刻を示す表示、あるいはこの時刻を早送り、巻き戻しさせる等の操作を行わせるキー、実際にこの処理を確定して適用するか否かを問い合わせるキー等が設けられている。この構成によって、処理前の画像と自動処理後の画像を共に認識することができ、ユーザは、自動編集が適正であるか否かを容易に確認することができる。また、ユーザがこの処理を希望しない場合には、この処理を行わせないことができる。   A display method in such a case is shown in FIG. Here, it is assumed that a touch panel display 144 in which the display unit 142 and the operation panel 143 are integrated is used. Here, the display A (left side) and the display B (right side) are provided on the upper side of the screen, and the display C on the lower side of the screen corresponds to the operation panel 143. Here, an image before processing (source video data) is shown in display A, and an image after processing (automatically processed video data) to be generated corresponding to this in display B is shown. Here, if the portions to be processed are highlighted on the display A and the display B, the user can easily recognize these. In the display C, a display showing the elapsed time from the start time of the image shown in the current display A, B, or a key for performing an operation such as fast-forwarding or rewinding this time, this process is actually determined The key etc. which ask whether or not to apply are provided. With this configuration, both the image before processing and the image after automatic processing can be recognized, and the user can easily confirm whether the automatic editing is appropriate. Also, if the user does not want this process, this process can not be performed.

また、上記のように自動処理の前後の画像を比較する際に、これらの画像を同時に表示させても、例えば処理対象となった部分が小さな場合には、その認識に時間がかかる場合がある。図4は、こうした場合におけるタッチパネルディスプレイ144の表示の一例である。   In addition, when comparing the images before and after automatic processing as described above, even if these images are displayed simultaneously, for example, if the portion to be processed is small, it may take time to recognize the images. . FIG. 4 is an example of display on the touch panel display 144 in such a case.

ここでは、画面の上側の表示Dにおいて処理対象となった部分を含む領域を破線等で示し、その左側の表示E、表示Fにおいて、それぞれこの破線領域を拡大し、更に処理対象となった部分を強調表示して表示させることができる。これによって、ユーザは、処理対象となった部分が適正であったか否かを容易に認識することができる。その後、ユーザは、画像の下側に設けられた操作パネル領域Cを操作して、上記と同様の操作を行うことができる。あるいは、例えばブラー処理を行う場合にはその程度を、あるいは塗りつぶし処理を行う場合にはそのパターンを調整することができる。また、処理対象となる部分の大きさ(領域)をより小さくする、あるいは大きくする等、改変することもできる。   Here, an area including the portion to be processed in display D on the upper side of the screen is indicated by a broken line or the like, and in display E and display F on the left side, the broken line region is enlarged and portions to be processed further Can be highlighted and displayed. As a result, the user can easily recognize whether or not the part to be processed is appropriate. Thereafter, the user can operate the operation panel area C provided below the image to perform the same operation as described above. Alternatively, for example, in the case of performing the blurring process, the degree can be adjusted, or in the case of performing the filling process, the pattern can be adjusted. In addition, the size (area) of the portion to be processed can be modified to be smaller or larger.

図3、4の例では、処理対象となった部分が単一の画像上において一つのみ存在した。しかしながら、こうした部分が単一の画像で複数存在する場合もある。図5は、こうした場合における表示の一例である。ここでは、処理の対象となった部分は4つあるものとする。上側の中央の表示Gにおいて、前記の表示Bと同様に、処理後の画像が表示される。ただし、ここでは、処理対象となった部分が点や矢印等によって示される、あるいは強調表示されている。表示Gの両側の表示Hにおいては、各部分の処理前の拡大画像(H1)と、処理対象情報に基づく処理の理由(H2)が表示されている。下側の表示Cについては前記と同様であるが、ここでは、この処理の適用の可否は、部分毎に設定可能とされる。   In the examples of FIGS. 3 and 4, only one portion to be processed exists on a single image. However, there may be a plurality of such parts in a single image. FIG. 5 is an example of display in such a case. Here, it is assumed that there are four parts to be processed. In the upper center display G, the processed image is displayed in the same manner as the display B described above. However, here, the portion to be processed is indicated or highlighted by a point, an arrow, or the like. In the display H on both sides of the display G, the enlarged image (H1) before the processing of each part and the reason (H2) of the processing based on the processing target information are displayed. The lower display C is the same as the above, but in this case, whether or not this process is applicable can be set for each part.

なお、図5の例では、表示Gにおいて処理後の画像が、表示H1において処理前の画像が表示されたが、これらを逆転し、表示Gにおいて処理前の画像を同様に処理対象となる部分を明示した上で表示し、表示H1において表示後の各部分の画像を表示してもよい。   In the example of FIG. 5, the image after processing in display G is the image before processing in display H1, but these are reversed, and the portion before image processing in display G is to be processed similarly May be explicitly displayed, and the image of each portion after display may be displayed on the display H1.

また、上記の例においては、画像に対しての処理が行われたが、音声に対して処理が行われた場合には、他の表示方法を用いることができる。この場合、例えば処理前後の音声を同時に流すことによってユーザがこの可否の判断をすることは困難であるため、処理の対象となる部分がどこにあったかのみを表示させることが好ましい。図6は、こうした場合の表示の一例である。ここでは表示Iにおいて、処理の対象となる部分がどの時刻におけるどの内容(画像、音声)であるかが文字で記載されている。その上側の表示Jにおいて、処理後の映像を試写する否かが設定され、試写することが選択された場合には、前記と同様に処理後の映像が表示される。   Further, in the above-described example, although processing is performed on an image, when processing is performed on audio, another display method can be used. In this case, for example, it is difficult for the user to judge the availability by simultaneously transmitting voices before and after processing, so it is preferable to display only where the part to be processed was. FIG. 6 is an example of a display in such a case. Here, in the display I, the text (image, sound) at which time of the portion to be processed is described in text. In the upper display J, it is set whether or not to preview the processed video, and if it is selected to perform preview, the processed video is displayed in the same manner as described above.

なお、上記においては、表示部142(タッチパネルディスプレイ144)で、素材映像データに基づく画像と自動編集済み映像データに基づく画像とが表示されるものとしたが、ここではこの画像はレンダリング処理のユーザによる評価のみに用いられるため、ある時点の静止画像として、素材映像データと自動編集済み映像データの比較ができれば十分である。このため、自動編集済み映像データに基づく画像を表示するに際しては、自動編集済み映像データそのものをこの時点で実際に作成する必要はない。上記の自動編集情報が定まっていれば、素材映像データにおけるある時点での静止画像に対して、この自動編集情報に基づく処理を施し、これを表示させれば、十分である。実際に素材映像データ全体に編集処理を行い自動編集済み映像データ全体を作成する作業と比べれば、容易かつ短時間でこの処理を行うことができる。   In the above description, the display unit 142 (touch panel display 144) displays an image based on material video data and an image based on automatically edited video data. Here, this image is a user of the rendering process. Since it is used only for evaluation according to the above, it is sufficient if it is possible to compare material video data and automatically edited video data as a still image at a certain point in time. Therefore, when displaying an image based on automatically edited video data, it is not necessary to actually create the automatically edited video data itself at this point. If the above-described automatic editing information is determined, it is sufficient to perform processing based on the automatic editing information on a still image at a certain point in the material video data and display it. This process can be performed easily and in a short time, as compared with the task of actually editing the entire material video data and creating the entire automatically edited video data.

また、表示部142(タッチパネルディスプレイ144)で表示される画像として動画を表示させる場合には、特定の時間あるいは複数フレーム毎の間引き処理を行った映像、プロキシ映像等を用いることができ、これによって使用するプロセッサの負担を軽減し、処理速度を高めることができる。また、音声信号についても同様であり、MP3、AAC等の圧縮技術を用いて、音質を低下させデータ容量を小さくした信号を用いることができる。   In addition, when a moving image is displayed as an image displayed on the display unit 142 (touch panel display 144), an image, a proxy image, or the like which has been subjected to thinning processing for each specific time or plural frames can be used. The load on the processor used can be reduced and the processing speed can be increased. Further, the same applies to audio signals, and it is possible to use a signal whose sound quality is reduced and data capacity is reduced using compression techniques such as MP3 and AAC.

上記のように、この映像編集システム1においては、レンダリング処理の対象となる部分が自動編集情報作成装置13によって自動的に認識され、これに応じた自動編集済み映像データが作成される。ただし、編集装置14を用いて、ここで行われた処理を容易に取り消すことができ、処理の対象となる部分を追加することもできる。このため、処理の対象となる部分をユーザが全て指定した従来の映像処理システムと比べて、レンダリング処理を容易かつ速やかに行うことができる。このように、ユーザによって最終的に編集・確認された編集内容(処理対象となった部分、処理の内容)は、自動編集情報と対応させた最終編集情報として、情報記憶部132にデータベースとして記憶される。あるいは、最終編集情報自身ではなく最終編集情報と自動編集情報の違いに関する情報を記憶させてもよい。こうした最終編集情報は、後述するように利用することができる。   As described above, in the video editing system 1, the portion to be rendered is automatically recognized by the automatic editing information creating apparatus 13, and the automatically edited video data corresponding to this is created. However, the processing performed here can be easily canceled using the editing device 14, and a part to be processed can be added. For this reason, rendering processing can be performed more easily and quickly than in a conventional video processing system in which the user designates all parts to be processed. As described above, the editing content (the part to be processed and the processing content) finally edited and confirmed by the user is stored as a database in the information storage unit 132 as final editing information corresponding to the automatic editing information. Be done. Alternatively, information about the difference between the final editing information and the automatic editing information may be stored instead of the final editing information itself. Such final editing information can be used as described later.

次に、実際に制御部15が図1の構成要素全体に対して行わせる動作について具体的に説明する。ます、実際には、素材映像データの中には、上記のようなレンダリング処理が必要となるものと、不要であるものとがある。このため、上記の動作を行う際には、実際には、素材映像データに応じて、制御部15が上記の構成要素を制御する。また、記録装置12においては、その後に用いることのない映像データは記憶させないことが、動作の効率化のためには好ましい。図7は、こうした点を考慮した制御部15が行わせる具体的な動作を示すフローチャートの一例である。ここでは、単純化のために、編集装置14を用いてユーザによって指定された処理は行われないものとする。また、図1において、素材映像データは自動編集情報作成装置13を介してのみ記憶装置12に入力する(記憶される)ものとする。   Next, an operation that the control unit 15 actually causes the entire components of FIG. 1 to perform will be specifically described. In reality, there are some material video data that require the rendering process as described above and some that do not. Therefore, when performing the above operation, the control unit 15 actually controls the above components according to the material video data. In addition, it is preferable that the recording device 12 not store video data that is not used after that, in order to improve the operation efficiency. FIG. 7 is an example of a flowchart showing a specific operation performed by the control unit 15 in consideration of such a point. Here, for the sake of simplicity, it is assumed that the processing specified by the user using the editing device 14 is not performed. Further, in FIG. 1, it is assumed that material video data is input (stored) in the storage device 12 only via the automatic editing information creation device 13.

ここでは、まず、収録装置11は、素材映像データを入手する(S1)。自動編集情報作成装置13は、この素材映像データを入手し、素材映像データ中の画像において処理対象となる部分があるかを解析する(S2)。ここでは、処理対象認識部131が、情報記憶部132中の情報を参照し、素材映像データ中の画像において処理対象となる部分があるかを認識し、この部分が認識された場合には、この部分に対する処理も、情報記憶部132中の情報に基づき、決定する(S3)。これによって、自動編集情報が作成される。処理の対象となる部分が認識されなかった場合(S4:No)には、素材映像データがそのまま記録装置12に記憶される(S5)。   Here, first, the recording device 11 obtains material video data (S1). The automatic editing information creation apparatus 13 obtains the material video data, and analyzes whether there is a portion to be processed in the image in the material video data (S2). Here, the processing target recognition unit 131 refers to the information in the information storage unit 132 to recognize whether there is a portion to be processed in the image in the material video data, and when this portion is recognized, The processing for this portion is also determined based on the information in the information storage unit 132 (S3). This creates automatic editing information. If the part to be processed is not recognized (S4: No), the material video data is stored as it is in the recording device 12 (S5).

処理の対象となる部分が認識された場合(S4:Yes)には、制御部15は、素材映像データを記憶するか否かをユーザに問い合わせる(S6)。記憶しない場合(S6:No)には、前記の通り、編集装置14を用いて、この素材映像データに対して自動編集情報に基づく編集を行わせた自動編集済み映像データを作成し(S7)、この自動編集済み映像データと自動編集情報とを記録装置12に記憶させる(S8)。この場合には、記憶装置12に記憶される映像データは、編集後の自動編集済み映像データのみとなる、あるいは、素材映像データが記録装置12に記憶されていた場合には、素材映像データは自動編集済み映像データに置き換えられる。   If the part to be processed is recognized (S4: Yes), the control unit 15 inquires the user whether to store the material video data (S6). If not stored (S6: No), as described above, the editing device 14 is used to create automatically edited video data in which the material video data is edited based on the automatic editing information (S7) Then, the recording device 12 stores the automatically edited video data and the automatic editing information (S8). In this case, the video data stored in the storage device 12 is only the automatically edited video data after editing, or, if the material video data is stored in the recording device 12, the material video data is Replaced with automatically edited video data.

素材映像データを記憶する場合(S6:Yes)には、制御部15は、素材映像データと自動編集情報を記録装置12に記憶させた(S9)後、ユーザに対して、自動編集を行うか否かの確認を行う(S10)。自動編集を行わない場合(S10:No)には、処理は終了する。この場合には、記憶装置12には編集前の素材映像データと自動編集情報が記憶される。このため、この時点では自動編集済み映像データは存在しないが、編集装置14を用いて、後で容易に自動編集済み映像データを作成することができる。   When material video data is stored (S6: Yes), the control unit 15 stores the material video data and the automatic editing information in the recording device 12 (S9), and then performs automatic editing for the user It is confirmed whether or not it is not (S10). If the automatic editing is not performed (S10: No), the process ends. In this case, the storage device 12 stores material video data before editing and automatic editing information. For this reason, although there is no automatically edited video data at this time, the edited device 14 can be used to easily create the automatically edited video data later.

自動編集を行う場合(S10:Yes)には、制御部15は、編集装置14に自動編集済み映像データを作成させ(S11)、これを記録装置12に記憶させる(S12)。この場合には、記録装置12には、元となった素材映像データ、自動編集情報、自動編集済み映像データの全てが記憶される。このため、例えば、上記のように複数の処理対象情報が設定された場合において、同一の素材映像データに対して他の処理対象情報を用いた処理を後で行うことが容易となる。   If automatic editing is to be performed (S10: Yes), the control unit 15 causes the editing device 14 to create automatically edited video data (S11), and causes the recording device 12 to store this (S12). In this case, the recording device 12 stores all of the original material video data, the automatic editing information, and the automatically edited video data. Therefore, for example, when a plurality of pieces of processing target information are set as described above, it becomes easy to perform later processing using the other pieces of processing target information on the same material video data.

なお、記録装置12が収録装置11から素材映像データを直接受信してこれを記憶する場合には、上記のS6〜S8の工程は不要となる。ただし、自動編集済み映像データが記憶された(S12)後に、素材映像データを削除してもよい。   When the recording device 12 directly receives the material video data from the recording device 11 and stores the data, the steps S6 to S8 become unnecessary. However, material video data may be deleted after the automatically edited video data is stored (S12).

図7のフローチャートにおいては、素材映像データの入力があった後における制御部15の動作が示された。一方、素材映像データが記録装置12に予め記憶されている状態で制御部15に対して映像の配信(出力)要求があり、これに応じて素材映像データが編集された後の映像データを出力させる場合もある。図8は、こうした場合における制御部15の動作の一例を示すフローチャートである。ここでは、少なくとも素材映像データは記録装置12に記憶されているものとする。   The flowchart of FIG. 7 shows the operation of the control unit 15 after the input of the material video data. On the other hand, there is a video distribution (output) request to the control unit 15 in a state where material video data is stored in advance in the recording device 12, and the video data after editing the material video data is output accordingly It may be FIG. 8 is a flowchart showing an example of the operation of the control unit 15 in such a case. Here, it is assumed that at least material video data is stored in the recording device 12.

ここで、制御部15は、配信の要求があった場合(S21)、記録装置12に自動編集済み映像データが記憶されているか否かを確認する(S22)。自動編集済み映像データが記憶されていなかった場合(S22:No)には、まず、自動編集情報が記憶されているか否かを確認する(S23)。自動編集情報が存在する場合(S23:Yes)には、制御部15は、前記のように編集装置14を用いて自動編集済み映像データを作成し、これを記録装置12に記憶させる(S24)。自動編集情報が存在しない場合(S23:No)には、制御部15は、自動編集情報作成装置13を用いて自動編集情報を作成してから(S25)、同様に編集装置14を用いて自動編集済み映像データを作成し、これを記録装置12に記憶させる(S24)。これによって、自動編集済み映像データが記憶されていなかった場合(S22:No)において、自動編集済み映像データが新たに作成されて記録装置12に記憶される。   Here, when there is a distribution request (S21), the control unit 15 checks whether the automatically edited video data is stored in the recording device 12 (S22). If the automatically edited video data is not stored (S22: No), first, it is checked whether the automatic editing information is stored (S23). If the automatic editing information exists (S23: Yes), the control unit 15 creates the automatically edited video data using the editing device 14 as described above, and stores the video data in the recording device 12 (S24) . If the automatic editing information does not exist (S23: No), the control unit 15 creates the automatic editing information using the automatic editing information creating device 13 (S25), and similarly, automatically using the editing device 14 The edited video data is created and stored in the recording device 12 (S24). As a result, if the automatically edited video data is not stored (S22: No), the automatically edited video data is newly created and stored in the recording device 12.

自動編集済み映像データが記憶されていた場合(S22:Yes)、あるいは上記のように新たに自動編集済み映像データが作成されて記憶された場合(S24)、には、制御部15は、この自動編集済み映像データに基づく画像を編集装置14(表示部142)で表示させ(S26)、この内容で配信してよいか否かをユーザに問い合わせる(S27)。   If the automatically edited video data is stored (S22: Yes), or if the newly edited video data is newly created and stored as described above (S24), the control unit 15 The image based on the automatically edited video data is displayed on the editing device 14 (display unit 142) (S26), and the user is inquired as to whether or not the content may be distributed with this content (S27).

この内容で配信してよい場合(S27:Yes)には、この自動編集済み映像データを、配信が許可された編集済み映像データと設定する(S28)。一方、この内容からの変更を希望する場合(S27:No)には、制御部15は、前記の図2,3のように編集装置14を用いて自動編集済み映像データを更に編集させ(S29)、この編集後の映像データを、配信が許可された編集済み映像データと設定し、記録装置12に記憶させる(S30)。この際、前記の通り最終編集情報も作成し、記憶させる。その後、制御部15は、上記のように記録装置12に記憶された編集済み映像データを配信させる(S31)。こうした動作によって、レンダリング処理が不要な場合には未編集の素材映像データが、レンダリング処理が必要な場合にはこれに対して適切に処理が施された映像データを速やかに配信させることができる。   If it is possible to distribute with this content (S27: Yes), this automatically edited video data is set as edited video data for which distribution is permitted (S28). On the other hand, when a change from this content is desired (S27: No), the control unit 15 further edits the automatically edited video data using the editing device 14 as shown in FIGS. ), The edited video data is set as the edited video data for which the distribution is permitted, and stored in the recording device 12 (S30). At this time, final editing information is also created and stored as described above. Thereafter, the control unit 15 distributes the edited video data stored in the recording device 12 as described above (S31). By such an operation, it is possible to rapidly distribute unedited material video data when rendering processing is unnecessary and video data appropriately processed for rendering processing when necessary.

また、自動編集情報が作成されてもこれを適用して自動編集済み映像データを作成するのには時間を要し、記録装置12に様々な映像データを記憶させるのにも時間を要する。このため、配信において不要となることが明らかな映像データを記憶させない、作成しないことが好ましい。更に、処理の時間を短縮するために、ユーザが他の装置を用いて同時に映像を確認する場合もある。図9は、こうした点を考慮した制御部15の動作を示すフローチャートの一例である。   Also, even if the automatic editing information is created, it takes time to apply it to create the automatically edited video data, and it also takes time to store various video data in the recording device 12. For this reason, it is preferable not to store or create video data that is clearly unnecessary in distribution. Furthermore, in order to reduce the processing time, the user may check the image simultaneously using another device. FIG. 9 is an example of a flowchart showing the operation of the control unit 15 in consideration of such a point.

ここでは、収録装置11が素材映像データを入手したら(S41)、この素材映像データをそのまま記録装置12に記憶するか否かが判断される(S42)。素材映像データの記憶が不要であると認識された場合(S42:No)には、前記の通りに自動編集処理が行われて自動編集済み映像データが作成され(S43)、この自動編集済み映像データを配信用の映像データであるとして記録装置12に記憶する(S44)。この場合においては、記録装置12に記録される映像データは自動編集済み映像データのみである。   Here, when the recording device 11 obtains material video data (S41), it is determined whether the material video data is to be stored as it is in the recording device 12 (S42). If it is recognized that the storage of the material video data is unnecessary (S42: No), the automatic editing process is performed as described above, and the automatically edited video data is created (S43). The data is stored in the recording device 12 as video data for distribution (S44). In this case, the video data recorded in the recording device 12 is only the automatically edited video data.

素材映像データの記憶をすると認識された場合(S42:Yes)には、まず、素材映像データが記録装置12に記憶される(S45)。その後、他装置も用いて素材映像データの解析を行うか否かが問い合わせられる(S46)。他装置も用いて素材映像データの解析を行う場合(S46:Yes)には、その後に、ユーザは、他装置を用いて素材映像データの解析を行い(S47)、その上で編集装置14を用いた以降の処理を開始させることができる。この解析結果を、以下の判定(S50、S56)に利用することができる。   If it is recognized that the material video data is stored (S42: Yes), the material video data is first stored in the recording device 12 (S45). Thereafter, it is inquired whether or not to analyze the material video data using another device (S46). When analyzing the material video data using another device (S46: Yes), the user analyzes the material video data using the other device (S47), and then the editing device 14 is It is possible to start the process after the use. This analysis result can be used for the following determination (S50, S56).

その後、自動編集を直ちに行うか否かが問い合わせられ(S48)、直ちに行わない場合(S48:No)には、自動編集情報作成装置13によって自動編集情報が作成され(S49)、その後で編集装置14は、この自動編集情報の内容でよいか否かを問い合わせる(S50)。この問い合わせを行う際には、実際に自動編集済み映像データは作成されていないが、ユーザは、この自動編集情報に基づく編集後の内容を確認するために、前記の通り、ある一時点での静止画像を用いて、この確認をすることが可能である。この内容を変更したい場合(S50:No)には、編集装置14は、ユーザにその修正を行わせる(S51)。その後、内容の変更がない場合(S50:Yes)にはそのままの自動編集情報に基づいて、素材映像データに対する実際の編集作業が行われた編集済み映像データが作成される(S52)。この編集済み映像データが、配信用の映像データとして記録装置12に記憶される(S53)。この場合には、最終的に内容が確定するまで編集済み映像データは作成されない。   Thereafter, it is inquired whether or not automatic editing is to be performed immediately (S48), and if not (S48: No), automatic editing information is created by the automatic editing information creation device 13 (S49), and thereafter the editing device 14 inquires whether the content of the automatic editing information is acceptable (S50). When this inquiry is made, the automatically edited video data is not actually created, but as described above, the user can confirm the content after editing based on the automatic editing information. It is possible to do this verification using a still image. If it is desired to change this content (S50: No), the editing device 14 causes the user to make the correction (S51). After that, when there is no change in contents (S50: Yes), edited video data in which the actual editing work has been performed on the material video data is created based on the automatic editing information as it is (S52). The edited video data is stored in the recording device 12 as video data for distribution (S53). In this case, edited video data is not created until the content is finally determined.

自動編集を直ちに行う場合(S48:Yes)には、直ちに自動編集情報とこれに基づいた自動編集済み映像データが作成され(S54)、自動編集済み映像データを表示部142で表示させる(S55)。この場合には、ユーザは、自動編集済み映像データの全ての時点で、この編集内容が適正か否かを詳細に確認することができる(S56)。その後、この編集内容の修正を望む場合(S56:No)には、上記と同様にその修正作業、確認が行われ(S57)、その後に再びこの修正後の編集情報に基づき新たな映像データ(編集済み映像データ)が作成され(S58)、この編集済み映像データが配信用の映像データとして記録装置12に記憶される(S59)。この際に作成された最終編集情報も同時に記憶される。   When the automatic editing is immediately performed (S48: Yes), the automatic editing information and the automatically edited video data based on the information are immediately created (S54), and the automatically edited video data is displayed on the display unit 142 (S55) . In this case, the user can check in detail whether or not the edited content is appropriate at all time points of the automatically edited video data (S56). After that, when it is desired to correct this editing content (S56: No), the correction work and confirmation are performed in the same manner as described above (S57), and thereafter new video data ( The edited video data is created (S58), and the edited video data is stored in the recording device 12 as video data for distribution (S59). The final editing information created at this time is also stored simultaneously.

自動編集情報に基づく編集が適正であると認められた場合(S56:Yes)には、既に作成された自動編集済み映像データが、配信用の映像データとして記録装置12に記憶される(S60)。   If it is determined that the editing based on the automatic editing information is appropriate (S56: Yes), the automatically edited video data that has already been created is stored in the recording device 12 as video data for distribution (S60) .

上記の動作においては、素材映像データに対して実際に編集処理を施すことを必要最小限に留めることによって処理時間を短くし、かつユーザによる編集処理が適正か否かのチェックを確実に行うことができ、その修正も行われる。   In the above operation, the processing time can be shortened by minimizing the necessity of actually performing the editing process on the material video data, and the user can surely check whether the editing process is appropriate or not. And their corrections will be made.

次に、素材映像データにおけるレンダリング処理の対象となる部分を認識するために情報記憶部132に記憶される処理対象情報について説明する。こうした処理の対象となる部分としては、前記のような時刻表示、映り込んだ自動車の登録ナンバー、企業名、映り込んだ人物の顔等がある。時刻表示や登録ナンバーは、数字をパターン認識することによって認識することができ、企業名は文字のパターン認識によって認識することができ、顔もパターン認識手法によって認識することができる。   Next, processing target information stored in the information storage unit 132 in order to recognize a portion to be a target of rendering processing in material video data will be described. The parts to be subjected to such processing include the time display as described above, the registered number of the reflected car, the company name, the face of the reflected person, and the like. The time display and registration number can be recognized by pattern recognition of numbers, company names can be recognized by pattern recognition of characters, and faces can also be recognized by a pattern recognition method.

前記の通り、上記の編集装置14においては、ユーザ自身が操作パネル143を操作することによって、こうした処理の対象となる部分を設定することもでき、その後にこの操作が反映された最終編集情報が作成される。この場合、この最終編集情報を処理対象認識部131が認識して、処理対象情報を更新(あるいは作成)することもできる。この場合、処理対象認識部131は、処理対象情報をより好ましい内容に更新する処理対象情報改変手段として機能する。図10は、処理対象認識部131におけるこうした動作の流れを示す図である。   As described above, in the editing apparatus 14 described above, when the user operates the operation panel 143, it is possible to set a portion to be a target of such processing, and then the final editing information on which the operation is reflected is It is created. In this case, the processing target recognition unit 131 can recognize the final editing information and update (or create) the processing target information. In this case, the processing target recognition unit 131 functions as processing target information modifying means for updating the processing target information to more preferable contents. FIG. 10 is a diagram showing the flow of such an operation in the process target recognition unit 131.

ここで、まず、初期状態の処理対象情報は、ユーザによって作成される(P1)。ここでは、例えば、処理の対象として必要最小限でありかつ認識が比較的容易なもののみが対象として選定される。例えば、前記のような画像中の時刻表示を、こうした対象とすることができる。この処理対象情報を用いて、前記のようにこの映像編集システム1が繰り返し用いられる。この際、前記のように、自動編集情報による編集に加え、あるいはこの編集に代わり、ユーザによっても編集作業が行われ、最終的に素材映像データに対して適用された最終編集情報が作成され、この最終編集情報も情報記憶部132に記憶される。   Here, first, the processing target information in the initial state is created by the user (P1). Here, for example, only those that are minimally necessary for processing and relatively easy to recognize are selected as targets. For example, time display in an image as described above can be such an object. The video editing system 1 is repeatedly used as described above using the processing target information. At this time, as described above, in addition to or in place of the editing by the automatic editing information, the editing work is also performed by the user, and finally the final editing information applied to the material video data is created. The final editing information is also stored in the information storage unit 132.

このため、処理対象認識部131は、自動編集済み映像データの基となった自動編集情報と、その後に生成された最終編集情報とを比較することによって、自動編集情報の基となり情報記憶部132に記憶された処理対象情報を改変することができる。例えば、画像中のある文字列が処理対象情報における処理の対象に含まなかったために自動編集情報においては処理の対象とされていなかったが、ユーザによって後で指定されて最終編集情報においては処理の対象とされた場合には、この文字列を処理の対象として追加するように処理対象情報を改変することができる。逆に、画像中のある文字列が処理対象情報における処理の対象に含まれたために自動編集情報においては処理の対象とされたが、ユーザによって後でこの指定が解除されて最終編集情報においては処理の対象とされなかった場合には、この文字列を処理の対象から削除するように処理対象情報を改変することができる。処理対象情報における処理の内容(ブラー処理等)についても、同様に改変することができる。こうした作業は、例えば画像中の顔認識を用いれば、特定の人物を処理の対象とする場合においても同様に行うことができる。   Therefore, the processing target recognition unit 131 becomes the basis of the automatic editing information by comparing the automatic editing information that is the basis of the automatically edited video data with the final editing information generated after that. The processing object information stored in can be modified. For example, although a character string in the image was not included in the processing target information in the processing target information, the automatic editing information was not processed in the processing, but is specified later by the user and processed in the final editing information When it is considered as a target, the processing target information can be modified to add this character string as a processing target. Conversely, because a character string in the image is included in the processing of the processing target information, the automatic editing information has been processed, but this designation is later canceled by the user and the final editing information is If the processing target information is not processed, the processing target information can be modified to delete this character string from the processing target. The contents of processing in the processing target information (such as blur processing) can be similarly modified. Such an operation can be performed similarly even in the case of processing a specific person by using face recognition in an image, for example.

また、このように処理の対象として選択されたか否かという単純な判断を用いずに、処理対象認識部131は、記録された複数の最終編集情報における統計的処理に基づいて、処理対象情報を改変することもできる。この際、例えば、最終編集情報と自動編集情報との相違点の各々を数値評価してその数値の総計を点数として算出し、この数値に基づき、処理対象情報を改変することもできる。例えば、この点数が大きかった(違いが大きかった)最終編集情報を抽出し、これらの中で共通の処理対象とされ処理対象情報に含まれなかったものを、新たに処理対象情報に取り入れることができる。   In addition, the processing target recognition unit 131 performs processing target information based on statistical processing in the plurality of final editing information recorded, without using such a simple determination as to whether or not the processing target is selected. It can also be modified. At this time, for example, each difference between the final editing information and the automatic editing information may be evaluated numerically, the total of the numerical values may be calculated as a score, and the processing target information may be modified based on this numerical value. For example, it is possible to extract final editing information in which the score is large (the difference is large), and to incorporate in the processing object information a common processing target among these and not included in the processing target information. it can.

このため、図10のフローにおいては、初期状態の処理対象情報(P1)を用いてこの映像編集システム1が用いられ、この際に、ユーザの操作により最終編集情報が作成され、情報記憶部132に記憶される(P2)。その後、上記のように、最終編集情報と自動編集情報の違いが数値化されて評価される(P3)。この数値に基づき、現在の処理対象情報を書き換えることが好ましいか、あるいはどのように書き換えるかが判定され(P4)、最終的に処理対象情報が更新される(P5)。ここで、図10に示されるように、最終的な判定(P4)に際しては、上記のような最終編集情報と自動編集情報の違いだけでなく、編集装置14におけるユーザによる編集作業の傾向(例えばあるユーザにおいては編集作業が多く、他のあるユーザでは編集作業が少ない)や、初期設定(P1)後に新たに発生した事情によって追加された画像に対する条件、等も考慮することができる。   Therefore, in the flow of FIG. 10, the video editing system 1 is used by using the processing target information (P1) in the initial state, and at this time, the final editing information is created by the operation of the user. Are stored (P2). Thereafter, as described above, the difference between the final editing information and the automatic editing information is quantified and evaluated (P3). Based on this numerical value, it is determined whether or not it is preferable to rewrite the current process target information (P4), and the process target information is finally updated (P5). Here, as shown in FIG. 10, in the final determination (P4), not only the difference between the final editing information and the automatic editing information as described above, but also the tendency of the editing work by the user in the editing apparatus 14 (for example, It is also possible to consider conditions for an image added due to circumstances newly generated after initial setting (P1), etc., because there are many editing operations for some users and few editing operations for other users.

このような処理対象情報の改変作業は、この映像編集システム1が使用されて最終編集情報が作成される度に繰り返してもよく、周期的に行ってもよい。また、上記の点数を用いる場合には、この点数の累積値に応じて行ってもよい。   Such modification work of the processing target information may be repeated every time the video editing system 1 is used and the final editing information is created, or may be performed periodically. Moreover, when using said score, you may carry out according to the cumulative value of this score.

このように、処理対象情報を、多数の最終編集情報を基にして改変する作業は、周知の機械学習手法(ディープラーニング)等を用いても行うことができる。前記のように、映像の配信先等に応じて複数の処理対象情報が設定される場合には、これらの作業も処理対象情報毎に行うことができる。   As described above, the operation of modifying the processing target information based on a large number of final editing information can also be performed using a well-known machine learning method (deep learning) or the like. As described above, in the case where a plurality of pieces of processing target information are set in accordance with the delivery destination of a video, etc., these tasks can also be performed for each piece of processing target information.

ユーザ自身が自動編集済み映像データに対する評価を入力できる設定とするための問い合わせ、入力は、編集装置14における表示部142、操作パネル143(タッチパネルディスプレイ144)を用いて、図3等と同様に行うことができる。図11は、こうした表示の一例である。ここでは、表示Kにおいて、自動編集情報(処理の対象となる部分の各々及びそれぞれにおける処理の内容)の説明及びその適用の可否が行われ、上側の表示Lで、この際の自動編集情報の評価がユーザによって入力される。その後で下側の表示Mを操作することによって、自動編集情報が表示Kの操作を反映して改変された最終編集情報を用いた編集処理が実行される。   An inquiry for setting that the user himself / herself can input an evaluation on automatically edited video data is performed as in FIG. 3 etc. using the display unit 142 and the operation panel 143 (touch panel display 144) in the editing apparatus 14. be able to. FIG. 11 is an example of such a display. Here, on the display K, the description of the automatic editing information (the contents of the processing in each of the portions to be processed and the respective portions) and the availability of the application thereof are performed. A rating is entered by the user. Thereafter, by operating the lower display M, editing processing is performed using the final editing information in which the automatic editing information has been modified to reflect the operation of the display K.

素材映像データには様々な種類のものがあり、場合によっては、一般的ではない特殊部分に対して処理を施す場合もある。こうした場合においては、自動編集情報と最終編集情報の違いが大きくなった場合でも、この場合の最終編集情報は、一般的に用いられる処理対象情報の改変に用いないことが好ましい。図11に示されたように、この場合の自動編集情報を評価の対象としないことを選択した場合には、このように特殊な場合の最終編集情報は処理対象情報の改変には使用されない。   There are various types of material video data, and in some cases, processing may be performed on an uncommon special part. In such a case, even if the difference between the automatic editing information and the final editing information becomes large, it is preferable that the final editing information in this case is not used to modify the generally used processing target information. As shown in FIG. 11, when it is selected that the automatic editing information in this case is not targeted for evaluation, the final editing information in such a special case is not used for modifying the processing object information.

このように、新たに作成された最終編集情報をフィードバックして処理対象情報を更新する方法として、上記の他にも、様々な手法が適用可能である。   As described above, various methods other than the above can be applied as a method of feeding back the newly created final editing information and updating the processing target information.

また、処理対象情報において指定される処理の対象となる部分としては、複数の種類のものがある。まず、放送禁止用語等、この部分が含まれた状態で放送すること自身が禁止されるものがある。放送時に視聴者に悪影響を与える激しい照明の点滅や、流血シーン、著しく激しい音声、ノイズ音等についても同様である。一方、前記の時刻表示や自動車の登録ナンバー等、放送の禁止はされていないが、放送することが好ましくないものも上記の対象となる。どの対象についても、これをパターン化して処理対象情報に記憶させ、素材映像データにパターン認識手法を適用することによって、処理対象認識部131が認識することが可能である。   In addition, there are a plurality of types of portions to be processed in the processing target information. First of all, there are some cases in which it is prohibited to broadcast in a state where this part is included, such as a broadcast prohibited term. The same applies to flickering of intense lighting which adversely affects the viewer at the time of broadcasting, bloody scenes, extremely intense sound, noise and the like. On the other hand, although the above-mentioned time display, the registration number of a car, etc. are not prohibited from being broadcast, those which are not preferable to be broadcast are also the above objects. The processing target recognition unit 131 can recognize any target by patterning it and storing it in processing target information and applying a pattern recognition method to material video data.

このように処理の対象のレベルを区分し、例えば、上記の放送禁止用語等、禁止の度合いの高いものを第1のレベル、上記の時刻表示や自動車の登録ナンバー等、禁止の度合いがこれよりも低いものを第2のレベルと設定することができる。   In this way, the levels to be processed are classified. For example, the above-mentioned broadcast prohibited terms and the like with high degree of prohibition are referred to as the first level, the above time display and the car registration number, etc. The lower one can be set as the second level.

この場合、図1における編集制御部141は、このレベルに応じて、自動編集情報を受け取った後の処理を変えることができる。例えば、上記の第1のレベルとなる部分が認識された場合には、編集制御部141は、表示部142で警告を発することが好ましい。また、第1のレベルとなる部分が認識された場合には、例えば図2等に示されたような単純な画面の修正だけではなく、素材映像データ全体を見直す必要がある可能性が高い。このため、上記に説明された動作において、第1のレベルとなる部分が認識された場合には、警告のみを発し、この警告が解除されない限り、編集作業を中断して自動編集済み映像データを作成せず、かつ素材映像データも配信しない構成とすることにより、ユーザに注意を喚起することができる。これによって、第1のレベルとなる部分が含まれる映像データが配信されることが確実に抑制される。   In this case, the editing control unit 141 in FIG. 1 can change the process after receiving the automatic editing information according to this level. For example, when the portion to be the first level is recognized, the editing control unit 141 preferably issues a warning on the display unit 142. In addition, when the part to be the first level is recognized, there is a high possibility that it is necessary to review not only the simple screen correction as shown in FIG. 2 and the like but also the entire material video data. For this reason, in the operation described above, only a warning is issued when a portion to be the first level is recognized, and unless the warning is canceled, the editing operation is interrupted and the automatically edited video data is displayed. The user can be alerted by creating a configuration without distributing material video data. As a result, the delivery of the video data including the portion to be the first level is reliably suppressed.

また、例えば、上記の処理の対象となりうる部分としては、映り込んだ人物の顔があり、処理対象認識部131は画像中における顔を認識することが可能である。ここで、例えば、映り込んだ人物が複数おり、ある特定の人物の顔のみに対して処理を適用したい場合、あるいは逆にこの特定の人物以外の全ての人物の顔に処理を施したい場合がある。こうした場合には、処理対象情報において、人物の顔を上記の第1のレベルに設定すれば、前記の放送禁止用語の場合と同様に、警告のみを発し、この警告が解除されない限り、自動編集済み映像データを作成せず、かつ素材映像データも配信しない構成とすればよい。その後、ユーザは、映り込んだ全ての顔のうち、特定の人物の顔のみに処理を行う、あるいは逆に特定の人物の顔のみに処理を行わないように、操作パネル143を制御して最終編集情報を作成し、この最終編集情報に応じて編集済み映像データを作成した後に、これを配信させることができる。   Also, for example, as a part that can be the target of the above-described processing, there is a face of a person who is reflected, and the processing target recognition unit 131 can recognize the face in the image. Here, for example, when there are a plurality of reflected persons and it is desired to apply the processing only to the face of a specific person, or conversely, the processing may be applied to the faces of all persons other than the specific person. is there. In such a case, if the face of the person is set to the first level in the processing target information, as in the case of the above-mentioned broadcast prohibited term, only a warning is issued, and unless the warning is canceled, automatic editing is performed. What is necessary is just to set it as the structure which does not create finished video data and does not deliver material video data. Thereafter, the user controls the operation panel 143 so that the process is performed only on the face of a specific person among all the reflected faces, or the process is not performed on only the face of a specific person. After the editing information is created and the edited video data is created according to the final editing information, this can be distributed.

なお、図1の構成においては、記録装置(ビデオサーバ)12に、処理対象認識部(処理対象認識手段、処理対象情報改変手段)131、情報記憶部(情報記憶手段)132を具備する自動編集情報作成装置13と、編集制御部(編集手段)141、表示部(表示手段)142、操作パネル(操作手段)143を具備する編集装置14が接続され、上記の動作が行われた。しかしながら、上記と同様の機能をもつ処理対象認識手段、処理対象情報改変手段、情報記憶手段、編集手段、表示手段等が素材映像データに関わって設けられ、自動編集済み映像データ、自動編集情報、最終編集情報等を作成することができる限りにおいて、具体的な装置の構成は任意である。すなわち、使用される各装置において上記の各手段がどのように設けられるかは任意であり、上記の各手段が全て単一の装置内に設けられていてもよい。   Note that, in the configuration of FIG. 1, automatic editing has a processing target recognition unit (processing target recognition unit, processing target information modification unit) 131 and an information storage unit (information storage unit) 132 in the recording device (video server) 12. The editing apparatus 14 including the information creating apparatus 13, the editing control unit (editing means) 141, the display unit (display means) 142, and the operation panel (operation means) 143 is connected, and the above operation is performed. However, processing target recognition means, processing target information modification means, information storage means, editing means, display means and the like having the same functions as described above are provided in relation to the material video data, and automatically edited video data, automatic editing information, The specific configuration of the apparatus is arbitrary as long as final editing information and the like can be created. That is, how each means described above is provided in each device to be used is optional, and each means described above may be provided in a single device.

以上、本発明を実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described above based on the embodiments. This embodiment is an exemplification, and it is understood by those skilled in the art that various modifications can be made to the combination of the respective constituent elements, and such modifications are also within the scope of the present invention.

1 映像編集システム
11 収録装置
12 記録装置(ビデオサーバ)
13 自動編集情報作成装置
14 編集装置
131 処理対象認識部(処理対象認識手段、処理対象情報改変手段)
132 情報記憶部(情報記憶手段)
141 編集制御部(編集手段)
142 表示部(表示手段)
143 操作パネル(操作手段)
144 タッチパネルディスプレイ(表示手段)
15 制御部
1 Video Editing System 11 Recording Device 12 Recording Device (Video Server)
13 Automatic Editing Information Creation Device 14 Editing Device 131 Processing Target Recognition Unit (Processing Target Recognizing Unit, Processing Target Information Modifying Unit)
132 Information storage unit (information storage means)
141 Editing control unit (editing means)
142 Display (Display Means)
143 Operation panel (operation means)
144 Touch Panel Display (Display Means)
15 Control unit

Claims (9)

入力された素材映像データにおける画像又は音声の一部に対して処理を施した映像データを出力する映像編集システムであって、
前記処理を施す部分を特定するための情報である処理対象情報を記憶する情報記憶手段と、
前記処理対象情報に基づいて前記素材映像データにおける前記処理の対象となる部分を認識する処理対象認識手段と、
を具備することを特徴とする映像編集システム。
A video editing system for outputting video data obtained by processing a part of an image or audio in input material video data, comprising:
An information storage unit that stores processing target information that is information for specifying a portion to which the processing is to be performed;
A processing target recognition unit that recognizes a portion to be the processing target in the material video data based on the processing target information;
An image editing system comprising:
前記処理対象認識手段は、前記処理の対象となる部分と、当該部分に対する前記処理の内容とを特定した自動編集情報を生成し、
前記自動編集情報を用いて前記素材映像データを編集する編集手段を具備することを特徴とする請求項1に記載の映像編集システム。
The processing target recognition means generates automatic editing information specifying a portion to be processed and the content of the processing for the portion;
2. The video editing system according to claim 1, further comprising editing means for editing the material video data using the automatic editing information.
前記編集手段において、前記自動編集情報が使用者によって改変された最終編集情報が生成され、当該最終編集情報に従って前記素材映像データが編集されることを特徴とする請求項2に記載の映像編集システム。   3. The video editing system according to claim 2, wherein final editing information in which the automatic editing information is modified by the user is generated in the editing means, and the material video data is edited according to the final editing information. . 前記最終編集情報と、前記最終編集情報が生成された際に用いられた前記自動編集情報との違いをフィードバックすることによって、前記処理対象情報を改変する処理対象情報改変手段を具備することを特徴とする請求項3に記載の画像編集システム。   Processing target information modifying means for modifying the processing target information by feeding back the difference between the final editing information and the automatic editing information used when the final editing information was generated. The image editing system according to claim 3. 前記素材映像データと、前記自動編集情報に基づいて編集された後の前記素材映像データと、を同時に表示させる表示手段を具備することを特徴とする請求項2から請求項4までのいずれか1項に記載の映像編集システム。   5. The display device according to any one of claims 2 to 4, further comprising display means for simultaneously displaying the material video data and the material video data after being edited based on the automatic editing information. Video editing system described in Section. 前記表示手段は、
前記自動編集情報に基づいて編集された後の前記素材映像データを表示させる際に、前記部分を強調表示することを特徴とする請求項5に記載の映像編集システム。
The display means is
The video editing system according to claim 5, wherein the portion is highlighted when displaying the material video data after being edited based on the automatic editing information.
前記編集手段は、前記表示手段によって前記素材映像データと前記自動編集情報に基づいて編集された後の前記素材映像データとを表示させた後で、使用者からの操作によって前記自動編集情報に基づいて編集された後の前記素材映像データを出力することを特徴とする請求項6に記載の映像編集システム。   The editing means displays the material video data after being edited based on the material video data and the automatic editing information by the display means, and then based on the automatic editing information by an operation from the user. 7. The video editing system according to claim 6, wherein the material video data after being edited is output. 前記処理対象情報において設定された前記処理を施す部分のうち、特定の種類の前記部分が設定され、
前記処理対象認識手段は、前記素材映像データにおいて前記特定の種類の前記部分を認識した際に、警告を発することを特徴とする請求項2から請求項7までのいずれか1項に記載の映像編集システム。
Among the parts to be subjected to the processing set in the processing target information, the part of a specific type is set,
The image according to any one of claims 2 to 7, wherein the processing object recognition means issues a warning when the part of the specific type is recognized in the material video data. Editing system.
前記編集手段は、前記処理対象認識手段が前記素材映像データにおいて前記特定の種類の前記部分を認識した場合に、前記自動編集情報を用いて前記素材映像データを編集する作業を中断することを特徴とする請求項8に記載の映像編集システム。   The editing means is characterized by interrupting the work of editing the material video data using the automatic editing information, when the processing object recognition means recognizes the part of the specific type in the material video data. 9. The video editing system according to claim 8, wherein.
JP2017185167A 2017-09-26 2017-09-26 Video editing system Expired - Fee Related JP6994886B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017185167A JP6994886B2 (en) 2017-09-26 2017-09-26 Video editing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017185167A JP6994886B2 (en) 2017-09-26 2017-09-26 Video editing system

Publications (2)

Publication Number Publication Date
JP2019062381A true JP2019062381A (en) 2019-04-18
JP6994886B2 JP6994886B2 (en) 2022-01-14

Family

ID=66176749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017185167A Expired - Fee Related JP6994886B2 (en) 2017-09-26 2017-09-26 Video editing system

Country Status (1)

Country Link
JP (1) JP6994886B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021093627A (en) * 2019-12-10 2021-06-17 株式会社日立国際電気 Editing system
EP4171017A4 (en) * 2020-07-30 2023-11-15 Beijing Bytedance Network Technology Co., Ltd. VIDEO GENERATION AND PLAYBACK METHOD AND APPARATUS, AND ELECTRONIC DEVICE AND STORAGE MEDIUM
CN119233013A (en) * 2023-06-30 2024-12-31 北京字跳网络技术有限公司 Video processing method and device and electronic equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05165486A (en) * 1991-12-18 1993-07-02 Oki Electric Ind Co Ltd Text voice transforming device
JP2004062560A (en) * 2002-07-30 2004-02-26 Omron Corp Face matching device and face matching method
JP2009081635A (en) * 2007-09-26 2009-04-16 Fujifilm Corp Digital camera and method for protecting personal information of digital camera
JP2013031034A (en) * 2011-07-29 2013-02-07 Sony Corp Image edition program, image edition method, image edition device and recording medium
JP2014042234A (en) * 2012-07-25 2014-03-06 Panasonic Corp Image editing apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05165486A (en) * 1991-12-18 1993-07-02 Oki Electric Ind Co Ltd Text voice transforming device
JP2004062560A (en) * 2002-07-30 2004-02-26 Omron Corp Face matching device and face matching method
JP2009081635A (en) * 2007-09-26 2009-04-16 Fujifilm Corp Digital camera and method for protecting personal information of digital camera
JP2013031034A (en) * 2011-07-29 2013-02-07 Sony Corp Image edition program, image edition method, image edition device and recording medium
JP2014042234A (en) * 2012-07-25 2014-03-06 Panasonic Corp Image editing apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021093627A (en) * 2019-12-10 2021-06-17 株式会社日立国際電気 Editing system
JP7343378B2 (en) 2019-12-10 2023-09-12 株式会社日立国際電気 editing system
EP4171017A4 (en) * 2020-07-30 2023-11-15 Beijing Bytedance Network Technology Co., Ltd. VIDEO GENERATION AND PLAYBACK METHOD AND APPARATUS, AND ELECTRONIC DEVICE AND STORAGE MEDIUM
US12401757B2 (en) 2020-07-30 2025-08-26 Beijing Bytedance Network Technology Co., Ltd. Video generation method, video playing method, video generation device, video playing device, electronic apparatus and computer-readable storage medium
CN119233013A (en) * 2023-06-30 2024-12-31 北京字跳网络技术有限公司 Video processing method and device and electronic equipment

Also Published As

Publication number Publication date
JP6994886B2 (en) 2022-01-14

Similar Documents

Publication Publication Date Title
JP4935796B2 (en) Display control apparatus, image forming apparatus, and program
US10430044B2 (en) Method, system and computer storage medium for displaying microblog wall
JP6994886B2 (en) Video editing system
US10216384B2 (en) Computer method, system and product for playlist control using media spots having intelligent content
CN113010075A (en) Multi-signal source window interaction method and system, readable storage medium and electronic device
US20180103279A1 (en) Video-broadcast system with dve-related alert feature
US20090214179A1 (en) Display processing apparatus, control method therefor, and display processing system
JP6934402B2 (en) Editing system
JP2008167032A (en) VIDEO / AUDIO OUTPUT DEVICE AND VIDEO / AUDIO OUTPUT METHOD
CA2993314C (en) News production system with dve template feature
CN115759012B (en) Screen-casting shared document annotation management method and device based on wireless connection
JP2012049693A (en) Information processing device, information processing method and program
CA2972051A1 (en) Use of program-schedule text and closed-captioning text to facilitate selection of a portion of a media-program recording
JP2009230378A (en) Web page screen display control system, method, and program
KR19990084142A (en) A control mcthod for antomatically changing the image of home page screen
JP7175360B2 (en) Business processing device, information processing method and program
JP2006166289A (en) Content editing system, editing server device, content editing method and program
JP2009200966A (en) Display processing apparatus, control method thereof and video recording apparatus, and display processing system
JP6640601B2 (en) Business management device, information processing method and program
JP2001103445A (en) Information processing apparatus, control method therefor, and storage medium
JP5783030B2 (en) Image processing program and image processing apparatus
JPH11102389A (en) Information display device
JP2023184585A (en) Information processing device, control method and control program for information processing device
JP6253681B2 (en) Imaging apparatus, setting method, and program
JP2006279594A (en) Organization management system and electronic program guide creation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211214

R150 Certificate of patent or registration of utility model

Ref document number: 6994886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees