[go: up one dir, main page]

JP4177820B2 - Data input device and data input system - Google Patents

Data input device and data input system Download PDF

Info

Publication number
JP4177820B2
JP4177820B2 JP2005042360A JP2005042360A JP4177820B2 JP 4177820 B2 JP4177820 B2 JP 4177820B2 JP 2005042360 A JP2005042360 A JP 2005042360A JP 2005042360 A JP2005042360 A JP 2005042360A JP 4177820 B2 JP4177820 B2 JP 4177820B2
Authority
JP
Japan
Prior art keywords
event
video
time
content
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005042360A
Other languages
Japanese (ja)
Other versions
JP2006229705A (en
Inventor
晃司 山本
善啓 大盛
敏充 金子
孝 井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005042360A priority Critical patent/JP4177820B2/en
Publication of JP2006229705A publication Critical patent/JP2006229705A/en
Application granted granted Critical
Publication of JP4177820B2 publication Critical patent/JP4177820B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Image Analysis (AREA)

Description

本発明は、映像の属性情報(メタデータ)を入力するデータ入力装置及びデータ入力システムに関し、特に、映像の中で発生したイベント(事象)の情報を入力するデータ入力装置及びデータ入力システムに関する。   The present invention relates to a data input device and a data input system for inputting video attribute information (metadata), and more particularly, to a data input device and a data input system for inputting information on events occurring in a video.

近年、ディジタル衛星放送による放送の多チャンネル化等、情報インフラの発展により、多くのコンテンツ(とりわけ映像コンテンツ)が流通するようになっている。一方で、計算機の処理能力の向上やADSL、FTTHなどのブロードバンド・ネットワークの普及に伴い、映像をパソコンや携帯端末上の記憶装置に録画して視聴することが一般的になっている。   In recent years, many contents (particularly video contents) have been distributed due to the development of information infrastructure such as multi-channel broadcasting by digital satellite broadcasting. On the other hand, with the improvement of computer processing capacity and the spread of broadband networks such as ADSL and FTTH, it is common to record and view videos on a storage device on a personal computer or portable terminal.

また、家庭用ビデオに関しても、従来のテープメディアのものに代わり、大容量ハードディスクを内蔵した機器の登場により、複数のコンテンツをまとめて格納したり、ランダムアクセスを活かしたインタラクティブな視聴や編集が可能になっている。   For home video, instead of the conventional tape media, the advent of a device with a built-in large-capacity hard disk allows multiple contents to be stored together and interactive viewing and editing utilizing random access. It has become.

大量のコンテンツを効率的に扱うにはインデックス(索引)などの手がかりとなる情報が必須である。このようなインデックスなど、コンテンツに付加される属性情報をまとめてメタデータと呼ぶ。近年、様々な環境やアプリケーションでメタデータの相互運用ができるようにMPEG−7に代表されるように規格化が行われており、メタデータを手がかりにしたコンテンツの編集や検索などが可能となっている。   In order to efficiently handle a large amount of content, information such as an index is essential. Attribute information added to content such as an index is collectively referred to as metadata. In recent years, standardization has been performed as represented by MPEG-7 so that metadata can be interoperated in various environments and applications, and it becomes possible to edit and search content using metadata as a clue. ing.

また、ユーザの好みに応じて、関心の高いシーンを集めて再生する要約技術も提案されている。これらの要約技術では、映像の中のイベントを属性情報として記述し、ユーザの嗜好とのマッチングに応じて自動的に要約する。例えば、イベントごとの重要度を求め、該当するイベントの区間から要約映像を作成する(例えば、特許文献1参照)。
特許第3176893号公報
A summarization technique for collecting and reproducing scenes of high interest according to user preferences has also been proposed. In these summarization techniques, events in a video are described as attribute information, and are automatically summarized according to matching with user preferences. For example, the importance for each event is obtained, and a summary video is created from the section of the corresponding event (see, for example, Patent Document 1).
Japanese Patent No. 3176893

イベント情報の入力はコンテンツの特徴量などから自動的に行う方法と人手で入力する方法がある。自動生成は品質の面で限界があるので、高品質なサービスを提供するためには人手による入力に頼らざるを得ない。しかし、イベント情報の手入力は負担が大きく時間がかかってしまう。そのため、テレビ録画などによって映像が入手できてもすぐにメタデータを用いたサービスを提供できなくなってしまう。   There are two methods for automatically inputting event information, such as a feature amount of content, and a method for manually inputting event information. Since automatic generation is limited in terms of quality, it is necessary to rely on manual input to provide high-quality services. However, manual input of event information is expensive and time consuming. For this reason, even if the video can be obtained by TV recording or the like, a service using metadata cannot be provided immediately.

そこで、本発明は、従来の問題点に鑑み、メタデータを円滑にユーザに提供するデータ入力装置及びデータ入力システムを提供することを目的とする。   In view of the above-described problems, an object of the present invention is to provide a data input device and a data input system that smoothly provide metadata to a user.

本発明のデータ入力装置によれば、映像中に発生するイベントの時刻を仮のイベント発生時刻として入力するための時刻入力手段と、映像にイベント発生時刻を対応付ける対応付手段と、映像の特徴を示す映像特徴量を算出する算出手段と、前記仮のイベント発生時刻に対応付けられた映像に含まれるイベント結果に対応するイベント原因を含む目的映像の特徴を示す基準特徴量を予め記憶している第1記憶手段と、前記基準特徴量と前記映像特徴量との差が閾値以下である映像を前記目的映像として探す探索手段と、前記目的映像に対応付けられるイベントの時刻を真のイベント発生時刻として記憶する第2記憶手段を具備することを特徴とする。   According to the data input device of the present invention, the time input means for inputting the time of the event occurring in the video as a temporary event occurrence time, the associating means for associating the event occurrence time with the video, and the video features A pre-stored reference feature amount indicating a feature of the target image including an event cause corresponding to an event result included in the image associated with the provisional event occurrence time; A first storage unit; a search unit that searches for a video whose difference between the reference feature value and the video feature value is equal to or less than a threshold value as the target video; and a time of an event associated with the target video as a true event occurrence time It is characterized by comprising second storage means for storing as:

本発明のデータ入力システムによれば、時刻入力端末とイベント内容入力端末とがネットワークを経由して接続しているデータ入力システムにおいて、前記時刻入力端末は、映像中に発生するイベントの時刻を仮のイベント発生時刻として入力するための時刻入力手段と、前記仮のイベント発生時刻を前記イベント入力端末に送信する送信手段を具備し、
前記イベント内容入力端末は、前記仮のイベント発生時刻を前記時刻入力端末から受信する受信手段と、映像にイベント発生時刻を対応付ける対応付手段と、映像の特徴を示す映像特徴量を算出する算出手段と、前記仮のイベント発生時刻に対応付けられた映像に含まれるイベント結果に対応するイベント原因を含む目的映像の特徴を示す基準特徴量を予め記憶している第1記憶手段と、前記基準特徴量と前記映像特徴量との差が閾値以下である映像を前記目的映像として探す探索手段を具備することを特徴とする。
According to the data input system of the present invention, in the data input system in which the time input terminal and the event content input terminal are connected via a network, the time input terminal temporarily calculates the time of an event occurring in the video. A time input means for inputting the event occurrence time, and a transmission means for transmitting the temporary event occurrence time to the event input terminal,
The event content input terminal includes a receiving means for receiving the temporary event occurrence time from the time input terminal, an associating means for associating the event occurrence time with a video, and a calculating means for calculating a video feature amount indicating a video feature. A first storage unit that stores in advance a reference feature amount indicating a feature of a target video including an event cause corresponding to an event result included in the video associated with the provisional event occurrence time; and the reference feature Search means for searching for a video whose difference between the amount and the video feature value is equal to or less than a threshold value as the target video is provided.

また、本発明のデータ入力システムは、時刻入力端末とイベント内容入力端末とがネットワークを経由して接続しているデータ入力システムにおいて、
前記時刻入力端末は、映像中に発生するイベントの時刻を仮のイベント発生時刻として入力するための時刻入力手段と、映像にイベント発生時刻を対応付ける対応付手段と、映像の特徴を示す映像特徴量を算出する算出手段と、前記仮のイベント発生時刻に対応付けられた映像に含まれるイベント結果に対応するイベント原因を含む目的映像の特徴を示す基準特徴量を予め記憶している第1記憶手段と、前記基準特徴量と前記映像特徴量との差が閾値以下である映像を前記目的映像として探す探索手段と、前記目的映像に対応付けられるイベントの時刻を真のイベント発生時刻として記憶する第2記憶手段と、前記真のイベント発生時刻を前記イベント入力端末に送信する送信手段を具備し、
前記イベント内容入力端末は、前記真のイベント発生時刻を前記時刻入力端末から受信する受信手段と、前記イベントのイベント内容を入力するための内容入力手段と、前記真のイベント発生時刻と前記イベント内容とを関連付ける関連手段を具備することを特徴とする。
The data input system of the present invention is a data input system in which a time input terminal and an event content input terminal are connected via a network.
The time input terminal includes a time input means for inputting the time of an event occurring in the video as a temporary event occurrence time, an associating means for associating the event occurrence time with the video, and a video feature amount indicating a video feature And a first storage means for preliminarily storing a reference feature amount indicating a feature of a target video including an event cause corresponding to an event result included in a video associated with the provisional event occurrence time. Search means for searching for a video whose difference between the reference feature value and the video feature value is equal to or less than a threshold value as the target video; and a time of an event associated with the target video as a true event occurrence time. 2 storing means, and transmitting means for transmitting the true event occurrence time to the event input terminal,
The event content input terminal includes a receiving means for receiving the true event occurrence time from the time input terminal, a content input means for inputting event contents of the event, the true event occurrence time, and the event contents. And a related means for associating with each other.

さらに、本発明のデータ入力システムは、時刻入力端末とイベント内容入力端末とがネットワークを経由して接続しているデータ入力システムにおいて、
前記時刻入力端末は、映像中に発生するイベントの時刻を仮のイベント発生時刻として入力するための仮時刻入力手段と、前記仮のイベント発生時刻を前記イベント入力端末に送信する送信手段を具備し、
前記イベント内容入力端末は、前記仮のイベント発生時刻を前記時刻入力端末から受信する受信手段と、映像にイベント発生時刻を対応付ける対応付手段と、前記仮のイベント発生時刻に対応付けられた映像に含まれるイベント結果に対応するイベント原因を含む目的映像に対応付けられるイベントの時刻を真のイベント発生時刻として入力するための真時刻入力手段と、前記真のイベント発生時刻を記憶する第2記憶手段と、前記イベントのイベント内容を入力するための内容入力手段と、前記真のイベント発生時刻と前記イベント内容とを関連付ける関連手段を具備することを特徴とする。
Furthermore, the data input system of the present invention is a data input system in which a time input terminal and an event content input terminal are connected via a network.
The time input terminal includes provisional time input means for inputting the time of an event occurring in the video as a provisional event occurrence time, and transmission means for transmitting the provisional event occurrence time to the event input terminal. ,
The event content input terminal includes a receiving means for receiving the temporary event occurrence time from the time input terminal, an association means for associating the event occurrence time with the video, and a video associated with the temporary event occurrence time. True time input means for inputting the time of the event associated with the target video including the event cause corresponding to the included event result as the true event occurrence time, and second storage means for storing the true event occurrence time And content input means for inputting event contents of the event, and related means for associating the true event occurrence time with the event contents.

本発明のデータ入力装置及びデータ入力システムによれば、メタデータを円滑に提供することができる。   According to the data input device and data input system of the present invention, metadata can be provided smoothly.

以下、図面を参照しながら本発明の実施形態にかかるデータ入力装置及びデータ入力システムについて詳細に説明する。
本実施形態のデータ入力装置は、図1(A)に示すように、プロセッサ101、メモリ102、表示部103、映像入力部104、映像記憶部105、操作部106、イベント情報記憶部109からなる。操作部106は、時刻入力部107とイベント内容入力部108からなる。
Hereinafter, a data input device and a data input system according to embodiments of the present invention will be described in detail with reference to the drawings.
As shown in FIG. 1A, the data input device of this embodiment includes a processor 101, a memory 102, a display unit 103, a video input unit 104, a video storage unit 105, an operation unit 106, and an event information storage unit 109. . The operation unit 106 includes a time input unit 107 and an event content input unit 108.

プロセッサ101は、ソフトウェアの起動や実行を含む、本実施形態にかかるデータ入力装置の全体の制御を行う。プロセッサ101は、時刻入力部107により入力された時刻での映像中の映像特徴量から、この映像に映っている現象の原因となったイベント映像を探す。プロセッサ101は、基準特徴量と映像特徴量との類似度に基づいてイベント映像を探す。映像特徴量は、例えば、映像の色情報、映像の形状情報、映像内の物体の動きの度合いを示す動き情報、映像に付随する音情報の少なくとも1つである。プロセッサ101は、探し出した映像の時刻を真のイベント発生時刻として、時刻入力部107によって入力された仮のイベント発生時刻を修正する。プロセッサ101が行う制御の詳細は後に図2、図6、図11、図22、図24、図25、図27、図29、図33等を参照して説明する。   The processor 101 performs overall control of the data input device according to the present embodiment, including activation and execution of software. The processor 101 searches for the event video that causes the phenomenon shown in the video from the video feature amount in the video at the time input by the time input unit 107. The processor 101 searches for an event video based on the similarity between the reference feature value and the video feature value. The video feature amount is, for example, at least one of video color information, video shape information, motion information indicating the degree of motion of an object in the video, and sound information accompanying the video. The processor 101 corrects the tentative event occurrence time input by the time input unit 107 with the time of the searched video as the true event occurrence time. Details of the control performed by the processor 101 will be described later with reference to FIGS. 2, 6, 11, 22, 24, 25, 27, 29, and 33.

メモリ102は、ソフトウェアの実行に必要な一時的なデータを記憶する。メモリ102は、ある映像の映像特徴量を探し出すための基準特徴量を記憶している。基準特徴量は、例えば、色情報、形状情報、動き情報、音情報の少なくとも1つである。   The memory 102 stores temporary data necessary for executing the software. The memory 102 stores a reference feature value for finding a video feature value of a certain video. The reference feature amount is, for example, at least one of color information, shape information, motion information, and sound information.

表示部103は、本実施形態のデータ入力装置のユーザであるデータ入力者に、映像、図形及び文字等の情報を表示するためのものである。表示部103は例えば、モニタと表示する情報を制御するための制御部(図示せず)を備えている。表示部103は、例えば、110に示したような映像を表示する。110は、野球中継の映像を表示部103が表示している例である。   The display unit 103 is for displaying information such as images, graphics, and characters to a data input person who is a user of the data input device of the present embodiment. The display unit 103 includes, for example, a control unit (not shown) for controlling the monitor and information to be displayed. The display unit 103 displays an image as shown in 110, for example. Reference numeral 110 denotes an example in which the display unit 103 displays a baseball broadcast video.

映像入力部104は、表示部103に表示する映像を映像記憶部105から入力する。この映像は、例えば、電子ファイル形式になっていて、映像入力部104はこの電子ファイルを入力して映像を取得する。   The video input unit 104 inputs a video to be displayed on the display unit 103 from the video storage unit 105. This video is in an electronic file format, for example, and the video input unit 104 inputs this electronic file and acquires the video.

映像記憶部105は、映像をある所定の形式で記憶している。映像記憶部105は、例えば、ハードディスクからなる。映像記憶部105は、外部から映像の任意の位置にランダムアクセスすることができるように映像を記憶している。   The video storage unit 105 stores video in a predetermined format. The video storage unit 105 is composed of, for example, a hard disk. The video storage unit 105 stores video so that an arbitrary position of the video can be randomly accessed from the outside.

操作部106は、データ入力者が操作を行う部分であり、例えば、キーボード、マウス、リモコンなどの機器である。   The operation unit 106 is a part that is operated by a data input person, and is, for example, a device such as a keyboard, a mouse, or a remote controller.

時刻入力部107は、データ入力者が、映像中でイベントが発生した時刻を登録するためのものである。データ入力者は、時刻入力部107を使用して、映像に対応付けて時刻を入力(登録)する。時刻入力部107は、図1(B)の111に示すようなボタンをデータ入力者が押すことにより作動する。   The time input unit 107 is for the data input person to register the time when the event occurred in the video. The data input person uses the time input unit 107 to input (register) the time in association with the video. The time input unit 107 operates when a data input person presses a button as indicated by 111 in FIG.

イベント内容入力部108は、データ入力者が映像に対応するイベント内容を入力するためのものである。イベント内容とは、映像が示している事象(イベント)の内容を示す情報である。イベント内容は、例えば映像が野球中継である場合には、図1(B)の112に示すように、ヒット、内野安打等がある。なお、イベントの内容を入力する方法はボタンによる選択に限らない。テキストによる入力やリストから選択など、内容を入力する方法であればなんでもよい。また、簡略化のために112では1つのイベントに対して、“プレイ”だけを入力する例としたが、“チーム名+選手名+プレイ”など複数の項目を入力してもよい。   The event content input unit 108 is for a data input person to input event content corresponding to a video. The event content is information indicating the content of the event (event) indicated by the video. For example, when the video is a baseball broadcast, there are hits, hits in the field, etc. as shown at 112 in FIG. 1B. Note that the method for inputting the contents of the event is not limited to selection by a button. Any method may be used as long as it is a method of inputting contents such as text input or selection from a list. Further, for the sake of simplification, in 112, only “play” is input for one event, but a plurality of items such as “team name + player name + play” may be input.

イベント情報記憶部109は、入力されたイベント情報を記憶しておくデータ記憶部である。ここで、イベント情報とは、真のイベント発生時刻とイベント内容を1組とした情報である。真のイベント発生時刻とは、対応するイベントが発生した時刻である。この対の用語として、仮のイベント発生時刻がある。仮のイベント発生時刻は、データ入力者が対応するイベントが発生した時刻とは異なるが比較的近い時刻を、イベントが発生した時刻であるとするものである。
この仮のイベント発生時刻はイベント情報記憶部109に時刻情報だけのイベント情報として記憶されていてもよいし、メモリ102に記憶されていてもよい。
このように、本実施形態のデータ入力装置を使用して入力するデータは映像中に発生したイベント情報である。
The event information storage unit 109 is a data storage unit that stores input event information. Here, the event information is information in which a true event occurrence time and event contents are set as one set. The true event occurrence time is the time when the corresponding event has occurred. As a term of this pair, there is a temporary event occurrence time. The provisional event occurrence time is different from the time when the event corresponding to the data input person occurs, but is relatively close to the time when the event occurred.
This temporary event occurrence time may be stored as event information including only time information in the event information storage unit 109 or may be stored in the memory 102.
As described above, the data input using the data input device of the present embodiment is event information generated in the video.

図1(A)に示した基本構成は表示部103、時刻入力部107、イベント内容入力部108がそれぞれ110、111、112のように同じ画面内に存在する構成であったが、これは便宜的なものであり、個々の機能が異なる機器上に存在してもよい。また、図1(B)では各部をソフトウェアで構成していたが、画面上のボタンではなく、実際に押下可能なスイッチなどのハードウェアによる構成であってもよい。   The basic configuration shown in FIG. 1A is a configuration in which the display unit 103, the time input unit 107, and the event content input unit 108 exist in the same screen as 110, 111, and 112, respectively. Individual functions may exist on different devices. In FIG. 1B, each unit is configured by software, but may be configured by hardware such as a switch that can be actually pressed instead of a button on the screen.

次に、本実施形態にかかるデータ入力装置の動作の一例について図2を参照して説明する。図2はイベントの説明のための野球の試合中継映像を例とした図である。
図2の例では、映像フレーム201の時刻に投手が投球を行い、映像フレーム202の時刻に打者がヒットを打った例である。本例では簡略化のために、打撃の結果のみをイベント情報として記述する。もちろん、個々の投球をイベントとしてもよい。つまり、本例では、映像フレーム202でイベントが発生したことになる。
Next, an example of the operation of the data input device according to the present embodiment will be described with reference to FIG. FIG. 2 is an example of a baseball game relay video for explaining the event.
In the example of FIG. 2, the pitcher pitches at the time of the video frame 201, and the batter hits the hit at the time of the video frame 202. In this example, for the sake of simplification, only the hit result is described as event information. Of course, each pitch may be an event. That is, in this example, an event has occurred in the video frame 202.

データ入力者は表示部103に110のように表示された映像フレーム202を見て、タイミング203で時刻入力部107を操作し、プロセッサ101は仮のイベント発生時刻を登録する。登録される仮のイベント発生時刻は、時刻入力部107を操作した瞬間であってもよいし、イベント発生から操作までの時刻を考慮して一定時間過去にさかのぼった時刻を用いてもよい。また、この時間を後述するイベント内容によって変更してもよい。例えば、ヒット(単打)よりもホームランの方が長い時間過去にさかのぼるように設定されていてもよい。   The data input person views the video frame 202 displayed as 110 on the display unit 103, operates the time input unit 107 at timing 203, and the processor 101 registers a temporary event occurrence time. The temporary event occurrence time to be registered may be the moment when the time input unit 107 is operated, or may use a time that goes back a certain time in consideration of the time from the event occurrence to the operation. Further, this time may be changed according to the event contents described later. For example, the home run may be set to go back in the past for a longer time than the hit (single shot).

次に、イベントの内容に合わせて、イベント内容入力部108を操作し、適切な項目を選択・入力した後、タイミング204で登録する。イベント内容の登録は、項目選択にはある程度時間を要するため、時刻登録タイミング203から遅れた時間となる。   Next, the event content input unit 108 is operated in accordance with the content of the event, and an appropriate item is selected and input. The registration of the event content takes a certain amount of time to select an item, and therefore is delayed from the time registration timing 203.

この例では、例えば、“ヒット”のイベントの時刻として、打撃結果の場面である映像フレーム202の時刻を登録する。しかし、イベント情報を手がかりにシーンを検索して視聴するような用途では意味的な区切りである投球の場面、映像フレーム201から視聴したい場合がある。この場合は、プロセッサ101は、メモリ102に記憶されている基準特徴量を参照して、この基準特徴量にある程度近い映像特徴量を持つ映像フレームを探し出す。この映像フレームを探し出す際は、プロセッサ101はタイミング203から順に過去をさかのぼって各映像フレームの映像特徴量と基準特徴量を比較する。そして、映像特徴量と基準特徴量との特徴量の差がある閾値よりも小さい場合に、その映像特徴量を有する映像フレームに対応する時刻が真のイベント発生時刻であるとする。この動作は、後に図6を参照して説明する。   In this example, for example, the time of the video frame 202 that is the scene of the hit result is registered as the time of the “hit” event. However, there are cases in which it is desired to view from the video frame 201, which is a pitching scene, which is a semantic delimiter, in such a case that a scene is searched for and viewed using event information. In this case, the processor 101 refers to the reference feature amount stored in the memory 102 and searches for a video frame having a video feature amount that is close to this reference feature amount to some extent. When searching for this video frame, the processor 101 compares the video feature quantity of each video frame with the reference feature quantity in the past from the timing 203. Then, when the difference between the feature amounts of the video feature amount and the reference feature amount is smaller than a certain threshold value, the time corresponding to the video frame having the video feature amount is assumed to be a true event occurrence time. This operation will be described later with reference to FIG.

次に、イベント情報の記述例について図3を参照して説明する。
イベント情報は、真のイベント発生時刻情報301とイベント内容情報302を含む。イベント内容情報302の項目は映像の種類や使用目的によって変わるので、これらはあくまで一例である。もちろん、野球の場合であっても図3に示した以外の項目を持つ内容を記述してもよい。また、必要であれば、打撃の結果だけでなく、投球のイベント情報やチェンジや選手交代などのゲームの進行に関係するイベントも記述するようにしてもよい。
Next, a description example of event information will be described with reference to FIG.
The event information includes true event occurrence time information 301 and event content information 302. Since the items of the event content information 302 change depending on the type of video and the purpose of use, these are merely examples. Of course, even in the case of baseball, contents having items other than those shown in FIG. 3 may be described. Further, if necessary, not only the result of the batting but also events related to the progress of the game such as throwing event information and changes and player changes may be described.

次に、本実施形態にかかわるデータ入力装置の第1の変形例について図4を参照して説明する。
表示部401は、表示部103の一部であり映像を表示する。表示部401は、例えば、放送中の番組を表示するテレビ受像機である。表示部402は時刻入力部107及びイベント内容入力部108の操作部を表示し、データ入力者は操作部106に含まれる入力装置403、404を介して、データを入力する。その他は図1(A)と同様でよいが、映像を用いた処理を必要としない場合は映像入力部104及び映像記憶部105はなくてもよい。
Next, a first modification of the data input device according to this embodiment will be described with reference to FIG.
A display unit 401 is a part of the display unit 103 and displays an image. The display unit 401 is, for example, a television receiver that displays a program being broadcast. The display unit 402 displays the operation units of the time input unit 107 and the event content input unit 108, and the data input person inputs data via the input devices 403 and 404 included in the operation unit 106. Others may be the same as in FIG. 1A, but the video input unit 104 and the video storage unit 105 may not be provided when processing using video is not required.

次に、本実施形態にかかわるデータ入力装置の第2の変形例について図5を参照して説明する。
表示部501は、表示部103の一部であり映像を表示する。入力装置503は時刻入力部107及びイベント内容入力部108の機能を保有する入力装置である。入力装置503は、例えば、リモコン上に時刻入力部107に対応する時刻登録ボタンなどが存在しており、データ入力者は表示部501を見ながらこれらのボタンを操作する。制御端末502はイベント入力処理の制御とイベント情報の記憶等を行う端末で、コンピュータ、ハードディスクレコーダ、セットトップボックスなどの形態をとる。イベント内容情報が不要であれば、イベント内容入力部108を持たない構成であってもよい。つまり、映像表示する表示部501と時刻入力部107のみの構成で、イベント情報記憶部109には時刻情報だけからなるイベント情報が格納されていてもよい。
Next, a second modification of the data input device according to this embodiment will be described with reference to FIG.
A display unit 501 is a part of the display unit 103 and displays an image. The input device 503 is an input device having the functions of the time input unit 107 and the event content input unit 108. The input device 503 has, for example, a time registration button corresponding to the time input unit 107 on the remote controller, and the data input person operates these buttons while looking at the display unit 501. The control terminal 502 is a terminal that controls event input processing and stores event information, and takes the form of a computer, a hard disk recorder, a set-top box, or the like. If the event content information is unnecessary, the event content input unit 108 may not be provided. That is, event information including only time information may be stored in the event information storage unit 109 with only the display unit 501 for displaying video and the time input unit 107.

次に、プロセッサ101が所望の映像特徴量を有する映像フレームを探し出す動作について図6を参照して説明する。図6は、時刻入力部107で入力された時刻を基点として、所望の特徴量を持つ映像フレームを検出するための処理フローである。
プロセッサ101が、メモリ102から検出したい映像フレームの映像特徴量を基準特徴量として取得する(ステップS601)。映像特徴量には、例えば、所望の映像フレームの色ヒストグラムや分布などの色情報、映像フレームのエッジなどの形状情報、動きベクトルなどの動き情報などを用いる。映像特徴量の取得は映像特徴量自体の値をデータ入力者が入力してもよいし、映像フレームを入力して、この映像フレームから特徴量を抽出してもよい。
Next, an operation of the processor 101 searching for a video frame having a desired video feature amount will be described with reference to FIG. FIG. 6 is a processing flow for detecting a video frame having a desired feature amount using the time input by the time input unit 107 as a base point.
The processor 101 acquires the video feature quantity of the video frame to be detected from the memory 102 as a reference feature quantity (step S601). As the video feature amount, for example, color information such as a color histogram or distribution of a desired video frame, shape information such as an edge of the video frame, motion information such as a motion vector, or the like is used. The acquisition of the video feature amount may be performed by a data input person inputting the value of the video feature amount itself, or by inputting a video frame and extracting the feature amount from the video frame.

プロセッサ101が、ステップS601で取得した映像特徴量と比較する映像フレームの初期値を時刻入力部107によって入力された時刻とする(ステップS602)。すなわち、ステップS601で取得した映像特徴量と比較する最初の映像フレームは、時刻入力部107によって入力された時刻の映像フレームである。   The processor 101 sets the initial value of the video frame to be compared with the video feature amount acquired in step S601 as the time input by the time input unit 107 (step S602). That is, the first video frame to be compared with the video feature amount acquired in step S601 is the video frame at the time input by the time input unit 107.

プロセッサ101が、ステップS601で取得した映像特徴量と比較する映像フレームの映像特徴量を抽出し、映像特徴量を比較し映像特徴量の差分を計算する(ステップS603)。その差分が閾値以下であれば、比較した映像フレームが検出したい映像フレームであるとして処理を終了する。差分が閾値以下でなければステップS604に進み、比較する映像フレームをn(n=1,2,…)映像フレーム前にずらし、再び比較を行う処理ステップS2502を繰り返す。   The processor 101 extracts the video feature quantity of the video frame to be compared with the video feature quantity acquired in step S601, compares the video feature quantity, and calculates the difference between the video feature quantities (step S603). If the difference is less than or equal to the threshold value, the process is terminated assuming that the compared video frame is a video frame to be detected. If the difference is not less than or equal to the threshold value, the process proceeds to step S604, and the video frame to be compared is shifted to the previous n (n = 1, 2,.

もし差分が閾値以下の映像フレームがない場合は、ステップS604でのnの値を減らして、再度ステップS102から処理を続けてもよい。また、最も差分の小さかった映像フレームを検出したい映像フレームと見なす処理をしてもよい。   If there is no video frame whose difference is equal to or less than the threshold, the value of n in step S604 may be reduced and the process may be continued from step S102 again. Alternatively, a process may be performed in which the video frame having the smallest difference is regarded as a video frame to be detected.

次に、イベント情報を一覧表示する表示部103に表示されるインタフェース画面について図7を参照して説明する。
個々のイベントの表示はサムネイル画像701、時刻情報702、イベント内容情報703からなる。記号704はそのイベントが時刻情報だけ入力済なのか、イベント内容情報も入力済みであるのかを示す。また、イベント情報705は現在、イベント内容情報を入力するためにデータ入力者に選択されていることを示す。
このように、時刻情報だけのイベント情報705と、時刻情報702とイベント内容情報703を含むイベント情報を区別して入力しておくことで、イベント候補の時刻情報を仮登録しておき、イベントとしてふさわしい場合にのみイベント内容情報を入力して、本登録をすることができる。そのため、イベントの発生が頻発して内容入力が間に合わないような場合であってもリアルタイム入力を可能とする。
Next, an interface screen displayed on the display unit 103 for displaying a list of event information will be described with reference to FIG.
Each event display includes a thumbnail image 701, time information 702, and event content information 703. Symbol 704 indicates whether the event has been input only for time information or event content information has been input. The event information 705 indicates that the data input person is currently selected to input event content information.
In this way, event information 705 including only time information, and event information including time information 702 and event content information 703 are input separately, so that time information of event candidates is provisionally registered and suitable as an event. Only when the event content information is input, the main registration can be performed. Therefore, real-time input is possible even when the occurrence of events frequently occurs and the content input is not in time.

本例では時刻情報だけのイベント情報とイベント内容情報が入力済みであるイベント情報を区別するために記号704を用いたが、両者を区別することができれば表示方法はこの限りではない。他の例として、例えば、枠、背景色、文字色、アイコンなどを変えて用いてもよい。   In this example, the symbol 704 is used to distinguish event information including only time information and event information for which event content information has been input. However, the display method is not limited to this as long as both can be distinguished. As another example, for example, a frame, a background color, a character color, an icon, and the like may be changed.

次に、イベント情報を一覧表示する表示部103に表示される図7とは異なるインタフェース画面について図8を参照して説明する。図8は時刻情報だけのイベント情報とイベント内容情報を含むイベント情報を区別して表示するための別のインタフェース画面である。
ウィンドウ801は時刻情報だけを含んでイベント内容情報を含まないイベント情報が一覧表示されている。ウィンドウ802にはイベント内容情報を含むイベント情報が一覧表示されている。個々のイベント情報は図7と同様にサムネイル、時刻情報などにより構成される。イベント情報803はイベント内容情報を入力するために選択されており、イベント内容情報が入力されるとウィンドウ801より削除され、ウィンドウ802に表示される。
Next, an interface screen different from FIG. 7 displayed on the display unit 103 for displaying a list of event information will be described with reference to FIG. FIG. 8 is another interface screen for distinguishing and displaying event information including only time information and event information including event content information.
The window 801 displays a list of event information that includes only time information and does not include event content information. The window 802 displays a list of event information including event content information. Each event information is composed of thumbnails, time information and the like as in FIG. The event information 803 is selected to input event content information. When the event content information is input, the event information 803 is deleted from the window 801 and displayed in the window 802.

次に、図1(B)を参照して説明した基本構成に新たな機能を追加した場合について図9を参照して説明する。図9は表示部103に表示される画面901,905を示す。
図1(B)に示した基本構成に追加された機能を行うためのボタンは、巻き戻し部902、イベント削除部903、復帰部904である。901は、これらのボタンを110及び111に追加したものである。905は、これらのボタンを112に追加したものである。
巻き戻し部902は、時刻情報が登録されたイベントを選択し、該当時刻から映像を再生するためのものである。データ入力者は、イベント内容情報を入力するために、イベント発生時の映像を確認することができる。
Next, a case where a new function is added to the basic configuration described with reference to FIG. 1B will be described with reference to FIG. FIG. 9 shows screens 901 and 905 displayed on the display unit 103.
Buttons for performing functions added to the basic configuration shown in FIG. 1B are a rewind unit 902, an event deletion unit 903, and a return unit 904. Reference numeral 901 denotes a button in which these buttons are added to 110 and 111. A reference numeral 905 is obtained by adding these buttons to 112.
The rewinding unit 902 is for selecting an event in which time information is registered and playing a video from the corresponding time. The data input person can check the video at the time of the event occurrence in order to input the event content information.

イベント削除部903は、時刻情報が登録されたイベントを削除するためのものである。データ入力者は、まず、イベント候補の時刻情報を仮登録しておく。そして、データ入力者は、イベントとしてふさわしくないと判断した場合にはそのイベントを削除し、イベントとしてふさわしいと判断した場合にはイベント内容情報を入力して本登録するという使用が可能である。もちろん、イベント削除部903は、本登録したイベントを削除する用途にも用いてもよい。   The event deletion unit 903 is for deleting an event for which time information is registered. First, a data input person temporarily registers time information of event candidates. When the data input person determines that the event is not appropriate, the data input person can delete the event, and when the data input person determines that the data input is not appropriate, the data input person can input the event content information and perform the main registration. Of course, the event deletion unit 903 may be used for deleting the registered event.

復帰部904は、イベント入力のために巻き戻しを行った後に、イベント入力直前の映像フレームに復帰するためのものである。復帰部904の動作の詳細については後に図11を参照して説明する。   The return unit 904 is for returning to the video frame immediately before the event input after performing the rewind for the event input. Details of the operation of the return unit 904 will be described later with reference to FIG.

図9では、便宜的に図1(B)の構成に追加した構成としたが、個別のウィンドウやメニューとして図1(B)とは異なるように配置してもよい。また、いずれかの部分を持たない構成であってもよい。   In FIG. 9, for the sake of convenience, the configuration added to the configuration in FIG. 1B is used, but individual windows and menus may be arranged differently from those in FIG. Moreover, the structure which does not have either part may be sufficient.

次に、イベントの削除について、野球の映像を例にして図10を参照して説明する。図2と同様に打撃結果のイベント情報を入力するが、時刻情報は投球の時刻とする。
映像フレーム1001、映像フレーム1002はいずれも投球の映像であり、イベント候補である。そこで、データ入力者は、タイミング1004、1006で時刻入力を行い、イベント情報を仮登録する。しかし、データ入力者は、映像フレーム1001はイベントとしてふさわしい打撃が発生しなかったため不要と見なし、タイミング1005でイベントを削除する。一方、データ入力者は、映像フレーム1002はその後の映像フレーム1003でイベントとしてふさわしい打撃(ヒット)が発生したので、内容入力を行いタイミング1007で本登録する。
Next, event deletion will be described with reference to FIG. 10 using a baseball video as an example. The event information of the batting result is input as in FIG. 2, but the time information is the pitching time.
Both the video frame 1001 and the video frame 1002 are pitching videos and are event candidates. Therefore, the data input person inputs time at timings 1004 and 1006, and temporarily registers event information. However, the data input person regards the video frame 1001 as unnecessary because no hit suitable for an event has occurred, and deletes the event at timing 1005. On the other hand, the data input person inputs a content and registers the video frame 1002 at timing 1007 because a hit (hit) suitable for an event has occurred in the video frame 1003 thereafter.

次に、復帰部904の動作について図11を参照して説明する。
プロセッサ101が、巻き戻し部902を利用してデータ入力者からの巻き戻しの指示がなされることを待ち(ステップS1101)、巻き戻しの指示がされた場合に次のステップへ進ませる。メモリ102が、巻き戻しが行われる直前の映像フレームの位置を記憶する(ステップS1102)。次に、プロセッサ101が、イベント情報の入力が終了するのを待ち、終了した場合に次のステップへ進ませる(ステップS1103)。プロセッサ101が、再生映像フレームをステップS202で記憶した映像フレームに移動させ、再生を再開する(ステップS1104)。
Next, the operation of the return unit 904 will be described with reference to FIG.
The processor 101 waits for a rewind instruction from the data input person using the rewind unit 902 (step S1101), and proceeds to the next step when the rewind instruction is issued. The memory 102 stores the position of the video frame immediately before rewinding (step S1102). Next, the processor 101 waits for the input of the event information to end, and proceeds to the next step when it ends (step S1103). The processor 101 moves the playback video frame to the video frame stored in step S202, and resumes playback (step S1104).

(ネットワーク)
以下、ネットワークを経由して時刻情報、イベント内容情報を入力する場合の本実施形態にかかるデータ入力システムについて図面を参照して説明する。
時刻入力端末1201と内容入力端末1202とイベント情報データベース1203がネットワークを経由して接続される場合について図12を参照して説明する。データ入力システムは、時刻入力端末1201、内容入力端末1202、イベント情報データベース1203を備えている。
時刻入力端末1201は、映像中で発生したイベントの時刻情報を入力する端末である。時刻入力端末1201は、図1(B)の110及び111の機能を持つ。
(network)
Hereinafter, a data input system according to the present embodiment when inputting time information and event content information via a network will be described with reference to the drawings.
A case where the time input terminal 1201, the content input terminal 1202, and the event information database 1203 are connected via a network will be described with reference to FIG. The data input system includes a time input terminal 1201, a content input terminal 1202, and an event information database 1203.
The time input terminal 1201 is a terminal for inputting time information of an event occurring in the video. The time input terminal 1201 has the functions 110 and 111 in FIG.

内容入力端末1202は、イベント内容情報を入力する端末である。内容入力端末1202は、図1(B)の110及び112の機能を持つ。   The content input terminal 1202 is a terminal for inputting event content information. The content input terminal 1202 has the functions 110 and 112 in FIG.

イベント情報データベース1203は、入力されたイベント情報を格納するデータベースである。図1(A)のイベント情報記憶部109を備えている。   The event information database 1203 is a database that stores input event information. The event information storage unit 109 shown in FIG.

次に、図12に示したデータ入力システムの動作について図13を参照して説明する。
まず、時刻入力端末1201が、新たなイベントに対しイベントの時刻情報を入力する(ステップS1301)。時刻入力端末1201が入力された時刻情報を、ネットワークを介して、内容入力端末1202に送信する(ステップS1302)。
内容入力端末1202が時刻情報を時刻入力端末1201から受信する(ステップS1303)。内容入力端末1202が表示されているイベント情報を更新する(ステップS1304)。イベント情報は、例えば、上述した図7又は図8のように表示される。また、内容入力端末1202が時刻情報を修正する機能を有しており、時刻情報を修正する必要がある場合はステップS1305で受信した時刻を修正する。内容入力端末1202は、イベント内容情報を入力する(ステップS1306)。最後に、内容入力端末1202は、イベントの時刻情報とイベント内容情報をイベント情報として、ネットワークを経由してイベント情報データベース1203に登録する。
Next, the operation of the data input system shown in FIG. 12 will be described with reference to FIG.
First, the time input terminal 1201 inputs event time information for a new event (step S1301). The time information input by the time input terminal 1201 is transmitted to the content input terminal 1202 via the network (step S1302).
The content input terminal 1202 receives time information from the time input terminal 1201 (step S1303). The event information displayed on the content input terminal 1202 is updated (step S1304). For example, the event information is displayed as shown in FIG. Further, the content input terminal 1202 has a function of correcting the time information, and when the time information needs to be corrected, the time received in step S1305 is corrected. The content input terminal 1202 inputs event content information (step S1306). Finally, the content input terminal 1202 registers event time information and event content information as event information in the event information database 1203 via the network.

次に、図12に示したデータ入力システムの動作について図13とは異なる動作例について図14を参照して説明する。図13と同様なステップは同一の番号を付して説明を省略する。
時刻入力端末1201は、ステップS1301で入力された時刻情報をネットワーク経由でイベント情報データベース1203に登録する(ステップS1401)。
内容入力端末1202は、ネットワークを経由してイベント情報データベース1203からデータベースを読み込む(ステップS1402)。データベースに新たなイベントが登録されていた場合はステップS1304へ進み、登録されていなければ定期的にデータベースを読み込む(ステップS1403)。
Next, the operation of the data input system shown in FIG. 12 will be described with reference to FIG. Steps similar to those in FIG. 13 are denoted by the same reference numerals and description thereof is omitted.
The time input terminal 1201 registers the time information input in step S1301 in the event information database 1203 via the network (step S1401).
The content input terminal 1202 reads the database from the event information database 1203 via the network (step S1402). If a new event is registered in the database, the process proceeds to step S1304, and if not registered, the database is periodically read (step S1403).

(ネットワーク:複数端末)
ネットワーク上に設置される各端末は必ずしも1台ずつである必要はなく、図15のように内容入力端末が複数台(1503、1504、…)存在してもよい。このような構成にすることで、複数のデータ入力者で分担してデータ入力することが可能となる。
(Network: Multiple terminals)
Each terminal installed on the network is not necessarily one, and there may be a plurality of content input terminals (1503, 1504,...) As shown in FIG. By adopting such a configuration, it is possible to input data by sharing among a plurality of data input persons.

次に、図15に示したデータ入力システムの動作について図16を参照して説明する。図16はイベント内容情報を入力する処理を分散する処理フローである。
まず、時刻入力端末1502は、入力された時刻情報を各内容入力端末に送信する(ステップS1601)。各内容入力端末1503,1504は、時刻入力端末1502から時刻情報を受信し、イベント情報の表示(例えば、図7又は図8の一覧表示)を更新する(ステップS1602)。イベント情報を表示する際には、他の内容入力端末がこのイベント情報を編集中であることを表示してもよい。すなわち、他の内容入力端末が編集中であるためそのイベント情報を編集することができない(編集ロック)ことを示していてもよい。編集がロックされているか否かを区別するために、枠、背景色、文字色、アイコンなどをロックされているか否かに応じて変更する。
Next, the operation of the data input system shown in FIG. 15 will be described with reference to FIG. FIG. 16 is a processing flow for distributing processing for inputting event content information.
First, the time input terminal 1502 transmits the input time information to each content input terminal (step S1601). Each content input terminal 1503, 1504 receives time information from the time input terminal 1502, and updates the display of event information (for example, the list display of FIG. 7 or FIG. 8) (step S1602). When displaying the event information, it may be displayed that another content input terminal is editing the event information. That is, it may indicate that the event information cannot be edited (edit lock) because another content input terminal is editing. In order to distinguish whether the editing is locked, the frame, background color, character color, icon, etc. are changed according to whether they are locked.

内容入力端末1503は、これらのイベント情報から編集することが可能なイベント情報のうちから1つを選択し、編集(又は入力)を開始する(ステップS1603)。内容入力端末1503は、編集を開始したイベント情報を他の入力端末が編集できないようにロックする指示を他の内容入力端末に送信する(ステップS1604)。内容入力端末1504は、内容入力端末1503からのロック指示を受け、内容入力端末1503が編集を開始したイベント情報を編集できないようにロックする(ステップS1605)。内容入力端末1503は、内容入力を行い(ステップS1606)、内容入力が完了したら編集ロックの解除指示を他の内容入力端末に送信する(ステップS1607)。内容入力端末1504は、編集ロック解除指示を受け、編集ロックを解除するとともにイベント情報の表示を更新する(ステップS1608)。   The content input terminal 1503 selects one of the event information that can be edited from these event information, and starts editing (or input) (step S1603). The content input terminal 1503 transmits to the other content input terminal an instruction to lock the event information whose editing has been started so that the other input terminal cannot edit (step S1604). Upon receiving the lock instruction from the content input terminal 1503, the content input terminal 1504 locks the event information that the content input terminal 1503 has started editing so that it cannot be edited (step S1605). The content input terminal 1503 performs content input (step S1606), and when the content input is completed, transmits an editing lock release instruction to another content input terminal (step S1607). The content input terminal 1504 receives the edit lock release instruction, releases the edit lock, and updates the display of the event information (step S1608).

図16に示した例では、入力(編集)開始のタイミングが最も早かった内容入力端末において入力された内容を記憶するが、これに限定されない。例えば、入力終了タイミング、入力を請け負うことを表明したタイミングに基づいて、編集又は入力することができる内容入力端末が決定されてもよい。また、入力された内容が同様なものの多数決、先着順等でイベント情報データベース1203に記憶されるイベント情報が決定されてもよい。   In the example shown in FIG. 16, the content input at the content input terminal with the earliest input (editing) start timing is stored, but the present invention is not limited to this. For example, a content input terminal that can be edited or input may be determined based on the input end timing and the timing that the input is undertaken. Further, event information stored in the event information database 1203 may be determined by majority vote, first-come-first-served basis, or the like of the same input contents.

次に、イベント内容情報を入力する処理を分散する図16とは異なる処理フローについて図17を参照して説明する。この例では、時刻入力端末がイベント内容入力を担当する内容入力端末を選択する。時刻入力端末は、例えば、現在、編集中でない内容入力端末を選択する。また、時刻入力端末は、各内容入力端末が過去に入力したイベントの数や各内容入力端末の入力に要した時間が均等となるように内容入力端末を選別してもよい。また、時刻入力端末は、各内容入力端末の負荷をモニタして負荷の最も小さい端末を選択してもよい。   Next, a processing flow different from FIG. 16 in which processing for inputting event content information is distributed will be described with reference to FIG. In this example, the time input terminal selects a content input terminal in charge of event content input. For example, the time input terminal selects a content input terminal that is not currently being edited. In addition, the time input terminal may select the content input terminals so that the number of events input by each content input terminal in the past and the time required for input by each content input terminal are equal. The time input terminal may monitor the load of each content input terminal and select the terminal with the smallest load.

時刻入力端末1502は、内容入力端末を選択する(ステップS1701)。図17の例では、時刻入力端末1502は内容入力端末1503を選択している。時刻入力端末1502は、ステップS1501で選択した内容入力端末に次に入力担当であることを予告する(ステップS1702)。内容入力端末1503には、時刻入力端末1502に予告された端末が内容入力端末1503であることが表示される(ステップS1703)。時刻入力端末1502は、入力した時刻情報の編集を許可した状態で、入力担当端末(図17の例では内容入力端末1503)に送信する(ステップS1704)。   The time input terminal 1502 selects a content input terminal (step S1701). In the example of FIG. 17, the time input terminal 1502 selects the content input terminal 1503. The time input terminal 1502 notifies the content input terminal selected in step S1501 that it is in charge of input next (step S1702). The content input terminal 1503 displays that the terminal notified to the time input terminal 1502 is the content input terminal 1503 (step S1703). The time input terminal 1502 transmits the input time information to the input terminal (content input terminal 1503 in the example of FIG. 17) while permitting editing of the input time information (step S1704).

内容入力端末1503は、時刻情報を受け取り、表示を更新する(ステップS1705)。時刻入力端末1502は、入力担当でない他の内容入力端末(図17の例では内容入力端末1504)に編集をロックした状態で時刻情報を送信する(ステップS1706)。内容入力端末1504は、時刻情報を受け取り、表示を更新する(ステップS1707)。入力担当である内容入力端末1503はイベント内容の入力を行い(ステップS1708)、内容入力が完了したら、入力完了である旨の情報を時刻入力端末1502に送信する(ステップS1709)。時刻入力端末1502は、内容入力完了の知らせを受けて、入力非担当端末である内容入力端末1504に編集ロックの解除指示情報を送信する(ステップS1710)。内容入力端末1504は、解除指示を受け取り、編集ロックを解除し、表示を更新する(ステップS1711)。   The content input terminal 1503 receives the time information and updates the display (step S1705). The time input terminal 1502 transmits time information in a state where editing is locked to another content input terminal that is not in charge of input (the content input terminal 1504 in the example of FIG. 17) (step S1706). The content input terminal 1504 receives the time information and updates the display (step S1707). The content input terminal 1503 in charge of the input inputs the event content (step S1708), and when the content input is completed, information indicating that the input is complete is transmitted to the time input terminal 1502 (step S1709). Upon receiving the content input completion notification, the time input terminal 1502 transmits edit lock release instruction information to the content input terminal 1504 which is a non-input terminal (step S1710). The content input terminal 1504 receives the release instruction, releases the editing lock, and updates the display (step S1711).

なお、予告を行うステップS1702,S1703は省略してもよい。また、時刻入力端末1502が内容入力を行う端末だけに時刻情報を送信してもよく、この場合はステップS1706,S1707,S1709,S1710,S1711が省略可能である。その場合、内容入力を担当しない内容入力端末1504は定期的にデータベースを読み込んだり、データベースが更新されたことを他の端末から通知されることによって表示を更新する。また、内容入力を担当するイベント情報のみを表示し、担当しないイベント情報を一切表示しないように設定してもよい。この場合は、表示の更新が不要となる。   Note that steps S1702 and S1703 for giving a notice may be omitted. Further, the time information may be transmitted only to the terminal through which the time input terminal 1502 inputs contents, and in this case, steps S1706, S1707, S1709, S1710, and S1711 can be omitted. In this case, the content input terminal 1504 not in charge of content input periodically reads the database, and updates the display by notifying that another database has updated the database. Alternatively, it may be set so that only event information in charge of content input is displayed and no event information in charge is displayed. In this case, it is not necessary to update the display.

次に、イベント内容情報を入力する処理を分散する図16、図17とは異なる処理フローについて図18を参照して説明する。
時刻入力端末1502は、時刻情報をイベント情報データベース1203に登録する(ステップS1801)。内容入力端末1503は、イベント情報データベース1203から編集可能なイベント情報を検索する(ステップS1802)。ここで、編集可能とは他の入力端末によって編集がロックされていないということである。内容入力端末1503は、ステップS1802で検索して発見したイベント情報をイベント情報データベース1203から読み込み、他の入力端末が編集することができないように編集ロックする(ステップS1803)。内容入力端末1503は、イベント内容情報を入力する(ステップS1804)。内容入力端末1503は、イベント情報データベース1203にイベント内容情報を登録し、編集ロックを解除する。
Next, a processing flow different from that in FIGS. 16 and 17 in which processing for inputting event content information is distributed will be described with reference to FIG.
The time input terminal 1502 registers the time information in the event information database 1203 (step S1801). The content input terminal 1503 searches the event information database 1203 for editable event information (step S1802). Here, “editable” means that editing is not locked by another input terminal. The content input terminal 1503 reads the event information found by searching in step S1802 from the event information database 1203, and edits and locks it so that other input terminals cannot edit it (step S1803). The content input terminal 1503 inputs event content information (step S1804). The content input terminal 1503 registers the event content information in the event information database 1203 and releases the edit lock.

以上は、時刻入力端末が仮のイベント発生時刻を入力して、イベント内容入力端末がイベントに対応する真のイベント発生時刻を映像特徴量に基づいて求めているが、この構成に限定されない。
例えば、時刻入力端末で仮のイベント発生時刻を入力するだけでなく、映像特徴量に基づいて、イベントに対応する真のイベント発生時刻を求めてもよい。この場合は、イベント内容入力端末では、イベント内容を入力するだけになる。他の例として、内容入力端末で、ユーザが真のイベント時刻を映像に基づいて探し出して、このイベントのイベント内容を入力してもよい。
As described above, the time input terminal inputs a temporary event occurrence time, and the event content input terminal obtains the true event occurrence time corresponding to the event based on the video feature amount, but is not limited to this configuration.
For example, not only the provisional event occurrence time is input at the time input terminal, but the true event occurrence time corresponding to the event may be obtained based on the video feature amount. In this case, the event content input terminal simply inputs the event content. As another example, at the content input terminal, the user may search for the true event time based on the video and input the event content of this event.

(自動検出)
ここまで説明した時刻入力手段は表示部103が表示する映像を観察しながら、イベントの発生に合わせてデータ入力者が手動で入力するものであった。ここでは、自動的にイベントの発生を検出してその時刻を取得する手法について図19を参照して説明する。
映像、特にスポーツ映像では、得点経過などを表示する情報がスーパーインポーズされることが多い。図19の上図に示すように、例えば、野球の映像では1901のように回、表裏、得点、ボールカウント、出塁状況が表示される。また、得点時には、図19の下図に示すように、例えば、1902のように得点が表示される。これらは状況に変化があったとき、つまりイベントが発生したときに表示が更新されたり、新たに表示されたりする。そこで、本実施形態のデータ入力装置では、これらの映像の変化を検出することでイベントの発生を自動的に検出する。映像の変化は領域を予め設定しその特徴量を比較することで行われる。
(Automatic detection)
The time input means described so far has been manually input by a data input person in accordance with the occurrence of an event while observing the video displayed on the display unit 103. Here, a method of automatically detecting the occurrence of an event and acquiring the time will be described with reference to FIG.
In a video, particularly a sports video, information indicating the score progress is often superimposed. As shown in the upper diagram of FIG. 19, for example, in a baseball video, the time, front and back, scores, ball count, and output status are displayed as 1901. In addition, at the time of scoring, as shown in the lower diagram of FIG. These are updated or newly displayed when the situation changes, that is, when an event occurs. Therefore, in the data input device of the present embodiment, the occurrence of an event is automatically detected by detecting the change in these images. The video is changed by setting a region in advance and comparing the feature values.

次に、画面に表示される情報からイベント検出をするために、画面の任意の領域を指定する手法について図20を参照して説明する。図20は、これらのイベント検出情報を入力するために、画面の任意の領域を指定するインタフェースの例である。
図20の上図に示したように、データ入力者が、ポインタ2001をドラッグし、例えば、検出領域2002を設定する。また、図20の下図に示したように、データ入力者が予め検出領域の範囲を定めておき、データ入力者がポインタ2003で領域の1点を指定することで検出領域を設定してもよい。
また、ユーザが検出領域、座標等の情報を、例えば、電子ファイルに指定しておき、このファイルをメモリ102等に読み込ませて、イベントの検出をしてもよい。
Next, a method for designating an arbitrary area of the screen in order to detect an event from information displayed on the screen will be described with reference to FIG. FIG. 20 shows an example of an interface for designating an arbitrary area of the screen in order to input such event detection information.
As shown in the upper diagram of FIG. 20, the data input person drags the pointer 2001 to set, for example, the detection area 2002. In addition, as shown in the lower diagram of FIG. 20, the data input person may determine the range of the detection area in advance, and the data input person may set the detection area by designating one point of the area with the pointer 2003. .
Alternatively, the user may specify information such as the detection area and coordinates in an electronic file, for example, and read the file into the memory 102 or the like to detect the event.

次に、イベント検出情報のデータの構造例について図21を参照して説明する。このイベント検出情報は、例えば、メモリ102に記憶されている。
1つの検出領域のデータは、座標情報2101(例えば、左上と右下の座標)、特徴量情報2102、対応イベント情報2103から構成される。これらのデータが検出領域ごとに複数存在しうるデータ構造となる。特徴量情報は、直前映像フレームの特徴量あるいは予め与えられた特徴量を用いる。直前映像フレームの特徴量である場合は、映像の中で図19の1901のようなボールカウント、出塁状況の変化を検出することができる。予め与えられた特徴量である場合は1902のような得点の変化を検出することができる。
Next, an example of the data structure of event detection information will be described with reference to FIG. This event detection information is stored in the memory 102, for example.
The data of one detection area includes coordinate information 2101 (for example, upper left and lower right coordinates), feature amount information 2102, and corresponding event information 2103. The data structure is such that a plurality of these data can exist for each detection area. As the feature amount information, the feature amount of the immediately preceding video frame or the feature amount given in advance is used. In the case of the feature amount of the immediately preceding video frame, it is possible to detect a change in ball count and output status as in 1901 in FIG. When the feature amount is given in advance, a change in score such as 1902 can be detected.

次に、イベントを自動的に検出する処理のフローについて図22を参照して説明する。
映像入力部104が映像フレームを1つ読み込む(ステップS2201)。プロセッサ101がメモリ102に記憶されているイベント検出情報から、1領域分の情報を読み込む(ステップS2202)。プロセッサ101は、映像フレームの中のイベント検出情報で指示された領域の特徴量とイベント検出領域の特徴量を比較する指示をする(ステップS2203)。プロセッサ101は、前の映像フレームの特徴量と比較して変化があったことを検出する場合は閾値以下、予め指定した特徴量を持つ領域の出現を検出するときは閾値以上であれば、イベントが発生したとして対応イベントを通知する指示をする(ステップS2204)。これらステップS2202、S2203、S2204をすべてのイベント検出情報について実施し(ステップS2205)、終了するとステップS2206へ進む。これらの処理を全映像フレームが終了するまで繰り返す(ステップS2206)。
Next, a flow of processing for automatically detecting an event will be described with reference to FIG.
The video input unit 104 reads one video frame (step S2201). The processor 101 reads information for one area from the event detection information stored in the memory 102 (step S2202). The processor 101 gives an instruction to compare the feature quantity of the area designated by the event detection information in the video frame with the feature quantity of the event detection area (step S2203). If the processor 101 detects that there is a change compared to the feature amount of the previous video frame, the event is less than the threshold value. An instruction for notifying the corresponding event is issued (step S2204). These steps S2202, S2203, and S2204 are performed for all event detection information (step S2205), and upon completion, the process proceeds to step S2206. These processes are repeated until all video frames are completed (step S2206).

次に、検出したイベントを表示するインタフェースの例について図23(A)及び図23(B)を参照して説明する。
これらの図23(A)及び図23(B)の例では、検出されたイベントのうち、イベント内容情報が入力されたものとイベント内容情報が入力されていないものを区別して表示している。例えば、図23(A)は、2301の横軸を時間軸とし、検出されたイベントの位置に印を付けたインタフェースである。イベント内容情報が未入力のイベントは2302のように印を変更して表示する。
Next, an example of an interface for displaying a detected event will be described with reference to FIGS. 23 (A) and 23 (B).
In the examples of FIGS. 23A and 23B, detected events that are input with event content information and those that are not input with event content information are displayed separately. For example, FIG. 23A shows an interface in which the horizontal axis 2301 is a time axis and the detected event position is marked. An event for which no event content information has been input is displayed with the mark changed as 2302.

また、図23(B)は、検出されたイベントのサムネイル画像を一覧表示したインタフェース2303を示している。イベント内容情報が未入力のイベントは2304のように枠、背景色、文字色などを変更して表示する。このようにイベント内容情報が未入力のイベントと入力済みのイベントを区別して表示することで見落としをなくすことができる。   FIG. 23B shows an interface 2303 that displays a list of thumbnail images of detected events. An event for which no event content information has been input is displayed by changing the frame, background color, character color, and the like as 2304. In this way, the event content information that has not been input and the event that has already been input are displayed separately to eliminate oversight.

また、イベントを自動検出する場合であっても、手動によるイベントの時刻入力を行ってもよい。先に手動でイベントを入力した後に、イベント検出を行うことで検出されたイベントが入力されているか否かを確認することができる。   Even when an event is automatically detected, the event time may be manually input. It is possible to confirm whether or not the detected event is input by performing event detection after manually inputting the event first.

次に、自動検出されたイベントにイベント情報が入力されているか否かをチェックする処理フローについて図24を参照して説明する。
図24では、時刻情報、イベント内容情報の双方のチェックに使用できる。すなわち、時刻情報をチェックする場合は先に手動で入力したイベント情報の存在のチェック、イベント内容情報のチェックには検出したイベントのイベント内容情報が入力されているかをチェックするために用いられる。
Next, a processing flow for checking whether or not event information is input to an automatically detected event will be described with reference to FIG.
In FIG. 24, it can be used for checking both time information and event content information. That is, when checking the time information, it is used to check whether the event content information of the detected event is input in the check of the presence of the event information manually input previously and the check of the event content information.

プロセッサ101が自動検出されたイベント情報を1つ読み込む(ステップS2401)。プロセッサ101が、自動検出されたイベント情報がイベント情報記憶部109に記憶されているかをチェックする(ステップS2402)。上述したように時刻情報のチェックとイベント内容情報のチェックの一方あるいは両方をチェックする。イベント情報が入力されていない場合はステップS2403へ進み未入力イベントを通知し(ステップS2403)、表示の更新などを行う。イベント情報が入力されている場合はステップS2404へ進み、全検出イベントをチェックするまで、ステップS2401からステップS2403までの処理を繰り返す。   The processor 101 reads one event information automatically detected (step S2401). The processor 101 checks whether or not the automatically detected event information is stored in the event information storage unit 109 (step S2402). As described above, one or both of the time information check and the event content information check is checked. If no event information is input, the process advances to step S2403 to notify a non-input event (step S2403), and the display is updated. If event information has been input, the process proceeds to step S2404, and the processes from step S2401 to step S2403 are repeated until all detected events are checked.

次に、検出されたイベントの時刻を基点として、所望の特徴量を持つ映像フレームを検出する処理フローについて図25を参照して説明する。図25は図6と類似しているが、図6は、入力されたイベントの時刻を基点として、所望の特徴量を持つ映像フレームを検出する場合である。図6と同様なステップは同一の番号を付して説明を省略する。
例えば、得点が表示された時刻を基点にして、その直前の投球の映像フレームを検出する。プロセッサ101が、ステップS601で取得した映像特徴量と比較する映像フレームの初期値をイベント検出によって得られた時刻の映像フレームとする(ステップS2501)。プロセッサ101が、ステップS601で取得した映像特徴量と比較するステップS2501で得られた映像フレームの映像特徴量を抽出し、映像特徴量を比較し映像特徴量の差分を計算する(ステップS2502)。その差分が閾値以下であれば、比較した映像フレームが検出したい映像フレームであるとして処理を終了する。差分が閾値以下でなければステップS604に進み、比較する映像フレームをn映像フレーム前にずらし、再び比較を行う処理ステップS2502を繰り返す。
Next, a processing flow for detecting a video frame having a desired feature amount based on the time of the detected event will be described with reference to FIG. FIG. 25 is similar to FIG. 6, but FIG. 6 shows a case where a video frame having a desired feature amount is detected based on the time of the input event. Steps similar to those in FIG. 6 are denoted by the same reference numerals and description thereof is omitted.
For example, the video frame of the pitch immediately before is detected from the time when the score is displayed as a base point. The processor 101 sets the initial value of the video frame to be compared with the video feature amount acquired in step S601 as the video frame at the time obtained by the event detection (step S2501). The processor 101 extracts the video feature quantity of the video frame obtained in step S2501 to be compared with the video feature quantity acquired in step S601, compares the video feature quantity, and calculates the difference between the video feature quantities (step S2502). If the difference is less than or equal to the threshold value, the process is terminated assuming that the compared video frame is a video frame to be detected. If the difference is not less than or equal to the threshold value, the process proceeds to step S604, the video frame to be compared is shifted n video frames before, and the processing step S2502 for performing comparison again is repeated.

(特殊再生)
次に、図1(B)を参照して説明した基本構成に新たな機能を追加した場合について図26を参照して説明する。図26は表示部103に表示される画面を示す。図1(B)に示した基本構成に追加された機能を行うためのボタンは、特殊再生部2601、復帰部2602である。
特殊再生部2601は、映像の巻き戻しや早送りなどの特殊再生(トリックプレイ)を用いて、イベント発生箇所を探す部分である。特殊再生を行うため、映像を記憶する映像記憶部105は、ハードディスクなどである。
(Special playback)
Next, a case where a new function is added to the basic configuration described with reference to FIG. 1B will be described with reference to FIG. FIG. 26 shows a screen displayed on the display unit 103. Buttons for performing functions added to the basic configuration shown in FIG. 1B are a special playback unit 2601 and a return unit 2602.
The special playback unit 2601 is a part that searches for an event occurrence location using special playback (trick play) such as video rewind or fast forward. In order to perform special reproduction, the video storage unit 105 that stores video is a hard disk or the like.

復帰部2602はイベント入力が終了後に、特殊再生(トリックプレイ)を行う直前の映像フレームに復帰する。図27に復帰部2602の処理フローを示す。   The return unit 2602 returns to the video frame immediately before special playback (trick play) after the event input is completed. FIG. 27 shows a processing flow of the return unit 2602.

プロセッサ101が、データ入力者からの特殊再生の指示がなされることを待ち(ステップS2701)、特殊再生の指示がされた場合に次のステップへ進ませる。メモリ102が、特殊再生が行われる直前の映像フレームを記憶する(ステップS2702)。プロセッサ101が、イベント情報の入力が終了するのを待ち、終了した場合に次のステップへ進ませる(ステップS1103)。プロセッサ101が、再生映像フレームをステップS2701で記憶した映像フレームに移動し、再生を再開する(ステップS2703)。   The processor 101 waits for an instruction for special reproduction from the data input person (step S2701), and proceeds to the next step when an instruction for special reproduction is given. The memory 102 stores the video frame immediately before special reproduction is performed (step S2702). The processor 101 waits for the input of event information to end, and when it ends, proceeds to the next step (step S1103). The processor 101 moves the playback video frame to the video frame stored in step S2701, and resumes playback (step S2703).

なお、特殊再生は特殊再生部2601、復帰部2602に依らず外部のコントローラなどを用いてもよい。また、独立した復帰部2602を持たずに、内容登録部2603によってイベント情報が登録されたことをもってイベント入力が終了したとして復帰してもよい。   Note that special playback may use an external controller or the like without depending on the special playback unit 2601 and the return unit 2602. Further, instead of having the independent return unit 2602, it may be returned that the event input is completed when the event information is registered by the content registration unit 2603.

(1ボタン入力)
次に、図1(A)、図1(B)を参照して説明した基本構成に新たな機能を追加した場合について図28を参照して説明する。
図1(A)では時刻入力部107とイベント内容入力部108が独立していたが、図28に示した構成では、時刻入力部107はなくしてイベント内容入力部108のみを持ち、イベント内容入力部108が押下された時刻を時刻情報とする。また、図1(B)のように内容を選択した後に登録するのではなく、選択すると直ちに登録が行われる。
(1 button input)
Next, a case where a new function is added to the basic configuration described with reference to FIGS. 1A and 1B will be described with reference to FIG.
In FIG. 1A, the time input unit 107 and the event content input unit 108 are independent. However, in the configuration shown in FIG. 28, the time input unit 107 is not provided, but only the event content input unit 108 is provided. The time when the unit 108 is pressed is defined as time information. In addition, registration is not performed after selecting contents as shown in FIG. 1B, but registration is performed immediately upon selection.

次に、図28に示した場合の処理フローについて図29を参照して説明する。
プロセッサ101が、イベント内容入力部108に接続するボタン2802が押下されるのを待つ(ステップS2901)。プロセッサ101は、ボタン2802が押下されたとき、現在位置の映像フレームの時刻を取得する(ステップS2902)。プロセッサ101は、取得した時刻情報と選択されたイベント内容情報を登録する(ステップS2903)。
Next, the processing flow in the case shown in FIG. 28 will be described with reference to FIG.
The processor 101 waits for the button 2802 connected to the event content input unit 108 to be pressed (step S2901). When the button 2802 is pressed, the processor 101 acquires the time of the video frame at the current position (step S2902). The processor 101 registers the acquired time information and the selected event content information (step S2903).

例えば、“ヒット”に対応したボタン2802を押下すると直ちに押下した時刻を時刻情報、“ヒット”をイベント内容情報としたイベント情報がイベント情報記憶部109に登録される。また、ボタン部分2801は“ヒット”のような単一の項目だけでなく、複数の内容の項目(例えば、“○○選手、ヒット”)を一度に登録することができる。   For example, when the button 2802 corresponding to “hit” is pressed, event information having the time of pressing immediately as time information and “hit” as event content information is registered in the event information storage unit 109. The button portion 2801 can register not only a single item such as “hit” but also a plurality of items (for example, “XX player, hit”) at a time.

(2画面表示)
次に、表示部103が2画面を有する場合の例について図30、図31を参照して説明する。図30は本実施形態にかかるデータ入力装置のインタフェース例である。
図30に示した例では、イベント入力画面3001とイベント発見画面3002を持つ。イベント入力画面3001はイベントの時刻情報を入力するための画面である。イベント発見画面3002はイベント入力画面より未来の時刻の映像を表示する。すなわち、イベント入力画面3001の映像の時刻と、イベント発見画面3002の映像の時刻との関係は、例えば、図31に示すようになる。
(2-screen display)
Next, an example in which the display unit 103 has two screens will be described with reference to FIGS. FIG. 30 shows an example of an interface of the data input device according to this embodiment.
The example shown in FIG. 30 has an event input screen 3001 and an event discovery screen 3002. The event input screen 3001 is a screen for inputting event time information. The event discovery screen 3002 displays an image of a future time from the event input screen. That is, the relationship between the video time on the event input screen 3001 and the video time on the event discovery screen 3002 is as shown in FIG. 31, for example.

例えば、イベント発見画面3002にはリアルタイムに放送されている最新映像を、イベント入力画面3001には5秒遅れの映像を表示する。また、イベント発見画面3002にはリアルタイムに放送されている最新映像を、イベント入力画面3001にはイベント入力のために巻き戻しなどの特殊再生中の映像を表示してもよい。   For example, the event discovery screen 3002 displays the latest video broadcast in real time, and the event input screen 3001 displays a video delayed by 5 seconds. The event discovery screen 3002 may display the latest video broadcast in real time, and the event input screen 3001 may display a video during special playback such as rewinding for event input.

イベント発見画面3002を視聴していてイベントが発生したときに、発生した瞬間の時刻をイベント入力画面3001を観察して入力する。図30のインタフェースでイベント入力のタイミングを計り、図28のボタン部分2801を押下することで1ボタンでイベントの発生した瞬間の時刻とそのイベント内容を登録することができる。   When an event occurs while viewing the event discovery screen 3002, the time at which the event occurred is input by observing the event input screen 3001. The timing of event input is measured using the interface shown in FIG. 30, and the button 2801 shown in FIG. 28 is pressed to register the time at which the event occurred and the contents of the event with one button.

次に、図30とは異なる表示手法について図32を参照して説明する。図32は本実施形態にかかるデータ入力装置の別のインタフェース例である。イベント入力画面3201とイベント発見画面3202を切り替えて表示する。1度に表示される画面が1つである点が図30と異なる以外は同様である。   Next, a display method different from FIG. 30 will be described with reference to FIG. FIG. 32 shows another interface example of the data input device according to the present embodiment. The event input screen 3201 and the event discovery screen 3202 are switched and displayed. This is the same except that one screen is displayed at a time, which is different from FIG.

(選手情報等の後入力)
次に、イベント情報を入力した後に、選手情報を入力する処理フローについて図33を参照して説明する。
スポーツ映像のイベント入力を行う場合に、必ずしもイベント入力時点で選手名が分かっているとは限らない。試合中継の途中で、選手紹介がされる場合も少なくない。図33はこのような場合に選手情報を後入力するための処理フローである。
(After player information etc.)
Next, a process flow for inputting player information after inputting event information will be described with reference to FIG.
When performing sport video event input, the player name is not always known at the time of event input. There are many cases where players are introduced during the game. FIG. 33 is a processing flow for post-inputting player information in such a case.

予め選手名などの情報である選手識別情報をメモリ102に記憶しておく。データ入力者が、イベント発生時点で選手名が不明な選手のイベント情報について、選手識別情報を用いて登録する(ステップS3301)。データ入力者が、選手名が判明した時点で、先に記憶してあった選手識別情報を指定し、選手名などの選手情報を入力する(ステップS3302)。プロセッサ101が、既に登録してあるイベント情報から該当する選手識別情報が入力されているイベント情報を探し、イベント情報に含まれる内容情報を更新する(S3303)。次に、データ入力者が、その選手が関係するイベントが発生した場合には入力した選手情報を用いてイベント情報を登録する(S3304)。このようにすることで試合開始前に選手情報を調査することなく、データ入力作業を開始することができる。   Player identification information that is information such as a player name is stored in the memory 102 in advance. The data input person registers the event information of the player whose player name is unknown at the time of the event using the player identification information (step S3301). When the data input person knows the player name, the player identification information stored previously is designated and player information such as the player name is input (step S3302). The processor 101 searches the event information for which the corresponding player identification information is input from the already registered event information, and updates the content information included in the event information (S3303). Next, when an event related to the player occurs, the data input person registers the event information using the input player information (S3304). In this way, the data input operation can be started without investigating player information before the game starts.

以上に示した実施形態によれば、映像に含まれる映像特徴量に基づいてイベント発生時刻情報とイベント内容情報を連携させることにより、メタデータの提供のために必要なイベント情報の入力作業を放送に合わせてリアルタイム、あるいはリアルタイムに準じた速度で入力することができる。これによって、メタデータを円滑に提供することが可能となり、メタデータを利用したサービスやアプリケーションが利用できるようになる。   According to the embodiment described above, event information input work necessary for providing metadata is broadcast by linking event occurrence time information and event content information based on the video feature amount included in the video. Can be input in real time or at a speed in accordance with real time. This makes it possible to provide metadata smoothly, and services and applications that use metadata can be used.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

(A)は本発明の実施形態にかかるデータ入力装置のブロック図、(B)は(A)の表示部が表示する操作ボタン。(A) is a block diagram of the data input device concerning embodiment of this invention, (B) is the operation button which the display part of (A) displays. イベントの発生と時刻の関係を説明するための図。The figure for demonstrating the relationship between generation | occurrence | production of an event, and time. イベント情報の記述例を示す図。The figure which shows the example of description of event information. 本実施形態にかかわるデータ入力装置の第1の変形例を示す図。The figure which shows the 1st modification of the data input device concerning this embodiment. 本実施形態にかかわるデータ入力装置の第2の変形例を示す図。The figure which shows the 2nd modification of the data input device concerning this embodiment. 所望の特徴量を持つ映像フレームを検出するための処理のフローチャート。The flowchart of the process for detecting the video frame which has a desired feature-value. イベント情報を一覧表示する表示部に表示されるインタフェースの一例を示す図。The figure which shows an example of the interface displayed on the display part which displays a list of event information. イベント情報を一覧表示する表示部103に表示される図7とは異なるインタフェースの一例を示す図。The figure which shows an example of the interface different from FIG. 7 displayed on the display part 103 which displays event information as a list. 図1(B)の基本構成に新たな機能を追加した場合の表示されるボタンを示す図。The figure which shows the button displayed when a new function is added to the basic composition of FIG. イベントを削除する場合を示す図。The figure which shows the case where an event is deleted. 図9の復帰部の動作を示すフローチャート。10 is a flowchart showing the operation of the return unit of FIG. 時刻入力端末と内容入力端末とイベント情報データベースがネットワークを経由して接続されるデータ入力システムを示す図。The figure which shows the data input system with which a time input terminal, a content input terminal, and an event information database are connected via a network. 図12の動作の一例を示すフローチャート。The flowchart which shows an example of the operation | movement of FIG. 図12の動作の別例を示すフローチャート。The flowchart which shows another example of the operation | movement of FIG. 図12で内容入力端末が複数ある場合を示す図。The figure which shows the case where there are two or more content input terminals in FIG. 図15の動作の一例を示すフローチャート。The flowchart which shows an example of the operation | movement of FIG. 図15の動作の別例を示すフローチャート。The flowchart which shows another example of the operation | movement of FIG. 図15の動作のさらに別例を示すフローチャート。The flowchart which shows another example of the operation | movement of FIG. イベントの自動検出を説明するための図。The figure for demonstrating the automatic detection of an event. イベント自動検出のために画面上の領域を指定する手法を説明するための図。The figure for demonstrating the method of designating the area | region on a screen for event automatic detection. イベント自動検出のためのイベント検出情報のデータ構造を示す図。The figure which shows the data structure of the event detection information for event automatic detection. イベント自動検出の動作を示すフローチャート。The flowchart which shows the operation | movement of event automatic detection. 自動検出したイベントを表示するインタフェースの一例を示す図。The figure which shows an example of the interface which displays the event detected automatically. 自動検出したイベントにイベント情報が入力されているかをチェックするためのフローチャート。The flowchart for checking whether event information is input into the automatically detected event. 自動検出したイベントの時刻を基点として、所望の特徴量を持つ映像フレームを検出するための処理のフローチャート。The flowchart of the process for detecting the video frame which has a desired feature-value on the basis of the time of the event detected automatically. 図1(B)の基本構成に新たな機能を追加した場合の表示されるボタンを示す図。The figure which shows the button displayed when a new function is added to the basic composition of FIG. 特殊再生(トリックプレイ)を行う直前の映像フレームに復帰するためのフローチャート。The flowchart for returning to the video frame immediately before performing special reproduction (trick play). 図1(B)の基本構成に新たな機能を追加した場合の表示されるボタンを示す図。The figure which shows the button displayed when a new function is added to the basic composition of FIG. 図28に関連してイベント情報を登録するためのフローチャート。29 is a flowchart for registering event information in relation to FIG. 28. 図1(A)の表示部が2画面を表示することを示す図。The figure which shows that the display part of FIG. 1 (A) displays 2 screens. 図30の2画面それぞれの時刻の位置を示す図。The figure which shows the position of each time of 2 screens of FIG. 2画面を切り換えて表示する場合を示す図。The figure which shows the case where 2 screens are switched and displayed. イベント情報を入力した後に、選手情報を入力するためのフローチャート。The flowchart for inputting player information after inputting event information.

符号の説明Explanation of symbols

101…プロセッサ、102…メモリ、103、401、402、501…表示部、104…映像入力部、105…映像記憶部、106…操作部、107…時刻入力部、108…イベント内容入力部、109…イベント情報記憶部、201、202、1002、1003…映像フレーム、203…時刻登録タイミング、301…イベント発生時刻情報、302、703…イベント内容情報、403、503…入力装置、502…制御端末、701…サムネイル画像、702…時刻情報、704…記号、705、803…イベント情報、801、802…ウィンドウ、901,905…画面、902…巻き戻し部、903…イベント削除部、904…復帰部、1001…映像フレーム、1201、1502…時刻入力端末、1202、1503,1504…内容入力端末、1203…イベント情報データベース、2001、2003…ポインタ、2002…検出領域、2101…座標情報、2102…特徴量情報、2103…対応イベント情報、2303…インタフェース、2601…特殊再生部、2602…復帰部、2603…内容登録部、2801、2802…ボタン部分、3001、3201…イベント入力画面、3002、3202…イベント発見画面。 DESCRIPTION OF SYMBOLS 101 ... Processor, 102 ... Memory, 103, 401, 402, 501 ... Display unit, 104 ... Video input unit, 105 ... Video storage unit, 106 ... Operation unit, 107 ... Time input unit, 108 ... Event content input unit, 109 ... event information storage unit, 201, 202, 1002, 1003 ... video frame, 203 ... time registration timing, 301 ... event occurrence time information, 302, 703 ... event content information, 403, 503 ... input device, 502 ... control terminal, 701 ... Thumbnail image, 702 ... Time information, 704 ... Symbol, 705, 803 ... Event information, 801, 802 ... Window, 901, 905 ... Screen, 902 ... Rewind part, 903 ... Event deletion part, 904 ... Return part, 1001 ... Video frame, 1201, 1502 ... Time input terminal, 1202,1503 1504 ... Content input terminal, 1203 ... Event information database, 2001, 2003 ... Pointer, 2002 ... Detection area, 2101 ... Coordinate information, 2102 ... Feature information, 2103 ... Corresponding event information, 2303 ... Interface, 2601 ... Special playback section, 2602... Restoration unit, 2603... Content registration unit, 2801, 2802... Button part, 3001, 3201 ... Event input screen, 3002, 3202.

Claims (18)

映像中に発生するイベントの時刻を仮のイベント発生時刻として入力するための時刻入力手段と、
映像にイベント発生時刻を対応付ける対応付手段と、
映像の特徴を示す映像特徴量を算出する算出手段と、
前記仮のイベント発生時刻に対応付けられた映像に含まれるイベント結果に対応するイベント原因を含む目的映像の特徴を示す基準特徴量を予め記憶している第1記憶手段と、
前記基準特徴量と前記映像特徴量との差が閾値以下である映像を前記目的映像として探す探索手段と、
前記目的映像に対応付けられるイベントの時刻を真のイベント発生時刻として記憶する第2記憶手段を具備することを特徴とするデータ入力装置。
Time input means for inputting the time of an event occurring in the video as a temporary event occurrence time;
Means for associating the event occurrence time with the video;
A calculation means for calculating a video feature amount indicating a video feature;
First storage means for preliminarily storing a reference feature amount indicating a feature of a target video including an event cause corresponding to an event result included in a video associated with the provisional event occurrence time;
Search means for searching for a video whose difference between the reference feature and the video feature is equal to or less than a threshold as the target video;
A data input device comprising: a second storage means for storing the event time associated with the target video as a true event occurrence time.
前記イベントのイベント内容を入力するための内容入力手段と、
前記真のイベント発生時刻と前記イベント内容とを関連付ける関連手段をさらに具備することを特徴とする請求項1に記載のデータ入力装置。
Content input means for inputting the event content of the event;
The data input device according to claim 1, further comprising association means for associating the true event occurrence time with the event content.
前記探索手段は、映像特徴量及び基準特徴量として、映像の色情報、映像の形状情報、映像に付随する音情報、映像内の物体の動きの度合いを示す動き情報の少なくとも1つに基づいて目的映像を探すことを特徴とする請求項1又は請求項2に記載のデータ入力装置。   The searching means is based on at least one of video color information, video shape information, sound information accompanying the video, and motion information indicating the degree of motion of an object in the video as the video feature quantity and the reference feature quantity. 3. The data input device according to claim 1, wherein a target video is searched. 前記探索手段は、前記仮のイベント発生時刻と該仮のイベント発生時刻よりも過去に入力された仮のイベント発生時刻との間の範囲で、前記目的映像を探す探索することを特徴とする請求項1から請求項3のいずれか1項に記載のデータ入力装置。   The search means searches for the target video in a range between the temporary event occurrence time and a temporary event occurrence time input before the temporary event occurrence time. The data input device according to any one of claims 1 to 3. 映像を表示する画面内のイベントの発生にしたがい映像特徴量の変化が予め知られている領域を指定させる指定手段と、
前記領域で映像特徴量の変化に基づいて仮のイベント発生時刻を取得する取得手段をさらに具備することを特徴とする請求項1から請求項4のいずれか1項に記載のデータ入力装置。
A designation means for designating an area in which a change in the video feature amount is known in advance according to the occurrence of an event in the screen displaying the video;
5. The data input device according to claim 1, further comprising an acquisition unit configured to acquire a tentative event occurrence time based on a change in a video feature amount in the area.
第1映像を再生する第1再生手段と、
前記第1映像よりも前の時刻に対応する第2映像を再生する第2再生手段と、
前記第1映像と前記第2映像を同時に、又は、前記第1映像と前記第2映像を切り換えて表示する表示手段をさらに具備することを特徴とする請求項1から請求項5のいずれか1項に記載のデータ入力装置。
First reproducing means for reproducing the first video;
Second playback means for playing back a second video corresponding to a time before the first video;
6. The display apparatus according to claim 1, further comprising display means for displaying the first video and the second video simultaneously or by switching between the first video and the second video. The data input device according to item.
イベント発生時刻が記憶されている複数のイベントのうち、イベント内容が入力されているイベントとイベント内容が入力されていないイベントを区別してイベントを一覧表示する表示手段と、
イベント内容が入力されていないイベントからあるイベントを選択させ、該イベントを前記第2記憶手段から削除するための削除手段と、
イベント内容が入力されていないイベントからあるイベントを選択させ、該イベントに対応するイベント発生時刻から映像を再生するための第3再生手段と、
前記再生を開始する直前に表示されていた映像フレームの位置を記憶する第3記憶手段と、
前記位置の映像フレームに復帰させる第1復帰手段をさらに具備することを特徴とする請求項2から請求項6のいずれか1項に記載のデータ入力装置。
A display means for displaying a list of events by distinguishing an event in which the event content is input and an event in which the event content is not input among a plurality of events in which the event occurrence time is stored;
A deletion unit for selecting an event from events for which no event content has been input, and deleting the event from the second storage unit;
A third playback means for selecting an event from events for which no event content has been input and playing back video from an event occurrence time corresponding to the event;
Third storage means for storing the position of the video frame that was displayed immediately before starting the reproduction;
The data input device according to any one of claims 2 to 6, further comprising first return means for returning to the video frame at the position.
イベント内容を入力するために映像フレームの位置を変更する変更手段と、
映像フレームの位置を変更する場合に、変更する直前の映像フレームの位置を記憶する位置記憶手段と、
イベント内容の入力が終了した場合に、変更する直前の映像フレームの位置に復帰する第2復帰手段を具備することを特徴とする請求項2から請求項7のいずれか1項に記載のデータ入力装置。
Change means for changing the position of the video frame to input the event content;
Position storage means for storing the position of the video frame immediately before the change when changing the position of the video frame;
The data input according to any one of claims 2 to 7, further comprising a second return means for returning to the position of the video frame immediately before the change when the input of the event contents is completed. apparatus.
入力するイベント内容の内容に対応して少なくとも1つの割り当てられたボタンと、
前記ボタンが選択された場合に、選択された時刻を真のイベント発生時刻と決定する時刻決定手段をさらに具備することを特徴とする請求項2から請求項8のいずれか1項に記載のデータ入力装置。
At least one assigned button corresponding to the content of the event content to be entered,
The data according to any one of claims 2 to 8, further comprising time determination means for determining the selected time as a true event occurrence time when the button is selected. Input device.
イベントに関連した識別情報を予め記憶している記憶手段と、
イベント内容を入力する場合に、該イベントに対応する、前記識別情報に含まれる情報をイベント内容として取り込む取込手段を具備することを特徴とする請求項2から請求項9のいずれか1項に記載のデータ入力装置。
Storage means for storing in advance identification information related to the event;
10. The apparatus according to claim 2, further comprising a capturing unit that captures, as event content, information included in the identification information corresponding to the event when the event content is input. 11. The data input device described.
時刻入力端末とイベント内容入力端末とがネットワークを経由して接続しているデータ入力システムにおいて、
前記時刻入力端末は、
映像中に発生するイベントの時刻を仮のイベント発生時刻として入力するための時刻入力手段と、
前記仮のイベント発生時刻を前記イベント入力端末に送信する送信手段を具備し、
前記イベント内容入力端末は、
前記仮のイベント発生時刻を前記時刻入力端末から受信する受信手段と、
映像にイベント発生時刻を対応付ける対応付手段と、
映像の特徴を示す映像特徴量を算出する算出手段と、
前記仮のイベント発生時刻に対応付けられた映像に含まれるイベント結果に対応するイベント原因を含む目的映像の特徴を示す基準特徴量を予め記憶している第1記憶手段と、
前記基準特徴量と前記映像特徴量との差が閾値以下である映像を前記目的映像として探す探索手段を具備することを特徴とするデータ入力システム。
In a data input system in which a time input terminal and an event content input terminal are connected via a network,
The time input terminal is
Time input means for inputting the time of an event occurring in the video as a temporary event occurrence time;
Comprising transmission means for transmitting the temporary event occurrence time to the event input terminal;
The event content input terminal is:
Receiving means for receiving the temporary event occurrence time from the time input terminal;
Means for associating the event occurrence time with the video;
A calculation means for calculating a video feature amount indicating a video feature;
First storage means for preliminarily storing a reference feature amount indicating a feature of a target video including an event cause corresponding to an event result included in a video associated with the provisional event occurrence time;
A data input system comprising: search means for searching for a video whose difference between the reference feature value and the video feature value is a threshold value or less as the target video.
前記時刻入力端末は、前記イベント内容入力端末が複数ある場合に、各イベント内容入力端末の負荷に基づいて、前記仮のイベント発生時刻を送信する端末を選択する選択手段をさらに具備することを特徴とする請求項11に記載のデータ入力システム。   The time input terminal further comprises selection means for selecting a terminal that transmits the temporary event occurrence time based on the load of each event content input terminal when there are a plurality of event content input terminals. The data input system according to claim 11. 前記時刻入力端末は、前記イベント内容入力端末が複数ある場合に、前記仮のイベント発生時刻を送信する端末を選択し、前記仮のイベント発生時刻を送信するよりも前に、選択した旨を前記選択された端末に送信することを特徴とする請求項11又は請求項12に記載のデータ入力システム。   When there are a plurality of event content input terminals, the time input terminal selects a terminal that transmits the temporary event occurrence time, and indicates that the selection has been made prior to transmitting the temporary event occurrence time. The data input system according to claim 11 or 12, wherein the data input system transmits the selected data to a selected terminal. 前記送信手段は、前記イベント内容入力端末が複数ある場合に、各イベント内容入力端末に前記仮のイベント発生時刻を送信することを特徴とする請求項11に記載のデータ入力システム。   12. The data input system according to claim 11, wherein, when there are a plurality of event content input terminals, the transmission means transmits the temporary event occurrence time to each event content input terminal. 各前記イベント内容入力端末は、
イベントに関する内容を編集する編集手段と、
複数の前記イベント内容入力端末のうち、前記送信手段が送信した仮のイベント発生時刻に対応するイベント内容を最先に編集する場合には、他のイベント内容入力端末に該イベント内容を編集することができないように編集をロックする編集ロック手段をさらに具備することを特徴とする請求項14に記載のデータ入力システム。
Each event content input terminal
An editing means for editing the content about the event,
Of the plurality of event content input terminals, when editing the event content corresponding to the temporary event occurrence time transmitted by the transmitting means first, edit the event content on another event content input terminal 15. The data input system according to claim 14, further comprising an edit lock means for locking the edit so as not to be performed.
各前記イベント内容入力端末は、
イベントに関する内容を編集する編集手段と、
複数の前記イベント内容入力端末のうち、前記送信手段が送信した仮のイベント発生時刻に対応するイベント内容を、編集し始めるタイミング、編集を終了するタイミング、編集をすると表明するタイミング、編集した内容が同様なものの多数決のいずれか1つに基づいて、他のイベント内容入力端末に該イベント内容を編集することができないように編集をロックする編集ロック手段をさらに具備することを特徴とする請求項14に記載のデータ入力システム。
Each event content input terminal
An editing means for editing the content about the event,
Among the plurality of event content input terminals, the event content corresponding to the tentative event occurrence time transmitted by the transmission means, the timing to start editing, the timing to end editing, the timing to announce when editing, and the edited content are 15. The apparatus according to claim 14, further comprising editing lock means for locking editing so that other event content input terminals cannot edit the event content based on any one of the majority of similar things. The data input system described in 1.
時刻入力端末とイベント内容入力端末とがネットワークを経由して接続しているデータ入力システムにおいて、
前記時刻入力端末は、
映像中に発生するイベントの時刻を仮のイベント発生時刻として入力するための時刻入力手段と、
映像にイベント発生時刻を対応付ける対応付手段と、
映像の特徴を示す映像特徴量を算出する算出手段と、
前記仮のイベント発生時刻に対応付けられた映像に含まれるイベント結果に対応するイベント原因を含む目的映像の特徴を示す基準特徴量を予め記憶している第1記憶手段と、
前記基準特徴量と前記映像特徴量との差が閾値以下である映像を前記目的映像として探す探索手段と、
前記目的映像に対応付けられるイベントの時刻を真のイベント発生時刻として記憶する第2記憶手段と、
前記真のイベント発生時刻を前記イベント入力端末に送信する送信手段を具備し、
前記イベント内容入力端末は、
前記真のイベント発生時刻を前記時刻入力端末から受信する受信手段と、
前記イベントのイベント内容を入力するための内容入力手段と、
前記真のイベント発生時刻と前記イベント内容とを関連付ける関連手段を具備することを特徴とするデータ入力システム。
In a data input system in which a time input terminal and an event content input terminal are connected via a network,
The time input terminal is
Time input means for inputting the time of an event occurring in the video as a temporary event occurrence time;
Means for associating the event occurrence time with the video;
A calculation means for calculating a video feature amount indicating a video feature;
First storage means for preliminarily storing a reference feature amount indicating a feature of a target video including an event cause corresponding to an event result included in a video associated with the provisional event occurrence time;
Search means for searching for a video whose difference between the reference feature and the video feature is equal to or less than a threshold as the target video;
Second storage means for storing a time of an event associated with the target video as a true event occurrence time;
Comprising transmission means for transmitting the true event occurrence time to the event input terminal;
The event content input terminal is:
Receiving means for receiving the true event occurrence time from the time input terminal;
Content input means for inputting the event content of the event;
A data input system comprising a related means for associating the true event occurrence time with the event content.
時刻入力端末とイベント内容入力端末とがネットワークを経由して接続しているデータ入力システムにおいて、
前記時刻入力端末は、
映像中に発生するイベントの時刻を仮のイベント発生時刻として入力するための仮時刻入力手段と、
前記仮のイベント発生時刻を前記イベント入力端末に送信する送信手段を具備し、
前記イベント内容入力端末は、
前記仮のイベント発生時刻を前記時刻入力端末から受信する受信手段と、
映像にイベント発生時刻を対応付ける対応付手段と、
前記仮のイベント発生時刻に対応付けられた映像に含まれるイベント結果に対応するイベント原因を含む目的映像に対応付けられるイベントの時刻を真のイベント発生時刻として入力するための真時刻入力手段と、
前記真のイベント発生時刻を記憶する第2記憶手段と、
前記イベントのイベント内容を入力するための内容入力手段と、
前記真のイベント発生時刻と前記イベント内容とを関連付ける関連手段を具備することを特徴とするデータ入力システム。
In a data input system in which a time input terminal and an event content input terminal are connected via a network,
The time input terminal is
Provisional time input means for inputting the time of an event occurring in the video as a provisional event occurrence time;
Comprising transmission means for transmitting the temporary event occurrence time to the event input terminal;
The event content input terminal is:
Receiving means for receiving the temporary event occurrence time from the time input terminal;
Means for associating the event occurrence time with the video;
A true time input means for inputting, as a true event occurrence time, an event time associated with a target image including an event cause corresponding to an event result included in an image associated with the provisional event occurrence time;
Second storage means for storing the true event occurrence time;
Content input means for inputting the event content of the event;
A data input system comprising a related means for associating the true event occurrence time with the event content.
JP2005042360A 2005-02-18 2005-02-18 Data input device and data input system Expired - Fee Related JP4177820B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005042360A JP4177820B2 (en) 2005-02-18 2005-02-18 Data input device and data input system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005042360A JP4177820B2 (en) 2005-02-18 2005-02-18 Data input device and data input system

Publications (2)

Publication Number Publication Date
JP2006229705A JP2006229705A (en) 2006-08-31
JP4177820B2 true JP4177820B2 (en) 2008-11-05

Family

ID=36990636

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005042360A Expired - Fee Related JP4177820B2 (en) 2005-02-18 2005-02-18 Data input device and data input system

Country Status (1)

Country Link
JP (1) JP4177820B2 (en)

Also Published As

Publication number Publication date
JP2006229705A (en) 2006-08-31

Similar Documents

Publication Publication Date Title
US7979879B2 (en) Video contents display system, video contents display method, and program for the same
US7181757B1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
US20090116811A1 (en) Tagboard for video tagging
US20080159708A1 (en) Video Contents Display Apparatus, Video Contents Display Method, and Program Therefor
US20070101394A1 (en) Indexing a recording of audiovisual content to enable rich navigation
US10129515B2 (en) Display control device, recording control device, and display control method
JP2001292402A (en) Digital video playback method, digital video playback device, and digital video recording / playback device
KR101891382B1 (en) Extraction program, method and device
JPH0993588A (en) Moving image processing method
KR101440168B1 (en) A method for generating a new overview of an audiovisual document that already includes an overview and report and a receiver capable of implementing the method
JP2019033430A (en) Movie reproduction apparatus, control method thereof, and program
US8643672B2 (en) Instant message analytics of historical conversations in relation to present communication
US7730505B2 (en) Stream reproducing device
CN101112090B (en) Video content playback assisting method, system and information distribution server
JP2009225207A (en) Information processor
US7844163B2 (en) Information editing device, information editing method, and computer product
JP6214762B2 (en) Image search system, search screen display method
WO2008087742A1 (en) Moving picture reproducing system, information terminal device and information display method
JP4366439B1 (en) Video content editing method, editing apparatus using the same, and remote editing apparatus
JP2009124383A (en) Information processing apparatus, content processing system, computer program, content management method, and content search method
JP4177820B2 (en) Data input device and data input system
US10115318B2 (en) Information processing method and device
JP2019092025A (en) Editing system
WO2014103374A1 (en) Information management device, server and control method
JP2007323698A (en) Multimedia content display apparatus, method and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080819

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080822

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130829

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees