JP2015082691A - Video editing device, video editing method, and video editing program - Google Patents
Video editing device, video editing method, and video editing program Download PDFInfo
- Publication number
- JP2015082691A JP2015082691A JP2013218543A JP2013218543A JP2015082691A JP 2015082691 A JP2015082691 A JP 2015082691A JP 2013218543 A JP2013218543 A JP 2013218543A JP 2013218543 A JP2013218543 A JP 2013218543A JP 2015082691 A JP2015082691 A JP 2015082691A
- Authority
- JP
- Japan
- Prior art keywords
- video
- viewer
- unit
- characteristic behavior
- video content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
Abstract
Description
本発明は、映像編集装置、映像編集方法、および、映像編集プログラムに関する。 The present invention relates to a video editing apparatus, a video editing method, and a video editing program.
従来、映像コンテンツ等のダイジェスト映像を作成する技術が提案されている。特許文献1には、映像コンテンツ中、登場人物等の感情(悲しい、楽しい)の表出があった箇所を抽出し、ダイジェスト映像を作成する技術が開示されている。 Conventionally, a technique for creating a digest video such as video content has been proposed. Patent Document 1 discloses a technique for extracting a portion where emotion (sad, fun) such as a character is expressed in video content and creating a digest video.
しかし、前記した技術により作成されたダイジェスト映像は、映像コンテンツの登場人物の感情の表出があった箇所を抽出したものに過ぎない。つまり、映像の視聴者側の状態は考慮されていない。そこで、本発明は、前記した問題を解決し、映像の視聴者側の状態を考慮して映像の編集を行うことを課題とする。 However, the digest video created by the above-described technique is merely an extracted portion where the emotion of the character in the video content is expressed. That is, the state on the viewer side of the video is not taken into consideration. SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to solve the above-described problems and to edit a video in consideration of the state on the viewer side of the video.
前記した課題を解決するため、本発明は、映像コンテンツを視聴しているときの視聴者を撮影した視聴者映像から前記視聴者の特徴的な行動を検出する特徴行動検出部と、前記映像コンテンツのうち、前記特徴的な行動を検出した前記視聴者映像の撮影時刻に対応する箇所を記録する映像特定部と、前記特徴的な行動が検出された前記視聴者映像の撮影時刻に対応する箇所から所定範囲の時間帯の映像データを、前記映像コンテンツから抽出する映像抽出部と、前記抽出された映像データを時系列につなぎ合わせた編集映像を作成する編集映像作成部と、を備えることを特徴とする映像編集装置とした。 In order to solve the above-described problems, the present invention provides a characteristic behavior detection unit that detects a characteristic behavior of the viewer from a viewer video obtained by capturing the viewer when viewing the video content, and the video content A video identification unit for recording a location corresponding to the shooting time of the viewer video where the characteristic behavior is detected, and a location corresponding to the shooting time of the viewer video where the characteristic behavior is detected A video extracting unit that extracts video data in a predetermined time period from the video content, and an edited video creating unit that creates an edited video by linking the extracted video data in time series. The featured video editing device.
本発明によれば、視聴者側の状態を考慮した映像の編集を行うことができる。 According to the present invention, it is possible to edit a video in consideration of the state on the viewer side.
(概要)
以下、図面を参照しながら、本発明の実施形態を説明する。まず、本実施形態の概要を説明する。図1は、本実施形態の概要を説明する図である。ここでは、映像コンテンツがテレビ番組であり、テレビ番組の受像機は、映像編集装置10の外部に設置される場合について説明する。また、映像編集装置10は、外部に設置されるカメラ(撮影装置)により映像コンテンツを視聴する視聴者の様子を撮影する場合について説明する。なお、ここでは映像コンテンツの録画と、当該映像コンテンツの視聴者の様子を収めた映像の撮影とは同時に開始される場合を例に説明する。以下に、映像編集装置10の処理の概要を説明する。
(Overview)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, an outline of the present embodiment will be described. FIG. 1 is a diagram for explaining the outline of the present embodiment. Here, a case where the video content is a television program and the television program receiver is installed outside the
図1に示すように、
(1)まず、視聴者がテレビ番組の視聴を開始すると同時に、映像編集装置10は、テレビ番組の映像と視聴者の映像を録画する。
(2)映像編集装置10は、視聴者の映像から、視聴者の特徴的な行動を検出し、検出時の時刻のリストを作成する。
(3)映像編集装置10は、リストに基づき、リストの各時刻に対応するテレビ番組の映像を特定し、その時刻の前後所定範囲の映像を抽出する。
(4)映像編集装置10は、抽出した複数の映像をつなぎ合わせ、録画したテレビ映像の編集映像(要約コンテンツ)を作成する。
As shown in FIG.
(1) First, at the same time that the viewer starts watching the television program, the
(2) The
(3) Based on the list, the
(4) The
このようにすることで、映像編集装置10は、視聴者の行動に基づき、映像コンテンツの編集映像を作成することができる。例えば、映像コンテンツの視聴者が、笑ったり、手や足を動かしたりする等の行動(アクション)を起こしたとき、映像編集装置10は、その行動を起こしたときの部分映像を時系列につなぎ合わせた編集映像を作成する。これにより、例えば、視聴者が面白いと思ったり、感情を揺さぶられたりした箇所をまとめた編集映像を作成することができる。
By doing in this way, the
(構成)
次に、図2を用いて、映像編集装置10の構成を説明する。図2は、図1の映像編集装置を含むシステムの構成例を示す図である。なお、ここでは映像コンテンツの受像機としてチューナー2を用いる場合を例に説明する。
(Constitution)
Next, the configuration of the
図2に示すように、システムは、カメラ(撮影装置)1、チューナー2、表示装置(出力装置)3、映像編集装置10を備える。
As shown in FIG. 2, the system includes a camera (photographing device) 1, a
カメラ1は、映像コンテンツを視聴している視聴者の様子を撮影する。このカメラ1は、視聴者の映像のみならず、視聴者の音声を収録する機能を備えていてもよい。そして、カメラ1は、撮影した視聴者の映像を映像編集装置10へ出力する。
The camera 1 captures the state of the viewer who is viewing the video content. The camera 1 may have a function of recording not only the viewer's video but also the viewer's voice. Then, the camera 1 outputs the captured video of the viewer to the
チューナー2は、テレビ番組等の映像コンテンツを受信し、映像編集装置10へ出力する。
The
表示装置3は、映像編集装置10から出力された映像や音声を出力する。この表示装置3は、例えば、映像コンテンツや、視聴者の映像、編集映像等を表示する。
The
映像編集装置10は、入出力部11、制御部12、記憶部13を備える。
The
入出力部11は、カメラ1、チューナー2、表示装置3等との間の入出力インタフェースを司る。この入出力部11は、インターネット等のネットワーク経由で通信を行うための通信インタフェースの機能を備えていてもよい。
The input /
制御部12は、映像編集装置10全体の制御を司る。この制御部12は、受信処理部120、録画部121、再生部122、編集部123を備える。
The
受信処理部120は、外部装置からのデータの受信を行う。例えば、受信処理部120は、カメラ1からの視聴者の映像や、チューナー2からの映像コンテンツの受信を行う。
The
録画部121は、受信処理部120で受信したデータを記憶部13に記憶する。例えば、録画部121は、受信処理部120で受信した視聴者の映像や映像コンテンツを記憶部13の所定領域に記憶する。
The
再生部122は、記憶部13に記憶された情報を入出力部11経由で表示装置3へ出力する。例えば、再生部122は、入出力部11からの指示入力に基づき、記憶部13の映像コンテンツや、視聴者の映像、編集映像等を表示装置3へ出力する。
The
編集部123は、記憶部13に記憶された映像コンテンツと、その映像コンテンツを視聴している視聴者の映像とを用いて、編集映像を作成する。具体的には、編集部123は、視聴者の映像から、視聴者の特徴的な行動を検出すると、その行動を検出した時刻における映像コンテンツの部分映像を抽出する。そして、編集部123は、抽出した部分映像をつなぎ合わせて編集映像を作成する。
The
この編集部123は、特徴行動検出部124、映像特定部125、映像抽出部126、編集映像作成部127を備える。
The
特徴行動検出部124は、記憶部13に記憶された視聴者の映像(視聴者映像)から視聴者の特徴的な行動を検出する。そして、特徴行動検出部124は、特徴的な行動を検出した視聴者映像の撮影時刻を記録する。例えば、特徴行動検出部124は、特徴的な行動を検出した視聴者映像の撮影時刻や、視聴者映像の撮影開始からの経過時刻の一覧を示したリストを作成する。ここでの特徴的な行動とは、例えば、視聴者が手や足を動かす、視聴者が顔の表情を変える等である。この特徴行動検出部124による特徴的な行動の検出の詳細は、具体例をまじえながら後記する。
The characteristic
映像特定部125は、特徴行動検出部124により特徴的な行動が検出された視聴者映像の撮影時刻(または視聴者映像の撮影開始からの経過時刻)に対応する映像コンテンツの場所を特定する。例えば、リストに示される時刻が視聴者の特徴的な行動を検出した視聴者映像の撮影時刻である場合、映像特定部125は、リストに示された視聴者映像の撮影時刻に相当する、映像コンテンツの場所(例えば、映像コンテンツの録画開始からの経過時間等)を特定する。
The
映像抽出部126は、映像特定部125により特定された映像コンテンツの場所ごとに、前後所定範囲の時間帯の映像を抽出する。
The
編集映像作成部127は、映像抽出部126により抽出された映像を時系列につなぎ合わせた編集映像を作成し、記憶部13に記憶する。なお、作成された編集映像は、入出力部11経由で、表示装置3等へ出力してもよい。
The edited
記憶部13は、制御部12により出力されたデータを記憶する。例えば、記憶部13は、所定領域に、制御部12から出力された映像コンテンツ、視聴者の映像、編集映像等を記憶する。
The
なお、映像編集装置10には、映像コンテンツや視聴者の映像の受信や記録(録画)の開始や終了、編集映像の作成指示等の入力を受け付ける入力装置が接続されていてもよい。
Note that the
(処理手順)
次に、図3を用いて映像編集装置10の処理手順を説明する。図3は、図2の映像編集装置の処理手順を示すフローチャートである。
(Processing procedure)
Next, the processing procedure of the
まず、映像編集装置10の受信処理部120は、チューナー2等から映像コンテンツと視聴者の映像(視聴者映像)を受信する(S1)。そして、録画部121は、S1で受信した映像コンテンツと視聴者映像の録画を開始する(S2)。次に、録画部121が、映像コンテンツと視聴者映像の録画を停止する(S3)。その後、映像編集装置10の入出力部11経由で映像コンテンツの編集指示(編集映像の作成指示)の入力を受け付けると(S4)、編集部123は、映像コンテンツの編集を開始する。すなわち、まず、編集部123の特徴行動検出部124は、録画した視聴者映像から視聴者の特徴的行動を検出する(S5)。そして、特徴行動検出部124は、特徴的行動の時刻のリストを作成する(S6)。つまり、特徴行動検出部124は、視聴者映像から特徴的行動を検出した箇所の時刻を示したリストを作成する。
First, the
S6の後、映像特定部125は、記憶部13から映像コンテンツ(視聴者が視聴したコンテンツ)を取得する(S7)。そして、映像特定部125は、S6で作成されたリストに示される各時刻に対応する映像コンテンツの場所(例えば、映像コンテンツの録画開始からの経過時刻)を特定する(S8)。次に、映像抽出部126は、S8で特定された映像コンテンツの場所の前後の部分映像を所定時間分抽出する(S9)。そして、編集映像作成部127は、S9で抽出された部分映像を時系列につなぎ合わせて編集映像を作成する(S10)。
After S6, the
このようにすることで、映像編集装置10は、映像コンテンツの視聴者が特徴的な行動をとった箇所をまとめた編集映像を作成することができる。
By doing in this way, the
次に、図4〜図7を用いて、映像編集装置10の制御部の処理の詳細を、具体例をまじえながら説明する。図4は、図2の特徴行動検出部の処理の詳細を説明する図である。図5は、図2の映像特定部の処理の詳細を説明する図である。図6は、図2の映像抽出部の処理の詳細を説明する図である。図7は、図2の編集映像作成部の処理の詳細を説明する図である。
Next, details of processing performed by the control unit of the
まず、映像編集装置10の特徴行動検出部124は、視聴者映像の録画開始時刻から、設定された時間間隔で静止画像を取り出す(図4のS11)。そして、特徴行動検出部124は、視聴者映像の最後の静止画像か否かを判定し(S12)、最後の静止画像であれば(S12で「最後」)、図5のS21へ進み、最後の静止画像でなければ(S12で「最後ではない」)、取り出した画像の前後の2つの静止画像を比較し、画像の変化が設定された閾値以上か否かを判定する(S13)。ここで、特徴行動検出部124が、取り出した画像の変化が設定された閾値以上であると判定した場合(S13で「閾値以上」)、2つの静止画像の中間の時刻をリストに載せ(S14)、S11へ戻る。また、S13において、特徴行動検出部124が前後2つの静止画像を比較し、画像の変化が所定の閾値未満と判定した場合(S13で「閾値未満」)も、S11へ戻る。
First, the characteristic
特徴行動検出部124が、上記の処理を繰り返すことで、例えば、視聴者の特徴的行動が検出された時刻を示すリスト401を作る。図4に示すリスト401において、Action1は、A1時A2分A3秒に検出され、Action2は、B1時B2分B3秒に検出されたことを示す。
The characteristic
図5の説明に移る。特徴行動検出部124が、図4のS11で取り出した静止画像は最後の静止画像と判定したとき(S12で「最後」)、映像特定部125は、各時刻を載せたリストを読み出し、読み出していない項目がまだあるか否かを判定する(S21)。ここで、映像特定部125は、リストに読み出していない項目がないと判定したとき(S21で「なし」)、図6のS31へ進み、リストに読み出していない項目がまだあると判定したとき(S21で「まだある」)、リストの1項目(まだ読み出していない項目群のうち1項目)を読み出し、項目の時刻に対応する映像コンテンツの部分をマークする(S22)。そして、S21へ戻る。
Turning to the description of FIG. When the characteristic
映像特定部125が、上記の処理を繰り返すことで、例えば、図5の符合401に示すリストの各時刻(Action1の時刻、Action2の時刻、Action3の時刻)が符号501に示す映像コンテンツの録画開始時刻から録画停止時刻までの間にマークされ、符号502に示す状態になる。
The
図6の説明に移る。図5のS21で、リストに読み出していない項目がないと判定されたとき(S21で「なし」)、映像抽出部126は、映像コンテンツのマークを読み出し、まだ読み出していないマークがあるか否かを判定する(図6のS31)。ここで、映像抽出部126が、まだ読み出していないマークがあると判定したとき(S31で「まだある」)、読み出していないマークの1項目を読み出し、マーク前後の部分映像を所定時間分抽出する(S32)。その後、S31へ戻り、映像抽出部126において、映像コンテンツ中、読み出していないマークがないと判定すると(S31で「なし」)、図7のS41へ進む。
Turning to the description of FIG. When it is determined in S21 of FIG. 5 that there is no item that has not been read in the list (“None” in S21), the
映像抽出部126が、上記の処理を繰り返すことで、例えば、図6の符号601に示すように、映像コンテンツのマーク(Action1の時刻、Action2の時刻、Action3の時刻)それぞれの前後の部分映像(部分映像1,2,3)が所定時間分抽出され、記憶部13に個別に保存される。
The
図7の説明に移る。編集映像作成部127は、図6のS32で抽出された部分映像を読み出し、まだ読み出していない部分映像があるか否かを判定する(図7のS41)。ここで、編集映像作成部127が、まだ読み出していない部分映像があると判定したとき(S41で「まだある」)、読み出した部分映像のうち、先の部分映像に後の部分映像をつなぎ合わせる(S42)。つまり、編集映像作成部127は、映像コンテンツから切り出した部分映像を時系列につなぎ合わせる。そして、S41へ戻る。一方、編集映像作成部127が読み出していない部分映像はないと判定したとき(S41で「なし」)、つなぎ合わせた映像を編集映像として記憶部13に保存する(S43)。
Turning to the description of FIG. The edited
編集映像作成部127が上記の処理を繰り返すことで、例えば、図7の符号701に示すように、映像コンテンツ中、Action1の時刻、Action2の時刻、Action3の時刻それぞれに対応する部分映像(部分映像1〜3)をつなぎ合わせた編集映像が作成される。なお、この編集映像は、符号701に例示するように各部分映像が、どの時刻にどのような行動をとったときのものかを示すメタデータを含んでいてもよい。
When the edited
上記の映像編集装置10によれば、映像コンテンツ中、映像コンテンツの視聴者が特徴的な行動をとった箇所の編集映像を作成することができる。例えば、映像編集装置10は、視聴者が視聴した映像コンテンツのうち、特に感動した箇所や、面白かった箇所のダイジェスト版を作成できる。
According to the
(その他の実施形態)
なお、映像コンテンツは、テレビ番組等の放送番組である場合を例に説明したが、これに限定されない。例えば、映像コンテンツは、予め録画された映像コンテンツであってもよい。この場合、映像編集装置10の再生部122は、記憶部13に予め記憶(録画)された映像コンテンツを表示装置3に出力する。そして、カメラ1は、その再生された映像コンテンツを視聴している視聴者の様子を撮影し、映像編集装置10に出力する。
(Other embodiments)
The video content has been described as an example of a broadcast program such as a television program, but is not limited thereto. For example, the video content may be video content recorded in advance. In this case, the
また、映像編集装置10は、映像コンテンツ中、視聴者が特徴的な行動をとった箇所にマークを入れた後、映像コンテンツの編集映像を作成することとしたが、これに限定されない。例えば、映像編集装置10が、映像コンテンツ中、視聴者が特徴的な行動をとった箇所にマークを入れた状態で、記憶部13に記憶しておく。つまり、映像編集装置10は、映像コンテンツにおいて、特徴的な行動をとった箇所にチャプターマークを挿入する。そして、視聴者等から、映像編集装置10に対し、録画された映像コンテンツの再生指示があった場合、そのマークがあった箇所を検出し、この箇所にジャンプして再生できるようにしてもよい。つまり、映像編集装置10に、チャプターマークを指定した映像コンテンツの再生指示が入力されたとき、再生部122は、映像コンテンツ中、チャプターマークの挿入された箇所以降の映像を表示装置3へ出力する。さらに、特徴行動検出部124は、映像コンテンツ中、マークを入れた箇所に特徴的な行動の概要等を示すメタ情報を付加してもよい。このようにすることで、映像編集装置10の利用者(例えば、視聴者)は、映像コンテンツ中、視聴者がどのような行動をとった箇所を再生させたいか指示しやすくなる。
Moreover, although the
また、特徴行動検出部124が、視聴者映像から変化を検出する領域は、視聴者映像のすべての領域ではなく、所定の領域(例えば、視聴者の顔、手、足の領域)であってもよい。このようにすることで、特徴行動検出部124は、視聴者の特徴的な行動を精度よく検出することができる。
In addition, the area in which the characteristic
また、特徴行動検出部124は、視聴者映像における視聴者の映像および音声のいずれか、または、これらの組み合わせについて、所定の閾値以上の変化があったときに特徴的な行動を検出するようにしてもよい。このようにすることでも、特徴行動検出部124は、視聴者の特徴的な行動を精度よく検出することができる。
In addition, the characteristic
また、特徴行動検出部124は、特徴的な行動の動きを示すパターンを記憶部13に記憶しておき、視聴者映像に、このパターンに該当する動きがあったとき、特徴的な行動を検出するようにしてもよい。
In addition, the characteristic
また、特徴行動検出部124が、視聴者映像から特徴的な行動を検出する領域や映像、音声の閾値、動きのパターンについては、映像編集装置10に特徴行動設定情報として記憶部13に設定しておき、映像編集装置10の利用者(例えば、視聴者)が書き換え可能としてもよい。このようにすることで、映像編集装置10の利用者(例えば、視聴者等)は、特徴的な行動の検出を、利用者が所望するような行動に設定することができる。
In addition, the characteristic
なお、前記した実施形態において、映像コンテンツの録画開始と、視聴者映像の撮影開始とは同時である場合を例に説明したが、これに限定されない。例えば、映像コンテンツの録画開始時刻と、視聴者映像の撮影開始時刻とにずれがある場合、映像特定部125は、この開始時刻のずれを考慮して、特徴行動検出部124により作成されたリストに示される各時刻に対応する映像コンテンツの場所を特定する。
In the embodiment described above, the case where the start of video content recording and the start of viewer video shooting is described as an example. However, the present invention is not limited to this. For example, when there is a difference between the recording start time of the video content and the shooting start time of the viewer video, the
(プログラム)
また、上記実施形態に係る映像編集装置10が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。以下に、映像編集装置10と同様の機能を実現する映像編集プログラムを実行するコンピュータの一例を説明する。
(program)
It is also possible to create a program in which the processing executed by the
図8は、映像編集プログラムを実行するコンピュータを示す図である。図8に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
FIG. 8 is a diagram illustrating a computer that executes a video editing program. As illustrated in FIG. 8, the
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
The
ここで、図8に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各テーブルは、例えばハードディスクドライブ1090やメモリ1010に記憶される。
Here, as shown in FIG. 8, the hard disk drive 1090 stores, for example, an
また、映像編集プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、ハードディスクドライブ1090に記憶される。具体的には、上記実施形態で説明した映像編集装置10が実行する各処理が記述されたプログラムモジュールが、ハードディスクドライブ1090に記憶される。
Further, the video editing program is stored in the hard disk drive 1090 as a program module in which a command executed by the
また、映像編集プログラムによる情報処理に用いられるデータは、プログラムデータとして、例えば、ハードディスクドライブ1090に記憶される。そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
Data used for information processing by the video editing program is stored as program data, for example, in the hard disk drive 1090. Then, the
なお、映像編集プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、映像編集プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
The
2 チューナー
3 表示装置
10 映像編集装置
11 入出力部
12 制御部
13 記憶部
120 受信処理部
121 録画部
122 再生部
123 編集部
124 特徴行動検出部
125 映像特定部
126 映像抽出部
127 編集映像作成部
2
Claims (4)
前記映像コンテンツのうち、前記特徴的な行動を検出した前記視聴者映像の撮影時刻に対応する箇所を記録する映像特定部と、
前記特徴的な行動が検出された前記視聴者映像の撮影時刻に対応する箇所から所定範囲の時間帯の映像データを、前記映像コンテンツから抽出する映像抽出部と、
前記抽出された映像データを時系列につなぎ合わせた編集映像を作成する編集映像作成部と、
を備えることを特徴とする映像編集装置。 A characteristic behavior detection unit for detecting a characteristic behavior of the viewer from a viewer video obtained by photographing the viewer when viewing video content;
A video specifying unit for recording a portion corresponding to a shooting time of the viewer video in which the characteristic behavior is detected in the video content;
A video extraction unit that extracts video data of a predetermined time range from a location corresponding to a shooting time of the viewer video in which the characteristic behavior is detected, from the video content;
An edited video creation unit that creates an edited video by linking the extracted video data in time series;
A video editing apparatus comprising:
前記特徴行動検出部は、
前記画像および音声の少なくともいずれか一方に、所定量の変化があったときに特徴的な行動を検出することを特徴とする請求項1に記載の映像編集装置。 The viewer video includes an image of the viewer and the audio of the viewer,
The characteristic behavior detection unit
The video editing apparatus according to claim 1, wherein a characteristic action is detected when a predetermined amount of change occurs in at least one of the image and the sound.
前記映像コンテンツのうち、前記特徴的な行動を検出した前記視聴者映像の撮影時刻に対応する箇所を記録するステップと、
前記特徴的な行動が検出された前記視聴者映像の撮影時刻に対応する箇所から所定範囲の時間帯の映像データを、前記映像コンテンツから抽出するステップと、
前記抽出された映像データを時系列につなぎ合わせた編集映像を作成するステップと、
を映像編集装置が実行することを特徴とする映像編集方法。 Detecting a characteristic behavior of the viewer from a viewer video of the viewer when viewing the video content;
A step of recording a portion corresponding to a shooting time of the viewer video in which the characteristic behavior is detected in the video content;
Extracting video data of a predetermined time range from the video content from a location corresponding to a shooting time of the viewer video in which the characteristic behavior is detected;
Creating an edited video in which the extracted video data is connected in time series; and
A video editing method, wherein the video editing apparatus executes the above.
前記映像コンテンツのうち、前記特徴的な行動を検出した前記視聴者映像の撮影時刻に対応する箇所を記録するステップと、
前記特徴的な行動が検出された前記視聴者映像の撮影時刻に対応する箇所から所定範囲の時間帯の映像データを、前記映像コンテンツから抽出するステップと、
前記抽出された映像データを時系列につなぎ合わせた編集映像を作成するステップと、
をコンピュータに実行させることを特徴とする映像編集プログラム。 Detecting a characteristic behavior of the viewer from a viewer video of the viewer when viewing the video content;
A step of recording a portion corresponding to a shooting time of the viewer video in which the characteristic behavior is detected in the video content;
Extracting video data of a predetermined time range from the video content from a location corresponding to a shooting time of the viewer video in which the characteristic behavior is detected;
Creating an edited video in which the extracted video data is connected in time series; and
A video editing program characterized by causing a computer to execute.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013218543A JP2015082691A (en) | 2013-10-21 | 2013-10-21 | Video editing device, video editing method, and video editing program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013218543A JP2015082691A (en) | 2013-10-21 | 2013-10-21 | Video editing device, video editing method, and video editing program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2015082691A true JP2015082691A (en) | 2015-04-27 |
Family
ID=53013110
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013218543A Pending JP2015082691A (en) | 2013-10-21 | 2013-10-21 | Video editing device, video editing method, and video editing program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2015082691A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020126645A (en) * | 2019-01-31 | 2020-08-20 | 株式会社ジオネクサス | Information processing method, terminal device, and information processing device |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006157893A (en) * | 2004-10-27 | 2006-06-15 | Matsushita Electric Ind Co Ltd | Imaging device |
| JP2012074773A (en) * | 2010-09-27 | 2012-04-12 | Nec Personal Computers Ltd | Editing device, control method, and program |
| JP2013070155A (en) * | 2011-09-21 | 2013-04-18 | Nec Casio Mobile Communications Ltd | Moving image scoring system, server device, moving image scoring method, and moving image scoring program |
-
2013
- 2013-10-21 JP JP2013218543A patent/JP2015082691A/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006157893A (en) * | 2004-10-27 | 2006-06-15 | Matsushita Electric Ind Co Ltd | Imaging device |
| JP2012074773A (en) * | 2010-09-27 | 2012-04-12 | Nec Personal Computers Ltd | Editing device, control method, and program |
| JP2013070155A (en) * | 2011-09-21 | 2013-04-18 | Nec Casio Mobile Communications Ltd | Moving image scoring system, server device, moving image scoring method, and moving image scoring program |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020126645A (en) * | 2019-01-31 | 2020-08-20 | 株式会社ジオネクサス | Information processing method, terminal device, and information processing device |
| JP7440020B2 (en) | 2019-01-31 | 2024-02-28 | 株式会社センシング | Information processing method, terminal device, information processing device, and information processing system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR100827846B1 (en) | Method and system to search for specific person included in video and play from desired point of view | |
| KR102290419B1 (en) | Method and Appratus For Creating Photo Story based on Visual Context Analysis of Digital Contents | |
| US9881215B2 (en) | Apparatus and method for identifying a still image contained in moving image contents | |
| US7483624B2 (en) | System and method for indexing a video sequence | |
| US9324374B2 (en) | Method and system for automatic generation of clips from a plurality of images based on an inter-objects relationship score | |
| US9986218B2 (en) | Electronic apparatus, method of changing a moving image data section, and program | |
| CN107888988A (en) | Video editing method and electronic equipment | |
| JP3615195B2 (en) | Content recording / playback apparatus and content editing method | |
| JP2011217209A (en) | Electronic apparatus, content recommendation method, and program | |
| US20140355961A1 (en) | Using simple touch input to create complex video animation | |
| CN103026704B (en) | Information processor, information processing method and integrated circuit | |
| US20180204597A1 (en) | Method and system for generation of a variant video production from an edited video production | |
| CN103686374A (en) | Display control device, recording control device, and display control method | |
| JP2015082692A (en) | Video editing apparatus, video editing method, and video editing program | |
| GB2520041A (en) | Automated multimedia content editing | |
| CN106162222B (en) | A kind of method and device of video lens cutting | |
| US20110064384A1 (en) | Reproduction control apparatus, reproduction control method, and program | |
| JP2012221322A (en) | Authoring support device and authoring support method and program | |
| JP2015082691A (en) | Video editing device, video editing method, and video editing program | |
| KR20150093480A (en) | Device and method for extracting video using realization of facial expression | |
| WO2014103374A1 (en) | Information management device, server and control method | |
| KR20130104027A (en) | Video playing method and video player | |
| US10474743B2 (en) | Method for presenting notifications when annotations are received from a remote device | |
| KR101716109B1 (en) | Method for time synchronization of a plurality of images and system displaying multi-images | |
| KR102202099B1 (en) | Video management method for minimizing storage space and user device for performing the same |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20151001 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20151005 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151221 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161122 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161227 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170516 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170627 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20171205 |