[go: up one dir, main page]

JP2015082691A - Video editing device, video editing method, and video editing program - Google Patents

Video editing device, video editing method, and video editing program Download PDF

Info

Publication number
JP2015082691A
JP2015082691A JP2013218543A JP2013218543A JP2015082691A JP 2015082691 A JP2015082691 A JP 2015082691A JP 2013218543 A JP2013218543 A JP 2013218543A JP 2013218543 A JP2013218543 A JP 2013218543A JP 2015082691 A JP2015082691 A JP 2015082691A
Authority
JP
Japan
Prior art keywords
video
viewer
unit
characteristic behavior
video content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013218543A
Other languages
Japanese (ja)
Inventor
勝 真田
Masaru Sanada
勝 真田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013218543A priority Critical patent/JP2015082691A/en
Publication of JP2015082691A publication Critical patent/JP2015082691A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

PROBLEM TO BE SOLVED: To edit video in consideration of condition on a viewer who is viewing a video.SOLUTION: A video editing device 10 records recording time of a point in which a viewer takes distinctive action from a viewer video which shows condition of the viewer who is viewing a video content. Then, the video editing device 10 extracts video image data of a time zone of a predetermined range from the point corresponding to the recording time when the distinctive action is taken from the video content. And then, the video editing device 10 prepares an edited video in which the extracted video image data is connected in time series.

Description

本発明は、映像編集装置、映像編集方法、および、映像編集プログラムに関する。   The present invention relates to a video editing apparatus, a video editing method, and a video editing program.

従来、映像コンテンツ等のダイジェスト映像を作成する技術が提案されている。特許文献1には、映像コンテンツ中、登場人物等の感情(悲しい、楽しい)の表出があった箇所を抽出し、ダイジェスト映像を作成する技術が開示されている。   Conventionally, a technique for creating a digest video such as video content has been proposed. Patent Document 1 discloses a technique for extracting a portion where emotion (sad, fun) such as a character is expressed in video content and creating a digest video.

特開2009−111938号公報JP 2009-1111938 A

しかし、前記した技術により作成されたダイジェスト映像は、映像コンテンツの登場人物の感情の表出があった箇所を抽出したものに過ぎない。つまり、映像の視聴者側の状態は考慮されていない。そこで、本発明は、前記した問題を解決し、映像の視聴者側の状態を考慮して映像の編集を行うことを課題とする。   However, the digest video created by the above-described technique is merely an extracted portion where the emotion of the character in the video content is expressed. That is, the state on the viewer side of the video is not taken into consideration. SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to solve the above-described problems and to edit a video in consideration of the state on the viewer side of the video.

前記した課題を解決するため、本発明は、映像コンテンツを視聴しているときの視聴者を撮影した視聴者映像から前記視聴者の特徴的な行動を検出する特徴行動検出部と、前記映像コンテンツのうち、前記特徴的な行動を検出した前記視聴者映像の撮影時刻に対応する箇所を記録する映像特定部と、前記特徴的な行動が検出された前記視聴者映像の撮影時刻に対応する箇所から所定範囲の時間帯の映像データを、前記映像コンテンツから抽出する映像抽出部と、前記抽出された映像データを時系列につなぎ合わせた編集映像を作成する編集映像作成部と、を備えることを特徴とする映像編集装置とした。   In order to solve the above-described problems, the present invention provides a characteristic behavior detection unit that detects a characteristic behavior of the viewer from a viewer video obtained by capturing the viewer when viewing the video content, and the video content A video identification unit for recording a location corresponding to the shooting time of the viewer video where the characteristic behavior is detected, and a location corresponding to the shooting time of the viewer video where the characteristic behavior is detected A video extracting unit that extracts video data in a predetermined time period from the video content, and an edited video creating unit that creates an edited video by linking the extracted video data in time series. The featured video editing device.

本発明によれば、視聴者側の状態を考慮した映像の編集を行うことができる。   According to the present invention, it is possible to edit a video in consideration of the state on the viewer side.

図1は、本実施形態の概要を説明する図である。FIG. 1 is a diagram for explaining the outline of the present embodiment. 図2は、図1の映像編集装置を含むシステムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of a system including the video editing apparatus of FIG. 図3は、図2の映像編集装置の処理手順を示すフローチャートである。FIG. 3 is a flowchart showing a processing procedure of the video editing apparatus of FIG. 図4は、図2の特徴行動検出部の処理の詳細を説明する図である。FIG. 4 is a diagram for explaining the details of the processing of the characteristic behavior detection unit of FIG. 図5は、図2の映像特定部の処理の詳細を説明する図である。FIG. 5 is a diagram for explaining the details of the processing of the video specifying unit in FIG. 図6は、図2の映像抽出部の処理の詳細を説明する図である。FIG. 6 is a diagram for explaining the details of the processing of the video extraction unit in FIG. 図7は、図2の編集映像作成部の処理の詳細を説明する図である。FIG. 7 is a diagram for explaining the details of the processing of the edited video creation unit in FIG. 図8は、映像編集プログラムを実行するコンピュータを示す図である。FIG. 8 is a diagram illustrating a computer that executes a video editing program.

(概要)
以下、図面を参照しながら、本発明の実施形態を説明する。まず、本実施形態の概要を説明する。図1は、本実施形態の概要を説明する図である。ここでは、映像コンテンツがテレビ番組であり、テレビ番組の受像機は、映像編集装置10の外部に設置される場合について説明する。また、映像編集装置10は、外部に設置されるカメラ(撮影装置)により映像コンテンツを視聴する視聴者の様子を撮影する場合について説明する。なお、ここでは映像コンテンツの録画と、当該映像コンテンツの視聴者の様子を収めた映像の撮影とは同時に開始される場合を例に説明する。以下に、映像編集装置10の処理の概要を説明する。
(Overview)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, an outline of the present embodiment will be described. FIG. 1 is a diagram for explaining the outline of the present embodiment. Here, a case where the video content is a television program and the television program receiver is installed outside the video editing apparatus 10 will be described. The video editing apparatus 10 will be described with respect to a case where a viewer who views video content is photographed by an external camera (photographing apparatus). Here, a case will be described as an example where the recording of the video content and the shooting of the video including the state of the viewer of the video content are started simultaneously. Below, the outline | summary of the process of the video editing apparatus 10 is demonstrated.

図1に示すように、
(1)まず、視聴者がテレビ番組の視聴を開始すると同時に、映像編集装置10は、テレビ番組の映像と視聴者の映像を録画する。
(2)映像編集装置10は、視聴者の映像から、視聴者の特徴的な行動を検出し、検出時の時刻のリストを作成する。
(3)映像編集装置10は、リストに基づき、リストの各時刻に対応するテレビ番組の映像を特定し、その時刻の前後所定範囲の映像を抽出する。
(4)映像編集装置10は、抽出した複数の映像をつなぎ合わせ、録画したテレビ映像の編集映像(要約コンテンツ)を作成する。
As shown in FIG.
(1) First, at the same time that the viewer starts watching the television program, the video editing apparatus 10 records the video of the television program and the video of the viewer.
(2) The video editing apparatus 10 detects a viewer's characteristic behavior from the viewer's video and creates a list of times at the time of detection.
(3) Based on the list, the video editing apparatus 10 identifies a video of a television program corresponding to each time in the list, and extracts a video in a predetermined range before and after that time.
(4) The video editing apparatus 10 joins the plurality of extracted videos to create an edited video (summary content) of the recorded television video.

このようにすることで、映像編集装置10は、視聴者の行動に基づき、映像コンテンツの編集映像を作成することができる。例えば、映像コンテンツの視聴者が、笑ったり、手や足を動かしたりする等の行動(アクション)を起こしたとき、映像編集装置10は、その行動を起こしたときの部分映像を時系列につなぎ合わせた編集映像を作成する。これにより、例えば、視聴者が面白いと思ったり、感情を揺さぶられたりした箇所をまとめた編集映像を作成することができる。   By doing in this way, the video editing apparatus 10 can create an edited video of video content based on the behavior of the viewer. For example, when the viewer of the video content takes an action (action) such as laughing or moving a hand or a foot, the video editing apparatus 10 connects the partial videos when the action is taken in time series. Create a combined edited video. Thereby, for example, it is possible to create an edited video in which portions that the viewer thinks are interesting or emotions are shaken.

(構成)
次に、図2を用いて、映像編集装置10の構成を説明する。図2は、図1の映像編集装置を含むシステムの構成例を示す図である。なお、ここでは映像コンテンツの受像機としてチューナー2を用いる場合を例に説明する。
(Constitution)
Next, the configuration of the video editing apparatus 10 will be described with reference to FIG. FIG. 2 is a diagram illustrating a configuration example of a system including the video editing apparatus of FIG. Here, a case where the tuner 2 is used as a video content receiver will be described as an example.

図2に示すように、システムは、カメラ(撮影装置)1、チューナー2、表示装置(出力装置)3、映像編集装置10を備える。   As shown in FIG. 2, the system includes a camera (photographing device) 1, a tuner 2, a display device (output device) 3, and a video editing device 10.

カメラ1は、映像コンテンツを視聴している視聴者の様子を撮影する。このカメラ1は、視聴者の映像のみならず、視聴者の音声を収録する機能を備えていてもよい。そして、カメラ1は、撮影した視聴者の映像を映像編集装置10へ出力する。   The camera 1 captures the state of the viewer who is viewing the video content. The camera 1 may have a function of recording not only the viewer's video but also the viewer's voice. Then, the camera 1 outputs the captured video of the viewer to the video editing device 10.

チューナー2は、テレビ番組等の映像コンテンツを受信し、映像編集装置10へ出力する。   The tuner 2 receives video content such as a TV program and outputs it to the video editing device 10.

表示装置3は、映像編集装置10から出力された映像や音声を出力する。この表示装置3は、例えば、映像コンテンツや、視聴者の映像、編集映像等を表示する。   The display device 3 outputs the video and audio output from the video editing device 10. The display device 3 displays, for example, video content, viewer video, edited video, and the like.

映像編集装置10は、入出力部11、制御部12、記憶部13を備える。   The video editing apparatus 10 includes an input / output unit 11, a control unit 12, and a storage unit 13.

入出力部11は、カメラ1、チューナー2、表示装置3等との間の入出力インタフェースを司る。この入出力部11は、インターネット等のネットワーク経由で通信を行うための通信インタフェースの機能を備えていてもよい。   The input / output unit 11 controls an input / output interface with the camera 1, the tuner 2, the display device 3, and the like. The input / output unit 11 may have a communication interface function for performing communication via a network such as the Internet.

制御部12は、映像編集装置10全体の制御を司る。この制御部12は、受信処理部120、録画部121、再生部122、編集部123を備える。   The control unit 12 controls the entire video editing apparatus 10. The control unit 12 includes a reception processing unit 120, a recording unit 121, a playback unit 122, and an editing unit 123.

受信処理部120は、外部装置からのデータの受信を行う。例えば、受信処理部120は、カメラ1からの視聴者の映像や、チューナー2からの映像コンテンツの受信を行う。   The reception processing unit 120 receives data from an external device. For example, the reception processing unit 120 receives a viewer's video from the camera 1 and video content from the tuner 2.

録画部121は、受信処理部120で受信したデータを記憶部13に記憶する。例えば、録画部121は、受信処理部120で受信した視聴者の映像や映像コンテンツを記憶部13の所定領域に記憶する。   The recording unit 121 stores the data received by the reception processing unit 120 in the storage unit 13. For example, the recording unit 121 stores the viewer's video and video content received by the reception processing unit 120 in a predetermined area of the storage unit 13.

再生部122は、記憶部13に記憶された情報を入出力部11経由で表示装置3へ出力する。例えば、再生部122は、入出力部11からの指示入力に基づき、記憶部13の映像コンテンツや、視聴者の映像、編集映像等を表示装置3へ出力する。   The reproduction unit 122 outputs the information stored in the storage unit 13 to the display device 3 via the input / output unit 11. For example, the playback unit 122 outputs video content in the storage unit 13, viewer video, edited video, and the like to the display device 3 based on an instruction input from the input / output unit 11.

編集部123は、記憶部13に記憶された映像コンテンツと、その映像コンテンツを視聴している視聴者の映像とを用いて、編集映像を作成する。具体的には、編集部123は、視聴者の映像から、視聴者の特徴的な行動を検出すると、その行動を検出した時刻における映像コンテンツの部分映像を抽出する。そして、編集部123は、抽出した部分映像をつなぎ合わせて編集映像を作成する。   The editing unit 123 creates an edited video using the video content stored in the storage unit 13 and the video of the viewer who is viewing the video content. Specifically, when the editing unit 123 detects a viewer's characteristic behavior from the viewer's video, the editing unit 123 extracts a partial video of the video content at the time when the behavior is detected. Then, the editing unit 123 connects the extracted partial videos to create an edited video.

この編集部123は、特徴行動検出部124、映像特定部125、映像抽出部126、編集映像作成部127を備える。   The editing unit 123 includes a feature behavior detecting unit 124, a video specifying unit 125, a video extracting unit 126, and an edited video creating unit 127.

特徴行動検出部124は、記憶部13に記憶された視聴者の映像(視聴者映像)から視聴者の特徴的な行動を検出する。そして、特徴行動検出部124は、特徴的な行動を検出した視聴者映像の撮影時刻を記録する。例えば、特徴行動検出部124は、特徴的な行動を検出した視聴者映像の撮影時刻や、視聴者映像の撮影開始からの経過時刻の一覧を示したリストを作成する。ここでの特徴的な行動とは、例えば、視聴者が手や足を動かす、視聴者が顔の表情を変える等である。この特徴行動検出部124による特徴的な行動の検出の詳細は、具体例をまじえながら後記する。   The characteristic behavior detection unit 124 detects the viewer's characteristic behavior from the viewer's video (viewer video) stored in the storage unit 13. Then, the characteristic behavior detection unit 124 records the shooting time of the viewer video in which the characteristic behavior is detected. For example, the characteristic behavior detection unit 124 creates a list that shows a list of viewer video shooting times at which characteristic behavior is detected, and an elapsed time from the start of viewer video shooting. The characteristic behavior here is, for example, that the viewer moves hands or feet, or the viewer changes facial expressions. Details of detection of characteristic behavior by the characteristic behavior detection unit 124 will be described later with specific examples.

映像特定部125は、特徴行動検出部124により特徴的な行動が検出された視聴者映像の撮影時刻(または視聴者映像の撮影開始からの経過時刻)に対応する映像コンテンツの場所を特定する。例えば、リストに示される時刻が視聴者の特徴的な行動を検出した視聴者映像の撮影時刻である場合、映像特定部125は、リストに示された視聴者映像の撮影時刻に相当する、映像コンテンツの場所(例えば、映像コンテンツの録画開始からの経過時間等)を特定する。   The video specifying unit 125 specifies the location of the video content corresponding to the shooting time of the viewer video (or the elapsed time from the start of shooting the viewer video) at which the characteristic behavior is detected by the characteristic behavior detection unit 124. For example, when the time shown in the list is the shooting time of the viewer video when the viewer's characteristic behavior is detected, the video specifying unit 125 corresponds to the video shooting time of the viewer video shown in the list. The location of the content (for example, the elapsed time from the start of video content recording) is specified.

映像抽出部126は、映像特定部125により特定された映像コンテンツの場所ごとに、前後所定範囲の時間帯の映像を抽出する。   The video extraction unit 126 extracts videos in a predetermined time range before and after each video content location specified by the video specification unit 125.

編集映像作成部127は、映像抽出部126により抽出された映像を時系列につなぎ合わせた編集映像を作成し、記憶部13に記憶する。なお、作成された編集映像は、入出力部11経由で、表示装置3等へ出力してもよい。   The edited video creation unit 127 creates an edited video by linking the video extracted by the video extraction unit 126 in time series, and stores the edited video in the storage unit 13. The created edited video may be output to the display device 3 or the like via the input / output unit 11.

記憶部13は、制御部12により出力されたデータを記憶する。例えば、記憶部13は、所定領域に、制御部12から出力された映像コンテンツ、視聴者の映像、編集映像等を記憶する。   The storage unit 13 stores the data output from the control unit 12. For example, the storage unit 13 stores video content output from the control unit 12, viewer video, edited video, and the like in a predetermined area.

なお、映像編集装置10には、映像コンテンツや視聴者の映像の受信や記録(録画)の開始や終了、編集映像の作成指示等の入力を受け付ける入力装置が接続されていてもよい。   Note that the video editing apparatus 10 may be connected to an input device that receives inputs such as reception and recording (recording) of video content and viewer video, and instructions for creating edited video.

(処理手順)
次に、図3を用いて映像編集装置10の処理手順を説明する。図3は、図2の映像編集装置の処理手順を示すフローチャートである。
(Processing procedure)
Next, the processing procedure of the video editing apparatus 10 will be described with reference to FIG. FIG. 3 is a flowchart showing a processing procedure of the video editing apparatus of FIG.

まず、映像編集装置10の受信処理部120は、チューナー2等から映像コンテンツと視聴者の映像(視聴者映像)を受信する(S1)。そして、録画部121は、S1で受信した映像コンテンツと視聴者映像の録画を開始する(S2)。次に、録画部121が、映像コンテンツと視聴者映像の録画を停止する(S3)。その後、映像編集装置10の入出力部11経由で映像コンテンツの編集指示(編集映像の作成指示)の入力を受け付けると(S4)、編集部123は、映像コンテンツの編集を開始する。すなわち、まず、編集部123の特徴行動検出部124は、録画した視聴者映像から視聴者の特徴的行動を検出する(S5)。そして、特徴行動検出部124は、特徴的行動の時刻のリストを作成する(S6)。つまり、特徴行動検出部124は、視聴者映像から特徴的行動を検出した箇所の時刻を示したリストを作成する。   First, the reception processing unit 120 of the video editing apparatus 10 receives video content and a viewer's video (viewer video) from the tuner 2 or the like (S1). Then, the recording unit 121 starts recording the video content and viewer video received in S1 (S2). Next, the recording unit 121 stops recording the video content and the viewer video (S3). Thereafter, upon receiving an input of a video content editing instruction (edited video creation instruction) via the input / output unit 11 of the video editing apparatus 10 (S4), the editing unit 123 starts editing the video content. That is, first, the characteristic behavior detection unit 124 of the editing unit 123 detects the characteristic behavior of the viewer from the recorded viewer video (S5). Then, the characteristic behavior detection unit 124 creates a list of characteristic behavior times (S6). That is, the characteristic behavior detection unit 124 creates a list indicating the times at which the characteristic behavior is detected from the viewer video.

S6の後、映像特定部125は、記憶部13から映像コンテンツ(視聴者が視聴したコンテンツ)を取得する(S7)。そして、映像特定部125は、S6で作成されたリストに示される各時刻に対応する映像コンテンツの場所(例えば、映像コンテンツの録画開始からの経過時刻)を特定する(S8)。次に、映像抽出部126は、S8で特定された映像コンテンツの場所の前後の部分映像を所定時間分抽出する(S9)。そして、編集映像作成部127は、S9で抽出された部分映像を時系列につなぎ合わせて編集映像を作成する(S10)。   After S6, the video identification unit 125 acquires video content (content viewed by the viewer) from the storage unit 13 (S7). Then, the video identification unit 125 identifies the location of the video content corresponding to each time indicated in the list created in S6 (for example, the elapsed time from the start of video content recording) (S8). Next, the video extraction unit 126 extracts partial videos before and after the location of the video content specified in S8 for a predetermined time (S9). Then, the edited video creation unit 127 joins the partial videos extracted in S9 in time series to create an edited video (S10).

このようにすることで、映像編集装置10は、映像コンテンツの視聴者が特徴的な行動をとった箇所をまとめた編集映像を作成することができる。   By doing in this way, the video editing apparatus 10 can create an edited video in which portions where the viewer of the video content has taken a characteristic action are collected.

次に、図4〜図7を用いて、映像編集装置10の制御部の処理の詳細を、具体例をまじえながら説明する。図4は、図2の特徴行動検出部の処理の詳細を説明する図である。図5は、図2の映像特定部の処理の詳細を説明する図である。図6は、図2の映像抽出部の処理の詳細を説明する図である。図7は、図2の編集映像作成部の処理の詳細を説明する図である。   Next, details of processing performed by the control unit of the video editing apparatus 10 will be described with reference to specific examples with reference to FIGS. FIG. 4 is a diagram for explaining the details of the processing of the characteristic behavior detection unit of FIG. FIG. 5 is a diagram for explaining the details of the processing of the video specifying unit in FIG. FIG. 6 is a diagram for explaining the details of the processing of the video extraction unit in FIG. FIG. 7 is a diagram for explaining the details of the processing of the edited video creation unit in FIG.

まず、映像編集装置10の特徴行動検出部124は、視聴者映像の録画開始時刻から、設定された時間間隔で静止画像を取り出す(図4のS11)。そして、特徴行動検出部124は、視聴者映像の最後の静止画像か否かを判定し(S12)、最後の静止画像であれば(S12で「最後」)、図5のS21へ進み、最後の静止画像でなければ(S12で「最後ではない」)、取り出した画像の前後の2つの静止画像を比較し、画像の変化が設定された閾値以上か否かを判定する(S13)。ここで、特徴行動検出部124が、取り出した画像の変化が設定された閾値以上であると判定した場合(S13で「閾値以上」)、2つの静止画像の中間の時刻をリストに載せ(S14)、S11へ戻る。また、S13において、特徴行動検出部124が前後2つの静止画像を比較し、画像の変化が所定の閾値未満と判定した場合(S13で「閾値未満」)も、S11へ戻る。   First, the characteristic behavior detection unit 124 of the video editing apparatus 10 extracts still images at set time intervals from the recording start time of the viewer video (S11 in FIG. 4). Then, the characteristic behavior detection unit 124 determines whether or not it is the last still image of the viewer video (S12). If it is the last still image (“last” in S12), the process proceeds to S21 in FIG. If it is not the still image (“not last” in S12), the two still images before and after the extracted image are compared, and it is determined whether or not the change in the image is equal to or greater than the set threshold (S13). Here, when the characteristic behavior detection unit 124 determines that the change in the extracted image is equal to or greater than the set threshold value (“threshold value or more” in S13), the intermediate time between the two still images is listed (S14). ), Return to S11. In S13, the characteristic behavior detection unit 124 compares the two still images before and after and determines that the change in the image is less than the predetermined threshold (“less than threshold” in S13), the process also returns to S11.

特徴行動検出部124が、上記の処理を繰り返すことで、例えば、視聴者の特徴的行動が検出された時刻を示すリスト401を作る。図4に示すリスト401において、Action1は、A1時A2分A3秒に検出され、Action2は、B1時B2分B3秒に検出されたことを示す。   The characteristic behavior detecting unit 124 repeats the above processing, for example, to create a list 401 indicating the time when the characteristic behavior of the viewer is detected. In the list 401 shown in FIG. 4, Action1 is detected at A1 hour A2 minute A3 second, and Action2 is detected at B1 hour B2 minute B3 second.

図5の説明に移る。特徴行動検出部124が、図4のS11で取り出した静止画像は最後の静止画像と判定したとき(S12で「最後」)、映像特定部125は、各時刻を載せたリストを読み出し、読み出していない項目がまだあるか否かを判定する(S21)。ここで、映像特定部125は、リストに読み出していない項目がないと判定したとき(S21で「なし」)、図6のS31へ進み、リストに読み出していない項目がまだあると判定したとき(S21で「まだある」)、リストの1項目(まだ読み出していない項目群のうち1項目)を読み出し、項目の時刻に対応する映像コンテンツの部分をマークする(S22)。そして、S21へ戻る。   Turning to the description of FIG. When the characteristic behavior detecting unit 124 determines that the still image extracted in S11 of FIG. 4 is the last still image (“last” in S12), the video specifying unit 125 reads and reads the list with each time. It is determined whether or not there are still items (S21). Here, when the video specifying unit 125 determines that there is no item that has not been read out in the list (“None” in S21), the process proceeds to S31 in FIG. 6 and when it is determined that there are still items that have not been read out in the list ( In step S21, "there is still"), one item in the list (one item in the item group that has not yet been read) is read, and the part of the video content corresponding to the time of the item is marked (S22). Then, the process returns to S21.

映像特定部125が、上記の処理を繰り返すことで、例えば、図5の符合401に示すリストの各時刻(Action1の時刻、Action2の時刻、Action3の時刻)が符号501に示す映像コンテンツの録画開始時刻から録画停止時刻までの間にマークされ、符号502に示す状態になる。   The video identification unit 125 repeats the above processing, so that, for example, recording of video content indicated by reference numeral 501 at each time (Action 1 time, Action 2 time, Action 3 time) in the list 401 shown in FIG. It is marked between the time and the recording stop time, and a state indicated by reference numeral 502 is obtained.

図6の説明に移る。図5のS21で、リストに読み出していない項目がないと判定されたとき(S21で「なし」)、映像抽出部126は、映像コンテンツのマークを読み出し、まだ読み出していないマークがあるか否かを判定する(図6のS31)。ここで、映像抽出部126が、まだ読み出していないマークがあると判定したとき(S31で「まだある」)、読み出していないマークの1項目を読み出し、マーク前後の部分映像を所定時間分抽出する(S32)。その後、S31へ戻り、映像抽出部126において、映像コンテンツ中、読み出していないマークがないと判定すると(S31で「なし」)、図7のS41へ進む。   Turning to the description of FIG. When it is determined in S21 of FIG. 5 that there is no item that has not been read in the list (“None” in S21), the video extraction unit 126 reads the mark of the video content, and whether there is a mark that has not been read yet. Is determined (S31 in FIG. 6). Here, when the video extraction unit 126 determines that there is a mark that has not been read (“is still” in S31), one item of the mark that has not been read is read, and a partial video before and after the mark is extracted for a predetermined time. (S32). Thereafter, the process returns to S31, and if the video extraction unit 126 determines that there is no unread mark in the video content (“None” in S31), the process proceeds to S41 in FIG.

映像抽出部126が、上記の処理を繰り返すことで、例えば、図6の符号601に示すように、映像コンテンツのマーク(Action1の時刻、Action2の時刻、Action3の時刻)それぞれの前後の部分映像(部分映像1,2,3)が所定時間分抽出され、記憶部13に個別に保存される。   The video extraction unit 126 repeats the above processing, for example, as shown by reference numeral 601 in FIG. 6, the partial video images before and after each of the video content marks (time of Action1, time of Action2, time of Action3) ( Partial videos 1, 2, 3) are extracted for a predetermined time and stored individually in the storage unit 13.

図7の説明に移る。編集映像作成部127は、図6のS32で抽出された部分映像を読み出し、まだ読み出していない部分映像があるか否かを判定する(図7のS41)。ここで、編集映像作成部127が、まだ読み出していない部分映像があると判定したとき(S41で「まだある」)、読み出した部分映像のうち、先の部分映像に後の部分映像をつなぎ合わせる(S42)。つまり、編集映像作成部127は、映像コンテンツから切り出した部分映像を時系列につなぎ合わせる。そして、S41へ戻る。一方、編集映像作成部127が読み出していない部分映像はないと判定したとき(S41で「なし」)、つなぎ合わせた映像を編集映像として記憶部13に保存する(S43)。   Turning to the description of FIG. The edited video creation unit 127 reads the partial video extracted in S32 of FIG. 6 and determines whether there is a partial video that has not been read (S41 of FIG. 7). Here, when the edited video creation unit 127 determines that there is a partial video that has not yet been read (“is still” in S41), the subsequent partial video is joined to the previous partial video among the read partial videos. (S42). That is, the edited video creation unit 127 connects the partial videos cut out from the video content in time series. Then, the process returns to S41. On the other hand, when the edited video creation unit 127 determines that there is no partial video that has not been read (“No” in S41), the stitched video is stored in the storage unit 13 as an edited video (S43).

編集映像作成部127が上記の処理を繰り返すことで、例えば、図7の符号701に示すように、映像コンテンツ中、Action1の時刻、Action2の時刻、Action3の時刻それぞれに対応する部分映像(部分映像1〜3)をつなぎ合わせた編集映像が作成される。なお、この編集映像は、符号701に例示するように各部分映像が、どの時刻にどのような行動をとったときのものかを示すメタデータを含んでいてもよい。   When the edited video creation unit 127 repeats the above processing, for example, as indicated by reference numeral 701 in FIG. 7, partial video (partial video) corresponding to each of the time of Action1, the time of Action2, and the time of Action3 in the video content. 1 to 3) are created to create an edited video. The edited video may include metadata indicating what action each partial video has taken at what time, as exemplified by reference numeral 701.

上記の映像編集装置10によれば、映像コンテンツ中、映像コンテンツの視聴者が特徴的な行動をとった箇所の編集映像を作成することができる。例えば、映像編集装置10は、視聴者が視聴した映像コンテンツのうち、特に感動した箇所や、面白かった箇所のダイジェスト版を作成できる。   According to the video editing apparatus 10 described above, it is possible to create an edited video of a portion of the video content where a viewer of the video content has taken a characteristic action. For example, the video editing apparatus 10 can create a digest version of a particularly impressed part or an interesting part of the video content viewed by the viewer.

(その他の実施形態)
なお、映像コンテンツは、テレビ番組等の放送番組である場合を例に説明したが、これに限定されない。例えば、映像コンテンツは、予め録画された映像コンテンツであってもよい。この場合、映像編集装置10の再生部122は、記憶部13に予め記憶(録画)された映像コンテンツを表示装置3に出力する。そして、カメラ1は、その再生された映像コンテンツを視聴している視聴者の様子を撮影し、映像編集装置10に出力する。
(Other embodiments)
The video content has been described as an example of a broadcast program such as a television program, but is not limited thereto. For example, the video content may be video content recorded in advance. In this case, the playback unit 122 of the video editing apparatus 10 outputs the video content stored (recorded) in advance in the storage unit 13 to the display device 3. Then, the camera 1 captures the state of the viewer who is viewing the reproduced video content and outputs it to the video editing apparatus 10.

また、映像編集装置10は、映像コンテンツ中、視聴者が特徴的な行動をとった箇所にマークを入れた後、映像コンテンツの編集映像を作成することとしたが、これに限定されない。例えば、映像編集装置10が、映像コンテンツ中、視聴者が特徴的な行動をとった箇所にマークを入れた状態で、記憶部13に記憶しておく。つまり、映像編集装置10は、映像コンテンツにおいて、特徴的な行動をとった箇所にチャプターマークを挿入する。そして、視聴者等から、映像編集装置10に対し、録画された映像コンテンツの再生指示があった場合、そのマークがあった箇所を検出し、この箇所にジャンプして再生できるようにしてもよい。つまり、映像編集装置10に、チャプターマークを指定した映像コンテンツの再生指示が入力されたとき、再生部122は、映像コンテンツ中、チャプターマークの挿入された箇所以降の映像を表示装置3へ出力する。さらに、特徴行動検出部124は、映像コンテンツ中、マークを入れた箇所に特徴的な行動の概要等を示すメタ情報を付加してもよい。このようにすることで、映像編集装置10の利用者(例えば、視聴者)は、映像コンテンツ中、視聴者がどのような行動をとった箇所を再生させたいか指示しやすくなる。   Moreover, although the video editing apparatus 10 decided to create the edited video of the video content after putting a mark in the video content where the viewer took a characteristic action, it is not limited to this. For example, the video editing apparatus 10 stores the video content in the storage unit 13 in a state where marks are put in places where the viewer has taken a characteristic action in the video content. That is, the video editing apparatus 10 inserts a chapter mark at a place where a characteristic action is taken in the video content. Then, when a viewer or the like instructs the video editing apparatus 10 to play back the recorded video content, the part where the mark is present may be detected and jumped to this part to be played back. . That is, when an instruction to reproduce video content specifying a chapter mark is input to the video editing device 10, the reproducing unit 122 outputs the video after the portion where the chapter mark is inserted in the video content to the display device 3. . Further, the feature behavior detecting unit 124 may add meta information indicating a summary of a feature behavior or the like at a marked portion in the video content. In this way, a user (for example, a viewer) of the video editing apparatus 10 can easily instruct what action the viewer has taken in the video content.

また、特徴行動検出部124が、視聴者映像から変化を検出する領域は、視聴者映像のすべての領域ではなく、所定の領域(例えば、視聴者の顔、手、足の領域)であってもよい。このようにすることで、特徴行動検出部124は、視聴者の特徴的な行動を精度よく検出することができる。   In addition, the area in which the characteristic behavior detection unit 124 detects a change from the viewer video is not a whole area of the viewer video but a predetermined area (for example, a viewer's face, hand, or foot area). Also good. By doing in this way, the characteristic action detection part 124 can detect a viewer's characteristic action accurately.

また、特徴行動検出部124は、視聴者映像における視聴者の映像および音声のいずれか、または、これらの組み合わせについて、所定の閾値以上の変化があったときに特徴的な行動を検出するようにしてもよい。このようにすることでも、特徴行動検出部124は、視聴者の特徴的な行動を精度よく検出することができる。   In addition, the characteristic behavior detection unit 124 detects a characteristic behavior when there is a change of a predetermined threshold or more with respect to one of the viewer's video and audio in the viewer video, or a combination thereof. May be. Also by doing in this way, the characteristic behavior detection unit 124 can accurately detect the characteristic behavior of the viewer.

また、特徴行動検出部124は、特徴的な行動の動きを示すパターンを記憶部13に記憶しておき、視聴者映像に、このパターンに該当する動きがあったとき、特徴的な行動を検出するようにしてもよい。   In addition, the characteristic behavior detection unit 124 stores a pattern indicating a characteristic behavior movement in the storage unit 13, and detects a characteristic behavior when the viewer video has a motion corresponding to this pattern. You may make it do.

また、特徴行動検出部124が、視聴者映像から特徴的な行動を検出する領域や映像、音声の閾値、動きのパターンについては、映像編集装置10に特徴行動設定情報として記憶部13に設定しておき、映像編集装置10の利用者(例えば、視聴者)が書き換え可能としてもよい。このようにすることで、映像編集装置10の利用者(例えば、視聴者等)は、特徴的な行動の検出を、利用者が所望するような行動に設定することができる。   In addition, the characteristic behavior detection unit 124 sets the region for detecting the characteristic behavior from the viewer video, the video, the audio threshold, and the motion pattern in the storage unit 13 as the characteristic behavior setting information in the video editing device 10. In addition, a user (for example, a viewer) of the video editing apparatus 10 may be rewritable. By doing in this way, the user (for example, viewer etc.) of the video editing apparatus 10 can set the detection of characteristic behavior to the behavior desired by the user.

なお、前記した実施形態において、映像コンテンツの録画開始と、視聴者映像の撮影開始とは同時である場合を例に説明したが、これに限定されない。例えば、映像コンテンツの録画開始時刻と、視聴者映像の撮影開始時刻とにずれがある場合、映像特定部125は、この開始時刻のずれを考慮して、特徴行動検出部124により作成されたリストに示される各時刻に対応する映像コンテンツの場所を特定する。   In the embodiment described above, the case where the start of video content recording and the start of viewer video shooting is described as an example. However, the present invention is not limited to this. For example, when there is a difference between the recording start time of the video content and the shooting start time of the viewer video, the video specifying unit 125 takes into account the difference in the start time, and the list created by the characteristic behavior detecting unit 124 The location of the video content corresponding to each time shown in FIG.

(プログラム)
また、上記実施形態に係る映像編集装置10が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。以下に、映像編集装置10と同様の機能を実現する映像編集プログラムを実行するコンピュータの一例を説明する。
(program)
It is also possible to create a program in which the processing executed by the video editing apparatus 10 according to the above embodiment is described in a language that can be executed by a computer. In this case, the same effect as the above-described embodiment can be obtained by the computer executing the program. Further, such a program may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer and executed to execute the same processing as in the above embodiment. Hereinafter, an example of a computer that executes a video editing program that realizes the same function as the video editing device 10 will be described.

図8は、映像編集プログラムを実行するコンピュータを示す図である。図8に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。   FIG. 8 is a diagram illustrating a computer that executes a video editing program. As illustrated in FIG. 8, the computer 1000 includes, for example, a memory 1010, a CPU 1020, a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. These units are connected by a bus 1080.

メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。   The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM 1012. The ROM 1011 stores a boot program such as BIOS (Basic Input Output System). The hard disk drive interface 1030 is connected to the hard disk drive 1090. The disk drive interface 1040 is connected to the disk drive 1041. For example, a removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive 1041. For example, a mouse 1110 and a keyboard 1120 are connected to the serial port interface 1050. For example, a display 1130 is connected to the video adapter 1060.

ここで、図8に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各テーブルは、例えばハードディスクドライブ1090やメモリ1010に記憶される。   Here, as shown in FIG. 8, the hard disk drive 1090 stores, for example, an OS 1091, an application program 1092, a program module 1093, and program data 1094. Each table described in the above embodiment is stored in the hard disk drive 1090 or the memory 1010, for example.

また、映像編集プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、ハードディスクドライブ1090に記憶される。具体的には、上記実施形態で説明した映像編集装置10が実行する各処理が記述されたプログラムモジュールが、ハードディスクドライブ1090に記憶される。   Further, the video editing program is stored in the hard disk drive 1090 as a program module in which a command executed by the computer 1000 is described, for example. Specifically, a program module describing each process executed by the video editing apparatus 10 described in the above embodiment is stored in the hard disk drive 1090.

また、映像編集プログラムによる情報処理に用いられるデータは、プログラムデータとして、例えば、ハードディスクドライブ1090に記憶される。そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。   Data used for information processing by the video editing program is stored as program data, for example, in the hard disk drive 1090. Then, the CPU 1020 reads out the program module 1093 and the program data 1094 stored in the hard disk drive 1090 to the RAM 1012 as necessary, and executes the above-described procedures.

なお、映像編集プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、映像編集プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。   The program module 1093 and the program data 1094 related to the video editing program are not limited to being stored in the hard disk drive 1090. For example, the program module 1093 and the program data 1094 are stored in a removable storage medium and read by the CPU 1020 via the disk drive 1041 or the like. May be issued. Alternatively, the program module 1093 and the program data 1094 related to the video editing program are stored in another computer connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network), and are transmitted via the network interface 1070. May be read by the CPU 1020.

2 チューナー
3 表示装置
10 映像編集装置
11 入出力部
12 制御部
13 記憶部
120 受信処理部
121 録画部
122 再生部
123 編集部
124 特徴行動検出部
125 映像特定部
126 映像抽出部
127 編集映像作成部
2 tuner 3 display device 10 video editing device 11 input / output unit 12 control unit 13 storage unit 120 reception processing unit 121 recording unit 122 playback unit 123 editing unit 124 characteristic behavior detection unit 125 video specifying unit 126 video extraction unit 127 edited video creation unit

Claims (4)

映像コンテンツを視聴しているときの視聴者を撮影した視聴者映像から前記視聴者の特徴的な行動を検出する特徴行動検出部と、
前記映像コンテンツのうち、前記特徴的な行動を検出した前記視聴者映像の撮影時刻に対応する箇所を記録する映像特定部と、
前記特徴的な行動が検出された前記視聴者映像の撮影時刻に対応する箇所から所定範囲の時間帯の映像データを、前記映像コンテンツから抽出する映像抽出部と、
前記抽出された映像データを時系列につなぎ合わせた編集映像を作成する編集映像作成部と、
を備えることを特徴とする映像編集装置。
A characteristic behavior detection unit for detecting a characteristic behavior of the viewer from a viewer video obtained by photographing the viewer when viewing video content;
A video specifying unit for recording a portion corresponding to a shooting time of the viewer video in which the characteristic behavior is detected in the video content;
A video extraction unit that extracts video data of a predetermined time range from a location corresponding to a shooting time of the viewer video in which the characteristic behavior is detected, from the video content;
An edited video creation unit that creates an edited video by linking the extracted video data in time series;
A video editing apparatus comprising:
前記視聴者映像は、前記視聴者を撮影した画像および前記視聴者の音声を含み、
前記特徴行動検出部は、
前記画像および音声の少なくともいずれか一方に、所定量の変化があったときに特徴的な行動を検出することを特徴とする請求項1に記載の映像編集装置。
The viewer video includes an image of the viewer and the audio of the viewer,
The characteristic behavior detection unit
The video editing apparatus according to claim 1, wherein a characteristic action is detected when a predetermined amount of change occurs in at least one of the image and the sound.
映像コンテンツを視聴しているときの視聴者を撮影した視聴者映像から前記視聴者の特徴的な行動を検出するステップと、
前記映像コンテンツのうち、前記特徴的な行動を検出した前記視聴者映像の撮影時刻に対応する箇所を記録するステップと、
前記特徴的な行動が検出された前記視聴者映像の撮影時刻に対応する箇所から所定範囲の時間帯の映像データを、前記映像コンテンツから抽出するステップと、
前記抽出された映像データを時系列につなぎ合わせた編集映像を作成するステップと、
を映像編集装置が実行することを特徴とする映像編集方法。
Detecting a characteristic behavior of the viewer from a viewer video of the viewer when viewing the video content;
A step of recording a portion corresponding to a shooting time of the viewer video in which the characteristic behavior is detected in the video content;
Extracting video data of a predetermined time range from the video content from a location corresponding to a shooting time of the viewer video in which the characteristic behavior is detected;
Creating an edited video in which the extracted video data is connected in time series; and
A video editing method, wherein the video editing apparatus executes the above.
映像コンテンツを視聴しているときの視聴者を撮影した視聴者映像から前記視聴者の特徴的な行動を検出するステップと、
前記映像コンテンツのうち、前記特徴的な行動を検出した前記視聴者映像の撮影時刻に対応する箇所を記録するステップと、
前記特徴的な行動が検出された前記視聴者映像の撮影時刻に対応する箇所から所定範囲の時間帯の映像データを、前記映像コンテンツから抽出するステップと、
前記抽出された映像データを時系列につなぎ合わせた編集映像を作成するステップと、
をコンピュータに実行させることを特徴とする映像編集プログラム。
Detecting a characteristic behavior of the viewer from a viewer video of the viewer when viewing the video content;
A step of recording a portion corresponding to a shooting time of the viewer video in which the characteristic behavior is detected in the video content;
Extracting video data of a predetermined time range from the video content from a location corresponding to a shooting time of the viewer video in which the characteristic behavior is detected;
Creating an edited video in which the extracted video data is connected in time series; and
A video editing program characterized by causing a computer to execute.
JP2013218543A 2013-10-21 2013-10-21 Video editing device, video editing method, and video editing program Pending JP2015082691A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013218543A JP2015082691A (en) 2013-10-21 2013-10-21 Video editing device, video editing method, and video editing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013218543A JP2015082691A (en) 2013-10-21 2013-10-21 Video editing device, video editing method, and video editing program

Publications (1)

Publication Number Publication Date
JP2015082691A true JP2015082691A (en) 2015-04-27

Family

ID=53013110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013218543A Pending JP2015082691A (en) 2013-10-21 2013-10-21 Video editing device, video editing method, and video editing program

Country Status (1)

Country Link
JP (1) JP2015082691A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126645A (en) * 2019-01-31 2020-08-20 株式会社ジオネクサス Information processing method, terminal device, and information processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157893A (en) * 2004-10-27 2006-06-15 Matsushita Electric Ind Co Ltd Imaging device
JP2012074773A (en) * 2010-09-27 2012-04-12 Nec Personal Computers Ltd Editing device, control method, and program
JP2013070155A (en) * 2011-09-21 2013-04-18 Nec Casio Mobile Communications Ltd Moving image scoring system, server device, moving image scoring method, and moving image scoring program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157893A (en) * 2004-10-27 2006-06-15 Matsushita Electric Ind Co Ltd Imaging device
JP2012074773A (en) * 2010-09-27 2012-04-12 Nec Personal Computers Ltd Editing device, control method, and program
JP2013070155A (en) * 2011-09-21 2013-04-18 Nec Casio Mobile Communications Ltd Moving image scoring system, server device, moving image scoring method, and moving image scoring program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020126645A (en) * 2019-01-31 2020-08-20 株式会社ジオネクサス Information processing method, terminal device, and information processing device
JP7440020B2 (en) 2019-01-31 2024-02-28 株式会社センシング Information processing method, terminal device, information processing device, and information processing system

Similar Documents

Publication Publication Date Title
KR100827846B1 (en) Method and system to search for specific person included in video and play from desired point of view
KR102290419B1 (en) Method and Appratus For Creating Photo Story based on Visual Context Analysis of Digital Contents
US9881215B2 (en) Apparatus and method for identifying a still image contained in moving image contents
US7483624B2 (en) System and method for indexing a video sequence
US9324374B2 (en) Method and system for automatic generation of clips from a plurality of images based on an inter-objects relationship score
US9986218B2 (en) Electronic apparatus, method of changing a moving image data section, and program
CN107888988A (en) Video editing method and electronic equipment
JP3615195B2 (en) Content recording / playback apparatus and content editing method
JP2011217209A (en) Electronic apparatus, content recommendation method, and program
US20140355961A1 (en) Using simple touch input to create complex video animation
CN103026704B (en) Information processor, information processing method and integrated circuit
US20180204597A1 (en) Method and system for generation of a variant video production from an edited video production
CN103686374A (en) Display control device, recording control device, and display control method
JP2015082692A (en) Video editing apparatus, video editing method, and video editing program
GB2520041A (en) Automated multimedia content editing
CN106162222B (en) A kind of method and device of video lens cutting
US20110064384A1 (en) Reproduction control apparatus, reproduction control method, and program
JP2012221322A (en) Authoring support device and authoring support method and program
JP2015082691A (en) Video editing device, video editing method, and video editing program
KR20150093480A (en) Device and method for extracting video using realization of facial expression
WO2014103374A1 (en) Information management device, server and control method
KR20130104027A (en) Video playing method and video player
US10474743B2 (en) Method for presenting notifications when annotations are received from a remote device
KR101716109B1 (en) Method for time synchronization of a plurality of images and system displaying multi-images
KR102202099B1 (en) Video management method for minimizing storage space and user device for performing the same

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151001

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170627

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171205