JP2005301693A - Video editing system - Google Patents
Video editing system Download PDFInfo
- Publication number
- JP2005301693A JP2005301693A JP2004117169A JP2004117169A JP2005301693A JP 2005301693 A JP2005301693 A JP 2005301693A JP 2004117169 A JP2004117169 A JP 2004117169A JP 2004117169 A JP2004117169 A JP 2004117169A JP 2005301693 A JP2005301693 A JP 2005301693A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- user
- finger
- video
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
【課題】 手指のジェスチャにより身体的な操作を行なうことができる動画編集システムの提供。
【解決手段】 画像投影用計算機110に接続されたプロジェクタ130からスクリーン150に投影された動画編集画面上で、ユーザ160は手指のジェスチャにより動画編集の各操作を行なう。画像処理用計算機120に接続されたカメラ140はそのジェスチャを撮影し、画像処理用計算機120が手指の位置を認識する。画像投影用計算機110はユーザ160の手指の位置からジェスチャの意味を認識し、そのジェスチャに従って画像編集処理を行ない、動画編集画面を再びスクリーン150に投影する。上記のインターフェースにより、マウス等で操作していた従来の動画編集システムの問題点を解決した。
【選択図】図1PROBLEM TO BE SOLVED: To provide a moving image editing system capable of performing a physical operation by a finger gesture.
On a moving image editing screen projected on a screen 150 from a projector 130 connected to an image projection computer 110, a user 160 performs each operation of moving image editing with a finger gesture. The camera 140 connected to the image processing computer 120 captures the gesture, and the image processing computer 120 recognizes the position of the finger. The image projection computer 110 recognizes the meaning of the gesture from the position of the finger of the user 160, performs image editing processing according to the gesture, and projects the moving image editing screen onto the screen 150 again. With the above interface, the problem of the conventional video editing system that was operated with a mouse etc. was solved.
[Selection] Figure 1
Description
本発明は、ジェスチャ認識を用いた動画編集システムに関するものである。 The present invention relates to a moving image editing system using gesture recognition.
近年、デジタルビデオやデジタルカメラの普及に伴い、自分で撮影した動画や静止画をPCへ保存し編集作業を個人的に行うことが可能になった。撮影機材がアナログであった頃は、動画の編集作業にはジョグシャトルやスライダなどさまざまなダイヤルやボタンの並んだ入力機器(以下「アナログ入力機器」という)を備えた固有の機器が用いられてきた。これらの入力機器は、全ての操作情報が常に目で見えるように設計されているため、一見複雑なものであるかのように見える。そのため初心者には扱いづらいものと考えられるが、ユーザが使用を重ねるにつれて動作方法を身体的感覚により覚え、直感的な動作が可能となる。そのため、ユーザのスキルが上がるにつれて、よりリアルタイムでの操作が可能になるといった特徴を兼ね備えていると言える。
最近では、例えば非特許文献1,非特許文献2,非特許文献3などの、映像データをPC上で編集するためのソフトウェアが広く普及している。その理由として、先に挙げた固有の機器を用意することなく編集作業を行うことができ、さらにマウスの扱いに慣れているユーザであれば、すぐに利用できるという点が挙げられる。
しかしながら、アナログ入力機器が用いられてきた作業を、上述した従来の動画編集ソフトウェアのようなGUIアプリケーション上でマウスを用いて行うことの問題点として、以下のものが考えられる。
In recent years, with the widespread use of digital video and digital cameras, it has become possible to save moving images and still images taken by the user on a PC for personal editing. When the photographic equipment was analog, video editing work was done using unique devices equipped with input devices with various dials and buttons (hereinafter referred to as “analog input devices”) such as jog shuttles and sliders. It was. Since these input devices are designed so that all the operation information is always visible, it seems to be complicated at first glance. Therefore, it is considered difficult for beginners to handle, but as the user continues to use it, the operation method is learned by a physical sense, and intuitive operation becomes possible. Therefore, it can be said that it has the feature that operation in real time becomes possible as the skill of the user increases.
Recently, software for editing video data on a PC, such as Non-Patent Document 1, Non-Patent Document 2, and Non-Patent Document 3, has been widely used. The reason for this is that the editing work can be performed without preparing the above-mentioned unique devices, and if the user is used to handling the mouse, it can be used immediately.
However, the following can be considered as problems in using the mouse on a GUI application such as the above-described conventional moving image editing software for operations that have been performed using analog input devices.
(1)アナログ入力機器で実現されていたような身体的な動作が行なえないため、操作を行なった量などを身体的に理解することができない。このため、操作に身体的経験が反映されず、スキルが操作に反映されない。
(2)アナログ入力機器では複数の手指で同時操作を行いながら、入力がどのように出力に反映されるかをリアルタイムに知ることができるが、マウスを用いた入力では、一般的にポインティングを行える箇所は1つに限られている。このため、同時に複数の操作を行うことができない。
(3)従来のGUIアプリケーションではプルダウンメニューが用いられていることが多く、操作に必要な複数の情報を常に目で見えるようにすることが難しい。
(4)モニターに大型のディスプレイを用いる際にマウスが必ずしも適切な入力であるとは限らない。すなわち、大型のディスプレイを用いる場合には、マウスカーソルを画面の端から端まで移動させるために、マウスの相対的な移動を何度も繰り返す必要がある。これを解決するために、マウスが描く軌跡の速度を上げる設定を行うこともできるが、その場合には細かいマウスの移動を行うことが困難となる。
(1) Since the physical movement as realized by the analog input device cannot be performed, the amount of operation and the like cannot be physically understood. For this reason, physical experience is not reflected in operation, and skill is not reflected in operation.
(2) In analog input devices, it is possible to know in real time how the input is reflected in the output while performing simultaneous operation with a plurality of fingers, but generally pointing can be performed with an input using a mouse. The number of places is limited to one. For this reason, a plurality of operations cannot be performed simultaneously.
(3) In conventional GUI applications, a pull-down menu is often used, and it is difficult to always make a plurality of information necessary for operation visible.
(4) When using a large display as a monitor, the mouse is not always an appropriate input. That is, when a large display is used, it is necessary to repeat the relative movement of the mouse many times in order to move the mouse cursor from end to end of the screen. In order to solve this, it is possible to set the speed of the trajectory drawn by the mouse, but in that case, it is difficult to move the mouse finely.
これらの問題点を解決する方法として、大型ディスプレイを用い、その入力機器としてアナログ入力機器の良さを持ち合わせたインタフェースを構築することが考えられる。
発明者らは机型実世界指向インタフェースであるEnhancedDeskの研究を進めてきた(例えば、非特許文献4)。EnhancedDeskでは手指の位置やジェスチャおよび物体の位置をシステムへの入力とすることができ、そのアプリケーションとして両手を用いる描画ツールや少人数での会議を支援するシステムなどを実現した(例えば、非特許文献5,非特許文献6)。これらのシステムでは、手指を入力手段とすることにより身体的な操作を可能とし、量の指定を身体的に感じながらより直感的にシステムを操作することができる。また、個々の指先の位置を認識しているため、最大で同時に10箇所のポインティングを行うことができ、同時に複数のデジタル情報を操作することが可能である。さらにプロジェクタの投影面として机を用いているため、大型ディスプレイとしての環境を実現している。これらの点から、従来はアナログ入力機器が用いられてきた作業を大型のディスプレイを用いてデジタル的に行う環境として、EnhancedDeskは有効なものの1つであると思われる。
しかしながら、従来の動画編集ソフトウェア(例えば非特許文献1〜3)の問題点を解決し、ジェスチャで動画編集作業を指示することができる動画編集システムは開発されておらず、上記の問題点は解決されていない。
As a method for solving these problems, it is conceivable to use a large display and construct an interface having the goodness of an analog input device as its input device.
The inventors have been researching EnhancedDesk, which is a desk-type real world oriented interface (for example, Non-Patent Document 4). EnhancedDesk can input finger positions, gestures, and object positions into the system, and as its application, it has realized a drawing tool that uses both hands and a system that supports meetings with a small number of people (for example, non-patent literature) 5, non-patent document 6). In these systems, physical operation is possible by using fingers as input means, and the system can be operated more intuitively while physically feeling the designation of the amount. In addition, since the positions of individual fingertips are recognized, it is possible to perform pointing at 10 locations at the same time, and it is possible to operate a plurality of digital information at the same time. Furthermore, since a desk is used as the projection surface of the projector, an environment as a large display is realized. From these points, it seems that EnhancedDesk is one of the effective environments in which the work that has conventionally been used for analog input devices is performed digitally using a large display.
However, a video editing system that solves the problems of conventional video editing software (for example, Non-Patent Documents 1 to 3) and can instruct video editing work with gestures has not been developed, and the above problems are solved. It has not been.
本発明の課題は、アナログ入力機器が持っていた長所である、操作の直感性やスキルの作業性への反映が可能であり、さらに同時複数操作が行なえる動画編集システムを提供し、従来の動画編集ソフトウェアの問題点を解決することである。 An object of the present invention is to provide a video editing system that can be reflected in the operational intuition and skill workability, which is an advantage of an analog input device, and that can perform multiple simultaneous operations. It is to solve the problem of video editing software.
上記の課題を解決するために、本発明は、動画編集画面を表示し、それに対するユーザのジェスチャをカメラで入力して動画編集操作を行なう動画編集システムにおいて、前記動画編集画面を表示する動画編集表示手段と、前記カメラが撮影した画像を入力する画像入力手段と、入力した画像からユーザの手指の位置を認識する手指認識手段と、前記ユーザの手指の位置からユーザのジェスチャの意味を認識するジェスチャ認識手段と、前記ジェスチャに対応した動画編集を行なう動画編集手段とを備え、動画編集の結果を動画編集画面として表示することを特徴とする動画編集システムである。
動画編集システムは、さらに、ユーザの手指が写る前の画像を記憶する初期画面記憶手段を備えており、前記手指認識手段は、入力した前記画像と前記初期画面記憶手段からの画像とを比較してユーザの手指の領域を取得し、円形テンプレートマッチングによりユーザの指先の位置を取得して、ユーザの手指の位置を認識することを特徴とすることもできる。
また、前記手指認識手段における前記円形テンプレートマッチングは、ユーザの手の中心の位置を中心とする正方形の領域に対して行なうことを特徴とすることもできる。
また、前記動画編集表示手段は、前記動画編集画面上に複数の動画を横一列に並べ、それぞれの動画を再生する際に、隣り合う動画が右から左に行くにつれ再生位置が一定時間ずつ遅れた状態で再生することを特徴とすることもできる。
In order to solve the above-mentioned problems, the present invention displays a moving image editing screen, and displays the moving image editing screen in a moving image editing system that performs a moving image editing operation by inputting the user's gesture to the camera with a camera. A display unit; an image input unit that inputs an image captured by the camera; a finger recognition unit that recognizes a position of the user's finger from the input image; and a meaning of the user's gesture from the position of the user's finger. A moving image editing system comprising: a gesture recognizing unit; and a moving image editing unit that edits a moving image corresponding to the gesture, and displaying a moving image editing result as a moving image editing screen.
The video editing system further includes an initial screen storage unit that stores an image before the user's finger is captured, and the finger recognition unit compares the input image with the image from the initial screen storage unit. It is also possible to acquire the user's finger area, acquire the position of the user's fingertip by circular template matching, and recognize the position of the user's finger.
Further, the circular template matching in the finger recognition unit may be performed on a square region centered on the center position of the user's hand.
The video editing display means arranges a plurality of videos in a horizontal row on the video editing screen, and when each video is played back, the playback position is delayed by a certain time as the adjacent videos go from right to left. It can also be characterized in that it is played back in a live state.
前記ジェスチャ認識手段は、前記ユーザの手指の位置が、前記編集画面上の同じ場所で手を開いた状態から手を閉じた状態になった場合に、ユーザがその位置に表示されている画像又は動画をつかんだと認識することを特徴とすることもできる。
また、前記ジェスチャ認識手段は、前記ユーザの手指の位置が、前記編集画面上の同じ場所で指を一本出した状態である場合に、ユーザがその位置に表示されている画像又は動画を選択したと認識することを特徴とすることもできる。
また、前記ジェスチャ認識手段は、前記ユーザの両手の手指の位置がそれぞれ、前記編集画面上の同じ場所で指を一本出した状態である場合に、ユーザがそれぞれの手の位置に表示されている画像又は動画およびそれらの間に表示されている画像又は動画を選択したと認識することを特徴とすることもできる。さらに、前記ユーザが画像又は動画を選択した後に、両手を近づけた場合に、選択した画像又は動画を一つに連結したと認識することを特徴とすることもできる。
また、前記ジェスチャ認識手段は、前記ユーザの手指の位置が、手を開いた状態のまま上下左右のいずれかに移動した場合、その移動方向および移動速度および移動距離を、動画編集の量であると認識することを特徴とすることもできる。
上記のいずれかに記載の動画編集システムの機能をコンピュータ・システムに実現させるためのプログラムも、本発明である。
When the position of the finger of the user is changed from a state where the hand is opened at the same place on the editing screen to a state where the hand is closed, the gesture recognition unit It can also be characterized by recognizing that a video has been grabbed.
The gesture recognizing unit selects an image or a moving image displayed at the position of the user's finger when the finger is placed at the same place on the editing screen. It can also be characterized as recognizing that
The gesture recognizing means displays the user at the position of each hand when the finger positions of both hands of the user are in the state where one finger is put out at the same place on the editing screen. It is also possible to recognize that the selected image or moving image and the image or moving image displayed between them are selected. Furthermore, after the user selects an image or a moving image, when both hands are brought close to each other, it is possible to recognize that the selected image or moving image is connected to one.
Further, the gesture recognizing means, when the position of the user's finger moves to any one of up, down, left and right with the hand open, its moving direction, moving speed and moving distance are the amount of moving image editing. It can also be characterized by recognizing.
A program for causing a computer system to realize the function of the moving image editing system described above is also the present invention.
本発明の画編集システムは、画面への入力に手指認識システムを用いている。このため、ユーザはジェスチャにより動画編集の各操作を行なうことができる。本発明により、従来のアナログ入力機器が持ち合わせていた身体的な動作に基づく入力や同時複数操作が可能となり、従来の動画編集ソフトウェアの問題点を解決することができる。 The image editing system of the present invention uses a finger recognition system for input to the screen. For this reason, the user can perform each operation of moving image editing with gestures. According to the present invention, it is possible to perform input based on physical movements that a conventional analog input device has and a plurality of simultaneous operations, and to solve the problems of conventional moving image editing software.
以降、本発明の動画編集システムの実施形態を詳細に説明する。
<1.システム構成>
まず、図1に示すシステム構成図を参照しながら、本実施形態の動画編集システムのシステム構成を説明する。
図1に示すように、本実施形態の動画編集システムは、手指認識を行う画像処理用計算機120と、動画編集処理およびスクリーン150への画像投影を行なう画像投影用計算機110とを接続し、画像投影用計算機110にはプロジェクタ130を、画像処理用計算機120にはカメラ140を、それぞれ接続して構成している。プロジェクタ130およびカメラ140は、スクリーン150の上方に設置する。ここで、カメラ140の画像取得領域とプロジェクタ130による投影範囲はほぼ同じ広さとする。なお、本実施形態ではプロジェクタ130を用いてスクリーン150への投影を行なう場合を例として説明するが、プロジェクタ130を用いず、通常の大型ディスプレイ等に画面を表示してもよい。
ユーザ160は、プロジェクタ130からスクリーン150に投影された画面上で、手指を用いたジェスチャにより動画編集の各操作を行なう。カメラ140で撮影されるスクリーン150上の画像は画像処理用計算機120に送信され、画像処理用計算機120でその手指の位置を認識する。認識した手指の位置を画像投影用計算機110に送ることで、プロジェクタ130で投影された画面上のオブジェクト(画像や動画など)と手指とのインタラクションを実現している。すなわち、画像投影用計算機110では画像処理用計算機120から送られた手指の位置をもとにユーザ160のジェスチャを認識し、そのジェスチャに対応して動画編集の各処理を行なって、動画編集後の画面を再びプロジェクタ130からスクリーン150へ投影する。
Hereinafter, embodiments of the moving image editing system of the present invention will be described in detail.
<1. System configuration>
First, the system configuration of the moving image editing system of this embodiment will be described with reference to the system configuration diagram shown in FIG.
As shown in FIG. 1, the moving image editing system according to the present embodiment connects an
The
画像投影用計算機110には「ジェスチャ認識プログラム」を実装し、画像処理用計算機120から送られた手指の位置からユーザ160のジェスチャの意味を認識するジェスチャ認識処理を行なう。また、「動画編集アプリケーション」を実装しており、ユーザ160の操作による動画編集処理を行なう。
一方、画像処理用計算機120には「手指認識プログラム」および「画像処理ライブラリ」を搭載し、手指認識プログラムは、この画像処理ライブラリを用いてカメラ140がとらえたユーザ160の手指の位置(スクリーン150上の位置)を認識する手指認識処理を行なう。発明者らは従来、指先を認識する画像処理のために画像処理ボードなどのハードウェアを用いてきた。ハードウェアで画像処理を行なうことの利点は、低スペックのコンピュータでも高度な画像処理を行える点である。しかし、ハードウェアで処理を行うにはコンピュータ1台に対して1つの処理ボードが必要となる。新たに画像処理を行うコンピュータを増やす場合、増えたコンピュータの数だけ画像処理ボードが必要になるため拡張性の欠如に繋がる。近年では、コンピュータの処理速度が格段に速くなってきたため、もはや画像処理をハードウェアに依存する必要性が無くなっており、逆にハードウェアを用いることの欠点が目立ってきた。
そこで本実施形態では、例えば、ソフトウェアで画像処理の行なえる画像処理ライブラリOpenCV (Intel Open Computer Vision Library) を画像処理用計算機120に搭載する。これにより利便性、拡張性の高いシステムとすることができる。さらに当ライブラリはオープンソースで公開されているため、より柔軟なシステムを構築することが可能であると考えられる。
A “gesture recognition program” is installed in the
On the other hand, the
Therefore, in this embodiment, for example, an image processing library OpenCV (Intel Open Computer Vision Library) capable of performing image processing by software is installed in the
また、カメラ140には例えばIEEE1394カメラを用いる。赤外線カメラやCCDカメラを用いることもできるが、これらのカメラは入出力端子がアナログであるため、デジタル信号で撮った画像データをアナログ信号へ変換しコンピュータに取り込み、再びデジタル信号へ戻す必要がある。また、カメラからの入力を取り込むには特殊なハードウェアが必要である。このため、本実施形態ではIEEE1394カメラを用いることでこれらの問題点を解決する。IEEE1394はコンピュータ環境に適した新たなインタフェース規格である。データのリアルタイム転送に優れ価格も安価なため、導入が容易であり現在広く普及している。このインタフェースを備えたIEEE1394カメラを用いることで、より汎用的なシステムとなると考えられる。
また、本実施形態では実時間での処理を目的としているため、手指認識の高速化を実現する必要がある。従って、カメラ140の画像から手指の領域を認識する際、スクリーン150と手指との差分を取りやすくする必要がある。このため、スクリーン150には単色である白いテーブルを使用する。
なお、図1のシステム構成図においては、画像処理用計算機120と画像投影用計算機110の2台の計算機を用意しているが、これに限らず、例えば画像処理用計算機や画像投影用計算機を必要に応じて複数台用いることも可能であるし、1台の計算機で画像処理と画像投影の両方を行なうようにしてもよい。
The
In addition, since the present embodiment is intended for processing in real time, it is necessary to increase the speed of finger recognition. Therefore, when recognizing the finger area from the image of the
In the system configuration diagram of FIG. 1, two computers, the
<2.手指認識>
次に、本実施形態の動画編集システムにおける、手指認識処理の流れについて説明する。上述したように、手指認識処理は、画像処理用計算機120に実装されている手指認識プログラムが、搭載された画像処理ライブラリ(本実施形態では例えば上述のOpenCV)を用いて、カメラ140がとらえたユーザ160の手指の位置(スクリーン150上の位置)を認識する処理を行なう処理である。
手指認識処理を起動する前に、プロジェクタ130から動画編集アプリケーションの初期画面をスクリーン150に投影する。
手指認識処理を起動すると、まず、上記の初期画面が投影された状態のスクリーン150の画像をカメラ140より取得し、これを初期画像として記憶する。以降、カメラ140が実時間でキャプチャした画像と上記で記憶した初期画像との差分により、手指の領域を取得する。その後、ユーザ160のジェスチャにより動画編集が行なわれるなどして動画編集アプリケーションの画面が遷移した場合には、遷移後の画面を初期画像として記憶し、再び上述の方法で手指の領域を取得する。
手指の領域を取得することにより、スクリーン150に投影された動画編集画面上のどのオブジェクト(画像や動画など)の上にユーザ160の手が置かれているかを認識することができる。
<2. Finger recognition>
Next, a flow of finger recognition processing in the moving image editing system of the present embodiment will be described. As described above, the finger recognition processing is performed by the
Before starting the finger recognition processing, the initial screen of the moving image editing application is projected from the
When the finger recognition process is started, first, an image of the
By acquiring the finger area, it is possible to recognize on which object (image, moving image, etc.) on the moving image editing screen projected on the
また、本実施形態では手を開いた状態、閉じた状態、指を1本出した状態などのジェスチャを用いる。このため、スクリーン150上にあるユーザ160の指先を認識する必要がある。
指先の認識には、指先形状の輪郭が円に近いことに基づき、円形テンプレートによるテンプレートマッチングを用いる。テンプレートマッチングは、処理結果に信頼性がある反面、計算コストがかかるという問題点が挙げられている。そこで本実施形態では処理速度を上げるため、あらかじめ手のひらの中心を求めておき、その点を中心とした、60pixel×60pixelの正方形の領域にのみテンプレートマッチングを行うものとする。60pixelの値は、カメラからキャプチャした画像において手のひらが全て入る大きさとして、経験上設定された値であるが、他の適切な値であってもよい。また、テンプレートとして円を用いているため、通常は回転に弱いテンプレートマッチングの処理を問題無く行うことができる。
手指認識処理は、上述のようにしてユーザ160の手指の位置を認識する。
本実施形態ではIEEE1394カメラおよびOpenCVを用いているため、従来の赤外線カメラやCCDカメラを用い、ハードウェアで画像処理を行なっていた場合に比べて、手指認識の処理速度が改善された。
In the present embodiment, gestures such as a state where the hand is opened, a state where the hand is closed, and a state where one finger is taken out are used. For this reason, it is necessary to recognize the fingertip of the
For fingertip recognition, template matching using a circular template is used based on the fact that the contour of the fingertip shape is close to a circle. The template matching has a problem that the processing result is reliable, but the calculation cost is high. Therefore, in this embodiment, in order to increase the processing speed, the center of the palm is obtained in advance, and template matching is performed only on a square area of 60 pixels × 60 pixels centered on that point. The value of 60 pixels is a value that is empirically set as a size that allows all palms to be included in an image captured from the camera, but may be another appropriate value. In addition, since a circle is used as a template, template matching processing that is usually sensitive to rotation can be performed without any problem.
In the finger recognition process, the position of the finger of the
In this embodiment, since the IEEE1394 camera and OpenCV are used, the finger recognition processing speed is improved as compared with the case where image processing is performed by hardware using a conventional infrared camera or CCD camera.
<3.手指認識を用いた動画編集システム>
本実施形態の動画編集システムでは、アナログ入力装置に代わる入力装置としてユーザの手指を用いる。マウスなどの媒体を用いること無くシステムの操作が行えるため、ユーザはより直感的に操作することが可能になると考えられる。本実施形態の動画編集システムで使用するライブラリとして、例えば、動画ファイルの操作に長けているJMF(Java(R) Media Framework)2.1.1とQuickTime for Java(R)を用いる。
<3. Video editing system using finger recognition>
In the moving image editing system of the present embodiment, the user's fingers are used as an input device that replaces the analog input device. Since the system can be operated without using a medium such as a mouse, it is considered that the user can operate more intuitively. As a library used in the moving image editing system of the present embodiment, for example, JMF (Java® Media Framework) 2.1.1 and QuickTime for Java® that are good at moving image files are used.
(3−1.ジェスチャの認識)
ユーザ160は、スクリーン150に投影された動画編集アプリケーションの画面上で手指によるジェスチャを行なって、本実施形態の動画編集システムの各操作を行なう。図2は、動画編集アプリケーションの画面の例である。図2に示すように、本実施形態における動画編集の画面には幾つものオブジェクト(画像や動画など)が表示されており、ユーザは所望のオブジェクトの真上で、手指によるジェスチャを行なう。なお、図2に示す動画編集アプリケーションの画面構成については、後で詳しく説明する。
(3-1. Recognition of gestures)
The
ジェスチャ認識処理は、画像投影用計算機110で行なわれる。上述したように、画像処理用計算機120の手指認識システムでユーザの手指の位置が認識されると、その手指の位置の情報を画像投影用計算機110が受け取って、ジェスチャ認識処理によりユーザのジェスチャの意味を認識する。本実施形態では、図3の(a)〜(d)に示す4種類の意味を認識する。
(a)スクリーンに投影されているオブジェクトの上で、指を開いた状態(311)から、閉じる(312)ジェスチャ:そのオブジェクトをつかんだと認識される。
(b)スクリーンに投影されているオブジェクトの上で指を一本出したジェスチャ:そのオブジェクトを選択したと認識される。また両手でこのジェスチャを行った場合、左手の指で選択されたオブジェクトから右手の指で選択されたオブジェクトまでが、操作の対象として選択されたと認識される。
(c)手を開いた状態で上下左右に動かすジェスチャ:手が移動した量(移動方向、移動距離、移動速度など)を、システムへ渡すジェスチャであると認識される。
(d)両手でそれぞれ上記(b)の選択を行ない(図では左手341でオブジェクト343を、右手342でオブジェクト345を選択している)、その両手を離した状態から近付けるジェスチャ:両手の下にあるオブジェクト(343,344,345)を、1つ(347)にまとめたと認識される。ここで、図示されているオブジェクト346は、選択されていない。
なお、本実施形態のジェスチャ認識プログラムは、手を開いた状態や閉じた状態、指を1本出した状態のまま一定時間(例えば、0.5秒など)が経過した場合に、それらをジェスチャとして認識する。また、上記の(a)〜(d)は一例であり、同様に他のジェスチャにも意味を持たせることが可能である。
The gesture recognition process is performed by the
(A) On the object projected on the screen, from a state where the finger is opened (311) to a close (312) gesture: It is recognized that the object is grasped.
(B) Gesture with one finger on the object projected on the screen: It is recognized that the object has been selected. When this gesture is performed with both hands, it is recognized that the object selected with the finger of the left hand to the object selected with the finger of the right hand is selected as the operation target.
(C) Gesture to move up / down / left / right with hand open: It is recognized as a gesture to pass the amount of movement (movement direction, movement distance, movement speed, etc.) to the system.
(D) Perform the above selection (b) with both hands (in the figure, the
Note that the gesture recognition program according to the present embodiment uses the gesture recognition program when a certain time (for example, 0.5 seconds) elapses with the hand open or closed, or with one finger out. Recognize as Also, the above (a) to (d) are examples, and it is possible to give meaning to other gestures as well.
(3−2.ジェスチャによる動画編集)
手指認識を用いて動画編集を行なう動画編集システムを構築するにあたり、本実施形態では、従来の一般的なPC向けの動画編集システムで行われる操作の中から、次の5つの主要な機能に対してアナログ入力機器が持つ特徴を取り入れることにより、動画編集システムの実装を行なった。
(A)選択
(B)移動
(C)動画ファイルの早送り/巻戻し
(D)動画の切り取り
(E)動画の連結
すなわち、本実施形態の動画編集システムを用いれば、ユーザは上述の(a)〜(d)の4つのジェスチャの組み合わせにより、(A)〜(E)に示す動画編集の機能を利用することができる。
なお、上記の(A)〜(E)の動画編集機能は一例であり、同様に、他の機能を実装することも可能である。
(3-2. Editing video with gestures)
In constructing a video editing system that performs video editing using finger recognition, in this embodiment, the following five main functions are selected from the operations performed in a conventional general video editing system for PC. The video editing system was implemented by incorporating the characteristics of analog input devices.
(A) Select (B) Move (C) Fast forward / rewind movie file (D) Cut movie (E) Link movie That is, if the movie editing system of this embodiment is used, the user can By combining the four gestures of (d) to (d), the moving image editing functions shown in (A) to (E) can be used.
Note that the moving image editing functions (A) to (E) described above are merely examples, and other functions can be similarly implemented.
以降、図2に示す動画編集アプリケーションの画面および、その画面上での操作の例を示した図4〜8を参照しながら、「元になる動画ファイルから必要な部分を切り出し、切り出した動画を連結して新たな動画ファイルを作成する」操作を例として、上記の(A)〜(E)の操作を説明する。なお、本実施形態の動画編集アプリケーションで行なわれる(A)〜(E)の動画編集の処理自体や、画面表示の処理自体は、従来の動画編集ソフトウェアと同様である。 Hereinafter, referring to FIGS. 4 to 8 showing the screen of the video editing application shown in FIG. 2 and examples of operations on the screen, “cut out a necessary part from the original video file, The above operations (A) to (E) will be described with reference to an example of an operation of “concatenating and creating a new moving image file”. Note that the video editing process (A) to (E) and the screen display process itself performed by the video editing application of the present embodiment are the same as those of the conventional video editing software.
図2は、本実施形態の動画編集アプリケーションの画面構成の一例である。画面200は、スクリーン(図1に示したスクリーン150)に投影される画面である。ユーザは、画面200上で手指のジェスチャを行なう。画面200の各エリア210〜280には、ユーザがその上で操作を行なうためのオブジェクト(画像や動画など)を表示する。
画面右上のエリア220は、本実施形態の動画編集システムで編集される元となる動画ファイルを表示するエリア(以降「clipDock」と呼ぶ)である。元となる動画ファイル(例えばmovファイルなど)は、例えば、あらかじめ画像投影用計算機110の特定のディレクトリ内に記憶しておき、それをアプリケーション起動時に自動的に読み出してclipDock220に表示するようにするとよい。ユーザはスクリーンに投影されたclipDock220から編集したい動画ファイルを選択する。clipDock220の下にあるエリア230には、clipDock220に表示されている動画ファイルの再生時間を表示する。
画面中央のエリア250は、動画ファイルを再生表示するエリア(以降「flowViewer」と呼ぶ)であり、ユーザはここで動画ファイルを閲覧して必要な部分の切り取りなどの操作や、動画の早送りや巻戻しなどを行なう。flowViewer250の上部のエリア240(以降「timelineViewer240」と呼ぶ)には、再生表示している動画ファイルの再生位置(タイムライン)などを表示する。
FIG. 2 is an example of a screen configuration of the moving image editing application of the present embodiment. The
An
An
画面左のエリア210は、ユーザが操作中の画像を表示するエリアであり、以降「in/outViewer」と呼ぶ。例えば切り取りの操作の場合に、ユーザが指定した切り取りの始点の画像を、終点を指定するまでin/outViewer210に表示して、ユーザに分かりやすいようにしている。また、画面中央下のエリア260は、切り取った動画ファイルをサムネイル等で表示するエリアであり、以降「clipViewer」と呼ぶ。実際には、例えば、切り取りの操作が行なわれると、切り取られた部分を新たな動画ファイルとして別のディレクトリ(clipViewer用に用意したディレクトリ)に格納する。
clipViewer260の下にあるエリア270は、clipViewer260に表示された動画ファイルの中からユーザが加工(例えば連結など)の対象として指定したものを表示するエリアであり、以降「compileViewer」と呼ぶ。実際には、例えば、上述のclipViewer260に表示している動画ファイル(切り取った動画ファイル)を記憶しているディレクトリ(clipViewer用のディレクトリ)から、別のディレクトリ(compileViewer用のディレクトリ)へのファイルの移動を行なう。
画面下のエリア280には、compileViewer270にある動画ファイルの合計再生時間を表示する。
An
The
In the
(1)動画ファイルの選択
まず、撮影などで得た動画ファイルから、編集したいものを選択する。上述したように、撮影された動画ファイルは、あらかじめ、画像投影用計算機110に記憶されており、画面200の右上のclipDock220には、その動画ファイルを表示している。
ユーザがclipDock220内で指を一本出した状態のまま一定時間(例えば、0.5秒)静止するジェスチャを行うと、指の下に表示されている動画ファイルが選択され、後述するflowViewer250での再生が開始される。この時、再生しているファイルがどれであるか分かりやすくするため、clipDock220内に表示されている画像の表示方法を変更するとよい。例えば、選択された画像を実際の色で表示し、それ以外のファイルを赤みがかった画像で表示する。
(1) Selection of moving image file First, a moving image file obtained by shooting or the like is selected. As described above, the captured moving image file is stored in the
When the user performs a gesture of standing still for a certain period of time (for example, 0.5 seconds) with a single finger in
(2)動画ファイルの再生
動画編集の作業の中で、撮影した動画ファイルから必要な部分を切り出す、切り取りの作業がある。この作業は、動画ファイルの中で必要な始点と終点を指定することにより行われる。その際にユーザは前後の場面との比較を行うことで場面を特定する。しかし、従来の一般的な動画編集ソフトウェアでは動画ファイルを再生表示する画面が一つであることが多く、マウスによりタイムラインを移動させながら動画ファイルの再生・巻戻し・早送りを何度も繰り返すことで場面の特定を行っている。
そこで、本実施形態では、編集対象としている動画ファイルを同一画面内に複数枚(本実施形態では例えば7枚とする)横に並べた状態で動画ファイルの再生を行うflowViewer250を備えている。
flowViewer250での再生の様子を、図4に示す。flowViewer250には410〜470まで7つの画像で同じ動画ファイルを再生表示する。ここで、本実施形態では、隣り合う画像が右から左に行くにつれ再生位置が一定時間(例えば100msec)ずつ遅れた状態で再生する。これによりユーザには、動画ファイルが右から左に流れていくかのように見える。そのためユーザは動画ファイルの流れを一度に見ることができ、前後の場面との比較を自然に行うことで、従来のタイムラインによる方法に比べ、ユーザの求めている場面を素早く選択することが可能となる。また、flowViewer250の上部には、各々のエリアについて、動画ファイルの現在の再生位置をタイムライン等で表示するtimelineViewer240を備えている。
(2) Reproduction of moving image file In the editing operation of moving image, there is a cutting operation of cutting out a necessary part from the captured moving image file. This operation is performed by designating a necessary start point and end point in the moving image file. At that time, the user identifies the scene by comparing with the preceding and following scenes. However, in conventional general video editing software, there is often a single screen for playing and displaying video files, and moving, rewinding, and fast-forwarding video files are repeated many times while moving the timeline with the mouse. The scene is specified by.
Therefore, in the present embodiment, a
FIG. 4 shows a state of reproduction by the
(3)再生速度の制御
ユーザが動画ファイルの再生の制御(早送り/巻戻しなど)を行なうにあたって、従来の動画編集ソフトウェアに実装されているスライドバーを用いたインタフェースでは、動画の再生位置が一目でわかるという利点がある一方、スライドバーが画面比率と比べ非常に小さいためポインティングが難しく、マウスを用いて正確に場面の位置を探しにくいという問題点が挙げられる。その問題点を補うため、キーボードで数値を入力する方法などがとられるが、動画ファイルの再生位置を数値入力により決定することは直感的とは言えず、非常に不自然なインタフェースであると言える。
その解決法の1つとして、マウスの移動量を動画の表示速度や表示サイズに対応させる方法がある(例えば、http://www.yugop.com/)。この方法では、マウスを左右に動かすことにより、オブジェクトを対応する方向へ移動させるが、その際に画面中央から離れるにつれオブジェクトの移動速度も速くなる。マウスの移動距離とオブジェクトの移動速度が対応しているため、ユーザにとって理解し易い操作方法であると言える。
本実施形態でも、手の移動方向や移動距離により、動画ファイルの再生を制御する。手を開いた状態で手をスライドさせる(図3(c)に示すジェスチャ)と、その移動方向や移動距離により、再生されている動画の再生速度や、表示サイズを変更する。
(3) Control of playback speed When a user controls playback of a video file (fast forward / rewind, etc.), the playback position of the video is at a glance with an interface using a slide bar implemented in conventional video editing software. On the other hand, there is an advantage that the slide bar is very small compared to the screen ratio, so pointing is difficult, and it is difficult to find the position of the scene accurately using the mouse. In order to make up for the problem, it is possible to input numerical values with the keyboard, but determining the playback position of the movie file by numerical input is not intuitive and can be said to be a very unnatural interface. .
One solution is to make the amount of movement of the mouse correspond to the display speed and display size of the moving image (for example, http://www.yugop.com/). In this method, the object is moved in the corresponding direction by moving the mouse left and right. At that time, the moving speed of the object increases as the object moves away from the center of the screen. Since the movement distance of the mouse corresponds to the movement speed of the object, it can be said that the operation method is easy for the user to understand.
Also in this embodiment, the reproduction of the moving image file is controlled by the moving direction and moving distance of the hand. When the hand is slid with the hand open (the gesture shown in FIG. 3 (c)), the playback speed and display size of the video being played are changed according to the moving direction and moving distance.
本実施形態では、動画ファイルの再生のコントロール(早送り/巻戻し)として二種類のインタフェースを構築した。一つは手の移動した位置により決定する方法である。この方法では、スクリーンに投影された画面の中心を原点とし、手の座標を用いて再生スピードを変更する。例えば画面の中心から右を早送り、中心から左を巻戻しとして、手を画面の一番端へスライドさせることで動画ファイルの早送り、巻戻しを高速で行ない、手が画面の中心に近づくにつれそのスピードを遅くする。
もう一つは、スライドさせた手の移動速度により再生スピードを変更する方法である。これは手をスライドさせた速度により、動画ファイルの再生スピードが変化する。具体的には手を右方向へスライドさせた場合、再生速度が上がり、左方向へスライドさせた場合には再生速度が下がる。上昇率、下降率ともに手をスライドさせる速度により増減し、より速くスライドさせた場合には、一度に再生速度が5段階変化するなどの制御を行なう。これにより、ユーザは場面の位置を素早く、かつ身体的に変更することが可能である。
手を右方向にスライドさせることにより再生速度を上げ、左方向にスライドさせることにより再生速度を下げる場合において、図5(a)〜(c)に、再生速度を上げるジェスチャを示す。図5(a)に示すように、まず、スクリーン上に投影された画面のflowViewer250の上で左手510を開いた状態にする。次に(b)(c)に示すように、左手510を開いたまま右方向へスライドさせると、flowViewer250で再生されている動画ファイルの再生速度を上げることができる。
In the present embodiment, two types of interfaces are constructed as a control (fast forward / rewind) for reproducing a moving image file. One is a method of determining by the position where the hand moves. In this method, the playback speed is changed using the coordinates of the hand, with the center of the screen projected on the screen as the origin. For example, fast forward right from the center of the screen, rewind left from the center, slide your hand to the end of the screen to fast forward and rewind the video file, and as your hand approaches the center of the screen Reduce the speed.
The other is a method of changing the playback speed according to the moving speed of the slid hand. This is because the playback speed of the moving image file changes depending on the speed at which the hand is slid. Specifically, when the hand is slid to the right, the playback speed is increased, and when the hand is slid to the left, the playback speed is decreased. Both the rate of increase and the rate of decrease are increased / decreased depending on the speed at which the hand is slid. Thereby, the user can change the position of the scene quickly and physically.
FIGS. 5A to 5C show gestures for increasing the playback speed when the playback speed is increased by sliding the hand to the right and the playback speed is decreased by sliding the hand to the left. As shown in FIG. 5A, first, the
また、開いた手を上下にスライドさせるジェスチャにより、flowViewer250に並んだ動画ファイルの表示サイズを変更する。例えば、同時に表示する画像の数の初期値を図4に示したように7つとして、開いた手を上にスライドさせる程、画像の表示サイズを小さくし、同時に表示する画像の数を増やす。逆に下にスライドさせる程、表示サイズを大きくし、同時に表示する画像の数を減らす。これは、場面の選択候補を増やしたい場合や、場面を大きく表示したい場合に便利である。
このように、flowViewer250で隣の場面と同時に比較しながら、身体的な操作(ジェスチャ)により再生・早送り・巻戻しを行うことができるため、従来のスライドバーや数値入力よりも、ユーザが求める場面の位置を感覚的に探しやすい。
Further, the display size of the moving image files arranged in the
In this way, while it is possible to perform playback, fast forward, and rewind by physical operation (gesture) while comparing with the next scene at the
(4)動画ファイルの切り取り
ユーザがflowViewer250上で「つかむ」ジェスチャ(上述の図3(a)のジェスチャ)を行うと、手の真下にある場面で切り取りの始点と終点を決定することができる。切り取りの始点が指定されると、図2に示す画面200のin/outViewer210に、その場面の画像が表示され、終点が指定されると、自動的に、もとの動画ファイルから始点から終点まで動画の切り取りを行なう。切り取られた動画は画面下部のclipViewer260に表示される。
ユーザが切り取りの始点を指定するジェスチャを、図6(a)〜(c)に示す。ここでは右手620で始点を指定する操作を行なっている。まず、(a)に示すように、flowViewer250上で始点の場面が表示されている上に、右手620を開いた状態で置き、次に、(b)に示すように手を閉じて、「つかむ」ジェスチャを行なう。これで、切り取りの始点が指定され、(c)に示すように、in/outViewer210に始点の画像が表示される。次に、同様の「つかむ」ジェスチャで、終点を指定する。
(4) Cutting a moving image file When the user performs a “grab” gesture (the gesture in FIG. 3A described above) on the
Gestures in which the user designates the start point of cutting are shown in FIGS. Here, an operation for designating the start point is performed with the
(5)切り取った動画ファイルの連結と再生
次に、切り取った複数の動画ファイルを連結して、1つの動画ファイルを作成する。
ユーザはまず、clipViewer260内の画像上で、選択のジェスチャ(図3(b)に示すジェスチャ)を行なって、連結したい動画ファイルを選択し、それをcompileViewer270に移動させる。また、逆のジェスチャを行うことでcompileViewer270に表示された動画ファイルをclipViewer260へ戻すことも可能である。
また、図7(a)〜(c)に示すように、両手により選択のジェスチャを行った場合、選択された両ファイルとその間のファイルを全て移動することができる。この場合、まず図7の(a)に示すようにclipViewer260で右手720と左手710により1つずつ画像を選択(図3(b)に示すジェスチャ)する。次に、(b)に示すように両手の指を出したままcompileViewer270に移動させる。すると、clipViewer260に表示されていた動画ファイルのうち、ユーザの両手の指で選択された2つのファイルと、その2つのファイルの間に表示されていた1つのファイルの、計3つのファイルが、図7(c)に示すように、compileViewer270に表示され、clipViewer260から削除される。
上記のジェスチャを繰り返し行なって、ユーザは切り取った動画ファイルの中から、連結したい動画ファイルのみを選択することができる。
画面右下にはcompileViewer270に表示された動画ファイルの合計再生時間280が自動的に表示される。
(5) Concatenation and playback of cut out moving image files Next, a plurality of cut out moving image files are connected to create one moving image file.
First, the user performs a selection gesture (gesture shown in FIG. 3B) on the image in the
Also, as shown in FIGS. 7A to 7C, when a selection gesture is performed with both hands, both the selected files and all the files in between can be moved. In this case, as shown in FIG. 7A, images are selected one by one with the
By repeatedly performing the above gesture, the user can select only a moving image file to be connected from the cut moving image files.
In the lower right of the screen, the
次に、compileViewer270に移動した動画ファイルを連結させる。compileViewer270上で、両手の指を一本ずつ出して、それぞれ始まりとなる動画ファイルと終わりとなる動画ファイルを選択し、それらの指を近付けるジェスチャ(図3(d)に示すジェスチャ)を行なう。そうすると、compileViewer270に格納されている動画ファイルが連結され、1つの動画ファイルを作成することができる。
ここで、compileViewer270に表示されたファイルで作られる動画を、実際に連結を行なう前に再生して、確認することもできる。この操作のジェスチャを図8(a)〜(c)に示す。まず(a)に示すように左手810と右手820の指で、それぞれ再生の始まりとなる動画ファイルと終わりとなる動画ファイルを選択する(両手で選択された動画ファイルとその間の動画ファイルが選択されたことになる)。次に、そのジャスチャのまま両手を画面の中央830に移動させる(b)。すると、(c)に示すように、画面中央830に、(a)で選択された動画ファイルを、compileViewer270に表示されている順に(例えば、左から順に)再生表示する。このようにして、出来上がる動画のプレビューを事前に確認することができる。
Next, the moving image file moved to the
Here, a moving image created by the file displayed on the
本実施形態の動画編集システムを用いれば、上述のように、ユーザは動画ファイルの編集を身体的な感覚で行なうことができる。
なお、上記は一例であり、同様にして、上記の(a)〜(d)の4つのジェスチャを組み合わせた操作で、上記の(A)〜(E)の5つ以外の動画編集機能を実現させることができる。さらに、(a)〜(d)に示した以外のジェスチャを認識させるようにすれば、さらに多くの動画編集機能を実現させることが可能である。
If the moving image editing system of the present embodiment is used, the user can edit the moving image file with a physical sense as described above.
Note that the above is an example, and in the same manner, the video editing functions other than the above five (A) to (E) are realized by combining the four gestures (a) to (d). Can be made. Furthermore, if a gesture other than those shown in (a) to (d) is recognized, it is possible to realize more moving image editing functions.
Claims (10)
前記動画編集画面を表示する動画編集表示手段と、
前記カメラが撮影した画像を入力する画像入力手段と、
入力した画像からユーザの手指の位置を認識する手指認識手段と、
前記ユーザの手指の位置からユーザのジェスチャの意味を認識するジェスチャ認識手段と、
前記ジェスチャに対応した動画編集を行なう動画編集手段と
を備え、動画編集の結果を動画編集画面として表示する
ことを特徴とする動画編集システム。 In the video editing system that displays the video editing screen and inputs the user's gesture for it with the camera to perform the video editing operation.
Video editing display means for displaying the video editing screen;
Image input means for inputting an image taken by the camera;
Finger recognition means for recognizing the position of the user's finger from the input image;
Gesture recognition means for recognizing the meaning of the user's gesture from the position of the user's finger;
A moving image editing means for performing moving image editing corresponding to the gesture, and displaying a result of moving image editing as a moving image editing screen.
さらに、ユーザの手指が写る前の画像を記憶する初期画面記憶手段を備えており、
前記手指認識手段は、入力した前記画像と前記初期画面記憶手段からの画像とを比較してユーザの手指の領域を取得し、円形テンプレートマッチングによりユーザの指先の位置を取得して、ユーザの手指の位置を認識する
ことを特徴とする動画編集システム。 The video editing system according to claim 1,
Furthermore, it comprises an initial screen storage means for storing an image before the user's fingers are captured,
The finger recognition means compares the input image with the image from the initial screen storage means to obtain a user finger area, obtains the position of the user fingertip by circular template matching, and obtains the user finger A video editing system that recognizes the position of the video.
前記手指認識手段における前記円形テンプレートマッチングは、ユーザの手の中心の位置を中心とする正方形の領域に対して行なう
ことを特徴とする動画編集システム。 The video editing system according to claim 2,
The moving image editing system, wherein the circular template matching in the finger recognition unit is performed on a square region centered on a center position of a user's hand.
前記動画編集表示手段は、前記動画編集画面上に複数の動画を横一列に並べ、それぞれの動画を再生する際に、隣り合う動画が右から左に行くにつれ再生位置が一定時間ずつ遅れた状態で再生する
ことを特徴とする動画編集システム。 In the moving image editing system according to any one of claims 1 to 3,
The video editing display means arranges a plurality of videos in a horizontal row on the video editing screen, and when each video is played back, the playback position is delayed by a certain time as the adjacent videos go from right to left A video editing system characterized by being played back on.
前記ジェスチャ認識手段は、前記ユーザの手指の位置が、前記編集画面上の同じ場所で手を開いた状態から手を閉じた状態になった場合に、ユーザがその位置に表示されている画像又は動画をつかんだと認識する
ことを特徴とする動画編集システム。 In the moving image editing system according to any one of claims 1 to 4,
When the position of the finger of the user is changed from a state where the hand is opened at the same place on the editing screen to a state where the hand is closed, the gesture recognition unit A video editing system characterized by recognizing that a video has been grabbed.
前記ジェスチャ認識手段は、前記ユーザの手指の位置が、前記編集画面上の同じ場所で指を一本出した状態である場合に、ユーザがその位置に表示されている画像又は動画を選択したと認識する
ことを特徴とする動画編集システム。 In the moving image editing system according to any one of claims 1 to 5,
The gesture recognition means, when the position of the finger of the user is a state where one finger is put out at the same place on the editing screen, the user selects an image or a video displayed at the position A video editing system characterized by recognition.
前記ジェスチャ認識手段は、前記ユーザの両手の手指の位置がそれぞれ、前記編集画面上の同じ場所で指を一本出した状態である場合に、ユーザがそれぞれの手の位置に表示されている画像又は動画およびそれらの間に表示されている画像又は動画を選択したと認識する
ことを特徴とする動画編集システム。 In the moving image editing system according to any one of claims 1 to 6,
The gesture recognition means is an image in which the user is displayed at the position of each hand when the positions of the fingers of both hands of the user are in the state where one finger is put out at the same place on the editing screen. Or a moving image editing system that recognizes that a moving image and an image or moving image displayed between them are selected.
前記ジェスチャ認識手段は、前記ユーザが画像又は動画を選択した後に、両手を近づけた場合に、選択した画像又は動画を一つに連結したと認識する
ことを特徴とする動画編集システム。 The moving image editing system according to claim 7,
The moving image editing system according to claim 1, wherein the gesture recognizing unit recognizes that the selected image or moving image is connected to one when the user brings both hands close after selecting the image or moving image.
前記ジェスチャ認識手段は、前記ユーザの手指の位置が、手を開いた状態のまま上下左右のいずれかに移動した場合、その移動方向および移動速度および移動距離を、動画編集の量であると認識する
ことを特徴とする動画編集システム。 In the moving image editing system according to any one of claims 1 to 8,
The gesture recognizing means recognizes the moving direction, moving speed, and moving distance as the amount of video editing when the position of the user's finger moves up, down, left, or right with the hand open. A video editing system characterized by
The program for making a computer system implement | achieve the function of the moving image editing system in any one of Claims 1-9.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004117169A JP2005301693A (en) | 2004-04-12 | 2004-04-12 | Video editing system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2004117169A JP2005301693A (en) | 2004-04-12 | 2004-04-12 | Video editing system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2005301693A true JP2005301693A (en) | 2005-10-27 |
Family
ID=35333142
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004117169A Pending JP2005301693A (en) | 2004-04-12 | 2004-04-12 | Video editing system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2005301693A (en) |
Cited By (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008529135A (en) * | 2005-01-21 | 2008-07-31 | ジェスチャー テック,インコーポレイテッド | Tracking based on movement |
| JP2010505462A (en) * | 2006-10-02 | 2010-02-25 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | A system that virtually draws on a physical surface |
| JP2010277183A (en) * | 2009-05-26 | 2010-12-09 | Sony Corp | Editing device, editing method and editing program |
| JP2011003977A (en) * | 2009-06-16 | 2011-01-06 | Sony Corp | Display device, display method and display program |
| US7893929B2 (en) | 2006-12-14 | 2011-02-22 | Konami Digital Entertainment Co., Ltd. | Game program, game device, and game control method |
| JP2012058858A (en) * | 2010-09-06 | 2012-03-22 | Sony Corp | Information processor, data division method and data division program |
| US8232964B2 (en) | 2007-10-18 | 2012-07-31 | Jun Maeda | Apparatus for operating objects and a method for identifying markers from digital image frame data |
| JP2013021480A (en) * | 2011-07-11 | 2013-01-31 | Canon Inc | Information processing equipment and control method thereof, program, and program storage medium readable by computer |
| JP2013508827A (en) * | 2009-11-06 | 2013-03-07 | ソニー株式会社 | Real-time hand tracking, pose classification, and interface control |
| JP2013186540A (en) * | 2012-03-06 | 2013-09-19 | Sony Corp | Information processing apparatus and information processing method |
| JP2013242889A (en) * | 2012-04-26 | 2013-12-05 | Bank Of Tokyo-Mitsubishi Ufj Ltd | Information processing device |
| JP2014099184A (en) * | 2008-03-04 | 2014-05-29 | Qualcomm Inc | Enhanced gesture-based image manipulation |
| JP2015038750A (en) * | 2007-09-07 | 2015-02-26 | アップル インコーポレイテッド | Gui applications for 3d remote controller |
| JP5709228B2 (en) * | 2011-04-28 | 2015-04-30 | Necソリューションイノベータ株式会社 | Information processing apparatus, information processing method, and program |
| WO2016021022A1 (en) * | 2014-08-07 | 2016-02-11 | 日立マクセル株式会社 | Projection image display device and method for controlling same |
| WO2016132480A1 (en) * | 2015-02-18 | 2016-08-25 | 日立マクセル株式会社 | Video display device and video display method |
| JP2016530659A (en) * | 2013-09-17 | 2016-09-29 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Simultaneous selection of range and value gestures |
| US9965028B2 (en) | 2010-04-07 | 2018-05-08 | Samsung Electronics Co., Ltd. | Method for suspension sensing in interactive display, method for processing suspension sensing image, and proximity sensing apparatus |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003131785A (en) * | 2001-10-22 | 2003-05-09 | Toshiba Corp | Interface device, operation control method and program product |
| JP2003248829A (en) * | 2002-02-26 | 2003-09-05 | Univ Chuo | Method and apparatus for detecting periodic motion |
| JP2003316510A (en) * | 2002-04-23 | 2003-11-07 | Nippon Hoso Kyokai <Nhk> | A display device and a display program for displaying a designated point on a display screen. |
-
2004
- 2004-04-12 JP JP2004117169A patent/JP2005301693A/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003131785A (en) * | 2001-10-22 | 2003-05-09 | Toshiba Corp | Interface device, operation control method and program product |
| JP2003248829A (en) * | 2002-02-26 | 2003-09-05 | Univ Chuo | Method and apparatus for detecting periodic motion |
| JP2003316510A (en) * | 2002-04-23 | 2003-11-07 | Nippon Hoso Kyokai <Nhk> | A display device and a display program for displaying a designated point on a display screen. |
Cited By (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008529135A (en) * | 2005-01-21 | 2008-07-31 | ジェスチャー テック,インコーポレイテッド | Tracking based on movement |
| JP2010505462A (en) * | 2006-10-02 | 2010-02-25 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | A system that virtually draws on a physical surface |
| US7893929B2 (en) | 2006-12-14 | 2011-02-22 | Konami Digital Entertainment Co., Ltd. | Game program, game device, and game control method |
| US9335912B2 (en) | 2007-09-07 | 2016-05-10 | Apple Inc. | GUI applications for use with 3D remote controller |
| JP2015038750A (en) * | 2007-09-07 | 2015-02-26 | アップル インコーポレイテッド | Gui applications for 3d remote controller |
| US8232964B2 (en) | 2007-10-18 | 2012-07-31 | Jun Maeda | Apparatus for operating objects and a method for identifying markers from digital image frame data |
| JP2014099184A (en) * | 2008-03-04 | 2014-05-29 | Qualcomm Inc | Enhanced gesture-based image manipulation |
| US9772689B2 (en) | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
| JP2010277183A (en) * | 2009-05-26 | 2010-12-09 | Sony Corp | Editing device, editing method and editing program |
| JP2011003977A (en) * | 2009-06-16 | 2011-01-06 | Sony Corp | Display device, display method and display program |
| JP2013508827A (en) * | 2009-11-06 | 2013-03-07 | ソニー株式会社 | Real-time hand tracking, pose classification, and interface control |
| US9965028B2 (en) | 2010-04-07 | 2018-05-08 | Samsung Electronics Co., Ltd. | Method for suspension sensing in interactive display, method for processing suspension sensing image, and proximity sensing apparatus |
| JP2012058858A (en) * | 2010-09-06 | 2012-03-22 | Sony Corp | Information processor, data division method and data division program |
| US9443342B2 (en) | 2010-09-06 | 2016-09-13 | Sony Corporation | Information processing apparatus, data division method, and data division program |
| JP5709228B2 (en) * | 2011-04-28 | 2015-04-30 | Necソリューションイノベータ株式会社 | Information processing apparatus, information processing method, and program |
| US9367732B2 (en) | 2011-04-28 | 2016-06-14 | Nec Solution Innovators, Ltd. | Information processing device, information processing method, and recording medium |
| US9183888B2 (en) | 2011-07-11 | 2015-11-10 | Canon Kabushiki Kaisha | Information processing device information processing method and program storage medium |
| JP2013021480A (en) * | 2011-07-11 | 2013-01-31 | Canon Inc | Information processing equipment and control method thereof, program, and program storage medium readable by computer |
| JP2013186540A (en) * | 2012-03-06 | 2013-09-19 | Sony Corp | Information processing apparatus and information processing method |
| JP2013242889A (en) * | 2012-04-26 | 2013-12-05 | Bank Of Tokyo-Mitsubishi Ufj Ltd | Information processing device |
| JP2016530659A (en) * | 2013-09-17 | 2016-09-29 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Simultaneous selection of range and value gestures |
| JPWO2016021022A1 (en) * | 2014-08-07 | 2017-06-15 | 日立マクセル株式会社 | Projection-type image display device and control method thereof |
| WO2016021022A1 (en) * | 2014-08-07 | 2016-02-11 | 日立マクセル株式会社 | Projection image display device and method for controlling same |
| WO2016132480A1 (en) * | 2015-02-18 | 2016-08-25 | 日立マクセル株式会社 | Video display device and video display method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2005301693A (en) | Video editing system | |
| US20200286185A1 (en) | Parallel echo version of media content for comment creation and delivery | |
| US10622021B2 (en) | Method and system for video editing | |
| US11417367B2 (en) | Systems and methods for reviewing video content | |
| US8633934B2 (en) | Creating animations | |
| US9465507B2 (en) | Techniques to facilitate asynchronous communication | |
| US20140096002A1 (en) | Video clip editing system | |
| Leiva et al. | Montage: a video prototyping system to reduce re-shooting and increase re-usability | |
| AU2023203194B2 (en) | Information processing device, information processing program, and recording medium | |
| Lew | Live cinema: designing an instrument for cinema editing as a live performance | |
| US11451712B2 (en) | Electronic device | |
| TWI646526B (en) | Sub-screen distribution controlling method and device | |
| JP7320253B2 (en) | Storyboard production device and program | |
| Team | Adobe Premiere Pro CS3 Classroom in a Book: Adobe Prem Pro CS3 Classroo_1 | |
| US11070734B2 (en) | Image pickup apparatus having grip, and image pickup lens therefor | |
| US20170069354A1 (en) | Method, system and apparatus for generating a position marker in video images | |
| JP2011071813A (en) | Three-dimensional animation-content editing program, device, and method | |
| US10474743B2 (en) | Method for presenting notifications when annotations are received from a remote device | |
| JP2000209541A (en) | Moving image reproducing apparatus and storage medium storing moving image reproducing program | |
| JP7150590B2 (en) | Electronics | |
| JP7150591B2 (en) | Electronics | |
| Cardinaels et al. | A multi-touch 3D set modeler for drama production | |
| JP2017102217A (en) | Display device, display program and display method | |
| JP4432529B2 (en) | Movie creating apparatus, movie creating method, and computer program | |
| Adobe Systems | Adobe Premiere Pro CS3 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070326 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091124 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100406 |