[go: up one dir, main page]

JP2011188315A - Image reproduction device and program - Google Patents

Image reproduction device and program Download PDF

Info

Publication number
JP2011188315A
JP2011188315A JP2010052458A JP2010052458A JP2011188315A JP 2011188315 A JP2011188315 A JP 2011188315A JP 2010052458 A JP2010052458 A JP 2010052458A JP 2010052458 A JP2010052458 A JP 2010052458A JP 2011188315 A JP2011188315 A JP 2011188315A
Authority
JP
Japan
Prior art keywords
display
image
area
face area
specific area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010052458A
Other languages
Japanese (ja)
Inventor
Shigeru Kafuku
滋 加福
Motohisa Nakamori
元央 中森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010052458A priority Critical patent/JP2011188315A/en
Publication of JP2011188315A publication Critical patent/JP2011188315A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To simply configure information on reproduction and display of a specific area detected from an image. <P>SOLUTION: An image pickup device 100 includes: an operation trajectory specifying part 3 for specifying an operation trajectory in an image display area of a display panel 1a formed by connecting a plurality of operation points input on the basis of a predetermined operation of an operation input part 2 by user; a specific area detecting part 4a for detecting a specific area overlapping an operation trajectory specified by the operation trajectory specifying part from a displayed image; and a reproduction display information setting part 4b for setting a display magnification of the specific area, based on a speed for sequentially inputting the plurality of operation points composing the operation trajectory overlapping the specific area, on the basis of the predetermined operation of the operation input part. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像を再生表示する画像再生装置及びプログラムに関する。   The present invention relates to an image reproduction apparatus and program for reproducing and displaying an image.

従来、表示画面にタッチパネルを搭載した画像再生装置が知られており、タッチパネルに対する所定の描画操作に基づいて、当該所定の描画操作の軌跡や方向や速度などに応じた演出効果を画像に付与して表示画面に表示するものがある(例えば、特許文献1参照)。
この特許文献1の技術は、例えば、タッチパネルに対して所定の円が描かれた後、当該所定の円から外に向かう直線が描かれると、所定の円の内側の画像部分を表示領域に設定するとともに、その表示領域を直線が描かれた方向に描かれた速さで移動させる。
2. Description of the Related Art Conventionally, there has been known an image reproducing apparatus that includes a touch panel on a display screen, and on the basis of a predetermined drawing operation on the touch panel, a rendering effect corresponding to the locus, direction, speed, etc. of the predetermined drawing operation is given to an image. Are displayed on the display screen (see, for example, Patent Document 1).
For example, in the technique of Patent Document 1, after a predetermined circle is drawn on the touch panel, when a straight line extending from the predetermined circle is drawn, an image portion inside the predetermined circle is set as a display area. At the same time, the display area is moved at the speed drawn in the direction in which the straight line is drawn.

特開2009−260691号公報JP 2009-260691 A

ところで、上記特許文献1にあっては、移動させる表示領域を拡大させることも可能であるが、タッチパネルに対して表示領域として所定の小さな円を描いた後、当該小さな円の外側に大きな円を描く必要があり、移動させる表示領域の指定と移動後(拡大後)の表示領域の大きさの指定を別個に行う必要があった。
特に、例えば、スライドショー再生に際して、表示領域の指定と当該表示領域の移動後の大きさの指定操作を何度も行うことは煩雑である。
By the way, in Patent Document 1, it is possible to enlarge the display area to be moved, but after drawing a predetermined small circle as a display area on the touch panel, a large circle is placed outside the small circle. It is necessary to draw, and it is necessary to separately specify the display area to be moved and the size of the display area after movement (after enlargement).
In particular, for example, when a slide show is reproduced, it is troublesome to repeatedly specify the display area and specify the size of the display area after moving.

そこで、本願発明の課題は、画像内の特定領域の再生表示内容の設定を簡便に行うことができる画像再生装置及びプログラムを提供することである。   Accordingly, an object of the present invention is to provide an image reproducing apparatus and program capable of easily setting the reproduction display contents of a specific area in an image.

上記課題を解決するため、本発明の画像再生装置は、
画像を表示する表示手段と、この表示手段の画像表示領域における、ユーザによる操作入力手段の所定操作に基づいて入力指示された複数の操作点を結んでなる操作軌跡を特定する特定手段と、前記表示手段に表示された画像から前記特定手段により特定された前記操作軌跡と重なる特定領域を検出する検出手段と、この検出手段により検出される特定領域と重なる前記操作軌跡を構成する前記複数の操作点を前記操作入力手段の所定操作に基づいて順次入力指示する速度を操作指示速度と呼んだ場合、当該操作指示速度を基準として前記特定領域の表示倍率を設定する設定手段と、を備えることを特徴としている。
In order to solve the above-described problem, an image reproduction apparatus according to the present invention provides:
Display means for displaying an image; specifying means for specifying an operation locus connecting a plurality of operation points instructed to input based on a predetermined operation of the operation input means by a user in an image display area of the display means; Detection means for detecting a specific area overlapping the operation locus specified by the specifying means from the image displayed on the display means, and the plurality of operations constituting the operation locus overlapping the specific area detected by the detection means A setting means for setting a display magnification of the specific area based on the operation instruction speed when a speed at which a point is sequentially input based on a predetermined operation of the operation input means is called an operation instruction speed. It is a feature.

また、本発明のプログラムは、
画像を表示する表示手段を備える画像再生装置のコンピュータを、前記表示手段の画像表示領域における、ユーザによる操作入力手段の所定操作に基づいて入力指示された複数の操作点を結んでなる操作軌跡を特定する特定手段、前記表示手段に表示された画像から前記特定手段により特定された前記操作軌跡と重なる特定領域を検出する検出手段、この検出手段により検出される特定領域と重なる前記操作軌跡を構成する前記複数の操作点を前記操作入力手段の所定操作に基づいて順次入力指示する速度を操作指示速度と呼んだ場合、当該操作指示速度を基準として前記特定領域の表示倍率を設定する設定手段、として機能させることを特徴としている。
The program of the present invention is
An operation trajectory formed by connecting a plurality of operation points instructed to be input based on a predetermined operation of the operation input means by the user in the image display area of the display means is displayed on the computer of the image reproduction apparatus including display means for displaying an image. A specifying means for specifying, a detecting means for detecting a specific area overlapping with the operation locus specified by the specifying means from an image displayed on the display means, and the operation locus overlapping with the specific area detected by the detecting means A setting means for setting a display magnification of the specific area based on the operation instruction speed when a speed for sequentially inputting the plurality of operation points to be input based on a predetermined operation of the operation input means is called an operation instruction speed; It is characterized by making it function as.

本発明によれば、画像から検出される特定領域の再生表示内容の設定を簡便に行うことができ、この結果、使い勝手の良いスライドショー再生の実現を図ることができる。   According to the present invention, it is possible to easily set the reproduction display content of a specific area detected from an image, and as a result, it is possible to realize a user-friendly slide show reproduction.

本発明を適用した一実施形態の画像表示装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image display apparatus of one Embodiment to which this invention is applied. 図1の画像表示装置による画像再生処理に係る表示内容設定用テーブルの一例を模式的に示す図である。It is a figure which shows typically an example of the display content setting table which concerns on the image reproduction process by the image display apparatus of FIG. 図2の画像再生処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to the image reproduction process of FIG. 2. 図2の画像再生処理に係る画像及び操作軌跡の一例を模式的に示す図である。It is a figure which shows typically an example of the image and operation locus which concern on the image reproduction process of FIG. 図2の画像再生処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the image reproduction process of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の画像表示装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram showing a schematic configuration of an image display apparatus 100 according to an embodiment to which the present invention is applied.

本実施形態の画像表示装置100は、表示パネル1aの画像表示領域における、ユーザによるタッチパネル2aの所定操作に基づいて入力指示された複数の操作点を結んでなる操作軌跡Lを特定する。そして、画像表示装置100は、表示画像から操作軌跡Lと重なる顔領域を検出し、この顔領域と重なる操作軌跡Lを構成する複数の操作点をタッチパネル2aの所定操作に基づいて順次入力指示する速度を基準として、当該顔領域の表示倍率を設定する。
具体的には、画像表示装置100は、例えば、卓上に設置されるデジタルフォトフレーム等であり、図1に示すように、表示部1と、操作入力部2と、操作軌跡特定部3と、画像処理部4と、メモリ5と、画像記録部6と、中央制御部7とを備えている。
The image display apparatus 100 according to the present embodiment specifies an operation locus L formed by connecting a plurality of operation points input based on a predetermined operation of the touch panel 2a by the user in the image display area of the display panel 1a. Then, the image display apparatus 100 detects a face area that overlaps with the operation locus L from the display image, and sequentially inputs a plurality of operation points that constitute the operation locus L that overlaps with the face area based on a predetermined operation of the touch panel 2a. The display magnification of the face area is set based on the speed.
Specifically, the image display device 100 is, for example, a digital photo frame installed on a table, and as illustrated in FIG. 1, the display unit 1, the operation input unit 2, the operation locus specifying unit 3, An image processing unit 4, a memory 5, an image recording unit 6, and a central control unit 7 are provided.

表示部1は、表示パネル1aと、表示制御部1bとを具備している。
表示パネル1aは、画像(例えば、画像P1等;図4参照)を表示する表示手段を構成している。また、表示パネル1aとしては、例えば、液晶表示パネルや有機EL表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。
表示制御部1bは、画像記録部6から読み出され画像処理部4により復号された画像データを表示パネル1aの表示画面に表示させる。
The display unit 1 includes a display panel 1a and a display control unit 1b.
The display panel 1a constitutes display means for displaying an image (for example, the image P1 or the like; see FIG. 4). Examples of the display panel 1a include a liquid crystal display panel and an organic EL display panel. However, the display panel 1a is an example and is not limited thereto.
The display control unit 1b displays the image data read from the image recording unit 6 and decoded by the image processing unit 4 on the display screen of the display panel 1a.

また、表示制御部1bは、画像再生処理(後述)にて、画像処理部4の特定領域検出部4a(後述)により顔領域(例えば、顔領域f1、f2、f3等;図5(a)〜図5(c)参照)が順次検出されると、これら複数の顔領域を検出順に表示パネル1aの表示画面に表示させる。このとき、表示制御部1bは、各顔領域を再生表示内容設定部4b(後述)により設定された各顔領域の再生表示内容に従った表示態様で表示させる。即ち、表示制御部1bは、特定領域検出部4aにより順次検出された顔領域を、再生表示内容設定部4bの表示倍率設定部4d(後述)により設定された当該顔領域の表示倍率に従って拡大させる。また、表示制御部1bは、特定領域検出部4aにより順次検出された顔領域を、表示時間設定部4e(後述)により設定された当該顔領域の表示時間で表示パネル1aの表示画面に表示させる。   Further, the display control unit 1b performs a face region (for example, face regions f1, f2, f3, etc.) by a specific region detection unit 4a (described later) of the image processing unit 4 in an image reproduction process (described later); FIG. When FIG. 5C is sequentially detected, the plurality of face regions are displayed on the display screen of the display panel 1a in the order of detection. At this time, the display control unit 1b displays each face area in a display mode according to the reproduction display content of each face area set by the reproduction display content setting unit 4b (described later). That is, the display control unit 1b enlarges the face area sequentially detected by the specific area detection unit 4a according to the display magnification of the face area set by the display magnification setting unit 4d (described later) of the reproduction display content setting unit 4b. . Further, the display control unit 1b displays the face areas sequentially detected by the specific area detection unit 4a on the display screen of the display panel 1a with the display time of the face area set by the display time setting unit 4e (described later). .

操作入力部2は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成される操作部を有し、これらの操作部の操作に応じて所定の操作信号を中央制御部7に出力する。   The operation input unit 2 has an operation unit constituted by, for example, data input keys for inputting numerical values, characters, etc., up / down / left / right movement keys for performing data selection, feeding operations, etc. Then, a predetermined operation signal is output to the central control unit 7 in accordance with the operation of these operation units.

また、操作入力部2は、表示部1の表示パネル1aと一体となって設けられたタッチパネル2aを有している。
タッチパネル2aは、表示パネル1aの画像表示領域をなす表示画面に直接的若しくは間接的に接触するユーザの指(手)やタッチペン等の接触位置を検出する(図4参照)。即ち、タッチパネル2aは、例えば、表示画面上或いは当該表示画面よりも内側に設けられ、抵抗膜方式、超音波表面弾性波方式、静電容量方式等の各種方式により、表示画面上における接触位置のXY座標を検出する。そして、タッチパネル2aは、接触位置のXY座標に係る位置信号を中央制御部7に出力する。
なお、タッチパネル2aによる表示画面上における接触位置の検出精度は、適宜任意に変更可能であり、例えば、厳密に一の画素を接触位置としても良いし、一の画素を中心とする所定範囲内の複数の画素を接触位置としても良い。
Further, the operation input unit 2 has a touch panel 2 a provided integrally with the display panel 1 a of the display unit 1.
The touch panel 2a detects the contact position of a user's finger (hand), touch pen, or the like that directly or indirectly contacts the display screen forming the image display area of the display panel 1a (see FIG. 4). That is, the touch panel 2a is provided, for example, on the display screen or inside the display screen, and the touch position of the touch position on the display screen can be determined by various methods such as a resistive film method, an ultrasonic surface acoustic wave method, and a capacitance method. XY coordinates are detected. Then, the touch panel 2 a outputs a position signal related to the XY coordinates of the contact position to the central control unit 7.
In addition, the detection accuracy of the contact position on the display screen by the touch panel 2a can be arbitrarily arbitrarily changed. For example, one pixel may be strictly set as the contact position, or within a predetermined range centered on one pixel. A plurality of pixels may be used as the contact position.

操作軌跡特定部3は、ユーザによる操作入力部2の所定の描画操作に基づいて入力された操作軌跡L(図4参照)を特定する。
即ち、操作軌跡特定部3は、操作入力部2のタッチパネル2aにより連続して検出された接触位置のXY座標に係る位置信号が中央制御部7から出力されて入力されると、当該タッチパネル2aの接触位置の各々を表示パネル1aの画像表示領域における操作点の各々として特定する。そして、軌跡特定部は、特定された複数の操作点どうしを結線することで、ユーザによる描画操作に対応する操作軌跡L(図4参照)を特定する。
なお、図4にあっては、表示パネル1aの画像表示領域上に操作軌跡Lの一例を模式的に表しているが、当該操作軌跡Lを視認可能に表示するか否かは適宜任意に変更可能である。
ここで、操作軌跡特定部3は、表示パネル1aの画像表示領域における、ユーザによる操作入力部2の所定操作に基づいて入力指示された複数の操作点を結んでなる操作軌跡Lを特定する特定手段を構成している。
The operation locus specifying unit 3 specifies an operation locus L (see FIG. 4) input based on a predetermined drawing operation of the operation input unit 2 by the user.
That is, when the position signal related to the XY coordinates of the contact position continuously detected by the touch panel 2a of the operation input unit 2 is output from the central control unit 7 and input, the operation locus specifying unit 3 Each contact position is specified as each operation point in the image display area of the display panel 1a. And a locus | trajectory specific | specification part specifies the operation locus | trajectory L (refer FIG. 4) corresponding to drawing operation by a user by connecting the specified several operation points.
In FIG. 4, an example of the operation locus L is schematically shown on the image display area of the display panel 1a. However, whether or not the operation locus L is displayed so as to be visible can be arbitrarily changed as appropriate. Is possible.
Here, the operation trajectory specifying unit 3 specifies an operation trajectory L formed by connecting a plurality of operation points input based on a predetermined operation of the operation input unit 2 by the user in the image display area of the display panel 1a. Means.

画像処理部4は、画像記録部6から読み出された表示画像の静止画像データや動画像データを対応する所定の符号化方式(例えば、JPEG形式、モーションJPEG形式、MPEG形式など)に従って復号して、表示制御部1bに出力する。
また、画像処理部4は、画像再生処理にて、スライドショー再生に係る顔領域の検出や、当該顔領域の再生表示内容の設定等を行う。具体的には、画像処理部4は、特定領域検出部4aと、再生表示内容設定部4bとを具備している。
The image processing unit 4 decodes still image data and moving image data of the display image read from the image recording unit 6 according to a predetermined encoding method (for example, JPEG format, motion JPEG format, MPEG format, etc.). To the display control unit 1b.
Further, the image processing unit 4 detects a face area related to the slide show reproduction, sets the reproduction display contents of the face area, and the like in the image reproduction process. Specifically, the image processing unit 4 includes a specific area detection unit 4a and a reproduction display content setting unit 4b.

特定領域検出部4aは、表示パネル1aに表示された画像(例えば、画像P1等)から特定領域(例えば、人の顔領域など)を検出する。
即ち、特定領域検出部4aは、表示画像の静止画像データに対して、例えば、顔検出処理などの所定の画像認識技術を利用して、操作軌跡特定部3により特定された操作軌跡Lと重なる特定領域を検出する。具体的には、特定領域検出部4aは、表示画像内で操作軌跡特定部3により特定された操作軌跡Lと重なる部分を基準(例えば、中心)とした顔画像の探索領域を設定し、当該探索領域内で所定の顔検出用情報と最も近似性の高い部分を顔領域として検出する。
また、特定領域検出部4aは、ユーザによる一連の描画操作に応じて操作軌跡特定部3により特定される操作軌跡Lが長くなるにつれて、当該操作軌跡Lと順次重なる顔領域を表示画像内から順次検出していく。例えば、特定領域検出部4aは、表示画像内の顔領域として、顔領域f1、顔領域f2、顔領域f3、…と順次検出していく(図5(a)〜図5(c)参照)。
ここで、特定領域検出部4aによる処理対象となる表示画像の画像データは、例えば、画像記録部6から読み出された記録用の高解像度の画像データであっても良いし、処理速度の高速化等を図る上で、特定領域の検出用に生成された、記録用の画像データよりも低解像度の画像データであっても良い。
The specific area detection unit 4a detects a specific area (for example, a human face area) from an image (for example, the image P1 or the like) displayed on the display panel 1a.
That is, the specific area detection unit 4a overlaps the operation locus L specified by the operation locus specification unit 3 with respect to the still image data of the display image by using a predetermined image recognition technique such as face detection processing, for example. Detect specific areas. Specifically, the specific area detection unit 4a sets a search area for a face image based on a portion (for example, the center) that overlaps the operation locus L specified by the operation locus specification unit 3 in the display image. In the search area, a part having the highest similarity to predetermined face detection information is detected as a face area.
In addition, as the operation locus L specified by the operation locus specifying unit 3 becomes longer in accordance with a series of drawing operations by the user, the specific area detection unit 4a sequentially adds face areas that sequentially overlap the operation locus L from the display image. I will detect it. For example, the specific area detection unit 4a sequentially detects the face area f1, the face area f2, the face area f3,... As the face areas in the display image (see FIGS. 5A to 5C). .
Here, the image data of the display image to be processed by the specific area detection unit 4a may be, for example, high-resolution image data for recording read from the image recording unit 6, or high processing speed. For example, the image data may be image data having a lower resolution than the image data for recording generated for detecting the specific area.

なお、特定領域として、人の顔領域を例示したが、一例であってこれに限られるものではなく、適宜任意に変更可能であり、例えば、物体、植物、動物などの主要領域であっても良い。
また、画像認識技術として、例えば、エッジ検出処理、特徴抽出処理等を適用しても良く、色や明るさの変化の連続性から特定領域の輪郭を抽出するようにしても良いし、予め特定領域の種類(例えば、人の顔領域や主要領域など)を特定しておき当該特定領域の特徴情報と比較判定して輪郭を抽出するようにしても良い。なお、顔検出処理やエッジ検出処理や特徴抽出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
このように、特定領域検出部4aは、表示パネル1aに表示された画像から操作軌跡特定部3により特定された操作軌跡Lと重なる顔領域(特定領域)を検出する検出手段を構成している。
In addition, although the human face area is illustrated as the specific area, it is an example and is not limited thereto, and can be arbitrarily changed as appropriate. For example, even a main area such as an object, a plant, or an animal may be used. good.
In addition, as an image recognition technique, for example, edge detection processing, feature extraction processing, or the like may be applied, or the outline of a specific area may be extracted from the continuity of changes in color or brightness, or specified in advance. The type of area (for example, a human face area or main area) may be specified, and a contour may be extracted by comparison with the characteristic information of the specific area. Note that the face detection process, the edge detection process, and the feature extraction process are known techniques, and thus detailed description thereof is omitted here.
As described above, the specific area detecting unit 4a constitutes a detecting unit that detects a face area (specific area) overlapping with the operation locus L specified by the operation locus specifying unit 3 from the image displayed on the display panel 1a. .

再生表示内容設定部4bは、顔領域と重なる操作軌跡Lを構成する複数の操作点を操作入力部2の所定操作に基づいて順次入力指示する速度vを基準として、表示画像(例えば、画像P1等)から検出された顔領域(例えば、顔領域f1、f2、f3等)の再生表示内容を設定する。具体的には、再生表示内容設定部4bは、操作指示速度算出部4cと、表示倍率設定部4dと、表示時間設定部4eとを具備している。   The reproduction display content setting unit 4b uses the speed v for sequentially inputting a plurality of operation points constituting the operation locus L overlapping the face area based on a predetermined operation of the operation input unit 2 as a reference image (for example, the image P1). And the like, for example, the reproduction display contents of the face area (for example, face areas f1, f2, f3, etc.) detected from the face area are set. Specifically, the reproduction display content setting unit 4b includes an operation instruction speed calculation unit 4c, a display magnification setting unit 4d, and a display time setting unit 4e.

操作指示速度算出部4cは、操作軌跡Lを構成する複数の操作点を操作入力部2の所定操作に基づいて順次入力指示する速度v(以下、「複数の操作点の操作指示速度v」と言う。)を算出する。
ここで、複数の操作点の操作指示速度vとは、ユーザによる操作入力部2の所定操作によって、表示パネル1aの画像表示領域にて表示画像の一の特定領域(例えば、顔領域)と重なる操作軌跡Lを構成する複数の操作点を順次入力指示する速度のことである。即ち、操作入力部2のタッチパネル2aに対するユーザの接触操作(描画操作)によって操作軌跡Lを入力する場合、ユーザによるタッチパネル2aの接触操作に基づいて、表示パネル1aの画像表示領域に表示された表示画像の一の顔領域(特定領域)上をユーザの指やタッチペン等が通過する。これにより、当該一の顔領域と重なる操作軌跡Lを構成する複数の操作点が順次入力指示されていき、これら複数の操作点を順次入力指示する速度が複数の操作点の操作指示速度vとなる。
そして、操作指示速度算出部4cは、例えば、表示画像の一の顔領域(特定領域)と重なる操作軌跡Lの距離(例えば、ピクセル数)を、一の顔領域に対して当該操作軌跡Lを構成する最初の操作点が重なり始めてから最後の操作点との重なりが終了するまでの時間で除算することにより、複数の操作点の操作指示速度vを算出する。
なお、上記した複数の操作点の操作指示速度vの算出方法は、一例であってこれに限られるものではなく、例えば、用いられる演算式等は適宜任意に変更可能である。
The operation instruction speed calculating unit 4c sequentially inputs a plurality of operation points constituting the operation locus L based on a predetermined operation of the operation input unit 2 (hereinafter referred to as “operation instruction speed v of a plurality of operation points”). Say).
Here, the operation instruction speed v of the plurality of operation points overlaps with one specific area (for example, a face area) of the display image in the image display area of the display panel 1a by a predetermined operation of the operation input unit 2 by the user. This is a speed at which a plurality of operation points constituting the operation locus L are sequentially input. That is, when the operation locus L is input by the user's touch operation (drawing operation) on the touch panel 2a of the operation input unit 2, the display displayed in the image display area of the display panel 1a based on the touch operation of the touch panel 2a by the user. A user's finger, a touch pen, or the like passes over one face area (specific area) of the image. As a result, a plurality of operation points constituting the operation locus L that overlaps with the one face area are sequentially input, and the speed at which the plurality of operation points are sequentially input is set to the operation instruction speed v of the plurality of operation points. Become.
Then, the operation instruction speed calculation unit 4c, for example, calculates the distance (for example, the number of pixels) of the operation locus L that overlaps one face region (specific region) of the display image to the operation locus L for one face region. The operation instruction speed v for a plurality of operation points is calculated by dividing by the time from when the first operation point to be configured begins to overlap until the overlap with the last operation point ends.
The method for calculating the operation instruction speed v at the plurality of operation points described above is an example and is not limited to this. For example, the arithmetic expression used can be arbitrarily changed as appropriate.

表示倍率設定部4dは、表示画像(例えば、画像P1等)から検出された顔領域の表示倍率を設定する。
即ち、表示倍率設定部4dは、操作指示速度算出部4cにより算出された顔領域と重なる操作軌跡Lを構成する複数の操作点の操作指示速度vを基準として、当該顔領域の表示制御部1bによるスライドショー再生の際の表示倍率を設定する。具体的には、表示倍率設定部4dは、表示内容設定用テーブルT(図2参照)を用いて、顔領域の指示に係る複数の操作点をタッチパネル2aの接触操作に基づいて順次入力指示する操作指示速度v(ユーザの指やタッチペンの操作指示速度v)に反比例させるように当該顔領域の表示倍率を設定する。つまり、表示倍率設定部4dは、複数の操作点の操作指示速度vが速いほど当該顔領域の表示倍率が相対的に小さくなるように設定する。その一方で、表示倍率設定部4dは、複数の操作点の操作指示速度vが遅いほど当該顔領域の表示倍率が相対的に大きくなるように設定する。例えば、表示倍率設定部4dは、表示内容設定用テーブルTを参照して、顔領域(例えば、顔領域f3;図5(c)参照)の操作指示速度v(例えば、「v2≦v<v1」など)に応じて当該顔領域の表示倍率(例えば、「2倍」など)を設定する。
また、表示倍率設定部4dは、特定領域検出部4aにより顔領域(特定領域)が順次検出された場合には、これら複数の顔領域の各々の操作指示速度vに応じて各顔領域の表示倍率を順次設定する。なお、この場合における顔領域の表示倍率の設定順は、特定領域検出部4aによる顔領域の検出順と同じでも異なっていても構わない。
The display magnification setting unit 4d sets the display magnification of the face area detected from the display image (for example, the image P1).
That is, the display magnification setting unit 4d uses the operation instruction speed v of a plurality of operation points constituting the operation locus L that overlaps the face area calculated by the operation instruction speed calculation unit 4c as a reference, and the display control unit 1b for the face area. Sets the display magnification for slide show playback by. Specifically, the display magnification setting unit 4d uses the display content setting table T (see FIG. 2) to sequentially input a plurality of operation points related to the face area instruction based on the touch operation of the touch panel 2a. The display magnification of the face area is set so as to be inversely proportional to the operation instruction speed v (the operation instruction speed v of the user's finger or touch pen). That is, the display magnification setting unit 4d sets the display magnification of the face area to be relatively smaller as the operation instruction speed v of the plurality of operation points is faster. On the other hand, the display magnification setting unit 4d sets the display magnification of the face area to be relatively larger as the operation instruction speed v of the plurality of operation points is slower. For example, the display magnification setting unit 4d refers to the display content setting table T and operates the operation instruction speed v (for example, “v2 ≦ v <v1” of the face area (for example, the face area f3; see FIG. 5C)). ”Etc.) is set in accordance with the display magnification of the face area (for example,“ 2 × ”, etc.).
The display magnification setting unit 4d displays each face area according to the operation instruction speed v of each of the plurality of face areas when the face area (specific area) is sequentially detected by the specific area detection unit 4a. Set the magnification sequentially. In this case, the order of setting the display magnification of the face area may be the same as or different from the order of detection of the face area by the specific area detection unit 4a.

また、顔領域(特定領域)の表示倍率とは、表示画像(原画像)から検出された特定領域を当該特定領域の原画像における寸法に対して拡大する倍率のことである。なお、当該表示倍率は、「0」以上であれば任意な値をとることができ、例えば、「1倍(原画像の特定領域と当倍率)」に満たなくても良い。
ここで、表示倍率設定部4dは、顔領域(特定領域)と重なる操作軌跡Lを構成する複数の操作点を操作入力部2の所定操作に基づいて順次入力指示する速度vを操作指示速度v)と呼んだ場合、当該操作指示速度vを基準として顔領域の表示倍率を設定する設定手段を構成している。
The display magnification of the face region (specific region) is a magnification for enlarging the specific region detected from the display image (original image) with respect to the dimension of the original image of the specific region. Note that the display magnification can be any value as long as it is “0” or more. For example, the display magnification does not have to be less than “1 time (a specific area of the original image and this magnification)”.
Here, the display magnification setting unit 4d determines a speed v for sequentially inputting a plurality of operation points constituting the operation locus L overlapping the face area (specific area) based on a predetermined operation of the operation input unit 2 as an operation instruction speed v. ), Setting means for setting the display magnification of the face area on the basis of the operation instruction speed v is configured.

表示時間設定部4eは、表示画像(例えば、画像P1等)から検出された顔領域の表示時間を設定する。
即ち、表示時間設定部4eは、操作指示速度算出部4cにより算出された顔領域と重なる操作軌跡Lを構成する複数の操作点の操作指示速度vを基準として、当該顔領域の表示制御部1bによるスライドショー再生の際の表示時間を設定する。具体的には、表示時間設定部4eは、表示内容設定用テーブルT(図2参照)を用いて、顔領域の指示に係る複数の操作点をタッチパネル2aの接触操作に基づいて順次入力指示する操作指示速度v(ユーザの指やタッチペンの操作指示速度v)に正比例させるように当該顔領域の表示時間を設定する。つまり、表示時間設定部4eは、複数の操作点の操作指示速度vが速いほど当該顔領域の表示時間が相対的に短くなるように設定する。その一方で、表示時間設定部4eは、複数の操作点の操作指示速度vが遅いほど当該顔領域の表示時間が相対的に長くなるように設定する。例えば、表示時間設定部4eは、表示内容設定用テーブルTを参照して、顔領域(例えば、顔領域f3;図5(c)参照)の操作指示速度v(例えば、「v2≦v<v1」など)に応じて当該顔領域の表示時間(例えば、「2秒」など)を設定する。
また、表示時間設定部4eは、特定領域検出部4aにより顔領域(特定領域)が順次検出された場合には、これら複数の顔領域の各々の操作指示速度vに応じて各顔領域の表示時間を順次設定する。なお、この場合における顔領域の表示時間の設定順は、特定領域検出部4aによる顔領域の検出順と同じでも異なっていても構わない。
The display time setting unit 4e sets the display time of the face area detected from the display image (for example, the image P1).
That is, the display time setting unit 4e uses the operation instruction speed v of a plurality of operation points constituting the operation locus L that overlaps the face area calculated by the operation instruction speed calculation unit 4c as a reference, and the face area display control unit 1b. Sets the display time for slide show playback by. Specifically, the display time setting unit 4e uses the display content setting table T (see FIG. 2) to sequentially input a plurality of operation points related to the face area instruction based on the touch operation of the touch panel 2a. The display time of the face area is set so as to be directly proportional to the operation instruction speed v (the operation instruction speed v of the user's finger or touch pen). That is, the display time setting unit 4e sets the display time of the face area to be relatively shorter as the operation instruction speed v of the plurality of operation points is faster. On the other hand, the display time setting unit 4e sets the display time of the face area to be relatively longer as the operation instruction speed v of the plurality of operation points is slower. For example, the display time setting unit 4e refers to the display content setting table T and operates the operation instruction speed v (for example, “v2 ≦ v <v1” of the face area (for example, the face area f3; see FIG. 5C)). The display time of the face area (for example, “2 seconds”, etc.) is set according to “.
In addition, when the specific area detection unit 4a sequentially detects the face area (specific area), the display time setting unit 4e displays each face area according to the operation instruction speed v of each of the plurality of face areas. Set the time sequentially. In this case, the order of setting the display time of the face area may be the same as or different from the order of detection of the face area by the specific area detection unit 4a.

また、顔領域(特定領域)の表示時間とは、特定領域が表示画面に表示されてから当該表示が終了するまでの時間のことである。なお、顔領域の表示のON/OFFを切り替える際に切替エフェクト(例えば、フェードイン、フェードアウト、ワイプ等)を適用する場合には、当該切替エフェクトを実行中の時間を含ませるようにしても良いし除いても良い。
ここで、表示時間設定部4eは、顔領域(特定領域)と重なる操作軌跡Lを構成する複数の操作点を操作入力部2の所定操作に基づいて順次入力指示する速度v(複数の操作点の操作指示速度v)を基準として、表示制御部1bによる当該顔領域の表示時間を設定する設定手段として機能する。
The display time of the face area (specific area) is the time from when the specific area is displayed on the display screen until the display is finished. Note that when a switching effect (for example, fade-in, fade-out, wipe, etc.) is applied when switching the face area display ON / OFF, the time during which the switching effect is being executed may be included. It may be removed.
Here, the display time setting unit 4e sequentially inputs a plurality of operation points constituting the operation locus L that overlaps the face region (specific region) based on a predetermined operation of the operation input unit 2 (speed v (a plurality of operation points). Functioning as a setting means for setting the display time of the face area by the display control unit 1b.

表示内容設定用テーブルTは、図2に示すように、顔領域と重なる操作軌跡Lを構成する複数の操作点を操作入力部2の所定操作に基づいて順次入力指示する速度vである顔領域の操作指示速度vと、当該顔領域の表示倍率と、当該顔領域の表示時間とを対応付けて記憶するものである。ここで、顔領域の操作指示速度vと当該顔領域の表示倍率とは反比例の関係を有し、また、顔領域の操作指示速度vと当該顔領域の表示時間とは正比例の関係を有している。
具体的には、例えば、速度v1以上の速度である顔領域の操作指示速度v(「v1≦v」)と、顔領域の表示倍率「1倍」と、当該顔領域の表示時間「1秒」とがそれぞれ対応付けられている。また、例えば、速度v1よりも遅く速度v2以上の速度である顔領域の操作指示速度v(「v2≦v<v1」)と、顔領域の表示倍率「2倍」と、当該顔領域の表示時間「2秒」とがそれぞれ対応付けられている。また、例えば、速度v2よりも遅く速度v3以上の速度である顔領域の操作指示速度v(「v3≦v<v2」)と、顔領域の表示倍率「3倍」と、当該顔領域の表示時間「3秒」とがそれぞれ対応付けられている。同様に、速度v3よりも遅い顔領域の操作指示速度vについても、当該速度が「0」となるまでそれぞれ対応付けて記憶されているが、図示は省略する。
なお、表示内容設定用テーブルTにおける顔領域の操作指示速度vと、当該顔領域の表示倍率と、当該顔領域の表示時間との対応関係は、一例であってこれらに限られるものではなく、適宜任意に変更可能である。
As shown in FIG. 2, the display content setting table T is a face area having a speed v for sequentially inputting a plurality of operation points constituting an operation locus L overlapping the face area based on a predetermined operation of the operation input unit 2. The operation instruction speed v, the display magnification of the face area, and the display time of the face area are stored in association with each other. Here, the operation instruction speed v of the face area and the display magnification of the face area are inversely proportional, and the operation instruction speed v of the face area and the display time of the face area are directly proportional. ing.
Specifically, for example, the operation instruction speed v (“v1 ≦ v”) of the face area which is a speed equal to or higher than the speed v1, the display magnification “1 ×” of the face area, and the display time “1 second” of the face area Are associated with each other. Also, for example, the operation instruction speed v (“v2 ≦ v <v1”) of the face area which is slower than the speed v1 and higher than the speed v2, the display magnification “2 ×” of the face area, and the display of the face area The time “2 seconds” is associated with each other. Also, for example, the face area operation instruction speed v (“v3 ≦ v <v2”) that is slower than the speed v2 and higher than the speed v3, the face area display magnification “3 ×”, and the display of the face area The time “3 seconds” is associated with each other. Similarly, the operation instruction speed v of the face area slower than the speed v3 is also stored in association with each other until the speed becomes “0”, but the illustration is omitted.
The correspondence relationship between the operation instruction speed v of the face area in the display content setting table T, the display magnification of the face area, and the display time of the face area is an example, and is not limited thereto. It can be arbitrarily changed as appropriate.

メモリ5は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、画像処理部4や中央制御部7等によって処理されるデータ等を一時的に記憶する。   The memory 5 is composed of, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data processed by the image processing unit 4 or the central control unit 7.

画像記録部6は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されている。また、画像記録部6は、表示部1に表示される静止画像や動画像を記憶するものであり、所定の符号化方式で符号化された静止画像データや複数の画像フレームからなる動画像データを記録する。   The image recording unit 6 is configured by, for example, a nonvolatile memory (flash memory). The image recording unit 6 stores still images and moving images displayed on the display unit 1, and still image data encoded by a predetermined encoding method and moving image data including a plurality of image frames. Record.

中央制御部7は、画像表示装置100の各部を制御するものである。具体的には、中央制御部7は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、画像表示装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 7 controls each unit of the image display device 100. Specifically, although not shown, the central control unit 7 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), and includes various processing programs (for the image display device 100). Various control operations are performed according to (not shown).

次に、画像表示装置100による画像再生処理について、図3、図4並びに図5(a)〜図5(c)を参照して説明する。
図3は、画像再生処理に係る動作の一例を示すフローチャートである。
なお、以下の説明にあっては、表示画像内に特定領域としての顔領域が含まれている画像P1を用いるものとする。
Next, image reproduction processing by the image display device 100 will be described with reference to FIGS. 3 and 4 and FIGS. 5 (a) to 5 (c).
FIG. 3 is a flowchart illustrating an example of an operation related to the image reproduction process.
In the following description, it is assumed that an image P1 in which a display area includes a face area as a specific area is used.

図3に示すように、先ず、ユーザによる操作入力部2の所定操作に基づいて、画像記録部6に記録されている複数の画像の中で表示対象となる所望の画像P1(図4参照)が選択して指定されると、画像処理部4は、当該画像P1の画像データを画像記録部6から読み出す(ステップS1)。そして、画像処理部4は、読み出された画像データを対応する所定の符号化方式(例えば、JPEG形式)に従って復号して表示制御部1bに出力する。
表示制御部1bは、画像処理部4により復号された画像データに基づいて、当該画像データに係る画像P1を表示パネル1aの表示画面に表示させる(ステップS2)。
As shown in FIG. 3, first, based on a predetermined operation of the operation input unit 2 by the user, a desired image P1 to be displayed among a plurality of images recorded in the image recording unit 6 (see FIG. 4). Is selected and designated, the image processing unit 4 reads the image data of the image P1 from the image recording unit 6 (step S1). Then, the image processing unit 4 decodes the read image data according to a corresponding predetermined encoding method (for example, JPEG format) and outputs the decoded image data to the display control unit 1b.
Based on the image data decoded by the image processing unit 4, the display control unit 1b displays the image P1 related to the image data on the display screen of the display panel 1a (step S2).

次に、中央制御部7は、所定期間内に、ユーザによる表示パネル1aの画像表示領域における操作点の入力指示があるか否かを判定する(ステップS3)。具体的には、中央制御部7は、表示パネル1aの表示画面に対するユーザの指(手)やタッチペン等の接触がタッチパネル2aにより検出されることで当該タッチパネル2aから出力された接触位置のXY座標に係る位置信号が入力されたか否かに応じて、ユーザによる操作点の入力があるか否かを判定する。
ここで、ユーザによる操作点の入力がないと判定されると(ステップS3;NO)、中央制御部7は、処理をステップS3に戻し、上記の判定処理を所定のタイミングで繰り返し実行する(ステップS3)。
Next, the central control unit 7 determines whether or not there is an instruction to input an operation point in the image display area of the display panel 1a within a predetermined period (step S3). Specifically, the central control unit 7 detects the contact of the user's finger (hand), touch pen, or the like with respect to the display screen of the display panel 1a by the touch panel 2a, and the XY coordinates of the contact position output from the touch panel 2a. It is determined whether or not there is an input of an operation point by the user depending on whether or not a position signal related to is input.
Here, if it is determined that there is no operation point input by the user (step S3; NO), the central control unit 7 returns the process to step S3, and repeatedly executes the above determination process at a predetermined timing (step S3). S3).

一方、ステップS3にて、ユーザによる操作点の入力があると判定されると(ステップS3;YES)、操作軌跡特定部3は、複数の操作点からユーザによる描画操作に対応する操作軌跡Lを特定する(ステップS4;図4参照)。具体的には、操作軌跡特定部3は、中央制御部7から出力され入力されたタッチパネル2aの接触位置のXY座標に係る位置信号に基づいて、当該タッチパネル2aの接触位置の各々を表示パネル1aの画像表示領域における操作点の各々として特定し、これら複数の操作点どうしを結線してユーザによる描画操作に対応する操作軌跡Lを特定する。   On the other hand, if it is determined in step S3 that there is an operation point input by the user (step S3; YES), the operation locus specifying unit 3 displays an operation locus L corresponding to the drawing operation by the user from a plurality of operation points. (Step S4; refer to FIG. 4). Specifically, the operation locus specifying unit 3 displays each of the touch positions of the touch panel 2a on the display panel 1a based on the position signal related to the XY coordinates of the touch position of the touch panel 2a output and input from the central control unit 7. Are specified as operation points in the image display area, and the operation locus L corresponding to the drawing operation by the user is specified by connecting the plurality of operation points.

続けて、画像処理部4は、操作軌跡特定部3により操作軌跡Lが特定されたか否かを判定する(ステップS5)。
ここで、操作軌跡特定部3により操作軌跡Lが特定されていないと判定されると(ステップS5;NO)、中央制御部7は、処理をステップS3に戻す。即ち、表示パネル1aの表示画面に対してユーザの指(手)やタッチペン等がある一点のみに接触した状態であり、タッチパネル2aに対する接触位置(操作点)が複数検出されていないために操作軌跡Lを特定することができない状態であるので、中央制御部7は、ステップS3にて、表示パネル1aの画像表示領域における次の操作点の入力指示を受け付ける。
Subsequently, the image processing unit 4 determines whether or not the operation track L is specified by the operation track specifying unit 3 (step S5).
Here, when it is determined that the operation locus L is not identified by the operation locus identifying unit 3 (step S5; NO), the central control unit 7 returns the process to step S3. That is, the user's finger (hand), touch pen, or the like is in contact with the display screen of the display panel 1a, and a plurality of contact positions (operation points) with respect to the touch panel 2a are not detected. Since L cannot be specified, the central control unit 7 accepts an input instruction for the next operation point in the image display area of the display panel 1a in step S3.

そして、ステップS5にて、操作軌跡特定部3により操作軌跡Lが特定されたと判定されると(ステップS5;YES)、特定領域検出部4aは、表示パネル1aに表示されている画像P1から、顔検出処理などの所定の画像認識技術を利用して操作軌跡Lと重なる顔領域を検出する(ステップS6)。具体的には、特定領域検出部4aは、表示されている画像P1内で操作軌跡Lと重なる部分を基準とした顔画像の探索領域を設定した後、当該探索領域内で所定の顔検出用情報と最も近似性の高い部分を顔領域として検出する。   And when it determines with the operation locus | trajectory L having been specified by the operation locus | trajectory identification part 3 in step S5 (step S5; YES), the specific area | region detection part 4a will be from the image P1 currently displayed on the display panel 1a. A face area overlapping the operation locus L is detected using a predetermined image recognition technique such as face detection processing (step S6). Specifically, the specific area detection unit 4a sets a search area for a face image based on a portion overlapping the operation locus L in the displayed image P1, and then performs a predetermined face detection in the search area. A part having the highest similarity to information is detected as a face area.

なお、顔領域の検出処理にあっては、操作軌跡Lの特定後、当該操作軌跡Lと重なる顔領域を表示画像P1から検出するようにしたが、これに限られるものではなく、予め表示画像P1に対する顔検出処理を行って当該表示画像P1内の顔領域を全て検出しておき、操作軌跡Lの特定後には、当該操作軌跡Lと重なる顔領域のみを特定するようにしても良い。   In the face area detection process, after the operation locus L is specified, the face region overlapping the operation locus L is detected from the display image P1, but the present invention is not limited to this. The face detection process for P1 may be performed to detect all face areas in the display image P1, and after the operation locus L is specified, only the face region that overlaps the operation locus L may be specified.

続けて、画像処理部4は、特定領域検出部4aにより顔領域が検出されたか否かを判定する(ステップS7)。
ここで、特定領域検出部4aにより顔領域が検出されていないと判定されると(ステップS7;NO)、中央制御部7は、処理をステップS6に戻し、上記のように、特定領域検出部4aは、表示パネル1aに表示されている画像P1から操作軌跡Lと重なる顔領域を検出する(ステップS6)。
一方、ステップS7にて、特定領域検出部4aにより顔領域が検出されたと判定されると(ステップS7;YES)、再生表示内容設定部4bの操作指示速度算出部4cは、検出された顔領域に係る複数の操作点、即ち、顔領域と重なる操作軌跡Lを構成する複数の操作点をタッチパネル2aの接触操作に基づいて順次入力指示する操作指示速度vを所定の演算式に従って算出する(ステップS8)。
Subsequently, the image processing unit 4 determines whether or not a face region is detected by the specific region detection unit 4a (step S7).
Here, if it is determined that the face area is not detected by the specific area detection unit 4a (step S7; NO), the central control unit 7 returns the process to step S6, and the specific area detection unit as described above. 4a detects a face area overlapping with the operation locus L from the image P1 displayed on the display panel 1a (step S6).
On the other hand, when it is determined in step S7 that the specific area detection unit 4a has detected the face area (step S7; YES), the operation instruction speed calculation unit 4c of the reproduction display content setting unit 4b detects the detected face area. The operation instruction speed v for sequentially inputting the plurality of operation points according to the above, that is, the plurality of operation points constituting the operation locus L overlapping with the face area, based on the touch operation of the touch panel 2a is calculated according to a predetermined arithmetic expression (Step S1). S8).

次に、再生表示内容設定部4bの表示倍率設定部4dは、表示内容設定用テーブルTを参照して、操作指示速度算出部4cにより算出された顔領域(例えば、顔領域f1など)に係る複数の操作点の操作指示速度v(例えば、「v3≦v<v2」など)に応じて当該顔領域の表示倍率(例えば、「3倍」など)を設定する(ステップS9)。また、顔領域の表示倍率の設定とともに、表示時間設定部4eは、表示内容設定用テーブルTを参照して、操作指示速度算出部4cにより算出された顔領域に係る複数の操作点の操作指示速度vに応じて当該顔領域の表示時間(例えば、「3秒」など)を設定する。   Next, the display magnification setting unit 4d of the reproduction display content setting unit 4b refers to the display content setting table T and relates to the face area (for example, the face area f1) calculated by the operation instruction speed calculation unit 4c. The display magnification (for example, “3 times”, etc.) of the face area is set according to the operation instruction speed v (for example, “v3 ≦ v <v2”, etc.) at a plurality of operation points (step S9). In addition to setting the display magnification of the face area, the display time setting unit 4e refers to the display content setting table T and instructs operation of a plurality of operation points related to the face area calculated by the operation instruction speed calculation unit 4c. The display time of the face area (for example, “3 seconds”) is set according to the speed v.

続けて、中央制御部7は、所定期間内に、ユーザによる表示パネル1aの画像表示領域における操作点の入力指示があるか否かを判定する(ステップS10)。ここでの判定処理は、ステップS3における判定処理と略同様であり、その詳細な説明は省略する。
ここで、ユーザによる操作点の入力があると判定されると(ステップS3;YES)、中央制御部7は、処理をステップS4に戻し、操作軌跡特定部3は、複数の操作点からユーザによる描画操作に対応する操作軌跡Lを特定する(ステップS4)。
つまり、表示パネル1aの表示画面に対して接触するユーザの指(手)やタッチペン等が所定方向に移動して描画操作を行っている状態であることから、ステップS4以降の処理を順次行っていく。そして、ステップS7にて、新たな顔領域(例えば、顔領域f2や顔領域f3など)が検出された場合には、上記と同様に、ステップS8にて、操作指示速度算出部4cは、検出された顔領域に係る複数の操作点の操作指示速度vを所定の演算式に従って算出する。その後、上記と同様に、ステップS9にて、表示倍率設定部4dは、表示内容設定用テーブルTを参照して、操作指示速度算出部4cにより算出された顔領域(例えば、顔領域f2など)に係る複数の操作点の操作指示速度v(例えば、「v1≦v」など)に応じて当該顔領域の表示倍率(例えば、「1倍」など)を設定する。また、顔領域の表示倍率の設定とともに、表示時間設定部4eは、表示内容設定用テーブルTを参照して、操作指示速度算出部4cにより算出された顔領域に係る複数の操作点の操作指示速度vに応じて当該顔領域の表示時間(例えば、「1秒」など)を設定する。
Subsequently, the central control unit 7 determines whether or not there is an instruction to input an operation point in the image display area of the display panel 1a by the user within a predetermined period (step S10). The determination process here is substantially the same as the determination process in step S3, and a detailed description thereof will be omitted.
Here, if it is determined that there is an input of an operation point by the user (step S3; YES), the central control unit 7 returns the process to step S4, and the operation locus specifying unit 3 is operated by the user from a plurality of operation points. The operation locus L corresponding to the drawing operation is specified (step S4).
That is, since the user's finger (hand), touch pen, or the like that is in contact with the display screen of the display panel 1a is moving in a predetermined direction and performing a drawing operation, the processes in and after step S4 are sequentially performed. Go. If a new face area (for example, face area f2 or face area f3) is detected in step S7, the operation instruction speed calculation unit 4c detects in step S8 as described above. The operation instruction speed v of the plurality of operation points related to the face area thus calculated is calculated according to a predetermined arithmetic expression. Thereafter, in the same manner as described above, in step S9, the display magnification setting unit 4d refers to the display content setting table T, and the face area (for example, the face area f2) calculated by the operation instruction speed calculation unit 4c. The display magnification (for example, “1 ×”, etc.) of the face area is set according to the operation instruction speed v (for example, “v1 ≦ v”, etc.) of the plurality of operation points. In addition to setting the display magnification of the face area, the display time setting unit 4e refers to the display content setting table T and instructs operation of a plurality of operation points related to the face area calculated by the operation instruction speed calculation unit 4c. The display time of the face area (for example, “1 second”) is set according to the speed v.

一方、ステップS10にて、ユーザによる操作点の入力がないと判定されると(ステップS3;NO)、表示制御部1bは、表示パネル1aの表示画面に表示されている画像P1の表示を停止するとともに、特定領域検出部4aにより検出された顔領域を所定の表示態様でスライドショー再生させる。即ち、表示制御部1bは、特定領域検出部4aにより順次検出された顔領域を、当該顔領域の検出順(例えば、顔領域f1、顔領域f2、顔領域f3の順)に、再生表示内容設定部4bの表示倍率設定部4dにより設定された当該顔領域の表示倍率に従って拡大させるとともに、表示時間設定部4eにより設定された当該顔領域の表示時間で表示パネル1aの表示画面に再生表示させる(ステップS11)。
これにより、画像再生処理を終了する。
On the other hand, if it is determined in step S10 that there is no input of an operation point by the user (step S3; NO), the display control unit 1b stops displaying the image P1 displayed on the display screen of the display panel 1a. At the same time, the face area detected by the specific area detecting unit 4a is reproduced as a slide show in a predetermined display mode. That is, the display control unit 1b reproduces and displays the face areas sequentially detected by the specific area detection unit 4a in the order of detection of the face areas (for example, the order of the face area f1, the face area f2, and the face area f3). The display area is enlarged according to the display magnification of the face area set by the display magnification setting section 4d of the setting section 4b, and is reproduced and displayed on the display screen of the display panel 1a with the display time of the face area set by the display time setting section 4e. (Step S11).
Thereby, the image reproduction process is terminated.

以上のように、本実施形態の画像表示装置100によれば、操作軌跡特定部3が、ユーザによるタッチパネル2aの所定操作に基づいて連続して検出された複数の接触位置の各々を、表示パネル1aの画像表示領域における複数の操作点の各々として結ぶことで操作軌跡Lを特定する。そして、特定領域検出部4aが、表示パネル1aの表示画面に表示されている画像から、ユーザによるタッチパネル2aの所定操作に基づいて描画された操作軌跡Lと重なる特定領域(例えば、顔領域)を検出する。そして、再生表示内容設定部4bが、検出された特定領域と重なる操作軌跡Lを構成する複数の操作点をタッチパネル2aの所定操作に基づいて順次入力指示する操作指示速度vを基準として当該特定領域の表示倍率や表示時間などの再生表示内容を設定する。従って、ユーザがタッチパネル2aを所定の速度で操作するだけで、当該タッチパネル2aの操作速度に応じて、画像から検出される特定領域の再生表示内容の設定を簡便に行うことができる。
具体的には、複数の操作点の操作指示速度vを基準として、画像再生の際の顔領域の表示倍率を設定し、より具体的には、顔領域の表示倍率を当該顔領域の指示に係る複数の操作点の操作指示速度vに反比例させるように設定する。従って、ユーザによってタッチパネル2aがゆっくりと指示操作された顔領域(例えば、顔領域f1;図5(a)参照)は比較的大きく拡大表示させることができる。その一方で、ユーザによってタッチパネル2aが素早く指示操作された顔領域(例えば、顔領域f2;図5(b)参照)は比較的小さく拡大表示させることができる。さらに、複数の操作点の操作指示速度vを基準として、画像再生の際の顔領域の表示時間を設定し、より具体的には、顔領域の表示時間を当該顔領域の指示に係る複数の操作点の操作指示速度vに正比例させるように設定する。従って、ユーザによってタッチパネル2aがゆっくりと指示操作された顔領域(例えば、顔領域f1;図5(a)参照)は、図2の表示内容設定用テーブルTに示すように、比較的長い時間表示させることができる。その一方で、ユーザによってタッチパネル2aが素早く指示操作された顔領域(例えば、顔領域f2;図5(b)参照)は、図2の表示内容設定用テーブルTに示すように、比較的短い時間表示させることができる。
これにより、ユーザによるタッチパネル2aの直感的な操作を顔領域の再生表示内容に反映させることができ、当該タッチパネル2aの操作速度(複数の操作点の操作指示速度v)を変化させることにより、顔領域の再生表示態様を変化に富んだ多彩なものとすることができる。
As described above, according to the image display device 100 of the present embodiment, the operation locus specifying unit 3 displays each of the plurality of contact positions detected continuously based on a predetermined operation of the touch panel 2a by the user on the display panel. The operation locus L is specified by connecting each of the plurality of operation points in the image display area 1a. Then, the specific area detection unit 4a detects a specific area (for example, a face area) that overlaps the operation locus L drawn based on a predetermined operation of the touch panel 2a by the user from the image displayed on the display screen of the display panel 1a. To detect. Then, the reproduction display content setting unit 4b uses the operation instruction speed v to sequentially input a plurality of operation points constituting the operation locus L overlapping the detected specific area based on a predetermined operation of the touch panel 2a as a reference to the specific area. Set playback display contents such as display magnification and display time. Therefore, simply by operating the touch panel 2a at a predetermined speed, the user can easily set the reproduction display content of the specific area detected from the image according to the operation speed of the touch panel 2a.
Specifically, the display magnification of the face area at the time of image reproduction is set based on the operation instruction speed v of a plurality of operation points, and more specifically, the display magnification of the face area is set as the instruction of the face area. It is set to be inversely proportional to the operation instruction speed v of the plurality of operation points. Therefore, the face area (for example, the face area f1; see FIG. 5A) on which the touch panel 2a is slowly instructed by the user can be enlarged and displayed relatively large. On the other hand, the face area (for example, face area f2; see FIG. 5B) on which the touch panel 2a is quickly instructed by the user can be enlarged and displayed relatively small. Furthermore, the display time of the face area at the time of image reproduction is set on the basis of the operation instruction speed v of the plurality of operation points, and more specifically, the display time of the face area is set to a plurality of points related to the instruction of the face area. Set to be directly proportional to the operation command speed v at the operating point. Therefore, the face area (for example, the face area f1; see FIG. 5A) in which the touch panel 2a is slowly operated by the user is displayed for a relatively long time as shown in the display content setting table T in FIG. Can be made. On the other hand, the face area (for example, face area f2; see FIG. 5B) in which the touch panel 2a is quickly instructed by the user has a relatively short time as shown in the display content setting table T in FIG. Can be displayed.
Thereby, the intuitive operation of the touch panel 2a by the user can be reflected in the reproduction display content of the face area, and the face can be changed by changing the operation speed of the touch panel 2a (operation instruction speed v of a plurality of operation points). The reproduction display mode of the area can be varied and varied.

さらに、ユーザによるタッチパネル2aの所定操作に基づいて描画される操作軌跡Lが長くなるにつれて、当該操作軌跡Lと順次重なる顔領域を表示画像内から順次検出していき、順次検出された顔領域を当該顔領域の表示倍率や表示時間等の再生表示内容に従って検出順に表示させることができるので、ユーザがタッチパネル2aを所定操作するだけで画像内の複数の顔領域の再生表示内容を設定していくことができ、これら複数の顔領域の再生表示内容の設定が簡便で、さらに当該顔領域の再生表示態様が変化に富んだ使い勝手の良いスライドショー再生を実現することができる。   Further, as the operation locus L drawn based on a predetermined operation of the touch panel 2a by the user becomes longer, face areas sequentially overlapping with the operation locus L are sequentially detected from the display image, and the detected face areas are sequentially detected. Since it can be displayed in the order of detection according to the reproduction display contents such as the display magnification and display time of the face area, the reproduction display contents of a plurality of face areas in the image are set only by the user performing a predetermined operation on the touch panel 2a. Therefore, it is possible to realize the easy-to-use slide show reproduction in which the setting of the reproduction display contents of the plurality of face areas is simple and the reproduction display modes of the face areas are varied.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、操作入力部2のタッチパネル2aを用いて操作軌跡Lを入力指示するようにしたが、操作軌跡Lの入力指示方法は一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、操作入力部2の上下左右移動キー(図示略)を用いて、画像表示領域に表示されている操作軌跡Lの描画用の所定のアイコン(例えば、ポインタ等)をXY平面にて移動させることで操作軌跡Lを入力指示するようにしても良い。
ここで、ユーザによる上下左右移動キーの所定操作に基づいて、表示パネル1aの画像表示領域に表示されている操作軌跡Lの描画用の所定のアイコンを、当該画像表示領域に表示された表示画像の一の顔領域(特定領域)上を移動させる。これにより、当該一の顔領域と重なる操作軌跡Lを構成する複数の操作点が順次入力指示されていき、これら複数の操作点を順次入力指示する速度が複数の操作点の操作指示速度vとなる。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, the operation locus L is instructed to be input using the touch panel 2a of the operation input unit 2. However, the method for inputting the operation locus L is an example, and is not limited to this, and can be arbitrarily changed as appropriate. is there. For example, by using an up / down / left / right movement key (not shown) of the operation input unit 2, a predetermined icon (for example, a pointer) for drawing the operation locus L displayed in the image display area is moved on the XY plane. Thus, the input of the operation locus L may be instructed.
Here, based on a predetermined operation of the up / down / left / right movement key by the user, a predetermined icon for drawing the operation locus L displayed in the image display area of the display panel 1a is displayed on the display image displayed in the image display area. On one face area (specific area). As a result, a plurality of operation points constituting the operation locus L that overlaps with the one face area are sequentially input, and the speed at which the plurality of operation points are sequentially input is set to the operation instruction speed v of the plurality of operation points. Become.

また、上記実施形態にあっては、顔領域の再生表示内容として、顔領域の表示倍率及び表示時間を例示したが、これら顔領域の表示倍率や表示時間は再生表示内容の一例であってこれらに限られるものではなく、適宜任意に変更可能である。例えば、顔領域の再生表示内容として、顔領域の表示のON/OFFを切り替える際の切替エフェクト(例えば、フェードイン、フェードアウト、ワイプ等)や、顔領域の色調(例えば、カラー、モノクロ、セピア等)や、BGM(Back Ground Music)などを設定するようにしても良い。
さらに、顔領域の表示倍率とともに当該顔領域の表示時間を設定するようにしたが、必ずしも顔領域の表示時間を設定する必要はない。
In the above embodiment, the display magnification and display time of the face area are exemplified as the reproduction display contents of the face area. However, the display magnification and display time of these face areas are examples of the reproduction display contents. The present invention is not limited to this, and can be arbitrarily changed as appropriate. For example, as a playback display content of the face area, a switching effect (for example, fade-in, fade-out, wipe, etc.) when switching the face area display ON / OFF, and a color tone of the face area (for example, color, monochrome, sepia, etc.) ), BGM (Back Ground Music), etc. may be set.
Furthermore, although the display time of the face area is set together with the display magnification of the face area, it is not always necessary to set the display time of the face area.

また、上記実施形態にあっては、顔領域の表示倍率や表示時間等の再生表示内容の設定を、顔領域と重なる操作軌跡Lを構成する複数の操作点の操作指示速度vを基準として行うようにしたが、これに限られるものではなく、例えば、表示パネル1aの画像表示領域内の各操作軌跡L自体の形状や、全ての操作軌跡Lを結んだ全体形状を顔領域の再生表示内容に反映させるようにしても良い。即ち、各操作軌跡L自体の二次元形状や全ての操作軌跡Lを結んだ二次元形状をジェスチャコマンドとし、当該ジェスチャコマンドと対応付けられた特定の再生表示態様で顔領域を再生表示させるようにしても良い。   Further, in the above embodiment, the setting of playback display contents such as the display magnification and display time of the face area is performed with reference to the operation instruction speeds v of the plurality of operation points constituting the operation locus L overlapping the face area. However, the present invention is not limited to this. For example, the shape of each operation track L itself in the image display area of the display panel 1a or the entire shape connecting all the operation tracks L is reproduced and displayed in the face area. You may make it reflect in. That is, a two-dimensional shape of each operation locus L itself or a two-dimensional shape connecting all the operation locus L is used as a gesture command, and the face area is reproduced and displayed in a specific reproduction display mode associated with the gesture command. May be.

さらに、上記実施形態にあっては、顔領域の表示倍率や表示時間の設定は、表示内容設定用テーブルTを用いて行うようにしたが、設定方法はこれに限られるものではなく、例えば、画像処理部4の演算処理回路を用いた所定の演算により行っても良い。
また、表示倍率設定部4dは、顔領域(特定領域)の表示倍率を、複数の操作点の操作指示速度vに反比例させるように設定するようにしたが、これに限られるものではなく、例えば、複数の操作点の操作指示速度vに正比例させるように設定しても良い。
さらに、表示時間設定部4eは、顔領域(特定領域)の表示時間を、顔領域の操作指示速度vに正比例させるように設定するようにしたが、これに限られるものではなく、例えば、複数の操作点の操作指示速度vに反比例させるように設定しても良い。
Furthermore, in the above embodiment, the display magnification and display time of the face area are set using the display content setting table T. However, the setting method is not limited to this. For example, The calculation may be performed by a predetermined calculation using the calculation processing circuit of the image processing unit 4.
The display magnification setting unit 4d sets the display magnification of the face area (specific area) so as to be inversely proportional to the operation instruction speed v of the plurality of operation points, but is not limited thereto. Alternatively, it may be set to be directly proportional to the operation instruction speed v at a plurality of operation points.
Furthermore, the display time setting unit 4e sets the display time of the face area (specific area) to be directly proportional to the operation instruction speed v of the face area, but is not limited to this. It may be set so as to be inversely proportional to the operation instruction speed v at the operation point.

また、上記実施形態にあっては、画像再生処理にて、顔領域の表示倍率や表示時間等の再生表示内容の設定後、設定された再生表示内容に従って当該顔領域を再生表示させるようにしたが、顔領域の再生表示内容の設定後に必ずしも再生表示させる必要はない。
即ち、例えば、検出された顔領域に係る画像データ並びに当該顔領域の再生表示内容を指示するデータを、例えば、画像表示装置100本体に対して着脱自在な記録媒体等の所定の記憶手段に記憶するようにしても良く、これにより、記憶されたデータを利用することで、例えば、顔領域を後日に再生表示したり、当該画像表示装置100とは異なる表示装置(図示略)を用いて顔領域を再生表示することなどを実現することができる。
Further, in the above embodiment, in the image reproduction process, after setting the reproduction display contents such as the display magnification and display time of the face area, the face area is reproduced and displayed according to the set reproduction display contents. However, it is not always necessary to reproduce and display after setting the reproduction display contents of the face area.
That is, for example, the image data relating to the detected face area and the data indicating the reproduction display contents of the face area are stored in a predetermined storage means such as a recording medium detachably attached to the main body of the image display apparatus 100, for example. Thus, by using the stored data, for example, the face area is reproduced and displayed at a later date, or the face is displayed using a display device (not shown) different from the image display device 100. It is possible to reproduce and display the area.

さらに、上記実施形態における画像再生処理にて、ステップS3やS10にて、所定期間経過前に入力指示された操作点が前回最後に指示された操作点から所定間隔以上離れた場合には、ユーザによるタッチパネル2aの一回目の描画操作が終了し、二回目の描画操作が開始されたと判断するようにしても良い。かかる場合には、一回目の描画操作と二回目の描画操作の各々に基づいて、それぞれ検出された顔領域に係る画像データ並びに当該顔領域の再生表示内容を指示するデータを一回目と二回目とで個別にファイル管理することで、一回目の描画操作に基づいて検出された顔領域と二回目の描画操作に基づいて検出された顔領域との再生表示タイミングを異ならせるようにしても良い。
一方、上記とは反対に、ステップS3やS10にて、所定期間経過前に入力指示された操作点が前回最後に指示された操作点から所定間隔以上離れた場合であっても、ユーザによるタッチパネル2aの一連の描画操作であると判断するようにしても良い。例えば、表示パネル1aの画像表示領域の縁部に表示された顔領域を指定する場合には、タッチパネル2aの外縁部からユーザの指やタッチペンなどが外に飛び出してしまう虞もあり、かかる場合には、ユーザの指やタッチペンなどがタッチパネル2aの外縁部から飛び出した位置とタッチパネル2aの検知範囲内に戻ってくる位置とが大きくずれてしまう。このような場合にも、ユーザによるタッチパネル2aの描画操作は一連のものであると判断することで、当該描画操作に基づいて検出された全ての顔領域をスライドショー再生することができる。
Furthermore, in the image reproduction process in the above embodiment, when the operation point instructed to input before the lapse of the predetermined period in step S3 or S10 is separated from the operation point instructed last time by a predetermined interval or more, the user It may be determined that the first drawing operation of the touch panel 2a is completed and the second drawing operation is started. In such a case, based on each of the first drawing operation and the second drawing operation, the image data relating to the detected face area and the data indicating the reproduction display contents of the face area are first and second times. By separately managing files, the playback display timings of the face area detected based on the first drawing operation and the face area detected based on the second drawing operation may be made different. .
On the other hand, in contrast to the above, in step S3 or S10, even when the operation point instructed to input before the predetermined period elapses is more than a predetermined interval from the operation point instructed last time, the touch panel by the user You may make it judge that it is a series of 2a drawing operation. For example, when the face area displayed on the edge of the image display area of the display panel 1a is designated, there is a possibility that the user's finger or touch pen may jump out from the outer edge of the touch panel 2a. The position where the user's finger or touch pen protrudes from the outer edge of the touch panel 2a and the position where the user's finger or touch pen returns to the detection range of the touch panel 2a are greatly shifted. Even in such a case, by determining that the drawing operation of the touch panel 2a by the user is a series, all the face areas detected based on the drawing operation can be reproduced as a slide show.

さらに、画像表示装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。また、画像再生装置として、所定位置に設置される画像表示装置100を例示したが、これに限られるものではなく、例えば、表示部1を備えた撮像装置などの本発明に係る所定の画像処理を実行可能なものであれば如何なる構成であっても良い。   Furthermore, the configuration of the image display apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto. Further, the image display device 100 installed at a predetermined position is exemplified as the image reproduction device, but the image display device 100 is not limited to this. For example, the predetermined image processing according to the present invention such as an imaging device including the display unit 1 is performed. Any configuration may be used as long as it can execute the above.

加えて、上記実施形態にあっては、特定手段、検出手段、設定手段としての機能を、中央制御部7の制御下にて、操作軌跡特定部3、画像処理部4の特定領域検出部4a、再生表示内容設定部4bが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部7のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、特定処理ルーチン、検出処理ルーチン、設定処理ルーチンを含むプログラムを記憶しておく。そして、特定処理ルーチンにより中央制御部7のCPUを、表示手段の画像表示領域における、ユーザによる操作入力手段の所定操作に基づいて入力指示された複数の操作点を結んでなる操作軌跡Lを特定する特定手段として機能させるようにしても良い。また、検出処理ルーチンにより中央制御部7のCPUを、表示手段に表示された画像から特定手段により特定された操作軌跡Lと重なる特定領域を検出する検出手段として機能させるようにしても良い。また、設定処理ルーチンにより中央制御部7のCPUを、検出手段により検出される特定領域と重なる操作軌跡Lを構成する複数の操作点を操作入力手段の所定操作に基づいて順次入力指示する速度vを操作指示速度vと呼んだ場合、当該操作指示速度vを基準として特定領域の表示倍率を設定する設定手段として機能させるようにしても良い。
In addition, in the above embodiment, the functions as the specifying unit, the detecting unit, and the setting unit are controlled under the control of the central control unit 7, the operation locus specifying unit 3, and the specific region detecting unit 4 a of the image processing unit 4. The playback display content setting unit 4b is driven to drive the configuration. However, the configuration is not limited to this, and the configuration realized by the CPU of the central control unit 7 executing a predetermined program or the like. Also good.
That is, a program including a specific processing routine, a detection processing routine, and a setting processing routine is stored in a program memory (not shown) that stores the program. Then, the CPU of the central control unit 7 specifies an operation locus L formed by connecting a plurality of operation points instructed based on a predetermined operation of the operation input means by the user in the image display area of the display means by the specifying processing routine. You may make it function as a specific means to do. In addition, the CPU of the central control unit 7 may function as a detection unit that detects a specific area overlapping the operation locus L specified by the specification unit from the image displayed on the display unit by a detection processing routine. In addition, the CPU v of the central control unit 7 in the setting process routine sequentially instructs to input a plurality of operation points constituting the operation locus L that overlaps the specific area detected by the detection unit based on a predetermined operation of the operation input unit. May be made to function as a setting means for setting the display magnification of the specific area based on the operation instruction speed v.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型画像記録部を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory and a portable image recording unit such as a CD-ROM are applied in addition to a ROM and a hard disk. It is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

100 撮像装置
1 表示部
1a 表示パネル
2 操作入力部
2a タッチパネル
3 操作軌跡特定部
4 画像処理部
4a 特定領域検出部
4d 表示倍率設定部
4e 表示時間設定部
7 中央制御部
DESCRIPTION OF SYMBOLS 100 Imaging device 1 Display part 1a Display panel 2 Operation input part 2a Touch panel 3 Operation locus specific part 4 Image processing part 4a Specific area detection part 4d Display magnification setting part 4e Display time setting part 7 Central control part

Claims (7)

画像を表示する表示手段と、
この表示手段の画像表示領域における、ユーザによる操作入力手段の所定操作に基づいて入力指示された複数の操作点を結んでなる操作軌跡を特定する特定手段と、
前記表示手段に表示された画像から前記特定手段により特定された前記操作軌跡と重なる特定領域を検出する検出手段と、
この検出手段により検出される特定領域と重なる前記操作軌跡を構成する前記複数の操作点を前記操作入力手段の所定操作に基づいて順次入力指示する速度を操作指示速度と呼んだ場合、当該操作指示速度を基準として前記特定領域の表示倍率を設定する設定手段と、
を備えることを特徴とする画像再生装置。
Display means for displaying an image;
A specifying means for specifying an operation locus connecting a plurality of operation points input based on a predetermined operation of the operation input means by the user in the image display area of the display means;
Detecting means for detecting a specific region overlapping with the operation locus specified by the specifying means from the image displayed on the display means;
When the speed at which the plurality of operation points constituting the operation locus overlapping with the specific area detected by the detection means are sequentially input based on a predetermined operation of the operation input means is called an operation instruction speed, the operation instruction Setting means for setting the display magnification of the specific area on the basis of speed;
An image reproducing apparatus comprising:
前記設定手段は、
前記複数の操作点の前記操作指示速度に反比例させるように前記特定領域の表示倍率を設定することを特徴とする請求項1に記載の画像再生装置。
The setting means includes
The image reproduction apparatus according to claim 1, wherein a display magnification of the specific area is set so as to be inversely proportional to the operation instruction speed of the plurality of operation points.
前記設定手段は、更に、
前記複数の操作点の前記操作指示速度を基準として前記特定領域の表示時間を設定することを特徴とする請求項1又は2に記載の画像再生装置。
The setting means further includes:
3. The image reproduction device according to claim 1, wherein a display time of the specific area is set based on the operation instruction speeds of the plurality of operation points.
前記設定手段は、
前記複数の操作点の前記操作指示速度に正比例させるように前記特定領域の表示時間を設定することを特徴とする請求項3に記載の画像再生装置。
The setting means includes
The image reproduction device according to claim 3, wherein a display time of the specific area is set so as to be directly proportional to the operation instruction speed of the plurality of operation points.
前記操作入力手段は、
前記表示手段の表示領域に接触する接触位置を検出するタッチパネルを有し、
前記特定手段は、
前記タッチパネルにより連続して検出された複数の接触位置の各々を前記複数の操作点の各々として結んで前記操作軌跡を特定することを特徴とする請求項1〜4の何れか一項に記載の画像再生装置。
The operation input means includes
Having a touch panel for detecting a contact position in contact with the display area of the display means;
The specifying means is:
5. The operation trajectory is specified by connecting each of a plurality of contact positions continuously detected by the touch panel as each of the plurality of operation points. 6. Image playback device.
前記検出手段は、
前記特定領域として、前記表示手段に表示された画像から顔領域を検出することを特徴とする請求項1〜5の何れか一項に記載の画像再生装置。
The detection means includes
The image reproducing apparatus according to claim 1, wherein a face area is detected from the image displayed on the display unit as the specific area.
画像を表示する表示手段を備える画像再生装置のコンピュータを、
前記表示手段の画像表示領域における、ユーザによる操作入力手段の所定操作に基づいて入力指示された複数の操作点を結んでなる操作軌跡を特定する特定手段、
前記表示手段に表示された画像から前記特定手段により特定された前記操作軌跡と重なる特定領域を検出する検出手段、
この検出手段により検出される特定領域と重なる前記操作軌跡を構成する前記複数の操作点を前記操作入力手段の所定操作に基づいて順次入力指示する速度を操作指示速度と呼んだ場合、当該操作指示速度を基準として前記特定領域の表示倍率を設定する設定手段、
として機能させることを特徴とするプログラム。
A computer of an image reproducing device comprising display means for displaying an image,
Specifying means for specifying an operation locus connecting a plurality of operation points instructed to be input based on a predetermined operation of the operation input means by a user in the image display area of the display means;
Detecting means for detecting a specific region overlapping the operation locus specified by the specifying means from the image displayed on the display means;
When the speed at which the plurality of operation points constituting the operation locus overlapping with the specific area detected by the detection means are sequentially input based on a predetermined operation of the operation input means is called an operation instruction speed, the operation instruction Setting means for setting the display magnification of the specific area on the basis of speed;
A program characterized by functioning as
JP2010052458A 2010-03-10 2010-03-10 Image reproduction device and program Pending JP2011188315A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010052458A JP2011188315A (en) 2010-03-10 2010-03-10 Image reproduction device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010052458A JP2011188315A (en) 2010-03-10 2010-03-10 Image reproduction device and program

Publications (1)

Publication Number Publication Date
JP2011188315A true JP2011188315A (en) 2011-09-22

Family

ID=44794044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010052458A Pending JP2011188315A (en) 2010-03-10 2010-03-10 Image reproduction device and program

Country Status (1)

Country Link
JP (1) JP2011188315A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102711A (en) * 2012-11-21 2014-06-05 Fujitsu Ltd Contour detection device, contour detection method, and contour detection program
JP2015132936A (en) * 2014-01-10 2015-07-23 株式会社Nttぷらら Information input device, information input method, and computer program
US9996174B2 (en) 2012-04-20 2018-06-12 Casio Computer Co., Ltd. Imaging device with review display control function

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001290585A (en) * 2000-01-31 2001-10-19 Canon Inc Position information processing device and its method and its program, operating device and its method and its program
JP2006038573A (en) * 2004-07-26 2006-02-09 Kenjiro Matsuda Navigation system
JP2006304090A (en) * 2005-04-22 2006-11-02 Fuji Photo Film Co Ltd Photo movie generating device and program
JP2008071118A (en) * 2006-09-14 2008-03-27 Kenwood Corp Interface device, music reproduction apparatus, interface program and interface method
JP2008134918A (en) * 2006-11-29 2008-06-12 Seiko Epson Corp Image processing apparatus and image processing determination method
JP2008521067A (en) * 2004-11-19 2008-06-19 富士フイルム株式会社 Screen editing device, screen editing method, and screen editing program
JP2009169452A (en) * 2008-01-10 2009-07-30 Panasonic Corp Display control apparatus, electronic device, display control method, and program
JP2009260691A (en) * 2008-04-17 2009-11-05 Casio Comput Co Ltd Image reproduction apparatus, image reproduction method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001290585A (en) * 2000-01-31 2001-10-19 Canon Inc Position information processing device and its method and its program, operating device and its method and its program
JP2006038573A (en) * 2004-07-26 2006-02-09 Kenjiro Matsuda Navigation system
JP2008521067A (en) * 2004-11-19 2008-06-19 富士フイルム株式会社 Screen editing device, screen editing method, and screen editing program
JP2006304090A (en) * 2005-04-22 2006-11-02 Fuji Photo Film Co Ltd Photo movie generating device and program
JP2008071118A (en) * 2006-09-14 2008-03-27 Kenwood Corp Interface device, music reproduction apparatus, interface program and interface method
JP2008134918A (en) * 2006-11-29 2008-06-12 Seiko Epson Corp Image processing apparatus and image processing determination method
JP2009169452A (en) * 2008-01-10 2009-07-30 Panasonic Corp Display control apparatus, electronic device, display control method, and program
JP2009260691A (en) * 2008-04-17 2009-11-05 Casio Comput Co Ltd Image reproduction apparatus, image reproduction method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9996174B2 (en) 2012-04-20 2018-06-12 Casio Computer Co., Ltd. Imaging device with review display control function
JP2014102711A (en) * 2012-11-21 2014-06-05 Fujitsu Ltd Contour detection device, contour detection method, and contour detection program
JP2015132936A (en) * 2014-01-10 2015-07-23 株式会社Nttぷらら Information input device, information input method, and computer program

Similar Documents

Publication Publication Date Title
US8225208B2 (en) Interactive frames for images and videos displayed in a presentation application
JP5658552B2 (en) Display control apparatus, control method therefor, program, and recording medium
EP3120217B1 (en) Display device and method for controlling the same
JP5543055B2 (en) Display control method, display control apparatus, and program
CN104754393A (en) Information processing apparatus, information processing method, and program
JP5441748B2 (en) Display control apparatus, control method therefor, program, and storage medium
US9176607B2 (en) Input/output apparatus for displaying superposed images including a handwritten image
JP2005295033A (en) Image edit interface and image processing method for storage in storage medium
JP5149552B2 (en) Display control apparatus and display control method
CN107105151B (en) Image processing device, image processing method, and storage medium
JP2007072564A (en) Multimedia reproduction apparatus, menu operation reception method, and computer program
WO2012157270A1 (en) Video editing and playback device
KR20180027917A (en) Display apparatus and control method thereof
CN103645937A (en) Data processing method and electronic equipment
JP2011188315A (en) Image reproduction device and program
KR101776674B1 (en) Apparatus for editing video and the operation method
JP5779422B2 (en) Display system and display program
JP2009295041A (en) Display control apparatus, display control method and program
JP2020149581A (en) Information processing equipment, information processing methods, programs and storage media
CN110662104B (en) Video dragging bar generation method and device, electronic equipment and storage medium
JP5419783B2 (en) Image reproducing apparatus and method for controlling image reproducing apparatus
WO2025107114A1 (en) Video processing method, camera device, and image processing device
JP5497915B2 (en) Content search method
JP2020154579A (en) Information processing equipment, information processing equipment control methods, programs, and storage media
JP2007249909A (en) Electronic comic production device and playback control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130311

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140805