[go: up one dir, main page]

JP2013200854A - Electronic device and program - Google Patents

Electronic device and program Download PDF

Info

Publication number
JP2013200854A
JP2013200854A JP2012079069A JP2012079069A JP2013200854A JP 2013200854 A JP2013200854 A JP 2013200854A JP 2012079069 A JP2012079069 A JP 2012079069A JP 2012079069 A JP2012079069 A JP 2012079069A JP 2013200854 A JP2013200854 A JP 2013200854A
Authority
JP
Japan
Prior art keywords
panel
image
display
unit
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012079069A
Other languages
Japanese (ja)
Inventor
Nobuhiro Fujinawa
展宏 藤縄
Masaki Otsuki
正樹 大槻
Hidenori Kuribayashi
英範 栗林
Kenzo Chiaki
謙三 千秋
Akiyuki Tonegawa
顕之 利根川
Shiyouko Riyuuen
しょう子 竜円
Hideki Ito
秀樹 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012079069A priority Critical patent/JP2013200854A/en
Publication of JP2013200854A publication Critical patent/JP2013200854A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Casings For Electric Apparatus (AREA)
  • Studio Devices (AREA)

Abstract

【課題】複数のディスプレイを有効に活用した制御をすることができる電子機器を提供する。
【解決手段】本発明の電子機器は、複数の表示部と、焦点距離を示す焦点情報と関連付けられている画像から、焦点情報に応じて定まる表示部それぞれの表示領域に対応する画像領域に基づいて、表示部それぞれに対応する画像領域の画像を切り出す切り出し部と、切り出し部が切り出したそれぞれの画像領域の画像を、対応する表示部の表示領域に応じて変換する変換部と、変換部が変換したそれぞれの画像を、対応する表示部に表示する制御部と、を備えている。
【選択図】図49
An electronic apparatus capable of controlling a plurality of displays effectively is provided.
An electronic apparatus according to the present invention is based on an image area corresponding to each display area of a display unit determined according to focus information from a plurality of display units and an image associated with focus information indicating a focal length. A cutout unit that cuts out an image of an image region corresponding to each display unit, a conversion unit that converts an image of each image region cut out by the cutout unit according to the display region of the corresponding display unit, and a conversion unit And a control unit that displays each converted image on a corresponding display unit.
[Selection] Figure 49

Description

本発明は、電子機器、およびプログラムに関するものである。   The present invention relates to an electronic device and a program.

複数のディスプレイをヒンジで接続し、種々の配置形態を可能としたマルチパネルデバイスが知られている(特許文献1参照)。   There is known a multi-panel device in which a plurality of displays are connected by hinges to enable various arrangement forms (see Patent Document 1).

特表2012−502321号公報Special table 2012-502321 gazette

このようなマルチパネルデバイスでは、それら複数のディスプレイを有効に活用するような制御が望まれる。   In such a multi-panel device, control that effectively uses the plurality of displays is desired.

本発明は、このような事情に鑑みてなされたもので、その目的は、複数のディスプレイを有効に活用した制御をすることができる電子機器、およびプログラムを提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an electronic apparatus and a program that can perform control using a plurality of displays effectively.

この発明は上述した課題を解決するためになされたもので、本発明は、複数の表示部と、焦点距離を示す焦点情報と関連付けられている画像から、前記焦点情報に応じて定まる前記表示部それぞれの表示領域に対応する画像領域に基づいて、前記表示部それぞれに対応する画像領域の画像を切り出す切り出し部と、前記切り出し部が切り出したそれぞれの画像領域の画像を、対応する前記表示部の表示領域に応じて変換する変換部と、前記変換部が変換したそれぞれの画像を、対応する前記表示部に表示する制御部と、を備えていることを特徴とする電子機器である。   The present invention has been made to solve the above-described problem, and the present invention provides a display unit that is determined according to the focus information from a plurality of display units and an image associated with the focus information indicating the focal length. Based on an image area corresponding to each display area, a cutout section that cuts out an image of the image area corresponding to each of the display sections, and an image of each image area cut out by the cutout section is displayed on the corresponding display section. An electronic apparatus comprising: a conversion unit that converts in accordance with a display area; and a control unit that displays each image converted by the conversion unit on the corresponding display unit.

また、本発明は、複数の表示部を有する電子機器が備えるコンピュータに、焦点距離を示す焦点情報と関連付けられている画像から、前記焦点情報に応じて定まる前記表示部それぞれの表示領域に対応する画像領域に基づいて、前記表示部それぞれに対応する画像領域の画像を切り出す切り出しステップと、前記切り出しステップにおいて切り出したそれぞれの画像領域の画像を、対応する前記表示部の表示領域に応じて変換する変換ステップと、前記変換ステップにおいて変換したそれぞれの画像を、対応する前記表示部に表示する制御ステップと、を実行させるためのプログラムである。   Further, the present invention corresponds to a display area of each of the display units determined according to the focus information from an image associated with the focus information indicating a focal length in a computer included in the electronic apparatus having a plurality of display units. A cutout step for cutting out an image of an image area corresponding to each of the display sections based on the image area, and an image of each of the image areas cut out in the cutout step is converted according to the display area of the corresponding display section. It is a program for executing a conversion step and a control step of displaying each image converted in the conversion step on the corresponding display unit.

本発明によれば、複数のディスプレイを有効に活用した制御をすることができる。   According to the present invention, it is possible to perform control using a plurality of displays effectively.

電子機器の一実施の形態を示す斜視図。The perspective view which shows one Embodiment of an electronic device. 図1に示す電子機器の分解斜視図。FIG. 2 is an exploded perspective view of the electronic device shown in FIG. 1. 電子機器を構成する第1のパネルの平面図及び側面図。The top view and side view of the 1st panel which comprise an electronic device. 直列配置の状態からパネルを折り畳む過程を示した説明図。Explanatory drawing which showed the process in which a panel is folded from the state of serial arrangement | positioning. 直列配置の状態からパネルを折り畳む過程を示した説明図。Explanatory drawing which showed the process in which a panel is folded from the state of serial arrangement | positioning. 直列配置の状態からパネルを折り畳む過程を示した説明図。Explanatory drawing which showed the process in which a panel is folded from the state of serial arrangement | positioning. 直列配置の状態からパネルを折り畳む過程を示した説明図。Explanatory drawing which showed the process in which a panel is folded from the state of serial arrangement | positioning. 直列配置の状態からパネルを折り畳む過程を示した説明図。Explanatory drawing which showed the process in which a panel is folded from the state of serial arrangement | positioning. 直列配置の状態からパネルを折り畳む過程を示した説明図。Explanatory drawing which showed the process in which a panel is folded from the state of serial arrangement | positioning. 直列配置の状態からパネルを折り畳む過程を示した説明図。Explanatory drawing which showed the process in which a panel is folded from the state of serial arrangement | positioning. 直列配置から三面直交配置へ移行する過程を示した説明図。Explanatory drawing which showed the process which transfers from a serial arrangement to a three-plane orthogonal arrangement. 直列配置から三面直交配置へ移行する過程を示した説明図。Explanatory drawing which showed the process which transfers from a serial arrangement to a three-plane orthogonal arrangement. 直列配置から三面直交配置へ移行する過程を示した説明図。Explanatory drawing which showed the process which transfers from a serial arrangement to a three-plane orthogonal arrangement. 直列配置から三面直交配置へ移行する過程を示した説明図。Explanatory drawing which showed the process which transfers from a serial arrangement to a three-plane orthogonal arrangement. 三面直交配置における電子機器の四面図。4 is a four-sided view of an electronic device in a three-plane orthogonal arrangement. FIG. 実施形態の電子機器における階段配置を示した斜視図。The perspective view which showed the staircase arrangement | positioning in the electronic device of embodiment. 実施形態の電子機器における立体段差配置を示した斜視図。The perspective view which showed the solid level | step difference arrangement | positioning in the electronic device of embodiment. 実施形態の電子機器における第1の三角柱配置を示した斜視図。The perspective view which showed the 1st triangular prism arrangement | positioning in the electronic device of embodiment. 実施形態の電子機器における第2の三角柱配置を示した斜視図。The perspective view which showed the 2nd triangular prism arrangement | positioning in the electronic device of embodiment. 実施形態の電子機器における他の配置を示した斜視図。The perspective view which showed other arrangement | positioning in the electronic device of embodiment. 実施形態の電子機器の構成を示す構成図。1 is a configuration diagram showing a configuration of an electronic apparatus according to an embodiment. 実施形態の電子機器による撮像方法1を示した説明図。Explanatory drawing which showed the imaging method 1 by the electronic device of embodiment. 実施形態の電子機器による撮像方法2を示した説明図。Explanatory drawing which showed the imaging method 2 by the electronic device of embodiment. 実施形態の電子機器による撮像方法3を示した説明図。Explanatory drawing which showed the imaging method 3 by the electronic device of embodiment. 実施形態の電子機器による撮像方法3に対応する表示方法を示した説明図。Explanatory drawing which showed the display method corresponding to the imaging method 3 by the electronic device of embodiment. 実施形態の電子機器による撮像方法4を示した説明図。Explanatory drawing which showed the imaging method 4 by the electronic device of embodiment. 実施形態の電子機器による撮像方法4に対応する表示方法を示した説明図。Explanatory drawing which showed the display method corresponding to the imaging method 4 by the electronic device of embodiment. 実施形態の電子機器による撮像方法5を示した説明図。Explanatory drawing which showed the imaging method 5 by the electronic device of embodiment. 実施形態の電子機器によるシャッターボタンの表示位置を示す説明図。Explanatory drawing which shows the display position of the shutter button by the electronic device of embodiment. 実施形態の電子機器によるシャッターボタンの表示位置を示す説明図。Explanatory drawing which shows the display position of the shutter button by the electronic device of embodiment. 実施形態の電子機器による制御部の構成図。The block diagram of the control part by the electronic device of embodiment. 実施形態の電子機器による記憶部の構成図。The block diagram of the memory | storage part by the electronic device of embodiment. 実施形態の電子機器による撮像動作を示すフローチャート。6 is an exemplary flowchart illustrating an imaging operation performed by the electronic apparatus according to the embodiment. 実施形態の電子機器による表示動作を示すフローチャート。6 is an exemplary flowchart illustrating a display operation performed by the electronic apparatus according to the embodiment. 実施形態の電子機器による撮像動作を示すフローチャート。6 is an exemplary flowchart illustrating an imaging operation performed by the electronic apparatus according to the embodiment. 実施形態の電子機器による分類モードを示した説明図その1。Explanatory drawing 1 which showed the classification mode by the electronic device of embodiment. 実施形態の電子機器による分類モードを示した説明図その2。Explanatory drawing 2 which showed the classification mode by the electronic device of embodiment. 実施形態の電子機器による分類モードを示した説明図その3。Explanatory drawing 3 which showed the classification mode by the electronic device of embodiment. 実施形態の電子機器による分類モードを示した説明図その4。Explanatory drawing 4 which showed the classification mode by the electronic device of embodiment. 実施形態の電子機器による分類モードを示した説明図その5。Explanatory drawing 5 which showed the classification mode by the electronic device of embodiment. 実施形態の電子機器による分類モードを示した説明図その6。Explanatory drawing 6 which showed the classification mode by the electronic device of embodiment. 実施形態の分類モードの処理の第1例を示すフローチャート。The flowchart which shows the 1st example of the process of the classification mode of embodiment. 実施形態の分類モードの処理の第2例を示すフローチャート。The flowchart which shows the 2nd example of the process of the classification mode of embodiment. 実施形態の電子機器による分類モードを示した説明図その7。Explanatory drawing 7 which showed the classification mode by the electronic device of embodiment. 実施形態の電子機器による分類モードを示した説明図その8。Explanatory drawing 8 which showed the classification mode by the electronic device of embodiment. 実施形態の電子機器による分類モードを示した説明図その9。Explanatory drawing 9 which showed the classification mode by the electronic device of embodiment. 実施形態の電子機器による分類モードを示した説明図その10。Explanatory drawing 10 which showed the classification mode by the electronic device of embodiment. 実施形態の分類モードの処理の第3例を示すフローチャート。The flowchart which shows the 3rd example of the process of the classification mode of embodiment. 実施形態の電子機器による分類モードを示した説明図その11。Explanatory drawing 11 which showed the classification mode by the electronic device of embodiment. 実施形態の電子機器による分類モードを示した説明図その12。Explanatory drawing 12 which showed the classification mode by the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その1。Explanatory drawing 1 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その2。Explanatory drawing 2 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その3。Explanatory drawing 3 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その4。Explanatory drawing 4 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その5。Explanatory drawing 5 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その6。Explanatory drawing 6 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その7。Explanatory drawing 7 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その8。Explanatory drawing 8 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その9。Explanatory drawing 9 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その10。Explanatory drawing 10 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の電子機器の制御部の構成を示す構成図。The block diagram which shows the structure of the control part of the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その11。Explanatory drawing 11 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その12。Explanatory drawing 12 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その13。Explanatory drawing 13 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その14。Explanatory drawing 14 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の電子機器による立体表示を示した説明図その15。Explanatory drawing 15 which showed the three-dimensional display by the electronic device of embodiment. 実施形態の立体視表示モードの処理の一例を示すフローチャート。The flowchart which shows an example of the process of the stereoscopic display mode of embodiment. 実施形態のアクセサリを説明する図。The figure explaining the accessory of embodiment.

以下、本発明の実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。   Hereinafter, embodiments of the present invention will be described with reference to the drawings, but the present invention is not limited thereto. In the following description, an XYZ orthogonal coordinate system is set as necessary, and the positional relationship of each part will be described with reference to this XYZ orthogonal coordinate system. A predetermined direction in the horizontal plane is defined as an X-axis direction, a direction orthogonal to the X-axis direction in the horizontal plane is defined as a Y-axis direction, and a direction orthogonal to each of the X-axis direction and the Y-axis direction (that is, a vertical direction) is defined as a Z-axis direction. Further, the rotation (inclination) directions around the X axis, Y axis, and Z axis are the θX, θY, and θZ directions, respectively.

図1は、電子機器の一実施の形態を示す斜視図である。図2は、図1に示す電子機器の分解斜視図である。図3は、電子機器を構成する第1のパネルの平面図及び側面図である。   FIG. 1 is a perspective view showing an embodiment of an electronic apparatus. FIG. 2 is an exploded perspective view of the electronic device shown in FIG. FIG. 3 is a plan view and a side view of the first panel constituting the electronic apparatus.

本実施形態の電子機器100は、図1に示すように、第1のパネル11と、第2のパネル12と、第3のパネル13と、第1のヒンジ部21と、第2のヒンジ部22と、を有する。第1のヒンジ部21を介して第1のパネル11と第2のパネル12とが連結されている。第2のヒンジ部22を介して第1のパネル11と第3のパネル13とが連結されている。   As shown in FIG. 1, the electronic device 100 according to the present embodiment includes a first panel 11, a second panel 12, a third panel 13, a first hinge part 21, and a second hinge part. 22. The first panel 11 and the second panel 12 are connected via the first hinge portion 21. The first panel 11 and the third panel 13 are connected via the second hinge portion 22.

本実施形態では、第1のパネル11の表示面と平行な面にXY平面を設定する。また図1に示すように3枚のパネル11〜13を直線状に配列したときのパネル配列方向をX軸方向とし、このX軸方向に直交する方向をY軸方向とする。そして、第1のパネル11の厚さ方向をZ軸方向とする。   In the present embodiment, the XY plane is set on a plane parallel to the display surface of the first panel 11. Further, as shown in FIG. 1, the panel arrangement direction when three panels 11 to 13 are arranged in a straight line is defined as an X-axis direction, and a direction orthogonal to the X-axis direction is defined as a Y-axis direction. The thickness direction of the first panel 11 is taken as the Z-axis direction.

第1のパネル11は、平面視で正方形状の表示面11a(図3参照)を有する板状の表示パネルである。第1のパネル11は、筐体101と、筐体101内に収容された液晶表示装置や有機EL表示装置等の表示デバイス(図示略)と、を有する。上記表示デバイスの表示は表示面11aを介してユーザーに視認される。表示面11aにはタッチパネル等の入力デバイスが設けられていてもよい。   The first panel 11 is a plate-like display panel having a square display surface 11a (see FIG. 3) in plan view. The first panel 11 includes a housing 101 and a display device (not shown) such as a liquid crystal display device or an organic EL display device housed in the housing 101. The display of the display device is visually recognized by the user through the display surface 11a. An input device such as a touch panel may be provided on the display surface 11a.

本実施形態において、第1のパネル11、第2のパネル12、及び第3のパネル13はその基本構成において共通する。第1のパネル11と第1のヒンジ部21とからなるユニットと、第3のパネル13と第2のヒンジ部22とからなるユニットは、同一の構成を具備したものである。第2のパネル12は、第1のパネル11から回転機構31を取り外し、キャップ部材138を取り付けたものである。したがって、以下の説明において特に断りのない限り、第2のパネル12及び第3のパネル13は、第1のパネル11の構成要素を具備しているものとする。   In the present embodiment, the first panel 11, the second panel 12, and the third panel 13 are common in their basic configurations. The unit composed of the first panel 11 and the first hinge portion 21 and the unit composed of the third panel 13 and the second hinge portion 22 have the same configuration. The second panel 12 is obtained by removing the rotation mechanism 31 from the first panel 11 and attaching a cap member 138. Therefore, unless otherwise specified in the following description, the second panel 12 and the third panel 13 are assumed to include the components of the first panel 11.

第1のパネル11の背面(表示面11aと反対側の面)11bには回転機構31が設けられている。回転機構31には第1のヒンジ部21の一方の端部が接続されている。回転機構31は背面11bの平面視における中心位置に設けられている。回転機構31は第1のパネル11の厚さ方向(Z軸方向)に平行な回転軸を有する。第1のヒンジ部21は回転機構31により表示面11aに概ね平行な面に沿って回転可能である。   A rotation mechanism 31 is provided on the back surface (surface opposite to the display surface 11 a) 11 b of the first panel 11. One end of the first hinge portion 21 is connected to the rotation mechanism 31. The rotation mechanism 31 is provided at the center position in plan view of the back surface 11b. The rotation mechanism 31 has a rotation axis parallel to the thickness direction (Z-axis direction) of the first panel 11. The first hinge portion 21 can be rotated by a rotation mechanism 31 along a plane substantially parallel to the display surface 11a.

第1のパネル11の背面11bには、筐体101の四辺のうちの三辺に沿う位置に、第1のヒンジ部21を所定角度位置で位置決めするための突起部111〜116が設けられている。なお、図1及び図2では第1のヒンジ部21に隠れているが、筐体101の第2のパネル12側の辺101aには、突起部113と対になる突起部114(図11参照)も設けられている。上記の突起部が設けられていない第3のパネル13側の辺101bは、第2のヒンジ部22との接続構造が設けられている。図2に示すように、上記第3のパネル13側の辺には、第2のヒンジ部22に設けられた鉤型の固定部材(図示略)が係止される係止部118が設けられている。   On the back surface 11 b of the first panel 11, projections 111 to 116 for positioning the first hinge portion 21 at predetermined angular positions are provided at positions along three sides of the four sides of the housing 101. Yes. In FIG. 1 and FIG. 2, although hidden behind the first hinge portion 21, a protrusion 114 (see FIG. 11) that is paired with the protrusion 113 is formed on the side 101 a on the second panel 12 side of the housing 101. ) Is also provided. The side 101b on the third panel 13 side where the protrusion is not provided is provided with a connection structure with the second hinge part 22. As shown in FIG. 2, a locking portion 118 for locking a hook-shaped fixing member (not shown) provided on the second hinge portion 22 is provided on the side on the third panel 13 side. ing.

また回転機構31の第3のパネル13側の縁部に、第2のヒンジ部22との接続部119が設けられている。本実施形態の場合、接続部119は台座状である。接続部119には、第2のヒンジ部22をねじ止めするための2つのねじ孔119aが設けられている。   Further, a connection portion 119 with the second hinge portion 22 is provided at an edge portion of the rotation mechanism 31 on the third panel 13 side. In the case of this embodiment, the connection part 119 is pedestal-shaped. The connection portion 119 is provided with two screw holes 119a for screwing the second hinge portion 22.

第1のパネル11には、回転機構31を介して第1のヒンジ部21が接続されている。第1のヒンジ部21は、回転機構31との接続部となる第1の接続体121と、第1の接続体121の先端側に順に接続された第2の接続体122、第3の接続体123、及び第4の接続体124と、を備えている。   A first hinge portion 21 is connected to the first panel 11 via a rotation mechanism 31. The first hinge portion 21 includes a first connection body 121 that is a connection portion with the rotation mechanism 31, a second connection body 122 that is sequentially connected to the distal end side of the first connection body 121, and a third connection. A body 123 and a fourth connecting body 124.

第1の接続体121は、円盤状の第1部材121aと、この第1部材121aの径方向外周側へ延びるようにして設けられた概略トレイ状の第2部材121bとを有する。図3に示すように、円盤状の第1部材121aの背面中央部(筐体101側の面の中央部)には、回転機構31の回転軸132が、平面視矩形状の固定部材131を用いて固着されている。第2部材121bの長さ方向(図1のX軸方向)に延びる2本の側壁部には、その長さ方向に沿って延びるスリットがそれぞれ形成されている。   The first connector 121 includes a disk-shaped first member 121a and a substantially tray-shaped second member 121b provided so as to extend to the radially outer peripheral side of the first member 121a. As shown in FIG. 3, the rotation shaft 132 of the rotation mechanism 31 has a rectangular fixed member 131 in a plan view at the center of the back surface of the disk-shaped first member 121 a (the center of the surface on the housing 101 side). Used to secure. The two side walls extending in the length direction (X-axis direction in FIG. 1) of the second member 121b are respectively formed with slits extending along the length direction.

第2部材121bの上記2本のスリット同士の間に、第1の軸部材125が架け渡されている。第1の軸部材125は、回転機構31による第1のヒンジ部21の回転接線方向(図1に示すY軸方向)に沿って配置されている。第1の軸部材125には、平面視板状の第2の接続体122の一方の端部が軸支されている。第2の接続体122は、概略トレイ状の第2部材121bの側壁で囲まれた位置に配置される。第2の接続体122は第1の軸部材125の軸回りに揺動可能である。   A first shaft member 125 is bridged between the two slits of the second member 121b. The first shaft member 125 is disposed along the rotational tangent direction (Y-axis direction shown in FIG. 1) of the first hinge portion 21 by the rotation mechanism 31. One end of the second connector 122 having a plate shape in plan view is pivotally supported on the first shaft member 125. The 2nd connection body 122 is arrange | positioned in the position enclosed by the side wall of the substantially tray-shaped 2nd member 121b. The second connecting body 122 can swing around the axis of the first shaft member 125.

第2の接続体122の第1の軸部材125と反対側(図1の+X側)の端部には、第2の軸部材126が挿通されている。第2の軸部材126は第1の軸部材125と平行に配置されている。第2の軸部材126には、第2の接続体122とほぼ同様の構成を備えた平面視板状の第3の接続体123の一方の端部が軸支されている。   A second shaft member 126 is inserted through the end of the second connector 122 opposite to the first shaft member 125 (+ X side in FIG. 1). The second shaft member 126 is disposed in parallel with the first shaft member 125. One end of a third connection body 123 having a plate-like shape in plan view and having substantially the same configuration as that of the second connection body 122 is pivotally supported by the second shaft member 126.

第3の接続体123の他方の端部(図1の+X側の端部)には、第3の軸部材127が挿通されている。第3の軸部材127は、第2の軸部材126と平行に配置されている。第3の軸部材127を介して、第3の接続体123の先端側に、第4の接続体124が接続されている。   A third shaft member 127 is inserted into the other end (the end on the + X side in FIG. 1) of the third connection body 123. The third shaft member 127 is disposed in parallel with the second shaft member 126. A fourth connection body 124 is connected to the distal end side of the third connection body 123 via the third shaft member 127.

第4の接続体124は概略トレイ状の部材である。第4の接続体124の長さ方向(図1のX軸方向)に延びる2つの側壁部材124aには、それらの長さ方向に沿ってスリットが形成されている。第3の軸部材127は上記2本のスリットに挿通され、側壁部材124a、124a間に架け渡されている。第4の接続体124にはねじ止め用の貫通孔が設けられている。第4の接続体124は、2本のねじ129により、第2のパネル12の接続部119に固定される。
なお、第4の接続体124の裏面側(図1の+Z側)には、鉤型の固定部材が形成されており、この固定部材が、第2のパネル12の係止部118に係止される。
The fourth connecting body 124 is a substantially tray-shaped member. In the two side wall members 124a extending in the length direction of the fourth connecting body 124 (X-axis direction in FIG. 1), slits are formed along the length direction. The third shaft member 127 is inserted through the two slits and spans between the side wall members 124a and 124a. The fourth connecting body 124 is provided with a through hole for screwing. The fourth connection body 124 is fixed to the connection portion 119 of the second panel 12 by two screws 129.
Note that a hook-shaped fixing member is formed on the back surface side (+ Z side in FIG. 1) of the fourth connecting body 124, and this fixing member is locked to the locking portion 118 of the second panel 12. Is done.

第1のヒンジ部21は、4つの接続体121〜124を、3つの軸部材125〜127を介して連結したものである。各々の接続体121〜124は、それらの連結部に設けられた軸部材125〜127の軸回りに相対的に揺動可能である。   The first hinge portion 21 is obtained by connecting four connecting bodies 121 to 124 via three shaft members 125 to 127. Each of the connection bodies 121 to 124 can swing relatively around the shafts of the shaft members 125 to 127 provided at the connecting portions thereof.

また、第1の接続体121の第2部材121bに設けられたスリット内で第1の軸部材125を移動させることで、第2の接続体122を、第1の接続体121に対して進退させることができる。また第4の接続体124の側壁部材124aに設けられたスリット内で第3の軸部材127を移動させることで、第3の接続体123を、第4の接続体124に対して進退させることができる。   Further, by moving the first shaft member 125 within the slit provided in the second member 121 b of the first connection body 121, the second connection body 122 moves forward and backward with respect to the first connection body 121. Can be made. Further, the third connecting member 123 is moved forward and backward with respect to the fourth connecting member 124 by moving the third shaft member 127 in the slit provided in the side wall member 124 a of the fourth connecting member 124. Can do.

回転機構31は、図3に示すように、第1の接続体121に連結された回転軸132と、筐体101の背面11b中央に設けられた軸受部材134と、を有する。また本実施形態の場合、回転軸132の周囲にコイルバネ133が巻回されている。コイルバネ133は、軸受部材134よりも筐体101の内側に設けられている。コイルバネ133により、第1の接続体121は図示下方(−Z方向)へ付勢される。   As illustrated in FIG. 3, the rotation mechanism 31 includes a rotation shaft 132 coupled to the first connection body 121 and a bearing member 134 provided at the center of the back surface 11 b of the housing 101. In the present embodiment, a coil spring 133 is wound around the rotation shaft 132. The coil spring 133 is provided inside the housing 101 with respect to the bearing member 134. The first connecting body 121 is urged downward (−Z direction) by the coil spring 133.

なお、図3(a)では、構造を分かりやすくするために第1の接続体121をやや上方に引き上げた状態で表示している。図3に示す位置に第1のヒンジ部21が配置されている状態では、実際には、第1の接続体121の図示下面に設けられた突起部121cが、筐体101に設けられたリング状部材135の凹部135aに係合される。   In FIG. 3A, the first connection body 121 is displayed in a state where it is lifted slightly upward for easy understanding of the structure. In the state where the first hinge portion 21 is disposed at the position shown in FIG. 3, the protrusion 121 c provided on the lower surface of the first connection body 121 is actually a ring provided on the housing 101. It engages with the recess 135 a of the member 135.

リング状部材135には、その周方向に沿って90°間隔で凹部135a、135b、135cが設けられている。これらの凹部に第1の接続体121の突起部121cが係合されることで、第1のヒンジ部21の回転軸132回りの移動が制限される。これらの凹部135a、135b、135c、及び突起部121cが、第1のヒンジ部21を、回転方向の所定角度位置で移動規制する移動規制部として機能する。また、突起部121cが凹部135aに係合した位置で第1のヒンジ部21を挟み込むように固定する筐体101の突起部113、114や、これらと同様の作用を奏する突起部111、112、115、116も、第1のヒンジ部21に対する移動規制部として機能する。   The ring-shaped member 135 is provided with recesses 135a, 135b, and 135c at 90 ° intervals along the circumferential direction. The protrusions 121c of the first connecting body 121 are engaged with these recesses, so that the movement of the first hinge part 21 around the rotation shaft 132 is limited. These recesses 135a, 135b, 135c and the protrusion 121c function as a movement restricting portion that restricts the movement of the first hinge portion 21 at a predetermined angular position in the rotation direction. In addition, the protrusions 113 and 114 of the housing 101 that fix the first hinge part 21 so as to sandwich the first hinge part 21 at the position where the protrusion 121c is engaged with the recess 135a, and the protrusions 111 and 112 that perform the same function as these. 115 and 116 also function as movement restricting portions for the first hinge portion 21.

図1に示す3枚のパネル11〜13が直列に配置されている状態では、第1のヒンジ部21の突起部121cは凹部135aに係合される。回転機構31により第1のヒンジ部21を90°回転させ、3枚のパネル11〜13を平面視でV字形に配置した状態では、突起部121cは凹部135b又は凹部135cに係合される。   In the state where the three panels 11 to 13 shown in FIG. 1 are arranged in series, the protrusion 121c of the first hinge portion 21 is engaged with the recess 135a. In a state in which the first hinge portion 21 is rotated 90 ° by the rotation mechanism 31 and the three panels 11 to 13 are arranged in a V shape in plan view, the protrusion 121c is engaged with the recess 135b or the recess 135c.

なお、第1のヒンジ部21と第1のパネル11との接続部の構造は、図3(a)に示した構造に限られず、例えば図3(c)に示すようなヒンジと板バネを用いた構造であってもよい。図3(c)に示す構造では、円盤状の第1部材121aは、筐体101に設けられた円形の貫通孔101cに対して、固定部材131と、固定部材131を筐体101の内側から支持する支持部材162とにより接続されている。   In addition, the structure of the connection part of the 1st hinge part 21 and the 1st panel 11 is not restricted to the structure shown to Fig.3 (a), For example, a hinge and leaf | plate spring as shown in FIG.3 (c) are used. The structure used may be used. In the structure shown in FIG. 3C, the disk-shaped first member 121 a has the fixing member 131 and the fixing member 131 from the inside of the casing 101 to the circular through hole 101 c provided in the casing 101. They are connected by a supporting member 162 that supports them.

固定部材131と支持部材162は筐体101の壁を挟み込むようにして連結されている。筐体101の貫通孔101cの位置において、固定部材131と支持部材162とが第1のヒンジ部21の回転軸を形成する。固定部材131は、軸部材163により支持部材162に軸支されている。固定部材131は、軸部材163の軸回りに揺動可能である。   The fixing member 131 and the support member 162 are connected so as to sandwich the wall of the housing 101. The fixing member 131 and the support member 162 form the rotation axis of the first hinge portion 21 at the position of the through hole 101 c of the housing 101. The fixing member 131 is pivotally supported on the support member 162 by the shaft member 163. The fixing member 131 can swing around the axis of the shaft member 163.

第1部材121aの裏面(筐体101側の面)に、板バネ164が設けられている。板バネ164は、固定部材131を挟んで突起部121cと反対側の位置に設けられている。軸部材163は、突起部121cと板バネ164と結ぶ線分に対して直交する方向に配置されている。この構成により、板バネ164の付勢力により突起部121cを筐体101に押しつける力が作用するので、突起部121cは凹部135a(135b、135c)に係合された状態で安定に保持される。   A leaf spring 164 is provided on the back surface (surface on the housing 101 side) of the first member 121a. The leaf spring 164 is provided at a position opposite to the protruding portion 121c with the fixing member 131 interposed therebetween. The shaft member 163 is disposed in a direction orthogonal to a line segment connecting the protruding portion 121c and the leaf spring 164. With this configuration, the pressing force of the leaf spring 164 presses the projection 121c against the housing 101, so that the projection 121c is stably held while being engaged with the recess 135a (135b, 135c).

第1の接続体121の上面(−Z側の面)中央には、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの撮像素子を備えた撮像部150が設けられている。撮像部150は、図示略の配線等を介して第1のパネル11の制御部等(図示略)と電気的に接続される。   An imaging unit 150 including an imaging element such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor is provided at the center of the upper surface (surface on the −Z side) of the first connection body 121. . The imaging unit 150 is electrically connected to a control unit or the like (not shown) of the first panel 11 via a wiring or the like not shown.

第2のパネル12は、第1のパネル11と共通の基本構成を備えている。第2のパネル12は、筐体102と、筐体102内に設けられた表示デバイスとを有する。上記表示デバイスの表示は表示面12aを介してユーザーに視認される。筐体102の背面12bの中央部には、キャップ部材138が装着されている。キャップ部材138の中央部には、第1のパネル11と同様の撮像部150が設けられている。   The second panel 12 has a basic configuration common to the first panel 11. The second panel 12 includes a housing 102 and a display device provided in the housing 102. The display of the display device is visually recognized by the user through the display surface 12a. A cap member 138 is attached to the center of the back surface 12 b of the housing 102. An imaging unit 150 similar to that of the first panel 11 is provided at the center of the cap member 138.

第3のパネル13は、第1のパネル11と共通の基本構成を備えている。第3のパネル13は、筐体103と、筐体103内に設けられた表示デバイスとを有する。上記表示デバイスの表示は表示面13aを介してユーザーに視認される。筐体103の背面13bの中央部には、回転機構32を介して第2のヒンジ部22が接続されている。回転機構32は、第1のパネル11に設けられた回転機構31と共通の構成である。また第2のヒンジ部22も、第1のヒンジ部21と共通の構成である。   The third panel 13 has a basic configuration common to the first panel 11. The third panel 13 includes a housing 103 and a display device provided in the housing 103. The display of the display device is visually recognized by the user through the display surface 13a. A second hinge portion 22 is connected to the center portion of the back surface 13 b of the housing 103 via a rotation mechanism 32. The rotation mechanism 32 has a common configuration with the rotation mechanism 31 provided on the first panel 11. Further, the second hinge portion 22 has a common configuration with the first hinge portion 21.

第2のヒンジ部22の第4の接続体124が、第1のパネル11の背面11bに設けられた係止部118及び接続部119に接続されることで、第1のパネル11と第3のパネル13とが第2のヒンジ部22を介して連結される。第1のパネル11と第2のヒンジ部22との接続構造において、第4の接続体124の背面側(+Z側)に設けられた図示略の鉤型の固定部材が、第1のパネル11の係止部118に係止されている。また、第2のヒンジ部22の第4の接続体124の先端部が第1のパネル11の接続部119にねじ止めされている。   The fourth connecting body 124 of the second hinge portion 22 is connected to the locking portion 118 and the connecting portion 119 provided on the back surface 11b of the first panel 11, whereby the first panel 11 and the third connecting portion 119 are connected. The panel 13 is connected via the second hinge portion 22. In the connection structure between the first panel 11 and the second hinge part 22, a hook-shaped fixing member (not shown) provided on the back side (+ Z side) of the fourth connection body 124 is a first panel 11. Is locked to the locking portion 118. Further, the tip end portion of the fourth connecting body 124 of the second hinge portion 22 is screwed to the connecting portion 119 of the first panel 11.

(使用態様)
上記構成を備えた本実施形態の電子機器100は、種々の形態で使用することが可能である。以下、電子機器100の使用態様の代表例について図面を参照しつつ説明する。
(Usage mode)
The electronic device 100 of the present embodiment having the above-described configuration can be used in various forms. Hereinafter, typical examples of usage modes of the electronic device 100 will be described with reference to the drawings.

[折り畳み配置]
まず、図4から図10を参照しつつ、本実施形態の電子機器100の折り畳み動作について説明する。図4から図10は、図1に示した直列配置の状態からパネルを折り畳む過程を示した説明図である。
[Folding layout]
First, the folding operation of the electronic device 100 of this embodiment will be described with reference to FIGS. 4 to 10. 4 to 10 are explanatory views showing a process of folding the panel from the serially arranged state shown in FIG.

図1に示した直列配置から折り畳み配置に移行するには、まず、図4に示すように、第3のパネル13を第1のパネル11から引き離す方向(図示−X方向)に移動させる。これにより、第2のヒンジ部22が伸びた状態となる。具体的には、第1の接続体121のスリットに沿って第2の接続体122が第1のパネル11側へ引き出されるとともに、第4の接続体124のスリットに沿って第3の接続体123が第3のパネル13側へ引き出される。   In order to shift from the serial arrangement shown in FIG. 1 to the folded arrangement, first, as shown in FIG. 4, the third panel 13 is moved in the direction of separating from the first panel 11 (the X direction in the figure). Thereby, the 2nd hinge part 22 will be in the state extended. Specifically, the second connection body 122 is pulled out to the first panel 11 side along the slit of the first connection body 121 and the third connection body is formed along the slit of the fourth connection body 124. 123 is pulled out to the third panel 13 side.

次に、図5に示すように、第2のヒンジ部22を屈曲させ、第3のパネル13を第1のパネル11側へ折り畳む。図示の場合、第2のヒンジ部22は、第1の軸部材125と第3の軸部材127とにおいて屈曲される。このとき、第2の軸部材126において屈曲されるようにしてもよい。   Next, as shown in FIG. 5, the second hinge portion 22 is bent, and the third panel 13 is folded toward the first panel 11. In the illustrated case, the second hinge portion 22 is bent at the first shaft member 125 and the third shaft member 127. At this time, the second shaft member 126 may be bent.

続いて、図6に示すように、第3のパネル13の表示面13aと第1のパネル11の表示面11aとが対向して接する位置まで、第3のパネル13を移動させる。この状態において、第2のヒンジ部22の第2の接続体122は第3のパネル13の側端面と対向する位置に配置され、第3の接続体123は第1のパネル11の側端面と対向する位置に配置される。   Subsequently, as shown in FIG. 6, the third panel 13 is moved to a position where the display surface 13 a of the third panel 13 and the display surface 11 a of the first panel 11 face each other. In this state, the second connecting body 122 of the second hinge portion 22 is disposed at a position facing the side end face of the third panel 13, and the third connecting body 123 is connected to the side end face of the first panel 11. It arrange | positions in the position which opposes.

次に、図7に示すように、第2のパネル12を第1のパネル11から引き離す方向(図示+X方向)に移動させる。これにより、第1のヒンジ部21が伸びた状態となる。具体的には、第1の接続体121のスリットに沿って第2の接続体122が第1のパネル11側へ引き出されるとともに、第4の接続体124のスリットに沿って第3の接続体123が第3のパネル13側へ引き出される。   Next, as shown in FIG. 7, the second panel 12 is moved in the direction of pulling away from the first panel 11 (the + X direction in the drawing). Thereby, the 1st hinge part 21 will be in the state extended. Specifically, the second connection body 122 is pulled out to the first panel 11 side along the slit of the first connection body 121 and the third connection body is formed along the slit of the fourth connection body 124. 123 is pulled out to the third panel 13 side.

次に、図8に示すように、第1のヒンジ部21の第2の軸部材126をパネル背面側(図示−Z方向)へ突出させるようにして第2の接続体122と第3の接続体123とを屈曲させる。このとき、第1の軸部材125の第1の接続体121のスリット上における位置、及び、第3の軸部材127の第4の接続体124のスリット上における位置は移動させない。上記の操作により、第2のパネル12が第1のパネル11側へ引き寄せられる。   Next, as shown in FIG. 8, the second connecting member 122 and the third connection are made so that the second shaft member 126 of the first hinge portion 21 protrudes to the panel back side (the −Z direction in the drawing). The body 123 is bent. At this time, the position of the first shaft member 125 on the slit of the first connection body 121 and the position of the third shaft member 127 on the slit of the fourth connection body 124 are not moved. By the above operation, the second panel 12 is drawn toward the first panel 11 side.

次に、図9に示すように、第1のヒンジ部21を屈曲させて第2のパネル12を第1のパネル11側へ移動させる。このとき、第2のパネル12のキャップ部材138を、第1のヒンジ部21の第1の接続体121に近づけるように、第2のパネル12を移動させる。ここで、第1のヒンジ部21の第2の接続体122は、第1の接続体121から第2の接続体122を引き出すことにより形成されたスペース(2つの側壁の間のスペース)に収容される。また、第1のヒンジ部21の第3の接続体123は、第4の接続体124から第3の接続体123を引き出すことにより形成されたスペース(2つの側壁の間のスペース)に収容される。   Next, as shown in FIG. 9, the 1st hinge part 21 is bent and the 2nd panel 12 is moved to the 1st panel 11 side. At this time, the second panel 12 is moved so that the cap member 138 of the second panel 12 approaches the first connector 121 of the first hinge portion 21. Here, the second connecting body 122 of the first hinge portion 21 is accommodated in a space formed by pulling out the second connecting body 122 from the first connecting body 121 (a space between two side walls). Is done. The third connection body 123 of the first hinge portion 21 is accommodated in a space (a space between two side walls) formed by pulling out the third connection body 123 from the fourth connection body 124. The

そして、図10に示すように、第2のパネル12を第1のパネル11(第1のヒンジ部21の第1の接続体121)と接する位置まで移動させることで、電子機器100の折り畳み動作が完了する。図10に示す折り畳み配置の電子機器100では、第1のパネル11の表示面11aと第3のパネル13の表示面13aは互いに対向して配置された保護状態となる。一方、第2のパネル12の表示面12aは外方へ露出しているため、ユーザーは表示面12aを介して表示を視認することができる。   Then, as shown in FIG. 10, the electronic device 100 is folded by moving the second panel 12 to a position where the second panel 12 is in contact with the first panel 11 (the first connection body 121 of the first hinge portion 21). Is completed. 10, the display surface 11a of the first panel 11 and the display surface 13a of the third panel 13 are in a protected state in which they are disposed to face each other. On the other hand, since the display surface 12a of the second panel 12 is exposed to the outside, the user can visually recognize the display through the display surface 12a.

[三面直交配置]
次に、図11から図15を参照しつつ、本実施形態の電子機器100における三面直交配置について説明する。図11から図14は、図1に示した直列配置から三面直交配置へ移行する過程を示した説明図である。図15は、三面直交配置における電子機器100の四面図である。
[Three surfaces orthogonal arrangement]
Next, the three-plane orthogonal arrangement in the electronic device 100 of the present embodiment will be described with reference to FIGS. 11 to 14 are explanatory diagrams showing a process of shifting from the series arrangement shown in FIG. 1 to the three-plane orthogonal arrangement. FIG. 15 is a four-sided view of the electronic device 100 in a three-plane orthogonal arrangement.

図1に示した直列配置から三面直交配置に移行するには、まず、図11に示すように、第1のヒンジ部21を屈曲させて第2のパネル12をその背面側へ回動させる。本実施形態では、第1のヒンジ部21は第2の軸部材126において屈曲される。
なお、図11に示す操作は、第2のパネル12を回転させる際に、第1のパネル11と干渉しないようにするために行う。この操作は、第1のヒンジ部21を伸ばして第2のパネル12を第1のパネル11から引き離す操作であってもよい。
In order to shift from the series arrangement shown in FIG. 1 to the three-plane orthogonal arrangement, first, as shown in FIG. 11, the first hinge portion 21 is bent and the second panel 12 is rotated to the back side. In the present embodiment, the first hinge portion 21 is bent at the second shaft member 126.
Note that the operation shown in FIG. 11 is performed so as not to interfere with the first panel 11 when the second panel 12 is rotated. This operation may be an operation of extending the first hinge portion 21 and pulling the second panel 12 away from the first panel 11.

次に、図12に示すように、第2のパネル12を側方(概略+Y方向)へ移動させる。これにより、第2のパネル12に連結されている第1のヒンジ部21が、回転機構31の回転軸を中心に回転する。図3に示したように、図1の直列配置では、第1のヒンジ部21の第1の接続体121に設けられた突起部121cは、リング状部材135の凹部135aに係合されている。この状態から、図12に示すように第2のパネル12を移動させると、突起部121cの凹部135aへの係合が解除され、突起部121cがリング状部材135の上面(−Z側の面)に乗り上げる。そうすると、第1の接続体121が上方(−Z方向)へ移動するため、第1の接続体121を幅方向(Y軸方向)に挟持して位置決めしていた突起部113、114から第1の接続体121が外れる。その後は、突起部121cをリング状部材135の上面で摺動させることで、第1のヒンジ部21を、回転軸132の軸回りに回転させることができる。   Next, as shown in FIG. 12, the second panel 12 is moved laterally (generally in the + Y direction). As a result, the first hinge portion 21 connected to the second panel 12 rotates around the rotation axis of the rotation mechanism 31. As shown in FIG. 3, in the series arrangement of FIG. 1, the protrusion 121 c provided on the first connection body 121 of the first hinge portion 21 is engaged with the recess 135 a of the ring-shaped member 135. . When the second panel 12 is moved from this state as shown in FIG. 12, the engagement of the protrusion 121 c with the recess 135 a is released, and the protrusion 121 c becomes the upper surface (the surface on the −Z side) of the ring-shaped member 135. ) Then, since the first connection body 121 moves upward (−Z direction), the first connection body 121 is first held from the projections 113 and 114 that are positioned by sandwiching the first connection body 121 in the width direction (Y-axis direction). The connecting body 121 is disconnected. Thereafter, the first hinge portion 21 can be rotated around the axis of the rotation shaft 132 by sliding the protrusion 121 c on the upper surface of the ring-shaped member 135.

なお、突起部121cがリング状部材135に乗り上げた状態にあるとき、回転軸132に設けられたコイルバネ133の付勢力により、突起部121cをリング状部材135に押しつける応力が作用する。これにより、第2のパネル12を任意角度だけ回転させた位置で自由に保持することができる。コイルバネ133による付勢力は、第2のパネル12の重量や、突起部121cと凹部135a〜135cとの係合を解除するために必要な力に応じて設定することができる。   In addition, when the protrusion 121c is in a state of riding on the ring-shaped member 135, a stress that presses the protrusion 121c against the ring-shaped member 135 is applied by the biasing force of the coil spring 133 provided on the rotating shaft 132. Thereby, the 2nd panel 12 can be freely hold | maintained in the position rotated only by arbitrary angles. The urging force by the coil spring 133 can be set according to the weight of the second panel 12 and the force necessary for releasing the engagement between the protrusion 121c and the recesses 135a to 135c.

図12に示す状態から第2のパネル12をさらに移動させると、やがて第1のヒンジ部21が90°回転した位置で、第1のヒンジ部21の回転が停止される。図3に示したように、リング状部材135に90°おきに凹部135a〜135cが設けられているため、図13に示すように90°回転した位置で、第1のヒンジ部21の突起部121cが凹部135cに嵌合される。また本実施形態の場合、第1の接続体121の側面が、台座状の接続部119の側面に突き当たるため、第1のヒンジ部21はそれ以上回転しない。   When the second panel 12 is further moved from the state shown in FIG. 12, the rotation of the first hinge portion 21 is stopped at a position where the first hinge portion 21 is finally rotated by 90 °. As shown in FIG. 3, since the ring-shaped member 135 is provided with the recesses 135a to 135c every 90 °, the protruding portion of the first hinge portion 21 at a position rotated by 90 ° as shown in FIG. 121c is fitted into the recess 135c. In the case of the present embodiment, since the side surface of the first connecting body 121 abuts on the side surface of the base-like connecting portion 119, the first hinge portion 21 does not rotate any more.

上記により、第2のパネル12が、第1のパネル11の他の辺縁(+Y側に位置する辺縁)へ配置される。このとき、電子機器100の3枚のパネル11〜13は、平面視でV字形の配置となる。   As described above, the second panel 12 is disposed on the other edge (the edge located on the + Y side) of the first panel 11. At this time, the three panels 11 to 13 of the electronic device 100 are arranged in a V shape in plan view.

その後、図14(a)に示すように、第1のヒンジ部21を屈曲させて第2のパネル12を第1のパネル11に対して垂直姿勢となる位置へ移動させる。また、第2のヒンジ部22を屈曲させて第3のパネル13を第1のパネル11及び第2のパネル12に対して垂直姿勢となる位置へ移動させる。
以上により、図14(b)に示すように、第1のパネル11の表示面11a、第2のパネル12の表示面12a、及び第3のパネル13の表示面13aが、互いに直交するように配置された三面直交配置となる。
Thereafter, as shown in FIG. 14A, the first hinge portion 21 is bent, and the second panel 12 is moved to a position where the second panel 12 is in a vertical posture with respect to the first panel 11. Further, the second hinge portion 22 is bent, and the third panel 13 is moved to a position where the third panel 13 is in a vertical posture with respect to the first panel 11 and the second panel 12.
Accordingly, as shown in FIG. 14B, the display surface 11a of the first panel 11, the display surface 12a of the second panel 12, and the display surface 13a of the third panel 13 are orthogonal to each other. It becomes a three-plane orthogonal arrangement.

図15には、三面直交配置の電子機器100を複数の方向から表示した図が示されている。図15(a)は、図14(a)に対応する上面図、図15(b)は+X方向視の側面図、図15(c)は+Y方向視の側面図、図15(d)は−X方向視の側面図である。   FIG. 15 shows a diagram in which the electronic device 100 arranged in three planes is displayed from a plurality of directions. 15 (a) is a top view corresponding to FIG. 14 (a), FIG. 15 (b) is a side view as viewed in the + X direction, FIG. 15 (c) is a side view as viewed in the + Y direction, and FIG. It is a side view of -X direction view.

図14及び図15に示すように、三面直交配置では3枚のパネル11〜13は、隣り合うパネル同士で互いの辺が一致するように配置される。これにより、立体的に配置された3つの表示面11a〜13aからなる1つの表示面が形成される。   As shown in FIGS. 14 and 15, in the three-plane orthogonal arrangement, the three panels 11 to 13 are arranged so that the sides of the adjacent panels coincide with each other. Thereby, one display surface which consists of the three display surfaces 11a-13a arrange | positioned in three dimensions is formed.

(階段状配置)
次に、図16は、本実施形態の電子機器における階段配置を示した斜視図である。
本実施形態の電子機器100は、図16に示すように、3枚のパネル11〜13を階段状に配置することができる。階段状配置では、中央の第1のパネル11に対して、第2のパネル12は表示面側から見て前方(+Z側)へせり出した位置に配置される。一方、第3のパネル13は、後方(−Z側)へ下がった位置に配置される。この配置では、3枚のパネル11〜13の表示面が階段状に配置されるため、例えば、それぞれのパネルに時系列に画像を表示させるようにしてもよい。また、パネル11〜13の背面側に設けられた撮像部150を使用する際は、複数の撮像部150を被写体に対する距離が段階的に異なる状態で配置することができる。
なお、図16では、3枚のパネル11〜13を直線状に配列した状態で階段状に配置しているが、図16の状態からさらに第2のパネル12を第1のパネル11の側方へ回転移動させてもよい。すなわち、図13のV形配置においてさらにパネル11〜13を階段状にずらして配置してもよい。
(Stepped arrangement)
Next, FIG. 16 is a perspective view showing a staircase arrangement in the electronic apparatus of the present embodiment.
As shown in FIG. 16, the electronic device 100 according to the present embodiment can arrange three panels 11 to 13 in a step shape. In the step-like arrangement, the second panel 12 is arranged at a position protruding forward (+ Z side) when viewed from the display surface side with respect to the central first panel 11. On the other hand, the third panel 13 is disposed at a position lowered to the rear (−Z side). In this arrangement, the display surfaces of the three panels 11 to 13 are arranged stepwise, and for example, images may be displayed in time series on each panel. Moreover, when using the imaging part 150 provided in the back side of the panels 11-13, the several imaging part 150 can be arrange | positioned in the state from which a distance with respect to a subject differs in steps.
In FIG. 16, the three panels 11 to 13 are arranged in a stepped manner in a linear arrangement, but the second panel 12 is further moved to the side of the first panel 11 from the state of FIG. 16. You may make it rotate to move. That is, in the V-shaped arrangement of FIG. 13, the panels 11 to 13 may be further shifted in a step shape.

(立体段差配置)
次に、図17は、本実施形態の電子機器における立体段差配置を示した斜視図である。
本実施形態の電子機器100は、図17に示すように、3枚のパネル11〜13を、表示面を観察する方向に見て立体的になるように配置することができる。具体的には、中央の第1のパネル11に対して、第2のパネル12と第3のパネル13の双方を、表示面側から見て後方(−Z側)へ下げた位置に配置する。この配置では、3枚のパネル11〜13で一枚の横長の画像を表示させた場合に、より立体感のある表示が可能である。
(Three-dimensional step arrangement)
Next, FIG. 17 is a perspective view showing a three-dimensional step arrangement in the electronic apparatus of the present embodiment.
As shown in FIG. 17, the electronic device 100 according to the present embodiment can arrange the three panels 11 to 13 so as to be three-dimensional when viewed in the direction of observing the display surface. Specifically, both the second panel 12 and the third panel 13 are arranged at a position lowered to the rear (−Z side) when viewed from the display surface side with respect to the central first panel 11. . With this arrangement, when a single horizontally long image is displayed on the three panels 11 to 13, a more three-dimensional display is possible.

なお、立体段差配置としては、第2のパネル12及び第3のパネル13を、第1のパネル11に対して、表示面側から見て前方にせり出すようにして配置した形態であってもよい。この配置では、3枚のパネル11〜13で一枚の横長の画像を表示させた場合に、より奥行き感のある表示が可能である。また、図17に示す配置においても、第2のパネル12を第1のパネル11に対して回転移動させ、V形配置と立体段差配置を組み合わせた配置としてもよい。   Note that the three-dimensional step arrangement may be such that the second panel 12 and the third panel 13 are arranged so as to protrude forward relative to the first panel 11 when viewed from the display surface side. . In this arrangement, when a single horizontally long image is displayed on the three panels 11 to 13, a display with a sense of depth is possible. Also in the arrangement shown in FIG. 17, the second panel 12 may be rotated and moved with respect to the first panel 11 to combine the V-shaped arrangement and the three-dimensional step arrangement.

(三角柱配置)
次に、図18は、本実施形態の電子機器における第1の三角柱配置を示した斜視図である。
本実施形態の電子機器100は、図18に示すように、3枚のパネル11〜13を、表示面11a〜13aを外側に向けた状態で三角柱を構成するように配置することができる。本実施形態の場合、第1のヒンジ部21及び第2のヒンジ部22は、それらの第2の接続体122及び第3の接続体123が三角柱の内側へ配置されるように屈曲される。
この配置では、3枚のパネル11〜13がいずれも外側を向いて配置されるため、全方位から画像を視認可能である。
(Triangular prism arrangement)
Next, FIG. 18 is a perspective view showing a first triangular prism arrangement in the electronic apparatus of the present embodiment.
As shown in FIG. 18, the electronic apparatus 100 according to the present embodiment can arrange the three panels 11 to 13 so as to form a triangular prism with the display surfaces 11 a to 13 a facing outward. In the case of this embodiment, the 1st hinge part 21 and the 2nd hinge part 22 are bent so that those 2nd connection bodies 122 and the 3rd connection body 123 may be arrange | positioned inside a triangular prism.
In this arrangement, since all the three panels 11 to 13 are arranged facing outward, an image can be viewed from all directions.

次に、図19は、本実施形態の電子機器における第2の三角柱配置を示した斜視図である。
本実施形態の電子機器100は、図19に示すように、3枚のパネル11〜13を、表示面11a〜13aを内側に向けた状態で三角柱を構成するように配置することもできる。この場合、第1のヒンジ部21及び第2のヒンジ部22は、いずれも伸ばされた状態となる。
この配置では、3枚のパネル11〜13の背面に設けられた撮像部150が120°方位角方向でほぼ120°おきに配置され、水平方向の広い範囲に対する撮像が可能である。
Next, FIG. 19 is a perspective view showing a second triangular prism arrangement in the electronic apparatus of the present embodiment.
As shown in FIG. 19, the electronic device 100 according to the present embodiment can be arranged such that three panels 11 to 13 form a triangular prism with the display surfaces 11 a to 13 a facing inward. In this case, both the first hinge portion 21 and the second hinge portion 22 are in an extended state.
In this arrangement, the imaging units 150 provided on the back surfaces of the three panels 11 to 13 are arranged at intervals of about 120 ° in the 120 ° azimuth direction, and imaging over a wide range in the horizontal direction is possible.

(他の配置)
次に、図20は、本実施形態の電子機器におけるさらに他の配置を示した斜視図である。
図20(a)に示す形態は、本実施形態の電子機器100において、第3のパネル13を図示手前側(例えばユーザー側)に平面配置し、その奥側に第1のパネル11を斜めに配置するとともに、第2のパネル12を第1のパネル11の背面側に立てて配置した形態である。この場合、例えば、第1のパネル11をユーザーの視線に対して正対する表示部として使用し、第3のパネル13のタッチパネルを入力部として使用することができる。第2のパネル12は、第1のパネル11の姿勢保持のための支持部として用いてもよく、第1のパネル11の背面側に位置するユーザーに対する表示部として用いてもよい。
(Other arrangements)
Next, FIG. 20 is a perspective view showing still another arrangement in the electronic apparatus of the present embodiment.
In the form shown in FIG. 20A, in the electronic device 100 of the present embodiment, the third panel 13 is arranged in a plane on the front side of the figure (for example, the user side), and the first panel 11 is obliquely arranged on the back side. In addition to the arrangement, the second panel 12 is arranged upright on the back side of the first panel 11. In this case, for example, the first panel 11 can be used as a display unit facing the user's line of sight, and the touch panel of the third panel 13 can be used as an input unit. The second panel 12 may be used as a support unit for maintaining the posture of the first panel 11, or may be used as a display unit for a user located on the back side of the first panel 11.

図20(b)に示す形態は、本実施形態の電子機器100において、第3のパネル13を図示手前側(例えばユーザー側)に平面配置し、その奥側に第1のパネル11と第2のパネル12を斜めに配置した形態である。この場合、例えば、第1のパネル11及び第2のパネル12をユーザーの視線に対して正対する表示部として使用し、第3のパネル13のタッチパネルを入力部として使用することができる。第1のパネル11と第2のパネル12を大画面の表示部として使用することができる。   In the form shown in FIG. 20B, in the electronic device 100 of the present embodiment, the third panel 13 is planarly arranged on the front side (for example, the user side) in the figure, and the first panel 11 and the second panel are arranged on the back side. The panel 12 is arranged obliquely. In this case, for example, the first panel 11 and the second panel 12 can be used as a display unit facing the user's line of sight, and the touch panel of the third panel 13 can be used as an input unit. The first panel 11 and the second panel 12 can be used as a large screen display unit.

以上詳細に説明したように、本実施形態の電子機器100によれば、3枚のパネル11〜13をV形に配置した状態から、第2のパネル12及び第3のパネル13を立ち上がらせ、表示面11a、12a、13aが立方体の隣り合う三面を構成するように配置することができる。これにより、例えば、立体視表示を行うことができる。
また本実施形態の電子機器100によれば、第1のパネル11の背面11bに回転機構31を介して第1のヒンジ部21が接続されていることで、第2のパネル12を第1のパネル11の外周に沿って回転させることができる。これにより、多様なパネル配置が可能となる。
As described in detail above, according to the electronic device 100 of the present embodiment, the second panel 12 and the third panel 13 are raised from the state in which the three panels 11 to 13 are arranged in a V shape, The display surfaces 11a, 12a, and 13a can be arranged to form three adjacent surfaces of a cube. Thereby, for example, stereoscopic display can be performed.
Further, according to the electronic device 100 of the present embodiment, the first panel 21 is connected to the back surface 11 b of the first panel 11 via the rotation mechanism 31, so that the second panel 12 is connected to the first panel 12. It can be rotated along the outer periphery of the panel 11. Thereby, various panel arrangements are possible.

<電子機器100の構成>
次に図21を用いて、一例としての電子機器100の構成を説明する。電子機器100は、図1を用いて説明したように、第1のパネル11と、第2のパネル12と、第3のパネル13とは、それぞれ同様の構成を具備している。そのため、ここでは第1のパネル11の構成について説明し、第2のパネル12と第3のパネル13との構成については、第1のパネル11の構成との相違点について説明する。
<Configuration of Electronic Device 100>
Next, a configuration of the electronic apparatus 100 as an example will be described with reference to FIG. As described with reference to FIG. 1, in the electronic device 100, the first panel 11, the second panel 12, and the third panel 13 have the same configuration. Therefore, here, the configuration of the first panel 11 will be described, and the configuration of the second panel 12 and the third panel 13 will be described with respect to differences from the configuration of the first panel 11.

図21に示すように、第1のパネル11は、表示部310と、表示制御部320と、操作検出部330と、ヒンジセンサ部340と、回転機構センサ部350と、姿勢検出部360と、制御部370と、撮像部380と、記憶部390と、通信部400と、バッテリ500とを備えている。   As shown in FIG. 21, the first panel 11 includes a display unit 310, a display control unit 320, an operation detection unit 330, a hinge sensor unit 340, a rotation mechanism sensor unit 350, an attitude detection unit 360, A control unit 370, an imaging unit 380, a storage unit 390, a communication unit 400, and a battery 500 are provided.

表示部310と、表示制御部320と、ヒンジセンサ部340と、姿勢検出部360と、制御部370と、記憶部390と、通信部400とは、制御バス600を介して接続されている。また、表示部310と表示制御部320とは、制御バス610を介して接続されている。   The display unit 310, the display control unit 320, the hinge sensor unit 340, the attitude detection unit 360, the control unit 370, the storage unit 390, and the communication unit 400 are connected via the control bus 600. The display unit 310 and the display control unit 320 are connected via a control bus 610.

バッテリ500は、たとえば、一次電池または二次電池を備えている。バッテリ500からの電力は、図示しない電力線を介して、第1のパネル11が備えている表示部310と、表示制御部320と、ヒンジセンサ部340と、回転機構センサ部350と、姿勢検出部360と、制御部370と、撮像部380と、記憶部390と、通信部400などの各構成に供給される。   The battery 500 includes, for example, a primary battery or a secondary battery. The power from the battery 500 is transmitted via a power line (not shown) to the display unit 310, the display control unit 320, the hinge sensor unit 340, the rotation mechanism sensor unit 350, and the attitude detection unit provided in the first panel 11. 360, the control unit 370, the imaging unit 380, the storage unit 390, and the communication unit 400.

また、バッテリ500は、ACアダプターを介して入力された電力を二次電池に蓄電させる充電機構を有していてもよい。また、バッテリ500は、無線給電により受電し、この受電した電力を二次電池に蓄電させる充電機構を有していてもよい。   Further, the battery 500 may have a charging mechanism that stores electric power input via the AC adapter in the secondary battery. The battery 500 may have a charging mechanism that receives power by wireless power feeding and stores the received power in a secondary battery.

表示部310は、画像、動画、文字またはアイコンなどの表示情報を表示するとともに、ユーザーからのタッチ操作を受け付けるタッチパネルである。なお、第1のパネル11が備えている表示部310の表示面は、図1に示す表示面11aに対応する。なお、タッチパネルは、表示部310の表示面上に限られず、例えば第1のパネル11のパネル面上(または、各パネル面上)に設けられていてもよい。   The display unit 310 is a touch panel that displays display information such as images, moving images, characters, icons, and the like and accepts a touch operation from the user. The display surface of the display unit 310 provided in the first panel 11 corresponds to the display surface 11a shown in FIG. The touch panel is not limited to the display surface of the display unit 310, and may be provided on the panel surface of the first panel 11 (or on each panel surface), for example.

表示制御部320は、制御部370から供給される画像情報や制御信号に基づいて、表示部310に表示情報を表示する。また、表示制御部320は、表示部310に対してのユーザーの操作に応じた信号(操作信号)を、操作検出部330に出力する。   The display control unit 320 displays display information on the display unit 310 based on image information and control signals supplied from the control unit 370. Further, the display control unit 320 outputs a signal (operation signal) corresponding to a user operation on the display unit 310 to the operation detection unit 330.

操作検出部330は、表示制御部320から入力された操作信号に基づいて、たとえば、フリックやピンチなどの操作情報が入力されたか否かを検出する。次に操作検出部330は、検出した操作情報を、制御部370に出力する。すなわち、操作検出部330は、表示部310の表示面上(またはパネル面上)に設けられたタッチパネルに対する操作を、表示部310および表示制御部320を介して検出する。   Based on the operation signal input from the display control unit 320, the operation detection unit 330 detects whether operation information such as a flick or a pinch has been input. Next, the operation detection unit 330 outputs the detected operation information to the control unit 370. That is, the operation detection unit 330 detects an operation on the touch panel provided on the display surface (or the panel surface) of the display unit 310 via the display unit 310 and the display control unit 320.

ヒンジセンサ部340は、自パネルと、自パネルにヒンジ部を介して接続されているパネルとの間の、ヒンジ部を介した相対的な位置をヒンジ位置情報として検出する。
たとえば、第1のパネル11においては、第1のヒンジ部21を介して接続されている第2のパネル12と、第1のパネル11との間の、第1のヒンジ部21を介した相対的な位置を検出する。一例としては、ヒンジセンサ部340はエンコーダを備えている。そして、このエンコーダは、第1のヒンジ部21の成す角度をヒンジ位置情報として検出する。このようにして第1のパネル11のヒンジセンサ部340は、第1のヒンジ部21の成す角度をヒンジ位置情報として検出する。
The hinge sensor unit 340 detects the relative position between the own panel and the panel connected to the own panel via the hinge part via the hinge part as hinge position information.
For example, in the first panel 11, the relative relationship between the first panel 11 and the second panel 12 connected via the first hinge 21 via the first hinge 21. The correct position. As an example, the hinge sensor unit 340 includes an encoder. And this encoder detects the angle which the 1st hinge part 21 comprises as hinge position information. In this way, the hinge sensor unit 340 of the first panel 11 detects the angle formed by the first hinge unit 21 as hinge position information.

第1のパネル11の場合と同様に、第3のパネル13のヒンジセンサ部340は、第2のヒンジ部22の成す角度をヒンジ位置情報として検出する。なお、第2のパネル12にはヒンジ部が取り付けられていないため、第2のパネル12のヒンジセンサ部340は、ヒンジ位置情報を検出しない。   As in the case of the first panel 11, the hinge sensor unit 340 of the third panel 13 detects the angle formed by the second hinge unit 22 as hinge position information. In addition, since the hinge part is not attached to the 2nd panel 12, the hinge sensor part 340 of the 2nd panel 12 does not detect hinge position information.

回転機構センサ部350は、自パネルと、自パネルに回転機構を介して接続されているパネルとの間の、回転機構を介した相対的な位置を回転位置情報として検出する。たとえば、第1のパネル11においては、回転機構31を介して接続されている第2のパネル12と、第1のパネル11との間の、回転機構31を介した相対的な位置を検出する。一例としては、回転機構センサ部350は、ロータリーエンコーダを備えている。そして、このロータリーエンコーダは、回転機構31による回転位置を回転位置情報として検出する。このようにして第1のパネル11の回転機構センサ部350は、回転機構31による回転位置を回転位置情報として検出する。   The rotation mechanism sensor unit 350 detects a relative position between the own panel and the panel connected to the own panel via the rotation mechanism via the rotation mechanism as rotation position information. For example, in the first panel 11, the relative position between the second panel 12 connected via the rotation mechanism 31 and the first panel 11 via the rotation mechanism 31 is detected. . As an example, the rotation mechanism sensor unit 350 includes a rotary encoder. And this rotary encoder detects the rotation position by the rotation mechanism 31 as rotation position information. Thus, the rotation mechanism sensor unit 350 of the first panel 11 detects the rotation position of the rotation mechanism 31 as rotation position information.

第1のパネル11の場合と同様に、第3のパネル13の回転機構センサ部350は、回転機構32による回転位置を回転位置情報として検出する。なお、第2のパネル12には回転機構が取り付けられていないため、第2のパネル12の回転機構センサ部350は、回転位置情報を検出しない。   As in the case of the first panel 11, the rotation mechanism sensor unit 350 of the third panel 13 detects the rotation position by the rotation mechanism 32 as rotation position information. In addition, since the rotation mechanism is not attached to the 2nd panel 12, the rotation mechanism sensor part 350 of the 2nd panel 12 does not detect rotation position information.

姿勢検出部360は、たとえば、地磁気センサ、加速度センサ、ジャイロセンサ、位置センサなどであり、自パネルが向いている方位、自パネルが鉛直方向と成す角度、または、位置を、姿勢情報として検出する。なお、自パネルが向いている方位とは、たとえば、自パネル内に基準となる基準方位を有しており、その基準方位が、所定の方位(たとえば北の方位)となす角度のことである。また自パネルが鉛直方向と成す角度は、たとえば、自パネル内に基準となる基準方位を有しており、その基準方位が、鉛直方向となす角度のことである。また位置センサは、GPS(Global Positioning System)や、携帯電話網から位置情報を取得するセンサである。   The posture detection unit 360 is, for example, a geomagnetic sensor, an acceleration sensor, a gyro sensor, a position sensor, and the like, and detects, as posture information, an orientation in which the own panel faces, an angle formed by the own panel with the vertical direction, or a position. . Note that the direction in which the own panel is facing is, for example, an angle that has a reference azimuth serving as a reference in the own panel and that the reference azimuth forms a predetermined azimuth (for example, a north azimuth). The angle formed by the own panel with the vertical direction is, for example, an angle formed with the reference direction in the own panel and the reference direction with the vertical direction. The position sensor is a sensor that acquires position information from a GPS (Global Positioning System) or a mobile phone network.

なお姿勢検出部360は、方位角検出部361と、位置検出部362とを備えている。方位角検出部361は、上述したように、自パネルが向いている方位、または、自パネルが鉛直方向と成す角度を、方位角として検出し、検出した方位角を示す情報を方位角情報として出力する。位置検出部362は、上述したように、自パネルの位置を検出し、検出した位置を示す情報を位置情報として出力する。   Note that the posture detection unit 360 includes an azimuth angle detection unit 361 and a position detection unit 362. As described above, the azimuth angle detection unit 361 detects, as the azimuth angle, the azimuth that the own panel faces or the angle that the own panel forms with the vertical direction, and information indicating the detected azimuth angle is used as the azimuth angle information. Output. As described above, the position detection unit 362 detects the position of the own panel, and outputs information indicating the detected position as position information.

撮像部380は、光学系を介して受光した光学像を撮像画像として撮像する。なお、第1のパネル11が備えている撮像部380は、図1に示す第1のパネル11が備えている撮像部150に対応する。また撮像部380が備えている光学系は広角であり、広い画角を撮像する。また、撮像部380は、制御部370からの制御信号に応じて、光学系の画角(焦点距離など)を変更する。   The imaging unit 380 captures an optical image received through the optical system as a captured image. Note that the imaging unit 380 included in the first panel 11 corresponds to the imaging unit 150 included in the first panel 11 illustrated in FIG. 1. Further, the optical system provided in the imaging unit 380 has a wide angle, and images a wide angle of view. In addition, the imaging unit 380 changes the angle of view (focal length, etc.) of the optical system in accordance with a control signal from the control unit 370.

制御部370は、自パネルが備える各構成を制御する。たとえば制御部370は、操作検出部330により検出された操作情報に基づいて、自パネルが備える各構成を制御する。   The control unit 370 controls each component included in the own panel. For example, the control unit 370 controls each component included in the own panel based on the operation information detected by the operation detection unit 330.

また制御部370は、撮像部380により撮像された画像を記憶部390に記憶させる。また、制御部370は、撮像部380により撮像された画像を動画形式で記憶部390に記憶させる。また制御部370は、撮像部380により撮像された画像を記憶部390に記憶させる場合、回転機構センサ部350により検出された回転位置情報、回転機構センサ部350により検出された回転位置情報、および、姿勢検出部360により検出された姿勢情報とを、画像に関連付けて記憶部390に記憶させる。さらに制御部370は、複数のパネルにより同じタイミングで撮像がされた場合には、他のパネルにより撮像された画像と関連付けて、自パネルにおいて撮像された画像を、記憶部390に記憶させる。すなわち制御部370は、3枚のパネルにより撮像された3枚の画像を関連付けて、記憶部390に記憶させる。   In addition, the control unit 370 causes the storage unit 390 to store the image captured by the imaging unit 380. In addition, the control unit 370 causes the storage unit 390 to store the image captured by the imaging unit 380 in a moving image format. In addition, when the control unit 370 stores the image captured by the imaging unit 380 in the storage unit 390, the rotation position information detected by the rotation mechanism sensor unit 350, the rotation position information detected by the rotation mechanism sensor unit 350, and The posture information detected by the posture detection unit 360 is stored in the storage unit 390 in association with the image. Further, when the images are captured at the same timing by a plurality of panels, the control unit 370 stores the images captured by the own panel in the storage unit 390 in association with images captured by other panels. That is, the control unit 370 associates the three images captured by the three panels and causes the storage unit 390 to store them.

なお後述するようにパネル間の通信が可能であるため、制御部370は、自パネルが備える記憶部390に画像を記憶させることもできるし、他パネルが備える記憶部390に画像を記憶させることもできる。   As described later, since communication between panels is possible, the control unit 370 can store an image in the storage unit 390 included in the own panel, or can store an image in the storage unit 390 included in another panel. You can also.

また、制御部370は、撮像部380が次々に撮像した画像を、表示制御部320を介して表示部310に次々に表示させる。すなわち、制御部370は、撮像部380により撮像された画像を、表示部310にスルー画として表示させる。   In addition, the control unit 370 causes the display unit 310 to sequentially display images sequentially captured by the imaging unit 380 via the display control unit 320. That is, the control unit 370 causes the display unit 310 to display an image captured by the imaging unit 380 as a through image.

記憶部390は、撮像部380により撮像された画像や、動画形式の画像(動画)を記憶する。また、記憶部390には、他の撮像装置により撮像された画像が記憶されていてもよい。また記憶部390には、メールやテキストなどの文字情報が記憶されていてもよいし、アイコンなどの情報が記憶されていてもよい。   The storage unit 390 stores an image captured by the imaging unit 380 and a moving image format image (moving image). The storage unit 390 may store an image captured by another imaging device. The storage unit 390 may store character information such as mail or text, or may store information such as icons.

通信部400は、電子機器100が備えている複数のパネルのうち、自パネルとは異なるパネルが備えている通信部400と通信する。通信方式は任意であり、有線方式であってもよいし、無線方式であってもよい。無線方式は近距離無線通信方式であってもよい。   The communication unit 400 communicates with the communication unit 400 provided in a panel different from the own panel among the plurality of panels provided in the electronic device 100. The communication method is arbitrary and may be a wired method or a wireless method. The wireless method may be a short-range wireless communication method.

なお制御部370は、自パネルが備えている通信部400と、他のパネルが備えている通信部400とを介して、他のパネルが備えている制御部370と通信する。これにより、たとえば、複数のパネルのうちのいずれかのパネルが備えている制御部370が、他のパネルが備えている制御部370を制御するようにして、電子機器100が全体として協調動作するようにしてもよい。すなわち、マスターとなる制御部370が、スレーブとなる制御部370を制御することにより、電子機器100が全体として協調動作をするようにしてもよい。また、複数のパネルが備えている制御部370が、相互に協調して動作するようにして、電子機器100が全体として協調動作するようにしてもよい。   Note that the control unit 370 communicates with the control unit 370 included in the other panel via the communication unit 400 included in the own panel and the communication unit 400 included in the other panel. Thereby, for example, the control unit 370 included in any one of the plurality of panels controls the control unit 370 included in the other panels, and the electronic apparatus 100 performs a cooperative operation as a whole. You may do it. In other words, the control unit 370 serving as a master may control the control unit 370 serving as a slave so that the electronic device 100 performs a cooperative operation as a whole. Further, the control unit 370 provided in the plurality of panels may operate in cooperation with each other, and the electronic device 100 may perform overall cooperative operation.

このように、電子機器100が全体として協調動作する方法は任意である。そのため、以降の説明において、電子機器100が全体として協調動作する場合、単に制御部370が電子機器100全体を制御するものとして説明する。この制御部370とは、マスターとなる制御部370であってもよいし、相互に協調して動作している複数の制御部370であってもよい。   As described above, the method in which the electronic device 100 performs a cooperative operation as a whole is arbitrary. Therefore, in the following description, when the electronic device 100 performs a cooperative operation as a whole, the control unit 370 will be described as simply controlling the entire electronic device 100. The control unit 370 may be a master control unit 370 or a plurality of control units 370 operating in cooperation with each other.

なお通信部400を介して各パネル間の通信が可能であるため、制御部370は、パネル間で、撮像部380による撮像のタイミングをあわせて、撮像することができる。   In addition, since communication between each panel is possible via the communication part 400, the control part 370 can image with the timing of the imaging by the imaging part 380 between panels.

また制御部370は、パネル間で画像などの情報の共有、情報の送信、情報の受信、または情報の転送をすることができる。   The control unit 370 can share information such as images, transmit information, receive information, or transfer information between panels.

また制御部370は、パネル間でヒンジ位置情報、回転位置情報、および、姿勢情報を共有することができる。そしてこれにより、制御部370は、パネル間の相対的な配置位置をそれぞれ検出することができる。たとえば制御部370は、ヒンジ位置情報と回転位置情報との組み合わせに基づいて、パネル間の相対的な配置位置をそれぞれ検出することができる。また制御部370は、姿勢情報のみに基づいて、パネル間の相対的な配置位置をそれぞれ検出することができる。また制御部370は、ヒンジ位置情報と回転位置情報と姿勢情報との組み合わせに基づいて、パネル間の相対的な配置位置をそれぞれ検出することができる。   The control unit 370 can share hinge position information, rotational position information, and posture information between panels. And thereby, the control part 370 can each detect the relative arrangement position between panels. For example, the control unit 370 can detect the relative arrangement positions between the panels based on the combination of the hinge position information and the rotation position information. Further, the control unit 370 can detect the relative arrangement position between the panels based only on the posture information. In addition, the control unit 370 can detect a relative arrangement position between the panels based on a combination of the hinge position information, the rotation position information, and the posture information.

このようにしてパネル間の相対的な配置位置をそれぞれ検出することができることにより、制御部370は、電子機器100全体の配置を検出することができる。この電子機器100全体の配置とは、上述した折り畳み配置、三面直交配置、階段状配置、立体段差配置、三角柱配置、図1に示す直列配置、または、図13に示すV字状配置(またはL字状配置)や、電子機器100がとることができる他の任意の配置のことである。   Since the relative arrangement positions between the panels can be detected in this way, the control unit 370 can detect the arrangement of the entire electronic device 100. The arrangement of the entire electronic device 100 is the above-described folding arrangement, three-plane orthogonal arrangement, stepped arrangement, three-dimensional step arrangement, triangular prism arrangement, series arrangement shown in FIG. 1, or V-shaped arrangement (or L) shown in FIG. Character arrangement) or any other arrangement that the electronic device 100 can take.

なお制御部370は、図22、図23、図24、図26または図28を用いて後述するように、検出した配置に応じて撮像部380が撮像する画角を変更する。一例としては、記憶部390に、配置を示す配置情報と、この配置情報により示される配置の場合に撮像する画角を示す画角情報とが、関連付けて予め記憶されている。   Note that the control unit 370 changes the angle of view captured by the imaging unit 380 according to the detected arrangement, as will be described later with reference to FIG. 22, FIG. 23, FIG. 24, FIG. As an example, in the storage unit 390, arrangement information indicating arrangement and view angle information indicating an angle of view to be captured in the case of the arrangement indicated by the arrangement information are stored in advance in association with each other.

そして制御部370は、撮像する場合、記憶部390に記憶されている画角情報の中から、パネル間の相対的な配置位置をそれぞれ検出したことにより得られた配置情報と一致または近似する配置情報と関連づけられている画角情報を読み出す。次に制御部370は、読み出した画角情報に基づいて、パネルそれぞれが備えている撮像部380の画角を変更し、画角を変更した撮像部380により撮像する。   Then, when imaging, the control unit 370 matches or approximates the arrangement information obtained by detecting the relative arrangement positions between the panels from the angle-of-view information stored in the storage unit 390. The angle of view information associated with the information is read. Next, the control unit 370 changes the angle of view of the imaging unit 380 included in each panel based on the read angle-of-view information, and images are taken by the imaging unit 380 that has changed the angle of view.

また、制御部370は、ヒンジ位置情報と回転位置情報との組み合わせ、姿勢情報、または、ヒンジ位置情報と回転位置情報と姿勢情報との組み合わせに基づいて、図43または図46を用いて後述するティルト操作を検出する。   Further, the control unit 370 will be described later with reference to FIG. 43 or 46 based on a combination of hinge position information and rotational position information, posture information, or a combination of hinge position information, rotational position information, and posture information. Detect tilt operation.

<撮像方法>
次に、電子機器100を用いた撮像方法について説明する。なお各撮像方法において、制御部370は、ユーザーからの撮像操作に応じて、それぞれのパネルが備えてる撮像部150により同じタイミングで撮像する。また制御部370は、各パネルの相対的な配置に応じて、パネルのそれぞれが備えている撮像部150の画角を変更する。また、制御部370は、それぞれのパネルが備えている撮像部150の画角が同じとなるように、それぞれのパネルが備えている撮像部150を制御する。
<Imaging method>
Next, an imaging method using the electronic device 100 will be described. In each imaging method, the control unit 370 performs imaging at the same timing by the imaging unit 150 provided in each panel in accordance with an imaging operation from the user. Further, the control unit 370 changes the angle of view of the imaging unit 150 provided in each panel according to the relative arrangement of the panels. In addition, the control unit 370 controls the imaging unit 150 provided in each panel so that the angle of view of the imaging unit 150 provided in each panel is the same.

<撮像方法1>
次に図22を用いて、第1の撮像方法について説明する。この第1の撮像方法においては、図1に直列配置として示したように、3枚のパネルが直列に配置されているとともに、各パネルの撮像方向が同じ方向にされている。
<Imaging Method 1>
Next, the first imaging method will be described with reference to FIG. In the first imaging method, as shown in FIG. 1 as a series arrangement, three panels are arranged in series and the imaging directions of the panels are the same.

ここで、パネル11の撮像部150は、撮像方向Cbを中心として画角Wbの領域を撮像する。またパネル13の撮像部150は、撮像方向Caを中心として画角Waの領域を撮像する。またパネル12の撮像部150は、撮像方向Ccを中心として画角Wcの領域を撮像する。図22に示す配置により撮像することにより、電子機器100は、単一のパネルで撮像するよりも、全体として広い画角を撮像することができる。   Here, the imaging unit 150 of the panel 11 captures an area of the angle of view Wb with the imaging direction Cb as the center. Further, the imaging unit 150 of the panel 13 captures an area of the angle of view Wa around the imaging direction Ca. Further, the imaging unit 150 of the panel 12 captures an area of the angle of view Wc with the imaging direction Cc as the center. By capturing an image with the arrangement shown in FIG. 22, electronic device 100 can capture a wider angle of view as a whole than capturing with a single panel.

<撮像方法2>
次に図23を用いて、第2の撮像方法について説明する。この第2の撮像方法においては、図1または図22を用いて説明した直列配列の場合よりも、パネル11とパネル12とパネル13との撮像部150が撮像する撮像方向が成す角度が広がるように、パネル11とパネル12とパネル13とが配置されている。
そのため電子機器100は、図23に示す撮像方法2の場合、図22を用いて説明した第1の撮像方法よりも、より広い画角を撮像することができる。
<Imaging method 2>
Next, the second imaging method will be described with reference to FIG. In the second imaging method, the angle formed by the imaging directions of the imaging units 150 of the panel 11, the panel 12, and the panel 13 is wider than in the case of the series arrangement described with reference to FIG. 1 or FIG. In addition, a panel 11, a panel 12, and a panel 13 are arranged.
Therefore, in the case of the imaging method 2 shown in FIG. 23, the electronic device 100 can image a wider field angle than the first imaging method described with reference to FIG.

ここで制御部370は、図23の配置の場合には、図22の配置の場合に対比して、撮像部の画角を広くするように変更してもよい(図23の画角Wa’、Wb’、Wc’を参照)。また制御部370は、各パネルの相対的な配置に応じて、接続されている2つのパネルの撮像部150により撮像される2つの画像に、重複領域が生じるように、撮像部の画角を変更する。これにより電子機器100は、複数のパネルが備える撮像部150それぞれにより撮像された画像を合成してパノラマ表示する場合に、欠けている領域を減じて、パノラマ表示することができる。   Here, in the arrangement of FIG. 23, the control unit 370 may change the angle of view of the imaging unit to be wider than that of the arrangement of FIG. 22 (view angle Wa ′ of FIG. 23). , Wb ′, Wc ′). In addition, the control unit 370 sets the angle of view of the imaging unit so that an overlapping region is generated in the two images captured by the imaging unit 150 of the two connected panels according to the relative arrangement of the panels. change. As a result, when the electronic apparatus 100 combines and displays panorama images captured by the imaging units 150 included in the plurality of panels, the electronic device 100 can perform panorama display by reducing the missing area.

<撮像方法3>
次に図24を用いて、第3の撮像方法について説明する。この第3の撮像方法において、パネル11と12と13とは、図19を用いて説明した配置と同じ配置である。電子機器100は、この配置で撮像することにより、三角柱の中心軸まわりにおける360度の撮像範囲を撮像することができる。なお、三角柱の中心軸まわりにおける360度の撮像範囲を撮像するために、制御部370は、撮像部150の撮像画角をそれぞれ120度以上にする(図24の画角Wa’’、Wb’’、Wc’’を参照)。
<Imaging method 3>
Next, the third imaging method will be described with reference to FIG. In the third imaging method, the panels 11, 12, and 13 have the same arrangement as described with reference to FIG. The electronic device 100 can capture an image of a 360-degree imaging range around the central axis of the triangular prism by imaging with this arrangement. Note that in order to capture an imaging range of 360 degrees around the central axis of the triangular prism, the control unit 370 sets the imaging field angle of the imaging unit 150 to 120 degrees or more (view angles Wa ″ and Wb ′ in FIG. 24). ', See Wc'').

次に図25を用いて、図24を用いて説明した撮像方法3により撮像した画像を表示する一例を説明する。この図25の配置は、図18を用いて説明した配置と同じ配置である。電子機器100は、この配置により、三角柱の中心軸まわりにおける360度の画像を表示することができる。
ここで電子機器100は、撮像方法3により撮像した画像を表示することにより、三角柱の中心軸まわりの360度で撮像した画像を、三角柱の中心軸まわりの360度で画像を表示することができる。
Next, an example of displaying an image captured by the imaging method 3 described with reference to FIG. 24 will be described with reference to FIG. The arrangement in FIG. 25 is the same as the arrangement described with reference to FIG. The electronic device 100 can display an image of 360 degrees around the central axis of the triangular prism by this arrangement.
Here, the electronic device 100 can display an image captured at 360 degrees around the central axis of the triangular prism by displaying an image captured by the imaging method 3 at 360 degrees around the central axis of the triangular prism. .

<撮像方法4>
次に図26を用いて、第4の撮像方法について説明する。第4の撮像方法において、パネル12と13と14とは、図14(a)を用いて説明した配置と同じ配置である。電子機器100は、この配置で撮像することにより、三面直交による撮像範囲を撮像することができる。なお三面直交による撮像範囲とは、立方体が有する6面にうち、1つの頂点を共有する3面について、この立方体から遠ざかる方向に含まれる領域のことである。
なお、パネル12と13と14とが備えているそれぞれの撮像部150の撮像範囲に重複が生じるように、制御部370は、撮像部150の画角を広角にする。このように画角を調整することにより、電子機器100は、画像領域で欠けた領域を減じて、三面直交による撮像範囲を撮像することができる。
<Imaging Method 4>
Next, a fourth imaging method will be described with reference to FIG. In the fourth imaging method, the panels 12, 13 and 14 have the same arrangement as described with reference to FIG. The electronic device 100 can image an imaging range based on three-plane orthogonality by imaging with this arrangement. In addition, the imaging range by three-plane orthogonal is an area included in a direction away from the cube of three surfaces sharing one vertex among the six surfaces of the cube.
Note that the control unit 370 widens the angle of view of the imaging unit 150 so that the imaging ranges of the imaging units 150 included in the panels 12, 13, and 14 are overlapped. By adjusting the angle of view in this way, the electronic device 100 can capture an imaging range based on three-plane orthogonality by reducing the area lacking in the image area.

次に図27を用いて、図26を用いて説明した撮像方法4により撮像した画像を表示する一例について説明する。この図27の配置は、図14(b)を用いて説明した配置と同じ配置である。この図27に示す表示部は三面直交による表示領域を備えている。なお三面直交による表示領域とは、立方体が有する6面にうち、1つの頂点を共有する3面上の領域(3面について、立方体の内側となる面上の領域)のことである。そのため、電子機器100は、第4の撮像方法により三面直交による撮像範囲で撮像した画像を、好適に表示することができる。   Next, an example of displaying an image captured by the imaging method 4 described with reference to FIG. 26 will be described with reference to FIG. The arrangement in FIG. 27 is the same as the arrangement described with reference to FIG. The display unit shown in FIG. 27 has a display area with three orthogonal planes. In addition, the display area by three-plane orthogonal is an area on three faces that share one vertex among the six faces of the cube (area on the inner face of the cube with respect to three faces). Therefore, the electronic device 100 can display suitably the image imaged in the imaging range by three surface orthogonal by the 4th imaging method.

<撮像方法5>
次に図28を用いて、第5の撮像方法について説明する。第5の撮像方法において、パネル11と12と13とは、図16を用いて説明した配置と同じ配置である。電子機器100は、この配置で撮像することにより、被写体からパネルまでの距離を、パネル毎に異ならせることができる。例えば図28に示すように、被写体Qからの距離がパネル13はL1、パネル11はL2、パネル12はL3と、被写体Qからパネルまでの距離を、それぞれのパネル毎に異ならせることができる。
<Imaging Method 5>
Next, the fifth imaging method will be described with reference to FIG. In the fifth imaging method, the panels 11, 12, and 13 have the same arrangement as described with reference to FIG. The electronic device 100 can vary the distance from the subject to the panel for each panel by imaging with this arrangement. For example, as shown in FIG. 28, the distance from the subject Q is L1 for the panel 13, L2 for the panel 11, and L3 for the panel 12, and the distance from the subject Q to the panel can be different for each panel.

そのため、パネル11と12と13が備えている撮像部150において同じ合焦処理と撮像処理を実行した場合、各パネルが備えている撮像部150は、被写体からの距離をそれぞれ異ならせて撮像することになる。そのため、その後、被写体からの距離をそれぞれ異ならせて撮像した画像の中から、制御部370が、最も合焦している画像を選択するなどの選択処理をする。これにより、ユーザーは、より合焦していて好適な画像を撮像することができる。   Therefore, when the same focusing process and imaging process are executed in the imaging units 150 included in the panels 11, 12, and 13, the imaging units 150 included in the panels capture images with different distances from the subject. It will be. Therefore, after that, the control unit 370 performs a selection process such as selecting the most focused image from images picked up at different distances from the subject. As a result, the user can take a more suitable image that is more focused.

<シャッターボタンの配置>
次に、図29と図30とを用いて、制御部370がシャッターボタンSB(たとえば図29の符号SBを参照)を、表示面11a、12a、13a内のいずれかの表示位置に表示する例について説明する。
<Shutter button layout>
Next, an example in which the control unit 370 displays the shutter button SB (see, for example, the reference numeral SB in FIG. 29) at any display position within the display surfaces 11a, 12a, and 13a with reference to FIGS. Will be described.

なお、以降の図面において、鉛直方向下向きを示す方向を鉛直方向gとして説明する(一例としては図29における符号gを参照)。またユーザーは、鉛直方向gに沿って立っているものとして説明する。またユーザーは、表示面11a、12aまたは13aが見えるようにして、右手と左手により、電子機器100を把持するものとして説明する。またユーザーは、表示面11a、12aまたは13aのいずれかに表示されているシャッターボタンを、右手の指(親指や人差し指など)により押下するものとして説明する。   In the following drawings, the direction indicating the downward direction in the vertical direction will be described as the vertical direction g (for example, refer to the symbol g in FIG. 29). In addition, it is assumed that the user is standing along the vertical direction g. Further, the description will be made assuming that the user holds the electronic device 100 with the right hand and the left hand so that the display surface 11a, 12a, or 13a can be seen. In the following description, it is assumed that the user presses the shutter button displayed on one of the display surfaces 11a, 12a, or 13a with a finger of the right hand (such as a thumb or an index finger).

<配置例1:直列配置>
図29は、図22を用いて説明した第1の撮像方法(直列配置)において、制御部370がシャッターボタンSB(図29の符号SBを参照)を、表示面11a、12aまたは13a内のいずれかの表示位置に表示する例を示す図である。
<Arrangement Example 1: Series Arrangement>
FIG. 29 shows that in the first imaging method (series arrangement) described with reference to FIG. 22, the control unit 370 moves the shutter button SB (see reference numeral SB in FIG. 29) to any of the display surfaces 11a, 12a, or 13a. It is a figure which shows the example displayed on the display position.

図29(a)、図29(b)および図29(c)のそれぞれにおいて、各パネルが有する表示面の法線方向は方向gとほぼ直交しており、各パネルの表示面を、ユーザーは水平方向からほぼ正面視するものとして説明する。   In each of FIG. 29A, FIG. 29B, and FIG. 29C, the normal direction of the display surface of each panel is substantially orthogonal to the direction g. The description will be made assuming that the front view is substantially from the horizontal direction.

図29(a)は、ユーザーが第1の横位置で電子機器100を把持した場合の例を示す図である。図29(b)は、ユーザーが第2の横位置で電子機器100を把持した場合の例を示す図である。図29(c)は、ユーザーが縦位置で電子機器100を把持した場合の例を示す図である。なお、図29(a)と図29(b)とでは、パネル11を中心として(パネル11が有する表示面11aの法線を回転軸として)、パネル12と13とが、180度回転している。   FIG. 29A is a diagram illustrating an example when the user holds the electronic device 100 in the first lateral position. FIG. 29B is a diagram illustrating an example when the user holds the electronic device 100 in the second lateral position. FIG. 29C is a diagram illustrating an example when the user holds the electronic device 100 in the vertical position. 29 (a) and 29 (b), the panels 12 and 13 are rotated 180 degrees around the panel 11 (with the normal line of the display surface 11a of the panel 11 as the rotation axis). Yes.

<第1の横位置>
図29(a)においては、パネル11と12と13とのうち、パネル13がユーザーから見て最も左側になり、パネル12がユーザーから見て最も右側になる。この場合、ユーザーは、たとえば、パネル13のうちユーザーから見て左側の領域(領域α1を参照)を左手で把持し、パネル12のうちユーザーから見て右側の領域(領域α2を参照)を右手で把持する。
<First lateral position>
In FIG. 29A, among the panels 11, 12, and 13, the panel 13 is the leftmost when viewed from the user, and the panel 12 is the rightmost when viewed from the user. In this case, for example, the user grasps the left region (see region α1) of the panel 13 as viewed from the user with the left hand, and the right region (see region α2) of the panel 12 as viewed from the user with the right hand. Grip with

制御部370は、この場合、表示面12aの表示領域のうち、ユーザーから見て右側の領域(領域α2を参照)にシャッターボタンSBを配置する。ここでユーザーは領域α2を右手で把持しているため、ユーザーは右手の指でシャッターボタンSBを押下しやすくなる。   In this case, the control unit 370 arranges the shutter button SB in the right side area (see the area α2) of the display area of the display surface 12a when viewed from the user. Here, since the user holds the region α2 with the right hand, the user can easily press the shutter button SB with the finger of the right hand.

<第2の横位置>
図29(b)においては、パネル11と12と13とのうち、パネル12がユーザーから見て最も左側になり、パネル13がユーザーから見て最も右側になる。この場合、ユーザーは、たとえば、パネル12のうち、ユーザーから見て左側の領域(領域α3を参照)を左手で把持し、パネル13のうち、ユーザーから見て右側の領域(領域α4を参照)を右手で把持する。
<Second lateral position>
In FIG. 29B, of the panels 11, 12, and 13, the panel 12 is the leftmost when viewed from the user, and the panel 13 is the rightmost when viewed from the user. In this case, for example, the user grasps the left region (see the region α3) of the panel 12 as viewed from the user with the left hand, and the right region of the panel 13 as viewed from the user (see the region α4). Hold with the right hand.

制御部370は、この場合、表示面13aの表示領域のうち、ユーザーから見て右側の領域(領域α4を参照)にシャッターボタンSBを配置する。ここでユーザーは領域α4を右手で把持しているため、ユーザーは右手の指でシャッターボタンSBを押下しやすくなる。   In this case, the control unit 370 arranges the shutter button SB in the right side area (see the area α4) of the display area of the display surface 13a when viewed from the user. Here, since the user holds the region α4 with the right hand, the user can easily press the shutter button SB with the finger of the right hand.

<縦位置>
図29(c)においては、パネル11と12と13とのうち、パネル12がユーザーから見て最も上側になり、パネル13がユーザーから見て最も下側になる。この場合、ユーザーは、たとえば、パネル12のうちユーザーから見て左上側の領域(領域α5を参照)を左手で把持し、パネル13のうちユーザーから見て右下側の領域(領域α6を参照)を右手で把持する。
<Vertical position>
In FIG. 29 (c), of the panels 11, 12, and 13, the panel 12 is the uppermost side when viewed from the user, and the panel 13 is the lowermost side when viewed from the user. In this case, for example, the user holds the upper left area (see area α5) of the panel 12 as viewed from the user with the left hand, and the lower right area of the panel 13 as viewed from the user (see area α6). ) With your right hand.

制御部370は、この場合、表示面13aの表示領域のうち、ユーザーから見て右下側の領域(領域α6を参照)にシャッターボタンSBを配置する。ここでユーザーは領域α6を右手で把持しているため、ユーザーは右手の指でシャッターボタンSBを押下しやすくなる。   In this case, the control unit 370 arranges the shutter button SB in the lower right region (see the region α6) as viewed from the user in the display region of the display surface 13a. Here, since the user holds the region α6 with the right hand, the user can easily press the shutter button SB with the finger of the right hand.

<配置例2:三面直交配置>
図30は、図26を用いて説明した第4の撮像方法(三面直交配置)において、制御部370がシャッターボタンSB(図30の符号SBを参照)を、表示面11a、12aまたは13a内のいずれかの表示位置に表示する例を示す図である。
<Arrangement example 2: three-plane orthogonal arrangement>
FIG. 30 is a diagram illustrating the fourth imaging method (three-plane orthogonal arrangement) described with reference to FIG. 26, in which the control unit 370 moves the shutter button SB (see reference numeral SB in FIG. It is a figure which shows the example displayed on either display position.

図30(a)の場合、パネル11がユーザーに対して最も下側となり、パネル12がユーザーに対して左側となり、パネル13がユーザーに対して右側となる。この場合、ユーザーは、たとえば、パネル12のうちユーザーから見て左上側の領域(領域α7を参照)を左手で把持し、パネル11のうちユーザーから見て最も手前となる側の領域(領域α8を参照)を右手で把持する。   In the case of FIG. 30A, the panel 11 is the lowermost side for the user, the panel 12 is the left side for the user, and the panel 13 is the right side for the user. In this case, for example, the user grips the left upper area of the panel 12 as viewed from the user (see the area α7) with the left hand, and the area of the panel 11 closest to the user as viewed from the user (area α8). Grip) with your right hand.

制御部370は、この場合、表示面11aの表示領域のうち、ユーザーから見て最も手前となる側の領域(領域α8を参照)にシャッターボタンSBを配置する。ここでユーザーは領域α8を右手で把持しているため、ユーザーは右手の指でシャッターボタンSBを押下しやすくなる。   In this case, the control unit 370 arranges the shutter button SB in the region closest to the user (see the region α8) in the display region of the display surface 11a. Here, since the user holds the region α8 with the right hand, the user can easily press the shutter button SB with the finger of the right hand.

図30(b)の場合も、図30(a)の場合と同様に図26を用いて説明した第4の撮像方法(三面直交配置)である。しかし、この図30(b)の場合、電子機器100の方位角が、図30(a)の場合と異なる。   The case of FIG. 30B is also the fourth imaging method (three-plane orthogonal arrangement) described with reference to FIG. 26 as in the case of FIG. However, in the case of FIG. 30B, the azimuth angle of the electronic device 100 is different from that in FIG.

すなわち、図30(a)の場合、パネル11がユーザーに対して最も下側となっていたのに対して、図30(b)の場合、パネル13がユーザーに対して最も下側となっている。また、図30(a)の場合、パネル12がユーザーに対して左側となり、パネル13がユーザーに対して右側となっていたのに対して、図30(b)の場合、パネル11がユーザーに対して左側となり、パネル12がユーザーに対して右側となっている。   That is, in the case of FIG. 30 (a), the panel 11 is at the lowest side for the user, whereas in FIG. 30 (b), the panel 13 is at the lowest side for the user. Yes. In FIG. 30A, the panel 12 is on the left side with respect to the user and the panel 13 is on the right side with respect to the user. On the other hand, in FIG. The panel 12 is on the left side and the panel 12 is on the right side of the user.

図30(b)の場合、ユーザーは、たとえば、パネル11のうちユーザーから見て左上側の領域(領域α9を参照)を左手で把持し、パネル13のうちユーザーから見て最も手前となる側の領域(領域α10を参照)を右手で把持する。   In the case of FIG. 30B, for example, the user grips the upper left area of the panel 11 as viewed from the user (see the area α9) with the left hand, and the panel 13 is closest to the user when viewed from the user. Is gripped with the right hand (see region α10).

制御部370は、この場合、表示面13aの表示領域のうち、ユーザーから見て最も手前となる側の領域(領域α10を参照)にシャッターボタンSBを配置する。ここでユーザーは領域α10を右手で把持しているため、ユーザーは右手の指でシャッターボタンSBを押下しやすくなる。   In this case, the control unit 370 arranges the shutter button SB in an area closest to the user (see the area α10) in the display area of the display surface 13a. Here, since the user holds the region α10 with the right hand, the user can easily press the shutter button SB with the finger of the right hand.

上記に図29と図30とを用いて説明した例は、配置形態情報と方位角情報と、シャッターボタンSBを、表示面11a、12a、13a内のいずれかの表示位置に表示する位置を示す表示配置形態情報との関係を示す一例である。この例に限られることなく、制御部370は、配置形態情報と方位角情報とに応じた表示部の位置に、シャッターボタンSBを表示する。   The example described above with reference to FIGS. 29 and 30 shows a position where the arrangement form information, the azimuth angle information, and the shutter button SB are displayed at any display position within the display surfaces 11a, 12a, and 13a. It is an example which shows the relationship with display arrangement form information. Without being limited to this example, the control unit 370 displays the shutter button SB at the position of the display unit according to the arrangement form information and the azimuth angle information.

<制御部390の構成>
次に、図31を用いて制御部390の構成について説明する。制御部390は、第1検出部371と第2検出部372とを備えている。
<Configuration of Control Unit 390>
Next, the configuration of the control unit 390 will be described with reference to FIG. The control unit 390 includes a first detection unit 371 and a second detection unit 372.

第1検出部371は、複数のパネルそれぞれの間の相対的な位置関係を示す配置形態を検出し、検出した配置形態を示す情報を配置形態情報として出力する。   The 1st detection part 371 detects the arrangement | positioning form which shows the relative positional relationship between each of several panels, and outputs the information which shows the detected arrangement | positioning form as arrangement | positioning form information.

一例としては、第1検出部371は、ヒンジセンサ部340により検出されたヒンジ位置情報、回転機構センサ部350により検出された回転位置情報、位置検出部362により検出された位置情報、および、姿勢検出部360の方位角検出部361により検出された方位角情報の組合せを、配置形態情報として検出する。   As an example, the first detection unit 371 includes hinge position information detected by the hinge sensor unit 340, rotation position information detected by the rotation mechanism sensor unit 350, position information detected by the position detection unit 362, and posture. A combination of azimuth angle information detected by the azimuth angle detection unit 361 of the detection unit 360 is detected as arrangement form information.

より詳細な第1の例としては、第1検出部371は、パネル11のヒンジセンサ部340により検出されたヒンジ位置情報、パネル13のヒンジセンサ部340により検出されたヒンジ位置情報、パネル11の回転機構センサ部350により検出された回転位置情報、パネル13の回転機構センサ部350により検出された回転位置情報との組み合わせを、配置形態情報として出力する。   As a more detailed first example, the first detection unit 371 includes hinge position information detected by the hinge sensor unit 340 of the panel 11, hinge position information detected by the hinge sensor unit 340 of the panel 13, A combination of the rotation position information detected by the rotation mechanism sensor unit 350 and the rotation position information detected by the rotation mechanism sensor unit 350 of the panel 13 is output as arrangement form information.

また、より詳細な第2の例としては、第1検出部371は、パネル11の位置検出部362により検出された位置情報、パネル12の位置検出部362により検出された位置情報、パネル13の位置検出部362により検出された位置情報、パネル11の方位角検出部361により検出された方位角情報、パネル12の方位角検出部361により検出された方位角情報、および、パネル13の方位角検出部361により検出された方位角情報のの組合せを、配置形態情報として検出する。   As a more detailed second example, the first detection unit 371 includes position information detected by the position detection unit 362 of the panel 11, position information detected by the position detection unit 362 of the panel 12, Position information detected by the position detector 362, azimuth information detected by the azimuth angle detector 361 of the panel 11, azimuth information detected by the azimuth angle detector 361 of the panel 12, and azimuth angle of the panel 13 A combination of the azimuth information detected by the detection unit 361 is detected as the arrangement form information.

なお第1検出部371が検出する配置形態情報としては、少なくとも、複数のパネルそれぞれの間の相対的な位置関係が一意に特定されればよく、各パネルにおけるヒンジ位置情報、回転位置情報、位置情報または方位角情報の組み合わせは任意である。   Note that as the arrangement form information detected by the first detection unit 371, at least the relative positional relationship between each of the plurality of panels may be uniquely specified, and the hinge position information, the rotation position information, and the position in each panel may be specified. A combination of information or azimuth information is arbitrary.

なお、各パネルに対して検出されたヒンジ位置情報、回転位置情報、位置情報または方位角情報そのものではなく、各パネルに対して検出されたヒンジ位置情報、回転位置情報、位置情報または方位角情報に基づいて生成した情報を、第1検出部371は、配置形態情報として検出してもよい。   Note that the hinge position information, rotational position information, position information or azimuth angle information detected for each panel is not the hinge position information, rotation position information, position information or azimuth angle information itself detected for each panel. The first detection unit 371 may detect the information generated based on the arrangement form information.

たとえば、各パネルに対して検出されたヒンジ位置情報と回転位置情報とに基づいて、第1検出部371が、位置情報または方位角情報に相等する情報を生成してもよい。そして、第1検出部371は、生成した位置情報または方位角情報に相等する情報、および、各パネルに対して検出されたヒンジ位置情報と回転位置情報の組み合わせに基づいて、配置形態情報を検出してもよい。   For example, the first detection unit 371 may generate information equivalent to the position information or the azimuth angle information based on the hinge position information and the rotation position information detected for each panel. Then, the first detection unit 371 detects the arrangement form information based on the information equivalent to the generated position information or azimuth information and the combination of the hinge position information and the rotation position information detected for each panel. May be.

また、各パネルに対して検出された位置情報と方位角情報とに基づいて、第1検出部371がヒンジ位置情報または回転位置情報に相等する情報を生成してもよい。そして、第1検出部371は、生成したヒンジ位置情報または回転位置情報に相等する情報、および、各パネルに対して検出された位置情報と方位角情報と組み合わせに基づいて、配置形態情報を検出してもよい。   Further, based on the position information and azimuth angle information detected for each panel, the first detection unit 371 may generate information equivalent to the hinge position information or the rotation position information. Then, the first detection unit 371 detects arrangement form information based on information equivalent to the generated hinge position information or rotation position information, and a combination of position information and azimuth information detected for each panel. May be.

このように第1検出部371は、各パネルに対して検出されたヒンジ位置情報、回転位置情報、位置情報または方位角情報に基づいて、複数のパネルそれぞれの間の相対的な位置関係を示す配置形態を検出し、検出した配置形態を示す情報を配置形態情報として出力する。   Thus, the 1st detection part 371 shows the relative positional relationship between each of a plurality of panels based on hinge position information, rotation position information, position information, or azimuth information detected for each panel. An arrangement form is detected, and information indicating the detected arrangement form is output as arrangement form information.

第2検出部372は、パネル11の方位角検出部361により検出された方位角情報、パネル12の方位角検出部361により検出された方位角情報、または、パネル13の方位角検出部361により検出された方位角情報を、出力する。   The second detection unit 372 includes the azimuth angle information detected by the azimuth angle detection unit 361 of the panel 11, the azimuth angle information detected by the azimuth angle detection unit 361 of the panel 12, or the azimuth angle detection unit 361 of the panel 13. The detected azimuth angle information is output.

この第2検出部372は、パネル11の方位角検出部361により検出された方位角情報、パネル12の方位角検出部361により検出された方位角情報、または、パネル13の方位角検出部361により検出された方位角情報を合成して、1つの方位角情報として出力してもよい。合成の方法は、3つの方位角情報のうち、いずれかを選択する方法であってもよい。   The second detection unit 372 includes the azimuth angle information detected by the azimuth angle detection unit 361 of the panel 11, the azimuth angle information detected by the azimuth angle detection unit 361 of the panel 12, or the azimuth angle detection unit 361 of the panel 13. May be synthesized and output as one azimuth information. The combining method may be a method of selecting any one of the three azimuth information.

なお、この第2検出部372は、パネル11の方位角検出部361により検出された方位角情報、パネル12の方位角検出部361により検出された方位角情報、または、パネル13の方位角検出部361のうちの、いずれかの方位角検出部361であってもよい。   The second detection unit 372 detects azimuth angle information detected by the azimuth angle detection unit 361 of the panel 11, azimuth angle information detected by the azimuth angle detection unit 361 of the panel 12, or azimuth angle detection of the panel 13. Any one of the azimuth angle detection units 361 in the unit 361 may be used.

<記憶部390の構成>
次に、図32を用いて記憶部390の構成について説明する。記憶部390は、画像記憶部391と、画角情報記憶部392と、シャッターボタン表示位置情報記憶部393とを備えている。
<Configuration of Storage Unit 390>
Next, the configuration of the storage unit 390 will be described with reference to FIG. The storage unit 390 includes an image storage unit 391, an angle of view information storage unit 392, and a shutter button display position information storage unit 393.

画像記憶部391には、複数の画像と配置形態情報とが関連付けられて記憶される。なお画像記憶部391には、複数の画像と配置形態情報とが関連付けられるとともに、更にヒンジ位置情報、回転位置情報、位置情報または方位角情報が関連付けられて記憶されてもよい。   The image storage unit 391 stores a plurality of images and arrangement form information in association with each other. The image storage unit 391 may store a plurality of images and arrangement form information, and may further store hinge position information, rotational position information, position information, or azimuth angle information in association with each other.

画角情報記憶部392には、配置形態情報と関連付けて画角情報が予め記憶されている。画角情報記憶部392には、たとえば図22と図23と図24とを用いて説明したような、配置形態情報と関連付けて画角情報が予め記憶されている。   The angle-of-view information storage unit 392 stores angle-of-view information in advance in association with the arrangement form information. The angle-of-view information storage unit 392 stores angle-of-view information in advance in association with the arrangement form information as described with reference to FIGS. 22, 23, and 24, for example.

シャッターボタン表示位置情報記憶部393には、配置形態情報と方位角情報との組み合わせと関連付けて、シャッターボタンを表示する位置を示すシャッターボタン表示位置情報が予め記憶されている。たとえば、図29と図30とを用いて説明したような配置形態情報と方位角情報との組み合わせとシャッターボタン表示位置情報とが関連付けられて、このシャッターボタン表示位置情報記憶部363に記憶されている。   The shutter button display position information storage unit 393 stores in advance shutter button display position information indicating the position at which the shutter button is displayed in association with the combination of the arrangement form information and the azimuth angle information. For example, the combination of the arrangement form information and the azimuth information as described with reference to FIGS. 29 and 30 and the shutter button display position information are associated with each other and stored in the shutter button display position information storage unit 363. Yes.

上記に説明した記憶部390を用いる例については、次に説明する撮像動作(図33参照)、および、表示動作(図34参照)において説明する。   An example using the storage unit 390 described above will be described in an imaging operation (see FIG. 33) and a display operation (see FIG. 34) described below.

<撮像動作>
次に、図33を用いて、撮像する場合における電子機器100の動作(撮像動作)について説明する。
<Imaging operation>
Next, the operation (imaging operation) of the electronic device 100 when imaging is described with reference to FIG.

まず、それぞれのパネルが備えているヒンジセンサ部340と、回転機構センサ部350と、姿勢検出部360の位置検出部362と、姿勢検出部360の方位角検出部361とが、ヒンジ位置情報、回転位置情報、位置情報、または、方位角情報をそれぞれ検出する(ステップS11)。   First, the hinge sensor unit 340, the rotation mechanism sensor unit 350, the position detection unit 362 of the posture detection unit 360, and the azimuth angle detection unit 361 of the posture detection unit 360 included in each panel include hinge position information, Rotation position information, position information, or azimuth angle information is detected (step S11).

次に、制御部370は、検出されたヒンジ位置情報、回転位置情報、位置情報、または、方位角情報に基づいて、複数のパネルそれぞれの間の相対的な位置関係を示す配置形態を検出する(ステップS12)。   Next, based on the detected hinge position information, rotational position information, position information, or azimuth angle information, the control unit 370 detects an arrangement form that indicates a relative positional relationship between each of the plurality of panels. (Step S12).

次に、制御部370は、検出された方位角情報および検出した配置形態情報と関連付けられているシャッターボタン表示位置情報を記憶部390のシャッターボタン表示位置情報記憶部364から読み出し、読み出したシャッターボタン表示位置情報に基づいてシャッターボタンを表示部310に表示する(ステップS13)。   Next, the control unit 370 reads out the shutter button display position information associated with the detected azimuth angle information and the detected arrangement form information from the shutter button display position information storage unit 364 of the storage unit 390, and reads the read shutter button. A shutter button is displayed on the display unit 310 based on the display position information (step S13).

すなわち、制御部370は、第2検出部372により検出された方位角情報により示される方位角に応じて、第1のパネル11、第2のパネル12または第3のパネル13に備えられている表示部に表示するシャッターボタンSBの位置(表示位置)を変更する(ステップS13参照)。   That is, the control unit 370 is provided in the first panel 11, the second panel 12, or the third panel 13 according to the azimuth angle indicated by the azimuth angle information detected by the second detection unit 372. The position (display position) of the shutter button SB displayed on the display unit is changed (see step S13).

また制御部370は、第1検出部371により検出された配置形態情報により示される配置形態に応じて、第1のパネル11、第2のパネル12または第3のパネル13に備えられている表示部に表示するシャッターボタンSBの位置(表示位置)を変更する(ステップS13参照)。   In addition, the control unit 370 has a display provided on the first panel 11, the second panel 12, or the third panel 13 according to the arrangement form indicated by the arrangement form information detected by the first detection unit 371. The position (display position) of the shutter button SB displayed on the screen is changed (see step S13).

次に、制御部370は、検出した配置形態情報と関連付けられている画角情報を記憶部390の画角情報記憶部392から読み出し、読み出した画角情報に基づいて、それぞれの撮像部380により撮像する場合の画角を設定する(ステップS14)。   Next, the control unit 370 reads the view angle information associated with the detected arrangement form information from the view angle information storage unit 392 of the storage unit 390, and based on the read view angle information, each imaging unit 380 An angle of view for imaging is set (step S14).

すなわち、制御部370は、第1検出部371により検出された配置形態情報により示される配置形態に応じて、第1のパネル11、第2のパネル12および第3のパネル13のそれぞれに備えられている撮像部380により撮像する画角を変更する(ステップS14参照)。   That is, the control unit 370 is provided in each of the first panel 11, the second panel 12, and the third panel 13 according to the arrangement form indicated by the arrangement form information detected by the first detection unit 371. The angle of view imaged by the imaging unit 380 is changed (see step S14).

次に、制御部370は、シャッターボタンの押下を検出したか否かを判定する(ステップS16)。ステップS16においてシャッターボタンの押下を検出しない場合、制御部370は、ステップS11からの処理を繰り返す。すなわち、制御部370は、ユーザーによるシャッターボタンが押下される操作入力を待つ。   Next, the control unit 370 determines whether or not pressing of the shutter button is detected (step S16). When the pressing of the shutter button is not detected in step S16, the control unit 370 repeats the processing from step S11. That is, the control unit 370 waits for an operation input by the user to press the shutter button.

一方ステップS16においてシャッターボタンの押下を検出した場合、制御部370は、それぞれの撮像部380により撮像する(ステップS17)。   On the other hand, when the pressing of the shutter button is detected in step S16, the control unit 370 captures an image with each imaging unit 380 (step S17).

次に、制御部370は、それぞれの撮像部390により撮像した画像を関連付けるとともに、検出した配置形態情報を関連付けて記憶部390の画像記憶部391に記憶させる(ステップS18)。なお、このステップS18において、制御部370は、更に、ヒンジ位置情報、回転位置情報、位置情報、または、方位角情報を、撮像した画像に関連付けて記憶部390の画像記憶部391に記憶させてもよい。   Next, the control unit 370 associates the images captured by the respective image capturing units 390 and associates the detected arrangement form information with each other and stores them in the image storage unit 391 of the storage unit 390 (step S18). In step S18, the control unit 370 further stores the hinge position information, the rotation position information, the position information, or the azimuth angle information in the image storage unit 391 of the storage unit 390 in association with the captured image. Also good.

図33を用いて説明した撮像動作により、制御部370は、複数の撮像部380それぞれにより撮像した画像を関連付けて記憶部390の画像記憶部391に記憶させることができるとともに、撮像した場合の配置形態情報を画像と関連付けて記憶部390の画像記憶部391に記憶させることができる。また制御部370は、更に、ヒンジ位置情報、回転位置情報、位置情報、または、方位角情報を撮像した画像に関連付けて記憶部390の画像記憶部391に記憶させることができる。   With the imaging operation described with reference to FIG. 33, the control unit 370 can associate the images captured by each of the plurality of imaging units 380 and store them in the image storage unit 391 of the storage unit 390, and the arrangement when the images are captured The form information can be stored in the image storage unit 391 of the storage unit 390 in association with the image. Further, the control unit 370 can store the hinge position information, the rotation position information, the position information, or the azimuth angle information in the image storage unit 391 of the storage unit 390 in association with the captured image.

なお、ステップS14において、制御部370は、第1検出部371により検出された配置形態情報により示される配置形態のみならず、第2検出部372により検出された方位角に応じても、第1のパネル11、第2のパネル12および第3のパネル13のそれぞれに備えられている撮像部380により撮像する画角を変更してもよい。   In step S14, the control unit 370 determines not only the arrangement form indicated by the arrangement form information detected by the first detection unit 371, but also the first azimuth according to the azimuth angle detected by the second detection unit 372. The angle of view captured by the imaging unit 380 provided in each of the panel 11, the second panel 12, and the third panel 13 may be changed.

この場合、画角情報記憶部392には、配置形態情報と方位角情報と関連付けて画角情報が予め記憶されている。そして、ステップS14において、制御部370は、検出した配置形態情報と検出した方位角情報と関連付けられている画角情報を記憶部390の画角情報記憶部392から読み出し、読み出した画角情報に基づいて、それぞれの撮像部380により撮像する場合の画角を設定する。これにより制御部370は、より適切に画角を設定することができる。   In this case, the field angle information storage unit 392 stores field angle information in advance in association with the arrangement form information and the azimuth angle information. In step S <b> 14, the control unit 370 reads the view angle information associated with the detected arrangement form information and the detected azimuth angle information from the view angle information storage unit 392 of the storage unit 390, and uses the read view angle information as the read view angle information. Based on this, the angle of view when each imaging unit 380 captures an image is set. Thereby, the control unit 370 can set the angle of view more appropriately.

<表示動作>
次に、図34を用いて、撮像した画像を表示部310に表示する場合における電子機器100の動作(表示動作)について説明する。
<Display operation>
Next, the operation (display operation) of the electronic device 100 when displaying a captured image on the display unit 310 will be described with reference to FIG.

ここでは、たとえばユーザーの操作により、表示する画像が選択されたものとして説明する。またここでは、ユーザーの操作により、複数の撮像部390(この場合、3つの撮像部390)により撮像された複数の画像(3枚の画像)のうち、1枚の画像が選択されたものとして説明する。またここでは、撮像された画像と関連付けて、配置形態情報が記憶部390の画像記憶部391に記憶されているものとして説明する。   Here, for example, it is assumed that an image to be displayed is selected by a user operation. Here, it is assumed that one image is selected from among a plurality of images (three images) captured by a plurality of imaging units 390 (in this case, three imaging units 390) by a user operation. explain. In addition, here, it is assumed that the arrangement form information is stored in the image storage unit 391 of the storage unit 390 in association with the captured image.

まず制御部370は、選択された画像を記憶部390の画像記憶部391から読み出すとともに、選択された画像と関連付けられている画像と、配置形態情報を記憶部390の画像記憶部391から読み出す(ステップS21)。   First, the control unit 370 reads the selected image from the image storage unit 391 of the storage unit 390, and reads the image associated with the selected image and the arrangement form information from the image storage unit 391 of the storage unit 390 ( Step S21).

次に制御部370は、読み出した配置形態情報に基づいた情報を出力する(ステップS22)。たとえば制御部370は、配置形態情報により示される配置形態を示す情報を、予め定められているアイコン情報や文字情報として、表示部310に表示する。または、制御部370は、配置形態情報に基づいて、電子機器100の外観を示す画像を生成し、生成した画像を表示部310に表示してもよい。また制御部370は、配置形態情報により示される配置形態を示す情報を、予め定められている音声情報により、不図示のスピーカなどの音出力部から、音として出力してもよい。   Next, the control unit 370 outputs information based on the read arrangement form information (step S22). For example, the control unit 370 displays information indicating the arrangement form indicated by the arrangement form information on the display unit 310 as predetermined icon information or character information. Alternatively, the control unit 370 may generate an image indicating the appearance of the electronic device 100 based on the arrangement form information, and display the generated image on the display unit 310. Further, the control unit 370 may output information indicating the arrangement form indicated by the arrangement form information as sound from a sound output unit such as a speaker (not shown) by using predetermined audio information.

次に制御部370は、読み出した画像(複数の画像)を、対応する表示部310にそれぞれ表示させる(ステップS23)。なお制御部370は、画像に対して画像処理をした後、表示部310に表示させてもよい。この画像処理とは、たとえば複数の画像の重複部分を削除するような画像処理である。またこの画像処理は、読み出した配置形態情報に基づいた画像処理であってもよい。   Next, the control unit 370 displays the read image (a plurality of images) on the corresponding display unit 310 (step S23). Note that the control unit 370 may display the image on the display unit 310 after performing image processing on the image. This image processing is, for example, image processing that deletes overlapping portions of a plurality of images. The image processing may be image processing based on the read arrangement form information.

上記に説明したステップS22より、制御部370が配置形態情報に基づいた情報を出力している。そのためユーザーは、表示しようとする画像を撮像したときにおける電子機器100の配置形態を知ることができる。よってユーザーは、表示しようとする画像を撮像したときにおける電子機器100の配置形態にあわせて、電子機器100の配置形態を変更することができる。   From step S22 described above, the control unit 370 outputs information based on the arrangement form information. Therefore, the user can know the arrangement form of the electronic device 100 when the image to be displayed is captured. Therefore, the user can change the arrangement form of the electronic device 100 according to the arrangement form of the electronic device 100 when the image to be displayed is captured.

たとえばユーザーは、表示しようとする画像が、図24を用いて説明した第3の撮像方法(電子機器100の配置形態)により、撮像されていることを知ることができる。よって、ユーザーは、この電子機器100の配置形態にあわせて、表示する場合の電子機器100の配置形態を、図25(または図18)を用いて説明した配置形態にすることができる。   For example, the user can know that the image to be displayed is captured by the third imaging method (arrangement form of the electronic device 100) described with reference to FIG. Therefore, in accordance with the arrangement form of the electronic device 100, the user can change the arrangement form of the electronic device 100 for display to the arrangement form described with reference to FIG. 25 (or FIG. 18).

図33を用いて説明した撮像動作により、撮像段階において、ユーザーは電子機器100を任意の配置形態にして、撮像することができる。そして図34を用いて説明した表示動作により、表示段階において、ユーザーは、撮像した場合の電子機器100の配置形態にあわせて、画像を表示することができる。   With the imaging operation described with reference to FIG. 33, the user can take an image with the electronic device 100 in an arbitrary arrangement form at the imaging stage. Then, the display operation described with reference to FIG. 34 allows the user to display an image in accordance with the arrangement form of the electronic device 100 when the image is captured in the display stage.

なお図34を用いて説明した表示動作において、制御部370は、読み出した配置形態情報に基づいた情報と、読み出した画像とを、表示部310に表示する場合には、読み出した画像に、読み出した配置形態情報に基づいた情報を重畳させて表示部310に表示してもよい。また制御部370は、ユーザーによる操作指示に基づいて、読み出した配置形態情報に基づいた情報を表示部310に表示するか、しないかを、切り替えるようにしてもよい。これによりユーザーは、画像とともに、配置形態情報に基づいた情報を見やすくなる。   In the display operation described with reference to FIG. 34, the control unit 370 reads the information based on the read arrangement form information and the read image on the read image when the display unit 310 displays the read image. Information based on the arrangement form information may be superimposed and displayed on the display unit 310. The control unit 370 may switch whether to display information based on the read arrangement form information on the display unit 310 based on an operation instruction from the user. This makes it easy for the user to view information based on the arrangement form information together with the image.

<撮像距離を異ならせて撮像する場合の撮像動作>
次に、図35を用いて、撮像距離(撮像部150から被写体までの距離)を異ならせて撮像する場合における電子機器100の動作(撮像動作)について説明する。この撮像動作は、たとえば、図28を用いて説明した第5の撮像方法における撮像動作である。
<Imaging operation when imaging at different imaging distances>
Next, an operation (imaging operation) of the electronic device 100 when imaging is performed with different imaging distances (distances from the imaging unit 150 to the subject) will be described with reference to FIG. This imaging operation is, for example, the imaging operation in the fifth imaging method described with reference to FIG.

この図35の撮像動作は、図33を用いて説明した撮像動作に対比して、ステップS14とステップS16との間に、ステップS15が追加されている点が相違する。他のステップは同様なので、ここでは相違点のみについて説明する。   The imaging operation of FIG. 35 is different from the imaging operation described with reference to FIG. 33 in that step S15 is added between step S14 and step S16. Since the other steps are the same, only the differences will be described here.

ステップS15において、制御部370は、第1のパネル11、第2のパネル12および第3のパネル13に設けられているそれぞれの撮像部380のうち、いずれかの撮像部380に対して設定した撮像条件に基づいて、他の撮像部380に対しての撮像条件を設定する。この撮像条件とは、オートフォーカスのフォーカス条件や、露出条件、オートホワイトバランスの調整条件などである。   In step S <b> 15, the control unit 370 is set for one of the imaging units 380 among the imaging units 380 provided in the first panel 11, the second panel 12, and the third panel 13. Based on the imaging conditions, imaging conditions for the other imaging unit 380 are set. The imaging conditions include autofocus focus conditions, exposure conditions, auto white balance adjustment conditions, and the like.

たとえば、制御部370は、いずれかの撮像部380に対して設定した撮像条件と同じ撮像条件を、他の撮像部380に対して設定する。これにより、電子機器100は、撮像条件を同じにして、かつ、撮像距離を異ならせて、被写体を複数の撮像部380により撮像することができる。   For example, the control unit 370 sets the same imaging condition for the other imaging unit 380 as the imaging condition set for one of the imaging units 380. As a result, the electronic device 100 can image the subject with the plurality of imaging units 380 with the same imaging condition and with different imaging distances.

なお、制御部370は、いずれかの撮像部380に対して設定した撮像条件と、第1検出部371により検出された配置形態情報とに基づいて、他の撮像部380に対しての撮像条件を設定してもよい。これにより制御部370は、第1のパネル11、第2のパネル12および第3のパネル13のそれぞれの撮像距離に応じて、それぞれの撮像部380の撮像条件を設定することができる。これにより、電子機器100は、撮像距離を異ならせて、かつ、撮像距離に応じた撮像条件で、被写体を複数の撮像部380により撮像することができる。   Note that the control unit 370 sets the imaging conditions for the other imaging units 380 based on the imaging conditions set for any of the imaging units 380 and the arrangement form information detected by the first detection unit 371. May be set. Accordingly, the control unit 370 can set the imaging conditions of the respective imaging units 380 according to the imaging distances of the first panel 11, the second panel 12, and the third panel 13. As a result, the electronic device 100 can capture the subject with the plurality of imaging units 380 under different imaging distances and under imaging conditions corresponding to the imaging distances.

なお、図33を用いて説明した撮像動作においても、図35において説明したステップS15の処理を実行してもよい。すなわち、撮像距離を異ならせずに撮像する場合においても、制御部370は、第1のパネル11、第2のパネル12および第3のパネル13に設けられているそれぞれの撮像部380のうち、いずれかの撮像部380に対して設定した撮像条件に基づいて、他の撮像部380に対しての撮像条件を設定してもよい。これにより、撮像部380は、複数の撮像部380それぞれに対して、撮像条件を設定することができる。   Note that the processing of step S15 described in FIG. 35 may also be executed in the imaging operation described using FIG. That is, even when imaging without changing the imaging distance, the control unit 370 includes the imaging units 380 provided on the first panel 11, the second panel 12, and the third panel 13. An imaging condition for another imaging unit 380 may be set based on the imaging condition set for any imaging unit 380. Thereby, the imaging unit 380 can set imaging conditions for each of the plurality of imaging units 380.

その後、制御部370は、複数のパネルそれぞれに設けられている撮像部380それぞれにより撮像した画像に基づいて、画像を生成する。たとえば制御部370は、複数の撮像部380それぞれにより撮像した画像から、いずれかの画像を選択することにより、画像を生成する。   Thereafter, the control unit 370 generates an image based on the images captured by the imaging units 380 provided in each of the plurality of panels. For example, the control unit 370 generates an image by selecting one of the images captured by each of the plurality of imaging units 380.

一例として、制御部370は、複数の撮像部380それぞれにより撮像した画像それぞれの合焦度合いに基づいて、いずれかの画像を選択することにより、画像を生成する。ここで制御部370は、複数の画像それぞれの合焦度合いを算出し、算出した合焦度合いが最も高い画像を選択する。これにより制御部370は、たとえば、複数の画像のうち、最も被写体に合焦している画像を選択することができる。   As an example, the control unit 370 generates an image by selecting one of the images based on the degree of focus of each image captured by each of the plurality of imaging units 380. Here, the control unit 370 calculates the degree of focus of each of the plurality of images, and selects an image having the highest calculated degree of focus. As a result, the control unit 370 can select, for example, an image that is most focused on the subject from among a plurality of images.

なお、制御部370が、複数のパネルそれぞれに設けられている撮像部380それぞれにより撮像した画像に基づいて画像を生成するのは、選択するだけに限られず、次のようにしてもよい。   Note that the generation of the image based on the image captured by each of the imaging units 380 provided in each of the plurality of panels is not limited to selection, and may be performed as follows.

制御部370は、複数の撮像部380それぞれにより撮像された画像を合成することにより、画像を生成してもよい。また制御部370は、複数の撮像部380それぞれにより撮像した画像に対して、それぞれの画像の合焦度合いに基づいた重みをつけて合成することにより、画像を生成してもよい。   The control unit 370 may generate an image by synthesizing images captured by each of the plurality of imaging units 380. In addition, the control unit 370 may generate an image by combining the images captured by each of the plurality of imaging units 380 with a weight based on the degree of focus of each image.

このようにして合成することにより、制御部370は、複数の撮像部380それぞれにより撮像された画像すべてを用いて、より好適な画像をユーザーに提供することができる。   By combining in this way, the control unit 370 can provide a more suitable image to the user by using all the images captured by the plurality of imaging units 380.

なお、ここでは電子機器100の制御部370が、複数のパネルそれぞれに設けられている撮像部380それぞれにより撮像した画像に基づいて、画像を生成するものとして説明したが、これに限られるものではない。たとえば、電子機器100ではなく、パーソナルコンピュータなどの他の電子機器において、電子機器100が備えている複数のパネルそれぞれに設けられている撮像部380それぞれにより撮像した画像に基づいて、画像を生成してもよい。   Here, the control unit 370 of the electronic device 100 has been described as generating an image based on the image captured by each of the imaging units 380 provided in each of the plurality of panels, but is not limited thereto. Absent. For example, in another electronic device such as a personal computer instead of the electronic device 100, an image is generated based on images captured by the imaging units 380 provided in each of the plurality of panels included in the electronic device 100. May be.

なお、上記の説明においては制御部370が第1検出部371と第2検出部372とを備えているものとして説明したが、これに限られるものではなく、電子機器100が第1検出部371と第2検出部372とを備えていればよい。たとえば、第1検出部371と第2検出部372とが制御バス600に接続されていてもよい。   In the above description, the control unit 370 is described as including the first detection unit 371 and the second detection unit 372. However, the present invention is not limited to this, and the electronic device 100 includes the first detection unit 371. And the second detection unit 372 may be provided. For example, the first detection unit 371 and the second detection unit 372 may be connected to the control bus 600.

<オブジェクトの分類モード>
次に図36を用いて、電子機器100を用いて、ユーザーがオブジェクトを分類(仕分け)する「分類モード」について説明する。ここでは電子機器100を用いて、ユーザーが、オブジェクトの一例である画像に対して、「お気に入り」という属性情報を付加する、「ゴミ(お気に入りではない)」という属性情報を付加する、「お気に入り」または「ゴミ」という属性情報を付加しない、という3つの分類をする場合について説明する。
<Object classification mode>
Next, a “classification mode” in which the user classifies (sorts) objects using the electronic device 100 will be described with reference to FIG. Here, using the electronic device 100, the user adds attribute information “favorite” to the image that is an example of the object, adds attribute information “trash (not favorite)”, and “favorite”. Alternatively, a case where the three classifications of not adding the attribute information “dust” will be described.

図36に示すように、電子機器100をV字型配置する。このV字型配置は、図13を用いて説明した配置と同様の配置である。なおこの図36においては、各パネルの表示面が示されている。   As shown in FIG. 36, the electronic device 100 is V-shaped. This V-shaped arrangement is similar to the arrangement described with reference to FIG. In FIG. 36, the display surface of each panel is shown.

またここでは、パネル11には分類する元となる画像が表示される。また、パネル12には「ゴミ」を示す属性情報が関連付けられており、「ゴミ箱」を示す文字やアイコンなどの情報が示されている。またパネル13には「お気に入り」を示す属性情報が関連付けられており、「お気に入り」を示す文字やアイコンなどの情報が示されている。   Further, here, the panel 11 displays an image to be classified. Further, attribute information indicating “trash” is associated with the panel 12 and information such as characters and icons indicating “trash” is shown. Further, attribute information indicating “favorite” is associated with the panel 13 and information such as characters and icons indicating “favorite” is shown.

そして「分類モード」として、パネル11に表示された画像に対して、ユーザーが自身の操作により、「ゴミ」という属性情報を付加するか、「お気に入り」という属性情報を付加するか、または、これらの属性を付加しない、という分類が実行される。   As the “classification mode”, the user adds the attribute information “dust”, the attribute information “favorite”, or the like to the image displayed on the panel 11 by his / her own operation. The classification of not adding the attribute is executed.

ここで、パネル11の表示面11aに設けられているタッチパネルへの操作(タッチパネルに対して入力される操作)を操作検出部330が検出する一例としてのフリックの種類について、図36を用いて説明する。ここで、フリックとは、タッチパネルに対して入力される操作のうちのスライド操作のことであって、素早くスライド(弾く)する操作、またはゆっくりスライドする操作等を含む操作のことである。   Here, the type of flick as an example in which the operation detection unit 330 detects an operation on the touch panel provided on the display surface 11a of the panel 11 (an operation input to the touch panel) will be described with reference to FIG. To do. Here, the flick is a slide operation among the operations input to the touch panel, and includes an operation that quickly slides (plays) or an operation that slowly slides.

フリックD1は、パネル11からパネル13へ向かう方向に対して、図36の紙面上において時計回りに45度の回転した方向へのフリックである。フリックD2は、パネル11からパネル12へ向かう方向に対して、図36の紙面上において反時計回りに45度の回転した方向へのフリックである。このフリックD1とフリックD2との方向は、たとえばパネル11が分類モードである場合に、予め定められている方向である。   Flick D1 is a flick in a direction rotated 45 degrees clockwise on the paper surface of FIG. 36 with respect to the direction from panel 11 to panel 13. Flick D2 is a flick in a direction rotated 45 degrees counterclockwise on the paper surface of FIG. 36 with respect to the direction from panel 11 to panel 12. The direction of the flick D1 and the flick D2 is a predetermined direction when the panel 11 is in the classification mode, for example.

フリックD3はパネル11からパネル12の方向へ向かうフリックであり、フリックD4はパネル11からパネル13の方向へ向かうフリックである。   The flick D3 is a flick directed from the panel 11 toward the panel 12, and the flick D4 is a flick directed from the panel 11 toward the panel 13.

なおパネル11に順に表示される画像として、図37に示すように、画像G11、画像G12、画像G13・・・と順序付けられている複数の画像が、パネル11の記憶部390に予め記憶されているものとして説明する。この順序は、画像ファイルのファイル名に基づいた順序であってもよいし、画像ファイルの日付情報に基づいた順序であってもよいし、画像ファイルの他の属性情報に基づいた順序であってもよい。   As images displayed in order on the panel 11, as shown in FIG. 37, a plurality of images ordered as an image G11, an image G12, an image G13,... Are stored in advance in the storage unit 390 of the panel 11. Explain that it is. This order may be based on the file name of the image file, may be based on the date information of the image file, or may be based on other attribute information of the image file. Also good.

以下、図38から図41の説明図、および図42のフローチャートを参照して、分類モードの処理の一例を説明する。
分類モードを開始するアイコンがユーザーにより選択されたことにより、制御部370は、分類モードを開始する。分類モードの開始状態として、制御部370は、図38に示すように、画像G11をパネル11の表示部310に表示したものとして説明する。なお図38に示されるように、V字配置の場合、パネル11がユーザーに対して45度傾く。そのため制御部370は、表示する画像を45度回転させて、表示部310に表示する。
Hereinafter, an example of the classification mode process will be described with reference to the explanatory diagrams of FIGS. 38 to 41 and the flowchart of FIG.
When the icon for starting the classification mode is selected by the user, the control unit 370 starts the classification mode. As the start state of the classification mode, the control unit 370 will be described assuming that the image G11 is displayed on the display unit 310 of the panel 11 as shown in FIG. As shown in FIG. 38, in the case of the V-shaped arrangement, the panel 11 is inclined 45 degrees with respect to the user. Therefore, the control unit 370 rotates the image to be displayed by 45 degrees and displays it on the display unit 310.

なおV字配置において、ユーザーから3本指でのピンチアウトの入力がされたことを操作検出部330が検出したことに応じて、制御部370は、表示されている画像(この場合、画像G11)をパネル11とパネル12とパネル13とが備えている表示部の全体にわたって、拡大して表示する。またV字配置において、ユーザーから3本指でピンチインの入力がされたことを操作検出部330が検出したことに応じて、制御部370は、3本指でのピンチアウトにより全体にわたって表示されている画像を、ピンチアウトする前の表示状態に戻す。このように、複数の画面を用いて画像を拡大して表示すことが可能なので、ユーザーは、画像を確認しやすくなる。   In the V-shaped arrangement, the control unit 370 detects the displayed image (in this case, the image G11) in response to the operation detection unit 330 detecting that the user has input a pinch out with three fingers. ) Is enlarged and displayed over the entire display unit included in the panel 11, the panel 12, and the panel 13. Further, in the V-shaped arrangement, in response to the operation detection unit 330 detecting that the user has input a pinch-in with three fingers, the control unit 370 is displayed over the entire screen by a pinch-out with three fingers. To the display state before pinching out. As described above, since the image can be enlarged and displayed using a plurality of screens, the user can easily confirm the image.

まず、制御部370は、パネル11が備えている操作検出部330が、ユーザーの操作によるフリックの入力を検出したか否かを判定する(図42のステップS101)。ステップS101において、フリックの入力を検出していないと判定された場合、制御部370は、ステップS101の判定処理を繰り返す。一方、ステップS101において、フリックの入力を検出したと判定された場合、制御部370は、その検出されたフリックが何れの方向へのフリックであるかに応じて、次に示す各処理を実行する。   First, the control unit 370 determines whether or not the operation detection unit 330 included in the panel 11 has detected a flick input by a user operation (step S101 in FIG. 42). If it is determined in step S101 that no flick input has been detected, the control unit 370 repeats the determination process in step S101. On the other hand, when it is determined in step S101 that the input of the flick has been detected, the control unit 370 executes the following processes according to the direction of the detected flick. .

図38の表示状態において、パネル11が備えている操作検出部330が、ユーザーの操作によるフリックD1がパネル11において入力されたことを、検出したとする。制御部370は、このフリックD1の検出(図42のステップS102)に応じて、パネル11の表示部310に表示している画像を、画像の順序において次の画像(この場合、画像G12)に変更する(図42のステップS103)。これによりパネル11の表示部310には、画像G12が表示される。   In the display state of FIG. 38, it is assumed that the operation detection unit 330 included in the panel 11 detects that the flick D1 by the user's operation is input on the panel 11. In response to the detection of the flick D1 (step S102 in FIG. 42), the control unit 370 converts the image displayed on the display unit 310 of the panel 11 to the next image (in this case, the image G12) in the order of the images. Change (step S103 in FIG. 42). As a result, the image G12 is displayed on the display unit 310 of the panel 11.

また、図38の表示状態において、パネル11が備えている操作検出部330が、ユーザーの操作によるフリックD2がパネル11において入力されたことを、検出したとする。制御部370は、このフリックD2の検出(図42のステップS104)に応じて、パネル11の表示部310に表示している画像を、画像の順序において前の画像(この場合、画像G10)に変更する(図42のステップS105)。これによりパネル11の表示部310には、画像G10が表示される。   In the display state of FIG. 38, it is assumed that the operation detection unit 330 provided in the panel 11 detects that the flick D2 by the user's operation is input on the panel 11. In response to the detection of the flick D2 (step S104 in FIG. 42), the control unit 370 converts the image displayed on the display unit 310 of the panel 11 to the previous image (in this case, the image G10) in the order of the images. Change (step S105 in FIG. 42). As a result, the image G10 is displayed on the display unit 310 of the panel 11.

このように、ユーザーはパネル11の表示部310に対して、フリックD1またはフリックD2の操作入力をすることにより、複数の画像のそれぞれを表示部310に順に表示させて、見たり確認したりすることができる。   As described above, the user inputs the operation of flick D1 or flick D2 on the display unit 310 of the panel 11 to display each of the plurality of images on the display unit 310 in order to view or confirm. be able to.

一方、図38の表示状態において、パネル11が備えている操作検出部330が、ユーザーの操作によるフリックD4がパネル11において入力されたことを、検出したとする。制御部370は、このフリックD4の検出(図42のステップS108)に応じて、パネル11の表示部310に表示している画像(この場合、画像G11)に対して、パネル13に関連付けられている属性情報である「お気に入り」という属性情報を付加する。また制御部370は、パネル11の表示部310に表示している画像(この場合、画像G11)を、パネル13の表示部310に表示させる(図42のステップS109)。   On the other hand, in the display state of FIG. 38, it is assumed that the operation detection unit 330 included in the panel 11 detects that the flick D4 by the user's operation is input on the panel 11. In response to the detection of the flick D4 (step S108 in FIG. 42), the control unit 370 associates the image displayed on the display unit 310 of the panel 11 (in this case, the image G11) with the panel 13. The attribute information “favorite” which is the attribute information is added. Further, the control unit 370 displays the image (in this case, the image G11) displayed on the display unit 310 of the panel 11 on the display unit 310 of the panel 13 (step S109 in FIG. 42).

すなわち、図39に示すように、フリックD4がパネル11において入力されたことに応じて、制御部370は、パネル11の表示部310に表示している画像(この場合、画像G11)に対して「お気に入り」という属性情報を付加するとともに、この画像の表示位置をパネル13の表示部310に変更する。さらに制御部370は、パネル11の表示部310に表示している画像を、画像の順序において次の画像(画像G12)に変更する。   That is, as shown in FIG. 39, in response to the flick D4 being input on the panel 11, the control unit 370 performs an operation on the image displayed on the display unit 310 of the panel 11 (in this case, the image G11). The attribute information “favorite” is added, and the display position of the image is changed to the display unit 310 of the panel 13. Furthermore, the control unit 370 changes the image displayed on the display unit 310 of the panel 11 to the next image (image G12) in the image order.

これにより、図40に示すように、パネル13の表示部310には画像G11が表示され、パネル11の表示部310には画像G12が表示される。また、この画像G11には、パネル13に対応する「お気に入り」という属性情報が付加されている。   As a result, as shown in FIG. 40, the image G11 is displayed on the display unit 310 of the panel 13, and the image G12 is displayed on the display unit 310 of the panel 11. Further, attribute information “favorite” corresponding to the panel 13 is added to the image G11.

また、図38の表示状態において、パネル11が備えている操作検出部330が、ユーザーの操作によるフリックD3がパネル11において入力されたことを、検出したとする。制御部370は、このフリックD3の検出(図42のステップS106)に応じて、パネル11の表示部310に表示している画像(この場合、画像G11)に対して、パネル12に関連付けられている属性情報である「ゴミ」という属性情報を付加する。また制御部370は、パネル11の表示部310に表示している画像(この場合、画像G11)を、パネル12の表示部310に表示させる(図42のステップS107)。   Further, in the display state of FIG. 38, it is assumed that the operation detection unit 330 provided in the panel 11 detects that the flick D3 by the user operation is input on the panel 11. In response to the detection of the flick D3 (step S106 in FIG. 42), the control unit 370 associates the image (in this case, the image G11) displayed on the display unit 310 of the panel 11 with the panel 12. Is added to the attribute information “trash”. Further, the control unit 370 displays the image (in this case, the image G11) displayed on the display unit 310 of the panel 11 on the display unit 310 of the panel 12 (step S107 in FIG. 42).

すなわち、フリックD3がパネル11において入力されたことに応じて、制御部370は、パネル11の表示部310に表示している画像(この場合、画像G11)に対して「ゴミ」という属性情報を付加するとともに、この画像の表示位置をパネル12の表示部310に変更する。さらに制御部370は、パネル11の表示部310に表示している画像を、画像の順序において次の画像(画像G12)に変更する。   That is, in response to input of flick D3 on panel 11, control unit 370 adds attribute information “dust” to the image (in this case, image G11) displayed on display unit 310 of panel 11. At the same time, the display position of the image is changed to the display unit 310 of the panel 12. Furthermore, the control unit 370 changes the image displayed on the display unit 310 of the panel 11 to the next image (image G12) in the image order.

これにより、図41に示すように、パネル12の表示部310には画像G11が表示され、パネル11の表示部310には画像G12が表示される。また、この画像G11には、パネル12に対応する「ゴミ」という属性情報が付加されている。   41, the image G11 is displayed on the display unit 310 of the panel 12, and the image G12 is displayed on the display unit 310 of the panel 11. Further, attribute information “dust” corresponding to the panel 12 is added to the image G11.

なお、図38の表示状態において、パネル11が備えている操作検出部330が、フリックD1、D2、D3、D4以外のフリック(その他のフリック)がパネル11において入力されたことを、検出したとする。この場合、制御部370は、その他のフリックの検出(図42のステップS110)に応じて、無効な操作が入力されたと判定して、上述の分類モードの処理をせずに、ステップS101の判定処理を繰り返す。   In the display state of FIG. 38, the operation detection unit 330 provided in the panel 11 detects that a flick other than the flicks D1, D2, D3, and D4 (other flicks) has been input on the panel 11. To do. In this case, the control unit 370 determines that an invalid operation has been input in response to detection of another flick (step S110 in FIG. 42), and performs the determination in step S101 without performing the above-described classification mode processing. Repeat the process.

このように、制御部370は、操作検出部330により検出された操作に基づいて、パネル11(第1のパネル)からパネル12(第2のパネル)へ向かう操作(例えば、フリックD3)を検出した場合、パネル11が備える表示部310に表示されたオブジェクト(例えば、画像G11)に対して、パネル12に対応付けられている属性情報(例えば「ゴミ」)を関連付ける。   As described above, the control unit 370 detects an operation (for example, flick D3) from the panel 11 (first panel) to the panel 12 (second panel) based on the operation detected by the operation detection unit 330. In this case, attribute information (for example, “trash”) associated with the panel 12 is associated with the object (for example, the image G11) displayed on the display unit 310 included in the panel 11.

また、制御部370は、パネル11からパネル12へ向かう操作(例えば、フリックD3)を検出した場合、パネル11が備える表示部310に表示されたオブジェクト(例えば、画像G11)の表示位置を、パネル12が備える表示部310に変更するとともに、オブジェクトに対して、パネル12に対応付けられている属性情報(例えば「ゴミ」)を関連付ける。   Further, when the control unit 370 detects an operation (for example, flick D3) from the panel 11 to the panel 12, the display unit 310 displays the display position of the object (for example, the image G11) displayed on the display unit 310 included in the panel 11. 12 and the attribute information (for example, “trash”) associated with the panel 12 is associated with the object.

同様に、制御部370は、操作検出部330により検出された操作に基づいて、パネル11(第1のパネル)からパネル13へ向かう操作(例えば、フリックD4)を検出した場合、パネル11が備える表示部310に表示されたオブジェクト(例えば、画像G11)に対して、パネル13に対応付けられている属性情報(例えば「お気に入り」)を関連付ける。   Similarly, when the control unit 370 detects an operation (for example, flick D4) from the panel 11 (first panel) to the panel 13 based on the operation detected by the operation detection unit 330, the panel 11 includes the control unit 370. The attribute information (for example, “favorite”) associated with the panel 13 is associated with the object (for example, the image G11) displayed on the display unit 310.

また、制御部370は、パネル11からパネル13へ向かう操作(例えば、フリックD4)を検出した場合、パネル11が備える表示部310に表示されたオブジェクト(例えば、画像G11)の表示位置を、パネル13が備える表示部310に変更するとともに、オブジェクトに対して、パネル13に対応付けられている属性情報(例えば「お気に入り」)を関連付ける。   In addition, when the control unit 370 detects an operation (for example, flick D4) from the panel 11 to the panel 13, the display unit 310 displays the display position of the object (for example, the image G11) displayed on the display unit 310 included in the panel 11. The display unit 310 is changed to the display unit 310 included in 13 and attribute information (for example, “favorite”) associated with the panel 13 is associated with the object.

これにより、電子機器100は、ユーザーからフリックによる操作が入力されたことに応じて、画像に対して「ゴミ」または「お気に入り」という属性情報を付加するとともに、属性情報を付加した画像の表示位置を、「ゴミ」という属性情報に対応するパネル12が備える表示部310、および「お気に入り」という属性情報に対応するパネル13が備える表示部310のうちの対応する表示部310に変更して分類することができる。よって、ユーザーは、画像を順に確認しながらフリックという直感的な操作をすることにより、画像を分類することができる。   As a result, the electronic device 100 adds the attribute information “dust” or “favorite” to the image in response to the flick operation input from the user, and the display position of the image to which the attribute information is added. Are classified into the corresponding display unit 310 of the display unit 310 included in the panel 12 corresponding to the attribute information “dust” and the display unit 310 included in the panel 13 corresponding to the attribute information “favorite”. be able to. Therefore, the user can classify the images by performing an intuitive operation of flicking while sequentially checking the images.

次に、図43のフローチャート、および図44から図47の説明図を参照して、パネルをティルトした場合の処理について説明する。
ここで、図40に示すように、パネル13の表示部310(表示面13a)には画像G11が表示され、パネル11の表示部310(表示面11a)には画像G12が表示されている状態とする。また、この画像G11には、パネル13に対応する「お気に入り」という属性情報が付加されているものとする。
Next, processing when the panel is tilted will be described with reference to the flowchart of FIG. 43 and the explanatory diagrams of FIGS. 44 to 47.
Here, as shown in FIG. 40, the image G11 is displayed on the display unit 310 (display surface 13a) of the panel 13, and the image G12 is displayed on the display unit 310 (display surface 11a) of the panel 11. And Also, it is assumed that attribute information “favorite” corresponding to the panel 13 is added to the image G11.

まず、ユーザーが、図44に示すようにパネル13の表示面13aを、パネル11の表示面11aの方へ、ティルトするティルト操作をしたとする。制御部370は、ヒンジセンサ部340(角度検出部)により検出されたパネル11とパネル13との角度に基づいて、パネル13のパネル11に対するティルト操作を検出したか否かを判定する(図43のステップS201)。ステップS201において、パネル13のパネル11に対するティルト操作を検出した(ティルト検出あり)と判定された場合、制御部370は、図45に示すように、パネル13の表示部310に表示している画像(この場合、画像G11)の表示位置を、パネル13の表示部310上(表示面13a上)からパネル11の表示部310上(表示面11a上)に変更する(図43のステップS202)。   First, it is assumed that the user performs a tilt operation to tilt the display surface 13a of the panel 13 toward the display surface 11a of the panel 11 as shown in FIG. The control unit 370 determines whether or not a tilt operation on the panel 11 of the panel 13 has been detected based on the angle between the panel 11 and the panel 13 detected by the hinge sensor unit 340 (angle detection unit) (FIG. 43). Step S201). If it is determined in step S201 that a tilt operation on the panel 11 of the panel 13 has been detected (with tilt detection), the control unit 370 displays an image displayed on the display unit 310 of the panel 13 as shown in FIG. In this case, the display position of the image G11 is changed from the display unit 310 (on the display surface 13a) of the panel 13 to the display unit 310 (on the display surface 11a) of the panel 11 (step S202 in FIG. 43).

一方、ステップS201において、パネル13のパネル11に対するティルト操作を検出していない(ティルト検出なし)と判定された場合(すなわち、ユーザーがパネル13をティルト操作していない場合)、制御部370は、ヒンジセンサ部340の検出結果に基づいて、パネル12のパネル11に対するティルト操作を検出したか否かを判定する(図43のステップS203)。   On the other hand, when it is determined in step S201 that the tilt operation on the panel 11 of the panel 13 is not detected (no tilt detection) (that is, when the user does not tilt the panel 13), the control unit 370 Based on the detection result of the hinge sensor unit 340, it is determined whether or not a tilt operation on the panel 11 of the panel 12 is detected (step S203 in FIG. 43).

ここで、ユーザーが、図46に示すようにパネル12の表示面12aを、パネル11の表示面11aの方へ、ティルトするティルト操作をしたとする。ステップS203において、パネル12のパネル11に対するティルト操作を検出した(ティルト検出あり)と判定された場合、制御部370は、図47に示すように、パネル12の表示部310に表示している画像(この場合、画像G11)の表示位置を、パネル12の表示部310上からパネル11の表示部310上(表示面11a上)に変更する(図43のステップS204)。   Here, it is assumed that the user performs a tilt operation for tilting the display surface 12a of the panel 12 toward the display surface 11a of the panel 11 as shown in FIG. If it is determined in step S203 that the tilt operation on the panel 11 of the panel 12 has been detected (with tilt detection), the control unit 370 displays the image displayed on the display unit 310 of the panel 12 as shown in FIG. In this case, the display position of the image G11 is changed from the display unit 310 of the panel 12 to the display unit 310 of the panel 11 (on the display surface 11a) (step S204 in FIG. 43).

このように、制御部370は、ヒンジセンサ部340により検出されたパネル11(第1のパネル)とパネル12(第2のパネル)との角度に基づいて、パネル12のパネル11に対するティルト操作が検出された場合、パネル12が備える表示部310に表示されたオブジェクト(例えば、画像G11)の表示位置を、パネル11が備える表示部310に変更する。   In this manner, the control unit 370 performs the tilt operation on the panel 11 of the panel 12 based on the angle between the panel 11 (first panel) and the panel 12 (second panel) detected by the hinge sensor unit 340. When detected, the display position of the object (for example, image G11) displayed on the display part 310 with which the panel 12 is provided is changed into the display part 310 with which the panel 11 is provided.

また、制御部370は、ヒンジセンサ部340により検出されたパネル11とパネル13との角度に基づいて、パネル13のパネル11に対するティルト操作が検出された場合、パネル13が備える表示部310に表示されたオブジェクト(例えば、画像G11)の表示位置を、パネル11が備える表示部310に変更する。   Further, the control unit 370 displays on the display unit 310 included in the panel 13 when the tilt operation of the panel 13 with respect to the panel 11 is detected based on the angle between the panel 11 and the panel 13 detected by the hinge sensor unit 340. The display position of the selected object (for example, image G11) is changed to the display unit 310 provided in the panel 11.

これにより、制御部370は、パネルへのティルト操作に応じて、画像の表示位置を異なるパネルの表示部310の表示位置に変更することができる。例えば、制御部370は、パネル13へのティルト操作に応じて、パネル13の表示部310に表示している画像の表示位置を、パネル11の表示部310上の表示位置に変更することができる。また、制御部370は、パネル12へのティルト操作に応じて、パネル12の表示部310に表示している画像の表示位置を、パネル11の表示部310上の表示位置に変更することができる。よって、ユーザーは、パネルへのティルト操作をすることにより、表示している画像の表示位置をパネル間で変更することができる。例えば、ユーザーは、分類モードにおいて、一旦、分類することにより表示位置が変わった画像を、簡単且つ直感的な操作であるティルト操作をすることにより、元の表示位置に戻すことができる。   Thereby, the control unit 370 can change the display position of the image to the display position of the display unit 310 of a different panel in accordance with a tilt operation on the panel. For example, the control unit 370 can change the display position of the image displayed on the display unit 310 of the panel 13 to the display position on the display unit 310 of the panel 11 in response to a tilt operation on the panel 13. . Further, the control unit 370 can change the display position of the image displayed on the display unit 310 of the panel 12 to the display position on the display unit 310 of the panel 11 in accordance with the tilt operation on the panel 12. . Therefore, the user can change the display position of the displayed image between panels by performing a tilt operation on the panels. For example, in the classification mode, the user can return an image whose display position has been changed once classified to the original display position by performing a tilt operation which is a simple and intuitive operation.

続いて、図48のフローチャートを参照して、上述した分類モードの処理において、フリック操作による処理からティルト操作による処理までの一連の動作の一例を説明する。ここでは、ユーザーの操作によるフリックD4がパネル11に入力された後、パネル13へのティルト操作がされた場合の処理について説明する。   Next, an example of a series of operations from the processing by the flick operation to the processing by the tilt operation in the above-described classification mode processing will be described with reference to the flowchart of FIG. Here, processing when a tilt operation is performed on the panel 13 after a flick D4 by a user operation is input to the panel 11 will be described.

まず、制御部370は、パネル11が備えている操作検出部330が、ユーザーの操作によるフリックD4の入力を検出したか否かを判定する(ステップS301)。ステップS301において、フリックD4の入力を検出していないと判定された場合、制御部370は、ステップS301の判定処理を繰り返す。   First, the control unit 370 determines whether or not the operation detection unit 330 included in the panel 11 has detected the input of the flick D4 by the user's operation (step S301). When it is determined in step S301 that the input of the flick D4 has not been detected, the control unit 370 repeats the determination process in step S301.

一方、図38の表示状態において、パネル11が備えている操作検出部330が、ユーザーの操作によるフリックD4がパネル11において入力されたことを、検出したとする。すなわち、ステップS301において、フリックD4の入力を検出したと判定された場合、制御部370は、このフリックD4の検出に応じて、パネル11の表示部310に表示している画像(この場合、画像G11)に対して、パネル13に関連付けられている属性情報である「お気に入り」という属性情報を付加する。   On the other hand, in the display state of FIG. 38, it is assumed that the operation detection unit 330 included in the panel 11 detects that the flick D4 by the user's operation is input on the panel 11. That is, when it is determined in step S301 that the input of the flick D4 has been detected, the control unit 370 displays the image displayed on the display unit 310 of the panel 11 in this detection of the flick D4 (in this case, the image G11) is added with attribute information “favorite” which is attribute information associated with the panel 13.

続いて制御部370は、パネル11の表示部310に表示している画像(この場合、画像G11)を、パネル13の表示部310に表示させる。さらに制御部370は、パネル11の表示部310に表示している画像を、画像の順序において次の画像(画像G12)に変更する(ステップS302)。   Subsequently, the control unit 370 causes the display unit 310 of the panel 13 to display the image displayed on the display unit 310 of the panel 11 (in this case, the image G11). Further, the control unit 370 changes the image displayed on the display unit 310 of the panel 11 to the next image (image G12) in the image order (step S302).

これにより、図40に示すように、パネル13の表示部310には画像G11が表示され、パネル11の表示部310には画像G12が表示される。また、この画像G11には、パネル13に対応する「お気に入り」という属性情報が付加されている。   As a result, as shown in FIG. 40, the image G11 is displayed on the display unit 310 of the panel 13, and the image G12 is displayed on the display unit 310 of the panel 11. Further, attribute information “favorite” corresponding to the panel 13 is added to the image G11.

その後、ユーザーは、図44に示すようにパネル13の表示面13aを、パネル11の表示面11aの方へ、ティルトするティルト操作をしたとする。制御部370は、パネル13のパネル11に対するティルト操作を検出したか否かを判定する(ステップS303)。ステップS303において、制御部370は、このようなパネル13のパネル11に対するティルト操作を検出すると(ティルト検出あり)、パネル13の表示部310に表示している画像(この場合、画像G11)の表示位置を、パネル13の表示部310上からパネル11の表示部310上に変更する(ステップS304)。これにより表示状態としては図38に示した表示状態に戻るが、画像G11には「お気に入り」という属性情報が付加されている。なお、ステップS303において、ティルト操作を検出していないと判定された場合、制御部370は、ステップS301に処理を戻し、フリックやティルト操作を検出する処理を繰り返す。   Thereafter, it is assumed that the user performs a tilt operation to tilt the display surface 13a of the panel 13 toward the display surface 11a of the panel 11 as shown in FIG. The control unit 370 determines whether or not a tilt operation on the panel 11 of the panel 13 is detected (step S303). In step S303, when the control unit 370 detects such a tilt operation on the panel 11 of the panel 13 (with tilt detection), an image displayed in the display unit 310 of the panel 13 (in this case, the image G11) is displayed. The position is changed from the display unit 310 of the panel 13 to the display unit 310 of the panel 11 (step S304). As a result, the display state returns to the display state shown in FIG. 38, but attribute information “favorite” is added to the image G11. When it is determined in step S303 that the tilt operation has not been detected, the control unit 370 returns the process to step S301, and repeats the process of detecting the flick or tilt operation.

このようにして、ユーザーは画像を順に見て確認しながら、画像に対して「お気に入り」という属性情報を付加することができる。また、ユーザーは、フリックとティルトという直感的な操作により、画像に対して属性情報を付加することができる。   In this way, the user can add the attribute information “favorite” to the image while checking the images in order. Also, the user can add attribute information to the image by intuitive operations such as flicking and tilting.

なお制御部370は、図44に示すようなティルトを検出したことに応じて、パネル13に表示している画像(この場合、画像G11)の表示位置を、パネル13の表示部310上からパネル11の表示部310上に変更する場合、パネル13の表示部310上からパネル11の表示部310上に画像が滑り落ちてくるように、アニメーション表示をしてもよい。制御部370がこのような表示をすることにより、ユーザーは、更に直感的に操作をすることが可能となる。   Note that the control unit 370 detects the display position of the image (in this case, the image G11) displayed on the panel 13 from the top of the display unit 310 of the panel 13 in response to the detection of the tilt as shown in FIG. 11 on the display unit 310, an animation may be displayed so that the image slides down from the display unit 310 of the panel 13 to the display unit 310 of the panel 11. When the control unit 370 performs such display, the user can perform an operation more intuitively.

図38の表示状態において、フリックD3が入力された場合も、フリックD4が入力された場合と同様である。なお、フリックD3が入力された場合は、フリックD4が入力された場合と対比して、制御部370が、パネル11の表示部310に表示している画像に対して、パネル12に関連付けられている属性情報である「ゴミ」という属性情報を付加する点が異なる。また制御部370が、パネル11の表示部310に表示している画像(この場合、画像G11)を、パネル12の表示部310に表示させる点が異なる(図41参照)。また、ティルト操作として、図46に示すようにパネル12の表示面13aを、パネル11の表示面11aの方へ、ティルトする点が異なる。   In the display state of FIG. 38, the case where the flick D3 is input is the same as the case where the flick D4 is input. When the flick D3 is input, the control unit 370 associates the image displayed on the display unit 310 of the panel 11 with the panel 12 in contrast to the case where the flick D4 is input. The difference is that attribute information “dust” which is attribute information is added. Further, the control unit 370 is different in that the image displayed on the display unit 310 of the panel 11 (in this case, the image G11) is displayed on the display unit 310 of the panel 12 (see FIG. 41). Also, the tilt operation is different in that the display surface 13a of the panel 12 is tilted toward the display surface 11a of the panel 11 as shown in FIG.

このようにして、ユーザーは画像を順に見て確認しながら、画像に対して「ゴミ」という属性情報を付加することができる。また、このようにしてユーザーは、「お気に入り」という属性情報を付加する場合も、「ゴミ」という属性情報を付加する場合も、フリックとティルトという直感的な操作により、画像に対して属性情報を付加することができる。また、パネル11の表示部310に表示された画像に対して、フリックD3またはフリックD4の入力をしないことにより、ユーザーは、その画像に対して属性情報を付加しないようにすることができる。   In this way, the user can add the attribute information “dust” to the image while sequentially checking the images. In addition, in this way, the user can add attribute information to an image by an intuitive operation such as flicking and tilting, regardless of whether to add attribute information “favorite” or attribute information “trash”. Can be added. Also, by not inputting flick D3 or flick D4 for the image displayed on display unit 310 of panel 11, the user can prevent attribute information from being added to the image.

なお、ユーザーが図44または図46に示すティルト操作をすることなく、複数の画像に対して順にフリックD3またはフリックD4を行った場合、制御部370は、パネル12の表示部310またはパネル13の表示部310において、画像のサムネイル(またはアイコン)を表示してもよい(図49参照)。   When the user performs flick D3 or flick D4 on a plurality of images in order without performing the tilt operation shown in FIG. 44 or 46, the control unit 370 causes the display unit 310 of the panel 12 or the panel 13 to The display unit 310 may display thumbnails (or icons) of images (see FIG. 49).

また図49に示す状態において、ユーザーによる図44に示すティルト操作を制御部370が検出したことに応じて、制御部370は、パネル13にサムネイルを表示している画像の表示位置を、パネル13の表示部310上からパネル11の表示部310上に変更する。同様に、図49に示す状態において、ユーザーによる図46に示すティルト操作を制御部370が検出したことに応じて、制御部370は、パネル12にサムネイルを表示している画像の表示位置を、パネル12の表示部310上からパネル11の表示部310上に変更する。   Further, in the state shown in FIG. 49, in response to the control unit 370 detecting the tilt operation shown in FIG. 44 by the user, the control unit 370 changes the display position of the image displaying the thumbnail on the panel 13 to the panel 13. The display unit 310 is changed to the display unit 310 of the panel 11. Similarly, in the state shown in FIG. 49, in response to the control unit 370 detecting the tilt operation shown in FIG. 46 by the user, the control unit 370 changes the display position of the image displaying the thumbnail on the panel 12. The display unit 310 of the panel 12 is changed to the display unit 310 of the panel 11.

ここで、制御部370は、パネル12の表示部310に表示されているサムネイルまたは画像に対して、ユーザーによるパネル12からパネル11への方向のフリック(パネル12上におけるフリック)の入力を、受け付けることも可能である。そして、このフリックの入力を検出したことに応じて、制御部370は、このサムネイルまたは画像の表示位置を、パネル12からパネル11へ変更することも可能である。   Here, the control unit 370 accepts an input of a flick in the direction from the panel 12 to the panel 11 (flick on the panel 12) by the user with respect to the thumbnail or image displayed on the display unit 310 of the panel 12. It is also possible. Then, the control unit 370 can change the display position of the thumbnail or the image from the panel 12 to the panel 11 in response to detecting the input of the flick.

しかしながらこのようなフリックでは、1回のフリックにより1つのサムネイルまたは画像の表示位置しか変更できないことがある。そのため、図49に示すように複数のサムネイルがパネル12に表示されている場合、全てのサムネイルの表示位置を、パネル12からパネル11へ変更するには、ユーザーは、複数回のフリックをすることが必要になることがある。   However, in such a flick, only one thumbnail or image display position may be changed by one flick. Therefore, when a plurality of thumbnails are displayed on the panel 12 as shown in FIG. 49, in order to change the display position of all thumbnails from the panel 12 to the panel 11, the user flicks a plurality of times. May be required.

これに対比して、上記に図46を用いて説明したティルト操作によれば、1回のティルト操作により、複数のサムネイルの表示位置を、パネル12からパネル11へ変更することができる。また上記に図44を用いて説明したティルト操作により、パネル13からパネル11へ複数のサムネイルの表示位置を変更することも、図46を用いて説明したティルト操作の場合と同様である。このように電子機器100は、ティルトにより、フリックのみでは得られないような、ユーザーの操作性を向上させる効果を奏することができる。   In contrast, according to the tilt operation described above with reference to FIG. 46, the display position of a plurality of thumbnails can be changed from the panel 12 to the panel 11 by one tilt operation. Also, the display position of a plurality of thumbnails is changed from the panel 13 to the panel 11 by the tilt operation described above with reference to FIG. 44, similarly to the case of the tilt operation described with reference to FIG. As described above, the electronic device 100 can achieve an effect of improving user operability, which cannot be obtained only by flicking, by the tilt.

なおティルトにより複数のサムネイルの表示位置がパネル11へ変更された後、制御部370は、パネル12の表示部310およびパネル13の表示部310に表示されているサムネイルに対応する画像を、パネル11の表示部310上に表示する。なお制御部370は、複数のサムネイルに対応する画像のうちから選択した、いずれかの画像を表示する。なお制御部370が選択する画像は、複数のサムネイルに対応する画像のうち、順序が最も早い画像であってもよい。   Note that after the display positions of the plurality of thumbnails are changed to the panel 11 by the tilt, the control unit 370 displays images corresponding to the thumbnails displayed on the display unit 310 of the panel 12 and the display unit 310 of the panel 13 on the panel 11. Are displayed on the display unit 310. Note that the control unit 370 displays any image selected from images corresponding to a plurality of thumbnails. The image selected by the control unit 370 may be the image having the earliest order among images corresponding to a plurality of thumbnails.

また、ユーザーによる図44および図46に示すティルト操作を制御部370が検出したことに応じて、制御部370は、図50に示すように、サムネイルをパネル11の表示部310上に表示してもよい。   Further, in response to the detection of the tilt operation shown in FIGS. 44 and 46 by the user, the control unit 370 displays a thumbnail on the display unit 310 of the panel 11 as shown in FIG. Also good.

なお、上記に説明においては「分類モード」の配置としてV字配置の場合について説明したが、配置はこれに限られるものではなく、任意の配置が可能である。   In the above description, the V-shaped arrangement is described as the “classification mode” arrangement. However, the arrangement is not limited to this, and an arbitrary arrangement is possible.

ここで制御部370によるフリックの検出方法について説明する。まず、上記に説明したように、制御部370は、ヒンジ位置情報と回転位置情報との組み合わせ、姿勢情報、または、ヒンジ位置情報と回転位置情報と姿勢情報との組み合わせに基づいて、パネル間の相対的な配置位置をそれぞれ検出している。   Here, a flick detection method by the control unit 370 will be described. First, as described above, the control unit 370 determines whether or not between panels based on a combination of hinge position information and rotational position information, attitude information, or a combination of hinge position information, rotational position information, and attitude information. Each relative arrangement position is detected.

このようにパネル間の相対的な配置位置をそれぞれ検出している状態において、ユーザーによるフリックの入力を、複数のパネルのうちのいずれかのパネル(パネルAとする)に備えられている操作検出部330が、検出したとする。   In the state where the relative arrangement positions between the panels are detected in this way, the operation detection provided in any one of the plurality of panels (referred to as panel A) is input by flicking by the user. It is assumed that the unit 330 has detected.

この操作検出部330によるフリックの検出に応じて、制御部370は、パネル間の相対的な配置位置と、この相対的な配置位置におけるフリックが検出されたパネルAの配置位置と、検出したフリックの方向とに基づいて、検出されたフリックが、パネルAから、パネルAとは異なるいずれかのパネルの方向へのフリックであるか否かを検出する。   In response to the detection of the flick by the operation detection unit 330, the control unit 370 detects the relative arrangement position between the panels, the arrangement position of the panel A where the flick is detected at the relative arrangement position, and the detected flick. And whether the detected flick is a flick from the panel A to any panel direction different from the panel A.

検出されたフリックが、いずれかのパネル(パネルBとする)の方向へのフリックであると検出した場合、制御部370は、パネルAからパネルBの方向へのフリックに応じた処理を実行する。このようなフリックとその処理の一例として、たとえば、図36を用いて説明したフリックD3とフリックD4、およびその処理がある。   When the detected flick is detected to be a flick in the direction of any panel (referred to as panel B), control unit 370 executes processing corresponding to the flick in the direction from panel A to panel B. . As an example of such a flick and its processing, for example, there are the flick D3 and flick D4 described with reference to FIG.

一方、検出されたフリックが、いずれかのパネルの方向へのフリックではないと検出した場合、制御部370は、パネルAにおいて、検出された方向へのフリックが設定されているか否かを判定する。そして検出された方向へのフリックが設定されていると判定した場合、制御部370は、設定されているフリックと関連付けられいてる処理を実行する。このようなフリックとその処理の一例として、たとえば、図36を用いて説明したフリックD1とフリックD2、およびその処理がある。   On the other hand, when it is detected that the detected flick is not a flick in the direction of any panel, control unit 370 determines whether or not a flick in the detected direction is set in panel A. . If it is determined that a flick in the detected direction is set, the control unit 370 executes processing associated with the set flick. As an example of such a flick and its processing, for example, there are the flick D1 and flick D2 described with reference to FIG.

一方、検出された方向へのフリックが設定されていないと判定した場合、制御部370は、フリックに応じた処理を実行しない。このようなフリックは、図36において、フリックD1、フリックD2、フリックD3またはフリックD4の方向とは異なる方向へのフリックである。   On the other hand, when it is determined that a flick in the detected direction is not set, the control unit 370 does not execute a process corresponding to the flick. Such a flick is a flick in a direction different from the direction of the flick D1, the flick D2, the flick D3, or the flick D4 in FIG.

このように、制御部370は、フリックのみならず、パネル間の相対的な配置位置に基づいて、フリックに対応する処理を変更している。これにより電子機器100は、V字配置のように固定の配置において「分類モード」などの処理を実行することができるのではなく、同様の処理を、任意の配置においても実行することができる。このように、電子機器100は、様々な配置をとることができるとともに、その配置において、フリックなどの操作により、様々な処理を実行することができる。   Thus, the control unit 370 changes the process corresponding to the flick based on not only the flick but also the relative arrangement position between the panels. As a result, the electronic device 100 can execute a process such as “classification mode” in a fixed arrangement as in the V-shaped arrangement, but can also execute a similar process in an arbitrary arrangement. As described above, the electronic device 100 can take various arrangements, and can execute various processes by operations such as flicking in the arrangements.

なお上記に説明した「分類モード」としては、電子機器100を用いてユーザーが、オブジェクトの一例である画像に対して分類する場合について説明した。しかしながら分類対象となるオブジェクトは画像に限られるものではなく、分類対象となるオブジェクトは、音楽形式のファイルや、動画形式のファイルや、テキスト形式のファイルや、表形式のファイルや、メール形式のデータであってもよい。   As the “classification mode” described above, the case where the user classifies an image, which is an example of an object, using the electronic device 100 has been described. However, the objects to be classified are not limited to images, and the objects to be classified are music format files, video format files, text format files, table format files, and email format data. It may be.

また、分類先の個数として3つの場合を例として説明したが、分類先の個数は3つに限られるものではなく、電子機器100が備えているパネルの個数に応じて分類先を増加させてもよい。またパネルの個数に応じて、検出対象となるフリックの個数を増加させてもよい。例えば、図36から図50を用いて、電子機器100が備えているパネル(表示部)の個数が3つの場合の「分類モード」について説明したが、これに限られるものではなく、パネル(表示部)の個数は、2つ、または4つ以上の複数個であってもよい。そして、分類先の個数または検出対象となるフリックの個数は、パネル(表示部)の個数に応じて、2つ、または4つ以上の複数個であってもよい。   Further, although the case where the number of classification destinations is three has been described as an example, the number of classification destinations is not limited to three, and the number of classification destinations is increased according to the number of panels included in the electronic device 100. Also good. Further, the number of flicks to be detected may be increased according to the number of panels. For example, the “classification mode” in the case where the number of panels (display units) included in the electronic device 100 is three has been described with reference to FIGS. 36 to 50. However, the present invention is not limited to this. The number of parts) may be two, or a plurality of four or more. The number of classification destinations or the number of flicks to be detected may be two, or a plurality of four or more, depending on the number of panels (display units).

なお、制御部370は、ヒンジセンサ部340により検出された角度に基づいて、パネル12(第2のパネル)のパネル11(第1パネル)に対するティルト操作が検出された場合、パネル12が備える表示部310に表示されたオブジェクトに対して、パネル11に対応付けられている属性情報を関連付けてもよい。また、同様に、制御部370は、ヒンジセンサ部340により検出された角度に基づいて、パネル13のパネル11に対するティルト操作が検出された場合、パネル13が備える表示部310に表示されたオブジェクトに対して、パネル11に対応付けられている属性情報を関連付けてもよい。   The control unit 370 displays the display provided on the panel 12 when a tilt operation on the panel 11 (first panel) of the panel 12 (second panel) is detected based on the angle detected by the hinge sensor unit 340. The attribute information associated with the panel 11 may be associated with the object displayed on the part 310. Similarly, when the tilt operation on the panel 11 of the panel 13 is detected based on the angle detected by the hinge sensor unit 340, the control unit 370 applies an object displayed on the display unit 310 included in the panel 13 to the object displayed on the display unit 310. On the other hand, attribute information associated with the panel 11 may be associated.

例えば、制御部370は、次のようにして分類を実行してもよい。制御部370は、パネル13とパネル12との表示面に、画像を1枚ずつ適切なタイミングで切り替えて表示する。ユーザーはその画像が良い(すなわち「お気に入り」な画像である)と判断したら、表示中にデバイスを持ち上げヒンジを曲げる(図44に示すティルトまたは図46に示すティルトを実行する)。このティルトの入力に応じて、制御部370は、その画像をパネル11へにすべり落とすようなアニメーション表示をする。このような処理を、制御部370は、パネル13とパネル12との表示面において、同時並行的に行う。これにより、ユーザーは、2つの表示面を用いて、並列に画像の分類をすることができる。なお、最終的にパネル11にお気に入りの画像が集められることになる。すなわち、パネル11には「お気に入り」という属性情報が対応付けられており、制御部370は、パネル12またはパネル13のパネル11に対するティルト操作が検出された場合、パネル12またはパネル13が備える表示部310に表示された画像に「お気に入り」という属性情報を関連付けるとともに、その画像の表示位置をパネル11が備える表示部310に変更する。そして、ユーザーから3本指でピンチインの入力がされたことを、操作検出部330が検出することに応じて、制御部370は、画像を全画面表示(全てのパネルの表示部にわたって表示)する。これによりユーザーがお気に入りの画像を分類するとともに、お気に入りの画像のみを全体表示して見ることができる。   For example, the control unit 370 may execute the classification as follows. The control unit 370 switches and displays the images one by one at an appropriate timing on the display surfaces of the panel 13 and the panel 12. If the user determines that the image is good (i.e., a "favorite" image), he raises the device and bends the hinge during display (performs the tilt shown in FIG. 44 or the tilt shown in FIG. 46). In response to this tilt input, the control unit 370 displays an animation that slides the image onto the panel 11. The control unit 370 performs such processing in parallel on the display surfaces of the panel 13 and the panel 12. Thus, the user can classify the images in parallel using the two display surfaces. Note that favorite images are finally collected on the panel 11. That is, the attribute information “favorite” is associated with the panel 11, and the control unit 370 displays the display unit included in the panel 12 or the panel 13 when the tilt operation on the panel 11 of the panel 12 or the panel 13 is detected. The attribute information “favorite” is associated with the image displayed on 310, and the display position of the image is changed to the display unit 310 included in the panel 11. Then, in response to the operation detection unit 330 detecting that the user has input a pinch-in with three fingers, the control unit 370 displays an image in full screen (displays over the display units of all panels). . As a result, the user can classify favorite images and display only the favorite images as a whole.

以上説明したように、3つの表示部310を備えた電子機器100は、表示部310の表示面に設けられたタッチパネルに対するフリック、またはパネルのティルトといったユーザーの直感的な操作に応じて、表示部310に表示したオブジェクトに対して属性情報を付加するとともに、表示する表示部310を変更することができる。すなわち、電子機器100は、ユーザーの直感的な操作に応じて、表示部310に表示したオブジェクトを分類することができる。よって、電子機器100は、複数の表示面(ディスプレイ)を有効に活用した制御をすることができる。   As described above, the electronic device 100 including the three display units 310 has the display unit according to the user's intuitive operation such as flicking on the touch panel provided on the display surface of the display unit 310 or tilting the panel. The attribute information can be added to the object displayed on 310 and the display unit 310 to be displayed can be changed. That is, the electronic device 100 can classify the objects displayed on the display unit 310 in accordance with the user's intuitive operation. Therefore, the electronic device 100 can perform control using a plurality of display surfaces (displays) effectively.

<立体視表示>
次に、図51から図64を用いて、立体視表示について説明する。まず図51を用いて立体視について説明する。一例として、立方体の1つの頂点に空けられている穴Hから、立方体の中を覗き込むようにして見ることにより、ユーザーは立体視できることがある。
<Stereoscopic display>
Next, stereoscopic display will be described with reference to FIGS. First, stereoscopic viewing will be described with reference to FIG. As an example, the user may be able to view stereoscopically by looking into the cube from a hole H opened at one vertex of the cube.

ここでいう立体視とは、例えば、立方体の内側の複数の面を表示面として立体的に構成された表示面に画像が表示された場合に、その立体的に表示された画像が、平面の表示面に画像が表示された場合と同様に違和感なく見えるようなことをいう。ユーザーは、穴Hから立方体の中を覗き込むようにして見ることにより、立体的に表示された画像を平面の表示面に画像が表示された場合と同様に違和感なく見ることができる。また、ユーザーは、立体的に表示された画像を、奥行きが感じられるような画像として見ることができる場合もある。   The term “stereoscopic view” as used herein refers to, for example, when an image is displayed on a display surface that is three-dimensionally configured with a plurality of surfaces inside a cube as a display surface, It means that the image can be seen without any discomfort as in the case where an image is displayed on the display surface. The user can view the stereoscopically displayed image without any sense of incongruity as in the case where the image is displayed on the flat display surface by looking into the cube from the hole H. In addition, the user may be able to see the three-dimensionally displayed image as an image in which the depth can be felt.

図51(a)に示すように、ユーザーが覗き込む立方体の上面が面D、右面が面F、左面が面Eとする。図51(b)は、図51(a)の左面となる面Eから見た図である。   As shown in FIG. 51A, the upper surface of the cube that the user looks into is the surface D, the right surface is the surface F, and the left surface is the surface E. FIG. 51B is a view as seen from the plane E which is the left side of FIG.

電子機器100の配置を、このような立方体に対応するように、図52に示すような配置にする。この配置は、図14を用いて説明した配置と同じである。なお、この場合、図51(a)において、面Eに対向する面がパネル13であり、面Fに対向する面がパネル12であり、面Dに対向する面がパネル11である。すなわち、電子機器100の3つの表示部310は、それぞれ互いの表示面が直交するように、且つ同じ方向からそれぞれの表示面が見えるように配置されている。   The electronic device 100 is arranged as shown in FIG. 52 so as to correspond to such a cube. This arrangement is the same as the arrangement described with reference to FIG. In this case, in FIG. 51A, the surface facing the surface E is the panel 13, the surface facing the surface F is the panel 12, and the surface facing the surface D is the panel 11. That is, the three display units 310 of the electronic device 100 are arranged so that the display surfaces are orthogonal to each other and the display surfaces can be seen from the same direction.

まず、図52に示すように三面直交配置された表示面11a、表示面12a、および表示面13aのそれぞれに表示する画像を、画像(平面の画像)から切り出す際のそれぞれの画像切り出し領域(画像切り出しパターン)について説明する。   First, as shown in FIG. 52, each image cut-out area (image) when images to be displayed on the display surface 11a, the display surface 12a, and the display surface 13a arranged in three planes orthogonally are cut out from the image (planar image). (Cutout pattern) will be described.

画像切り出しパターンは、以下のようにして定められる。
ここで、図52に示す表示面の配置において、表示面11a、表示面12a、および表示面13aのそれぞれの角の位置を、図53に示すようにそれぞれ点K1から点K7とする。
The image cutout pattern is determined as follows.
Here, in the arrangement of the display surface shown in FIG. 52, the positions of the corners of the display surface 11a, the display surface 12a, and the display surface 13a are point K1 to point K7, respectively, as shown in FIG.

図54(a)は、図53に示す配置の電子機器100を、左(紙面上の左)横から見た図である。また、図54(a)は、この図53に示す配置の各表示面に対して、図51に示す穴Hの位置と点K2とを結ぶ直線(表示面11aに対して平行な直線)の延長線上の位置であって、点K2の位置に対して穴Hの位置よりも離れた位置(第1の位置)から、カメラ800が撮影している様子を示している。すなわち、このカメラ800が撮影する位置(第1の位置)は、電子機器100の3つの表示部310の表示面11a、表示面12a、および表示面13aそれぞれに表示された画像をユーザーが見る位置に基づいて定められる位置であって、電子機器100に対してユーザーが覗く穴Hの位置がある方向と同じ方向の位置である。   FIG. 54A is a view of electronic device 100 having the arrangement shown in FIG. 53 as viewed from the left (left on the paper). FIG. 54A shows a straight line (straight line parallel to the display surface 11a) connecting the position of the hole H shown in FIG. 51 and the point K2 with respect to each display surface having the arrangement shown in FIG. A state is shown in which the camera 800 is shooting from a position (first position) on the extension line that is distant from the position of the hole H with respect to the position of the point K2. That is, the position (first position) taken by the camera 800 is a position at which the user views the images displayed on the display surface 11a, the display surface 12a, and the display surface 13a of the three display units 310 of the electronic device 100. Is a position in the same direction as the direction in which the position of the hole H that the user looks into the electronic device 100 is located.

また、この図において、カメラ800は、焦点距離に応じて定まる撮影領域のうち、水平方向および垂直方向ともに中央となる位置に点K2が撮影され、且つ垂直方向が下端であって水平方向が中央である位置に点K7が撮影されるような焦点距離の位置から撮影している。例えば、図54(a)において、カメラ800は焦点距離85mmで電子機器100を撮影している。   Also, in this figure, the camera 800 has a point K2 photographed at a position that is centered in both the horizontal and vertical directions in the photographing region determined according to the focal length, and the vertical direction is the lower end and the horizontal direction is the center. The image is taken from the position of the focal length such that the point K7 is taken at the position. For example, in FIG. 54A, the camera 800 takes an image of the electronic device 100 at a focal length of 85 mm.

図54(b)は、図54(a)に示す位置からカメラ800が電子機器100を撮影した場合の撮影領域における、3つの表示部310の表示面11a、表示面12a、および表示面13aそれぞれの表示領域の一例を示している。つまり、この図54(b)は、例えば、カメラ800の位置と点K2とを結ぶ直線に対して直交する面M1に対して、点K1から点K7の7つの点それぞれの位置を、カメラ800の位置および画角(焦点距離に応じた画角)に応じて投影した場合の位置によって示されるそれぞれの表示面の表示領域を示している。すなわち、この図は、カメラ800の視点J1と、点K1から点K7の7つの点それぞれと、を結ぶ線を延長した線が、面M1に交差する位置によって示されるそれぞれの表示面の表示領域を示している。   FIG. 54B shows the display surface 11a, the display surface 12a, and the display surface 13a of the three display units 310 in the imaging region when the camera 800 images the electronic device 100 from the position shown in FIG. An example of the display area is shown. That is, FIG. 54B shows, for example, the positions of the seven points from the point K1 to the point K7 with respect to the plane M1 orthogonal to the straight line connecting the position of the camera 800 and the point K2. The display area of each display surface indicated by the position when projected according to the position and the angle of view (the angle of view according to the focal length) is shown. That is, this figure shows the display area of each display surface indicated by the position where a line extending from the viewpoint J1 of the camera 800 and each of the seven points K1 to K7 intersects the surface M1. Is shown.

図54(b)において、表示面11aの表示領域は、点K4、点K5、点K6、および点K7を頂点とした四角形により囲まれる領域である。また、表示面12aの表示領域は、点K1、点K2、点K5、および点K4を頂点とした四角形により囲まれる領域である。また、表示面13aの表示領域は、点K2、点K3、点K6、および点K5を頂点とした四角形により囲まれる領域である。   In FIG. 54B, the display area of the display surface 11a is an area surrounded by a quadrangle having points K4, K5, K6, and K7 as vertices. The display area of the display surface 12a is an area surrounded by a quadrangle having points K1, K2, K5, and K4 as vertices. The display area of the display surface 13a is an area surrounded by a quadrangle having points K2, K3, K6, and K5 as vertices.

ここで、撮影された画像の画像領域(撮影領域)のうち、図54(b)に示すそれぞれの表示面の表示領域に対応する画像領域の画像がそれぞれの表示面に表示されていれるとする。その場合、ユーザーは、図51(b)に示す穴Hの位置から電子機器100の3つの表示面に表示された画像を見た場合に、撮影された画像が表示されている1つの平面の表示面がそこにあるかのように違和感なく見ることができる。   Here, it is assumed that images of image areas corresponding to the display areas of the respective display surfaces shown in FIG. 54B among the image areas (photographing areas) of the captured images are displayed on the respective display surfaces. . In that case, when the user looks at the images displayed on the three display surfaces of the electronic device 100 from the position of the hole H shown in FIG. You can see it as if the display surface is there.

つまり、電子機器100は、撮影領域のうち、図54(b)に示す表示面11a、表示面12a、および表示面13aそれぞれの表示領域に対応する画像領域を、画像切り出し領域(画像切り出しパターン)として画像を切り出す。そして、電子機器100は、画像切り出しパターンに基づいて切り出したそれぞれの画像領域の画像を、対応するそれぞれの表示面に表示する。なお、詳しくは後述するが、電子機器100は、切り出したそれぞれの画像領域の画像に対して表示領域に応じて変換した画像を、対応するそれぞれの表示面に表示する。これにより、電子機器100は、3つの表示面が三面直交配置されたそれぞれの表示部310に対して、ユーザーに違和感なく見えるように画像(平面画像)を表示することができる。   That is, the electronic device 100 converts image areas corresponding to the display areas of the display surface 11a, the display surface 12a, and the display surface 13a shown in FIG. Cut out the image as Then, electronic device 100 displays each image region image cut out based on the image cut-out pattern on each corresponding display surface. As will be described in detail later, electronic device 100 displays an image obtained by converting the image of each cut-out image area according to the display area on each corresponding display surface. Thereby, the electronic device 100 can display an image (planar image) on each display unit 310 in which the three display surfaces are arranged in three planes so that the user can see the display without any sense of incongruity.

なお、上述した画像切り出しパターンは、焦点距離に応じて異なるパターンになる。図55は、図54に示す焦点距離(例えば85mm)の例よりも長い焦点距離(例えば105mm)の場合の一例を示す図である。   Note that the above-described image cutout pattern is different depending on the focal length. FIG. 55 is a diagram illustrating an example of a focal length (for example, 105 mm) longer than the focal length (for example, 85 mm) illustrated in FIG.

図55(a)に示す位置(すなわち図54(a)に示す位置より焦点距離が長い位置)からカメラ800が電子機器100を撮影した場合の3つの表示部310の表示面11a、表示面12a、および表示面13aそれぞれの表示領域は、図55(b)に示すそれぞれの領域のようになる。例えば、焦点距離105mmの場合、撮影領域におけるそれぞれの表示面の表示領域は、焦点距離85mmの場合に対比して、画角が狭いことにより垂直方向に潰れたような領域(圧縮された領域)になる。特に、3つの表示面の表示領域のうち表示面11aの表示領域(点K4、点K5、点K6、および点K7を頂点とした四角形により囲まれる領域)は、焦点距離85mmの場合に対比して、画角の違いによって生じる圧縮効果の影響が最も大きいため、最も小さい領域になる。   Display surface 11a and display surface 12a of three display units 310 when camera 800 captures electronic device 100 from the position shown in FIG. 55A (that is, the position where the focal length is longer than the position shown in FIG. 54A). , And the display area of each display surface 13a are as shown in FIG. 55B. For example, in the case where the focal length is 105 mm, the display area of each display surface in the photographing area is an area that is crushed in the vertical direction due to a narrow angle of view (compressed area) compared to the case where the focal distance is 85 mm. become. In particular, among the display areas of the three display surfaces, the display area of the display surface 11a (the area surrounded by a rectangle with points K4, K5, K6, and K7 as vertices) is compared with the case where the focal length is 85 mm. Since the influence of the compression effect caused by the difference in the angle of view is the largest, the area becomes the smallest.

このように、撮影された画像の画像領域(撮影領域)におけるそれぞれの表示面の表示領域は、焦点距離に応じて異なる。すなわち、それぞれの表示面の表示領域に対応する画像切り出しパターンは、焦点距離に応じて異なるパターンとして定められる。   Thus, the display area of each display surface in the image area (photographing area) of the photographed image differs depending on the focal length. That is, the image cutout pattern corresponding to the display area of each display surface is determined as a different pattern depending on the focal length.

なお、図53から図54を用いて説明した画像切り出しパターンは、それぞれの焦点距離の位置から電子機器100を実際に撮影した場合の撮影画像から、点K1から点K7の各点の位置を検出することにより予め定められてもよいし、それぞれの焦点距離の位置から電子機器100を撮影した場合の焦点距離(画角)に基づいて、点K1から点K7の各点の位置を算出することにより予め定められてもよい。   The image cutout patterns described with reference to FIGS. 53 to 54 detect the positions of the points K1 to K7 from the captured images when the electronic device 100 is actually captured from the positions of the respective focal lengths. The position of each point from the point K1 to the point K7 may be calculated based on the focal length (angle of view) when the electronic device 100 is photographed from the position of each focal length. May be determined in advance.

次に、電子機器100が、図53から図55を用いて説明した画像切り出しパターンに基づいて切り出した画像それぞれを、対応する3つのパネル13、パネル12、およびパネル11それぞれの表示面上に表示する処理について説明する。   Next, the electronic device 100 displays each of the images cut out based on the image cutting pattern described with reference to FIGS. 53 to 55 on the display surfaces of the corresponding three panels 13, 12, and 11. Processing to be performed will be described.

まず、図56から図59を用いて、制御部370が、パネル13、パネル12、およびパネル11に、立体視できるような画像を表示する方法について説明する。なお、画像は、画像が撮像された場合の焦点を示す焦点情報と関連付けられて、記憶部390に記憶されているとして説明する。この焦点情報は、画像ファイルのExif情報として、画像と一体として記憶部390に記憶されていてもよい。ここで、焦点情報とは、例えば焦点距離を示す情報である。   First, a method in which the control unit 370 displays an image that can be stereoscopically viewed on the panel 13, the panel 12, and the panel 11 will be described with reference to FIGS. It is assumed that the image is stored in the storage unit 390 in association with focus information indicating the focus when the image is captured. This focus information may be stored in the storage unit 390 as Exif information of the image file as a unit with the image. Here, the focus information is information indicating a focal distance, for example.

また、この記憶部390には、焦点情報と関連付けて、画像切り出しパターンが記憶されている。この画像切り出しパターンは、上述の図53から図55を用いて説明した画像切り出しパターンであって、具体的には、後述する図56または図60により示されるようなパターンのことである。   The storage unit 390 stores an image cutout pattern in association with the focus information. This image cut-out pattern is the image cut-out pattern described with reference to FIGS. 53 to 55 described above, and specifically, is a pattern as shown in FIG. 56 or FIG. 60 described later.

なお、図54(b)または図55(b)の点K1から点K7により示されるそれぞれの表示面の表示領域と、図56または図60の頂点P1から頂点P7により示されるそれぞれの画像領域(画像切り出しパターン)とが対応している。すなわち、図54(b)または図55(b)の点K1から点K7により示されるそれぞれの表示面の表示領域に対応する画像領域が、図56または図60の頂点P1から頂点P7により示されるそれぞれの画像領域(画像切り出しパターン)である。   54 (b) or 55 (b), the display areas of the respective display surfaces indicated by the points K1 to K7, and the image areas (indicated by the vertices P1 to P7 of FIG. 56 or 60). Image cropping pattern). That is, the image areas corresponding to the display areas of the respective display surfaces indicated by the points K1 to K7 in FIG. 54B or 55B are indicated by the vertices P1 to P7 in FIG. 56 or FIG. Each image area (image cutout pattern).

制御部370は、記憶部390から表示対象となる画像を記憶部390から読み出すとともに、この画像に関連付けられている焦点情報を記憶部390から読み出す。次に、制御部370は、読み出した焦点情報と関連付けられている画像切り出しパターンを記憶部390から読み出す。   The control unit 370 reads an image to be displayed from the storage unit 390 from the storage unit 390 and reads focus information associated with the image from the storage unit 390. Next, the control unit 370 reads an image cutout pattern associated with the read focus information from the storage unit 390.

次に制御部370は、読み出した画像切り出しパターンに基づいて、画像から、3つのパネルに表示する画像領域を切り出す。一例として、焦点情報により示される焦点距離が85mmの場合、図56に示すように、制御部370は、画像から、頂点P2と頂点P3と頂点P6と頂点P5とにより示される第1画像領域と、頂点P1と頂点P2と頂点P5と頂点P4とにより示される第2画像領域と、頂点P4と頂点P5と頂点P6と頂点P7とにより示される第3画像領域とを切り出す。   Next, the control unit 370 cuts out image areas to be displayed on the three panels from the image based on the read image cut-out pattern. As an example, when the focal length indicated by the focus information is 85 mm, as illustrated in FIG. 56, the control unit 370 includes, from the image, a first image area indicated by a vertex P2, a vertex P3, a vertex P6, and a vertex P5. The second image area indicated by the vertex P1, the vertex P2, the vertex P5, and the vertex P4, and the third image area indicated by the vertex P4, the vertex P5, the vertex P6, and the vertex P7 are cut out.

次に制御部370は、図57(a)に示すように、第1画像領域の画像の頂点P6の位置が、パネル13の表示領域に対応させて、正方形の頂点P6’の位置になるように、第1画像領域の画像を変換する。また制御部370は、頂点P6と同様に、第1画像領域の画像の頂点P5の位置が、パネル13の表示領域に対応させて、正方形の頂点P5’の位置になるように、第1画像領域の画像を変換する。例えば、制御部370は、第1画像領域の画像の頂点P6とP5の位置が、それぞれ正方形の頂点P6’とP5’の位置になるように、第1画像領域の画像を引き伸ばして変形させる射影変換をする。このようにして、制御部370は、第1画像領域の画像を、パネル13の表示領域にあわせて変換する。その後、制御部370は、変換した第1画像領域の画像(図57(b)参照)を、パネル13の表示部310に表示する。   Next, as shown in FIG. 57A, the control unit 370 causes the position of the vertex P6 of the image in the first image area to correspond to the display area of the panel 13 to be the position of the square vertex P6 ′. Then, the image of the first image area is converted. Similarly to the vertex P6, the control unit 370 causes the first image area so that the position of the vertex P5 of the image in the first image area corresponds to the display area of the panel 13 and becomes the position of the square vertex P5 ′. Convert the image of the area. For example, the control unit 370 expands and deforms the image of the first image area so that the positions of the vertices P6 and P5 of the image of the first image area are the positions of the vertices P6 ′ and P5 ′ of the square, respectively. Convert. In this way, the control unit 370 converts the image of the first image area in accordance with the display area of the panel 13. Thereafter, the control unit 370 displays the converted image of the first image region (see FIG. 57B) on the display unit 310 of the panel 13.

次に制御部370は、図57に示した第1画像領域の画像の場合と同様に、図58に示すように、第2画像領域の画像を、パネル12の表示領域にあわせて変換する(図58(a)参照)。その後、制御部370は、変換した第2画像領域の画像(図58(b)参照)を、パネル12の表示部310に表示する。   Next, as in the case of the image of the first image area shown in FIG. 57, the control unit 370 converts the image of the second image area in accordance with the display area of the panel 12 as shown in FIG. (See FIG. 58 (a)). Thereafter, the control unit 370 displays the converted image of the second image region (see FIG. 58B) on the display unit 310 of the panel 12.

次に制御部370は、図57に示した第1画像領域の画像の場合、または、図58に示した第2画像領域の画像の場合と同様に、図59(a)に示すように、第3画像領域の画像を、パネル11の表示領域にあわせて変換する。その後、制御部370は、変換した第3画像領域の画像(図59(b)参照)を、パネル11の表示部310に表示する。   Next, similarly to the case of the image of the first image area shown in FIG. 57 or the image of the second image area shown in FIG. The image in the third image area is converted in accordance with the display area of the panel 11. Thereafter, the control unit 370 displays the converted image of the third image region (see FIG. 59B) on the display unit 310 of the panel 11.

なお、図56から図59を用いて説明した画像切り出しパターンと、切り出した画像の変換方法とは、焦点距離が85mmの場合であったが、この画像切り出しパターンと、切り出した画像の変換方法とは、前述したように焦点距離により異なる。
たとえば図60に、焦点距離が85mmの場合における画像切り出しパターンと、焦点距離が105mmの場合における画像切り出しパターンとを対比して示す。図60に示されている焦点距離が85mmの場合における画像切り出しパターンは、図56に示した画像切り出しパターンと同じである。
The image cutout pattern and the cutout image conversion method described with reference to FIGS. 56 to 59 are for a focal length of 85 mm. The image cutout pattern, the cutout image conversion method, Is different depending on the focal length as described above.
For example, FIG. 60 shows a comparison between an image cutout pattern when the focal length is 85 mm and an image cutout pattern when the focal length is 105 mm. The image cutout pattern when the focal length shown in FIG. 60 is 85 mm is the same as the image cutout pattern shown in FIG.

焦点距離が105mmの場合における画像切り出しパターンの場合は、焦点距離が85mmの場合における画像切り出しパターンと対比して、頂点P1とP2とP3とはほぼ同じであるものの、頂点P4は頂点P4’’に、頂点P5は頂点P5’’に、頂点P6は頂点P6’’に、頂点P7は頂点P7’’に、それぞれ位置が変更されている。このように焦点距離に応じて、切り出しパターンは異なる。   In the case of the image cutout pattern when the focal length is 105 mm, the vertices P1, P2, and P3 are substantially the same as the image cutout pattern when the focal length is 85 mm, but the vertex P4 is the vertex P4 ''. The positions of the vertex P5 are changed to the vertex P5 ″, the vertex P6 is changed to the vertex P6 ″, and the vertex P7 is changed to the vertex P7 ″. Thus, the cutout pattern varies depending on the focal length.

ここで、通常、箱の中に単に画像を貼付けただけの場合は、パースがつくため、面と面のつながり部分に不自然な連続が発生することがある。たとえば、立方体の展開図をつくり、その上になめらかな線を描いたとする。しかしながら、描いたなめらかな線を、立方体を再度組み立てて見たとすると、その線には、立方体の面の変わり目で、不連続な折れが生じてしまうことがある。   Here, in general, when an image is simply pasted in a box, a parsing is caused, and therefore, an unnatural continuity may occur in a connection portion between surfaces. For example, suppose you create a cube development and draw a smooth line on it. However, if the smooth line drawn is viewed by reassembling the cube, the line may be discontinuously bent at the transition of the cube surface.

これに対して、制御部370が、上記に図57と図58と図59とを用いて説明した変形を行う事により、電子機器100は、このような問題による影響を低減して、例えば箱の中に画像を表示することができる。   On the other hand, when the control unit 370 performs the modification described above with reference to FIGS. 57, 58, and 59, the electronic device 100 can reduce the influence of such a problem, for example, a box. An image can be displayed inside.

また、表示する画像を撮影した時のレンズ情報(焦点距離情報、焦点情報)に応じて、図60を用いて説明したように、切り出す画像領域を変更する。これにより、画像を撮像したときのレンズの焦点距離が様々に異なる場合であっても、電子機器100は、適切に画像を表示することができる。よって、ユーザーは、画像を撮像したときのレンズの焦点距離が様々に異なる場合であっても、その画像を適切な状態で電子機器100により見ることができる。   Further, as described with reference to FIG. 60, the image area to be cut out is changed according to the lens information (focal length information, focus information) when the image to be displayed is captured. Thereby, even when the focal lengths of the lenses when the images are captured are variously different, the electronic device 100 can appropriately display the images. Therefore, the user can view the image with the electronic device 100 in an appropriate state even when the focal length of the lens when the image is captured is variously different.

次に、図61を参照して、図51から図60を用いて説明した表示処理を制御する制御部370の構成について詳しく説明する。図61は、制御部370の構成の一例を示す概略ブロック図である。   Next, the configuration of the control unit 370 that controls the display processing described with reference to FIGS. 51 to 60 will be described in detail with reference to FIG. FIG. 61 is a schematic block diagram illustrating an example of the configuration of the control unit 370.

制御部370は、切り出し部375と、変換部376と、を備えている。切り出し部375は、焦点距離を示す情報(焦点情報)と関連付けられている画像から、焦点情報に応じて定まるパネル11、パネル12、およびパネル13の表示部310それぞれの表示領域に対応する画像領域に基づいて、表示部310それぞれに対応する画像領域の画像を切り出す。例えば、切り出し部375は、図53から図55を用いて説明したように、電子機器100の3つの表示部310を第1の位置から撮影した場合の焦点情報に応じて定まる各パネルの表示部310それぞれの表示領域に対応する画像領域(上述した第1、第2、第3画像領域)に基づいて、焦点情報と関連付けられている画像から、表示部310それぞれに対応する画像領域の画像を切り出す。   The control unit 370 includes a cutout unit 375 and a conversion unit 376. The cutout unit 375 is an image region corresponding to each display region of the display unit 310 of the panel 11, the panel 12, and the panel 13 determined according to the focus information from the image associated with the information indicating the focal length (focus information). Based on the above, the image of the image area corresponding to each display unit 310 is cut out. For example, as described with reference to FIGS. 53 to 55, the cutout unit 375 is a display unit of each panel that is determined according to focus information when the three display units 310 of the electronic device 100 are captured from the first position. Based on the image areas (first, second, and third image areas described above) corresponding to the display areas of 310, images in the image areas corresponding to the respective display units 310 are selected from the images associated with the focus information. cut.

具体的には、前述したように記憶部390には、焦点情報に応じて定まるそれぞれの表示部310の表示領域に対応する画像領域が、表示部310のそれぞれに表示する画像領域の切り出し領域(画像切り出しパターン)として、焦点情報に関連付けて記憶されている。そして、切り出し部375は、焦点情報と関連付けられている画像から、焦点情報に応じて記憶部390から読み出した画像切り出しパターンに基づいて、複数の表示部310それぞれに対応する画像領域の画像を切り出す。   Specifically, as described above, in the storage unit 390, image regions corresponding to the display regions of the respective display units 310 determined according to the focus information are extracted from the image regions to be displayed on the respective display units 310 ( (Image cutout pattern) is stored in association with the focus information. Then, the cutout unit 375 cuts out an image of an image region corresponding to each of the plurality of display units 310 based on the image cutout pattern read from the storage unit 390 according to the focus information from the image associated with the focus information. .

変換部376は、切り出し部375が切り出したそれぞれの画像領域の画像を、対応する表示部310の表示領域に応じて変換する。例えば、変換部376は、図57から図59を用いて説明したように、切り出し部375が切り出した第1画像領域の画像、第2画像領域の画像、第3画像領域の画像それぞれを、対応する(表示する)表示部310の表示領域にあわせて変換する。   The conversion unit 376 converts the images of the respective image areas cut out by the cut-out unit 375 according to the display areas of the corresponding display unit 310. For example, as described with reference to FIGS. 57 to 59, the conversion unit 376 corresponds to each of the image of the first image region, the image of the second image region, and the image of the third image region cut out by the cutout unit 375. Conversion is performed in accordance with the display area of the display unit 310 that performs (displays).

具体的には、例えば変換部376は、図57に示すように、頂点P2と頂点P3と頂点P6と頂点P5とを結ぶ四角形の第1画像領域の画像を、頂点P2と頂点P3と頂点P6’と頂点P5’とを結ぶ四角形の画像領域の画像になるように全体を引き伸ばして変形させる射影変換をする。また、変換部376は、図58に示すように、頂点P1と頂点P2と頂点P5と頂点P4とを結ぶ四角形の第2画像領域の画像を、頂点P2と頂点P3と頂点P5’と頂点P6’とを結ぶ四角形の画像領域の画像になるように全体を引き伸ばして変形させる射影変換をする。また、変換部376は、図59に示すように、頂点P4と頂点P5と頂点P6と頂点P7とを結ぶ四角形の第3画像領域の画像を、頂点P4’と頂点P5と頂点P6’と頂点P7とを結ぶ四角形の画像領域の画像になるように全体を引き伸ばして変形させる射影変換をする。   Specifically, for example, as illustrated in FIG. 57, the conversion unit 376 converts the image of the first image area having a quadrangular shape connecting the vertex P2, the vertex P3, the vertex P6, and the vertex P5 to the vertex P2, the vertex P3, and the vertex P6. Projective transformation is performed to stretch and deform the entire image so as to form an image of a rectangular image region connecting “and the vertex P5”. Further, as shown in FIG. 58, the conversion unit 376 converts the image of the quadratic second image area connecting the vertex P1, the vertex P2, the vertex P5, and the vertex P4 into the vertex P2, the vertex P3, the vertex P5 ′, and the vertex P6. Projective transformation that stretches and deforms the whole image so that it becomes an image of a rectangular image area connecting with '. Further, as shown in FIG. 59, the conversion unit 376 converts the image of the third image area of the quadrangle connecting the vertex P4, the vertex P5, the vertex P6, and the vertex P7 into the vertex P4 ′, the vertex P5, the vertex P6 ′, and the vertex. Projective transformation is performed to enlarge and deform the entire image so as to form an image of a rectangular image region connecting P7.

そして、制御部370は、変換部376が変換したそれぞれの画像を、対応するそれぞれの表示部310に対して、表示制御部320を介して表示する。   Then, the control unit 370 displays each image converted by the conversion unit 376 on each corresponding display unit 310 via the display control unit 320.

このように、切り出し部375は、焦点距離を示す焦点情報と関連付けられている画像から、その焦点情報に応じて定まる表示部310それぞれの表示領域に対応する画像領域(画像切り出しパターン)に基づいて、表示部310それぞれに対応する画像領域の画像を切り出す。次に、変換部376は、切り出し部375が切り出したそれぞれの画像領域の画像を、対応する表示部310の表示領域に応じて変換する。そして、制御部370は、変換部376が変換したそれぞれの画像を、対応する表示部310に表示する。   As described above, the cutout unit 375 is based on an image region (image cutout pattern) corresponding to each display region of the display unit 310 determined according to the focus information from the image associated with the focus information indicating the focal length. Then, the image of the image area corresponding to each display unit 310 is cut out. Next, the conversion unit 376 converts the images of the respective image areas cut out by the cut-out unit 375 according to the display areas of the corresponding display units 310. Then, the control unit 370 displays each image converted by the conversion unit 376 on the corresponding display unit 310.

これにより、電子機器100は、三面直交配置しているパネル11、パネル12、およびパネル13のそれぞれの表示部310に、図51に示す穴Hの位置から見た場合に立体視可能なように(違和感なく見えるように)画像を表示することができる。例えば、電子機器100は、穴Hの位置から見た場合に、平面の表示面に画像が表示された場合と同様に違和感なく見えるように、三面直交配置しているパネル11、パネル12、およびパネル13のそれぞれの表示部310に画像を表示することができる。   Thereby, the electronic device 100 can be stereoscopically viewed when viewed from the position of the hole H shown in FIG. 51 on each of the display units 310 of the panel 11, the panel 12, and the panel 13 arranged in three planes. An image can be displayed (so that it looks uncomfortable). For example, when the electronic device 100 is viewed from the position of the hole H, the panel 11, the panel 12, and the panel 12 that are arranged in three planes so as to look like a case where an image is displayed on a flat display surface without any discomfort. Images can be displayed on the respective display portions 310 of the panel 13.

また、電子機器100は、画像が撮影されたときの焦点距離に応じた適切な画像切り出しパターンに基づいて画像を切り出して表示することができる。つまり、電子機器100は、焦点距離に応じて圧縮効果が異なる画像に対して、それぞれの圧縮効果に応じた適切な画像切り出しパターンに基づいて画像を切り出して表示することができる。よって、画像を撮影したときのレンズの焦点距離が様々に異なる場合であっても、電子機器100は、適切に画像を表示することができる。このように、電子機器100は、複数の表示部310(ディスプレイ)を有効に活用した制御をすることができる。   In addition, the electronic device 100 can cut out and display an image based on an appropriate image cutout pattern according to the focal length when the image is captured. That is, the electronic device 100 can cut out and display an image based on an appropriate image cutout pattern corresponding to each compression effect for images having different compression effects depending on the focal length. Therefore, the electronic device 100 can appropriately display an image even when the focal lengths of the lenses when the image is captured are variously different. As described above, the electronic device 100 can perform control using the plurality of display units 310 (displays) effectively.

図62から図66は、立体視表示の具体例を示す図である。切り出し部375は、図62に示す画像(平面画像)から、頂点P2と頂点P3と頂点P6と頂点P5とにより示される第1画像領域と、頂点P1と頂点P2と頂点P5と頂点P4とにより示される第2画像領域と、頂点P4と頂点P5と頂点P6と頂点P7とにより示される第3画像領域とを切り出す。   62 to 66 are diagrams showing specific examples of stereoscopic display. From the image (planar image) shown in FIG. 62, the cutout unit 375 includes a first image area indicated by a vertex P2, a vertex P3, a vertex P6, and a vertex P5, and a vertex P1, a vertex P2, a vertex P5, and a vertex P4. The second image area shown and the third image area shown by the vertex P4, the vertex P5, the vertex P6, and the vertex P7 are cut out.

次に、変換部376は、図63に示すように、第1画像領域の画像の頂点P6とP5の位置が、それぞれ正方形の頂点P6’とP5’の位置になるように、第1画像領域を変換する。また、変換部376は、図64に示すように、第2画像領域の画像の頂点P5とP4の位置が、それぞれ正方形の頂点P5’とP4’の位置になるように、第2画像領域を変換する。また、変換部376は、図65に示すように、第3画像領域の画像の頂点P4とP6の位置が、それぞれ正方形の頂点P4’とP6’の位置になるように、第3画像領域を変換する。   Next, as illustrated in FIG. 63, the conversion unit 376 causes the first image region so that the positions of the vertices P6 and P5 of the image of the first image region are the positions of the vertices P6 ′ and P5 ′ of the square, respectively. Convert. Further, as shown in FIG. 64, the conversion unit 376 changes the second image area so that the positions of the vertices P5 and P4 of the image of the second image area are the positions of the vertices P5 ′ and P4 ′ of the square, respectively. Convert. In addition, as illustrated in FIG. 65, the conversion unit 376 changes the third image area so that the positions of the vertices P4 and P6 of the image of the third image area are the positions of the square vertices P4 ′ and P6 ′, respectively. Convert.

そして、制御部370は、変換部376が変換した画像それぞれを、図66(a)に示すように、対応する表示部310(表示面11a、表示面12a、表示面13a)に表示する。なお図66(a)は、電子機器100に対して、図51に示す穴Hの位置に相当する位置よりも離れた位置から、電子機器100を見た場合の表示のイメージを示している。これに対して、図66(b)は、穴Hの位置に相当する位置から電子機器100に表示された画像を見た場合のイメージを示している。この図66(b)に示すように、電子機器100は、ユーザが穴Hの位置に相当する位置から違和感なく見えるように、切り出して変換した画像を表示することができる。すなわち、電子機器100は、図62に示す画像を、立体的に三面直交配置したパネルのそれぞれの表示部310に対して、1つの表示面に画像が表示されているかのように表示(立体視表示)することができる。   Then, the control unit 370 displays each of the images converted by the conversion unit 376 on the corresponding display unit 310 (display surface 11a, display surface 12a, display surface 13a) as shown in FIG. 66 (a). FIG. 66A shows an image of display when the electronic device 100 is viewed from a position away from the position corresponding to the position of the hole H shown in FIG. On the other hand, FIG. 66B shows an image when the image displayed on the electronic device 100 is viewed from a position corresponding to the position of the hole H. As shown in FIG. 66 (b), the electronic device 100 can display an image that has been cut out and converted so that the user can see from the position corresponding to the position of the hole H without a sense of incongruity. That is, the electronic device 100 displays the image shown in FIG. 62 as if the image is displayed on one display surface (stereoscopic view) on each display unit 310 of the panel arranged three-dimensionally in a three-dimensional manner. Display).

なお、制御部370は、パネル11と、パネル12と、パネル13とが図53に示すように三面直交配置されたことに応じて、上述した立体視表示をするように制御してもよい。すなわち、パネル11と、パネル12と、パネル13とのそれぞれの表示部310の表示面が、互いに直交するように且つ同じ方向からそれぞれの表示面が見えるように配置された場合、制御部370は、切り出し部375が切り出したそれぞれの画像領域の画像に対して変換部376が変換した画像それぞれを、対応する表示部310に表示してもよい。   Note that the control unit 370 may perform control so that the above-described stereoscopic display is performed in response to the panel 11, the panel 12, and the panel 13 being arranged in three planes orthogonally as illustrated in FIG. That is, when the display surfaces of the display units 310 of the panel 11, the panel 12, and the panel 13 are arranged so as to be orthogonal to each other and so that the display surfaces can be seen from the same direction, the control unit 370 Each of the images converted by the conversion unit 376 with respect to the images of the respective image regions cut out by the cut-out unit 375 may be displayed on the corresponding display unit 310.

制御部370が三面直交配置されたことに応じて立体視表示をするように制御する処理の動作について、図67を参照して具体的に説明する。   With reference to FIG. 67, a specific description will be given of the operation of the processing for controlling the stereoscopic display to be performed in accordance with the three-plane orthogonal arrangement of the control unit 370.

ヒンジセンサ部340と回転機構センサ部350とは、パネル11とパネル12とパネル13とのそれぞれ互いの相対位置をそれぞれ検出する(ステップS401)。具体的には、ヒンジセンサ部340は、ヒンジ部を介して接続されているパネル間の、ヒンジ部を介した相対的な位置をヒンジ位置情報として検出する。また、回転機構センサ部350は、回転機構を介して接続されているパネル間の、回転機構を介した相対的な位置を回転位置情報として検出する。   The hinge sensor unit 340 and the rotation mechanism sensor unit 350 detect the relative positions of the panel 11, the panel 12, and the panel 13, respectively (step S401). Specifically, the hinge sensor unit 340 detects a relative position between the panels connected via the hinge part via the hinge part as hinge position information. The rotation mechanism sensor unit 350 detects a relative position between the panels connected via the rotation mechanism via the rotation mechanism as rotation position information.

制御部370は、ヒンジセンサ部340の検出結果と回転機構センサ部350の検出結果とに基づいて、パネル11とパネル12とパネル13とが図53に示すような三面直交配置されているか否かを判定する(ステップS402)。   Based on the detection result of the hinge sensor unit 340 and the detection result of the rotation mechanism sensor unit 350, the control unit 370 determines whether the panel 11, the panel 12, and the panel 13 are arranged in three planes orthogonally as shown in FIG. Is determined (step S402).

ステップS402において、三面直交配置されていると判定された場合、制御部370は、立体視表示をする立体視表示モードに制御する(ステップS403)。すなわち、制御部370は、切り出し部375が切り出したそれぞれの画像領域の画像に対して変換部376が変換した画像それぞれを、対応する表示部310に表示する。   When it is determined in step S402 that the three surfaces are arranged orthogonally, the control unit 370 controls to a stereoscopic display mode for performing stereoscopic display (step S403). That is, the control unit 370 displays each of the images converted by the conversion unit 376 with respect to the images of the respective image regions cut out by the cutout unit 375 on the corresponding display units 310.

一方、ステップS402において、三面直交配置されていないと判定された場合、制御部370は、立体視表示モードではない通常の表示をする通常表示モードに制御する(ステップS404)。   On the other hand, when it is determined in step S402 that the three-plane orthogonal arrangement is not performed, the control unit 370 controls to a normal display mode that performs normal display other than the stereoscopic display mode (step S404).

このように、電子機器100は、パネル11と、パネル12と、パネル13との配置状態を検出する。これにより、電子機器100は、図53に示すように三面直交配置された場合に、上述した立体視表示をすることができる。   Thus, the electronic device 100 detects the arrangement state of the panel 11, the panel 12, and the panel 13. Thereby, the electronic device 100 can perform the stereoscopic display described above when the electronic device 100 is arranged in three planes orthogonally as shown in FIG.

図68は、電子機器100に装着して使用するアクセサリ900の一例を示す図である。アクセサリ900は、電子機器100に着脱可能であり、電子機器100の3つの表示部310に表示された画像を見る位置を示す形状が設けられたアクセサリである。
この図68に示すアクセサリ900は、立方体の底面が無い形状である。アクセサリ900の側面を面E、面F、面L、および面Mとし、上面を面Dとすると、面Dと面Eと面Fとによる頂点に穴Hが設けられている。
FIG. 68 is a diagram illustrating an example of an accessory 900 that is used by being mounted on the electronic device 100. The accessory 900 is an accessory that can be attached to and detached from the electronic device 100, and is provided with a shape that indicates a position for viewing an image displayed on the three display units 310 of the electronic device 100.
The accessory 900 shown in FIG. 68 has a shape having no cubic bottom. When the side surface of the accessory 900 is the surface E, the surface F, the surface L, and the surface M, and the upper surface is the surface D, a hole H is provided at the apex of the surface D, the surface E, and the surface F.

そして、このアクセサリ900は、電子機器100の上から被せるように装着可能である。例えば、電子機器100にアクセサリ900が装着されることにより、アクセサリ900の面Mおよび面Lの内側に電子機器100のパネル12およびパネル13が対応するように配置され、電子機器100のパネル11が、面D、面E、面F、面L、および面Mにより構成される立方体の底面になるように配置される。これにより、ユーザーは、電子機器100に表示された画像を、図51を用いて説明したようにアクセサリ900の穴Hから覗くことが可能である。よって、ユーザーは、アクセサリ900を用いて穴Hから覗くことにより、電子機器100に表示された画像を、立体視するための適切な位置(違和感なく見ることが可能な位置)から容易に見ることができる。   The accessory 900 can be mounted so as to cover the electronic device 100. For example, when the accessory 900 is attached to the electronic device 100, the panel 12 and the panel 13 of the electronic device 100 are arranged so as to correspond to the inside of the surface M and the surface L of the accessory 900, and the panel 11 of the electronic device 100 is arranged. , The surface D, the surface E, the surface F, the surface L, and the surface M. As a result, the user can look into the image displayed on the electronic device 100 from the hole H of the accessory 900 as described with reference to FIG. Therefore, the user can easily view the image displayed on the electronic device 100 from an appropriate position for stereoscopic viewing (a position where the user can see without a sense of incongruity) by looking through the hole H using the accessory 900. Can do.

なお、図68を用いて、アクセサリ900が、面D、面E、面F、面L、および面Mにより構成される例を示したが、面D、面E、および面Fのみにより構成されてもよい。また、アクセサリ900は、面構造で構成されていなくてもよく、穴Hの位置を示すような骨組み構造により構成されてもよい。   68, the example in which the accessory 900 is configured by the surface D, the surface E, the surface F, the surface L, and the surface M has been described. However, the accessory 900 is configured only by the surface D, the surface E, and the surface F. May be. Further, the accessory 900 may not be configured with a surface structure, and may be configured with a framework structure that indicates the position of the hole H.

なお、図51から図66を用いて説明した立体視において、表示対象となる画像は、既に撮像されている画像として説明したが、この画像は、電子機器100が備えるパネルに備えられているいずれかの撮像部150により撮像された画像であってもよい。またこの画像は、電子機器100とは異なる撮像装置により撮像された画像であってもよい。いずれの場合も画像と、画像が撮像されたときにおける撮像条件(焦点情報)とが関連付けられてさえいればよい。また、既に撮像された画像のみならず、スルー画に対しても、制御部370は、図51から図66を用いて説明した立体視の処理を施して、表示してもよい。   In the stereoscopic vision described with reference to FIGS. 51 to 66, the image to be displayed has been described as an already captured image. However, this image may be any of the panels included in the electronic device 100. An image captured by the image capturing unit 150 may be used. Further, this image may be an image captured by an imaging device different from electronic device 100. In any case, it is only necessary that the image is associated with the imaging condition (focus information) when the image is captured. Further, the control unit 370 may display not only the already captured image but also the through image by performing the stereoscopic processing described with reference to FIGS.

なお、図51から図66を用いて説明した立体視において、第1のヒンジ部21、および第2のヒンジ部22を介して連結された3枚のパネル11〜13が三面直交配置している電子機器100を例に説明したが、これに限られるものではない。例えば、3枚のパネル11〜13が三面直交配置で固定されており、パネルそれぞれの互いの相対位置が変位しない構成であってもよい。また、表示面が配置されているパネルの数は、3枚以外の複数枚であってもよい。   In addition, in the stereoscopic vision demonstrated using FIGS. 51-66, the three panels 11-13 connected via the 1st hinge part 21 and the 2nd hinge part 22 are arrange | positioned three-plane orthogonally. Although the electronic apparatus 100 has been described as an example, the present invention is not limited to this. For example, three panels 11 to 13 may be fixed in a three-plane orthogonal arrangement, and the relative positions of the panels may not be displaced. The number of panels on which the display surface is arranged may be a plurality of panels other than three.

なお、本実施形態では3枚のパネル11〜13を、第1のヒンジ部21、第2のヒンジ部22を介して連結した構成としたが、4枚以上のパネルが連結されていてもよい。本実施形態では、第1のパネル11と第1のヒンジ部21とからなるユニットを、順に連結することで、任意の枚数のパネルからなる電子機器を構成することができる。   In the present embodiment, the three panels 11 to 13 are connected via the first hinge part 21 and the second hinge part 22, but four or more panels may be connected. . In the present embodiment, an electronic device including an arbitrary number of panels can be configured by sequentially connecting units including the first panel 11 and the first hinge portion 21.

また、上述の制御部370の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述の制御部370の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   Further, the above-described control unit is recorded by recording a program for realizing the functions of the above-described control unit 370 on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium. The process of 370 may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design and the like within a scope not departing from the gist of the present invention.

11…第1のパネル、12…第2のパネル、13…第3のパネル、21…第1のヒンジ部、22…第2のヒンジ部、31,32…回転機構、100…電子機器、121…第1の接続体、122…第2の接続体、123…第3の接続体、124…第4の接続体、125…軸部材、125…第1の軸部材、126…第2の軸部材、127…第3の軸部材、132…回転軸、310…表示部、330…操作検出部、340…ヒンジセンサ部(角度検出部)、370…制御部、375…切り出し部、376…変換部、390…記憶部   DESCRIPTION OF SYMBOLS 11 ... 1st panel, 12 ... 2nd panel, 13 ... 3rd panel, 21 ... 1st hinge part, 22 ... 2nd hinge part, 31, 32 ... Rotation mechanism, 100 ... Electronic device, 121 ... 1st connection body, 122 ... 2nd connection body, 123 ... 3rd connection body, 124 ... 4th connection body, 125 ... shaft member, 125 ... 1st shaft member, 126 ... 2nd axis | shaft Member 127: Third shaft member 132 ... Rotating shaft 310 ... Display unit 330 ... Operation detection unit 340 Hinge sensor unit (angle detection unit) 370 Control unit 375 Cut-out unit 376 Conversion Part, 390 ... storage part

Claims (9)

複数の表示部と、
焦点距離を示す焦点情報と関連付けられている画像から、前記焦点情報に応じて定まる前記表示部それぞれの表示領域に対応する画像領域に基づいて、前記表示部それぞれに対応する画像領域の画像を切り出す切り出し部と、
前記切り出し部が切り出したそれぞれの画像領域の画像を、対応する前記表示部の表示領域に応じて変換する変換部と、
前記変換部が変換したそれぞれの画像を、対応する前記表示部に表示する制御部と、
を備えていることを特徴とする電子機器。
A plurality of display units;
An image in an image region corresponding to each display unit is cut out from an image associated with focus information indicating a focal length based on an image region corresponding to each display region determined in accordance with the focus information. A cutout section;
A conversion unit that converts an image of each image region cut out by the cutout unit according to a display region of the corresponding display unit;
A control unit that displays each image converted by the conversion unit on the corresponding display unit;
An electronic device comprising:
前記切り出し部は、
複数の前記表示部を第1の位置から撮影した場合の前記焦点情報に応じて定まる前記表示部それぞれの表示領域に対応する画像領域に基づいて、前記焦点情報と関連付けられている画像から、複数の前記表示部それぞれに対応する画像領域の画像を切り出す
ことを特徴とする請求項1に記載の電子機器。
The cutout part
From an image associated with the focus information, based on an image area corresponding to each display area of the display section determined according to the focus information when the plurality of display sections are photographed from a first position, The electronic apparatus according to claim 1, wherein an image in an image region corresponding to each of the display units is cut out.
前記第1の位置は、
複数の前記表示部に表示された画像をユーザが見る位置に基づいて定められる位置である
ことを特徴とする請求項2に記載の電子機器。
The first position is:
The electronic apparatus according to claim 2, wherein the electronic device is a position determined based on a position where a user views the images displayed on the plurality of display units.
複数の前記表示部は、
それぞれ互いの表示面が直交するように、且つ同じ方向からそれぞれの表示面が見えるように配置されている
ことを特徴とする請求項1から3の何れか一項に記載の電子機器。
The plurality of display units are
The electronic device according to any one of claims 1 to 3, wherein the electronic devices are arranged so that the display surfaces are orthogonal to each other and the display surfaces can be seen from the same direction.
前記焦点情報に応じて定まるそれぞれの前記表示部の表示領域に対応する画像領域を、前記表示部のそれぞれに表示する画像領域の切り出し領域として、前記焦点情報に関連付けて記憶する記憶部、
を備え、
前記切り出し部は、
前記焦点情報と関連付けられている画像から、前記焦点情報に応じて前記記憶部から読み出した前記切り出し領域に基づいて、複数の前記表示部それぞれに対応する画像領域の画像を切り出す
ことを特徴とする請求項1から4の何れか一項に記載の電子機器。
A storage unit that stores an image region corresponding to a display region of each display unit determined according to the focus information in association with the focus information as a cutout region of an image region displayed on each of the display units,
With
The cutout part
An image of an image region corresponding to each of the plurality of display units is cut out from an image associated with the focus information based on the cut-out region read from the storage unit according to the focus information. The electronic device as described in any one of Claim 1 to 4.
第1のパネルと、
前記第1のパネルの第1の辺に設けられた第1のヒンジ部を介して前記第1のパネルに連結された第2のパネルと、
前記第1のパネルの前記第1の辺と隣り合う第2の辺に設けられた第2のヒンジ部を介して前記第1のパネルに連結された第3のパネルと、
を備え、
複数の前記表示部のそれぞれは、
前記第1のパネル、前記第2のパネル、および前記第3のパネルの何れかに配置されている
ことを特徴とする請求項1から5の何れか一項に記載の電子機器。
A first panel;
A second panel connected to the first panel via a first hinge provided on a first side of the first panel;
A third panel connected to the first panel via a second hinge provided on a second side adjacent to the first side of the first panel;
With
Each of the plurality of display units is
The electronic apparatus according to any one of claims 1 to 5, wherein the electronic apparatus is disposed on any of the first panel, the second panel, and the third panel.
前記第1のパネル、前記第2のパネル、および前記第3のパネルそれぞれの前記表示部の表示面が、互いに直交するように且つ同じ方向からそれぞれの表示面が見えるように配置された場合、
前記制御部は、
前記切り出し部が切り出したそれぞれの画像領域の画像に対して前記変換部が変換した画像それぞれを、対応するそれぞれの前記表示部に表示する
ことを特徴とする請求項6に記載の電子機器。
When the display surfaces of the display units of the first panel, the second panel, and the third panel are arranged so as to be orthogonal to each other and visible from the same direction,
The controller is
The electronic apparatus according to claim 6, wherein each of the images converted by the conversion unit with respect to the image of each image region cut out by the cut-out unit is displayed on the corresponding display unit.
請求項1から7に記載の電子機器に着脱可能であり、複数の前記表示部に表示された画像を見る位置を示す形状が設けられたアクセサリ、
を備えることを特徴とする電子機器。
An accessory that is detachable from the electronic device according to claim 1 and is provided with a shape that indicates a position for viewing images displayed on the plurality of display units,
An electronic device comprising:
複数の表示部を有する電子機器が備えるコンピュータに、
焦点距離を示す焦点情報と関連付けられている画像から、前記焦点情報に応じて定まる前記表示部それぞれの表示領域に対応する画像領域に基づいて、前記表示部それぞれに対応する画像領域の画像を切り出す切り出しステップと、
前記切り出しステップにおいて切り出したそれぞれの画像領域の画像を、対応する前記表示部の表示領域に応じて変換する変換ステップと、
前記変換ステップにおいて変換したそれぞれの画像を、対応する前記表示部に表示する制御ステップと、
を実行させるためのプログラム。
In a computer included in an electronic device having a plurality of display units,
An image in an image region corresponding to each display unit is cut out from an image associated with focus information indicating a focal length based on an image region corresponding to each display region determined in accordance with the focus information. A cutting step;
A conversion step of converting the image of each image region cut out in the cutout step according to the corresponding display region of the display unit;
A control step of displaying each image converted in the conversion step on the corresponding display unit;
A program for running
JP2012079069A 2012-02-22 2012-03-30 Electronic device and program Pending JP2013200854A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012079069A JP2013200854A (en) 2012-02-22 2012-03-30 Electronic device and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012036705 2012-02-22
JP2012036705 2012-02-22
JP2012079069A JP2013200854A (en) 2012-02-22 2012-03-30 Electronic device and program

Publications (1)

Publication Number Publication Date
JP2013200854A true JP2013200854A (en) 2013-10-03

Family

ID=49521012

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2012079068A Pending JP2013200853A (en) 2012-02-22 2012-03-30 Electronic device
JP2012079067A Pending JP2013200852A (en) 2012-02-22 2012-03-30 Electronic device
JP2012079070A Pending JP2013200855A (en) 2012-02-22 2012-03-30 Electronic device and program
JP2012079069A Pending JP2013200854A (en) 2012-02-22 2012-03-30 Electronic device and program

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2012079068A Pending JP2013200853A (en) 2012-02-22 2012-03-30 Electronic device
JP2012079067A Pending JP2013200852A (en) 2012-02-22 2012-03-30 Electronic device
JP2012079070A Pending JP2013200855A (en) 2012-02-22 2012-03-30 Electronic device and program

Country Status (1)

Country Link
JP (4) JP2013200853A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017007033A (en) * 2015-06-22 2017-01-12 シャープ株式会社 robot
JP2017086492A (en) * 2015-11-10 2017-05-25 株式会社Cygames Program, electronic device, system, and method for improving user input operability

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017000986B4 (en) 2016-03-23 2020-02-20 Fujifilm Corporation Digital camera and display method of a digital camera
JP6598753B2 (en) 2016-10-07 2019-10-30 任天堂株式会社 Game system
JP2019176531A (en) * 2019-07-22 2019-10-10 中松 義郎 Super smartphone
JP7038153B2 (en) 2020-02-13 2022-03-17 任天堂株式会社 Information processing system, information processing device, information processing program, and information processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7237202B2 (en) * 2004-05-11 2007-06-26 Cynthia Joanne Gage Multiple document viewing apparatus and user interface
JP4708294B2 (en) * 2006-09-28 2011-06-22 京セラ株式会社 Portable electronic devices
WO2009066382A1 (en) * 2007-11-21 2009-05-28 Pioneer Corporation Display region enlarging device and on-vehicle unit

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017007033A (en) * 2015-06-22 2017-01-12 シャープ株式会社 robot
JP2017086492A (en) * 2015-11-10 2017-05-25 株式会社Cygames Program, electronic device, system, and method for improving user input operability

Also Published As

Publication number Publication date
JP2013200853A (en) 2013-10-03
JP2013200852A (en) 2013-10-03
JP2013200855A (en) 2013-10-03

Similar Documents

Publication Publication Date Title
EP3023856B1 (en) Mobile terminal and method for controlling the same
EP2039405B1 (en) Imaging apparatus
US8917985B2 (en) Imaging apparatus
US9264694B2 (en) Hand-held imaging apparatus and storage medium storing program
US7817142B2 (en) Imaging apparatus
KR102549787B1 (en) Electronic device and its control method
US9774360B2 (en) Mobile terminal and method for controlling the same
CN106406688B (en) Mobile terminal and its control method
US20150205457A1 (en) Mobile terminal and controlling method thereof
JP2013200854A (en) Electronic device and program
US9743067B2 (en) Methods and devices for generating a stereoscopic image
US12406330B2 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
CN102378023A (en) Image processing apparatus, image processing method, and program
US20220385882A1 (en) Information processing apparatus, control method, and non-transitory computer readable medium
US20250184600A1 (en) Electronic apparatus, control method, and non-transitory computer readable medium
KR20160057225A (en) Mobile terminal and method for controlling the same
RU2740119C1 (en) Display control device, image forming device, control method and computer-readable medium
JP2020108112A (en) Electronic device and control method thereof
JP2022002393A (en) Image processing device, image data providing device, photographing game device, image data providing system, image display method, and image display program
US10937217B2 (en) Electronic device and control method thereof for generating edited VR content
JP2020108098A (en) Electronic device and control method thereof
JP2020107270A (en) Electronic device and control method thereof
JP2020108114A (en) Electronic device and control method thereof
EP2039400A2 (en) Hand-held imaging apparatus and storage medium storing program
JP2020108111A (en) Electronic device and control method of the same