[go: up one dir, main page]

JP2020086014A - Wearable device - Google Patents

Wearable device Download PDF

Info

Publication number
JP2020086014A
JP2020086014A JP2018216970A JP2018216970A JP2020086014A JP 2020086014 A JP2020086014 A JP 2020086014A JP 2018216970 A JP2018216970 A JP 2018216970A JP 2018216970 A JP2018216970 A JP 2018216970A JP 2020086014 A JP2020086014 A JP 2020086014A
Authority
JP
Japan
Prior art keywords
image
unit
axis
wearable device
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2018216970A
Other languages
Japanese (ja)
Inventor
白井 雅実
Masami Shirai
雅実 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018216970A priority Critical patent/JP2020086014A/en
Publication of JP2020086014A publication Critical patent/JP2020086014A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Accessories Of Cameras (AREA)
  • Studio Devices (AREA)

Abstract

【課題】至近距離での死角をなくす。
【解決手段】ウェアラブル装置は、生体に掛けられるように、生体の装着箇所に沿った形状を有する掛け部と、掛け部の夫々異なる箇所に連結支持された一対の撮影部とを備える。一対の撮影部の各々は、撮影向きが変わるように、掛け部の夫々異なる箇所に回転可能に連結支持されている。
【選択図】図1
PROBLEM TO BE SOLVED: To eliminate a blind spot at a close range.
A wearable device includes a hanging portion having a shape along a living body mounting portion so as to be worn on a living body, and a pair of imaging units connected and supported at different portions of the hanging portion. Each of the pair of photographing units is rotatably connected to and supported by different portions of the hanging unit so that the photographing direction changes.
[Selection diagram] Figure 1

Description

本発明は、ウェアラブル装置に関する。 The present invention relates to wearable devices.

生体に装着して使用するウェアラブル装置が知られている。この種のウェアラブル装置の具体的構成が例えば特許文献1に記載されている。 A wearable device mounted on a living body for use is known. A specific configuration of this type of wearable device is described in Patent Document 1, for example.

特許文献1に記載のウェアラブル装置は、ネックレス型の装置であり、装着者の周囲を撮影することが可能な複数の撮影部が設けられている。 The wearable device described in Patent Document 1 is a necklace-type device and is provided with a plurality of image capturing units capable of capturing an image of the wearer's surroundings.

特開2016−186786号公報JP, 2016-186786, A 特開2017−17689号公報JP, 2017-17689, A

一対の撮影部を用いて全天球画像を取得する全天球カメラが知られている(例えば特許文献2参照)。このような全天球カメラの仕組みを、特許文献1に例示されるウェアラブル装置に応用することが考えられる。 There is a known spherical camera that acquires a spherical image using a pair of imaging units (see, for example, Patent Document 2). It is conceivable to apply such a mechanism of the spherical camera to the wearable device exemplified in Patent Document 1.

図8に、全天球カメラの仕組みを搭載したウェアラブル装置200と、このウェアラブル装置200を装着した装着者を示す。図8の構成例によれば、全天球画像を取得するための一対の撮影部210がウェアラブル装置200のネックレス紐部220の各端部に設けられている。 FIG. 8 shows a wearable device 200 equipped with a mechanism of a spherical camera and a wearer wearing the wearable device 200. According to the configuration example of FIG. 8, a pair of image capturing units 210 for acquiring a spherical image is provided at each end of the necklace string unit 220 of the wearable device 200.

一対の撮影部210は、装着者の頭部によるケラレの発生を避けるため(言い換えると、撮影範囲(画角)内に装着者の頭部が入らないようにするため)、互いに間隔を空けて配置される。そのため、図8に示されるように、撮影部210の撮影範囲が広い場合であっても、例えば撮影者の頭部前方の至近距離に、撮影することのできない死角(図8中、斜線部領域)が生じる。 The pair of imaging units 210 are spaced apart from each other in order to avoid vignetting due to the wearer's head (in other words, to prevent the wearer's head from entering the imaging range (angle of view)). Will be placed. Therefore, as shown in FIG. 8, even when the image capturing section 210 has a wide image capturing range, for example, a blind spot (a shaded area in FIG. 8) incapable of capturing an image at a close distance in front of the photographer's head. ) Occurs.

本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、至近距離での死角をなくすことが可能なウェアラブル装置を提供することである。 The present invention has been made in view of the above circumstances, and an object thereof is to provide a wearable device capable of eliminating a blind spot at a close range.

本発明の一実施形態に係るウェアラブル装置は、生体に掛けられるように、生体の装着箇所に沿った形状を有する掛け部と、掛け部の夫々異なる箇所に連結支持された一対の撮影部とを備える。一対の撮影部の各々は、撮影向きが変わるように、掛け部の夫々異なる箇所に回転可能に連結支持されている。 A wearable device according to an embodiment of the present invention includes a hanging portion having a shape along a living body mounting portion so as to be worn on a living body, and a pair of imaging units connected and supported at different portions of the hanging portion. Prepare Each of the pair of photographing units is rotatably connected to and supported by a different portion of the hanging unit so that the photographing direction changes.

本発明の一実施形態によれば、至近距離での死角をなくすことが可能なウェアラブル装置が提供される。 According to an embodiment of the present invention, a wearable device capable of eliminating a blind spot at a close range is provided.

本発明の一実施形態に係るウェアラブル装置の構成を示す斜視図である。It is a perspective view showing composition of a wearable device concerning one embodiment of the present invention. 本発明の一実施形態に係るウェアラブル装置の構成を示すブロック図である。It is a block diagram which shows the structure of the wearable apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係るウェアラブル装置をユーザ(装着者)に装着した状態を示す図である。It is a figure showing the state where the wearable device concerning one embodiment of the present invention was worn by the user (wearer). 図4(a)は、本発明の一実施形態において、図1に示される初期状態から、ウェアラブル装置の左右の撮影レンズが正面を向くように、ウェアラブル装置の左右の撮影部をヨー方向に90°回転させた状態を示す図である。図4(b)は、図4(a)に示される状態での撮影範囲を示す図である。FIG. 4A illustrates the left and right imaging units of the wearable device 90 in the yaw direction from the initial state shown in FIG. 1 so that the left and right imaging lenses of the wearable device face the front in the embodiment of the present invention. It is a figure which shows the state rotated by °. FIG. 4B is a diagram showing the shooting range in the state shown in FIG. 図5(a)〜図5(c)は、主に、本発明の一実施形態に係るウェアラブル装置のネックマウント部と撮影部とを連結する連結部の構成を示す図である。図5(d)〜図5(f)は、本発明の一実施形態に係るウェアラブル装置の連結部が備えるバネ部材の切欠き部と角度規制部材との位置関係を示す図である。FIG. 5A to FIG. 5C are diagrams mainly showing a configuration of a connection unit that connects the neck mount unit and the imaging unit of the wearable device according to the embodiment of the present invention. 5D to 5F are views showing the positional relationship between the notch portion of the spring member and the angle regulating member included in the connecting portion of the wearable device according to the embodiment of the present invention. 本発明の一実施形態に係るウェアラブル装置が備えるストレージに格納された、撮影部の外部定位の情報を示す図である。It is a figure which shows the information of the external localization of the imaging|photography part stored in the storage with which the wearable apparatus which concerns on one Embodiment of this invention is equipped. 図7(a)は、本発明の別の一実施形態に係るウェアラブル装置が備える連結部の断面図である。図7(b)は、本発明の別の一実施形態に係るウェアラブル装置が備えるストレージに格納された、撮影部のポジションと、エンコーダの回転ディスクの角度位置とを関連付けたテーブルを示す図である。FIG. 7A is a cross-sectional view of a connecting portion included in a wearable device according to another embodiment of the present invention. FIG. 7B is a diagram showing a table in which the position of the imaging unit and the angular position of the rotary disk of the encoder are stored in the storage of the wearable device according to another embodiment of the present invention in association with each other. .. 全天球カメラの仕組みを搭載したウェアラブル装置と、このウェアラブル装置を装着した装着者を示す図である。It is a figure which shows the wearable apparatus which mounts the mechanism of an omnidirectional camera, and the wearer who wears this wearable apparatus.

以下、本発明の一実施形態に係るウェアラブル装置について図面を参照しながら説明する。 Hereinafter, a wearable device according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係るウェアラブル装置1の構成を示す斜視図である。図2は、ウェアラブル装置1の構成を示すブロック図である。図3は、ウェアラブル装置1をユーザ(装着者)に装着した状態を示す図である。本実施形態において、ウェアラブル装置1は、ユーザの首に掛けるネックレス型の装置であるが、ユーザの頭部や手首などの別の部位に掛けるタイプの装置であってもよい。 FIG. 1 is a perspective view showing a configuration of a wearable device 1 according to an embodiment of the present invention. FIG. 2 is a block diagram showing the configuration of the wearable device 1. FIG. 3 is a diagram showing a state in which the wearable device 1 is worn by a user (wearer). In the present embodiment, the wearable device 1 is a necklace-type device that is worn on the user's neck, but it may be a device that is worn on another site such as the user's head or wrist.

以下の説明においては、図1中、上下に延びる上下方向をZ軸方向と記し、Z軸方向と直交する水平面内の方向であって、前後に延びる前後方向をX軸方向と記し、Z軸方向と直交する水平面内の方向であって、左右に延びる左右方向をY軸方向と記す。 In the following description, in FIG. 1, the up-down direction that extends vertically is referred to as the Z-axis direction, the direction in the horizontal plane that is orthogonal to the Z-axis direction, and the forward-backward direction that extends back and forth is referred to as the X-axis direction, and the Z-axis direction. A horizontal direction that is orthogonal to the direction and that extends in the left-right direction is referred to as a Y-axis direction.

図1に示されるように、ウェアラブル装置1は、ユーザの首に掛けられるように、首に沿った略U字形状を有するネックマウント部(掛け部)100を備える。ネックマウント部100は、例えば、中空の天然ゴム、柔軟性織物、合成樹脂、革、金属又は非金属ワイヤからなり、内部に信号ケーブル130(図4参照)が引き回されている。 As shown in FIG. 1, the wearable device 1 includes a neck mount part (hanging part) 100 having a substantially U-shape along the neck so that the wearable device 1 can be hung on the user's neck. The neck mount portion 100 is made of, for example, hollow natural rubber, flexible fabric, synthetic resin, leather, metal or non-metal wire, and the signal cable 130 (see FIG. 4) is routed inside.

ネックマウント部100の各端部には、連結部102が設けられている。一対の撮影部110(110R、110L)の各々が、各連結部102を介してネックマウント部100に連結支持されている。ネックマウント部100の中央部には、電気回路を収容したボックス120が設けられている。ネックマウント部100の撮影部110R付近には、操作スイッチ群36が設けられている。 A connecting portion 102 is provided at each end of the neck mount portion 100. Each of the pair of imaging units 110 (110R, 110L) is connected and supported by the neck mount unit 100 via each connecting unit 102. A box 120 containing an electric circuit is provided in the center of the neck mount 100. An operation switch group 36 is provided near the imaging unit 110R of the neck mount unit 100.

ウェアラブル装置1は、例えば、特許文献2に示される全天球画像を撮影可能となっている。 The wearable device 1 is capable of capturing the omnidirectional image disclosed in Patent Document 2, for example.

図2に示されるように、撮影部110Rには、撮影レンズ10R及び撮像素子12Rが備えられ、撮影部110Lには、撮影レンズ10L及び撮像素子12Lが備えられている。 As shown in FIG. 2, the photographing unit 110R includes a photographing lens 10R and an image sensor 12R, and the photographing unit 110L includes a photographing lens 10L and an image sensor 12L.

本実施形態では、以下に説明するように、2組の撮影レンズ及び撮像素子によって撮影された2枚の撮影画像を繋ぎ合せて単一の合成画像(全天球画像)を生成する構成となっているが、別の実施形態では、3組以上の撮影レンズ及び撮像素子によって撮影された3枚以上の撮影画像を繋ぎ合せて単一の合成画像を生成する構成としてもよい。 In the present embodiment, as will be described below, a configuration in which two captured images captured by two sets of imaging lenses and image pickup devices are joined together to generate a single composite image (a spherical image). However, in another embodiment, a configuration may be adopted in which three or more photographed images photographed by three or more photographing lenses and image pickup elements are combined to generate a single composite image.

図2に示されるように、ウェアラブル装置1は、撮影レンズ10R、10L、撮像素子12R及び12Lに加えて、画像処理部14、CPU(Central Processing Unit)16、ROM(Read Only Memory)18、RAM(Random Access Memory)20、RAMインタフェース22、ストレージ24、ストレージインタフェース26、3軸加速度センサ28、バッテリ30、モータ32、34及び操作スイッチ群36を備える。 As shown in FIG. 2, the wearable device 1 includes an image processing unit 14, a CPU (Central Processing Unit) 16, a ROM (Read Only Memory) 18, and a RAM in addition to the taking lenses 10R and 10L and the image pickup devices 12R and 12L. A (Random Access Memory) 20, a RAM interface 22, a storage 24, a storage interface 26, a triaxial acceleration sensor 28, a battery 30, motors 32 and 34, and an operation switch group 36 are provided.

操作スイッチ群36には、電源スイッチやレリーズスイッチ、操作ダイヤル、操作キーなど、ユーザがウェアラブル装置1を操作するために必要な各種操作部が含まれる。ユーザにより電源スイッチが押されると、バッテリ30からウェアラブル装置1の各部に電源が供給される。CPU16は、ROM18にアクセスして制御プログラムをワークエリアにロードし、ロードされた制御プログラムを実行することにより、ウェアラブル装置1全体の制御を行う。 The operation switch group 36 includes various operation units necessary for the user to operate the wearable device 1, such as a power switch, a release switch, an operation dial, and operation keys. When the power switch is pressed by the user, power is supplied from the battery 30 to each part of the wearable device 1. The CPU 16 controls the wearable device 1 as a whole by accessing the ROM 18 to load the control program into the work area and executing the loaded control program.

撮影レンズ10Rと撮影レンズ10Lは、同一の光学性能を有する魚眼レンズ(又は広角レンズ)であり、180度を超える画角(撮影範囲)を有している。以下、撮影レンズ10Rの光軸を「光軸AXR」と記し、撮影レンズ10Lの光軸を「光軸AXL」と記す。 The taking lens 10R and the taking lens 10L are fish-eye lenses (or wide-angle lenses) having the same optical performance, and have an angle of view (shooting range) exceeding 180 degrees. Hereinafter, the optical axis of the taking lens 10R will be referred to as “optical axis AXR”, and the optical axis of the taking lens 10L will be referred to as “optical axis AXL”.

撮像素子12Rは、撮像面の中心(有効画素領域の中心)が撮影レンズ10Rの光軸AXRと直交し且つ撮像面が撮影レンズ10Rの結像面となる位置に設置されている。撮像素子12Lは、撮像面の中心(有効画素領域の中心)が撮影レンズ10Lの光軸AXLと直交し且つ撮像面が撮影レンズ10Lの結像面となる位置に設置されている。 The image pickup element 12R is installed at a position where the center of the image pickup surface (the center of the effective pixel area) is orthogonal to the optical axis AXR of the taking lens 10R and the image pickup surface is the image forming surface of the taking lens 10R. The image pickup element 12L is installed at a position where the center of the image pickup surface (the center of the effective pixel area) is orthogonal to the optical axis AXL of the image pickup lens 10L and the image pickup surface becomes the image forming surface of the image pickup lens 10L.

詳しくは後述するが、撮影部110R、撮影部110Lは、それぞれ、連結部102を介してネックマウント部100に2軸方向に回転可能に連結支持されている。撮影部110Rと撮影部110Lは、初期的には、図1に示されるように、撮影レンズ10Rの光軸AXRと撮影レンズ10Lの光軸AXLが同軸(共にY軸方向)に位置し且つ撮影レンズ10Rと撮影レンズ10Lとが互いに逆方向を向く姿勢で位置している。 As will be described later in detail, the image capturing unit 110R and the image capturing unit 110L are connected to and supported by the neck mount unit 100 via the connecting unit 102 so as to be rotatable in two axial directions. As shown in FIG. 1, the photographing unit 110R and the photographing unit 110L are initially positioned such that the optical axis AXR of the photographing lens 10R and the optical axis AXL of the photographing lens 10L are coaxial (both in the Y-axis direction) and photographing is performed. The lens 10R and the taking lens 10L are positioned so as to face opposite directions.

撮像素子12Rと撮像素子12Lは、同一仕様(有効画素数や画素サイズ等が同一)のイメージセンサである。例示的には、撮像素子12R、12Lは、ベイヤ配列フィルタを搭載したCMOS(Complementary Metal Oxide Semiconductor)イメージセンサであり、それぞれ、対応する撮影レンズ10R、12Lを介して撮像面上の各画素で結像した光学像を光量に応じた電荷として蓄積する。撮像素子12R、12Lは、蓄積された電荷をフローティングディフュージョンアンプにて電圧(以下「画像信号」と記す。)に変換する。撮像素子12R、12Lより出力された画像信号は、画像処理部14に入力される。撮像素子12R、12Lは、CCD(Charge Coupled Device)イメージセンサであってもよく、また、補色系フィルタを搭載したイメージセンサであってもよい。ネックマウント検討(首固定)
The image sensor 12R and the image sensor 12L are image sensors having the same specifications (the same number of effective pixels, the same pixel size, etc.). Illustratively, the image pickup devices 12R and 12L are CMOS (Complementary Metal Oxide Semiconductor) image sensors equipped with Bayer array filters, and are connected by respective pixels on the image pickup surface via the corresponding taking lenses 10R and 12L. The imaged optical image is accumulated as electric charge according to the amount of light. The image pickup devices 12R and 12L convert the accumulated charges into a voltage (hereinafter referred to as “image signal”) by a floating diffusion amplifier. The image signals output from the image pickup devices 12R and 12L are input to the image processing unit 14. The image pickup devices 12R and 12L may be CCD (Charge Coupled Device) image sensors, or may be image sensors equipped with complementary color filters. Neck mount examination (fixed neck)

画像処理部14は、撮像素子12R、12Lより入力される画像データに対して所定の信号処理を施す。なお、説明の便宜上、各画素の画像信号を含む撮影画像一枚分のデータを「画像データ」と記す。また、説明の便宜上、撮像素子12Rより入力されて画像処理部14内で処理される画像データを「画像データDA」と記し、撮像素子12Lより入力されて画像処理部14内で処理される画像データを「画像データDB」と記す。 The image processing unit 14 performs predetermined signal processing on the image data input from the image pickup devices 12R and 12L. For the sake of convenience of description, the data of one captured image including the image signal of each pixel will be referred to as “image data”. For convenience of description, image data input from the image sensor 12R and processed in the image processing unit 14 is referred to as “image data DA”, and an image input from the image sensor 12L and processed in the image processing unit 14 is described. The data will be referred to as "image data DB".

画像処理部14は、画像データDA、DBに対して、OB(Optical Black)補正処理、欠陥画素補正処理、リニア(Linear)補正処理、シェーディング(Shading)補正処理、領域分割平均処理を行い、領域分割平均処理後の画像データDA、DBをRAMインタフェース22を介してRAM20に保存する。 The image processing unit 14 performs OB (Optical Black) correction processing, defective pixel correction processing, linear correction processing, shading correction processing, and area division averaging processing on the image data DA and DB, The image data DA and DB after the division averaging process are stored in the RAM 20 via the RAM interface 22.

ROM18には、例えば製造時の検査工程で検出された撮像素子12R及び12Lの欠陥画素の情報(アドレス)が予め記憶されている。欠陥画素補正処理では、ROM18に記憶されたアドレスの欠陥画素に対し、隣接する複数の画素からの合成信号に基づく画素値の補正が行われる。 Information (addresses) of defective pixels of the image pickup devices 12R and 12L detected in the inspection process at the time of manufacture is stored in the ROM 18 in advance. In the defective pixel correction process, the pixel value of the defective pixel at the address stored in the ROM 18 is corrected based on the combined signal from a plurality of adjacent pixels.

画像処理部14は、次いで、RAM20に保存された画像データDA、DBに対して、ホワイトバランス処理、ガンマ(γ)補正処理、ベイヤ補間処理、YUV変換処理、エッジ強調処理及び色補正処理を行い、色補正処理後の画像データDA、DBをRAMインタフェース22を介してRAM20に保存する。 The image processing unit 14 then performs white balance processing, gamma (γ) correction processing, Bayer interpolation processing, YUV conversion processing, edge enhancement processing, and color correction processing on the image data DA and DB stored in the RAM 20. The image data DA and DB after the color correction processing are stored in the RAM 20 via the RAM interface 22.

画像処理部14は、RAM20に保存された色補正処理後の画像データDA、DBに対してクロップ処理を施し、次いで、歪曲補正処理及び合成処理を施す。歪曲補正処理では、2つの画像データDA、DBに対して、3軸加速度センサ28より出力される情報をもとに歪曲補正及び天地補正(傾き補正)が施される。合成処理では、歪曲補正処理後の2つの画像データDA、DBが合成されて(言い換えると、撮像素子12R、12Lによって撮像された2枚の撮影画像が繋ぎ合わされて)、全天球画像(立体角4πラジアンの画像)データが生成される。 The image processing unit 14 performs crop processing on the image data DA and DB after color correction processing stored in the RAM 20, and then performs distortion correction processing and composition processing. In the distortion correction process, distortion correction and vertical correction (tilt correction) are performed on the two image data DA and DB based on the information output from the triaxial acceleration sensor 28. In the combining process, the two pieces of image data DA and DB after the distortion correction process are combined (in other words, the two picked-up images picked up by the image pickup devices 12R and 12L are joined together), and a spherical image (stereoscopic image). The image data of the angle 4π radian is generated.

なお、画像処理部14は、画像データDA、DBの夫々を単独の画像データとして別個に保存することもできる。 The image processing unit 14 can also separately store each of the image data DA and DB as individual image data.

画像処理部14は、全天球画像データをJPEG(Joint Photographic Experts Group)等の所定のフォーマットで圧縮する。圧縮後の全天球画像データは、ストレージインタフェース26を介してストレージ24に保存される。ストレージ24は、例えばmicroSDカードである。 The image processing unit 14 compresses the spherical image data in a predetermined format such as JPEG (Joint Photographic Experts Group). The compressed spherical image data is stored in the storage 24 via the storage interface 26. The storage 24 is, for example, a microSD card.

全天球画像データは、Wi-FiやBluetooth(登録商標)等の無線経由でPCやスマートフォン等の外部装置に転送されてもよい。ユーザは、撮影した全天球画像を外部装置の画面で見ることができる。なお、ウェアラブル装置1と外部装置との接続は無線に限らず優先であってもよい。 The spherical image data may be transferred to an external device such as a PC or a smartphone via a wireless communication such as Wi-Fi or Bluetooth (registered trademark). The user can view the captured spherical image on the screen of the external device. The connection between the wearable device 1 and the external device is not limited to the wireless connection, and may be prioritized.

撮影部110Rと撮影部110Lは、ユーザの頭部によるケラレの発生を避けるため、ケラレが発生しにくいユーザの顎付近に互いに間隔を空けて配置されている。そのため、例えばユーザの頭部前方の至近距離に、撮影することのできない死角が生じる(図8参照)。撮影部110Rと撮影部110Lは、このような死角をなくして至近距離を撮影するため、ネックマウント部100に2軸方向に回転可能に連結支持されている。 The image capturing unit 110R and the image capturing unit 110L are spaced apart from each other near the user's chin in which vignetting is less likely to occur, in order to avoid the occurrence of vignetting due to the user's head. Therefore, for example, a blind spot that cannot be photographed occurs at a close distance in front of the user's head (see FIG. 8 ). The image capturing unit 110R and the image capturing unit 110L are rotatably supported by the neck mount unit 100 so as to be rotatable in two axial directions in order to eliminate such blind spots and capture a close-up image.

具体的には、撮影部110Rは、ネックマウント部100に対し、ロール方向(光軸AXRと直交する第1軸AXR1周りの方向)及びヨー方向(光軸AXRと直交しかつ第1軸AXR1と直交する第2軸AXR2周りの方向)に回転可能となっている。撮影部110Lは、同じくネックマウント部100に対し、ロール方向(光軸AXLと直交する第1軸AXL1周りの方向)及びヨー方向(光軸AXLと直交しかつ第1軸AXL1と直交する第2軸AXL2周りの方向)に回転可能となっている。 Specifically, the image capturing unit 110R is configured such that the roll direction (direction around the first axis AXR1 orthogonal to the optical axis AXR) and the yaw direction (orthogonal to the optical axis AXR and the first axis AXR1) with respect to the neck mount unit 100. It is rotatable about a second axis AXR2 which is orthogonal to each other. Similarly to the neck mount unit 100, the imaging unit 110L includes a second roll direction (a direction around the first axis AXL1 orthogonal to the optical axis AXL) and a yaw direction (orthogonal to the optical axis AXL and orthogonal to the first axis AXL1). It is rotatable about the axis AXL2).

ユーザは、操作スイッチ群36に含まれるスイッチ類を操作することにより、撮影部110R及び撮影部110Lをロール方向やヨー方向に任意に回転させることができる。 By operating the switches included in the operation switch group 36, the user can arbitrarily rotate the photographing units 110R and 110L in the roll direction or the yaw direction.

図4(a)は、図1に示される初期状態から、撮影レンズ10R及び撮影レンズ10Lが正面を向くように、撮影部110R及び撮影部110Lをヨー方向に90°回転させた状態を示す。図4(b)に、図4(a)に示される状態での撮影範囲を示す。 FIG. 4A shows a state in which the photographing unit 110R and the photographing unit 110L are rotated by 90° in the yaw direction from the initial state shown in FIG. 1 so that the photographing lens 10R and the photographing lens 10L face the front. FIG. 4B shows the shooting range in the state shown in FIG.

図4(b)に示されるように、撮影レンズ10R及び撮影レンズ10Lが正面を向くことにより、ユーザの正面の至近距離が撮影範囲に入る。すなわち、ユーザの正面の至近距離での死角がなくなり、ユーザの正面の至近距離を撮影することが可能となる。一例として、ユーザは、自身の正面の至近距離に置いた料理や手芸品等を撮影することが可能となる。 As shown in FIG. 4B, when the taking lens 10R and the taking lens 10L face the front, the close range in front of the user enters the photographing range. That is, there is no blind spot at the close range in front of the user, and it is possible to shoot the close range in front of the user. As an example, the user can take photographs of food, handicrafts, and the like placed in close proximity to his/her front.

このように、本実施形態に係るウェアラブル装置1は、ユーザの頭部によるケラレの発生を避けつつ全天球画像を撮影することが可能な構成でありながらも、ユーザの正面の至近距離を撮影することができる。 As described above, the wearable device 1 according to the present embodiment has a configuration capable of capturing a celestial sphere image while avoiding the occurrence of vignetting due to the user's head, but captures a close range in front of the user. can do.

図5(a)〜図5(c)は、主に、ネックマウント部100と撮影部110Lとを連結する連結部102の構成を示す図である。図5(a)〜図5(c)では、連結部102の内部構造を示す都合上、カバー部材102A(図1参照)を取り外した状態を示す。また、図5(c)では、連結部102の断面図(図5(a)のA−A線断面図)を示す。連結部102の構成は左右で共通である。そのため、ネックマウント部100と撮影部110Rとを連結する連結部102についての詳細な説明は省略する。 FIG. 5A to FIG. 5C are diagrams mainly showing the configuration of the connecting portion 102 that connects the neck mount portion 100 and the imaging unit 110L. 5A to 5C, a state in which the cover member 102A (see FIG. 1) is removed is shown for the sake of convenience of showing the internal structure of the connecting portion 102. Further, FIG. 5C shows a cross-sectional view of the connecting portion 102 (a cross-sectional view taken along the line AA of FIG. 5A). The configuration of the connecting portion 102 is common to the left and right. Therefore, the detailed description of the connecting portion 102 that connects the neck mount portion 100 and the imaging unit 110R is omitted.

連結部102は、略L字形状の台座102Bを備える。台座102Bは、一端がネックマウント部100の端部に連結支持されており、モータ32によってネックマウント部100に対して第1軸AXR1周りに回転可能となっている。 The connecting portion 102 includes a pedestal 102B having a substantially L shape. One end of the pedestal 102B is connected to and supported by the end of the neck mount portion 100, and is rotatable about the first axis AXR1 with respect to the neck mount portion 100 by the motor 32.

撮影部110Lは、下端が台座102Bの他端に連結支持されており、モータ34によって台座102Bの他端に対して第2軸AXR2周りに回転可能となっている。 The lower end of the imaging unit 110L is connected to and supported by the other end of the pedestal 102B, and is rotatable about the second axis AXR2 with respect to the other end of the pedestal 102B by the motor 34.

連結部102(台座102B)及び撮影部110Lは、電動に限らず手動で回転可能に構成されてもよい。 The connecting portion 102 (base 102B) and the photographing unit 110L may be configured to be rotatable manually instead of being electrically driven.

台座102Bには、第1軸AXR1方向に延びる中空部102Ba及び第2軸AXR2方向に延びる中空部102Bbが形成されている。ネックマウント部100内部から引き出された信号ケーブル130が中空部102Ba及び102Bbを通されて、撮影部110L内の撮像素子12Lに接続される。これにより、ボックス120に収容された電気回路(画像処理部14、CPU16等)と撮像素子12Lとが電気的に接続される。 The pedestal 102B is formed with a hollow portion 102Ba extending in the first axis AXR1 direction and a hollow portion 102Bb extending in the second axis AXR2 direction. The signal cable 130 drawn out from the inside of the neck mount section 100 is passed through the hollow sections 102Ba and 102Bb and is connected to the image pickup element 12L in the image pickup section 110L. As a result, the electric circuit (the image processing unit 14, the CPU 16, etc.) housed in the box 120 and the image pickup device 12L are electrically connected.

台座102B(中空部102Ba付近)には、バネ部材102Cが取り付けられている。台座102B(中空部102Bb付近)には、バネ部材102Dが取り付けられている。バネ部材102C、102Dには、それぞれ、切欠き部102Ca、102Daが形成されている。 A spring member 102C is attached to the pedestal 102B (near the hollow portion 102Ba). A spring member 102D is attached to the base 102B (near the hollow portion 102Bb). Notches 102Ca and 102Da are formed in the spring members 102C and 102D, respectively.

切欠き部102Ca、102Daには、それぞれ、環状(本実施形態では、軸直交方向の断面が八角形の環状となる形状)に形成された角度規制部材102E、102Fが緩く嵌められている。なお、角度規制部材102E、102Fが有する多角形状は八角形に限らず、他の多角形状であってもよい。 Angle restricting members 102E and 102F formed in an annular shape (in the present embodiment, an octagonal annular cross section in the direction orthogonal to the axis) are loosely fitted in the notch portions 102Ca and 102Da, respectively. The polygonal shapes of the angle regulating members 102E and 102F are not limited to octagons, but may be other polygonal shapes.

角度規制部材102Eは、ネックマウント部100の端部に固定されている。台座102Bがネックマウント部100に対して第1軸AXR1周りに回転すると、ネックマウント部100の端部に固定された角度規制部材102Eに対して、台座102Bに固定されたバネ部材102Cが回転する。 The angle regulation member 102E is fixed to the end portion of the neck mount portion 100. When the pedestal 102B rotates about the first axis AXR1 with respect to the neck mount 100, the spring member 102C fixed to the pedestal 102B rotates with respect to the angle regulating member 102E fixed to the end of the neck mount 100. ..

図5(d)〜図5(f)は、バネ部材102Cの切欠き部102Caと角度規制部材102Eとの位置関係を示す図である。 5D to 5F are views showing the positional relationship between the notch portion 102Ca of the spring member 102C and the angle regulation member 102E.

バネ部材102Cの切欠き部102Caは、角度規制部材102Eに対応する多角形状を有する。具体的には、図5(d)に示されるように、切欠き部102Caは、角度規制部材102Eが有する8つの側面のうちの4つの側面に接触する4つの内壁面を備える。 The notch 102Ca of the spring member 102C has a polygonal shape corresponding to the angle restricting member 102E. Specifically, as shown in FIG. 5D, the cutout portion 102Ca includes four inner wall surfaces that come into contact with four of the eight side surfaces of the angle regulating member 102E.

モータ32が駆動されると、バネ部材102Cは、切欠き部102Caが角度規制部材102Eの頂点部分102Eaによって押し拡げられながら角度規制部材102Eに対して回転し(図5(e)参照)、切欠き部102Caの頂点部分102Ca1が次の頂点部分102Eaに達する位置(角度規制部材102Eが切欠き部102Caに緩く嵌る位置)まで回転する(図5(f)参照)。 When the motor 32 is driven, the spring member 102C rotates with respect to the angle regulating member 102E while the notch 102Ca is expanded by the apex portion 102Ea of the angle regulating member 102E (see FIG. 5(e)). The apex 102Ca1 of the cutout 102Ca is rotated to a position where the apex 102Ca1 reaches the next apex 102Ea (a position where the angle regulation member 102E is loosely fitted in the cutout 102Ca) (see FIG. 5(f)).

これにより、連結部102に支持された撮影部110Lが第1軸AXR1周りに45°回転し、撮影部110Lの撮影向きが第1軸AXR1周りに45°回転した向きに変わる。モータ32が駆動している限り、撮影部110Lの撮影向きは、第1軸AXR1周りに45°刻みで変わる。但し、CPU16は、撮影部110Lの回転に伴う信号ケーブル130の捻じれを考慮して、予め設定された最大角度以上、撮影部110Lが回転しないように、モータ32の駆動を制御する。 As a result, the image capturing unit 110L supported by the connecting unit 102 rotates about the first axis AXR1 by 45°, and the image capturing direction of the image capturing unit 110L changes to the direction rotated about the first axis AXR1 by 45°. As long as the motor 32 is driven, the shooting direction of the shooting unit 110L changes in 45° increments around the first axis AXR1. However, the CPU 16 controls the drive of the motor 32 in consideration of the twist of the signal cable 130 caused by the rotation of the imaging unit 110L so that the imaging unit 110L does not rotate by a preset maximum angle or more.

角度規制部材102Fは、撮影部110Lの下端に固定されている。撮影部110Lが台座102Bに対して第2軸AXR2周りに回転すると、台座102Bに固定されたバネ部材102Dに対して、撮影部110Lに固定された角度規制部材102Fが回転する。 The angle regulation member 102F is fixed to the lower end of the imaging unit 110L. When the imaging unit 110L rotates about the second axis AXR2 with respect to the pedestal 102B, the angle regulating member 102F fixed to the imaging unit 110L rotates with respect to the spring member 102D fixed to the pedestal 102B.

バネ部材102Dの切欠き部102Daは、角度規制部材102Fに対応する多角形状であって、バネ部材102Cの切欠き部102Caと同じ形状を有する。そのため、モータ34が駆動されると、連結部102に支持された撮影部110Lが第2軸AXR2周りに45°回転し、撮影部110Lの撮影向きが第2軸AXR2周りに45°回転した向きに変わる。モータ34が駆動している限り、撮影部110Lの撮影向きは、第2軸AXR2周りに45°刻みで変わる。但し、CPU16は、撮影部110Lの回転に伴う信号ケーブル130の捻じれを考慮して、予め設定された最大角度以上、撮影部110Lが回転しないように、モータ34の駆動を制御する。 The cutout portion 102Da of the spring member 102D has a polygonal shape corresponding to the angle regulating member 102F, and has the same shape as the cutout portion 102Ca of the spring member 102C. Therefore, when the motor 34 is driven, the photographing unit 110L supported by the coupling unit 102 rotates about the second axis AXR2 by 45°, and the photographing direction of the photographing unit 110L rotates about the second axis AXR2 by 45°. Change to As long as the motor 34 is driven, the shooting direction of the shooting unit 110L changes in 45° increments around the second axis AXR2. However, the CPU 16 controls the drive of the motor 34 in consideration of the twist of the signal cable 130 accompanying the rotation of the imaging unit 110L so that the imaging unit 110L does not rotate by a preset maximum angle or more.

本実施形態において、モータ32は、DCモータであるが、別の実施形態では、ステッピングモータであってもよい。この場合、バネ部材や角度規制部材といった部品が無くても、撮影部110Lを所定の角度ピッチで回転させることができる。 In the present embodiment, the motor 32 is a DC motor, but in another embodiment, it may be a stepping motor. In this case, the imaging unit 110L can be rotated at a predetermined angle pitch even if there is no part such as a spring member or an angle regulation member.

撮影部110Rと撮影部110Lの少なくとも一方の撮影向きを変えることにより、図4(b)に例示されるように、両者の撮影範囲をオーバーラップさせることができる。ウェアラブル装置1は、このオーバーラップ部分についてステレオ撮影することができる。ウェアラブル装置1は、PCやスマートフォン等の外部装置において立体画像に関する処理を行うために必要な情報(例えばVR(Virtual Reality)画像を生成したり三次元画像解析を行ったりするのに必要な情報)を撮影画像データに付加する。 By changing the photographing direction of at least one of the photographing unit 110R and the photographing unit 110L, the photographing ranges of both can be overlapped as illustrated in FIG. 4B. The wearable device 1 can take a stereo image of this overlapping portion. The wearable device 1 is information necessary for performing processing regarding a stereoscopic image in an external device such as a PC or a smartphone (for example, information necessary for generating a VR (Virtual Reality) image or performing three-dimensional image analysis). Is added to the captured image data.

本実施形態では、一例として、撮影レンズ10R及び撮影レンズ10Lが正面を向いた状態(図4(b)参照)をステレオ撮影モードとする。ステレオ撮影モード時の撮影画像データに、立体画像に関する処理を行うために必要な情報が付加される。 In the present embodiment, as an example, a state in which the taking lens 10R and the taking lens 10L face the front (see FIG. 4B) is set as the stereo photographing mode. Information necessary for performing processing relating to a stereoscopic image is added to the captured image data in the stereo shooting mode.

立体画像に関する処理を行うために必要な情報は、ステレオ撮影モード時における撮影部110(110R、110L)の内部定位及び外部定位の情報であり、ストレージ24に予め格納されている。これらの内部定位及び外部定位が既知の場合、PCやスマートフォン等の外部装置で空間上の任意の点の画像上での座標を計算することができ、VR画像を生成したり三次元画像解析を行ったりすることができる。 The information necessary for performing the processing related to the stereoscopic image is the information about the internal localization and the external localization of the image capturing unit 110 (110R, 110L) in the stereo image capturing mode, and is stored in the storage 24 in advance. If these internal and external localizations are known, the coordinates of any point in space on the image can be calculated by an external device such as a PC or smartphone, and VR images can be generated or three-dimensional image analysis can be performed. You can go.

撮影部110(110R、110L)の内部定位とは、例えば、撮影部110(110R、110L)の焦点距離、ディストーション、偏芯、像面倒れ、撮像素子12(12R、12L)の性能(画素数、画素サイズ、画素ピッチ等)をいう。撮影部110(110R、110L)の外部定位とは、例えば、撮影部110(110R、110L)の3次元位置(X、Y、Z)及び3次元傾き(ω、Φ、κ)等のパラメータをいう。 The internal localization of the image capturing unit 110 (110R, 110L) means, for example, the focal length of the image capturing unit 110 (110R, 110L), distortion, eccentricity, image plane tilt, and performance (number of pixels) of the image sensor 12 (12R, 12L). , Pixel size, pixel pitch, etc.). The external localization of the image capturing unit 110 (110R, 110L) includes parameters such as the three-dimensional position (X, Y, Z) and the three-dimensional inclination (ω, Φ, κ) of the image capturing unit 110 (110R, 110L). Say.

内部定位及び外部定位の情報についての詳細は例えば特許第4565898号公報で参照することができる。例えばディストーションの情報としては、撮影部110Rの2次成分、4次成分、6次成分のディストーション(D2(R)、D4(R)、D6(R))、撮影部110Lの2次成分、4次成分、6次成分のディストーション(D2(L)、D4(L)、D6(L))、撮影部110Rの非対称成分のディストーション(P1(R)、P2(R))、撮影部110Lの非対称成分のディストーション(P1(L)、P2(L))、撮影部110Rの主点の画像中心からのs’軸方向、t’軸方向への偏心量(XC(R)、YC(R))、撮影部110Lの主点の画像中心からのs’軸方向、t’軸方向への偏心量(XC(L)、YC(L))が挙げられる。 Details of the information on the internal localization and the external localization can be referred to, for example, in Japanese Patent No. 4565898. For example, as the distortion information, the distortion (D 2 (R) , D 4 (R) , D 6 (R) ) of the second-order component, the fourth-order component, and the sixth-order component of the image capturing unit 110R, the second-order component of the image capturing unit 110L. component, fourth-order component, the distortion of the sixth-order component (D 2 (L), D 4 (L), D 6 (L)), the distortion of the asymmetric component of the imaging unit 110R (P 1 (R), P 2 (R ) ), distortion (P 1 (L) , P 2 (L) ) of the asymmetric component of the imaging unit 110L, eccentricity in the s′-axis direction and t′-axis direction from the image center of the principal point of the imaging unit 110R ( X C(R) , Y C(R) ), the eccentricity in the s′-axis direction and the t′-axis direction from the image center of the principal point of the imaging unit 110L (X C(L) , Y C(L) ). Is mentioned.

上記のディストーションの情報は、外部装置にVR画像を生成させたり三次元画像解析を行わせたりするため、撮影画像データに全て付加されてもよく、また、VR画像や三次元画像解析の必要精度に合わせて適宜選択されたものだけが撮影画像データに付加されてもよい。 The above distortion information may be added to all captured image data in order to cause an external device to generate a VR image or perform three-dimensional image analysis, and the required accuracy of the VR image or three-dimensional image analysis. Only those appropriately selected according to the above may be added to the captured image data.

内部定位の情報は、撮影部110(110R、110L)の3次元位置(X、Y、Z)及び3次元傾き(ω、Φ、κ)に依存しないが、外部定位の情報は、撮影部110(110R、110L)の3次元位置(X、Y、Z)及び3次元傾き(ω、Φ、κ)に依存して変わる。 The information of the internal localization does not depend on the three-dimensional position (X, Y, Z) and the three-dimensional inclination (ω, Φ, κ) of the imaging unit 110 (110R, 110L), but the information of the external localization is the imaging unit 110. It changes depending on the three-dimensional position (X, Y, Z) and the three-dimensional inclination (ω, Φ, κ) of (110R, 110L).

撮影部110R、110Lは、それぞれ、第1軸AXR1周り、第1軸AXL1周りに8ポジション(初期位置である±0°の第1ポジション、第1軸AXR1周り、第1軸AXL1周りに+45°の第2ポジション、第1軸AXR1周り、第1軸AXL1周りに+90°の第3ポジション、第1軸AXR1周り、第1軸AXL1周りに+135°の第4ポジション、第1軸AXR1周り、第1軸AXL1周りに+180°の第5ポジション、第1軸AXR1周り、第1軸AXL1周りに−45°の第6ポジション、第1軸AXR1周り、第1軸AXL1周りに−90°の第7ポジション、第1軸AXR1周り、第1軸AXL1周りに−135°の第8ポジション)で位置及び傾きが変わると共に第2軸AXR2周り、第2軸AXL2周りに8ポジション(初期位置である±0°の第Aポジション、第2軸AXR2周り、第2軸AXL2周りに+45°の第Bポジション、第2軸AXR2周り、第2軸AXL2周りに+90°の第Cポジション、第2軸AXR2周り、第2軸AXL2周りに+135°の第Dポジション、第2軸AXR2周り、第2軸AXL2周りに+180°の第Eポジション、第2軸AXR2周り、第2軸AXL2周りに−45°の第Fポジション、第2軸AXR2周り、第2軸AXL2周りに−90°の第Gポジション、第2軸AXR2周り、第2軸AXL2周りに−135°の第Hポジション)で位置及び傾きが変わる。すなわち、撮影部110(110R、110L)は、計64(=8×8)ポジションで位置及び傾きが変わる。ストレージ24には、これら64通りの外部定位の情報が予め格納されている。 The imaging units 110R and 110L respectively have eight positions around the first axis AXR1 and about the first axis AXL1 (first position of ±0° which is an initial position, about the first axis AXR1 and about +45° about the first axis AXL1). Second position, around the first axis AXR1, a third position of +90° around the first axis AXL1, around the first axis AXR1, a fourth position of +135° around the first axis AXL1, around the first axis AXR1, Fifth position of +180° around the first axis AXL1, sixth position of −45° around the first axis AXL1, sixth position of −45° around the first axis AXL1, seventh position of −90° around the first axis AXL1. The position and the inclination change around the first axis AXR1 and the eighth position of -135° around the first axis AXL1), and at the same time, the position and the inclination change around the second axis AXR2 and the second axis AXL2 (±0 which is the initial position). ° A position, around the second axis AXR2, B position +45° around the second axis AXL2, around the second axis AXR2, C position +90° around the second axis AXL2, around the second axis AXR2, D-position of +135° around the second axis AXL2, E-position of +180° around the second axis AXL2, E-position of +180° around the second axis AXL2, F-position of −45° around the second axis AXL2, and second axis AXL2. The position and the inclination change depending on the position, around the second axis AXR2, the G-position of -90° around the second axis AXL2, around the second axis AXR2, and the H-position of -135° around the second axis AXL2). That is, the position and inclination of the image capturing unit 110 (110R, 110L) change at a total of 64 (=8×8) positions. In the storage 24, these 64 types of external localization information are stored in advance.

図6に、ストレージ24に格納された、撮影部110Lの外部定位の情報を示す。ストレージ24には、図6と同様の、撮影部110Rの外部定位の情報も格納されている。 FIG. 6 shows information on external localization of the image capturing unit 110L stored in the storage 24. The storage 24 also stores information on external localization of the image capturing unit 110R, similar to FIG.

撮影画像データには、例えば64通り全ての外部定位の情報が付加される。この場合、ユーザは、撮影時における撮影部110(110R、110L)のポジションを記憶しておき、例えば三次元画像解析時、撮影画像データに付加された64のポジションの中から、記憶しているポジション(正しいポジション)を選択することになる。 For example, all 64 types of external localization information are added to the captured image data. In this case, the user stores the position of the image capturing unit 110 (110R, 110L) at the time of image capturing, for example, from the 64 positions added to the captured image data during three-dimensional image analysis. You will be selecting a position (correct position).

以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施形態等又は自明な実施形態等を適宜組み合わせた内容も本願の実施形態に含まれる。 The above is a description of exemplary embodiments of the present invention. The embodiments of the present invention are not limited to those described above, and various modifications are possible within the scope of the technical idea of the present invention. For example, the contents of a combination of the embodiments exemplarily described in the specification or the obvious embodiments are appropriately included in the embodiments of the present application.

上記の実施形態では、外部定位に関し、ウェアラブル装置1が撮影部110(110R、110L)の全ポジションの情報を撮影画像データに付加し、この中から正しいポジションの情報をユーザに選択させる構成となっているが、別の実施形態では、ウェアラブル装置1は、正しいポジションの情報だけを撮影画像データに付加する構成であってもよく、また、全ポジションの情報を撮影画像データに付加すると共に正しいポジションを特定する情報も付加する構成であってもよい。 In the above-described embodiment, regarding the external localization, the wearable device 1 adds the information of all the positions of the image capturing unit 110 (110R, 110L) to the captured image data, and allows the user to select the correct position information from the information. However, in another embodiment, the wearable device 1 may be configured to add only the correct position information to the captured image data, or the wearable device 1 may add the information of all positions to the captured image data and the correct position. It may be configured to add information for specifying

図7(a)に、図5(c)と同様の図であって、別の一実施形態に係るウェアラブル装置の連結部102zの断面図を示す。連結部102zには、エンコーダ104A及び104Bが設けられている。 FIG. 7A is a view similar to FIG. 5C and shows a cross-sectional view of a connecting portion 102z of the wearable device according to another embodiment. Encoders 104A and 104B are provided on the connecting portion 102z.

エンコーダ104Aは、センサ部(発光ダイオード及びフォトトランジスタ)104Aa及び回転ディスク104Abを備える。センサ部104Aa、回転ディスク104Abは、それぞれ、バネ部材102C、角度規制部材102Eに取り付けられている。角度規制部材102Eに対してバネ部材102Cが回転すると、その回転に応じて回転ディスク104Abに形成されたコード(回転ディスク104Abの角度位置を示す情報)がセンサ部104Aaによって読み取られる。 The encoder 104A includes a sensor unit (light emitting diode and phototransistor) 104Aa and a rotating disk 104Ab. The sensor unit 104Aa and the rotating disk 104Ab are attached to the spring member 102C and the angle regulating member 102E, respectively. When the spring member 102C rotates with respect to the angle regulating member 102E, the code (information indicating the angular position of the rotating disc 104Ab) formed on the rotating disc 104Ab according to the rotation is read by the sensor unit 104Aa.

エンコーダ104Bは、センサ部(発光ダイオード及びフォトトランジスタ)104Ba及び回転ディスク104Bbを備える。センサ部104Ba、回転ディスク104Bbは、それぞれ、バネ部材102D、角度規制部材102Fに取り付けられている。バネ部材102Dに対して角度規制部材102Fが回転すると、その回転に応じて回転ディスク104Bbに形成されたコード(回転ディスク104Bbの角度位置を示す情報)がセンサ部104Baによって読み取られる。 The encoder 104B includes a sensor unit (light emitting diode and phototransistor) 104Ba and a rotating disk 104Bb. The sensor unit 104Ba and the rotating disk 104Bb are attached to the spring member 102D and the angle regulating member 102F, respectively. When the angle regulating member 102F rotates with respect to the spring member 102D, the sensor unit 104Ba reads a code (information indicating the angular position of the rotating disc 104Bb) formed on the rotating disc 104Bb according to the rotation.

図7(b)に、撮影部110Lのポジションと、回転ディスク104Ab及び104Bbの角度位置とを関連付けたテーブルを示す。このテーブルは、ストレージ24に格納されている。ストレージ24には、撮影部110Rについても図7(b)と同様のテーブルが格納されている。CPU16は、センサ部104Aa、104Baによって読み取られたそれぞれのコードから、このテーブル及び図6のテーブルを参照して撮影部110L、110Rの外部定位を特定し、特定された外部定位を撮影画像データに付加する。 FIG. 7B shows a table in which the position of the image capturing unit 110L and the angular positions of the rotating disks 104Ab and 104Bb are associated with each other. This table is stored in the storage 24. The storage 24 also stores the same table as in FIG. 7B for the image capturing unit 110R. The CPU 16 identifies the external orientation of the image capturing units 110L and 110R from the respective codes read by the sensor units 104Aa and 104Ba with reference to this table and the table of FIG. 6, and uses the identified external orientation as captured image data. Add.

1 ウェアラブル装置
10R、10L 撮影レンズ
12R、12L 撮像素子
14 画像処理部
16 CPU
18 ROM
20 RAM
22 RAMインタフェース
24 ストレージ
26 ストレージインタフェース
28 3軸加速度センサ
30 バッテリ
32、34 DCモータ
36 操作スイッチ群
100 ネックマウント部
102 連結部
102A カバー部材
102B 台座
102Ba、102Bb 中空部
102C、102D バネ部材
102Ca、102Da 切欠き部
102E、102F 角度規制部材
110R、110L 撮影部
120 ボックス
130 信号ケーブル
1 Wearable device 10R, 10L Photographic lens 12R, 12L Image sensor 14 Image processing unit 16 CPU
18 ROM
20 RAM
22 RAM Interface 24 Storage 26 Storage Interface 28 Triaxial Acceleration Sensor 30 Battery 32, 34 DC Motor 36 Operation Switch Group 100 Neck Mount Part 102 Connecting Part 102A Cover Member 102B Pedestal 102Ba, 102Bb Hollow Part 102C, 102D Spring Member 102Ca, 102Da Off Notch 102E, 102F Angle regulating member 110R, 110L Imaging unit 120 Box 130 Signal cable

Claims (5)

生体に掛けられるように、生体の装着箇所に沿った形状を有する掛け部と、
前記掛け部の夫々異なる箇所に連結支持された一対の撮影部と、
を備え、
前記一対の撮影部の各々は、
撮影向きが変わるように、前記掛け部の夫々異なる箇所に回転可能に連結支持されている、
ウェアラブル装置。
A hanging portion having a shape along the attachment part of the living body so as to be hung on the living body,
A pair of imaging units connected and supported at different positions of the hanging unit,
Equipped with
Each of the pair of imaging units,
In order to change the shooting direction, rotatably connected and supported at different positions of the hanging portion,
Wearable device.
前記掛け部は、
略U字形状を有しており、
前記一対の撮影部の各々は、
前記掛け部の各端部に連結支持されている、
請求項1に記載のウェアラブル装置。
The hanging part is
It has a substantially U shape,
Each of the pair of imaging units,
Is connected and supported at each end of the hanging portion,
The wearable device according to claim 1.
前記撮影部は、
前記撮影部の光軸と直交する第1軸周りであるロール方向と、前記撮影部の光軸と直交しかつ前記第1軸と直交する第2軸周りであるヨー方向、の少なくとも一方の方向に回転可能である、
請求項1又は請求項2に記載のウェアラブル装置。
The photographing unit is
At least one of a roll direction that is around a first axis that is orthogonal to the optical axis of the imaging unit and a yaw direction that is around a second axis that is orthogonal to the optical axis of the imaging unit and that is orthogonal to the first axis. Is rotatable to
The wearable device according to claim 1 or 2.
前記撮影部は、
所定の角度ピッチで回転可能である、
請求項1から請求項3の何れか一項に記載のウェアラブル装置。
The photographing unit is
Can be rotated at a predetermined angle pitch,
The wearable device according to any one of claims 1 to 3.
前記一対の撮影部の各々の光軸が互いに平行となる位置に回転可能となっており、
前記一対の撮影部の各々が前記平行となる位置にあるときに撮影処理が行われると、立体画像に関する処理を行うために必要な情報を、前記撮影処理によって得られた撮影画像データに付加する情報付加部
を更に備える、
請求項1から請求項4の何れか一項に記載のウェアラブル装置。
It is possible to rotate the optical axes of the pair of imaging units to be parallel to each other,
When the photographing process is performed when each of the pair of photographing units is in the parallel position, information necessary for performing the process related to the stereoscopic image is added to the photographed image data obtained by the photographing process. An information adding unit is further provided,
The wearable device according to any one of claims 1 to 4.
JP2018216970A 2018-11-20 2018-11-20 Wearable device Withdrawn JP2020086014A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018216970A JP2020086014A (en) 2018-11-20 2018-11-20 Wearable device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018216970A JP2020086014A (en) 2018-11-20 2018-11-20 Wearable device

Publications (1)

Publication Number Publication Date
JP2020086014A true JP2020086014A (en) 2020-06-04

Family

ID=70907747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018216970A Withdrawn JP2020086014A (en) 2018-11-20 2018-11-20 Wearable device

Country Status (1)

Country Link
JP (1) JP2020086014A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115086547A (en) * 2021-03-12 2022-09-20 佳能株式会社 Image pickup apparatus, portable device, calibrator, control method thereof, and storage medium
US12452517B2 (en) 2021-10-22 2025-10-21 Canon Kabushiki Kaisha Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005080117A (en) * 2003-09-02 2005-03-24 Fuji Photo Film Co Ltd Imaging device
JP2008141518A (en) * 2006-12-01 2008-06-19 Fujifilm Corp Imaging device
JP2016076202A (en) * 2014-10-07 2016-05-12 エルジー エレクトロニクス インコーポレイティド Mobile terminal

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005080117A (en) * 2003-09-02 2005-03-24 Fuji Photo Film Co Ltd Imaging device
JP2008141518A (en) * 2006-12-01 2008-06-19 Fujifilm Corp Imaging device
JP2016076202A (en) * 2014-10-07 2016-05-12 エルジー エレクトロニクス インコーポレイティド Mobile terminal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115086547A (en) * 2021-03-12 2022-09-20 佳能株式会社 Image pickup apparatus, portable device, calibrator, control method thereof, and storage medium
US12452517B2 (en) 2021-10-22 2025-10-21 Canon Kabushiki Kaisha Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor

Similar Documents

Publication Publication Date Title
JP6468307B2 (en) Imaging apparatus, image processing apparatus and method
JP6927382B2 (en) Imaging systems, methods, programs, video display devices and image processing devices.
KR101888470B1 (en) Imaging system, imaging apparatus, computer program, and system
JP5920507B1 (en) Image processing system, image processing method, and program
JP2016149736A (en) Image processing system, image processing method, program, imaging system, image generation apparatus, image generation method, and program
KR101685418B1 (en) Monitoring system for generating 3-dimensional picture
CN114073069B (en) Imaging system, image processing device, imaging apparatus and recording medium
US10057487B1 (en) Panoramic imaging systems based on normal-lens cameras
JP2017168882A5 (en)
CN110574359A (en) Camera device and image synthesis device
KR20200124271A (en) Imaging device, image processing device, and image processing method
JP2020204874A (en) Image processing system, imaging system, image processing device, imaging device and program
JP6724659B2 (en) Imaging device, method and program
JP2020086014A (en) Wearable device
JP6222205B2 (en) Image processing device
US11122202B2 (en) Imaging device, image processing system, and image processing method
JP6256513B2 (en) Imaging system, imaging apparatus, method, and program
JP2014110444A (en) Imaging device
CN113852754B (en) Control device, control method and storage medium
JP7395953B2 (en) Imaging device
US20200412928A1 (en) Imaging device, imaging system, and imaging method
JP6610741B2 (en) Image display system, image display apparatus, image display method, and program
JP2020174363A (en) Photographing system, method, and program
KR20140030585A (en) Camera system using super wide angle camera
KR20120106019A (en) Multifunction camera

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201007

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20220912