JP2020086014A - Wearable device - Google Patents
Wearable device Download PDFInfo
- Publication number
- JP2020086014A JP2020086014A JP2018216970A JP2018216970A JP2020086014A JP 2020086014 A JP2020086014 A JP 2020086014A JP 2018216970 A JP2018216970 A JP 2018216970A JP 2018216970 A JP2018216970 A JP 2018216970A JP 2020086014 A JP2020086014 A JP 2020086014A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- axis
- wearable device
- photographing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Accessories Of Cameras (AREA)
- Studio Devices (AREA)
Abstract
【課題】至近距離での死角をなくす。
【解決手段】ウェアラブル装置は、生体に掛けられるように、生体の装着箇所に沿った形状を有する掛け部と、掛け部の夫々異なる箇所に連結支持された一対の撮影部とを備える。一対の撮影部の各々は、撮影向きが変わるように、掛け部の夫々異なる箇所に回転可能に連結支持されている。
【選択図】図1PROBLEM TO BE SOLVED: To eliminate a blind spot at a close range.
A wearable device includes a hanging portion having a shape along a living body mounting portion so as to be worn on a living body, and a pair of imaging units connected and supported at different portions of the hanging portion. Each of the pair of photographing units is rotatably connected to and supported by different portions of the hanging unit so that the photographing direction changes.
[Selection diagram] Figure 1
Description
本発明は、ウェアラブル装置に関する。 The present invention relates to wearable devices.
生体に装着して使用するウェアラブル装置が知られている。この種のウェアラブル装置の具体的構成が例えば特許文献1に記載されている。
A wearable device mounted on a living body for use is known. A specific configuration of this type of wearable device is described in
特許文献1に記載のウェアラブル装置は、ネックレス型の装置であり、装着者の周囲を撮影することが可能な複数の撮影部が設けられている。
The wearable device described in
一対の撮影部を用いて全天球画像を取得する全天球カメラが知られている(例えば特許文献2参照)。このような全天球カメラの仕組みを、特許文献1に例示されるウェアラブル装置に応用することが考えられる。
There is a known spherical camera that acquires a spherical image using a pair of imaging units (see, for example, Patent Document 2). It is conceivable to apply such a mechanism of the spherical camera to the wearable device exemplified in
図8に、全天球カメラの仕組みを搭載したウェアラブル装置200と、このウェアラブル装置200を装着した装着者を示す。図8の構成例によれば、全天球画像を取得するための一対の撮影部210がウェアラブル装置200のネックレス紐部220の各端部に設けられている。
FIG. 8 shows a
一対の撮影部210は、装着者の頭部によるケラレの発生を避けるため(言い換えると、撮影範囲(画角)内に装着者の頭部が入らないようにするため)、互いに間隔を空けて配置される。そのため、図8に示されるように、撮影部210の撮影範囲が広い場合であっても、例えば撮影者の頭部前方の至近距離に、撮影することのできない死角(図8中、斜線部領域)が生じる。
The pair of
本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、至近距離での死角をなくすことが可能なウェアラブル装置を提供することである。 The present invention has been made in view of the above circumstances, and an object thereof is to provide a wearable device capable of eliminating a blind spot at a close range.
本発明の一実施形態に係るウェアラブル装置は、生体に掛けられるように、生体の装着箇所に沿った形状を有する掛け部と、掛け部の夫々異なる箇所に連結支持された一対の撮影部とを備える。一対の撮影部の各々は、撮影向きが変わるように、掛け部の夫々異なる箇所に回転可能に連結支持されている。 A wearable device according to an embodiment of the present invention includes a hanging portion having a shape along a living body mounting portion so as to be worn on a living body, and a pair of imaging units connected and supported at different portions of the hanging portion. Prepare Each of the pair of photographing units is rotatably connected to and supported by a different portion of the hanging unit so that the photographing direction changes.
本発明の一実施形態によれば、至近距離での死角をなくすことが可能なウェアラブル装置が提供される。 According to an embodiment of the present invention, a wearable device capable of eliminating a blind spot at a close range is provided.
以下、本発明の一実施形態に係るウェアラブル装置について図面を参照しながら説明する。 Hereinafter, a wearable device according to an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態に係るウェアラブル装置1の構成を示す斜視図である。図2は、ウェアラブル装置1の構成を示すブロック図である。図3は、ウェアラブル装置1をユーザ(装着者)に装着した状態を示す図である。本実施形態において、ウェアラブル装置1は、ユーザの首に掛けるネックレス型の装置であるが、ユーザの頭部や手首などの別の部位に掛けるタイプの装置であってもよい。
FIG. 1 is a perspective view showing a configuration of a
以下の説明においては、図1中、上下に延びる上下方向をZ軸方向と記し、Z軸方向と直交する水平面内の方向であって、前後に延びる前後方向をX軸方向と記し、Z軸方向と直交する水平面内の方向であって、左右に延びる左右方向をY軸方向と記す。 In the following description, in FIG. 1, the up-down direction that extends vertically is referred to as the Z-axis direction, the direction in the horizontal plane that is orthogonal to the Z-axis direction, and the forward-backward direction that extends back and forth is referred to as the X-axis direction, and the Z-axis direction. A horizontal direction that is orthogonal to the direction and that extends in the left-right direction is referred to as a Y-axis direction.
図1に示されるように、ウェアラブル装置1は、ユーザの首に掛けられるように、首に沿った略U字形状を有するネックマウント部(掛け部)100を備える。ネックマウント部100は、例えば、中空の天然ゴム、柔軟性織物、合成樹脂、革、金属又は非金属ワイヤからなり、内部に信号ケーブル130(図4参照)が引き回されている。
As shown in FIG. 1, the
ネックマウント部100の各端部には、連結部102が設けられている。一対の撮影部110(110R、110L)の各々が、各連結部102を介してネックマウント部100に連結支持されている。ネックマウント部100の中央部には、電気回路を収容したボックス120が設けられている。ネックマウント部100の撮影部110R付近には、操作スイッチ群36が設けられている。
A connecting
ウェアラブル装置1は、例えば、特許文献2に示される全天球画像を撮影可能となっている。
The
図2に示されるように、撮影部110Rには、撮影レンズ10R及び撮像素子12Rが備えられ、撮影部110Lには、撮影レンズ10L及び撮像素子12Lが備えられている。
As shown in FIG. 2, the photographing
本実施形態では、以下に説明するように、2組の撮影レンズ及び撮像素子によって撮影された2枚の撮影画像を繋ぎ合せて単一の合成画像(全天球画像)を生成する構成となっているが、別の実施形態では、3組以上の撮影レンズ及び撮像素子によって撮影された3枚以上の撮影画像を繋ぎ合せて単一の合成画像を生成する構成としてもよい。 In the present embodiment, as will be described below, a configuration in which two captured images captured by two sets of imaging lenses and image pickup devices are joined together to generate a single composite image (a spherical image). However, in another embodiment, a configuration may be adopted in which three or more photographed images photographed by three or more photographing lenses and image pickup elements are combined to generate a single composite image.
図2に示されるように、ウェアラブル装置1は、撮影レンズ10R、10L、撮像素子12R及び12Lに加えて、画像処理部14、CPU(Central Processing Unit)16、ROM(Read Only Memory)18、RAM(Random Access Memory)20、RAMインタフェース22、ストレージ24、ストレージインタフェース26、3軸加速度センサ28、バッテリ30、モータ32、34及び操作スイッチ群36を備える。
As shown in FIG. 2, the
操作スイッチ群36には、電源スイッチやレリーズスイッチ、操作ダイヤル、操作キーなど、ユーザがウェアラブル装置1を操作するために必要な各種操作部が含まれる。ユーザにより電源スイッチが押されると、バッテリ30からウェアラブル装置1の各部に電源が供給される。CPU16は、ROM18にアクセスして制御プログラムをワークエリアにロードし、ロードされた制御プログラムを実行することにより、ウェアラブル装置1全体の制御を行う。
The
撮影レンズ10Rと撮影レンズ10Lは、同一の光学性能を有する魚眼レンズ(又は広角レンズ)であり、180度を超える画角(撮影範囲)を有している。以下、撮影レンズ10Rの光軸を「光軸AXR」と記し、撮影レンズ10Lの光軸を「光軸AXL」と記す。
The taking
撮像素子12Rは、撮像面の中心(有効画素領域の中心)が撮影レンズ10Rの光軸AXRと直交し且つ撮像面が撮影レンズ10Rの結像面となる位置に設置されている。撮像素子12Lは、撮像面の中心(有効画素領域の中心)が撮影レンズ10Lの光軸AXLと直交し且つ撮像面が撮影レンズ10Lの結像面となる位置に設置されている。
The
詳しくは後述するが、撮影部110R、撮影部110Lは、それぞれ、連結部102を介してネックマウント部100に2軸方向に回転可能に連結支持されている。撮影部110Rと撮影部110Lは、初期的には、図1に示されるように、撮影レンズ10Rの光軸AXRと撮影レンズ10Lの光軸AXLが同軸(共にY軸方向)に位置し且つ撮影レンズ10Rと撮影レンズ10Lとが互いに逆方向を向く姿勢で位置している。
As will be described later in detail, the
撮像素子12Rと撮像素子12Lは、同一仕様(有効画素数や画素サイズ等が同一)のイメージセンサである。例示的には、撮像素子12R、12Lは、ベイヤ配列フィルタを搭載したCMOS(Complementary Metal Oxide Semiconductor)イメージセンサであり、それぞれ、対応する撮影レンズ10R、12Lを介して撮像面上の各画素で結像した光学像を光量に応じた電荷として蓄積する。撮像素子12R、12Lは、蓄積された電荷をフローティングディフュージョンアンプにて電圧(以下「画像信号」と記す。)に変換する。撮像素子12R、12Lより出力された画像信号は、画像処理部14に入力される。撮像素子12R、12Lは、CCD(Charge Coupled Device)イメージセンサであってもよく、また、補色系フィルタを搭載したイメージセンサであってもよい。ネックマウント検討(首固定)
The
画像処理部14は、撮像素子12R、12Lより入力される画像データに対して所定の信号処理を施す。なお、説明の便宜上、各画素の画像信号を含む撮影画像一枚分のデータを「画像データ」と記す。また、説明の便宜上、撮像素子12Rより入力されて画像処理部14内で処理される画像データを「画像データDA」と記し、撮像素子12Lより入力されて画像処理部14内で処理される画像データを「画像データDB」と記す。
The
画像処理部14は、画像データDA、DBに対して、OB(Optical Black)補正処理、欠陥画素補正処理、リニア(Linear)補正処理、シェーディング(Shading)補正処理、領域分割平均処理を行い、領域分割平均処理後の画像データDA、DBをRAMインタフェース22を介してRAM20に保存する。
The
ROM18には、例えば製造時の検査工程で検出された撮像素子12R及び12Lの欠陥画素の情報(アドレス)が予め記憶されている。欠陥画素補正処理では、ROM18に記憶されたアドレスの欠陥画素に対し、隣接する複数の画素からの合成信号に基づく画素値の補正が行われる。
Information (addresses) of defective pixels of the
画像処理部14は、次いで、RAM20に保存された画像データDA、DBに対して、ホワイトバランス処理、ガンマ(γ)補正処理、ベイヤ補間処理、YUV変換処理、エッジ強調処理及び色補正処理を行い、色補正処理後の画像データDA、DBをRAMインタフェース22を介してRAM20に保存する。
The
画像処理部14は、RAM20に保存された色補正処理後の画像データDA、DBに対してクロップ処理を施し、次いで、歪曲補正処理及び合成処理を施す。歪曲補正処理では、2つの画像データDA、DBに対して、3軸加速度センサ28より出力される情報をもとに歪曲補正及び天地補正(傾き補正)が施される。合成処理では、歪曲補正処理後の2つの画像データDA、DBが合成されて(言い換えると、撮像素子12R、12Lによって撮像された2枚の撮影画像が繋ぎ合わされて)、全天球画像(立体角4πラジアンの画像)データが生成される。
The
なお、画像処理部14は、画像データDA、DBの夫々を単独の画像データとして別個に保存することもできる。
The
画像処理部14は、全天球画像データをJPEG(Joint Photographic Experts Group)等の所定のフォーマットで圧縮する。圧縮後の全天球画像データは、ストレージインタフェース26を介してストレージ24に保存される。ストレージ24は、例えばmicroSDカードである。
The
全天球画像データは、Wi-FiやBluetooth(登録商標)等の無線経由でPCやスマートフォン等の外部装置に転送されてもよい。ユーザは、撮影した全天球画像を外部装置の画面で見ることができる。なお、ウェアラブル装置1と外部装置との接続は無線に限らず優先であってもよい。
The spherical image data may be transferred to an external device such as a PC or a smartphone via a wireless communication such as Wi-Fi or Bluetooth (registered trademark). The user can view the captured spherical image on the screen of the external device. The connection between the
撮影部110Rと撮影部110Lは、ユーザの頭部によるケラレの発生を避けるため、ケラレが発生しにくいユーザの顎付近に互いに間隔を空けて配置されている。そのため、例えばユーザの頭部前方の至近距離に、撮影することのできない死角が生じる(図8参照)。撮影部110Rと撮影部110Lは、このような死角をなくして至近距離を撮影するため、ネックマウント部100に2軸方向に回転可能に連結支持されている。
The
具体的には、撮影部110Rは、ネックマウント部100に対し、ロール方向(光軸AXRと直交する第1軸AXR1周りの方向)及びヨー方向(光軸AXRと直交しかつ第1軸AXR1と直交する第2軸AXR2周りの方向)に回転可能となっている。撮影部110Lは、同じくネックマウント部100に対し、ロール方向(光軸AXLと直交する第1軸AXL1周りの方向)及びヨー方向(光軸AXLと直交しかつ第1軸AXL1と直交する第2軸AXL2周りの方向)に回転可能となっている。
Specifically, the
ユーザは、操作スイッチ群36に含まれるスイッチ類を操作することにより、撮影部110R及び撮影部110Lをロール方向やヨー方向に任意に回転させることができる。
By operating the switches included in the
図4(a)は、図1に示される初期状態から、撮影レンズ10R及び撮影レンズ10Lが正面を向くように、撮影部110R及び撮影部110Lをヨー方向に90°回転させた状態を示す。図4(b)に、図4(a)に示される状態での撮影範囲を示す。
FIG. 4A shows a state in which the photographing
図4(b)に示されるように、撮影レンズ10R及び撮影レンズ10Lが正面を向くことにより、ユーザの正面の至近距離が撮影範囲に入る。すなわち、ユーザの正面の至近距離での死角がなくなり、ユーザの正面の至近距離を撮影することが可能となる。一例として、ユーザは、自身の正面の至近距離に置いた料理や手芸品等を撮影することが可能となる。
As shown in FIG. 4B, when the taking
このように、本実施形態に係るウェアラブル装置1は、ユーザの頭部によるケラレの発生を避けつつ全天球画像を撮影することが可能な構成でありながらも、ユーザの正面の至近距離を撮影することができる。
As described above, the
図5(a)〜図5(c)は、主に、ネックマウント部100と撮影部110Lとを連結する連結部102の構成を示す図である。図5(a)〜図5(c)では、連結部102の内部構造を示す都合上、カバー部材102A(図1参照)を取り外した状態を示す。また、図5(c)では、連結部102の断面図(図5(a)のA−A線断面図)を示す。連結部102の構成は左右で共通である。そのため、ネックマウント部100と撮影部110Rとを連結する連結部102についての詳細な説明は省略する。
FIG. 5A to FIG. 5C are diagrams mainly showing the configuration of the connecting
連結部102は、略L字形状の台座102Bを備える。台座102Bは、一端がネックマウント部100の端部に連結支持されており、モータ32によってネックマウント部100に対して第1軸AXR1周りに回転可能となっている。
The connecting
撮影部110Lは、下端が台座102Bの他端に連結支持されており、モータ34によって台座102Bの他端に対して第2軸AXR2周りに回転可能となっている。
The lower end of the
連結部102(台座102B)及び撮影部110Lは、電動に限らず手動で回転可能に構成されてもよい。
The connecting portion 102 (
台座102Bには、第1軸AXR1方向に延びる中空部102Ba及び第2軸AXR2方向に延びる中空部102Bbが形成されている。ネックマウント部100内部から引き出された信号ケーブル130が中空部102Ba及び102Bbを通されて、撮影部110L内の撮像素子12Lに接続される。これにより、ボックス120に収容された電気回路(画像処理部14、CPU16等)と撮像素子12Lとが電気的に接続される。
The
台座102B(中空部102Ba付近)には、バネ部材102Cが取り付けられている。台座102B(中空部102Bb付近)には、バネ部材102Dが取り付けられている。バネ部材102C、102Dには、それぞれ、切欠き部102Ca、102Daが形成されている。
A
切欠き部102Ca、102Daには、それぞれ、環状(本実施形態では、軸直交方向の断面が八角形の環状となる形状)に形成された角度規制部材102E、102Fが緩く嵌められている。なお、角度規制部材102E、102Fが有する多角形状は八角形に限らず、他の多角形状であってもよい。
角度規制部材102Eは、ネックマウント部100の端部に固定されている。台座102Bがネックマウント部100に対して第1軸AXR1周りに回転すると、ネックマウント部100の端部に固定された角度規制部材102Eに対して、台座102Bに固定されたバネ部材102Cが回転する。
The
図5(d)〜図5(f)は、バネ部材102Cの切欠き部102Caと角度規制部材102Eとの位置関係を示す図である。
5D to 5F are views showing the positional relationship between the notch portion 102Ca of the
バネ部材102Cの切欠き部102Caは、角度規制部材102Eに対応する多角形状を有する。具体的には、図5(d)に示されるように、切欠き部102Caは、角度規制部材102Eが有する8つの側面のうちの4つの側面に接触する4つの内壁面を備える。
The notch 102Ca of the
モータ32が駆動されると、バネ部材102Cは、切欠き部102Caが角度規制部材102Eの頂点部分102Eaによって押し拡げられながら角度規制部材102Eに対して回転し(図5(e)参照)、切欠き部102Caの頂点部分102Ca1が次の頂点部分102Eaに達する位置(角度規制部材102Eが切欠き部102Caに緩く嵌る位置)まで回転する(図5(f)参照)。
When the
これにより、連結部102に支持された撮影部110Lが第1軸AXR1周りに45°回転し、撮影部110Lの撮影向きが第1軸AXR1周りに45°回転した向きに変わる。モータ32が駆動している限り、撮影部110Lの撮影向きは、第1軸AXR1周りに45°刻みで変わる。但し、CPU16は、撮影部110Lの回転に伴う信号ケーブル130の捻じれを考慮して、予め設定された最大角度以上、撮影部110Lが回転しないように、モータ32の駆動を制御する。
As a result, the
角度規制部材102Fは、撮影部110Lの下端に固定されている。撮影部110Lが台座102Bに対して第2軸AXR2周りに回転すると、台座102Bに固定されたバネ部材102Dに対して、撮影部110Lに固定された角度規制部材102Fが回転する。
The
バネ部材102Dの切欠き部102Daは、角度規制部材102Fに対応する多角形状であって、バネ部材102Cの切欠き部102Caと同じ形状を有する。そのため、モータ34が駆動されると、連結部102に支持された撮影部110Lが第2軸AXR2周りに45°回転し、撮影部110Lの撮影向きが第2軸AXR2周りに45°回転した向きに変わる。モータ34が駆動している限り、撮影部110Lの撮影向きは、第2軸AXR2周りに45°刻みで変わる。但し、CPU16は、撮影部110Lの回転に伴う信号ケーブル130の捻じれを考慮して、予め設定された最大角度以上、撮影部110Lが回転しないように、モータ34の駆動を制御する。
The cutout portion 102Da of the
本実施形態において、モータ32は、DCモータであるが、別の実施形態では、ステッピングモータであってもよい。この場合、バネ部材や角度規制部材といった部品が無くても、撮影部110Lを所定の角度ピッチで回転させることができる。
In the present embodiment, the
撮影部110Rと撮影部110Lの少なくとも一方の撮影向きを変えることにより、図4(b)に例示されるように、両者の撮影範囲をオーバーラップさせることができる。ウェアラブル装置1は、このオーバーラップ部分についてステレオ撮影することができる。ウェアラブル装置1は、PCやスマートフォン等の外部装置において立体画像に関する処理を行うために必要な情報(例えばVR(Virtual Reality)画像を生成したり三次元画像解析を行ったりするのに必要な情報)を撮影画像データに付加する。
By changing the photographing direction of at least one of the photographing
本実施形態では、一例として、撮影レンズ10R及び撮影レンズ10Lが正面を向いた状態(図4(b)参照)をステレオ撮影モードとする。ステレオ撮影モード時の撮影画像データに、立体画像に関する処理を行うために必要な情報が付加される。
In the present embodiment, as an example, a state in which the taking
立体画像に関する処理を行うために必要な情報は、ステレオ撮影モード時における撮影部110(110R、110L)の内部定位及び外部定位の情報であり、ストレージ24に予め格納されている。これらの内部定位及び外部定位が既知の場合、PCやスマートフォン等の外部装置で空間上の任意の点の画像上での座標を計算することができ、VR画像を生成したり三次元画像解析を行ったりすることができる。
The information necessary for performing the processing related to the stereoscopic image is the information about the internal localization and the external localization of the image capturing unit 110 (110R, 110L) in the stereo image capturing mode, and is stored in the
撮影部110(110R、110L)の内部定位とは、例えば、撮影部110(110R、110L)の焦点距離、ディストーション、偏芯、像面倒れ、撮像素子12(12R、12L)の性能(画素数、画素サイズ、画素ピッチ等)をいう。撮影部110(110R、110L)の外部定位とは、例えば、撮影部110(110R、110L)の3次元位置(X、Y、Z)及び3次元傾き(ω、Φ、κ)等のパラメータをいう。 The internal localization of the image capturing unit 110 (110R, 110L) means, for example, the focal length of the image capturing unit 110 (110R, 110L), distortion, eccentricity, image plane tilt, and performance (number of pixels) of the image sensor 12 (12R, 12L). , Pixel size, pixel pitch, etc.). The external localization of the image capturing unit 110 (110R, 110L) includes parameters such as the three-dimensional position (X, Y, Z) and the three-dimensional inclination (ω, Φ, κ) of the image capturing unit 110 (110R, 110L). Say.
内部定位及び外部定位の情報についての詳細は例えば特許第4565898号公報で参照することができる。例えばディストーションの情報としては、撮影部110Rの2次成分、4次成分、6次成分のディストーション(D2(R)、D4(R)、D6(R))、撮影部110Lの2次成分、4次成分、6次成分のディストーション(D2(L)、D4(L)、D6(L))、撮影部110Rの非対称成分のディストーション(P1(R)、P2(R))、撮影部110Lの非対称成分のディストーション(P1(L)、P2(L))、撮影部110Rの主点の画像中心からのs’軸方向、t’軸方向への偏心量(XC(R)、YC(R))、撮影部110Lの主点の画像中心からのs’軸方向、t’軸方向への偏心量(XC(L)、YC(L))が挙げられる。
Details of the information on the internal localization and the external localization can be referred to, for example, in Japanese Patent No. 4565898. For example, as the distortion information, the distortion (D 2 (R) , D 4 (R) , D 6 (R) ) of the second-order component, the fourth-order component, and the sixth-order component of the
上記のディストーションの情報は、外部装置にVR画像を生成させたり三次元画像解析を行わせたりするため、撮影画像データに全て付加されてもよく、また、VR画像や三次元画像解析の必要精度に合わせて適宜選択されたものだけが撮影画像データに付加されてもよい。 The above distortion information may be added to all captured image data in order to cause an external device to generate a VR image or perform three-dimensional image analysis, and the required accuracy of the VR image or three-dimensional image analysis. Only those appropriately selected according to the above may be added to the captured image data.
内部定位の情報は、撮影部110(110R、110L)の3次元位置(X、Y、Z)及び3次元傾き(ω、Φ、κ)に依存しないが、外部定位の情報は、撮影部110(110R、110L)の3次元位置(X、Y、Z)及び3次元傾き(ω、Φ、κ)に依存して変わる。 The information of the internal localization does not depend on the three-dimensional position (X, Y, Z) and the three-dimensional inclination (ω, Φ, κ) of the imaging unit 110 (110R, 110L), but the information of the external localization is the imaging unit 110. It changes depending on the three-dimensional position (X, Y, Z) and the three-dimensional inclination (ω, Φ, κ) of (110R, 110L).
撮影部110R、110Lは、それぞれ、第1軸AXR1周り、第1軸AXL1周りに8ポジション(初期位置である±0°の第1ポジション、第1軸AXR1周り、第1軸AXL1周りに+45°の第2ポジション、第1軸AXR1周り、第1軸AXL1周りに+90°の第3ポジション、第1軸AXR1周り、第1軸AXL1周りに+135°の第4ポジション、第1軸AXR1周り、第1軸AXL1周りに+180°の第5ポジション、第1軸AXR1周り、第1軸AXL1周りに−45°の第6ポジション、第1軸AXR1周り、第1軸AXL1周りに−90°の第7ポジション、第1軸AXR1周り、第1軸AXL1周りに−135°の第8ポジション)で位置及び傾きが変わると共に第2軸AXR2周り、第2軸AXL2周りに8ポジション(初期位置である±0°の第Aポジション、第2軸AXR2周り、第2軸AXL2周りに+45°の第Bポジション、第2軸AXR2周り、第2軸AXL2周りに+90°の第Cポジション、第2軸AXR2周り、第2軸AXL2周りに+135°の第Dポジション、第2軸AXR2周り、第2軸AXL2周りに+180°の第Eポジション、第2軸AXR2周り、第2軸AXL2周りに−45°の第Fポジション、第2軸AXR2周り、第2軸AXL2周りに−90°の第Gポジション、第2軸AXR2周り、第2軸AXL2周りに−135°の第Hポジション)で位置及び傾きが変わる。すなわち、撮影部110(110R、110L)は、計64(=8×8)ポジションで位置及び傾きが変わる。ストレージ24には、これら64通りの外部定位の情報が予め格納されている。
The
図6に、ストレージ24に格納された、撮影部110Lの外部定位の情報を示す。ストレージ24には、図6と同様の、撮影部110Rの外部定位の情報も格納されている。
FIG. 6 shows information on external localization of the
撮影画像データには、例えば64通り全ての外部定位の情報が付加される。この場合、ユーザは、撮影時における撮影部110(110R、110L)のポジションを記憶しておき、例えば三次元画像解析時、撮影画像データに付加された64のポジションの中から、記憶しているポジション(正しいポジション)を選択することになる。 For example, all 64 types of external localization information are added to the captured image data. In this case, the user stores the position of the image capturing unit 110 (110R, 110L) at the time of image capturing, for example, from the 64 positions added to the captured image data during three-dimensional image analysis. You will be selecting a position (correct position).
以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施形態等又は自明な実施形態等を適宜組み合わせた内容も本願の実施形態に含まれる。 The above is a description of exemplary embodiments of the present invention. The embodiments of the present invention are not limited to those described above, and various modifications are possible within the scope of the technical idea of the present invention. For example, the contents of a combination of the embodiments exemplarily described in the specification or the obvious embodiments are appropriately included in the embodiments of the present application.
上記の実施形態では、外部定位に関し、ウェアラブル装置1が撮影部110(110R、110L)の全ポジションの情報を撮影画像データに付加し、この中から正しいポジションの情報をユーザに選択させる構成となっているが、別の実施形態では、ウェアラブル装置1は、正しいポジションの情報だけを撮影画像データに付加する構成であってもよく、また、全ポジションの情報を撮影画像データに付加すると共に正しいポジションを特定する情報も付加する構成であってもよい。
In the above-described embodiment, regarding the external localization, the
図7(a)に、図5(c)と同様の図であって、別の一実施形態に係るウェアラブル装置の連結部102zの断面図を示す。連結部102zには、エンコーダ104A及び104Bが設けられている。
FIG. 7A is a view similar to FIG. 5C and shows a cross-sectional view of a connecting portion 102z of the wearable device according to another embodiment.
エンコーダ104Aは、センサ部(発光ダイオード及びフォトトランジスタ)104Aa及び回転ディスク104Abを備える。センサ部104Aa、回転ディスク104Abは、それぞれ、バネ部材102C、角度規制部材102Eに取り付けられている。角度規制部材102Eに対してバネ部材102Cが回転すると、その回転に応じて回転ディスク104Abに形成されたコード(回転ディスク104Abの角度位置を示す情報)がセンサ部104Aaによって読み取られる。
The
エンコーダ104Bは、センサ部(発光ダイオード及びフォトトランジスタ)104Ba及び回転ディスク104Bbを備える。センサ部104Ba、回転ディスク104Bbは、それぞれ、バネ部材102D、角度規制部材102Fに取り付けられている。バネ部材102Dに対して角度規制部材102Fが回転すると、その回転に応じて回転ディスク104Bbに形成されたコード(回転ディスク104Bbの角度位置を示す情報)がセンサ部104Baによって読み取られる。
The
図7(b)に、撮影部110Lのポジションと、回転ディスク104Ab及び104Bbの角度位置とを関連付けたテーブルを示す。このテーブルは、ストレージ24に格納されている。ストレージ24には、撮影部110Rについても図7(b)と同様のテーブルが格納されている。CPU16は、センサ部104Aa、104Baによって読み取られたそれぞれのコードから、このテーブル及び図6のテーブルを参照して撮影部110L、110Rの外部定位を特定し、特定された外部定位を撮影画像データに付加する。
FIG. 7B shows a table in which the position of the
1 ウェアラブル装置
10R、10L 撮影レンズ
12R、12L 撮像素子
14 画像処理部
16 CPU
18 ROM
20 RAM
22 RAMインタフェース
24 ストレージ
26 ストレージインタフェース
28 3軸加速度センサ
30 バッテリ
32、34 DCモータ
36 操作スイッチ群
100 ネックマウント部
102 連結部
102A カバー部材
102B 台座
102Ba、102Bb 中空部
102C、102D バネ部材
102Ca、102Da 切欠き部
102E、102F 角度規制部材
110R、110L 撮影部
120 ボックス
130 信号ケーブル
1
18 ROM
20 RAM
22
Claims (5)
前記掛け部の夫々異なる箇所に連結支持された一対の撮影部と、
を備え、
前記一対の撮影部の各々は、
撮影向きが変わるように、前記掛け部の夫々異なる箇所に回転可能に連結支持されている、
ウェアラブル装置。 A hanging portion having a shape along the attachment part of the living body so as to be hung on the living body,
A pair of imaging units connected and supported at different positions of the hanging unit,
Equipped with
Each of the pair of imaging units,
In order to change the shooting direction, rotatably connected and supported at different positions of the hanging portion,
Wearable device.
略U字形状を有しており、
前記一対の撮影部の各々は、
前記掛け部の各端部に連結支持されている、
請求項1に記載のウェアラブル装置。 The hanging part is
It has a substantially U shape,
Each of the pair of imaging units,
Is connected and supported at each end of the hanging portion,
The wearable device according to claim 1.
前記撮影部の光軸と直交する第1軸周りであるロール方向と、前記撮影部の光軸と直交しかつ前記第1軸と直交する第2軸周りであるヨー方向、の少なくとも一方の方向に回転可能である、
請求項1又は請求項2に記載のウェアラブル装置。 The photographing unit is
At least one of a roll direction that is around a first axis that is orthogonal to the optical axis of the imaging unit and a yaw direction that is around a second axis that is orthogonal to the optical axis of the imaging unit and that is orthogonal to the first axis. Is rotatable to
The wearable device according to claim 1 or 2.
所定の角度ピッチで回転可能である、
請求項1から請求項3の何れか一項に記載のウェアラブル装置。 The photographing unit is
Can be rotated at a predetermined angle pitch,
The wearable device according to any one of claims 1 to 3.
前記一対の撮影部の各々が前記平行となる位置にあるときに撮影処理が行われると、立体画像に関する処理を行うために必要な情報を、前記撮影処理によって得られた撮影画像データに付加する情報付加部
を更に備える、
請求項1から請求項4の何れか一項に記載のウェアラブル装置。 It is possible to rotate the optical axes of the pair of imaging units to be parallel to each other,
When the photographing process is performed when each of the pair of photographing units is in the parallel position, information necessary for performing the process related to the stereoscopic image is added to the photographed image data obtained by the photographing process. An information adding unit is further provided,
The wearable device according to any one of claims 1 to 4.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018216970A JP2020086014A (en) | 2018-11-20 | 2018-11-20 | Wearable device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018216970A JP2020086014A (en) | 2018-11-20 | 2018-11-20 | Wearable device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2020086014A true JP2020086014A (en) | 2020-06-04 |
Family
ID=70907747
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018216970A Withdrawn JP2020086014A (en) | 2018-11-20 | 2018-11-20 | Wearable device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2020086014A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115086547A (en) * | 2021-03-12 | 2022-09-20 | 佳能株式会社 | Image pickup apparatus, portable device, calibrator, control method thereof, and storage medium |
| US12452517B2 (en) | 2021-10-22 | 2025-10-21 | Canon Kabushiki Kaisha | Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005080117A (en) * | 2003-09-02 | 2005-03-24 | Fuji Photo Film Co Ltd | Imaging device |
| JP2008141518A (en) * | 2006-12-01 | 2008-06-19 | Fujifilm Corp | Imaging device |
| JP2016076202A (en) * | 2014-10-07 | 2016-05-12 | エルジー エレクトロニクス インコーポレイティド | Mobile terminal |
-
2018
- 2018-11-20 JP JP2018216970A patent/JP2020086014A/en not_active Withdrawn
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005080117A (en) * | 2003-09-02 | 2005-03-24 | Fuji Photo Film Co Ltd | Imaging device |
| JP2008141518A (en) * | 2006-12-01 | 2008-06-19 | Fujifilm Corp | Imaging device |
| JP2016076202A (en) * | 2014-10-07 | 2016-05-12 | エルジー エレクトロニクス インコーポレイティド | Mobile terminal |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115086547A (en) * | 2021-03-12 | 2022-09-20 | 佳能株式会社 | Image pickup apparatus, portable device, calibrator, control method thereof, and storage medium |
| US12452517B2 (en) | 2021-10-22 | 2025-10-21 | Canon Kabushiki Kaisha | Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6468307B2 (en) | Imaging apparatus, image processing apparatus and method | |
| JP6927382B2 (en) | Imaging systems, methods, programs, video display devices and image processing devices. | |
| KR101888470B1 (en) | Imaging system, imaging apparatus, computer program, and system | |
| JP5920507B1 (en) | Image processing system, image processing method, and program | |
| JP2016149736A (en) | Image processing system, image processing method, program, imaging system, image generation apparatus, image generation method, and program | |
| KR101685418B1 (en) | Monitoring system for generating 3-dimensional picture | |
| CN114073069B (en) | Imaging system, image processing device, imaging apparatus and recording medium | |
| US10057487B1 (en) | Panoramic imaging systems based on normal-lens cameras | |
| JP2017168882A5 (en) | ||
| CN110574359A (en) | Camera device and image synthesis device | |
| KR20200124271A (en) | Imaging device, image processing device, and image processing method | |
| JP2020204874A (en) | Image processing system, imaging system, image processing device, imaging device and program | |
| JP6724659B2 (en) | Imaging device, method and program | |
| JP2020086014A (en) | Wearable device | |
| JP6222205B2 (en) | Image processing device | |
| US11122202B2 (en) | Imaging device, image processing system, and image processing method | |
| JP6256513B2 (en) | Imaging system, imaging apparatus, method, and program | |
| JP2014110444A (en) | Imaging device | |
| CN113852754B (en) | Control device, control method and storage medium | |
| JP7395953B2 (en) | Imaging device | |
| US20200412928A1 (en) | Imaging device, imaging system, and imaging method | |
| JP6610741B2 (en) | Image display system, image display apparatus, image display method, and program | |
| JP2020174363A (en) | Photographing system, method, and program | |
| KR20140030585A (en) | Camera system using super wide angle camera | |
| KR20120106019A (en) | Multifunction camera |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20201007 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210806 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220627 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220712 |
|
| A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20220912 |