[go: up one dir, main page]

JP2013219541A - 撮影システムおよび撮影方法 - Google Patents

撮影システムおよび撮影方法 Download PDF

Info

Publication number
JP2013219541A
JP2013219541A JP2012088185A JP2012088185A JP2013219541A JP 2013219541 A JP2013219541 A JP 2013219541A JP 2012088185 A JP2012088185 A JP 2012088185A JP 2012088185 A JP2012088185 A JP 2012088185A JP 2013219541 A JP2013219541 A JP 2013219541A
Authority
JP
Japan
Prior art keywords
photographer
imaging device
unit
subject
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012088185A
Other languages
English (en)
Other versions
JP2013219541A5 (ja
Inventor
Kazumasa Mizuta
一正 水田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012088185A priority Critical patent/JP2013219541A/ja
Priority to US13/857,368 priority patent/US9215362B2/en
Priority to CN2013101198509A priority patent/CN103369243A/zh
Publication of JP2013219541A publication Critical patent/JP2013219541A/ja
Publication of JP2013219541A5 publication Critical patent/JP2013219541A5/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Accessories Of Cameras (AREA)

Abstract

【課題】 自然な装着感のセンサーユニットを装着した撮影者が、自分の目で被写体を見ることで、撮像装置が被写体を自動的に追従して正しく撮影できる撮影システム、撮影方法を提供する。
【解決手段】 撮影者に装着され、前記撮影者の動きを検出する第1のモーションセンサー60を含むセンサーユニット5と、撮像装置を取り付ける雲台11と一体に設けられ、前記雲台の動きを検出する第2のモーションセンサー38を含み、前記第1のモーションセンサーが検出した前記撮影者の動きに基づいて、前記第2のモーションセンサーにより前記雲台の動きを制御して前記撮像装置を被写体に追従させる被写体追従装置10と、を含む。
【選択図】図4

Description

本発明は、撮影システムおよび撮影方法等に関する。
一般に、撮像装置(例えば、カメラやビデオカメラ)は、被写体を撮影するためにファインダーを覗く、又は背面のモニターを確認する必要がある。そのため、撮影中は撮像装置を顔の近くまで持ってくる煩わしさがあった。
特許文献1および特許文献2の発明では、撮像装置と分離された独立ファインダーを備える撮影システムを提案する。特許文献1および特許文献2の撮影システムでは、独立ファインダーの向きに撮像装置の撮影方向を追従させるため、撮影中でも撮像装置を顔の近くまで持ってくる必要がない。
特開平7−199281号公報 特開平7−209700号公報 特開2000−333161号公報
ここで、特許文献1および特許文献2は、撮像装置を撮影者から離すことも可能であると記載しているが、実際には被写体を正しく撮影できない。例えば、撮像装置と撮影者との間に被写体がある場合には、撮像装置は被写体の方向を向かないために問題が生じる。
特許文献3の発明は、遠隔操作によって撮像装置を監視者(前記の撮影者に対応)の視線に追従させる監視システムを提案する。この監視システムでは、特許文献1および特許文献2と同じ問題は生じない。
しかし、特許文献3の発明では、モニターを内蔵する眼鏡(すなわち、ヘッドマウントディスプレイ)を用いる必要があり、撮影者が大きくて重いヘッドマウントディスプレイを装着しながら撮影することは現実的ではない。例えば、運動会などで撮影する場合に、その重さから被写体を捉えることが困難になる。また、外見が不自然であり他人から奇異に思われる可能性がある。また、ヘッドマウントディスプレイを用いるので、システムが高価になるという問題も生じる。
本発明はこのような問題点に鑑みてなされたものである。本発明のいくつかの態様によれば、自然な装着感のセンサーユニットを装着した撮影者が、自分の目で被写体を見ることで、撮像装置が被写体を自動的に追従して正しく撮影できる撮影システム、撮影方法を提供することができる。
(1)本発明は、撮影システムであって、撮影者に装着され、前記撮影者の動きを検出する第1のモーションセンサーを含むセンサーユニットと、撮像装置を取り付ける雲台と一体に設けられ、前記雲台の動きを検出する第2のモーションセンサーを含み、前記第1のモーションセンサーが検出した前記撮影者の動きに基づいて、前記第2のモーションセンサーにより前記雲台の動きを制御して前記撮像装置を被写体に追従させる被写体追従装置と、を含む。
(2)この撮影システムにおいて、前記センサーユニットは前記撮影者の頭部に装着されてもよい。
(3)この撮影システムにおいて、前記第1のモーションセンサーおよび前記第2のモーションセンサーが、加速度センサー、角速度センサーおよび磁気センサーの少なくとも1つであってもよい。
これらの発明の撮影システムは、撮影者の動きを検出する第1のモーションセンサーを含むセンサーユニットと、撮像装置を取り付ける雲台と一体に設けられ、雲台の動きを検出する第2のモーションセンサーを含む被写体追従装置と、を含む。ここで、第1のモーションセンサーは、被写体を目で追う動きと連動する頭部の動きを検出することが考えられる。すなわち、センサーユニットは前記撮影者の頭部に装着されてもよい。
センサーユニットと被写体追従装置との間は、例えば無線又は有線の通信がされる。そして、被写体追従装置は、撮影者の動き(すなわち、第1のモーションセンサーからの信号)と雲台の動き(すなわち、第2のモーションセンサーからの信号)に基づいて、撮像装置を被写体に追従させることができる。
このとき、撮影者の動きと雲台の動きとは単純に連動するわけではなく、例えば撮影前のキャリブレーションで撮影角度の補正等も可能である。そのため、特許文献1および特許文献2の発明とは異なり、撮像装置を撮影者から離しても被写体を正しく撮影できる。
このとき、これらの発明の撮影システムは、実際の雲台の動きをモーションセンサーで計測する。そのため、特許文献3の発明のようにモニターを内蔵したヘッドマウントディスプレイで撮影者が確認しなくても、雲台の動きを補正して、撮像装置を被写体に正しく追従させる。ヘッドマウントディスプレイのような重くて大きい部材を撮影者の頭部に装着しなくても、例えば自然な装着感の眼鏡などにセンサーユニットを装着して撮影者の動きを検出するだけでよい。
従って、これらの発明の撮影システムは、自然な装着感のセンサーユニットを装着した撮影者が、自分の目で被写体を見ることで、撮像装置が被写体を自動的に追従して正しく撮影することを可能にする。なお、眼鏡の他にも、帽子やサングラスやヘアーバンドなどにセンサーユニットを装着してもよい。また、撮影者の頭部以外にセンサーユニットを装着してもよい。
ここで、第1のモーションセンサー、第2のモーションセンサーは、それぞれ撮影者の動き、雲台の動きを計測するものである。これらのモーションセンサーとして、加速度センサー、角速度センサーおよび磁気センサーの少なくとも1つが使用されてもよい。
例えば、第1のモーションセンサーを例にとると、3軸の加速度センサーによって撮影者の動きを精度よく正確に測定できる。さらに、角速度センサーも備えていれば、例えば撮影者の頭部に装着した場合に、首の動きがスムーズでないときでも角速度センサーからの信号に基づいて補正が可能になり、検出精度を高めることができる。そして、磁気センサーを備えていれば、第1のモーションセンサーが取り付けられた部位(例えば頭部)の位置をより正確に検出することができる。
第1のモーションセンサーと第2のモーションセンサーの構成が異なっていてもよいが、これらのモーションセンサーが同じ構成であることが好ましい。このとき、センサーの軸を合わせるキャリブレーション(被写体を撮影する前の調整)を容易にすることができる。
なお、雲台とは撮像装置を取り付ける可動部であって、例えば三脚等の一部である。ここで、雲台は電気信号によって動く雲台であって、取り付けた撮像装置の撮影方向(例えば三脚の正面方向といった1つの方向を基準とした場合には、その基準に対する撮影角度)を例えば制御信号によって変えることが可能である。
(4)この撮影システムにおいて、前記被写体追従装置は、前記撮影者が前記撮像装置と同じ位置で静止した被写体である基準点を見た場合に前記撮像装置が前記基準点を撮影するように調整する第1のキャリブレーションと、前記撮影者が前記撮像装置から離れて前記基準点を見た場合に前記撮像装置が前記基準点を撮影するように調整する第2のキャリブレーションと、を行ってもよい。
本発明の撮影システムは、撮像装置に基準点を撮影させて雲台の動きを調整するキャリブレーションを行う。ここで、基準点は特定の物に限定されず、静止した被写体であればよい。
本発明の撮影システムは、撮影者が撮像装置と同じ位置で基準点を見た場合に実行する第1のキャリブレーションと、撮影者が撮像装置から離れた位置、すなわち被写体を観察する場所で基準点を見た場合に実行する第2のキャリブレーションと、を行う。
このうち、第1のキャリブレーションでは、撮影者の視線と雲台に取り付けられた撮像装置の撮影方向とを合わせた状態で、第1のモーションセンサーと第2のモーションセンサーの軸合わせを行うことで、その後の撮影者の動きに合わせて雲台を動かすことができる。
そして、第2のキャリブレーションによって、実際の観察場所における撮影者の視線と雲台に取り付けられた撮像装置の撮影方向とのずれを、撮影角度の補正により吸収することを可能にする。このため、特許文献1および特許文献2の発明では問題となる、撮像装置と撮影者との間に被写体がある場合に正しく撮れないという問題を解決することができる。
本発明によれば、遠隔の撮像装置で被写体を撮影する撮影者は、2つの簡単なキャリブレーションを実行するだけで、撮像装置に被写体を自動的に追従させて正しく撮影させることが可能になる。
(5)この撮影システムにおいて、前記センサーユニットは、前記撮影者の頭部に装着される表示部を備えた部材に装着され、前記表示部に、前記撮像装置の撮影方向および撮影範囲の少なくとも一方に応じた表示をさせる表示制御信号を生成してもよい。
(6)この撮影システムにおいて、前記センサーユニットは、前記撮影者の眼鏡に装着されてもよい。
これらの発明によれば、センサーユニットは、撮影者の頭部に装着される表示部を備えた部材に装着されてもよい。このとき、表示部に撮影方向および撮影範囲の少なくとも一方に応じた表示をすることで、利便性を向上させることができる。
撮影者は、モニターを備えたヘッドマウントディスプレイのような大きくて重い部材を頭部に取り付ける必要はない。しかし、遠隔で撮影中に、撮影方向および撮影範囲について知りたい場合がある。これらの発明によれば、撮影者の頭部に装着される部材が表示部を備えることで、このような情報を撮影者に知らせることができる。
ここで、撮影者の頭部に装着される部材は眼鏡であってもよい。このとき、センサーユニットを自然な装着感で頭部に装着でき、他人から奇異に思われることもない。また、眼鏡であれば被写体を追うことに困難は生じない。このとき、表示部は眼鏡のレンズ部分にとりつけられた液晶シートであってもよいし、LED等の光を発するものであってもよい。
(7)本発明は、撮影方法であって、撮影者に装着され、前記撮影者の動きを検出する第1のモーションセンサーを含むセンサーユニットと、撮像装置を取り付ける雲台と一体に設けられ、前記雲台の動きを検出する第2のモーションセンサーを含み、前記第1のモーションセンサーが検出した前記撮影者の動きに基づいて、前記第2のモーションセンサーにより前記雲台の動きを制御して前記撮像装置を被写体に追従させる被写体追従装置と、を利用して、前記撮影者が前記撮像装置と同じ位置で静止した被写体である基準点を見た場合に前記撮像装置が前記基準点を撮影するように調整するステップと、前記撮影者が前記撮像装置から離れて前記基準点を見た場合に前記撮像装置が前記基準点を撮影するように調整するステップと、を含む。
本発明の撮影方法は、撮像装置に基準点を撮影させて雲台の動きを調整するキャリブレーションのステップを含む。
本発明によれば、遠隔の撮像装置で被写体を撮影する撮影者は、2つの簡単なキャリブレーションのステップを実行するだけで、撮像装置に被写体を自動的に追従させて正しく撮影させることが可能になる。
図1(A)〜図1(B)は、本実施形態の撮影システムの概要の説明図。 図2(A)〜図2(B)は、被写体追従装置の構成の一例を示す図。 図3(A)〜図3(B)は、センサーユニットの構成の一例を示す図。 本実施形態の撮影システムのブロック図。 本実施形態の被写体追従装置のキャリブレーションの制御を示すフローチャート。 本実施形態のセンサーユニットのキャリブレーションの制御を示すフローチャート。 図7(A)〜図7(B)はキャリブレーションを説明する図。 本実施形態の被写体追従装置の撮影動作の制御を示すフローチャート。 本実施形態のセンサーユニットの撮影動作の制御を示すフローチャート。
以下、本発明の好適な実施形態について図面を用いて詳細に説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また以下で説明される構成の全てが本発明の必須構成要件であるとは限らない。
1.撮影システムの概要
図1(A)〜図1(B)は、撮影システムの概要についての説明図である。本実施形態の撮影システムでは、図1(A)に示すように、撮像装置3と離れた位置にいる撮影者7が被写体9を見ている。そして、電動雲台(不図示)に装着された撮像装置3も被写体9を撮影している。撮影者7は眼鏡(不図示)をかけており、眼鏡に装着されたセンサーユニット(不図示)が撮影者7の頭部の動きを検出する。なお、電動雲台は雲台の一種であって、電気信号によって装着された撮像装置3を自由な方向に向けて固定することが可能である。
なお、図1(A)〜図1(B)は、撮像装置3、撮影者7、被写体9を上から見ている図である。そして、撮影者7の視線8は鼻(撮影者7の丸い頭部に付いている三角形)の先にあるものとし、撮像装置3の撮影方向4はレンズ(本体をあらわす長方形の短辺に付された突起部分)が向いた方向であるとする。
例えば図1(A)の状態から、図1(B)の状態に変化したとする。このとき、撮影者7が被写体9を視線8で追うと、センサーユニットが撮影者7の頭部の動きを検出して、電動雲台と一体となって設けられている被写体追従装置(不図示)に送信する。そして、撮像装置3は被写体9を自動的に追従して撮影し続けることができる。
ここで、図1(A)〜図1(B)の撮影者7の視線8の変化と、撮像装置3の撮影方向4の変化とは同一ではない。すなわち、視線8は撮影者7の左方約30度から正面へと変化し、撮影方向4は撮影者7の正面から右方約30度へと変化している。
つまり、本実施形態の撮影システムでは、単純に撮影者7の視線8の変化の通りに撮像装置3が動くのではなく、撮影者7と撮像装置3との位置関係に基づいて補正がされている。従って、撮像装置3は、撮影者7が離れた位置にいても、被写体9を自動的に追従して正しく撮影できる。
なお、図1(A)〜図1(B)は撮像装置3、撮影者7、被写体9を上から見ているので、高さ方向(紙面手前と奥行きの方向)が図示されないが、撮像装置3は、高さ方向も含めて被写体9を自動的に追従して正しく撮影する。
図2(A)および図2(B)は、被写体追従装置の構成の一例を示す図であり、具体的には撮像装置3の外観および被写体追従装置10との関係を表すものである。まず、撮像装置3は図2(A)のようにビデオカメラであってもよいし、図2(B)のように主に静止画を撮るカメラであってもよいし、撮影機能を備えたスマートフォンのような他の撮像装置であってもよい。なお、それ以外の要素は図2(A)と図2(B)とで共通であるので、図2(A)のみを用いて説明する。
図2(A)のように、撮像装置3は三脚12の一部である電動雲台11に取り付けられる。被写体追従装置10は電動雲台11と一体に設けられており、図2(A)の例では電動雲台11の内部にあって、電動雲台11を動かすことが可能であるとする。すなわち、電動雲台11を動かすことで、撮像装置3の撮影方向、撮影角度を変更することが可能である。また、電動雲台11の動きを検出することも可能である。なお、撮影角度は撮影方向をある方向に対する角度で表現したものであり、例えば三脚12の正面の水平方向を基準方向として、基準方向に対する角度で表してもよい。
図3(A)および図3(B)は、センサーユニットの構成の一例を示す図であり、具体的にはセンサーユニット5の外観および眼鏡6との関係を表すものである。まず、図3(A)のように、本実施形態のセンサーユニット5は直方体の外観であり、撮影者7が装着する眼鏡6のフレームに取り付けることが可能である。そのため、本実施形態の撮影システムを使用して撮影を行うときにも、撮影者7は自然な装着感を得ることが可能である。
センサーユニット5は、例えば長さ約30mm、高さ15mm、厚さ10mm程度であってもよい。このとき、撮影者7はその存在をほとんど気にすることなく、撮影することが可能である。なお、センサーユニット5に例えば紐、ゴム等が付いており撮影者7の頭部に直接装着されてもよい。
図3(B)は、眼鏡6のレンズ部分、その周りのフレームにある表示部の例を示す。なお、レンズ周辺以外のフレームの図示は省略している。表示部は例えば、レンズ部分に貼り付けられた液晶表示部82であってもよいし、レンズ周りのフレームに付されたLEDが点灯するLED表示部84であってもよい。センサーユニット5は、有線又は無線によって、撮像装置3の撮影状態や異常の発生を液晶表示部82、又はLED表示部84に表示させて撮影者7に知らせる。
ここで、本実施形態のセンサーユニット5は一般に使用される眼鏡6に取り付けることが可能であり、ヘッドマウントディスプレイなどを必要としない。そのため、撮像装置3が撮影した画像をそのまま見ることはない。そのため、例えば撮像装置3のズームの状態や、撮影方向(撮影角度)などを液晶表示部82、LED表示部84によって撮影者7に知らせる。
図3(B)の液晶表示部82のように、例えば撮像装置3のズームに対応して、撮影範囲が点線で表示されてもよい。また、撮像装置3の撮影方向が変化したときには、LED表示部84の点灯するLEDが変化して知らせてもよい。また、被写体追従装置10側から、送信したデータが受け取られなかった、撮像装置3が電動雲台11から外れた、三脚12が転等した等の異常の知らせを受けて、例えばLED表示部84の全てのLEDを点滅させて撮影者7に知らせてもよい。
なお、本実施形態ではセンサーユニット5は眼鏡6に取り付けて図3(B)のような表示を行うが、これらの表示機能を省略してもよい。このとき、センサーユニット5は頭部に限らず、撮影の邪魔にならない体や服の一部に装着することが可能である。例えば、撮影者は肩、腕、服の胸ポケットや腰のベルト等にセンサーユニット5を装着してもよい。このとき、体の正面に被写体9があるものとして、センサーユニット5は撮影者7の動きを検出する。また、撮影者が被写体9を指さす場合には、指にセンサーユニット5を装着してもよい。
2.撮影システムの構成
2−1.全体構成
図4は、本実施形態の撮影システムの構成例を示す図である。本実施形態の撮影システムは、図4の構成要素(各部)の一部を省略又は変更してもよいし、他の構成要素を付加した構成としてもよい。
図4に示すように、本実施形態の撮影システム1は、センサーユニット5と被写体追従装置10とを含み、これらが無線で通信する。なお、通信の方法は無線に限らず、有線であってもよい。このとき、例えばケーブルの長さの範囲で、撮影者7は撮像装置3から離れることが可能である。
なお、本実施形態の撮影システム1では、センサーユニット5と被写体追従装置10は直接に無線通信を行うが、インターネットやLAN等の通信ネットワークを介して通信を行ってもよい。
センサーユニット5は、例えば撮像装置3の撮影状態や異常の発生を、撮影システム1に含まれない眼鏡6の液晶表示部82、又はLED表示部84に表示させて撮影者7に知らせる。後述する表示制御部53が液晶表示部82、又はLED表示部84への表示制御信号を生成する。
被写体追従装置10は、撮像装置3に被写体を追従させるために、撮影システム1に含まれない電動雲台11に駆動信号を生成して出力する。後述する駆動信号生成部26が駆動信号を生成する。電動雲台11の制御部86は、この駆動信号を受け取り、変換処理を行って又はそのままで電動雲台11の駆動部88に出力する。電動雲台11の駆動部88は例えばモーター等であって電動雲台11を動かす。これにより、撮像装置3が被写体に追従するように、その撮影角度を変化させることができる。
2−2.センサーユニットの構成
図4に示すように、センサーユニット5は、コマンド受信部40、処理部(CPU)50、モーションセンサー60、記憶部66、記録媒体68、通信部74を含んで構成されている。モーションセンサー60は本発明の第1のモーションセンサーに対応する。
コマンド受信部40は、撮影者7が撮像装置3に例えばリモコンを用いて送信するコマンドを受信して、撮像装置3の動作に連動してセンサーユニット5が動作可能であるようにする。例えば、撮影者7がリモコンで撮像装置3の電源をON又はOFFするコマンドを送信した場合に、コマンド受信部40はこれらのコマンドを受信して処理部(CPU)50に出力する。そして、処理部(CPU)50は、これらのコマンドに連動して、一連の処理を開始、又は終了するように制御してもよい。
モーションセンサー60は撮影者7の頭部の動きを検出して、処理部(CPU)50に出力する。本実施形態のモーションセンサー60は、直交する3軸のそれぞれに設けられた3つの加速度センサーと3つの角速度センサーを含むIMU(Inertial Measurement Unit:慣性姿勢計測装置)であってもよい。3軸の加速度センサーによって頭部の動きを精度よく正確に測定できる。さらに、角速度センサーによって、首の動きがスムーズでない場合でも、角速度センサーからの信号に基づいて補正が可能になり、検出精度を高めることができる。そして、含まれるセンサーの数や種類はこれに限らず、例えば磁気センサー、気圧センサー等をさらに含んでいてもよい。例えば、磁気センサーを備えていれば、頭部の位置をより正確に検出することができる。
記憶部66は、処理部(CPU)50が計算処理や制御処理を行うためのプログラムやデータ等を記憶している。また、記憶部66は、処理部(CPU)50の作業領域として用いられ、記録媒体68から読み出されたプログラムやデータ、通信部74を介して被写体追従装置10から受信したデータ、処理部(CPU)50が各種プログラムに従って実行した演算結果等を一時的に記憶するためにも使用される。
処理部(CPU)50は、記憶部66や記録媒体68に記憶されているプログラムに従って、各種の計算処理や制御処理を行う。例えば、処理部(CPU)50は、モーションセンサー60からモーションデータを受け取って、被写体追従装置10に所定の形式で送信できるように変換処理を行ってもよい。また、処理部(CPU)50は、コマンド受信部40が受け取ったコマンドに応じた各種の処理、通信部74を介した被写体追従装置10とのデータ通信を制御する処理等を行う。
本実施形態では、処理部(CPU)50は、通信制御部52、表示制御部53を含む。ただし、本実施形態の処理部(CPU)50は、これらの一部の構成(要素)を省略又は変更してもよいし、他の構成(要素)を追加した構成としてもよい。
本実施形態の処理部(CPU)50は、記録媒体68に記憶されているプログラムを実行することで、通信制御部52、表示制御部53として機能する。なお、通信制御部52、表示制御部53の少なくとも一部をハードウェア(専用回路)で実現してもよい。
記録媒体68は、例えば、メモリー(ROM、フラッシュメモリーなど)により実現することができる。なお、センサーユニット5のサイズが大きい場合には、各種の光ディスクや磁気ディスクで実現されてもよい。
通信制御部52は、通信部74を介して被写体追従装置10との間で行うデータ通信を制御する処理を行う。本実施形態では、通信制御部52はモーションセンサー60からのモーションデータを、通信部74を介して被写体追従装置10に送信する処理を行う。また、通信制御部52は、通信部74を介して被写体追従装置10から撮像装置3の撮影状態や異常の発生を受信する処理をしてもよい。
表示制御部53は、撮像装置3の撮影状態や異常の発生を受信した場合に、表示制御信号を生成して、眼鏡6の液晶表示部82やLED表示部84に表示させる。
2−3.被写体追従装置の構成
図4に示すように、被写体追従装置10は、処理部(CPU)20、記憶部30、記録媒体32、通信部34、コマンド受信部36、モーションセンサー38を含んで構成されている。モーションセンサー38は本発明の第2のモーションセンサーに対応する。本実施形態の被写体追従装置10は、図4の構成要素(各部)の一部を省略又は変更してもよいし、他の構成要素を付加した構成としてもよい。
コマンド受信部36は、センサーユニット5のコマンド受信部40と同様であるため、その説明を省略する。なお、本実施形態の撮影システム1では、コマンド受信部36とコマンド受信部40が共に存在するが、一方だけであってもよい。このとき、コマンド受信部を持つセンサーユニット5又は被写体追従装置10は、他方に通信部34、通信部74を介してコマンドを送信してもよい。
モーションセンサー38は、電動雲台11のモーションデータを取得することを除けば、センサーユニット5のモーションセンサー60と同様であるため、その説明を省略する。
記憶部30は、撮影角度補正データを含むことを除けば、センサーユニット5の記憶部66と同様であるため、その説明を省略する。なお、撮影角度補正データは、後述するキャリブレーションで用いる、被写体追従装置10と撮影者7との距離、基準点までの距離、撮影者7の頭部の動き(モーションデータ)等と補正すべき撮影角度の値をデータ化したもので、例えばテーブルとして記憶部30に保存されている。
記録媒体32は、センサーユニット5の記録媒体68と同様であるため、その説明を省略する。
処理部(CPU)20は、記憶部30や記録媒体32に記憶されているプログラムに従って、各種の計算処理や制御処理を行う。具体的には、処理部(CPU)20は、通信部34を介してセンサーユニット5からの撮影者7の頭部のモーションデータを受け取って電動雲台11を動かす駆動信号を生成する。
また、処理部(CPU)20は、コマンド受信部36からのコマンドに応じた各種の処理、モーションセンサー38からの電動雲台11のモーションデータによる駆動信号の補正処理、電界強度に応じた距離の計算処理、センサーユニット5等とのデータ通信を制御する処理等を行う。
本実施形態では、処理部(CPU)20は、データ取得部22、通信制御部24、駆動信号生成部26、距離計算部28を含む。ただし、本実施形態の処理部(CPU)20は、これらの一部の構成(要素)を省略又は変更してもよいし、他の構成(要素)を追加した構成としてもよい。
データ取得部22は、通信部34を介して撮影者7の頭部のモーションデータを受け取る。距離計算部28は、無線の電界強度を測ることで、撮影者7と撮像装置3との距離を測定する。なお、撮影者7が撮像装置3にコマンドを送るのに用いるリモコンの赤外線を利用して距離を測定してもよい。この距離は、キャリブレーションで撮影角度補正データによって補正値を定める際に使用されてもよい。
通信制御部24は、通信部34を介して行う、センサーユニット5とのデータ通信等を制御する処理を行う。
駆動信号生成部26は、駆動信号を生成する。電動雲台11の制御部86は、この駆動信号を受け取り、変換処理を行って又はそのままで電動雲台11の駆動部88に出力する。電動雲台11の駆動部88は例えばモーター等であって電動雲台11を動かす。これにより、撮像装置3が被写体に追従するように、その撮影角度を変化させることができる。
また、駆動信号生成部26は駆動信号の補正も行う。モーションセンサー38からの電動雲台11のモーションデータに基づいて、駆動信号を補正して正確な被写体の追従を可能にする。
3.撮影システムの処理
3−1.キャリブレーション
図5および図6は、本実施形態の撮影システム1の処理のフローチャートを示す図である。また、図7(A)〜図7(B)はキャリブレーションを説明する図である。図7(A)〜図7(B)は、図1(A)〜図1(B)と同じように上から見ている図であって、図1(A)〜図1(B)と同じ要素については同じ符号を付しており説明を省略する。
図5は、被写体追従装置10の処理部(CPU)20による処理のフローチャートの一例を示す図であり、図6は、センサーユニット5の処理部(CPU)50による処理のフローチャートの一例を示す図である。まず、図5および図6のフローチャートに沿って、撮像装置3が被写体9を撮影する動作(以下、単に撮影動作とする)を開始する前のキャリブレーションについて説明する。キャリブレーションとは調整処理であり、具体的には撮影角度の調整を意味する。また、適宜図7(A)〜図7(B)も用いて説明する。
被写体追従装置10の処理部(CPU)20は、例えばリモコンを用いて、撮影者7が撮像装置3の電源をONするコマンド(以下、電源ONコマンド)をコマンド受信部36で受け取り、以下に述べる処理を開始する(S10のY)。逆に、電源ONコマンドを受け取るまでは待機する(S10のN)。
センサーユニット5の処理部(CPU)50も、電源ONコマンドをコマンド受信部40で受け取り、以下に述べる処理を開始する(S110のY)。逆に、電源ONコマンドを受け取るまでは待機する(S110のN)。
被写体追従装置10の処理部(CPU)20は、基準点が設定されるまで待機する(S20のN)。基準点18(図7(A)〜図7(B)参照)はキャリブレーションで使用される、静止した被写体である。撮影者7は基準点18を設定した場合、例えばリモコン等を用いて1種のコマンドとして被写体追従装置10に知らせてもよいし、別の方法、例えば三脚12にあるボタン(不図示)を押して知らせてもよい。基準点までの距離は、例えば撮像装置3のオートフォーカス機能などを利用して得られる。以下では、基準点18(および被写体9)までの距離は、電動雲台11を介して被写体追従装置10に伝えられるものとする。
被写体追従装置10の処理部(CPU)20は、基準点が設定されると(S20のY)、センサーユニット5に撮影者7の頭部の動き(ここでは、頭部の姿勢すなわち視線の方向)を表すモーションデータを要求する(S22)。そして、モーションデータを受け取るまで待機する(S24のN)。
センサーユニット5の処理部(CPU)50は、モーションデータの送信要求を受け取るまで待機しているが(S120のN)、被写体追従装置10からの要求を受けて(S120のY)モーションデータを送信する(S122)。このとき、キャリブレーションはまだ終了していないので(S144のN)、次のモーションデータの送信要求を受け取るまで待機する(S120のN)。
被写体追従装置10の処理部(CPU)20は、センサーユニット5からモーションデータを受け取ると(S24のY)、センサーユニット5のモーションセンサー60と被写体追従装置10のモーションセンサー38の軸合わせを実行する(S26)。ここで、本実施形態ではモーションセンサー60とモーションセンサー38とは同じ構成のセンサーを用いており、軸合わせとは対応する各センサーの軸を合わせることを意味する。
このステップS22〜S26の処理は、第1のキャリブレーションに対応する。第1のキャリブレーションについて図7(A)を用いて説明する。第1のキャリブレーションでは、図7(A)のように撮影者7が撮像装置3と同じ位置で基準点18を見る。例えば、撮影者7は撮像装置3のファインダーを覗きながら基準点18を見てもよい。このとき、撮影者7の視線8と撮像装置3の撮影方向4が一致する。
撮影者7の眼鏡6に装着されたセンサーユニット5のモーションセンサー60の軸と、撮像装置3を取り付けた電動雲台11と一体となった被写体追従装置10のモーションセンサー38の軸とを合わせることで、その後の撮影者7の頭部の動きに合わせて電動雲台11を動かすことができる。
再び図5、図6を用いて撮影システム1の処理を説明する。被写体追従装置10の処理部(CPU)20は、撮影者7が撮像装置3から離れて、被写体9を見る実際の場所(以下、観察場所)に移動するまで待機する(S30のN)。撮影者7は観察場所に移動した場合に、例えばリモコン等を用いて1種のコマンドとして被写体追従装置10に知らせてもよい。また、別の方法、例えばセンサーユニット5にあるボタン(不図示)を押して、センサーユニット5の通信部74を介して被写体追従装置10に知らせてもよい。
被写体追従装置10の処理部(CPU)20は、撮影者7が観察場所に移動すると(S30のY)、センサーユニット5に撮影者7の頭部の動き(ここでは、頭部の姿勢すなわち視線の方向)を表すモーションデータを要求する(S32)。そして、モーションデータを受け取るまで待機する(S34のN)。
センサーユニット5の処理部(CPU)50は、被写体追従装置10からの要求を受けて(S120のY)モーションデータを送信する(S122)。
被写体追従装置10の処理部(CPU)20は、センサーユニット5からモーションデータを受け取ると(S34のY)、撮影角度補正データを記憶部30から読み出して、撮影角度を補正する(S36)。ここでの補正とは、基準点18に対する、撮影者7の視線8と撮像装置3の撮影方向4とが成す角度(以下、基準点補正角)を求めることに対応する。
そして、撮影動作においては、例えば撮像装置3と移動する被写体との距離と、撮像装置3と基準点まで距離との比率を求めて、基準点補正角をもとに撮影角度を計算することで、被写体を追従することを可能にする。
このステップS32〜S36の処理は、第2のキャリブレーションに対応する。第2のキャリブレーションについて図7(B)を用いて説明する。第2のキャリブレーションでは、図7(B)のように撮影者7が観察場所に移動して、撮像装置3から離れて基準点18を見る。このとき、撮影者7の視線8と撮像装置3の撮影方向4が成す角度を求めて、撮影角度を補正する。
第2のキャリブレーションを実行することによって、実際の観察場所における撮影者7の視線と電動雲台11に取り付けられた撮像装置3の撮影方向とのずれを吸収するための撮影角度を求めることができる。このため、撮像装置と撮影者との間に被写体がある場合でも、正しく被写体に追従して撮影できる。
その後、被写体追従装置10の処理部(CPU)20は、撮影者7が試し撮りを実行し(S40)、目的の対象物が撮影されていることを確認したならば(S42のY)、センサーユニット5にキャリブレーションが終了したことを伝える(S44)。もし、目的の対象物が撮影されていなければ(S42のN)、ステップS32に戻って第2のキャリブレーションを再度実行する。
その後、被写体追従装置10の処理部(CPU)20は、撮影者7が撮像装置3の電源をOFFするコマンド(以下、電源OFFコマンド)を受け取るまで(S52のN)、撮影動作を実行し(S50)、電源OFFコマンドを受け取ると(S52のY)処理を終了する。なお、被写体追従装置10の撮影動作(被写体追従装置側撮影動作)については後述する。
センサーユニット5の処理部(CPU)50は、被写体追従装置10からキャリブレーションが終了したことを受け取ると(S144のY)、電源OFFコマンドを受け取るまで(S152のN)、撮影動作を実行し(S150)、電源OFFコマンドを受け取ると(S152のY)処理を終了する。なお、センサーユニット5の撮影動作(センサーユニット側撮影動作)については後述する。
3−2.撮影動作
図8および図9は、本実施形態の撮影システム1の撮影動作における処理のフローチャートを示す図である。図8は、被写体追従装置10の処理部(CPU)20による処理のフローチャートの一例を示す図であり、図9は、センサーユニット5の処理部(CPU)50による処理のフローチャートの一例を示す図である。
被写体追従装置10の処理部(CPU)20は、例えばリモコンを用いて、撮影者7が撮像装置3に撮影を開始させるコマンド(以下、撮影開始コマンド)をコマンド受信部36で受け取り、以下に述べる処理を開始する(S210のY)。逆に、撮影開始コマンドを受け取るまでは待機する(S210のN)。
センサーユニット5の処理部(CPU)50も、撮影開始コマンドをコマンド受信部40で受け取り、以下に述べる処理を開始する(S310のY)。逆に、撮影開始コマンドを受け取るまでは待機する(S310のN)。
センサーユニット5の処理部(CPU)50は、撮影者7が被写体9を見て視線8を動かす動きを計測してモーションデータを送信する。つまり、モーションセンサー60が撮影者7の頭部の動きを計測して(S312)、通信部74を介してモーションデータを被写体追従装置10に送信する(S314)。
被写体追従装置10の処理部(CPU)20は、モーションデータを受け取るまで待機する(S212のN)。そして、センサーユニット5からモーションデータを受け取った場合には(S212のY)、ACK(ACKnowledge:肯定応答)信号をセンサーユニット5に送信する(S214)。
センサーユニット5の処理部(CPU)50は、駆動信号生成部26によって、まず電動雲台11を動かすための駆動信号を生成する。このとき、第2のキャリブレーションの結果に基づいて撮影角度の補正も行われる。つまり、基準点補正角をもとに、撮像装置3と移動する被写体との距離と、撮像装置3と基準点まで距離との比率を求めて、基準点補正角をもとに撮影角度を計算する。そして、計算結果に合わせて駆動信号を生成する。この駆動信号によって、撮像装置3が被写体9を追従するように電動雲台11を動かすことができる。
しかし、本実施形態では撮影者7は実際の被写体9を映像で見ることはできない。そのため、撮像装置3が被写体9を正しく追従していることを確認する機能を備えることが好ましい。被写体追従装置10は、モーションセンサー38で電動雲台11の動きを計測する(S218)。そして、モーションセンサー38が計測した電動雲台11のモーションデータと、駆動信号生成部26が生成した駆動信号とを比較する(S220)。このとき、比較可能なように、モーションデータ又は駆動信号の一方を他方の形式に合わせる変換処理をしてから比較してもよい。
被写体追従装置10の処理部(CPU)20は、差異がある場合には(S222のY)、駆動信号を補正して(S224)、再びステップS218に戻って電動雲台11の動きを計測する。
被写体追従装置10の処理部(CPU)20は、差異がない場合(S222のN)には、撮影者7が撮像装置3に撮影を停止させるコマンド(以下、撮影停止コマンド)を送信したかを確認する(S226)。なお、ステップS222の差異がない場合とは、駆動信号生成部26が生成した駆動信号の通りに電動雲台11が動いている場合である。
被写体追従装置10の処理部(CPU)20は、撮影停止コマンドがあった場合には(S226のY)、一連の撮影動作の処理を終了する。撮影停止コマンドがない場合には(S226のN)、ステップS212に戻って、一連の撮影動作の処理を繰り返す。
センサーユニット5の処理部(CPU)50は、モーションデータを被写体追従装置10に送信した後に、被写体追従装置10からACK信号を受け取らない場合には(S316のN)、警告を表示させて(S320)、一連の処理を終了する。なお、警告の表示とは、例えばLED表示部84を点滅させる表示であってもよい。
センサーユニット5の処理部(CPU)50は、被写体追従装置10からACK信号を受け取った場合には(S316のY)、撮影停止コマンドを確認する。撮影停止コマンドがあった場合には(S326のY)、一連の撮影動作の処理を終了する。撮影停止コマンドがない場合には(S326のN)、ステップS312に戻って、一連の撮影動作の処理を繰り返す。
なお、図9では省略しているが、センサーユニット5の処理部(CPU)50は、撮影開始コマンドを受け取った後で(S310のY)、撮影者7が撮像装置3のズームを調整するコマンドをコマンド受信部40で受け取った場合には、例えば液晶表示部82に対応した枠(図3(B)参照)を表示させてもよい。また、被写体追従装置10から例えば三脚が転倒した等の異常を、通信部74を介して受け取った場合には、LED表示部84を点滅させてもよい。
以上のように、本実施態様によれば、例えば眼鏡6の一部と一体化する自然な装着感のセンサーユニットを装着した撮影者7が、自分の目で被写体9を見ることで、離れた場所にある撮像装置3に被写体9を自動的に追従させることが可能になる。このとき、被写体追従装置10は、撮像装置3が取り付けられた電動雲台11の動きを計測して、被写体9の追従に必要な補正を行う。そのため、撮影者7が撮像装置3の映像をヘッドマウントディスプレイ等で見なくても、撮像装置3が被写体9を正しく撮影することを可能にする。
4.その他
本発明は、実施形態で説明した構成と実質的に同一の構成(例えば、機能、方法および結果が同一の構成、あるいは目的および効果が同一の構成)を含む。また、本発明は、実施形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施形態で説明した構成に公知技術を付加した構成を含む。
1 撮影システム、3 撮像装置、4 撮影方向、5 センサーユニット、6 眼鏡、7 撮影者、8 視線、9 被写体、10 被写体追従装置、11 電動雲台、12 三脚、18 基準点、20 処理部(CPU)、22 データ取得部、24 通信制御部、26 駆動信号生成部、28 距離計算部、30 記憶部、32 記録媒体、34 通信部、36 コマンド受信部、38 モーションセンサー、40 コマンド受信部、50 処理部(CPU)、52 通信制御部、53 表示制御部、60 モーションセンサー、66 記憶部、68 記録媒体、74 通信部、82 液晶表示部、84 LED表示部、86 制御部、88駆動部

Claims (7)

  1. 撮影者に装着され、前記撮影者の動きを検出する第1のモーションセンサーを含むセンサーユニットと、
    撮像装置を取り付ける雲台と一体に設けられ、前記雲台の動きを検出する第2のモーションセンサーを含み、前記第1のモーションセンサーが検出した前記撮影者の動きに基づいて、前記第2のモーションセンサーにより前記雲台の動きを制御して前記撮像装置を被写体に追従させる被写体追従装置と、を含む、撮影システム。
  2. 請求項1に記載の撮影システムにおいて、
    前記センサーユニットは前記撮影者の頭部に装着される、撮影システム。
  3. 請求項1又は2に記載の撮影システムにおいて、
    前記第1のモーションセンサーおよび前記第2のモーションセンサーが、加速度センサー、角速度センサーおよび磁気センサーの少なくとも1つである、撮影システム。
  4. 請求項1乃至3のいずれか1項に記載の撮影システムにおいて、
    前記被写体追従装置は、
    前記撮影者が前記撮像装置と同じ位置で静止した被写体である基準点を見た場合に前記撮像装置が前記基準点を撮影するように調整する第1のキャリブレーションと、
    前記撮影者が前記撮像装置から離れて前記基準点を見た場合に前記撮像装置が前記基準点を撮影するように調整する第2のキャリブレーションと、を行う、撮影システム。
  5. 請求項1乃至4のいずれか1項に記載の撮影システムにおいて、
    前記センサーユニットは、
    前記撮影者の頭部に装着される表示部を備えた部材に装着され、
    前記表示部に、前記撮像装置の撮影方向および撮影範囲の少なくとも一方に応じた表示をさせる表示制御信号を生成する、撮影システム。
  6. 請求項5に記載の撮影システムにおいて、
    前記センサーユニットは、
    前記撮影者の眼鏡に装着される、撮影システム。
  7. 撮影者に装着され、前記撮影者の動きを検出する第1のモーションセンサーを含むセンサーユニットと、撮像装置を取り付ける雲台と一体に設けられ、前記雲台の動きを検出する第2のモーションセンサーを含み、前記第1のモーションセンサーが検出した前記撮影者の動きに基づいて、前記第2のモーションセンサーにより前記雲台の動きを制御して前記撮像装置を被写体に追従させる被写体追従装置と、を利用して、前記撮影者が前記撮像装置と同じ位置で静止した被写体である基準点を見た場合に前記撮像装置が前記基準点を撮影するように調整するステップと、
    前記撮影者が前記撮像装置から離れて前記基準点を見た場合に前記撮像装置が前記基準点を撮影するように調整するステップと、を含む、撮影方法。
JP2012088185A 2012-04-09 2012-04-09 撮影システムおよび撮影方法 Withdrawn JP2013219541A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012088185A JP2013219541A (ja) 2012-04-09 2012-04-09 撮影システムおよび撮影方法
US13/857,368 US9215362B2 (en) 2012-04-09 2013-04-05 Image capturing system and image capturing method
CN2013101198509A CN103369243A (zh) 2012-04-09 2013-04-08 拍摄系统及拍摄方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012088185A JP2013219541A (ja) 2012-04-09 2012-04-09 撮影システムおよび撮影方法

Publications (2)

Publication Number Publication Date
JP2013219541A true JP2013219541A (ja) 2013-10-24
JP2013219541A5 JP2013219541A5 (ja) 2015-05-07

Family

ID=49291995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012088185A Withdrawn JP2013219541A (ja) 2012-04-09 2012-04-09 撮影システムおよび撮影方法

Country Status (3)

Country Link
US (1) US9215362B2 (ja)
JP (1) JP2013219541A (ja)
CN (1) CN103369243A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10638046B2 (en) 2014-02-21 2020-04-28 Sony Corporation Wearable device, control apparatus, photographing control method and automatic imaging apparatus

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10076109B2 (en) 2012-02-14 2018-09-18 Noble Research Institute, Llc Systems and methods for trapping animals
US8929709B2 (en) 2012-06-11 2015-01-06 Alpinereplay, Inc. Automatic digital curation and tagging of action videos
US10548514B2 (en) 2013-03-07 2020-02-04 Alpinereplay, Inc. Systems and methods for identifying and characterizing athletic maneuvers
US10408857B2 (en) 2012-09-12 2019-09-10 Alpinereplay, Inc. Use of gyro sensors for identifying athletic maneuvers
US10932103B1 (en) * 2014-03-21 2021-02-23 Amazon Technologies, Inc. Determining position of a user relative to a tote
US9237743B2 (en) 2014-04-18 2016-01-19 The Samuel Roberts Noble Foundation, Inc. Systems and methods for trapping animals
JP6650936B2 (ja) * 2014-07-07 2020-02-19 ルイ ディップDIEP, Louis カメラ制御および画像ストリーミング
US9277779B1 (en) * 2014-09-02 2016-03-08 Yee Chong Leung Warm cap with security features
WO2016134031A1 (en) * 2015-02-17 2016-08-25 Alpinereplay, Inc Systems and methods to control camera operations
US10444018B2 (en) 2015-02-27 2019-10-15 Microsoft Technology Licensing, Llc Computer-implemented method to test the sensitivity of a sensor for detecting movement of a tracking device within an established frame of reference of a moving platform
US10111620B2 (en) 2015-02-27 2018-10-30 Microsoft Technology Licensing, Llc Enhanced motion tracking using transportable inertial sensors to determine that a frame of reference is established
CN107004111A (zh) * 2015-07-28 2017-08-01 松下知识产权经营株式会社 移动方向确定方法以及移动方向确定装置
JP2017060078A (ja) * 2015-09-18 2017-03-23 カシオ計算機株式会社 画像録画システム、ユーザ装着装置、撮像装置、画像処理装置、画像録画方法、及びプログラム
CN105901815A (zh) * 2016-07-11 2016-08-31 贵州鸿昌科技有限公司 一种电力行业杆塔作业安全帽系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0686151A (ja) * 1992-09-03 1994-03-25 Sony Corp 撮像システム及びそれに用いる撮像用機器
JP2009267480A (ja) * 2008-04-22 2009-11-12 Panasonic Corp 雲台システムとそれを用いた撮影システム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5610678A (en) 1993-12-30 1997-03-11 Canon Kabushiki Kaisha Camera including camera body and independent optical viewfinder
JPH07199281A (ja) 1993-12-30 1995-08-04 Canon Inc カメラシステム
JP3235809B2 (ja) 1994-01-18 2001-12-04 キヤノン株式会社 光学機器の立体リンク機構
JP2000333161A (ja) 1999-05-21 2000-11-30 Hitachi Denshi Ltd 監視用cctvシステム
AU774734B2 (en) * 1999-05-28 2004-07-08 David E. Grober Autonomous, self leveling, self correcting stabilized platform
GB2394852B (en) * 2002-10-31 2006-12-20 Hewlett Packard Co Image capture systems using motion detection
US20050134685A1 (en) * 2003-12-22 2005-06-23 Objectvideo, Inc. Master-slave automated video-based surveillance system
CN101115193A (zh) * 2006-07-25 2008-01-30 上海乐金广电电子有限公司 数码摄像机的同步监视控制方法
US20080036862A1 (en) * 2006-08-11 2008-02-14 Steve Lang Digital video surveillance system
JP2009272921A (ja) * 2008-05-08 2009-11-19 Panasonic Corp 動画像記録装置、動画像再生装置、動画像記録方法、動画像再生方法および半導体集積回路
WO2010073608A1 (ja) * 2008-12-26 2010-07-01 パナソニック株式会社 撮像装置
WO2014008504A1 (en) * 2012-07-06 2014-01-09 H4 Engineering, Inc. A remotely controlled automatic camera tracking system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0686151A (ja) * 1992-09-03 1994-03-25 Sony Corp 撮像システム及びそれに用いる撮像用機器
JP2009267480A (ja) * 2008-04-22 2009-11-12 Panasonic Corp 雲台システムとそれを用いた撮影システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10638046B2 (en) 2014-02-21 2020-04-28 Sony Corporation Wearable device, control apparatus, photographing control method and automatic imaging apparatus

Also Published As

Publication number Publication date
US9215362B2 (en) 2015-12-15
CN103369243A (zh) 2013-10-23
US20130265440A1 (en) 2013-10-10

Similar Documents

Publication Publication Date Title
JP2013219541A (ja) 撮影システムおよび撮影方法
US11334155B2 (en) Smart glasses, method and device for tracking eyeball trajectory, and storage medium
US10591735B2 (en) Head-mounted display device and image display system
US10365710B2 (en) Head-mounted display device configured to display a visual element at a location derived from sensor data and perform calibration
CN111213375B (zh) 信息处理装置、信息处理方法以及程序
CN107925713B (zh) 摄像系统及摄像控制方法
WO2020139736A1 (en) Headset adjustment for optimal viewing
JP6258318B2 (ja) 眼鏡を装着する人の形態幾何学的パラメータの測定方法
JP2017224984A (ja) プログラム、装置、キャリブレーション方法
JP2015179254A (ja) 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム
US20160170482A1 (en) Display apparatus, and control method for display apparatus
JP6631014B2 (ja) 表示システム、及び表示制御方法
JP2017092628A (ja) 表示装置、及び、表示装置の制御方法
JP2019066618A (ja) 画像表示システム、画像表示方法及び画像表示プログラム
WO2019176491A1 (ja) 視線検出装置、該視線検出装置の制御方法、角膜反射像位置の検出方法、コンピュータプログラム、及び記憶媒体
US20180122145A1 (en) Display apparatus, display system, and control method for display apparatus
CN105828021A (zh) 基于增强现实技术的特种机器人图像采集控制方法及系统
JP2016213548A (ja) 撮影システム、撮影方法、検知装置及び撮影装置
JP4946914B2 (ja) カメラシステム
JP6780161B2 (ja) 視線検出装置及び視線検出方法
JP6379639B2 (ja) 眼鏡装用パラメータ測定用撮影装置、眼鏡装用パラメータ測定用撮影プログラム
JP2024088392A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
KR20160144245A (ko) 프로젝터 장치
JP2013135448A (ja) 撮像装置
JP6379502B2 (ja) 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150318

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20160219