[go: up one dir, main page]

JP7775072B2 - レンズシステム - Google Patents

レンズシステム

Info

Publication number
JP7775072B2
JP7775072B2 JP2021211480A JP2021211480A JP7775072B2 JP 7775072 B2 JP7775072 B2 JP 7775072B2 JP 2021211480 A JP2021211480 A JP 2021211480A JP 2021211480 A JP2021211480 A JP 2021211480A JP 7775072 B2 JP7775072 B2 JP 7775072B2
Authority
JP
Japan
Prior art keywords
lens
gesture
control
focus position
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021211480A
Other languages
English (en)
Other versions
JP2023095529A (ja
Inventor
智治 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tamron Co Ltd
Original Assignee
Tamron Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tamron Co Ltd filed Critical Tamron Co Ltd
Priority to JP2021211480A priority Critical patent/JP7775072B2/ja
Priority to US17/988,392 priority patent/US12273615B2/en
Priority to CN202211443898.0A priority patent/CN116347206A/zh
Publication of JP2023095529A publication Critical patent/JP2023095529A/ja
Application granted granted Critical
Publication of JP7775072B2 publication Critical patent/JP7775072B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/42Graphical user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Lens Barrels (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、レンズシステムに関する。
近年、動画投稿サイトの普及によって、人々が動画撮影を行う機会が増えてきている。動画撮影は、個人が自分自身を被写体として撮影する(いわゆる「自撮り」)状況で行われることもあれば、被写体とは別に撮影を専門に行うカメラマン又はフォーカスマンがショートムービーを撮影する状況で行われることもある。いずれの状況の場合でも、手軽な操作で撮影できる撮像装置が好まれることが多い。
このような撮像装置として、例えば特許文献1には、ユーザからの指示を受け付けるタッチディスプレイ手段を備え、タッチダウン操作に対応するコマンドを実行する撮像装置が記載されている。
特開2016-127524号公報
しかしながら、特許文献1に記載の従来技術において、タッチダウン操作が入力されるタッチディスプレイが撮像装置に内蔵されているので、タッチダウン操作がレンズの手振れを誘発する、という問題がある。
本発明は、上述した課題に鑑みてなされたものであり、その目的は、手振れを減じる又は回避しつつ、手軽な操作でレンズを制御することができる技術を提供することである。
上記の課題を解決するために、本発明の一態様に係るレンズシステムは、レンズと、前記レンズから分離された操作端末であって、タッチパネルを有する操作端末と、前記タッチパネルに入力されたジェスチャコマンドに応じて、前記レンズを制御するコントローラと、を含んでいる。
本発明の一態様によれば、手振れを減じる又は回避しつつ、手軽な操作でレンズを制御することができる技術を提供することができる。
本発明の一実施形態に係るレンズシステムの構成を示すブロック図である。 図1に示す操作端末と、レンズに含まれるコントローラとが実行する制御方法の流れを示すフローチャートである。 図1に示す操作端末に含まれるタッチパネルに表示される画面の一具体例を示す図である。 図1に示す操作端末において、フォーカス制御のために、タッチパネルに入力されるジェスチャコマンド、及びタッチパネルに表示される画面の遷移の一具体例を示す図である。 図1に示す操作端末において、絞り制御のために、タッチパネルに入力されるジェスチャコマンド及びタッチパネルに表示される画面の遷移の一具体例を示す図である。 図1に示す操作端末において、ズーム制御のために、タッチパネルに入力されるジェスチャコマンド、及びタッチパネルに表示される画面の遷移の一具体例を示す図である。 図1に示す操作端末において、プリセット記憶のために、タッチパネルに入力されるジェスチャコマンド、及びタッチパネルに表示される画面の遷移の一具体例を示す図である。 図1に示す操作端末において、プリセット復元のために、タッチパネルに入力されるジェスチャコマンド、及びタッチパネルに表示される画面の遷移の一具体例を示す図である。
以下、本発明の一実施形態について、詳細に説明する。
(レンズシステムの構成)
本発明の一実施形態に係るレンズシステム100の構成について、図1を参照して説明する。図1は、本発明の一実施形態に係るレンズシステム100の構成を示すブロック図である。レンズシステム100は、静止画撮影及び動画撮影のうち少なくとも一方において、被写体の像を好適に得るためにレンズを制御するためのシステムである。なお、本明細書において、「レンズ」とは、少なくとも1枚の単レンズと、当該少なくとも1枚の単レンズを囲う鏡筒とを有するレンズユニットを指す。
図1に示すように、レンズシステム100は、レンズ10と、操作端末20と、を含んでいる。レンズ10と操作端末20とは、通信手段を介して互いに通信可能に接続されている。本実施形態において、レンズ10と操作端末20とは、レンズ10に含まれる通信インターフェース33と操作端末20に含まれる通信インターフェース23とを介して、USB(Universal Serial Bus)ケーブルによって接続されている。
なお、本実施形態においては、レンズ10と操作端末20とを接続する通信手段として、USBケーブルを用いているが、本発明は、これに限定されない。レンズ10と操作端末20とを接続する通信手段は、レンズと操作端末との間での電子データの送受信を媒介可能な手段であればよく、有線通信手段又は無線通信手段の何れであってもよい。無線通信手段の具体例として、Wifi(登録商標)通信、NFC(Near Field Communication)、及びBluetooth(登録商標)通信等が挙げられる。また、通信手段は、レンズと操作端末とを直接的に接続するものであってもよく、間接的に接続するものであってもよい。レンズ10と操作端末20との間に介在し得るネットワークとしては、例えば、LAN(Local Area Network)が挙げられる。
また、本発明において、レンズ10と操作端末20とを接続する通信手段がケーブルである場合、ケーブルの長さは、操作端末20の振動がレンズ10へと実質的に伝播しない程度の長さであることが好ましい。ケーブルの長さは、例えば、0.1m以上、0.5m以上、1m以上、2m以上、5m以上、又は10m以上であり、且つ100m以下であるが、これらに限定されない。
操作端末20は、レンズシステム100への指示としてユーザがジェスチャコマンドを入力するための構成である。本実施形態において、操作端末20として、スマートフォンが用いられる。図1に示すように、操作端末20は、レンズ10から分離されており、タッチパネル21と、プロセッサ22と、通信インターフェース23と、を有する。
なお、本明細書において、「ジェスチャコマンド」とは、タッチパネルに接触した指の軌跡によって内容が特定される操作のことを指す。軌跡の形状が同じであれば、軌跡の始点が異なっていても、同じ内容のジェスチャコマンドであると解釈される。ここで、ユーザは、装置として存在するタッチパネルを直接タッチしてもよいし、コンピュータ上に実現される仮想的なタッチパネルを、ポインティングデバイスを用いてタッチしてもよい。
タッチパネル21は、ユーザがジェスチャコマンドを入力するための構成である。本実施形態において、タッチパネル21は、ユーザがジェスチャコマンドを入力するタッチセンサと、レンズシステム100の制御状態をユーザに対して表示するディスプレイとが一体的に組み合わされた電子部品である。タッチセンサにおける変換の方式は、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式及び光センサ方式等の公知の方式を適宜に採用することができる。ディスプレイとしては、液晶ディスプレイ及び有機エレクトロルミネセンス(EL)ディスプレイ等の公知のディスプレイを用いることができる。
プロセッサ22は、操作端末20全体の動作を制御するための構成である。プロセッサ22は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は、それらの組み合わせである。プロセッサ22は、操作端末20のメモリに記憶された制御処理プログラムP20を展開及び実行することによって、制御処理S1における操作端末20側の処理を主に実行する。
通信インターフェース23は、各種データの、操作端末20からの送信、及び操作端末20による受信を制御するための構成である。本実施形態において、通信インターフェース23として、USBインターフェースが用いられる。
なお、操作端末20は、スマートフォンに限定されず、タッチパネルを有する端末であればよい。スマートフォン以外の操作端末20の例としては、タブレット型PC(Personal Computer)、PDA(Personal Digital Assistant)、及びスマートウォッチ等が挙げられる。
また、本実施形態においては、タッチパネル21として、タッチセンサとディスプレイとが一体的に組み合わされた電子部品を用いているが、本発明は、これに限定されない。タッチパネル21は、タッチセンサとディスプレイとが分離されていてもよい。タッチセンサとディスプレイとが分離されているタッチパネル21を備える操作端末20の例としては、タッチパッドを備えたPCが挙げられる。また、タッチパネル21は、タッチセンサのみでもよい。タッチセンサのみのタッチパネル21を備える操作端末20の例としては、タッチセンサ付きのカメラ用のジンバル(スタビライザー)が挙げられる。また、タッチセンサは、指での直接的な入力を媒介する電子部品に限定されず、間接的な入力が可能な電子部品でもあってもよい。間接的な入力が可能な電子部品としては、マウス及びタッチペンが挙げられる。
レンズ10は、カメラに装着可能なレンズであって、当該カメラが備えるイメージセンサ上に被写体を結像させるための構成である。本実施形態において、レンズ10として、カメラに対して着脱可能に装着されるズームレンズが用いられる。図1に示すように、レンズ10は、レンズ10に内蔵されているコントローラ30と、光学系40とを含んでいる。
コントローラ30は、ユーザによって入力されたジェスチャコマンドに応じて、レンズ10を制御するための構成である。コントローラ30が実行する制御処理S1は、参照する図面を代えて後述する。本実施形態において、コントローラ30として、MCU(Micro Controller Unit)が用いられる。図1に示すように、コントローラ30は、メモリ31と、プロセッサ32と、通信インターフェース33と、を有する。
なお、以下では、コントローラ30がレンズ10に内蔵されている構成が説明されるが、コントローラ30は、レンズ10が装着されているカメラに内蔵されてもよい。コントローラ30がカメラに内蔵されている構成においては、コントローラ30は、カメラが備えるマウントであって、レンズ10が装着されているマウントを介したマウント通信によって、後述する光学系40と互いに通信可能に接続されている。
メモリ31は、プリセット情報を記憶するための構成である。本実施形態において、メモリ31は、一次メモリ及び二次メモリを含んでいる。一次メモリは、プリセット情報を揮発的に記憶する機能を有する。二次メモリは、制御処理プログラムP10を不揮発的に記憶する機能を有する。本実施形態において、一次メモリとして、DRAM(Dynamic Random Access Memory)が用いられ、二次メモリとして、フラッシュメモリが用いられる。図1に示すように、メモリ31は、一次メモリの機能的構成として、4つの記憶領域311、312、313及び314を有している。なお、一次メモリに記憶されたプリセット情報は、メモリ31が電源オフであっても保持されるように、電源オフ時にはEEPROM(登録商標、Electronically Erasable and Programmable Read Only Memory)等の不揮発性メモリに保存され、電源オン時にはEEPROMから一次メモリへ復元されてもよい。
なお、制御処理プログラムP10は、メモリ31に含まれる二次メモリにではなく、遠隔のサーバ上に記憶されていてもよい。このような場合、制御処理プログラムP10は、サーバから、有線又は無線の任意の伝送媒体を介して、コントローラ30に供給されてもよい。また、4つの記憶領域311,312,313および314は、コントローラ30のメモリ31にではなく、操作端末20のメモリに含まれてもよい。このような場合、プリセット情報は通信インターフェース23を介して、コントローラ30に供給されてもよい。
また、本実施形態において、メモリ31が備える記憶領域の数が4であるが、本発明は、これに限定されない。メモリ31が備える記憶領域の数は、1以上であればよく、例えば、1、2、3、4、5、6、又はそれ以上としてもよい。また、記憶領域の数は、用途に応じてユーザが制御処理プログラムP10及びP20を介してカスタマイズできるように構成されてもよい。例えば、ユーザは、一撮影においては記憶領域の数を3に設定し、別の撮影においては記憶領域の数を8に設定してもよい。
プロセッサ32は、レンズ10全体の動作を制御するための構成である。プロセッサ32は、メモリ31に記憶された制御処理プログラムP10を展開することによって、制御処理S1におけるレンズ10側の処理を主に実行する。本実施形態において、プロセッサ32としては、CPUが用いられる。
通信インターフェース33は、各種データの、レンズ10からの送信、及びレンズ10による受信を制御するための構成である。本実施形態において、通信インターフェース33は、USBインターフェースが用いられる。
光学系40は、被写体を通る光軸OA上に配置された光学要素群である。図1に示すように、光学系40は、フォーカス群41と、ズーム群42と、絞り43と、を光学要素として有する。なお、光学系40において、フォーカス群41、ズーム群42、及び絞り43の相対的な位置関係は、図1に示される位置関係には限定されず、適宜に変形可能である。
フォーカス群41は、レンズ10に含まれる光学系40全体のフォーカス位置を変化させるための光学要素である。以下、本明細書において、「レンズ10に含まれる光学系40全体のフォーカス位置」を「レンズ10のフォーカス位置」、又は、単に「フォーカス位置」と記載することがある。フォーカス群41は、1枚以上の単レンズの集合を有している。フォーカス群41は、当該集合のうち少なくとも一部を光軸OAに沿って移動させる駆動系と併用される。本実施形態において、駆動系は、光軸OAに沿って延在するレールと、レールに沿って1枚以上の単レンズを移動させるモータと、レールにおける1枚以上の単レンズの位置を検出しプロセッサ32に送信するセンサと、を有している。レンズシステム100において、モータが駆動することにより、レンズ10のフォーカス位置が変化する。本明細書において、「フォーカス制御」とは、フォーカス位置を変化させることを少なくとも含むことが意図される。
ズーム群42は、レンズ10に含まれる光学系40全体の画角(すなわち、ズーム倍率)を変化させるための光学要素である。以下、本明細書において、「レンズ10に含まれる光学系40全体の画角」を「レンズ10のズーム倍率」、又は、単に「ズーム倍率」と記載することがある。ズーム群42は、2枚以上の単レンズの集合を有している。ズーム群42は、当該集合のうち一部を光軸OAに沿って移動させる駆動系と併用される。本実施形態において、駆動系は、光軸OAに沿って延在するレールと、レールに沿って1枚以上の単レンズを移動させるモータと、レールにおける1枚以上の単レンズの位置を検出しプロセッサ32に送信するセンサと、を有している。レンズシステム100において、モータが駆動することにより、レンズ10のズーム倍率が変化する。本明細書において、「ズーム制御」とは、ズーム倍率を変化させることを少なくとも含むことが意図される。
絞り43は、レンズ10に含まれる光学系40全体の光束径を規定し、それによって、光学系40全体の絞り値を変化させるための光学要素である。以下、本明細書において、「レンズ10に含まれる光学系40全体の絞り値」を「レンズ10の絞り値」、又は、単に「絞り値」と記載することがある。絞り43は、光軸OAに対して垂直な面上にリング状に配置された絞り羽根を有している。絞り43は、絞り羽根を開閉させるモータと、絞り羽根の開閉の程度を検出しプロセッサ32に送信するセンサと併用される。レンズシステム100において、モータが駆動することにより、レンズ10の絞り値が変化する。本明細書において、「絞り制御」とは、絞り値を変化させることを少なくとも含むことが意図される。
本明細書において、光学系40に含まれる光学要素の設定を、以下「レンズシステム100の制御状態」、又は単に「制御状態」と記載することがある。
なお、光学系40は、上述したフォーカス群41、ズーム群42及び絞り43を含む構成に限定されない。本発明において、光学系40は、フォーカス群41、ズーム群42及び絞り43のうち少なくとも1つを有していればよい。
また、本発明において、フォーカス群41、ズーム群42及び絞り43それぞれもまた、上述した構成に限定されない。フォーカス群41、ズーム群42及び絞り43それぞれは、光学系40のフォーカス位置、ズーム倍率及び絞り値それぞれを変化させることができる構成と、その現在の設定をコントローラ30のプロセッサ32に対して送信することができる構成とを有していればよい。
なお、本発明において、レンズ10は、上述した構成を有するズームレンズに限定されない。レンズ10は、光学要素群のうち少なくとも1つが駆動できるように構成されていればよい。また、本発明において、レンズ10は、カメラに対して着脱可能に装着されてもよいし、カメラに対して一体的に装着されており、当該カメラから脱離不可能であってもよい。カメラに対して着脱可能に装着されるレンズ10の例としては、ズームレンズ、及び単焦点レンズが挙げられる。レンズ10がカメラに対して一体的に装着されているカメラの例としては、コンパクトデジタルカメラ、ビデオカメラ、監視カメラ、遠赤外線カメラ、及び顕微鏡用カメラ等が挙げられる。
(レンズの制御処理)
レンズ10の制御処理S1ついて、図2を参照して説明する。図2は、図1に示す操作端末20と、レンズ10に含まれるコントローラ30とが実行する制御方法の流れを示すフローチャートである。制御処理S1は、被写体の像を好適に得るためにレンズ10を制御する処理である。
制御処理S1は、図2に示すように、検出処理S11と、特定処理S12と、フォーカス変化算出処理S131と、絞り変化算出処理S141と、ズーム変化算出処理S151と、記憶領域選択処理S161と、記憶領域選択処理S171と、を含んでいる。本実施形態において、これらの処理は、操作端末20のプロセッサ22が処理主体となって実行される。
制御処理S1は、図2に示すように、フォーカス位置算出処理S132と、フォーカス制御処理S133と、絞り値算出処理S142と、絞り制御処理S143と、ズーム倍率算出処理S152と、ズーム制御処理S153と、プリセット書込処理S162と、プリセット読出処理S172と、光学系制御処理S173と、フォーカスモード判定処理S174と、許容範囲算出処理S181と、許容範囲設定処理S182と、をさらに含んでいる。本実施形態において、これらの処理は、コントローラ30のプロセッサ32が処理主体となって実行される。
制御処理S1が含む各処理において、プロセッサ22は、入力されたジェスチャコマンド及び実行される処理に応じたグラフィックユーザインターフェース(GUI)をタッチパネル21のディスプレイに表示する。ジェスチャコマンド及び表示される画面については、参照する図面を代えて後述する。
(検出処理)
検出処理S11は、タッチパネル21におけるタッチ位置を検出するための処理である。ユーザがタッチパネル21にタッチすると、プロセッサ22は、タッチ位置を検出する。検出処理S11においてユーザがジェスチャコマンドを入力する方法については、参照する図面を代えて後述する。
(特定処理)
特定処理S12は、検出処理S11において検出されたタッチ位置の軌跡に対応するジェスチャコマンドを特定する処理である。参照されるタッチ位置の軌跡には、タッチ位置の移動方向、及び移動量、並びに、指の本数に対応するタッチ位置の数の情報が含まれる。特定処理S12において、特定可能なジェスチャコマンドは、以下のとおりである。
(1)スピンジェスチャ
(2)ダブルタップからのスピンジェスチャ
(3)ロングタップからのスピンジェスチャ
(4)二本指によるスワイプジェスチャ
(5)二本指によるフリックジェスチャ
(6)三本指によるフリックジェスチャ
本実施形態において、(1)スピンジェスチャとは、軌跡が略円形であるジェスチャコマンドを指す。略円形の軌跡の具体例には、真円、楕円及び渦巻きの軌跡、並びに、これらの組み合わせ及び類似の軌跡が含まれる。なお、略円形の軌跡には、タッチ位置が時計回りに移動する軌跡と、タッチ位置が反時計回りに移動する軌跡と、が含まれる。時計回りの軌跡と反時計回りの軌跡とは、その回転方向を基準として、区別される。
本実施形態において、(2)ダブルタップからのスピンジェスチャとは、上述のスピンジェスチャの直前にダブルタップを伴うジェスチャコマンドを指す。ダブルタップからのスピンジェスチャは、より具体的には、第1のタッチ、デタッチ、第2のタッチ、第2のタッチからデタッチを伴わずにスピンジェスチャ、の順に入力されるジェスチャコマンドである。本実施形態において、第1のタッチと第2のタッチとの時間間隔は、操作端末20であるスマートフォンが動作するOSによって規定されている。
本実施形態において、(3)ロングタップからのスピンジェスチャとは、上述のスピンジェスチャの直前にロングタップを伴うジェスチャコマンドを指す。ロングタップからのスピンジェスチャは、より具体的には、タッチ、直前のタッチからタッチ位置を動かさずに長押し、直前の長押しからデタッチを伴わずにスピンジェスチャ、の順に入力されるジェスチャコマンドである。本実施形態において、長押しの時間は、操作端末20であるスマートフォンが動作するOSによって規定されている。
なお、(1)スピンジェスチャは、スピンジェスチャの直前にダブルタップ及びロングタップの何れも伴わない点において、(2)ダブルタップからのスピンジェスチャ、及び(3)ロングタップからのスピンジェスチャとは区別される。
本実施形態において、(4)二本指によるスワイプジェスチャとは、軌跡において、タッチ位置が2つ存在し、且つ2つのタッチ位置が直線的にスライドするように移動するジェスチャコマンドを指す。
本実施形態において、(5)二本指によるフリックジェスチャとは、軌跡において、タッチ位置が2つ存在し、且つ2つのタッチ位置が直線的に弾くように移動するジェスチャコマンドを指す。
なお、(4)二本指によるスワイプジェスチャと、(5)二本指によるフリックジェスチャとは、2つのタッチ位置が移動した後にタッチしている状態が維持される持続時間を基準として、区別される。
本実施形態において、(6)三本指によるフリックジェスチャとは、軌跡において、タッチ位置が3つ存在し、且つ3つのタッチ位置が直線的に弾くように移動するジェスチャコマンドを指す。
(4)二本指によるスワイプジェスチャ、(5)二本指によるフリックジェスチャ、及び(6)三本指によるフリックジェスチャそれぞれは、スワイプ方向、又はフリック方向を基準として、さらに分類される。本実施形態において、例えば、(4)二本指によるスワイプジェスチャは、スワイプ方向を基準として、左方向、上方向、右方向又は下方向のスワイプジェスチャへさらに分類される。
上述した、OSによって規定される基準それぞれは、OSの代わりに、操作端末20のメモリに記憶された制御処理プログラムP20によって規定されてもよい。また、基準それぞれは、制御処理プログラムP20を介して、ユーザによってカスタマイズ可能であってもよい。
(フォーカス変化算出処理)
特定処理S12において、(1)スピンジェスチャが特定された場合、プロセッサ22は、フォーカス変化算出処理S131を実行する。フォーカス変化算出処理S131は、レンズ10のフォーカス位置の変化量を算出するための処理である。プロセッサ22は、スピンジェスチャの回転方向、及びタッチ位置の移動量(すなわち、軌跡の長さ)を参照して、現在のフォーカス位置からのフォーカス位置の変化量を算出する。ここで、変化量には、移動方向、及び移動量が含まれる。
本実施形態において、時計回り、反時計回りのスピンジェスチャがユーザによって入力された場合、それぞれ、プロセッサ22は、フォーカス位置の移動方向を無限遠方向(INF方向)、至近方向(MOD方向)と判定する。また、タッチ位置の移動量が大きいほど、プロセッサ22は、フォーカス位置の移動量として大きな値を算出する。
操作端末20のプロセッサ22は、コントローラ30のプロセッサ32へ、フォーカス位置の変化量の算出結果を送信する。
(フォーカス位置算出処理)
フォーカス位置算出処理S132は、レンズ10の目的のフォーカス位置を算出するための処理である。コントローラ30のプロセッサ32は、操作端末20のプロセッサ22から受信したフォーカス位置の変化量の算出結果、及び、フォーカス群41のセンサから受信した、レールにおける1枚以上の単レンズの位置を参照する。具体的には、プロセッサ32は、フォーカス位置の変化量の算出結果を、センサから受信した1枚以上の単レンズの位置に対応する現在のフォーカス位置に対して加算し、目的のフォーカス位置を算出する。
(フォーカス制御処理)
フォーカス制御処理S133は、レンズ10のフォーカス位置を変化させるための処理である。プロセッサ32は、フォーカス群41のモータを駆動させ、フォーカス位置を目的のフォーカス位置まで変化させる。このようにして、レンズ10のフォーカス位置が、スピンジェスチャに応じて、コントローラ30によって制御される。
(絞り変化算出処理)
特定処理S12において、(2)ダブルタップからのスピンジェスチャが特定された場合、プロセッサ22は、絞り変化算出処理S141を実行する。絞り変化算出処理S141は、レンズ10の絞り値の変化量を算出するための処理である。本実施形態において、ダブルタップからの時計回り、反時計回りのスピンジェスチャがユーザによって入力された場合、それぞれ、プロセッサ22は、絞り値の変化を閉方向(Close方向)、開方向(Open方向)と判定する。プロセッサ22が実行する処理は、フォーカス位置の変化量の代わりに絞り値の変化量が算出されることを除いて、フォーカス変化算出処理S131における処理と同様であるため、その説明を省略する。
操作端末20のプロセッサ22は、コントローラ30のプロセッサ32へ、絞り値の変化量の算出結果を送信する。
(絞り値算出処理)
絞り値算出処理S142は、レンズ10の目的の絞り値を算出するための処理である。プロセッサ32が実行する処理は、目的のフォーカス位置の代わりに目的の絞り値が算出されることを除いて、フォーカス位置算出処理S132における処理と同様であるため、その説明を省略する。
(絞り制御処理)
絞り制御処理S143は、レンズ10の絞り値を変化させるための処理である。プロセッサ32は、絞り43のモータを駆動させ、絞り値を目的の絞り値まで変化させる。このようにして、レンズ10の絞り値が、スピンジェスチャに応じて、コントローラ30によって制御される。
(ズーム変化算出処理)
特定処理S12において、(3)ロングタップからのスピンジェスチャが特定された場合、プロセッサ22は、ズーム変化算出処理S151を実行する。ズーム変化算出処理S151は、レンズ10のズーム倍率の変化量を算出するための処理である。本実施形態において、ロングタップからの時計回り、反時計回りのスピンジェスチャがユーザによって入力された場合、それぞれ、プロセッサ22は、ズーム倍率の変化を望遠側(Tele方向)、広角側(Wide方向)と判定する。プロセッサ22が実行する処理は、フォーカス位置の変化量の代わりにズーム倍率の変化量が算出されることを除いて、フォーカス変化算出処理S131における処理と同様であるため、その説明を省略する。
操作端末20のプロセッサ22は、コントローラ30のプロセッサ32へ、ズーム倍率の変化量の算出結果を送信する。
(ズーム倍率算出処理)
ズーム倍率算出処理S152は、レンズ10の目的のズーム倍率を算出するための処理である。プロセッサ32が実行する処理は、目的のフォーカス位置の代わりに目的のズーム倍率が算出されることを除いて、フォーカス位置算出処理S132における処理と同様であるため、その説明を省略する。
(ズーム制御処理)
ズーム制御処理S153は、レンズ10のズーム倍率を変化させるための処理である。プロセッサ32は、ズーム群42のモータを駆動させ、ズーム倍率を目的のズーム倍率まで変化させる。このようにして、レンズ10のズーム倍率が、スピンジェスチャに応じて、コントローラ30によって制御される。
(フォーカス制御処理、絞り制御処理及びズーム制御処理の選択)
上述したフォーカス制御処理S133、絞り制御処理S143及びズーム制御処理S153は、何れもユーザによるスピンジェスチャに応じて、実行される。すなわち、コントローラ30は、スピンジェスチャに応じて、レンズ10のフォーカス制御処理S133、絞り制御処理S143、又はズーム制御処理S153を実行する。
なお、コントローラ30がフォーカス制御処理S133、絞り制御処理S143、及びズーム制御処理S153のうち、何れの制御処理を実行するかは、スピンジェスチャの直前に入力されたジェスチャコマンドの有無又は種類に応じて決定される。具体的には、スピンジェスチャが、その直前にダブルタップ及びロングタップの何れも伴わない場合、プロセッサ32は、フォーカス制御処理S133を実行する。スピンジェスチャが、その直前にダブルタップを伴う場合、プロセッサ32は、絞り制御処理S143を実行する。スピンジェスチャが、その直前にロングタップを伴う場合、プロセッサ32は、ズーム制御処理S153を実行する。
なお、プロセッサ22が、検出処理S11及び特定処理S12と、それらに続く処理を実行するのは、ユーザがスピンジェスチャを含む操作を完了しデタッチしてからではなく、ユーザが最初にタッチした時点からである。
具体的には、プロセッサ22は、検出処理S11及び特定処理S12それぞれにおいて、ダブルタップ又はロングタップを、単独で、すなわちスピンジェスチャが入力される前に検出及び特定する。プロセッサ22は、ダブルタップ又はロングタップを特定した時点で、続く処理において変化量を算出する対象として、絞り値又はズーム倍率を選択する。次いで、プロセッサ22は、ダブルタップ又はロングタップの直後に入力されたスピンジェスチャを特定すると、選択された対象に応じて、絞り変化算出処理S141又はズーム変化算出処理S151を実行する。また、プロセッサ22は、ダブルタップ及びロングタップを伴わないスピンジェスチャを特定すると、フォーカス変化算出処理S131を実行する。
続くフォーカス変化算出処理S131、絞り変化算出処理S141又はズーム変化算出処理S151において、プロセッサ22は、スピンジェスチャの回転方向、及びタッチ位置の移動量に基づいて、一定時間ごとに変化量を算出する。例えば、一定時間(例えば0.01秒間、0.05秒間、又は0.1秒間)内の移動量が大きければ、プロセッサ22は、変化量として大きな値を算出し、一定時間ごとにプロセッサ32へ算出結果を送信する。よって、ユーザがタッチ位置を速く移動させるほど、フォーカス位置、絞り値又はズーム倍率は速く変化する。ここで、ユーザが入力するスピンジェスチャは、全体としては略円形の軌跡であるが、一定時間内に入力される軌跡、すなわちスピンジェスチャの一部分は直線的な軌跡であってもよい。
(記憶領域選択処理)
特定処理S12において、(4)二本指によるスワイプジェスチャが特定された場合、プロセッサ22は、記憶領域選択処理S161を実行する。記憶領域選択処理S161は、プリセット情報を書き込む記憶領域を、スワイプ方向に応じて決定するための処理である。
本明細書において、プリセット情報とは、レンズシステム100の制御状態のうち少なくとも1つのパラメータと、当該パラメータの値とが互いに関連付けられている、情報を指す。本実施形態において、プリセット情報は、電子データの形態で書き込み及び読み出しされる。一具体例として、「レンズ10の現在の絞り値をプリセット情報としてメモリに書き込む」とは、(X)当該プリセット情報がパラメータとして絞り値を含むことを表す情報と、(Y)パラメータの値を表す情報(例えば、「F2.8」)と、を含む電子データであるプリセット情報を、メモリ31の記憶領域311、312、313及び314のうち何れか1つに記憶させることを指す。
プロセッサ22は、所定の対応関係を基準として、スワイプ方向を参照して、メモリ31の記憶領域311、312、313及び314のうち何れか1つを選択する。本実施形態において、(左方向、及び、記憶領域311)、(上方向、及び、記憶領域312)、(右方向、及び、記憶領域313)、並びに(下方向、及び、記憶領域314)という所定の対応関係が制御処理プログラムP20によって規定されている。例えば、ユーザが右方向のスワイプジェスチャを入力した場合、プロセッサ22は、記憶領域313を、プリセット情報を書き込む記憶領域として選択する。
操作端末20のプロセッサ22は、コントローラ30のプロセッサ32へ、記憶領域の選択結果を送信する。
(プリセット書込処理)
プリセット書込処理S162は、スワイプジェスチャに応じて、レンズ10の現在のフォーカス位置、絞り値、又はズーム倍率をプリセット情報としてメモリに書き込むための処理である。
本実施形態において、4つの記憶領域311、312、313及び314それぞれがフォーカス位置、絞り値及びズーム倍率のうち何れをプリセット情報として記憶するか、制御処理プログラムP10によって規定されている。本実施形態においては、(記憶領域311、ズーム倍率)、(記憶領域312、絞り値)、(記憶領域313、フォーカス位置)、並びに(記憶領域314、ズーム倍率及び絞り値)、という対応関係が規定されている。なお、本発明は、この対応関係に限定されない。
プロセッサ32は、記憶領域選択処理S161において選択された記憶領域に対応するパラメータの現在の値を、フォーカス群41のセンサ、ズーム群42のセンサ及び絞り43のセンサのうち対応する少なくとも1つのセンサから取得する。次いで、プロセッサ32は、取得したパラメータの値を、選択された記憶領域に書き込む。
例えば、記憶領域選択処理S161において記憶領域313が選択された場合、プロセッサ32は、フォーカス群41のセンサからフォーカス位置の値を取得し、取得した値を記憶領域313に書き込む。
(記憶領域選択処理)
特定処理S12において、(5)二本指によるフリックジェスチャが特定された場合、プロセッサ22は、記憶領域選択処理S171を実行する。記憶領域選択処理S171は、プリセット情報を読み出す記憶領域を、フリック方向に応じて決定するための処理である。
操作端末20のプロセッサ22は、所定の対応関係を基準として、スワイプ方向を参照して、メモリ31の記憶領域311、312、313及び314のうち何れか1つを選択する。本実施形態において、所定の対応関係は、上述した記憶領域選択処理S161における対応関係と同一である。例えば、ユーザが右方向のフリックジェスチャを入力した場合、プロセッサ22は、記憶領域313を、プリセット情報を読み出す記憶領域として選択する。
操作端末20のプロセッサ22は、コントローラ30のプロセッサ32へ、記憶領域の選択結果を送信する。
(プリセット読出処理)
プリセット読出処理S172は、プリセット情報として記憶されているレンズ10のフォーカス位置、絞り値、又はズーム倍率を、記憶領域311、312、313又は314から読み出すための処理である。プロセッサ32は、記憶領域選択処理S171において選択された1つの記憶領域から、プリセット情報を読み出す。例えば、記憶領域選択処理S171において記憶領域313が選択された場合、プロセッサ32は、記憶領域313にプリセット情報として記憶されているフォーカス位置を読み出す。
(光学系制御処理)
光学系制御処理S173は、フリックジェスチャに応じて、レンズ10のフォーカス位置、絞り値、又はズーム倍率を、プリセット情報としてメモリ31から読み出したフォーカス位置、絞り値、又はズーム倍率に基づいて設定するための処理である。
プロセッサ32は、プリセット読出処理S172において読み出されたプリセット情報に含まれるフォーカス位置、絞り値又はズーム倍率の値に、現在のパラメータの値が一致するように、光学系40に含まれる対応する光学要素を駆動させる。これによって、プロセッサ32は、フォーカス位置、絞り値、又はズーム倍率を設定する。例えば、プリセット読出処理S172においてフォーカス位置をプリセット情報として読み出した場合、プロセッサ32は、フォーカス群41のモータを駆動させ、これによって、記憶領域313から読み出したフォーカス位置の値に、現在のフォーカス位置の値が一致するように、現在のフォーカス位置を設定する。
(フォーカスモード判定処理)
フォーカスモード判定処理S174は、レンズ10のフォーカスモードを判定するための処理である。プロセッサ32は、光学系制御処理S173においてフォーカス位置が設定されており、且つ、レンズ10のフォーカスモードがオートフォーカス(AF)モードである場合(フォーカスモード判定処理S174において「YES」の場合)、許容範囲算出処理S181をさらに実行する。許容範囲算出処理S181については、後述する。プロセッサ32は、光学系制御処理S173においてフォーカス位置が設定されていない場合、及びレンズ10のフォーカスモードがマニュアルフォーカス(MF)モードである場合(フォーカスモード判定処理S174において「NO」の場合)、制御処理S1を終了する。
(許容範囲算出処理)
特定処理S12において、(6)三本指によるフリックジェスチャが特定された場合、プロセッサ22は、特定結果をプロセッサ22へ送信し、プロセッサ32は、許容範囲算出処理S181を実行する。また、フォーカスモード判定処理S174において、「YES」の場合もまた、プロセッサ32は、許容範囲算出処理S181を実行する。許容範囲算出処理S181は、現在のレンズ10のフォーカス位置に基づいてオートフォーカスモードにおけるレンズ10のフォーカス位置の許容範囲を算出するための処理である。
許容範囲算出処理S181の前にフォーカスモード判定処理S174が実行されていない場合、プロセッサ32は、(6)三本指によるフリックジェスチャのフリック方向を参照して、メモリ31から、フォーカス位置の許容変化量を読み出す。この場合、フォーカス位置の許容変化量は、制御処理プログラムP10によって、フリック方向と関連付けて、規定されている。
許容範囲算出処理S181の前にフォーカスモード判定処理S174が実行されている場合、プロセッサ32は、メモリ31から、フォーカス位置の許容変化量を読み出す。この場合、フォーカス位置の許容変化量は、制御処理プログラムP10によって、フォーカスモード判定処理S174の存在と関連付けて、規定されている。
ここで、フォーカス位置の許容変化量とは、任意のフォーカス位置を基準として、オートフォーカスモードにおいてフォーカス位置が移動可能な範囲を指す。フォーカス位置の許容変化量の一具体例として、任意のフォーカス位置を基準として、前後5mの範囲、すなわち至近方向5m~無限遠方向5mが、制御処理プログラムP10によって規定されていてもよい。別の一具体例として、任意のフォーカス位置を基準として、当該フォーカス位置を含まない範囲、例えば無限遠方向10m~無限遠方向20mが、制御処理プログラムP10によって規定されていてもよい。フォーカス位置の許容変化量は、制御処理プログラムP10を介して、ユーザによってカスタマイズ可能である。
次いで、プロセッサ32は、現在のフォーカス位置に対して、読み出したフォーカス位置の許容変化量を加算し、フォーカス位置の許容範囲を算出する。フォーカス位置の許容範囲の一具体例として、現在のフォーカス位置がレンズ10から10m離れた位置であり、読み出したフォーカス位置の許容変化量が至近方向5m~無限遠方向5mである場合、フォーカス位置の許容範囲は、レンズ10から5m~15mの範囲と算出される。
(許容範囲設定処理)
許容範囲設定処理S182は、フリックジェスチャ及びフリックジェスチャを行う指の本数に応じて、現在のレンズ10のフォーカス位置に基づいてオートフォーカスモードにおけるレンズ10のフォーカス位置の許容範囲を設定するための処理である。フォーカス群41のモードをオートフォーカスモードに変更する又は維持すると共に、オートフォーカスモードにおけるレンズ10のフォーカス位置の許容範囲を、許容範囲算出処理S181において算出されたフォーカス位置の許容範囲に設定するための処理である。
(ジェスチャコマンドの入力方法)
ジェスチャコマンドの入力方法について、図3を参照して説明する。図3は、図1に示す操作端末20に含まれるタッチパネル21に表示される画面の一具体例を示す図である。図3に示される画面G10は、タッチパネル21のディスプレイに表示される画面である。画面G10上のGUIは、操作端末20のプロセッサ22が処理主体となって、制御される。図3に示すように、画面G10は、制御状態表示部G11と、フィードバック表示部G12と、含んでいる。
制御状態表示部G11は、レンズシステム100の制御状態をユーザに対して説明するGUI群である。制御状態表示部G11が含むGUIそれぞれは、コントローラ30のプロセッサ32が、光学系40に含まれるセンサ、又はメモリ31から取得し、操作端末20のプロセッサ22へ送信した情報に基づいて、プロセッサ22が表示している。図3に示すように、制御状態表示部G11は、ズーム倍率表示部G111と、フォーカス位置表示部G112と、絞り値表示部G113と、プリセット表示部G114と、を含んでいる。
ズーム倍率表示部G111は、現在のレンズ10のズーム倍率をユーザに対して説明するためのGUIである。ズーム倍率表示部G111において、横方向に延在するバーが、現在のズーム倍率をメータ形式で説明している。本実施形態において、バーが右方向に延びている程、ズーム倍率が高いことを、バーは説明する。また、バーが短い程、ズーム倍率が低いことを、バーは説明する。
フォーカス位置表示部G112は、現在のレンズ10のフォーカス位置をユーザに対して説明するためのGUIである。フォーカス位置表示部G112において、横方向に延在するバーが、現在のフォーカス位置をメータ形式で説明している。本実施形態において、バーが右方向に延びている程、フォーカス位置が無限遠方向にあることを、バーは説明する。また、バーが短い程、フォーカス位置が至近方向にあることを、バーは説明する。
絞り値表示部G113は、現在のレンズ10の絞り値をユーザに対して表示するためのGUIである。絞り値表示部G113において、現在の絞り値が数値形式で説明されている。例えば、図3において、絞り値表示部G113における「F2.8」は、現在の絞り値(Fナンバー)は2.8であることを説明する。
プリセット表示部G114は、記憶領域311、312、313及び314に記憶されているプリセット情報をユーザに対して説明するためのGUIである。図3において、丸で囲われた数字「1」、「2」、「3」及び「4」それぞれは、記憶領域311、312、313及び314に記憶されているプリセット情報を意味している。例えば、図3において、丸で囲われた、2か所の「4」は、記憶領域314が、ズーム倍率表示部G111のバーにおける長さと対応するズーム倍率と、絞り値3.5と、をプリセット情報として記憶していることを意味している。
なお、本発明の本実施形態の理解のために、図3において、右下の矢印及び丸で囲われた数字が、画面G10に対するスワイプ方向及びフリック方向と、プリセット表示部G114の丸で囲まれた数字と、の対応関係を説明のために図示されている。
フィードバック表示部G12は、ユーザが入力しているジェスチャコマンドを、ユーザに対してフィードバックするためのGUIである。フィードバック表示部G12は、プロセッサ22が検出及び特定したジェスチャコマンドに基づいて、プロセッサ22が表示していうる。一具体例として、図3には、ユーザがタッチパネル21にスピンジェスチャを入力し、それに応じて、プロセッサ22がフォーカス変化算出処理S131を実行しているときに表示されるGUIが図示されている。図3において、フィードバック表示部G12は、中央の円形矢印によって、レンズシステム100においてフォーカス制御が行われていることをユーザに対して説明している。さらに、図3において、フィードバック表示部G12は、両側の矢印によって、ユーザに対して操作方法を説明している。フィードバック表示部G12において、右側に表示される時計回りの矢印は、時計回りのスピンジェスチャが無限遠方向(INF方向)へのフォーカス位置の移動に対応していることをユーザに対して説明している。反対に、左側に表示される反時計回りの矢印は、反時計回りのスピンジェスチャが至近方向(MOD方向)へのフォーカス位置の移動に対応していることをユーザに対して説明している。
本実施形態において、ユーザは、画面G10内の任意の位置をタッチし、これによって入力を行う。ユーザが最初にタッチするタッチ位置は、画面G10の領域内であればよく、例えば、制御状態表示部G11若しくはフィードバック表示部G12の領域内であってもよいし、又は、それ以外の領域であってもよい。
(スピンジェスチャの入力方法)
スピンジェスチャの入力方法について、図4を参照して説明する。なお、本実施形態において、スピンジェスチャは、フォーカス制御と対応している。図1に示す操作端末20において、フォーカス制御のために、タッチパネル21に入力されるジェスチャコマンド、及びタッチパネル21に表示される画面の遷移の一具体例を示す図である。図4に示される画面G13A、G13B及びG13Cは、上述した検出処理S11、特定処理S12、フォーカス変化算出処理S131、フォーカス位置算出処理S132、及びフォーカス制御処理S133が実行されている間に、この順に遷移しながらタッチパネル21のディスプレイに表示される画面である。図4に示されるハンドHは、ジェスチャコマンドを入力するユーザの手である。
なお、図4において、画面G13A、G13B及びG13Cそれぞれは、当該画面と共に図示されるハンドHのジェスチャコマンドが入力された直後に表示される画面である。例えば、画面G13Aは、時計回りのスピンジェスチャが入力されてから表示される画面であり、画面G13Cは、スピンジェスチャが停止してから表示される画面である。また、図5~8においても、同様の関係で、ジェスチャコマンド及び画面が図示される。
画面G13Aにおいて、ユーザは、画面G13Aの任意の領域にタッチし、次いで略円形軌道上を時計回り方向にタッチ位置をスライドさせ、これらによって、時計回りのスピンジェスチャを入力する。プロセッサ22は、時計回りのスピンジェスチャに応じた無限遠方向(INF方向)へのフォーカス位置の移動が実行されていることを説明するGUI(中央の円形矢印及び右側の黒色矢印)を、フィードバック表示部G12として表示する。なお、図示による説明は省略するが、本実施形態において、このGUIが表示される前までは、フィードバック表示部G12としてのGUIは何も表示されていない。
画面G13Bにおいて、ユーザは、引き続き時計回りのスピンジェスチャを入力する。プロセッサ22は、フォーカス位置表示部G112の表示を変化させ、無限遠方向(INF方向)へフォーカス位置が移動したことを説明するGUIを、フォーカス位置表示部G112として表示する。
画面G13Cにおいて、ユーザは、フォーカス位置表示部G112の表示を見て、所望のフォーカス位置までフォーカス位置が移動したことを確かめたら、スピンジェスチャを停止する。プロセッサ22は、フィードバック表示部G12を変化させ、フォーカス制御が待機状態であることを説明するGUI(中央の円形矢印)、及びフォーカス制御における操作方法を説明するGUI(両側の灰色矢印)を表示する。
なお、図示による説明は省略するが、本実施形態において、ユーザがハンドHを画面から離す、すなわちデタッチすると、プロセッサ22は、フィードバック表示部G12の表示を停止する。これにより、フィードバック表示部G12のGUIとしては、何も表示されなくなる。
また、図4において、時計回りのスピンジェスチャのみを例示したが、ユーザは、任意の時点で、時計回りのスピンジェスチャと反時計回りのスピンジェスチャとを組み合わせて入力してよい。例えば、ユーザは、画面G14Cにおいてスピンジェスチャを停止した後に、反時計回りのスピンジェスチャを入力し始めてもよい。この場合、プロセッサ22は、反時計回りのスピンジェスチャに応じて、至近方向(MOD方向)へフォーカス位置を移動させる。
(ダブルタップからのスピンジェスチャの入力方法)
ダブルタップからのスピンジェスチャの入力方法について、図5を参照して説明する。なお、本実施形態において、ダブルタップからのスピンジェスチャは、絞り制御と対応している。図5は、図1に示す操作端末20において、絞り制御のために、タッチパネル21に入力されるジェスチャコマンド及びタッチパネル21に表示される画面の遷移の一具体例を示す図である。図5に示される画面G14A、G14B、G14C及びG14Dは、上述した検出処理S11、特定処理S12、絞り変化算出処理S141、絞り値算出処理S142、及び絞り制御処理S143が実行されている間に、この順に遷移しながらタッチパネル21のディスプレイに表示される画面である。
画面G14Aにおいて、ユーザは、画面G14Aの任意の領域をダブルタップする。プロセッサ22は、絞り制御が待機状態であることを説明するGUI(絞り羽根を模したリング)、及び絞り制御における操作方法を説明するGUI(両側の灰色矢印)を表示する。
画面G14Bにおいて、ユーザは、略円形軌道上を時計回り方向にタッチ位置をスライドさせ、これによって、時計回りのスピンジェスチャを入力する。プロセッサ22は、閉方向(Close方向)への絞りの駆動が実行されていることを説明するGUI(右側の時計回りの黒色矢印)を、フィードバック表示部G12として表示する。
画面G14Cにおいて、ユーザは、引き続き時計回りのスピンジェスチャを入力する。プロセッサ22は、絞り値表示部G113の表示を変化させ、閉方向(Close方向)へ絞りの駆動が実行されたことを説明するGUIを、絞り値表示部G113として表示する。図5において、プロセッサ22は、絞り値表示部G113の表示を、画面G14Bにおける「F2.8」から、画面G14Cにおける「F8.0」へと変化させる。
画面G14Dにおいて、ユーザは、絞り値表示部G113の表示を見て、所望の絞り値まで絞り値が変化したことを確かめたら、スピンジェスチャを停止する。プロセッサ22は、フィードバック表示部G12を変化させ、絞り制御が待機状態であることを説明するGUI(絞り羽根を模したリング)、及び絞り制御における操作方法を説明するGUI(両側の灰色矢印)を表示する。
(ロングタップからのスピンジェスチャの入力方法)
ロングタップからのスピンジェスチャの入力方法について、図6を参照して説明する。なお、本実施形態において、ロングタップからのスピンジェスチャは、ズーム制御と対応している。図6は、図1に示す操作端末20において、ズーム制御のために、タッチパネル21に入力されるジェスチャコマンド及びタッチパネル21に表示される画面の遷移の一具体例を示す図である。図6に示される画面G15A、G15B、G15C及びG15Dは、上述した検出処理S11、特定処理S12、ズーム変化算出処理S151、ズーム倍率算出処理S152、及びズーム制御処理S153が実行されている間に、この順に遷移しながらタッチパネル21のディスプレイに表示される画面である。
画面G15Aにおいて、ユーザは、画面G15Aの任意の領域をロングタップする。プロセッサ22は、ズーム制御が待機状態であることを説明するGUI(虫眼鏡を模したリング)、及びズーム制御における操作方法を説明するGUI(両側の灰色矢印)を表示する。
画面G15Bにおいて、ユーザは、略円形軌道上を反時計回り方向にタッチ位置をスライドさせ、これによって、反時計回りのスピンジェスチャを入力する。プロセッサ22は、広角側(Wide方向)へのズーム倍率の変化が実行されていることを説明するGUI(左側の反時計回りの黒色矢印)を、フィードバック表示部G12として表示する。
画面G15Cにおいて、ユーザは、引き続き反時計回りのスピンジェスチャを入力する。プロセッサ22は、ズーム倍率表示部G111の表示を変化させ、広角側(Wide方向)へのズーム倍率の変化が実行されたことを説明するGUIを、ズーム倍率表示部G111として表示する。
画面G15Dにおいて、ユーザは、ズーム倍率表示部G111の表示を見て、所望のズーム倍率までズーム倍率が変化したことを確かめたら、スピンジェスチャを停止する。プロセッサ22は、フィードバック表示部G12を変化させ、ズーム制御が待機状態であることを説明するGUI(虫眼鏡を模したリング)、及びズーム制御における操作方法を説明するGUI(両側の灰色矢印)を表示する。
(二本指によるスワイプジェスチャの入力方法)
二本指によるスワイプジェスチャの入力方法について、図7を参照して説明する。なお、本実施形態において、二本指によるスワイプジェスチャは、プリセット記憶と対応している。図1に示す操作端末20において、プリセット記憶のために、タッチパネル21に入力されるジェスチャコマンド、及びタッチパネル21に表示される画面の遷移の一具体例を示す図である。図7に示される画面G16A、G16B、G16C及びG16Dは、上述した検出処理S11、特定処理S12、記憶領域選択処理S161、及びプリセット書込処理S162が実行されている間に、この順に遷移しながらタッチパネル21のディスプレイに表示される画面である。
画面G16Aにおいて、ユーザは、画面G16Aの任意の領域を二本指でタッチし、次いで、タッチ位置を右方向へ直線的にスライドさせ、これらによって、二本指によるスワイプジェスチャを入力する。プロセッサ22は、スワイプ方向である右方向が対応する数字を説明するGUI(丸で囲われた「3」)と、プリセット復元が待機状態であることを説明するGUI(濃灰色の「Move」)と、プリセット記憶が待機状態であることを説明するGUI(薄灰色の「Rec」)と、をフィードバック表示部G12として表示する。
画面G16Bにおいて、ユーザは、ハンドHを動かさない、すなわち、スライドされたタッチ位置を維持する。プロセッサ22は、タッチ位置が維持された状態の持続時間に応じて、プリセット復元が待機状態であることを説明するGUI(「Move」)と、プリセット記憶が待機状態であることを説明するGUI(「Rec」)とを、表示しつつ、その濃淡を入れ替えていく。すなわち、プロセッサ22は、「Move」の文字色は徐々に薄くなり、「Rec」の文字色は徐々に濃くなるように、フィードバック表示部G12のGUIを変化させる。
画面G16Cにおいて、ユーザは、引き続きスライドされたタッチ位置を維持する。プロセッサ22は、引き続きフィードバック表示部G12のGUIを変化させる。
画面G16Dにおいて、タッチ位置が維持された状態の持続時間が閾値を超え、「Rec」の文字色が「Move」の文字色よりも濃くなった後、ユーザは、デタッチする。プロセッサ22は、フィードバック表示部G12の表示を停止する。また、プロセッサ22は、数字「3」が対応する記憶領域313に、現在のフォーカス位置がプリセット情報として記憶されたことを説明するGUIを、プリセット表示部G114として表示する。例えば、図7において、プロセッサ22は、丸で囲われた「3」の位置を、画面G16Cにおける「3」の位置から、画面G16Cにおけるフォーカス位置表示部G112のバーの右端の位置へと変化させる。
(二本指によるフリックジェスチャの入力方法)
二本指によるフリックジェスチャの入力方法について、図8を参照して説明する。なお、本実施形態において、二本指によるフリックジェスチャは、プリセット復元と対応している。図1に示す操作端末20において、プリセット復元のために、タッチパネル21に入力されるジェスチャコマンド、及びタッチパネル21に表示される画面の遷移の一具体例を示す図である。図8に示される画面G17A、G17B及びG17Cは、上述した検出処理S11、特定処理S12、記憶領域選択処理S171、プリセット読出処理S172、及び光学系制御処理S173が実行されている間に、この順に遷移しながらタッチパネル21のディスプレイに表示される画面である。
画面G17Aにおいて、ユーザは、画面G17Aの任意の領域を二本指でタッチし、次いで、タッチ位置を右方向へ直線的に弾くように移動させ、これらによって、二本指によるフリックジェスチャを入力する。プロセッサ22は、フリック方向である右方向が対応する数字を説明するGUI(丸で囲われた「3」)と、プリセット復元が待機状態であることを説明するGUI(濃灰色の「Move」)と、プリセット記憶が待機状態であることを説明するGUI(薄灰色の「Rec」)と、をフィードバック表示部G12として表示する。
画面G17Bにおいて、ユーザは、スライドされたタッチ位置を維持するか、又はデタッチする。ここでは便宜上、ユーザがスライドされたタッチ位置を維持する場合について、説明する。プロセッサ22は、タッチ位置が維持された状態の持続時間に応じて、プリセット復元が待機状態であることを説明するGUI(「Move」)と、プリセット記憶が待機状態であることを説明するGUI(「Rec」)とを、表示しつつ、その濃淡を入れ替えていく。すなわち、プロセッサ22は、「Move」の文字色は徐々に薄くなり、「Rec」の文字色は徐々に濃くなるように、フィードバック表示部G12のGUIを変化させる。
画面G17Cにおいて、「Rec」の文字色が「Move」の文字色よりも濃くなる前に、ユーザは、デタッチする。プロセッサ22は、フィードバック表示部G12の表示を停止する。また、プロセッサ22は、数字「3」が対応する記憶領域313からプリセット情報として読み出されたフォーカス位置に、現在のフォーカス位置が一致するように、現在のフォーカス位置が移動したことを説明するGUIを、フォーカス位置表示部G112として表示する。例えば、図8において、プロセッサ22は、フォーカス位置表示部G112のバーの右端の位置を、画面G17Bにおけるバーの右端の位置から、画面G17Bにおける「3」の位置へと変化させる。
なお、画面G17Bにおいて、ユーザは、タッチ位置を維持することなく、すぐにデタッチしてもよい。「Rec」の文字色が「Move」の文字色よりも濃くなる前にユーザがデタッチすれば、記憶領域選択処理S171、プリセット読出処理S172、及び光学系制御処理S173が実行され、対応するGUIが表示される。
(三本指によるフリックジェスチャの入力方法)
三本指によるフリックジェスチャの入力方法は、二本指に代えて三本指による入力を行う以外は、上述した二本指によるフリックジェスチャの入力方法と同一であるため、図面を参照した説明を省略する。
ユーザが三本指によるフリックジェスチャが入力すると、プロセッサ22はフォーカス位置の許容範囲が設定されたことを示すGUIをフォーカス位置表示部G112として表示する。
(本実施形態の効果)
以上のように、本実施形態に係るレンズシステム100は、レンズ10と、レンズ10から分離された操作端末であって、タッチパネル21を有する操作端末20と、タッチパネル21に入力されたジェスチャコマンドに応じて、レンズ10を制御するコントローラ30と、を含んでいる。
このような構成によれば、手振れを減じる又は回避しつつ、手軽な操作でレンズ10を制御することができる技術が実現される。例えば、ジェスチャコマンドを入力することによって生じるタッチパネル21の振動の、レンズ10への伝播が減じられる又は回避されるため、レンズ10の手振れが減じられる又は回避される。また、ユーザは、例えばリングの回転、ボタンの押圧及びスイッチの切替等の、レンズ10を操作するために必要な動作を覚えることなく、ジェスチャコマンドによってレンズ10を操作することができる。また、ジェスチャコマンドを介した操作においては、タッチパネル21の特定の位置を最初のタッチ位置(すなわち基点)とする操作(例えば、タッチパネル21上にGUIとして表示される仮想的なボタン、スイッチ又はレバーをタッチする操作)が無くともよい。ゆえに、ユーザは、タッチパネル21上のGUIを見ずに、被写体のみに注目しながら撮影を行うことも可能である。このようなレンズシステム100は、少人数(例えば、1人)で撮影を行うためのツールとして、好適に用いることができる。例えば、ユーザは、操作端末20を手に持ち、任意の位置及び任意の向きに(例えば、ユーザから10m離れた位置に、ユーザ自身に向かって)配置されたレンズ10を操作することが可能となる。
また、本実施形態に係るレンズシステム100において、レンズ10は、カメラに装着可能なレンズであり、コントローラ30は、レンズ10又はカメラに内蔵されている。
このような構成によれば、コントローラ30は、レンズ10自体、又はレンズ10が装着されたカメラに内蔵されている。したがって、ユーザによるジェスチャコマンドが遅滞なくレンズ10の制御に反映されるため、レンズシステム100は、撮影中にもユーザによる操作が随時求められる動画撮影のためのツールとして、好適に用いることができる。
また、本実施形態に係るレンズシステム100において、コントローラ30は、スピンジェスチャに応じて、レンズ10のフォーカス制御、絞り制御、又はズーム制御を実行する。
このような構成によれば、手軽な操作による、レンズ10のフォーカス位置、絞り値、又はズーム倍率のマニュアル制御が実現可能である。少人数での撮影において、レンズは、オート制御されることが多い。しかしながら、オート制御には、ユーザが意図しない動作をレンズにさせることがある、という問題点がある。一例として、フォーカス位置が被写体の瞳を追従するようにフォーカス群がオート制御される、瞳オートフォーカス(AF)の例を挙げる。瞳AFを用いる場合には、瞳が無い物体にフォーカス位置を合わせたい場合でも、オート制御により瞳を有する人物にフォーカス位置が追従する。したがって、動画撮影中に瞳を有する人物を無視して瞳が無い被写体にフォーカス位置を制御するために、瞳を手で隠すという不本意な動作がユーザに要求されることがある。このような問題点のため、少人数での撮影においても、レンズをマニュアル制御することがユーザに求められることがある。本実施形態のレンズシステム100は、例えば、撮影者且つ被写体であるユーザが、操作端末20を手に持ちながら、手軽な操作でレンズ10のマニュアル制御することができるため、ユーザは上述のような不本意な動作無しに撮影を実施可能である。
さらに、このような構成によれば、連続的なレンズ10の制御が実現可能である。タッチパネルに対する一般的な入力のなかで、スワイプジェスチャ及びフリックジェスチャ等の一本指を直線的に動かすジェスチャコマンドは、その軌跡が直線的に伸び断続的であるため、ユーザがタッチパネル上で連続的に入力するためには不向きである。ピンチジェスチャ(2つのタッチ位置の間の距離を変化させるジェスチャコマンド)及びローテーションジェスチャ(回転軸となるタッチ位置と、回転移動するタッチ位置との位置関係を変化させるジェスチャコマンド)もまた、二本指による操作を必要とするため、長時間の入力には不向きである。対して、略円形の軌跡を有するスピンジェスチャを用いれば、ユーザはタッチパネル上でタッチ位置を繰り返し回転させたり、一時停止させたり、又は、途中で反転して逆回転させることが可能である。したがって、スピンジェスチャを用いれば、ユーザは、タッチパネル21上に途切れることなく連続的に入力できる。また、指を動かす速度を変化させることで操作速度の細かい調整も可能となる。さらに、スピンジェスチャが一本指による入力であれば、ユーザは長時間の入力を行っても入力操作によるストレスを受けにくい。そのため、レンズシステム100は、光学系の連続的且つ細かい調整が求められる静止画撮影又は動画撮影、及び光学系の長時間の調整が求められる動画撮影のための、好適なツールとして用いることができる。
さらに、本実施形態において、フォーカス制御、絞り制御及びズーム制御に対応するジェスチャコマンドは一本指によって入力され、プリセット記憶、プリセット復元及び許容範囲設定に対応するジェスチャコマンドは二本以上の指によって入力される。このような構成によれば、一本指による入力と、二本以上の指による入力とが、良好な精度で区別される。そのため、スピンジェスチャの軌跡が部分的に直線的であっても、特定処理S12における誤認識が減じられる又は回避される。
また、本実施形態に係るレンズシステム100において、コントローラ30がフォーカス制御、絞り制御、及びズーム制御のうち、何れの制御を実行するかは、スピンジェスチャの直前に入力されたジェスチャコマンドの有無又は種類に応じて決定される。
このような構成によれば、ユーザは、制御したい対象を手軽な操作で選択することができる。タッチパネルに対する一般的な入力において、複数の対象のうち特定の1つを制御するためには、制御対象を変更するためにボタン等のGUIをタッチしてモード変更するか、又は、複数の対象それぞれに別々のジェスチャを割り当てる必要がある。しかしながら、GUIをタッチしてモード変更をする場合、ユーザは画面上のGUIを目視する必要がある。また、複数の対象それぞれに別々のジェスチャを割り当てる場合、ユーザは対象の種類数に応じて、複数のジェスチャを覚える必要がある。レンズシステム100は、スピンジェスチャの直前のジェスチャコマンドを参照して、制御対象を決定するため、ユーザはGUIを見ずともモード変更することができ、且つ複数のジェスチャを覚える手間が求められない。
また、本実施形態に係るレンズシステム100において、コントローラ30は、スワイプジェスチャに応じて、レンズ10の現在のフォーカス位置、絞り値、又はズーム倍率をプリセット情報としてメモリ31に書き込む。
このような構成によれば、ユーザは、まず、現在のレンズシステム100の制御状態をプリセット情報としてメモリ31に記憶させておき、後に、記憶されたプリセット情報を活用した撮影を行うことができる。また、スワイプジェスチャは、断続的な操作であるため、単発の処理であるプリセット情報の書き込みを指示するためのコマンドジェスチャとして適している。
また、本実施形態に係るレンズシステム100において、メモリ31は、複数の記憶領域311、312、313及び314を有しており、コントローラ30がプリセット情報を書き込む記憶領域は、スワイプ方向に応じて決定される。
このような構成によれば、ユーザは、複数のプリセット情報をメモリ31に記憶させておき、複数のプリセット情報を活用した撮影を行うことができる。また、スワイプジェスチャは直線的な操作であり、スワイプ方向の誤認識が生じにくいため、スワイプ方向に応じた記憶領域の選択は、誤操作が少ない。
また、本実施形態に係るレンズシステム100において、コントローラ30は、フリックジェスチャに応じて、レンズ10のフォーカス位置、絞り値、又はズーム倍率を、プリセット情報としてメモリ31から読み出したフォーカス位置、絞り値、又はズーム倍率に基づいて設定する。
このような構成によれば、ユーザは、予めプリセット情報としてメモリ31に記憶されたレンズシステム100の制御状態を、任意のタイミングで手軽な操作で復元することができる。例えば被写体を追従するために、所定の制御状態を復元する方法としては、フォローフォーカスなどの追加のツールを用いる方法が挙げられる。しかしながら、フォローフォーカスは、ユーザがカメラから離れずに操作すること、及び、意図した制御状態を記録しておくために、対応するリング位置にマーキングを施すことを要求することがある。しかしながら、本実施形態に係るレンズシステム100によれば、ユーザは、予め意図した制御状態をプリセット情報として記憶させておけば、カメラから離れることができ、また、操作端末20のGUIを見ずとも、手軽な操作で当該制御状態を復元することができる。また、本実施形態に係るレンズシステム100によれば、追加のツールが無くともよいため、レンズ10を含むカメラの軽量化、低コスト化及び設置の簡易化、並びに追加のツールが含むギアによる制御ロスの削減が可能である。
また、本実施形態に係るレンズシステム100において、コントローラ30は、フリックジェスチャに応じて、レンズ10のフォーカス位置を設定し、フリックジェスチャを行う指の本数に応じて、設定されたフォーカス位置に基づいてオートフォーカスモードにおけるレンズ10のフォーカス位置の許容範囲をさらに設定する。
このような構成によれば、ユーザは、マニュアル制御であるフォーカス位置の復元と、オート制御であるオートフォーカスとを組み合わせて、レンズ10を制御することができる。特に、このような構成によれば、意図した範囲にオートフォーカス範囲を限定できるため、例えば、被写体から意図的にフォーカス位置をずらしたり、又は、複数の被写体のうち一部にのみフォーカス位置を合わせることができる。
また、本実施形態に係るレンズシステム100において、メモリ31は、複数の記憶領域311、312、313及び314を有しており、コントローラ30がプリセット情報を読み出す記憶領域は、フリック方向に応じて決定される。
このような構成によれば、ユーザは、予めプリセット情報としてメモリ31に記憶されたレンズシステム100の複数の制御状態のうち特定の1つを、任意のタイミングで手軽な操作で復元することができる。例えば、ユーザは、任意の制御状態から、プリセット情報として記憶された第1の制御状態へ、次いで、プリセット情報として記憶された第2の制御状態へと、順にレンズシステム100を操作することができる。このような効果は、フォーカス位置、絞り値及びズーム倍率が遷移していく演出が採用された動画の撮影において、特に有効である。
また、本実施形態に係るレンズシステム100において、コントローラ30は、フリックジェスチャ及びフリックジェスチャを行う指の本数に応じて、現在のレンズ10のフォーカス位置に基づいてオートフォーカスモードにおけるレンズ10のフォーカス位置の許容範囲を設定する。
このような構成によれば、手振れを減じる又は回避しつつ、手軽な操作でレンズ10を制御することができる技術が実現される。
(本実施形態の変形例)
本実施形態として、タッチパネル21として、スマートフォンが備える電子部品が用いられる実施形態を上述した。しかしながら、本発明において、タッチパネル21は、コンピュータ上に実現される仮想的なものであってもよい。このような構成において、ユーザは、仮想的なタッチパネル21に対して、ポインティングデバイスを用いてジェスチャコマンドを入力することができる。ポインティングデバイスの例としては、マウス、タッチペン、及びタッチパッド等が挙げられる。
本実施形態として、(1)スピンジェスチャ及びフォーカス制御、(2)ダブルタップからのスピンジェスチャ及び絞り制御、並びに、(3)ロングタップからのスピンジェスチャ及びズーム制御が、組として、それぞれ互いに対応している実施形態を上述した。しかしながら、本発明において、これらの対応関係は、変更可能であり、任意のスピンジェスチャと、制御処理のうち任意の1つ、2つ又は3つとが、対応していてもよい。例えば、(1)スピンジェスチャと、フォーカス制御及び絞り制御とが、組として互いに対応していてもよい。また、例えば、(1)スピンジェスチャ及び(2)ダブルタップからのスピンジェスチャと、ズーム制御とが、組として、互いに対応していてもよい。これらの組は、用途に応じてユーザによってカスタマイズ可能であってもよい。
また、本実施形態として、(4)二本指によるスワイプジェスチャ及びプリセット記憶、(5)二本指によるフリックジェスチャ及びプリセット復元、並びに、(6)三本指によるフリックジェスチャ及び許容範囲設定が、組として、それぞれ互いに対応している実施形態を上述した。しかしながら、本発明の一実施形態において、これらの組は、任意に変更可能である。例えば、(4)二本指によるスワイプジェスチャ及びプリセット復元との組であってもよい。
また、本発明において、スピンジェスチャの回転方向と、フォーカス位置、絞り値及びズーム倍率の変化方向との対応関係はそれぞれ、ユーザによってカスタマイズ可能である。
本発明において、検出処理S11及び特定処理S12において二本指によるフリックジェスチャが検出されてから、光学系制御処理S173においてフォーカス位置、絞り値、又はズーム倍率が設定されるまでに要する時間は、用途に応じてユーザによってカスタマイズ可能であってもよい。この時間は、極めて短くても(例えば0.1秒)よいし、1秒、2秒又はそれ以上であってもよい。この時間をカスタマイズすることによって、ユーザは動画撮影における演出を選択することができる。
本発明において、特定処理S12、フォーカス変化算出処理S131、フォーカス位置算出処理S132、絞り変化算出処理S141、絞り値算出処理S142、ズーム変化算出処理S151、ズーム倍率算出処理S152、記憶領域選択処理S161及びS171及び許容範囲算出処理S181それぞれを実行する処理主体は、操作端末20であってもよいし、コントローラ30であってもよい。例えば、操作端末20が検出処理S11において検出したタッチ位置の情報をコントローラ30へ送信し、コントローラ30がタッチ位置に基づいて、変化量を算出してもよい。
本発明において、フォーカス位置算出処理S132、絞り値算出処理S142、及びズーム倍率算出処理S152それぞれが実行されずに、フォーカス制御処理S133、絞り制御処理S143、及びズーム制御処理S153が実行されてもよい。例えば、コントローラ30は、目的のフォーカス位置を算出せず、フォーカス変化算出処理S131における変化量の算出結果の分だけ、フォーカス位置を変化させることによって、フォーカス制御処理S133を実行してもよい。
また、本発明において、カメラと操作端末20とが直接的に、又はレンズ10を介して間接的に互いに通信可能に接続されていてもよい。このような構成において、操作端末20が備えるプロセッサ22は、カメラへ、シャッタ及び電源のオンオフ等の任意の命令信号を送信してもよい。また、カメラが備えるプロセッサは、操作端末20へ、カメラが取得した動画像を送信してもよく、操作端末20が備えるプロセッサ22は、タッチパネル21のディスプレイ上に取得した動画像を表示してもよい。一実施形態において、上述した制御状態表示部G11及びフィードバック表示部G12の背景として、取得された動画像が表示されてもよい。このような一実施形態によれば、ユーザは、取得された動画像を手元の操作端末20を用いて確認しながら、レンズ10を操作することができる。
(付記事項)
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
10 レンズ
20 操作端末
21 タッチパネル
30 コントローラ
31 メモリ
100 レンズシステム
311,312,313,314 記憶領域

Claims (11)

  1. レンズと、
    前記レンズから分離された操作端末であって、タッチパネルを有する操作端末と、
    前記タッチパネルに入力されたジェスチャコマンドに応じて、前記レンズを制御するコントローラと、を含んでおり、
    前記コントローラは、スピンジェスチャに応じて、前記レンズのフォーカス制御、絞り制御、又はズーム制御を実行し、
    前記コントローラがフォーカス制御、絞り制御、及びズーム制御のうち、何れの制御を実行するかは、前記スピンジェスチャの直前に入力されたジェスチャコマンドの有無又は種類に応じて決定され、
    前記スピンジェスチャの直前に入力された前記ジェスチャコマンドの種類は、ダブルタップ又はロングタップである、
    ことを特徴とするレンズシステム。
  2. 前記コントローラは、スワイプジェスチャに応じて、前記レンズの現在のフォーカス位置、絞り値、又はズーム倍率をプリセット情報としてメモリに書き込む、
    ことを特徴とする請求項1に記載のレンズシステム。
  3. レンズと、
    前記レンズから分離された操作端末であって、タッチパネルを有する操作端末と、
    前記タッチパネルに入力されたジェスチャコマンドに応じて、前記レンズを制御するコントローラと、を含んでおり、
    前記コントローラは、スワイプジェスチャに応じて、前記レンズの現在のフォーカス位置、絞り値、又はズーム倍率をプリセット情報としてメモリに書き込む、
    ことを特徴とするレンズシステム。
  4. 前記レンズは、カメラに装着可能なレンズであり、
    前記コントローラは、前記レンズ又は前記カメラに内蔵されている、
    ことを特徴とする請求項1~3の何れか一項に記載のレンズシステム。
  5. 前記コントローラは、スピンジェスチャに応じて、前記レンズのフォーカス制御、絞り制御、又はズーム制御を実行する、
    ことを特徴とする請求項3に記載のレンズシステム。
  6. 前記コントローラがフォーカス制御、絞り制御、及びズーム制御のうち、何れの制御を実行するかは、前記スピンジェスチャの直前に入力されたジェスチャコマンドの有無又は種類に応じて決定される、
    ことを特徴とする請求項5に記載のレンズシステム。
  7. 前記メモリは、複数の記憶領域を有しており、
    前記コントローラが前記プリセット情報を書き込む記憶領域は、スワイプ方向に応じて決定される、
    ことを特徴とする請求項2又は3に記載のレンズシステム。
  8. 前記コントローラは、フリックジェスチャに応じて、前記レンズのフォーカス位置、絞り値、又はズーム倍率を、前記プリセット情報として前記メモリから読み出したフォーカス位置、絞り値、又はズーム倍率に基づいて設定する、
    ことを特徴とする請求項2又は3に記載のレンズシステム。
  9. 前記コントローラは、
    前記フリックジェスチャに応じて、前記レンズのフォーカス位置を設定し、
    前記フリックジェスチャを行う指の本数に応じて、設定された前記フォーカス位置に基づいてオートフォーカスモードにおける前記レンズのフォーカス位置の許容範囲をさらに設定する、
    ことを特徴とする請求項8に記載のレンズシステム。
  10. 前記メモリは、複数の記憶領域を有しており、
    前記コントローラが前記プリセット情報を読み出す記憶領域は、フリック方向に応じて決定される、
    ことを特徴とする請求項8又は9に記載のレンズシステム。
  11. 前記コントローラは、フリックジェスチャ及び前記フリックジェスチャを行う指の本数に応じて、現在のレンズのフォーカス位置に基づいてオートフォーカスモードにおける前記レンズのフォーカス位置の許容範囲を設定する、
    ことを特徴とする請求項1~10の何れか一項に記載のレンズシステム。
JP2021211480A 2021-12-24 2021-12-24 レンズシステム Active JP7775072B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021211480A JP7775072B2 (ja) 2021-12-24 2021-12-24 レンズシステム
US17/988,392 US12273615B2 (en) 2021-12-24 2022-11-16 Lens system for reducing a shake induced by a touch-down operation
CN202211443898.0A CN116347206A (zh) 2021-12-24 2022-11-18 镜头系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021211480A JP7775072B2 (ja) 2021-12-24 2021-12-24 レンズシステム

Publications (2)

Publication Number Publication Date
JP2023095529A JP2023095529A (ja) 2023-07-06
JP7775072B2 true JP7775072B2 (ja) 2025-11-25

Family

ID=86877933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021211480A Active JP7775072B2 (ja) 2021-12-24 2021-12-24 レンズシステム

Country Status (3)

Country Link
US (1) US12273615B2 (ja)
JP (1) JP7775072B2 (ja)
CN (1) CN116347206A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024068305A (ja) * 2022-11-08 2024-05-20 キヤノン株式会社 撮像制御装置、撮像制御方法およびプログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028345A (ja) 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
US20140118601A1 (en) 2012-10-30 2014-05-01 Samsung Electronics Co., Ltd. Imaging apparatus and control method
JP2015002471A (ja) 2013-06-17 2015-01-05 キヤノン株式会社 表示制御装置、方法及びプログラム並びに記憶媒体
JP2015088787A (ja) 2013-10-28 2015-05-07 キヤノン株式会社 通信装置、その制御方法、プログラム
JP2016127524A (ja) 2015-01-07 2016-07-11 キヤノン株式会社 撮像装置、その制御方法、及びプログラム、並びに記憶媒体
JP2016126160A (ja) 2014-12-26 2016-07-11 カシオ計算機株式会社 撮像装置、撮像制御方法及びプログラム
US20160261788A1 (en) 2015-03-06 2016-09-08 Sony Corporation System, method, and apparatus for timer operations controlling camera
JP2016533100A (ja) 2014-07-18 2016-10-20 小米科技有限責任公司Xiaomi Inc. 撮影パラメータの調節方法、装置、プログラム、及び記録媒体
JP2017028585A (ja) 2015-07-24 2017-02-02 キヤノン株式会社 撮影システム及びその制御方法、コンピュータプログラム
JP2018087864A (ja) 2016-11-28 2018-06-07 オリンパス株式会社 焦点調節装置及び焦点調節装置の制御方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047602A (ja) * 2004-08-04 2006-02-16 Casio Comput Co Ltd カメラ装置
EP3535756B1 (en) * 2016-11-07 2021-07-28 Snap Inc. Selective identification and order of image modifiers
US20190302986A1 (en) * 2018-03-30 2019-10-03 Canon Kabushiki Kaisha Operation apparatus and method for controlling the same

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011028345A (ja) 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
US20140118601A1 (en) 2012-10-30 2014-05-01 Samsung Electronics Co., Ltd. Imaging apparatus and control method
JP2015002471A (ja) 2013-06-17 2015-01-05 キヤノン株式会社 表示制御装置、方法及びプログラム並びに記憶媒体
JP2015088787A (ja) 2013-10-28 2015-05-07 キヤノン株式会社 通信装置、その制御方法、プログラム
JP2016533100A (ja) 2014-07-18 2016-10-20 小米科技有限責任公司Xiaomi Inc. 撮影パラメータの調節方法、装置、プログラム、及び記録媒体
JP2016126160A (ja) 2014-12-26 2016-07-11 カシオ計算機株式会社 撮像装置、撮像制御方法及びプログラム
JP2016127524A (ja) 2015-01-07 2016-07-11 キヤノン株式会社 撮像装置、その制御方法、及びプログラム、並びに記憶媒体
US20160261788A1 (en) 2015-03-06 2016-09-08 Sony Corporation System, method, and apparatus for timer operations controlling camera
JP2017028585A (ja) 2015-07-24 2017-02-02 キヤノン株式会社 撮影システム及びその制御方法、コンピュータプログラム
JP2018087864A (ja) 2016-11-28 2018-06-07 オリンパス株式会社 焦点調節装置及び焦点調節装置の制御方法

Also Published As

Publication number Publication date
US20230209175A1 (en) 2023-06-29
CN116347206A (zh) 2023-06-27
US12273615B2 (en) 2025-04-08
JP2023095529A (ja) 2023-07-06

Similar Documents

Publication Publication Date Title
US10165189B2 (en) Electronic apparatus and a method for controlling the same
CN109644239B (zh) 摄像控制设备、显示控制设备及其控制方法和存储介质
US10911663B2 (en) Electronic apparatus and method for controlling the same
CN103795917A (zh) 成像装置和控制方法
CN108243307B (zh) 摄像控制装置及其控制方法
CN111061372B (zh) 设备控制方法及相关设备
WO2015159548A1 (ja) 投影制御装置、投影制御方法及び投影制御プログラムを記録した記録媒体
WO2018021165A4 (ja) 電子機器およびその制御方法
JP7049195B2 (ja) 電子機器及びその制御方法、プログラム、並びに記憶媒体
US8643749B2 (en) Imaging device, display device, control method, and method for controlling area change
JP7775072B2 (ja) レンズシステム
JP7049179B2 (ja) 撮像制御装置およびその制御方法、プログラム並びに記憶媒体
US11526264B2 (en) Electronic apparatus for enlarging or reducing display object, method of controlling electronic apparatus, and non-transitory computer readable medium
JP6765902B2 (ja) 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
JP5984887B2 (ja) ズーム制御装置およびその制御方法
US10924680B2 (en) Image capture control apparatus and method of controlling the same
JP6765901B2 (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
CN116916152A (zh) 电子装置、控制方法和存储介质
WO2022091700A1 (ja) 表示制御装置、表示制御方法、および表示制御プログラム
US20150100919A1 (en) Display control apparatus and control method of display control apparatus
JP6708516B2 (ja) 電子装置、その制御方法およびプログラム
JP7714012B2 (ja) 撮像装置、制御方法およびプログラム
JP7592395B2 (ja) 焦点調節装置、撮像装置および焦点調節方法
JP2024169176A (ja) 撮像装置及びその制御方法及びプログラム
WO2023189106A1 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20241105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250610

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20251022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20251104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20251112

R150 Certificate of patent or registration of utility model

Ref document number: 7775072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150