[go: up one dir, main page]

JP2020034765A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2020034765A
JP2020034765A JP2018161822A JP2018161822A JP2020034765A JP 2020034765 A JP2020034765 A JP 2020034765A JP 2018161822 A JP2018161822 A JP 2018161822A JP 2018161822 A JP2018161822 A JP 2018161822A JP 2020034765 A JP2020034765 A JP 2020034765A
Authority
JP
Japan
Prior art keywords
information
projection
projection area
information processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018161822A
Other languages
English (en)
Inventor
健太郎 井田
Kentaro Ida
健太郎 井田
青木 悠
Yu Aoki
悠 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2018161822A priority Critical patent/JP2020034765A/ja
Priority to PCT/JP2019/030465 priority patent/WO2020044950A1/ja
Priority to US17/250,692 priority patent/US11689702B2/en
Publication of JP2020034765A publication Critical patent/JP2020034765A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)

Abstract

【課題】映像の投影領域をユーザが所望する様々な位置に設定し当該投影領域に容易に映像を投影すること。【解決手段】情報処理装置は、入力部と制御部とを有する。上記入力部は、映像が投影される空間がセンシングされたセンシング情報と、ユーザによる上記空間のポインティング操作によってポインティングされた座標情報とが入力される。上記制御部は、上記センシング情報に基づいて上記空間内の状況を解析した結果と上記座標情報とを基に所定範囲の投影領域を設定する設定情報を記憶部に記憶する。そして制御部は、上記記憶された設定情報から上記ユーザによって投影領域が指定された場合に、当該投影領域に映像を投影するように投影装置を制御する。【選択図】図8

Description

本技術は、投影エリアを変更できる駆動型プロジェクタを制御可能な情報処理装置、情報処理方法及びプログラムに関する。
従来から、投影エリアを変更可能なプロジェクタが開発されている。下記特許文献1には、ユーザのポインティング操作に基づいて投影領域の位置または形状を変化させる表示制御モードと、上記操作に基づいて投影領域内の表示オブジェクトに対応する処理を実行する実行モードとを切り替えることが可能な情報処理装置が開示されている。
特開2013−258555号公報
しかし、上記特許文献1に記載の技術では、ユーザは、投影領域の変更を望む場合、その度ごとに表示制御モードを呼び出し、変更後の投影領域を位置決めする必要がある。
以上のような事情に鑑み、本技術の目的は、映像の投影領域をユーザが所望する様々な位置に設定し当該投影領域に容易に映像を投影することが可能な情報処理装置、情報処理方法及びプログラムを提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、入力部と制御部とを有する。上記入力部は、映像が投影される空間がセンシングされたセンシング情報と、ユーザによる上記空間のポインティング操作によってポインティングされた座標情報とが入力される。上記制御部は、上記センシング情報に基づいて上記空間内の状況を解析した結果と上記座標情報とを基に所定範囲の投影領域を設定する設定情報を記憶部に記憶する。そして制御部は、上記記憶された設定情報から上記ユーザによって投影領域が指定された場合に、当該投影領域に映像を投影するように投影装置を制御する。
この構成により情報処理装置は、ユーザのポインティング操作に基づいて、投影領域をユーザが所望する様々な位置に設定し当該投影領域に容易に映像を投影することができる。ここで投影装置は、情報処理装置と外部で接続されていてもよいし、情報処理装置と一体的に構成されていてもよい。センシング情報は例えばデプスセンサや明度センサ等で得られる情報である。
上記制御部は、上記座標情報によって示される座標から、上記解析結果に基づいて変更した座標を中心として上記投影領域を設定してもよい。
これにより情報処理装置は、ユーザによってポインティングされた座標の空間が投影に適さないことが認識された場合に、投影領域をより適した座標に変更して設定することができる。
上記制御部は、上記座標情報によって示される座標の近傍で認識されたオブジェクトのエッジに沿って上記投影領域を設定してもよい。
これにより情報処理装置は、投影領域をエッジに沿って設定することで、ユーザに当該投影領域を覚えやすくすると共に、投影時の視認性も向上させることができる。
上記制御部は、上記座標情報によって示される座標から所定半径の距離内に複数のエッジが検出された場合、当該各エッジに沿って上記座標を移動させた場合の移動距離が最小となるエッジに沿って上記投影領域を設定してもよい。
これにより情報処理装置は、複数のエッジのうち元々のユーザが意図した位置に極力近いエッジに沿って投影領域を設定できる。
上記制御部は、上記座標情報によって示される座標を含む平面の面積に応じて上記設定する投影領域の面積を変更してもよい。
これにより情報処理装置は、ポインティング操作対象の平面の面積に応じて投影領域を最大限の面積に設定することができる。
上記制御部は、上記解析により、上記座標情報によって示される座標の近傍の面が投影に適さないと判断した場合に、当該座標とは異なる座標について再度の上記ポインティング操作を促す情報を出力してもよい。
これにより情報処理装置は、ユーザが投影に適さない位置をポインティングした場合にその位置を避けて投影領域を設定するよう促すことができる。
上記制御部は、上記設定された投影領域を含み当該投影領域よりも拡張された拡張領域内で上記ユーザによるポインティング操作が受け付けられた場合に、上記投影領域が指定されたと判定してもよい。
これによりユーザは厳密なポインティング位置の調整をしなくても直感的かつ容易に投影領域を指定することができる。当該拡張領域は、ユーザと投影領域との距離に応じて可変されてもよい。
上記制御部は、上記設定された複数の投影領域の上記拡張領域同士の重複領域が存在する場合、当該重複領域に対する上記ポインティング操作を無効な操作として扱ってもよい。
これにより情報処理装置は、近い位置に設定された複数の投影領域のうちどれがユーザに指定されたのかが判定不明になるのを防ぐことができる。
上記制御部は、上記ポインティング操作が上記拡張領域外または上記重複領域内で検出された場合に、当該ポインティング操作が無効であることを上記ユーザにフィードバックするフィードバック情報を出力してもよい。
これにより情報処理装置は、ユーザにポインティング操作が無効であることを把握させ、投影領域の指定のために異なる位置への再度のポインティング操作を促すことができる。ここで上記フィードバック情報は、画像情報として投影装置から出力されてもよいし、音声情報としてPCまたは外部スピーカから出力されてもよい。
上記制御部は、上記投影領域を識別する識別情報と共に上記設定情報を記憶し、上記ユーザから上記識別情報を選択する操作または音声が入力された場合に、当該識別情報に対応する投影領域が指定されたと判定してもよい。
これにより情報処理装置は、ユーザのポインティング操作のみならず識別情報の選択に基づいて投影領域を選択することができる。
本技術の他の形態に係る情報処理方法は、
映像が投影される空間がセンシングされたセンシング情報と、ユーザによる上記空間のポインティング操作によってポインティングされた座標情報との入力を受け付け、
上記センシング情報に基づいて上記空間内の状況を解析した結果と上記座標情報とを基に所定範囲の投影領域を設定する設定情報を記憶し、
上記記憶された設定情報から上記ユーザによって投影領域が指定された場合に、当該投影領域に映像を投影するように投影装置を制御することを含む。
本技術の他の形態に係るプログラムは、情報処理装置に、
映像が投影される空間がセンシングされたセンシング情報と、ユーザによる上記空間のポインティング操作によってポインティングされた座標情報との入力を受け付けるステップと、
上記センシング情報に基づいて上記空間内の状況を解析した結果と上記座標情報とを基に所定範囲の投影領域を設定する設定情報を記憶するステップと、
上記記憶された設定情報から上記ユーザによって投影領域が指定された場合に、当該投影領域に映像を投影するように投影装置を制御するステップと、を実行させる。
以上のように、本技術によれば、映像の投影領域をユーザが所望する様々な位置に設定し当該投影領域に容易に映像を投影することができる。しかし、当該効果は本技術を限定するものではない。
本技術の一実施形態に係る映像投影システムの構成を示した図である。 上記映像投影システムが有するPCのハードウェア構成を示した図である。 上記映像投影システムが有する機能ブロック構成を示した図である。 上記映像投影システムにおいてプリセットされる投影領域の設定情報のデータ形式を示した図である。 上記映像投影システムにおいてプリセットされる投影領域の微調整処理の流れを示した図である。 上記映像投影システムにおける投影領域のプリセット例を示した図である。 上記映像投影システムにおいて空間内の3次元形状を観測したポイントクラウドデータを示した図である。 上記映像投影システムによる投影領域プリセット処理及び投影処理の流れを示したフローチャートである。 上記映像システムにおけるオートアジャスト処理のアルゴリズムについて示した図である。 上記映像システムにおけるポインティング判定領域の拡張処理を示した図である。 上記映像システムにおけるポインティング無効領域の算出処理を示した図である。 上記映像システムにおいて判定エリア外がポインティングされた場合のユーザへのビジュアルフィードバック例を示した図である。 上記映像システムにおいてプリセットされた投影領域をプリセット名から選択するGUIの例を示した図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
[システムの概要]
図1は、本技術の一実施形態に係る映像投影システムの構成を示した図である。
同図に示すように、本システムは、PC100と、ムービングプロジェクタ200と、IR(infrared)カメラ300と、ポインティングデバイス400とを有する。これらは例えば家庭内等の同一の空間内に存在する。
PC100は、ムービングプロジェクタ200及びIRカメラと接続されている。
ムービングプロジェクタ200は、空間内の壁面等に設定される投影領域Aに映像を投影する。
ポインティングデバイス400は、ユーザの操作に基づいてIR光を照射させる。IRカメラ300は、壁面等に映ったIR光を検出する。
PC100は、上記ポインティングデバイス400によるポインティング操作によって検出された座標に対して、ムービングプロジェクタ200の投影中心を向け、その方向にある壁面の傾きに合わせて投影映像(投影領域A)の幾何補正をおこなう。
本実施形態では、以上のようなシステムにおいて、PC100は、ユーザのポインティング操作に基づいて、空間の状況を考慮して投影領域Aのプリセット位置を記憶する機能(以下、プリセット機能とも称する)及び当該プリセットされた投影領域を呼び出す機能(以下、呼び出し機能とも称する)を有する。
[PCのハードウェア構成]
図2は、上記PC100のハードウェア構成を示した図である。
同図に示すように、PC100は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、およびRAM(Random Access Memory)13を含む。また、PC100は、ホストバス14、ブリッジ15、外部バス16、インタフェース17、入力装置18、出力装置19、ストレージ装置20、ドライブ21、接続ポート22、通信装置23を含んでもよい。さらに、PC100は、必要に応じて、撮像装置26、およびセンサ27を含んでもよい。PC100は、CPU11に代えて、またはこれとともに、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などの処理回路を有してもよい。
CPU11は、演算処理装置および制御装置として機能し、ROM12、RAM13、ストレージ装置20、またはリムーバブル記録媒体24に記録された各種プログラムに従って、PC100内の動作全般またはその一部を制御する。ROM12は、CPU11が使用するプログラムや演算パラメータなどを記憶する。RAM13は、CPU11の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU11、ROM12、およびRAM13は、CPUバスなどの内部バスにより構成されるホストバス14により相互に接続されている。さらに、ホストバス14は、ブリッジ15を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス16に接続されている。
入力装置18は、例えば、タッチパネル、物理ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置18は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、PC100の操作に対応したスマートフォンやスマートウォッチなどの外部接続機器25であってもよい。入力装置18は、ユーザが入力した情報に基づいて入力信号を生成してCPU11に出力する入力制御回路を含む。ユーザは、この入力装置18を操作することによって、PC100に対して各種のデータを入力したり処理動作を指示したりする。
出力装置19は、取得した情報をユーザに対して視覚や聴覚、触覚などの感覚を用いて通知することが可能な装置で構成される。出力装置19は、例えば、LCD(Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカなどの音声出力装置などでありうる。出力装置19は、PC100の処理により得られた結果を、テキストもしくは画像などの映像、音声もしくは音響などの音声、またはバイブレーションなどとして出力する。
ストレージ装置20は、PC100の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置20は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。ストレージ装置20は、例えばCPU11が実行するプログラムや各種データ、および外部から取得した各種のデータ、並びに、上記投影領域Aのプリセット情報などを格納する。
ドライブ21は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体24のためのリーダライタであり、PC100に内蔵、あるいは外付けされる。ドライブ21は、装着されているリムーバブル記録媒体24に記録されている情報を読み出して、RAM13に出力する。また、ドライブ21は、装着されているリムーバブル記録媒体24に記録を書き込む。
接続ポート22は、機器をPC100に接続するためのポートである。接続ポート22は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート22は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート22に外部接続機器25を接続することで、PC100と外部接続機器25との間で各種のデータが交換されうる。
通信装置23は、例えば、通信ネットワーク50に接続するための通信デバイスなどで構成された通信インタフェースである。通信装置23は、例えば、LAN(Local Area Network)、Bluetooth(登録商標)、Wi−Fi、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置23は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置23は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置23に接続される通信ネットワーク50は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などを含みうる。
撮像装置26は、例えば、CMOS(Complementary Metal Oxide Semiconductor)またはCCD(Charge Coupled Device)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成するカメラである。撮像装置26は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ27は、例えば、加速度センサ、角速度センサ、地磁気センサ、照度センサ、温度センサ、気圧センサ、デプスセンサ、または音センサ(マイクロフォン)などの各種のセンサである。センサ27は、例えばPC100の筐体の姿勢など、PC100自体の状態に関する情報や、PC100の周辺の明るさや騒音など、PC100の周辺環境に関する情報を取得する。また、センサ27は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPS受信機を含んでもよい。
上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
[映像投影システムの機能ブロック構成]
図3は、上記PC100が有する機能ブロック(モジュール)構成を示した図である。
同図に示すように、PC100は、機能ブロックとして、制御部110、ポインティング検出部120、ユーザ検出部130、環境検出部140、機器検出部150、インタフェース部160及び記憶部170を有する。
上記各機能ブロックが各機能を実現するためのセンサ情報の入力元であるセンサ部30としては、上記IRカメラ300の他、デプスセンサ31、マイクロフォン32等が挙げられる。
制御部110は、映像制御部111、表示位置制御部112、解析部113を有する。
映像制御部111は、投影領域Aに表示される映像の投影処理を制御する。
表示位置制御部112は、インタフェース部160を介してムービングプロジェクタ200を駆動して、ユーザのポインティング場所に映像を投影する。
解析部113は、センサ部30からインタフェース部160を介して入力された各種センシングデータを解析する。例えば解析部113は、デプスセンサ31からのデプス情報を基に解釈されたポイントクラウドデータ(後述)をセグメンテーションし、壁面やオブジェクト等に分類して当該セグメンテーションされたポイントクラウドデータを記憶部170に記憶する。
ポインティング検出部120は、ユーザがポインティングデバイス400によりポインティングし、IRカメラ300が撮像した輝点を検出する。
ユーザ検出部130は、空間内のユーザの位置を検出する。
環境検出部140は、各種センサからのセンシング情報を環境情報として検出する。例えば環境検出部140は、上記デプスセンサ31のデプス情報を上記ポイントクラウドデータとして解釈することで空間の形状、凹凸、オブジェクト等を検出する。また環境検出部140は、その他にも、空間の色、照度、音量等を検出する。
機器検出部150は、空間内に存在する各種機器及びその位置を検出する。
インタフェース部160は、上記センサ部30及び上記各機能ブロックが実行した機能に基づく情報の表示先である表示部40とのインタフェースを担う。
当該表示部40としては、上記ムービングプロジェクタ200の他、(非駆動型)プロジェクタ41、TV42、タブレットPC43、スマートフォン44、(PC100とは異なる)PC45等が挙げられる。
[投影領域のプリセット機能]
次に、上記投影領域Aのプリセット機能の前提となる技術について説明する。
プリセット機能とは、ユーザが実空間における頻繁に投影したい場所を予め登録する機能である。PC100は、予め投影する厳密な位置を設定・保存することにより、後述の呼び出しモードにより投影環境を容易に再現する事ができる。PC100が保存するプリセット情報の一例を図4に示す。
同図に示すように、プリセットデータには、プリセットされた投影位置を識別する情報(プリセット名)と、投影領域Aの中心座標(X1,Y1,Z1)及び投影サイズ(X2,Y2)の各データが含まれる。
上記ポインティングデバイス400を利用してプリセットで投影場所を設定する場合、ポインティングデバイス400は細かな調整操作に向いていないため、PC100は、微調整機能を有してもよい。これには、キーボードによるマニュアル設定と、実空間に合わせたオート設定の2種類がある。下記に各々の詳細を示す。
まず、投影領域Aのキーボードによるマニュアル微調整処理について説明する。図5は、その調整手順を示した図である。
この機能は、ユーザが、大まかにポインティングデバイス400で空間を指定した後、PC100またはPC45のキーボードの十字キーを用いて上下左右方向への微調整をする機能である。ポインティングデバイス400に十字キーが設けられている場合には、PC100またはPC45の十字キーに代えてポインティングデバイス400の十字キーが用いられてもよい。
同図に示すように、まずユーザは、ポインティングデバイス400により投影した場所を大まかに指定する(同図(1))。同図の例では、ポインティング位置はTV42のやや斜め上方を指している。
続いて、ユーザが、PC100またはPC45のキーボードの十字キーを利用して、投影したい場所を微調整する(同図(2))。同図では、上記(1)よりも右下の、TV42の上部エッジに沿った位置に調整されている。
そして、投影場所の微調整が終了しプリセット位置が決まると、ユーザは、PC100またはPC45のキーボード等を介した入力により、プリセットした場所に名前を付ける(同図(3))。以上で投影領域Aのプリセット位置のマニュアル設定が終了する。
次に、実空間に合わせた投影領域Aのオート設定処理について説明する。オート設定処理は、例えばユーザの入力に基づいてその機能のON/OFFの設定が可能とされている。
PC100は、上述のように、センサ部30の各種センシングデータを解析することにより、予め空間の形状を認識している。これは、PC100は、IRカメラ300によって観測するポインティングデバイス400の輝点が、空間のどのオブジェクトに反射しているのかを空間座標系で理解する必要があるからである。
PC100は、この3次元情報を利用し、ポインティングデバイス400でユーザが大まかに指定した場所において、近傍にオブジェクトがある場合には、そのオブジェクトのエッジに合わせて投影領域Aを配置し、近傍に何もない場合には、最も適したエリアに投影領域Aを配置する。図6を用いて、空間内に設定される各々の投影領域について説明する。
投影領域A1は、TVの上方付近への大まかなポインティング操作を基に、TVの上辺に沿った場所に調整される。
投影領域A2は、TVの右側付近への大まかなポインティング操作を基に、TVの右辺とTV台の天面に沿った場所に調整される。
投影領域A3は、窓の上方付近への大まかなポインティング操作を基に、窓の上辺に沿った場所に調整される。
投影領域A4及びA5は、ポインティング操作の場所にオブジェクトが存在しなかったため、当該ポインティングした場所を中心に配置される。
PC100は、このような、空間の環境に合わせたオートアジャスト位置を、ポインティング処理で利用する上記3次元形状を利用して計算する。図7は、3次元形状を観測したポイントクラウドデータを示した図である。同図Aが空間を俯瞰した場合のデータを示し、同図Bが空間の側面方向のデータを示す。
PC100は、これらのポイントクラウドデータをセグメンテーションすることにより、上記TVや窓等の物体の境界線を認識することができる。
以上のような投影領域Aのプリセット処理はプリセットモードにおいて実行され、呼び出しモードにおいて、プリセットされた投影領域Aが呼び出されてそこに映像が投影される。
[映像投影システムの動作]
次に、以上のように構成された映像投影システムの動作について説明する。当該動作は、PC100のCPU11及び通信部等のハードウェアと、ROM12、RAM13、ストレージ装置20、またはリムーバブル記録媒体24に記憶されたソフトウェアとの協働により実行される。以下の説明では、便宜上、主にCPU11を動作主体として説明する。
図8は、上記映像投影システムによる投影領域プリセット処理及び投影処理の流れを示したフローチャートである。当該処理の前処理として、CPU11は、初期設定処理を実行する。
すなわちCPU11は、センサ部30のデプスセンサ31を用いて設置した空間のデプス情報を取得し、取得したデータを環境検出部140によりポイントクラウドデータ(図7)として解釈し、解析部113によりセグメンテーションして、壁面、オブジェクト等に分類されて記憶部170に保存する。
上記初期設定を経て、同図に示すように、CPU11は、プリセットモードと呼び出しモードのいずれのモードの実行が指示されたのかを判断する(ステップ81)。
プリセットモードと呼び出しモードとは、PC100が表示するメニュー画面を介してユーザによって切り替えられてもよいし、ポインティングデバイス400に設けられたスイッチ等への操作をPC100が検出することで切り替えられてもよい。
現在のモードがプリセットモードであると判断した場合、CPU11は、ユーザによる3次元空間のポインティング操作による大まかな場所指定を検出する(ステップ82)。
すなわち、ユーザがポインティングデバイス400により登録したい投影場所をポインティングすると、センサ部30のIRカメラ300が輝点を撮像し、CPU11は、ポインティング検出部120により輝点を検出する。
そしてCPU11は、予め保存したポイントクラウドデータを記憶部170から読出し、輝点を検出した座標の3次元座標点を特定する。続いてCPU11は、表示位置制御部112により、I/F部160を介してムービングプロジェクタ200を駆動して、ポインティング場所に映像を投影する。
続いてCPU11は、オートアジャスト機能がONになっているか否かを判断する(ステップ83)。
オートアジャスト機能がONになっていると判断した場合(Yes)、CPU11は、上記ポイントクラウドデータから解釈したオブジェクトのエッジに合わせて、投影領域の位置を調整する(ステップ84)。図9は、このオートアジャスト処理のアルゴリズムについて示した図である。
同図において、一点鎖線で描かれた矩形がポインティングデバイス400により指定された領域Pを示す。
CPU11は、このポインティング領域Pの中心から半径rの距離にあるエッジを検出する。同図では、TV42の上、右、下の3辺が該当する。ここで、各々のエッジに合わせた場合の距離をそれぞれd1,d2,d3とする。CPU11は、この中で最も距離が小さい場所を投影領域Aのアジャスト場所に設定する。同図の場合は、d3>d1>d2であるため、投影領域AはTV42の右辺にアジャストされる。
上記ステップ83においてオートアジャスト機能がOFFであると判断した場合(No)及び上記オートアジャスト処理が終了した場合、CPU11は、ユーザによる微調整として、十字キーによる上下左右の押下操作が有ったか否かを判断する(ステップ85)。
十字キーの押下操作があったと判断した場合(Yes)、CPU11は、十字キーが押下された方向へ投影領域Aをオフセットする(ステップ86)。
十字キーの押下操作が例えば所定時間以上無いと判断した場合(No)、CPU11は現在の投影領域Aの位置について、その3次元座標とユーザによって入力された保存名を対応付けて記憶部170にプリセット(登録)する(ステップ87)。ここで、投影領域Aの面積は、一律に所定のサイズの矩形に設定されるが、ポインティング座標近傍のオブジェクトの有無等に応じて当該サイズが可変されてもよい。
上記ステップ81において、現在のモードが呼び出しモードであると判断した場合、CPU11は、当該呼び出しが、いずれの手法で指示されたものであるかを判断する。
すなわち、プリセットされた空間内の投影領域Aの呼び出しには、以下の3つの手法がある。
1)ユーザがプリセットに利用したポインティングデバイス400を利用してポインティングにより指定する手法
2)スマートフォン44上に表示されるGUIによる登録プリセット名リストから選択する手法(図13の登録プリセット名リストL参照)
3)スマートフォン44またはスマートスピーカー(図示せず)の音声入力機能を用いてプリセット名を発話することで選択する手法
呼び出しがポインティング操作によるものと判断した場合(ステップ88)、CPU11は、ポインティング座標が無効領域か否かを判断する(ステップ89)。
ここで、PC100がポインティング座標を有効と判断する場合及び無効と判断する場合について説明する。
PC100は、呼び出しモードにおいては、上記プリセットモードにおいて保存した3次元座標を中心とする投影領域Aを上下左右で拡張した拡張領域を、ポインティング操作の有効判定領域(ポインティング操作によって指定された領域)として扱う。図10は、当該ポインティング有効判定領域の拡張処理を示した図である。
同図左側は、プリセットモードで保存された投影領域Aの中心座標と表示サイズを示す。CPU11は、これを元に、同図右側に示すように、ポインティングの有効判定領域として、上記投影領域Aを距離dだけ拡張した拡張領域Aeを利用する。
このdは固定値でもよいが、CPU11は、ユーザと投影面との距離を上記センサ部30から取得し、当該距離に応じてdを可変してもよい。例えば、操作距離が遠くなるとポインティング精度が落ちるため、CPU11は、dの値を大きくして有効判定領域を広げる。これにより、ユーザは、厳密なポインティング位置の調整をせずとも直感的かつ容易に投影領域Aを指定できる。
また、プリセットモードにおいて、複数の投影領域A同士に重複領域が発生することはないが、上記拡張処理により、複数の投影領域Aが比較的近い位置に存在する場合には、拡張領域同士が重複することが有り得る。
そこでCPU11は、そのような重複領域に対するポインティング操作を無効な操作として扱う。図11は、当該ポインティング無効領域の算出処理を示した図である。同図の例では、簡略化の為にX成分のみで計算している。
同図に示すように、CPU11は、同図下部の計算式に従って、2つの拡張領域Ae1と拡張領域Ae2の重複領域を算出し、当該重複領域をポインティング操作の無効領域とする。
すなわち、CPU11は、2つの拡張領域の中心座標から左右端までの距離の和が、2つの拡張領域間の距離よりも大きいと判断した場合には、2つの拡張領域は重複していると判断する。
そしてCPU11は、当該重複領域の横幅を算出して、その分を考慮して2つの拡張領域Ae1と拡張領域Ae2の境界座標を決定する。これにより重複領域がポインティング操作の無効領域として設定される。
これにより、近い位置に設定された複数の投影領域Aのうちどれがユーザに指定されたのかが判定不明になるのが防止される。
図8に戻り、CPU11は、ポインティング座標が上記無効領域内であると判断した場合(ステップ89のYes)、ユーザに、ポインティング位置が無効領域であることを示すビジュアルフィードバックを、例えばそのポインティング位置においてムービングプロジェクタ200に投影させる(ステップ90)。
またCPU11は、ポインティング座標が、上記無効領域ではないが、上記拡張領域Ae(プリセットにより保存した3次元座標を中心とする投影領域Aをdだけ拡張した領域)の範囲外であると判断した場合(ステップ91のNo)には、ユーザに、ポインティング位置が当該投影領域A外であることを示すビジュアルフィードバックを、例えばそのポインティング位置においてムービングプロジェクタ200に投影させる(ステップ92)。
図12は、このようなユーザへのビジュアルフィードバック例を示した図である。
同図Aに示すように、CPU11は、ポインティング位置を中心に波紋が広がるような画像を出力してもよい。
同図Bに示すように、CPU11は、ポインティング位置に例えばインフォメーションマークや×マーク等の記号を出力すると共に、近くの投影領域Aのプリセット設定方向に矢印画像を出力してもよい。
同図Cに示すように、CPU11は、ポインティング位置に例えばインフォメーションマークや×マーク等の記号を出力すると共に、近くの投影領域Aのプリセット設定方向に徐々に広がる2本の直線の画像を出力してもよい。
同図Dに示すように、CPU11は、ポインティング位置に例えばインフォメーションマークや×マーク等の記号を出力するのみでも構わない。
同図Eに示すように、CPU11は、ポインティング位置に例えばインフォメーションマークや×マーク等の記号を出力すると共に、近くの投影領域Aのプリセット設定方向に波紋の画像を出力してもよい。
同図Fに示すように、CPU11は、ポインティング位置に例えばインフォメーションマークや×マーク等の記号を出力すると共に、近くの投影領域Aのプリセット設定方向にパーティクル画像を出力してもよい。
同図Gに示すように、CPU11は、ポインティング位置に、ポインティング操作が無効であることを示すアイコン(指を指した画像の上に×のマーク)を出力してもよい。
同図Hに示すように、CPU11は、複数のプリセットされた投影領域間で重複する無効領域をポインティングしたことを示す画像(2つの領域の重複範囲に×のマークを示した画像等)を出力してもよい。
CPU11は、これら以外にも、上記ポインティング操作が、上記無効領域I内へのポインティング操作である場合と、拡張領域Ae外へのポインティング操作である場合とで、異なるビジュアルフィードバック画像を出力してもよい。
このようなビジュアルフィードバックにより、PC100は、ユーザにポインティング操作が無効であることを把握させ、投影領域の指定のために異なる位置への再度のポインティング操作を促すことができる。
上記フィードバック情報は、画像情報としてムービングプロジェクタ200から出力される代わりに、PC100やスマートスピーカ等の外部スピーカから音声情報として出力されてもよい。
そしてCPU11は、上記ポインティング座標が上記拡張領域Ae内であると判断した場合(ステップ91のYes)には、当該ポインティング座標に対応する上記プリセットされた投影領域Aにムービングプロジェクタ200を駆動して映像を投影させる(ステップ95)。
またCPU11は、上記ポインティングデバイス400によるポインティング操作のみならず、スマートフォン44上に表示される登録プリセット名リストLからの投影領域Aの選択操作や、登録プリセット名の音声入力による投影領域Aの選択操作が入力された場合(ステップ93、94)にも、当該選択に対応するプリセットされた投影領域Aにムービングプロジェクタ200を駆動して映像を投影させる(ステップ95)。
以上説明したように、本実施形態によれば、ユーザのポインティング操作に基づいて、投影領域Aをユーザが所望する様々な位置にプリセットし、当該投影領域Aに容易に映像を投影することができる。
[変形例]
本発明は上述の実施形態にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更され得る。
上述の実施形態のプリセットモードにおいては、プリセットされる投影領域Aのサイズは固定とされていたが、CPU11は、ポインティングデバイス400によるポインティング座標を含む平面の面積に応じて、プリセットされる投影領域Aの面積を変更してもよい。例えばCPU11は、所定のアスペクト比の表示領域の面積を、ポインティング座標の周囲に存在するオブジェクトに重ならない最大限の面積に設定してもよい。
上述の実施形態のプリセットモードにおいて、CPU11は、投影対象のコンテンツに応じて、プリセットされる投影領域Aの面積や形状を可変してもよい。例えば、正方形の写真をスライドショーするアプリケーションが起動されていることが検出された場合には、投影領域Aが長方形ではなく正方形に設定されてもよい。また、CPU11は、投影領域Aのプリセット毎に、投影されるコンテンツを出力するアプリケーションをユーザに選択させ、当該選択に応じて投影領域Aの面積や形状を設定してもよい。
上述の実施形態のプリセットモードにおいては、ユーザのポインティング位置の近傍のオブジェクトのエッジに沿って投影領域Aの位置が調整された。しかし、CPU11は、上記センサ情報の解析により、ポインティング座標の近傍の面が投影に適さないと判断した場合には、当該座標を避けて異なる座標について再度の上記ポインティング操作を促す情報(画像または音声)をムービングプロジェクタ200やPC100等から出力してもよい。
ここで、投影に不適切な面とは、ポインティング面が非平面であることのほか、当該面が投影に不適切な材質(例えばガラス等)、色味、照度である場合も含む。この場合、CPU11は、平面認識については、上記デプスセンサの他、超音波センサや撮像画像を用いてもよい。また、当該面が投影に不適切な材質や色味、照度であるかについては、光センサや撮像画像、照度センサ等が用いられてもよい。
上述の実施形態の呼び出しモードにおいて、CPU11は、複数のプリセットされた投影領域Aの拡張領域Ae同士の重複領域を無効領域として判定していたが、当該無効領域を形成する各拡張領域Aeの各反対側の辺に、例えば当該無効領域の面積分だけ、拡張領域Aeを拡張(すなわち、各拡張領域Aeを外側へ移動)してもよい。
またCPU11は、上記重複領域を算出した際に、当該重複領域を無効領域として設定せずに、どちらの投影領域Aの指定用に用いるかを、ユーザに選択させてもよい。
上述の実施形態では、PC100とムービングプロジェクタ200とが別個の装置として説明されたが、両デバイスが一体的に構成されていても構わない。
[その他]
本技術は以下のような構成もとることができる。
(1)
映像が投影される空間がセンシングされたセンシング情報と、ユーザによる前記空間のポインティング操作によってポインティングされた座標情報とが入力される入力部と、
前記センシング情報に基づいて前記空間内の状況を解析した結果と前記座標情報とを基に所定範囲の投影領域を設定する設定情報を記憶部に記憶し、
前記記憶された設定情報から前記ユーザによって投影領域が指定された場合に、当該投影領域に映像を投影するように投影装置を制御する
制御部と
を具備する情報処理装置。
(2)
上記(1)に記載の情報処理装置であって、
前記制御部は、前記座標情報によって示される座標から、前記解析結果に基づいて変更した座標を中心として前記投影領域を設定する
情報処理装置。
(3)
上記(2)に記載の情報処理装置であって、
前記制御部は、前記座標情報によって示される座標の近傍で認識されたオブジェクトのエッジに沿って前記投影領域を設定する
情報処理装置。
(4)
上記(3)に記載の情報処理装置であって、
前記制御部は、前記座標情報によって示される座標から所定半径の距離内に複数のエッジが検出された場合、当該各エッジに沿って前記座標を移動させた場合の移動距離が最小となるエッジに沿って前記投影領域を設定する
情報処理装置。
(5)
上記(2)に記載の情報処理装置であって、
前記制御部は、前記座標情報によって示される座標を含む平面の面積に応じて前記設定する投影領域の面積を変更する
情報処理装置。
(6)
上記(1)〜(5)のいずれかに記載の情報処理装置であって、
前記制御部は、前記解析により、前記座標情報によって示される座標の近傍の面が投影に適さないと判断した場合に、当該座標とは異なる座標について再度の前記ポインティング操作を促す情報を出力する
情報処理装置。
(7)
上記(1)〜(6)のいずれかに記載の情報処理装置であって、
前記制御部は、前記設定された投影領域を含み当該投影領域よりも拡張された拡張領域内で前記ユーザによるポインティング操作が受け付けられた場合に、前記投影領域が指定されたと判定する
情報処理装置。
(8)
上記(7)に記載の情報処理装置であって、
前記制御部は、前記設定された複数の投影領域の前記拡張領域同士の重複領域が存在する場合、当該重複領域に対する前記ポインティング操作を無効な操作として扱う
情報処理装置。
(9)
上記(8)に記載の情報処理装置であって、
前記制御部は、前記ポインティング操作が前記拡張領域外または前記重複領域内で検出された場合に、当該ポインティング操作が無効であることを前記ユーザにフィードバックするフィードバック情報を出力する
情報処理装置。
(10)
上記(1)〜(9)のいずれかに記載の情報処理装置であって、
前記制御部は、前記投影領域を識別する識別情報と共に前記設定情報を記憶し、前記ユーザから前記識別情報を選択する操作または音声が入力された場合に、当該識別情報に対応する投影領域が指定されたと判定する
情報処理装置。
(11)
映像が投影される空間がセンシングされたセンシング情報と、ユーザによる前記空間のポインティング操作によってポインティングされた座標情報との入力を受け付け、
前記センシング情報に基づいて前記空間内の状況を解析した結果と前記座標情報とを基に所定範囲の投影領域を設定する設定情報を記憶し、
前記記憶された設定情報から前記ユーザによって投影領域が指定された場合に、当該投影領域に映像を投影するように投影装置を制御する
情報処理方法。
(12)
情報処理装置に、
映像が投影される空間がセンシングされたセンシング情報と、ユーザによる前記空間のポインティング操作によってポインティングされた座標情報との入力を受け付けるステップと、
前記センシング情報に基づいて前記空間内の状況を解析した結果と前記座標情報とを基に所定範囲の投影領域を設定する設定情報を記憶するステップと、
前記記憶された設定情報から前記ユーザによって投影領域が指定された場合に、当該投影領域に映像を投影するように投影装置を制御するステップと
を実行させるプログラム。
11…CPU
18…入力装置
19…出力装置
20…ストレージ装置
26…撮像装置
23…通信装置
100…PC
200…ムービングプロジェクタ
400…ポインティングデバイス
A…投影領域

Claims (12)

  1. 映像が投影される空間がセンシングされたセンシング情報と、ユーザによる前記空間のポインティング操作によってポインティングされた座標情報とが入力される入力部と、
    前記センシング情報に基づいて前記空間内の状況を解析した結果と前記座標情報とを基に所定範囲の投影領域を設定する設定情報を記憶部に記憶し、
    前記記憶された設定情報から前記ユーザによって投影領域が指定された場合に、当該投影領域に映像を投影するように投影装置を制御する
    制御部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記制御部は、前記座標情報によって示される座標から、前記解析結果に基づいて変更した座標を中心として前記投影領域を設定する
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記制御部は、前記座標情報によって示される座標の近傍で認識されたオブジェクトのエッジに沿って前記投影領域を設定する
    情報処理装置。
  4. 請求項3に記載の情報処理装置であって、
    前記制御部は、前記座標情報によって示される座標から所定半径の距離内に複数のエッジが検出された場合、当該各エッジに沿って前記座標を移動させた場合の移動距離が最小となるエッジに沿って前記投影領域を設定する
    情報処理装置。
  5. 請求項2に記載の情報処理装置であって、
    前記制御部は、前記座標情報によって示される座標を含む平面の面積に応じて前記設定する投影領域の面積を変更する
    情報処理装置。
  6. 請求項1に記載の情報処理装置であって、
    前記制御部は、前記解析により、前記座標情報によって示される座標の近傍の面が投影に適さないと判断した場合に、当該座標とは異なる座標について再度の前記ポインティング操作を促す情報を出力する
    情報処理装置。
  7. 請求項1に記載の情報処理装置であって、
    前記制御部は、前記設定された投影領域を含み当該投影領域よりも拡張された拡張領域内で前記ユーザによるポインティング操作が受け付けられた場合に、前記投影領域が指定されたと判定する
    情報処理装置。
  8. 請求項7に記載の情報処理装置であって、
    前記制御部は、前記設定された複数の投影領域の前記拡張領域同士の重複領域が存在する場合、当該重複領域に対する前記ポインティング操作を無効な操作として扱う
    情報処理装置。
  9. 請求項8に記載の情報処理装置であって、
    前記制御部は、前記ポインティング操作が前記拡張領域外または前記重複領域内で検出された場合に、当該ポインティング操作が無効であることを前記ユーザにフィードバックするフィードバック情報を出力する
    情報処理装置。
  10. 請求項1に記載の情報処理装置であって、
    前記制御部は、前記投影領域を識別する識別情報と共に前記設定情報を記憶し、前記ユーザから前記識別情報を選択する操作または音声が入力された場合に、当該識別情報に対応する投影領域が指定されたと判定する
    情報処理装置。
  11. 映像が投影される空間がセンシングされたセンシング情報と、ユーザによる前記空間のポインティング操作によってポインティングされた座標情報との入力を受け付け、
    前記センシング情報に基づいて前記空間内の状況を解析した結果と前記座標情報とを基に所定範囲の投影領域を設定する設定情報を記憶し、
    前記記憶された設定情報から前記ユーザによって投影領域が指定された場合に、当該投影領域に映像を投影するように投影装置を制御する
    情報処理方法。
  12. 情報処理装置に、
    映像が投影される空間がセンシングされたセンシング情報と、ユーザによる前記空間のポインティング操作によってポインティングされた座標情報との入力を受け付けるステップと、
    前記センシング情報に基づいて前記空間内の状況を解析した結果と前記座標情報とを基に所定範囲の投影領域を設定する設定情報を記憶するステップと、
    前記記憶された設定情報から前記ユーザによって投影領域が指定された場合に、当該投影領域に映像を投影するように投影装置を制御するステップと
    を実行させるプログラム。
JP2018161822A 2018-08-30 2018-08-30 情報処理装置、情報処理方法及びプログラム Pending JP2020034765A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018161822A JP2020034765A (ja) 2018-08-30 2018-08-30 情報処理装置、情報処理方法及びプログラム
PCT/JP2019/030465 WO2020044950A1 (ja) 2018-08-30 2019-08-02 情報処理装置、情報処理方法及びプログラム
US17/250,692 US11689702B2 (en) 2018-08-30 2019-08-02 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018161822A JP2020034765A (ja) 2018-08-30 2018-08-30 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2020034765A true JP2020034765A (ja) 2020-03-05

Family

ID=69643549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018161822A Pending JP2020034765A (ja) 2018-08-30 2018-08-30 情報処理装置、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US11689702B2 (ja)
JP (1) JP2020034765A (ja)
WO (1) WO2020044950A1 (ja)

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001174915A (ja) 1999-12-21 2001-06-29 Hitachi Ltd プロジェクタ
JP4009850B2 (ja) 2002-05-20 2007-11-21 セイコーエプソン株式会社 投写型画像表示システム、プロジェクタ、プログラム、情報記憶媒体および画像投写方法
US6916098B2 (en) 2003-05-14 2005-07-12 Infocus Corporation Preset key for a projection device
JP4661161B2 (ja) 2004-10-20 2011-03-30 カシオ計算機株式会社 投影装置、投影方法及びプログラム
JP2007036482A (ja) 2005-07-25 2007-02-08 Nippon Telegr & Teleph Corp <Ntt> 情報投影表示装置およびプログラム
JP3953500B1 (ja) * 2006-02-07 2007-08-08 シャープ株式会社 画像投影方法及びプロジェクタ
KR100791385B1 (ko) * 2006-07-31 2008-01-07 삼성전자주식회사 영상 보정시 기하학적 신뢰도를 측정하기 위한 장치 및방법
JP2009200557A (ja) * 2008-02-19 2009-09-03 Seiko Epson Corp プロジェクタ、電子機器、および、プロジェクタの制御方法
US8591039B2 (en) * 2008-10-28 2013-11-26 Smart Technologies Ulc Image projection methods and interactive input/projection systems employing the same
JP5327468B2 (ja) * 2009-08-04 2013-10-30 セイコーエプソン株式会社 プロジェクター、プログラム、情報記憶媒体および台形歪み補正方法
JP2012108479A (ja) * 2010-10-28 2012-06-07 Seiko Epson Corp 投射型表示装置及びその制御方法
JP2013207615A (ja) 2012-03-29 2013-10-07 Jvc Kenwood Corp 画像投射装置、画像投射方法、及び、プログラム
JP2013258555A (ja) 2012-06-12 2013-12-26 Sony Computer Entertainment Inc ヘッドマウントディスプレイ、生体情報管理装置、および生体情報表示方法
JP2014095891A (ja) 2012-10-09 2014-05-22 Canon Marketing Japan Inc プロジェクタ、画像投影方法ならびにプログラム
KR20150028127A (ko) * 2013-09-05 2015-03-13 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US9877080B2 (en) * 2013-09-27 2018-01-23 Samsung Electronics Co., Ltd. Display apparatus and method for controlling thereof
JP2015145894A (ja) 2014-01-31 2015-08-13 キヤノン株式会社 投射型表示装置
KR102333931B1 (ko) 2015-02-04 2021-12-02 엘지전자 주식회사 영상 투사 장치 및 그의 동작 방법
WO2016125966A1 (ko) 2015-02-04 2016-08-11 엘지전자 주식회사 영상 투사 장치 및 그의 동작 방법
KR102360628B1 (ko) 2015-05-21 2022-02-09 엘지전자 주식회사 영상 투사 장치 및 그의 동작 방법
JP6834258B2 (ja) * 2016-08-31 2021-02-24 セイコーエプソン株式会社 表示装置、表示システム及び表示装置の制御方法

Also Published As

Publication number Publication date
WO2020044950A1 (ja) 2020-03-05
US20210329205A1 (en) 2021-10-21
US11689702B2 (en) 2023-06-27

Similar Documents

Publication Publication Date Title
CN103595911B (zh) 相机装置和用于在其使用中协助用户的方法
US9667870B2 (en) Method for controlling camera operation based on haptic function and terminal supporting the same
CN106406710B (zh) 一种录制屏幕的方法及移动终端
JP4642868B2 (ja) カメラ用のエリア・ズーム機能を提供する方法
CN102316263B (zh) 图像处理设备和图像处理方法
KR101931788B1 (ko) 빔 프로젝터 및 그의 동작 방법
RU2608971C1 (ru) Способ и устройство для позиционирования и навигации
US9091548B2 (en) Information processing apparatus, information processing method, and program
US9794495B1 (en) Multiple streaming camera navigation interface system
CN103092507A (zh) 用于在便携式终端中表现图像的设备和方法
JP2013003742A (ja) データ送信操作機器、および、データ送信制御方法
JP6911870B2 (ja) 表示制御装置、表示制御方法及びコンピュータプログラム
US20170118412A1 (en) Mobile terminal and method for controlling the same
WO2015052974A1 (ja) 情報処理装置、撮像装置、撮像システム、情報処理装置の制御方法、撮像装置の制御方法およびプログラム
KR20170089653A (ko) 이동단말기 및 그 제어방법
KR20180039394A (ko) 전자 장치 및 이의 제어 방법
US10079973B2 (en) Imaging device operation device, operation method, and program
US10609305B2 (en) Electronic apparatus and operating method thereof
CN105898228B (zh) 用于摄像设备的控制方法及装置
CN105100622B (zh) 变焦实现方法及装置、电子设备
US11689702B2 (en) Information processing apparatus and information processing method
US11221684B2 (en) Information processing device, information processing method, and recording medium
US20220030206A1 (en) Information processing apparatus, information processing method, program, and projection system
JP3744995B2 (ja) 撮像方法とその装置
WO2017033544A1 (ja) 情報処理装置、情報処理方法、及びプログラム