[go: up one dir, main page]

JP2015090593A - 情報処理装置、情報処理方法および情報処理システム - Google Patents

情報処理装置、情報処理方法および情報処理システム Download PDF

Info

Publication number
JP2015090593A
JP2015090593A JP2013230387A JP2013230387A JP2015090593A JP 2015090593 A JP2015090593 A JP 2015090593A JP 2013230387 A JP2013230387 A JP 2013230387A JP 2013230387 A JP2013230387 A JP 2013230387A JP 2015090593 A JP2015090593 A JP 2015090593A
Authority
JP
Japan
Prior art keywords
unit
imaging
information processing
processing apparatus
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013230387A
Other languages
English (en)
Inventor
敦 塩野崎
Atsushi Shionozaki
敦 塩野崎
後藤 太
Futoshi Goto
太 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013230387A priority Critical patent/JP2015090593A/ja
Priority to PCT/JP2014/072267 priority patent/WO2015068447A1/ja
Priority to CN201480059871.9A priority patent/CN105683959A/zh
Priority to US15/026,074 priority patent/US10133966B2/en
Priority to EP14859404.7A priority patent/EP3068128A4/en
Publication of JP2015090593A publication Critical patent/JP2015090593A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

【課題】1のオブジェクトの検出後に当該1のオブジェクトに関連する他のオブジェクトを容易に認識させることが可能な技術を提供する。
【解決手段】所定の検出オブジェクトを検出する検出部と、前記検出オブジェクトに応じた所定の撮像オブジェクトを撮像部の撮像範囲に収めるよう指示する指示情報を取得するデータ取得部と、前記指示情報を表示部に表示させる表示制御部と、を備える、情報処理装置が提供される。
【選択図】図1

Description

本開示は、情報処理装置、情報処理方法および情報処理システムに関する。
近年、撮像された画像からオブジェクトを認識し、認識したオブジェクトに応じた処理を実行する技術が知られている。例えば、認識したオブジェクトに関連付けられる仮想オブジェクトを表示させる処理を実行するためのAR(Augmented Reality)アプリケーションも知られている。オブジェクトの認識が容易となるようにユーザを誘導するための情報を表示させる技術も開示されている(例えば、特許文献1参照。)。
特開2013−080326号公報
上記のように、オブジェクトの認識が容易とするための技術が開示されている。一方、例えば、1のオブジェクトと他のオブジェクトとの間に関連性がある場合などには、当該1のオブジェクトの検出後に当該他のオブジェクトを認識させたい場合も想定され得る。そこで、当該1のオブジェクトの検出後に当該1のオブジェクトに関連する他のオブジェクトを容易に認識させることが可能な技術が提供されることが望ましい。
本開示によれば、所定の検出オブジェクトを検出する検出部と、前記検出オブジェクトに応じた所定の撮像オブジェクトを撮像部の撮像範囲に収めるよう指示する指示情報を取得するデータ取得部と、前記指示情報を表示部に表示させる表示制御部と、を備える、情報処理装置が提供される。
また、本開示によれば、所定の検出オブジェクトを検出することと、前記検出オブジェクトに応じた所定の撮像オブジェクトを撮像部の撮像範囲に収めるよう指示する指示情報を取得することと、前記指示情報をプロセッサにより表示部に表示させることと、を含む、情報処理方法が提供される。
また、本開示によれば、所定の検出オブジェクトを認識する検出オブジェクト認識部、を備える、情報提供装置と、前記検出オブジェクトを検出する検出部と、前記検出オブジェクトに応じた所定の撮像オブジェクトを撮像部の撮像範囲に収めるよう指示する指示情報を取得するデータ取得部と、前記指示情報を表示部に表示させる表示制御部と、を備える、情報処理装置と、を有する、情報処理システムが提供される。
以上説明したように本開示によれば、1のオブジェクトの検出後に当該1のオブジェクトに関連する他のオブジェクトを容易に認識させることが可能な技術が提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る情報処理システムの構成例を示す図である。 同実施形態に係る情報処理装置の機能構成例を示す図である。 同実施形態に係る情報提供装置の機能構成例を示す図である。 検出オブジェクトとしてマーカが認識される例を説明するための図である。 検出オブジェクトが認識される第1のモードから撮像オブジェクトが認識される第2のモードに動作モードが遷移される旨の表示例を示す図である。 マーカに応じた指示情報の表示例を示す図である。 検出オブジェクトとしてマーカ以外の物体が認識される例を説明するための図である。 マーカ以外の物体に応じた指示情報の表示例を示す図である。 指示情報に従って撮像範囲に収められた撮像オブジェクトが認識される例を説明するための図である。 撮像オブジェクトに応じた処理の実行例を説明するための図である。 検出オブジェクトとして物体が認識される場合、かつ、撮像オブジェクトに応じた処理として仮想オブジェクトの表示が実行される場合における情報処理装置の動作例を示すフローチャートである。 撮像オブジェクトに応じた処理として撮像オブジェクトの評価が実行される場合における指示情報の表示例を示す図である。 検出オブジェクトとして物体が認識される場合、かつ、撮像オブジェクトに応じた処理として撮像オブジェクトの評価が実行される場合における情報処理装置の動作例を示すフローチャートである。 検出オブジェクトとしてユーザの位置情報が認識される例を説明するための図である。 ユーザの位置情報に応じた指示情報の表示例を示す図である。 検出オブジェクトとしてユーザの位置情報が認識される場合、かつ、撮像オブジェクトに応じた処理として仮想オブジェクトの表示が実行される場合における情報処理装置の動作例を示すフローチャートである。 情報処理装置のハードウェア構成例を示す図である。 情報提供装置のハードウェア構成例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.情報処理システムの構成例
2.情報処理装置の機能構成例
3.情報提供装置の機能構成例
4.情報処理装置の機能詳細
5.情報処理装置のハードウェア構成例
6.情報提供装置のハードウェア構成例
7.むすび
<1.情報処理システムの構成例>
まず、本開示の実施形態に係る情報処理システムの構成例について説明する。図1は、本開示の実施形態に係る情報処理システムの構成例を示す図である。図1を参照すると、情報処理システム1は、情報処理装置10と情報提供装置20とを備える。情報処理装置10と情報提供装置20とは有線または無線によりネットワーク30を介して通信を行うことが可能である。情報処理装置10はユーザUaによって所持されている。
近年では、撮像された画像からオブジェクトを認識し、認識したオブジェクトに応じた処理を実行する技術が知られている。例えば、認識したオブジェクトに関連付けられる仮想オブジェクトを表示させる処理を実行するためのARアプリケーションも知られている。オブジェクトの認識が容易となるようにユーザUaを誘導するための情報を表示させる技術も開示されている。
一方、例えば、1のオブジェクトと他のオブジェクトとの間に関連性がある場合などには、当該1のオブジェクトの検出後に当該他のオブジェクトを認識させたい場合も想定され得る。そこで、本明細書においては、当該1のオブジェクトの検出後に当該1のオブジェクトに関連する他のオブジェクトを容易に認識させることが可能な技術を提案する。
なお、以下の説明においては、情報処理装置10がカメラ機能付きのスマートフォンに適用される場合を例として説明するが、情報処理装置10は、スマートフォン以外の装置に適用されてもよい。例えば、情報処理装置10は、ビデオカメラ、デジタルカメラ、PDA(Personal Digital Assistants)、PC(Personal Computer)、携帯電話、携帯用音楽再生装置、携帯用映像処理装置、携帯用ゲーム機器、望遠鏡、双眼鏡等に適用されてもよい。
以上、本開示の実施形態に係る情報処理システム1の構成例について説明した。
<2.情報処理装置の機能構成例>
続いて、本開示の実施形態に係る情報処理装置10の機能構成例について説明する。図2は、本開示の実施形態に係る情報処理装置10の機能構成例を示す図である。図2に示すように、情報処理装置10は、制御部110、撮像部120、センサ部130、入力部140、記憶部150、通信部160および表示部170を備える。
制御部110は、例えば、CPU(Central Processing Unit)などのプロセッサに相当する。制御部110は、記憶部150または他の記憶媒体に記憶されるプログラムを実行することにより、制御部110が有する様々な機能を発揮する。制御部110は、検出部111、データ取得部112、表示制御部113、撮像オブジェクト認識部114および処理部115などの各機能ブロックを有する。これら各機能ブロックが有する機能については後に説明する。
撮像部120は、画像を撮像するカメラモジュールである。撮像部120は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像し、画像を生成する。撮像部120により生成される画像は、制御部110に出力される。なお、図2に示した例では、撮像部120は情報処理装置10と一体化されているが、撮像部120は、情報処理装置10と別体に構成されていてもよい。例えば、情報処理装置10と有線または無線で接続される撮像装置が撮像部120として扱われてもよい。
センサ部130は、センサデータを取得する。例えば、センサ部130は、3軸加速度センサを含む。3軸加速度センサは、撮像部120に加わる重力加速度を測定し、重力加速度の大きさおよび方向を3次元的に表すセンサデータ(加速度データ)を生成する。また、センサ部130は、地磁気センサを含んでもよい。地磁気センサは、撮像部120の座標系における地磁気の方向を表すセンサデータ(地磁気データ)を生成する。さらに、センサ部130は、測位センサ(例えば、GPS(Global Positioning System)センサ)を含んでもよい。測位センサは、実空間における情報処理装置10の緯度および経度を表すセンサデータ(測位データ)を生成する。なお、図2に示した例では、センサ部130は情報処理装置10と一体化されているが、センサ部130は、情報処理装置10と別体に構成されていてもよい。
入力部140は、ユーザによる操作を検出して制御部110に出力する。本明細書においては、入力部140がタッチパネルにより構成される場合を想定しているため、ユーザによる操作はタッチパネルをタップする操作に相当する。しかし、入力部140はタッチパネル以外のハードウェア(例えば、ボタン等)により構成されていてもよい。なお、図2に示した例では、入力部140は情報処理装置10と一体化されているが、入力部140は、情報処理装置10と別体に構成されていてもよい。
記憶部150は、半導体メモリまたはハードディスクなどの記憶媒体を用いて、制御部110を動作させるためのプログラムを記憶する。また、例えば、記憶部150は、プログラムによって使用される各種のデータを記憶することもできる。なお、図2に示した例では、記憶部150は情報処理装置10と一体化されているが、記憶部150は情報処理装置10と別体に構成されていてもよい。
通信部160は、他の装置(例えば、情報提供装置20など)と通信を行うことが可能である。通信部160は、例えば、情報提供装置20との間で通信を行う場合には、ネットワーク30を介して通信を行うことが可能である。通信部160による通信の形式は特に限定されず、通信部160による通信は、無線による通信であってもよいし、有線による通信であってもよい。なお、図2に示した例では、通信部160は情報処理装置10と一体化されているが、通信部160は、情報処理装置10と別体に構成されていてもよい。
表示部170は、表示制御部113による制御に従って、各種情報の表示を行う。表示部170は、例えば、LCD(Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイ装置などにより構成される。なお、図2に示した例では、表示部170は情報処理装置10と一体化されているが、表示部170は情報処理装置10と別体に構成されていてもよい。例えば、情報処理装置10と有線または無線で接続される表示装置が表示部170として扱われてもよい。
以上、本開示の実施形態に係る情報処理装置10の機能構成例について説明した。
<3.情報提供装置の機能構成例>
続いて、本開示の実施形態に係る情報提供装置20の機能構成例について説明する。図3は、本開示の実施形態に係る情報提供装置20の機能構成例を示す図である。図3に示すように、情報提供装置20は、制御部210、記憶部220および通信部230を備える。
制御部210は、例えば、CPU(Central Processing Unit)などのプロセッサに相当する。制御部210は、記憶部220または他の記憶媒体に記憶されるプログラムを実行することにより、制御部210が有する様々な機能を発揮する。制御部210は、データ取得部211、検出オブジェクト認識部212および認識結果提供部213などの各機能ブロックを有する。これら各機能ブロックが有する機能については後に説明する。
記憶部220は、半導体メモリまたはハードディスクなどの記憶媒体を用いて、制御部210を動作させるためのプログラムを記憶する。また、例えば、記憶部220は、プログラムによって使用される各種のデータを記憶することもできる。なお、図3に示した例では、記憶部220は情報提供装置20と一体化されているが、記憶部220は情報提供装置20と別体に構成されていてもよい。
通信部230は、他の装置(例えば、情報処理装置10など)と通信を行うことが可能である。通信部230は、例えば、情報処理装置10との間で通信を行う場合には、ネットワーク30を介して通信を行うことが可能である。通信部230による通信の形式は特に限定されず、通信部230による通信は、無線による通信であってもよいし、有線による通信であってもよい。なお、図3に示した例では、通信部230は情報提供装置20と一体化されているが、通信部230は、情報提供装置20と別体に構成されていてもよい。
以上、本開示の実施形態に係る情報提供装置20の機能構成例について説明した。
<4.情報処理装置の機能詳細>
続いて、本開示の実施形態に係る情報処理装置10の機能詳細について説明する。まず、情報処理装置10の検出部111によって1のオブジェクト(以下、「検出オブジェクト」とも言う。)が検出される。ここで、検出部111によって検出される検出オブジェクトの種類は特に限定されない。例えば、検出オブジェクトは、撮像部120によって撮像された撮像画像から認識された物体であってもよい。
撮像画像から認識される物体は、認識のために用意されたマーカであってもよいし、マーカ以外の物体であってもよい。また、検出オブジェクトは、撮像部120を所持するユーザUaの位置情報であってもよい。さらに、検出オブジェクトは、撮像画像から認識された物体とユーザUaの位置情報との組み合わせであってもよい。
まず、検出オブジェクトとして撮像画像から認識されるマーカを用いる場合について説明する。図4は、検出オブジェクトとしてマーカが認識される例を説明するための図である。図4に示すように、実空間にはマーカMar1が存在する。図4には、マーカMar1がオブジェクトObj1に付加されている例が示されているが、マーカMar1が存在する位置は特に限定されない。
また、図4には、オブジェクトObj1の例として映画の広告媒体が用いられる場合が示されているが、オブジェクトObj1の種類も特に限定されない。表示制御部113は、撮像画像を表示部170に表示させ、検出部111は、撮像画像を情報提供装置20に提供する。情報提供装置20において、データ取得部211は、情報処理装置10から提供された撮像画像を取得し、検出オブジェクト認識部212は、撮像画像からマーカの認識を試みる。認識結果提供部213は、マーカの認識結果を情報処理装置10に提供する。なお、マーカの認識は、情報提供装置20の代わりに情報処理装置10によってなされてもよい。
図4に示した例では、表示制御部113は、マーカMar1が映った撮像画像を画面Im11として表示部170に表示させている。撮像画像からマーカMar1が認識された場合には、検出部111は、マーカの認識結果が示すマーカMar1を検出オブジェクトとして検出する。検出オブジェクトが検出されると、制御部110は、検出オブジェクトが認識される第1のモードから検出オブジェクトに応じたオブジェクト(以下、「撮像オブジェクト」とも言う。)が認識される第2のモードに動作モードを遷移させてよい。
このとき、動作モードの遷移をユーザUaが直感的に把握できるようにするため、表示制御部113は、第1のモードから第2のモードに動作モードが遷移される旨を表示部170に表示させてもよい。図5は、検出オブジェクトが認識される第1のモードから撮像オブジェクトが認識される第2のモードに動作モードが遷移される旨の表示例を示す図である。図5に示すように、第1のモードから第2のモードに動作モードが遷移される旨を示す画面Im2を表示部170に表示させてよい。例えば、画面Im2にはボタンBuが配置されており、ボタンBuを押下する操作がユーザUaから入力された場合に、動作モードが第2のモードに遷移されてもよい。
続いて、データ取得部112は、検出オブジェクトの例としてのマーカMar1に応じた撮像オブジェクトを撮像部120の撮像範囲に収めるよう指示する指示情報を取得し、表示制御部113は、データ取得部112によって取得された指示情報を表示部170に表示させる。図6は、マーカMar1に応じた指示情報の表示例を示す図である。図6に示すように、マーカMar1と指示情報In11〜In15とが関連付けられている。ここでは、マーカMar1に関連付けられている指示情報の数は5つであるが、特に限定されない。
図6に示した例では、データ取得部112は、マーカMar1に関連付けられている指示情報In11〜In15を取得し、表示制御部113は、データ取得部112によって取得された指示情報In11〜In15を含んだ画面Im31を表示部170に表示させている。ここでは、指示情報In11〜In15それぞれの表示位置が定められており、表示制御部113がそれぞれの表示位置に従って指示情報In11〜In15をウィンドウに重畳させる場合を想定しているが、撮像画像に重畳させてもよい。
表示制御部113が指示情報In11〜In15を撮像画像に重畳させる場合、検出オブジェクト認識部212は、マーカMar1の3次元的な位置および姿勢も認識するとよい。そして、表示制御部113は、マーカMar1の3次元的な位置および姿勢に従って、指示情報In11〜In15の位置および姿勢を調整して指示情報In11〜In15を撮像画像に重畳させるとよい。そうすれば、撮像画像に適合した指示情報In11〜In15をユーザUaに提供することが可能になる。
なお、図6を参照すると、指示情報In11は、オブジェクトObj1に存在するS氏かR氏を撮像部120の撮像範囲に収めるよう指示するテキストデータとして示されている。また、指示情報In12は、画面Im31に存在するS氏を囲む矩形枠として示されている。また、指示情報In13は、画面Im31に存在するR氏を囲む矩形枠として示されている。指示情報In14は、オブジェクトObj1に存在するロゴを撮像部120の撮像範囲に収めるよう指示するテキストデータとして示されている。指示情報In15は、画面Im31に存在するロゴを指し示す矢印として示されている。
続いて、検出オブジェクトとしてマーカ以外の物体を用いる場合について説明する。図7は、検出オブジェクトとしてマーカ以外の物体が認識される例を説明するための図である。図7に示すように、実空間にはオブジェクトObj1が存在する。表示制御部113は、撮像画像を表示部170に表示させ、検出部111は、撮像画像を情報提供装置20に提供する。
情報提供装置20において、データ取得部211は、情報処理装置10から提供された撮像画像を取得し、検出オブジェクト認識部212は、撮像画像からオブジェクトの認識を試みる。認識結果提供部213は、オブジェクトの認識結果を情報処理装置10に提供する。なお、マーカの認識と同様に、オブジェクトの認識は、情報提供装置20の代わりに情報処理装置10によってなされてもよい。
図7に示した例では、オブジェクトObj1が映った撮像画像を画面Im12として表示部170に表示させている。撮像画像からオブジェクトObj1が認識された場合には、検出部111は、オブジェクトの認識結果が示すオブジェクトObj1を検出オブジェクトとして検出する。オブジェクトObj1が検出されると、制御部110は、検出オブジェクトが認識される第1のモードからオブジェクトObj1に応じた撮像オブジェクトが認識される第2のモードに動作モードを遷移させてよい。
このとき、検出オブジェクトとしてマーカを用いる場合と同様に、動作モードの遷移をユーザUaが直感的に把握できるようにするため、表示制御部113は、第1のモードから第2のモードに動作モードが遷移される旨を表示部170に表示させてもよい。
続いて、データ取得部112は、検出オブジェクトの例としてのオブジェクトObj1に応じた撮像オブジェクトを撮像部120の撮像範囲に収めるよう指示する指示情報を取得し、表示制御部113は、データ取得部112によって取得された指示情報を表示部170に表示させる。図8は、マーカ以外の物体に応じた指示情報の表示例を示す図である。図8に示すように、オブジェクトObj1と指示情報In16〜In18とが関連付けられている。ここでは、オブジェクトObj1に関連付けられている指示情報の数は3つであるが、特に限定されない。
図8に示した例では、データ取得部112は、オブジェクトObj1に関連付けられている指示情報In16〜In18を取得し、表示制御部113は、データ取得部112によって取得された指示情報In16〜In18を含んだ画面Im32を表示部170に表示させている。
なお、ここでは、表示制御部113が指示情報In16〜In18を撮像画像に重畳させている。より詳細には、検出オブジェクト認識部212は、オブジェクトObj1の3次元的な位置および姿勢も認識し、表示制御部113は、オブジェクトObj1の3次元的な位置および姿勢に従って、指示情報In16〜In18の位置および姿勢を調整して指示情報In16〜In18を撮像画像に重畳させている。かかる構成により、撮像画像に適合した指示情報In16〜In18をユーザUaに提供することが可能になる。
しかし、上記したように、指示情報In16〜In18それぞれの表示位置が定められており、表示制御部113は、それぞれの表示位置に従って指示情報In16〜In18をウィンドウに重畳させてもよい。
なお、図8を参照すると、指示情報In16は、画面Im32に存在するS氏を囲む楕円形枠として示されている。また、指示情報In17は、画面Im32に存在するR氏を囲む楕円形枠として示されている。指示情報In18は、画面Im32に存在するロゴを囲む楕円形枠として示されている。
このようにして表示された指示情報を閲覧したユーザUaは、指示情報に従って撮像オブジェクトを撮像部120の撮像範囲に収めようとすると考えられる。その後、撮像部120によって撮像画像が撮像され、撮像オブジェクト認識部114によって撮像画像から検出オブジェクトに応じた撮像オブジェクトの認識が試みられる。以下、撮像画像に基づいて撮像オブジェクトが認識される場合について説明する。なお、撮像オブジェクトの認識部は、情報処理装置10の代わりに所定のサーバ(例えば、情報提供装置20)によってなされてもよい。
図9は、指示情報に従って撮像範囲に収められた撮像オブジェクトが認識される例を説明するための図である。指示情報を閲覧したユーザUaが、図9に示すように、指示情報In11または指示情報In13に従って、オブジェクトObj1に存在するR氏を撮像部120の撮像範囲に収めた場合には、表示制御部113は、オブジェクトObj1に存在するR氏が映った撮像画像を画面Im4として表示部170に表示させる。
また、図9に示した例では、撮像オブジェクト認識部114によって撮像画像からR氏(オブジェクトObj21)が撮像オブジェクトとして認識される。特に、第1のモードにおいては、検出オブジェクトとしてマーカが認識され、第2のモードにおいては、撮像オブジェクトとしてマーカ以外の物体が認識されるようにするとよい。マーカの認識はマーカ以外の物体の認識より処理負荷が小さいことが推測されるため、このような切り分けを行うことによって効率的に処理負荷を低減できることが期待されるからである。
撮像画像から撮像オブジェクトが認識された場合には、処理部115は、撮像オブジェクトに応じた処理を行う。以下、撮像オブジェクトに応じた処理の実行について説明する。図10は、撮像オブジェクトに応じた処理の実行例を説明するための図である。
図10に示すように、撮像オブジェクトと処理とが関連付けられている。より詳細には、撮像オブジェクトの例としての「S氏」と処理の例としての「仮想オブジェクトV1の表示」とが関連付けられており、撮像オブジェクトの例としての「R氏」と処理の例としての「仮想オブジェクトV2の表示」とが関連付けられている。また、撮像オブジェクトの例としての「ロゴ」と処理の例としての「抽選ページの表示」とが関連付けられている。
図10に示した例では、処理部115は、撮像画像から認識された撮像オブジェクトである「R氏」に関連付けられている処理である「仮想オブジェクトV2の表示」を選択し、仮想オブジェクトV2を含んだ画面Im5を表示部170に表示させている。
なお、ここでは、処理部115が仮想オブジェクトV2を撮像画像に重畳させている。より詳細には、撮像オブジェクト認識部114は、撮像オブジェクトの3次元的な位置および姿勢も認識し、処理部115は、撮像オブジェクトの3次元的な位置および姿勢に従って、仮想オブジェクトV2の位置および姿勢を調整して仮想オブジェクトV2を撮像画像に重畳させている。かかる構成により、撮像画像に適合した指示情報In16〜In18をユーザUaに提供することが可能になる。
また、撮像オブジェクト認識部114によって撮像画像から撮像オブジェクトが認識されるが、より詳細には、撮像画像から抽出される特徴量と撮像オブジェクトの辞書データとの照合に基づいて、撮像画像から撮像オブジェクトが認識され得る。ここで、撮像オブジェクトの辞書データがデータ取得部112によって取得されるタイミングは限定されないが、検出オブジェクトに応じた撮像オブジェクトが決定されてから取得されるのがよい。そうすれば、辞書データを取得するための処理負荷を抑えつつ、情報処理装置10において確保すべき辞書データの記憶容量も抑えることが可能となる。辞書データは、例えば、所定のサーバ(例えば、情報提供装置20)から取得されればよい。
また、撮像画像に基づいて撮像オブジェクトが認識された場合、処理部115によって仮想オブジェクトを表示部170に表示させる処理を行う例を示したが、仮想オブジェクトが取得されるタイミングは限定されない。しかし、辞書データの取得とともにデータ取得部112によって取得されるのがよい。そうすれば、仮想オブジェクトを取得するための処理負荷を抑えつつ、情報処理装置10において確保すべき仮想オブジェクトの記憶容量も抑えることが可能となる。仮想オブジェクトは、例えば、辞書データを提供するサーバと同じサーバから取得されればよい。
続いて、情報処理装置10の動作例について説明する。図11は、検出オブジェクトとして物体が認識される場合、かつ、撮像オブジェクトに応じた処理として仮想オブジェクトの表示が実行される場合における情報処理装置10の動作例を示すフローチャートである。なお、図11に示した動作例は、情報処理装置10の動作の一例に過ぎないため、情報処理装置10の動作が図11に示した動作例に限定されないことは言うまでもない。
まず、情報処理装置10において、検出部111は、撮像部120により撮像された撮像画像から認識された物体を検出オブジェクトとして検出する(S11)。このとき、表示制御部113は、検出オブジェクトが認識される第1のモードからマーカに応じた撮像オブジェクトが認識される第2のモードに動作モードが遷移される旨を表示部170に表示させてよい(S12)。続いて、データ取得部112は、検出オブジェクトに応じた撮像オブジェクトを撮像部120の撮像範囲に収めるよう指示する指示情報を取得する(S13)。
続いて、表示制御部113は、データ取得部112によって取得された指示情報を表示部170に表示させる(S14)。表示制御部113が検出オブジェクトに応じた撮像オブジェクトを決定すると(S15)、データ取得部112は、決定された撮像オブジェクトの辞書データおよび撮像オブジェクトに応じた仮想オブジェクトを取得する(S16)。撮像オブジェクト認識部114が撮像画像から撮像オブジェクトを認識すると(S17)、処理部115は、データ取得部112によって取得された仮想オブジェクトを表示部170に表示させる(S18)。
以上、検出オブジェクトとして物体が認識される場合、かつ、撮像オブジェクトに応じた処理として仮想オブジェクトの表示が実行される場合における情報処理装置10の動作例を説明した。しかし、処理部115によって実行される処理は仮想オブジェクトの表示に限定されない。例えば、処理部115によって実行される処理は撮像オブジェクトの評価であってもよい。以下では、処理部115によって実行される処理が撮像オブジェクトの評価である場合について説明する。
図12は、撮像オブジェクトに応じた処理として撮像オブジェクトの評価が実行される場合における指示情報の表示例を示す図である。図12に示すように、マーカMar1と指示情報In21とが関連付けられている。ここでは、マーカMar1に関連付けられている指示情報の数は1つであるが、特に限定されない。
図12に示した例では、データ取得部112は、マーカMar1に関連付けられている指示情報In21を取得し、表示制御部113は、データ取得部112によって取得された指示情報In21を含んだ画面Im33を表示部170に表示させている。ここでは、指示情報In21の表示位置が定められており、表示制御部113が表示位置に従って指示情報In21をウィンドウに重畳させる場合を想定しているが、撮像画像に重畳させてもよい。
表示制御部113が指示情報In21を撮像画像に重畳させる場合、検出オブジェクト認識部212は、マーカMar1の3次元的な位置および姿勢も認識するとよい。そして、表示制御部113は、マーカMar1の3次元的な位置および姿勢に従って、指示情報In21の位置および姿勢を調整して指示情報In21を撮像画像に重畳させるとよい。そうすれば、撮像画像に適合した指示情報In21をユーザUaに提供することが可能になる。
なお、図12を参照すると、指示情報In21は、評価を行いたい撮像オブジェクトを撮像部120の撮像範囲に収めるよう指示するテキストデータとして示されている。より詳細には、指示情報In21は、あらかじめ用意されている評価用データとの類似度を評価したい顔を撮像部120の撮像範囲に収めるよう指示するテキストデータとして示されている。ただし、撮像オブジェクトの評価は、撮像オブジェクトと評価用データとの類似度の評価に限定されない。
例えば、指示情報を閲覧したユーザUaが、指示情報In21に従って、評価を行いたい顔を撮像部120の撮像範囲に収めた場合には、撮像オブジェクト認識部114によって撮像画像から顔が認識される。処理部115は、撮像画像から認識された撮像オブジェクトである顔に関連付けられている処理である撮像オブジェクトの評価を選択し、撮像オブジェクトの評価を実行する。
評価用データが取得されるタイミングは限定されない。しかし、上記と同様に、辞書データの取得とともにデータ取得部112によって取得されるのがよい。そうすれば、評価用データを取得するための処理負荷を抑えつつ、情報処理装置10において確保すべき評価用データの記憶容量も抑えることが可能となる。評価用データは、例えば、辞書データを提供するサーバと同じサーバから取得されればよい。
図13は、検出オブジェクトとして物体が認識される場合、かつ、撮像オブジェクトに応じた処理として撮像オブジェクトの評価が実行される場合における情報処理装置10の動作例を示すフローチャートである。なお、図13に示した動作例は、情報処理装置10の動作の一例に過ぎないため、情報処理装置10の動作が図13に示した動作例に限定されないことは言うまでもない。
まず、情報処理装置10において、上記と同様にS11〜S15が実行される。表示制御部113が検出オブジェクトに応じた撮像オブジェクトを決定すると、データ取得部112は、決定された撮像オブジェクトの辞書データおよび撮像オブジェクトに応じた評価用データを取得する(S21)。撮像オブジェクト認識部114が撮像画像から撮像オブジェクトを認識すると(S17)、処理部115は、データ取得部112によって取得された評価用データと撮像オブジェクトから抽出される特徴量との照合により撮像オブジェクトを評価する(S22)。
以上、検出オブジェクトとして物体が認識される場合、かつ、撮像オブジェクトに応じた処理として撮像オブジェクトの評価が実行される場合における情報処理装置10の動作例を説明した。以上においては、検出オブジェクトが撮像部120によって撮像された撮像画像から認識された物体である場合を主に説明したが、検出オブジェクトは、上記したように、撮像部120を所持するユーザUaの位置情報であってもよい。
以下、検出オブジェクトが撮像部120を所持するユーザUaの位置情報である場合を説明する。図14は、検出オブジェクトとしてユーザの位置情報が認識される例を説明するための図である。図14に示すように、実空間にオブジェクトObj1が存在する。例えば、オブジェクトObj1を閲覧するためにユーザUaがオブジェクトObj1に近づき、オブジェクトObj1の近くの位置R1に到達したとする。ただし、位置R1はオブジェクトObj1の近くでなくてもよく、特に限定されない。
情報処理装置10において、検出部111は、所定のセンサデータを情報提供装置20に提供する。情報提供装置20においては、データ取得部211は、情報処理装置10から提供されたセンサデータを取得し、検出オブジェクト認識部212は、センサデータに基づいてユーザUaの位置情報を認識する。認識結果提供部213は、ユーザUaの位置情報を情報処理装置10に提供する。なお、ユーザUaの位置情報の認識は、情報提供装置20の代わりに情報処理装置10によってなされてもよい。
ユーザUaの位置情報の認識手法としては、様々な手法を採用することが可能である。例えば、検出オブジェクト認識部212は、情報処理装置10と接続されている基地局の位置情報をユーザUaの位置情報として特定してもよい。あるいは、検出オブジェクト認識部212は、基地局から送信された無線信号の情報処理装置10における受信強度および基地局の位置情報に基づいてユーザUaの位置情報を認識してもよい。例えば、検出オブジェクト認識部212は、受信強度に応じた距離を算出し、基地局の位置から当該距離だけ離れた位置をユーザUaの位置として認識してもよい。
また、検出オブジェクト認識部212は、情報処理装置10に無線信号を送信する基地局が複数存在する場合には、当該複数の基地局それぞれの位置情報に基づいて、ユーザUaの位置情報を認識してもよい。例えば、検出オブジェクト認識部212は、当該複数の基地局それぞれの位置情報および当該複数の基地局それぞれから送信された無線信号の情報処理装置10における受信強度に基づいて、三角測量の原理によりユーザUaの位置情報を認識してもよい。
その他、情報処理装置10が赤外線センサを有している場合であり、かつ、位置R1に赤外線が照射されている場合、情報処理装置10が有する赤外線センサによる赤外線の受信によりユーザUaの位置情報として位置R1が認識されてもよい。また、情報処理装置10がGPS(Global Positioning System)による測位機能を有している場合には、当該測位機能を用いた自己位置推定を行ってもよいし、情報処理装置10が加速度センサを有している場合には、当該加速度センサによる検出データを用いた自己位置推定を行ってもよい。
また、検出オブジェクト認識部212は、環境認識の結果に基づいて、ユーザUaの位置情報を認識してもよい。環境認識としては、SLAM(Simultaneous Localization And Mapping)法に従った演算を用いることが可能である。SLAM法に従った演算によれば、撮像部120により撮像される撮像画像に映る実空間の三次元構造と撮像部120の位置および姿勢とを動的に認識することが可能である。
ユーザUaの位置情報が認識された場合には、検出部111は、ユーザUaの位置情報を検出オブジェクトとして検出する。ユーザUaの位置情報が検出されると、制御部110は、検出オブジェクトが認識される第1のモードから撮像オブジェクトが認識される第2のモードに動作モードを遷移させてよい。
このとき、検出オブジェクトとしてマーカを用いる場合やマーカ以外の物体を用いる場合と同様に、動作モードの遷移をユーザUaが直感的に把握できるようにするため、表示制御部113は、第1のモードから第2のモードに動作モードが遷移される旨を表示部170に表示させてもよい。
続いて、データ取得部112は、検出オブジェクトの例としてのユーザUaの位置情報に応じた撮像オブジェクトを撮像部120の撮像範囲に収めるよう指示する指示情報を取得し、表示制御部113は、データ取得部112によって取得された指示情報を表示部170に表示させる。図15は、ユーザUaの位置情報に応じた指示情報の表示例を示す図である。図15に示すように、位置P1と指示情報In31および指示情報In32とが関連付けられ、位置P2と指示情報In33および指示情報In34とが関連付けられ、位置P3と指示情報In35および指示情報In36とが関連付けられている。ここでは、位置に関連付けられている指示情報の数は2つであるが、特に限定されない。
図15に示した例では、検出部111によって位置P1が検出された場合、データ取得部112は、位置P1に関連付けられている指示情報In31およびIn32を取得している。また、表示制御部113は、データ取得部112によって取得された指示情報In31およびIn32を含んだ画面Im34−1を表示部170に表示させている。なお、図15を参照すると、指示情報In31は、画面Im34−1に存在するR氏を囲む矩形枠として示されている。指示情報In32は、オブジェクトObj1に存在するR氏を撮像部120の撮像範囲に収めるよう指示するテキストデータとして示されている。
また、検出部111によって位置P2が検出された場合、データ取得部112は、位置P2に関連付けられている指示情報In33およびIn34を取得している。また、表示制御部113は、データ取得部112によって取得された指示情報In33およびIn34を含んだ画面Im34−2を表示部170に表示させている。なお、図15を参照すると、指示情報In33は、画面Im34−2に存在するD氏を囲む矩形枠として示されている。指示情報In34は、オブジェクトObj1に存在するD氏を撮像部120の撮像範囲に収めるよう指示するテキストデータとして示されている。
また、検出部111によって位置P3が検出された場合、データ取得部112は、位置P3に関連付けられている指示情報In35およびIn36を取得している。また、表示制御部113は、データ取得部112によって取得された指示情報In35およびIn36を含んだ画面Im34−3を表示部170に表示させている。なお、図15を参照すると、指示情報In35は、画面Im34−3に存在するS氏を囲む矩形枠として示されている。指示情報In36は、オブジェクトObj1に存在するS氏を撮像部120の撮像範囲に収めるよう指示するテキストデータとして示されている。
ここでは、指示情報In31〜In36それぞれの表示位置が定められており、表示制御部113がそれぞれの表示位置に従って指示情報In31〜In36をウィンドウに重畳させる場合を想定しているが、撮像画像に重畳させてもよい。
図16は、検出オブジェクトとしてユーザUaの位置情報が認識される場合、かつ、撮像オブジェクトに応じた処理として仮想オブジェクトの表示が実行される場合における情報処理装置10の動作例を示すフローチャートである。なお、図16に示した動作例は、情報処理装置10の動作の一例に過ぎないため、情報処理装置10の動作が図16に示した動作例に限定されないことは言うまでもない。
まず、情報処理装置10において、検出部111は、ユーザUaの位置情報を検出オブジェクトとして決定する(S31)。続いて、上記と同様にS12〜S18が実行される。以上、検出オブジェクトとしてユーザUaの位置情報が認識される場合、かつ、撮像オブジェクトに応じた処理として仮想オブジェクトの表示が実行される場合における情報処理装置10の動作例を説明した。
<5.情報処理装置のハードウェア構成例>
続いて、本開示の実施形態に係る情報処理装置10のハードウェア構成例について説明する。図17は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示す図である。ただし、図17に示したハードウェア構成例は、情報処理装置10のハードウェア構成の一例を示したに過ぎない。したがって、情報処理装置10のハードウェア構成は、図17に示した例に限定されない。
図17に示したように、情報処理装置10は、CPU(Central Processing Unit)801と、ROM(Read Only Memory)802と、RAM(Random Access Memory)803と、センサ804と、入力装置808と、出力装置810と、ストレージ装置811と、ドライブ812と、撮像装置813と、通信装置815とを備える。
CPU801は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置10内の動作全般を制御する。また、CPU801は、マイクロプロセッサであってもよい。ROM802は、CPU801が使用するプログラムや演算パラメータ等を記憶する。RAM803は、CPU801の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。
センサ804は、情報処理装置10の状態を検知するための端末状態検知センサなどの各種検知用センサとその周辺回路からなる。センサ804としては、一例として、測位センサ、傾きセンサ、加速度センサ、方位センサ、温度センサ、湿度センサ、照度センサなどを挙げることができる。センサ804による検知信号は、CPU801に送られる。これにより、CPU801は、情報処理装置10の状態(位置、傾き、加速度、方位、温度、湿度、照度など)を知ることができる。
入力装置808は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための操作部と、ユーザによる入力に基づいて入力信号を生成し、CPU801に出力する入力制御回路などから構成されている。情報処理装置10のユーザは、該入力装置808を操作することにより、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置810は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置810は、スピーカおよびヘッドホンなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データ等を音声に変換して出力する。
ストレージ装置811は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置811は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置811は、CPU801が実行するプログラムや各種データを格納する。
ドライブ812は、記憶媒体用リーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ812は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM803に出力する。また、ドライブ812は、リムーバブル記憶媒体に情報を書き込むこともできる。
撮像装置813は、光を集光する撮影レンズおよびズームレンズなどの撮像光学系、およびCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの信号変換素子を備える。撮像光学系は、被写体から発せられる光を集光して信号変換部に被写体像を形成し、信号変換素子は、形成された被写体像を電気的な画像信号に変換する。
通信装置815は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置815は、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。通信装置815は、例えば、ネットワーク30を介して他の装置と通信を行うことが可能である。
以上、本開示の実施形態に係る情報処理装置10のハードウェア構成例について説明した。
<6.情報提供装置のハードウェア構成例>
続いて、本開示の実施形態に係る情報提供装置20のハードウェア構成例について説明する。図18は、本開示の実施形態に係る情報提供装置20のハードウェア構成例を示す図である。ただし、図18に示したハードウェア構成例は、情報提供装置20のハードウェア構成の一例を示したに過ぎない。したがって、情報提供装置20のハードウェア構成は、図18に示した例に限定されない。
図18に示したように、情報提供装置20は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ストレージ装置911と、ドライブ912と、通信装置915とを備える。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報提供装置20内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。
ストレージ装置911は、情報提供装置20の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置911は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置911は、CPU901が実行するプログラムや各種データを格納する。
ドライブ912は、記憶媒体用リーダライタであり、情報提供装置20に内蔵、あるいは外付けされる。ドライブ912は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ912は、リムーバブル記憶媒体に情報を書き込むこともできる。
通信装置915は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置915は、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。通信装置915は、例えば、ネットワーク30を介して他の装置と通信を行うことが可能である。
以上、本開示の実施形態に係る情報提供装置20のハードウェア構成例について説明した。
<7.むすび>
以上説明したように、本開示の実施形態によれば、所定の検出オブジェクトを検出する検出部111と、検出オブジェクトに応じた所定の撮像オブジェクトを撮像部の撮像範囲に収めるよう指示する指示情報を取得するデータ取得部112と、指示情報を表示部170に表示させる表示制御部113と、を備える、情報処理装置10が提供される。かかる構成によれば、1のオブジェクトの検出後に当該1のオブジェクトに関連する他のオブジェクトを容易に認識させることが可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、情報処理装置10の動作は、必ずしもフローチャートに記載された順序に沿って時系列になされる必要はない。例えば、情報処理装置10の動作は、フローチャートに記載した順序と異なる順序でなされてもよいし、フローチャートに記載された動作の少なくとも一部が並列的になされてもよい。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した情報処理装置10が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
所定の検出オブジェクトを検出する検出部と、
前記検出オブジェクトに応じた所定の撮像オブジェクトを撮像部の撮像範囲に収めるよう指示する指示情報を取得するデータ取得部と、
前記指示情報を表示部に表示させる表示制御部と、
を備える、情報処理装置。
(2)
前記情報処理装置は、前記撮像部によって撮像された撮像画像に基づいて前記撮像オブジェクトが認識された場合、前記撮像オブジェクトに応じた処理を実行する処理部を備える、
前記(1)に記載の情報処理装置。
(3)
前記情報処理装置は、前記撮像画像から前記撮像オブジェクトを認識する撮像オブジェクト認識部を備える、
前記(2)に記載の情報処理装置。
(4)
前記データ取得部は、前記検出オブジェクトに応じた前記撮像オブジェクトを決定してから前記撮像オブジェクトの辞書データを取得し、
前記撮像オブジェクト認識部は、前記撮像画像から抽出される特徴量と前記辞書データとの照合に基づいて前記撮像オブジェクトを認識する、
前記(3)に記載の情報処理装置。
(5)
前記データ取得部は、前記辞書データを取得するに際して前記撮像オブジェクトに応じた仮想オブジェクトを取得し、
前記処理部は、前記撮像画像に基づいて前記撮像オブジェクトが認識された場合、前記仮想オブジェクトを前記表示部に表示させる処理を行う、
前記(4)に記載の情報処理装置。
(6)
前記検出部は、前記撮像部によって撮像された撮像画像から認識された物体を前記検出オブジェクトとして検出する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記情報処理装置は、前記検出オブジェクトが認識される第1のモードから前記撮像オブジェクトが認識される第2のモードに動作モードを遷移させる制御部を備える、
前記(6)に記載の情報処理装置。
(8)
前記第1のモードにおいては、前記検出オブジェクトとしてマーカが認識され、前記第2のモードにおいては、前記撮像オブジェクトとして物体が認識される、
前記(7)に記載の情報処理装置。
(9)
前記表示制御部は、前記第1のモードから前記第2のモードに前記動作モードが遷移される旨を前記表示部に表示させる、
前記(7)または(8)に記載の情報処理装置。
(10)
前記検出部は、前記撮像部を所持するユーザの位置情報を前記検出オブジェクトとして検出する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(11)
前記検出部は、前記撮像部によって撮像された撮像画像から認識された物体と前記撮像部を所持するユーザの位置情報との組み合わせを前記検出オブジェクトとして検出する、
前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(12)
所定の検出オブジェクトを検出することと、
前記検出オブジェクトに応じた所定の撮像オブジェクトを撮像部の撮像範囲に収めるよう指示する指示情報を取得することと、
前記指示情報をプロセッサにより表示部に表示させることと、
を含む、情報処理方法。
(13)
所定の検出オブジェクトを認識する検出オブジェクト認識部、
を備える、情報提供装置と、
前記検出オブジェクトを検出する検出部と、
前記検出オブジェクトに応じた所定の撮像オブジェクトを撮像部の撮像範囲に収めるよう指示する指示情報を取得するデータ取得部と、
前記指示情報を表示部に表示させる表示制御部と、
を備える、情報処理装置と、
を有する、情報処理システム。
1 情報処理システム
10 情報処理装置
20 情報提供装置
30 ネットワーク
110 制御部
111 検出部
112 データ取得部
113 表示制御部
114 撮像オブジェクト認識部
115 処理部
120 撮像部
130 センサ部
140 入力部
150 記憶部
160 通信部
170 表示部
210 制御部
211 データ取得部
212 検出オブジェクト認識部
213 認識結果提供部
220 記憶部
230 通信部

Claims (13)

  1. 所定の検出オブジェクトを検出する検出部と、
    前記検出オブジェクトに応じた所定の撮像オブジェクトを撮像部の撮像範囲に収めるよう指示する指示情報を取得するデータ取得部と、
    前記指示情報を表示部に表示させる表示制御部と、
    を備える、情報処理装置。
  2. 前記情報処理装置は、前記撮像部によって撮像された撮像画像に基づいて前記撮像オブジェクトが認識された場合、前記撮像オブジェクトに応じた処理を実行する処理部を備える、
    請求項1に記載の情報処理装置。
  3. 前記情報処理装置は、前記撮像画像から前記撮像オブジェクトを認識する撮像オブジェクト認識部を備える、
    請求項2に記載の情報処理装置。
  4. 前記データ取得部は、前記検出オブジェクトに応じた前記撮像オブジェクトを決定してから前記撮像オブジェクトの辞書データを取得し、
    前記撮像オブジェクト認識部は、前記撮像画像から抽出される特徴量と前記辞書データとの照合に基づいて前記撮像オブジェクトを認識する、
    請求項3に記載の情報処理装置。
  5. 前記データ取得部は、前記辞書データを取得するに際して前記撮像オブジェクトに応じた仮想オブジェクトを取得し、
    前記処理部は、前記撮像画像に基づいて前記撮像オブジェクトが認識された場合、前記仮想オブジェクトを前記表示部に表示させる処理を行う、
    請求項4に記載の情報処理装置。
  6. 前記検出部は、前記撮像部によって撮像された撮像画像から認識された物体を前記検出オブジェクトとして検出する、
    請求項5に記載の情報処理装置。
  7. 前記情報処理装置は、前記検出オブジェクトが認識される第1のモードから前記撮像オブジェクトが認識される第2のモードに動作モードを遷移させる制御部を備える、
    請求項6に記載の情報処理装置。
  8. 前記第1のモードにおいては、前記検出オブジェクトとしてマーカが認識され、前記第2のモードにおいては、前記撮像オブジェクトとして物体が認識される、
    請求項7に記載の情報処理装置。
  9. 前記表示制御部は、前記第1のモードから前記第2のモードに前記動作モードが遷移される旨を前記表示部に表示させる、
    請求項7に記載の情報処理装置。
  10. 前記検出部は、前記撮像部を所持するユーザの位置情報を前記検出オブジェクトとして検出する、
    請求項1に記載の情報処理装置。
  11. 前記検出部は、前記撮像部によって撮像された撮像画像から認識された物体と前記撮像部を所持するユーザの位置情報との組み合わせを前記検出オブジェクトとして検出する、
    請求項1に記載の情報処理装置。
  12. 所定の検出オブジェクトを検出することと、
    前記検出オブジェクトに応じた所定の撮像オブジェクトを撮像部の撮像範囲に収めるよう指示する指示情報を取得することと、
    前記指示情報をプロセッサにより表示部に表示させることと、
    を含む、情報処理方法。
  13. 所定の検出オブジェクトを認識する検出オブジェクト認識部、
    を備える、情報提供装置と、
    前記検出オブジェクトを検出する検出部と、
    前記検出オブジェクトに応じた所定の撮像オブジェクトを撮像部の撮像範囲に収めるよう指示する指示情報を取得するデータ取得部と、
    前記指示情報を表示部に表示させる表示制御部と、
    を備える、情報処理装置と、
    を有する、情報処理システム。

JP2013230387A 2013-11-06 2013-11-06 情報処理装置、情報処理方法および情報処理システム Pending JP2015090593A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013230387A JP2015090593A (ja) 2013-11-06 2013-11-06 情報処理装置、情報処理方法および情報処理システム
PCT/JP2014/072267 WO2015068447A1 (ja) 2013-11-06 2014-08-26 情報処理装置、情報処理方法および情報処理システム
CN201480059871.9A CN105683959A (zh) 2013-11-06 2014-08-26 信息处理设备、信息处理方法及信息处理系统
US15/026,074 US10133966B2 (en) 2013-11-06 2014-08-26 Information processing apparatus, information processing method, and information processing system
EP14859404.7A EP3068128A4 (en) 2013-11-06 2014-08-26 Information processing device, information processing method, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013230387A JP2015090593A (ja) 2013-11-06 2013-11-06 情報処理装置、情報処理方法および情報処理システム

Publications (1)

Publication Number Publication Date
JP2015090593A true JP2015090593A (ja) 2015-05-11

Family

ID=53041231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013230387A Pending JP2015090593A (ja) 2013-11-06 2013-11-06 情報処理装置、情報処理方法および情報処理システム

Country Status (5)

Country Link
US (1) US10133966B2 (ja)
EP (1) EP3068128A4 (ja)
JP (1) JP2015090593A (ja)
CN (1) CN105683959A (ja)
WO (1) WO2015068447A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017056821A1 (ja) * 2015-09-30 2018-07-19 ソニー株式会社 情報取得装置と情報取得方法
JPWO2018142756A1 (ja) * 2017-01-31 2019-11-07 株式会社Nttドコモ 情報処理装置及び情報処理方法
KR20200045273A (ko) * 2018-10-22 2020-05-04 양민철 미러형 증강 현실 표시 시스템

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10102423B2 (en) * 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
JP7013808B2 (ja) * 2017-11-15 2022-02-01 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4423929B2 (ja) * 2003-10-31 2010-03-03 カシオ計算機株式会社 画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラム
US8004536B2 (en) * 2006-12-01 2011-08-23 Adobe Systems Incorporated Coherent image selection and modification
CN100583189C (zh) * 2006-12-27 2010-01-20 华晶科技股份有限公司 具观察星象功能的拍摄装置及其观察星象方法
JP2008283502A (ja) * 2007-05-11 2008-11-20 Casio Comput Co Ltd デジタルカメラ、及び撮影制御方法、撮影制御プログラム
JP2010049313A (ja) * 2008-08-19 2010-03-04 Sony Corp 画像処理装置、画像処理方法、プログラム
US9087059B2 (en) * 2009-08-07 2015-07-21 Google Inc. User interface for presenting search results for multiple regions of a visual query
US8977639B2 (en) * 2009-12-02 2015-03-10 Google Inc. Actionable search results for visual queries
KR101317532B1 (ko) * 2010-10-13 2013-10-15 주식회사 팬택 마커 또는 마커리스를 융합하는 증강현실 장치 및 방법
JP2012169986A (ja) 2011-02-16 2012-09-06 Nec Casio Mobile Communications Ltd 撮影端末、撮影システム、サーバ、撮影サービス制御方法、およびプログラム
US8929591B2 (en) * 2011-03-08 2015-01-06 Bank Of America Corporation Providing information associated with an identified representation of an object
JP2012256110A (ja) * 2011-06-07 2012-12-27 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2013050883A (ja) * 2011-08-31 2013-03-14 Nintendo Co Ltd 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
JP2013080326A (ja) 2011-10-03 2013-05-02 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP5948842B2 (ja) * 2011-12-14 2016-07-06 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN103139480A (zh) * 2013-02-28 2013-06-05 华为终端有限公司 一种图像采集方法及装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017056821A1 (ja) * 2015-09-30 2018-07-19 ソニー株式会社 情報取得装置と情報取得方法
JPWO2018142756A1 (ja) * 2017-01-31 2019-11-07 株式会社Nttドコモ 情報処理装置及び情報処理方法
US10977510B2 (en) 2017-01-31 2021-04-13 Ntt Docomo, Inc. Information-processing device and information-processing method
KR20200045273A (ko) * 2018-10-22 2020-05-04 양민철 미러형 증강 현실 표시 시스템
KR102238473B1 (ko) * 2018-10-22 2021-04-08 양민철 미러형 증강 현실 표시 시스템

Also Published As

Publication number Publication date
EP3068128A1 (en) 2016-09-14
EP3068128A4 (en) 2017-05-03
WO2015068447A1 (ja) 2015-05-14
US20160217350A1 (en) 2016-07-28
US10133966B2 (en) 2018-11-20
CN105683959A (zh) 2016-06-15

Similar Documents

Publication Publication Date Title
US11188187B2 (en) Information processing apparatus, information processing method, and recording medium
JP5765019B2 (ja) 表示制御装置、表示制御方法、およびプログラム
US11340072B2 (en) Information processing apparatus, information processing method, and recording medium
US9569898B2 (en) Wearable display system that displays a guide for a user performing a workout
CN111182453A (zh) 定位方法、装置、电子设备及存储介质
WO2019184889A1 (zh) 增强现实模型的调整方法、装置、存储介质和电子设备
CN112148899B (zh) 多媒体推荐方法、装置、设备及存储介质
US9948856B2 (en) Method and apparatus for adjusting a photo-taking direction, mobile terminal
US9214043B2 (en) Gesture based map annotation
TWI749532B (zh) 一種定位方法及定位裝置、電子設備和電腦可讀儲存媒介
CN110490179A (zh) 车牌识别方法、装置及存储介质
KR20170046338A (ko) 이동단말기 및 그 제어방법
WO2015068447A1 (ja) 情報処理装置、情報処理方法および情報処理システム
KR20140136349A (ko) 대화 기록 장치 및 그 방법
CN110377914B (zh) 字符识别方法、装置及存储介质
CN113489903A (zh) 一种拍摄方法、装置、终端设备及存储介质
KR101995799B1 (ko) 상황 인지 서비스를 제공하기 위한 장소 인식 장치 및 방법
CN113936240B (zh) 确定样本图像的方法、装置、设备及存储介质
JP2013004001A (ja) 表示制御装置、表示制御方法、およびプログラム
CN115811615B (zh) 屏幕视频的编码方法、装置、计算机设备及存储介质
CN114998655B (zh) 视频分类模型的训练方法、装置、电子设备以及存储介质
CN110662113B (zh) 视频播放方法、装置和计算机可读存储介质
CN111225202B (zh) 一种图片故障诊断方法、装置及系统
US20220276822A1 (en) Information processing apparatus and information processing method
HK40084135A (en) Screen video encoding method, device, computer equipment and storage medium