[go: up one dir, main page]

JP2012155362A - Information processing apparatus, augmented reality system, information processing method, and information processing program - Google Patents

Information processing apparatus, augmented reality system, information processing method, and information processing program Download PDF

Info

Publication number
JP2012155362A
JP2012155362A JP2011011242A JP2011011242A JP2012155362A JP 2012155362 A JP2012155362 A JP 2012155362A JP 2011011242 A JP2011011242 A JP 2011011242A JP 2011011242 A JP2011011242 A JP 2011011242A JP 2012155362 A JP2012155362 A JP 2012155362A
Authority
JP
Japan
Prior art keywords
information
physical object
annotation
unit
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011011242A
Other languages
Japanese (ja)
Other versions
JP5014494B2 (en
Inventor
Jun Anzai
潤 安齋
Tomoji Nakamura
友治 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011011242A priority Critical patent/JP5014494B2/en
Priority to PCT/JP2012/000269 priority patent/WO2012098869A1/en
Publication of JP2012155362A publication Critical patent/JP2012155362A/en
Application granted granted Critical
Publication of JP5014494B2 publication Critical patent/JP5014494B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】物理オブジェクトとアノテーションとの関連性を保証することが可能な情報処理装置を提供する。
【解決手段】画像取得部302と、物理オブジェクト識別情報を検出する識別情報検出部303、305、306と、物理オブジェクト識別情報と、物理オブジェクトのアノテーションと、物理オブジェクトと前記アノテーションとの物理的な対応度を示す対応度情報と、を取得する通信部307と、識別情報検出部により検出された物理オブジェクト識別情報と、通信部307により取得された物理オブジェクト識別情報と、が略一致するか否かを判定する識別情報判定部309と、略一致すると判定された場合、物理オブジェクトのアノテーションの対応度情報が、所定の利用ポリシを満たすか否かを判定する利用ポリシ判定部310と、利用ポリシ判定部310により利用ポリシを満たすと判定された場合、アノテーションを提示する表示部312と、を備える。
【選択図】図5
An information processing apparatus capable of guaranteeing the relationship between a physical object and an annotation is provided.
An image acquisition unit 302, identification information detection units 303, 305, and 306 for detecting physical object identification information, physical object identification information, physical object annotations, physical objects and physical annotations Whether or not the communication unit 307 that acquires the correspondence level information indicating the correspondence level, the physical object identification information detected by the identification information detection unit, and the physical object identification information acquired by the communication unit 307 substantially match. The usage policy determination unit 310 that determines whether or not the correspondence information of the annotation of the physical object satisfies a predetermined usage policy, and the usage policy When the determination unit 310 determines that the usage policy is satisfied, an annotation is presented It includes a radical 113 312, a.
[Selection] Figure 5

Description

本発明は、情報処理装置、拡張現実感システム、情報処理方法、及び情報処理プログラムに関する。特に、現実環境の対象物(物理オブジェクト)に関する情報(アノテーション)をユーザに提供する拡張現実感(AR:Augmented Reality)システムで用いられる技術に関する。   The present invention relates to an information processing apparatus, an augmented reality system, an information processing method, and an information processing program. In particular, the present invention relates to a technology used in an augmented reality (AR) system that provides information (annotations) on an object (physical object) in a real environment to a user.

近年、現実環境にコンピュータを用いて情報を付加提示する技術、及び情報を付加提示された環境そのものを示す言葉として、「拡張現実感(拡張現実ともいう)」が知られつつある。拡張現実感技術では、現実環境における特定の物体に関する説明や関連情報を含む電子情報(アノテーション)が、説明対象となる実物体(物理オブジェクト)に対応付けて提示される。   In recent years, “augmented reality” (also referred to as augmented reality) is becoming known as a technique for additionally presenting information to a real environment using a computer and a term indicating the environment in which information is additionally presented. In the augmented reality technology, electronic information (annotation) including explanation and related information regarding a specific object in a real environment is presented in association with an actual object (physical object) to be explained.

拡張現実感に関する技術として、以下のような技術が知られている。例えば、撮影映像の部分映像から抽出された視覚的特徴情報と、記憶装置により記憶されている物理オブジェクトの視覚的特徴情報と、の類似度を算出し、算出された類似度により、物理オブジェクトが撮影映像に存在するか否かを判定する。そして、物理オブジェクトが撮影映像に存在しない場合には、アノテーションを表示しないようにする装置が知られている(例えば、特許文献1参照)   The following technologies are known as technologies related to augmented reality. For example, the similarity between the visual feature information extracted from the partial video of the captured video and the visual feature information of the physical object stored in the storage device is calculated, and the physical object is determined based on the calculated similarity. It is determined whether or not it exists in the captured video. An apparatus that does not display an annotation when a physical object does not exist in a captured video is known (for example, see Patent Document 1).

また、実世界映像に映し出される物理オブジェクトと実世界映像の視点との距離し、取得された距離に応じて、アノテーションの表示を変更する装置が知られている(例えば、特許文献2参照)。   There is also known an apparatus that changes the display of an annotation in accordance with the distance between a physical object projected on a real world video and the viewpoint of the real world video and the acquired distance (see, for example, Patent Document 2).

また、場所と情報との対応付けが特定の人間の主観や製作意図によらず、ユーザの現在、過去、未来の文脈情報が反映された情報をユーザに提供する装置が知られている(特許文献3参照)。この装置では、ユーザの履歴ベースで位置に関する情報を検索する。   There is also known an apparatus that provides a user with information in which context information of a user's current, past, and future is reflected regardless of a person's subjectivity or production intention in association with a place (patent) Reference 3). In this apparatus, information on the position is searched based on the history of the user.

特許第4488233号公報Japanese Patent No. 4488233 国際公開第2010/073616号パンフレットInternational Publication No. 2010/073616 Pamphlet 特開2001−306604号公報JP 2001-306604 A

従来技術では、上記のような特徴情報、距離情報、位置情報に基づいて、物理オブジェクトに対してアノテーションの表示等を行っているが、ユーザにとっては、どのように物理オブジェクトとアノテーションを認識しているか不明である。したがって、ユーザは、物理オブジェクトとアノテーションとの関連性を把握することができない。今後、拡張現実感システムが普及していくと考えられるが、物理オブジェクトとアノテーションとの関連性を十分に保証できなければ、安心して拡張現実感システムを使用することができないと考えられる。   In the prior art, annotations are displayed on physical objects based on the above feature information, distance information, and position information. However, for the user, how to recognize physical objects and annotations. It is unknown. Therefore, the user cannot grasp the relationship between the physical object and the annotation. In the future, augmented reality systems are expected to become widespread, but it is thought that augmented reality systems cannot be used with peace of mind unless the relationship between physical objects and annotations can be sufficiently guaranteed.

本発明は、上記事情に鑑みてなされたものであって、物理オブジェクトとアノテーションとの関連性を保証することが可能な情報処理装置、拡張現実感システム、情報処理方法、及び情報処理プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an information processing device, an augmented reality system, an information processing method, and an information processing program capable of guaranteeing the relationship between a physical object and an annotation The purpose is to do.

本発明の情報処理装置は、画像を取得する画像取得部と、前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出する識別情報検出部と、所定の物理オブジェクトを識別するための物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションと、前記物理オブジェクトと前記アノテーションとの物理的な対応度を示す対応度情報と、を取得する情報取得部と、前記識別情報検出部により検出された物理オブジェクト識別情報と、前記情報取得部により取得された物理オブジェクト識別情報と、が略一致するか否かを判定する識別情報判定部と、前記識別情報判定部により略一致すると判定された場合、前記物理オブジェクトの前記アノテーションの前記対応度情報が、所定の利用ポリシを満たすか否かを判定する利用ポリシ判定部と、前記利用ポリシ判定部により前記利用ポリシを満たすと判定された場合、前記アノテーションを提示するアノテーション提示部と、を備える。   An information processing apparatus of the present invention identifies an image acquisition unit that acquires an image, an identification information detection unit that detects physical object identification information for identifying a physical object included in the image, and a predetermined physical object Detected by the identification information detector, an information acquisition unit that acquires physical object identification information, an annotation of the physical object, and correspondence information indicating a physical correspondence between the physical object and the annotation. The identification information determination unit for determining whether or not the physical object identification information substantially matches the physical object identification information acquired by the information acquisition unit, and the identification information determination unit Whether the correspondence information of the annotation of the physical object satisfies a predetermined usage policy And determining usage policy determining section whether, if the it is determined to satisfy the usage policy by utilizing policy judgment section, and a annotation presentation unit for presenting the annotation.

この構成により、物理オブジェクトとアノテーションとの関連性を保証することが可能である。すなわち、物理オブジェクトに対応するアノテーションのうち、信頼性の高いアノテーションが簡単に識別できるように、ユーザに提示することができる。したがって、ユーザは提示されたアノテーションを安心して利用することができる。   With this configuration, it is possible to guarantee the relationship between the physical object and the annotation. That is, it is possible to present to the user so that a highly reliable annotation among the annotations corresponding to the physical object can be easily identified. Therefore, the user can use the presented annotation with peace of mind.

また、本発明の情報処理装置は、前記情報取得部が、前記物理オブジェクトと前記アノテーションとの意味的な関連度を示す関連度情報を取得し、前記利用ポリシ判定部が、前記識別情報判定部により略一致すると判定された場合、前記物理オブジェクトの前記アノテーションの前記対応度情報と前記関連度情報とが、所定の利用ポリシを満たすか否かを判定する。   Further, in the information processing apparatus of the present invention, the information acquisition unit acquires relevance information indicating a semantic relevance between the physical object and the annotation, and the usage policy determination unit includes the identification information determination unit. If it is determined that the values substantially match, it is determined whether the correspondence level information and the relevance level information of the annotation of the physical object satisfy a predetermined usage policy.

この構成により、物理オブジェクトとアノテーションとの関連性を対応度及び関連度により保証することが可能である。対応度のみで信頼性を判断するよりも、更に信頼性が向上する。   With this configuration, it is possible to guarantee the relevance between the physical object and the annotation by the correspondence level and the relevance level. The reliability is further improved as compared with the case where the reliability is judged only by the degree of correspondence.

また、本発明の情報処理装置は、前記アノテーション提示部が、前記利用ポリシ判定部により前記利用ポリシを満たすと判定された場合、前記アノテーションと同時に、前記利用ポリシを満たしている旨を表示する。   Also, the information processing apparatus of the present invention displays that the usage policy determination unit satisfies the usage policy when the usage policy determination unit determines that the usage policy is satisfied.

この構成により、例えば、利用ポリシを満たしていることを文字、アイコン色等により提示することで、ユーザはアノテーションが利用ポリシを満たしていることを確実に認識することができる。   With this configuration, for example, by presenting that the usage policy is satisfied with characters, icon colors, etc., the user can surely recognize that the annotation satisfies the usage policy.

また、本発明の情報処理装置は、前記識別情報検出部が、当該情報処理装置の位置に係る位置情報を検出する位置情報検出部と、当該情報処理装置から前記画像に含まれる物理オブジェクトまでの距離に係る距離情報と、を検出する距離情報検出部と、を備え、前記情報取得部は、当該情報処理装置の位置に係る位置情報と前記物理オブジェクトまでの距離に係る距離情報に基づいて、前記物理オブジェクト識別情報として、所定の物理オブジェクトの位置に係る位置情報を取得し、前記識別情報判定部が、前記情報取得部により取得された位置情報と前記位置情報検出部により検出された位置情報とが略一致し、前記情報取得部により取得された距離情報と前記距離情報検出部により検出された距離情報とが略一致するか否かを判定する。   In the information processing device of the present invention, the identification information detection unit detects a position information related to the position of the information processing device, and includes a position information detection unit from the information processing device to a physical object included in the image. A distance information detection unit that detects distance information related to a distance, and the information acquisition unit is based on position information related to a position of the information processing device and distance information related to a distance to the physical object, Position information relating to the position of a predetermined physical object is acquired as the physical object identification information, and the identification information determination unit detects the position information acquired by the information acquisition unit and the position information detected by the position information detection unit. And the distance information acquired by the information acquisition unit and the distance information detected by the distance information detection unit are substantially matched.

この構成により、投稿者が所有する情報処理装置で検出された物理オブジェクト識別情報に係る物理オブジェクトと、閲覧者が現在表示している物理オブジェクトの一致を確認することができる。つまり、位置情報、距離情報に基づいて物理オブジェクトを識別することで、信頼性の高いアノテーションのみユーザに提示することができる。   With this configuration, it is possible to confirm a match between the physical object related to the physical object identification information detected by the information processing apparatus owned by the poster and the physical object currently displayed by the viewer. That is, by identifying a physical object based on position information and distance information, only highly reliable annotations can be presented to the user.

また、本発明の情報処理装置は、前記識別情報検出部が、前記画像に含まれる前記物理オブジェクトの特徴に係る特徴情報を抽出する特徴情報抽出部、を備え、前記情報取得部は、前記物理オブジェクト識別情報として、前記物理オブジェクトの特徴に係る特徴情報を取得し、前記識別情報判定部が、前記情報取得部により取得された特徴情報と前記特徴情報抽出部により抽出された特徴情報とが略一致するか否かを判定する。   Further, in the information processing apparatus according to the present invention, the identification information detection unit includes a feature information extraction unit that extracts feature information related to a feature of the physical object included in the image, and the information acquisition unit includes the physical information Feature information related to the feature of the physical object is acquired as the object identification information, and the identification information determination unit is substantially the feature information acquired by the information acquisition unit and the feature information extracted by the feature information extraction unit. It is determined whether or not they match.

この構成により、位置情報、距離情報とともに特徴情報に基づいて物理オブジェクトを識別することで、信頼性の高いアノテーションのみユーザに提示することができる。   With this configuration, by identifying the physical object based on the feature information together with the position information and the distance information, only highly reliable annotation can be presented to the user.

また、本発明の情報処理装置は、前記識別情報検出部が、当該情報処理装置の位置に係る位置情報を検出する位置情報検出部と、当該情報処理装置から前記画像に含まれる物理オブジェクトまでの距離に係る距離情報を検出する距離情報検出部と、前記画像に含まれる前記物理オブジェクトの特徴に係る特徴情報を抽出する特徴情報抽出部と、を備え、前記情報取得部が、前記物理オブジェクト識別情報として、所定の物理オブジェクトの位置に係る位置情報と、前記物理オブジェクトまでの距離に係る距離情報と、前記物理オブジェクトの特徴に係る特徴情報と、を取得し、前記識別情報判定部が、前記情報取得部により取得された位置情報と前記位置情報検出部により検出された位置情報とが略一致し、前記情報取得部により取得された距離情報と前記距離情報検出部により検出された距離情報とが略一致し、かつ、前記情報取得部により取得された特徴情報と前記特徴情報抽出部により抽出された特徴情報とが略一致するか否かを判定する。   In the information processing device of the present invention, the identification information detection unit detects a position information related to the position of the information processing device, and includes a position information detection unit from the information processing device to a physical object included in the image. A distance information detection unit that detects distance information related to a distance; and a feature information extraction unit that extracts feature information related to a feature of the physical object included in the image, wherein the information acquisition unit includes the physical object identification As the information, position information related to the position of a predetermined physical object, distance information related to the distance to the physical object, and feature information related to the characteristic of the physical object are acquired, and the identification information determination unit The position information acquired by the information acquisition unit and the position information detected by the position information detection unit substantially match and acquired by the information acquisition unit. Whether the distance information detected by the distance information detection unit substantially matches the feature information acquired by the information acquisition unit and the feature information acquired by the feature information extraction unit. Determine whether or not.

この構成により、位置情報、距離情報、特徴情報に基づいて物理オブジェクトを識別することで、信頼性の高いアノテーションのみユーザに提示することができる。   With this configuration, by identifying a physical object based on position information, distance information, and feature information, only highly reliable annotations can be presented to the user.

また、本発明の情報処理装置は、前記アノテーション提示部が、前記画像取得部により取得された画像に含まれる物理オブジェクトに対応付けて前記アノテーションを表示する。   In the information processing apparatus of the present invention, the annotation presentation unit displays the annotation in association with a physical object included in the image acquired by the image acquisition unit.

この構成により、アノテーションがどの物理オブジェクトに対して付加されたものであるかを容易に理解することができる。   With this configuration, it is possible to easily understand to which physical object the annotation is added.

また、本発明の情報処理装置は、前記アノテーション提示部が、前記対応度または前記関連度が大きい順に、前記アノテーションを提示する情報処理装置。   The information processing apparatus according to the present invention is an information processing apparatus in which the annotation presenting unit presents the annotations in descending order of the degree of correspondence or the degree of association.

この構成により、1つの物理オブジェクトに複数のアノテーションが投稿されている場合には、信頼性の高いアノテーションを優先的に提示することができる。   With this configuration, when a plurality of annotations are posted on one physical object, highly reliable annotations can be preferentially presented.

また、本発明の情報処理装置は、前記所定の利用ポリシが、前記対応度及び前記関連度のそれぞれ又は合計値が所定値以上であることである。   In the information processing apparatus of the present invention, the predetermined usage policy is that each of the correspondence level and the relevance level or a total value is equal to or greater than a predetermined value.

この構成により、対応度及び関連度が所定値以上である場合に限り、アノテーションを提示させることができる。   With this configuration, an annotation can be presented only when the degree of correspondence and the degree of association are greater than or equal to a predetermined value.

また、本発明の情報処理装置は、前記アノテーション提示部が、前記対応度及び前記関連度の少なくとも1つを前記アノテーションと同時に提示する情報処理装置。   The information processing apparatus according to the present invention is an information processing apparatus in which the annotation presenting unit presents at least one of the correspondence level and the relevance level simultaneously with the annotation.

この構成により、ユーザは対応度又は関連度を認識することができる。   With this configuration, the user can recognize the degree of correspondence or the degree of association.

また、本発明の情報処理装置は、画像を取得する画像取得部と、前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出する識別情報検出部と、前記物理オブジェクトのアノテーションを生成するアノテーション生成部と、前記物理オブジェクト毎に、前記アノテーション生成部により生成されたアノテーションと、前記識別情報検出部により検出された物理オブジェクト識別情報と、を送出する送出部と、を備える。   The information processing apparatus according to the present invention includes an image acquisition unit that acquires an image, an identification information detection unit that detects physical object identification information for identifying a physical object included in the image, and an annotation of the physical object. An annotation generation unit to be generated, and a transmission unit that transmits, for each physical object, the annotation generated by the annotation generation unit and the physical object identification information detected by the identification information detection unit.

この構成により、物理オブジェクト識別情報に基づいて対応度及び関連度を生成させることができ、生成されたアノテーションが信頼性の高いアノテーションであると判断させることができる。   With this configuration, the degree of correspondence and the degree of association can be generated based on the physical object identification information, and the generated annotation can be determined to be a highly reliable annotation.

また、本発明の情報処理装置は、前記識別情報検出部が、当該情報処理装置の位置に係る位置情報を検出する位置情報検出部と、当該情報処理装置から前記画像に含まれる物理オブジェクトまでの距離に係る距離情報を検出する距離情報検出部と、前記画像に含まれる前記物理オブジェクトの特徴に係る特徴情報を抽出する特徴情報抽出部と、を備え、前記送出部が、前記物理オブジェクト識別情報として、前記位置情報と前記距離情報と前記特徴情報とを送出する。   In the information processing device of the present invention, the identification information detection unit detects a position information related to the position of the information processing device, and includes a position information detection unit from the information processing device to a physical object included in the image. A distance information detection unit that detects distance information related to a distance; and a feature information extraction unit that extracts feature information related to a feature of the physical object included in the image, wherein the sending unit includes the physical object identification information The position information, the distance information, and the feature information are transmitted.

この構成により、位置情報、距離情報、特徴情報に基づいて物理オブジェクトを識別させることで、信頼性の高いアノテーションであると判断させることができる。   With this configuration, it is possible to determine that the annotation is highly reliable by identifying the physical object based on the position information, the distance information, and the feature information.

また、本発明の情報処理装置は、物理オブジェクトを識別するための物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションとを取得する情報取得部と、前記物理オブジェクト識別情報に基づいて、前記物理オブジェクトと当該物理オブジェクトのアノテーションとの物理的な対応度を算出する対応度算出部と、を備える。   Further, the information processing apparatus according to the present invention includes a physical object identification information for identifying a physical object, an information acquisition unit that acquires the annotation of the physical object, and the physical object based on the physical object identification information. A correspondence calculation unit that calculates a physical correspondence with the annotation of the physical object.

この構成により、物理オブジェクトとアノテーションとの対応度を算出することで、アノテーションの信頼度を例えば数値化して提供することができる。   With this configuration, by calculating the degree of correspondence between the physical object and the annotation, the reliability of the annotation can be provided, for example, as a numerical value.

また、本発明の情報処理装置は、前記物理オブジェクトの識別情報とアノテーションに基づいて、前記物理オブジェクトと前記アノテーションとの意味的な関連度を算出する関連度算出部を備える。   The information processing apparatus according to the present invention further includes a relevance calculation unit that calculates a semantic relevance between the physical object and the annotation based on the identification information of the physical object and the annotation.

この構成により、物理オブジェクトとアノテーションとの関連度を更に算出することで、アノテーションの信頼度を例えば数値化して提供することができる。   With this configuration, by further calculating the degree of association between the physical object and the annotation, the reliability of the annotation can be provided as a numerical value, for example.

また、本発明の情報処理装置は、前記対応度算出部により算出された対応度に係る対応度情報と、前記関連度算出部により算出された関連度に係る関連度情報と、を送出する送出部を備える情報処理装置。   In addition, the information processing apparatus of the present invention sends out correspondence information related to the correspondence calculated by the correspondence calculation unit and relevance information related to the correlation calculated by the association calculation unit. An information processing apparatus comprising a unit.

この構成により、閲覧者へ詳細なアノテーションの情報を提供することができるので、閲覧者はアノテーションの信頼性を確認することができる。   With this configuration, since detailed annotation information can be provided to the viewer, the viewer can check the reliability of the annotation.

また、本発明の情報処理装置は、前記物理オブジェクト識別情報が、前記情報処理装置の位置に係る位置情報と、前記物理オブジェクトまでの距離に係る距離情報と、前記物理オブジェクトの特徴に係る特徴情報と、を含み、前記対応度算出部が、前記特徴情報及び前記距離情報に基づいて識別レベルを算出し、前記位置情報に基づいて測位レベルを算出し、前記識別レベル及び前記測位レベルに基づいて前記対応度を算出する。   In the information processing apparatus of the present invention, the physical object identification information includes position information related to a position of the information processing apparatus, distance information related to a distance to the physical object, and feature information related to a characteristic of the physical object. The correspondence degree calculating unit calculates an identification level based on the feature information and the distance information, calculates a positioning level based on the position information, and based on the identification level and the positioning level The correspondence degree is calculated.

この構成により、識別レベルと測位レベルから、精度の高い対応度を算出できる。   With this configuration, it is possible to calculate the degree of correspondence with high accuracy from the identification level and the positioning level.

また、本発明の情報処理装置は、前記物理オブジェクト識別情報と、前記物理オブジェクト識別情報により識別される物理オブジェクトに係る語句情報を含む物理オブジェクト情報と、を対応付けて記憶する物理オブジェクト情報記憶部と、前記情報取得部により取得されたアノテーションから当該アノテーションに係るテキスト情報を取得するテキスト情報取得部と、を備え、前記関連度算出部が、前記情報取得部により取得されたアノテーションから前記テキスト情報取得部により取得された前記テキスト情報に含まれる語句情報のうち、前記情報取得部により取得され前記物理オブジェクト情報記憶部により記憶された物理オブジェクト識別情報に対応付けられた前記物理オブジェクト情報に含まれる語句情報に基づいて、前記関連度を算出する。   The information processing apparatus according to the present invention further includes a physical object information storage unit that associates and stores the physical object identification information and physical object information including phrase information related to the physical object identified by the physical object identification information. A text information acquisition unit that acquires text information related to the annotation from the annotation acquired by the information acquisition unit, and the relevance calculation unit calculates the text information from the annotation acquired by the information acquisition unit. Among the phrase information included in the text information acquired by the acquisition unit, included in the physical object information associated with the physical object identification information acquired by the information acquisition unit and stored in the physical object information storage unit Based on the phrase information, the degree of association Calculated to.

この構成により、アノテーションに関連するテキスト情報から、精度の高い関連度を算出できる。   With this configuration, it is possible to calculate a relevance level with high accuracy from text information related to the annotation.

また、本発明の情報処理装置は、前記語句情報が、前記物理オブジェクトの名称の情報と、前記物理オブジェクトに関連する語句である関連語の情報と、前記物理オブジェクトとは関連性の低い語句である非関連語の情報と、を含む。   Further, in the information processing apparatus of the present invention, the phrase information includes information on the name of the physical object, information on a related word that is a phrase related to the physical object, and a phrase that is not related to the physical object. And information on certain unrelated words.

この構成により、アノテーションに関連する物理オブジェクトの名称、関連語、非関連語から、精度の高い関連度を算出できる。   With this configuration, it is possible to calculate a relevance level with high accuracy from the names, related words, and unrelated words of the physical object related to the annotation.

また、本発明の拡張現実感システムは、物理オブジェクトに対応するアノテーションを提供する情報提供装置と、前記アノテーションを管理する情報管理サーバと、前記アノテーションを提示する情報提示装置と、を備える拡張現実感システムであって、前記情報提供装置が、画像を取得する画像取得部と、前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出する識別情報検出部と、前記物理オブジェクトのアノテーションを生成するアノテーション生成部と、前記物理オブジェクト毎に、前記アノテーション生成部により生成されたアノテーションと、前記識別情報検出部により検出された物理オブジェクト識別情報と、を送出する送出部と、を備え、前記情報管理サーバが、前記情報提供装置からの前記物理オブジェクト識別情報と前記アノテーションとを取得する情報取得部と、前記物理オブジェクト識別情報に基づいて、前記物理オブジェクトと当該物理オブジェクトのアノテーションとの物理的な対応度を算出する対応度算出部と、前記物理オブジェクト識別情報と、前記アノテーションと、前記対応度情報と、を送出する送出部と、を備え、前記情報提示装置が、画像を取得する画像取得部と、前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出する識別情報検出部と、前記情報管理サーバからの所定の物理オブジェクトを識別するための前記物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションと、前記対応度情報と、を取得する情報取得部と、前記識別情報検出部により検出された物理オブジェクト識別情報と、前記情報取得部により取得された物理オブジェクト識別情報と、が略一致するか否かを判定する識別情報判定部と、前記識別情報判定部により略一致すると判定された場合、前記物理オブジェクトの前記アノテーションの前記対応度情報が、所定の利用ポリシを満たすか否かを判定する利用ポリシ判定部と、前記利用ポリシ判定部により前記利用ポリシを満たすと判定された場合、前記アノテーションを提示するアノテーション提示部と、を備える。   An augmented reality system of the present invention includes an augmented reality system comprising: an information providing device that provides an annotation corresponding to a physical object; an information management server that manages the annotation; and an information presentation device that presents the annotation. In the system, the information providing device acquires an image, an identification information detection unit that detects physical object identification information for identifying a physical object included in the image, and an annotation of the physical object An annotation generation unit that generates a transmission unit that transmits, for each physical object, an annotation generated by the annotation generation unit, and physical object identification information detected by the identification information detection unit, The information management server receives information from the information providing device. An information acquisition unit that acquires the physical object identification information and the annotation; a correspondence calculation unit that calculates a physical correspondence between the physical object and the annotation of the physical object based on the physical object identification information; A transmission unit that transmits the physical object identification information, the annotation, and the correspondence information, and the information presentation device acquires an image, and a physical object included in the image An identification information detector for detecting physical object identification information for identifying the physical object identification information for identifying a predetermined physical object from the information management server, an annotation for the physical object, and the correspondence level Information acquisition unit for acquiring information and the identification information detection unit It is determined by the identification information determination unit that the physical object identification information thus issued and the physical object identification information acquired by the information acquisition unit substantially match, and by the identification information determination unit. When the correspondence information of the annotation of the physical object is determined to satisfy the usage policy by the usage policy determination unit that determines whether or not a predetermined usage policy is satisfied, and the usage policy determination unit And an annotation presenting unit for presenting the annotation.

この構成により、物理オブジェクト識別情報に基づいて対応度を生成させることができ、生成されたアノテーションが信頼性の高いアノテーションであると判断させることができる。また、物理オブジェクトとアノテーションとの対応度を算出することで、アノテーションの信頼度を例えば数値化して提供することができる。さらに、物理オブジェクトとアノテーションとの関連性を保証することが可能である。すなわち、物理オブジェクトに対応するアノテーションのうち、信頼性の高いアノテーションが簡単に識別できるように、ユーザに提示することができる。したがって、ユーザは提示されたアノテーションを安心して利用することができる。   With this configuration, the degree of correspondence can be generated based on the physical object identification information, and the generated annotation can be determined to be a highly reliable annotation. Further, by calculating the correspondence between the physical object and the annotation, the reliability of the annotation can be provided, for example, in the form of a numerical value. Furthermore, it is possible to guarantee the relationship between the physical object and the annotation. That is, it is possible to present to the user so that a highly reliable annotation among the annotations corresponding to the physical object can be easily identified. Therefore, the user can use the presented annotation with peace of mind.

また、本発明の第1の情報処理方法は、画像を取得するステップと、前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出するステップと、所定の物理オブジェクトを識別するための物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションと、前記物理オブジェクトと前記アノテーションとの物理的な対応度を示す対応度情報と、を取得するステップと、前記検出された物理オブジェクト識別情報と、前記取得された物理オブジェクト識別情報と、が略一致するか否かを判定するステップと、前記略一致すると判定された場合、前記物理オブジェクトの前記アノテーションの前記対応度情報が、所定の利用ポリシを満たすか否かを判定するステップと、前記利用ポリシを満たすと判定された場合、前記アノテーションを提示するステップと、を有する。   The first information processing method of the present invention includes a step of acquiring an image, a step of detecting physical object identification information for identifying a physical object included in the image, and a predetermined physical object. Physical object identification information, an annotation of the physical object, and correspondence information indicating physical correspondence between the physical object and the annotation; and the detected physical object identification information; The step of determining whether or not the acquired physical object identification information substantially matches, and if it is determined that the physical object identification information substantially matches, the correspondence information of the annotation of the physical object indicates a predetermined usage policy. A step of determining whether or not to satisfy, and it is determined that the usage policy is satisfied If, and a step of presenting the annotations.

この方法により、物理オブジェクトとアノテーションとの関連性を保証することが可能である。すなわち、物理オブジェクトに対応するアノテーションのうち、信頼性の高いアノテーションが簡単に識別できるように、ユーザに提示することができる。したがって、ユーザは提示されたアノテーションを安心して利用することができる。   By this method, it is possible to guarantee the relationship between the physical object and the annotation. That is, it is possible to present to the user so that a highly reliable annotation among the annotations corresponding to the physical object can be easily identified. Therefore, the user can use the presented annotation with peace of mind.

また、本発明の第2の情報処理方法は、画像を取得するステップと、前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出するステップと、前記物理オブジェクトのアノテーションを生成するステップと、前記物理オブジェクト毎に、前記生成されたアノテーションと、前記検出された物理オブジェクト識別情報と、を送出するステップと、を有する。   According to the second information processing method of the present invention, the step of acquiring an image, the step of detecting physical object identification information for identifying the physical object included in the image, and the annotation of the physical object are generated. And sending the generated annotation and the detected physical object identification information for each physical object.

この方法により、物理オブジェクト識別情報に基づいて対応度及び関連度を生成させることができ、生成されたアノテーションが信頼性の高いアノテーションであると判断させることができる。   With this method, it is possible to generate the degree of correspondence and the degree of association based on the physical object identification information, and it is possible to determine that the generated annotation is a highly reliable annotation.

また、本発明の第3の情報処理方法は、物理オブジェクトを識別するための物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションとを取得するステップと、前記物理オブジェクト識別情報に基づいて、前記物理オブジェクトと当該物理オブジェクトのアノテーションとの物理的な対応度を算出するステップと、を有する。   According to a third information processing method of the present invention, the physical object identifying information for identifying the physical object and the annotation of the physical object are acquired, and the physical object is based on the physical object identifying information. And calculating a physical correspondence between the annotation of the physical object and the annotation of the physical object.

この方法により、物理オブジェクトとアノテーションとの対応度を算出することで、アノテーションの信頼度を例えば数値化して提供することができる。   By calculating the degree of correspondence between the physical object and the annotation by this method, the reliability of the annotation can be provided, for example, as a numerical value.

また、本発明の情報処理プログラムは、第1の情報処理方法の各ステップをコンピュータに実行させるためのプログラムである。   The information processing program of the present invention is a program for causing a computer to execute each step of the first information processing method.

このプログラムにより、物理オブジェクトとアノテーションとの関連性を保証することが可能である。すなわち、物理オブジェクトに対応するアノテーションのうち、信頼性の高いアノテーションが簡単に識別できるように、ユーザに提示することができる。したがって、ユーザは提示されたアノテーションを安心して利用することができる。   With this program, it is possible to guarantee the relationship between the physical object and the annotation. That is, it is possible to present to the user so that a highly reliable annotation among the annotations corresponding to the physical object can be easily identified. Therefore, the user can use the presented annotation with peace of mind.

また、本発明の情報処理プログラムは、第2の情報処理方法の各ステップをコンピュータに実行させるためのプログラムである。   The information processing program of the present invention is a program for causing a computer to execute each step of the second information processing method.

このプログラムにより、物理オブジェクト識別情報に基づいて対応度及び関連度を生成させることができ、生成されたアノテーションが信頼性の高いアノテーションであると判断させることができる。   With this program, the degree of correspondence and the degree of association can be generated based on the physical object identification information, and the generated annotation can be determined to be a highly reliable annotation.

また、本発明の情報処理プログラムは、第3の情報処理方法の各ステップをコンピュータに実行させるためのプログラムである。   The information processing program of the present invention is a program for causing a computer to execute each step of the third information processing method.

このプログラムにより、物理オブジェクトとアノテーションとの対応度を算出することで、アノテーションの信頼度を例えば数値化して提供することができる。   By calculating the degree of correspondence between the physical object and the annotation by this program, the reliability of the annotation can be provided, for example, in the form of a numerical value.

本発明によれば、物理オブジェクトとアノテーションとの関連性を保証することが可能である。   According to the present invention, it is possible to guarantee the relationship between a physical object and an annotation.

本発明の実施形態における対応度と関連度とを説明するためのイメージ図The image figure for demonstrating the correspondence and relevance in embodiment of this invention 本発明の実施形態における拡張現実感システムの構成例を示すブロック図The block diagram which shows the structural example of the augmented reality system in embodiment of this invention 本発明の実施形態における情報提供装置の構成例を示すブロック図The block diagram which shows the structural example of the information provision apparatus in embodiment of this invention 本発明の実施形態における情報管理サーバの構成例を示すブロック図The block diagram which shows the structural example of the information management server in embodiment of this invention 本発明の実施形態における情報表示装置の構成例を示すブロック図The block diagram which shows the structural example of the information display apparatus in embodiment of this invention 本発明の実施形態における物理オブジェクト識別情報の一例を示す図The figure which shows an example of the physical object identification information in embodiment of this invention 本発明の実施形態における情報提供装置の動作例を示すフローチャートThe flowchart which shows the operation example of the information provision apparatus in embodiment of this invention. 本発明の実施形態における情報提供装置の動作例を示すフローチャートThe flowchart which shows the operation example of the information provision apparatus in embodiment of this invention. 本発明の実施形態における情報提供装置の動作例を示すフローチャート(図8の続き)The flowchart which shows the operation example of the information provision apparatus in embodiment of this invention (continuation of FIG. 8). 本発明の実施形態における情報提供装置の動作例を示すフローチャートThe flowchart which shows the operation example of the information provision apparatus in embodiment of this invention.

以下、本発明の実施形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本実施形態では、物理オブジェクトとアノテーションとの関連性を認識するために、「対応度」及び「関連度」という概念を導入する。対応度とは、物理オブジェクトとアノテーションとの物理的な関係性(物理的な対応度)を示すものである。言い換えると、対応度はアノテーションが物理オブジェクトに対して正確に付加されている度合いを示している。関連度とは、物理オブジェクトとアノテーションとの意味的な関係性(意味的な関連度)を示すものである。言い換えると、関連度はアノテーションの内容が物理オブジェクトにどの程度関連しているかを示している。対応度及び関連度は、主に数値化して用いられる。   In this embodiment, in order to recognize the relationship between a physical object and an annotation, the concepts of “correspondence” and “relevance” are introduced. The correspondence level indicates a physical relationship (physical correspondence level) between the physical object and the annotation. In other words, the correspondence degree indicates the degree to which the annotation is accurately added to the physical object. The association degree indicates a semantic relationship (semantic association degree) between the physical object and the annotation. In other words, the degree of association indicates how much the content of the annotation is related to the physical object. The degree of correspondence and the degree of association are mainly used in numerical form.

なお、本実施形態での物理オブジェクトとしては、地物、移動体、場所等を想定する。地物とは、建物や記念碑など特定の位置に固定された建造物等である。移動体とは、人や車などの移動可能な物体である。場所とは、緯度経度により一意に特定され、所定の地点、公園、街路など、特定の名称により一意にされる地区である。また、アノテーションとしては、文字情報等のテキスト情報、2D/3Dグラフィックなどの画像情報、音声情報等を想定する。   In addition, as a physical object in this embodiment, a feature, a moving body, a place, etc. are assumed. The feature is a building fixed at a specific position such as a building or a monument. A moving body is a movable object such as a person or a car. A place is a district uniquely identified by a latitude and longitude and uniquely identified by a specific name such as a predetermined point, a park, or a street. As annotations, text information such as character information, image information such as 2D / 3D graphics, audio information, and the like are assumed.

図1は対応度と関連度とを説明するためのイメージ図である。図1に示す例では、対応度及び関連度の最高値を5、最低値を0とする。図1に示す例では、物理オブジェクトOとしての五重塔の画像が表示されている。この物理オブジェクトに対して、第1のアノテーションA1としての文字情報「五重塔」、第2のアノテーションA2としての文字情報「聖徳太子」が付加されている。   FIG. 1 is an image diagram for explaining correspondence and relevance. In the example shown in FIG. 1, the maximum value of correspondence and relevance is 5 and the minimum value is 0. In the example shown in FIG. 1, an image of a five-storied pagoda as the physical object O is displayed. To this physical object, character information “Five-storied Pagoda” as the first annotation A1 and character information “Taiko Shotoku” as the second annotation A2 are added.

図1に示す例では、物理オブジェクトOと第1のアノテーションA1との対応度が5、関連度が4となっている。したがって、対応度により、第1のアノテーションA1が物理オブジェクトOに対して正確に付加されていると認識することができる。つまり、第1のアノテーションA1としての文字情報「五重塔」を、本来は他の物理オブジェクトに付加しようとしたが、誤って物理オブジェクトOとしての「五重塔」に付加してしまったものではない、と理解することができ、アノテーションの信頼性が向上する。また、関連度により、物理オブジェクトOとしての「五重塔」と、第1のアノテーションA1としての文字情報「五重塔」と、が意味的にほぼ密接に関係していると認識することができる。つまり、「五重塔」という言葉が、物理オブジェクトOに関連する内容としてほぼ間違い、と理解することができ、アノテーションの信頼性が向上する。   In the example shown in FIG. 1, the degree of correspondence between the physical object O and the first annotation A1 is 5, and the degree of association is 4. Therefore, it can be recognized that the first annotation A1 is accurately added to the physical object O based on the degree of correspondence. In other words, the character information “Five-storied Pagoda” as the first annotation A1 is originally intended to be added to another physical object, but it is not accidentally added to the “Five-storied Pagoda” as the physical object O. Can understand and improve annotation reliability. Further, it can be recognized from the degree of relevance that “the five-storied pagoda” as the physical object O and the character information “the five-storied pagoda” as the first annotation A1 are substantially closely related. That is, it can be understood that the word “quintuple tower” is almost mistaken as content related to the physical object O, and the reliability of the annotation is improved.

また、図1に示す例では、物理オブジェクトOと第2のアノテーションA2との対応度が4、関連度が2となっている。したがって、対応度により、第2のアノテーションA2が物理オブジェクトOに対してほぼ正確に付加されていると認識することができる。つまり、第2のアノテーションA2としての文字情報「取得太子」を、本来は他の物理オブジェクトに付加しようとしたが、誤って物理オブジェクトOとしての「五重塔」に付加してしまったものである可能性はかなり低い、と理解することができる。また、関連度により、物理オブジェクトOとしての「五重塔」と、第2のアノテーションA2としての文字情報「聖徳太子」と、が意味的にあまり関係していないと認識することができる。つまり、「聖徳太子」という言葉が、物理オブジェクトOに関連する内容としては間違えている可能性があると理解することができる。   In the example shown in FIG. 1, the degree of correspondence between the physical object O and the second annotation A2 is 4, and the degree of association is 2. Therefore, it can be recognized that the second annotation A2 is added to the physical object O almost accurately based on the degree of correspondence. In other words, the character information “acquired prince” as the second annotation A2 is originally intended to be added to another physical object, but may be erroneously added to the “5-storied pagoda” as the physical object O. It can be understood that the sex is quite low. Further, it can be recognized from the degree of relevance that “the five-storied pagoda” as the physical object O and the character information “Saintoku Prince” as the second annotation A2 are not significantly related. That is, it can be understood that the word “Saintoku Prince” may be mistaken as the content related to the physical object O.

次に、本発明の拡張現実感システムの構成について説明する。   Next, the configuration of the augmented reality system of the present invention will be described.

図2は本発明の実施形態における拡張現実感システムの構成例を示すブロック図である。図2に示す拡張現実感システム1は、情報提供装置100、情報管理サーバ200、情報表示装置300を備える。情報提供装置100、情報管理サーバ200、情報表示装置300は、いずれも情報処理装置の一例である。   FIG. 2 is a block diagram showing a configuration example of the augmented reality system in the embodiment of the present invention. The augmented reality system 1 shown in FIG. 2 includes an information providing apparatus 100, an information management server 200, and an information display apparatus 300. The information providing apparatus 100, the information management server 200, and the information display apparatus 300 are all examples of information processing apparatuses.

情報提供装置100は、物理オブジェクトに対応するアノテーションを生成する1又は複数の装置であり、アノテーションを投稿する投稿者(Submitter)により所有される装置である。情報提供装置100としては、例えば、携帯電話、携帯情報端末、ノートパソコン等のモバイル機器、デジタルカメラ、デジタルビデオカメラ、車載用カメラ等の撮影装置、が考えられる。情報提供装置100は、物理オブジェクトを撮影し、撮影された物理オブジェクトに対するアノテーションを生成して、生成されたアノテーションを情報管理サーバ200へ送信等する。   The information providing apparatus 100 is one or a plurality of apparatuses that generate an annotation corresponding to a physical object, and is an apparatus owned by a contributor (Submitter) who posts an annotation. As the information providing apparatus 100, for example, mobile devices such as a mobile phone, a portable information terminal, and a laptop computer, and a photographing apparatus such as a digital camera, a digital video camera, and an in-vehicle camera can be considered. The information providing apparatus 100 captures a physical object, generates an annotation for the captured physical object, and transmits the generated annotation to the information management server 200.

情報管理サーバ200は、情報提供装置100からのアノテーションを取得して管理する1又は複数のサーバであり、拡張現実感システムのサービスを提供するサービス提供者(Service Provider)により所有されるサーバである。情報管理サーバ200は、物理オブジェクトを識別するための物理オブジェクト識別情報と、その物理オブジェクトに対して投稿されたアノテーションと、に基づいて、対応度及び関連度を生成する。そして、物理オブジェクトのアノテーションとともに、生成された対応度を含む対応度情報及び関連度を含む関連度情報を、情報表示装置300へ送信等する。   The information management server 200 is one or a plurality of servers that acquire and manage annotations from the information providing apparatus 100, and is a server owned by a service provider that provides an augmented reality system service. . The information management server 200 generates the degree of correspondence and the degree of association based on the physical object identification information for identifying the physical object and the annotation posted to the physical object. Then, together with the annotation of the physical object, the correspondence level information including the generated correspondence level and the relevance level information including the relevance level are transmitted to the information display device 300.

情報表示装置300は、情報管理サーバ200からのアノテーション、対応度情報、及び関連度情報を取得して、対応度情報及び関連度情報に基づいてアノテーションを提示する1又は複数の装置であり、アノテーションを閲覧(使用)する閲覧者(使用者)(Viewer)により所有される装置である。情報表示装置300としては、情報提供装置100と同様に、例えば、携帯電話、携帯情報端末、ノートパソコン等のモバイル機器、デジタルカメラ、デジタルビデオカメラ、車載用カメラ等の撮影装置、が考えられる。   The information display device 300 is one or a plurality of devices that acquire annotations, correspondence information, and relevance information from the information management server 200 and present annotations based on the correspondence information and relevance information. It is a device owned by a viewer (viewer) who browses (uses). As the information display device 300, as with the information providing device 100, for example, mobile devices such as a mobile phone, a portable information terminal, and a laptop computer, and a photographing device such as a digital camera, a digital video camera, and an in-vehicle camera can be considered.

まず、情報提供装置100の構成について説明する。
図3は本発明の実施形態における情報提供装置100の構成例を示すブロック図である。
First, the configuration of the information providing apparatus 100 will be described.
FIG. 3 is a block diagram illustrating a configuration example of the information providing apparatus 100 according to the embodiment of the present invention.

情報提供装置100は、カメラ部101、画像取得部102、特徴抽出部103、領域指定部104、測距部105、測位部106、情報設定部107、操作部108、コンテンツ生成部109、送信部110、を備える。   The information providing apparatus 100 includes a camera unit 101, an image acquisition unit 102, a feature extraction unit 103, a region specification unit 104, a distance measurement unit 105, a positioning unit 106, an information setting unit 107, an operation unit 108, a content generation unit 109, and a transmission unit. 110.

カメラ部101は、2D又は3Dの静止画像又は動画像を撮影する撮影装置であり、例えばCCDイメージセンサ、CMOSイメージセンサである。   The camera unit 101 is a photographing device that captures 2D or 3D still images or moving images, and is, for example, a CCD image sensor or a CMOS image sensor.

画像取得部102は、カメラ部101からの画像(ビデオスルー画像)を取得する。   The image acquisition unit 102 acquires an image (video through image) from the camera unit 101.

特徴抽出部103は、画像取得部102により取得された画像の特徴を抽出する特徴抽出処理を行う。この特徴抽出処理には、特徴点抽出やエッジ抽出等の公知の特徴抽出方法を用いる。例えば、図1に示した五重塔が画像に含まれる場合、五重塔の輪郭(特徴パターン)や五重塔を忠実に表すパラメータ(特徴パラメータ)を抽出する。   The feature extraction unit 103 performs feature extraction processing for extracting the features of the image acquired by the image acquisition unit 102. For this feature extraction process, a known feature extraction method such as feature point extraction or edge extraction is used. For example, when the five-storied tower shown in FIG. 1 is included in the image, the outline (feature pattern) of the five-storied tower and parameters (feature parameters) that faithfully represent the five-storied tower are extracted.

また、特徴抽出部103は、抽出された特徴から、物理オブジェクトを認識する認識処理を行ってもよい。この認識処理には、パターンマッチング等の公知の画像認識方法を用いる。例えば、抽出された五重塔の特徴パターン、特徴パラメータの集合から、五重塔という物理オブジェクトであると認識する。   The feature extraction unit 103 may perform recognition processing for recognizing a physical object from the extracted features. For this recognition processing, a known image recognition method such as pattern matching is used. For example, it is recognized as a physical object called a five-storied pagoda from the extracted feature pattern and feature parameter set of five-storied pagoda.

領域指定部104は、特徴抽出部103により特徴抽出又はオブジェクト認識された物理オブジェクトの中から、アノテーションを付加すべき物理オブジェクトの領域を指定する。このとき、例えば、操作部108としてのタッチパネルを介して、画面上で物理オブジェクトにタッチすることで、その物理オブジェクトの領域を指定する。このとき、複数の物理オブジェクトを選択してもかまわない。なお、領域指定部104により特別な指定がされない場合には、特徴抽出又はオブジェクト認識された全ての物理オブジェクトが指定されたものとしてもよい。   The area designating unit 104 designates an area of a physical object to which an annotation is to be added from among the physical objects whose features have been extracted or recognized by the feature extracting unit 103. At this time, for example, by touching the physical object on the screen via the touch panel as the operation unit 108, the area of the physical object is designated. At this time, a plurality of physical objects may be selected. If no special designation is made by the area designation unit 104, all physical objects that have been feature-extracted or object-recognized may be designated.

測距部105は、カメラ部101から領域指定部104により指定された物理オブジェクトまでの距離を測定する。距離の測定方法としては、例えば光学式、レーダー式の測距センサによる距離の測定が考えられる。   The distance measuring unit 105 measures the distance from the camera unit 101 to the physical object specified by the area specifying unit 104. As a distance measuring method, for example, distance measurement using an optical or radar distance measuring sensor can be considered.

測位部106は、情報提供装置100の位置を測定する。位置の測定方法としては、例えばGPS(Global Positioning System)衛星を用いてGPS情報(緯度、経度、高度等)を取得すること、WLAN(無線LAN)を用いて位置情報を取得すること、が考えられる。   The positioning unit 106 measures the position of the information providing apparatus 100. As a position measurement method, for example, GPS information (latitude, longitude, altitude, etc.) is acquired using a GPS (Global Positioning System) satellite, and position information is acquired using a WLAN (wireless LAN). It is done.

情報設定部107は、カメラ部101により撮影された画像の付加情報として、物理オブジェクトを識別するための物理オブジェクト識別情報を設定する。例えば、画像のメタデータとしてオブジェクト識別情報を付加する。例えば、画像がJPEG方式の画像である場合、メタデータとしてのExif(Exchangeble Image File Format)情報にオブジェクト識別情報を付加する。なお、情報設定部107は、物理オブジェクト毎に、オブジェクト識別情報を付加する。   The information setting unit 107 sets physical object identification information for identifying a physical object as additional information of an image captured by the camera unit 101. For example, object identification information is added as image metadata. For example, when the image is a JPEG image, object identification information is added to Exif (Exchangeble Image File Format) information as metadata. The information setting unit 107 adds object identification information for each physical object.

ここで、物理オブジェクト識別情報には、特徴抽出部103により抽出された特徴に係る特徴情報又は領域指定部104により指定された物理オブジェクトの特徴情報、測距部105により測定された距離に係る距離情報、測位部106により測定された位置に係る位置情報、が含まれる。   Here, the physical object identification information includes the feature information extracted by the feature extraction unit 103 or the feature information of the physical object specified by the region specifying unit 104, and the distance related to the distance measured by the distance measuring unit 105. Information, and position information related to the position measured by the positioning unit 106 is included.

さらに、特徴情報には、特徴抽出方式情報、オブジェクト特徴情報、特徴抽出精度情報が含まれる。特徴抽出方式情報は、特徴抽出部103による特徴抽出の方式(顔認証、画像認証等)を示す情報である。オブジェクト特徴情報は、画像の特徴点の情報、物理オブジェクトに含まれるマーカー、RFID(Radio Frequency Identification)、QRコード(Quick Response code)、カーナンバー、表札、名札等の情報、等の物理オブジェクトの特徴を示す情報である。また、オブジェクト特徴情報により、テキスト(文字)情報、画像情報、音声情報等の物理オブジェクトの種別(属性)を識別することができる。また、オブジェクト特徴情報により、車、人、地物、場所などの物理オブジェクトの種別(属性)を識別することができる。特徴抽出精度情報は、電波強度、明るさ等の、特徴抽出に影響を与え得る状態を示す情報である。なお、特徴抽出精度情報は、精度を示す具体的な数値の情報であってもよい。   Further, the feature information includes feature extraction method information, object feature information, and feature extraction accuracy information. The feature extraction method information is information indicating a feature extraction method (face authentication, image authentication, etc.) by the feature extraction unit 103. The object feature information is information on feature points of the image, information on markers included in the physical object, RFID (Radio Frequency Identification), QR code (Quick Response code), car number, nameplate, name tag, etc. It is information which shows. Further, the type (attribute) of a physical object such as text (character) information, image information, audio information or the like can be identified by the object feature information. Further, the type (attribute) of a physical object such as a car, a person, a feature, or a place can be identified by the object feature information. The feature extraction accuracy information is information indicating a state that can influence feature extraction, such as radio wave intensity and brightness. The feature extraction accuracy information may be specific numerical information indicating accuracy.

また、距離情報には、測距方式情報、オブジェクト距離情報、測距精度情報が含まれる。測距方式情報は、測距部105による測距の方式(光学式測距方式、レーダー式測距方式等)を示す情報である。オブジェクト距離情報は、情報提供装置100から領域指定部104により指定された物理オブジェクトまでの距離を示す情報である。測距精度情報は、電波強度、明るさ等の、測距に影響を与え得る状態を示す情報である。なお、測距精度情報は、精度を示す具体的な数値の情報であってもよい。   The distance information includes distance measurement method information, object distance information, and distance measurement accuracy information. The distance measurement method information is information indicating a method of distance measurement by the distance measurement unit 105 (optical distance measurement method, radar distance measurement method, etc.). The object distance information is information indicating the distance from the information providing apparatus 100 to the physical object specified by the area specifying unit 104. The distance measurement accuracy information is information indicating a state that can affect distance measurement, such as radio wave intensity and brightness. The distance measurement accuracy information may be specific numerical information indicating accuracy.

また、位置情報には、測位方式情報、情報提供装置位置情報、測位精度情報が含まれる。測位方式情報は、測位部106による測位の方式(GPS方式、WLAN方式等)を示す情報である。オブジェクト位置情報は、情報提供装置100の位置(緯度、経度等)を示す情報である。測位精度情報は、電波強度、明るさ等の、測距に影響を与え得る状態を示す情報である。なお、測位精度情報は、精度を示す具体的な数値の情報であってもよい。なお、オブジェクト位置情報は、情報提供装置100のカメラ部101が向いている方角を示すオブジェクト方角情報を含んでもよい。オブジェクト方角情報に係る方角は、例えば測位部106に含まれる地磁気センサにより測定される。   The position information includes positioning method information, information providing apparatus position information, and positioning accuracy information. The positioning method information is information indicating a positioning method (GPS method, WLAN method, etc.) by the positioning unit 106. The object position information is information indicating the position (latitude, longitude, etc.) of the information providing apparatus 100. The positioning accuracy information is information indicating a state that can affect distance measurement, such as radio wave intensity and brightness. The positioning accuracy information may be specific numerical information indicating accuracy. The object position information may include object direction information indicating the direction in which the camera unit 101 of the information providing apparatus 100 is facing. The direction related to the object direction information is measured by a geomagnetic sensor included in the positioning unit 106, for example.

物理オブジェクト識別情報の更に詳細な説明については、後述する。   A more detailed description of the physical object identification information will be described later.

操作部108は、ユーザによる入力操作を受け付けるものであり、例えばテンキー、十字キー、タッチパネル等である。例えば、操作部108は、複数の物理オブジェクトのうち、アノテーションを付加すべき物理オブジェクトを選択する。   The operation unit 108 receives an input operation by a user, and is, for example, a numeric keypad, a cross key, a touch panel, or the like. For example, the operation unit 108 selects a physical object to be annotated from among a plurality of physical objects.

コンテンツ生成部109は、アノテーションを付加すべき物理オブジェクトに対して、アノテーションとしてのコンテンツ情報を生成する。コンテンツ情報としては、テキスト情報、静止画像や動画像などの画像情報、各種音、音声、音楽などの音声情報、等がある。コンテンツ情報は、操作部108等を介して生成してもよいし、コンテンツサーバからダウンロードしてもよいし、情報提供装置100が備える図示しないメモリにあらかじめ記憶させておいてもよい。   The content generation unit 109 generates content information as an annotation for a physical object to which an annotation is to be added. The content information includes text information, image information such as still images and moving images, audio information such as various sounds, sounds, and music. The content information may be generated via the operation unit 108 or the like, may be downloaded from the content server, or may be stored in advance in a memory (not shown) provided in the information providing apparatus 100.

送信部110は、物理オブジェクト識別情報及びコンテンツ情報を情報管理サーバ200へ送信する。物理オブジェクト識別情報は、先に説明したように、画像のメタデータとして送信されてもよい。また、送信部110は、情報提供装置100を識別するための情報提供装置識別情報を、情報管理サーバ200へ送信してもよい。情報提供装置識別情報には、情報提供装置識別IDや情報提供装置100の名称を示す情報が含まれる。なお、通信により情報管理サーバ200へ送出する代わりに、例えば記憶媒体(CD−R、SDカード等)を介して情報管理サーバ200へ送出するようにしてもよい。   The transmission unit 110 transmits physical object identification information and content information to the information management server 200. The physical object identification information may be transmitted as image metadata as described above. The transmission unit 110 may transmit information providing device identification information for identifying the information providing device 100 to the information management server 200. The information providing device identification information includes an information providing device identification ID and information indicating the name of the information providing device 100. Instead of sending to the information management server 200 by communication, it may be sent to the information management server 200 via a storage medium (CD-R, SD card, etc.), for example.

次に、情報管理サーバ200の構成について説明する。
図4は本発明の実施形態における情報管理サーバ200の構成例を示すブロック図である。
Next, the configuration of the information management server 200 will be described.
FIG. 4 is a block diagram showing a configuration example of the information management server 200 in the embodiment of the present invention.

情報管理サーバ200は、受信部201、識別レベル算出部202、測位レベル算出部203、対応度算出部204、物理オブジェクト情報取得部205、テキスト変換部206、語数算出部207、関連度算出部208、署名生成部209、送信部210、物理オブジェクトデータベース(物理オブジェクトDB)211、記憶部212、を備える。   The information management server 200 includes a reception unit 201, an identification level calculation unit 202, a positioning level calculation unit 203, a correspondence level calculation unit 204, a physical object information acquisition unit 205, a text conversion unit 206, a word number calculation unit 207, and a relevance level calculation unit 208. A signature generation unit 209, a transmission unit 210, a physical object database (physical object DB) 211, and a storage unit 212.

受信部201は、情報提供装置100の送信部110からの物理オブジェクト識別情報、コンテンツ情報等を受信する。なお、通信により情報提供装置100からこれらの情報を取得する代わりに、例えば記憶媒体(CD−R、SDカード等)を介して情報提供装置100から取得してもよい。   The reception unit 201 receives physical object identification information, content information, and the like from the transmission unit 110 of the information providing apparatus 100. Instead of acquiring the information from the information providing apparatus 100 by communication, the information may be acquired from the information providing apparatus 100 via a storage medium (CD-R, SD card, etc.), for example.

識別レベル算出部202は、識別レベル算出機能を有し、対応度算出部204により対応度を算出する際に用いられる識別レベルを算出する。また、識別レベル算出機能は、物理オブジェクト識別情報の特徴抽出方式情報及び特徴抽出精度情報と測距方式情報及び測距精度情報とを入力とし、これらの情報に対応する識別レベルを出力する関数を有している。この関数は、例えば下記の(式1)により表される。   The identification level calculation unit 202 has an identification level calculation function, and calculates the identification level used when the correspondence level calculation unit 204 calculates the correspondence level. The identification level calculation function receives a feature extraction method information, feature extraction accuracy information, distance measurement method information, and distance measurement accuracy information of physical object identification information, and outputs a function for outputting an identification level corresponding to these information. Have. This function is expressed by, for example, (Equation 1) below.

識別レベル=特徴抽出方式レベル×抽出精度係数+測距方式レベル×測距精度係数・・・(式1)   Identification level = feature extraction method level × extraction accuracy factor + ranging method level × ranging accuracy factor (Equation 1)

ここで、特徴抽出方式レベルは、特徴抽出方式情報に係る特徴抽出方式(顔認証、画像認証等)が、その特徴抽出方式の性能毎に分類されて、例えば5段階のレベルが割り当てられたものである。例えば、特徴抽出方式が画像認識の場合にはレベル4、バーコード認識の場合にはレベル5、などが割り当てられる。抽出精度係数は、抽出精度情報に係る抽出精度(電波状況、明るさの状況等)が、その状況(電波強い状態、電波弱い状態、昼間、夜間、晴れ、曇り、雨等)に応じて分類されて、例えば0%〜100%の数値が割り当てられたものである。   Here, the feature extraction method level is a feature extraction method related to feature extraction method information (face authentication, image authentication, etc.) classified according to the performance of the feature extraction method and assigned, for example, five levels. It is. For example, level 4 is assigned when the feature extraction method is image recognition, level 5 is assigned when barcode recognition is performed, and the like. The extraction accuracy coefficient is classified according to the extraction accuracy (radio wave status, brightness status, etc.) according to the extraction accuracy information according to the status (strong radio wave state, weak radio wave state, daytime, nighttime, sunny, cloudy, rain, etc.) For example, a numerical value of 0% to 100% is assigned.

また、測距方式レベルは、測距方式情報に係る測距方式(光学式、レーダー式、オートフォーカス(AF:Autofocus)等)が、その測距方式の性能毎に分類されて、例えば5段階のレベルが割り当てられたものである。例えば、測距方式がAFの場合にはレベル3、ミリ波レーダーの場合にはレベル5、などが割り当てられる。測距精度係数は、測距精度自応報に係る測距精度(電波状況、明るさの状況等)が、その状況(電波強い状態、電波弱い状態、昼間、夜間、晴れ、曇り、雨等)に応じて分類されて、例えば0%〜100%の数値が割り当てられたものである。   In addition, the distance measurement method level is classified into five distance measurement methods (optical, radar, autofocus, etc.) according to the performance of the distance measurement method. Are assigned levels. For example, level 3 is assigned when the ranging method is AF, level 5 is assigned when the millimeter wave radar is used, and the like. The distance measurement accuracy factor is the distance measurement accuracy (radio wave condition, brightness condition, etc.) related to the distance measurement accuracy self-report, and the status (strong radio wave condition, weak radio wave condition, daytime, nighttime, sunny, cloudy, rain, etc.) And a numerical value of, for example, 0% to 100% is assigned.

したがって、識別レベル算出部202は、識別レベルを、例えば、レベル4×70%+レベル3×80%=5.2、のように算出する。ここでの識別レベルの最大値は、10である。   Therefore, the identification level calculation unit 202 calculates the identification level as, for example, level 4 × 70% + level 3 × 80% = 5.2. The maximum value of the identification level here is 10.

測位レベル算出部203は、測位レベル算出機能を有し、対応度算出部204により対応度を算出する際に用いられる測位レベルを算出する。また、測位レベル算出機能は、物理オブジェクト識別情報の測位方式情報及び測位精度情報を入力とし、これらの情報に対応する測位レベルを出力する関数を有している。この関数は、例えば下記の(式2)により表される。   The positioning level calculation unit 203 has a positioning level calculation function, and calculates a positioning level used when the correspondence degree calculation unit 204 calculates the correspondence degree. The positioning level calculation function has a function that receives the positioning method information and the positioning accuracy information of the physical object identification information and outputs a positioning level corresponding to the information. This function is expressed by, for example, the following (Formula 2).

測位レベル=測位方式レベル×測位精度係数・・・(式2)   Positioning level = Positioning method level x Positioning accuracy factor (Equation 2)

ここで、測位方式レベルは、測位方式情報に係る測位方式(GPS、WLAN、地磁気センサ等)が、その測位方式の性能毎に分類されて、例えば5段階のレベルが割り当てられたものである。例えば、測位方式がGPSの場合にはレベル4、などが割り当てられる。測位精度係数は、測位精度情報に係る測位精度(電波状況、明るさの状況等)が、その状況(電波強い状態、電波弱い状態、昼間、夜間、晴れ、曇り、雨等)に応じて分類されて、例えば0%〜100%の数値が割り当てられたものである。   Here, the positioning method level is obtained by classifying the positioning method (GPS, WLAN, geomagnetic sensor, etc.) related to the positioning method information according to the performance of the positioning method, and assigning, for example, five levels. For example, when the positioning method is GPS, level 4 is assigned. The positioning accuracy coefficient is classified according to the positioning accuracy (radio wave status, brightness status, etc.) according to the positioning accuracy information according to the status (strong radio wave status, weak radio wave status, daytime, nighttime, sunny, cloudy, rain, etc.) For example, a numerical value of 0% to 100% is assigned.

したがって、測位レベル算出部203は、測位レベルを、例えば、レベル5×60%=3.0、のように算出する。ここでの測位レベルの最大値は、5である。   Therefore, the positioning level calculation unit 203 calculates the positioning level as, for example, level 5 × 60% = 3.0. The maximum value of the positioning level here is 5.

対応度算出部204は、識別レベル算出部202により算出された識別レベル及び測位レベル算出部203により算出された測位レベルに基づいて、対応度を算出する。対応度の算出式は、例えば下記の(式3)により表される。   The correspondence level calculation unit 204 calculates the correspondence level based on the identification level calculated by the identification level calculation unit 202 and the positioning level calculated by the positioning level calculation unit 203. The formula for calculating the correspondence is expressed by, for example, the following (Formula 3).

対応度=識別レベル×識別重み係数+測位レベル×測位重み係数・・・(式3)   Correspondence = identification level × identification weight coefficient + positioning level × positioning weight coefficient (Equation 3)

ここで、識別重み係数及び測位重み係数の各重み係数は、物理オブジェクトの種別に応じて設定されるものであり、例えば0%〜100%の数値が割り当てられたものである。例えば。例えば、移動体などの位置との関係性が小さい物理オブジェクトである場合には、識別重み係数として大きな値に設定され、測位重み係数として小さな値に設定される。一方、場所などの位置との関係性が大きい物理オブジェクトである場合には、識別重み係数として小さな値が設定され、測位重み係数として大きな値が設定される。   Here, each weighting factor of the identification weighting factor and the positioning weighting factor is set according to the type of the physical object, for example, a numerical value of 0% to 100% is assigned. For example. For example, in the case of a physical object having a small relationship with a position such as a moving object, a large value is set as the identification weight coefficient and a small value is set as the positioning weight coefficient. On the other hand, when the physical object has a large relationship with a position such as a place, a small value is set as the identification weight coefficient, and a large value is set as the positioning weight coefficient.

したがって、対応度算出部204は、対応度として、5.2×80%+3.0×30%=5.06、のように算出する。ここでの対応度の最大値は、15である。   Therefore, the correspondence level calculation unit 204 calculates the correspondence level as 5.2 × 80% + 3.0 × 30% = 5.06. The maximum value of the degree of correspondence here is 15.

物理オブジェクトDB211は、物理オブジェクト識別情報に含まれる位置情報及び特徴情報を入力とし、これらの情報に対応する物理オブジェクト情報を出力するデータベースである。ここで、物理オブジェクト情報には、物理オブジェクトID、名称情報、一般識別情報、属性情報、キーワード情報、が含まれる。   The physical object DB 211 is a database that receives position information and feature information included in the physical object identification information and outputs physical object information corresponding to the information. Here, the physical object information includes physical object ID, name information, general identification information, attribute information, and keyword information.

物理オブジェクトIDは、物理オブジェクトを識別するためのIDであり、物理オブジェクトDB211のキーとなる情報である。   The physical object ID is an ID for identifying a physical object, and is information serving as a key of the physical object DB 211.

名称情報は、物理オブジェクトIDにより識別される物理オブジェクトの名前、名称等の固有名詞であり、テキスト情報であっても、テキスト情報以外の画像情報や音声情報であってもよい。   The name information is a proper noun such as the name and name of the physical object identified by the physical object ID, and may be text information or image information or audio information other than the text information.

一般識別情報は、物理オブジェクトIDにより識別される物理オブジェクトの住所、IPアドレス、URL、電話番号等の情報である。   The general identification information is information such as the address, IP address, URL, and telephone number of the physical object identified by the physical object ID.

属性情報は、物理オブジェクトIDにより識別される物理オブジェクトの属性(種別)を示す情報であり、例えば、人などの移動体、固定物や建物などの地物、場所等のいずれかを示す情報である。   The attribute information is information indicating the attribute (type) of the physical object identified by the physical object ID. For example, the attribute information is information indicating any one of a moving object such as a person, a feature such as a fixed object and a building, and a place. is there.

キーワード情報は、物理オブジェクトIDにより識別される物理オブジェクトに関連する関連語(キーワード)の情報を含む。また、キーワード情報は、物理オブジェクトIDにより識別される物理オブジェクトとの関連性の低い非関連語の情報を含んでもよい。なお、キーワード情報は、物理オブジェクトのコンテキストに依存して変化するため、定期的に更新されることが好ましい。   The keyword information includes information on related words (keywords) related to the physical object identified by the physical object ID. Further, the keyword information may include information on unrelated words having low relevance with the physical object identified by the physical object ID. Since the keyword information changes depending on the context of the physical object, it is preferable to update the keyword information periodically.

物理オブジェクト情報取得部205は、物理オブジェクトIDを検索し、受信部201により受信された物理オブジェクト識別情報から、これらの情報に対応する物理オブジェクト情報を取得する。   The physical object information acquisition unit 205 searches for a physical object ID, and acquires physical object information corresponding to these pieces of information from the physical object identification information received by the reception unit 201.

テキスト変換部206は、受信部201により受信されたコンテンツ情報がテキスト情報以外(音声情報、画像情報等)である場合には、その情報をテキスト情報に変換する。この場合、画像情報は、例えば画像情報からその画像情報に対応するテキスト情報を得るWeb画像検索技術により、テキスト情報に変換される。また、音声情報は、所定の音声認識処理により、テキスト情報に変換される。   When the content information received by the receiving unit 201 is other than text information (audio information, image information, etc.), the text conversion unit 206 converts the information into text information. In this case, the image information is converted into text information by, for example, a Web image search technique that obtains text information corresponding to the image information from the image information. Also, the voice information is converted into text information by a predetermined voice recognition process.

例えば、コンテンツ情報として五重塔の画像情報を取得した場合には、Web画像検索技術により、テキスト情報としての「五重塔」を得る。また、コンテンツ情報として五重塔の音声情報を取得した場合には、音声認識処理により、テキスト情報としての「五重塔」を得る。   For example, when image information of a five-storied pagoda is acquired as content information, “5-storied pagoda” as text information is obtained by a Web image search technique. Further, when the five-storied pagoda audio information is acquired as the content information, “5-storied pagoda” as the text information is obtained by the voice recognition process.

語数算出部207は、物理オブジェクト情報取得部205により取得された物理オブジェクト情報に含まれる物理オブジェクトの名称等の固有名詞、関連語、及び非関連語の各情報が、必要に応じてコンテンツ情報から変換されたテキスト情報に含まれる語数を算出する。なお、物理オブジェクトDB211が保持するキーワード情報に非関連語の情報が含まれない場合には、語数算出部207は、関連語に基づいて非関連語を推測してもよい。   The number-of-words calculation unit 207 obtains information on proper nouns such as names of physical objects, related words, and unrelated words included in the physical object information acquired by the physical object information acquisition unit 205 from the content information as necessary. The number of words included in the converted text information is calculated. Note that if the keyword information held in the physical object DB 211 does not include unrelated word information, the word count calculation unit 207 may infer an unrelated word based on the related word.

例えば、物理オブジェクトの固有名詞が「五重塔」である場合には、テキスト情報としての「五重塔」が、テキスト情報にいくつ含まれているかカウントされる。また、例えば、テキスト情報としての「木造」、「日本最古」、「1000年」などの五重塔と関連性の高い語句が、テキスト情報に関連語としていくつ含まれているかカウントされる。また、例えば、テキスト情報としての「コンクリート」などの五重塔とは関連性が低い語句が、テキスト情報に非関連語としていくつ含まれているかカウントされる。   For example, when the proper noun of the physical object is “5-storied pagoda”, the number of “5-storied pagoda” as text information is counted. Further, for example, the number of words / phrases that are highly relevant to the five-storied pagoda such as “wooden”, “oldest in Japan”, “1000” as text information is counted as related words. Also, for example, the number of words or phrases that are not related to the five-storied pagoda such as “concrete” as text information is counted as unrelated words in the text information.

関連度算出部208は、語数算出部207に算出された物理オブジェクトの固有名詞数、関連語数、及び非関連語数に基づいて、関連度を算出する。関連度は、例えば下記の(式4)により表わされる。   The degree of association calculation unit 208 calculates the degree of association based on the number of proper nouns, the number of related words, and the number of unrelated words of the physical object calculated by the word number calculation unit 207. The degree of association is expressed by, for example, the following (Formula 4).

関連度=(固有名詞数×固有名詞重み係数+関連語数×関連重み係数−非関連語×非関連重み係数)/総ワード数・・・(式4)   Relevance = (number of proper nouns x proper noun weighting coefficient + number of related words x related weighting coefficient-unrelated word x unrelated weighting coefficient) / total number of words (Equation 4)

ここで、固有名詞重み係数は、固有名詞の重要度に応じて設定される重み係数である。関連重み係数は、関連語の重要度に応じて設定される重み係数である。非関連重み係数は、非関連語の重要度に応じて設定される重み係数である。各重み係数は、0%〜100%の間で設定される。総ワード数は、テキスト情報に含まれる語句の総数である。なお、各重み係数は、物理オブジェクトの属性に基づいて設定される。   Here, the proper noun weighting factor is a weighting factor set according to the importance of the proper noun. The related weighting factor is a weighting factor set according to the importance of the related word. The unrelated weight coefficient is a weight coefficient set according to the importance of the unrelated word. Each weighting factor is set between 0% and 100%. The total number of words is the total number of words included in the text information. Each weighting factor is set based on the attribute of the physical object.

例えば、一意に特定可能な固有名詞を持つ物理オブジェクトであれば、固有名詞重み係数を大きい値に設定する。また、一意に特定可能な固有名詞を持たない物理オブジェクトであれば、関連重み係数を大きい値に設定する。また、物理オブジェクトの類似情報が多いことが想定される場合には、非関連重み係数を小さい値に設定する。   For example, if the physical object has a proper noun that can be uniquely identified, the proper noun weighting coefficient is set to a large value. For a physical object that does not have a uniquely identifiable proper noun, the related weight coefficient is set to a large value. If it is assumed that there is a lot of similar information of the physical object, the unrelated weight coefficient is set to a small value.

したがって、関連度算出部208は、関連度を、例えば、(24個×80%+46個×40%−13個×80%)/254個≒11%、のように算出する。ここでの識別レベルの最大値は、10である。ここでの関連度は、0%〜100%の値である。   Therefore, the degree-of-association calculation unit 208 calculates the degree of association as, for example, (24 × 80% + 46 × 40% −13 × 80%) / 254 = 11%. The maximum value of the identification level here is 10. The degree of association here is a value of 0% to 100%.

また、関連度算出部208は、受信部201により複数の物理オブジェクト識別情報を受信した場合には、各物理オブジェクトについて関連度を算出し、さらに全体の物理オブジェクトについても関連度を算出する。   In addition, when the reception unit 201 receives a plurality of pieces of physical object identification information, the degree-of-association calculation unit 208 calculates the degree of association for each physical object and further calculates the degree of association for the entire physical object.

また、上記のように、関連度の算出の際に非関連語を考慮することで、物理オブジェクトの固有名詞と関連語とだけでは誤検出し易い類似情報をフィルタリングすることが可能である。   Further, as described above, by considering unrelated words when calculating the degree of relevance, it is possible to filter similar information that is likely to be erroneously detected only with the proper nouns and related words of the physical object.

署名生成部209は、物理オブジェクトに対するコンテンツ情報の正当性を保証するため、署名情報を生成する。このとき、少なくとも情報管理サーバ200を識別するための情報管理サーバ識別情報に基づいて署名情報を生成する。また、他の情報として、例えば、物理オブジェクト識別情報、物理オブジェクト情報、コンテンツ情報、対応度情報、関連度情報等にも基づいて、署名情報を生成してもよい。この署名情報は、情報管理サーバ200のアノテーション発行許可承認を意味するディジタル署名である。署名生成の方式としては、RSAなどの一般的なディジタル署名方式などがある。   The signature generation unit 209 generates signature information in order to guarantee the validity of the content information for the physical object. At this time, signature information is generated based on at least information management server identification information for identifying the information management server 200. Further, as other information, for example, signature information may be generated based on physical object identification information, physical object information, content information, correspondence information, relevance information, and the like. This signature information is a digital signature meaning annotation approval permission approval of the information management server 200. As a signature generation method, there is a general digital signature method such as RSA.

記憶部212は、各種情報を記憶する。例えば、所定の発行ポリシを記憶する。発行ポリシは、アノテーションの発行許可を行うための判定基準が記載された情報であり、コンテンツ情報、対応度情報、関連度情報等が公衆良識やサービス内容に反しないことを保証するものである。発行ポリシは、必要に応じて更新されてもよい。   The storage unit 212 stores various information. For example, a predetermined issue policy is stored. The issuance policy is information that describes a criterion for permitting the issuance of annotations, and guarantees that content information, correspondence level information, relevance level information, and the like do not violate public good sense or service content. The issue policy may be updated as necessary.

送信部210は、物理オブジェクト識別情報、コンテンツ情報、対応度情報、及び関連度情報を、情報表示装置300へ送信する。また、署名生成部209により生成された署名を含む署名情報を、これらの情報とともに送信してもよい。なお、通信により情報表示装置300へ送出する代わりに、例えば記憶媒体(CD−R、SDカード等)を介して情報表示装置300へ送出するようにしてもよい。   The transmission unit 210 transmits physical object identification information, content information, correspondence level information, and relevance level information to the information display device 300. Further, the signature information including the signature generated by the signature generation unit 209 may be transmitted together with the information. Instead of sending to the information display device 300 by communication, it may be sent to the information display device 300 via a storage medium (CD-R, SD card, etc.), for example.

また、送信部210は、記憶部212により記憶されている所定の発行ポリシを満たしている場合に限り、情報表示装置300への情報を送信するようにしてもよい。例えば、送信部210は、対応度算出部204により算出された対応度、関連度算出部208により算出された関連度の少なくとも一方が各閾値以上であったり、両方が各閾値以上であったりする場合に、発行ポリシを満たすものと判定し、各情報を送信する。   Further, the transmission unit 210 may transmit information to the information display device 300 only when the predetermined issue policy stored in the storage unit 212 is satisfied. For example, the transmission unit 210 may have at least one of the correspondence degree calculated by the correspondence degree calculation unit 204 and the association degree calculated by the association degree calculation unit 208 equal to or greater than each threshold value, or both may be equal to or greater than each threshold value. In this case, it is determined that the issued policy is satisfied, and each piece of information is transmitted.

情報管理サーバ200において、対応度情報、関連度情報、物理オブジェクト情報、コンテンツ情報を確認して、ディジタル署名により発行確認する例について説明した。このような構成によれば、情報管理サーバ200が一元的に確認できるため、構成が簡単になるというメリットがある。   The example in which the information management server 200 confirms the correspondence information, the relevance information, the physical object information, and the content information and confirms the issuance with the digital signature has been described. According to such a configuration, since the information management server 200 can be confirmed centrally, there is an advantage that the configuration is simplified.

一方、別の構成として、物理オブジェクトを実際に所有している所有者が所持または運用する物理オブジェクト管理サーバにおいて、所有者のポリシに基づき対応度情報、関連度情報、物理オブジェクト情報、コンテンツ情報を確認して、ディジタル署名により承認確認し、更に情報管理サーバにおいてディジタル署名により発行確認する構成としてもよい。このような構成により、物理オブジェクトの所有者の意図が的確に反映できるというメリットがある。   On the other hand, as another configuration, in the physical object management server owned or operated by the owner who actually owns the physical object, the correspondence information, the relevance information, the physical object information, and the content information are based on the owner's policy. It may be configured to confirm and confirm the approval with the digital signature, and further confirm the issue with the digital signature in the information management server. With such a configuration, there is an advantage that the intention of the owner of the physical object can be accurately reflected.

また、所有者のポリシ情報を情報管理サーバに備えておき、発行ポリシと所有者ポリシの両方に基づき発行確認する構成としてもよい。このような構成により、所有者の意図を反映しつつ、構成を簡単にできるというメリットがある。   Further, the policy information of the owner may be provided in the information management server, and the issue may be confirmed based on both the issue policy and the owner policy. Such a configuration has an advantage that the configuration can be simplified while reflecting the intention of the owner.

次に、情報表示装置300の構成について説明する。
図5は本発明の実施形態における情報表示装置300の構成例を示すブロック図である。
Next, the configuration of the information display device 300 will be described.
FIG. 5 is a block diagram illustrating a configuration example of the information display device 300 according to the embodiment of the present invention.

情報表示装置300は、カメラ部301、画像取得部302、特徴抽出部303、測距部305、測位部306、通信部307、検証解析部308、識別情報判定部309、利用ポリシ判定部310、合成部311、表示部312、記憶部313、を備える。   The information display device 300 includes a camera unit 301, an image acquisition unit 302, a feature extraction unit 303, a distance measurement unit 305, a positioning unit 306, a communication unit 307, a verification analysis unit 308, an identification information determination unit 309, a usage policy determination unit 310, A synthesis unit 311, a display unit 312, and a storage unit 313 are provided.

カメラ部301は、2D又は3Dの静止画像又は動画像を撮影する撮影装置であり、例えばCCDイメージセンサ、CMOSイメージセンサである。   The camera unit 301 is a photographing device that captures 2D or 3D still images or moving images, and is, for example, a CCD image sensor or a CMOS image sensor.

画像取得部302は、カメラ部301からの画像(ビデオスルー画像)を取得する。   The image acquisition unit 302 acquires an image (video through image) from the camera unit 301.

特徴抽出部303は、画像取得部302により取得された画像の特徴を抽出する特徴抽出処理を行う。この特徴抽出処理には、特徴点抽出やエッジ抽出等の公知の特徴抽出方法を用いる。   The feature extraction unit 303 performs feature extraction processing for extracting the features of the image acquired by the image acquisition unit 302. For this feature extraction process, a known feature extraction method such as feature point extraction or edge extraction is used.

また、特徴抽出部303は、抽出された特徴から、物理オブジェクトを認識する認識処理を行ってもよい。この認識処理には、パターンマッチング等の公知の画像認識方法を用いる。   The feature extraction unit 303 may perform recognition processing for recognizing a physical object from the extracted features. For this recognition processing, a known image recognition method such as pattern matching is used.

測距部305は、カメラ部301から特徴抽出部により抽出された特徴又はオブジェクト認識された物理オブジェクトまでの距離を測定する。距離の測定方法としては、例えば光学式、レーダー式の測距センサによる距離の測定が考えられる。   The distance measurement unit 305 measures the distance from the camera unit 301 to the feature extracted by the feature extraction unit or the physical object recognized by the object. As a distance measuring method, for example, distance measurement using an optical or radar distance measuring sensor can be considered.

測位部306は、情報表示装置300の位置を測定する。位置の測定方法としては、例えばGPS衛星を用いてGPS情報(緯度、経度、高度等)を取得すること、WLANを用いて位置情報を取得すること、が考えられる。また、測位部306は、所定の物理オブジェクトの位置を測定してもよい。このとき、測位部306は、情報表示装置300の位置をまず測定し、測距部305により物理オブジェクトまでの距離を測定し、図示しないセンサ(地磁気センサ)により情報表示装置300から見た物理オブジェクトの向きを測定する。そして、これらの測定結果に基づいて、測位部306又は通信部307は、物理オブジェトの位置を測定する。なお、この物理オブジェクトの位置の測定の計算は、情報管理サーバ200側で行われてもよい。   The positioning unit 306 measures the position of the information display device 300. As a position measuring method, for example, GPS information (latitude, longitude, altitude, etc.) is acquired using a GPS satellite, and position information is acquired using a WLAN. Further, the positioning unit 306 may measure the position of a predetermined physical object. At this time, the positioning unit 306 first measures the position of the information display device 300, measures the distance to the physical object by the distance measuring unit 305, and the physical object viewed from the information display device 300 by a sensor (geomagnetic sensor) (not shown). Measure the direction. Based on these measurement results, the positioning unit 306 or the communication unit 307 measures the position of the physical object. The calculation of the measurement of the position of the physical object may be performed on the information management server 200 side.

通信部307は、情報管理サーバ200の送信部210からの物理オブジェクト識別情報、コンテンツ情報(物理オブジェクトのアノテーション)、対応度情報、関連度情報、署名情報等を受信する。なお、通信により情報管理サーバ200からこれらの情報を取得する代わりに、例えば記憶媒体(CD−R、SDカード等)を介して情報管理サーバ200から取得してもよい。関連度情報の受信は省略可能である。   The communication unit 307 receives physical object identification information, content information (physical object annotation), correspondence information, relevance information, signature information, and the like from the transmission unit 210 of the information management server 200. Instead of acquiring these pieces of information from the information management server 200 through communication, the information may be acquired from the information management server 200 via a storage medium (CD-R, SD card, etc.), for example. Receiving the relevance information can be omitted.

検証解析部308は、通信部307により受信された署名情報を検証、解析する。例えば、検証解析の方式としては、RSAなどの一般的なディジタル署名方式の検証アルゴリズムなどがある。そして、検証解析部308は、通信部307により受信された情報の生成元が情報管理サーバ200であり、かつ、受信された情報の内容の完全性が確認された場合には、通信部307により受信された情報は正当であると判定する。   The verification analysis unit 308 verifies and analyzes the signature information received by the communication unit 307. For example, a verification analysis method includes a verification algorithm of a general digital signature method such as RSA. Then, when the generation source of the information received by the communication unit 307 is the information management server 200 and the completeness of the content of the received information is confirmed, the verification analysis unit 308 causes the communication unit 307 to It is determined that the received information is valid.

識別情報判定部309は、通信部307により受信された物理オブジェクト識別情報と、情報表示装置300により測定された物理オブジェクト識別情報と、を比較し、両者が略一致しているか否かを判定する。略一致とは、一致する場合を含み、情報提供装置100のユーザと情報表示装置300のユーザとの立ち位置、向き、身長の相違等を考慮し、ほぼ一致する場合には両方の物理オブジェクト識別情報を同一視する意図である。誤差をどの程度許容するかについては、予め利用ポリシに記載しておくことも可能である。   The identification information determination unit 309 compares the physical object identification information received by the communication unit 307 with the physical object identification information measured by the information display device 300, and determines whether or not both are substantially the same. . The term “substantially coincidence” includes the case of coincidence, taking into consideration the difference in standing position, orientation, height, etc. between the user of the information providing apparatus 100 and the user of the information display apparatus 300. The intention is to identify information. The extent to which the error is allowed can be described in advance in the usage policy.

情報表示装置300により測定された物理オブジェクト識別情報には、測位部306により測定された情報表示装置300又は物理オブジェクトの位置に係る位置情報、特徴抽出部303により抽出された特徴に係る特徴情報、測距部305により測定された距離情報、が含まれる。これらの位置情報、特徴情報、及び距離情報は、情報提供装置100が測定等により得た位置情報、特徴情報、及び距離情報と同種のものである。   The physical object identification information measured by the information display device 300 includes position information related to the position of the information display device 300 or physical object measured by the positioning unit 306, feature information related to the feature extracted by the feature extraction unit 303, The distance information measured by the distance measuring unit 305 is included. These position information, feature information, and distance information are the same type as the position information, feature information, and distance information obtained by the information providing apparatus 100 through measurement or the like.

記憶部313は、各種情報を記憶する。例えば、所定の利用ポリシを記憶する。利用ポリシは、アノテーションの利用判定基準が記載された情報であり、コンテンツ情報に係るコンテンツ、対応度情報に係る対応度、関連度情報に係る関連度等が、ユーザの嗜好や所属団体等の基準に反していないことを保証するものである。利用ポリシは、必要に応じて更新されてもよい。記憶部313は、例えば、利用ポリシとして、対応度及び関連度が所定値以上であるという情報を記憶する。   The storage unit 313 stores various information. For example, a predetermined usage policy is stored. The usage policy is information that describes the criteria for judging the usage of annotation. The content related to the content information, the degree of correspondence related to the degree of correspondence information, the degree of relevance related to the degree of association information, etc. are based on the user's preference, the organization, etc. It guarantees that it is not against. The usage policy may be updated as necessary. The storage unit 313 stores, for example, information that the degree of correspondence and the degree of association are greater than or equal to a predetermined value as a usage policy.

また、記憶部313は、アノテーションの重要度を示す重要度情報を記憶する。例えば、対応度、関連度が大きいものが重要であるという重要度情報が記憶されている場合には、この情報に基づいてアノテーションの提示順序を決定することができる。   The storage unit 313 stores importance level information indicating the importance level of the annotation. For example, in the case where importance level information indicating that a correspondence level and a high degree of association are important is stored, the presentation order of annotations can be determined based on this information.

利用ポリシ判定部310は、通信部307により受信された対応度情報及び関連度情報が、記憶部313に記憶されている所定の利用ポリシを満たしているか否かを判定する。例えば、対応度及び関連度の少なくとも一方が各閾値以上であったり、両方が各閾値以上であったりする場合に、利用ポリシを満たすものと判定する。なお、関連度情報の比較を省略し、対応度情報が所定の利用ポリシを満たしているか否かを判定してもよい。   The usage policy determination unit 310 determines whether the correspondence level information and the relevance level information received by the communication unit 307 satisfy a predetermined usage policy stored in the storage unit 313. For example, when at least one of the correspondence level and the relevance level is equal to or higher than each threshold value, or both are equal to or higher than each threshold value, it is determined that the usage policy is satisfied. Note that the comparison of the relevance information may be omitted, and it may be determined whether or not the correspondence information satisfies a predetermined usage policy.

合成部311は、カメラ部301により撮影された画像に含まれる物理オブジェクトであって、通信部307により受信された物理オブジェクト識別情報により識別される物理オブジェクトと、通信部307により受信されたアノテーションとしてのコンテンツ情報とを、対応付けて合成する。   The synthesizing unit 311 is a physical object included in the image captured by the camera unit 301 and is identified by the physical object identification information received by the communication unit 307 and the annotation received by the communication unit 307. The content information is synthesized in association with each other.

表示部312は、液晶ディスプレイ(LCD:Liquid Crystal Display)やヘッドマウントディスプレイ(HMD:Head Mounted Display)であり、合成部311により対応付けて合成された物理オブジェクトとアノテーションとを表示する。表示部312による表示では、例えば物理オブジェクトにアノテーションがオーバーレイ表示(重畳表示)される。また、表示部312は、他にプロジェクタを用いて物理オブジェクトにアノテーションを投影して表示するようにしてもよい。   The display unit 312 is a liquid crystal display (LCD) or a head mounted display (HMD), and displays physical objects and annotations synthesized in association with each other by the synthesis unit 311. In the display by the display unit 312, for example, an annotation is overlaid (superimposed) displayed on the physical object. In addition, the display unit 312 may project and display an annotation on a physical object using a projector.

なお、アノテーションが画像情報やテキスト情報である場合には、表示部312により物理オブジェクトとアノテーションとを対応付けて表示するがアノテーションが音声情報である場合には、表示部312の代わりに、物理オブジェクトに対応付けられたアノテーションを、図示しないスピーカ等を介して音声情報に基づく音声により提示してもよい。   When the annotation is image information or text information, the display unit 312 displays the physical object and the annotation in association with each other. However, when the annotation is audio information, the physical object is used instead of the display unit 312. Annotation associated with may be presented by voice based on voice information via a speaker or the like (not shown).

次に、物理オブジェクト識別情報の具体例について説明する。
図6は、物理オブジェクト識別情報の一例を示す図である。
Next, a specific example of physical object identification information will be described.
FIG. 6 is a diagram illustrating an example of physical object identification information.

本実施形態では、情報提供装置100は、カメラ部101により撮影された画像の情報を利用して、物理オブジェクトに対応するアノテーションの信頼性を確認することができるようにする。画像から、特徴抽出部103、測距部105、及び測位部106により、地物、移動体、場所を識別可能である。したがって、画像に認証を強化するための情報を付加した形でアノテーションに付加することで、物理オブジェクトとアノテーションとの関係性を明確化することができる。基本的な概念としては、情報設定部107により、特徴抽出時のビデオスルー画像を物理オブジェクト単位で分割し、単位毎に特徴情報を管理する。   In this embodiment, the information providing apparatus 100 can check the reliability of the annotation corresponding to the physical object using the information of the image captured by the camera unit 101. From the image, the feature extraction unit 103, the distance measurement unit 105, and the positioning unit 106 can identify the feature, the moving object, and the place. Therefore, the relationship between the physical object and the annotation can be clarified by adding the image to the annotation with information for enhancing authentication. As a basic concept, the information setting unit 107 divides a video through image at the time of feature extraction in units of physical objects, and manages feature information for each unit.

情報提供装置100から情報管理サーバ200へアノテーションを提供するときの物理オブジェクト識別情報の実装方法としては、情報設定部107により、Exif情報を拡張する方法、独自のヘッダ情報を付加する方法、画像自体に電子透かし等の情報隠蔽技術(Information hiding)を使って埋め込む方法、などが考えられる。   As a method of mounting physical object identification information when an annotation is provided from the information providing apparatus 100 to the information management server 200, a method of extending Exif information by the information setting unit 107, a method of adding unique header information, or the image itself For example, a method of embedding information using information hiding such as digital watermarking can be considered.

ここで、Exif情報を拡張する方法について説明する。物理オブジェクト単位毎に管理する特徴情報として、画像から取得可能な情報である、マーカー、QRコード、物理オブジェクトの輪郭となるエッジ部分の特徴点情報に加えて、物理オブジェクトを識別するための基準点となる識別位置、識別位置から物理オブジェクトまでの距離を想定する。識別位置については、GPS Infoタグの緯度、経度、向きの情報をそのまま利用することができる。また、Exif情報は、距離情報として、被写体距離の情報(Subject Distance)を有している。情報設定部107は、この情報を物理オブジェクト毎に拡張情報として設定する。   Here, a method for extending Exif information will be described. As feature information managed for each physical object unit, in addition to marker, QR code, and feature point information of the edge portion that is the outline of the physical object, which is information that can be acquired from the image, a reference point for identifying the physical object And the distance from the identification position to the physical object. For the identification position, the latitude, longitude, and direction information of the GPS Info tag can be used as it is. The Exif information includes subject distance information (Subject Distance) as distance information. The information setting unit 107 sets this information as extended information for each physical object.

アノテーションの正当性の検証は、情報表示装置300が行う。この検証時には、携帯電話等の多くのモバイル機器が有するカメラの基本機能であるオートフォーカス(AF)の測距機能を利用する。このとき、識別情報判定部309が、物理オブジェクトの付加情報として設定された距離情報に係る距離と、情報表示装置300により実際に測距された距離と、を比較する。識別情報判定部309は、画像や特徴点の比較に加えて、基準点からの複数距離を比較することで、実際の物理オブジェクトとその物理オブジェクトの映像などを区別することが可能となる。   The information display device 300 verifies the validity of the annotation. At the time of this verification, an autofocus (AF) distance measuring function which is a basic function of a camera included in many mobile devices such as mobile phones is used. At this time, the identification information determination unit 309 compares the distance related to the distance information set as the additional information of the physical object with the distance actually measured by the information display device 300. The identification information determination unit 309 can distinguish between an actual physical object and an image of the physical object by comparing a plurality of distances from the reference point in addition to comparing images and feature points.

また、情報提供装置100は、同一の物理オブジェクト群であっても、異なる基準点から測位してコンテンツを設定することで、同一の物理オブジェクト群の異なる観察面に関して、異なるコンテンツを設定することができる。   Further, the information providing apparatus 100 can set different contents for different observation planes of the same physical object group by positioning the content from different reference points and setting the content even in the same physical object group. it can.

図6に示すように、物理オブジェクト識別情報として、移動体、地物、場所等の属性を示す属性情報、特徴抽出方式を示す特徴抽出方式情報、物理オブジェクトの特徴を示すオブジェクト特徴情報、特徴抽出の精度を示す特徴抽出精度情報、測距方式を示す測距方式情報、測距精度を示す測距精度情報、基準点(例えばカメラ部101が存在する点)から物理オブジェクトまでの距離を示すオブジェクト距離情報、カメラ部101による撮影方向と物理オブジェクトとの成す角度を示す物理オブジェクト角度情報、の各情報を含むことができる。物理オブジェクト角度情報に係る角度のマイナス符号(−)は、カメラ部101による撮影方向を基準として、プラス符号の角度とは反対側の角度であることを示している。これらの情報は、物理オブジェクト毎に設定される。   As shown in FIG. 6, as physical object identification information, attribute information indicating attributes of a moving object, a feature, a place, etc., feature extraction method information indicating a feature extraction method, object feature information indicating features of a physical object, feature extraction Feature extraction accuracy information indicating accuracy, distance measurement method information indicating distance measurement method, distance measurement accuracy information indicating distance measurement accuracy, and object indicating a distance from a reference point (for example, a point where the camera unit 101 exists) to a physical object Each information of distance information and physical object angle information indicating an angle formed by a shooting direction by the camera unit 101 and a physical object can be included. The minus sign (−) of the angle related to the physical object angle information indicates that the angle is the opposite side of the plus sign angle with reference to the shooting direction by the camera unit 101. These pieces of information are set for each physical object.

また、図6に示すように、物理オブジェクト識別情報の基本情報として、測位方式を示す測位方式情報、物理オブジェクトの位置を示すオブジェクト位置情報、測位精度を示す測位精度情報、の各情報を含むことができる。これらの情報は、物理オブジェクト毎に設定されるものではなく、1又は複数の物理オブジェクトを含む撮影画像毎に設定される。   Further, as shown in FIG. 6, the basic information of the physical object identification information includes each information of positioning method information indicating the positioning method, object position information indicating the position of the physical object, and positioning accuracy information indicating the positioning accuracy. Can do. These pieces of information are not set for each physical object, but are set for each captured image including one or a plurality of physical objects.

次に、情報提供装置100の動作について説明する。
図7は、情報提供装置100の動作例を示すフローチャートである。
Next, the operation of the information providing apparatus 100 will be described.
FIG. 7 is a flowchart illustrating an operation example of the information providing apparatus 100.

まず、画像取得部102は、カメラ部101により撮影された画像を取得し(ステップS101)、特徴抽出部103は、取得した画像の特徴を抽出する(ステップS102)。   First, the image acquisition unit 102 acquires an image captured by the camera unit 101 (step S101), and the feature extraction unit 103 extracts features of the acquired image (step S102).

ここでは、画像の特徴が場所を示す場合には、番地表示やストリート名等を文字認識する。また、画像の特徴が人を示す場合には、人が身に付けている名札等を文字認識する、又は、その特徴点を抽出する。また、画像の特徴が車を示す場合には、車のナンバープレート等を文字認識する、又は、その特徴点を抽出する。また、画像の特徴が地物を示す場合には、ビル名、銅像名等を文字認識、又は、その特徴点を抽出する。   Here, when the feature of the image indicates a place, the address display, the street name, and the like are recognized as characters. In addition, when the feature of the image indicates a person, the name tag or the like worn by the person is recognized or the feature point is extracted. Further, when the feature of the image indicates a car, the number plate of the car is recognized or characters are extracted. When the feature of the image indicates a feature, the building name, the bronze image name, etc. are recognized as characters or the feature points are extracted.

続いて、領域指定部104は、特徴抽出部103により特徴点抽出又はオブジェクト認識された物理オブジェクトから、アノテーションを付加すべき物理オブジェクトの領域を指定する。このとき、例えば、操作部108としてのタッチパネルを介して、画面上で物理オブジェクトにタッチすることで、物理オブジェクトの領域を指定する(ステップS103)。   Subsequently, the area designating unit 104 designates the area of the physical object to which the annotation is to be added from the physical objects whose feature points have been extracted or recognized by the feature extracting unit 103. At this time, for example, an area of the physical object is specified by touching the physical object on the screen via the touch panel as the operation unit 108 (step S103).

続いて、測距部105は、情報提供装置100から領域指定部104により指定された物理オブジェクトまでの距離を測定する(ステップS104)。   Subsequently, the distance measuring unit 105 measures the distance from the information providing apparatus 100 to the physical object specified by the area specifying unit 104 (step S104).

続いて、測位部106は、GPS等を用いて情報提供装置100の位置を測定する(ステップS105)。   Subsequently, the positioning unit 106 measures the position of the information providing apparatus 100 using GPS or the like (step S105).

続いて、情報設定部107は、オブジェクト識別情報を画像のメタデータに設定する。例えば、Exif情報に、物理オブジェクト毎に、特徴情報及び距離情報を設定(付加)し、更に共通情報として位置情報を設定する(ステップS106)。   Subsequently, the information setting unit 107 sets the object identification information in the metadata of the image. For example, feature information and distance information are set (added) to the Exif information for each physical object, and position information is set as common information (step S106).

続いて、コンテンツ生成部109は、操作部108等を介して、領域指定部104により指定された物理オブジェクトに対応するアノテーションとしてのコンテンツ情報を生成する(ステップS107)。   Subsequently, the content generation unit 109 generates content information as an annotation corresponding to the physical object specified by the region specification unit 104 via the operation unit 108 or the like (step S107).

続いて、送信部110は、情報設定部107により設定されたオブジェクト識別情報を含む画像の情報と、コンテンツ生成部109により生成されたコンテンツ情報と、を情報管理サーバ200へ送信する(ステップS108)。   Subsequently, the transmission unit 110 transmits the image information including the object identification information set by the information setting unit 107 and the content information generated by the content generation unit 109 to the information management server 200 (step S108). .

このような情報提供装置100によれば、物理オブジェクト識別情報に基づいて対応度及び関連度を生成させることができ、生成されたアノテーションが信頼性の高いアノテーションであると判断させることができる。   According to such an information providing apparatus 100, the degree of correspondence and the degree of association can be generated based on the physical object identification information, and it can be determined that the generated annotation is a highly reliable annotation.

次に、情報管理サーバ200の動作について説明する。
図8及び図9は、情報管理サーバ200の動作例を示すフローチャートである。
Next, the operation of the information management server 200 will be described.
8 and 9 are flowcharts illustrating an operation example of the information management server 200.

まず、受信部201は、情報提供装置100からのオブジェクト識別情報を含む画像の情報と、コンテンツ情報と、を受信する(ステップS201)。   First, the receiving unit 201 receives image information including object identification information and content information from the information providing apparatus 100 (step S201).

続いて、物理オブジェクト情報取得部205は、物理オブジェクトDB211を参照し、受信部201により受信された物理オブジェクト特徴情報に対応する物理オブジェクト情報を取得する(ステップS202)。   Subsequently, the physical object information acquisition unit 205 refers to the physical object DB 211 and acquires physical object information corresponding to the physical object feature information received by the reception unit 201 (step S202).

続いて、識別レベル算出部202は、オブジェクト識別情報に含まれる特徴情報に含まれる特徴抽出方式情報から特徴抽出方式レベルを割り当て、距離情報に含まれる測距方式情報から測距方式レベルを割り当てる。また、識別レベル算出部202は、特徴情報に含まれる特徴抽出精度情報から抽出精度係数を割り当て、距離情報に含まれる測距精度情報から測距精度係数を割り当てる(ステップS203)。例えば、情報管理サーバ200は、特許抽出方式情報等と特徴抽出方式レベル等とを対応付ける変換テーブル等を有することで、上記割当が可能となる。   Subsequently, the identification level calculation unit 202 assigns a feature extraction method level from the feature extraction method information included in the feature information included in the object identification information, and assigns a distance measurement method level from the distance measurement method information included in the distance information. Also, the identification level calculation unit 202 assigns an extraction accuracy coefficient from the feature extraction accuracy information included in the feature information, and assigns a ranging accuracy coefficient from the distance measurement accuracy information included in the distance information (step S203). For example, the information management server 200 has the conversion table that associates the patent extraction method information and the like with the feature extraction method level and the like, so that the above assignment is possible.

続いて、識別レベル算出部202は、特徴抽出方式レベル、測距方式レベル、抽出精度係数、測距精度係数に基づいて、識別レベルを算出する(ステップS204)。例えば、先に説明した(式1)に示した演算式により、識別レベルを算出する。   Subsequently, the identification level calculation unit 202 calculates an identification level based on the feature extraction method level, the distance measurement method level, the extraction accuracy coefficient, and the distance measurement accuracy coefficient (step S204). For example, the identification level is calculated by the arithmetic expression shown in (Expression 1) described above.

続いて、測位レベル算出部203は、オブジェクト識別情報に含まれる位置情報に含まれる測位方式情報から測位方式レベルを割り当て、位置情報に含まれる測位精度情報から測位精度係数を割り当てる(ステップS205)。例えば、情報管理サーバ200は、測位方式情報等と測位方式レベル等とを対応付ける変換テーブル等を有することで、上記割当が可能となる。   Subsequently, the positioning level calculation unit 203 assigns a positioning method level from the positioning method information included in the position information included in the object identification information, and assigns a positioning accuracy coefficient from the positioning accuracy information included in the position information (step S205). For example, the information management server 200 has the conversion table that associates the positioning method information and the like with the positioning method level and the like, so that the above assignment is possible.

続いて、測位レベル算出部203は、測位方式レベル及び測位精度係数に基づいて、測位レベルを算出する。例えば、先に説明した(式2)に示した演算式により、測位レベルを算出する(ステップS206)。   Subsequently, the positioning level calculation unit 203 calculates a positioning level based on the positioning method level and the positioning accuracy coefficient. For example, the positioning level is calculated by the arithmetic expression shown in (Expression 2) described above (step S206).

続いて、対応度算出部204は、物理オブジェクト情報取得部205により取得された物理オブジェクト情報に含まれる属性情報(車、人、場所等)に応じて、識別重み係数と測位重み係数とを割り当てる(ステップS207)。   Subsequently, the correspondence degree calculation unit 204 assigns an identification weight coefficient and a positioning weight coefficient according to attribute information (car, person, place, etc.) included in the physical object information acquired by the physical object information acquisition unit 205. (Step S207).

続いて、対応度算出部204は、識別レベル、測位レベル、識別重み係数、測位重み係数に基づいて、対応度を算出する(ステップS208)。例えば、先に説明した(式3)に示した演算式により、対応度を算出する。   Subsequently, the correspondence level calculation unit 204 calculates the correspondence level based on the identification level, the positioning level, the identification weight coefficient, and the positioning weight coefficient (step S208). For example, the correspondence degree is calculated by the arithmetic expression shown in (Expression 3) described above.

続いて、テキスト変換部206は、受信部201により受信されたコンテンツ情報が、テキスト情報以外の画像情報、音声情報等である場合には、その情報をテキスト情報に変換する(ステップS209)。   Subsequently, when the content information received by the receiving unit 201 is image information other than text information, audio information, or the like, the text conversion unit 206 converts the information into text information (step S209).

続いて、語数算出部207は、コンテンツ情報としてのテキスト情報又はテキスト変換部206により変換されたテキスト情報に、物理オブジェクト情報取得部205により取得された物理オブジェクト情報に含まれる固有名詞、関連語、非関連語が含まれている個数を算出する(ステップS210)。また、語数算出部207は、テキスト情報に含まれる総ワード数も算出する。   Subsequently, the word count calculation unit 207 adds the proper noun, the related word, the text information as the content information or the text information converted by the text conversion unit 206, which is included in the physical object information acquired by the physical object information acquisition unit 205, The number of unrelated words is calculated (step S210). The word number calculation unit 207 also calculates the total number of words included in the text information.

続いて、関連度算出部208は、物理オブジェクト情報取得部205により取得された物理オブジェクト情報に含まれる属性情報に基づいて、固有名詞重み係数、関連重み係数、非関連重み係数を割り当てる(ステップS211)。例えば、情報管理サーバ200は、属性情報と各重み係数とを対応付ける変換テーブルを有することで、上記割当が可能となる。   Subsequently, the relevance calculation unit 208 assigns a proper noun weight coefficient, a related weight coefficient, and an unrelated weight coefficient based on attribute information included in the physical object information acquired by the physical object information acquisition unit 205 (step S211). ). For example, the information management server 200 has the conversion table that associates the attribute information with each weighting factor, so that the above assignment is possible.

続いて、関連度算出部208は、固有名詞数、関連語数、非関連語数、総ワード数、固有名詞重み係数、関連重み係数、非関連重み係数に基づいて、関連度を算出する(ステップS212)。例えば、先に説明した(式4)に示した演算式により、関連度を算出する。   Subsequently, the relevance calculation unit 208 calculates the relevance based on the number of proper nouns, the number of related words, the number of unrelated words, the total number of words, the proper noun weight coefficient, the related weight coefficient, and the non-related weight coefficient (step S212). ). For example, the relevance is calculated by the arithmetic expression shown in (Expression 4) described above.

また、署名生成部209は、署名情報を生成する。そして、送信部210は、例えば情報表示装置300からアノテーションの要求を受けた場合には、オブジェクト識別情報、アノテーション、対応度情報、関連度情報、署名情報等を送信する。   In addition, the signature generation unit 209 generates signature information. For example, when receiving a request for annotation from the information display device 300, the transmission unit 210 transmits object identification information, annotation, correspondence information, relevance information, signature information, and the like.

このような情報管理サーバ200の動作によれば、物理オブジェクトとアノテーションとの対応度及び関連度(少なくとも対応度)を算出することで、アノテーションの信頼度を例えば数値化して提供することができる。   According to such an operation of the information management server 200, the reliability of the annotation can be provided, for example, in numerical form by calculating the degree of correspondence and the degree of association (at least the degree of correspondence) between the physical object and the annotation.

次に、情報表示装置300の動作について説明する。
図10は、情報表示装置300の動作例を示すフローチャートである。
Next, the operation of the information display device 300 will be described.
FIG. 10 is a flowchart illustrating an operation example of the information display apparatus 300.

まず、測位部306は、GPS、地磁気センサ等を用いて、情報表示装置300の位置、方位等を測定する(ステップS301)。   First, the positioning unit 306 measures the position, orientation, and the like of the information display device 300 using a GPS, a geomagnetic sensor, or the like (step S301).

続いて、通信部307は、情報表示装置300の位置、方位等を用いて、1又は複数の物理オブジェクト識別情報、物理オブジェクト識別情報に対応するアノテーション、対応度情報、関連度情報、等を情報管理サーバ200から取得する(ステップS302)。このとき、情報表示装置300の位置等の情報を情報管理サーバ200へ送信し、その位置等に対応する物理オブジェクト識別情報、アノテーション等を情報管理サーバ200から取得してもよい。また、特徴抽出部303、測距部305、測位部306等の識別情報検出部により検出された情報(オブジェクト識別情報)を情報管理サーバ200へ送信し、その物理オブジェクト識別情報に対応するアノテーション等を情報管理サーバ200から取得してもよい。   Subsequently, the communication unit 307 uses the position, orientation, and the like of the information display device 300 as information on one or more physical object identification information, annotations corresponding to the physical object identification information, correspondence information, relevance information, and the like. Obtained from the management server 200 (step S302). At this time, information such as the position of the information display device 300 may be transmitted to the information management server 200, and physical object identification information, annotations, and the like corresponding to the position may be acquired from the information management server 200. In addition, information (object identification information) detected by the identification information detection unit such as the feature extraction unit 303, the distance measurement unit 305, or the positioning unit 306 is transmitted to the information management server 200, and annotations corresponding to the physical object identification information are transmitted. May be acquired from the information management server 200.

続いて、検証解析部308は、通信部307により受信された署名情報を検証する。検証の結果、情報管理サーバ200からの情報が正当であると判定された場合、つまり署名情報により送信元や送信内容の同一性が保証された場合には、通信部307により受信されたオブジェクト識別情報の解析を行う(ステップS303)。なお、署名は省略されていることもある。   Subsequently, the verification analysis unit 308 verifies the signature information received by the communication unit 307. As a result of the verification, when it is determined that the information from the information management server 200 is valid, that is, when the identity of the transmission source and the transmission content is guaranteed by the signature information, the object identification received by the communication unit 307 is identified. Information is analyzed (step S303). The signature may be omitted.

続いて、画像取得部302は、カメラ部301により撮影された画像を取得し(ステップS304)、特徴抽出部303は、取得した画像の特徴を抽出する(ステップS305)。   Subsequently, the image acquisition unit 302 acquires an image captured by the camera unit 301 (step S304), and the feature extraction unit 303 extracts the feature of the acquired image (step S305).

ここでは、画像の特徴が場所を示す場合には、番地表示やストリート名等を文字認識する。また、画像の特徴が人を示す場合には、人が身に付けている名札等を文字認識する、又は、その特徴点を抽出する。また、画像の特徴が車を示す場合には、車のナンバープレート等を文字認識する、又は、その特徴点を抽出する。また、画像の特徴が地物を示す場合には、ビル名、銅像名等を文字認識、又は、その特徴点を抽出する。   Here, when the feature of the image indicates a place, the address display, the street name, and the like are recognized as characters. In addition, when the feature of the image indicates a person, the name tag or the like worn by the person is recognized or the feature point is extracted. Further, when the feature of the image indicates a car, the number plate of the car is recognized or characters are extracted. When the feature of the image indicates a feature, the building name, the bronze image name, etc. are recognized as characters or the feature points are extracted.

続いて、測距部305は、情報表示装置300から特徴抽出部303により抽出された特徴点又はオブジェクト認識された物理オブジェクトまでの距離を測定する(ステップS306)。   Subsequently, the distance measurement unit 305 measures the distance from the information display device 300 to the feature point extracted by the feature extraction unit 303 or the physical object recognized by the object (step S306).

続いて、識別情報判定部309は、特徴抽出部303、測距部305、測位部306により測定された物理オブジェクト識別情報と通信部307により受信された物理オブジェクト識別情報とが略一致するか否かを判定する(ステップS307)。例えば、測定された特徴情報及び受信された特徴情報(特にオブジェクト特徴情報)、測定された距離情報及び受信された距離情報、測定された位置情報及び受信された位置情報、が各々ほぼ同一である場合には、略一致すると判定される。   Subsequently, the identification information determination unit 309 determines whether the physical object identification information measured by the feature extraction unit 303, the distance measurement unit 305, and the positioning unit 306 substantially matches the physical object identification information received by the communication unit 307. Is determined (step S307). For example, measured feature information and received feature information (especially object feature information), measured distance information and received distance information, measured position information and received position information are almost the same. In this case, it is determined that they are substantially the same.

両物理オブジェクト識別情報が略一致すると判定された場合には、利用ポリシ判定部310は、記憶部313により記憶された利用ポリシを参照し、通信部307により受信された対応度情報及び関連度情報が利用ポリシを満たしているか否かを判定する(ステップS308)。例えば、対応度情報に係る対応度と関連度情報に係る関連度とを合算した結果、所定値以上である場合に、利用ポリシを満たすと判定することができる。利用ポリシを満たす場合には、物理オブジェクトに対応するアノテーションが信頼性が高いものであると判断できる。   When it is determined that the two physical object identification information substantially match, the usage policy determination unit 310 refers to the usage policy stored in the storage unit 313, and the correspondence level information and the relevance level information received by the communication unit 307. It is determined whether or not satisfies the usage policy (step S308). For example, it is possible to determine that the usage policy is satisfied when the degree of correspondence according to the degree of correspondence information and the degree of association according to the degree of association information are equal to or greater than a predetermined value. When the usage policy is satisfied, it can be determined that the annotation corresponding to the physical object has high reliability.

上記の利用ポリシを満たす場合には、表示部312は、利用ポリシを満たすアノテーションを、物理オブジェクトに対応付けて合成表示する(ステップS309)。このとき、アノテーションが複数存在する場合には、記憶部313に記憶された重要度順に提示してもよい。例えば、対応度及び関連度が大きい順に表示することができる。また、表示部312は、対応度及び関連度の少なくとも1つをアノテーションと同時に表示してもよい。また、表示部312は、利用ポリシを満たす場合には、アノテーションと同時に、利用ポリシを満たす旨を表示してもよい。利用ポリシを満たす旨は、例えば、文字、アイコン、色等により表示される。なお、表示以外の方法で提示してもよい。   If the usage policy is satisfied, the display unit 312 combines and displays the annotation that satisfies the usage policy in association with the physical object (step S309). At this time, when there are a plurality of annotations, they may be presented in order of importance stored in the storage unit 313. For example, they can be displayed in descending order of correspondence and relevance. Further, the display unit 312 may display at least one of the correspondence level and the relevance level simultaneously with the annotation. In addition, when the usage policy is satisfied, the display unit 312 may display that the usage policy is satisfied simultaneously with the annotation. The fact that the usage policy is satisfied is displayed by, for example, characters, icons, colors, and the like. It may be presented by a method other than display.

このような情報表示装置300の動作によれば、物理オブジェクトに対応するアノテーションのうち、信頼性の高いアノテーションを簡単に識別できるように、ユーザに提示することができる。したがって、ユーザは提示されたアノテーションを安心して利用することができる。   According to such an operation of the information display device 300, it is possible to present to the user so that a highly reliable annotation among the annotations corresponding to the physical object can be easily identified. Therefore, the user can use the presented annotation with peace of mind.

このような本実施形態の仮想現実感システムによれば、物理オブジェクトとアノテーションとの関連性を保証することが可能である。例えば、情報提供装置100が所望の物理オブジェクトに対してアノテーションを付与したつもりであっても、情報管理サーバ200での管理中に他の物理オブジェクトに対するアノテーションとして差し替えられてしまったとする。このような場合であっても、情報管理サーバ200が算出する対応度及び関連度に応じて、アノテーションの予期しない差し替えを発見することができる。このように、評価情報としてのアノテーションの不正使用や成りすまし等を検出することができる。   According to such a virtual reality system of this embodiment, it is possible to guarantee the relationship between a physical object and an annotation. For example, even if the information providing apparatus 100 intends to give an annotation to a desired physical object, the information providing apparatus 100 is replaced as an annotation for another physical object during management by the information management server 200. Even in such a case, an unexpected replacement of the annotation can be found according to the correspondence level and the relevance level calculated by the information management server 200. In this way, unauthorized use or impersonation of annotation as evaluation information can be detected.

また、否定的な(Negative)アノテーションが多数貼り付けられ、そのアノテーションが事実であると誤認されることにより、アノテーションに対応する店舗や個人等が風評被害を受けることを防止可能である。   In addition, a large number of negative annotations are pasted, and it is possible to prevent a store, an individual, or the like corresponding to the annotation from being damaged by reputation because the annotation is misidentified.

また、対応度を確認することで、物理オブジェクトとアノテーションとがどの程度物理的に関係しているかを判断することができる。また、物理オブジェクトが移動体、場所、地物のいずれであったとしても、物理オブジェクトとアノテーションとの対応度を正確に算出することができる。また、関連度を確認することで、物理オブジェクトとアノテーションとがどの程度意味的に関係しているかを判断することができる。   In addition, by checking the degree of correspondence, it is possible to determine how physically the physical object and the annotation are related. In addition, regardless of whether the physical object is a moving object, a place, or a feature, the degree of correspondence between the physical object and the annotation can be accurately calculated. Further, by checking the degree of association, it is possible to determine how semantically related the physical object and the annotation are.

また、情報管理サーバ200は、受信部201により物理オブジェクト識別情報、コンテンツ情報等を受信するのではなく、情報管理サーバ200自体が物理オブジェクト識別情報に含まれる情報を測定したり、コンテンツ情報を生成したりしてもよい。   In addition, the information management server 200 does not receive physical object identification information, content information, and the like by the receiving unit 201, but the information management server 200 itself measures information included in the physical object identification information and generates content information. You may do it.

また、情報提供装置100が、情報管理サーバ200としての機能を有していてもよい。   Further, the information providing apparatus 100 may have a function as the information management server 200.

また、本実施形態の拡張現実感システム1としては、情報提供装置100、情報管理サーバ200、及び情報表示装置300を備えるサーバ−クライアントタイプのシステムを想定し、情報管理サーバ200を介して複数のクライアント間でアノテーションを共有することを説明したが、スタンドアローンタイプのシステムであってもよい。   In addition, as the augmented reality system 1 of the present embodiment, a server-client type system including the information providing apparatus 100, the information management server 200, and the information display apparatus 300 is assumed, and a plurality of information is provided via the information management server 200. Although it has been described that annotations are shared between clients, a stand-alone type system may be used.

本発明は、物理オブジェクトとアノテーションとの関連性を保証することが可能な情報処理装置、拡張現実感システム、情報処理プログラム等に有用である。   The present invention is useful for an information processing apparatus, an augmented reality system, an information processing program, and the like that can guarantee the relationship between a physical object and an annotation.

1 拡張現実感システム
100 情報提供装置
101 カメラ部
102 画像取得部
103 特徴抽出部
104 領域指定部
105 測距部
106 測位部
107 情報設定部
108 操作部
109 コンテンツ生成部
110 送信部
200 情報管理サーバ
201 受信部
202 識別レベル算出部
203 測位レベル算出部
204 対応度算出部
205 物理オブジェクト情報取得部
206 テキスト変換部
207 語数算出部
208 関連度算出部
209 署名生成部
210 送信部
211 物理オブジェクトDB
212 記憶部
300 情報表示装置
301 カメラ部
302 画像取得部
303 特徴抽出部
305 測距部
306 測位部
307 通信部
308 検証解析部
309 識別情報判定部
310 利用ポリシ判定部
311 合成部
312 表示部
313 記憶部
DESCRIPTION OF SYMBOLS 1 Augmented reality system 100 Information provision apparatus 101 Camera part 102 Image acquisition part 103 Feature extraction part 104 Area designation part 105 Distance measurement part 106 Positioning part 107 Information setting part 108 Operation part 109 Content generation part 110 Transmission part 200 Information management server 201 Receiver 202 Identification level calculator 203 Positioning level calculator 204 Correspondence calculator 205 Physical object information acquisition unit 206 Text converter 207 Word count calculator 208 Relevance calculator 209 Signature generator 210 Transmitter 211 Physical object DB
212 storage unit 300 information display device 301 camera unit 302 image acquisition unit 303 feature extraction unit 305 distance measurement unit 306 positioning unit 307 communication unit 308 verification analysis unit 309 identification information determination unit 310 usage policy determination unit 311 synthesis unit 312 display unit 313 storage Part

本発明の情報処理装置は、画像を取得する画像取得部と、前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出する識別情報検出部と、所定の物理オブジェクトを識別するための物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションと、前記物理オブジェクトと前記アノテーションとの意味的な関連度を示す関連度情報と、を取得する情報取得部と、前記識別情報検出部により検出された物理オブジェクト識別情報と、前記情報取得部により取得された物理オブジェクト識別情報と、が略一致するか否かを判定する識別情報判定部と、前記識別情報判定部により略一致すると判定された場合、前記物理オブジェクトの前記アノテーションの前記関連度情報が、所定の利用ポリシを満たすか否かを判定する利用ポリシ判定部と、前記利用ポリシ判定部により前記利用ポリシを満たすと判定された場合、前記アノテーションを提示するアノテーション提示部と、を備える。 An information processing apparatus of the present invention identifies an image acquisition unit that acquires an image, an identification information detection unit that detects physical object identification information for identifying a physical object included in the image, and a predetermined physical object Detected by the identification information detection unit, an information acquisition unit that acquires physical object identification information, an annotation of the physical object, and relevance information indicating a semantic relevance between the physical object and the annotation. The identification information determination unit for determining whether or not the physical object identification information substantially matches the physical object identification information acquired by the information acquisition unit, and the identification information determination unit the relevance information of the annotation of the physical objects, meets a predetermined usage policy And determining usage policy determining section whether, if the it is determined to satisfy the usage policy by utilizing policy judgment section, and a annotation presentation unit for presenting the annotation.

また、本発明の情報処理装置は、前記情報取得部が、前記物理オブジェクトと前記アノテーションとの物理的な対応度を示す対応度情報を取得し、前記利用ポリシ判定部は、前記識別情報判定部により略一致すると判定された場合、前記物理オブジェクトの前記アノテーションの前記対応度情報と前記関連度情報とが、所定の利用ポリシを満たすか否かを判定する。 In the information processing apparatus according to the present invention, the information acquisition unit acquires correspondence level information indicating a physical correspondence level between the physical object and the annotation, and the usage policy determination unit includes the identification information determination unit. If it is determined that the values substantially match, it is determined whether the correspondence level information and the relevance level information of the annotation of the physical object satisfy a predetermined usage policy.

この構成により、物理オブジェクトとアノテーションとの関連性を対応度及び関連度により保証することが可能である。関連度のみで信頼性を判断するよりも、更に信頼性が向上する。 With this configuration, it is possible to guarantee the relevance between the physical object and the annotation by the correspondence level and the relevance level. The reliability is further improved as compared with the case where the reliability is determined based on the relevance alone.

また、本発明の情報処理装置は、前記物理オブジェクトのアノテーションを生成するアノテーション生成部と、前記物理オブジェクト毎に、前記アノテーション生成部により生成されたアノテーションと、前記識別情報検出部により検出された物理オブジェクト識別情報と、を送出する送出部と、を備える。 The information processing apparatus of the present invention, and annotations generator for generating an annotation before Symbol physical objects, for each of the physical objects, and annotations generated by the annotation generation unit, which is detected by the identification information detecting section A physical object identification information; and a transmission unit for transmitting the physical object identification information.

また、本発明の情報処理装置は、物理オブジェクトを識別するための物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションとを取得する情報取得部と、前記物理オブジェクト識別情報に基づいて、前記物理オブジェクトと当該物理オブジェクトのアノテーションとの意味的な関連度を算出する関連度算出部と、を備える。 Further, the information processing apparatus according to the present invention includes a physical object identification information for identifying a physical object, an information acquisition unit that acquires the annotation of the physical object, and the physical object based on the physical object identification information. A degree- of- association calculating unit that calculates a degree of semantic association with the annotation of the physical object.

この構成により、物理オブジェクトとアノテーションとの関連度を算出することで、アノテーションの信頼度を例えば数値化して提供することができる。 With this configuration, by calculating the degree of association between the physical object and the annotation, the reliability of the annotation can be provided, for example, in the form of a numerical value.

また、本発明の情報処理装置は、前記物理オブジェクトの識別情報とアノテーションに基づいて、前記物理オブジェクトと前記アノテーションとの物理的な対応度を算出する対応度算出部を備える。 The information processing apparatus according to the present invention further includes a correspondence calculation unit that calculates a physical correspondence between the physical object and the annotation based on the identification information of the physical object and the annotation.

この構成により、物理オブジェクトとアノテーションとの対応度を更に算出することで、アノテーションの信頼度を例えば数値化して提供することができる。 With this configuration, by further calculating the degree of correspondence between the physical object and the annotation, the reliability of the annotation can be provided, for example, as a numerical value.

本発明の拡張現実感システムは、物理オブジェクトに対応するアノテーションを提供する情報提供装置と、前記アノテーションを管理する情報管理サーバと、前記アノテーションを提示する情報提示装置と、を備える拡張現実感システムであって、前記情報提供装置は、画像を取得する画像取得部と、前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出する識別情報検出部と、前記物理オブジェクトのアノテーションを生成するアノテーション生成部と、前記物理オブジェクト毎に、前記アノテーション生成部により生成されたアノテーションと、前記識別情報検出部により検出された物理オブジェクト識別情報と、を送出する送出部と、を備え、前記情報管理サーバは、前記情報提供装置からの前記物理オブジェクト識別情報と前記アノテーションとを取得する情報取得部と、前記物理オブジェクト識別情報に基づいて、前記物理オブジェクトと当該物理オブジェクトのアノテーションとの意味的な関連度を算出する関連度算出部と、前記物理オブジェクト識別情報と、前記アノテーションと、前記関連度と、を送出する送出部と、を備え、前記情報提示装置は、画像を取得する画像取得部と、前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出する識別情報検出部と、前記情報管理サーバからの所定の物理オブジェクトを識別するための前記物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションと、前記関連度情報と、を取得する情報取得部と、前記識別情報検出部により検出された物理オブジェクト識別情報と、前記情報取得部により取得された物理オブジェクト識別情報と、が略一致するか否かを判定する識別情報判定部と、前記識別情報判定部により略一致すると判定された場合、前記物理オブジェクトの前記アノテーションの前記関連度が、所定の利用ポリシを満たすか否かを判定する利用ポリシ判定部と、前記利用ポリシ判定部により前記利用ポリシを満たすと判定された場合、前記アノテーションを提示するアノテーション提示部と、を備える。 An augmented reality system according to the present invention is an augmented reality system including an information providing device that provides an annotation corresponding to a physical object, an information management server that manages the annotation, and an information presentation device that presents the annotation. The information providing apparatus generates an image acquisition unit for acquiring an image, an identification information detection unit for detecting physical object identification information for identifying a physical object included in the image, and an annotation for the physical object An annotation generation unit that performs, for each physical object, a transmission unit that transmits the annotation generated by the annotation generation unit and the physical object identification information detected by the identification information detection unit. The management server sends the information from the information providing device. An information acquisition section for acquiring said the object identification information annotation, the degree-of-association calculation unit based on said physical object identification information, calculates the semantic relevance between the physical object and annotation of the physical object, the A transmission unit that transmits physical object identification information, the annotation, and the degree of association; and the information presentation device identifies an image acquisition unit that acquires an image, and a physical object included in the image An identification information detecting unit for detecting physical object identification information for detecting, a physical object identification information for identifying a predetermined physical object from the information management server, an annotation of the physical object, the relevance information, Detected by the information acquisition unit and the identification information detection unit When it is determined that the physical object identification information and the physical object identification information acquired by the information acquisition unit substantially match, and the identification information determination unit that determines whether the physical object identification information substantially matches, When it is determined by the usage policy determination unit that the relevance level of the annotation of the physical object satisfies a predetermined usage policy, and the usage policy determination unit determines that the usage policy is satisfied, the annotation is An annotation presentation unit to present.

この構成により、物理オブジェクト識別情報に基づいて関連度を生成させることができ、生成されたアノテーションが信頼性の高いアノテーションであると判断させることができる。また、物理オブジェクトとアノテーションとの関連度を算出することで、アノテーションの信頼度を例えば数値化して提供することができる。さらに、物理オブジェクトとアノテーションとの関連性を保証することが可能である。すなわち、物理オブジェクトに対応するアノテーションのうち、信頼性の高いアノテーションが簡単に識別できるように、ユーザに提示することができる。したがって、ユーザは提示されたアノテーションを安心して利用することができる。 With this configuration, the degree of association can be generated based on the physical object identification information, and the generated annotation can be determined to be a highly reliable annotation. Further, by calculating the degree of association between the physical object and the annotation, the reliability of the annotation can be provided, for example, as a numerical value. Furthermore, it is possible to guarantee the relationship between the physical object and the annotation. That is, it is possible to present to the user so that a highly reliable annotation among the annotations corresponding to the physical object can be easily identified. Therefore, the user can use the presented annotation with peace of mind.

また、本発明の第1の情報処理方法は、画像を取得するステップと、前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出するステップと、所定の物理オブジェクトを識別するための物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションと、前記物理オブジェクトと前記アノテーションとの意味的な関連度を示す関連度情報と、を取得するステップと、前記検出された物理オブジェクト識別情報と、前記取得された物理オブジェクト識別情報と、が略一致するか否かを判定するステップと、前記略一致すると判定された場合、前記物理オブジェクトの前記アノテーションの前記関連度情報が、所定の利用ポリシを満たすか否かを判定するステップと、前記利用ポリシを満たすと判定された場合、前記アノテーションを提示するステップと、を有する。 The first information processing method of the present invention includes a step of acquiring an image, a step of detecting physical object identification information for identifying a physical object included in the image, and a predetermined physical object. Physical object identification information, an annotation of the physical object, and relevance information indicating a semantic relevance between the physical object and the annotation; and the detected physical object identification information; The step of determining whether or not the acquired physical object identification information substantially matches, and if it is determined that the physical object identification information substantially matches, the relevance information of the annotation of the physical object indicates a predetermined usage policy. A step of determining whether or not to satisfy, and it is determined that the usage policy is satisfied If, and a step of presenting the annotations.

また、本発明の第2の情報処理方法は、前記物理オブジェクトのアノテーションを生成するステップと、前記物理オブジェクト毎に、前記生成されたアノテーションと、前記検出された物理オブジェクト識別情報と、を送出するステップと、を有する。 The second information processing method of the present invention, the transmission and generating an annotation before Symbol physical objects, for each of the physical objects, and annotations said generated physical object identification information the detected, the And a step of performing.

また、本発明の第2の情報処理方法は、物理オブジェクトを識別するための物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションとを取得するステップと、前記物理オブジェクト識別情報に基づいて、前記物理オブジェクトと当該物理オブジェクトのアノテーションとの意味的な関連度を算出するステップと、を有する。 According to a second information processing method of the present invention, the physical object identification information for identifying a physical object and the annotation of the physical object are acquired, and the physical object is based on the physical object identification information. And calculating a semantic relevance between the physical object annotation and the physical object annotation.

この方法により、物理オブジェクトとアノテーションとの関連度を算出することで、アノテーションの信頼度を例えば数値化して提供することができる。 By calculating the degree of association between a physical object and an annotation by this method, the reliability of the annotation can be provided, for example, in numerical form.

このプログラムにより、物理オブジェクトとアノテーションとの関連度を算出することで、アノテーションの信頼度を例えば数値化して提供することができる。
By calculating the degree of association between the physical object and the annotation by this program, the reliability of the annotation can be provided, for example, as a numerical value.

Claims (25)

画像を取得する画像取得部と、
前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出する識別情報検出部と、
所定の物理オブジェクトを識別するための物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションと、前記物理オブジェクトと前記アノテーションとの物理的な対応度を示す対応度情報と、を取得する情報取得部と、
前記識別情報検出部により検出された物理オブジェクト識別情報と、前記情報取得部により取得された物理オブジェクト識別情報と、が略一致するか否かを判定する識別情報判定部と、
前記識別情報判定部により略一致すると判定された場合、前記物理オブジェクトの前記アノテーションの前記対応度情報が、所定の利用ポリシを満たすか否かを判定する利用ポリシ判定部と、
前記利用ポリシ判定部により前記利用ポリシを満たすと判定された場合、前記アノテーションを提示するアノテーション提示部と、
を備える情報処理装置。
An image acquisition unit for acquiring images;
An identification information detection unit for detecting physical object identification information for identifying a physical object included in the image;
An information acquisition unit for acquiring physical object identification information for identifying a predetermined physical object, an annotation of the physical object, and correspondence information indicating a physical correspondence between the physical object and the annotation;
An identification information determination unit that determines whether or not the physical object identification information detected by the identification information detection unit substantially matches the physical object identification information acquired by the information acquisition unit;
A usage policy determination unit that determines whether or not the correspondence information of the annotation of the physical object satisfies a predetermined usage policy when it is determined by the identification information determination unit that they substantially match;
When it is determined by the usage policy determination unit that the usage policy is satisfied, an annotation presentation unit that presents the annotation;
An information processing apparatus comprising:
請求項1に記載の情報処理装置であって、
前記情報取得部は、前記物理オブジェクトと前記アノテーションとの意味的な関連度を示す関連度情報を取得し、
前記利用ポリシ判定部は、前記識別情報判定部により略一致すると判定された場合、前記物理オブジェクトの前記アノテーションの前記対応度情報と前記関連度情報とが、所定の利用ポリシを満たすか否かを判定する情報提供装置。
The information processing apparatus according to claim 1,
The information acquisition unit acquires relevance information indicating a semantic relevance between the physical object and the annotation,
The usage policy determination unit determines whether or not the correspondence information and the relevance information of the annotation of the physical object satisfy a predetermined usage policy when it is determined that the identification information determination unit substantially matches the usage policy. Information providing apparatus for determining.
請求項1または2に記載の情報処理装置であって、
前記アノテーション提示部は、前記利用ポリシ判定部により前記利用ポリシを満たすと判定された場合、前記アノテーションと同時に、前記利用ポリシを満たしている旨を表示する情報処理装置。
The information processing apparatus according to claim 1, wherein:
The annotation presenting unit displays an information indicating that the usage policy is satisfied simultaneously with the annotation when the usage policy determination unit determines that the usage policy is satisfied.
請求項1ないし3のいずれか1項に記載の情報処理装置であって、
前記識別情報検出部は、当該情報処理装置の位置に係る位置情報を検出する位置情報検出部と、当該情報処理装置から前記画像に含まれる物理オブジェクトまでの距離に係る距離情報を検出する距離情報検出部と、を備え、
前記情報取得部は、当該情報処理装置の位置に係る位置情報と前記物理オブジェクトまでの距離に係る距離情報に基づいて、前記物理オブジェクト識別情報として、所定の物理オブジェクトの位置に係る位置情報を取得し、
前記識別情報判定部は、前記情報取得部により取得された位置情報と前記位置情報検出部により検出された位置情報とが略一致し、前記情報取得部により取得された距離情報と前記距離情報検出部により検出された距離情報とが略一致するか否かを判定する情報処理装置。
The information processing apparatus according to any one of claims 1 to 3,
The identification information detection unit detects position information related to the position of the information processing device, and distance information detects distance information related to the distance from the information processing device to the physical object included in the image. A detection unit;
The information acquisition unit acquires position information related to a position of a predetermined physical object as the physical object identification information based on position information related to the position of the information processing apparatus and distance information related to a distance to the physical object. And
The identification information determination unit substantially matches the position information acquired by the information acquisition unit and the position information detected by the position information detection unit, and the distance information acquired by the information acquisition unit and the distance information detection. An information processing apparatus that determines whether or not the distance information detected by the unit substantially matches.
請求項1ないし3のいずれか1項に記載の情報処理装置であって、
前記識別情報検出部は、前記画像に含まれる前記物理オブジェクトの特徴に係る特徴情報を抽出する特徴情報抽出部、を備え、
前記情報取得部は、前記物理オブジェクト識別情報として、前記物理オブジェクトの特徴に係る特徴情報を取得し、
前記識別情報判定部は、前記情報取得部により取得された特徴情報と前記特徴情報抽出部により抽出された特徴情報とが略一致するか否かを判定する情報処理装置。
The information processing apparatus according to any one of claims 1 to 3,
The identification information detection unit includes a feature information extraction unit that extracts feature information related to a feature of the physical object included in the image,
The information acquisition unit acquires feature information relating to features of the physical object as the physical object identification information,
The identification information determination unit is an information processing apparatus that determines whether or not the feature information acquired by the information acquisition unit substantially matches the feature information extracted by the feature information extraction unit.
請求項1ないし3のいずれか1項に記載の情報処理装置であって、
前記識別情報検出部は、当該情報処理装置の位置に係る位置情報を検出する位置情報検出部と、当該情報処理装置から前記画像に含まれる物理オブジェクトまでの距離に係る距離情報を検出する距離情報検出部と、前記画像に含まれる前記物理オブジェクトの特徴に係る特徴情報を抽出する特徴情報抽出部と、を備え、
前記情報取得部は、前記物理オブジェクト識別情報として、所定の物理オブジェクトの位置に係る位置情報と、前記物理オブジェクトまでの距離に係る距離情報と、前記物理オブジェクトの特徴に係る特徴情報と、を取得し、
前記識別情報判定部は、前記情報取得部により取得された位置情報と前記位置情報検出部により検出された位置情報とが略一致し、前記情報取得部により取得された距離情報と前記距離情報検出部により検出された距離情報とが略一致し、かつ、前記情報取得部により取得された特徴情報と前記特徴情報抽出部により抽出された特徴情報とが略一致するか否かを判定する情報処理装置。
The information processing apparatus according to any one of claims 1 to 3,
The identification information detection unit detects position information related to the position of the information processing device, and distance information detects distance information related to the distance from the information processing device to the physical object included in the image. A detection unit, and a feature information extraction unit that extracts feature information related to the feature of the physical object included in the image,
The information acquisition unit acquires, as the physical object identification information, position information related to a position of a predetermined physical object, distance information related to a distance to the physical object, and feature information related to a feature of the physical object. And
The identification information determination unit substantially matches the position information acquired by the information acquisition unit and the position information detected by the position information detection unit, and the distance information acquired by the information acquisition unit and the distance information detection. Information processing for determining whether or not the distance information detected by the unit substantially matches and the feature information acquired by the information acquisition unit and the feature information extracted by the feature information extraction unit substantially match apparatus.
請求項1または2に記載の情報処理装置であって、
前記アノテーション提示部は、前記画像取得部により取得された画像に含まれる物理オブジェクトに対応付けて前記アノテーションを表示する情報処理装置。
The information processing apparatus according to claim 1, wherein:
The annotation presentation unit is an information processing apparatus that displays the annotation in association with a physical object included in an image acquired by the image acquisition unit.
請求項1ないし7のいずれか1項に記載の情報処理装置であって、
前記アノテーション提示部は、前記対応度または前記関連度が大きい順に、前記アノテーションを提示する情報処理装置。
An information processing apparatus according to any one of claims 1 to 7,
The information processing apparatus that presents the annotations in descending order of the degree of correspondence or the degree of association.
請求項1ないし8のいずれか1項に記載の情報処理装置であって、
前記所定の利用ポリシは、前記対応度及び前記関連度のそれぞれ又は合計値が所定値以上であることである情報処理装置。
The information processing apparatus according to any one of claims 1 to 8,
The predetermined usage policy is an information processing apparatus in which each of the correspondence level and the relevance level or a total value is a predetermined value or more.
請求項1ないし9のいずれか1項に記載の情報処理装置であって、
前記アノテーション提示部は、前記対応度及び前記関連度の少なくとも1つを前記アノテーションと同時に提示する情報処理装置。
An information processing apparatus according to any one of claims 1 to 9,
The annotation presentation unit is an information processing apparatus that presents at least one of the correspondence degree and the association degree simultaneously with the annotation.
画像を取得する画像取得部と、
前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出する識別情報検出部と、
前記物理オブジェクトのアノテーションを生成するアノテーション生成部と、
前記物理オブジェクト毎に、前記アノテーション生成部により生成されたアノテーションと、前記識別情報検出部により検出された物理オブジェクト識別情報と、を送出する送出部と、
を備える情報処理装置。
An image acquisition unit for acquiring images;
An identification information detection unit for detecting physical object identification information for identifying a physical object included in the image;
An annotation generator for generating an annotation of the physical object;
A sending unit that sends out the annotation generated by the annotation generation unit and the physical object identification information detected by the identification information detection unit for each physical object;
An information processing apparatus comprising:
請求項11に記載の情報処理装置であって、
前記識別情報検出部は、当該情報処理装置の位置に係る位置情報を検出する位置情報検出部と、当該情報処理装置から前記画像に含まれる物理オブジェクトまでの距離に係る距離情報を検出する距離情報検出部と、前記画像に含まれる前記物理オブジェクトの特徴に係る特徴情報を抽出する特徴情報抽出部と、を備え、
前記送出部は、前記物理オブジェクト識別情報として、前記位置情報と前記距離情報と前記特徴情報とを送出する情報処理装置。
The information processing apparatus according to claim 11,
The identification information detection unit detects position information related to the position of the information processing device, and distance information detects distance information related to the distance from the information processing device to the physical object included in the image. A detection unit, and a feature information extraction unit that extracts feature information related to the feature of the physical object included in the image,
The transmission unit is an information processing apparatus that transmits the position information, the distance information, and the feature information as the physical object identification information.
物理オブジェクトを識別するための物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションとを取得する情報取得部と、
前記物理オブジェクト識別情報に基づいて、前記物理オブジェクトと当該物理オブジェクトのアノテーションとの物理的な対応度を算出する対応度算出部と、
を備える情報処理装置。
An information acquisition unit for acquiring physical object identification information for identifying a physical object and an annotation of the physical object;
A correspondence calculation unit that calculates a physical correspondence between the physical object and the annotation of the physical object based on the physical object identification information;
An information processing apparatus comprising:
請求項13に記載の情報処理装置であって、更に、
前記物理オブジェクトの識別情報とアノテーションに基づいて、前記物理オブジェクトと前記アノテーションとの意味的な関連度を算出する関連度算出部を備える情報処理装置。
The information processing apparatus according to claim 13, further comprising:
An information processing apparatus comprising: a degree-of-association calculating unit that calculates a degree of semantic association between the physical object and the annotation based on the identification information of the physical object and the annotation.
請求項13または14に記載の情報処理装置であって、更に、
前記対応度算出部により算出された対応度に係る対応度情報と、前記関連度算出部により算出された関連度に係る関連度情報と、を送出する送出部を備える情報処理装置。
The information processing apparatus according to claim 13 or 14, further comprising:
An information processing apparatus comprising: a sending unit that sends correspondence degree information related to the degree of correspondence calculated by the correspondence degree calculation unit and relevance degree information related to the degree of association calculated by the association degree calculation unit.
請求項13ないし15のいずれか1項に記載の情報処理装置であって、
前記物理オブジェクト識別情報は、前記情報処理装置の位置に係る位置情報と、前記物理オブジェクトまでの距離に係る距離情報と、前記物理オブジェクトの特徴に係る特徴情報と、を含み、
前記対応度算出部は、前記特徴情報及び前記距離情報に基づいて識別レベルを算出し、前記位置情報に基づいて測位レベルを算出し、前記識別レベル及び前記測位レベルに基づいて前記対応度を算出する情報処理装置。
The information processing apparatus according to any one of claims 13 to 15,
The physical object identification information includes position information related to the position of the information processing device, distance information related to a distance to the physical object, and feature information related to the characteristics of the physical object,
The correspondence calculation unit calculates an identification level based on the feature information and the distance information, calculates a positioning level based on the position information, and calculates the correspondence based on the identification level and the positioning level. Information processing apparatus.
請求項13ないし16のいずれか1項に記載の情報処理装置であって、更に、
前記物理オブジェクト識別情報と、前記物理オブジェクト識別情報により識別される物理オブジェクトに係る語句情報を含む物理オブジェクト情報と、を対応付けて記憶する物理オブジェクト情報記憶部と、
前記情報取得部により取得されたアノテーションから当該アノテーションに係るテキスト情報を取得するテキスト情報取得部と、
を備え、
前記関連度算出部は、前記情報取得部により取得されたアノテーションから前記テキスト情報取得部により取得された前記テキスト情報に含まれる語句情報のうち、前記情報取得部により取得され前記物理オブジェクト情報記憶部により記憶された物理オブジェクト識別情報に対応付けられた前記物理オブジェクト情報に含まれる語句情報に基づいて、前記関連度を算出する情報処理装置。
The information processing apparatus according to any one of claims 13 to 16, further comprising:
A physical object information storage unit that associates and stores the physical object identification information and physical object information including phrase information related to the physical object identified by the physical object identification information;
A text information acquisition unit that acquires text information related to the annotation from the annotation acquired by the information acquisition unit;
With
The relevance calculation unit is acquired by the information acquisition unit from the phrase information included in the text information acquired by the text information acquisition unit from the annotation acquired by the information acquisition unit, and the physical object information storage unit An information processing apparatus that calculates the degree of association based on word / phrase information included in the physical object information associated with the physical object identification information stored.
請求項17に記載の情報処理装置であって、
前記語句情報は、前記物理オブジェクトの名称の情報と、前記物理オブジェクトに関連する語句である関連語の情報と、前記物理オブジェクトとは関連性の低い語句である非関連語の情報と、を含む情報処理装置。
The information processing apparatus according to claim 17,
The phrase information includes information on the name of the physical object, information on a related word that is a phrase related to the physical object, and information on an unrelated word that is a phrase that is not related to the physical object. Information processing device.
物理オブジェクトに対応するアノテーションを提供する情報提供装置と、前記アノテーションを管理する情報管理サーバと、前記アノテーションを提示する情報提示装置と、を備える拡張現実感システムであって、
前記情報提供装置は、
画像を取得する画像取得部と、
前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出する識別情報検出部と、
前記物理オブジェクトのアノテーションを生成するアノテーション生成部と、
前記物理オブジェクト毎に、前記アノテーション生成部により生成されたアノテーションと、前記識別情報検出部により検出された物理オブジェクト識別情報と、を送出する送出部と、
を備え、
前記情報管理サーバは、
前記情報提供装置からの前記物理オブジェクト識別情報と前記アノテーションとを取得する情報取得部と、
前記物理オブジェクト識別情報に基づいて、前記物理オブジェクトと当該物理オブジェクトのアノテーションとの物理的な対応度を算出する対応度算出部と、
前記物理オブジェクト識別情報と、前記アノテーションと、前記対応度情報と、を送出する送出部と、
を備え、
前記情報提示装置は、
画像を取得する画像取得部と、
前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出する識別情報検出部と、
前記情報管理サーバからの所定の物理オブジェクトを識別するための前記物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションと、前記対応度情報と、を取得する情報取得部と、
前記識別情報検出部により検出された物理オブジェクト識別情報と、前記情報取得部により取得された物理オブジェクト識別情報と、が略一致するか否かを判定する識別情報判定部と、
前記識別情報判定部により略一致すると判定された場合、前記物理オブジェクトの前記アノテーションの前記対応度情報が、所定の利用ポリシを満たすか否かを判定する利用ポリシ判定部と、
前記利用ポリシ判定部により前記利用ポリシを満たすと判定された場合、前記アノテーションを提示するアノテーション提示部と、
を備える拡張現実感システム。
An augmented reality system comprising an information providing device that provides an annotation corresponding to a physical object, an information management server that manages the annotation, and an information presentation device that presents the annotation,
The information providing apparatus includes:
An image acquisition unit for acquiring images;
An identification information detection unit for detecting physical object identification information for identifying a physical object included in the image;
An annotation generator for generating an annotation of the physical object;
A sending unit that sends out the annotation generated by the annotation generation unit and the physical object identification information detected by the identification information detection unit for each physical object;
With
The information management server
An information acquisition unit for acquiring the physical object identification information and the annotation from the information providing device;
A correspondence calculation unit that calculates a physical correspondence between the physical object and the annotation of the physical object based on the physical object identification information;
A sending unit that sends the physical object identification information, the annotation, and the correspondence information;
With
The information presentation device includes:
An image acquisition unit for acquiring images;
An identification information detection unit for detecting physical object identification information for identifying a physical object included in the image;
An information acquisition unit that acquires the physical object identification information for identifying a predetermined physical object from the information management server, the annotation of the physical object, and the correspondence information;
An identification information determination unit that determines whether or not the physical object identification information detected by the identification information detection unit substantially matches the physical object identification information acquired by the information acquisition unit;
A usage policy determination unit that determines whether or not the correspondence information of the annotation of the physical object satisfies a predetermined usage policy when it is determined by the identification information determination unit that they substantially match;
When it is determined by the usage policy determination unit that the usage policy is satisfied, an annotation presentation unit that presents the annotation;
Augmented reality system with
画像を取得するステップと、
前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出するステップと、
所定の物理オブジェクトを識別するための物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションと、前記物理オブジェクトと前記アノテーションとの物理的な対応度を示す対応度情報と、を取得するステップと、
前記検出された物理オブジェクト識別情報と、前記取得された物理オブジェクト識別情報と、が略一致するか否かを判定するステップと、
前記略一致すると判定された場合、前記物理オブジェクトの前記アノテーションの前記対応度情報が、所定の利用ポリシを満たすか否かを判定するステップと、
前記利用ポリシを満たすと判定された場合、前記アノテーションを提示するステップと、
を有する情報処理方法。
Acquiring an image;
Detecting physical object identification information for identifying a physical object included in the image;
Obtaining physical object identification information for identifying a predetermined physical object, an annotation of the physical object, and correspondence information indicating a physical correspondence between the physical object and the annotation;
Determining whether the detected physical object identification information substantially matches the acquired physical object identification information;
Determining that the correspondence information of the annotation of the physical object satisfies a predetermined usage policy if it is determined to be substantially the same;
Presenting the annotation when it is determined that the usage policy is satisfied;
An information processing method comprising:
画像を取得するステップと、
前記画像に含まれる物理オブジェクトを識別するための物理オブジェクト識別情報を検出するステップと、
前記物理オブジェクトのアノテーションを生成するステップと、
前記物理オブジェクト毎に、前記生成されたアノテーションと、前記検出された物理オブジェクト識別情報と、を送出するステップと、
を有する情報処理方法。
Acquiring an image;
Detecting physical object identification information for identifying a physical object included in the image;
Generating an annotation of the physical object;
Sending the generated annotation and the detected physical object identification information for each physical object;
An information processing method comprising:
物理オブジェクトを識別するための物理オブジェクト識別情報と、前記物理オブジェクトのアノテーションとを取得するステップと、
前記物理オブジェクト識別情報に基づいて、前記物理オブジェクトと当該物理オブジェクトのアノテーションとの物理的な対応度を算出するステップと、
を有する情報処理方法。
Obtaining physical object identification information for identifying a physical object and an annotation of the physical object;
Calculating a physical correspondence between the physical object and the annotation of the physical object based on the physical object identification information;
An information processing method comprising:
請求項20に記載の情報処理方法の各ステップをコンピュータに実行させるためのプログラム。   A program for causing a computer to execute each step of the information processing method according to claim 20. 請求項21に記載の情報処理方法の各ステップをコンピュータに実行させるためのプログラム。   A program for causing a computer to execute each step of the information processing method according to claim 21. 請求項22に記載の情報処理方法の各ステップをコンピュータに実行させるためのプログラム。
A program for causing a computer to execute each step of the information processing method according to claim 22.
JP2011011242A 2011-01-21 2011-01-21 Information processing apparatus, augmented reality system, information processing method, and information processing program Expired - Fee Related JP5014494B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011011242A JP5014494B2 (en) 2011-01-21 2011-01-21 Information processing apparatus, augmented reality system, information processing method, and information processing program
PCT/JP2012/000269 WO2012098869A1 (en) 2011-01-21 2012-01-18 Information processing device, augmented reality system, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011011242A JP5014494B2 (en) 2011-01-21 2011-01-21 Information processing apparatus, augmented reality system, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2012155362A true JP2012155362A (en) 2012-08-16
JP5014494B2 JP5014494B2 (en) 2012-08-29

Family

ID=46515505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011011242A Expired - Fee Related JP5014494B2 (en) 2011-01-21 2011-01-21 Information processing apparatus, augmented reality system, information processing method, and information processing program

Country Status (2)

Country Link
JP (1) JP5014494B2 (en)
WO (1) WO2012098869A1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071663A (en) * 2012-09-28 2014-04-21 Brother Ind Ltd Head-mounted display, method of actuating the same and program
JP2014130551A (en) * 2012-12-29 2014-07-10 Canon Inc Information display apparatus, information display system, control method thereof, and program
JP2015001779A (en) * 2013-06-13 2015-01-05 横河電機株式会社 Information display device and information display method
WO2015114848A1 (en) * 2014-01-31 2015-08-06 オリンパスイメージング株式会社 Image pickup apparatus
JP2015201168A (en) * 2014-04-04 2015-11-12 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Method and apparatus for prompting based on smart glasses
US9244944B2 (en) 2013-08-23 2016-01-26 Kabushiki Kaisha Toshiba Method, electronic device, and computer program product
JP2016507833A (en) * 2013-01-22 2016-03-10 マイクロソフト テクノロジー ライセンシング,エルエルシー Mixed reality filtering
JP2016519800A (en) * 2013-03-14 2016-07-07 クアルコム,インコーポレイテッド Image-based application launcher
JP2021522614A (en) * 2018-06-21 2021-08-30 グーグル エルエルシーGoogle LLC Digital supplemental association and search for visual search
KR20220138831A (en) * 2021-04-06 2022-10-13 애플 인크. Localization accuracy response
US11640431B2 (en) 2018-06-21 2023-05-02 Google Llc Digital supplement association and retrieval for visual search

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001333455A (en) * 2000-05-23 2001-11-30 Aisin Aw Co Ltd Mobile body advertisement information distribution method, mobile body advertisement information distribution system, mobile body advertisement information registration system, mobile body advertisement information charging system, mobile communication device and recording medium
JP2002027529A (en) * 2000-07-05 2002-01-25 Sharp Corp Portable information terminal device, base station device, information communication system, and recording medium
JP2002092647A (en) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd Information presentation system and model error detection system
JP2005010998A (en) * 2003-06-18 2005-01-13 Olympus Corp Information presentation device and information presentation method
JP2006145988A (en) * 2004-11-22 2006-06-08 Olympus Corp Device and system for information superposition display
JP4488233B2 (en) * 2003-04-21 2010-06-23 日本電気株式会社 Video object recognition device, video object recognition method, and video object recognition program
WO2010073616A1 (en) * 2008-12-25 2010-07-01 パナソニック株式会社 Information displaying apparatus and information displaying method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001333455A (en) * 2000-05-23 2001-11-30 Aisin Aw Co Ltd Mobile body advertisement information distribution method, mobile body advertisement information distribution system, mobile body advertisement information registration system, mobile body advertisement information charging system, mobile communication device and recording medium
JP2002027529A (en) * 2000-07-05 2002-01-25 Sharp Corp Portable information terminal device, base station device, information communication system, and recording medium
JP2002092647A (en) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd Information presentation system and model error detection system
JP4488233B2 (en) * 2003-04-21 2010-06-23 日本電気株式会社 Video object recognition device, video object recognition method, and video object recognition program
JP2005010998A (en) * 2003-06-18 2005-01-13 Olympus Corp Information presentation device and information presentation method
JP2006145988A (en) * 2004-11-22 2006-06-08 Olympus Corp Device and system for information superposition display
WO2010073616A1 (en) * 2008-12-25 2010-07-01 パナソニック株式会社 Information displaying apparatus and information displaying method

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071663A (en) * 2012-09-28 2014-04-21 Brother Ind Ltd Head-mounted display, method of actuating the same and program
JP2014130551A (en) * 2012-12-29 2014-07-10 Canon Inc Information display apparatus, information display system, control method thereof, and program
JP2016507833A (en) * 2013-01-22 2016-03-10 マイクロソフト テクノロジー ライセンシング,エルエルシー Mixed reality filtering
JP2016519800A (en) * 2013-03-14 2016-07-07 クアルコム,インコーポレイテッド Image-based application launcher
JP2015001779A (en) * 2013-06-13 2015-01-05 横河電機株式会社 Information display device and information display method
US9244944B2 (en) 2013-08-23 2016-01-26 Kabushiki Kaisha Toshiba Method, electronic device, and computer program product
US10116862B2 (en) 2014-01-31 2018-10-30 Olympus Corporation Imaging apparatus
WO2015114848A1 (en) * 2014-01-31 2015-08-06 オリンパスイメージング株式会社 Image pickup apparatus
CN104956655A (en) * 2014-01-31 2015-09-30 奥林巴斯株式会社 camera device
US10367995B2 (en) 2014-01-31 2019-07-30 Olympus Corporation Imaging apparatus having control circuit that corresponds a region of first image data with second image data
JP2016021748A (en) * 2014-01-31 2016-02-04 オリンパス株式会社 Imaging device, imaging method and imaging program
US9894267B2 (en) 2014-01-31 2018-02-13 Olympus Corporation Imaging apparatus
US9817235B2 (en) 2014-04-04 2017-11-14 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for prompting based on smart glasses
JP2015201168A (en) * 2014-04-04 2015-11-12 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Method and apparatus for prompting based on smart glasses
JP2021522614A (en) * 2018-06-21 2021-08-30 グーグル エルエルシーGoogle LLC Digital supplemental association and search for visual search
US11640431B2 (en) 2018-06-21 2023-05-02 Google Llc Digital supplement association and retrieval for visual search
US12032633B2 (en) 2018-06-21 2024-07-09 Google Llc Digital supplement association and retrieval for visual search
KR20220138831A (en) * 2021-04-06 2022-10-13 애플 인크. Localization accuracy response
US12118685B2 (en) 2021-04-06 2024-10-15 Apple Inc. Localization accuracy response
KR102849401B1 (en) * 2021-04-06 2025-08-25 애플 인크. Method and system for localization accuracy response

Also Published As

Publication number Publication date
JP5014494B2 (en) 2012-08-29
WO2012098869A1 (en) 2012-07-26

Similar Documents

Publication Publication Date Title
JP5014494B2 (en) Information processing apparatus, augmented reality system, information processing method, and information processing program
US9874454B2 (en) Community-based data for mapping systems
CN105318881B (en) Map navigation method, device and system
CN100433050C (en) Mobile communication system, mobile terminal and fixed station equipment, character recognition equipment, method and program
KR101190395B1 (en) Data access based on content of image recorded by a mobile device
US20100130236A1 (en) Location assisted word completion
CN109189879B (en) Electronic book display method and device
KR20140089184A (en) Head mounted display and method for controlling the same
KR20120015923A (en) Object recognition apparatus and method using filter information
KR20160010278A (en) Method and apparatus for displaying point of interest
KR20110096500A (en) Location based communication method and system
KR20120061110A (en) Apparatus and Method for Providing Augmented Reality User Interface
US20150186426A1 (en) Searching information using smart glasses
EP2672401A1 (en) Method and apparatus for storing image data
CN110457571B (en) Method, device and equipment for acquiring interest point information and storage medium
KR101332816B1 (en) Augmented Reality Method and Apparatus for Providing Private Tag
KR20110115007A (en) Method and system for providing query using image
JPWO2017047063A1 (en) Information processing apparatus, evaluation method, and computer program
JP2014075714A (en) Positioning method, positioning system and program thereof
CN102184191A (en) Method and system for inquiring peripheral environment information based on Internet of things, and Internet of things platform
CN112832737B (en) Methods, devices, equipment and storage media for determining EUR of shale gas wells
JP6244887B2 (en) Information processing apparatus, image search method, and program
KR101810533B1 (en) Apparatus and method for inputing a point of interest to map service by using image matching
JP6593665B2 (en) Image display system, terminal, method and program
CN114997166B (en) Semantic recognition model training method, device, electronic device and storage medium

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120605

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees