JP2012203668A - 情報処理装置、物体認識方法、プログラム及び端末装置 - Google Patents
情報処理装置、物体認識方法、プログラム及び端末装置 Download PDFInfo
- Publication number
- JP2012203668A JP2012203668A JP2011067961A JP2011067961A JP2012203668A JP 2012203668 A JP2012203668 A JP 2012203668A JP 2011067961 A JP2011067961 A JP 2011067961A JP 2011067961 A JP2011067961 A JP 2011067961A JP 2012203668 A JP2012203668 A JP 2012203668A
- Authority
- JP
- Japan
- Prior art keywords
- image
- input image
- feature amount
- unit
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9537—Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】2つ以上の画像の特徴量を記憶するデータベースであって、各画像に映る物体を識別するための識別情報と当該物体が撮像された際の照明条件に関する属性値とが各画像の特徴量に関連付けられている上記データベースと、撮像装置により撮像された入力画像を取得する取得部と、上記入力画像から決定される特徴量を上記データベースにより記憶されている各画像の特徴量と照合することにより、上記入力画像に映る物体を認識する認識部と、を備え、上記データベースにより記憶される特徴量は、互いに異なる照明条件で同じ物体を撮像した複数の画像の特徴量を含む、情報処理装置を提供する。
【選択図】図4
Description
1.第1の実施形態
1−1.システムの概要
1−2.端末装置の構成例
1−3.サーバの構成例
1−4.処理の流れ
1−5.第1の実施形態のまとめ
2.第2の実施形態
2−1.端末装置の構成例
2−2.サーバの構成例
2−3.処理の流れ
2−3.第2の実施形態のまとめ
3.第3の実施形態
3−1.サーバの構成例
3−2.処理の流れ
3−3.第3の実施形態のまとめ
[1−1.システムの概要]
図1は、本明細書で開示する技術が適用され得る物体認識システムの概要を示す説明図である。図1を参照すると、第1の実施形態に係る物体認識システム1が示されている。物体認識システム1は、端末装置100及び物体認識サーバ200を含む。
図3は、第1の実施形態に係る端末装置100の構成の一例を示すブロック図である。図3を参照すると、端末装置100は、通信部110、撮像部120、入力部140、表示部150、記憶部160及び制御部170を備える。
通信部110は、制御部170による制御の下で、物体認識サーバ200との間の通信を行う。例えば、通信部110は、後に説明する物体認識要求を物体認識サーバ200へ送信する。物体認識要求には、物体認識の対象となる入力画像又は入力画像から決定される特徴量が含まれ得る。また、通信部110は、物体認識要求への応答として物体認識サーバ200から送信される物体認識の結果を受信する。
撮像部120は、図1に例示した撮像装置120に相当するカメラモジュールである。撮像部120は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を用いて実空間を撮像することにより画像を生成する。
入力部140は、ユーザが端末装置100を操作し又は端末装置100へ情報を入力するために使用される入力デバイスである。入力部140は、例えば、キーボード、キーパッド、マウス、ボタン、スイッチ又はタッチパネルなどを含み得る。入力部140は、画像に映るユーザのジェスチャを認識するジェスチャ認識モジュール、又はユーザの発する音声コマンドを認識する音声認識モジュールなどを含んでもよい。
表示部150は、LCD(Liquid Crystal Display)、OLED(Organic light-Emitting Diode)又はCRT(Cathode Ray Tube)などにより構成される表示モジュールである。表示部150の画面上には、例えば、通信部110により受信される物体認識の結果に基づいて提供されるアプリケーションの画像(例えば、撮像画像に映る特定の物体にARのオブジェクトが重畳された画像)が表示される。表示部150は、端末装置100の一部であってもよく、又は端末装置100とは別体に構成されてもよい。また、表示部150は、ユーザにより装着されるHMD(Head Mounted Display)であってもよい。
記憶部160は、半導体メモリ又はハードディスクなどの記憶媒体を用いて、端末装置100による処理のためのプログラム及びデータを記憶する。例えば、記憶部160は、撮像部120から出力される画像を記憶する。また、記憶部160は、物体認識サーバ200から通信部110により受信される、入力画像に映る物体に関する情報を記憶する。
制御部170は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)などのプロセッサに相当する。制御部170は、記憶部160又は他の記憶媒体に記憶されるプログラムを実行することにより、端末装置100の機能全般を動作させる。例えば、制御部170は、入力部140を介してユーザによりARアプリケーションが起動されると、撮像部120に実空間の画像を撮像させる。次に、制御部170は、通信部110から物体認識サーバ200へ物体認識要求を送信させる。物体認識要求には、撮像部120により撮像された画像(又は他の画像)が入力画像として含まれ得る。その代わりに、制御部170は、撮像画像から特徴量を決定し、決定した特徴量を物体認識要求に含めてもよい。制御部170は、物体認識サーバ200から物体認識の結果として入力画像に映る物体に関する情報が受信されると、当該情報に基づいてARアプリケーションを動作させる。入力画像に映る物体に関する情報とは、例えば、入力画像に映る物体のID、当該物体の位置及び姿勢、又は入力画像に映る物体に重畳して表示すべき付加的な情報などであってよい。そして、制御部170は、ARアプリケーションの画像を生成し、生成した画像を表示部150に表示させる。
図4は、第1の実施形態に係る物体認識サーバ200の構成の一例を示すブロック図である。図4を参照すると、物体認識サーバ200は、通信部210、データ取得部220、データベース230及び画像認識部240を備える。
通信部210は、ネットワーク3を介して端末装置100との間の通信を行う。例えば、通信部210は、端末装置100から送信される上述した物体認識要求を受信する。物体認識要求には、端末装置100の撮像部120若しくは他の撮像装置により撮像された入力画像、又は当該入力画像から決定される特徴量が含まれる。通信部210は、物体認識要求に応じて画像認識部240により入力画像に映る物体が認識されると、当該物体に関する情報を端末装置100へ送信する。
データ取得部220は、通信部210により受信される上述した入力画像又は当該入力画像から決定された特徴量を取得する。そして、データ取得部220は、取得した入力画像又は特徴量を、画像認識部240へ出力する。なお、データ取得部220は、通信部210を介することなく、例えば物体認識サーバ200に直接接続される撮像装置又は記憶媒体などから、入力画像又は特徴量を取得してもよい。
データベース230は、半導体メモリ又はハードディスクなどの記憶媒体を用いて、2つ以上の画像の特徴量を記憶するデータベースである。データベース230において、各画像の特徴量には、各画像に映る物体を識別するための識別情報と当該物体が撮像された際の照明条件に関する属性値とが関連付けられる。データベース230は、互いに異なる照明条件で同じ物体を撮像した複数の画像を記憶する。
画像認識部240は、入力画像から決定される特徴量をデータベース230により記憶されている各画像の特徴量と照合することにより、入力画像に映る物体を認識する。例えば、画像認識部240は、データ取得部220により入力画像が取得されると、SIFT法又はRandom Ferns法などの特徴量決定法に従って、入力画像から特徴量を決定する。そして、画像認識部240は、決定した入力画像の特徴量をデータベース230により記憶されている各画像の特徴量と照合する。そして、画像認識部240は、入力画像の特徴量と最もよく適合する特徴量と関連付けられている物体の物体ID並びに当該物体の位置及び姿勢を、物体認識の結果として認識する。また、画像認識部240は、ある一定のレベルを超えて入力画像の特徴量と適合する特徴量と関連付けられている複数の物体の物体ID並びに位置及び姿勢のリストを、物体認識の結果として認識してもよい。そして、画像認識部240は、認識結果として、入力画像に映る物体に関する情報を通信部210から端末装置100へ送信させる。端末装置100へ送信される情報には、画像認識部240により認識された物体ID、当該物体の位置及び姿勢(又はそれらのリスト)、並びに付加的な情報(例えば、当該物体に重畳して表示すべき情報など)が含まれ得る。
図6は、本実施形態に係る物体認識サーバ200による物体認識処理の流れの一例を示すフローチャートである。
ここまで、図1〜図6を用いて、第1の実施形態に係る端末装置100及び物体認識サーバ200について詳細に説明した。本実施形態によれば、物体認識サーバ200は、2つ以上の画像の特徴量を照明条件に関する属性値と関連付けて記憶しているデータベースを有する。そして、物体認識サーバ200は、端末装置100からの物体認識要求に応じて、入力画像から決定される特徴量を上記データベースにより記憶されている各画像の特徴量と照合することにより、入力画像に映る物体を認識する。上記データベースには、互いに異なる照明条件で同じ物体を撮像した複数の画像の特徴量が含まれている。従って、入力画像が撮像される際の照明条件が様々に変化する状況においても、入力画像がいずれかの照明条件で撮像された学習済みの画像と適合する確率が高まり、入力画像に映る物体をより正確に認識することができる。
上述した第1の実施形態では、1つの物体について互いに異なる照明条件で撮像された複数の画像の特徴量がデータベースに予め記憶される。この場合、物体認識のための特徴量の照合処理に要する時間が長くなる。そこで、本節では、第2の実施形態として、照合処理に要する時間を短縮する仕組みについて説明する。
図7は、第2の実施形態に係る端末装置300の構成の一例を示すブロック図である。図7を参照すると、端末装置300は、通信部110、撮像部120、測位部330、入力部140、表示部150、記憶部160及び制御部370を備える。
図8は、第2の実施形態に係る物体認識サーバ400の構成の一例を示すブロック図である。図8を参照すると、物体認識サーバ400は、通信部210、データ取得部420、データベース430、画像認識部440及びフィルタリング部450を備える。
データ取得部420は、第1の実施形態に係る物体認識サーバ200のデータ取得部220と同様、通信部210により受信される物体認識要求に含まれる入力画像又は入力画像の特徴量を取得する。また、本実施形態において、データ取得部420は、入力画像が撮像された際の照明条件を表す照明条件データをさらに取得する。データ取得部420は、照明条件データを通信部210を介して端末装置300から取得してもよい。その代わりに、データ取得部420は、物体認識要求に応じて照明条件データを他の装置から取得してもよい。データ取得部420による照明条件データの取得方法の3つの例について、図9A〜図9Cを用いて説明する。
〜時間帯区分〜
1:未明 (0時〜3時)
2:明け方(3時〜日の出)
3:朝 (日の出〜9時)
4:昼前 (9時〜12時)
5:昼過ぎ(12時〜15時)
6:夕方 (15時〜日没)
7:夜 (日没〜21時)
8:深夜 (21時〜24時)
データベース430は、第1の実施形態に係るデータベース230と同様、2つ以上の画像の特徴量を記憶するデータベースである。データベース430においても、各画像の特徴量には、各画像に映る物体を識別するための識別情報と当該物体が撮像された際の照明条件に関する属性値とが関連付けられる。データベース430は、互いに異なる照明条件で同じ物体を撮像した複数の画像を記憶する。
画像認識部440は、第1の実施形態に係る物体認識サーバ200の画像認識部240と同様、入力画像から決定される特徴量をデータベース430により記憶されている各画像の特徴量と照合することにより、入力画像に映る物体を認識する。但し、本実施形態において、画像認識部440は、フィルタリング部450により抽出される特徴量のみを照合の対象とする。
フィルタリング部450は、データベース430により記憶されている画像の特徴量から、データ取得部420により取得される照明条件データにより表される照明条件に近い照明条件で撮像された画像の特徴量を抽出する。その際、フィルタリング部450は、さらに、データ取得部420により取得される撮像位置に近い位置で撮像された物体についての画像の特徴量のみを抽出してもよい。
(物体認識処理)
図11は、本実施形態に係る物体認識サーバ400による物体認識処理の流れの一例を示すフローチャートである。
図12は、図11のステップS210における位置フィルタリング処理の流れの一例を示すフローチャートである。
図13は、図11のステップS220における照明条件フィルタリング処理の流れの一例を示すフローチャートである。
図14は、本実施形態における位置フィルタリング処理及び照明条件フィルタリング処理の結果の一例について説明するための説明図である。
ここまで、図7〜図14を用いて、第2の実施形態に係る端末装置300及び物体認識サーバ400について詳細に説明した。本実施形態によれば、物体認識サーバ400による物体の認識に先立って、入力画像が撮像された際の照明条件に近い照明条件で撮像された画像の特徴量がデータベースから選択的に抽出される。そして、抽出された画像の特徴量のみを対象として、物体認識処理が行われる。上記データベースには、互いに異なる照明条件で同じ物体を撮像した複数の画像の特徴量が含まれている。従って、入力画像が撮像される際の照明条件が様々に変化する状況において、特徴量の照合処理に要する時間の増大を抑制しつつ、入力画像に映る物体の認識の精度を高めることができる。
本節では、第3の実施形態として、照合処理に要する時間をさらに短縮する仕組みについて説明する。
図15は、第3の実施形態に係る物体認識サーバ500の構成の一例を示すブロック図である。図15を参照すると、物体認識サーバ500は、通信部210、データ取得部420、データベース430、画像認識部540、フィルタリング部450、集計部560及び頻度メモリ570を備える。
集計部560は、入力画像の撮像位置又は入力画像が撮像された際の照明条件に関する所定の単位ごとに、画像認識部540により各物体が認識された頻度を集計する。撮像位置に関する所定の単位とは、例えば、撮像装置が位置し得る地理的領域をメッシュ上に区分けした各領域であってよい。照明条件に関する所定の単位とは、例えば、時間帯区分若しくは天候区分の各区分、又はこれら区分の各組合せであってよい。そして、集計部560は、集計の結果を表す頻度集計データを頻度メモリ570に記憶させる。
頻度メモリ570は、半導体メモリ又はハードディスクなどの記憶媒体を用いて、集計部560により集計される各物体の認識の頻度を表す頻度集計データを記憶する。
画像認識部540は、第1の実施形態に係る物体認識サーバ200の画像認識部240と同様、入力画像から決定される特徴量をデータベース430により記憶されている各画像の特徴量と照合することにより、入力画像に映る物体を認識する。また、本実施形態においても、画像認識部540は、フィルタリング部450により抽出される特徴量のみを照合の対象としてよい。さらに、本実施形態において、画像認識部540は、新たに取得される入力画像に対応する撮像位置及び照明条件の少なくとも一方について、集計部560により集計された物体ごとの頻度を参照し、頻度の高い物体を撮像した画像の特徴量を優先的に入力画像から決定される特徴量と照合する。
図17は、本実施形態に係る物体認識サーバ500による物体認識処理の流れの一例を示すフローチャートである。
ここまで、図15〜図17を用いて、第3の実施形態に係る物体認識サーバ500について詳細に説明した。本実施形態によれば、入力画像の撮像位置及び照明条件に関する所定の単位ごとに各物体が認識された頻度が集計される。そして、新たに入力画像が取得されると、当該入力画像に対応する撮像位置又は照明条件について集計された頻度の高い物体を撮像した画像の特徴量が、入力画像から決定される特徴量と優先的に照合される。即ち、入力画像に適合する可能性が高いと統計的に予測される画像の特徴量が他の特徴量よりも先に入力画像と照合されるため、物体認識の結果が出力されるまでの時間をさらに短縮することができる。
110 通信部
120 撮像部
170,370 制御部
200,400,500 情報処理装置(物体認識サーバ)
210 通信部
220,420 データ取得部
230,430 データベース
240,440,540 画像認識部
450 フィルタリング部
560 集計部
Claims (13)
- 2つ以上の画像の特徴量を記憶するデータベースであって、各画像に映る物体を識別するための識別情報と当該物体が撮像された際の照明条件に関する属性値とが各画像の特徴量に関連付けられている前記データベースと、
撮像装置により撮像された入力画像を取得する取得部と、
前記入力画像から決定される特徴量を前記データベースにより記憶されている各画像の特徴量と照合することにより、前記入力画像に映る物体を認識する認識部と、
を備え、
前記データベースにより記憶される特徴量は、互いに異なる照明条件で同じ物体を撮像した複数の画像の特徴量を含む、
情報処理装置。 - 前記取得部は、前記入力画像が撮像された際の照明条件を表す照明条件データをさらに取得し、
前記情報処理装置は、前記データベースにより記憶されている前記2つ以上の画像の特徴量から、前記照明条件データにより表される照明条件に近い照明条件で撮像された画像の特徴量を抽出するフィルタリング部、をさらに備え、
前記認識部は、前記フィルタリング部により抽出される画像の特徴量を、前記入力画像から決定される特徴量と照合する、
請求項1に記載の情報処理装置。 - 前記照明条件は、各画像が撮像された際の天候に関する第1の条件を含む、請求項2に記載の情報処理装置。
- 前記取得部は、前記入力画像を撮像した撮像装置の位置を表す位置データと前記入力画像が撮像され又は取得された日時とに基づいて、前記第1の条件についての前記照明条件データを取得する、請求項3に記載の情報処理装置。
- 前記照明条件は、各画像が撮像された際の日付又は時刻に関する第2の条件を含む、請求項2に記載の情報処理装置。
- 前記情報処理装置は、
端末装置から送信される前記入力画像を受信し、前記認識部により認識される物体に関する情報を前記端末装置へ送信する通信部、
をさらに備える、請求項1に記載の情報処理装置。 - 前記情報処理装置は、
端末装置から送信される前記入力画像を受信し、前記認識部により認識される物体に関する情報を前記端末装置へ送信する通信部、
をさらに備え、
前記取得部は、前記端末装置とは異なる装置から前記照明条件データを取得する、
請求項2に記載の情報処理装置。 - 前記データベースにおいて、各画像に映る物体の位置を表す属性値が各画像の特徴量にさらに関連付けられており、
前記取得部は、前記入力画像を撮像した前記撮像装置の位置を表す位置データをさらに取得し、
前記フィルタリング部は、前記位置データにより表される前記撮像装置の位置に近い位置で撮像された物体についての画像の特徴量のみを抽出する、
請求項2に記載の情報処理装置。 - 前記取得部は、前記入力画像を撮像した前記撮像装置の位置を表す位置データ、及び前記入力画像が撮像された際の照明条件を表す照明条件データの少なくとも一方をさらに取得し、
前記情報処理装置は、前記撮像装置の位置又は前記照明条件に関する所定の単位ごとに前記認識部により各物体が認識された頻度を集計する集計部、をさらに備え、
前記認識部は、新たに取得される入力画像に対応する前記撮像装置の位置又は前記照明条件について前記集計部により集計された頻度を参照し、当該頻度の高い物体を映した画像の特徴量を優先的に前記入力画像から決定される特徴量と照合する、
請求項1に記載の情報処理装置。 - 2つ以上の画像の特徴量を記憶するデータベースであって、各画像に映る物体を識別するための識別情報と当該物体が撮像された際の照明条件に関する属性値とが各画像の特徴量に関連付けられている前記データベースを備える情報処理装置における物体認識方法であって、
前記データベースにより記憶される特徴量は、互いに異なる照明条件で同じ物体を撮像した複数の画像の特徴量を含み、
前記物体認識方法は、
撮像装置により撮像された入力画像を取得するステップと、
前記入力画像から決定される特徴量を前記データベースにより記憶されている各画像の特徴量と照合することにより、前記入力画像に映る物体を認識するステップと、
を含む物体認識方法。 - 2つ以上の画像の特徴量を記憶するデータベースであって、各画像に映る物体を識別するための識別情報と当該物体が撮像された際の照明条件に関する属性値とが各画像の特徴量に関連付けられている前記データベースを備える情報処理装置を制御するコンピュータを、
撮像装置により撮像された入力画像を取得する取得部と、
前記入力画像から決定される特徴量を前記データベースにより記憶されている各画像の特徴量と照合することにより、前記入力画像に映る物体を認識する認識部と、
として機能させるためのプログラムであって、
前記データベースにより記憶される特徴量は、互いに異なる照明条件で同じ物体を撮像した複数の画像の特徴量を含む、
プログラム。 - 2つ以上の画像の特徴量を記憶するデータベースであって、各画像に映る物体を識別するための識別情報と当該物体が撮像された際の照明条件に関する属性値とが各画像の特徴量に関連付けられており、互いに異なる照明条件で同じ物体を撮像した複数の画像の特徴量を記憶している前記データベースを有する情報処理装置との間で通信する通信部と、
撮像装置により撮像された撮像画像又は当該撮像画像から決定される特徴量、及び当該撮像画像が撮像された際の照明条件に関するデータを、前記通信部から前記情報処理装置へ送信させる制御部と、
を備える端末装置。 - 前記制御部は、拡張現実アプリケーションを実行する際に、前記撮像画像又は前記特徴量及び前記照明条件に関するデータを前記通信部から前記情報処理装置へ送信させる、請求項12に記載の端末装置。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011067961A JP2012203668A (ja) | 2011-03-25 | 2011-03-25 | 情報処理装置、物体認識方法、プログラム及び端末装置 |
| US13/368,816 US8977055B2 (en) | 2011-03-25 | 2012-02-08 | Information processing device, object recognition method, program, and terminal device |
| CN2012100709589A CN102750554A (zh) | 2011-03-25 | 2012-03-16 | 信息处理装置、对象识别方法、程序和终端装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011067961A JP2012203668A (ja) | 2011-03-25 | 2011-03-25 | 情報処理装置、物体認識方法、プログラム及び端末装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2012203668A true JP2012203668A (ja) | 2012-10-22 |
Family
ID=46877388
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011067961A Pending JP2012203668A (ja) | 2011-03-25 | 2011-03-25 | 情報処理装置、物体認識方法、プログラム及び端末装置 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US8977055B2 (ja) |
| JP (1) | JP2012203668A (ja) |
| CN (1) | CN102750554A (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017046324A (ja) * | 2015-08-28 | 2017-03-02 | 株式会社オプティム | ユーザ端末、物体認識サーバ、通知方法及びユーザ端末用プログラム |
| JP2017211807A (ja) * | 2016-05-25 | 2017-11-30 | トヨタ自動車株式会社 | 物体認識装置、物体認識方法及びプログラム |
| JP2019028764A (ja) * | 2017-07-31 | 2019-02-21 | キヤノン株式会社 | 情報処理装置、システム、情報処理方法及びプログラム |
| CN109886092A (zh) * | 2019-01-08 | 2019-06-14 | 平安科技(深圳)有限公司 | 对象识别方法及其装置 |
| JP2023032243A (ja) * | 2021-08-26 | 2023-03-09 | キヤノン株式会社 | 識別モデル生成装置、識別装置、識別モデル生成方法、識別方法、プログラム |
Families Citing this family (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014081770A (ja) * | 2012-10-16 | 2014-05-08 | Sony Corp | 端末装置、端末制御方法、情報処理装置、情報処理方法、およびプログラム |
| US9298970B2 (en) * | 2012-11-27 | 2016-03-29 | Nokia Technologies Oy | Method and apparatus for facilitating interaction with an object viewable via a display |
| JP2014170314A (ja) * | 2013-03-01 | 2014-09-18 | Toshiba Corp | 情報処理システム、情報処理方法およびプログラム |
| WO2014181324A1 (en) | 2013-05-05 | 2014-11-13 | Trax Technology Solutions Pte Ltd. | System and method of monitoring retail units |
| WO2015036056A1 (en) * | 2013-09-16 | 2015-03-19 | Metaio Gmbh | Method and system for determining a model of at least part of a real object |
| US10387996B2 (en) | 2014-02-02 | 2019-08-20 | Trax Technology Solutions Pte Ltd. | System and method for panoramic image processing |
| US10402777B2 (en) | 2014-06-18 | 2019-09-03 | Trax Technology Solutions Pte Ltd. | Method and a system for object recognition |
| WO2015193877A1 (en) * | 2014-06-18 | 2015-12-23 | Trax Technology Solutions Pte. Ltd. | A method and a system for object recognition |
| WO2016048743A1 (en) * | 2014-09-22 | 2016-03-31 | Sikorsky Aircraft Corporation | Context-based autonomous perception |
| JP6765791B2 (ja) * | 2015-08-25 | 2020-10-07 | キヤノン株式会社 | パターンマッチング用の基準画像セットの作成方法、パターンマッチング用の基準画像セットの作成装置、ワークの認識方法、プログラム、及び記録媒体 |
| US10049500B2 (en) * | 2015-09-22 | 2018-08-14 | 3D Product Imaging Inc. | Augmented reality e-commerce for home improvement |
| JP2017215664A (ja) * | 2016-05-30 | 2017-12-07 | サン電子株式会社 | 端末装置 |
| CN106251404B (zh) * | 2016-07-19 | 2019-02-01 | 央数文化(上海)股份有限公司 | 方位跟踪方法、实现增强现实的方法及相关装置、设备 |
| US11037276B2 (en) * | 2016-08-26 | 2021-06-15 | Nokia Technologies Oy | Method, apparatus and computer program product for removing weather elements from images |
| US10436593B2 (en) * | 2016-11-08 | 2019-10-08 | Reem Jafar ALATAAS | Augmented reality assistance system for the visually impaired |
| CN106685941A (zh) * | 2016-12-19 | 2017-05-17 | 宇龙计算机通信科技(深圳)有限公司 | 一种优化ar注册的方法、装置及服务器 |
| CN107666481A (zh) * | 2017-09-06 | 2018-02-06 | 宇龙计算机通信科技(深圳)有限公司 | 一种ar目标的注册方法和设备 |
| JP6517298B2 (ja) * | 2017-10-10 | 2019-05-22 | 株式会社Cygames | 対象物取得確認のためのシステム、サーバ、プログラム及び方法 |
| CN108109164B (zh) * | 2017-12-08 | 2021-04-13 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
| CN108513139B (zh) * | 2018-04-02 | 2020-05-29 | 腾讯科技(深圳)有限公司 | 视频直播中的虚拟对象识别方法、装置、存储介质和设备 |
| CN110569691A (zh) * | 2018-06-06 | 2019-12-13 | 佛山市顺德区美的电热电器制造有限公司 | 图像识别方法及装置、服务器、存储介质、家电设备 |
| US10860642B2 (en) * | 2018-06-21 | 2020-12-08 | Google Llc | Predicting topics of potential relevance based on retrieved/created digital media files |
| WO2020001175A1 (en) * | 2018-06-26 | 2020-01-02 | Wildfaces Technology Limited | Method and apparatus for facilitating identification |
| JP7095455B2 (ja) * | 2018-07-24 | 2022-07-05 | トヨタ自動車株式会社 | 情報処理装置および情報処理方法 |
| JP6780682B2 (ja) * | 2018-09-20 | 2020-11-04 | 日本電気株式会社 | 情報取得システム、制御装置及び情報取得方法 |
| JP2022025694A (ja) * | 2020-07-29 | 2022-02-10 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置、および画像送受信システム |
| WO2022038705A1 (ja) * | 2020-08-19 | 2022-02-24 | 日本電気株式会社 | 基準状態決定装置、状態判定システム、基準状態決定方法、及び非一時的なコンピュータ可読媒体 |
| US11620731B2 (en) * | 2021-03-14 | 2023-04-04 | Bi Science (2009) Ltd | System and a method for surveying graphical objects on a screen display |
| US11928662B2 (en) * | 2021-09-30 | 2024-03-12 | Toshiba Global Commerce Solutions Holdings Corporation | End user training for computer vision system |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20030123713A1 (en) * | 2001-12-17 | 2003-07-03 | Geng Z. Jason | Face recognition system and method |
| JP2005129021A (ja) * | 2003-09-29 | 2005-05-19 | Fuji Photo Film Co Ltd | 照合システム及びそのプログラム |
| JP2007094637A (ja) * | 2005-09-28 | 2007-04-12 | Denso Corp | 顔画像認証装置 |
| JP2009541896A (ja) * | 2006-06-26 | 2009-11-26 | イーストマン コダック カンパニー | ピクチャ位置に基づく画像領域の分類 |
| JP2010509695A (ja) * | 2006-11-14 | 2010-03-25 | イーストマン コダック カンパニー | 顔認識のためのユーザーインターフェース |
| JP2010509668A (ja) * | 2006-11-14 | 2010-03-25 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | デジタル画像により取得されたオブジェクトを識別する方法及び装置 |
Family Cites Families (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1025517A1 (en) * | 1997-10-27 | 2000-08-09 | Massachusetts Institute Of Technology | Image search and retrieval system |
| US6389181B2 (en) * | 1998-11-25 | 2002-05-14 | Eastman Kodak Company | Photocollage generation and modification using image recognition |
| US6792136B1 (en) * | 2000-11-07 | 2004-09-14 | Trw Inc. | True color infrared photography and video |
| US6961061B1 (en) * | 2002-04-19 | 2005-11-01 | Weather Central, Inc. | Forecast weather video presentation system and method |
| US7496228B2 (en) * | 2003-06-13 | 2009-02-24 | Landwehr Val R | Method and system for detecting and classifying objects in images, such as insects and other arthropods |
| US7349830B2 (en) * | 2003-11-20 | 2008-03-25 | Microsoft Corporation | Weather profiles |
| US8503800B2 (en) * | 2007-03-05 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Illumination detection using classifier chains |
| US7756866B2 (en) * | 2005-08-17 | 2010-07-13 | Oracle International Corporation | Method and apparatus for organizing digital images with embedded metadata |
| JP4429236B2 (ja) * | 2005-08-19 | 2010-03-10 | 富士通株式会社 | 分類ルール作成支援方法 |
| US7885482B2 (en) * | 2006-10-26 | 2011-02-08 | Microsoft Corporation | Coverage-based image relevance ranking |
| US8160309B1 (en) * | 2007-12-21 | 2012-04-17 | Csr Technology Inc. | Method, apparatus, and system for object recognition and classification |
| US7814061B2 (en) * | 2008-01-24 | 2010-10-12 | Eastman Kodak Company | Method for preserving privacy with image capture |
| CN101561874B (zh) * | 2008-07-17 | 2011-10-26 | 清华大学 | 一种人脸虚拟图像生成的方法 |
| JP5493455B2 (ja) * | 2009-05-01 | 2014-05-14 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム |
| JP4807439B2 (ja) * | 2009-06-15 | 2011-11-02 | 株式会社デンソー | 霧画像復元装置及び運転支援システム |
| US8503767B2 (en) * | 2009-09-16 | 2013-08-06 | Microsoft Corporation | Textual attribute-based image categorization and search |
| KR101164353B1 (ko) * | 2009-10-23 | 2012-07-09 | 삼성전자주식회사 | 미디어 콘텐츠 열람 및 관련 기능 실행 방법과 장치 |
| US8332429B2 (en) * | 2010-06-22 | 2012-12-11 | Xerox Corporation | Photography assistant and method for assisting a user in photographing landmarks and scenes |
| US8775400B2 (en) * | 2010-06-30 | 2014-07-08 | Microsoft Corporation | Extracting facts from social network messages |
| US8532336B2 (en) * | 2010-08-17 | 2013-09-10 | International Business Machines Corporation | Multi-mode video event indexing |
| US20120051726A1 (en) * | 2010-08-31 | 2012-03-01 | King Kevin J | Apparatus, systems, and methods for emulating example photographs |
-
2011
- 2011-03-25 JP JP2011067961A patent/JP2012203668A/ja active Pending
-
2012
- 2012-02-08 US US13/368,816 patent/US8977055B2/en active Active
- 2012-03-16 CN CN2012100709589A patent/CN102750554A/zh active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20030123713A1 (en) * | 2001-12-17 | 2003-07-03 | Geng Z. Jason | Face recognition system and method |
| JP2005129021A (ja) * | 2003-09-29 | 2005-05-19 | Fuji Photo Film Co Ltd | 照合システム及びそのプログラム |
| JP2007094637A (ja) * | 2005-09-28 | 2007-04-12 | Denso Corp | 顔画像認証装置 |
| JP2009541896A (ja) * | 2006-06-26 | 2009-11-26 | イーストマン コダック カンパニー | ピクチャ位置に基づく画像領域の分類 |
| JP2010509695A (ja) * | 2006-11-14 | 2010-03-25 | イーストマン コダック カンパニー | 顔認識のためのユーザーインターフェース |
| JP2010509668A (ja) * | 2006-11-14 | 2010-03-25 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | デジタル画像により取得されたオブジェクトを識別する方法及び装置 |
Non-Patent Citations (2)
| Title |
|---|
| CSNG200500434004; 山口 高康、外2名: '"モバイルカメラでの看板の撮影をトリガにした情報検索"' 電子情報通信学会技術研究報告 Vol.103, No.515, 20031211, p.19-24, 社団法人電子情報通信学会 * |
| JPN6014047512; 山口 高康、外2名: '"モバイルカメラでの看板の撮影をトリガにした情報検索"' 電子情報通信学会技術研究報告 Vol.103, No.515, 20031211, p.19-24, 社団法人電子情報通信学会 * |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017046324A (ja) * | 2015-08-28 | 2017-03-02 | 株式会社オプティム | ユーザ端末、物体認識サーバ、通知方法及びユーザ端末用プログラム |
| JP2017211807A (ja) * | 2016-05-25 | 2017-11-30 | トヨタ自動車株式会社 | 物体認識装置、物体認識方法及びプログラム |
| KR101917515B1 (ko) | 2016-05-25 | 2018-11-09 | 도요타지도샤가부시키가이샤 | 물체 인식 장치, 물체 인식 방법 및 프로그램 |
| US10452950B2 (en) | 2016-05-25 | 2019-10-22 | Toyota Jidosha Kabushiki Kaisha | Object recognition apparatus, objection recognition method, and program |
| JP2019028764A (ja) * | 2017-07-31 | 2019-02-21 | キヤノン株式会社 | 情報処理装置、システム、情報処理方法及びプログラム |
| JP6991771B2 (ja) | 2017-07-31 | 2022-01-13 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
| CN109886092A (zh) * | 2019-01-08 | 2019-06-14 | 平安科技(深圳)有限公司 | 对象识别方法及其装置 |
| CN109886092B (zh) * | 2019-01-08 | 2024-05-10 | 平安科技(深圳)有限公司 | 对象识别方法及其装置 |
| JP2023032243A (ja) * | 2021-08-26 | 2023-03-09 | キヤノン株式会社 | 識別モデル生成装置、識別装置、識別モデル生成方法、識別方法、プログラム |
| JP7744777B2 (ja) | 2021-08-26 | 2025-09-26 | キヤノン株式会社 | 識別モデル生成装置、識別装置、及びそれらの制御方法、プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20120243739A1 (en) | 2012-09-27 |
| US8977055B2 (en) | 2015-03-10 |
| CN102750554A (zh) | 2012-10-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2012203668A (ja) | 情報処理装置、物体認識方法、プログラム及び端末装置 | |
| JP5776255B2 (ja) | 端末装置、物体識別方法、プログラム及び物体識別システム | |
| CN105637530B (zh) | 一种使用众包视频的3d模型更新的方法及系统 | |
| CN101479741B (zh) | 基于照片位置对图像区域分类 | |
| WO2021057797A1 (zh) | 定位方法及装置、终端、存储介质 | |
| CN102959551B (zh) | 图像处理装置 | |
| RU2608261C2 (ru) | Автоматическое генерирование тега на основании содержания изображения | |
| US9298982B2 (en) | System and method for computing the visual profile of a place | |
| US9436886B2 (en) | System and method of determining building numbers | |
| JP2017004252A (ja) | 画像情報処理システム | |
| CN103530649A (zh) | 一种适用于移动终端的视觉搜索方法 | |
| WO2021114615A1 (zh) | 行为风险识别的可视化方法、装置、设备及存储介质 | |
| US11615613B2 (en) | Method and device for extracting spatial relationship of geographic location points | |
| CN115422452A (zh) | 基于大数据的智能家居控制方法、装置、设备及存储介质 | |
| Raychoudhury et al. | Crowd-pan-360: Crowdsourcing based context-aware panoramic map generation for smartphone users | |
| CN107729528A (zh) | 一种建筑物信息获取方法及装置、计算机装置和计算机可读存储介质 | |
| CN109657143B (zh) | 展品信息的推送方法、装置、设备和存储介质 | |
| CN119904690A (zh) | 一种耕地识别方法、系统、设备及介质 | |
| JP5971387B2 (ja) | 端末装置、物体識別方法、及び情報処理装置 | |
| CN105426925B (zh) | 图像标注方法和电子设备 | |
| CN117935278A (zh) | 一种兴趣点数据的生成方法、装置、相关设备及存储介质 | |
| JP6172353B2 (ja) | 端末装置、物体識別方法、情報処理装置、及びプログラム | |
| CN113885550B (zh) | 信息处理装置、信息处理方法以及非临时性存储介质 | |
| CN116664812B (zh) | 一种视觉定位方法、视觉定位系统及电子设备 | |
| Luley et al. | A Multi-Sensor system for mobile services with vision enhanced object and location awareness |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140306 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141104 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141111 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150105 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150127 |