JP4006471B2 - 物品位置推定装置、物品位置推定方法、物品検索システム、及び物品位置推定用プログラム - Google Patents
物品位置推定装置、物品位置推定方法、物品検索システム、及び物品位置推定用プログラム Download PDFInfo
- Publication number
- JP4006471B2 JP4006471B2 JP2006519678A JP2006519678A JP4006471B2 JP 4006471 B2 JP4006471 B2 JP 4006471B2 JP 2006519678 A JP2006519678 A JP 2006519678A JP 2006519678 A JP2006519678 A JP 2006519678A JP 4006471 B2 JP4006471 B2 JP 4006471B2
- Authority
- JP
- Japan
- Prior art keywords
- article
- person
- information
- detection
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Economics (AREA)
- Quality & Reliability (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
前記物品検出装置にて検出された物品の識別情報と検出場所の情報と検出時刻の情報とを物品管理情報として格納する物品管理データベースと、
前記部屋内での前記人の位置を個人毎に区別して検出する人検出装置と、
前記人検出装置にて検出された人の移動履歴情報を格納する人管理データベースと、
前記物品管理データベースに格納された前記物品の検出時刻の情報、及び、前記人管理データベースに格納された前記人の移動履歴情報を用いて、前記物品の検出時刻を含む所定の時間内に検出された人を特定し、前記人管理データベースの前記人の移動履歴情報を基に、前記人と前記物品とが前記人検出装置と前記物品検出装置とで同時的に検出された場合に、前記検出された人のそれ以後の移動領域を、前記物品の物品存在領域として推定する物品存在領域推定手段と、
を備えたことを特徴とする、物品位置推定装置を提供する。
前記物品存在領域推定手段で前記物品の物品存在領域を推定するとともに、推定処理された物品の中から、前記入力装置で入力された検索対象物品を検索する前記物品位置推定装置と、
前記物品存在領域推定手段、又は、前記物品存在領域推定手段及び物品位置候補重み付け手段での推定結果を用いて、前記検索対象物品の存在する物品存在領域を表示する表示装置と、
を備える物品検索システムを提供する。
前記物品検出装置にて検出された物品の識別情報と検出場所の情報と検出時刻の情報とを物品管理情報として格納する物品管理データベースと、
前記部屋内での前記人の位置を個人毎に区別して検出する人検出装置と、
前記人検出装置にて検出された人の移動履歴情報を格納する人管理データベースと、
前記物品管理データベースに格納された前記物品の検出時刻の情報、及び、前記人管理データベースに格納された前記人の移動履歴情報を用いて、前記物品の検出時刻を含む所定の時間(この所定の時間とは、物品存在領域推定用に予め決められた時間を意味する。)内に検出された人を特定し、前記人管理データベースの前記人の移動履歴情報を基に、前記人と前記物品とが前記人検出装置と前記物品検出装置とで同時的に検出された場合に、前記検出された人のそれ以後の移動領域を、前記物品の物品存在領域として推定する物品存在領域推定手段と、
を備えたことを特徴とする、物品位置推定装置を提供する。
前記人の移動履歴情報において、予め定めた所定値(滞留状態を判定するために予め決められた値)以下の移動速度である前記移動履歴情報のうちの検出場所の情報と検出時刻の情報を滞留状態としてそれぞれ抽出し、前記滞留状態を構成する各情報を参照して得られる前記人の移動速度の平均値を用いて、前記人の移動速度の平均値が低い領域ほど前記物品の存在する可能性の高い物品存在領域の重みが高くなるように重み付けを行う、第3の態様に記載の物品位置推定装置を提供する。
前記人の移動履歴情報において、予め定めた所定値(滞留状態を判定するために予め決められた値)以下の移動速度である前記移動履歴情報のうちの検出場所の情報と検出時刻の情報を滞留状態として抽出し、前記滞留状態の前後における検出場所の情報と検出時刻の情報を参照して得られる前記人の移動速度の変化を用いて、前記物品の存在する可能性の高い物品存在領域の重みが高くなるように重み付けを行う、第3の態様に記載の物品位置推定装置を提供する。
前記物品の存在する可能性の重み付けを行う際に前記滞留状態が持続する時間を併せて用いて、前記物品の存在する可能性の高い物品存在領域の重みが高くなるように重み付けを行う、第4又は5の態様に記載の物品位置推定装置を提供する。
前記人の移動履歴情報において、予め定めた所定値(滞留状態を判定するために予め決められた値)以下の移動速度である前記移動履歴情報のうちの検出場所の情報と検出時刻の情報を滞留状態として抽出し、複数の前記人に対する前記滞留状態間の関係により、複数の前記人の間の前記物品の受け渡しを考慮して、前記物品の存在領域を推定する、第2〜6のいずれか1つの態様に記載の物品位置推定装置を提供する。
前記機器操作検出装置にて検出された各々の機器の操作情報を格納する機器管理データベースを備え、
前記機器管理データベースに格納された情報を前記操作情報中の前記機器の操作の有無の情報に基づき、前記使用していた機器の重みが高くなるように前記物品位置候補の機器に対して重み付けを行う、第3の態様に記載の物品位置推定装置を提供する。
前記物品存在領域推定手段で前記物品の物品存在領域を推定するとともに、推定処理された物品の中から、前記入力装置で入力された検索対象物品を検索する第1〜9のいずれか1つの態様に記載の前記物品位置推定装置と、
前記物品存在領域推定手段、又は、前記物品存在領域推定手段及び前記物品位置候補重み付け手段での推定結果を用いて、前記検索対象物品の存在する物品存在領域を表示する表示装置と、
を備える物品検索システムを提供する。
前記撮像装置で撮影された画像情報を蓄積する画像データベースと、
前記物品存在領域推定手段、又は、前記物品存在領域推定手段及び前記物品位置候補重み付け手段が検索要求のあった前記物品が置かれたと推定される場所と時刻とを推定し、前記推定結果を用いて、前記場所を撮影しかつ前記時刻を含む画像情報を前記画像データベースから抽出する画像検索手段とを備え、
前記表示装置は、前記画像検索手段にて検索された画像情報を表示することを特徴とする、第10の態様に記載の物品検索システムを提供する。
前記物品検出装置にて検出された前記物品の検出場所の情報と時刻の情報とを物品管理データベースに格納するステップと、
前記部屋内での前記人の位置を個人毎に区別して人検出装置にて検出するステップと、
前記人検出装置にて検出された人の移動履歴情報を人管理データベースに格納するステップと、
前記物品管理データベースに格納された前記物品の検出時刻の情報、及び、前記人管理データベースに格納された前記人の移動履歴情報を用いて、前記物品の検出時刻を含む所定の時間(この所定の時間とは、物品存在領域推定用に予め決められた時間を意味する。)内に検出された人を特定し、前記人管理データベースの前記人の移動履歴情報を基に、前記人と前記物品とが前記人検出装置と前記物品検出装置とで同時的に検出された場合に、前記検出された人のそれ以後の移動領域を、前記物品の物品存在領域として推定するステップと、
を備えたことを特徴とする、物品位置推定方法を提供する。
をさらに備えたことを特徴とする、第12の態様に記載の物品位置推定方法を提供する。
少なくとも人が出入り可能な部屋の出入り口付近で、異なる物品(例えば、異なる種類の物品)が区別されるように識別し物品検出装置で検出された前記物品の検出場所の情報と時刻の情報とを物品管理データベースに格納するステップと、
前記部屋内での前記人の位置を個人毎に区別して人検出装置で検出された人の移動履歴情報を人管理データベースに格納するステップと、
前記物品管理データベースに格納された前記物品の検出時刻の情報、及び、前記人管理データベースに格納された前記人の移動履歴情報を用いて、前記物品の検出時刻を含む所定の時間(この所定の時間とは、物品存在領域推定用に予め決められた時間を意味する。)内に検出された人を特定し、前記人管理データベースの前記人の移動履歴情報を基に、前記人と前記物品とが前記人検出装置と前記物品検出装置とで同時的に検出された場合に、前記検出された人のそれ以後の移動領域を、前記物品の物品存在領域として推定するステップとを実行させるための物品位置推定用プログラムを提供する。
前記部屋内での前記人の位置を個人毎に区別して検出する人検出装置と、
前記物品管理データベースに格納された前記物品の検出時刻の情報、及び、前記人管理データベースに格納された前記人の移動履歴情報を用いて、前記物品の検出時刻を含む所定の時間(この所定の時間とは、物品存在領域推定用に予め決められた時間を意味する。)内に検出された人を特定し、前記人管理データベースの前記人の移動履歴情報を基に、前記人と前記物品とが前記人検出装置と前記物品検出装置とで同時的に検出された場合に、前記検出された人のそれ以後の移動領域を、前記物品の物品存在領域として推定する物品存在領域推定手段と、
を備える、物品位置推定装置を提供する。
・検索する物品の入力が行われる入力装置109と、
・物品の位置を推定する処理を行うとともに、推定処理された物品の中から、前記入力装置109で入力された検索対象物品を検索する物品位置推定装置140と、
・前記物品位置推定装置140による推定処理結果を用いて、前記入力装置109で入力された検索対象物品の存在する場所を表示する表示装置110と、
より構成されている。
・タイマー手段120から出力された時刻の情報が入力されかつ当該物品検索を行う環境を撮影する撮像装置111と、
・前記撮像装置111により撮影された画像情報を時刻の情報と共に蓄積する画像データベース112と、
・前記画像データベース112に蓄積された画像情報に基づく物品存在領域推定手段又は後述する物品位置候補重み付け手段での処理結果を用いて、検索要求のあった物品が置かれたと推定される場所と時刻を推定し、前記場所を撮影しかつ前記時刻を含む画像情報を前記画像データベース112の蓄積された画像情報から検索して抽出する画像検索手段113と、
を含む構成を図1に示している。
・現在の時刻の情報を出力するタイマー手段120と、
・タイマー手段120から出力された時刻が入力されかつ異なる物品が区別されるように識別し検出する物品検出装置101と、
・前記物品検出装置101にて検出された物品の識別情報(ID)とその物品の検出場所の情報と検出時にタイマー手段120から出力された時刻の情報(検出時刻情報)とを物品検出毎に物品管理情報として格納する物品管理データベース102と、
・タイマー手段120から出力された時刻の情報が入力されかつ人の位置を個人毎に区別して検出する人検出装置103と、
・前記人検出装置103にて検出された人の識別情報(ID)とその人の検出場所の情報と検出時にタイマー手段120から出力された時刻の情報(検出時刻情報)とを、単位時間毎に、人管理情報(人移動履歴情報)として格納する人管理データベース104と、
・タイマー手段120から出力された時刻の情報が入力されかつ機器操作を検出する機器操作検出装置105と、
・前記機器操作検出装置105にて検出された各々の機器の識別情報(ID)とその機器の操作状態の情報(操作情報)と機器操作時にタイマー手段120から出力された時刻の情報(操作時刻情報)とを機器操作検出毎に機器管理情報として格納する機器管理データベース106と、
・前記物品管理データベース102及び人管理データベース104に格納された情報を(必要に応じて、さらに機器管理データベース106に格納された機器管理情報をも)参照し、物品の物品存在領域を推定するとともに、物品存在領域が推定された物品の中から、前記入力装置109で入力された検索対象物品を検索する物品存在領域推定手段107と、
・前記物品管理データベース102又は人管理データベース104又は機器管理データベース106に格納された情報を参照して、前記物品存在領域推定手段107によって推定された複数の前記物品存在領域のうち、前記物品の存在する可能性の高い領域に重み付けを行う、物品位置候補重み付け手段108と、
を有する。
物品検出装置101は、タイマー手段120から出力された時刻の情報(検出時刻情報)が入力されかつ異なる物品が区別されるように識別し検出する結果、検出された物品の識別情報(ID)とその物品の検出場所の情報と検出時にタイマー手段120から出力された時刻の情報(検出時刻情報)とを物品検出毎に物品管理データベース102に出力する。物品が区別できるように識別検出するためには様々な方法が考えられるが、本第1実施形態では、物品の識別能力やコストの面で優位性を有し、物流業界などで最近注目されているタグシステムを用いた方法を説明する。
物品管理データベース102は、前記物品検出装置101にて検出された物品の識別情報(ID)とその物品の検出場所(部屋内の検出位置)の情報と検出時にタイマー手段120から出力された時刻の情報(検出時刻情報)とを、物品検出毎に、物品管理情報として格納する。図5A,図5Bは、本発明の前記第1実施形態による物品管理データベース102に含まれる物品管理情報の例を表形式で示した図で、物品管理データベース102とは、これら物品管理情報を集めたものである。ここでいう「物品」とは、ユーザが日常生活で使う持ち運び可能な物品(又はオフィスなどにおいて通常使用する持ち運び可能な物品)のことを言い、宅内にある家具や家電機器など(又はオフィスなどにおける机や書棚など)は物品ではなく、「機器」又は「設備」という呼び名で「物品」とは区別する。
・時刻19:29に「玄関」のタグリーダTGRで、
・時刻19:30に「居間」のタグリーダTGRで、
・時刻23:01に「居間」のタグリーダTGRで、
・時刻23:02に「書斎」のタグリーダTGRで、
それぞれ「書籍」が検出されたことが蓄積されている。また、図5Bの「ジュース」に関する物品管理情報としては、
・時刻19:29に「玄関」のタグリーダTGRで、
・時刻19:30に「居間」のタグリーダTGRで、
それぞれ「ジュース」が検出されたことが蓄積されている。これらは、それぞれのタグリーダTGRがそれぞれの物品のタグTGを検出し、タグリーダTGRが、それぞれの物品のIDを取得した都度、タグTGのIDと物品とをペアにした、タグTGのIDと物品の対応関係データベース(図31参照)の対応情報を参照して、前記タグTGのIDに相当する物品が何かを調べ、その結果を時間とともに物品管理データベース102に書き込む。タグTGのIDと物品の対応関係データベースは、タグリーダTGRが参照可能に配置されておればよく、物品管理データベース102とは別に配置してもよいし、物品管理データベース102内に物品管理情報を蓄積する領域又は部分とは別の領域又は部分に配置するようにしてもよい。もし新たな物品が外部から前記環境内に持ち込まれた際には、その新たな物品に相当する対応情報を物品管理データベース102内に新規作成する。この新規作成はユーザが入力装置109を使用して手作業で行ってもよい。また、詳細な説明は省くが、近年のタグシステムの技術の進歩により、このような新規作成操作は自動化も可能である。一方、既存の物品が廃棄されたことが認識できれば、当該物品に対応する物品管理情報は物品管理データベース102から削除すればよい。物品管理情報の削除は入力装置109を使用して手作業で行ってもいいし、また、ゴミ箱にタグリーダTGRを設置し、前記タグリーダTGRがタグTGを検出した場合には、タグリーダTGRにより、前記タグTGに対応する物品管理情報を物品管理データベース102から削除するようにしてもよい。
人検出装置103は、タイマー手段120から出力された時刻の情報が入力されかつ人の位置を個人毎に区別して検出する結果、検出された人の識別情報(ID)とその人の検出場所の情報と検出時にタイマー手段120から出力された時刻の情報(検出時刻情報)とを、単位時間毎に、人管理データベース103に出力する。一般に人の検出というと、例えば画像中に含まれる人を画像から切り出す場合や、ある環境にいる人の環境内での場所を求めるなど、いろいろな捉えられ方があるが、ここでは、環境内での人の位置座標を求めるという意味で用いる。そのための検出方法は各種提案されているが、本第1実施形態ではそのうち、重さセンサを使う方法、タグTGを使う方法、及び、画像を使う方法の3種類を以下に説明する。
重さセンサを使って人の位置を検出する方法の一例を図6を用いて説明する。図6及び図32は、重さセンサWSENを使って人の位置を検出するためのシステム構成を示した概念図である。このシステムでは、人検出装置103は、重さセンサWSENと、重さセンサWSENからの出力情報が入力されかつ物品管理データベース102と接続可能なセンサ処理装置141とより構成される。
タグTGを使って人の位置を検出する方法の一例を、図7を用いて説明する。図7は、タグTGを使って人の位置を検出するためのシステム構成を示した概念図である。タグTGを使って人の位置を検出する場合は、人は環境内をタグリーダTGR付きの履き物(例えばスリッパ)142を履いて移動するという前提が許される場合に有効である。このシステムでは、人検出装置103は、タグTGと、タグTGを検出可能でかつ無線などにより物品管理データベース102と接続可能なタグリーダTGRとより構成される。
カメラ画像を用いても、人の位置を検出することが可能である。その大まかな手順は、(ステップ1)画像中から人の切り出し、(ステップ2)カメラ画像における切り出した人の位置座標を世界座標系に変換する、というステップで行われる。
人管理データベース104は、前記人検出装置103にて検出された人の識別情報(ID)とその人の検出場所の情報と検出時にタイマー手段120から出力された時刻の情報(検出時刻情報)とを、単位時間毎に、人移動履歴情報(人管理情報)として格納する。図11A,図11Bは本発明の前記第1実施形態による人管理データベース104に含まれる人管理情報(例えば、人の識別情報、位置座標とその時刻などの情報を含む人移動履歴情報)の例を表形式で示した図で、人管理データベース104とは、これら人管理情報を集めたものである。本例ではそれぞれ図11Aのお父さん、図11Bのお母さんに対応した人管理情報(人移動履歴情報)が示されている。例えば図11Aのお父さんに関する人管理情報(人移動履歴情報)は、
・時刻19:29に「玄関」のタグリーダTGRを通過し、その後、次に検出されるまでの人移動履歴情報が履歴データMF−Data01に格納されていること、
・時刻19:30に「居間」のタグリーダTGRを通過し、その後、次に検出されるまでの人移動履歴情報が履歴データMF−Data02に格納されていること、
・時刻22:29に「居間」のタグリーダTGRを通過し、その後、次に検出されるまでの人移動履歴情報が履歴データMF−Data03に格納されていること、
・時刻22:30に「浴室」のタグリーダTGRを通過し、その後、次に検出されるまでの人移動履歴情報が履歴データMF−Data04に格納されていること、
・時刻22:59に「浴室」のタグリーダTGRを通過し、その後、次に検出されるまでの人移動履歴情報が履歴データMF−Data05に格納されていること、
・時刻23:00に「居間」のタグリーダTGRを通過し、その後、次に検出されるまでの人移動履歴情報が履歴データMF−Data06に格納されていること、
・時刻23:01に「居間」のタグリーダTGRを通過し、その後、次に検出されるまでの人移動履歴情報が履歴データMF−Data07に格納されていること、
・時刻23:02に「書斎」のタグリーダTGRを通過し、その後、次に検出されるまでの人移動履歴情報が履歴データMF−Data08に格納されていること、
・時刻23:29に「書斎」のタグリーダTGRを通過し、その後、次に検出されるまでの人移動履歴情報が履歴データMF−Data09に格納されていること、
・時刻23:30に「居間」のタグリーダTGRを通過し、その後、次に検出されるまでの人移動履歴情報が履歴データMF−Data10に格納されていること、
・時刻23:50に「居間」のタグリーダTGRを通過し、その後、次に検出されるまでの人移動履歴情報が履歴データMF−Data11に格納されていること、
がそれぞれ記載されている。図11Bのお母さんの例も同様であるので、説明は省略する。人移動履歴情報は、後の処理のために、人がタグリーダTGRを通過する毎に新たに人移動履歴情報が人管理データベース104に追加されるようにしておく。
機器操作検出装置105は、タイマー手段120から出力された時刻の情報(操作時刻情報)が入力されかつ機器操作を検出する結果、検出された各々の機器の識別情報(ID)とその機器の操作状態の情報(操作情報)と操作時にタイマー手段120から出力された時刻の情報(操作時刻情報)とを機器操作検出毎に機器管理データベース106に出力する。ここでいう「機器」とは、物品を閉じこめる態様で収納する機能を持つものと定義し、それ以外でかつ物品ではないものを「設備」と呼ぶことにする。例えば、図3の例では「本棚」、「冷蔵庫」が「機器」であり、また、「キッチンシステム」、「食卓」、「ソファ1」、「ソファ2」、「ローテーブル」が「設備」である。なお、「キッチンシステム」をさらに細かく区分して、「キッチンシステム」の収納棚や収納庫を「機器」とし、調理台を「設備」と捉えることも可能である。
機器管理データベース106は、前記機器操作検出装置105にて検出された各々の機器の識別情報(ID)とその機器の操作状態の情報(操作情報)と操作時にタイマー手段120から出力された時刻の情報(操作時刻情報)とを、機器操作検出毎に、機器管理情報として格納する。図16A,図16Bは、本発明の前記第1実施形態にかかる前記物品検索システムの機器管理データベース106に含まれる機器管理情報の例を表形式で示した図である。図16A,図16Bは機器として、「本棚」、「冷蔵庫」の例を挙げており、それぞれが独立した機器管理情報である。機器管理情報の内容としては、機器が操作された時刻の情報と、操作状態の情報(操作情報)として開閉のいずれかの情報が記載されている。本例は最も単純な例であるが、図15Aのように一つの機器に2つ以上の機器操作検出装置105が設置されている場合は、それぞれ独立して機器管理情報を用意すればよい。
物品存在領域推定手段107は、前記物品管理データベース102に格納された物品管理情報及び人管理データベース104に格納された人管理情報を(必要に応じて、さらに機器管理データベース106に格納された機器管理情報をも)参照し、人の移動領域を、検索対象の物品の物品存在領域であると、推定する。物品の存在領域の推定は、「課題を解決するための手段」の欄でも述べたように、人の動きと物品の存在場所には重要な相関関係があるはずという点に着眼して行う。これを、もう少し具体化すると、次に示す2つの原則に基づいて物品の位置が推定可能であるといえる。
物品位置候補重み付け手段108は、前記物品管理データベース102に格納された物品管理情報又は人管理データベース104に格納された人管理情報又は機器管理データベース106に格納された機器管理情報を参照して、前記物品存在領域推定手段107によって推定された複数の前記物品存在領域に対して、前記物品の存在する可能性の高い物品存在領域の重みが高くなるように重み付けを行う。言い換えると、直前で説明した物品存在領域推定手段107によって物品の位置をある程度絞り込んだ中から、さらに存在の可能性が高い物品存在領域を絞り込むこととも言える。本発明の前記第1実施形態では、この物品存在可能性の高い低いを行うことを「物品位置候補の重み付け」と呼ぶことにする。この重み付けにあたっては色々な方法が考えられるが、前記(原則1)、すなわち、人の動きと物品の位置とに関連性があるという考え方をさらに踏み込んで考えると、2つの適当な絞り込みの方法が考えられる。一つ目の絞り込みの方法は、物品を人が置いたり取ったりするときには、人の移動速度は低下もしくはゼロになるという一般的な観察結果から、この結果を活用する方法である。もう一つの絞り込みの方法は、同じく物品を人が置いたり取ったりするときには、前記物品を格納する(又はしていた)機器の操作を行うことが多いため、この機器の操作情報(例えば、操作の有無の情報)を活用する方法である。これら2つの方法と本発明の前記第1実施形態との関連付けは、前者は本発明の第3態様に、後者は本発明の第8態様にそれぞれ対応している。
・当該場所での平均移動速度と、
・当該場所の中心位置座標と、
の2項目を物品位置候補重み付け手段108により計算する。中心位置座標の計算としては、物品位置候補重み付け手段108により、前記しきい値以下の滞留状態中の位置座標の例えば平均を求めるなどすればよい。一つ目の平均移動速度は重み付けの指標に、また、もう一つの中心位置座標は、ユーザに物品の場所を提示する時に、それぞれ用いる。前記計算結果は、物品位置候補重み付け手段108により、例えば、物品位置候補重み付け手段108内の一時記憶部又は物品管理データベース102内の前記重み付けリストに登録する。
・平均移動速度と、
・中心位置座標と、
の2項目をそれぞれ物品位置候補重み付け手段108により計算する。前記計算結果は、物品位置候補重み付け手段108により、例えば、物品位置候補重み付け手段108内の一時記憶部又は物品管理データベース102内の前記重み付けリストに登録する。
・当該場所での平均移動速度と、
・当該場所の中心位置座標(本例では、その座標が部屋のどの場所かを示す場所名を付記)と、
・重み付け結果(順位を表している)と、
からなっており、それぞれ図19のステップS1904、ステップS1907の結果が、物品位置候補重み付け手段108により、例えば、物品位置候補重み付け手段108内の一時記憶部又は物品管理データベース102内の前記重み付けリストに格納されている。
ステップS4001からステップS4003までの処理は、ステップS1701からステップS1703までの処理と同様である。ステップS4001において、ユーザが、位置を検出したい検出対象物品を入力装置109で指定し、入力装置109で指定された検索対象物品が物品存在領域推定手段107に入力される。
まず、ステップS4301において、物品位置候補重み付け手段108は、物品存在領域推定手段107(図40のフローチャート)で取得した、取扱候補者の滞留点データ、及び、受渡候補者の滞留点データ(不使用フラグが付与されているものを除外)を用意し、同一人のデータであり、かつ、場所及び時刻が近接しているデータ集合を、滞留状態として重み付けリストに登録する。重み付けリストは、例えば、物品位置候補重み付け手段108内の一時記憶部又は物品管理データベース102内に設ける。場所及び時刻が近接しているか否かの判定には、例えば、場所同士の距離が所定のしきい値内であるかどうか、及び、時刻同士の時間差が所定のしきい値内であるかどうかを利用すればよい。
・当該滞留状態での平均移動速度と、
・当該滞留状態の中心位置座標と、
の2項目を計算する。中心位置座標の計算としては、前記しきい値以下の滞留状態中の位置座標の例えば平均を物品位置候補重み付け手段108により求めるなどすればよい。一つ目の平均移動速度は重み付けの指標に、また、もう一つの中心位置座標は、ユーザに物品の場所を提示する時に、それぞれ用いる。前記計算結果は、例えば、物品位置候補重み付け手段108内の一時記憶部又は物品管理データベース102内の前記重み付けリストに登録する。
・当該滞留状態での平均移動速度、及び、
・当該滞留状態の中心位置座標(人の滞留位置座標)
を計算する。本処理は、図43のフローチャートにおけるステップS4303と同様であるため説明を省略する。
「冷蔵庫及びキッチンシステム」 :19:32〜19:33
「ソファ1」 :19:34〜19:35
・クラシック音楽CD:お母さんの所有可能性100%、
・技術関係の本:お父さんの所有可能性100%、
・ファッション関係の本:娘の所有可能性60%、お母さんの所有可能性40%、
などと書いておけばよい。そして、前記履歴データの重み付けの結果と、物品位置候補重み付け手段108における重み付けの結果を両方利用することで、物品を扱った人が複数人いるといった複雑な場合でも適切な絞り込みをすることが可能となる。
撮像装置111は、当該物品検索を行う環境を撮影する。撮像装置111の一例としては、実際にはCMOSやCCDといった撮像素子を用いたカメラを使うことが一般的であるが、場所によっては、近赤外などの特殊なカメラを用いてもよい。また、1台の撮像装置で前記環境の全てを撮影しきれない場合は、もちろん、複数台の撮像装置を用意すればよいし、また、前記人検出装置103に用いたカメラを併用しても構わない。こうして設置された各撮像装置では、それぞれが写す画像が、実世界のどの位置に対応しているかの情報を付加しておく。この情報の最も簡単な記述態様としては、各撮像装置の各画素と実世界の座標を、
(u,v)−(x,y,z)
という風にして対応づけ記述を行えばよい(以下、本記述を対応方式1と呼ぶ)。また、もう少し情報量を減らす方法としては、各撮像装置110と、それぞれ写している床面の範囲のベクトルデータとを対応付けて、
camera1:(x11,y11)−(x12,y12)−(x13,y13)−(x14,y14)
camera2:(x21,y21)−(x22,y22)−(x23,y23)−(x24,y24)
………、
というふうに記述しても構わない(以下、本記述を対応方式2と呼ぶ)。対応方式2では、一つのベクトルデータは一つの床面領域を表すとすると、一つの撮像装置に最低1つのベクトルデータが必要であるが、例えば一つの撮像装置111の画像内に2つ以上の床面領域があるなどの場合は、必要に応じて複数個用意してもよい。また、実世界のモデルが既知で、また、カメラの実世界における位置や向きが既知であれば、それらの情報から計算によって、カメラに写っている実世界の各場所の実世界座標を求めることも可能である。なお、撮像装置に写る画像が、実世界のどの位置に対応しているかの情報については、撮像装置が動かされない限り、最初に一度だけ作っておけば変更する必要はない。
画像データベース112には、各撮像装置で撮影された画像情報が、タイムスタンプを付与して(タイマー手段120から出力された時刻の情報を付与して)蓄積される。画像は動画でも静止画でもよく、システムの性能に応じて使い分ければよい。図28は、動画をタイムスタンプを付与して蓄積している様子を示した概念図である。図28ではタイムスタンプを1分おきに付与している例を示しているが、もちろんもっと細かくてもよく、システムの要求スペックに合わせて決めればよい。
画像検索手段113は、前記物品存在領域推定手段107又は前記物品位置候補重み付け手段108で推定された、検索要求のあった物品があると推定された場所と時刻を得、続いて前記場所が撮影されかつ前記時刻が含まれた画像情報を、前記画像データベース112から抽出し、表示装置110にて表示する。
Claims (13)
- 少なくとも人が出入り可能な部屋の出入り口付近に配置されて、配置された部屋の情報を有し、物品に付されかつ前記物品の識別情報が記憶されたタグから前記物品の識別情報を読み取ることにより、前記物品を識別し検出するとともにタイマー手段から出力された時刻の情報を前記物品の検出時刻の情報として出力し、かつ、前記部屋の情報を前記物品の検出部屋の情報として出力する物品検出装置と、
前記物品検出装置から出力された前記物品の識別情報と前記物品の検出部屋の情報と前記物品の検出時刻の情報とを物品管理情報として格納する物品管理データベースと、
前記部屋内での前記人の識別情報と前記人の検出場所の情報と前記人の検出時刻の情報と前記部屋の情報とを検出することにより、前記人を個人毎に区別して検出する人検出装置と、
前記人検出装置にて検出された前記人の識別情報と前記人の検出場所の情報と前記人の検出時刻の情報と前記部屋の情報とを格納する人管理データベースと、
検索する対象物品の識別情報の入力が行われる入力装置と、
前記物品管理データベースに格納された前記物品のうちの前記入力装置から入力された前記対象物品の前記識別情報を用いて、前記物品管理データベースより前記物品の検出時刻の情報及び前記物品の前記検出部屋の情報を特定し、該特定された前記物品の検出時刻を含む所定の時間内でかつ該検出部屋の情報を用いて、前記人管理データベースより人の識別情報を特定し、該特定された人の識別情報を用いて、前記人管理データベースより前記物品の前記検出時刻以降の前記人の検出場所の情報を取得することにより前記対象物品の存在領域を推定する物品存在領域推定手段と、
を備える、物品位置推定装置。 - 前記物品存在領域推定手段により取得した前記人の検出場所の情報と前記人管理データベースに格納された前記人の検出時刻の情報とを用いて前記人の移動速度を求める物品位置候補重み付け手段をさらに備え、
前記物品存在領域推定手段は、前記物品位置候補重み付け手段により求められた前記人の移動速度としきい値とを比較して、前記しきい値以下の前記人の移動速度での前記人の検出場所を前記対象物品の前記物品存在領域として推定する、請求項1に記載の物品位置推定装置。 - 前記対象物品を収納管理する機器の操作の有無の情報を含む前記機器の操作情報を検出する機器操作検出装置と、
前記機器操作検出装置にて検出された各々の機器の前記操作情報を格納する機器管理データベースとをさらに備え、
前記物品存在領域推定手段により取得した前記人の検出場所の情報と前記人管理データベースに格納された前記人の識別情報と前記人の検出時刻の情報及び前記機器管理データベースに格納された前記操作情報中の前記機器の操作有りの情報を用いて、前記機器と前記人の検出場所との距離が所定のしきい値内で、かつ、前記機器の操作の時間と前記人の前記検出場所に居た時刻の時間差が所定のしきい値内であるときに、前記機器を前記対象物品の存在する可能性の高い物品存在領域として重み付けを行なう物品位置候補重み付け手段をさらに備えて、
前記物品存在領域推定手段は、前記物品位置候補重み付け手段により重み付けが行なわれた前記機器を前記対象物品の存在する可能性の高い物品存在領域として推定する、請求項1に記載の物品位置推定装置。 - 前記物品存在領域推定手段により取得した前記人の検出場所の情報と前記人管理データベースに格納された前記人の検出時刻の情報とを用いて複数の前記人の移動速度を求める物品位置候補重み付け手段をさらに備え、
前記物品位置候補重み付け手段は、前記物品位置候補重み付け手段により求めた複数の前記人の移動速度のうちの、予め定めた所定値以下の移動速度である前記人の移動速度の前記人の検出場所の情報と前記人の検出時刻の情報を滞留状態としてそれぞれ抽出し、前記滞留状態を構成する各情報を参照して前記人の移動速度の平均値をさらに求め、求められた前記人の移動速度の平均値が複数ある場合に、前記人の移動速度の平均値が低い領域ほど前記対象物品の存在する可能性の高い物品存在領域として重み付けを行い、
前記物品存在領域推定手段は、前記物品位置候補重み付け手段により重み付けが行われた、前記対象物品の存在する可能性の高い物品存在領域を前記対象物品の前記物品存在領域として推定する、請求項1に記載の物品位置推定装置。 - 前記物品位置候補重み付け手段は、
前記物品存在領域推定手段により取得した前記人の検出場所の情報と、前記人の前記識別情報と前記人の検出時刻の情報を利用して前記人の移動速度を求め、予め定めた所定値以下の移動速度である前記人の移動速度のうちの前記人の検出場所の情報と前記人の検出時刻の情報を滞留状態として抽出し、前記滞留状態の前後における前記人の検出場所の情報と前記人の検出時刻の情報を利用して前記滞留状態の前後における前記人の移動速度をそれぞれ求め、前記人の移動速度が、前記滞留状態の前記人の移動速度、前記滞留状態の前の前記人の移動速度、前記滞留状態の後の前記人の移動速度の順に大きくなる場合に、前記滞留状態での前記人の検出場所にありかつ前記物品位置候補重み付け手段により重み付けが行なわれた前記機器を前記対象物品の存在する可能性の高い物品存在領域として重みが高くなるように重み付けを行う、請求項3に記載の物品位置推定装置。 - 前記物品位置候補重み付け手段は、前記物品位置候補重み付け手段により重み付けが行なわれた前記滞留状態の前記人の検出時刻の情報を利用して前記滞留状態がしきい値以上続いているか否かを判断し、前記滞留状態が前記しきい値以上続いている場合に、前記人の検出場所を、前記対象物品の存在する可能性の高い物品存在領域として重みが高くなるように重み付けを行う、請求項4又は5に記載の物品位置推定装置。
- 前記物品位置候補重み付け手段は、前記物品存在領域推定手段により取得した前記人の検出場所の情報と前記人管理データベースに格納された複数の人の識別情報と前記人の検出時刻の情報とを用いて前記複数の人のそれぞれの移動速度を求め、
前記物品存在領域推定手段は、
前記複数の人それぞれの識別情報と前記人の検出場所の情報と前記人の検出時刻の情報とを利用して、前記物品位置候補重み付け手段で求められかつ予め定めた所定値以下の移動速度である前記移動速度のうちの前記複数の人それぞれの検出場所の情報と前記人の検出時刻の情報を滞留状態として抽出し、前記複数の人それぞれの滞留状態が重なっている場合に、前記複数の人の間での前記対象物品の受け渡しがあったものとして、前記対象物品の存在する可能性の高い物品存在領域として重み付けを行なう、請求項2〜6のいずれか1つに記載の物品位置推定装置。 - 前記入力装置から入力された前記識別情報を有する前記対象物品の物品存在領域を前記物品存在領域推定手段で推定する請求項1又は3に記載の前記物品位置推定装置と、
前記物品位置推定装置での推定結果を用いて、前記検索対象物品の存在する物品存在領域を表示する表示装置と、
を備える物品検索システム。 - 当該対象物品検索を行う環境を撮影する撮像装置と、
前記撮像装置で撮影された画像情報を蓄積する画像データベースと、
前記物品位置推定装置が検索要求のあった前記対象物品が置かれたと推定される前記部屋内の場所と時刻とを推定し、前記推定結果を用いて、前記部屋内の前記場所を撮影しかつ前記時刻を含む画像情報を前記画像データベースから抽出する画像検索手段とを備え、
前記表示装置は、前記画像検索手段にて検索された画像情報を表示する、請求項8に記載の物品検索システム。 - 少なくとも人が出入り可能な部屋の出入り口付近で、物品に付されかつ前記物品の識別情報が記憶されたタグから前記物品の識別情報を物品検出装置で読み取ることにより、前記物品を識別し検出するとともにタイマー手段から出力された時刻の情報を前記物品の検出時刻の情報として前記物品検出装置から出力し、かつ、前記物品検出装置が配置された部屋の情報を前記物品の検出部屋の情報として前記物品検出装置から出力 するステップと、
前記物品検出装置から出力された前記物品の識別情報と前記物品の検出部屋の情報と前記物品の検出時刻の情報とを物品管理データベースに格納するステップと、
前記部屋内での前記人の識別情報と前記人の検出場所の情報と前記人の検出時刻の情報と前記部屋の情報とを検出することにより、前記人を個人毎に区別して人検出装置にて検出するステップと、
前記人検出装置にて検出された前記人の識別情報と前記人の検出場所の情報と前記人の検出時刻の情報と前記部屋の情報とを人管理データベースに格納するステップと、
検索する対象物品の識別情報の入力が行われる入力ステップと、
前記物品管理データベースに格納された前記物品のうちの前記入力ステップで入力された前記対象物品の前記識別情報を用いて、前記物品管理データベースより前記物品の検出時刻の情報及び前記物品の前記検出部屋の情報を特定し、該特定された前記物品の検出時刻を含む所定の時間内でかつ該検出部屋の情報を用いて、前記人管理データベースより人の識別情報を特定し、該特定された人の識別情報を用いて、前記人管理データベースより前記物品の前記検出時刻以降の前記人の検出場所の情報を取得することにより前記対象物品の存在領域を物品存在領域推定手段で推定するステップと、
を備える、物品位置推定方法。 - 機器操作検出装置が前記対象物品を収納管理する機器の操作の有無の情報を含む前記機器の操作情報を検出し、検出した操作情報を機器管理データベースに格納するステップと、
前記物品存在領域推定手段により取得した前記人の検出場所の情報と前記人管理データベースに格納された前記人の識別情報と前記人の検出時刻の情報及び前記機器管理データベースに格納された前記操作情報中の前記機器の操作有りの情報を用いて、前記機器と前記人の検出場所との距離が所定のしきい値内で、かつ、前記機器の操作の時間と前記人の前記検出場所に居た時刻の時間差が所定のしきい値内であるときに、前記機器を前記対象物品の存在する可能性の高い物品存在領域として重み付けを物品位置候補重み付け手段で行なうステップをさらに備えて、
前記対象物品の存在領域を前記物品存在領域推定手段で推定するステップにおいて、前記物品位置候補重み付け手段で行なうステップにより重み付けが行なわれた前記機器を前記対象物品の存在する可能性の高い物品存在領域として推定する、請求項10に記載の物品位置推定方法。 - コンピュータに、
少なくとも人が出入り可能な部屋の出入り口付近で、物品に付されかつ前記物品の識別情報が記憶されたタグから前記物品の識別情報を物品検出装置で読み取ることにより、前記物品を識別し検出するとともにタイマー手段から出力された時刻の情報を前記物品の検出時刻の情報として前記物品検出装置から出力し、かつ、前記物品検出装置が配置された部屋の情報を前記物品の検出部屋の情報として前記物品検出装置から出力された、前記物品の識別情報と前記物品の検出部屋の情報と前記物品の検出時刻の情報とを物品管理データベースに格納するステップと、
前記部屋内での前記人の識別情報と前記人の検出場所の情報と前記人の検出時刻の情報と前記部屋の情報とを検出することにより、前記人を個人毎に区別して人検出装置で検出された前記人の識別情報と前記人の検出場所の情報と前記人の検出時刻の情報と前記部屋の情報とを人管理データベースに格納するステップと、
検索する対象物品の識別情報の入力が行われる入力ステップと、
前記物品管理データベースに格納された前記物品のうちの前記入力ステップで入力された前記対象物品の前記識別情報を用いて、前記物品管理データベースより前記物品の検出時刻の情報及び前記物品の前記検出部屋の情報を特定し、該特定された前記物品の検出時刻を含む所定の時間内でかつ該検出部屋の情報を用いて、前記人管理データベースより人の識別情報を特定し、該特定された人の識別情報を用いて、前記人管理データベースより前記物品の前記検出時刻以降の前記人の検出場所の情報を取得することにより前記対象物 品の存在領域を推定するステップとを実行させるための物品位置推定用プログラム。 - 少なくとも人が出入り可能な部屋の出入り口付近に配置されて、配置された部屋の情報を有し、物品に付されかつ前記物品の識別情報が記憶されたタグから前記物品の識別情報を読み取ることにより、前記物品を識別し検出するとともにタイマー手段から出力された時刻の情報を前記物品の検出時刻の情報として出力し、かつ、前記部屋の情報を前記物品の検出部屋の情報として出力する物品検出装置と、
前記部屋内での前記人の識別情報と前記人の検出場所の情報と前記人の検出時刻の情報と前記部屋の情報とを検出することにより、前記人を個人毎に区別して検出する人検出装置と、
前記物品検出装置から出力された前記物品の識別情報と前記物品の検出時刻の情報と前記物品の検出部屋の情報と、前記人検出装置から出力された前記人の識別情報と前記人の検出場所の情報と前記人の検出時刻の情報と前記部屋の情報とを格納するデータベースと、
検索する対象物品の識別情報の入力が行われる入力装置と、
前記データベースに格納された前記情報及び前記入力装置から入力された前記対象物品の前記識別情報を用いて、前記物品の前記検出時刻の情報及び前記物品の前記検出部屋の情報を特定し、該特定された前記物品の検出時刻を含む所定の時間内でかつ該検出部屋の情報を用いて、前記人の識別情報を特定し、該特定された人の識別情報を用いて、前記物品の前記検出時刻以降の前記人の検出場所の情報を取得することにより前記対象物品の存在領域を推定する物品存在領域推定手段と、
を備える、物品位置推定装置。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005105923 | 2005-04-01 | ||
| JP2005105923 | 2005-04-01 | ||
| PCT/JP2006/305401 WO2006109423A1 (ja) | 2005-04-01 | 2006-03-17 | 物品位置推定装置、物品位置推定方法、物品検索システム、及び物品位置推定用プログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP4006471B2 true JP4006471B2 (ja) | 2007-11-14 |
| JPWO2006109423A1 JPWO2006109423A1 (ja) | 2008-10-16 |
Family
ID=37086714
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006519678A Active JP4006471B2 (ja) | 2005-04-01 | 2006-03-17 | 物品位置推定装置、物品位置推定方法、物品検索システム、及び物品位置推定用プログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US7545278B2 (ja) |
| JP (1) | JP4006471B2 (ja) |
| WO (1) | WO2006109423A1 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017149582A1 (ja) * | 2016-02-29 | 2017-09-08 | 三井造船株式会社 | データ処理方法及び計測装置 |
| CN109791638A (zh) * | 2016-09-30 | 2019-05-21 | 三菱电机大楼技术服务株式会社 | 所在人数预测装置、设备管理系统以及程序 |
Families Citing this family (25)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2007074671A1 (ja) | 2005-12-28 | 2007-07-05 | Matsushita Electric Industrial Co., Ltd. | 物体検出装置、物体検出方法、及び、物体検出用コンピュータプログラム |
| US20080273754A1 (en) * | 2007-05-04 | 2008-11-06 | Leviton Manufacturing Co., Inc. | Apparatus and method for defining an area of interest for image sensing |
| JP4983505B2 (ja) * | 2007-09-25 | 2012-07-25 | ブラザー工業株式会社 | 無線タグ通信装置 |
| JP5088143B2 (ja) * | 2008-01-09 | 2012-12-05 | 富士通株式会社 | 位置判定方法 |
| JP4569663B2 (ja) * | 2008-04-25 | 2010-10-27 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| JP5458802B2 (ja) * | 2008-10-23 | 2014-04-02 | リコーイメージング株式会社 | デジタルカメラ |
| JP5594955B2 (ja) * | 2008-12-11 | 2014-09-24 | パナソニック株式会社 | 照明システム |
| US8600118B2 (en) * | 2009-06-30 | 2013-12-03 | Non Typical, Inc. | System for predicting game animal movement and managing game animal images |
| US9058732B2 (en) * | 2010-02-25 | 2015-06-16 | Qualcomm Incorporated | Method and apparatus for enhanced indoor position location with assisted user profiles |
| WO2011108055A1 (ja) * | 2010-03-03 | 2011-09-09 | パナソニック株式会社 | 物体位置推定装置、物体位置推定方法、及び、物体位置推定プログラム |
| CA3147683C (en) | 2010-11-19 | 2023-09-05 | Isolynx, Llc | Associative object tracking systems and methods |
| US20120320204A1 (en) * | 2011-06-20 | 2012-12-20 | 3M Innovative Properties Company | Asset assessment system |
| JP5959923B2 (ja) * | 2012-04-26 | 2016-08-02 | キヤノン株式会社 | 検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置 |
| JP6065911B2 (ja) * | 2012-08-06 | 2017-01-25 | 日本電気株式会社 | 配置情報登録装置、配置情報登録方法および配置情報登録プログラム |
| JP6021937B2 (ja) * | 2012-11-13 | 2016-11-09 | 三菱電機株式会社 | 空気調和システム及び中央管理装置 |
| JP6020101B2 (ja) * | 2012-12-04 | 2016-11-02 | 富士通株式会社 | 物品の配置位置管理装置、プログラム及び方法 |
| JP6049448B2 (ja) * | 2012-12-27 | 2016-12-21 | キヤノン株式会社 | 被写体領域追跡装置、その制御方法及びプログラム |
| US20160088262A1 (en) * | 2013-04-10 | 2016-03-24 | Lg Electronics Inc. | Method For Managing Storage Product In Refrigerator Using Image Recognition, And Refrigerator For Same |
| US10929661B1 (en) * | 2013-12-19 | 2021-02-23 | Amazon Technologies, Inc. | System for user identification |
| JP5830706B2 (ja) * | 2014-01-29 | 2015-12-09 | パナソニックIpマネジメント株式会社 | 店員作業管理装置、店員作業管理システムおよび店員作業管理方法 |
| JP6238783B2 (ja) * | 2014-02-20 | 2017-11-29 | 大和ハウス工業株式会社 | 収納管理システム |
| JP2018073012A (ja) * | 2016-10-26 | 2018-05-10 | 株式会社東芝 | 管理システム |
| JP2023110357A (ja) * | 2022-01-28 | 2023-08-09 | 積水ハウス株式会社 | 情報処理装置 |
| CN114743326A (zh) * | 2022-04-07 | 2022-07-12 | 武汉东湖学院 | 一种设置有智能识别的智能制造车间防盗预警系统 |
| WO2024195059A1 (ja) * | 2023-03-22 | 2024-09-26 | 日本電気株式会社 | 移動履歴管理装置、移動履歴管理方法、および記録媒体 |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07146362A (ja) | 1993-11-25 | 1995-06-06 | Nippon Dry Chem Co Ltd | 物品探索システム |
| EP1027689A4 (en) * | 1997-11-03 | 2003-04-02 | Arial Systems Corp | Personnel and asset tracking method and apparatus |
| US6154139A (en) * | 1998-04-21 | 2000-11-28 | Versus Technology | Method and system for locating subjects within a tracking environment |
| US6084517A (en) * | 1998-08-12 | 2000-07-04 | Rabanne; Michael C. | System for tracking possessions |
| JP2000357251A (ja) | 1999-06-14 | 2000-12-26 | Sharp Corp | 物品管理システム |
| GB2380638B (en) * | 2000-05-22 | 2004-05-12 | Avery Dennison Corp | Trackable files and systems for using the same |
| US6300872B1 (en) * | 2000-06-20 | 2001-10-09 | Philips Electronics North America Corp. | Object proximity/security adaptive event detection |
| US7248933B2 (en) * | 2001-05-08 | 2007-07-24 | Hill-Rom Services, Inc. | Article locating and tracking system |
| JP2003233715A (ja) * | 2002-02-08 | 2003-08-22 | Sharp Corp | 生活情報管理システムおよび方法ならびに生活情報処理装置 |
| US6933849B2 (en) * | 2002-07-09 | 2005-08-23 | Fred Sawyer | Method and apparatus for tracking objects and people |
| JP3738254B2 (ja) * | 2003-02-19 | 2006-01-25 | 松下電器産業株式会社 | 物品管理システム |
| JP3735675B2 (ja) * | 2003-06-23 | 2006-01-18 | 独立行政法人情報通信研究機構 | 物体配置図作成方法およびそのプログラムと記憶媒体、ならびに物体配置図作成システム |
-
2006
- 2006-03-17 WO PCT/JP2006/305401 patent/WO2006109423A1/ja not_active Ceased
- 2006-03-17 JP JP2006519678A patent/JP4006471B2/ja active Active
-
2007
- 2007-04-26 US US11/796,047 patent/US7545278B2/en active Active
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017149582A1 (ja) * | 2016-02-29 | 2017-09-08 | 三井造船株式会社 | データ処理方法及び計測装置 |
| CN109791638A (zh) * | 2016-09-30 | 2019-05-21 | 三菱电机大楼技术服务株式会社 | 所在人数预测装置、设备管理系统以及程序 |
| CN109791638B (zh) * | 2016-09-30 | 2023-09-15 | 三菱电机楼宇解决方案株式会社 | 所在人数预测装置、设备管理系统以及记录介质 |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2006109423A1 (ja) | 2006-10-19 |
| JPWO2006109423A1 (ja) | 2008-10-16 |
| US20070247321A1 (en) | 2007-10-25 |
| US7545278B2 (en) | 2009-06-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4006471B2 (ja) | 物品位置推定装置、物品位置推定方法、物品検索システム、及び物品位置推定用プログラム | |
| US20200364752A1 (en) | Storefront device, storefront system, storefront management method, and program | |
| US20160373570A1 (en) | Object tracking | |
| JP2017174272A (ja) | 情報処理装置及びプログラム | |
| CN103761505A (zh) | 对象跟踪 | |
| US9619039B2 (en) | Obtaining metrics for a position using frames classified by an associative memory | |
| JP6029622B2 (ja) | 情報管理サーバ、情報管理方法、および情報管理プログラム | |
| CA2883697A1 (en) | Identifying movements using a motion sensing device coupled with an associative memory | |
| US20190073616A1 (en) | Customer interaction identification and analytics system | |
| JP5910249B2 (ja) | インタラクション装置およびインタラクション制御プログラム | |
| US11561750B2 (en) | Retrieving personalized visual content items in real time for display on digital-content-display devices within a physical space | |
| Konstantinidis et al. | A deep network for automatic video-based food bite detection | |
| US20210334758A1 (en) | System and Method of Reporting Based on Analysis of Location and Interaction Between Employees and Visitors | |
| Diete et al. | Exploring a multi-sensor picking process in the future warehouse | |
| Ayub et al. | Don’t forget to buy milk: Contextually aware grocery reminder household robot | |
| US20090175615A1 (en) | Location determination method | |
| US10726378B2 (en) | Interaction analysis | |
| Foudeh et al. | A probabilistic data-driven method for human activity recognition | |
| Galván-Tejada et al. | Magnetic-field feature reduction for indoor location estimation applying multivariate models | |
| Torabi et al. | Development of a Machine Learning Based in-Home Physical Activity Monitoring System Using Wrist Actigraphy and Real-Time Location System. | |
| JP6362325B2 (ja) | 物体追跡 | |
| Krishnamoorthy et al. | Automated shopping experience using real-time IoT | |
| Mori et al. | Active rfid-based object management system in sensor-embedded environment | |
| JP2021176079A (ja) | 商品配置提案プログラム | |
| JP7457049B2 (ja) | サポートシステム、サポート処理装置及びサポート方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070731 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070827 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4006471 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100831 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110831 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110831 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120831 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130831 Year of fee payment: 6 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |