JP6362325B2 - Object tracking - Google Patents
Object tracking Download PDFInfo
- Publication number
- JP6362325B2 JP6362325B2 JP2013261749A JP2013261749A JP6362325B2 JP 6362325 B2 JP6362325 B2 JP 6362325B2 JP 2013261749 A JP2013261749 A JP 2013261749A JP 2013261749 A JP2013261749 A JP 2013261749A JP 6362325 B2 JP6362325 B2 JP 6362325B2
- Authority
- JP
- Japan
- Prior art keywords
- rotatably
- kiutsuri
- user
- tracked
- subsystem
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
[0001] 物体の位置や他の状態の追跡は、日常生活において多大な労力を占めることがある。その上、間違った場所に置かれた物体を探し当てようとするのに、多くの時間が費やされることがある。例えば、間違った場所に置かれた車のキー、財布、モバイルデバイス等を捜索することは、人々が生産的な時間を失う原因となるかもしれない。同様に、家の冷蔵庫の中の牛乳パックがほとんど空になっているのを忘れた場合、もし当該買い物客が牛乳パックの状態を覚えていたとしたら避けられたであろう、その店への追加の外出をしなければならなくなるかもしれない。いくつかの事例では、そのような物体は所有者以外の人によって移動されたり、空にされたりすることがあり、それによって、追跡の作業が複雑になる。 [0001] Tracking the position of an object and other states can occupy a great deal of effort in daily life. In addition, a lot of time may be spent trying to locate an object placed in the wrong place. For example, searching for the wrong car key, wallet, mobile device, etc. may cause people to lose productive time. Similarly, if you forget that the milk cart in the refrigerator at home is almost empty, if the shopper remembers the status of the cart, an additional outing to the store will be avoided. You may have to do. In some cases, such objects may be moved or emptied by someone other than the owner, thereby complicating the tracking task.
[0002] したがって、物体の自動的な追跡に関連する様々な実施態様が本明細書で開示される。例えば、1つの開示された実施態様は、イメージセンサーを備えたモバイルコンピューティングデバイスを動作させる方法を提供する。前記方法は、イメージデータを取得するステップと、前記イメージデータの中で不活発移動可能物体を識別するステップと、前記不活発移動可能物体が追跡対象物体であるか否かを判定するステップと、前記不活発移動可能物体が追跡対象物体である場合に、前記不活発移動可能物体の状態に関する情報を記憶するステップとを含む。前記方法は、更に、前記不活発移動可能物体の状態の通知を提供するためのトリガーを検出するステップと、前記不活発移動可能物体の状態の通知の出力を提供するステップとを含む。 [0002] Accordingly, various embodiments relating to automatic tracking of objects are disclosed herein. For example, one disclosed embodiment provides a method of operating a mobile computing device that includes an image sensor. The method includes: obtaining image data; identifying an inactive movable object in the image data; determining whether the inactive movable object is a tracked object; Storing information relating to the state of the inactive movable object when the inactive movable object is a tracking target object. The method further includes detecting a trigger for providing a notification of the state of the inactive movable object, and providing an output of a notification of the state of the inactive movable object.
[0003] この概要は、詳細な説明において更に後述される概念からの選抜を簡略な形で導入するために提供される。この概要は、請求された主題の主要な特徴又は本質的な特徴を特定することを意図したものではなく、また、請求された主題の有効範囲を限定するのに用いられることを意図したものでもない。更にまた、請求された主題は、この開示のいずれかの部分に述べられたいくつかの、又は全ての欠点を解決する具体例には限定されない。 [0003] This summary is provided to introduce a selection of concepts in a simplified form that are further described below in the detailed description. This summary is not intended to identify key features or essential features of the claimed subject matter, nor is it intended to be used to limit the scope of the claimed subject matter. Absent. Furthermore, the claimed subject matter is not limited to implementations that solve any or all disadvantages noted in any part of this disclosure.
[0010] 上述されたように、物体の状態(例えば位置又は他の物理的状態)を追跡すること、及び覚えておくことは、日常生活の間における労力にかなりの時間をとることがある。その上、物体の状態を正確に追跡しそこなうと、時間と生産性の損失をもたらすことがある。したがって、物体の状態を自動的に追跡することに関する実施態様が、本明細書において開示される。簡潔に言えば、モバイルデバイス、例えばユーザーによって装着されたシースルー・ディスプレイは、ユーザーの環境を観測するイメージセンサーを備えることができる。イメージセンサーからの映像データが処理されて、ユーザーの環境内の物体を検出し、映像データ中において追跡対象物体を識別することができる。次いで、追跡対象物体の状態情報、例えば位置や他の特性が記憶されることができる。これによって、ユーザー要求又はコンテキストに関する手がかりなどのアラートトリガーを検出した時に、追跡対象物体の状態に関するアラートを出力することが可能となる。状態情報は、ローカルに記憶され、及び/又は、リモートサービスにアップロードされることができる。複数の人が本明細書に開示されたような物体追跡デバイスを利用する場合には、各人が、物体追跡情報の共有を通じて、他のユーザーによりなされた物体に対する変化を知ることができる。このようにして、ユーザーは、失くしたキーの最新の位置を発見することが可能であり、食料品店の乳製品売り場を見て回っている間にもっと多くの牛乳を買うべきとのリマインダーを提供されることができ、及び/又は、他の物体状態情報を任意の適切な方法で追跡し、思い出すことができる。 [0010] As noted above, tracking and remembering the state of an object (eg, position or other physical state) can take a significant amount of effort during daily life. In addition, failing to accurately track the state of an object can result in a loss of time and productivity. Accordingly, embodiments relating to automatically tracking the state of an object are disclosed herein. Briefly, a mobile device, such as a see-through display worn by a user, can include an image sensor that observes the user's environment. Video data from the image sensor can be processed to detect objects in the user's environment and identify the tracked object in the video data. The state information of the tracked object can then be stored, for example the position and other characteristics. As a result, when an alert trigger such as a user request or a clue related to the context is detected, an alert regarding the state of the tracking target object can be output. The state information can be stored locally and / or uploaded to a remote service. When multiple people utilize an object tracking device as disclosed herein, each person can see changes to objects made by other users through sharing object tracking information. In this way, it is possible for the user to find the latest location of the lost key, and a reminder that he should buy more milk while looking around the grocery store's dairy counter And / or other object state information can be tracked and recalled in any suitable manner.
[0011] 図1A及び1Bは、非限定的な例示の使用シナリオを示す。まず、図1Aは、眼鏡の形をしたヘッドマウント型シースルー・ディスプレイデバイス100を装着し、第1時刻t1においてシースルー・ディスプレイデバイス100を通して環境(リビングルーム)を見ているユーザーを示す。以下においてより詳細に説明されるように、シースルー・ディスプレイデバイス100は、ユーザーが動き回っている際に映像イメージを取得する1又は複数の外向きイメージセンサー(RGB及び/又は深度センサー)を備える。取得された映像イメージはリアルタイムで、又は後で分析されて、以下においてより詳細に説明されるように、ユーザーによって追跡される移動可能な不活発(inanimate)物体を識別することができる。図1Aでは、追跡される移動可能な不活発物体の例示的実施態様は、テーブルの上でひと山の雑誌の下に置かれたキー102として示されているが、任意の適切な物体が追跡されることができる、ということが理解されるだろう。
[0011] FIGS. 1A and 1B illustrate non-limiting exemplary usage scenarios. First, FIG. 1A shows a user wearing a head-mounted see-through
[0012] 識別された物体データ及び/又はイメージデータは、当該物体に関してユーザーに将来の情報、例えばアラートを提供するために、記憶されることができる。例えば、図1Bを参照すると、後の時刻t2において、キー102は新聞104で覆われている。よって、キーの位置についての情報を要求するユーザー入力(例えばシースルー・ディスプレイデバイス100のマイクを通じて検出された音声コマンド)に応答して、キーがシースルー・ディスプレイデバイス100上で強調表示106される。
[0012] The identified object data and / or image data can be stored to provide future information, such as alerts, to the user regarding the object. For example, referring to FIG. 1B, the
[0013] シースルー・ディスプレイデバイス100は、ユーザーが観察する、又は相互作用することさえもある全ての物体に対する状態情報を追跡しなくてもよい、ということが理解されるだろう。例えば、図1Aでは、ユーザーによって観察される環境は、ユーザーが追跡することを望まないかもしれないキー102以外の様々な他の移動可能な不活発物体、例えば雑誌108、植木鉢110、及び本棚の本112を含んでいる。
[0013] It will be appreciated that the see-through
[0014] したがって、シースルー・ディスプレイデバイス100は、十分に「重要である」と考えられる物体の状態を追跡することができ、ここで、「重要である」という用語は、物体を追跡対象として指定するのに十分な暗示的及び/又は明示的情報が受け取られたかどうかを表す。こうして、観察された不活発移動可能物体の状態に関する何らの情報をも記憶する前に、シースルー・ディスプレイデバイス100は、当該物体が追跡対象物体であるか否かを判定し、次いで、もし当該物体が追跡対象物体であれば、状態情報を記憶することができる。シースルー・ディスプレイデバイス100はまた、物体に割り当てられた「重要度スコア」を変化させる情報を検出することもできる。以下においてより詳細に説明されるように、そのような重要度スコアは、物体状態情報を追跡するか否か、及び/又はどの物体状態情報を追跡すべきかを決定するための1又は複数の閾値重要度スコアと比較されることができる。
[0014] Accordingly, the see-through
[0015] 不活発移動可能物体は、任意の適切な方法で追跡対象として定義されることができる。例えば、物体の追跡対象としてのステータスは、(例えば開発者によって)事前定義されることができ、ユーザー定義されることができ、及び/又は適応的に学習されることができる。いくつかの物体が追跡対象として事前定義される実施態様では、事前定義が、大抵のユーザーにとって重要であると考えられる一群の物体、例えばキー、財布、金融取引カード等に対して適用されることができる。更に、ユーザーは、事前定義された重要な物体の定義に合致する物体を、もし追跡がその物体に対して望ましくなければ、追跡対象物体のリストから除去する能力を有することができる。 [0015] An inactive movable object can be defined as a tracking target in any suitable manner. For example, the status of an object to be tracked can be predefined (eg, by a developer), can be user defined, and / or can be learned adaptively. In an embodiment where some objects are predefined for tracking, the pre-definition applies to a group of objects that are considered important to most users, such as keys, wallets, financial transaction cards, etc. Can do. In addition, the user may have the ability to remove objects that meet a predefined important object definition from the tracked object list if tracking is not desired for that object.
[0016] 物体は、任意の適切な方法で追跡対象として指定されることができる。例えば、シースルー・ディスプレイデバイス100は、ユーザーが物体をシースルー・ディスプレイデバイス100のイメージセンサーの視野内に保持し、又は他の方法で配置し、その物体のイメージをスキャンし、それを追跡対象として特定する、物体指定モードを含むことができる。より具体的な例として、シースルー・ディスプレイデバイス100を装着したユーザーは、不活発移動可能物体(例えばキー、財布、クレジット/デビットカード等)をシースルー・ディスプレイデバイス100の前に保持しながら、例えば「この物体を追跡する」といったような音声コマンドを使用し、それによって、その物体を追跡対象物体として記憶するようにシースルー・ディスプレイデバイスをトリガーすることができる。
[0016] The object can be designated as a tracking target in any suitable manner. For example, the see-through
[0017] 更に、いくつかの実施態様では、ユーザーは、追跡対象物体の指定に時間制約条件及び/又は位置制約条件をかけることが可能であってよい。例えば、海外へ旅行中のユーザーは、指定された日付範囲の間、又は指定された場所(例えば自宅)へ戻るまでパスポートを追跡対象物体として指定し、当該指定された日付、場所、若しくは他の条件が満たされた時に追跡が自動的に終了するようにすることができる。加えて、ユーザーは、不活発移動可能物体のステータスを追跡対象から非追跡対象へ随時変更するオプションを有することができる。追跡対象物体のユーザー指定のためのこれらの方法は例示の目的のために提示されたものであり、ユーザーは任意の適切な方法で追跡対象物体を定義することができる、ということが理解されるだろう。 [0017] Furthermore, in some implementations, the user may be able to place time constraints and / or position constraints on the designation of the tracked object. For example, a user traveling abroad may specify a passport as a tracked object during a specified date range or until returning to a specified location (eg, home), and the specified date, location, or other Tracking can be automatically terminated when a condition is met. In addition, the user may have the option to change the status of inactive movable objects from tracked to untracked at any time. It is understood that these methods for user designation of tracked objects are presented for illustrative purposes, and the user can define the tracked object in any suitable way. right.
[0018] 上述されたように、いくつかの実施態様では、シースルー・ディスプレイデバイス100は、どの物体を追跡すべきかを適応的に学習することができる。このことは、追跡対象物体として明示的には定義されなかったが、それでもなおある人にとっては潜在的に重要である物体を、その人が探し当てるのに役立つことができる。シースルー・ディスプレイデバイス100は、任意の適切な基準に基づいて、不活発移動可能物体を追跡対象物体として適応的に指定することができる。例えば、シースルー・ディスプレイデバイス100は、不活発移動可能物体を、当該物体の目撃及び/又は当該物体とのユーザー相互作用の数、パターン、及び/又は頻度に基づいて追跡対象物体として指定し、より頻繁に目にする、及び/又は相互作用される物体が、より高い可能性で重要とみなされるようにすることができる。
[0018] As described above, in some implementations, the see-through
[0019] 更に、シースルー・ディスプレイデバイス100は、特定の場所(例えば、自宅、職場、及び他の場所)、時間、及び/又は状況(例えば、仕事に出掛ける準備ができた)を認識し、不活発移動可能物体を追跡対象物体として指定すべきか否かを、ユーザーが当該物体と相互作用する又は当該物体を別の態様で目にする場所、及び/又は状況に基づいて決定することができる。例えば、ユーザーの自宅の本棚に置かれた物体は、重要な物体である可能性が商品棚に置かれた物体よりも高いかもしれない。別の例として、追跡対象物体のすぐそばに配置された物体は、重要である可能性が他の物体よりも高いかもしれない。例えば、ユーザーは、キー、財布、及びモバイルデバイスをひとまとめにして一緒にテーブルの上に置くかもしれない。更に別の例として、他の人によって移動された物体は、潜在的に重要であるとみなされることができる。
[0019] Further, the see-through
[0020] 更に、いくつかの実施態様では、ユーザーは、ある場所及び/又はある時間を指定重要位置及び/又は指定重要時間として指定することが可能であってよい。このようにして、ユーザーが当該指定位置及び/又は当該指定時間に相互作用した物体は、重要と指定されていない時間及び/又は場所におけるよりも、重要である可能性がより高いかもしれない。一例として、ユーザーは、休暇の期間中、渡航文書のキャリア(travel document carrier)を重要な物体として指定することができる。同様に、ユーザーが自宅から別の場所へ運ぶ物体は、重要な物体である可能性が他の場所から由来する物体よりも高いかもしれない。例えば、レストランでは、ユーザーのコップよりも、ユーザーがコートのポケットから取り出してテーブルの上に置いた物体を追跡することがより望ましいかもしれない。 [0020] Further, in some implementations, a user may be able to designate a location and / or a time as a designated critical location and / or designated critical time. In this way, objects that the user interacted with at the designated location and / or at the designated time may be more likely to be important than at times and / or places that are not designated as important. As an example, the user can designate a travel document carrier as an important object during the holidays. Similarly, an object that a user carries from home to another location may be more likely to be an important object than an object that originates from another location. For example, in a restaurant, it may be more desirable to track an object that a user has taken out of a coat pocket and placed on a table than a user's cup.
[0021] 更に別の例として、ユーザーが一日のうちのある時間に(例えば朝仕事に出掛ける前に)相互作用した物体は、重要な物体である可能性が、他の時間にそのユーザーが相互作用した物体よりも高いかもしれない。更に、ユーザーがユーザーコンテキストの変化に時間的に近接して(例えば、仕事に出掛けるため自宅を出る前に)相互作用した物体は、重要である可能性が高いかもしれない。何故なら、ユーザーは、自宅又は職場を出る前に、キー、財布、書類鞄、スマートフォン等と相互作用することがあるからである。ユーザーが長さの変わり得る出来事(キーを発見及び/又は家を出る前に毎朝キーを探すのに費やされる時間)の最後に相互作用した物体も、重要である可能性がより高いとみなされることができる。 [0021] As yet another example, an object that a user interacts at some time of the day (eg, before going out to work in the morning) can be an important object, but at other times the user May be higher than the interacting object. Furthermore, objects that the user interacts with in close proximity to changes in user context in time (e.g., before leaving home to go to work) may likely be important. This is because users may interact with keys, wallets, paper bags, smartphones, etc. before leaving home or work. Objects that the user interacts at the end of variable length events (time spent finding keys and / or looking for keys every morning before leaving home) are also considered more likely to be important be able to.
[0022] 不活発移動可能物体は、任意の適切な方法で適応的に追跡対象として指定されることができる。例えば、上述されたように、重要度スコアが、映像イメージデータ内で検出及び特定された物体に対して、シースルー・ディスプレイデバイスのユーザーの当該物体との相互作用に関連する位置的、時間的、行動的、及び/又は他の要因に基づいて割り当てられることができる。もし重要度スコアが閾値重要度スコアを満たし、あるいは超えたら、その物体は追跡対象として指定されることができ、その物体の状態に関するより詳細な情報(例えば、その物体に関する最新の位置、履歴位置、変化し得る物理的特性の値等)が記憶されることができる。更に、いくつかの実施態様では、重要度の異なるレベルを定義するために異なる閾値重要度スコアが用いられることができる。これにより、重要度の異なるレベルに基づいて、1つの物体に対して、異なる種類の情報が記憶され、異なる種類のアラートが提供される等が可能となる。 [0022] An inactive movable object can be adaptively designated as a tracking target in any suitable manner. For example, as described above, the importance score is relative to an object detected and identified in the video image data, positional, temporal, related to the user's interaction with the see-through display device, It can be assigned based on behavior and / or other factors. If the importance score meets or exceeds the threshold importance score, the object can be designated for tracking, and more detailed information about the state of the object (e.g. latest position, history position for the object) , Values of physical properties that can change, etc.) can be stored. Further, in some implementations, different threshold importance scores can be used to define different levels of importance. This makes it possible to store different types of information for one object and provide different types of alerts based on different levels of importance.
[0023] 物体とのユーザー相互作用のパターンが、任意の適切な方法で追跡されることができる。例えば、時間に関するコンテキスト情報、位置に関するコンテキスト情報、行われている動作の種類に関するコンテキスト情報、及び/又は任意の他の適切なコンテキスト情報に基づいて、ユーザーの行動が分類されることができる。例示的なユーザー行動は、食事をとること、シャワーをすること、失くした物体を探すこと、車を運転して仕事に行くこと等を含む。そのような相互作用に関連した情報を経時的に追跡し記憶することによって、検出された物体との相互作用のパターンが観測されることができる。例えば、毎日午後の5時にユーザーはキーを置き、そのキーを毎朝8時に探すということが、シースルー・ディスプレイデバイス100を通じて観測されることができる。
[0023] The pattern of user interaction with an object can be tracked in any suitable manner. For example, user behavior can be classified based on contextual information regarding time, contextual information regarding location, contextual information regarding the type of action being performed, and / or any other suitable contextual information. Exemplary user actions include having a meal, taking a shower, looking for lost objects, driving a car and going to work, and the like. By tracking and storing information related to such interactions over time, patterns of interaction with detected objects can be observed. For example, it can be observed through the see-through
[0024] 観測されたユーザーパターンに基づいて、アラートが発生されることもできる。例えば、ひとたびキーとのユーザー相互作用に関連した行動パターンが認識されると、そのキーの場所に関するリマインダーが、毎朝午前8時に自動的に表示されることができる。そのようなパターンはまた、シースルー・ディスプレイデバイスを通じて物体の場所が最後に観測及び記憶されてからその物体が移動した場合に、失くした物体がどこに存在する可能性があるかに関する推測を構築するために用いられることができる。失くした物体をどこで捜索すべきかに関する示唆を提供する表示された通知の一例が、当該物体を探すべき場所のリスト200の形で図2に示されている。図2はまた、その物体がどこで最後に見かけられたかに関する通知202も示す。失くした物体をどこで探すべきかに関する通知は、どんな形を取ってもよい、ということが理解されるだろう。例えば、そのような通知は、見込みのある場所へユーザーを案内する図形による指示、例えば、辿っていくべき矢印及び/又は直線や、探すべき示唆された場所を指し示す強調表示等の形を取ることができる。
[0024] Alerts can also be generated based on observed user patterns. For example, once a behavior pattern associated with user interaction with a key is recognized, a reminder regarding the location of that key can be automatically displayed every morning at 8:00 am. Such a pattern also builds inferences about where a lost object may exist if the object has moved since it was last observed and stored through a see-through display device Can be used for. An example of a displayed notification that provides suggestions on where to look for a lost object is shown in FIG. 2 in the form of a
[0025] いくつかの実施態様では、例えば各ユーザーが映像データをクラウドベースサービスにアップロードしている複数のユーザーからの映像データの入力に基づいて、場所の共通ビューが生成されることができる。これによって、あるユーザーの映像ストリームの中に見られる物体が別のユーザーの映像ストリームの中に見られる物体と関連付けられることが可能となり、したがって、物体が他のユーザーによって移動された場合であってもそれらが追跡されることが可能となる。更に、複数のユーザーが映像データの代わりに追跡対象物体データをアップロードすることができるように(例えば、複数のデバイスが同一の物体についてローカルな認識を実施することができるように)、物体メタデータがユーザー間で共有されることができる。 [0025] In some implementations, a common view of a location can be generated, for example, based on input of video data from multiple users each user uploading video data to a cloud-based service. This allows an object seen in one user's video stream to be associated with an object seen in another user's video stream, and therefore when the object is moved by another user. Even they can be tracked. In addition, object metadata so that multiple users can upload tracked object data instead of video data (eg, multiple devices can perform local recognition on the same object). Can be shared between users.
[0026] 上述されたように、位置に加えて、物体の他の状態が解釈され、監視されることができる。非限定的な例として、牛乳パックの中の牛乳の液面水位が監視されることができる。同様に、冷蔵庫の中身のリストが経時的に監視されることができ、いつもはある品目が無くなっていることが通知されることができる。これらの観測された状態に基づいて、コンテキストに関するトリガーによってアラートが発生されることができる。例えば、観測された空の牛乳パックの場合には、ユーザーが食料品店の牛乳売り場のそばを歩いている時に、視覚的オーバーレイ、自動的に生成された買い物リスト、及び/又は音声リマインダーが生成されることができる。食料品店の牛乳売り場にいるというコンテキストに関するトリガーは、限定ではないが、食料品店若しくは牛乳の生産者による特定の種類/ブランドの製品の注釈又はタグ付けによること、牛乳売り場で観測された物体の外観、サイズ、及び/又は他の物理的及び/又はコンテキストに関する特性を追跡対象の牛乳の物体の特性と照合することによること等を含む、任意の適切な方法で解釈されることができる。更に、牛乳パックの満状態と比較されるユーザーの買い物のパターンが経時的に観測される(即ち、ユーザーは一貫して、牛乳パックの状態が空又はほとんど空である場合により多く牛乳を買う)につれて、牛乳パックの満状態が経時的に追跡対象物体の状態として適応的に学習されることができる。 [0026] As described above, in addition to position, other states of the object can be interpreted and monitored. As a non-limiting example, the liquid level of milk in a milk pack can be monitored. Similarly, a list of the contents of the refrigerator can be monitored over time, and it can always be notified that some items are missing. Based on these observed conditions, alerts can be triggered by contextual triggers. For example, in the case of an observed empty milk pack, a visual overlay, an automatically generated shopping list, and / or an audio reminder are generated when the user is walking near the grocery store's milk counter. Can. Triggers on the context of being at a grocery store's milk counter include, but are not limited to, an annotation or tagging of a particular type / brand of product by the grocery store or milk producer, objects observed at the milk counter Can be interpreted in any suitable manner, including by matching the appearance, size, and / or other physical and / or contextual characteristics with the characteristics of the milk object being tracked. Furthermore, as the user's shopping pattern compared to the fullness of the milk pack is observed over time (i.e., the user consistently buys more milk when the milk pack is empty or almost empty), The full state of the milk pack can be adaptively learned as the state of the tracking target object over time.
[0027] 図3は、不活発移動可能物体の自動化追跡に関する使用環境300のブロック図を示す。使用環境300は、コンピューターネットワークなどのネットワーク307を介してリモート物体追跡サービス306と通信する、物体追跡デバイス1 302及び物体追跡デバイスN 304として描かれた任意の数N個の物体追跡デバイスを示す。物体追跡デバイスは、限定ではないが、図1のシースルー・ディスプレイデバイス100を含む、任意の適切な形態を取ることができる、ということが理解されるだろう。いくつかの実施態様は、リモート物体追跡サービスを省略してもよい、ということが更に認識されるだろう。
[0027] FIG. 3 shows a block diagram of a
[0028] 物体追跡デバイス302は、1又は複数のセンサー308を備える。センサー308は、ユーザーのローカル環境の映像データを収集する、2次元イメージセンサー310及び/又は深度センサー312などのイメージセンサーを含むことができる。任意の適切な種類と数の2次元イメージセンサー310及び/又は深度センサー312が含まれてよい。適切な2次元イメージセンサーの例は、RGBセンサー及びグレイスケールセンサーを含む。適切な深度センサーの例は、飛行時間センサー、構造化光センサー、及びステレオ深度センサーを含む。任意の他の適切なセンサーが含まれてよい、ということが理解されるだろう。例は、限定ではないが、マイク、全地球測位システム(GPS)センサー、モーションセンサー、目の動きを検出する内向きイメージセンサー等を含む。 [0028] The object tracking device 302 comprises one or more sensors 308. The sensor 308 may include an image sensor such as a two-dimensional image sensor 310 and / or a depth sensor 312 that collects video data of the user's local environment. Any suitable type and number of two-dimensional image sensors 310 and / or depth sensors 312 may be included. Examples of suitable two-dimensional image sensors include RGB sensors and gray scale sensors. Examples of suitable depth sensors include time of flight sensors, structured light sensors, and stereo depth sensors. It will be appreciated that any other suitable sensor may be included. Examples include, but are not limited to, microphones, global positioning system (GPS) sensors, motion sensors, inward image sensors that detect eye movement, and the like.
[0029] イメージセンサーを介して収集されたイメージデータは、イメージセンサーによって撮像された物体を識別し、その物体に関する状態情報を検出する物体認識追跡モジュール314へ供給される。物体認識追跡モジュール314は、更に、以下でより詳細に説明されるように、物体の状態に基づいて、1又は複数の出力機器316、例えばディスプレイ318(例えばシースルー・ディスプレイ又は任意の他の適切なディスプレイ)及び/又は1又は複数のスピーカー320へアラートを供給することができる。物体認識追跡モジュール314は、任意の適切な方法で物体を識別することができ、それには、限定ではないが、開発者によって予め訓練された分類関数、及び/又はユーザー特定の物体を認識するようにユーザーによって訓練された分類関数によることが含まれる。ここで、分類関数は、観測された物体を物体モデル315と比較し、及び/又は適合させる。物体認識追跡モジュール314は、次いで、イメージデータ内で識別された物体に対応する物体IDを物体情報記憶装置322へ出力することができる。更に、新たな物体(即ち以前は検出されなかった物体)が検出された場合、物体認識追跡モジュール314は、その物体にIDを割り当てることができる。
[0029] The image data collected via the image sensor is supplied to an object
[0030] 物体情報記憶装置322は、限定ではないが、追跡対象物体のID及び状態情報を含む追跡対象物体データ324を記憶するように構成されることができる。物体情報記憶装置322は、ユーザーパターンを適応的に学習して物体を追跡対象として自動的に指定する実施態様では、非追跡対象物体データ326を記憶することもできる。ここで、「非追跡対象」という用語は、状態情報がそのような物体に対しては記憶されていないということを示す。非追跡対象物体データ326は、物体1 328及び物体N 332として描かれた複数の非追跡対象物体に関する情報を記憶しているように描かれている。任意の適切な非追跡対象物体データが記憶されることができる。例えば、重要度スコア情報330がそれぞれの非追跡対象物体について記憶されることができ、ここで、重要度スコア情報330は、認識された物体に対して当該物体とのユーザー相互作用に基づいて割り当てられて、次いで、物体の状態を追跡すべきか否かを決定するのに用いられることができる。重要度スコアが閾値重要度スコアを超えると、その物体は追跡対象物体として指定されることができ、その物体に対して状態情報が記憶されることができる。
[0030] The object information storage device 322 may be configured to store tracking target object data 324 including, but not limited to, tracking target object ID and status information. The object information storage device 322 can also store the non-tracking target object data 326 in the embodiment in which the user pattern is adaptively learned and the object is automatically designated as the tracking target. Here, the term “non-tracking target” indicates that state information is not stored for such an object. The non-tracking target object data 326 is drawn so as to store information regarding a plurality of non-tracking target objects drawn as the
[0031] 追跡対象物体データ324は、任意の適切な数及び種類の追跡対象物体に対して記憶された任意の適切なデータを含むことができる。図3では、複数の追跡対象物体が追跡対象物体1 336及び追跡対象物体N 337として示されている。追跡対象物体1については、様々な状態データ338も描かれている。例えば、限定ではないが、最新の位置及び/又は過去の位置を含む位置情報340が記憶されることができる。そのような位置情報はまた、物体との過去のユーザー相互作用に関する情報も含むことができる。これによって、例えば、失くした物体を探し当てるのに役立つようユーザーパターンを分析することが可能となる。任意の適切な位置情報が記憶されることができる。例は、現在の使用環境の物理的な位置(例えばGPS座標)、及び/又はコンテキストに関する位置データ(例えば他の追跡対象物体/認識された物体に対する位置)に関する情報を含む。
[0031] The tracked object data 324 may include any suitable data stored for any suitable number and type of tracked objects. In FIG. 3, a plurality of tracking target objects are shown as tracking
[0032] 更に、物体の変化し得る特性の値342に関する情報が記憶されることができる。例えば、上述されたように、冷蔵庫の中の特定の食料品目が無くなっていること、牛乳パックの中の牛乳の液面水位、及び/又は、物体の変化し得る特性に関連した任意の他の適切な値が記憶されることができる。これらの特定の種類の状態情報は例示の目的のために説明されており、任意の他の適切な状態情報が記憶されてよい、ということが理解されるだろう。
[0032] Further, information regarding the
[0033] 状態情報以外の情報も物体に対して記憶されることができる。例えば、適応的に学習し物体を追跡対象として指定する実施態様では、追跡対象としての物体の指定を維持すべきか否かを決定するために、重要度スコアデータ344が追跡対象物体に対して記憶されることができる。例えば、もしユーザーが紛失してない物体と相互作用するのをやめたら、経時的にその物体のスコアは減少し、その物体は追跡されなくなるかもしれない。更に、アラート条件346が記憶されることもでき、ここで、アラート条件は、提供されるべきアラートの性質のみならず、アラートが指定の物体に対していつトリガーされるべきであるかを規定する。
[0033] Information other than the state information can also be stored for the object. For example, in an embodiment that adaptively learns and designates an object as a tracking target, importance score data 344 is stored for the tracking target object to determine whether the designation of the object as the tracking target should be maintained. Can be done. For example, if a user stops interacting with an object that has not been lost, the object's score may decrease over time and the object may not be tracked. In addition,
[0034] 加えて、コンテキストデータ350が、物体の重要度スコアの決定において役立つ物体情報として記憶されることができる。例えば、コンテキストデータ350は、重要度スコアを物体に割り当てる目的のために、位置352、時間354、及び/又は他のコンテキスト情報を「重要である」と定義することができる。位置352の例は、実際の物理的位置、他の追跡対象物体への近さに関するコンテキストルール、及び他のそのような位置データを含むことができる。時間354の例は、時計/カレンダーの時間、及び/又は、観測された物体の相互作用と他の出来事、例えば位置の変化との間の時間間隔(例えば、物体と相互作用することと、その後、家を出ることとの間の時間)に関するコンテキストルールを含むことができる。コンテキストデータ350は、更に、物体の重要度スコアを決定するに当たって位置、時間、及び他のコンテキスト情報をどのように適用すべきかに関するコンテキストルールを含むことができる。 [0034] In addition, the context data 350 can be stored as object information useful in determining an object importance score. For example, the context data 350 may define location 352, time 354, and / or other context information as “important” for purposes of assigning importance scores to objects. Examples of location 352 may include actual physical location, context rules regarding proximity to other tracked objects, and other such location data. Examples of time 354 are time intervals between clock / calendar time and / or observed object interaction and other events, eg position change (eg, interacting with object and then Contextual rules regarding the time between leaving the house). The context data 350 may further include context rules regarding how position, time, and other context information should be applied in determining the importance score of the object.
[0035] いくつかの実施態様では、物体に対するイメージデータの分析は、リアルタイムではなく後で実施されることができる。したがって、物体情報記憶装置322は、物体認識追跡モジュール314によって処理されていないイメージデータ355を含むことができる。そのような実施態様では、イメージ分析は、ユーザーが、記憶されたイメージデータ355の中から関連のあるイメージデータを見つけることによってイメージデータの中から物体を探し当てるべく、その物体についての情報を要求した時に、実施されることができる。関連のあるイメージデータを見つけるのを補助するために、位置(例えばGPSデータ)及び/又はイメージデータが取得された時間などの様々なメタデータが、イメージデータと共に記憶されることができる。
[0035] In some implementations, analysis of image data for an object can be performed later rather than in real time. Accordingly, the object information storage device 322 can include image data 355 that has not been processed by the object
[0036] いくつかの実施態様では、物体の追跡と記憶は、物体追跡デバイス302上でローカルに実施されることができる。他の実施態様では、上述されたように、物体追跡デバイス302は、ネットワークを介してリモート物体追跡サービス306と通信することができる。これによって、物体データとイメージデータがユーザー間で共有されることが可能となる。リモート物体追跡サービス306は、物体追跡デバイス302に関して上述された物体認識、追跡、及びアラート生成の機能のうちのいずれをも実施することができる。更に、ユーザーから受け取られた情報が、ユーザー情報記憶装置356に記憶されることができ、ユーザー情報記憶装置356は、ユーザー1 358及びユーザーN 359により表された複数のユーザーの情報を記憶しているように描かれている。限定ではないが、物体データ360(例えば、追跡対象物体及び非追跡対象物体の情報)、イメージデータ362(例えば、点群深度データ及び/又は2次元イメージデータ)、及びコンテキストデータ364(例えば、ユーザーが相互作用した物体を追跡すべきか否かを決定するために用いられる、場所/時間/他のコンテキスト)を含む任意の適切な情報が記憶されることができる。更に、ユーザーデータはまた、物体データ、イメージデータ、及び/又は他の情報が共有可能な信頼された他のユーザー366に関する情報も含むことができる。例えば、ユーザーは、失くした物体の発見を手助けするために、家族の他のメンバーのイメージデータにアクセスすることを望むかもしれない。より具体的な例として、もしユーザーの配偶者がユーザーのキーをテーブルから引き出しの中へ移動させたら、配偶者の物体データ及び/又はイメージデータが、キーを探し当てるのに役立つよう、そのユーザーの物体データ及び/又はイメージデータと一緒に検索されることができる。
[0036] In some implementations, object tracking and storage may be performed locally on the object tracking device 302. In other implementations, as described above, the object tracking device 302 can communicate with a remote object tracking service 306 over a network. Thereby, object data and image data can be shared between users. The remote object tracking service 306 can perform any of the object recognition, tracking, and alert generation functions described above with respect to the object tracking device 302. In addition, information received from a user can be stored in a user information store 356 that stores information for multiple users represented by
[0037] 図4は、シースルー・ディスプレイデバイスによって物体を追跡するための方法400の実施態様を説明するフロー図を示す。方法400は、402において、シースルー・ディスプレイシステムを通して見える背景シーンのイメージデータをイメージセンサーから受け取るステップを含む。ここで、「背景シーン」という用語は、ユーザーに対してシースルー・ディスプレイの後方に位置する現実世界のシーンの視野を意味する。限定ではないが、2次元映像データ404(RGB及び/又はグレイスケール)及び深度データ406を含む、任意の適切なイメージデータが取得されることができる。
[0037] FIG. 4 shows a flow diagram illustrating an embodiment of a
[0038] 方法400は次に、408において、リアルタイムで、又は後でトリガー(例えば、物体を探し当てるユーザー要求、コンテキストトリガー等)を受け取った時に、イメージデータ内において不活発移動可能物体を識別するステップと、410において、検出された不活発移動可能物体が追跡対象物体であるか否かを判定するステップとを含む。上述されたように、不活発移動可能物体は、任意の適切な方法で識別されることができ、それには、限定ではないが、移動可能物体を物体モデルと比較する分類方法によることが含まれる。
[0038] The
[0039] 同様に、上述されたように、不活発移動可能物体は、任意の適切な方法で追跡対象として定義されることができる。例えば、412に示されるように、ユーザーは、ある物体が追跡対象として指定されることを(音声、ジェスチャー、及び/又は他の適切なユーザー入力を通じて)要求し、その物体のイメージをスキャンすることができる。加えて、シースルー・ディスプレイデバイスの開発者及び/又は製造者によって、いくつかの物体が重要であるとして指定されることができる。 [0039] Similarly, as described above, an inactive movable object can be defined as a tracking target in any suitable manner. For example, as shown at 412, the user may request that an object be designated for tracking (through voice, gestures, and / or other appropriate user input) and scan an image of that object. Can do. In addition, some objects can be designated as important by the developer and / or manufacturer of the see-through display device.
[0040] 更に、414に示されるように、不活発移動可能物体は、もし当該物体とのユーザー相互作用に基づいて割り当てられたスコア(「重要度スコア」)が閾値重要度スコアを満たしたら、追跡対象として指定されることができる。任意の適切な要因又は要因の組み合わせが、そのようなスコアを決定するのに用いられることができる。例えば、重要度スコアは、416に示されるように、物体との経時的なユーザー相互作用の数、頻度、及び/又はパターンに少なくとも部分的に基づいて決定されることができる。更に、418に示されるように、重要度スコアを決定するに当たって位置的情報も用いられることができる。そのような位置的情報は、420に示されるように、物体が、重要であると指定された場所に存在するか否か、及び/又は、422に示されるように、物体が、別の追跡対象物体の十分すぐそばに存在するか否かということを含むことができるが、それらに限定はされない。 [0040] Further, as shown at 414, an inactive movable object may have a score assigned based on user interaction with the object ("importance score") that satisfies a threshold importance score: It can be specified as a tracking target. Any suitable factor or combination of factors can be used to determine such a score. For example, the importance score can be determined based at least in part on the number, frequency, and / or pattern of user interaction with the object over time, as shown at 416. Further, as shown at 418, positional information can also be used in determining the importance score. Such positional information may indicate whether the object is at a location designated as important, as indicated at 420, and / or if the object is subject to another tracking, as indicated at 422. It can include whether or not it is close enough to the target object, but is not limited thereto.
[0041] 更に、重要度スコアはまた、424に示されるように、ユーザー相互作用が生じた時間に少なくとも部分的に基づいて割り当てられることもできる。その時間は、指定された重要時間426、物体とのユーザー相互作用とユーザーコンテキストの変化又は他の注目すべき出来事との間の時間的な近さ、及び/又は、任意の他の適切な時間的要因を含むことができる。位置及び/又は時間は、限定ではないが、ユーザーによること、開発者及び/又は製造者によること、適応的学習を通じること等を含む、任意の適切な方法で重要と指定されることができる、ということが理解されるだろう。重要度スコアは、任意の他の適切な方法で割り当てられることができる、ということも理解されるだろう。例えば、いくつかの実施態様では、ユーザーが、物体に重要度スコアを割り当てることができる。そのような実施態様では、ユーザー割り当てスコアは、恒久的に割り当てられることができ、又は、物体とのユーザー相互作用に基づいて後で変更される初期値であってもよい。同様に、他の実施態様では、アプリケーションが、位置及び/又は時間以外の任意の適切な要因に基づいて、重要度スコアを選択することができる。 [0041] Further, the importance score may also be assigned based at least in part on the time the user interaction occurred, as shown at 424. The time may be a specified critical time 426, a temporal proximity between user interaction with the object and a change in user context or other notable event, and / or any other suitable time. Factors can be included. Location and / or time can be designated as important in any suitable way, including but not limited to, by the user, by the developer and / or manufacturer, through adaptive learning, etc. Will be understood. It will also be appreciated that importance scores can be assigned in any other suitable manner. For example, in some implementations, a user can assign an importance score to an object. In such implementations, the user assigned score can be permanently assigned or can be an initial value that is later changed based on user interaction with the object. Similarly, in other implementations, the application can select the importance score based on any suitable factor other than location and / or time.
[0042] もし不活発移動可能物体が追跡対象物体であると判定されると、その場合、方法400は、430において、物体の状態に関する情報を記憶するステップを含む。記憶された状態情報は、限定ではないが、位置情報、及び/又は、物体の変化し得る物理的特性の値に関する情報を含むことができる。更に、状態情報は、432に示されるように、ローカルに記憶されることができ、及び/又は、434に示されるように、リモート記憶のためにリモートサービスへ送られることができる。
[0042] If it is determined that the inactive movable object is a tracked object, then
[0043] 方法400は次に、436において、追跡対象物体の状態の通知の出力を提供するためのトリガーを検出するステップを含む。任意の適切なトリガーが用いられることができる。例えば、438に示されるように、トリガーは、失くした物体を探し当てる要求などの、物体の状態に関する情報を要求するユーザー入力を含むことができる。更に、440に示されるように、トリガーは、閾値条件を満たした物体の変化し得る物理的特性の検出値を含むことができる。更に別の例として、442に示されるように、トリガーは、検出された時間、場所、及び/又は、追跡対象物体にコンテキストが関連する他の物体を含むことができる。例えば、ユーザーが食料品店の乳製品売り場を歩いていることを検出することは、もし牛乳が無くなっていること/牛乳の液面水位が低くなっていることがそのユーザーの冷蔵庫において以前に検出されているなら、牛乳を買うリマインダーの通知の出力をトリガーすることができる。同様に、ユーザーが自宅以外の場所にいる場合、トリガーの検出は、ユーザーが個人的な持ち物から予め決められた距離を移動したことを検出することを含むことができる。より具体的な例として、ユーザーがレストランで財布を置き、その後テーブルから歩き去り、又はその建物の外へ歩いていった場合、トリガーが検出されることができる。上述されたトリガーは、例示の目的のために提示されており、如何なる方法であっても限定的であることを意図していない、ということが理解されるだろう。
[0043] The
[0044] トリガーを検出すると、方法400は、444において、物体の状態の通知の出力を提供するステップを含む。音声出力446及び/又は映像出力448を含む任意の適切な出力が提供されることができる。適切な映像出力の例は、限定ではないが、図1に関して上述されたような、シースルー・ディスプレイデバイスを用いた拡張現実イメージを含む。更に、ローカル記憶装置又はリモートサービスから、状態に関する情報が取得されることができる。情報がリモートサービスから取得される場合、その情報は、ユーザーのアカウント、上述されたような別の信頼されたユーザーのアカウント、又は任意の他の適切な情報源から取得されることができる。
[0044] Upon detecting the trigger, the
[0045] 通知は、任意の適切な情報を含むことができる。例えば、450に示されるように、通知は、ユーザーに物体の最も新しく記憶された位置を知らせることができる。より具体的な例として、通知は、物体の物理的な位置を背景シーンに強調表示することができ、及び/又は、ユーザーを最新の場所に案内する指示(矢印、直線、文章等)を含むことができる。通知はまた、ユーザーが物体を公共の場所に置き忘れたというアラートを含むこともできる。更に、通知は、物体の変化し得る物理的特性の検出値に関する情報を含むことができる。例えば、牛乳パックが空である閾値状態を満たした場合、通知は、もっとたくさんの牛乳を買うリマインダー、及び/又はもっとたくさんの牛乳のオンライン購入を行うオプションを含むことができる。 [0045] The notification may include any suitable information. For example, as shown at 450, the notification can inform the user of the most recently stored location of the object. As a more specific example, the notification can highlight the physical location of the object in the background scene and / or include instructions (arrows, lines, text, etc.) that guide the user to the latest location. be able to. The notification can also include an alert that the user has left the object in a public place. Further, the notification can include information regarding the detected value of the physical property that may change. For example, if the milk pack meets an empty threshold condition, the notification may include a reminder to buy more milk and / or an option to make an online purchase of more milk.
[0046] 更に、いくつかの実施態様では、通知は、捜索中の物体のイメージを含むことができる。これは、当該物体と見た目がよく似ているが異なるものが存在する場合に、その物体を探し当てるのに役立つことができる。例えば、もしユーザーが1組のキーを探していて、ディスプレイデバイスが似たように見える4組のキーについての情報を持っているなら、ディスプレイデバイスは、その4組のキーのイメージを示して、ユーザーが捜索中の組を選択することを可能にすることができる。更に、物体の現在の配置のイメージが表示されることができる。例えば、もし捜索中の1組のキーが現在ナイトテーブルの上にあるなら、ディスプレイデバイスは、ユーザーにキーの実際の場所を示すために、ナイトテーブルの上にキーのイメージを表示することができる。 [0046] Further, in some implementations, the notification may include an image of the object being searched. This can help find an object that looks similar to the object but has something different. For example, if the user is looking for a set of keys and the display device has information about four sets of keys that look similar, the display device will show an image of the four sets of keys, It can allow the user to select the pair being searched. In addition, an image of the current arrangement of objects can be displayed. For example, if the set of keys being searched is currently on the night table, the display device can display an image of the keys on the night table to indicate to the user the actual location of the keys. .
[0047] このようにして、物体の状態がユーザーに代わって自動的に追跡され、それによって、失くした物体を探し当てること、及び/又は、任意の他の適切な物体の状態を追跡することを容易化することができる。いくつかの実施態様では、上述された方法及び処理は、1又は複数のコンピューターを含むコンピューティングシステムに結び付けられることができる。特に、本明細書で説明された方法及び処理は、コンピューターアプリケーション、コンピューターサービス、コンピューターAPI、コンピューターライブラリー、及び/又は他のコンピュータープログラム製品として実現されることができる。 [0047] In this way, the state of the object is automatically tracked on behalf of the user, thereby locating the lost object and / or tracking the state of any other suitable object Can be facilitated. In some implementations, the methods and processes described above can be tied to a computing system that includes one or more computers. In particular, the methods and processes described herein can be implemented as computer applications, computer services, computer APIs, computer libraries, and / or other computer program products.
[0048] 図5は、上述された方法及び処理の1又は複数を実施することができる非限定的なコンピューティングシステム500を模式的に示す。コンピューティングシステム500は、簡略化された形で示されている。本開示の範囲から逸脱することなく、ほとんど任意のコンピューターアーキテクチャーが用いられることができる、ということが理解されなければならない。様々な実施態様において、コンピューティングシステム500は、メインフレームコンピューター、サーバーコンピューター、デスクトップコンピューター、ラップトップコンピューター、タブレットコンピューター、ホームエンターテインメントコンピューター、ネットワークコンピューティングデバイス、モバイルコンピューティングデバイス、モバイル通信デバイス、シースルー・ディスプレイデバイス、ニアアイ(near-eye)・ディスプレイデバイス、ゲームデバイス等の形を取ることができ、それには、限定ではないが、図1−4を参照して本明細書で説明されたシースルー・ディスプレイ及び他のコンピューティングデバイスが含まれる。 [0048] FIG. 5 schematically illustrates a non-limiting computing system 500 that can implement one or more of the methods and processes described above. Computing system 500 is shown in a simplified form. It should be understood that almost any computer architecture can be used without departing from the scope of the present disclosure. In various embodiments, the computing system 500 is a mainframe computer, server computer, desktop computer, laptop computer, tablet computer, home entertainment computer, network computing device, mobile computing device, mobile communications device, see-through display. It may take the form of a device, a near-eye display device, a gaming device, etc., including but not limited to the see-through display described herein with reference to FIGS. Other computing devices are included.
[0049] コンピューティングシステム500は、論理サブシステム502とデータ保持サブシステム504を含む。コンピューティングシステム500は、オプションとして、表示サブシステム508、通信サブシステム506、及び/又は図5に示されていない他のコンポーネントを含んでよい。コンピューティングシステム500はまた、オプションとして、例えばキーボード、マウス、ゲームコントローラー、カメラ、マイク、及び/又はタッチスクリーンなどのユーザー入力デバイスを含んでもよい。 [0049] Computing system 500 includes a logical subsystem 502 and a data retention subsystem 504. The computing system 500 may optionally include a display subsystem 508, a communications subsystem 506, and / or other components not shown in FIG. The computing system 500 may also optionally include user input devices such as a keyboard, mouse, game controller, camera, microphone, and / or touch screen, for example.
[0050] 論理サブシステム502は、1又は複数の命令を実行するように構成された1又は複数の物理的なデバイスを含むことができる。例えば、論理サブシステムは、1又は複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリー、オブジェクト、コンポーネント、データ構造、又は他の論理的構造物の一部である、1又は複数の命令を実行するように構成されることができる。そのような命令は、タスクを実施し、データタイプを実現し、1又は複数のデバイスの状態を変換し、又は別の方法で所望の結果に到達するように実装されることができる。 [0050] The logical subsystem 502 may include one or more physical devices configured to execute one or more instructions. For example, a logical subsystem executes one or more instructions that are part of one or more applications, services, programs, routines, libraries, objects, components, data structures, or other logical structures. Can be configured as follows. Such instructions can be implemented to perform tasks, implement data types, convert the state of one or more devices, or otherwise reach a desired result.
[0051] 論理サブシステムは、ソフトウェア命令を実行するように構成された1又は複数のプロセッサーを含むことができる。加えて、又はその代わりに、論理サブシステムは、ハードウェア命令又はファームウェア命令を実行するように構成された1又は複数のハードウェア論理マシン又はファームウェア論理マシンを含むことができる。論理サブシステムのプロセッサーは、シングルコア又はマルチコアであってよく、その上で実行されるプログラムは、並列処理又は分散処理向けに構成されることができる。論理サブシステムは、オプションとして、リモートに配置され及び/又は連携処理向けに構成されることのできる2以上のデバイスにわたって分配された、個別のコンポーネントを含んでよい。論理サブシステムの1又は複数の特徴は、クラウドコンピューティングの形態に構成されたリモートアクセス可能なネットワーク型コンピューティングデバイスによって、仮想化され実行されることができる。 [0051] The logical subsystem may include one or more processors configured to execute software instructions. Additionally or alternatively, the logical subsystem can include one or more hardware logical machines or firmware logical machines configured to execute hardware or firmware instructions. The logical subsystem processor may be single-core or multi-core, and the program executed thereon may be configured for parallel or distributed processing. The logical subsystem may optionally include individual components distributed across two or more devices that may be remotely located and / or configured for collaborative processing. One or more features of the logical subsystem can be virtualized and executed by a remotely accessible networked computing device configured in the form of cloud computing.
[0052] データ保持サブシステム504は、本明細書で説明された方法及び処理を実現するように論理サブシステムによって実行可能なデータ及び/又は命令を保持するように構成された、1又は複数の物理的且つ非一時的なデバイスを含むことができる。そのような方法及び処理が実現される時、データ保持サブシステム504の状態は(例えば異なるデータを保持するように)変換されることができる。 [0052] The data retention subsystem 504 is configured to retain one or more data and / or instructions that are executable by the logical subsystem to implement the methods and processes described herein. Physical and non-transitory devices can be included. When such methods and processes are implemented, the state of the data retention subsystem 504 can be converted (eg, to retain different data).
[0053] データ保持サブシステム504は、リムーバブルメディア及び/又は組み込みデバイスを含むことができる。データ保持サブシステム504は、特に、光メモリデバイス(例えば、CD、DVD、HD−DVD、Blu−Ray Disc等)、半導体メモリデバイス(例えば、RAM、EPROM、EEPROM等)、及び/又は磁気メモリデバイス(例えば、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、MRAM等)を含むことができる。データ保持サブシステム504は、以下の特性、即ち、揮発性、不揮発性、動的、静的、読み取り/書き込み、読み取り専用、ランダムアクセス、シーケンシャルアクセス、位置アドレス指定可能、ファイルアドレス指定可能、及び内容アドレス指定可能、のうちの1又は複数を有したデバイスを含むことができる。いくつかの実施態様では、論理サブシステム502とデータ保持サブシステム504は、特定用途向け集積回路又はシステムオンチップなどの、1又は複数の共通のデバイスに統合されることができる。 [0053] The data retention subsystem 504 may include removable media and / or embedded devices. The data retention subsystem 504 includes, among other things, optical memory devices (eg, CD, DVD, HD-DVD, Blu-Ray Disc, etc.), semiconductor memory devices (eg, RAM, EPROM, EEPROM, etc.), and / or magnetic memory devices ( For example, a hard disk drive, a floppy (registered trademark) disk drive, a tape drive, an MRAM, and the like can be included. Data retention subsystem 504 has the following characteristics: volatile, non-volatile, dynamic, static, read / write, read-only, random access, sequential access, location addressable, file addressable, and content Devices with one or more of addressable can be included. In some implementations, the logical subsystem 502 and the data retention subsystem 504 can be integrated into one or more common devices, such as an application specific integrated circuit or system on chip.
[0054] 図5はまた、本明細書で説明された方法及び処理を実現するように実行可能なデータ及び/又は命令を記憶及び/又は転送するのに用いられることのできる、リムーバブルなコンピューター可読記憶媒体510の形態によるデータ保持サブシステムの一側面をも示す。リムーバブルなコンピューター可読記憶媒体510は、特に、CD、DVD、HD−DVD、Blu−Ray Disc、EEPROM、及び/又はフロッピーディスクの形を取ることができる。
[0054] FIG. 5 is also a removable computer readable medium that can be used to store and / or transfer executable data and / or instructions to implement the methods and processes described herein. An aspect of a data retention subsystem in the form of a
[0055] データ保持サブシステム504は、1又は複数の物理的且つ非一時的なデバイスを含む、ということが認識されなければならない。対照的に、いくつかの実施態様では、本明細書で説明された命令の態様は、少なくともある有限の期間の間物理的なデバイスにより保持されない純粋な信号(例えば、電磁気的信号、光学的信号等)によって、一時的な方法で伝送されることができる。その上、本開示に関係するデータ及び/又は他の形態の情報は、純粋な信号によって伝送されることができる。 [0055] It should be appreciated that the data retention subsystem 504 includes one or more physical and non-transitory devices. In contrast, in some embodiments, the instructional aspects described herein are pure signals (eg, electromagnetic signals, optical signals) that are not held by a physical device for at least some finite period of time. Etc.) can be transmitted in a temporary manner. Moreover, data and / or other forms of information related to the present disclosure can be transmitted by pure signals.
[0056] 「モジュール」及び「プログラム」という用語は、1又は複数の特定の機能を実施するように実現されたコンピューティングシステム500の一側面を説明するために用いられることができる。いくつかの場合には、そのようなモジュール及び/又はプログラムは、データ保持サブシステム504によって保持された命令を実行する論理サブシステム502を通じてインスタンス化されることができる。同一のアプリケーション、サービス、コードブロック、オブジェクト、ライブラリー、ルーチン、API、関数等から異なるモジュール及び/又はプログラムがインスタンス化されることができる、ということが理解されなければならない。同様に、異なるアプリケーション、サービス、コードブロック、オブジェクト、ルーチン、API、関数等によって同一のモジュール及び/又はプログラムがインスタンス化されることができる。「モジュール」及び「プログラム」という用語は、実行可能ファイル、データファイル、ライブラリー、ドライバー、スクリプト、データベースレコード等の1つ1つ又は集まりを包含することを意図している。 [0056] The terms "module" and "program" may be used to describe one aspect of a computing system 500 that is implemented to perform one or more specific functions. In some cases, such modules and / or programs can be instantiated through a logical subsystem 502 that executes instructions retained by the data retention subsystem 504. It should be understood that different modules and / or programs can be instantiated from the same application, service, code block, object, library, routine, API, function, etc. Similarly, the same module and / or program can be instantiated by different applications, services, code blocks, objects, routines, APIs, functions, etc. The terms “module” and “program” are intended to encompass each one or collection of executable files, data files, libraries, drivers, scripts, database records, and the like.
[0057] 本明細書で用いられるような「サービス」は、複数のユーザーセッションにわたって実行可能で、1又は複数のシステムコンポーネント、プログラム、及び/又は他のサービスに利用可能なアプリケーションプログラムであってよい、ということが認識されなければならない。いくつかの具体例では、サービスは、クライアントからの要求に応答してサーバー上で動作することができる。 [0057] A "service" as used herein may be an application program that can be executed across multiple user sessions and available to one or more system components, programs, and / or other services. It must be recognized. In some implementations, a service can operate on a server in response to a request from a client.
[0058] 表示サブシステム508は、データ保持サブシステム504によって保持されたデータの視覚的表現を提示するのに用いられることができる。本明細書で説明された方法及び処理がデータ保持サブシステムによって保持されたデータを変化させ、それによりデータ保持サブシステムの状態を変換する際、表示サブシステム508の状態は同様に、元となるデータの変化を視覚的に表現するように変換されることができる。表示サブシステム508は、限定ではないが、シースルー・ディスプレイ技術を含むほとんど任意の種類の技術を利用した1又は複数のディスプレイデバイスを含むことができる。そのようなディスプレイデバイスは、論理サブシステム502及び/又はデータ保持サブシステム504と共有筐体内で結合されることができ、又は、そのようなディスプレイデバイスは、周辺装置としてのディスプレイデバイスであってもよい。 [0058] The display subsystem 508 can be used to present a visual representation of the data held by the data holding subsystem 504. When the methods and processes described herein change the data held by the data holding subsystem, thereby converting the state of the data holding subsystem, the state of the display subsystem 508 is similarly original. It can be transformed to visually represent changes in the data. The display subsystem 508 can include one or more display devices that utilize almost any type of technology, including but not limited to see-through display technology. Such a display device can be coupled in a shared enclosure with the logical subsystem 502 and / or the data retention subsystem 504, or such a display device can be a display device as a peripheral device. Good.
[0059] 含まれる場合、通信サブシステム506は、コンピューティングシステム500を1又は複数の他のコンピューティングデバイスと通信可能に結合するように構成されることができる。通信サブシステム506は、1又は複数の異なる通信プロトコルと互換性のある有線及び/又は無線の通信デバイスを含むことができる。非限定的な例として、通信サブシステムは、無線電話ネットワーク、無線ローカルエリアネットワーク、有線ローカルエリアネットワーク、無線ワイドエリアネットワーク、有線ワイドエリアネットワーク等を介した通信のために構成されることができる。いくつかの実施態様では、通信サブシステムは、コンピューティングシステム500がインターネットなどのネットワークを介してメッセージを他のデバイスへ送信し、及び/又は他のデバイスから受信することを可能にすることができる。 [0059] When included, the communication subsystem 506 may be configured to communicatively couple the computing system 500 with one or more other computing devices. The communication subsystem 506 may include wired and / or wireless communication devices that are compatible with one or more different communication protocols. As a non-limiting example, the communication subsystem can be configured for communication via a wireless telephone network, a wireless local area network, a wired local area network, a wireless wide area network, a wired wide area network, and the like. In some implementations, the communication subsystem may allow the computing system 500 to send and / or receive messages from other devices over a network such as the Internet. .
[0060] 本明細書で説明された構成及び/又は手法は本質的に例示的なものであり、数多くのバリエーションが可能であるためこれらの具体的な実施態様又は例は限定的な意味に解されてはならない、ということが理解されなければならない。本明細書で説明された具体的なルーチン又は方法は、多くの処理戦略のうちの1又は複数を代表することができる。それ故に、例示された様々な動作は、例示された順序で、他の順序で、並列で、又はあるケースでは省略されて、実施されることができる。同様に、上述された処理の順序は変更されることができる。 [0060] The configurations and / or techniques described herein are exemplary in nature, and numerous variations are possible, and these specific embodiments or examples are understood in a limiting sense. It must be understood that it must not be done. The specific routines or methods described herein may represent one or more of many processing strategies. Thus, the various illustrated operations can be performed in the illustrated order, in other orders, in parallel, or in some cases omitted. Similarly, the order of the processes described above can be changed.
[0061] 本開示の主題は、本明細書で開示された様々な処理、システム及び構成、並びに、他の特徴、機能、動作、及び/又は特性のみならず、それらのいずれか及び全ての均等物の、あらゆる新規且つ非自明なコンビネーション及びサブコンビネーションを含んでいる。 [0061] The subject matter of this disclosure is not only the various processes, systems and configurations disclosed herein, and other features, functions, operations and / or characteristics, but any and all equivalents thereof. Includes all new and non-obvious combinations and sub-combinations of objects.
Claims (10)
イメージデータを取得するステップと、
前記イメージデータの中で、ユーザーによって追跡される移動可能物体を識別するステップと、
前記移動可能物体との以前のユーザー相互作用に少なくとも基づいて、前記移動可能物体が追跡対象物体であるか否かを判定するステップと、
前記移動可能物体が追跡対象物体である場合に、前記移動可能物体の状態に関する情報を記憶するステップであって、前記状態は、使用環境内における前記物体の最新の物理的な位置を含む、ステップと、
前記移動可能物体の状態の通知を提供するためのトリガーを検出するステップと、
前記移動可能物体の状態の通知の出力を提供するステップであって、前記通知は、ユーザーを前記使用環境内における前記物体の前記記憶された最新の物理的な位置へ案内するための指示を含む、ステップと、
前記物体がもはや前記記憶された最新の位置に存在しない場合、前記物体の1又は複数の示唆された現在位置の出力を提供するステップと、
を含む方法。 A method of operating a mobile computing device with an image sensor comprising:
Obtaining image data;
Identifying in the image data a movable object tracked by a user ;
At least based on previous user interactions with the front KiUtsuri rotatably object, and determining whether before or KiUtsuri rotatably object is tracked object,
If before KiUtsuri rotatably object is tracked object, comprising the steps of storing information about the state before KiUtsuri rotatably object, the state, the latest physical location of the object in the environment of use Including steps, and
Detecting a trigger to provide a notification of state before KiUtsuri rotatably object,
Comprising the steps of providing an output of the notification state before KiUtsuri rotatably object, said signaling instructions for guiding the user to the stored latest physical location of the object in the use environment Including steps, and
Providing an output of one or more suggested current positions of the object if the object is no longer present at the stored latest position;
Including methods.
表示サブシステムと、
命令を実行するように構成された論理サブシステムと、
命令を備えたデータ保持サブシステムと、
を備え、前記命令は、前記データ保持サブシステム上に記憶され、前記論理サブシステムによって、
前記イメージセンサーからイメージデータを受け取り、
前記イメージデータを通じて、ユーザーによって追跡される移動可能物体との複数のユーザー相互作用を検出し、
前記移動可能物体との前記複数のユーザー相互作用に基づいて前記移動可能物体に重要度スコアを割り当て、
前記重要度スコアが閾値重要度スコアを満たした場合に、前記移動可能物体の変化し得る物理的特性の値に関する情報を記憶し、
前記移動可能物体の前記変化し得る物理的特性の値の通知を提供するためのトリガーを検出し、
前記移動可能物体の前記変化し得る物理的特性の値の通知の出力を提供する
ように実行可能である、モバイルコンピューティングデバイス。 A sensor subsystem with an image sensor;
A display subsystem;
A logical subsystem configured to execute instructions;
A data retention subsystem with instructions;
And wherein the instructions are stored on the data retention subsystem and by the logical subsystem,
Receiving image data from the image sensor;
Through the image data, detects a plurality of user interaction with the mobile available-product bodies being tracked by the user,
Assign the importance score before KiUtsuri rotatably object based on the plurality of user interaction with the pre KiUtsuri rotatably object,
If the severity score satisfies a threshold importance score, it stores information about the values of physical properties that may vary before KiUtsuri rotatably object,
Detecting the trigger for providing notification of the values of physical properties which may the change of front KiUtsuri rotatably object,
Before KiUtsuri rotatably feasible to provide an output of the notification of the value of a physical property of the can change the object, a mobile computing device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013261749A JP6362325B2 (en) | 2013-12-18 | 2013-12-18 | Object tracking |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013261749A JP6362325B2 (en) | 2013-12-18 | 2013-12-18 | Object tracking |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2015118558A JP2015118558A (en) | 2015-06-25 |
| JP2015118558A5 JP2015118558A5 (en) | 2017-03-09 |
| JP6362325B2 true JP6362325B2 (en) | 2018-07-25 |
Family
ID=53531218
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013261749A Expired - Fee Related JP6362325B2 (en) | 2013-12-18 | 2013-12-18 | Object tracking |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6362325B2 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6286394B2 (en) * | 2015-07-24 | 2018-02-28 | セコム株式会社 | Image surveillance system |
| US10429191B2 (en) * | 2016-09-22 | 2019-10-01 | Amadeus S.A.S. | Systems and methods for improved data integration in augmented reality architectures |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4065507B2 (en) * | 2002-07-31 | 2008-03-26 | キヤノン株式会社 | Information presentation apparatus and information processing method |
| JP5728159B2 (en) * | 2010-02-02 | 2015-06-03 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
| AU2014306813A1 (en) * | 2013-08-12 | 2016-03-31 | Flyby Media, Inc. | Visual-based inertial navigation |
-
2013
- 2013-12-18 JP JP2013261749A patent/JP6362325B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2015118558A (en) | 2015-06-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9979809B2 (en) | Object tracking | |
| US9092896B2 (en) | Augmented reality display of scene behind surface | |
| CN105229566B (en) | Indicating observations or visual patterns in augmented reality systems | |
| CN103761505A (en) | Object tracking embodiments | |
| CN103823553A (en) | Method for enhancing real display of scenes behind surface | |
| JP6362325B2 (en) | Object tracking | |
| US20180204108A1 (en) | Automated activity-time training | |
| US11070504B2 (en) | Communication routing based on physical status | |
| Almonfrey et al. | A flexible human detection service suitable for Intelligent Spaces based on a multi-camera network | |
| EP2887258A1 (en) | Object tracking | |
| US20200302970A1 (en) | Automatic narration of signal segment | |
| US11094212B2 (en) | Sharing signal segments of physical graph | |
| KR20150071593A (en) | Object tracking | |
| US12086374B2 (en) | Systems and methods for displaying and interacting with a dynamic real-world environment | |
| EP2887183B1 (en) | Augmented reality display of scene behind surface | |
| US20180203881A1 (en) | Taking action based on physical graph | |
| US20180203885A1 (en) | Controlling creation/access of physically senses features | |
| HK1197944B (en) | Augmented reality display of scene behind surface | |
| HK1197944A (en) | Augmented reality display of scene behind surface |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20150527 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161216 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170206 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171221 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180320 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180528 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180626 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6362325 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |