[go: up one dir, main page]

JP2008304230A - LOCATION SYSTEM, LOCATION METHOD, ITS PROGRAM, AND RECORDING MEDIUM - Google Patents

LOCATION SYSTEM, LOCATION METHOD, ITS PROGRAM, AND RECORDING MEDIUM Download PDF

Info

Publication number
JP2008304230A
JP2008304230A JP2007149732A JP2007149732A JP2008304230A JP 2008304230 A JP2008304230 A JP 2008304230A JP 2007149732 A JP2007149732 A JP 2007149732A JP 2007149732 A JP2007149732 A JP 2007149732A JP 2008304230 A JP2008304230 A JP 2008304230A
Authority
JP
Japan
Prior art keywords
sound
recording device
location
location system
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007149732A
Other languages
Japanese (ja)
Inventor
Yoshimune Nakamura
嘉志 中村
Takuichi Nishimura
拓一 西村
Takeshi Kurata
武志 蔵田
Takashi Okuma
隆史 大隈
Hironori Tomobe
博教 友部
Yutaka Matsuo
豊 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2007149732A priority Critical patent/JP2008304230A/en
Publication of JP2008304230A publication Critical patent/JP2008304230A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

【課題】本願発明の発明者による従来のトポロジー推定システムと組み合わせて、オブジェクトの位置および方向を良好に推定することのできる、ロケーションシステム、ロケーション方法、ならびにそのプログラムおよび記録媒体を提供する。
【解決手段】空間内に存在するオブジェクト間で送受される音情報に基づいて当該空間内におけるオブジェクトの位置および方向を推定するロケーションシステムにおいて、各オブジェクトに、周囲に向けてオブジェクト固有音を発する発音装置11、および他のオブジェクトの発音装置から発せられたオブジェクト固有音を録音する録音装置12が装着されており、あるオブジェクトの発音装置11からのオブジェクト固有音が他のオブジェクトの録音装置12で録音されているかどうかを、時刻同期処理のなされた複数の録音装置データの中から見つけ出し、オブジェクト同士の1対1の距離関係、向き関係、およびIDとからなる相関関係を検出する、ことを特徴とするロケーションシステム。
【選択図】図1
A location system, a location method, a program thereof, and a recording medium capable of satisfactorily estimating the position and direction of an object in combination with a conventional topology estimation system by the inventors of the present invention are provided.
In a location system that estimates the position and direction of an object in the space based on sound information transmitted and received between objects existing in the space, each object emits a sound unique to the object toward the surroundings The device 11 and a recording device 12 for recording an object specific sound emitted from another object sounding device are mounted, and an object specific sound from the sounding device 11 of a certain object is recorded by the recording device 12 of another object. Whether or not it is detected from a plurality of recording device data subjected to time synchronization processing, and detecting a one-to-one distance relationship between objects, a direction relationship, and a correlation consisting of IDs. Location system.
[Selection] Figure 1

Description

本願発明は、情報支援サービスが提供される空間内に存在しているオブジェクトの位置および方向を推定するロケーションシステムに関するものである。   The present invention relates to a location system that estimates the position and direction of an object existing in a space where an information support service is provided.

人間やロボット、展示物などのオブジェクトが多数存在する空間においては、位置に基づく情報支援システムの構築やマンロケーション管理システムの構築が重要である。たとえば、パーティーや懇親会、ワークショップなどの多くの人が集まって活動を行う室内空間においては特にこれらシステムの実現への期待が高まっている。   In a space with many objects such as humans, robots, and exhibits, it is important to construct an information support system based on position and a man location management system. For example, in an indoor space where many people gather for activities such as parties, social gatherings, and workshops, there is an increasing expectation for realizing these systems.

一方、本願発明の発明者は、上記空間におけるオブジェクト間のインタラクション情報の状況推定の重要性に鑑み、このインタラクション情報を得るためには、空間内の各オブジェクト単独の絶対位置を示す絶対位置座標よりも、オブジェクト同士の相対的な位置や向きの関係から得られる空間内のオブジェクト全体のつながりを示すトポロジーを用いることが有用であり、特にオブジェクト同士の位置関係だけでなく向きの関係も推定できれば、人間やロボット等のユーザが展示物や環境物体の中を移動している際に、時々刻々と変化するユーザの状況に一層適した様々な情報支援を実現できることを見出した。   On the other hand, in view of the importance of estimating the situation of the interaction information between objects in the space, the inventor of the present invention can obtain this interaction information from the absolute position coordinates indicating the absolute position of each object alone in the space. However, it is useful to use a topology that shows the connection of the whole object in the space obtained from the relationship between the relative position and orientation of the objects, especially if you can estimate not only the positional relationship between the objects but also the orientation relationship, When a user such as a human being or a robot moves in an exhibition or an environmental object, it has been found that various information support more suitable for the user's situation changing from moment to moment can be realized.

そこで、多数の人間やロボット等のオブジェクトが比較的密に存在する空間においても、簡易なシステム構成で、その空間全体におけるオブジェクトトポロジーを推定することのできるトポロジー推定システムを既に提案している(特許文献1参照)。   Therefore, there has already been proposed a topology estimation system that can estimate the object topology in the entire space with a simple system configuration even in a space where a large number of objects such as humans and robots exist relatively densely (patent) Reference 1).

このトポロジー推定システムは、たとえば図11に例示したように、空間内に存在する各オブジェクトのオブジェクト装置1から無線送信されたオブジェクト情報に基づいて環境装置2により当該空間内におけるオブジェクトのトポロジーを推定するシステムであって、オブジェクト装置1は、自己のオブジェクトIDおよび当該オブジェクトIDの発信方向IDを周囲に発信するID発信部11、周囲の他のオブジェクト装置1が発信した当該他のオブジェクト装置1のオブジェクトIDおよび発信方向IDを受信するID受信部12、および自己のオブジェクトIDと受信した他のオブジェクト装置1のオブジェクトIDおよび発信方向IDとを含むオブジェクト情報を環境装置2へ送信する情報送信部13を有しており、環境装置2は、オブジェクト装置1が送信したオブジェクト情報を受信する情報受信部21、受信したオブジェクト情報を蓄積するデータベース部22、および蓄積したオブジェクト情報に基づいてオブジェクト毎に他のオブジェクトとの相対的位置関係を求め、得られた相対的位置関係の集合データからオブジェクトトポロジーを求める処理部23を有している。   In this topology estimation system, for example, as illustrated in FIG. 11, the environment device 2 estimates the topology of an object in the space based on the object information wirelessly transmitted from the object device 1 of each object existing in the space. The object device 1 includes an ID transmission unit 11 that transmits its own object ID and a transmission direction ID of the object ID to the surroundings, and an object of the other object device 1 transmitted by another surrounding object device 1 An ID receiving unit 12 that receives an ID and a transmission direction ID, and an information transmission unit 13 that transmits object information including its own object ID and the received object ID and transmission direction ID of another object device 1 to the environmental device 2 The environmental device 2 has An information receiving unit 21 that receives object information transmitted by the object device 1, a database unit 22 that stores the received object information, and a relative positional relationship with other objects for each object based on the stored object information, A processing unit 23 for obtaining an object topology from the obtained set data of relative positional relationships is provided.

このトポロジー推定システムによれば、対象空間内に存在する人間やロボット、展示物等の各オブジェクトにオブジェクト装置を装着させて、オブジェクト装置同士で自己のオブジェクトIDおよびその発信方向IDつまりどの方向にオブジェクトIDを発信したかを示す情報(以下、オブジェクトIDおよび発信方向IDを「ID」と総称することとする)をやりとりさせるとともに、そのやりとりの結果であるオブジェクト情報を各オブジェクト装置から環境装置へ逐次送信させ、収集したオブジェクト情報に基づいてオブジェクト毎に他のオブジェクトとの相対的位置関係、つまり各オブジェクトを中心とした局所的且つ相対的位置関係を求め、この相対的位置関係の集合データから空間全体のオブジェクトトポロジー、つまり空間内の全オブジェクト同士の全体的且つ相対的位置関係を推定することができる。   According to this topology estimation system, an object device is attached to each object such as a human being, a robot, or an exhibit existing in the target space, and the object device and its transmission direction ID, that is, the object in which direction, between the object devices. Information indicating whether the ID is transmitted (hereinafter, the object ID and the transmission direction ID are collectively referred to as “ID”) is exchanged, and the object information as a result of the exchange is sequentially transmitted from each object device to the environmental device. Based on the collected object information, the relative positional relationship with each other object, that is, the local and relative positional relationship centered on each object is obtained for each object, and space is obtained from the set data of the relative positional relationship. Overall object topology, that is, in space It is possible to estimate the overall and relative positions of all objects to each other.

さらに説明すると、たとえば、情報支援サービスが提供される空間内に存在している各オブジェクトが持つオブジェクト装置A,B,C,Dがそれぞれ自己のIDを周囲に向けて無線発信している状況において、まず、オブジェクト装置Aがオブジェクト装置B,C,DからのIDを受信し、自己のオブジェクトIDと受信した他のIDを環境装置に無線送信した場合、自己のオブジェクトIDと他のオブジェクトIDに基づいて、オブジェクト装置Aが、オブジェクト装置B,C,Dの周囲空間、つまりオブジェクト装置B,C,Dから発信されているIDを受信できる範囲内に存在していることなどがわかり、よってオブジェクト装置B,C,Dとの位置関係を判定でき、且つ、発信方向IDに基づいて、オブジェクト装置Aが、他のオブジェクト装置B,C,Dからどの方向に向けて発信されたIDを受信したかがわかり、よってオブジェクト装置B,C,Dとの方向関係を判定できる。これにより、オブジェクト装置Aを中心としたオブジェクト装置B,C,Dとの間における位置および方向で表わされる相対的位置関係が求まることになる。   More specifically, for example, in a situation where the object devices A, B, C, and D possessed by each object existing in the space where the information support service is provided wirelessly send their IDs to the surroundings. First, when the object device A receives the IDs from the object devices B, C, and D and wirelessly transmits its own object ID and the received other ID to the environmental device, the object device A and the other object ID Based on this, it can be seen that the object device A exists in the surrounding space of the object devices B, C, D, that is, within the range in which the ID transmitted from the object devices B, C, D can be received. The positional relationship with the devices B, C, and D can be determined, and the object device A can detect other objects based on the transmission direction ID. Object device B, C, can tell you receive that originate ID toward any direction from D, thus it can be determined object device B, C, the directional relationship between D. As a result, the relative positional relationship represented by the position and direction between the object devices B, C, and D with the object device A as the center is obtained.

同様にして、他のオブジェクト装置B,C,Dそれぞれを中心とした相対的位置関係を求める。   Similarly, the relative positional relationship with respect to each of the other object devices B, C, D is obtained.

そして、これらオブジェクト装置A,B,C,D毎の相対的位置関係を集約して、空間全体における全オブジェクト装置A,B,C,D間の相対的位置関係を求める。この処理は、集合データに対して、各相対的位置関係に矛盾がなくなるまたは極力少なくなる最適解を求める手法、たとえば再帰演算法、EMアルゴリズム、バネモデル、ベイジアンネットワーク、遺伝的アルゴリズムなどを実行することで、行うことができる。   Then, the relative positional relationships among these object devices A, B, C, and D are aggregated to obtain the relative positional relationship between all the object devices A, B, C, and D in the entire space. This process executes a method for finding the optimal solution that eliminates or reduces the relative position of each relative positional relationship as much as possible, such as recursive operation, EM algorithm, spring model, Bayesian network, genetic algorithm, etc. And you can do it.

ここで、たとえば、オブジェクト装置Aがオブジェクト装置DからのIDを受信していない場合では、オブジェクト装置Aを中心としたオブジェクト装置Dに対する相対的位置関係の情報は得られないことになるが、逆にこのことは空間全体で見るとオブジェクト装置Aとオブジェクト装置Dとは互いに近くに居ないという関係がわかることになる。   Here, for example, when the object device A has not received the ID from the object device D, information on the relative positional relationship with respect to the object device D around the object device A cannot be obtained. In addition, this shows that the object device A and the object device D are not close to each other when viewed in the entire space.

また、たとえば、オブジェクト装置Aが前方にあるオブジェクト装置BからのIDは受信しているがそのさらに前方にあるオブジェクト装置DからのIDは受信しておらず、オブジェクト装置Bはその後方にあるオブジェクト装置AからのIDと前方にあるオブジェクト装置DからのIDの両方を受信している場合では、オブジェクト装置Aを中心としたオブジェクト装置Dに対する相対的位置関係はわからないものの、オブジェクト装置Bを中心としたオブジェクト装置Aおよびオブジェクト装置Dに対する相対的位置関係がわかるため、これらから、オブジェクト装置Aとオブジェクト装置Bとオブジェクト装置Dとの相対的位置関係を推測できることになる。   Further, for example, the object device A receives the ID from the object device B in front of it, but does not receive the ID from the object device D in front of it, and the object device B is behind the object device B. When both the ID from the device A and the ID from the object device D ahead are received, the relative positional relationship with respect to the object device D with respect to the object device A is unknown, but the object device B is the center. Since the relative positional relationship between the object device A and the object device D is known, the relative positional relationship among the object device A, the object device B, and the object device D can be estimated from these.

もちろんこれらの他にも無数のケースが考えられるが、以上の説明からもわかるように、各オブジェクト装置A,B,C,D毎の相対的位置関係は、それぞれを中心とした局所的な相対的位置関係と呼ぶことができ、さらにこれを集めて上記のとおりに解析して得られる相対的位置関係は、空間内のオブジェクト同士の全体的な相対的位置関係と呼ぶことができ、これが空間全体から見た全オブジェクトのつながりを示すオブジェクトトポロジーとなるのである。   Of course, innumerable cases other than these are conceivable, but as can be understood from the above description, the relative positional relationships of the object devices A, B, C, and D are local relative to each other. The relative positional relationship obtained by collecting and analyzing as described above can be called the overall relative positional relationship between objects in the space, and this can be called the spatial positional relationship. This is an object topology showing the connection of all objects as seen from the whole.

なお、オブジェクト装置が周囲に無線発信するIDに含まれる発信方向IDは、オブジェクト装置からどの方向にIDを発信するかについて予め設定され装置内に記憶されている情報であるため、実際に発信されるIDも周囲空間をその方向で進む必要がある。そこで、上記第2のトポロジー推定システムのように、ID発信には、直進性を持って空間を進む電磁波を用いることが好ましく、これにより、発信方向IDが示す方向に向けてIDを的確に発信でき、そのIDが周囲空間を当該方向に沿って伝播することとなる。この電磁波としては赤外光等の光などといった指向性を持つものを考慮できる。また超音波を使用することもできる。直進性・指向性については、たとえば、発信方向がオブジェクト装置を中心に周囲8方向(前後左右、右前・左前、右後・左後)と設定されている場合において、それぞれの方向に、他の方向と干渉しないで、または干渉するとしてもトポロジー推定処理上許容できる範囲で、進むことができる程度が要求される。
特開2006-174185号公報
Note that the transmission direction ID included in the ID that the object device wirelessly transmits to the surroundings is information that is preset and stored in the device as to which direction the ID is transmitted from the object device. ID must also travel in that direction in the surrounding space. Therefore, as in the second topology estimation system described above, it is preferable to use an electromagnetic wave that travels straight through the space for ID transmission, so that the ID is accurately transmitted in the direction indicated by the transmission direction ID. The ID is propagated along the direction in the surrounding space. As this electromagnetic wave, one having directivity such as light such as infrared light can be considered. Ultrasound can also be used. For straightness and directivity, for example, when the transmission direction is set to 8 directions around the object device (front / rear left / right, right front / left front, right rear / left rear), There is a need for a degree of advancement that does not interfere with the direction, or even within the range that is acceptable in the topology estimation process even if there is interference.
JP 2006-174185 A

本願発明は、上述したとおりのトポロジー推定システムと組み合わせて、オブジェクトの位置および方向を良好に推定することのできる、ロケーションシステム、ロケーション方法、ならびにそのプログラムおよび記録媒体を提供することを課題としている。   It is an object of the present invention to provide a location system, a location method, a program thereof, and a recording medium that can satisfactorily estimate the position and direction of an object in combination with the topology estimation system as described above.

本願発明は、上記の課題を解決するものとして、音響解析による相対距離および相対向きの関係性を取得することのできるシステムを提供する。   This invention provides the system which can acquire the relationship of the relative distance and relative direction by acoustic analysis as what solves said subject.

より具体的には、たとえば図1にその機能ブロック図を例示したように、空間内に存在するオブジェクト間で送受される音情報に基づいて当該空間内におけるオブジェクトの位置および方向を推定するロケーションシステムにおいて、
各オブジェクトに、周囲に向けてオブジェクト固有音を発する発音装置11、および他のオブジェクトの発音装置11から発せられたオブジェクト固有音を録音する録音装置12が装着されており、
あるオブジェクトの発音装置11からのオブジェクト固有音が他のオブジェクトの録音装置12で録音されているかどうかを、時刻同期処理のなされた複数の録音装置データの中から見つけ出し、オブジェクト同士の1対1の距離関係、向き関係、およびIDとからなる相関関係を検出する、
ことを特徴とするロケーションシステムを提供する。
More specifically, for example, as illustrated in the functional block diagram of FIG. 1, a location system that estimates the position and direction of an object in the space based on sound information transmitted and received between objects existing in the space. In
Each object is equipped with a sounding device 11 that emits an object-specific sound toward the surroundings, and a recording device 12 that records the object-specific sound emitted from the sounding device 11 of another object.
Whether or not an object specific sound from the sound generator 11 of an object is recorded by the recording device 12 of another object is found from a plurality of recording device data subjected to time synchronization processing, and one-to-one correspondence between the objects. Detecting a correlation consisting of a distance relationship, an orientation relationship, and an ID,
A location system is provided.

また、空間内に存在するオブジェクト間で送受される音情報に基づいて当該空間内におけるオブジェクトの位置および方向を推定するロケーション方法において、
あるオブジェクトに装着された発音装置から発せられたオブジェクト固有音が他のオブジェクトに装着された録音装置で録音されているかどうかを、時刻同期処理のなされた複数の録音装置データの中から見つけ出し、オブジェクト同士の1対1の距離関係、向き関係、およびIDとからなる相関関係を検出する、
ことを特徴とするロケーション方法を提供する。
Further, in a location method for estimating the position and direction of an object in the space based on sound information transmitted and received between objects existing in the space,
Find out whether or not an object specific sound emitted from a sound device attached to an object is recorded by a recording device attached to another object from a plurality of recording device data that has been time-synchronized. Detecting a one-to-one distance relationship, an orientation relationship, and a correlation between IDs;
A location method is provided.

そして、本願発明は、前記ロケーション方法をコンピュータに実行させるためのロケーションプログラムおよび当該プログラムを記録したコンピュータ読取可能な記録媒体をも提供する。   The present invention also provides a location program for causing a computer to execute the location method and a computer-readable recording medium on which the program is recorded.

本願発明の上記ロケーションシステムおよび方法によれば、オブジェクトの位置および方向を良好に推定することができ、さらには
・混雑した空間でも動作可能
・多人数に対して適用可能
・局所的な関係性が取得できれば良く、複雑な環境装置が不要
という効果が実現できる。
According to the above location system and method of the present invention, the position and direction of an object can be estimated well, and furthermore, it can operate in a congested space What is necessary is just to be able to acquire and the effect that a complicated environmental apparatus is unnecessary is realizable.

また、本願発明では、発音装置および録音装置として市販のICレコーダやICプレーヤを用いることができ、特殊装置を用いることなく上記効果を実現できる。また、オブジェクトの周辺の音を記録できるため、ユーザが後でそのときの周囲環境を振り返ることもできる。   In the present invention, a commercially available IC recorder or IC player can be used as the sound generation device and the recording device, and the above-described effects can be realized without using a special device. Also, since the sound around the object can be recorded, the user can look back on the surrounding environment at that time.

また、多数の音信号をFM電波などでリアルタイム受信して、リアルタイム位置推定も可能である。   In addition, real-time position estimation is possible by receiving a large number of sound signals in real time using FM radio waves or the like.

[第一実施形態]
図1は、本願発明の一実施形態を概略的に示す。
[First embodiment]
FIG. 1 schematically shows an embodiment of the present invention.

以上により、対象空間内に存在するオブジェクトの位置および向きを推定することができる。   As described above, the position and orientation of the object existing in the target space can be estimated.

図1の実施形態では、まず、各オブジェクトは、発音装置11および録音装置12を備えるオブジェクト装置1を装着している。   In the embodiment of FIG. 1, first, each object is equipped with an object device 1 including a sounding device 11 and a recording device 12.

発音装置11は、周囲に向けてオブジェクト固有音を発するものであって、固有音発信に必要な音源部や制御部等(図示なし)を有している。オブジェクト固有音については、予め、その発音装置11が装着されるオブジェクトおよび発音装置11からの発信方向が決められており、オブジェクト固有の音および発信方向を持っている。   The sound generation device 11 emits an object specific sound toward the surroundings, and includes a sound source unit, a control unit, and the like (not shown) necessary for transmitting the specific sound. Regarding the object unique sound, the object to which the sounding device 11 is attached and the transmission direction from the sounding device 11 are determined in advance, and have the sound and transmission direction unique to the object.

オブジェクト固有の音としては、たとえば、オブジェクト毎に予め決められた固有の単一または複数の周波数特性からなる音および固有のランダムノイズ音の一方または両方を持つもの、あるいはそれらの音に混合されているものを考慮できる。この固有音については、さらにたとえば、オブジェクト毎に固有の音楽などを採用でき、発音装置11からそれぞれ割り当てられた異なる音楽を発信することで、各音楽の特徴解析からオブジェクトを識別できる。また、さらには、電子透かしともいえる、人の耳には判別不可能または判別困難であるが計算機で解析するとIDなどの識別情報が含まれていることが判別できる固有音も採用でき、この電子透かし音を音楽と同時に発生させたり、電子透かし音そのものを音楽に含ませたりして(これらの場合には電子透かし音がオブジェクト固有のものであればよいので音楽はオブジェクト間で同じものであってもよい)、人には普通の音響環境にもかかわらず、計算機ではIDを検出できるというシステムも構築可能である。   As the sound unique to the object, for example, a sound having one or both of a unique single or plural frequency characteristics and a unique random noise sound determined in advance for each object, or mixed with these sounds You can consider what you have. For this unique sound, for example, unique music or the like can be adopted for each object, and by transmitting different music respectively assigned from the sound generation device 11, the object can be identified from the characteristic analysis of each music. Further, it is also possible to adopt a unique sound that can be said to be a digital watermark, which is indistinguishable or difficult to be discerned by human ears but can be discriminated that identification information such as ID is included when analyzed by a computer. The watermark sound is generated at the same time as the music, or the digital watermark sound itself is included in the music (in these cases, since the digital watermark sound is unique to the object, the music is the same between objects). However, it is possible to construct a system in which a computer can detect an ID in spite of a normal acoustic environment.

録音装置12は、発音装置11から発せられたオブジェクト固有音を録音するものであって、固有音録音に必要な録音部や制御部等(図示なし)を有している。   The recording device 12 records the object specific sound emitted from the sound generation device 11, and includes a recording unit, a control unit, and the like (not shown) necessary for recording the specific sound.

これら発音装置11および録音装置12は、一つのオブジェクト装置1として装着されていても、別体となっていてもよいが、図2に例示したように、各オブジェクトに複数組装着されるものとする。これにより、図3に例示したように、オブジェクトを中心に、例えばその前後左右4方向の固有音の送受(発信および録音)をカバーできるようにする。装置の個数、つまり方向分解能が高いと推定位置と向きの精度が向上する。また、できるだけ全方向をカバーし、かつ装置同士の方向のオーバラップを減らすことが好ましい。また、送信と受信の方向をずらすことで方向分解能が向上する。   The sounding device 11 and the recording device 12 may be attached as a single object device 1 or may be separated, but as illustrated in FIG. 2, a plurality of sets are attached to each object. To do. As a result, as illustrated in FIG. 3, it is possible to cover transmission / reception (transmission and recording) of natural sounds in, for example, the four directions before and after the object, with the object as the center. If the number of devices, that is, the direction resolution is high, the accuracy of the estimated position and orientation is improved. It is also preferable to cover all directions as much as possible and reduce the overlap in the direction of the devices. In addition, the direction resolution is improved by shifting the transmission and reception directions.

そして、これら発音装置11および録音装置12間にて、つまりあるオブジェクト装置1の発音装置11と他のオブジェクト装置1の録音装置12の間にて送受される固有音に基づくロケーション推定を、あるオブジェクトの発音装置11からのオブジェクト固有音が他のオブジェクトの録音装置12で録音されているかどうかを時刻同期処理のなされた複数の録音装置データの中から見つけ出し、オブジェクト同士の1対1の距離関係、向き関係、およびIDとからなる相関関係を検出することにより、実現する。   Then, a location estimation based on a specific sound transmitted and received between the sounding device 11 and the recording device 12, that is, between the sounding device 11 of a certain object device 1 and the recording device 12 of another object device 1, is performed. Whether or not the object specific sound from the sounding device 11 is recorded by the recording device 12 of another object from the plurality of recording device data subjected to the time synchronization processing, and the one-to-one distance relationship between the objects, This is realized by detecting the correlation between the orientation relationship and the ID.

具体的には、たとえば図4に例示したフローチャートのように、まず、周りに位置する他のオブジェクトの発音装置11からのオブジェクト固有音を録音装置12により逐次録音する。この録音は、対象空間における自己のオブジェクトの活動つまり他のオブジェクトとの関わりを記録しているといえる(ステップS1)。   Specifically, for example, as shown in the flowchart illustrated in FIG. 4, first, the recording device 12 sequentially records object-specific sounds from the sounding device 11 of other objects located around. This recording can be said to record the activity of the object in the target space, that is, the relationship with other objects (step S1).

次いで、録音データを取り出し(ステップS2)、録音データ間の頭揃え時刻同期処理を実行する(ステップS3)。   Next, the recorded data is extracted (step S2), and the head alignment time synchronization process between the recorded data is executed (step S3).

たとえば図5に示すように、オブジェクトとしてのユーザABの録音データが得られたとき、通常はそれら録音データを正確に同期することは困難である。たとえば、二人のICレコーダの録音ボタンを同時に押しても数ミリ秒程度のずれは生じる。また、録音開始時に二つのICレコーダを近接して両レコーダから等距離の位置でノック音などの音を発生、二つの録音データの記録を調べて同じ音が収録された時刻から二つの録音ファイルの時刻を同期する方法も考えられる。しかし、ICレコーダの水晶振動子は厳密には一致した振動周期とならず、数十分後には、数ミリ秒程度の時刻差が生じる。通常の気温では、約30cm離れていると音波電波に1ミリ秒の時間がかかる。本願発明では、距離精度を30cm以下にすることが好ましいため、1ミリ秒以下の時刻同期が必要となる。   For example, as shown in FIG. 5, when recording data of the user AB as an object is obtained, it is usually difficult to accurately synchronize the recording data. For example, even if the recording buttons of two IC recorders are pressed simultaneously, a deviation of about several milliseconds occurs. Also, at the start of recording, two IC recorders are brought close to each other and a knocking sound is generated at an equal distance from both recorders. Two recording files are recorded from the time when the same sound was recorded by examining the recording of the two recording data. It is also possible to synchronize the times. However, strictly speaking, the crystal oscillator of the IC recorder does not have the same vibration cycle, and a time difference of about several milliseconds occurs after several tens of minutes. At normal temperature, about 30 cm away, it takes 1 millisecond for sonic waves. In the present invention, since it is preferable that the distance accuracy is 30 cm or less, time synchronization of 1 millisecond or less is required.

そこで、本願発明では、時刻同期処理を次のように行う。   Therefore, in the present invention, time synchronization processing is performed as follows.

まず、図5に示すように、ユーザBの発音装置の固有音が発信されると、ユーザBのICレコーダで受信された後、ユーザAのICレコーダで受信される。同様にユーザBの発音装置固有音は、ユーザAで受信された後、ユーザBで受信される。ユーザBとユーザAの録音データの時刻差が図5のとおりdtの場合、ユーザBからユーザAに到着した音の時刻は音の伝達時間+dt、その逆のユーザAからユーザBに到着した音の時刻は音の伝達時間-dtとなる。従って、同じ音の時刻差を調べれば、その和の1/2が音の伝達時間、差の1/2が時刻差となり、二つの録音データを同期できる。また、音の伝達時間と音の伝達速度(気温および気圧によって決定)から、ユーザAとユーザBの間の距離が求まる。   First, as shown in FIG. 5, when a unique sound of the sound generation device of user B is transmitted, it is received by the IC recorder of user B and then received by the IC recorder of user A. Similarly, the sound unique to the sound generation device of user B is received by user B after being received by user A. When the time difference between the recording data of the user B and the user A is dt as shown in FIG. 5, the time of the sound that has arrived from the user B to the user A is the sound transmission time + dt, and vice versa. The sound time is the sound transmission time -dt. Therefore, if the time difference of the same sound is examined, 1/2 of the sum is the sound transmission time and 1/2 of the difference is the time difference, so that the two recorded data can be synchronized. Further, the distance between the user A and the user B is obtained from the sound transmission time and the sound transmission speed (determined by the temperature and the atmospheric pressure).

続いて、上記時刻同期処理後の個々の録音データについて、固有音をキーにしてオブジェクトIDを検出し、各オブジェクト間の距離関係および向き関係を他の録音データと比較処理して検出する(ステップS4)。   Subsequently, with respect to the individual recording data after the time synchronization processing, the object ID is detected using the unique sound as a key, and the distance relationship and the orientation relationship between the objects are compared with other recording data to detect (step). S4).

ここで、オブジェクトのIDは固有音に基づいて検出され、オブジェクトの距離関係はタイムオブフライト法を用いて検出され、オブジェクトの向き関係は、録音装置が持つマイク指向性、またはタイムオブアライバル法を用いて検出される。   Here, the ID of the object is detected based on the unique sound, the distance relationship between the objects is detected using the time-of-flight method, and the direction relationship of the object is determined by the microphone directivity of the recording device or the time-of-arrival method. Detected.

オブジェクトID検出は、固有音がオブジェクトに固有の特性を有しているので、たとえば、予めオブジェクト毎に固有音特性をデータベース化しておき、録音データと位置する固有音特性を持つオブジェクトをデータベース検索により検出すればよい。   In the object ID detection, the specific sound has characteristics specific to the object. For example, the specific sound characteristics are stored in a database for each object in advance, and the object having the specific sound characteristics positioned with the recording data is searched by database search. What is necessary is just to detect.

オブジェクト距離関係検出は、Time of Flight(ToF)法で実行される。   Object distance relation detection is executed by the Time of Flight (ToF) method.

すなわち、二つのオブジェクト間の音の伝達時間が前述したように判明すると、オブジェクト間の距離は以下のように求まる。   That is, when the sound transmission time between two objects is found as described above, the distance between the objects can be obtained as follows.

伝達時間×音の伝達速度
音の伝達速度は、気温および気圧によって変化するが、およそ340m/sであり、1ミリ秒で34cm進む。
Transmission time × Sound transmission speed The sound transmission speed varies depending on the temperature and the atmospheric pressure, but is approximately 340 m / s, and advances 34 cm in 1 millisecond.

オブジェクト向き関係検出は、録音装置が持つマイク指向性、またはTime of Arrival(ToA)法を用いて検出される。   The object orientation relationship detection is detected using microphone directivity of the recording apparatus or Time of Arrival (ToA) method.

まず、録音装置が持つマイク指向性を用いる手法を説明する。録音装置としてのマイクロホンは、指向性タイプを用いるか、または人物に設置することで、指向性を持つ(図6参照)。従って、ある録音データに対応するマイクの指向特性が分かっていれば、そのデータに記録された固有音のユーザのおよその方向を決定できる。   First, a method using the microphone directivity of the recording apparatus will be described. A microphone as a recording device has directivity by using a directivity type or by being installed on a person (see FIG. 6). Therefore, if the directional characteristics of the microphone corresponding to certain recording data are known, the approximate direction of the user of the specific sound recorded in the data can be determined.

次に、複数のマイクを用いた手法として、ToA法について説明する。向き関係に関しては、例えばユーザAの前と後ろにつけたマイクで記録された音を解析し、同時刻にユーザBの固有音を検出していたら、ユーザBはユーザAのちょうど左方向(または右方向)であると推定する。前後にマイクを設置した場合を例に、正確に記述すると、図7のように前のマイクの方がdtミリ秒早く受診していた場合は、前後のマイクの距離を1、前から右方向にθの角度方向にユーザBが存在するとして、lcosθ=v・dt(vは音速)の等式が成り立つ。従ってユーザBの方向は、θ=cos-1(v・dt/l)と求められる。マイクの数が2の場合は、上述したようにθ=90度かθ=−90度か判別できない。しかし、マイクを3個以上配置すれば一意に求まる。この向きの情報を二つのマイクに対応する録音データに書き込む。
また、複数のマイクロフォンによる各種音源方向推定手法を利用することも有効である。
Next, the ToA method will be described as a method using a plurality of microphones. Regarding the orientation relationship, for example, if the sound recorded by the microphones attached to the front and the back of the user A is analyzed, and the specific sound of the user B is detected at the same time, the user B is just left (or right) of the user A. Direction). Explaining precisely when the front and rear microphones are installed as an example, if the previous microphone was consulted dt milliseconds earlier as shown in FIG. 7, the distance between the front and rear microphones is 1, and the right direction from the front Assuming that user B exists in the angle direction of θ, the equation of lcos θ = v · dt (v is the speed of sound) is established. Therefore, the direction of the user B is obtained as θ = cos −1 (v · dt / l). When the number of microphones is 2, it cannot be determined whether θ = 90 degrees or θ = −90 degrees as described above. However, if three or more microphones are arranged, it can be uniquely obtained. Information of this direction is written in the recording data corresponding to the two microphones.
It is also effective to use various sound source direction estimation methods using a plurality of microphones.

そして、すべての録音データについて上記各処理を終えた後(ステップS5−Yes)、オブジェクト同士の1対1の距離関係および向き関係を検出する(ステップS6)。   And after finishing each said process about all the recording data (step S5-Yes), the one-to-one distance relationship and orientation relationship between objects are detected (step S6).

すなわち、距離と向き関係が判明した2対の録音データに関して、それぞれのオブジェクトおよび向きに対応するデータに記録する。具体的には、例えばユーザAの後ろ約1mの位置にユーザBが左側を向いて存在する、という局所関係推定結果を生成する。   That is, two pairs of recorded data whose relationship between distance and orientation is found are recorded in data corresponding to each object and orientation. Specifically, for example, the local relationship estimation result that the user B exists at the position about 1 m behind the user A and faces the left side is generated.

最後に、本願発明の発明者による前記特許文献1に記載されたトポロジー推定技術により、オブジェクトのトポロジーを推定する(ステップS7)。   Finally, the topology of the object is estimated by the topology estimation technique described in Patent Document 1 by the inventor of the present invention (step S7).

具体的には、すべての録音データ対に対して、上記の局所関係を作成後、従来のトポロジー推定技術への入力データとして局所関係を入力することで大局的位置関係を推定できる。すなわち、局所的な位置関係はステップ6で求まるが、すべてのユーザや情報キオスクなどのオブジェクトの大局的位置関係(位置と向き)を推定する場合には、従来のトポロジー推定手法を用いる。   Specifically, the global positional relationship can be estimated by creating the above local relationship for all recorded data pairs and then inputting the local relationship as input data to the conventional topology estimation technique. That is, the local positional relationship is obtained in step 6, but when estimating the global positional relationship (position and orientation) of all users and information kiosks and the like, a conventional topology estimation method is used.

以上の処理は、たとえば図1の実施形態では、処理装置2により実行される。処理装置2は、情報受信部21、データベース部22、および処理部23を備えており、各オブジェクトに装着されたオブジェクト装置1の録音装置12または別途の情報送信部13から録音データが送信されて、情報受信部21にて受信され、データベース部22等の記憶手段に収集され、その収集データに基づいて処理部23が上述したとおりの各処理を実行する。   The above processing is executed by the processing device 2 in the embodiment of FIG. The processing device 2 includes an information receiving unit 21, a database unit 22, and a processing unit 23, and recording data is transmitted from the recording device 12 of the object device 1 attached to each object or the separate information transmission unit 13. The information receiving unit 21 receives the data and collects the data in a storage unit such as the database unit 22. Based on the collected data, the processing unit 23 executes each process as described above.

上記の処理は、ICレコーダなどにより録音されたデータを解析することで可能であるが、各マイクで受信した音をFM送信機などにより直接サーバPCに送信し、リアルタイムに処理することで、リアルタイムでトポロジーを推定することも可能である。
[第二実施形態]
ところで、以上のようにオブジェクトの位置および向きが推定できれば、図8に例示したように、対象空間内の任意の中間位置での音を再生することが可能になる。すなわち、指定された位置の音を、別々の位置で録音された複数の録音データとその録音位置から、音のモーフィング技術を用いて補完して作り出すのである。
The above processing can be performed by analyzing data recorded by an IC recorder or the like, but the sound received by each microphone is directly transmitted to the server PC by an FM transmitter or the like and processed in real time. It is also possible to estimate the topology with
[Second Embodiment]
By the way, if the position and orientation of the object can be estimated as described above, it is possible to reproduce a sound at an arbitrary intermediate position in the target space as illustrated in FIG. That is, a sound at a designated position is complemented and created from a plurality of recording data recorded at different positions and the recording position by using a sound morphing technique.

具体的には、第一実施形態にて取得した録音データが何処で、どの向きで録音されたか、トポロジー推定結果からそれぞれ個別に同定し、関連付ける。このときの録音データ間の時刻同期は、前述したと同様に、固有音の録音時刻の相関を用いて行う。   Specifically, where the recording data acquired in the first embodiment is recorded and in which direction the recording data is individually identified and associated with each other from the topology estimation result. The time synchronization between the recorded data at this time is performed using the correlation of the recording time of the specific sound as described above.

より詳細に説明すると、ユーザは、聞きたい時刻と場所を入力する。システムは、ユーザが指定した時刻と場所に近い音声情報を選出する。各音声情報と指定された場所までの距離が近いほど比率が大きくなるように各音声情報を融合する。これにより指定場所でのおよその音を再現する。   More specifically, the user inputs the time and place that he / she wants to hear. The system selects audio information close to the time and place specified by the user. The audio information is merged so that the ratio increases as the distance to the designated location becomes shorter. This reproduces the approximate sound at the specified location.

以上により、録音位置と指定位置との位置関係から、複数の録音データによるモーフィング技術を用いて、そこで聞こえたであろう音を補完生成することができる。   As described above, based on the positional relationship between the recording position and the designated position, the sound that would have been heard there can be complementarily generated using a morphing technique using a plurality of recording data.

図9は、グループに分かれて共同で絵画作品を作成するようなワークショップに対して本願発明を適用したときに、記録したセンサ情報を可視化する処理について説明するための概念図である。左上には、机や情報キオスクが配置された会場内でユーザがどのように動いたかを表す位置情報が、下に表示されている時刻スライドバーで決定される時刻に応じて表示される。ICレコーダおよびICスピーカを各ユーザおよび机や情報キオスクに設定し、収録したICレコーダの音響情報から位置と向きの履歴を表示している。右側には、時刻スライドバーに対応する音響情報が再生される。このワークショップではビデオや写真も収録されていたため、これらの情報が右上の画面に表示される。ユーザは、過去のワークショップを時刻に応じたユーザの位置やそのときの会話、音声、ビデオ、写真を振りかえることができる。これは、本願発明の応用の一例である。
[第三実施形態]
ここで、第一および第二実施形態の実現に必要な複数録音データの時刻同期処理について詳細に説明する。
FIG. 9 is a conceptual diagram for explaining the process of visualizing the recorded sensor information when the present invention is applied to a workshop that is divided into groups and jointly creates painting works. In the upper left, position information indicating how the user has moved in the venue where desks and information kiosks are arranged is displayed according to the time determined by the time slide bar displayed below. An IC recorder and an IC speaker are set for each user, desk, and information kiosk, and a history of position and orientation is displayed from the recorded audio information of the IC recorder. On the right side, acoustic information corresponding to the time slide bar is reproduced. Since this workshop also included videos and photos, this information is displayed on the upper right screen. The user can change the position of the user according to the time of the past workshop and the conversation, voice, video, and photograph at that time. This is an example of application of the present invention.
[Third embodiment]
Here, the time synchronization processing of the plurality of recording data necessary for realizing the first and second embodiments will be described in detail.

第一および第二実施形態を実現するために、複数の録音装置12で録音したデータ間の時刻同期を取る。これは、複数の腕時計があった場合、それぞれ時間の進み方が微妙に異なるように、サンプリングに使用しているクロックのズレの影響で、複数の録音装置12で同じ時間録音したデータも時間長はそれぞれ微妙に異なる。そこで、固有音とToF法による録音データ間の時間相関検出を行う。   In order to realize the first and second embodiments, time synchronization between data recorded by a plurality of recording devices 12 is established. This is because, when there are a plurality of wristwatches, the data recorded at the same time by a plurality of recording devices 12 is affected by the shift of the clock used for sampling so that the time progress is slightly different. Are slightly different. Therefore, time correlation detection between the proper sound and the recording data by the ToF method is performed.

より具体的には、たとえば図10に例示したように、発信している固有音の検出とToF法の組み合わせにより、録音データ間の時間的な関係を規定する。   More specifically, for example, as illustrated in FIG. 10, a temporal relationship between recorded data is defined by a combination of detection of a natural sound being transmitted and the ToF method.

まず、固有音Aの発信時間(図中「固有音発信点」)とその固有音Aの受信時間(図中「固有音受信点」)が時間的に近い場合、音の速度に比較してオブジェクトの移動速度は小さいので、相対距離の変換も少ないと考えられる。   First, when the transmission time of the proper sound A (“proper sound transmission point” in the figure) and the reception time of the proper sound A (“proper sound reception point” in the figure) are close in time, compared to the speed of the sound Since the moving speed of the object is small, it is considered that the conversion of the relative distance is small.

次に、固有音Aの発信点および受信点間を結ぶ線の傾きに着目し、ある発信点および受信点と、次の発信点および受信点それぞれの線の傾きを検出し、それら傾きが同じになる位置が2つのデータが時間的に同期した位置であると判別する。   Next, paying attention to the slope of the line connecting the transmission point and the reception point of the natural sound A, the inclinations of the lines of a certain transmission point and reception point and the next transmission point and reception point are detected, and the inclinations are the same. Is determined to be a position where two data are synchronized in time.

本願発明について説明するための機能ブロック図。The functional block diagram for demonstrating this invention. 発音装置および録音装置の一例を示す概念図。The conceptual diagram which shows an example of a sounding device and a recording device. 発音装置および録音装置による固有音送受について説明するための概念図。The conceptual diagram for demonstrating the natural sound transmission / reception by a sounding device and a recording device. 本願発明について説明するためのフローチャート。The flowchart for demonstrating this invention. 時刻同期処理について説明するための概念図。The conceptual diagram for demonstrating a time synchronous process. オブジェクト向き関係検出処理について説明するための概念図。The conceptual diagram for demonstrating an object direction relationship detection process. オブジェクト向き関係検出処理について説明するための別の概念図。Another conceptual diagram for explaining object orientation relation detection processing. 本願発明の別の一例について説明するための概念図。The conceptual diagram for demonstrating another example of this invention. 本願発明をあるワークショップに適用した場合の一例について説明するための概念図。The conceptual diagram for demonstrating an example at the time of applying this invention to a certain workshop. 本願発明のさらに別の一例について説明するための概念図。The conceptual diagram for demonstrating another example of this invention. 従来のシステムについて説明するための機能ブロック図。The functional block diagram for demonstrating the conventional system.

符号の説明Explanation of symbols

1 オブジェクト装置
11 発音装置
12 録音装置
13 情報送信部
2 処理装置
21 情報受信部
22 データベース部
23 処理部
DESCRIPTION OF SYMBOLS 1 Object apparatus 11 Sound generation apparatus 12 Recording apparatus 13 Information transmission part 2 Processing apparatus 21 Information reception part 22 Database part 23 Processing part

Claims (10)

空間内に存在するオブジェクト間で送受される音情報に基づいて当該空間内におけるオブジェクトの位置および方向を推定するロケーションシステムにおいて、
各オブジェクトに、周囲に向けてオブジェクト固有音を発する発音装置、および他のオブジェクトの発音装置から発せられたオブジェクト固有音を録音する録音装置が装着されており、
あるオブジェクトの発音装置からのオブジェクト固有音が他のオブジェクトの録音装置で録音されているかどうかを、時刻同期処理のなされた複数の録音装置データの中から見つけ出し、オブジェクト同士の1対1の距離関係、向き関係、およびIDとからなる相関関係を検出する、
ことを特徴とするロケーションシステム。
In a location system that estimates the position and direction of an object in the space based on sound information transmitted and received between objects existing in the space,
Each object is equipped with a sounding device that emits object-specific sounds toward the surroundings, and a recording device that records object-specific sounds emitted from sounding devices of other objects,
Whether or not an object specific sound from a sound generator of an object is recorded by a recording device of another object is found from a plurality of recording device data subjected to time synchronization processing, and a one-to-one distance relationship between objects , Detect the correlation consisting of the orientation relationship and ID,
A location system characterized by that.
オブジェクトのIDは、固有音に基づいて検出される、
ことを特徴とする請求項1記載のロケーションシステム。
The object ID is detected based on the unique sound.
The location system according to claim 1.
発音装置から発せられる固有音は、予め、当該発音装置が装着されるオブジェクトおよび当該発音装置からの発信方向に基づいて決められている、
ことを特徴とする請求項2記載のロケーションシステム。
The specific sound emitted from the sounding device is determined in advance based on the object to which the sounding device is attached and the transmission direction from the sounding device.
The location system according to claim 2.
固有音は、オブジェクト毎に予め決められた固有の周波数特性からなる音および固有のランダムノイズ音の一方または両方を持つ、あるいはオブジェクト毎に予め決められた固有の周波数特性からなる音および固有のランダムノイズ音の一方または両方に混ぜられている
ことを特徴とする請求項3記載のロケーションシステム。
The natural sound has one or both of a sound having a specific frequency characteristic predetermined for each object and a specific random noise sound, or a sound having a specific frequency characteristic predetermined for each object and a specific random 4. The location system according to claim 3, wherein the location system is mixed with one or both of the noise sounds.
オブジェクトの距離関係は、Time of Flight法を用いて検出される、
ことを特徴とする請求項1記載のロケーションシステム。
The distance relationship between objects is detected using the Time of Flight method.
The location system according to claim 1.
オブジェクトの向き関係は、録音装置が持つマイク指向性、またはTime of Arrival法を用いて検出される、
ことを特徴とする請求項1記載のロケーションシステム。
The object orientation relationship is detected using the microphone directivity of the recording device or the Time of Arrival method.
The location system according to claim 1.
録音装置により録音されたデータである録音装置データに対して時刻同期処理を施し、その録音装置データの中から、あるオブジェクトの発音装置からのオブジェクト固有音が他のオブジェクトの録音装置で録音されているかどうかを見つけ出す処理装置をさらに有している、
ことを特徴とする請求項1記載のロケーションシステム。
Time-synchronization processing is performed on the recording device data that is recorded by the recording device, and the object specific sound from the sounding device of one object is recorded by the recording device of another object from the recording device data. Further having a processing device to find out whether or not
The location system according to claim 1.
空間内に存在するオブジェクト間で送受される音情報に基づいて当該空間内におけるオブジェクトの位置および方向を推定するロケーション方法において、
あるオブジェクトに装着された発音装置から発せられたオブジェクト固有音が他のオブジェクトに装着された録音装置で録音されているかどうかを、時刻同期処理のなされた複数の録音装置データの中から見つけ出し、オブジェクト同士の1対1の距離関係、向き関係、およびIDとからなる相関関係を検出する、
ことを特徴とするロケーション方法。
In a location method for estimating the position and direction of an object in the space based on sound information transmitted and received between objects existing in the space,
Find out whether or not an object specific sound emitted from a sound device attached to an object is recorded by a recording device attached to another object from a plurality of recording device data that has been time-synchronized. Detecting a one-to-one distance relationship, an orientation relationship, and a correlation between IDs;
A location method characterized by that.
請求項8記載のロケーション方法をコンピュータに実行させるためのロケーションプログラム。   A location program for causing a computer to execute the location method according to claim 8. 請求項9記載のロケーションプログラムを記録したコンピュータ読取可能な記録媒体。   A computer-readable recording medium on which the location program according to claim 9 is recorded.
JP2007149732A 2007-06-05 2007-06-05 LOCATION SYSTEM, LOCATION METHOD, ITS PROGRAM, AND RECORDING MEDIUM Pending JP2008304230A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007149732A JP2008304230A (en) 2007-06-05 2007-06-05 LOCATION SYSTEM, LOCATION METHOD, ITS PROGRAM, AND RECORDING MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007149732A JP2008304230A (en) 2007-06-05 2007-06-05 LOCATION SYSTEM, LOCATION METHOD, ITS PROGRAM, AND RECORDING MEDIUM

Publications (1)

Publication Number Publication Date
JP2008304230A true JP2008304230A (en) 2008-12-18

Family

ID=40233095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007149732A Pending JP2008304230A (en) 2007-06-05 2007-06-05 LOCATION SYSTEM, LOCATION METHOD, ITS PROGRAM, AND RECORDING MEDIUM

Country Status (1)

Country Link
JP (1) JP2008304230A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018514006A (en) * 2015-02-05 2018-05-31 グーグル エルエルシー System and method for mutual authentication of electronic devices

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0870305A (en) * 1994-05-24 1996-03-12 Toshiba Corp Communication equipment
JP2000315974A (en) * 1999-03-23 2000-11-14 Rockwell Sci Center Llc Method for determining a communication topology of a wireless network composed of a plurality of distributed nodes
WO2005122483A1 (en) * 2004-06-09 2005-12-22 International Business Machines Corporation Distance measurement system, distance measurement method, information processing device, program, and recording medium
JP2006174185A (en) * 2004-12-16 2006-06-29 National Institute Of Advanced Industrial & Technology Topology estimation system, topology estimation method, program thereof, and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0870305A (en) * 1994-05-24 1996-03-12 Toshiba Corp Communication equipment
JP2000315974A (en) * 1999-03-23 2000-11-14 Rockwell Sci Center Llc Method for determining a communication topology of a wireless network composed of a plurality of distributed nodes
WO2005122483A1 (en) * 2004-06-09 2005-12-22 International Business Machines Corporation Distance measurement system, distance measurement method, information processing device, program, and recording medium
JP2006174185A (en) * 2004-12-16 2006-06-29 National Institute Of Advanced Industrial & Technology Topology estimation system, topology estimation method, program thereof, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018514006A (en) * 2015-02-05 2018-05-31 グーグル エルエルシー System and method for mutual authentication of electronic devices

Similar Documents

Publication Publication Date Title
Rishabh et al. Indoor localization using controlled ambient sounds
Raykar et al. Position calibration of microphones and loudspeakers in distributed computing platforms
US10409548B2 (en) System and method for differentially locating and modifying audio sources
US9689959B2 (en) Method, apparatus and computer program product for determining the location of a plurality of speech sources
CN101567969B (en) Intelligent video director method based on microphone array sound guidance
AU2022235566A1 (en) Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems
US20070159924A1 (en) Acoustic location and enhancement
US11812235B2 (en) Distributed audio capture and mixing controlling
JP2013148576A (en) Portable device performing position specification using modulated background sound, computer program, and method
JP2011080868A (en) Sound monitoring system, and speech collection system
CA3091880A1 (en) Positioning sound sources
JP5543106B2 (en) Spatial audio signal reproduction apparatus and spatial audio signal reproduction method
Nguyen et al. Multilevel B-splines-based learning approach for sound source localization
JP2000295698A (en) Virtual surround device
JP5867799B2 (en) Sound collecting / reproducing apparatus, program, and sound collecting / reproducing method
US20140050053A1 (en) Estimation device and estimation method
CN100538607C (en) The audio sensor on the Distributed Calculation platform and the three-dimensional position of actuator are proofreaied and correct
El-Mohandes et al. DeepBSL: 3-D personalized deep binaural sound localization on earable devices
Raykar et al. Position calibration of audio sensors and actuators in a distributed computing platform
CN112098943A (en) A wearable device positioning method and smart device
JP2008304230A (en) LOCATION SYSTEM, LOCATION METHOD, ITS PROGRAM, AND RECORDING MEDIUM
EP4078991B1 (en) Wireless microphone with local storage
CN118092652A (en) A human-computer interaction control method based on acoustic wearable device
JP2018034221A (en) Robot system
JP7349410B2 (en) System and method for reproducing acoustic signals from a predetermined direction of arrival

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091214

A977 Report on retrieval

Effective date: 20110921

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A02 Decision of refusal

Effective date: 20120925

Free format text: JAPANESE INTERMEDIATE CODE: A02