[go: up one dir, main page]

JP6329915B2 - Positioning system - Google Patents

Positioning system Download PDF

Info

Publication number
JP6329915B2
JP6329915B2 JP2015037946A JP2015037946A JP6329915B2 JP 6329915 B2 JP6329915 B2 JP 6329915B2 JP 2015037946 A JP2015037946 A JP 2015037946A JP 2015037946 A JP2015037946 A JP 2015037946A JP 6329915 B2 JP6329915 B2 JP 6329915B2
Authority
JP
Japan
Prior art keywords
possession
mobile terminal
measurement data
unit
owner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015037946A
Other languages
Japanese (ja)
Other versions
JP2016161313A (en
Inventor
フォン グエン
フォン グエン
洋輝 大橋
洋輝 大橋
高行 秋山
高行 秋山
Original Assignee
株式会社日立アドバンストシステムズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立アドバンストシステムズ filed Critical 株式会社日立アドバンストシステムズ
Priority to JP2015037946A priority Critical patent/JP6329915B2/en
Publication of JP2016161313A publication Critical patent/JP2016161313A/en
Application granted granted Critical
Publication of JP6329915B2 publication Critical patent/JP6329915B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)

Description

本発明は、測位システムに関する。   The present invention relates to a positioning system.

屋外測位技術は、グローバル・ポジショニング・システム(GPS)のおかげで、コスト及び測位可能範囲の点で非常に効果的である。しかし、屋内測位技術は、GPS信号が届かない場所において多くのインフラを実装することが必要であるため、非常に高コストである。デッドレコニングによる歩行者位置推定(PDR)は、屋内測位技術の一つの方法である。PDRシステムは、加速度計、ジャイロスコープ、磁気計、気圧計等のモバイルセンサを使用することによって、進行方向及び移動速度を推定し、その推定結果に基づき、初期位置からの相対位置を推定できる。PDRシステムは、固定屋内測位システムと共に利用することが可能であり、それによりコストを低減し測位可能範囲を広げることができる。   Outdoor positioning technology is very effective in terms of cost and positioning range thanks to the Global Positioning System (GPS). However, indoor positioning technology is very expensive because it requires a lot of infrastructure to be installed in places where GPS signals do not reach. Pedestrian location estimation (PDR) by dead reckoning is one method of indoor positioning technology. The PDR system uses a mobile sensor such as an accelerometer, a gyroscope, a magnetometer, or a barometer to estimate a traveling direction and a moving speed, and can estimate a relative position from an initial position based on the estimation result. The PDR system can be used together with a fixed indoor positioning system, thereby reducing the cost and extending the positioning range.

加速度計やジャイロスコープのようなセンサによって収集されるデータは、センサの所持位置が、移動端末の所持者の体の異なる部分にあるとき、異なるものとなる。移動端末の所持者の移動量(移動速度及び方向)を推定するためには、センサの所持位置が重要な情報である。公知の方法は、そのような情報を使用して、移動端末の所持者の移動量の計算を補正する。   Data collected by sensors such as accelerometers and gyroscopes will be different when the position of the sensor is in a different part of the body of the mobile terminal holder. In order to estimate the movement amount (movement speed and direction) of the owner of the mobile terminal, the possession position of the sensor is important information. Known methods use such information to correct the calculation of the amount of movement of the mobile terminal holder.

例えば、特許文献1は、携帯端末のスイング動作の大きさを判定し、前記スイング動作の大きさが所定の値より大きいか又は同一である場合に、前記携帯端末は、前記スイング動作を行うものと判定し、上記検出された加速度及び角速度のうちの少なくとも1つを用いて前記歩行者の身体における前記携帯端末の携帯位置を判定し、前記判定された前記携帯端末の携帯位置に従って前記歩行者の歩幅を推定する、ことを開示する(要約参照)。   For example, Patent Document 1 determines the magnitude of a swing motion of a mobile terminal, and when the magnitude of the swing motion is greater than or equal to a predetermined value, the mobile terminal performs the swing motion. And determining the portable position of the portable terminal in the pedestrian's body using at least one of the detected acceleration and angular velocity, and according to the determined portable position of the portable terminal It is disclosed to estimate the stride of (see summary).

また、特許文献2は、測位装置は、計測データから、自装置が移動体にどのように保持されているかを特定する保持状態推定部と、保持状態推定部が特定した保持状態に応じた演算処理を行い、上記計測データから上記移動体の移動ベクトルを算出する移動量推定部とを備える、ことを開示する(要約参照)。   Patent Document 2 discloses that the positioning device calculates from the measurement data a holding state estimation unit that specifies how the device is held by the moving body, and a calculation according to the holding state that the holding state estimation unit specifies. Disclosed is a movement amount estimation unit that performs processing and calculates a movement vector of the moving body from the measurement data (see summary).

特表2013−533481号Special table 2013-533481 国際公開2011/93447号International Publication No. 2011/93447

しかし、移動端末の所持者の移動量の推定においては、センサの所持位置が重要であるのみならず、移動端末の所持者の移動動作の種類も極めて重要である。例えば、歩行、階段上り、及び階段下りという動作は似た加速度データを示すが、歩行おける歩幅と階段の上り下りにおける歩幅とは、全く異なる。したがって、移動端末の所持者の移動量を推定する計算を補正するためには、センサの所持位置と所持者の動作内容の双方が必須の情報である。   However, in estimating the amount of movement of the owner of the mobile terminal, not only the position of the sensor is important, but also the type of movement operation of the owner of the mobile terminal is extremely important. For example, the motions of walking, climbing stairs, and descending stairs show similar acceleration data, but the stride for walking and the stride for climbing up and down the stairs are completely different. Therefore, in order to correct the calculation for estimating the movement amount of the owner of the mobile terminal, both the possessing position of the sensor and the operation content of the owner are essential information.

例えば、特許文献2に開示されている技術を使用して、センサ装置の所持位置を推定し、その情報を使用して移動端末の所持者の移動量を計算することができる。しかし、所持者の移動動作がわからない場合には、移動端末の所持者の移動量が間違って推定され得る。例えば、歩行と階段下りとは、類似した加速度センサデータを示すが、歩行の歩幅は、階段下りの歩幅よりも長い。さらに、階段下りは、垂直軸における移動を含むが、それは、移動端末の所持者の移動動作が与えられている場合のみ、知ることができる。   For example, using the technique disclosed in Patent Document 2, the possession position of the sensor device can be estimated, and the movement amount of the owner of the mobile terminal can be calculated using the information. However, if the owner's movement operation is unknown, the movement amount of the owner of the mobile terminal can be estimated incorrectly. For example, while walking and stair descent indicate similar acceleration sensor data, the walking stride is longer than the stair descent. Further, stair down includes movement in the vertical axis, which can be known only when the movement operation of the owner of the mobile terminal is given.

したがって、移動端末のセンサによるデータを使用して移動端末の所持者の位置を適切に推定できる技術が望まれる。   Therefore, a technology that can appropriately estimate the position of the owner of the mobile terminal using data from the sensor of the mobile terminal is desired.

本発明の代表的な一例は、移動端末の所持者の位置を判定する、測位システムであって、前記移動端末よって測定され、前記移動端末から収集された測定データと、前記移動端末による測定データにおける特徴量と前記移動端末の所持位置との関係を示す、所持位置検出モデルと、複数の所持位置それぞれに対応し、前記移動端末による測定データにおける特徴量と前記所持者の動作との関係を示す、複数の動作認識モデルと、複数のパラメータセットを格納する、パラメータテーブルと、前記所持位置検出モデル及び前記収集された測定データに基づき、前記移動端末の所持位置を判定する、所持位置検出部と、前記所持位置検出部により判定された所持位置に対応する動作認識モデルを選択するモデル選択部と、前記選択された動作認識モデル及び前記収集された測定データに基づき、前記移動端末の所持者の動作を判定する、動作認識部と、前記所持位置検出部に判定された所持位置及び前記動作認識部により判定された動作に基づいて、前記パラメータテーブルからパラメータセットを選択する、調整部と、前記選択されたパラメータセットを使用して、前記所持者の移動量を計算する、移動量計算部と、前記計算された移動量に基づいて前記所持者の位置を判定する位置判定部と、を含む。   A representative example of the present invention is a positioning system for determining the position of the owner of a mobile terminal, the measurement data measured by the mobile terminal and collected from the mobile terminal, and the measurement data by the mobile terminal The possession position detection model indicating the relationship between the feature amount in the mobile terminal and the possessed position of the mobile terminal, and corresponding to each of a plurality of possessed positions, and the relationship between the feature amount in the measurement data by the mobile terminal and the operation of the owner A possession position detection unit that determines a possession position of the mobile terminal based on a parameter table that stores a plurality of motion recognition models and a plurality of parameter sets, the possession position detection model, and the collected measurement data A model selection unit that selects a motion recognition model corresponding to the possessed position determined by the possessed position detection unit, and the selected motion recognition Based on Dell and the collected measurement data, the operation of the owner of the mobile terminal is determined, the operation recognition unit, the possession position determined by the possession position detection unit, and the operation determined by the operation recognition unit An adjustment unit that selects a parameter set from the parameter table, a movement amount calculation unit that calculates a movement amount of the holder using the selected parameter set, and the calculated movement amount And a position determination unit that determines the position of the holder based on

本発明の一態様によれば、移動端末のセンサによる測定データを使用して、移動端末所持者の位置を適切に推定することができる。   According to one aspect of the present invention, it is possible to appropriately estimate the position of the mobile terminal owner using measurement data obtained by the sensor of the mobile terminal.

実施例1に係る屋内測位システムの構成例を模式的に示す。An example of composition of an indoor positioning system concerning Example 1 is shown typically. 実施例1に係る屋内測位システムの機能ブロックを示す。1 shows functional blocks of an indoor positioning system according to a first embodiment. 実施例1に係る測定データを模式的に示す。The measurement data concerning Example 1 are shown typically. 実施例1に係る所持位置検出モデルを模式的に示す。The possession position detection model which concerns on Example 1 is shown typically. 実施例1に係る動作認識モデルの例を模式的に示す。An example of an action recognition model concerning Example 1 is shown typically. 実施例1に係る動作認識モデルの例を模式的に示す。An example of an action recognition model concerning Example 1 is shown typically. 実施例1に係る動作認識モデルの例を模式的に示す。An example of an action recognition model concerning Example 1 is shown typically. 実施例1に係る動作認識モデルの例を模式的に示す。An example of an action recognition model concerning Example 1 is shown typically. 実施例1に係るパラメータテーブルを模式的に示す。The parameter table concerning Example 1 is shown typically. 実施例1に係る所持位置検出処理のフローチャートを示す。2 is a flowchart of possession position detection processing according to the first embodiment. 実施例1に係るモデル選択処理のフローチャートを示す。3 is a flowchart of model selection processing according to the first embodiment. 実施例1に係る動作認識処理のフローチャートを示す。3 shows a flowchart of motion recognition processing according to the first embodiment. 実施例1に係る調整処理のフローチャートを示す。3 shows a flowchart of an adjustment process according to the first embodiment. 実施例1に係る移動量計算処理のフローチャートを示す。3 is a flowchart of a movement amount calculation process according to the first embodiment. 実施例1に係る移動端末の所持者の位置判定処理のフローチャートを示す。The flowchart of the position determination process of the holder of the mobile terminal which concerns on Example 1 is shown. 実施例2に係る屋内測位システムの機能ブロック図を示す。The functional block diagram of the indoor positioning system which concerns on Example 2 is shown. 実施例2に係るデータ収集を説明する模式図を示す。FIG. 6 is a schematic diagram illustrating data collection according to the second embodiment. 実施例2に係るデータ収集部のフローチャートを示す。9 shows a flowchart of a data collection unit according to a second embodiment. 実施例2に係る所持位置検出学習部のフローチャートを示す。9 is a flowchart of the possession position detection learning unit according to the second embodiment. 実施例3に係る屋内測位システム1の機能ブロック図を示す。The functional block diagram of the indoor positioning system 1 which concerns on Example 3 is shown. 実施例3に係るフィードバックシステム部のフローチャートを示す。9 shows a flowchart of a feedback system unit according to a third embodiment. 実施例4に係る屋内測位システムの機能ブロック図を示す。The functional block diagram of the indoor positioning system which concerns on Example 4 is shown. 実施例4に係るデータ収集部のフローチャートを示す。9 shows a flowchart of a data collection unit according to a fourth embodiment. 実施例4に係る動作認識学習部のフローチャートを示す。10 shows a flowchart of a motion recognition learning unit according to a fourth embodiment. 実施例5に係る屋内測位システムの機能ブロック図を示す。The functional block diagram of the indoor positioning system which concerns on Example 5 is shown. 実施例5に係るフィードバックシステム部のフローチャートを示す。10 is a flowchart of a feedback system unit according to the fifth embodiment. 実施例6に係る屋内測位システムの機能ブロック図を示す。The functional block diagram of the indoor positioning system which concerns on Example 6 is shown. 実施例6に係る訂正部がどのように所持位置検出を訂正するかを模式的に示す。It is typically shown how the correction part which concerns on Example 6 corrects possession position detection. 実施例6に係る訂正部がどのように動作認識を訂正するかを模式的に示す。It is typically shown how the correction part which concerns on Example 6 corrects action recognition. 実施例7に係るサーバの入出力装置に表示される画像例を示す。20 shows an example of an image displayed on an input / output device of a server according to Embodiment 7. 実施例7に係る屋内測位システムのアプリケーションの他の例を示す。The other example of the application of the indoor positioning system which concerns on Example 7 is shown. 実施例7に係る屋内測位システムのアプリケーションの他の例を示す。The other example of the application of the indoor positioning system which concerns on Example 7 is shown.

以下、添付図面を参照して本発明の実施形態を説明する。本実施形態は本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではないことに注意すべきである。各図において共通の構成については同一の参照符号が付されている。   Embodiments of the present invention will be described below with reference to the accompanying drawings. It should be noted that this embodiment is merely an example for realizing the present invention, and does not limit the technical scope of the present invention. In each figure, the same reference numerals are given to common configurations.

以下において、移動端末の所持者の位置を推定する屋内測位システムが開示される。屋内測位システムは、移動端末内のセンサによって測定されたデータに基づき移動端末の所持者の位置を推定する。   In the following, an indoor positioning system for estimating the position of the owner of a mobile terminal is disclosed. The indoor positioning system estimates the position of the owner of the mobile terminal based on the data measured by the sensor in the mobile terminal.

屋内測位システムは、移動端末の測定データから、所持位置検出モデルを参照して、所持者による移動端末の所持位置を推定する。屋内測位システムは、推定した所持位置に対応する動作認識モデル選択し、選択した動作認識モデルを参照して、測定データから所持者の動作を推定する。   The indoor positioning system estimates the possessed position of the mobile terminal by the owner by referring to the possessed position detection model from the measurement data of the mobile terminal. The indoor positioning system selects a motion recognition model corresponding to the estimated possessed position, and estimates the motion of the owner from the measurement data with reference to the selected motion recognition model.

屋内測位システムは、推定した所持位置及び動作に対応するパラメータセットを、パラメータテーブルから選択する。屋内測位システムは、選択したパラメータを使用して、移動端末による測定データから、所持者の移動スピードと進行方向を推定する。屋内測位システムは、推定した移動スピードと進行方向から、所持者の移動量を計算する。   The indoor positioning system selects a parameter set corresponding to the estimated possessed position and operation from the parameter table. The indoor positioning system estimates the moving speed and traveling direction of the owner from the measurement data obtained by the mobile terminal using the selected parameters. The indoor positioning system calculates the amount of movement of the owner from the estimated moving speed and direction of travel.

本開示の屋内測位システムは、推定した移動端末の所持位置に対応する動作認識モデルを使用することで、より正確に所持者の動作を推定し、推定した所持位置と動作とから、移動スピードと進行方向から決まる所持者の移動量をより正確に推定することができる。   The indoor positioning system of the present disclosure uses a motion recognition model corresponding to the estimated possession position of the mobile terminal to more accurately estimate the owner's motion, and from the estimated possession position and motion, the movement speed and The amount of movement of the owner determined from the traveling direction can be estimated more accurately.

図1〜12を参照して実施例1を説明する。移動端末の所持者の位置が、移動端末に含まれる加速度計、ジャイロスコープ、磁気計、気圧計等の測定センサによって測定された測定データに基づき推定されるとき、調整プログラムは、移動端末の所持者の移動量を定期的に計算するためのパラメータを調整する。移動量は、移動方向の要素を含む。パラメータ調整により、移動端末の所持者の移動量の推定の正確性が改善される。その結果、移動中の移動端末の所持者の位置が、正確に推定され得る。   A first embodiment will be described with reference to FIGS. When the position of the mobile terminal holder is estimated based on measurement data measured by a measurement sensor such as an accelerometer, a gyroscope, a magnetometer, or a barometer included in the mobile terminal, the adjustment program Adjust the parameters to calculate the amount of movement of the person regularly. The movement amount includes an element in the movement direction. The parameter adjustment improves the accuracy of estimation of the movement amount of the owner of the mobile terminal. As a result, the position of the owner of the moving mobile terminal can be accurately estimated.

図1は、実施例1に係る屋内測位システムの構成例を模式的に示す。屋内測位システムは、サーバ100及び移動端末200を含む。移動端末200は、測定センサ群230を含む。測定センサ群230は、例えば、移動端末200の所持者の移動による加速度を検出する加速度計、移動端末200の所持者が向きを変えることによる角速度を検出するジャイロスコープ、移動端末200の周囲の磁界を検出する磁気計、移動端末200の周囲の気圧を検出する気圧計等を含む。   FIG. 1 schematically illustrates a configuration example of an indoor positioning system according to the first embodiment. The indoor positioning system includes a server 100 and a mobile terminal 200. The mobile terminal 200 includes a measurement sensor group 230. The measurement sensor group 230 includes, for example, an accelerometer that detects acceleration due to movement of the owner of the mobile terminal 200, a gyroscope that detects angular velocity when the owner of the mobile terminal 200 changes its orientation, and a magnetic field around the mobile terminal 200. And a barometer that detects the atmospheric pressure around the mobile terminal 200.

移動端末200は、測定センサ群230により測定された測定データ241を格納する。サーバ100は、移動端末200の測定センサ群230によって測定された測定データ241を収集し、収集した測定データ241に基づいて、所持者の移動量を計算する。   The mobile terminal 200 stores measurement data 241 measured by the measurement sensor group 230. The server 100 collects measurement data 241 measured by the measurement sensor group 230 of the mobile terminal 200 and calculates the amount of movement of the owner based on the collected measurement data 241.

移動端末200は、プロセッサ210、メモリ220、測定センサ群230、補助記憶240、通信インタフェース250、及び入出力装置260を含む。これら構成要素は、互いにバスによって接続されている。スマートフォンは、移動端末200の一例である。所持者の移動の測定データが測定センサ群230によって測定できれば、移動端末200は、スマートフォンに限定されない。   The mobile terminal 200 includes a processor 210, a memory 220, a measurement sensor group 230, an auxiliary storage 240, a communication interface 250, and an input / output device 260. These components are connected to each other by a bus. A smartphone is an example of the mobile terminal 200. The mobile terminal 200 is not limited to a smartphone as long as measurement data of movement of the owner can be measured by the measurement sensor group 230.

プロセッサ210はメモリ220を参照して、様々な演算処理を実行する。メモリ220は測定データ取得プログラム221を格納している。測定データ取得プログラム221は、測定センサ群230によって収集された測定データを測定時刻と関連づけて格納する。測定時刻と関連づけられた測定データは、測定データ241として補助記憶240に格納される。測定データは、例えば、移動端末200の所持者の移動による加速度、移動端末200の所持者が向きを変えることによる角速度、移動端末200の周囲の磁界、移動端末200の周囲の気圧等である。   The processor 210 refers to the memory 220 and executes various arithmetic processes. The memory 220 stores a measurement data acquisition program 221. The measurement data acquisition program 221 stores the measurement data collected by the measurement sensor group 230 in association with the measurement time. Measurement data associated with the measurement time is stored in the auxiliary storage 240 as measurement data 241. The measurement data includes, for example, acceleration due to movement of the owner of the mobile terminal 200, angular velocity due to change of the direction of the owner of the mobile terminal 200, magnetic field around the mobile terminal 200, atmospheric pressure around the mobile terminal 200, and the like.

測定センサ群230は、例えば、移動端末200の加速度、角速度、磁界、気圧等を測定することができる。典型的な加速度計は、互いに直交する3軸、具体的には、移動端末200のフレームの上下軸、左右軸及び垂直軸の加速度を測定する。典型的なジャイロスコープは、直交する3軸、具体的には、移動端末200のフレームの上下軸、左右軸及び垂直軸の角速度を測定する。典型的な磁気計は、直交する3軸、具体的には、移動端末200のフレームの上下軸、左右軸及び垂直軸の磁界を測定する。気圧計は、移動端末200の周囲の大気圧を測定する。   The measurement sensor group 230 can measure, for example, acceleration, angular velocity, magnetic field, atmospheric pressure, and the like of the mobile terminal 200. A typical accelerometer measures accelerations of three axes orthogonal to each other, specifically, the vertical axis, the horizontal axis, and the vertical axis of the frame of the mobile terminal 200. A typical gyroscope measures the angular velocities of three orthogonal axes, specifically, the vertical axis, the horizontal axis, and the vertical axis of the frame of the mobile terminal 200. A typical magnetometer measures magnetic fields on three orthogonal axes, specifically, the vertical axis, the horizontal axis, and the vertical axis of the frame of the mobile terminal 200. The barometer measures the atmospheric pressure around the mobile terminal 200.

補助記憶240は、測定データ241を格納する。補助記憶240は、例えば、可搬不気圧記憶媒体である。測定データ241の詳細は、図3を参照して後述される。通信インタフェース250は、移動端末200をネットワーク150に接続するインタフェースである。入出力装置260は、ユーザからの入力を受け付け、また、ユーザに情報を提示するためのデバイスであり、例えば、入力キー、タッチパネル、ディスプレイ等を含む。   The auxiliary storage 240 stores measurement data 241. The auxiliary storage 240 is, for example, a portable atmospheric pressure storage medium. Details of the measurement data 241 will be described later with reference to FIG. The communication interface 250 is an interface that connects the mobile terminal 200 to the network 150. The input / output device 260 is a device for receiving input from the user and presenting information to the user, and includes, for example, an input key, a touch panel, a display, and the like.

サーバ100は、プロセッサ110、メモリ120、補助記憶130、通信インタフェース140、及び入出力装置160を含む。これら構成要素はバスによって互いに接続されている。プロセッサ110はメモリ120を参照して、様々な演算処理を実行する。メモリ120は、所持位置検出プログラム121、モデル選択プログラム122、動作認識プログラム123、調整プログラム124、移動量計算プログラム125、及び位置判定プログラム126を格納する。   The server 100 includes a processor 110, a memory 120, an auxiliary storage 130, a communication interface 140, and an input / output device 160. These components are connected to each other by a bus. The processor 110 refers to the memory 120 and executes various arithmetic processes. The memory 120 stores a possessed position detection program 121, a model selection program 122, an action recognition program 123, an adjustment program 124, a movement amount calculation program 125, and a position determination program 126.

所持位置検出プログラム121は、測定データ132に基づいて、移動端末200が、移動端末200の所持者の体のどこで所持されているかを検出する。測定データ132は、移動端末200において収集された測定データ241に対応し、サーバ100において補助記憶130に格納されている。サーバ100の不図示の収集プログラムが、移動端末200から測定データ241を収集し、測定データ132として格納する。所持位置検出プログラム121による処理は、図7を参照して後述される。   Based on the measurement data 132, the possession position detection program 121 detects where the mobile terminal 200 is possessed by the owner of the mobile terminal 200. The measurement data 132 corresponds to the measurement data 241 collected in the mobile terminal 200 and is stored in the auxiliary storage 130 in the server 100. A collection program (not shown) of the server 100 collects measurement data 241 from the mobile terminal 200 and stores it as measurement data 132. Processing by the possession position detection program 121 will be described later with reference to FIG.

モデル選択プログラム122は、動作認識プログラム123のための適切なモデルを、所持位置検出プログラム121により検出された所持位置に基づいて選択する。多くの動作認識モデルが補助記憶130に格納されており、各動作認識モデルは、所持者に所持されている移動端末200の位置に対応する。これら所持位置は、例えば、所持者の手の上、所持者のベルトポーチ内、所持者のサイドポケット内、所持者のフロントポケット内、所持者のフロントポケット内等である。モデル選択プログラム122による処理は、図8を参照して後述される。   The model selection program 122 selects an appropriate model for the motion recognition program 123 based on the possessed position detected by the possessed position detection program 121. Many motion recognition models are stored in the auxiliary memory 130, and each motion recognition model corresponds to the position of the mobile terminal 200 possessed by the owner. These possession positions are, for example, on the owner's hand, in the owner's belt pouch, in the owner's side pocket, in the owner's front pocket, in the owner's front pocket, and the like. The processing by the model selection program 122 will be described later with reference to FIG.

動作認識プログラム123は、移動端末200の所持者の動作を、測定データ132及びモデル選択プログラム122に選択された動作認識モデルに基づいて、判定する。動作は、例えば、歩行、走り、静止している、階段上り、階段下り、ドア開け、エレベータによる移動等である。動作認識プログラム123による処理は、図9を参照して後述される。   The motion recognition program 123 determines the motion of the owner of the mobile terminal 200 based on the motion recognition model selected by the measurement data 132 and the model selection program 122. The movement is, for example, walking, running, standing still, going up stairs, going down stairs, opening a door, moving by an elevator, and the like. The processing by the motion recognition program 123 will be described later with reference to FIG.

調整プログラム124は、歩幅、歩数、進行方向及び階数等を所持位置と動作認識の情報に基づいて推定するためのパラメータを、変更する。調整されるパラメータは、例えば、歩数カウントに使用されるパラメータ、歩幅計算に使用されるパラメータ、ドアを通る進行方向判定に使用されるパラメータ、階数判定に使用されるパラメータ等である。調整プログラム124の処理は、図10を参照して後述される。   The adjustment program 124 changes parameters for estimating the stride, the number of steps, the traveling direction, the number of floors, and the like based on the possessed position and the information of the motion recognition. The parameters to be adjusted include, for example, a parameter used for step count counting, a parameter used for step length calculation, a parameter used for determination of a traveling direction through a door, and a parameter used for rank determination. The processing of the adjustment program 124 will be described later with reference to FIG.

移動量計算プログラム125は、移動端末200の所持者の移動スピードと進行方向を計算する。移動量は、移動端末200の所持者の移動スピードと進行方向をから計算できる。   The movement amount calculation program 125 calculates the movement speed and traveling direction of the holder of the mobile terminal 200. The amount of movement can be calculated from the moving speed and traveling direction of the holder of the mobile terminal 200.

移動スピードは、単位時間当たりの移動距離であり、移動距離は、例えば、移動端末200の所持者の歩数及び歩幅から計算できる。歩数は、例えば、加速度信号の周期の数により決定される。歩幅は、例えば、単位時間当たりの歩数と移動端末200の所持者の基準歩幅から推定できる。   The moving speed is a moving distance per unit time, and the moving distance can be calculated from, for example, the number of steps and the step length of the owner of the mobile terminal 200. The number of steps is determined by, for example, the number of cycles of the acceleration signal. The stride can be estimated from, for example, the number of steps per unit time and the reference stride of the owner of the mobile terminal 200.

進行方向は、移動端末200の地球を基準とする方向又は方向の変化に基づいて計算できる。例えば、磁気計は、移動端末200の東西南北を基準とする方向を示し、ジャイロスコープの測定データから、方向の変化を計算できる。移動量計算プログラム125は、後で、図11を参照して詳述される。   The traveling direction can be calculated based on the direction of the mobile terminal 200 with respect to the earth or a change in direction. For example, the magnetometer indicates a direction with reference to the east, west, north, and south of the mobile terminal 200, and the change in direction can be calculated from the measurement data of the gyroscope. The movement amount calculation program 125 will be described in detail later with reference to FIG.

位置判定プログラム126は、移動端末200の所持者の位置を判定する。初期位置、進行方向、及び移動量計算プログラム125により計算される移動量から、移動端末200の所持者の位置を追跡することができる。位置判定プログラム126は、WIFIアクセスポイントやビーコンアクセスポイントのような、固定アクセスポイントに基づいて、移動端末200の所持者の位置を判定することもできる。   The position determination program 126 determines the position of the owner of the mobile terminal 200. The position of the owner of the mobile terminal 200 can be traced from the initial position, the traveling direction, and the movement amount calculated by the movement amount calculation program 125. The position determination program 126 can also determine the position of the owner of the mobile terminal 200 based on a fixed access point such as a WIFI access point or a beacon access point.

補助記憶130は、動作認識モデル群131を格納しており、各動作認識モデルは、移動端末200の所持者の体における各位置に対応付けられる。補助記憶130は、さらに、測定データ132、所持位置検出モデル133、及びパラメータテーブル134を格納している。   The auxiliary memory 130 stores a motion recognition model group 131, and each motion recognition model is associated with each position on the body of the owner of the mobile terminal 200. The auxiliary storage 130 further stores measurement data 132, a possession position detection model 133, and a parameter table 134.

多くの動作認識モデルが定義でき、例えば、手の上の動作認識モデル、ベルトポーチ内の動作認識モデル、サイドポケット内の動作認識モデル、フロントポケット内の動作認識モデル等が定義できる。各動作認識モデルは、測定データ132に基づき移動端末200の所持者の動作を認識するための特徴量を格納している。動作認識モデル群131に含まれる動作認識モデルの例は、図5A〜5Dを参照して後述される。   Many motion recognition models can be defined, for example, a motion recognition model on the hand, a motion recognition model in the belt pouch, a motion recognition model in the side pocket, a motion recognition model in the front pocket, and the like. Each motion recognition model stores a feature amount for recognizing the motion of the owner of the mobile terminal 200 based on the measurement data 132. Examples of the motion recognition model included in the motion recognition model group 131 will be described later with reference to FIGS.

測定データ132は、センサデータであり、移動端末200内の測定データ241に対応する。具体的には、サーバ100は、定期的に、測定データ取得要求を移動端末200に対してネットワーク150を介して送信する。測定データ取得要求を受信すると、移動端末200は、収集した測定データ241をサーバ100に対してネットワーク150を介して送信する。移動端末200から測定データ241を受信すると、サーバ100は受信した測定データ241を、補助記憶130に格納する。測定データ132の一例は、図3を参照して後述される。   The measurement data 132 is sensor data and corresponds to the measurement data 241 in the mobile terminal 200. Specifically, the server 100 periodically transmits a measurement data acquisition request to the mobile terminal 200 via the network 150. When receiving the measurement data acquisition request, the mobile terminal 200 transmits the collected measurement data 241 to the server 100 via the network 150. When the measurement data 241 is received from the mobile terminal 200, the server 100 stores the received measurement data 241 in the auxiliary storage 130. An example of the measurement data 132 will be described later with reference to FIG.

サーバ100が移動端末200の測定データ241を収集する方法は、上記方法に限定されない。サーバ100は、測定データ241が格納されている可搬記憶媒体から、測定データ241を直接に読み出してもよい。   The method by which the server 100 collects the measurement data 241 of the mobile terminal 200 is not limited to the above method. The server 100 may directly read the measurement data 241 from the portable storage medium in which the measurement data 241 is stored.

所持位置検出モデル133は、所持者の体における移動端末200の所持位置を判定するために格納されている。所持位置検出モデル133の例は、図4を参照して後述される。パラメータテーブル134は、移動端末200の所持者の移動量を計算するためのパラメータを格納する。パラメータテーブル134の例は、図6を参照して後述される。   The possession position detection model 133 is stored in order to determine the possession position of the mobile terminal 200 in the owner's body. An example of the possession position detection model 133 will be described later with reference to FIG. The parameter table 134 stores parameters for calculating the amount of movement of the owner of the mobile terminal 200. An example of the parameter table 134 will be described later with reference to FIG.

通信インタフェース140は、サーバ100をネットワーク150に接続するためのインタフェースである。入出力装置160は、ユーザからの入力を受け付け、また、ユーザに情報を提示するためのデバイスであり、例えば、マウス、入力キー、タッチパネル、ディスプレイ等を含む。   The communication interface 140 is an interface for connecting the server 100 to the network 150. The input / output device 160 is a device that receives input from the user and presents information to the user, and includes, for example, a mouse, input keys, a touch panel, a display, and the like.

屋内測位システムは、所持位置検出プログラム121、モデル選択プログラム122、動作認識プログラム123、調整プログラム124、移動量計算プログラム125、及び位置判定プログラム126を実行する計算機であって、サーバ100には限定されない。例えば、移動端末200が所持位置検出プログラム121、モデル選択プログラム122、動作認識プログラム123、調整プログラム124、移動量計算プログラム125、及び位置判定プログラム126を実行する場合、移動端末200は、サーバ100と同様の機能を有し、屋内測位システムとして動作する。   The indoor positioning system is a computer that executes the possession position detection program 121, the model selection program 122, the motion recognition program 123, the adjustment program 124, the movement amount calculation program 125, and the position determination program 126, and is not limited to the server 100. . For example, when the mobile terminal 200 executes the possessed position detection program 121, the model selection program 122, the motion recognition program 123, the adjustment program 124, the movement amount calculation program 125, and the position determination program 126, the mobile terminal 200 It has the same function and operates as an indoor positioning system.

図2は、実施例1に係る屋内測位システムの機能ブロックを示す。屋内測位システム1は、記憶部2及び制御部3を含む。記憶部2は、全てのデータ、具体的には、動作認識モデル群131、測定データ132、所持位置検出モデル133、及びパラメータテーブル134を格納する。制御部3は、全ての処理部、具体的には、所持位置検出部1210、モデル選択部1220、動作認識部1230、調整部1240、移動量計算部1250、及び位置判定部1260を含む。   FIG. 2 illustrates functional blocks of the indoor positioning system according to the first embodiment. The indoor positioning system 1 includes a storage unit 2 and a control unit 3. The storage unit 2 stores all data, specifically, a motion recognition model group 131, measurement data 132, a possessed position detection model 133, and a parameter table 134. The control unit 3 includes all processing units, specifically, a possessed position detection unit 1210, a model selection unit 1220, an operation recognition unit 1230, an adjustment unit 1240, a movement amount calculation unit 1250, and a position determination unit 1260.

所持位置検出部1210は、プロセッサ110が所持位置検出プログラム121を実行することにより実現される。所持位置検出部1210は、測定データ132を読み、測定データ132から計算される特徴量を、所持位置検出モデル133と比較し、移動端末200の所持者の体における、移動端末200の所持位置を判定する。測定データ132は、不図示の収集プログラムを実行するプロセッサ110により実現される収集部により、移動端末200から収集される。   The possessed position detection unit 1210 is realized by the processor 110 executing the possessed position detection program 121. The possession position detection unit 1210 reads the measurement data 132, compares the feature amount calculated from the measurement data 132 with the possession position detection model 133, and determines the possession position of the mobile terminal 200 in the body of the owner of the mobile terminal 200. judge. The measurement data 132 is collected from the mobile terminal 200 by a collection unit realized by the processor 110 that executes a collection program (not shown).

所持位置検出部1210は、測定データ132について統計的な数学演算を実行することで、測定データ132から特徴量を抽出する。所持位置検出部1210は、演算された特徴量を所持位置検出モデル133における特徴量と比較して、所持者の体における移動端末200の所持位置を判定する。所持位置検出部1210の処理は、後に、図7を参照して詳述される。   The possession position detection unit 1210 extracts a feature amount from the measurement data 132 by performing statistical mathematical operations on the measurement data 132. The possession position detection unit 1210 compares the calculated feature quantity with the feature quantity in the possession position detection model 133 to determine the possession position of the mobile terminal 200 in the owner's body. The processing of the possession position detection unit 1210 will be described in detail later with reference to FIG.

モデル選択部1220は、適切な動作認識モデルを、所持位置検出部1210からの情報に基づき選択する。モデル選択部1220は、プロセッサ110がモデル選択プログラム122を実行することにより実現される。モデル選択部1220の処理は、図8を参照して後述される。   The model selection unit 1220 selects an appropriate motion recognition model based on information from the possession position detection unit 1210. The model selection unit 1220 is realized by the processor 110 executing the model selection program 122. The process of the model selection unit 1220 will be described later with reference to FIG.

動作認識部1230は、移動端末200の所持者の動作を、測定データ132に基づいて判定する。動作認識部1230は、プロセッサ110が動作認識プログラム123を実行することにより実現される。動作認識部1230は、統計的かつ算術的計算を測定データに対して行うことで、測定データ132から特徴量を抽出する。動作認識部1230は、計算された特徴量を、選択された動作認識モデルと比較して、移動端末200の所持者の動作を判定する。動作認識部1230の処理は、図9を参照して後述される。   The action recognition unit 1230 determines the action of the owner of the mobile terminal 200 based on the measurement data 132. The motion recognition unit 1230 is realized by the processor 110 executing the motion recognition program 123. The motion recognition unit 1230 extracts feature amounts from the measurement data 132 by performing statistical and arithmetic calculations on the measurement data. The motion recognition unit 1230 compares the calculated feature amount with the selected motion recognition model to determine the motion of the owner of the mobile terminal 200. The process of the action recognition unit 1230 will be described later with reference to FIG.

調整部1240は、移動量の計算に使用するパラメータを、パラメータテーブル134に応じて変更する。調整部1240は、プロセッサ110が調整プログラム124を実行することにより実現される。調整部1240は、所持位置検出部1210及び動作認識部1230から情報を受信し、パラメータテーブル134からパラメータを選択し、前回の移動量計算で使用したパラメータを置き換える。調整部1240の処理は、図10を参照して後述される。   The adjustment unit 1240 changes the parameter used for calculating the movement amount according to the parameter table 134. The adjustment unit 1240 is realized by the processor 110 executing the adjustment program 124. The adjustment unit 1240 receives information from the possession position detection unit 1210 and the motion recognition unit 1230, selects a parameter from the parameter table 134, and replaces the parameter used in the previous movement amount calculation. The processing of the adjustment unit 1240 will be described later with reference to FIG.

移動量計算部1250は、移動端末200の所持者の移動スピードと進行方向を計算する。移動量計算部1250は、プロセッサ110が移動量計算プログラム125を実行することにより実現される。   The movement amount calculation unit 1250 calculates the movement speed and traveling direction of the owner of the mobile terminal 200. The movement amount calculation unit 1250 is realized by the processor 110 executing the movement amount calculation program 125.

移動量計算部1250は、所定時間(例えば3秒)毎に、移動量を計算する。所定時間により、サンプリングウィンドウが規定される。移動量計算部1250は、サンプリングウィンドウ内において、加速度データの周期によって歩数をカウントし、さらに、各ステップの歩幅を加速度データに基づいて推定する。   The movement amount calculation unit 1250 calculates the movement amount every predetermined time (for example, 3 seconds). A sampling window is defined by the predetermined time. The movement amount calculation unit 1250 counts the number of steps according to the period of the acceleration data within the sampling window, and further estimates the step length of each step based on the acceleration data.

加速度データは、測定データ132におけるデータタイプの一つである。歩数、歩幅、及びサンプリングウィンドウの時間(所定時間)に基づいて、移動量計算部1250は、移動端末200の所持者の単位時間当たりの移動距離(移動スピード)を推定することができる。   The acceleration data is one of the data types in the measurement data 132. Based on the number of steps, the stride, and the sampling window time (predetermined time), the movement amount calculation unit 1250 can estimate the movement distance (movement speed) per unit time of the owner of the mobile terminal 200.

移動量計算部1250は、前回の移動量計算における進行方向からの進行方向変化を、角速度データを時間で積分することによって計算できる。角速度データは、測定データ132におけるデータタイプの一つである。進行方向は、磁気データから決定することもできる。移動量計算部1250の処理は、図11を参照して後述される。   The movement amount calculation unit 1250 can calculate the change in the traveling direction from the traveling direction in the previous movement amount calculation by integrating the angular velocity data with time. Angular velocity data is one of the data types in the measurement data 132. The traveling direction can also be determined from magnetic data. The processing of the movement amount calculation unit 1250 will be described later with reference to FIG.

位置判定部1260は、移動端末200の所持者の位置を判定する。位置判定部1260は、プロセッサ110が位置判定プログラム126を実行することにより実現される。初期位置及び初期進行方向、並びに、移動量計算部1250によって計算された経路から、位置判定部1260は、移動端末200の所持者の位置を推定することができる。   The position determination unit 1260 determines the position of the holder of the mobile terminal 200. The position determination unit 1260 is realized by the processor 110 executing the position determination program 126. The position determination unit 1260 can estimate the position of the owner of the mobile terminal 200 from the initial position and the initial traveling direction and the route calculated by the movement amount calculation unit 1250.

しかし、正確な位置が分かっているリセットポイントが存在する場合、位置判定は、推定された位置の代わりに、リセットポイントから決まる正しい位置を使用する。リセットポイントは、例えば、WIFIアクセスポイントやビーコンアクセスポイントのような、固定アクセスポイントであり、アクセスポイントからの信号強度により、移動端末200の所持者の位置をより正確に判定できる。位置判定部1260の処理は、図12を参照して後述される。   However, if there is a reset point whose exact position is known, the position determination uses the correct position determined from the reset point instead of the estimated position. The reset point is a fixed access point such as, for example, a WIFI access point or a beacon access point, and the position of the owner of the mobile terminal 200 can be determined more accurately based on the signal strength from the access point. The processing of the position determination unit 1260 will be described later with reference to FIG.

図3は、実施例1に係る測定データ132を模式的に示す。測定データ132は、任意のタイプのセンサデータを含んでよい。センサの例として、加速度計、ジャイロスコープ、磁気計、気圧計等が考えられる。しかし、測定センサ群230は、移動端末200に実装できる限り、上記以外のセンサを含むことができる。   FIG. 3 schematically shows the measurement data 132 according to the first embodiment. Measurement data 132 may include any type of sensor data. Examples of sensors include an accelerometer, a gyroscope, a magnetometer, and a barometer. However, the measurement sensor group 230 can include sensors other than those described above as long as it can be mounted on the mobile terminal 200.

測定データ132は、センサタイプ欄301、時刻欄302、X軸の値欄303、Y軸の値欄304、及びZ軸の値欄305を有する。センサタイプ欄301は、センサのタイプを示す。各センサは、固有の識別子に対応付けられている。例えば、加速度センサは、「A」識別子、ジャイロスコープは「Y」識別子、磁気センサは「T」識別子、気圧計は「B」識別子で示されている。センサは上記センサに限定されない。他のセンサデータは、例えば、WIFIアクセスポイント又はBluetoothアクセスポイント(Bluetoothは登録商標、以下同じ。)からの受信信号強度である。   The measurement data 132 includes a sensor type column 301, a time column 302, an X-axis value column 303, a Y-axis value column 304, and a Z-axis value column 305. The sensor type column 301 indicates the type of sensor. Each sensor is associated with a unique identifier. For example, an acceleration sensor is indicated by an “A” identifier, a gyroscope is indicated by a “Y” identifier, a magnetic sensor is indicated by a “T” identifier, and a barometer is indicated by a “B” identifier. The sensor is not limited to the above sensor. The other sensor data is, for example, received signal strength from a WIFI access point or a Bluetooth access point (Bluetooth is a registered trademark, the same applies hereinafter).

センサデータが測定される時刻は、時刻欄302に格納される。センサによって測定されたデータは、X軸の値欄303、Y軸の値欄304、及びZ軸の値欄305に格納される。   The time when the sensor data is measured is stored in the time column 302. Data measured by the sensor is stored in an X-axis value field 303, a Y-axis value field 304, and a Z-axis value field 305.

X軸、Y軸、Z軸は互いに直行し、例えば、センサのタイプが加速度計である場合、移動端末200の左右方向の加速度はX軸の値欄303に格納され、移動端末200の上下方向のY軸の値欄304に格納され、移動端末200に対して垂直方向の加速度は、Z軸の値欄305に格納される。他のセンサデータタイプについても同様である。なお、気圧計のデータは、X軸、Y軸及びZ軸に共通の値を示す。   The X axis, the Y axis, and the Z axis are orthogonal to each other. For example, when the sensor type is an accelerometer, the lateral acceleration of the mobile terminal 200 is stored in the X axis value field 303, and the vertical direction of the mobile terminal 200 is The acceleration in the vertical direction with respect to the mobile terminal 200 is stored in the Z-axis value column 305. The same applies to other sensor data types. The barometer data indicates values common to the X axis, the Y axis, and the Z axis.

図4は、実施例1に係る所持位置検出モデル133を模式的に示す。所持位置検出モデル133は、移動端末200の所持位置を判定するために参照される。所持位置検出モデル133は、特定の一つの動作、例えば、歩行動作における所持位置を判定するためのデータを格納する。所持位置検出モデル133は、位置欄401及び検出される特徴量の欄、具体的には、最小加速度欄402、最大加速度欄403、及び加速度標準偏差欄404を有する。   FIG. 4 schematically illustrates the possession position detection model 133 according to the first embodiment. The possession position detection model 133 is referred to in order to determine the possession position of the mobile terminal 200. The possession position detection model 133 stores data for determining the possession position in a specific one motion, for example, a walking motion. The possessed position detection model 133 includes a position column 401 and a detected feature amount column, specifically, a minimum acceleration column 402, a maximum acceleration column 403, and an acceleration standard deviation column 404.

位置欄401は、移動端末200の所持位置、つまり、移動端末200が配置されている場所を格納する。移動端末200の所持者は、移動端末200を、手の上で保持する、ベルトポーチに入れる、フロントポケットに入れる、サイドポケットに入れる、又はバッグに入れることができる。登録される位置はこれらに限定されず、所持者が移動するときに移動端末200を置くことができるどのような位置でもよい。   The position column 401 stores the possessed position of the mobile terminal 200, that is, the place where the mobile terminal 200 is arranged. The holder of the mobile terminal 200 can hold the mobile terminal 200 on a hand, put it in a belt pouch, put it in a front pocket, put it in a side pocket, or put it in a bag. The registered positions are not limited to these, and may be any positions where the mobile terminal 200 can be placed when the owner moves.

最小加速度欄402は、サンプリングウィンドウにおける、加速度の大きさの最小値を格納する。下記数1に示すように、加速度の大きさは、同一測定時刻における全軸方向の加速度値の二乗の和を正規化した値として計算される。

Figure 0006329915
The minimum acceleration column 402 stores the minimum value of the magnitude of acceleration in the sampling window. As shown in the following equation 1, the magnitude of acceleration is calculated as a normalized value of the sum of squares of acceleration values in all axial directions at the same measurement time.
Figure 0006329915

Asは、加速度の大きさである。AxはX軸方向における加速度値、AyはY軸方向における加速度値、そしてAzはZ軸方向における加速度値である。   As is the magnitude of acceleration. Ax is an acceleration value in the X-axis direction, Ay is an acceleration value in the Y-axis direction, and Az is an acceleration value in the Z-axis direction.

最大加速度欄403は、サンプリングウィンドウにおける、加速度の大きさの最大値を格納する。加速度標準偏差欄404は、サンプリングウィンドウにおける、加速度の大きさの標準偏差を格納する。   The maximum acceleration column 403 stores the maximum acceleration magnitude in the sampling window. The acceleration standard deviation column 404 stores the standard deviation of the magnitude of acceleration in the sampling window.

全ての特徴量は、移動端末200の所持位置を判定するために格納されている。本例において、モデルは決定木モデルとして格納され、移動端末200の所持位置を、加速度データの特徴量を入力として分類する。特徴量欄402〜404の各セルは、特徴量の範囲又は特徴量の閾値を格納している。所持位置検出部1210は、測定データ132から加速度データの特徴量を計算し、加速度データの特徴量を所持位置検出モデル133と比較し、移動端末200の所持位置を判定することができる。   All the feature values are stored for determining the possession position of the mobile terminal 200. In this example, the model is stored as a decision tree model, and the possessed position of the mobile terminal 200 is classified using the feature amount of acceleration data as an input. Each cell of the feature amount columns 402 to 404 stores a feature amount range or a feature amount threshold value. The possessed position detection unit 1210 can calculate the feature amount of the acceleration data from the measurement data 132, compare the feature amount of the acceleration data with the possessed position detection model 133, and determine the possessed position of the mobile terminal 200.

例えば、最小加速度欄402のセルが、加速度データの最小加速度を含むレコードが選択される。選択されたレコードにおいて、最大加速度欄403のセルが、加速度データの最大加速度を含むレコードが選択される。さらに、選択されたレコードにおいて、加速度標準偏差欄404のセルが、加速度データ標準偏差を含むレコードが選択される。   For example, the record in which the cell of the minimum acceleration column 402 includes the minimum acceleration of the acceleration data is selected. In the selected record, the record in which the cell of the maximum acceleration column 403 includes the maximum acceleration of the acceleration data is selected. Further, in the selected record, the record in which the cell of the acceleration standard deviation column 404 includes the acceleration data standard deviation is selected.

なお、移動端末200の所持位置を検出するための上記特徴量は、一例に過ぎない。移動端末200の所持位置を検出するための他の種類の特徴量を使用してもよい。所持位置検出モデル133は決定木に限定されず、任意の学習モデルを使用できる。決定木又は判定テーブルは、移動端末200の所持位置を区別することができるモデルの例である。所持位置検出モデル133の他の例は、サポートベクトルマシンモデルであり、各特徴量の値の範囲の代わりに、サポートベクトルを格納する。   Note that the feature amount for detecting the possessed position of the mobile terminal 200 is only an example. Other types of feature quantities for detecting the possessed position of the mobile terminal 200 may be used. The possession position detection model 133 is not limited to a decision tree, and any learning model can be used. The decision tree or the determination table is an example of a model that can distinguish the possessing position of the mobile terminal 200. Another example of the possession position detection model 133 is a support vector machine model, which stores a support vector instead of a range of each feature value.

図5A〜5Dは、各所持位置のために格納されている実施例1に係る動作認識モデルの例を模式的に示す。所持位置検出によって区別され検出できる所持位置の数に依存するが、動作認識のための複数のモデルが用意される。各動作認識モデルは、一つの所持位置に対応する。   5A to 5D schematically show an example of the motion recognition model according to the first embodiment stored for each possessed position. Depending on the number of possessed positions that can be distinguished and detected by possessed position detection, a plurality of models for motion recognition are prepared. Each motion recognition model corresponds to one possessed position.

図5A〜5Dは、四つの動作認識モデル131A〜131Dを示し、移動端末200の各所持位置のために格納されている。具体的には、手の上の動作認識モデル131A、ベルトポーチにおける動作認識モデル131B、サイドポケットにおける動作認識モデル131C、そしてフロントポケットにおける動作認識モデル131D、である。例えば、異なるモデルは、異なるデータベース若しくは異なるファイル名の異なるファイルとして格納される、又は異なる識別子を付与されて同一データベースに格納される。   5A to 5D show four motion recognition models 131A to 131D, which are stored for each possessed position of the mobile terminal 200. FIG. Specifically, the motion recognition model 131A on the hand, the motion recognition model 131B in the belt pouch, the motion recognition model 131C in the side pocket, and the motion recognition model 131D in the front pocket. For example, different models are stored as different databases or different files with different file names, or stored in the same database with different identifiers.

動作認識モデル131A〜131Dは、同一構造を有する。構造の一例は、動作欄501と、動作を認識するための特徴量の欄、例えば、加速度標準偏差欄502及び気圧変化欄503を有する。動作欄501は、移動端末200の所持者の動作を示す。移動端末200の所持者の移動動作は、例えば、歩行、走り、階段上り、階段下り、エレベータによる上り、エレベータによる下り、ドア開け、等である。   The motion recognition models 131A to 131D have the same structure. An example of the structure includes an action column 501 and a feature amount column for recognizing the action, for example, an acceleration standard deviation column 502 and an atmospheric pressure change column 503. The operation column 501 shows the operation of the owner of the mobile terminal 200. The movement operation of the owner of the mobile terminal 200 is, for example, walking, running, going up stairs, going down stairs, going up by an elevator, going down by an elevator, opening a door, and the like.

加速度標準偏差欄502は、サンプリングウィンドウにおける、加速度の大きさの標準偏差を示す。気圧変化欄503は、サンプリングウィンドウにおける、気圧変化量を格納する。   The acceleration standard deviation column 502 indicates the standard deviation of the magnitude of acceleration in the sampling window. The atmospheric pressure change column 503 stores the atmospheric pressure change amount in the sampling window.

全ての特徴量は、移動端末200の所持者の動作を判定するために格納されている。本例において、モデルは決定木モデルとして格納され、所持者の動作を、加速度データ及び気圧データの特徴量を入力として分類する。特徴量欄502及び503の各セルは、特徴量の範囲又は特徴量の閾値を格納している。   All feature quantities are stored for determining the operation of the owner of the mobile terminal 200. In this example, the model is stored as a decision tree model, and the movement of the owner is classified with the feature values of acceleration data and atmospheric pressure data as inputs. Each cell in the feature amount columns 502 and 503 stores a feature amount range or a feature amount threshold value.

例えば、気圧変化欄503において、歩行、走り、及び静止の気圧変化は、−0.5から+0.5の範囲と定義される。階段下り及びエレベータによる下りの気圧変化は、0.5より大きく1以下の範囲と定義される。階段上り及びエレベータによる上りの気圧変化は、−0.5より小さく−1以上の範囲と定義される。気圧変化欄503の値(範囲)は、例えば、動作認識モデル131A〜131Dで共通である。   For example, in the atmospheric pressure change column 503, the atmospheric pressure change of walking, running, and stationary is defined as a range of −0.5 to +0.5. The change in atmospheric pressure due to stairs and elevators is defined as a range greater than 0.5 and less than or equal to 1. The change in atmospheric pressure due to stairs and elevators is defined as a range smaller than −0.5 and −1 or more. The value (range) in the atmospheric pressure change column 503 is, for example, common to the motion recognition models 131A to 131D.

同一動作について、加速度の標準偏差は、動作認識モデルモデルによって異なる値となる。移動端末200がズボンのポケットに入れられている場合、所持者の足に近いため、移動端末200のより大きな動きを記録する。   For the same motion, the standard deviation of acceleration varies depending on the motion recognition model model. When the mobile terminal 200 is put in a pants pocket, the mobile terminal 200 is closer to the owner's foot, and therefore, the larger movement of the mobile terminal 200 is recorded.

その結果、例えば、手の上の動作認識モデル131Aにおける歩行の加速度標準偏差は、サイドポケットの動作認識モデル131Dにおける歩行の加速度標準偏差よりも小さくなる。例えば、手の上の動作認識モデル131Aにおける歩行の加速度標準偏差は、0.2から0.4の範囲と定義され、サイドポケットの動作認識モデル131Dにおける歩行の加速度標準偏差は、0.3から0.5の範囲と定義される。   As a result, for example, the walking acceleration standard deviation in the motion recognition model 131A on the hand is smaller than the walking acceleration standard deviation in the side pocket motion recognition model 131D. For example, the walking acceleration standard deviation in the motion recognition model 131A on the hand is defined as a range of 0.2 to 0.4, and the walking acceleration standard deviation in the side pocket motion recognition model 131D is from 0.3. It is defined as a range of 0.5.

動作認識部1230は、測定データ132から加速度データ及び気圧データの特徴量を計算し、計算した特徴量を、移動端末200の所持位置に対応する動作認識モデルと比較し、移動端末200の所持者の動作を判定することができる。   The motion recognition unit 1230 calculates the feature amount of the acceleration data and the atmospheric pressure data from the measurement data 132, compares the calculated feature amount with the motion recognition model corresponding to the possessed position of the mobile terminal 200, and the owner of the mobile terminal 200 Can be determined.

図6は、実施例1に係るパラメータテーブル134を模式的に示す。パラメータテーブル134は、移動端末200の所持者の移動量を計算するための使用されるパラメータセットを格納している。パラメータテーブル134は、移動端末200の全ての所持位置と所持者の全ての動作との組み合わせそれぞれ対して、一つのパラメータセットを格納している。移動量計算部1250は、パラメータテーブル134から、推定された所持位置及び動作のパラメータセットを選択し、選択したパラメータセットを使用して移動量を計算する。   FIG. 6 schematically illustrates the parameter table 134 according to the first embodiment. The parameter table 134 stores a parameter set used for calculating the movement amount of the owner of the mobile terminal 200. The parameter table 134 stores one parameter set for each combination of all possessing positions of the mobile terminal 200 and all operations of the owner. The movement amount calculation unit 1250 selects an estimated possession position and parameter set of motion from the parameter table 134, and calculates the movement amount using the selected parameter set.

図6の例において、パラメータテーブル134は、歩幅の推定のために二つのパラメータと、高度変化の推定のための一つパラメータを格納している。パラメータテーブル134は、位置欄601、動作欄602、歩幅の第1パラメータ欄603、歩幅の第2パラメータ欄604、及び高度変化欄605を有する。位置欄601は、移動端末200の所持位置を示し、動作欄602は移動端末200の所持者の動作を示す。   In the example of FIG. 6, the parameter table 134 stores two parameters for estimating the stride and one parameter for estimating the altitude change. The parameter table 134 includes a position column 601, an action column 602, a first step length parameter column 603, a second step length parameter column 604, and an altitude change column 605. The position column 601 indicates the possessed position of the mobile terminal 200, and the operation column 602 indicates the operation of the owner of the mobile terminal 200.

歩幅の第1パラメータ欄603及び歩幅の第2パラメータ欄604は、歩幅を計算するためのパラメータを格納している。歩幅は、例えば、サンプリングウィンドウにおける加速度データと移動端末200の所持者の歩幅基本値を使用して計算される。高度変化欄605は、1階分の高度変化量を格納し、具体的には、階段又はエレベータによる上り下りのレコードが、1階分の高度変化量を示す。   The first parameter column 603 for stride and the second parameter column 604 for stride store parameters for calculating the stride. The stride is calculated using, for example, acceleration data in the sampling window and the stride basic value of the owner of the mobile terminal 200. The altitude change column 605 stores the altitude change amount for the first floor. Specifically, an up / down record by a staircase or an elevator indicates the altitude change amount for the first floor.

図7は、実施例1に係る所持位置検出処理のフローチャートを示す。所持位置検出処理は、所持位置検出部1210として動作する、サーバ100のプロセッサ110によって実行される。図7は、測定データ132を使用して移動端末200の所持位置を分類する例を説明する。   FIG. 7 is a flowchart of the possession position detection process according to the first embodiment. The possession position detection process is executed by the processor 110 of the server 100 that operates as the possession position detection unit 1210. FIG. 7 illustrates an example of classifying the possessed position of the mobile terminal 200 using the measurement data 132.

所持位置検出部1210は、他の方法で、移動端末200の所持位置を判定してもよい。例えば、所持位置検出部1210は、移動端末200の所持者の体に取り付けられた、移動端末200外のセンサを使用して、最も近い所持位置を検出する。   The possessed position detection unit 1210 may determine the possessed position of the mobile terminal 200 by another method. For example, the possession position detection unit 1210 detects the nearest possession position using a sensor outside the mobile terminal 200 attached to the body of the owner of the mobile terminal 200.

所持位置検出部1210は、測定データ132を読み込み、各タイプのデータにフィルタリングする。例えば、加速度データ、ジャイロスコープデータ、磁気計データ、そして気圧計データに分類する(ステップ701)。   The possession position detection unit 1210 reads the measurement data 132 and filters it into each type of data. For example, the data is classified into acceleration data, gyroscope data, magnetometer data, and barometer data (step 701).

所持位置検出部1210は、測定データ132を使用して、所持者が歩行しているか判定する。一つの判定方法は、加速度データにおける周期を検出し、当該周期から所持者が歩行しているか判定する。所持位置検出部1210は、自己相関法を使用することで、加速度データが歩行動作を示しているか否か判定できる(ステップ702)。   The possession position detection unit 1210 uses the measurement data 132 to determine whether the owner is walking. One determination method detects a period in acceleration data and determines whether the owner is walking from the period. The possession position detection unit 1210 can determine whether or not the acceleration data indicates a walking motion by using the autocorrelation method (step 702).

歩行による移動が検出されない場合、所持位置検出部1210は、歩行による移動を検出できるまで、他の測定データを読み込む(ステップ701)。   If movement due to walking is not detected, the possession position detection unit 1210 reads other measurement data until movement due to walking can be detected (step 701).

一方、歩行が検出される場合、所持位置検出部1210は、上記数1で算出される加速度の大きさの特徴量と、所持位置検出モデル133とを比較する(ステップ703)。所持位置検出部1210は、例えば上述のように決定木モデルに従って、測定データ132が、いずれの所持位置(例えば、手の上又はサイドポケット内等)を示しているか判定する(ステップ704)。   On the other hand, when walking is detected, the possession position detection unit 1210 compares the feature amount of the magnitude of acceleration calculated by the above equation 1 with the possession position detection model 133 (step 703). The possession position detection unit 1210 determines which possession position (for example, on the hand or in the side pocket) the measurement data 132 indicates, for example, according to the decision tree model as described above (step 704).

以上により、所持位置検出処理は終了する。なお、所持位置検出モデル133が、歩行以外の動作に基づく場合、所持位置検出部1210は、歩行に代えて当該動作を検出する。異なる動作に対する複数の所持位置検出モデル133が用意されていてもよい。   Thus, the possession position detection process ends. When the possession position detection model 133 is based on an action other than walking, the possession position detection unit 1210 detects the action instead of walking. A plurality of possession position detection models 133 for different operations may be prepared.

図8は、実施例1に係るモデル選択処理のフローチャートを示す。モデル選択処理は、モデル選択部1220として動作する、サーバ100のプロセッサ110により実行される。モデル選択部1220は、所持位置検出部1210により判定された所持位置を受信する(ステップ801)。   FIG. 8 is a flowchart illustrating model selection processing according to the first embodiment. The model selection process is executed by the processor 110 of the server 100 that operates as the model selection unit 1220. The model selection unit 1220 receives the possessed position determined by the possessed position detection unit 1210 (step 801).

モデル選択部1220は、所持位置に応じた動作認識モデルを選択する。例えば、所持位置検出部1210が、移動端末200は所持者の手の上にあると判定する場合、モデル選択部1220は、所持位置検出部1210から、所持位置は「手」であるとの情報を取得する。モデル選択部1220は、動作認識モデル群131から手の上の動作認識モデル131Aを選択し、補助記憶130から、手の上の動作認識モデル131Aをメモリ120にロードする。   The model selection unit 1220 selects an action recognition model corresponding to the possessed position. For example, when the possession position detection unit 1210 determines that the mobile terminal 200 is on the hand of the owner, the model selection unit 1220 receives information from the possession position detection unit 1210 that the possession position is “hand”. To get. The model selection unit 1220 selects the motion recognition model 131A on the hand from the motion recognition model group 131, and loads the motion recognition model 131A on the hand from the auxiliary storage 130 into the memory 120.

しばらくして後、所持者は移動端末200をサイドポケット中に入れると、所持位置検出部1210は、対応するサンプリングウィンドウにおいて、サイドポケット内の所持位置を検出する。モデル選択部1220は、所持位置は「サイドポケット」であるとの情報を取得する。モデル選択部1220は、補助記憶130から、サイドポケット内の動作認識モデル131Dを、メモリ120にロードする(ステップ802)。以上により、モデル選択処理が終了する。   After a while, when the owner puts the mobile terminal 200 in the side pocket, the possession position detection unit 1210 detects the possession position in the side pocket in the corresponding sampling window. The model selection unit 1220 acquires information that the possessed position is “side pocket”. The model selection unit 1220 loads the motion recognition model 131D in the side pocket from the auxiliary storage 130 into the memory 120 (step 802). Thus, the model selection process ends.

図9は、実施例1に係る動作認識処理のフローチャートを示す。動作認識処理は、動作認識部1230として動作する、サーバ100のプロセッサ110によって実行される。動作認識部1230は、モデル選択処理でロードされた動作認識モデルを取得する(ステップ901)。   FIG. 9 is a flowchart of the motion recognition process according to the first embodiment. The motion recognition process is executed by the processor 110 of the server 100 that operates as the motion recognition unit 1230. The motion recognition unit 1230 acquires the motion recognition model loaded in the model selection process (step 901).

次に、動作認識部1230は、測定データ132を読み出し、各タイプのデータに分類するする。例えば、測定データは、加速度データ、角速度データ、磁気データ、そして気圧データに分類される(ステップ902)。   Next, the motion recognition unit 1230 reads the measurement data 132 and classifies it into each type of data. For example, the measurement data is classified into acceleration data, angular velocity data, magnetic data, and atmospheric pressure data (step 902).

動作認識部1230は、測定データ132の特徴量を計算し、測定データ132の特徴量と、選択されている動作認識モデルとを比較する(ステップ903)。動作認識部1230は、例えば上述のように決定木モデルに従って、測定データ132が、移動端末200の所持者のいずれの動作を示しているか判定する(ステップ904)。以上により、処理は終了する。   The motion recognition unit 1230 calculates the feature amount of the measurement data 132, and compares the feature amount of the measurement data 132 with the selected motion recognition model (step 903). The action recognition unit 1230 determines which action of the owner of the mobile terminal 200 indicates the measurement data 132 according to, for example, the decision tree model as described above (step 904). Thus, the process ends.

図10は、実施例1に係る調整処理のフローチャートを示す。調整処理は、調整部1240として動作するサーバ100のプロセッサ110によって実行される。   FIG. 10 is a flowchart of the adjustment process according to the first embodiment. The adjustment process is executed by the processor 110 of the server 100 that operates as the adjustment unit 1240.

調整部1240は、所持位置検出部1210と動作認識部1230から、所持位置と所持者の動作についての情報を取得する(ステップ1001)。次に、調整部1240は、所持位置が前回サンプリングウィンドウで決定した状態から変化しているか判定する(ステップ1002)。   The adjustment unit 1240 acquires information about the possessed position and the owner's motion from the possessed position detecting unit 1210 and the motion recognizing unit 1230 (step 1001). Next, the adjustment unit 1240 determines whether the possessed position has changed from the state determined in the previous sampling window (step 1002).

所持位置が前回の状態から変化している場合(ステップ1002:YES)、調整部1240は、新しい所持位置と動作の組み合わせをキーとして、パラメータテーブル134を検索し、対応するパラメータセットを取得する(ステップ1003)。調整部1240は、パラメータを新しいパラメータセットで変更する(ステップ1004)。所持位置が前回状態から変化していない場合(ステップ1002:NO)、パラメータの変更は不要である。以上により、処理は終了する。   If the possessed position has changed from the previous state (step 1002: YES), the adjustment unit 1240 searches the parameter table 134 using the new possessed position and action combination as a key, and acquires the corresponding parameter set ( Step 1003). The adjustment unit 1240 changes the parameter with a new parameter set (step 1004). If the possessed position has not changed from the previous state (step 1002: NO), no parameter change is necessary. Thus, the process ends.

図11は、実施例1に係る移動量計算処理のフローチャートを示す。移動量計算処理は、移動量計算部1250として動作する、サーバ100のプロセッサ110によって実行される。   FIG. 11 is a flowchart of the movement amount calculation process according to the first embodiment. The movement amount calculation process is executed by the processor 110 of the server 100 that operates as the movement amount calculation unit 1250.

移動量計算部1250は、測定データ132を読み出し、各タイプのデータに分類する。例えば、移動量計算部1250は、測定データ132を、加速度データ、角速度データ、磁気データ、そして気圧データに分類する(ステップ1101)。   The movement amount calculation unit 1250 reads the measurement data 132 and classifies it into each type of data. For example, the movement amount calculation unit 1250 classifies the measurement data 132 into acceleration data, angular velocity data, magnetic data, and atmospheric pressure data (step 1101).

次に、移動量計算部1250は、測定データ132に基づいて、移動端末200の所持者の移動スピードと、進行方向又はその変化と、を推定することができる。例えば、移動量計算部1250は、測定データ132における加速度データの周期から、サンプリングウィンドウ内での歩数をカウントする。   Next, the movement amount calculation unit 1250 can estimate the movement speed of the owner of the mobile terminal 200 and the traveling direction or a change thereof based on the measurement data 132. For example, the movement amount calculation unit 1250 counts the number of steps in the sampling window from the period of the acceleration data in the measurement data 132.

さらに、移動量計算部1250は、各ステップにおける加速度の大きさに基づいて、各ステップの歩幅を推定できる。移動端末200の所持位置及び所持者の動作に基づき歩幅を計算するためのパラメータは、パラメータテーブル134から調整部1240により予め選択されている。移動量計算部1250は、歩幅と歩数から、移動端末200の所持者の移動スピードを計算できる(ステップ1102)。   Further, the movement amount calculation unit 1250 can estimate the stride of each step based on the magnitude of acceleration at each step. Parameters for calculating the stride based on the possessed position of the mobile terminal 200 and the operation of the owner are selected in advance by the adjustment unit 1240 from the parameter table 134. The movement amount calculation unit 1250 can calculate the movement speed of the owner of the mobile terminal 200 from the stride and the number of steps (step 1102).

さらに、移動量計算部1250は、磁気データ又は角速度データから、移動端末200の所持者の進行方向又は進行方向における変化を推定できる(ステップ1103)。移動量計算部1250は、移動スピードと移動方向変化とを時間で積分することで、移動端末200の所持者の移動経路を計算することができる(ステップ1104)。以上により、移動量計算処理が終了する。   Furthermore, the movement amount calculation unit 1250 can estimate the traveling direction or change in the traveling direction of the owner of the mobile terminal 200 from the magnetic data or the angular velocity data (step 1103). The movement amount calculation unit 1250 can calculate the movement route of the owner of the mobile terminal 200 by integrating the movement speed and the movement direction change with time (step 1104). Thus, the movement amount calculation process ends.

図12は、実施例1に係る、移動端末200の所持者の位置判定処理のフローチャートを示す。位置判定処理は、位置判定部1260として動作する、サーバ100のプロセッサ110により実行される。   FIG. 12 is a flowchart of the position determination process for the owner of the mobile terminal 200 according to the first embodiment. The position determination process is executed by the processor 110 of the server 100 that operates as the position determination unit 1260.

位置判定部1260は、移動端末200の所持者の現在位置が、リセットポイントから直接に推定できるか判定する(ステップ1201)。リセットポイントは、正確に知られている位置であり、例えば、固定アクセスポイント(の位置)である。例えば、移動端末200の所持者が、位置の知られたWIFIアクセスポイントに近づく場合、移動端末200の受信信号強度は、移動端末200の所持者の位置が当該WIFIアクセスポインに近い所定範囲内にあることを示すことができる。   The position determination unit 1260 determines whether the current position of the owner of the mobile terminal 200 can be estimated directly from the reset point (step 1201). The reset point is a position that is accurately known, for example, a fixed access point. For example, when the owner of the mobile terminal 200 approaches a known WIFI access point, the received signal strength of the mobile terminal 200 is within a predetermined range in which the position of the owner of the mobile terminal 200 is close to the WIFI access point. You can show that there is.

他の例において、移動端末200が屋外GPS信号を受信でき、さらに、移動端末200が屋内への移動を開始するとGPS信号の受信が止まる場合、初期位置又はリセットポイントはビルの入り口であり、初期進行方向はビルに入る方向である。   In another example, when the mobile terminal 200 can receive an outdoor GPS signal, and when the mobile terminal 200 starts to move indoors, the initial position or reset point is the entrance of the building, The direction of travel is the direction to enter the building.

位置判定部1260がリセットポイントを見つけた場合(S1201:YES)、位置判定部1260は、移動端末200の所持者の位置をリセットポイントに基づいて判定する(ステップ1202)。以上により処理が終了する。   When the position determination unit 1260 finds a reset point (S1201: YES), the position determination unit 1260 determines the position of the owner of the mobile terminal 200 based on the reset point (step 1202). The process ends as described above.

位置判定部1260が、リセットポイントを見付けない場合(S1201:NO)、位置判定部1260、前回サンプリングウィンドウにおいて判定した位置と、当該前回位置からの移動量とに基づいて、移動端末200の所持者の新しい位置を計算する(ステップ1203)。移動量は、上述のように、移動量計算部1250により計算される。その後、位置判定部1260は、移動端末200の所持者の新しい位置を入出力装置160における表示装置において表示する、又は表示のためのデータを移動端末200に送信する(ステップ1204)。以上で処理が終了する。   When the position determination unit 1260 does not find the reset point (S1201: NO), the owner of the mobile terminal 200 based on the position determination unit 1260, the position determined in the previous sampling window, and the amount of movement from the previous position. Is calculated (step 1203). The movement amount is calculated by the movement amount calculation unit 1250 as described above. Thereafter, the position determination unit 1260 displays the new position of the owner of the mobile terminal 200 on the display device of the input / output device 160, or transmits data for display to the mobile terminal 200 (step 1204). The process ends here.

以上のように、本実施例によれば、移動端末200の所持者の位置を、移動端末200のセンサデータから適切に推定することができる。   As described above, according to the present embodiment, the position of the owner of the mobile terminal 200 can be appropriately estimated from the sensor data of the mobile terminal 200.

図13から図15を参照して、実施例2を説明する。実施例1において、所持位置検出モデル133が予め用意され、記憶部2に格納されている。本実施例は、所持位置検出モデル133の生成方法の一例を説明する。本実施例は、学習処理により、所持位置検出モデル133を生成する。   A second embodiment will be described with reference to FIGS. In the first embodiment, a possession position detection model 133 is prepared in advance and stored in the storage unit 2. In this embodiment, an example of a method for generating the possession position detection model 133 will be described. In this embodiment, the possession position detection model 133 is generated by learning processing.

図13は、実施例2に係る、拡張された屋内測位システム1の機能ブロック図を示す。学習処理部4が加えられていること以外、構成要素は、実施例1の屋内測位システムの機能ブロックと同様である。学習処理部4は、例えば、プロセッサ110が、学習処理プログラムを実行することによって実現される。   FIG. 13 is a functional block diagram of the expanded indoor positioning system 1 according to the second embodiment. The components are the same as the functional blocks of the indoor positioning system of the first embodiment except that the learning processing unit 4 is added. The learning processing unit 4 is realized by, for example, the processor 110 executing a learning processing program.

学習処理部4は、データ収集部1270及び所持位置検出学習部1280を含む。データ収集部1270は、移動端末の複数の所持位置での測定データを収集する。データ収集部1270は、各所持位置における測定データから、特徴量を算出する。データ収集部1270は、特徴量と所持位置とを関連付けて所持位置検出学習部1280に入力する。データ収集部1270のフローは、図15を参照して詳細に後述される。   The learning processing unit 4 includes a data collection unit 1270 and a possession position detection learning unit 1280. The data collection unit 1270 collects measurement data at a plurality of possession positions of the mobile terminal. The data collection unit 1270 calculates the feature amount from the measurement data at each possessed position. The data collection unit 1270 associates the feature amount with the possessed position, and inputs them to the possessed position detection learning unit 1280. The flow of the data collection unit 1270 will be described later in detail with reference to FIG.

所持位置検出学習部1280は、データ収集部1270から入力された、各所持位置での特徴量から、所持位置検出モデル133を生成する。所持位置検出学習部1280のフローは、図16を参照して詳細に後述される。   The possession position detection learning unit 1280 generates the possession position detection model 133 from the feature amount at each possession position input from the data collection unit 1270. The flow of the possession position detection learning unit 1280 will be described later in detail with reference to FIG.

図14は、実施例2に係るデータ収集を説明する模式図を示す。データ収集の対象1410は、人である。データは多くの対象から収集される。対象のデータ収集を説明する。スマートフォンは、移動端末200の一例であり、対象に装着されている。図14において、スマートフォン1420は対象1410の手の上にある。スマートフォン1430は対象のシャツのフロントポケットの中にある。スマートフォン1440は対象のベルトポーチの中にある。スマートフォン1430は対象1410のサイドポケットの中にある。   FIG. 14 is a schematic diagram illustrating data collection according to the second embodiment. The data collection target 1410 is a person. Data is collected from many subjects. Explain target data collection. The smartphone is an example of the mobile terminal 200 and is attached to the target. In FIG. 14, the smartphone 1420 is on the hand of the subject 1410. Smartphone 1430 is in the front pocket of the subject shirt. Smartphone 1440 is in the target belt pouch. Smartphone 1430 is in the side pocket of subject 1410.

対象1410の体又は衣服がスマートフォンを保持できる限り、装着されるスマートフォンの位置及び数は限定されない。対象1410は、1又は複数のスマートフォンを所持することができる。   As long as the body or clothes of the subject 1410 can hold a smartphone, the position and number of smartphones to be worn are not limited. The subject 1410 can have one or more smartphones.

全てのスマートフォンは測定センサ群230のセンサデータを収集するソフトウェアがインストールされており、例えば、加速度計、ジャイロスコープ、磁気計、気圧計や、WIFI又はBluetooth受信信号強度等のセンサデータを収集する。これらはセンサデータの一例であり、センサデータはこれらに限定されない。スマートフォンがデータを収集する間、対象1410は歩いている。   All smartphones are installed with software for collecting sensor data of the measurement sensor group 230. For example, accelerometers, gyroscopes, magnetometers, barometers, and sensor data such as WIFI or Bluetooth received signal strength are collected. These are examples of sensor data, and sensor data is not limited to these. Object 1410 is walking while the smartphone collects data.

図15は、データ収集部1270のフローチャートを示す。図14に示すように、スマートフォン1420〜1450は、異なる所持位置において、対象1410が歩行している間、センサデータを収集する。データ収集部1270は、スマートフォン1420〜1450において収集された測定データ(センサデータ)をスマートフォン1420〜1450から収集し、当該データをその後の処理のためにメモリ120に格納する(ステップ1501)。   FIG. 15 shows a flowchart of the data collection unit 1270. As illustrated in FIG. 14, the smartphones 1420 to 1450 collect sensor data while the object 1410 is walking at different possession positions. The data collection unit 1270 collects measurement data (sensor data) collected by the smartphones 1420 to 1450 from the smartphones 1420 to 1450 and stores the data in the memory 120 for subsequent processing (step 1501).

データ収集部1270は、全ての収集データを、スマートフォン1420〜1450それぞれの実際の所持位置の測定データに、分類する(ステップ1502)。次に、データ収集部1270は、実際の所持位置それぞれの測定データを、サンプリングウィンドウに依存する同一サイズのセグメントデータに、分割する(ステップ1503)。   The data collection unit 1270 classifies all collected data into measurement data of actual possession positions of the smartphones 1420 to 1450 (step 1502). Next, the data collection unit 1270 divides the measurement data at each actual possessed position into segment data of the same size depending on the sampling window (step 1503).

最後に、データ収集部1270は、所持位置それぞれの測定データにおいて、各セグメントデータの特徴量を計算する。例えば、加速度の大きさの標準偏差、加速度の大きさの最小値、そして加速度の大きさの最大値が計算される。加速度の大きさは、実施例1に示す数式1に従って計算することができる。以上により処理が終了する。   Finally, the data collection unit 1270 calculates the feature amount of each segment data in the measurement data at each possessed position. For example, a standard deviation of the magnitude of acceleration, a minimum value of the magnitude of acceleration, and a maximum value of the magnitude of acceleration are calculated. The magnitude of acceleration can be calculated according to Equation 1 shown in the first embodiment. The process ends as described above.

図16は、所持位置検出学習部1280のフローチャートを示す。所持位置検出学習部1280は、データ収集部1270によって計算され、実際の所持位置に関連付けられた特徴量を、データ収集部1270から取得する(ステップ1601)。   FIG. 16 shows a flowchart of the possession position detection learning unit 1280. The possession position detection learning unit 1280 acquires the feature amount calculated by the data collection unit 1270 and associated with the actual possession position from the data collection unit 1270 (step 1601).

所持位置検出学習部1280は、測定データ132から所持位置を分類するための所持位置検出モデル133を、機械学習モデルに基づいて計算する(ステップ1602)。学習モデルとして、任意タイプの分類モデルを使用することができる。例えば、図4を参照して説明した決定木の他、k近傍法又はサポートベクトルマシンを使用することができる。   The possession position detection learning unit 1280 calculates a possession position detection model 133 for classifying the possession position from the measurement data 132 based on the machine learning model (step 1602). Any type of classification model can be used as the learning model. For example, in addition to the decision tree described with reference to FIG. 4, a k-nearest neighbor method or a support vector machine can be used.

所持位置検出モデル133が計算された後、所持位置検出学習部1280は、記憶部2(補助記憶130)に格納する(ステップ1603)。以上により処理が終了する。なお、歩行に代えて又は加えて、歩行以外の動作の所持位置検出モデル133が生成されてもよい。各動作において、スマートフォン1420〜1450によるセンサデータは収集される。   After the possession position detection model 133 is calculated, the possession position detection learning unit 1280 stores it in the storage unit 2 (auxiliary storage 130) (step 1603). The process ends as described above. Instead of or in addition to walking, a possessed position detection model 133 for operations other than walking may be generated. In each operation, sensor data from the smartphones 1420 to 1450 is collected.

本実施例によれば、実際の所持位置において測定されたセンサデータから、適切に所持位置検出モデル133を生成することができる。   According to the present embodiment, the possession position detection model 133 can be appropriately generated from the sensor data measured at the actual possession position.

実施例3を、図17及び18を参照して説明する。実施例2において、移動端末200の所持位置を検出するために、多くの対象のデータが収集され、所持位置検出モデル133が計算される。実施例3は、所持位置検出モデル133をフィードバックシステム部5によって調整し、特定の対象における所持位置のより正確な検出を可能とする。   A third embodiment will be described with reference to FIGS. In the second embodiment, in order to detect the possession position of the mobile terminal 200, a lot of target data is collected and the possession position detection model 133 is calculated. In the third embodiment, the possession position detection model 133 is adjusted by the feedback system unit 5 to enable more accurate detection of the possession position in a specific target.

図17は、実施例3に係る拡張された屋内測位システム1の機能ブロック図を示す。フィードバックシステム部5以外の構成要素は、実施例2に係る屋内測位システムの機能ブロックと同様である。フィードバックシステム部5は、所持位置検出学習部1280を使用して、所持位置検出モデル133を移動端末200のより正確なモデルに更新する。   FIG. 17 is a functional block diagram of the expanded indoor positioning system 1 according to the third embodiment. Components other than the feedback system unit 5 are the same as the functional blocks of the indoor positioning system according to the second embodiment. The feedback system unit 5 uses the possession position detection learning unit 1280 to update the possession position detection model 133 to a more accurate model of the mobile terminal 200.

図18は、フィードバックシステム部5のフローチャートを示す。フィードバックシステム部5は、移動端末200の所持者に実際の所持位置についての情報を入力することを要求し、所持位置についてのフィードバックを所持者から受信する(ステップ1801)。   FIG. 18 shows a flowchart of the feedback system unit 5. The feedback system unit 5 requests the owner of the mobile terminal 200 to input information about the actual possession position, and receives feedback about the possession position from the owner (step 1801).

例えば、フィードバックシステム部5は、情報入力要求を移動端末200にネットワーク150を介して送信し、移動端末200は入出力装置260において、所持者に対する要求を表示する。所持者は、移動端末200の入出力装置260において実際の所持位置の情報を入力し、移動端末200が当該情報を、ネットワーク150を介してサーバ100に送信する。   For example, the feedback system unit 5 transmits an information input request to the mobile terminal 200 via the network 150, and the mobile terminal 200 displays a request for the owner in the input / output device 260. The owner inputs information on the actual possession position at the input / output device 260 of the mobile terminal 200, and the mobile terminal 200 transmits the information to the server 100 via the network 150.

次に、フィードバックシステム部5は、移動端末200の所持者によって入力された実際の所持位置と、所持位置検出部1210によって所持位置検出モデル133を使用して検出された所持位置と、を比較する(ステップ1802)。所持位置が正確に所持位置検出部1210によって検出されている場合(ステップ1802:YES)、当該処理は終了する。   Next, the feedback system unit 5 compares the actual possessed position input by the owner of the mobile terminal 200 with the possessed position detected by the possessed position detection unit 1210 using the possessed position detection model 133. (Step 1802). If the possessed position is accurately detected by the possessed position detection unit 1210 (step 1802: YES), the process ends.

所持位置が正確に所持位置検出部1210によって検出されていない場合(ステップ1802:NO)、フィードバックシステム部5は、所持位置検出モデル133が正しく更新されるように、所持位置検出学習部1280を調整する(ステップ1803)。   If the possessed position is not accurately detected by the possessed position detection unit 1210 (step 1802: NO), the feedback system unit 5 adjusts the possessed position detection learning unit 1280 so that the possessed position detection model 133 is correctly updated. (Step 1803).

例えば、フィードバックシステム部5は、所持者からの正しい所持位置の情報を、所持位置検出学習部1280に入力する。所持位置検出学習部1280は、測定データ132における多数のサンプリングウィンドウにおける特徴量と移動端末200の所持者からの実際の所持位置の情報とを入力として、所持位置検出モデル133における当該所持位置のレコードを更新する。所持位置検出学習部1280は、必要に応じて、他の所持位置におけるレコードも更新する。   For example, the feedback system unit 5 inputs information on the correct possession position from the owner to the possession position detection learning unit 1280. The possessed position detection learning unit 1280 receives, as inputs, feature amounts in a large number of sampling windows in the measurement data 132 and information on actual possessed positions from the owner of the mobile terminal 200, and records the possessed positions in the possessed position detection model 133. Update. The possession position detection learning unit 1280 also updates records at other possession positions as necessary.

より多くの実際の所持位置に対するより多くのサンプリングウィンドウの特徴量測定データをフィードバックとして入力することで、所持位置検出学習部1280は、所持位置検出モデル133をより正確に計算することができる。所持位置検出モデル133の更新は、他の方法により実行されてもよい。例えば、間違った分類にペナルティを与える、ペナルティ法を使用してもよい。 By inputting feature amount measurement data of more sampling windows for more actual possessed positions as feedback, the possessed position detection learning unit 1280 can calculate the possessed position detection model 133 more accurately. The update of the possession position detection model 133 may be executed by other methods. For example, a penalty method may be used that penalizes the wrong classification.

屋内測位システム1は、所持者に固有の所持位置検出モデル133を保持し、フィードバック部5から入力された当該所持者のフィードバックに従って、当該所持者の所持位置検出モデル133を調整してもよい。   The indoor positioning system 1 may hold the possession position detection model 133 unique to the owner and adjust the possession position detection model 133 of the owner according to the feedback of the owner input from the feedback unit 5.

以上のように、本実施例によれば、移動端末200の実際の所持位置の情報を所持者から取得し、実際の所持位置と測定データ132によって、所持位置検出モデル133をより適切なモデルに更新できる。   As described above, according to the present embodiment, information on the actual possession position of the mobile terminal 200 is acquired from the possessor, and the possession position detection model 133 is made a more appropriate model based on the actual possession position and the measurement data 132. Can be updated.

図19から図21を参照して、実施例4を説明する。実施例1において、動作認識モデル群131が予め用意され、記憶部2に格納されている。本実施例は、動作認識モデル群131の生成方法の一例を説明する。本実施例は、学習処理により、動作認識モデル群131を生成する。   A fourth embodiment will be described with reference to FIGS. In the first embodiment, the motion recognition model group 131 is prepared in advance and stored in the storage unit 2. In this embodiment, an example of a method for generating the motion recognition model group 131 will be described. In this embodiment, the motion recognition model group 131 is generated by learning processing.

図19は、実施例4に係る、拡張された屋内測位システム1の機能ブロック図を示す。学習処理部4が加えられていること以外、構成要素は、実施例1の屋内測位システム1の機能ブロックと同様である。学習処理部4は、例えば、プロセッサ110が、学習処理プログラムを実行することによって実現される。   FIG. 19 is a functional block diagram of the expanded indoor positioning system 1 according to the fourth embodiment. The constituent elements are the same as the functional blocks of the indoor positioning system 1 of the first embodiment except that the learning processing unit 4 is added. The learning processing unit 4 is realized by, for example, the processor 110 executing a learning processing program.

学習処理部4は、データ収集部1271及び動作認識学習部1281を含む。データ収集部1271は、移動端末の複数の所持位置それぞれでの、複数動作の測定データを収集する。データ収集部1270は、各所持位置における複数動作それぞれの測定データから、特徴量を算出する。データ収集部1271は、特徴量と所持位置及び動作とを関連付けて動作認識学習部1281に入力する。データ収集部1271のフローは、図20を参照して詳細に後述される。   The learning processing unit 4 includes a data collection unit 1271 and an action recognition learning unit 1281. The data collection unit 1271 collects measurement data of a plurality of operations at each of a plurality of possessed positions of the mobile terminal. The data collection unit 1270 calculates a feature amount from measurement data of each of a plurality of operations at each possessed position. The data collection unit 1271 associates the feature amount with the possessed position and the motion and inputs them to the motion recognition learning unit 1281. The flow of the data collection unit 1271 will be described later in detail with reference to FIG.

動作認識学習部1281は、データ収集部1271から入力された、各所持位置での動作それぞれの特徴量から、各所持位置の動作認識モデル131A〜131Dを生成する。動作認識学習部1281のフローは、図21を参照して詳細に後述される。   The motion recognition learning unit 1281 generates motion recognition models 131 </ b> A to 131 </ b> D at each possessed position from the feature amounts of the motion at each possessed position input from the data collection unit 1271. The flow of the motion recognition learning unit 1281 will be described later in detail with reference to FIG.

図20は、データ収集部1271のフローチャートを示す。実施例2と同様に、スマートフォン1420〜1450は、対象1410の異なる所持位置において所持されている。実施例2と異なり、スマートフォン1420〜1450は、対象1410の異なる動作において、センサデータを収集する。   FIG. 20 shows a flowchart of the data collection unit 1271. As in the second embodiment, the smartphones 1420 to 1450 are held at different possession positions of the target 1410. Unlike the second embodiment, the smartphones 1420 to 1450 collect sensor data in different operations of the target 1410.

データ収集部1271は、スマートフォン1420〜1450において収集された測定データ(センサデータ)をスマートフォン1420〜1450から収集し、当該データをその後の処理のためにメモリ120に格納する(ステップ2001)。   The data collection unit 1271 collects measurement data (sensor data) collected by the smartphones 1420 to 1450 from the smartphones 1420 to 1450, and stores the data in the memory 120 for subsequent processing (step 2001).

データ収集部1271は、全ての収集データを、実際の所持位置と動作のペアで分類する。具体的には、データ収集部1271は、スマートフォン1420〜1450それぞれの実際の所持位置の測定データに分類し、さらに、各所持位置の測定データを実際の動作の測定データに分類する(ステップ2002)。   The data collection unit 1271 classifies all collected data according to pairs of actual possession positions and actions. Specifically, the data collection unit 1271 classifies the measurement data of the actual possession positions of the smartphones 1420 to 1450, and further classifies the measurement data of each possession position into the measurement data of the actual operation (Step 2002). .

次に、データ収集部1271は、各実際の所持位置における実際の動作それぞれの測定データを、サンプリングウィンドウに依存する同一サイズのセグメントデータに、分割する(ステップ2003)。   Next, the data collection unit 1271 divides the measurement data of each actual operation at each actual possessed position into segment data of the same size depending on the sampling window (step 2003).

最後に、データ収集部1271は、各実際の所持位置における実際の動作それぞれの測定データにおいて、各セグメントデータの特徴量を計算する。例えば、加速度の大きさの標準偏差及び気圧変化が計算される。加速度の大きさは、実施例1に示す数式1に従って計算することができる。以上により処理が終了する。   Finally, the data collection unit 1271 calculates the feature amount of each segment data in the measurement data of each actual operation at each actual possessed position. For example, the standard deviation of the magnitude of acceleration and the change in atmospheric pressure are calculated. The magnitude of acceleration can be calculated according to Equation 1 shown in the first embodiment. The process ends as described above.

図21は、動作認識学習部1281のフローチャートを示す。動作認識学習部1281は、データ収集部1271によって計算され、各実際の所持位置の実際の動作それぞれに関連付けられた特徴量を、データ収集部1271から取得する(ステップ2101)。   FIG. 21 shows a flowchart of the motion recognition learning unit 1281. The motion recognition learning unit 1281 obtains the feature amount calculated by the data collection unit 1271 and associated with each actual motion at each actual possessed position from the data collection unit 1271 (step 2101).

動作認識学習部1281は、測定データ132から所持位置を分類するための動作認識モデル群131を、機械学習モデルに基づいて計算する。例えば、動作認識学習部1281は、スマートフォン1420〜1450それぞれが測定した異なる動作の特徴量から、動作認識モデル131A〜131Dそれぞれを、機械学習モデルに基づいて生成する(ステップ2102)。   The motion recognition learning unit 1281 calculates a motion recognition model group 131 for classifying the possessed position from the measurement data 132 based on the machine learning model. For example, the motion recognition learning unit 1281 generates the motion recognition models 131A to 131D based on the machine learning model from the feature amounts of different motions measured by the smartphones 1420 to 1450, respectively (step 2102).

学習モデルとして、任意タイプの分類モデルを使用することができる。例えば、図4を参照して説明した決定木の他、k近傍法又はサポートベクトルマシンを使用することができる。動作認識モデル群131が計算された後、動作認識学習部1281は、記憶部2(補助記憶130)に格納する(ステップ2103)。以上により処理が終了する。   Any type of classification model can be used as the learning model. For example, in addition to the decision tree described with reference to FIG. 4, a k-nearest neighbor method or a support vector machine can be used. After the motion recognition model group 131 is calculated, the motion recognition learning unit 1281 stores it in the storage unit 2 (auxiliary storage 130) (step 2103). The process ends as described above.

本実施例によれば、実際の所持位置において実際の動作の間に測定されたセンサデータから、適切に動作認識モデル群131を生成することができる。   According to the present embodiment, the motion recognition model group 131 can be appropriately generated from the sensor data measured during the actual motion at the actual possessed position.

実施例5を、図22及び23を参照して説明する。実施例4において、移動端末200の動作を推定するために、多くの対象のデータが収集され、動作認識モデル群131が計算される。実施例5は、動作認識モデル群131をフィードバックシステム部5によって調整し、特定の対象における所持位置のより正確な検出を可能とする。   A fifth embodiment will be described with reference to FIGS. In Example 4, in order to estimate the operation of the mobile terminal 200, a lot of target data is collected, and the operation recognition model group 131 is calculated. In the fifth embodiment, the motion recognition model group 131 is adjusted by the feedback system unit 5 to enable more accurate detection of the possessed position in a specific target.

図22は、実施例5に係る拡張された屋内測位システム1の機能ブロック図を示す。フィードバックシステム部5以外の構成要素は、実施例4に係る屋内測位システム1の機能ブロックと同様である。フィードバックシステム部5は、動作認識学習部1281を調整して、動作認識モデル群131をより正確なものとする。   FIG. 22 is a functional block diagram of the expanded indoor positioning system 1 according to the fifth embodiment. Components other than the feedback system unit 5 are the same as the functional blocks of the indoor positioning system 1 according to the fourth embodiment. The feedback system unit 5 adjusts the motion recognition learning unit 1281 to make the motion recognition model group 131 more accurate.

図23は、フィードバックシステム部5のフローチャートを示す。フィードバックシステム部5は、移動端末200の所持者に実際の所持位置及び動作についての情報を入力することを要求し、所持位置及び動作についてのフィードバックを所持者から受信する(ステップ2301)。   FIG. 23 shows a flowchart of the feedback system unit 5. The feedback system unit 5 requests the owner of the mobile terminal 200 to input information on the actual possession position and operation, and receives feedback on the possession position and operation from the owner (step 2301).

例えば、フィードバックシステム部5は、情報入力要求を移動端末200にネットワーク150を介して送信し、移動端末200は入出力装置260において、所持者に対する要求を表示する。所持者は、移動端末200の入出力装置260において実際の所持位置及び動作の情報を入力し、移動端末200が当該情報を、ネットワーク150を介してサーバ100に送信する。   For example, the feedback system unit 5 transmits an information input request to the mobile terminal 200 via the network 150, and the mobile terminal 200 displays a request for the owner in the input / output device 260. The owner inputs the actual possession position and operation information at the input / output device 260 of the mobile terminal 200, and the mobile terminal 200 transmits the information to the server 100 via the network 150.

次に、フィードバックシステム部5は、移動端末200の所持者によって入力された実際の所持位置及び実際の動作と、動作認識部1230によって動作認識モデル群131を使用して判定された動作と、を比較する(ステップ2302)。動作が正確に動作認識部1230によって判定されている場合(ステップ2302:YES)、当該処理は終了する。   Next, the feedback system unit 5 includes the actual possessed position and the actual operation input by the owner of the mobile terminal 200, and the operation determined by the operation recognition unit 1230 using the operation recognition model group 131. Compare (step 2302). If the motion is accurately determined by the motion recognition unit 1230 (step 2302: YES), the processing ends.

動作が正確に動作認識部1230によって判定されていない場合(ステップ2302:NO)、フィードバックシステム部5は、当該所持位置の動作認識モデルが正しく更新されるように、所持位置検出学習部1280を調整する(ステップ1803)。   If the motion is not accurately determined by the motion recognition unit 1230 (step 2302: NO), the feedback system unit 5 adjusts the possession position detection learning unit 1280 so that the motion recognition model of the possession position is correctly updated. (Step 1803).

例えば、フィードバックシステム部5は、所持者からの正しい所持位置及び動作の情報を、動作認識学習部1281に入力する。動作認識学習部1281は、測定データ132における多数のサンプリングウィンドウにおける特徴量と移動端末200の所持者からの実際の所持位置及び実際の動作の情報とを入力として、動作認識モデル群131における当該所持位置の動作認識モデルの当該動作のレコードを更新する。動作認識学習部1281は、必要に応じて、他の動作におけるレコードも更新する。   For example, the feedback system unit 5 inputs the correct possession position and motion information from the owner to the motion recognition learning unit 1281. The motion recognition learning unit 1281 receives the feature values in a large number of sampling windows in the measurement data 132, the actual possession position from the owner of the mobile terminal 200, and information on the actual motion as inputs, and the possession in the motion recognition model group 131. Update the motion record of the motion recognition model of the position. The action recognition learning unit 1281 also updates records in other actions as necessary.

より多くの実際の所持位置及び実際の動作に対するより多くのサンプリングウィンドウの特徴量測定データをフィードバックとして入力することで、所持位置検出学習部1280は、動作認識モデル群131をより正確に計算することができる。動作認識モデル群131の更新は、他の方法により実行されてもよい。例えば、間違った分類にペナルティを与える、ペナルティ法を使用してもよい。 By inputting feature sampling data of more sampling windows for more actual possessed positions and actual motions as feedback, the possessed position detection learning unit 1280 can calculate the motion recognition model group 131 more accurately. Can do. The update of the motion recognition model group 131 may be executed by another method. For example, a penalty method may be used that penalizes the wrong classification.

屋内測位システム1は、所持者に固有の動作認識モデル群131及び所持位置検出モデル133を保持し、フィードバック部5から入力された当該所持者のフィードバックに従って、当該所持者の動作認識モデル群131及び所持位置検出モデル133を調整してもよい。   The indoor positioning system 1 holds a motion recognition model group 131 and a possession position detection model 133 specific to the owner, and according to the owner's feedback input from the feedback unit 5, the motion recognition model group 131 and The possession position detection model 133 may be adjusted.

以上のように、本実施例によれば、移動端末200の実際の所持位置の情報を所持者から取得し、実際の所持位置と測定データ132によって、動作認識モデル群131をより適切なモデルに更新できる。   As described above, according to the present embodiment, information on the actual possession position of the mobile terminal 200 is acquired from the owner, and the motion recognition model group 131 is converted into a more appropriate model based on the actual possession position and the measurement data 132. Can be updated.

実施例6を、図24から26を参照して説明する。実施例1において、所持位置検出部1210及び動作認識部1230は、所持位置及び動作を誤って分類する可能性がある。訂正部1241は、屋内測位システム1の精度を高める。   Example 6 will be described with reference to FIGS. In the first embodiment, the possession position detection unit 1210 and the motion recognition unit 1230 may classify the possession position and the operation by mistake. The correction unit 1241 increases the accuracy of the indoor positioning system 1.

図24は、実施例6に係る拡張された屋内測位システム1の機能ブロック図を示す。訂正部1241を除き、構成要素は実施例1に係る屋内測位システム1と同様である。訂正部1241は、例えば、サーバ100のプロセッサ110がプログラムに従って動作することで実現される。   FIG. 24 is a functional block diagram of the expanded indoor positioning system 1 according to the sixth embodiment. Except for the correction unit 1241, the components are the same as those in the indoor positioning system 1 according to the first embodiment. The correction unit 1241 is realized, for example, when the processor 110 of the server 100 operates according to a program.

訂正部1241は、所持位置検出部1210及び動作認識部1230による誤った分類を訂正する。例えば、カルマンフィルタやマルコフモデルを、訂正部1241に適用することができる。カルマンフィルタやマルコフモデルを使用したシーケンス内の要素の訂正は広く知られた技術であり、説明を省略する。訂正部1241はこれらに限定されず、所持位置検出部1210と動作認識部1230の誤った分類を訂正できればよい。   The correction unit 1241 corrects an erroneous classification by the possessed position detection unit 1210 and the motion recognition unit 1230. For example, a Kalman filter or a Markov model can be applied to the correction unit 1241. Correction of elements in a sequence using a Kalman filter or a Markov model is a well-known technique and will not be described. The correction unit 1241 is not limited to these, and it is sufficient that the erroneous classification of the possession position detection unit 1210 and the action recognition unit 1230 can be corrected.

図25は、訂正部1241がどのように所持位置検出を訂正するかを模式的に示す。所持位置の分類結果のシーケンス2501は、訂正前のシーケンスを示す。各セルは、サンプリングウィンドウにおいて判定された所持位置を示す。シーケンス2501は、誤った判定結果「サイドポケット」を含む。「サイドポケット」の前後の所持位置は「手」と判定されている。   FIG. 25 schematically shows how the correction unit 1241 corrects the possession position detection. The possessed position classification result sequence 2501 indicates a sequence before correction. Each cell indicates the possessed position determined in the sampling window. The sequence 2501 includes an erroneous determination result “side pocket”. The possessing positions before and after the “side pocket” are determined to be “hands”.

訂正部1241は、マルコフフィルタ又はカルマンフィルタを使用して、誤ったシーケンス2501を、正しいシーケンス2502に訂正することができる。具体的には、訂正部1241は、マルコフフィルタ又はカルマンフィルタを使用して、「サイドポケット」の前後の所持位置から、当該「サイドポケット」を「手」に訂正する。   The correction unit 1241 can correct an incorrect sequence 2501 to a correct sequence 2502 using a Markov filter or a Kalman filter. Specifically, the correction unit 1241 uses a Markov filter or a Kalman filter to correct the “side pocket” to “hand” from the possession position before and after the “side pocket”.

図26は、訂正部1241がどのように動作認識を訂正するかを模式的に示す。動作の分類結果のシーケンス2601は、訂正前のシーケンスを示す。各セルは、サンプリングウィンドウにおいて判定された動作を示す。シーケンス2601は、誤った判定結果「階段上り」を含む。「階段上り」の前後の動作は「歩行」と判定されている。   FIG. 26 schematically shows how the correction unit 1241 corrects motion recognition. An operation classification result sequence 2601 indicates a sequence before correction. Each cell represents an action determined in the sampling window. The sequence 2601 includes an erroneous determination result “step up”. The operation before and after “step up” is determined to be “walking”.

訂正部1241は、マルコフフィルタ又はカルマンフィルタを使用して、誤ったシーケンス2601を、正しいシーケンス2602に訂正することができる。具体的には、訂正部1241は、マルコフフィルタ又はカルマンフィルタを使用して、「階段上り」の前後の動作から、当該「階段上り」を「歩行」に訂正する。   The correction unit 1241 can correct an incorrect sequence 2601 to a correct sequence 2602 using a Markov filter or a Kalman filter. Specifically, the correction unit 1241 corrects “step up” to “walk” from the operation before and after “step up” using a Markov filter or a Kalman filter.

訂正部1241は、所持位置又は動さの分類結果のシーケンスの訂正結果を、調整部1240に渡す。本例において、調整部1240は複数サンプリングウィンドウからなるシーケンス毎に、パラメータセットを移動量計算部1250に渡し、移動量計算部1250は、シーケンス毎に移動量を計算する。パラメータセットは、サンプリングウィンドウ毎に選択される。   The correction unit 1241 passes the correction result of the possession position or movement classification result sequence to the adjustment unit 1240. In this example, the adjustment unit 1240 passes the parameter set to the movement amount calculation unit 1250 for each sequence including a plurality of sampling windows, and the movement amount calculation unit 1250 calculates the movement amount for each sequence. A parameter set is selected for each sampling window.

調整部1240は、訂正部1241から訂正された所持位置のシーケンス又は動作のシーケンスを受け取ると、それに応じたパラメータセットを、シーケンス内の各サンプリングウィンドウのためにパラメータテーブル134から選択する。その結果、調整部1240は、正しい所持位置に対応するパラメータセットを、移動量計算部1250のために選択することができる。   When the adjustment unit 1240 receives the corrected possession position sequence or operation sequence from the correction unit 1241, the adjustment unit 1240 selects a corresponding parameter set from the parameter table 134 for each sampling window in the sequence. As a result, the adjustment unit 1240 can select a parameter set corresponding to the correct possession position for the movement amount calculation unit 1250.

実施例7を、図27から29を参照して説明する。図27は、実施例7に係る屋内測位システムのアプリケーション例を示す。当該アプリケーションの目的は、GPS信号が届かないフィールドにおいて、労働者を監視することである。例えば、ビル内、トンネル内、又は近いにおいて利用できる。本実施例により、GPS信号が届かないフィールドにおいて、移動端末200の所持者の位置をユーザに提示することができる。   A seventh embodiment will be described with reference to FIGS. FIG. 27 illustrates an application example of the indoor positioning system according to the seventh embodiment. The purpose of the application is to monitor workers in fields where GPS signals do not reach. For example, it can be used in a building, tunnel, or near. According to the present embodiment, the position of the owner of the mobile terminal 200 can be presented to the user in the field where the GPS signal does not reach.

図27は、例えば、サーバ100の入出力装置160に表示される画像例2700を示す。画像2700は、監視している各階の情報を示す。図27の例において、1階2701の情報と2階2702の情報が提示されている。各階において、地図と労働者2703の位置とが表示される。画像は、壁や他の障害物2704を矩形で示している。   FIG. 27 shows an example image 2700 displayed on the input / output device 160 of the server 100, for example. An image 2700 shows information on each floor being monitored. In the example of FIG. 27, information on the first floor 2701 and information on the second floor 2702 are presented. On each floor, a map and the position of worker 2703 are displayed. The image shows walls and other obstacles 2704 as rectangles.

地図情報は、例えば、サーバ100の補助記憶130に格納される。サーバ100は、画像2700において、労働者2703の動作を表示している。歩行は「W」、静止は「S」、そして走りは「R」で示されている。さらに、サーバ100は、画像2700において、労働者の最近の経路をプロットしている。労働者2703の位置、動作及び経路は、上記実施例で説明したように推定される。   The map information is stored in the auxiliary storage 130 of the server 100, for example. The server 100 displays the operation of the worker 2703 in the image 2700. Walking is shown as “W”, stationary as “S”, and running as “R”. In addition, server 100 plots the worker's recent path in image 2700. The position, movement and path of the worker 2703 are estimated as described in the above embodiment.

図28は、実施例7に係る屋内測位システムのアプリケーションの他の例を示す。当該アプリケーションの目的は、スマートフォンユーザのナビゲーションである。スマートフォン2800は、地図情報及びユーザの位置の情報に基づいて、ユーザを所望の目的地に誘導する。   FIG. 28 illustrates another example of the application of the indoor positioning system according to the seventh embodiment. The purpose of the application is smartphone user navigation. The smartphone 2800 guides the user to a desired destination based on the map information and the user position information.

スマートフォン2800の補助記憶240は、インストールされたナビゲーションプログラムを格納している。プロセッサ210は、当該プログラムに従って動作することで、ユーザにナビゲーションサービスを提供する。サーバ100は、上記実施例において説明したように、ユーザの現在位置を推定し、その推定結果を地図情報と共に、スマートフォン2800に送信する。スマートフォン2800は、地図情報と共に、ユーザ位置を入出力装置内の表示装置において表示する。   The auxiliary storage 240 of the smartphone 2800 stores the installed navigation program. The processor 210 provides a navigation service to the user by operating according to the program. As described in the above embodiment, the server 100 estimates the current position of the user and transmits the estimation result to the smartphone 2800 together with the map information. The smartphone 2800 displays the user position together with the map information on a display device in the input / output device.

図29は、実施例7に係る屋内測位システムのアプリケーションの他の例を示す。当該アプリケーションの目的は、スマートフォンユーザ2910の声によるナビゲーションである。スマートフォン2900の入出力装置は、スピーカを含む。スマートフォン2900は、サーバ100から取得したユーザの現在位置及び地図情報に基づいて、ユーザ2910を所望の目的地に、スピーカからの音声によって誘導する。   FIG. 29 illustrates another example of the application of the indoor positioning system according to the seventh embodiment. The purpose of the application is navigation by the voice of the smartphone user 2910. The input / output device of the smartphone 2900 includes a speaker. The smartphone 2900 guides the user 2910 to a desired destination based on the user's current position and map information acquired from the server 100 by voice from a speaker.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、上記の各構成・機能・処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード等の記録媒体に置くことができる。   Each of the above-described configurations, functions, processing units, and the like may be realized by hardware by designing a part or all of them, for example, by an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card or an SD card.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。   In addition, the control lines and information lines are those that are considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. In practice, it may be considered that almost all the components are connected to each other.

4 学習処理部、5 フィードバックシステム部、131 動作認識モデル群、132 測定データ、133 所持位置検出モデル、134 パラメータテーブル、200 移動端末、1210 所持位置検出部、1220 モデル選択部、1230 動作認識部、1240 調整部、1241 訂正部、1250 移動量計算部、1260 位置判定部、1270、1271 データ収集部、1280 所持位置検出学習部、1281 動作認識学習部 4 learning processing unit, 5 feedback system unit, 131 motion recognition model group, 132 measurement data, 133 possession position detection model, 134 parameter table, 200 mobile terminal, 1210 possession position detection unit, 1220 model selection unit, 1230 motion recognition unit, 1240 adjustment unit, 1241 correction unit, 1250 movement amount calculation unit, 1260 position determination unit, 1270, 1271 data collection unit, 1280 possession position detection learning unit, 1281 motion recognition learning unit

Claims (11)

移動端末の所持者の位置を判定する、測位システムであって、
前記移動端末よって測定され、前記移動端末から収集された測定データと、
前記移動端末による測定データにおける特徴量と前記移動端末の所持位置との関係を示す、所持位置検出モデルと、
複数の所持位置それぞれに対応し、前記移動端末による測定データにおける特徴量と前記所持者の動作との関係を示す、複数の動作認識モデルと、
複数のパラメータセットを格納する、パラメータテーブルと、
前記所持位置検出モデル及び前記収集された測定データに基づき、前記移動端末の所持位置を判定する、所持位置検出部と、
前記所持位置検出部により判定された所持位置に対応する動作認識モデルを選択するモデル選択部と、
前記選択された動作認識モデル及び前記収集された測定データに基づき、前記移動端末の所持者の動作を判定する、動作認識部と、
前記所持位置検出部に判定された所持位置及び前記動作認識部により判定された動作に基づいて、前記パラメータテーブルからパラメータセットを選択する、調整部と、
前記選択されたパラメータセットを使用して、前記所持者の移動量を計算する、移動量計算部と、
前記計算された移動量に基づいて前記所持者の位置を判定する位置判定部と、
学習処理部と、
フィードバックシステム部と、
訂正部と、を含み、
前記フィードバックシステム部は、前記所持者による実際の所持位置の入力を前記移動端末から受信し、前記実際の所持位置の情報を前記学習処理部に入力し、
前記学習処理部は、前記実際の所持位置、前記収集された測定データ及び前記所持位置検出モデルに基づき、前記所持位置検出モデルを調整し、
前記訂正部は、前記所持者の動作のシーケンスにおける第1の動作の正誤を前記第1の動作の前後の動作に基づいて判定し、前記第1の動作が誤りであると判定すると前記第1の動作を訂正する、測位システム。
A positioning system for determining the position of a mobile terminal holder,
Measurement data measured by the mobile terminal and collected from the mobile terminal;
A possession position detection model showing a relationship between a feature amount in measurement data by the mobile terminal and a possession position of the mobile terminal;
A plurality of motion recognition models corresponding to each of a plurality of possessed positions, and indicating a relationship between a feature amount in measurement data by the mobile terminal and the motion of the owner;
A parameter table that stores multiple parameter sets;
A possession position detection unit for determining a possession position of the mobile terminal based on the possession position detection model and the collected measurement data;
A model selection unit that selects a motion recognition model corresponding to the possessed position determined by the possessed position detection unit;
A motion recognition unit for determining a motion of the owner of the mobile terminal based on the selected motion recognition model and the collected measurement data;
An adjustment unit that selects a parameter set from the parameter table based on the possession position determined by the possession position detection unit and the operation determined by the operation recognition unit;
A movement amount calculation unit for calculating the movement amount of the holder using the selected parameter set;
A position determination unit that determines the position of the owner based on the calculated movement amount;
A learning processing unit;
A feedback system section;
A correction section, and
The feedback system unit receives an input of an actual possession position by the owner from the mobile terminal, and inputs information on the actual possession position to the learning processing unit,
The learning processing unit adjusts the possession position detection model based on the actual possession position, the collected measurement data, and the possession position detection model,
The correction unit determines whether the first operation in the operation sequence of the holder is correct or incorrect based on operations before and after the first operation, and determines that the first operation is an error. Positioning system that corrects the operation of the .
請求項1に記載の測位システムであって、
前記所持位置検出モデルを生成する、学習処理部をさらに含み、
前記学習処理部は、
異なる所持位置における複数の移動端末から、測定データを取得し、
前記異なる所持位置それぞれにおける測定データの特徴量を計算し、
前記異なる所持位置それぞれの特徴量に基づき、前記異なる所持位置それぞれと前記測定データにおける特徴量との関係を判定し、
前記判定の結果に基づき、前記所持位置検出モデルを生成する、測位システム。
The positioning system according to claim 1,
A learning processing unit for generating the possession position detection model;
The learning processing unit
Obtain measurement data from multiple mobile terminals at different possession positions,
Calculating the feature quantity of the measurement data at each of the different possessed positions;
Based on the feature amount of each of the different possession positions, determine the relationship between each of the different possession positions and the feature amount in the measurement data,
A positioning system that generates the possessed position detection model based on a result of the determination.
請求項1に記載の測位システムであって、  The positioning system according to claim 1,
前記複数の動作認識モデルを生成する、学習処理部をさらに含み、  A learning processing unit for generating the plurality of motion recognition models;
前記学習処理部は、  The learning processing unit
異なる所持位置における複数の移動端末から、異なる動作の間の測定データを取得し、  Obtain measurement data during different operations from multiple mobile terminals in different possession positions,
前記異なる所持位置及び前記異なる動作の異なるペアそれぞれにおける測定データの特徴量を計算し、  Calculating feature quantities of the measurement data in each of the different possession positions and the different pairs of different movements;
前記異なるペアそれぞれの特徴量に基づき、前記異なるペアそれぞれと前記測定データにおける特徴量との関係を判定し、  Based on the feature amount of each of the different pairs, determine the relationship between each of the different pairs and the feature amount in the measurement data,
前記判定の結果に基づき、前記複数の動作認識モデルを生成する、測位システム。  A positioning system that generates the plurality of motion recognition models based on a result of the determination.
請求項1に記載の測位システムであって、  The positioning system according to claim 1,
学習処理部と、フィードバックシステム部と、をさらに含み、  A learning processing unit and a feedback system unit;
前記フィードバックシステム部は、前記所持者による実際の所持位置及び実際の動作の入力を前記移動端末から受信し、前記実際の所持位置及び前記実際の動作の情報を前記学習処理部に入力し、  The feedback system unit receives an input of an actual possession position and an actual operation by the owner from the mobile terminal, and inputs information on the actual possession position and the actual operation to the learning processing unit,
前記学習処理部は、前記実際の所持位置、前記実際の動作、前記収集された測定データ及び前記実際の所持位置の動作認識モデルに基づき、前記所持位置の動作認識モデルを調整する、測位システム。  The positioning system, wherein the learning processing unit adjusts the motion recognition model of the possession position based on the actual possession position, the actual motion, the collected measurement data, and the motion recognition model of the actual possession position.
請求項1に記載の測位システムであって、  The positioning system according to claim 1,
訂正部をさらに含み、  A correction part,
前記訂正部は、前記移動端末の所持位置のシーケンスにおける第1の所持位置の正誤を前記第1の所持位置の前後の所持位置に基づいて判定し、前記第1の所持位置が誤りであると判定すると、前記第1の所持位置を訂正する、測位システム。  The correction unit determines whether the first possession position in the sequence of possession positions of the mobile terminal is correct based on possession positions before and after the first possession position, and the first possession position is incorrect. A positioning system that corrects the first possessed position upon determination.
請求項1に記載の測位システムであって、  The positioning system according to claim 1,
前記位置判定部により判定された前記所持者の位置を、地図情報と共に出力する、測位システム。  A positioning system that outputs the position of the owner determined by the position determination unit together with map information.
移動端末の所持者の位置を判定する、測位システムによる測位方法であって、  A positioning method by a positioning system for determining the position of the owner of a mobile terminal,
前記測位システムは、  The positioning system is
前記移動端末よって測定され、前記移動端末から収集された測定データと、  Measurement data measured by the mobile terminal and collected from the mobile terminal;
前記移動端末による測定データにおける特徴量と前記移動端末の所持位置との関係を示す、所持位置検出モデルと、  A possession position detection model showing a relationship between a feature amount in measurement data by the mobile terminal and a possession position of the mobile terminal;
複数の所持位置それぞれに対応し、前記移動端末による測定データにおける特徴量と前記所持者の動作との関係を示す、複数の動作認識モデルと、  A plurality of motion recognition models corresponding to each of a plurality of possessed positions, and indicating a relationship between a feature amount in measurement data by the mobile terminal and the motion of the owner;
複数のパラメータセットを格納する、パラメータテーブルと、を含み、  A parameter table for storing a plurality of parameter sets;
前記測位システムが、  The positioning system is
前記所持位置検出モデル及び前記収集された測定データに基づき、前記移動端末の所持位置を判定し、  Based on the possession position detection model and the collected measurement data, determine the possession position of the mobile terminal,
前記判定された所持位置対応する動作認識モデルを選択し、  Select a motion recognition model corresponding to the determined possessed position,
前記選択された動作認識モデル及び前記収集された測定データに基づき、前記移動端末の所持者の動作を判定し、  Based on the selected movement recognition model and the collected measurement data, determine the movement of the owner of the mobile terminal,
前記判定された所持位置及び前記判定された動作に基づいて、前記パラメータテーブルからパラメータセットを選択し、  Based on the determined possessed position and the determined operation, a parameter set is selected from the parameter table,
前記選択されたパラメータセットを使用して、前記所持者の移動量を計算し、  Using the selected parameter set, calculate the amount of movement of the holder,
前記計算された移動量に基づいて前記所持者の位置を判定し、  Determining the position of the holder based on the calculated amount of movement;
前記所持者による実際の所持位置の入力を前記移動端末から受信し、  Receiving an input of an actual possession position by the owner from the mobile terminal;
前記実際の所持位置、前記収集された測定データ及び前記所持位置検出モデルに基づき、前記所持位置検出モデルを調整し、  Based on the actual possession position, the collected measurement data and the possession position detection model, adjust the possession position detection model,
前記所持者の動作のシーケンスにおける第1の動作の正誤を前記第1の動作の前後の動作に基づいて判定し、前記第1の動作が誤りであると判定すると、前記第1の動作を訂正する、測位方法。  The correctness of the first action in the sequence of actions of the holder is determined based on the actions before and after the first action, and if the first action is determined to be incorrect, the first action is corrected. The positioning method.
請求項7に記載の測位方法であって、  The positioning method according to claim 7,
前記測位システムが、  The positioning system is
異なる所持位置における複数の移動端末から、測定データを取得し、  Obtain measurement data from multiple mobile terminals at different possession positions,
前記異なる所持位置それぞれにおける測定データの特徴量を計算し、  Calculating the feature quantity of the measurement data at each of the different possessed positions;
前記異なる所持位置それぞれの特徴量に基づき、前記異なる所持位置それぞれと前記測定データにおける特徴量との関係を判定し、  Based on the feature amount of each of the different possession positions, determine the relationship between each of the different possession positions and the feature amount in the measurement data,
前記判定の結果に基づき、前記所持位置検出モデルを生成する、ことをさらに含む測位方法。  A positioning method further comprising: generating the possession position detection model based on the result of the determination.
請求項7に記載の測位方法であって、  The positioning method according to claim 7,
異なる所持位置における複数の移動端末から、異なる動作の間の測定データを取得し、  Obtain measurement data during different operations from multiple mobile terminals in different possession positions,
前記異なる所持位置及び前記異なる動作の異なるペアそれぞれにおける測定データの特徴量を計算し、  Calculating feature quantities of the measurement data in each of the different possession positions and the different pairs of different movements;
前記異なるペアそれぞれの特徴量に基づき、前記異なるペアそれぞれと前記測定データにおける特徴量との関係を判定し、  Based on the feature amount of each of the different pairs, determine the relationship between each of the different pairs and the feature amount in the measurement data,
前記判定の結果に基づき、前記複数の動作認識モデルを生成する、ことをさらに含む測位方法。  A positioning method further comprising: generating the plurality of motion recognition models based on a result of the determination.
請求項7に記載の測位方法であって、  The positioning method according to claim 7,
前記所持者による実際の所持位置及び実際の動作の入力を前記移動端末から受信し、  Receiving the actual possession position and the actual movement input by the owner from the mobile terminal;
前記実際の所持位置、前記実際の動作、前記収集された測定データ及び前記実際の所持位置の動作認識モデルに基づき、前記実際の所持位置の動作認識モデルを調整する、ことをさらに含む測位方法。  The positioning method further comprising adjusting the motion recognition model of the actual possession position based on the actual possession position, the actual motion, the collected measurement data, and the motion recognition model of the actual possession position.
請求項7に記載の測位方法であって、  The positioning method according to claim 7,
前記移動端末の所持位置のシーケンスにおける第1の所持位置の正誤を前記第1の所持位置の前後の所持位置に基づいて判定し、前記第1の所持位置が誤りであると判定すると、前記第1の所持位置を訂正する、ことをさらに含む測位方法。  When the correctness of the first possessed position in the possessed position sequence of the mobile terminal is determined based on the possessed positions before and after the first possessed position, and the first possessed position is determined to be incorrect, A positioning method further comprising correcting the possessing position of one.
JP2015037946A 2015-02-27 2015-02-27 Positioning system Active JP6329915B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015037946A JP6329915B2 (en) 2015-02-27 2015-02-27 Positioning system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015037946A JP6329915B2 (en) 2015-02-27 2015-02-27 Positioning system

Publications (2)

Publication Number Publication Date
JP2016161313A JP2016161313A (en) 2016-09-05
JP6329915B2 true JP6329915B2 (en) 2018-05-23

Family

ID=56846672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015037946A Active JP6329915B2 (en) 2015-02-27 2015-02-27 Positioning system

Country Status (1)

Country Link
JP (1) JP6329915B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020219054A1 (en) * 2019-04-25 2020-10-29 Huawei Technologies Co. Ltd. Recommender system selecting a driver out of multiple candidates
WO2020245938A1 (en) * 2019-06-05 2020-12-10 三菱電機株式会社 Elevator car side wireless communication device, elevator system, and mobile terminal
JP2022032103A (en) * 2020-08-11 2022-02-25 トヨタ自動車株式会社 Walking estimation system, walking estimation method, and program

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01177600A (en) * 1988-01-06 1989-07-13 Nec Corp Voice recognition error correcting device
JPH0989584A (en) * 1995-09-26 1997-04-04 Honda Motor Co Ltd Portable navigation device
JP2005311691A (en) * 2004-04-21 2005-11-04 Toyota Central Res & Dev Lab Inc Object detection apparatus and method
US8351958B2 (en) * 2008-07-15 2013-01-08 Panasonic Corporation Mobile device and method for identifying location thereof
JP5018809B2 (en) * 2009-03-04 2012-09-05 沖電気工業株式会社 Time series data prediction device
JP5232211B2 (en) * 2010-10-29 2013-07-10 株式会社東芝 Mobile terminal having data protection function, data protection method and program in the mobile terminal
JP5760389B2 (en) * 2010-11-02 2015-08-12 カシオ計算機株式会社 Positioning device, positioning method and program
WO2014129166A1 (en) * 2013-02-22 2014-08-28 旭化成株式会社 Carry-state determination device and program
JP6135257B2 (en) * 2013-04-04 2017-05-31 富士通株式会社 Terminal device and position detection program
JP2015014587A (en) * 2013-06-06 2015-01-22 株式会社リコー Information processing apparatus, position determination method, and position determination program

Also Published As

Publication number Publication date
JP2016161313A (en) 2016-09-05

Similar Documents

Publication Publication Date Title
CN104296750B (en) A zero-speed detection method and device, and a pedestrian navigation method and system
CN104180805B (en) Indoor Pedestrian Location and Tracking Method Based on Smartphone
KR101851836B1 (en) Systems and methods for estimating the motion of an object
Do et al. Personal dead reckoning using IMU mounted on upper torso and inverted pendulum model
EP2850392B1 (en) Method for step detection and gait direction estimation
JP5742794B2 (en) Inertial navigation device and program
CN111024126B (en) Self-adaptive zero-speed correction method in pedestrian navigation positioning
US9632107B2 (en) Movement amount estimation system, movement amount estimation method and mobile terminal
CN103217154B (en) Method and device for locating underground personnel in coal mine
US12109453B2 (en) Detecting outdoor walking workouts on a wearable device
CN103968827A (en) Wearable human body gait detection self-localization method
JP3775779B2 (en) Walking navigation device and navigation system using the same
JPWO2016013095A1 (en) Autonomous mobile device
EP2881708A1 (en) System and method for indoor localization using mobile inertial sensors and virtual floor maps
Zhou et al. An improved dead reckoning algorithm for indoor positioning based on inertial sensors
Wu et al. Indoor positioning system based on inertial MEMS sensors: Design and realization
JP6329915B2 (en) Positioning system
CN106461401A (en) Information processing device, information processing method, and computer program
CN109708631A (en) A Pedestrian Navigation Course Correction Method Based on Mobile Phone Mode Recognition
CN109084765B (en) A pedestrian indoor walking positioning method, device and storage medium
CN110388915A (en) Travel direction calculation device, travel direction determination method, and recording medium
JP6494552B2 (en) Position estimating apparatus, program and method capable of correcting position based on transition between floors
Liu et al. Track Your Foot Step: Anchor-free Indoor Localization based on Sensing Users' Foot Steps
JP6653151B2 (en) Heading direction estimation system
Lee et al. Hybrid indoor location tracking for pedestrian using a smartphone

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180423

R150 Certificate of patent or registration of utility model

Ref document number: 6329915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250