JP2019185074A - Simulator, simulation method and action determination device - Google Patents
Simulator, simulation method and action determination device Download PDFInfo
- Publication number
- JP2019185074A JP2019185074A JP2018070447A JP2018070447A JP2019185074A JP 2019185074 A JP2019185074 A JP 2019185074A JP 2018070447 A JP2018070447 A JP 2018070447A JP 2018070447 A JP2018070447 A JP 2018070447A JP 2019185074 A JP2019185074 A JP 2019185074A
- Authority
- JP
- Japan
- Prior art keywords
- individual
- value
- unit
- follower
- leader
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】群集においてパニック行動等特定行動が生じた条件の究明を容易化する。【解決手段】個体情報記憶部42は、複数の個体について、リーダーかフォロワーかを表す属性値、空間における位置を含む状態値、状態値に作用する行動パラメータを記憶する。確率設定部53は、刺激値が設定されるたびに、フォロワーである個体に刺激値に基づく第一当選確率を設定し、リーダーである個体に所定の第二当選確率を設定する。リーダー行動決定部54は、第一当選確率が設定された個体を当該確率にてリーダーに変更するとともに、リーダーである個体の行動パラメータに目的の達成に近づける値を設定する。フォロワー行動決定部55は、第二当選確率が設定された個体を当該確率にてフォロワーに変更するとともに、属性値がフォロワーである個体の行動パラメータを周囲個体に類似させる。個体情報更新部56は、各個体の状態値を行動パラメータにて更新する。【選択図】図2An object of the present invention is to facilitate the investigation of conditions under which a specific action such as a panic action has occurred in a crowd. An individual information storage unit stores, for a plurality of individuals, an attribute value representing a leader or a follower, a state value including a position in a space, and an action parameter acting on the state value. Each time a stimulus value is set, the probability setting unit 53 sets a first winning probability based on the stimulus value for the individual who is a follower, and sets a predetermined second winning probability for the individual who is a leader. The leader behavior determination unit 54 changes the individual for which the first winning probability is set to the leader with the probability, and sets a behavior parameter of the individual who is the leader to a value close to the achievement of the purpose. The follower action determination unit 55 changes the individual for which the second winning probability is set to a follower with the probability, and makes the behavior parameter of the individual whose attribute value is the follower similar to the surrounding individual. The individual information updating unit 56 updates the state value of each individual with the behavior parameter. [Selection] Figure 2
Description
本発明は、群集の行動を予測するシミュレーター、シミュレーション方法および群集を構成する個体のひとつである自個体の行動を決定する行動決定装置に関する。 The present invention relates to a simulator for predicting the behavior of a crowd, a simulation method, and a behavior determining apparatus for determining the behavior of an individual who is one of the individuals constituting the crowd.
災害時に群衆を適切に避難誘導し、または円滑に避難可能な空間設計をするために、パニック行動等が生じるメカニズムを究明する必要がある。そのために、群衆の行動をシミュレートするシミュレーターを用いる方法がある。
災害時の群衆に生じるパニック行動のように、群衆が非合理的な行動を採ることの説明のひとつとして、認知バイアスによる同調行動が挙げられ、リーダー・フォロワー問題としてアプローチするなどの研究が行なわれてきた。リーダー・フォロワー問題としてのアプローチは、自ら行動を決定するリーダーと自身の行動を他者の行動によって決定するフォロワーとからなる群衆において、個体同士が影響し合った結果、群衆として非合理的な行動を採るというモデル化に基づくアプローチである。
It is necessary to investigate the mechanism by which panic behavior occurs in order to properly guide the evacuation during a disaster or to design a space that can be evacuated smoothly. Therefore, there is a method using a simulator that simulates the behavior of the crowd.
Like the panic behavior that occurs in the crowd at the time of a disaster, one of the explanations of the crowd taking irrational behavior is the coherent behavior due to cognitive bias, and studies such as approaching as a leader-follower problem have been conducted. It was. The approach as a leader-follower problem is that a group of leaders who decide on their own behavior and followers who decide on their own behavior based on the behavior of others will result in irrational behavior as a result of individual interaction. This is an approach based on modeling.
例えば、特許文献1に記載のシミュレーション装置においては、複数の対象物の関係をハイパーグラフで表し、そのハイパーグラフを用いて複数の対象物の行動をシミュレートすることにより、リーダーが特定の追従者を必ず連れて行く関係や追従者が必ず特定のリーダーに付いて行く関係等を表現していた。
For example, in the simulation apparatus described in
しかしながら、従来技術においては、群衆におけるパニック行動等の特定行動をシミュレートするにはそのための条件を恣意的に設定する必要があるため、未知の条件下において特定行動をシミュレートすることは困難であり、さらには特定行動が生じた条件を究明することが困難であった。 However, in the prior art, in order to simulate specific behavior such as panic behavior in the crowd, it is necessary to arbitrarily set the conditions for that, so it is difficult to simulate the specific behavior under unknown conditions. In addition, it was difficult to determine the conditions under which specific actions occurred.
例えば、特許文献1に記載のシミュレーション装置においては、ハイパーグラフはシミュレーションの都度生成可能であるもののシミュレーションの間は、ハイパーグラフで表した関係が維持される。
そのため、例えば、2つの出口の一方に避難者が集中するパニック行動をシミュレートするには、群衆中の大多数の個体が極めて少数のリーダーのフォロワーになるようなハイパーグラフを生成しておくなど、パニック行動を生じさせるための恣意的な設定をしなければならないと考えられる。
For example, in the simulation apparatus described in
So, for example, to simulate panic behavior where evacuees are concentrated at one of the two exits, a hypergraph is created so that the majority of individuals in the crowd become followers of very few leaders, etc. It is thought that an arbitrary setting must be made to cause panic behavior.
本発明は、上記問題を鑑みてなされたものであり、群集におけるパニック行動等の特定行動を未知の条件下においてシミュレートでき、群集において特定行動が生じた条件の究明を容易化できるシミュレーター、シミュレーション方法および行動決定装置を提供することを目的とする。
なお、本明細書において「群衆」は人の集まりを表すものとし、「群集」は人を含む社会性生物の集まりを表すものとする。
The present invention has been made in view of the above problems, and can simulate a specific action such as a panic action in a crowd under unknown conditions, and can facilitate the investigation of a condition in which the specific action has occurred in a crowd, a simulation It is an object to provide a method and an action determination device.
In this specification, “crowd” represents a group of people, and “crowd” represents a group of social creatures including people.
かかる目的を達成するために本発明は、所定の目的を達成することが可能な所定の空間における群集の行動を予測するシミュレーターであって、前記群集を構成する複数の個体のそれぞれについて、少なくとも、リーダーかフォロワーかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶する個体情報記憶部と、前記行動の契機となる刺激の程度を表す刺激値を順次設定する刺激値設定部と、前記刺激値が設定されるたびに、前記個体のうちの、前記属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである個体に所定の第二当選確率を設定する確率設定部と、前記第一当選確率が設定された個体の前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである個体の前記行動パラメータに当該個体の前記状態値を前記目的の達成に近づける値を設定するリーダー行動決定部と、前記個体ごとに当該個体からの前記位置が所定距離以内である周囲個体を抽出する周囲個体情報取得部と、前記第二当選確率が設定された個体の前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである個体の前記行動パラメータに当該個体の前記周囲個体の前記行動パラメータに類似した値を設定するフォロワー行動決定部と、前記各個体の前記状態値を当該個体の前記行動パラメータにて更新する個体情報更新部と、を備えたシミュレーターを提供する。 In order to achieve such an object, the present invention is a simulator for predicting the behavior of a crowd in a predetermined space capable of achieving a predetermined object, and at least for each of a plurality of individuals constituting the crowd, An attribute value that indicates whether it is a leader or a follower, a state value that includes a position in the space, and an individual information storage unit that stores a behavior parameter that acts on the state value, and a stimulus that represents the degree of stimulation that triggers the behavior A stimulus value setting unit that sequentially sets a value, and each time the stimulus value is set, the first winning probability based on the stimulus value is set for the individual whose attribute value is a follower among the individuals, A probability setting unit that sets a predetermined second winning probability for an individual whose attribute value is a leader, and the attribute value of the individual for which the first winning probability is set as the leader The behavior value of the individual whose attribute value is the leader is set to a value that brings the state value of the individual closer to the achievement of the purpose, and the position from the individual for each individual The surrounding individual information acquisition unit that extracts surrounding individuals within a predetermined distance, and the attribute value of the individual set with the second winning probability is changed to a follower with the probability, and the attribute value is a follower A follower behavior determination unit that sets a value similar to the behavior parameter of the surrounding individual of the individual to the behavior parameter of the individual, and individual information update that updates the state value of each individual with the behavior parameter of the individual And a simulator provided with a department.
また、前記個体情報記憶部は、さらに、前記個体それぞれの反応閾値を記憶し、前記確率設定部は、前記個体ごとに前記刺激値が高いほど高く且つ前記反応閾値が低いほど高い前記第一当選確率を設定することが好適である。 The individual information storage unit further stores a response threshold value of each individual, and the probability setting unit is higher for each individual as the stimulation value is higher and higher as the response threshold is lower. It is preferable to set the probability.
また、前記刺激値設定部は、前記個体ごとに前記刺激値を設定することが好適である。 Moreover, it is preferable that the stimulation value setting unit sets the stimulation value for each individual.
また、前記空間に生じるリスクの大きさを表すリスク値を順次取得するリスク値取得部、をさらに備え、前記個体情報記憶部は、前記個体のそれぞれが認知する前記リスクの大きさを表す認知閾値をさらに記憶し、前記刺激値設定部は、前記個体ごとに設定した前記刺激値を前記個体情報記憶部に記憶させ、前記個体ごとに前記リスク値と当該個体の前記認知閾値との差が大きな個体ほど前記個体情報記憶部に記憶させた値から大きく増加させて前記刺激値を設定することが好適である。 In addition, a risk value acquisition unit that sequentially acquires a risk value that represents the magnitude of the risk that occurs in the space, the individual information storage unit is a recognition threshold that represents the magnitude of the risk that each of the individuals recognize The stimulation value setting unit stores the stimulation value set for each individual in the individual information storage unit, and the difference between the risk value and the recognition threshold of the individual is large for each individual. It is preferable to set the stimulus value by increasing the value of the individual from the value stored in the individual information storage unit.
また、前記刺激値設定部は、前記個体ごとに設定した前記刺激値を前記個体情報記憶部に記憶させ、前記周囲個体情報取得部が抽出した前記周囲個体の数が多い個体ほど前記個体情報記憶部に記憶させた値から大きく増加させて前記刺激値を設定することが好適である。 In addition, the stimulus value setting unit stores the stimulus value set for each individual in the individual information storage unit, and the individual information storage is performed for an individual having a larger number of the surrounding individuals extracted by the surrounding individual information acquisition unit. It is preferable to set the stimulation value by greatly increasing the value stored in the unit.
また、かかる目的を達成するために本発明は、所定の目的を達成することが可能な所定の空間における群集の行動を予測するシミュレーション方法であって、コンピュータに、前記群集を構成する複数の個体のそれぞれについて、少なくとも、リーダーかフォロワーかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶させ、前記行動の契機となる刺激の程度を表す刺激値を順次設定する処理と、前記刺激値が設定されるたびに、前記個体のうちの、前記属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである個体に所定の第二当選確率を設定する処理と、前記第一当選確率が設定された個体の前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである個体の前記行動パラメータに当該個体の前記状態値を前記目的の達成に近づける値を設定する処理と、前記個体ごとに当該個体からの前記位置が所定距離以内である周囲個体を抽出する処理と、前記第二当選確率が設定された個体の前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである個体の前記行動パラメータに当該個体の前記周囲個体の前記行動パラメータに類似した値を設定するフォロワー行動決定部と、前記各個体の前記状態値を当該個体の前記行動パラメータにて更新する個体情報更新部と、を実行させることを特徴とするシミュレーション方法を提供する。 In order to achieve such an object, the present invention is a simulation method for predicting the behavior of a crowd in a predetermined space capable of achieving a predetermined object, wherein a plurality of individuals constituting the crowd are stored in a computer. For each of the above, at least an attribute value indicating whether it is a leader or a follower, a state value including a position in the space, and a behavior parameter that acts on the state value are stored, and the degree of stimulation that triggers the behavior is represented A process of sequentially setting stimulus values, and each time the stimulus value is set, a first winning probability based on the stimulus value is set for an individual of which the attribute value is a follower, and the attribute value A process for setting a predetermined second winning probability for an individual who is a leader, and the attribute value of the individual for which the first winning probability is set to the leader with the probability In addition, a process of setting a value that brings the state value of the individual closer to the achievement of the purpose in the behavior parameter of the individual whose attribute value is a leader, and the position from the individual for each individual is a predetermined distance And the attribute value of the individual for which the second winning probability is set is changed to a follower with the probability, and the behavior parameter of the individual whose attribute value is the follower Executing a follower behavior determination unit that sets a value similar to the behavior parameter of the surrounding individual of the individual, and an individual information update unit that updates the state value of the individual with the behavior parameter of the individual A simulation method is provided.
また、かかる目的を達成するために本発明は、所定の目的を達成することが可能な所定の空間において群集を構成する個体のひとつである自個体の行動を決定する行動決定装置であって、前記自個体について、少なくとも、リーダーであるかフォロワーであるかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶する個体情報記憶部と、前記行動の契機となる刺激の程度を表す刺激値を設定する刺激値設定部と、前記属性値がフォロワーである場合に前記刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである場合に所定の第二当選確率を設定する確率設定部と、前記第一当選確率が設定された場合に前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである場合に前記行動パラメータに前記状態値を前記目的の達成に近づける値を設定するリーダー行動決定部と、前記個体のうちの、前記自個体の前記位置から所定距離以下に存在する周囲個体の行動を取得する周囲個体情報取得部と、前記第二当選確率が設定された場合に前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである場合に前記周囲個体の行動に類似する前記行動パラメータを設定するフォロワー行動決定部と、を備えた行動決定装置を提供する。 Further, in order to achieve such an object, the present invention is an action determination device for determining the action of an individual that is one of individuals constituting a crowd in a predetermined space capable of achieving a predetermined object, About the own individual, at least an attribute value representing whether it is a leader or a follower, a state value including a position in the space, and an individual information storage unit that stores behavior parameters that affect the state value; A stimulation value setting unit that sets a stimulation value that represents the degree of stimulation that triggers an action, and a first winning probability based on the stimulation value when the attribute value is a follower, and the attribute value is a leader A probability setting unit that sets a predetermined second winning probability in the case, and when the first winning probability is set, the attribute value is changed to a leader with the probability, and the attribute value A leader action determination unit that sets a value that brings the state value closer to the achievement of the purpose when the person is a leader, and surrounding individuals that are within a predetermined distance from the position of the individual individual among the individuals When the second winning probability is set, the surrounding individual information acquisition unit for acquiring the behavior of the surroundings is changed to the follower with the probability, and when the attribute value is the follower, There is provided a behavior determination device including a follower behavior determination unit that sets the behavior parameters similar to a behavior.
本発明によれば、同一の設定を行ってもリーダーとフォロワーが確率的に変更される。これによって、群集におけるパニック行動等の特定行動を未知の条件下においてシミュレートでき、群集において特定行動が生じた条件の究明を容易化できる。 According to the present invention, even if the same setting is performed, the leader and the follower are changed probabilistically. As a result, specific behavior such as panic behavior in the crowd can be simulated under unknown conditions, and it is possible to facilitate the investigation of the conditions that caused the specific behavior in the crowd.
[第一の実施形態]
本発明のシミュレーターに係る第一の実施形態として、2つの出口E1,E2を有する部屋Rに火災が発生し、部屋Rに滞在していた複数の人(群集)がいずれかの出口から避難する行動を予測するシミュレーター1の例を示す。
つまり、この実施形態において、シミュレーションの対象となる空間(対象空間)は部屋Rであり、群集を構成する個体は人であり、群集ないし個体の目的は火災という事象からの避難であり、対象空間は出口E1,E2があることで目的を達成することが可能となっている。
また、例示するシミュレーター1は、本発明のもうひとつである行動決定装置を含み、行動決定装置が各個体の行動を逐次確率的に決定することにより群集の行動の予測が行われる。
[First embodiment]
As a first embodiment according to the simulator of the present invention, a fire has occurred in the room R having the two exits E 1 and E 2, and a plurality of people (crowds) who have stayed in the room R can pass through any of the exits. The example of the
That is, in this embodiment, the space (target space) to be simulated is the room R, the individuals constituting the crowd are people, the purpose of the crowd or individuals is evacuation from the event of fire, and the target space Is able to achieve its purpose by having the exits E 1 and E 2 .
Moreover, the
<シミュレーター1の構成>
図1は、第一の実施形態に係るシミュレーター1の概略の構成を示すブロック図である。
シミュレーター1は、操作入力部2、ファイル入出力部3、記憶部4、制御部5、および表示部6からなる。これらのうちのファイル入出力部3、記憶部4および制御部5はいわゆるコンピュータで実現でき、操作入力部2および表示部6は当該コンピュータの周辺機器として実現できる。
<Configuration of
FIG. 1 is a block diagram showing a schematic configuration of a
The
操作入力部2は、キーボード、マウス等のユーザーインターフェースであり、利用者に操作されてデータの入力等に用いられる。操作入力部2は、制御部5に接続され、利用者の操作を操作信号に変換して制御部5に出力する。
The
ファイル入出力部3は、DVD(Digital Versatile Disc)ドライブ、USB(Universa Serial Bus)インターフェース、ネットワークインターフェース等であり、一方が不図示の外部機器、記録メディア、ネットワーク等に接続され、他方が制御部5に接続され、データをファイルとして制御部5に入力し、およびデータをファイルとして制御部5から出力する。 The file input / output unit 3 is a DVD (Digital Versatile Disc) drive, a USB (Universa Serial Bus) interface, a network interface or the like, one of which is connected to an external device, a recording medium, a network, or the like not shown, and the other is a control unit 5, the data is input to the control unit 5 as a file, and the data is output from the control unit 5 as a file.
記憶部4は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶する。記憶部4は、制御部5と接続されて制御部5との間でこれらの情報を入出力する。
The
制御部5は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置で構成される。制御部5は、記憶部4と接続され、記憶部4からプログラムを読み出して実行することにより各種処理部として動作し、各種データを記憶部4に記憶させ、読み出す。また、制御部5は、操作入力部2、ファイル入出力部3および表示部6とも接続され、利用者が操作入力部2を操作して入力されたデータを取得し、ファイル入出力部3を介して外部からファイルとしてデータを取得および出力し、所得したデータに基づいたシミュレーションを行って群集の行動を予測し、予測結果のデータをファイルとしてファイル入出力部3から出力させ、または/および予測結果のデータを画像化して表示部6に表示させる。
The control unit 5 is configured by an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit). The control unit 5 is connected to the
表示部6は、液晶ディスプレイ又はCRT(Cathode Ray Tube)ディスプレイ等のディスプレイ装置であり、制御部5と接続され、制御部5による予測結果を表示する。利用者は表示された予測結果を視認して群集の行動に関する考察等を行う。 The display unit 6 is a display device such as a liquid crystal display or a CRT (Cathode Ray Tube) display, and is connected to the control unit 5 and displays a prediction result by the control unit 5. The user looks at the displayed prediction result and considers the behavior of the crowd.
<シミュレーター1の機能>
図2は、第一の実施形態に係るシミュレーター1の機能ブロック図である。
<Function of
FIG. 2 is a functional block diagram of the
操作入力部2は条件設定部20の一部等として機能する。ファイル入出力部3は条件設定部20の一部および予測結果出力部57の一部等として機能する。記憶部4は反復条件記憶部40、環境情報記憶部41および個体情報記憶部42等として機能する。制御部5は、リスク値取得部50、周囲個体情報取得部51、刺激値設定部52、確率設定部53、リーダー行動決定部54、フォロワー行動決定部55、個体情報更新部56、予測結果出力部57の一部等として機能する。
The
条件設定部20は、シミュレーションに必要な各種条件の入力を受け付け、入力された条件を記憶部4に記憶させる。条件設定部20は、例えば、操作入力部2および制御部5が協働して実現され、利用者が操作入力部2を操作して入力した値を、制御部5が記憶部4に記憶させる。条件設定部20は、条件の一部または全部が記されたファイルを入力するファイル入出力部3を含んでもよく、利用者が操作入力部2を操作して指定したファイルを制御部5がファイル入出力部3を介して取得して当該ファイルに記された値を記憶部4に記憶させる。
The
シミュレーションは仮想時刻を所定範囲内で進めながら行われる。また、同一範囲内の仮想時刻についての試行が繰り返し行われる。各試行で用いる条件は同一であるが、各試行の各仮想時刻における各個体の行動は確率的に決定されるため、試行間のシミュレーション結果が同一となることは殆ど無い。 The simulation is performed while the virtual time is advanced within a predetermined range. In addition, trials for virtual time within the same range are repeated. Although the conditions used in each trial are the same, since the behavior of each individual at each virtual time of each trial is determined stochastically, the simulation results between trials rarely become the same.
仮想時刻は、実際の時間の経過を模擬したものであるが、シミュレーターが1時刻分の演算を終えるたびに進められ、実際の時間の経過よりも高速に刻まれる。例えば、仮想時刻の1時刻を実際の1秒間に対応させ、仮想時刻を0から始まり1ずつ増加する整数で表す。 The virtual time simulates the passage of actual time, but is advanced every time the simulator completes the calculation for one time, and is recorded at a higher speed than the passage of actual time. For example, one virtual time is associated with an actual one second, and the virtual time is represented by an integer starting from 0 and increasing by one.
本実施形態のシミュレーションにおいては、上限仮想時刻をT、試行予定回数をMとし、仮想時刻を0から(T−1)まで変化させながら仮想時刻ごとに環境および個体の情報を更新する試行がM回繰り返される。 In the simulation of the present embodiment, T is the upper limit virtual time, M is the planned number of trials, and M attempts to update environment and individual information for each virtual time while changing the virtual time from 0 to (T-1). Repeated times.
反復条件記憶部40は、上限仮想時刻Tおよび試行予定回数Mを記憶する。これらの値は、条件設定部20を用いた利用者による入力操作により予め設定される。
The repetition
環境情報記憶部41は対象空間に由来する情報を記憶する。具体的には、環境情報記憶部41は、出口の領域を含む対象空間の地図、および対象空間に生じるリスクの大きさを表すリスク値を記憶する。リスク値は仮想時刻の関数である。これらの値は、条件設定部20を用いた利用者による入力操作により予め設定される。
The environment
図3は、環境情報記憶部41が記憶する情報を模式的に例示したものである。
FIG. 3 schematically illustrates information stored in the environment
図3(A)は、二次元のxy座標系における部屋Rの地図100を図化したものである。地図100においては、部屋Rの床面が個体の移動可能領域としてx方向に128個、y方向に40個の正方形でブロック分割され、ブロックの一部が出口E1の領域、ブロックの別の一部が出口E2の領域となっている。部屋Rの中央がxy座標系の原点であり、x方向が北であるとする。環境情報記憶部41には各ブロックの重心に割り当てられたx方向のグリッド番号、y方向のグリッド番号、および出口E1と出口E2とそれ以外とを区別する符号の組み合わせが列挙されたデータが記憶される。地図100は原理説明のための簡単な例であるが、対象空間は、複数の部屋や通路から構成される複雑な空間であってもよい。その場合の移動可能領域は、壁、什器等の領域を除いた複雑な形状となる。
FIG. 3A illustrates a
図3(B)は、リスク値を模式的に表したものである。環境情報記憶部41には仮想時刻0〜(T−1)までのリスク値の系列r(0),r(1),r(2),…,r(T−1)が記憶される。事象を火災とする本実施形態においてリスク値は火災の規模に応じた値であり、仮想時刻が進むほど大きな値となるように設定されている。
FIG. 3B schematically shows the risk value. The environment
個体情報記憶部42は、群集を構成する複数の個体のそれぞれについて、少なくとも、属性値、状態値、および行動パラメータを記憶する。また、個体情報記憶部42は、さらに、個体それぞれの反応閾値、個体それぞれの認知閾値、および個体それぞれに対する刺激値のうちの1以上を記憶してもよい。
The individual
属性値には、個体がリーダーかフォロワーかの別を表す識別子が設定される。リーダーとフォロワーは群集における個体の役割である。リーダーは自身の行動を自分の意思によって決定する。フォロワーは自身の行動を他の個体の行動によって決定する。
本発明において属性値は仮想時刻の経過とともに動的に変更される。ただし、各試行において属性値の初期値は共通である。すなわち、条件設定部20を用いた利用者による入力操作により属性値の初期値が設定され、試行のたびに属性値には当該初期値が設定され、属性値は後述するリーダー行動決定部54およびフォロワー行動決定部55により随時変更される。
ちなみに、本実施形態において属性値の初期値は全個体に共通してフォロワーである。
In the attribute value, an identifier indicating whether the individual is a leader or a follower is set. Leaders and followers are the role of individuals in the community. Leaders decide their actions according to their will. The follower decides his or her behavior based on the behavior of other individuals.
In the present invention, the attribute value is dynamically changed with the passage of virtual time. However, the initial value of the attribute value is common in each trial. That is, an initial value of an attribute value is set by an input operation by a user using the
Incidentally, in this embodiment, the initial value of the attribute value is a follower common to all individuals.
状態値は、各試行の各仮想時刻における各個体の状態を表す。状態値は対象空間における個体の位置であり、グリッド番号で表す。
状態値の初期値も各試行において共通であり、仮想時刻の経過とともに更新される。すなわち、条件設定部20を用いた利用者による入力操作により状態値の初期値が設定され、試行のたびに状態値には当該初期値が設定され、状態値は後述する個体情報更新部56により随時更新される。
ちなみに、本実施形態において各個体の位置の初期値は部屋Rの移動可能領域中のグリッド番号の中からランダムに設定された値である。
なお、本実施形態において状態値は位置のみの一要素であるが、別の実施形態において状態値は、位置と姿勢を表す値というように複数の要素を含んでもよい。
The state value represents the state of each individual at each virtual time of each trial. The state value is the position of the individual in the target space and is represented by a grid number.
The initial value of the state value is also common in each trial and is updated as the virtual time passes. That is, an initial value of the state value is set by an input operation by the user using the
Incidentally, in this embodiment, the initial value of the position of each individual is a value set at random from the grid numbers in the movable region of the room R.
In the present embodiment, the state value is only one element of the position, but in another embodiment, the state value may include a plurality of elements such as a value representing the position and orientation.
行動パラメータは、各試行の各仮想時刻における各個体の行動を表し、状態値に作用するパラメータである。行動パラメータは、基本的に、各個体の行動の目的、当該目的を達成するために当該個体が決定した行動の手段、当該個体が当該行動の手段を実行することによる1時刻当たりの状態値の変更量(状態変更量)で表すものと定義する。
例えば、目的は避難であり、目的として避難を表す識別子が記憶される。ただし、本実施形態において目的は避難の一種類であるため、目的の記憶は省略してもよい。
また、例えば、手段は出口E1への移動と出口E2への移動の2通りであり、手段として選択出口を表す符号が記憶される。すなわち、前者を選択したときは手段には符号E1、後者を選択したときは手段には符号E2が記憶される。
また、例えば、状態変更量はグリッド単位の移動量であり、状態変更量としてグリッド番号のx方向の増分値とy方向の増分値の組を記憶させる。すなわち、図3(A)の地図で表す対象空間においては、例えば、北に1グリッド移動するときは(0,−1)、北西に1グリッド移動するときは(−1,−1)、…などと記憶される。試行回数mにおける仮想時刻tの位置が(5,10)である個体の移動量が(−1,−1)であれば、当該試行回数mにおける仮想時刻(t+1)の位置は(4,9)に更新される。
ちなみに、本実施形態において各個体の選択出口の初期値は定義されず、各個体の移動量の初期値は(0,0)である。行動パラメータは後述するリーダー行動決定部54およびフォロワー行動決定部55により随時変更される。
The behavior parameter represents a behavior of each individual at each virtual time of each trial, and is a parameter that affects the state value. The behavior parameter basically includes the purpose of the behavior of each individual, the behavior means determined by the individual in order to achieve the purpose, and the state value per time when the individual executes the behavior means. It is defined as a change amount (state change amount).
For example, the purpose is evacuation, and an identifier representing evacuation is stored as the purpose. However, since the purpose is one type of evacuation in this embodiment, the purpose storage may be omitted.
Further, for example, there are two ways of moving to the outlet E 1 and moving to the outlet E 2 , and a code representing the selected outlet is stored as the means. That is, when selecting the former, the means stores the code E 1 , and when selecting the latter, the means stores the code E 2 .
Further, for example, the state change amount is a movement amount in units of grids, and a set of an increment value in the x direction and an increment value in the y direction of the grid number is stored as the state change amount. That is, in the object space represented by the map of FIG. 3A, for example, when moving 1 grid north, (0, -1), when moving 1 grid northwest (-1, -1), ... Etc. are memorized. If the movement amount of the individual whose virtual time t at the trial number m is (5, 10) is (−1, −1), the virtual time (t + 1) at the trial number m is (4, 9). ) Is updated.
Incidentally, in this embodiment, the initial value of the selection exit of each individual is not defined, and the initial value of the movement amount of each individual is (0, 0). The behavior parameters are changed as needed by a leader
反応閾値および認知閾値は、個体の個性を表現するパラメータであり、条件設定部20を用いた利用者による入力操作により予め設定される。
個体ごとの反応閾値は、当該個体の刺激値に対する閾値であり、刺激値に対して自ら行動を起こす反応の生じにくさ、つまりリーダーへの変更されにくさを表す。反応閾値が高い個体ほど刺激に対して鈍感で、低い個体ほど刺激に対して敏感である。よって、反応閾値が高い個体ほどリーダーに変更されにくく、低い個体ほどリーダーに変更され易い。
また、個体ごとの認知閾値は、当該個体が認知するリスクの大きさを表す。認知閾値が高い個体ほどリスク値の上昇に応じて刺激値が上昇しにくく、低い個体ほど刺激値が上昇し易い。よって、認知閾値が高い個体ほどリーダーに変更されにくく、低い個体ほどリーダーに変更され易い。
The reaction threshold value and the recognition threshold value are parameters expressing the individuality of an individual, and are set in advance by an input operation by a user using the
The response threshold value for each individual is a threshold value for the stimulus value of the individual, and represents a difficulty in generating a reaction that causes an action on the stimulus value, that is, a difficulty in changing to a leader. Individuals with higher response thresholds are less sensitive to stimuli and individuals with lower thresholds are more sensitive to stimuli. Therefore, an individual with a higher reaction threshold is less likely to be changed to a leader, and a lower individual is more likely to be changed to a leader.
Moreover, the recognition threshold value for each individual represents the magnitude of the risk recognized by the individual. An individual with a higher recognition threshold is less likely to increase a stimulus value in response to an increase in risk value, and an individual with a lower recognition threshold is more likely to increase the stimulus value. Therefore, an individual with a higher recognition threshold is less likely to be changed to a leader, and a lower individual is more likely to be changed to a leader.
刺激値は行動の契機となる刺激の程度を表す値である。例えば、刺激値は火災の規模の拡大や避難を促す放送などに応じて時々刻々と上昇する値として設定される。個体ごとの刺激値は当該個体が各仮想時刻において受ける刺激値である。
本実施形態において刺激値は仮想時刻の経過とともに更新される。ただし、各試行において刺激値の初期値は共通である。すなわち、条件設定部20を用いた利用者による入力操作により刺激値の初期値が設定され、試行のたびに刺激値には当該初期値が設定され、刺激値は後述する刺激値設定部52により個体ごと且つ仮想時刻ごとに更新される。
ちなみに、本実施形態において刺激値の初期値s(−1)は全個体に共通して0である。
The stimulus value is a value representing the degree of stimulus that triggers the action. For example, the stimulus value is set as a value that rises from moment to moment in accordance with, for example, an increase in the scale of a fire or a broadcast prompting evacuation. The stimulus value for each individual is a stimulus value that the individual receives at each virtual time.
In this embodiment, the stimulus value is updated as the virtual time passes. However, the initial value of the stimulation value is common in each trial. That is, an initial value of a stimulus value is set by an input operation by a user using the
Incidentally, in this embodiment, the initial value s (−1) of the stimulus value is 0 in common for all individuals.
図4および図5は、個体情報記憶部42が記憶する情報を模式的に例示したものである。
4 and 5 schematically illustrate information stored in the individual
N個の個体それぞれには当該個体を識別する個体IDが付与され、個体IDと当該個体に関する情報とが対応付けて記憶される。
図4の情報110は、個体IDが0,1,…,(N−1)である個体それぞれに対して記憶される反応閾値θ0,θ1,…,θN−1、および認知閾値μ0,μ1,…,μN−1を例示している。
図5は、シミュレーション終了時点の情報111を例示したものである。情報111として、1,2,…,M回目の試行それぞれにおける仮想時刻が0,1,2,…,(T−1)の各時点での個体IDが0,1,…,(N−1)である個体のそれぞれについて刺激値の履歴、属性値の履歴、状態値の履歴、行動パラメータの履歴が記憶される。例えば、情報111には、1回目の試行で個体IDが0である個体に与えられた各仮想時刻の刺激値はs1,0(0),s1,0(1),s1,0(2),…,s1,0(T−1)であり、これに対応して同試行で同個体の属性値はフォロワー,リーダー,リーダー,…,リーダーと変遷し、同試行で同個体の選択出口は未定値,E1,E1,…,E1と変遷し、同試行で同個体の移動量は(0,0),(−1,−1),(−1,−1),…,(−1,−1)と変遷し、同試行で同個体が位置するグリッドは(0,0),(−1,−1),(−2,−2),…,(−64,−20)と変遷して出口E1に到達したことなどが記憶される。
An individual ID for identifying the individual is assigned to each of the N individuals, and the individual ID and information regarding the individual are stored in association with each other.
The
FIG. 5 exemplifies information 111 at the end of the simulation. As the information 111, the individual IDs at the respective time points of the
リスク値取得部50は、対象空間に生じるリスクの大きさを表すリスク値を順次取得して刺激値設定部52に出力する。具体的には、リスク値取得部50は、仮想時刻tが進むごとに刺激値設定部52から要求を受け、当該仮想時刻tのリスク値r(t)を環境情報記憶部41から読み出して刺激値設定部52に出力する。
The risk
周囲個体情報取得部51は、各個体について当該個体の位置から所定距離以下に存在する周囲個体の情報を取得し、刺激値設定部52およびフォロワー行動決定部55に出力する。
周囲個体情報取得部51が取得する情報のひとつは周囲個体の数であり、周囲個体情報取得部51は刺激値設定部52からの個体IDを指定した要求に応じて、指定された個体の周囲の個体の数を出力する。例えば、距離閾値TDを近傍の8グリッドを包含する円の半径に予め設定しておく。周囲個体情報取得部51は、個体情報記憶部42を参照して、指定された個体の位置から半径TD内の位置が設定されている個体を周囲個体として抽出し、抽出した周囲個体の数を計数して出力する。
また、周囲個体情報取得部51が取得する情報のもうひとつは周囲個体の行動であり、周囲個体情報取得部51はフォロワー行動決定部55からの個体IDを指定した要求に応じて、指定された個体の周囲の個体の行動を出力する。具体的には、周囲個体情報取得部51は、上記と同様にして周囲個体を抽出し、抽出した周囲個体に設定されている行動パラメータを出力する。
The surrounding individual
One piece of information acquired by the surrounding individual
Another information acquired by the surrounding individual
刺激値設定部52は、仮想時刻ごとに、各個体に対する刺激値を設定して、設定した刺激値を確率設定部53に出力する。具体的には、刺激値設定部52は、各仮想時刻tにおける各個体i(個体IDがiである個体)の刺激値si(t)を下式(1)〜(4)に従って設定する。
The stimulus
ただし、si(t−1)は、個体iに対して1時刻前に設定した刺激値であり、刺激値設定部52はこれを個体情報記憶部42から取得する。また刺激値設定部52は1時刻後での設定のために現時刻で設定した刺激値を個体情報記憶部42に記憶させる。δは1時刻当たりの刺激増加量であり、刺激増加量δには0より大きな値が予め設定される。αは刺激を抑制するスケールファクタであり、スケールファクタαには0以上の値が予め設定される。また、r(t)は上述したリスク値であり、刺激値設定部52はこれをリスク値取得部50から取得する。gは非負の定数である。μiは上述した認知閾値のうちの個体iについての認知閾値であり、刺激値設定部52はこれを個体情報記憶部42から取得する。niは個体iの周囲の個体の数であり、刺激値設定部52はこれを周囲個体情報取得部51から取得する。Nmaxは周囲個体数の最大数であり、1以上の値が予め設定される。
また、式(1)におけるmax{・,0}、式(2)(4)における「if ・ 0 otherwise」はそれぞれ値を非負に制限することを表している。
However, s i (t−1) is a stimulus value set one hour ago for the individual i, and the stimulus
Further, max {·, 0} in the equation (1) and “if · 0 otherwise” in the equations (2) and (4) indicate that the value is limited to non-negative.
式(3)のRpはリスク値r(t)と認知閾値μiの差が大きいほど1に近づき、式(1)の刺激値si(t)はRpが1に近づくほど大きく増加する。つまり、認知閾値μiが小さな個体ほど、リスク値r(t)との差が大きくなり易く、刺激値si(t)が増加し易い。これは、認知閾値が小さな個体ほど、リスクに敏感な個体であり、リーダーになり易い個体であるという現実世界の様子をモデル化している。
このように、刺激値設定部52は、個体ごとに刺激値を設定し、特に、リスク値r(t)と当該個体iの認知閾値μiとの差が大きな個体ほど個体情報記憶部42に記憶させた値si(t−1)から大きく増加させて刺激値si(t)を設定することによって、より現実世界に近い予測を可能にしている。
R p in equation (3) approaches 1 as the difference between the risk value r (t) and the recognition threshold μ i increases, and the stimulus value s i (t) in equation (1) increases greatly as R p approaches 1. To do. That is, as the individual has a smaller recognition threshold μ i , the difference from the risk value r (t) tends to increase and the stimulation value s i (t) tends to increase. This models the situation in the real world where individuals with smaller cognitive thresholds are more sensitive to risk and more likely to become leaders.
Thus, the stimulus
また、式(4)のFは周囲個体の数niが多いほど0に近づき、式(1)の刺激値si(t)はFが0に近づくほど大きく増加する。つまり、周囲個体が多い個体ほど、刺激値si(t)が増加し易い。これは、避難が進んでいない領域ほど行動の契機となる刺激の増加が促進され(行動を起こすべき雰囲気が促進され)、避難が進んだ領域は刺激が飽和する現実世界の様子をモデル化している。
このように、刺激値設定部52は、個体ごとに刺激値を設定し、特に、周囲個体情報取得部51が抽出した周囲個体の数niが多い個体ほど個体情報記憶部42に記憶させた値si(t−1)から大きく増加させて刺激値si(t)を設定することによって、より現実世界に近い予測を可能にしている。
Also, closer to
In this way, the stimulus
なお、試行回数と仮想時刻の制御は刺激値設定部52によって行われる。
The number of trials and the virtual time are controlled by the stimulus
確率設定部53は、刺激値設定部52によって刺激値が設定されるたびに、個体のうちの、属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定して当該第一当選確率をリーダー行動決定部54に出力し、属性値がリーダーである個体に所定の第二当選確率を設定して当該第二当選確率をフォロワー行動決定部55に出力する。
Each time the stimulus value is set by the stimulus
具体的には、確率設定部53は、個体情報記憶部42から属性値がフォロワーである個体の個体ID(iとする)とその反応閾値θiを読み出し、刺激値設定部52から入力された刺激値の中から当該個体iに対する刺激値si(t)を特定し、個体iの第一当選確率Pi(Xi=0→Xi=1)を次式(5)に従って設定する。
ただし、Xiは個体iの属性値に対応する確率変数であり、Xi=1は個体iがリーダーであること、Xi=0は個体iがフォロワーであること、(Xi=0→Xi=1)は個体iをフォロワーからリーダーに変更することを表している。つまりPi(Xi=0→Xi=1)は個体iをフォロワーからリーダーに変更する確率である。 Where X i is a random variable corresponding to the attribute value of the individual i, X i = 1 is that the individual i is a leader, X i = 0 is that the individual i is a follower, and (X i = 0 → X i = 1) indicates that the individual i is changed from the follower to the leader. That is, P i (X i = 0 → X i = 1) is the probability of changing the individual i from a follower to a leader.
式(5)の第一当選確率Pi(Xi=0→Xi=1)は、刺激値si(t)が高いほど高く、反応閾値θiが低いほど高い値となる。これは、刺激が強いときほどリーダーになり易く、刺激に対する反応が敏感な個体ほどリーダーになり易い現実世界の様子をモデル化している。
このように、確率設定部53は、個体ごとに刺激値si(t)が高いほど高く且つ反応閾値θiが低いほど高い第一当選確率Pi(Xi=0→Xi=1)を設定する。
The first winning probability P i (X i = 0 → X i = 1) in the equation (5) is higher as the stimulus value s i (t) is higher, and is higher as the reaction threshold θ i is lower. This models the state of the real world where the stronger the stimulus is, the easier it is to become a leader and the more sensitive the response to the stimulus is, the easier it is to become a leader.
In this way, the
また、確率設定部53は、個体情報記憶部42から属性値がリーダーである個体の個体ID(iとする)を特定し、個体iの第二当選確率Pi(Xi=1→Xi=0)を次式(6)に従って設定する。
Xiは式(5)の説明と同様であるからPi(Xi=1→Xi=0)はリーダーからフォロワーに変更する確率である。εには0以上の値が予め設定される。 Since X i is the same as that in the expression (5), P i (X i = 1 → X i = 0) is a probability of changing from a leader to a follower. A value of 0 or more is set in advance for ε.
式(5)と式(6)は反応閾値モデルに倣って定式化しており、確率設定部53は反応閾値モデルをリーダーとフォロワーの間の変更に応用する独自アプローチを特徴としている。
Equations (5) and (6) are formulated following the reaction threshold model, and the
リーダー行動決定部54は、確率設定部53によって第一当選確率が設定された個体の属性値を当該確率にてリーダーに変更するとともに、属性値がリーダーである個体の行動パラメータに当該個体の状態値を目的の達成に近づける値を設定する。
The leader
具体的には、リーダー行動決定部54は、第一当選確率が設定された個体iに対して第一当選確率Pi(X=0→X=1)での抽選を行い、当該抽選に当選した場合に当該個体(当選個体)iの属性値Xiがリーダーであることを個体情報記憶部42に記憶させる。
上記抽選においては、例えば、リーダー行動決定部54は、値域[0,1]の乱数を1つ決定し、当該乱数がPi(Xi=0→Xi=1)未満であれば当選、Pi(Xi=0→Xi=1)以上であれば落選と判定する。
また、リーダー行動決定部54は、個体情報記憶部42から属性値がリーダーである個体の位置を読み出し、当該位置から環境情報記憶部41に記憶されている各出口までの距離を算出して、最も近い出口を当選個体の選択出口に決定する。
また、リーダー行動決定部54は、属性値がリーダーである個体の位置の8近傍グリッドそれぞれから選択出口までの距離を算出して、当該個体の位置から最も近い近傍グリッドへの移動量を決定する。そして、リーダー行動決定部54は、目的が避難であることと、決定した選択出口および移動量を属性値がリーダーである個体の行動パラメータとして個体情報記憶部42に記憶させる。
Specifically, the leader
In the lottery, for example, the leader
In addition, the leader
Further, the leader
フォロワー行動決定部55は、確率設定部53によって第二当選確率が設定された個体の属性値を当該確率にてフォロワーに変更するとともに、属性値がフォロワーである個体の行動パラメータに当該個体の周囲個体の行動パラメータに類似した値を設定する。
具体的には、フォロワー行動決定部55は、第二当選確率が設定された個体iに対して第二当選確率Pi(X=1→X=0)での抽選を行い、当該抽選に当選した場合に当該当選個体iの属性値Xiがフォロワーであることを個体情報記憶部42に記憶させる。
上記抽選においては、例えば、フォロワー行動決定部55は、値域[0,1]の乱数を1つ決定し、当該乱数がPi(Xi=1→Xi=0)未満であれば当選、Pi(Xi=1→Xi=0)以上であれば落選と判定する。
また、フォロワー行動決定部55は、周囲個体情報取得部51に属性値がフォロワーである個体の周囲の個体の行動パラメータを取得させ、取得した行動パラメータの中で最多の選択出口を当選個体の選択出口に決定する。
また、フォロワー行動決定部55は、属性値がフォロワーである個体の位置の8近傍グリッドそれぞれから選択出口までの距離を算出して、当該個体の位置から最も近い近傍グリッドへの移動量を決定する。そして、フォロワー行動決定部55は、目的が避難であることと、決定した選択出口および移動量を属性値がフォロワーである個体の行動パラメータとして個体情報記憶部42に記憶させる。
The follower
Specifically, the follower
In the lottery, for example, the follower
Further, the follower
Further, the follower
個体情報更新部56は、各個体の状態値を当該個体の行動パラメータにて更新する。
本実施形態においては、個体情報更新部56は、状態値のうちの位置に、行動パラメータのうちの移動量を加算することによって更新を行う。具体的には、個体情報更新部56は、個体情報記憶部42から各個体の位置と移動量とを読み出し、個体ごとに、読み出した位置に読み出した移動量を加算して加算後の位置を個体情報記憶部42に記憶させる。
The individual
In the present embodiment, the individual
予測結果出力部57は、シミュレーションの結果である予測結果を出力する。予測結果は、個体情報記憶部42に記憶されている情報の一部または全部を少なくとも含み、好適には、さらに環境情報記憶部41に記憶されている情報の一部または全部を含む。また、予測結果出力部57は個体情報記憶部42に記憶されている情報、または該情報と環境情報記憶部41に記憶されている情報とを統計処理し、得られた統計量を予測結果として出力してもよい。
The prediction
予測結果の出力タイミングは、シミュレーションを終えた時点の他に、シミュレーションの途中を含んでもよい。つまり、シミュレーションの途中までに得られた上記情報の一部または全部を中間予測結果として出力してもよい。 The output timing of the prediction result may include the middle of the simulation in addition to the time when the simulation is finished. That is, part or all of the information obtained until the middle of the simulation may be output as an intermediate prediction result.
また、予測結果出力部57は、予測結果をデータファイルとして出力してもよいし、画像ファイルとして出力してもよいし、画像として表示してもよいし、これらのうちの1以上の形式で出力してもよい。
The prediction
図6および図7のそれぞれは、或る試行回数での上限仮想時刻に近い仮想時刻における中間予測結果の一例である。これらの予測結果は同一の設定から得られる。予測結果出力部57は、出口を含む対象空間の地図を画像化するとともに当該画像上の各個体の位置と対応する座標に個体を表す図形を重畳描画して中間予測結果を生成し、表示部6に出力する。
Each of FIG. 6 and FIG. 7 is an example of an intermediate prediction result at a virtual time close to the upper limit virtual time at a certain number of trials. These prediction results are obtained from the same setting. The prediction
図8は、シミュレーションを終えた時点の情報から生成された統計量をグラフとして画像化した予測結果の一例である。グラフの横軸は選択出口の均等性を表す指標値Eqであり、縦軸は試行の頻度である。指標値Eqは、南側出口E2に向かう個体の割合Srと北側出口E1に向かう個体の割合Nrを乗じた値である(Eq=Sr・Nr)。予測結果出力部57は、個体情報記憶部42に記憶されている選択出口のデータのうち、仮想時刻が(T−1)であるデータを、試行回数ごとに選択出口別に計数して全個体数で除して各試行回数におけるSrとNrを算出する。そして、試行回数ごとにSrとNrを乗じてEqを算出し、Eqを13区間のそれぞれで計数して試行予定回数で除して区間ごとの頻度を算出する。そして、区間ごとの頻度をグラフとして描画した画像を表示部6に出力する。
FIG. 8 is an example of a prediction result obtained by imaging a statistic generated from information at the time of completing the simulation as a graph. The horizontal axis of the graph is an index value E q representing the uniformity of the selected exit, and the vertical axis is the frequency of trials. Index value E q is a value obtained by multiplying the ratio N r of the ratio S r and toward the north exit E 1 individuals individuals towards the south exit E 2 (E q = S r · N r). The prediction
図6の中間予測結果110は、0.25に近いEqが算出された試行の過程で得られた中間予測結果であり、図8のグラフにおいて最も右側のビンに含まれる試行でのものである。つまり、図6の中間結果が得られた試行ではパニックが発生せずに、2つの出口にほぼ均等に使って避難が行われる様子が予測された。
The
一方、図7の中間予測結果120は、0.00に近いEqが算出された試行の過程で得られた中間予測結果であり、図8のグラフにおいて最も左側のビンに含まれる試行でのものである。つまり、図7の中間結果が得られた試行では、南側出口E2に避難者が集中してしまうパニックが発生する様子が予測された。 On the other hand, the intermediate prediction result 120 in FIG. 7 is an intermediate prediction result obtained in the course of the trial in which E q close to 0.00 is calculated. In the graph of FIG. Is. That is, the intermediate results of Figure 7 are in the trial obtained, how the panic evacuees to the south exit E 2 is concentrated is generated is predicted.
例えば、シミュレーター1による予測結果を用いれば、例えば、図6に例示される試行と図7に例示される試行におけるリーダーの位置やその時間推移を比較する解析を行い、パニックが発生する条件を究明することが可能となる。そして究明した結果から、どの位置に誘導手段を設置し又は誘導員を配置すべきか、誘導手段や誘導員がどのようなタイミングでどのような誘導をすべきかといった計画を適確且つ効率的に立案することが可能となる。
For example, if the prediction result by the
<シミュレーター1の動作例>
図9および図10のフローチャートを参照してシミュレーター1の動作例を説明する。
<Operation example of
An operation example of the
始めに、条件設定部20が利用者からの入力を受け付けてシミュレーションの条件を設定する(ステップS1)。すなわち、利用者が条件設定部20を用いて手入力することによって得られたシミュレーションの条件、または/および利用者が条件設定部20を用いてファイルを指定しそれに応じた条件設定部20が該当するファイルから読み出すことによって得られたシミュレーションの条件を、条件設定部20が反復条件記憶部40、環境情報記憶部41および個体情報記憶部42に設定する。
First, the
シミュレーションの条件が設定されると、刺激値設定部52は試行回数を1に初期化し(ステップS2)、ステップS2〜S12のループ処理を設定する。
When the simulation conditions are set, the stimulus
さらに、試行回数のループ処理において、刺激値設定部52は仮想時刻を0に初期化し(ステップS3)、ステップS3〜S10のループ処理を設定する。
Further, in the loop processing of the number of trials, the stimulus
仮想時刻のループ処理においては、まず、行動決定処理が行われる(ステップS4)。 In the virtual time loop process, first, an action determination process is performed (step S4).
図10のフローチャートを参照してステップS4の行動決定処理について説明する。 The action determination process in step S4 will be described with reference to the flowchart in FIG.
行動決定処理においては、まず、リスク値の取得が行われる(ステップS401)。すなわち、刺激値設定部52がリスク値取得部50に設定中の仮想時刻を指定してリスク値の取得を要求し、リスク値取得部50は指定された時刻に対応するリスク値を環境情報記憶部41から読み出して刺激値設定部52に出力する。
In the action determination process, first, a risk value is acquired (step S401). That is, the stimulus
次に、刺激値設定部52が、個体情報記憶部42を参照してその位置が未だ出口E1またはE2に達していない個体を特定し、特定した個体を順次処理対象に設定することによって(ステップS402)、ステップS402〜S417のループ処理を設定する。
Next, the stimulus
個体のループ処理においては、まず、周囲個体の計数が行われる(ステップS403)。すなわち、刺激値設定部52が処理対象の個体の個体IDを指定して周囲個体情報取得部51に周囲個体の情報の取得を要求し、周囲個体情報取得部51は個体情報記憶部42を参照して指定された個体の周囲個体を計数し、計数した周囲個体数を刺激値設定部52に出力する。
In the loop processing of individuals, first, surrounding individuals are counted (step S403). That is, the stimulus
次に、刺激値の更新が行われる(ステップS404)。すなわち、刺激値設定部52は、個体情報記憶部42から処理対象の個体の1時刻前の刺激値および認知閾値を読み出し、読み出した刺激値と、認知閾値と、ステップS401で取得されたリスク値と、ステップS403で取得された周囲個体数とを式(1)〜(4)に適用して刺激値を算出し、当該刺激値を個体情報記憶部42に追記する。
Next, the stimulation value is updated (step S404). That is, the stimulus
続いて、確率設定部53が、個体情報記憶部42を参照して処理対象の個体の属性値を確認する(ステップS405)。
Subsequently, the
属性値がフォロワーである場合(ステップS405にてYES)、確率設定部53は個体情報記憶部42から処理対象の個体の反応閾値と最新の刺激値を読み出し、これらを式(5)に適用して第一当選確率を算出する(ステップS406)。そして、リーダー行動決定部54は、算出した第一当選確率での抽選を行い(ステップS407)、当選した場合(ステップS408にてYES)、個体情報記憶部42における処理対象の個体の属性値をリーダーに変更し(ステップS409)、処理をステップ413に進める。当選しなかった場合(ステップS408にてNO)、処理対象の個体の属性値は変更しないことが決定されてステップS409は省略され、処理はステップS415に進められる。
When the attribute value is a follower (YES in step S405), the
他方、属性値がリーダーである場合(ステップS405にてNO)、確率設定部53が式(6)に基づく第二当選確率を設定し、フォロワー行動決定部55が設定された第二当選確率での抽選を行う(ステップS410)。当選した場合(ステップS411にてYES)、フォロワー行動決定部55が個体情報記憶部42における処理対象の個体の属性値をフォロワーに変更し(ステップS412)、処理をステップS415に進める。当選しなかった場合(ステップS411にてNO)、処理対象の個体の属性値は変更しないことが決定されてステップS412は省略され、処理はステップS413に進められる。
On the other hand, when the attribute value is a leader (NO in step S405), the
ステップS413においては、リーダー行動決定部54が、属性値をリーダーに変更することが決定された個体および属性値をリーダーから変更しないことが決定された個体の選択出口を、個体情報記憶部42に記憶されている当該個体の位置から近い方の出口に決定する。
そして、リーダー行動決定部54は、処理対象の個体の位置の8近傍グリッドのうちの選択出口に最も近い近傍グリッドへの移動量を、当該個体の移動量として算出する(ステップS414)。
In step S 413, the individual
Then, the leader
他方、ステップS415においては、フォロワー行動決定部55が、属性値をフォロワーに変更することが決定された個体および属性値をフォロワーから変更しないことが決定された個体の選択出口を周囲個体に類似させて決定する。フォロワー行動決定部55は、処理対象の個体の周囲の個体の選択出口を周囲個体情報取得部51に取得させ、そのうちの最も多数である選択出口を処理対象の個体の選択出口に決定する。なお、仮想時刻が0または0に近いときは周囲個体の多くの選択出口が未定の場合があるが、その場合は処理対象の個体の選択出口も未定となる。
そして、リーダー行動決定部54は、処理対象の個体の位置の8近傍グリッドのうちの選択出口に最も近い近傍グリッドへの移動量を、当該個体の移動量として算出する(ステップS416)。
On the other hand, in step S415, the follower
Then, the leader
続くステップS417では個体のループ処理の終了判定が行われる。刺激値設定部52は、出口に達していない個体の全てを処理し終えたか否かを確認し、処理し終えていない場合は(ステップS417にてNO)、処理をステップS402に戻して、個体のループ処理を継続する。
In the subsequent step S417, it is determined whether or not the individual loop processing is completed. The stimulus
他方、出口に達していない個体の全てを処理し終えた場合(ステップS417にてYES)、リーダー行動決定部54およびフォロワー行動決定部55が個体情報記憶部42に記憶されている各個体の行動パラメータを更新する(ステップS418)。すなわちリーダー行動決定部54はステップS413で決定した選択出口およびステップS414で決定した移動量を個体情報記憶部42に記憶させ、フォロワー行動決定部55はステップS415で決定した選択出口およびステップS416で決定した移動量を個体情報記憶部42に記憶させる。
On the other hand, when all of the individuals that have not reached the exit have been processed (YES in step S417), the behavior of each individual stored in the individual
行動パラメータが更新されると行動決定処理は終了して、処理は図9のステップS5に進められ、個体情報更新部56がステップS4で更新された各個体の移動量を用いて当該個体の位置を更新する。
When the behavior parameter is updated, the behavior determination process ends, the process proceeds to step S5 in FIG. 9, and the individual
続くステップS6では予測結果の出力が行われる。予測結果出力部57は、環境情報記憶部41を参照して部屋Rの地図を描画し、個体情報記憶部42を参照して各個体の最新の位置を地図に重畳して描画し、描画結果の画像を中間予測結果として表示部6に表示させる。
In the subsequent step S6, the prediction result is output. The prediction
続いて仮想時刻のループ処理の終了判定が行われる。刺激値設定部52は、仮想時刻を1だけ増加させるとともに(ステップS7)、個体情報記憶部42を参照して全個体が出口に到達したか否かを確認する(ステップS8)。さらに、出口に到達していない個体がある場合(ステップS8にてNO)、刺激値設定部52は、増加させた仮想時刻が上限仮想時刻以上であるか否かを確認する(ステップS9)。
出口に到達していない個体があり且つ仮想時刻が上限仮想時刻未満である場合(ステップS9にてNO)、刺激値設定部52は、処理をステップS4に戻し、仮想時刻のループ処理を継続する。
Subsequently, the end determination of the loop processing of the virtual time is performed. The stimulus
When there is an individual that has not reached the exit and the virtual time is less than the upper limit virtual time (NO in step S9), the stimulus
他方、全個体が出口に到達した場合(ステップS8にてYES)、または仮想時刻が上限仮想時刻以上である場合は(ステップS9にてYES)、試行回数のループ処理の終了判定が行われる。刺激値設定部52は、試行回数を1だけ増加させ(ステップS10)、増加させた試行回数が試行予定回数を超えたか否かを確認する(ステップS11)。増加させた試行回数が試行予定回数以下の場合(ステップS11にてNO)、刺激値設定部52は、処理をステップS3に戻して試行回数のループ処理を継続する。
On the other hand, if all individuals have reached the exit (YES in step S8), or if the virtual time is equal to or greater than the upper limit virtual time (YES in step S9), the end determination of the loop processing of the number of trials is performed. The stimulus
増加させた試行回数が試行予定回数を超えた場合(ステップS11にてYES)、シミュレーションは終了となり、予測結果の出力が行われる。
予測結果出力部57は、個体情報記憶部42を参照して指標値Eqの頻度を集計し、頻度グラフを描画し、描画したグラフ画像を予測結果として表示部6に表示させる。また、予測結果出力部57は個体情報記憶部42の全データと環境情報記憶部41の全データとをファイルに書き出し、当該ファイルを予測結果のもうひとつとしてファイル入出力部3から出力する。
If the increased number of trials exceeds the planned number of trials (YES in step S11), the simulation is terminated and a prediction result is output.
Prediction
[第二の実施形態]
第一の実施形態においては、個体情報記憶部42、周囲個体情報取得部51、刺激値設定部52、確率設定部53、リーダー行動決定部54、フォロワー行動決定部55、個体情報更新部56が複数の個体についての処理を行う例を示した。第二の実施形態におけるシミュレーター1bは、これらに代えて、それぞれが1つの個体についての処理を行う個体情報記憶部42b−i、周囲個体情報取得部51b−i、刺激値設定部52b−i、確率設定部53b−i、リーダー行動決定部54b−i、フォロワー行動決定部55b−i、個体情報更新部56b−iで構成される行動決定装置70b−iを個体の数Nだけ備える。ただし、i=0,1,2,…,N−1である。
すなわち、シミュレーター1bに含まれる行動決定装置70b−i(ただし、i=0,1,2,…,N−1)のそれぞれは、記憶部4が並列に或いは時分割なメモリ領域として機能し、制御部5が並列に或いは時分割に動作するプロセスを実行することによって実現される。
[Second Embodiment]
In the first embodiment, the individual
That is, each of the action determination devices 70b-i (where i = 0, 1, 2,..., N−1) included in the simulator 1b functions as a memory area in which the
すなわち、行動決定装置70b−iのそれぞれは、所定の目的を達成することが可能な所定の空間において群集を構成する個体のひとつである自個体の行動を決定する行動決定装置であって、自個体について、少なくとも、リーダーであるかフォロワーであるかの別を表す属性値、空間における位置を含む状態値、および状態値に作用する行動パラメータを記憶する個体情報記憶部42b−iと、行動の契機となる刺激の程度を表す刺激値を設定する刺激値設定部52b−iと、属性値がフォロワーである場合に刺激値に基づく第一当選確率を設定し、属性値がリーダーである場合に所定の第二当選確率を設定する確率設定部53b−iと、第一当選確率が設定された場合に属性値を当該確率にてリーダーに変更するとともに、属性値がリーダーである場合に行動パラメータに状態値を目的の達成に近づける値を設定するリーダー行動決定部54b−iと、個体のうちの、個体の位置から所定距離以下に存在する周囲個体の行動を取得する周囲個体情報取得部51b−iと、第二当選確率が設定された場合に属性値を当該確率にてフォロワーに変更するとともに、属性値がフォロワーである場合に周囲個体の行動に類似する行動パラメータを設定するフォロワー行動決定部55b−iと、を備える。 That is, each of the behavior determination devices 70b-i is a behavior determination device that determines the behavior of the individual that is one of the individuals that constitute the crowd in a predetermined space that can achieve a predetermined purpose. An individual information storage unit 42b-i that stores at least an attribute value that indicates whether the individual is a leader or a follower, a state value that includes a position in space, and a behavior parameter that affects the state value; When a stimulus value setting unit 52b-i that sets a stimulus value that represents the degree of stimulus as an opportunity, and when the attribute value is a follower, a first winning probability based on the stimulus value is set, and when the attribute value is a leader Probability setting unit 53b-i for setting a predetermined second winning probability, and when the first winning probability is set, the attribute value is changed to the leader with the probability, and the attribute value is In the case of-, the leader action determination unit 54b-i that sets a value that brings the state value close to the achievement of the goal in the action parameter, and obtains the actions of surrounding individuals that are within a predetermined distance from the position of the individual among the individuals When the second winning probability is set, the surrounding individual information acquisition unit 51b-i that changes the attribute value to the follower with the probability, and the behavior similar to the behavior of the surrounding individual when the attribute value is the follower And a follower action determination unit 55b-i for setting parameters.
[第一の実施形態および第二の実施形態の変形例]
上記各実施形態においては、環境情報記憶部41が空間の二次元地図を記憶する例を示したが三次元地図としてもよい。その場合、個体情報記憶部42および42−iのそれぞれが記憶する状態値、行動パラメータも三次元の情報となる。
[Modifications of First Embodiment and Second Embodiment]
In each said embodiment, although the environment
上記各実施形態およびその変形例においては、シミュレーションの条件の一部をリアルタイムの対象空間の状況に応じた値とすることができる。例えば、各個体の位置として実際の人の位置を設定したシミュレーションによって近未来の状況を予測すれば、群集の誘導を適確に行うことが可能となる。 In each of the above-described embodiments and the modifications thereof, a part of the simulation condition can be set to a value according to the state of the target space in real time. For example, if a near-future situation is predicted by a simulation in which the position of an actual person is set as the position of each individual, the crowd can be guided accurately.
上記各実施形態およびその変形例においては、リスク値取得部50は、環境情報記憶部41からリスク値を読み出す例を示したが、別の実施形態においてリスク値取得部50は、炎センサ、煙センサなどの災害に関する実空間の物理量を計測する災害センサおよび災害センサからの信号をプログラムに従って処理する制御部5の機能によって構成されてもよい。この場合、リスク値取得部50は、災害の発生有無や災害の程度を表す信号を所定規則に従ってリスク値に定量化する。
In each of the above embodiments and the modifications thereof, the risk
上記各実施形態およびその変形例においては、個体情報更新部56および56b−iのそれぞれが個体の大きさを考慮せず重なりを排除せずに個体の位置を更新する例を示したが、これらの物理的な制約を考慮して個体の位置を更新してもよい。その場合、例えば、個体情報更新部56および56b−iのそれぞれが、リーダー行動決定部54および54b−iのそれぞれやフォロワー行動決定部55および55b−iのそれぞれが決定した移動量を、仮想空間内で個体同士が重ならない位置への移動量に調整して更新を行う。または、例えば、個体情報更新部56および56b−iのそれぞれが、リーダー行動決定部54および54b−iのそれぞれやフォロワー行動決定部55および55b−iのそれぞれが決定した選択エリアに個体を近づける移動量であって、仮想空間内で個体同士が重ならない位置への移動量を算出して更新を行う。
In each of the above-described embodiments and the modifications thereof, the individual
[第三の実施形態]
第三の実施形態に係る自律走行ロボット8は、本発明の行動決定装置の一例である行動決定装置70cを備え、群集を構成するひとつの個体を模擬する。
[Third embodiment]
The autonomous
自律走行ロボット8は、第一の実施形態の操作入力部2、ファイル入出力部3、制御部5、表示部6と同様の操作入力部2c、ファイル入出力部3c、制御部5c、表示部6cを備え、さらに、炎センサや煙センサなどの災害センサ、カメラ等の周囲個体センサ、実時刻を計時する計時部、および、モータと車輪と測位手段と障害物センサ等からなる移動制御部を備える。災害センサ、周囲個体センサ、計時部および移動制御部のそれぞれは制御部5cに接続される。操作入力部2cおよび表示部6cは着脱可能であることが望ましい。
The autonomous
自律走行ロボット8は、第一の実施形態の条件設定部20、反復条件記憶部40、環境情報記憶部41、個体情報記憶部42、リスク値取得部50、周囲個体情報取得部51、刺激値設定部52、確率設定部53、リーダー行動決定部54、フォロワー行動決定部55、個体情報更新部56、予測結果出力部57のそれぞれに対応して、それぞれがひとつの個体についての処理を行う条件設定部20c、反復条件記憶部40c、環境情報記憶部41c、個体情報記憶部42c、リスク値取得部50c、周囲個体情報取得部51c、刺激値設定部52c、確率設定部53c、リーダー行動決定部54c、フォロワー行動決定部55c、個体情報更新部56c、予測結果出力部57cを備える。
The autonomous
ただし、リスク値取得部50cは災害センサが出力する信号を所定規則に従って定量化することでリスク値を取得する。
また、周囲個体情報取得部51cは周囲個体センサが出力する画像を解析して自律走行ロボット8の周囲に存在する自律走行ロボット8と同型のロボットおよび人を周囲個体として検出し、検出した周囲個体の数および行動を認識することで周囲個体の数および行動を取得する。
また、第一の実施形態における仮想時刻に代えて実時刻が用いられ、刺激値設定部52cは、計時部が出力する実時刻を参照してシミュレーションの時刻を制御する。試行回数は操作入力部2cによる利用者からの指示ごとに進め、刺激値設定部52cは操作入力部2cからの指示の信号を参照して試行回数を制御する。
また、個体情報更新部56cは、行動パラメータのうちの移動量が示す方向に当該移動量が示す距離を上限としてモータを回転させ、モータと接続された車輪を駆動して自律走行ロボット8を移動させる。また、個体情報更新部56cは、自律走行ロボット8の周囲の障害物を検出する障害物センサからの信号を解析して障害物までの距離と方向を検出し、障害物と自律走行ロボット8との距離が所定距離未満とならないようモータの回転を抑制する。また、個体情報更新部56cは、ビーコンシステムやGPSシステムとの通信を行う通信インターフェースを含む測位手段が出力する信号を解析して自律走行ロボット8の位置を検出し、検出した位置で状態値を更新する。
However, the risk value acquisition unit 50c acquires the risk value by quantifying the signal output from the disaster sensor according to a predetermined rule.
The surrounding individual information acquisition unit 51c analyzes the image output by the surrounding individual sensor, detects a robot and a person of the same type as the
The real time is used instead of the virtual time in the first embodiment, and the stimulus value setting unit 52c controls the simulation time with reference to the real time output by the time measuring unit. The number of trials is advanced for each instruction from the user through the operation input unit 2c, and the stimulus value setting unit 52c controls the number of trials with reference to the instruction signal from the operation input unit 2c.
Further, the individual information update unit 56c rotates the motor in the direction indicated by the movement amount in the behavior parameter with the distance indicated by the movement amount as an upper limit, and drives the wheels connected to the motor to move the autonomous
これらのうちの個体情報記憶部42c、周囲個体情報取得部51c、刺激値設定部52c、確率設定部53c、リーダー行動決定部54c、フォロワー行動決定部55c、個体情報更新部56cが、行動決定装置70cに含まれる。 Among these, the individual information storage unit 42c, the surrounding individual information acquisition unit 51c, the stimulus value setting unit 52c, the probability setting unit 53c, the leader behavior determining unit 54c, the follower behavior determining unit 55c, and the individual information updating unit 56c are the behavior determining device. 70c.
すなわち、行動決定装置70cは、所定の目的を達成することが可能な所定の空間において群集を構成する個体のひとつである自個体の行動を決定する行動決定装置であって、自個体について、少なくとも、リーダーであるかフォロワーであるかの別を表す属性値、空間における位置を含む状態値、および状態値に作用する行動パラメータを記憶する個体情報記憶部と42c、行動の契機となる刺激の程度を表す刺激値を設定する刺激値設定部52cと、属性値がフォロワーである場合に刺激値に基づく第一当選確率を設定し、属性値がリーダーである場合に所定の第二当選確率を設定する確率設定部53cと、第一当選確率が設定された場合に属性値を当該確率にてリーダーに変更するとともに、属性値がリーダーである場合に行動パラメータに状態値を目的の達成に近づける値を設定するリーダー行動決定部54cと、個体のうちの、自個体の位置から所定距離以下に存在する周囲個体の行動を取得する周囲個体情報取得部51cと、第二当選確率が設定された場合に属性値を当該確率にてフォロワーに変更するとともに、属性値がフォロワーである場合に周囲個体の行動に類似する行動パラメータを設定するフォロワー行動決定部55cと、を備える。 That is, the behavior determination device 70c is a behavior determination device that determines the behavior of the individual that is one of the individuals constituting the crowd in a predetermined space in which a predetermined purpose can be achieved. , An individual value storage unit 42c that stores an attribute value that indicates whether it is a leader or a follower, a state value that includes a position in space, and a behavior parameter that affects the state value, and the degree of stimulation that triggers the behavior A stimulus value setting unit 52c for setting a stimulus value representing the value, a first winning probability based on the stimulus value when the attribute value is a follower, and a predetermined second winning probability when the attribute value is a leader If the first winning probability is set, the attribute value is changed to the leader with the probability, and the action parameter is set when the attribute value is the leader. A behavior determination unit 54c that sets a value that brings the state value close to the achievement of the target, and a surrounding individual information acquisition unit 51c that acquires the behavior of surrounding individuals within a predetermined distance from the position of the individual among the individuals When the second winning probability is set, the attribute value is changed to a follower with the probability, and when the attribute value is a follower, a follower action determination unit 55c that sets action parameters similar to the actions of surrounding individuals And comprising.
[上記各実施形態に共通する変形例]
上記各実施形態およびその変形例においては、対象空間として部屋を例示したが、対象空間は、コンサートホール、駅などであってもよいし、屋内に限らず商店街、公園、街などの屋外の空間であってもよいし、イベント会場、学校などの屋内と屋外を横断した空間であってもよい。
[Modifications common to the above embodiments]
In each of the above-described embodiments and modifications thereof, a room is exemplified as the target space. However, the target space may be a concert hall, a station, or the like, and is not limited to being indoors. It may be a space, or a space that crosses indoors and outdoors, such as an event venue or a school.
上記各実施形態およびその変形例においては、事象として火災を例示したが、地震、不審者の出現などといった他の災害、イベント会場等における病人の発生、著名人の出現、群集に対する呼びかけや質問提示などといった災害以外の事象にも適用できる。 In each of the above embodiments and modifications thereof, fire is exemplified as an event, but other disasters such as earthquakes and the appearance of suspicious persons, the occurrence of sick people at event venues, the appearance of celebrities, the appeal to the crowd and the presentation of questions It can also be applied to events other than disasters.
上記各実施形態およびその変形例においては、行動の目的として避難を例示したが、病人の発生に対する救護行動や野次馬行動、著名人の出現に対する野次馬行動、呼びかけや質問提示に対する応答など、事象に対応した目的を適宜設定できる。 In each of the above embodiments and modifications thereof, evacuation was exemplified as the purpose of the action, but it corresponds to an event such as a rescue action for a sick person or a field horse action, a field horse action for the appearance of a celebrity, a response to a call or a question presentation The purpose can be set as appropriate.
上記各実施形態およびその変形例においては、行動の手段として移動を例示したが、地震に対する避難の手段としてのかがみ姿勢への移行(着席中の机の下へ避難)、呼びかけや質問提示に対する応答の手段としての挙手や発声など、事象と目的に応じた移動を伴わない手段を適宜設定することもできる。なお、手段の選択肢として出口への移動とかがみ姿勢への移行を設定し、いずれかをランダムに選択するようにしてもよい。
なお、上記実施形態およびその変形例においては、行動の手段を2つとしたが、1つ以上であれば2つ以外でも良い。
In each of the above-described embodiments and modifications thereof, movement is exemplified as a means of action, but a transition to a leaning posture (evacuation under a seated desk) as an evacuation means against an earthquake, a response to a call or a question presentation It is also possible to appropriately set means that does not involve movement according to the event and purpose, such as raising a hand and utterance as means. It should be noted that movement to the exit and transition to the bending posture may be set as options of means, and either of them may be selected at random.
In addition, in the said embodiment and its modification, although the means of action was two, if it is one or more, you may be other than two.
上記各実施形態およびその変形例においては、人の群集を例示したが、魚、鳥、蟻などの他の社会性生物の群集にも適用できる。なお、個体が人以外である場合は、対象空間や事象を個体の種類に応じて適宜設定することができる。 In each of the above-described embodiments and modifications thereof, a human crowd has been exemplified, but the present invention can also be applied to other social creatures such as fish, birds and ants. When the individual is other than a person, the target space and the event can be appropriately set according to the type of the individual.
以上で説明した、シミュレーター1、シミュレーター1bおよびシミュレーター1bに含まれる行動決定装置70b−i、自律移動ロボット8および自律移動ロボット8に含まれる行動決定装置70cによれば、同一の設定を行ってもリーダーとフォロワーが確率的に変更され、同一の設定を行っても異なる予測結果が生成できる。そのため、これらのそれぞれによって群集におけるパニック行動等の特定行動を未知の条件下において予測でき、それぞれによって得られる予測結果を用いれば群集において特定行動が生じた条件の究明を容易化できる。
According to the
1・・・シミュレーター
2・・・操作入力部
20・・・条件設定部
3・・・ファイル入出力部
4・・・記憶部
40・・・反復条件記憶部
41・・・環境情報記憶部
42・・・個体情報記憶部
5・・・制御部
50・・・リスク値取得部
51・・・周囲個体情報取得部
52・・・刺激値設定部
53・・・確率設定部
54・・・リーダー行動決定部
55・・・フォロワー行動決定部
56・・・個体情報更新部
57・・・予測結果出力部
6・・・表示部
DESCRIPTION OF
Claims (7)
前記群集を構成する複数の個体のそれぞれについて、少なくとも、リーダーかフォロワーかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶する個体情報記憶部と、
前記行動の契機となる刺激の程度を表す刺激値を順次設定する刺激値設定部と、
前記刺激値が設定されるたびに、前記個体のうちの、前記属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである個体に所定の第二当選確率を設定する確率設定部と、
前記第一当選確率が設定された個体の前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである個体の前記行動パラメータに当該個体の前記状態値を前記目的の達成に近づける値を設定するリーダー行動決定部と、
前記個体ごとに当該個体からの前記位置が所定距離以内である周囲個体を抽出する周囲個体情報取得部と、
前記第二当選確率が設定された個体の前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである個体の前記行動パラメータに当該個体の前記周囲個体の前記行動パラメータに類似した値を設定するフォロワー行動決定部と、
前記各個体の前記状態値を当該個体の前記行動パラメータにて更新する個体情報更新部と、
を備えたことを特徴とするシミュレーター。 A simulator for predicting crowd behavior in a predetermined space capable of achieving a predetermined purpose,
For each of a plurality of individuals constituting the crowd, an individual information storage unit that stores at least an attribute value that indicates whether it is a leader or a follower, a state value that includes a position in the space, and a behavior parameter that affects the state value When,
A stimulation value setting unit for sequentially setting stimulation values representing the degree of stimulation that triggers the action;
Each time the stimulus value is set, a first winning probability based on the stimulus value is set for an individual whose attribute value is a follower among the individuals, and a predetermined first value is set for an individual whose attribute value is a leader. A probability setting section for setting a double winning probability;
The attribute value of the individual set with the first winning probability is changed to the leader with the probability, and the state value of the individual is achieved in the behavior parameter of the individual whose attribute value is the leader. A leader action determination unit that sets a value to approach,
A surrounding individual information acquisition unit that extracts a surrounding individual whose position from the individual is within a predetermined distance for each individual;
The attribute value of the individual set with the second winning probability is changed to the follower with the probability, and the behavior parameter of the individual whose attribute value is the follower is similar to the behavior parameter of the surrounding individual of the individual A follower action determination unit for setting
An individual information update unit for updating the state value of each individual with the behavior parameter of the individual;
A simulator characterized by having.
前記確率設定部は、前記個体ごとに前記刺激値が高いほど高く且つ前記反応閾値が低いほど高い前記第一当選確率を設定する、
請求項1に記載のシミュレーター。 The individual information storage unit further stores a reaction threshold value of each individual,
The probability setting unit sets the first winning probability higher as the stimulus value is higher for each individual and higher as the reaction threshold is lower,
The simulator according to claim 1.
前記個体情報記憶部は、前記個体のそれぞれが認知する前記リスクの大きさを表す認知閾値をさらに記憶し、
前記刺激値設定部は、前記個体ごとに設定した前記刺激値を前記個体情報記憶部に記憶させ、前記個体ごとに前記リスク値と当該個体の前記認知閾値との差が大きな個体ほど前記個体情報記憶部に記憶させた値から大きく増加させて前記刺激値を設定する、
請求項3に記載のシミュレーター。 A risk value acquisition unit for sequentially acquiring risk values representing the magnitude of the risk occurring in the space,
The individual information storage unit further stores a recognition threshold value representing the magnitude of the risk recognized by each of the individuals,
The stimulus value setting unit stores the stimulus value set for each individual in the individual information storage unit, and for each individual, the individual information has a larger difference between the risk value and the recognition threshold of the individual. Setting the stimulation value by greatly increasing the value stored in the storage unit;
The simulator according to claim 3.
コンピュータに、
前記群集を構成する複数の個体のそれぞれについて、少なくとも、リーダーかフォロワーかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶させ、
前記行動の契機となる刺激の程度を表す刺激値を順次設定する処理と、
前記刺激値が設定されるたびに、前記個体のうちの、前記属性値がフォロワーである個体に当該刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである個体に所定の第二当選確率を設定する処理と、
前記第一当選確率が設定された個体の前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである個体の前記行動パラメータに当該個体の前記状態値を前記目的の達成に近づける値を設定する処理と、
前記個体ごとに当該個体からの前記位置が所定距離以内である周囲個体を抽出する処理と、
前記第二当選確率が設定された個体の前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである個体の前記行動パラメータに当該個体の前記周囲個体の前記行動パラメータに類似した値を設定するフォロワー行動決定部と、
前記各個体の前記状態値を当該個体の前記行動パラメータにて更新する個体情報更新部と、
を実行させることを特徴とするシミュレーション方法。 A simulation method for predicting crowd behavior in a predetermined space capable of achieving a predetermined purpose,
On the computer,
For each of a plurality of individuals constituting the crowd, at least an attribute value indicating whether it is a leader or a follower, a state value including a position in the space, and a behavior parameter that acts on the state value are stored.
A process of sequentially setting stimulation values representing the degree of stimulation that triggers the action;
Each time the stimulus value is set, a first winning probability based on the stimulus value is set for an individual whose attribute value is a follower among the individuals, and a predetermined first value is set for an individual whose attribute value is a leader. A process of setting the double win probability,
The attribute value of the individual set with the first winning probability is changed to the leader with the probability, and the state value of the individual is achieved in the behavior parameter of the individual whose attribute value is the leader. Processing to set the value to approach,
For each individual, a process of extracting surrounding individuals whose position from the individual is within a predetermined distance;
The attribute value of the individual set with the second winning probability is changed to the follower with the probability, and the behavior parameter of the individual whose attribute value is the follower is similar to the behavior parameter of the surrounding individual of the individual A follower action determination unit for setting
An individual information update unit for updating the state value of each individual with the behavior parameter of the individual;
A simulation method characterized by executing
前記自個体について、少なくとも、リーダーであるかフォロワーであるかの別を表す属性値、前記空間における位置を含む状態値、および前記状態値に作用する行動パラメータを記憶する個体情報記憶部と、
前記行動の契機となる刺激の程度を表す刺激値を設定する刺激値設定部と、
前記属性値がフォロワーである場合に前記刺激値に基づく第一当選確率を設定し、前記属性値がリーダーである場合に所定の第二当選確率を設定する確率設定部と、
前記第一当選確率が設定された場合に前記属性値を当該確率にてリーダーに変更するとともに、前記属性値がリーダーである場合に前記行動パラメータに前記状態値を前記目的の達成に近づける値を設定するリーダー行動決定部と、
前記個体のうちの、前記自個体の前記位置から所定距離以下に存在する周囲個体の行動を取得する周囲個体情報取得部と、
前記第二当選確率が設定された場合に前記属性値を当該確率にてフォロワーに変更するとともに、前記属性値がフォロワーである場合に前記周囲個体の行動に類似する前記行動パラメータを設定するフォロワー行動決定部と、
を備えたことを特徴とする行動決定装置。
A behavior determination device that determines the behavior of an individual that is one of individuals constituting a crowd in a predetermined space capable of achieving a predetermined purpose,
About the own individual, at least an attribute value that indicates whether it is a leader or a follower, a state value that includes a position in the space, and an individual information storage unit that stores behavior parameters that affect the state value;
A stimulus value setting unit that sets a stimulus value that represents the degree of stimulus that triggers the action;
A probability setting unit that sets a first winning probability based on the stimulus value when the attribute value is a follower, and sets a predetermined second winning probability when the attribute value is a leader;
When the first winning probability is set, the attribute value is changed to a leader with the probability, and when the attribute value is a leader, the behavior parameter is set to a value that brings the state value closer to the achievement of the purpose. A leader action determination unit to be set,
Among the individuals, a surrounding individual information acquisition unit that acquires the behavior of surrounding individuals existing within a predetermined distance from the position of the individual,
When the second winning probability is set, the attribute value is changed to a follower with the probability, and when the attribute value is a follower, a follower action that sets the action parameter similar to the action of the surrounding individual A decision unit;
An action determination device comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018070447A JP6679645B2 (en) | 2018-03-31 | 2018-03-31 | Simulator, simulation method and action determination device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018070447A JP6679645B2 (en) | 2018-03-31 | 2018-03-31 | Simulator, simulation method and action determination device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019185074A true JP2019185074A (en) | 2019-10-24 |
| JP6679645B2 JP6679645B2 (en) | 2020-04-15 |
Family
ID=68341147
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018070447A Active JP6679645B2 (en) | 2018-03-31 | 2018-03-31 | Simulator, simulation method and action determination device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6679645B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111639809A (en) * | 2020-05-29 | 2020-09-08 | 华中科技大学 | Multi-agent evacuation simulation method and system based on leader and panic |
| JP2021140491A (en) * | 2020-03-05 | 2021-09-16 | セコム株式会社 | Simulator, simulation method and simulation program |
| JP2022117040A (en) * | 2021-01-29 | 2022-08-10 | セコム株式会社 | Simulator, simulation method, and simulation program |
| JP2023114357A (en) * | 2022-02-04 | 2023-08-17 | 株式会社東芝 | Evacuation behavior prediction device, method and program |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003346071A (en) * | 2002-05-29 | 2003-12-05 | Advanced Telecommunication Research Institute International | Behavior simulation apparatus, behavior simulation method, behavior simulation program, and recording medium recording the program |
| JP2006174930A (en) * | 2004-12-21 | 2006-07-06 | Koei:Kk | Character group movement control program, storage medium, and game device |
| US20090306946A1 (en) * | 2008-04-08 | 2009-12-10 | Norman I Badler | Methods and systems for simulation and representation of agents in a high-density autonomous crowd |
-
2018
- 2018-03-31 JP JP2018070447A patent/JP6679645B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003346071A (en) * | 2002-05-29 | 2003-12-05 | Advanced Telecommunication Research Institute International | Behavior simulation apparatus, behavior simulation method, behavior simulation program, and recording medium recording the program |
| JP2006174930A (en) * | 2004-12-21 | 2006-07-06 | Koei:Kk | Character group movement control program, storage medium, and game device |
| US20090306946A1 (en) * | 2008-04-08 | 2009-12-10 | Norman I Badler | Methods and systems for simulation and representation of agents in a high-density autonomous crowd |
Non-Patent Citations (1)
| Title |
|---|
| 上田 遼: "津波災害時の行動特性に着目した安全避難の共創", 第79回(平成29年)全国大会講演論文集(4), JPN6020009971, 16 March 2017 (2017-03-16), pages 499 - 500, ISSN: 0004234819 * |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021140491A (en) * | 2020-03-05 | 2021-09-16 | セコム株式会社 | Simulator, simulation method and simulation program |
| JP7441080B2 (en) | 2020-03-05 | 2024-02-29 | セコム株式会社 | Simulator, simulation method and simulation program |
| CN111639809A (en) * | 2020-05-29 | 2020-09-08 | 华中科技大学 | Multi-agent evacuation simulation method and system based on leader and panic |
| CN111639809B (en) * | 2020-05-29 | 2023-07-07 | 华中科技大学 | Multi-agent evacuation simulation method and system based on leaders and panic emotion |
| JP2022117040A (en) * | 2021-01-29 | 2022-08-10 | セコム株式会社 | Simulator, simulation method, and simulation program |
| JP7606875B2 (en) | 2021-01-29 | 2024-12-26 | セコム株式会社 | Simulator, simulation method and simulation program |
| JP2023114357A (en) * | 2022-02-04 | 2023-08-17 | 株式会社東芝 | Evacuation behavior prediction device, method and program |
| JP7700063B2 (en) | 2022-02-04 | 2025-06-30 | 株式会社東芝 | Evacuation behavior prediction device, method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6679645B2 (en) | 2020-04-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6679645B2 (en) | Simulator, simulation method and action determination device | |
| CN107577045B (en) | The method, apparatus and storage medium of predicting tracing for head-mounted display | |
| JP7711002B2 (en) | Fast Hand Meshing for Dynamic Occlusion | |
| Scherbaum et al. | Process dynamics in delay discounting decisions: An attractor dynamics approach | |
| CN109800636A (en) | Self-guide method, apparatus, equipment and storage medium based on bio-identification | |
| US12190579B2 (en) | Image processing apparatus, image processing method, and program | |
| CN108629121B (en) | Virtual reality crowd simulation method and system based on terrorist valley effect avoidance | |
| CN109765991A (en) | Social interaction system is used to help system and non-transitory computer-readable storage media that user carries out social interaction | |
| CN112138394B (en) | Image processing method, image processing device, electronic equipment and computer readable storage medium | |
| Gehrke et al. | The invisible maze task (IMT): Interactive exploration of sparse virtual environments to investigate action-driven formation of spatial representations | |
| CN108376198B (en) | Crowd simulation method and system based on virtual reality | |
| JP2021033359A (en) | Emotion estimation device, emotion estimation method, program, information presentation device, information presentation method and emotion estimation system | |
| JP7074580B2 (en) | Simulator, simulation method and simulation program | |
| JP2021047625A (en) | Evacuation guidance device, and evacuation guidance model learning device | |
| JP2020149234A (en) | Estimator, estimation method, computer program, learning model, and method of generating learning model | |
| KR20220058941A (en) | direction assistance system | |
| JP6679644B2 (en) | Simulator, simulation method and action determination device | |
| JP7060460B2 (en) | Simulator, simulation method and simulation program | |
| JP7293057B2 (en) | Radiation dose distribution display system and radiation dose distribution display method | |
| Sakellariou et al. | Crowd formal modelling and simulation: The Sa'yee ritual | |
| CN118897623A (en) | A three-dimensional real-scene sand table two-way intelligent interactive system and method | |
| JP2017090796A (en) | How to create a map | |
| RU152572U1 (en) | TRAINING ROBOT ASSISTANT | |
| JP2010136113A (en) | Device, method and program for adjusting imaging parameter, and recording medium | |
| JP5567725B2 (en) | Group behavior estimation device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190423 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200309 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200317 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200318 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6679645 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |