[go: up one dir, main page]

JP2019003605A - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP2019003605A
JP2019003605A JP2018021147A JP2018021147A JP2019003605A JP 2019003605 A JP2019003605 A JP 2019003605A JP 2018021147 A JP2018021147 A JP 2018021147A JP 2018021147 A JP2018021147 A JP 2018021147A JP 2019003605 A JP2019003605 A JP 2019003605A
Authority
JP
Japan
Prior art keywords
moving body
information
behavior
processing apparatus
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018021147A
Other languages
Japanese (ja)
Inventor
令子 羽川
Reiko Hagawa
令子 羽川
育規 石井
Yasunori Ishii
育規 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to US15/957,254 priority Critical patent/US20180362047A1/en
Priority to EP18171812.3A priority patent/EP3419002A1/en
Priority to CN201810599768.3A priority patent/CN109147387A/en
Publication of JP2019003605A publication Critical patent/JP2019003605A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】周辺の移動体による危険の予測をより正確に行うことができる情報処理装置を提供する。【解決手段】情報処理装置10は、第1の移動体100の周辺のセンシングにより得られるセンシング情報を取得する取得部20と、センシング情報を用いて、第1の移動体100の周辺に存在し、特定の状態にある物体120を検出する物体検出部31と、センシング情報を用いて、第1の移動体100の周辺に存在し、検出された物体120により進路に影響を受ける第2の移動体110を検出する移動体検出部32と、検出された第2の移動体110の挙動を特定の状態に基づいて推定する挙動推定部40と、推定された挙動に基づいて、第1の移動体100の移動制御に利用される情報および第1の移動体100の周辺に存在する移動体へ提供される情報の少なくとも1つの出力情報を生成する生成部50と、前記少なくとも1つの出力情報を出力する出力部60と、を備える。【選択図】図1PROBLEM TO BE SOLVED: To provide an information processing device capable of more accurately predicting danger due to a moving body in the vicinity. An information processing device 10 exists in the vicinity of a first moving body 100 by using an acquisition unit 20 that acquires sensing information obtained by sensing around the first moving body 100 and the sensing information. A second movement that exists around the first moving body 100 and is affected by the detected object 120 by using the object detection unit 31 that detects the object 120 in a specific state and the sensing information. A moving body detection unit 32 that detects the body 110, a behavior estimation unit 40 that estimates the behavior of the detected second moving body 110 based on a specific state, and a first movement based on the estimated behavior. The generation unit 50 that generates at least one output information of the information used for the movement control of the body 100 and the information provided to the moving body existing around the first moving body 100, and the at least one output information. An output unit 60 for outputting is provided. [Selection diagram] Fig. 1

Description

本開示は、車両等の移動体に搭載される情報処理装置およびプログラムに関する。   The present disclosure relates to an information processing apparatus and a program mounted on a moving body such as a vehicle.

従来、自車両の前方を走行する第1の車両と、さらにその前方を走行する第2の車両との位置関係に基づいて、第1の車両の予測進路を推定する装置が開示されている(例えば特許文献1)。例えば、第1の車両と第2の車両との位置関係が近い場合に、第2の車両の左右にスペースがあるときには、第1の車両の予測進路は第2の車両の右側または左側を走行する進路になると推定できる。   Conventionally, an apparatus for estimating a predicted course of a first vehicle based on a positional relationship between a first vehicle traveling in front of the host vehicle and a second vehicle traveling further ahead is disclosed ( For example, Patent Document 1). For example, when the positional relationship between the first vehicle and the second vehicle is close, and there is a space on the left and right of the second vehicle, the predicted course of the first vehicle travels on the right or left side of the second vehicle. It can be estimated that it will be a course.

国際公開第2008/056806号International Publication No. 2008/056806

しかしながら、上記特許文献1では、例えば第1の車両が第2の車両の右側および左側のどちらに移動するか等、より正確な推定をするのは難しい。したがって、第1の車両の挙動に基づいて自車両への危険予測を行う場合には、正確に危険予測を行うことが難しい。   However, in Patent Document 1, it is difficult to accurately estimate, for example, whether the first vehicle moves to the right side or the left side of the second vehicle. Therefore, when the risk prediction for the host vehicle is performed based on the behavior of the first vehicle, it is difficult to accurately perform the risk prediction.

そこで、本開示は、上記課題を解決するためになされたものであり、周辺の移動体による危険の予測をより正確に行うことができる情報処理装置およびプログラムを提供することを目的とする。   Therefore, the present disclosure has been made in order to solve the above-described problem, and an object thereof is to provide an information processing apparatus and a program that can more accurately predict a danger by a surrounding moving body.

本開示の一態様に係る情報処理装置は、第1の移動体に搭載される情報処理装置であって、前記第1の移動体の周辺のセンシングにより得られるセンシング情報を取得する取得部と、前記センシング情報を用いて、前記第1の移動体の周辺に存在し、特定の状態にある物体を検出する物体検出部と、前記センシング情報を用いて、前記第1の移動体の周辺に存在し、検出された前記物体により進路に影響を受ける第2の移動体を検出する移動体検出部と、検出された前記第2の移動体の挙動を前記特定の状態に基づいて推定する挙動推定部と、推定された前記挙動に基づいて、前記第1の移動体の移動制御に利用される情報および前記第1の移動体の周辺に存在する移動体へ提供される情報の少なくとも1つの出力情報を生成する生成部と、前記少なくとも1つの出力情報を出力する出力部と、を備える。   An information processing apparatus according to an aspect of the present disclosure is an information processing apparatus mounted on a first moving body, and obtains sensing information obtained by sensing around the first moving body; An object detection unit that detects an object that exists in the vicinity of the first moving body using the sensing information, and that exists in the vicinity of the first moving body using the sensing information. And a moving body detecting unit that detects a second moving body that is influenced by a path of the detected object, and a behavior estimation that estimates the detected behavior of the second moving body based on the specific state. And at least one output of information used for movement control of the first moving body and information provided to the moving body existing around the first moving body based on the estimated behavior A generator for generating information; Serial and an output unit outputting at least one output information.

なお、これらの包括的または具体的な側面は、システム、装置、方法、記録媒体、または、コンピュータプログラムで実現されてもよく、システム、装置、方法、記録媒体、および、コンピュータプログラムの任意な組み合わせで実現されてもよい。   Note that these comprehensive or specific aspects may be realized by a system, apparatus, method, recording medium, or computer program, and any combination of the system, apparatus, method, recording medium, and computer program. It may be realized with.

本開示に係る情報処理装置およびプログラムによれば、周辺の移動体による危険の予測をより正確に行うことができる。   According to the information processing apparatus and the program according to the present disclosure, it is possible to more accurately predict the danger by the surrounding moving body.

図1は、実施の形態における情報処理装置の構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of a configuration of an information processing device according to an embodiment. 図2は、第1の移動体内から見た走行風景の一例を示す図である。FIG. 2 is a diagram illustrating an example of a traveling landscape viewed from the first moving body. 図3は、第1の移動体内から見た走行風景の他の一例を示す図である。FIG. 3 is a diagram illustrating another example of the traveling scenery viewed from the first moving body. 図4は、実施の形態における情報処理装置の動作の一例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of the operation of the information processing apparatus according to the embodiment. 図5は、実施の形態における挙動推定部の動作の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of the operation of the behavior estimation unit according to the embodiment. 図6は、実施の形態における出力部から出力される情報を説明するためのフローチャートである。FIG. 6 is a flowchart for explaining information output from the output unit according to the embodiment. 図7は、物体の特定の状態、および、物体の影響を受ける第2の移動体の挙動の一例を示す図である。FIG. 7 is a diagram illustrating an example of the specific state of the object and the behavior of the second moving body affected by the object. 図8は、第2の移動体と物体とが同一車線に存在するときの情報処理装置の動作の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the operation of the information processing apparatus when the second moving object and the object exist in the same lane. 図9は、第2の移動体と物体とが同一車線に存在するときの情報処理装置の動作の他の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating another example of the operation of the information processing apparatus when the second moving object and the object exist in the same lane. 図10は、第2の移動体と物体とが隣接車線に存在するときの情報処理装置の動作の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of the operation of the information processing apparatus when the second moving object and the object exist in the adjacent lane. 図11は、第2の移動体と物体とが対向車線に存在するときの情報処理装置の動作の一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of the operation of the information processing apparatus when the second moving object and the object exist in the oncoming lane. 図12は、第2の移動体と物体とが交差車線に存在するときの情報処理装置の動作の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of the operation of the information processing apparatus when the second moving object and the object exist in the intersection lane.

本開示の情報処理装置は、第1の移動体に搭載される情報処理装置であって、前記第1の移動体の周辺のセンシングにより得られるセンシング情報を取得する取得部と、前記センシング情報を用いて、前記第1の移動体の周辺に存在し、特定の状態にある物体を検出する物体検出部と、前記センシング情報を用いて、前記第1の移動体の周辺に存在し、検出された前記物体により進路に影響を受ける第2の移動体を検出する移動体検出部と、検出された前記第2の移動体の挙動を前記特定の状態に基づいて推定する挙動推定部と、推定された前記挙動に基づいて、前記第1の移動体の移動制御に利用される情報および前記第1の移動体の周辺に存在する移動体へ提供される情報の少なくとも1つの出力情報を生成する生成部と、前記少なくとも1つの出力情報を出力する出力部と、を備える。   An information processing apparatus according to an embodiment of the present disclosure is an information processing apparatus mounted on a first moving body, and includes an acquisition unit that acquires sensing information obtained by sensing around the first moving body, and the sensing information. Using the object detection unit that detects an object that exists in the vicinity of the first moving body and is in a specific state, and the sensing information is used to detect the object that exists in the vicinity of the first moving body. A moving body detecting unit that detects a second moving body that is influenced by a path of the object, a behavior estimating unit that estimates the detected behavior of the second moving body based on the specific state, and an estimation Based on the obtained behavior, at least one output information of information used for movement control of the first moving body and information provided to the moving body existing in the vicinity of the first moving body is generated. The generator and at least the And an output unit that outputs one output information.

例えば、第1の移動体の周辺に存在する物体が特定の状態にあることで、第1の移動体の周辺に存在する第2の移動体は進路に影響を受けることがある。例えば、物体および第2の移動体が車両の場合に、物体の後方を第2の移動体が走行しているときに、物体が減速または停止等をする特定の状態になることで、第2の移動体は進路に影響を受ける。このとき、第1の移動体が第2の移動体の後方を走行していた場合、物体の特定の状態に基づいて第2の移動体の挙動が変化することで、第1の移動体が危険に陥るおそれがある。そこで、物体の特定の状態に基づいて第2の移動体の挙動を推定することで、第2の移動体が具体的にどのような挙動をとるのかがわかるため、周辺の移動体(第2の移動体)による危険の予測をより正確に行うことができる。これにより、第1の移動体が第2の移動体の挙動による危険を回避するための制御をしたり、第1の移動体の周辺に存在する他の移動体に第2の移動体の挙動を通知したりできる。   For example, when the object existing around the first moving body is in a specific state, the second moving body existing around the first moving body may be influenced by the course. For example, when the object and the second moving body are vehicles, when the second moving body travels behind the object, the object enters a specific state in which the object decelerates or stops, etc. The moving body is affected by the course. At this time, when the first moving body travels behind the second moving body, the behavior of the second moving body changes based on the specific state of the object, so that the first moving body Risk of danger. Therefore, by estimating the behavior of the second moving body based on the specific state of the object, it is possible to know what kind of behavior the second moving body will take. Can be predicted more accurately. As a result, the first moving body performs control for avoiding the danger caused by the behavior of the second moving body, or the behavior of the second moving body is transferred to other moving bodies existing around the first moving body. Can be notified.

また、前記物体には、車両が含まれ、前記特定の状態は、前記車両に搭載されたランプの点灯を用いて意思を表示している状態、または、走行状態として幅寄せ、蛇行若しくはふらつき状態を含んでいてもよい。また、前記物体には、人または動物が含まれ、前記特定の状態は、前記人または前記動物が車道に存在する状態を含んでいてもよい。また、前記物体には、信号機が含まれ、前記特定の状態は、前記信号機が停止または右左折を指示する状態を含んでいてもよい。   In addition, the object includes a vehicle, and the specific state is a state in which intention is displayed using lighting of a lamp mounted on the vehicle, or a running state, width-shifting, meandering, or wobbling state May be included. The object may include a person or an animal, and the specific state may include a state where the person or the animal exists on a roadway. The object may include a traffic light, and the specific state may include a state in which the traffic light instructs to stop or turn right or left.

特定の状態としてこれらの状態は、第2の移動体の挙動が変化し得る状態である。これらの状態は、カメラによる撮影等によって容易に検出することができるため、第2の移動体の挙動の推定が可能となる。なお、ランプを用いて意思を表示している状態とは、車両が有する方向指示器、ブレーキランプまたはハザードランプによって右左折、車線変更、減速または停止をしようとしている状態を意味する。   As specific states, these states are states in which the behavior of the second moving body can change. Since these states can be easily detected by shooting with a camera or the like, the behavior of the second moving body can be estimated. Note that the state where the intention is displayed using the ramp means a state where the vehicle is turning right, left, changing lanes, decelerating or stopping by a turn indicator, a brake lamp or a hazard lamp of the vehicle.

また、前記第2の移動体は、前記物体が存在する道路と同一、隣接または交差する走行路を走行してもよい。   Further, the second moving body may travel on a traveling road that is the same as, adjacent to, or intersects with the road on which the object is present.

これによれば、挙動の推定の対象となる第2の移動体は、物体が存在する道路と同一、隣接または交差する走行路を走行する移動体となる。例えば、物体が存在する道路と同一の走行路を第2の移動体が走行している場合には、物体が減速または停止等をする特定の状態にあるときの第2の移動体の挙動を推定できる。また、例えば、物体が存在する道路と隣接する走行路を第2の移動体が走行している場合には、物体が右左折または車線変更等の特定の状態にあるときの第2の移動体の挙動を推定できる。また、例えば、物体が存在する道路と交差する走行路を第2の移動体が走行している場合には、物体が右左折等の特定の状態にあるときの第2の移動体の挙動を推定できる。   According to this, the second moving body that is the target of behavior estimation is a moving body that travels on the same, adjacent, or intersecting road as the road on which the object exists. For example, when the second moving body is traveling on the same traveling path as the road on which the object exists, the behavior of the second moving body when the object is in a specific state where the object is decelerated or stopped, etc. Can be estimated. In addition, for example, when the second moving body is traveling on a road adjacent to the road on which the object exists, the second moving body when the object is in a specific state such as turning left or right or changing lanes. Can be estimated. In addition, for example, when the second moving body is traveling on a traveling road intersecting with a road where the object exists, the behavior of the second moving body when the object is in a specific state such as a right or left turn Can be estimated.

また、前記挙動推定部は、さらに前記第2の移動体の状態に基づいて、前記挙動を推定してもよい。   The behavior estimating unit may further estimate the behavior based on the state of the second moving body.

物体が特定の状態になっている場合であっても、第2の移動体の状態によっては、第2の移動体の挙動の推定結果が変化し得る。したがって、物体の特定の状態に加え、第2の移動体の状態にも基づいて第2の移動体の挙動を推定することで、より正確に当該挙動を推定できる。   Even if the object is in a specific state, the estimation result of the behavior of the second moving body may change depending on the state of the second moving body. Therefore, by estimating the behavior of the second moving body based on the state of the second moving body in addition to the specific state of the object, the behavior can be estimated more accurately.

また、前記挙動推定部は、さらに前記物体と前記第2の移動体との間の関係に基づいて、前記挙動を推定してもよい。   Further, the behavior estimation unit may further estimate the behavior based on a relationship between the object and the second moving body.

物体が特定の状態になっている場合であっても、物体と第2の移動体との関係によっては、第2の移動体の挙動の推定結果が変化し得る。したがって、物体の特定の状態に加え、物体と第2の移動体との関係にも基づいて第2の移動体の挙動を推定することで、より正確に当該挙動を推定できる。   Even if the object is in a specific state, the estimation result of the behavior of the second moving body may change depending on the relationship between the object and the second moving body. Therefore, by estimating the behavior of the second moving body based on the relationship between the object and the second moving body in addition to the specific state of the object, the behavior can be estimated more accurately.

また、前記制御情報は、さらに前記第1の移動体と前記第2の移動体との間の関係に基づいて、生成されてもよい。   The control information may be further generated based on a relationship between the first moving body and the second moving body.

第2の移動体の挙動の推定結果を用いて、第1の移動体がどのような移動制御をするかは、第1の移動体と第2の移動体との間の関係によって変化し得る。したがって、第1の移動体と第2の移動体との間の関係にも基づいて、より的確な制御情報を生成できる。   The movement control performed by the first moving body using the estimation result of the behavior of the second moving body may vary depending on the relationship between the first moving body and the second moving body. . Therefore, more accurate control information can be generated based on the relationship between the first moving body and the second moving body.

また、前記関係は、位置関係を含んでいてもよい。   Further, the relationship may include a positional relationship.

これによれば、物体と第2の移動体と位置関係に基づいて、より正確に第2の移動体の挙動を推定できる。また、第1の移動体と第2の移動体との位置関係に基づいて、より的確な制御情報を生成できる。   According to this, the behavior of the second moving body can be estimated more accurately based on the positional relationship between the object and the second moving body. Further, more accurate control information can be generated based on the positional relationship between the first moving body and the second moving body.

また、前記関係は、速さおよび向きの少なくとも一方についての関係を含んでいてもよい。   Further, the relationship may include a relationship regarding at least one of speed and direction.

これによれば、物体と第2の移動体と速さおよび向きの少なくとも一方の関係に基づいて、より正確に第2の移動体の挙動を推定できる。また、第1の移動体と第2の移動体との速さおよび向きの少なくとも一方の関係に基づいて、より的確な制御情報を生成できる。   According to this, the behavior of the second moving body can be estimated more accurately based on the relationship between the object, the second moving body, and at least one of speed and direction. Further, more accurate control information can be generated based on the relationship between at least one of the speed and direction of the first moving body and the second moving body.

また、前記挙動推定部は、さらに前記物体の周辺の道路状況に基づいて、前記挙動を推定してもよい。   Further, the behavior estimation unit may further estimate the behavior based on a road situation around the object.

物体が特定の状態になっている場合であっても、物体の周辺の道路状況によっては、第2の移動体の挙動の推定結果が変化し得る。したがって、物体の特定の状態に加え、物体の周辺の道路状況にも基づいて第2の移動体の挙動を推定することで、より正確に当該挙動を推定できる。   Even if the object is in a specific state, the estimation result of the behavior of the second moving body may change depending on the road conditions around the object. Therefore, by estimating the behavior of the second moving body based on the road condition around the object in addition to the specific state of the object, the behavior can be estimated more accurately.

また、前記挙動推定部は、さらに前記第2の移動体の周辺の道路状況に基づいて、前記挙動を推定してもよい。   Further, the behavior estimation unit may further estimate the behavior based on a road situation around the second moving body.

物体が特定の状態になっている場合であっても、第2の移動体の周辺の道路状況によっては、第2の移動体の挙動の推定結果が変化し得る。したがって、物体の特定の状態に加え、第2の移動体の周辺の道路状況にも基づいて第2の移動体の挙動を推定することで、より正確に当該挙動を推定できる。   Even if the object is in a specific state, the estimation result of the behavior of the second moving body may change depending on the road conditions around the second moving body. Therefore, by estimating the behavior of the second moving body based on the road condition around the second moving body in addition to the specific state of the object, the behavior can be estimated more accurately.

前記挙動推定部は、前記第2の移動体が複数存在する場合、複数の第2の移動体の挙動の各々を整合するように推定し、前記生成部は、前記複数の第2の移動体の挙動の各々に基づいて前記少なくとも1つの出力情報を生成してもよい。   When there are a plurality of the second moving bodies, the behavior estimating unit estimates the behaviors of the plurality of second moving bodies to be matched, and the generating unit is configured to match the plurality of second moving bodies. The at least one output information may be generated based on each of the behaviors.

これによれば、推定される挙動の各々が干渉することを抑制できる。したがって、第1の移動体をより適切に動作させることができ、安全性を向上させることが可能となる。   According to this, it can suppress that each of the estimated behavior interferes. Therefore, the first moving body can be operated more appropriately, and safety can be improved.

前記第1の移動体の移動制御に利用される情報は、前記第1の移動体の加速、減速、及び操舵の少なくとも1つを制御するための制御情報を含んでいてもよい。   Information used for movement control of the first moving body may include control information for controlling at least one of acceleration, deceleration, and steering of the first moving body.

これによれば、第1の移動体の加速、減速、又は操舵について、適切に動作させることができる。   According to this, it is possible to appropriately operate acceleration, deceleration, or steering of the first moving body.

前記第1の移動体の移動制御に利用される情報は、前記第1の移動体から所定の範囲に存在する物体に基づいて前記第1の移動体の経路計画を決定する処理の入力情報を含んでいてもよい。   The information used for the movement control of the first moving body includes input information of a process for determining a route plan of the first moving body based on an object existing within a predetermined range from the first moving body. May be included.

これによれば、第2の移動体の挙動に応じて第1の移動体の移動制御をリアルタイムに制御することが容易となる。また、第2の移動体が複数であっても複数の第2の移動体の挙動の各々との整合性をより容易に確保することができる。   According to this, it becomes easy to control the movement control of the first moving body in real time according to the behavior of the second moving body. In addition, even if there are a plurality of second moving bodies, it is possible to more easily ensure consistency with each of the behaviors of the plurality of second moving bodies.

また、本開示のプログラムは、第1の移動体に搭載される情報処理装置の動作を制御するプログラムであって、前記第1の移動体の周辺のセンシングにより得られるセンシング情報を取得する取得ステップと、前記センシング情報を用いて、前記第1の移動体の周辺に存在し、特定の状態にある物体を検出する物体検出ステップと、前記センシング情報を用いて、前記第1の移動体の周辺に存在し、検出された前記物体により進路に影響を受ける第2の移動体を検出する移動体検出ステップと、検出された前記第2の移動体の挙動を前記特定の状態に基づいて推定する挙動推定ステップと、推定された前記挙動に基づいて、前記第1の移動体の移動制御に利用される情報および前記第1の移動体の周辺に存在する移動体へ提供される情報の少なくとも1つの出力情報を生成する生成ステップと、前記少なくとも1つの出力情報を出力する出力ステップと、を含む。   Moreover, the program of this indication is a program which controls operation | movement of the information processing apparatus mounted in a 1st moving body, Comprising: The acquisition step which acquires the sensing information obtained by sensing the periphery of the said 1st moving body Using the sensing information, an object detection step for detecting an object existing around the first moving body and in a specific state, and using the sensing information, the periphery of the first moving body. A moving body detecting step for detecting a second moving body that is present in the path and is influenced by the detected object, and the behavior of the detected second moving body is estimated based on the specific state Based on the behavior estimation step and the estimated behavior, information used for the movement control of the first mobile body and a small amount of information provided to the mobile body existing around the first mobile body Comprising a generation step of generating a Kutomo one output information, and an output step of outputting at least one output information.

これによれば、周辺の移動体による危険の予測をより正確に行うことができるプログラムを提供できる。   According to this, it is possible to provide a program capable of more accurately predicting danger by surrounding mobile objects.

以下、実施の形態について、図面を参照しながら具体的に説明する。   Hereinafter, embodiments will be specifically described with reference to the drawings.

なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。   It should be noted that each of the embodiments described below shows a comprehensive or specific example. Numerical values, shapes, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present invention. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements.

(実施の形態)
以下、図1から図12を用いて実施の形態について説明する。
(Embodiment)
The embodiment will be described below with reference to FIGS.

[1.情報処理装置の構成]
図1は、実施の形態1に係る情報処理装置10の構成の一例を示すブロック図である。なお、図1には、情報処理装置10を搭載する第1の移動体100および第1の移動体100に搭載されたカメラ70も記載している。
[1. Configuration of information processing apparatus]
FIG. 1 is a block diagram illustrating an example of the configuration of the information processing apparatus 10 according to the first embodiment. FIG. 1 also shows a first moving body 100 on which the information processing apparatus 10 is mounted and a camera 70 mounted on the first moving body 100.

カメラ70は、第1の移動体100の周辺を撮影するカメラであり、例えば、第1の移動体100の前方、側方および後方の撮影が可能となっている。なお、カメラ70は、ドライブレコーダ等のカメラであってもよい。また、第1の移動体100は、さらに、レーダまたはLIDAR等を備えていてもよい。   The camera 70 is a camera that photographs the periphery of the first moving body 100, and can photograph the front, side, and rear of the first moving body 100, for example. The camera 70 may be a camera such as a drive recorder. The first moving body 100 may further include a radar, a LIDAR, or the like.

情報処理装置10は、第1の移動体100に搭載され、例えば、1つの電子制御ユニット(ECU:Electronic Control Unit)、または、車載ネットワークで接続された複数のECUで構成される。情報処理装置10は、カメラ70等から得られるセンシング結果に基づいて周辺の移動体の挙動を推定し、推定結果に基づいて生成された、第1の移動体のエンジン、ブレーキおよびステアリング等を制御するための情報、または、第1の移動体の乗員に提示する情報を含む制御情報を出力したり、他の移動体に当該推定結果を出力したりする。これにより、情報処理装置10は、第1の移動体100または周辺の移動体が危険な状態に陥ることを抑制する。情報処理装置10は、取得部20、検出部30、挙動推定部40、生成部50および出力部60を備える。   The information processing apparatus 10 is mounted on the first moving body 100 and includes, for example, one electronic control unit (ECU: Electronic Control Unit) or a plurality of ECUs connected via an in-vehicle network. The information processing apparatus 10 estimates the behavior of the surrounding moving body based on the sensing result obtained from the camera 70 and the like, and controls the engine, brake, steering, and the like of the first moving body generated based on the estimation result Control information including information to be displayed or information presented to the occupant of the first moving body, or the estimation result is output to another moving body. Thereby, the information processing apparatus 10 suppresses the first moving body 100 or a surrounding moving body from falling into a dangerous state. The information processing apparatus 10 includes an acquisition unit 20, a detection unit 30, a behavior estimation unit 40, a generation unit 50, and an output unit 60.

取得部20は、第1の移動体100の周辺のセンシングにより得られるセンシング情報を取得する。例えば、取得部20は、センシング情報として、カメラ70による第1の移動体100の周辺の撮影により得られる画像を取得する。また、例えば、取得部20は、センシング情報として、レーダまたはLIDARによる第1の移動体100の周辺の走査により得られるレーダ情報を取得する。取得部20が取得した情報は、検出部30に送られ、解析されたり、機械学習に基づく判断に用いられたりする。   The acquisition unit 20 acquires sensing information obtained by sensing the periphery of the first moving body 100. For example, the acquisition unit 20 acquires an image obtained by photographing the periphery of the first moving body 100 by the camera 70 as sensing information. For example, the acquisition unit 20 acquires radar information obtained by scanning around the first moving body 100 by radar or LIDAR as sensing information. Information acquired by the acquisition unit 20 is sent to the detection unit 30 and is analyzed or used for determination based on machine learning.

検出部30は、取得部20が取得したセンシング情報を解析等する。検出部30は、画像およびレーダ情報等の解析により、第1の移動体100の周辺に存在する車両、人、動物または信号機等の位置、速度、向きおよび状態等を検出する。検出部30は、機能構成要素として、例えば、物体検出部31、移動体検出部32および周辺状況検出部33を備える。なお、物体検出部31、移動体検出部32および周辺状況検出部33による検出は、画像およびレーダ情報等の論理的または統計的解析によるものに限らず、例えば、ディープラーニングなどの機械学習を用いた検出であってもよい。また、当該検出は、例えば車車間通信またはインフラとの通信を介して得られる情報を用いた検出であってもよい。   The detection unit 30 analyzes the sensing information acquired by the acquisition unit 20. The detection unit 30 detects the position, speed, direction, state, and the like of a vehicle, a person, an animal, a traffic signal, or the like existing around the first moving body 100 by analyzing images and radar information. The detection unit 30 includes, for example, an object detection unit 31, a moving body detection unit 32, and a surrounding state detection unit 33 as functional components. Note that the detection by the object detection unit 31, the moving body detection unit 32, and the surrounding state detection unit 33 is not limited to the logical or statistical analysis of images and radar information, but uses, for example, machine learning such as deep learning. May be detected. The detection may be detection using information obtained through vehicle-to-vehicle communication or communication with infrastructure, for example.

物体検出部31は、センシング情報を用いて、第1の移動体100の周辺に存在し、特定の状態にある物体を検出する。また、物体検出部31は、特定の状態にある物体の位置、速度、向き等を検出する。ここで、特定の状態にある物体について、図2および図3を用いて説明する。   The object detection unit 31 uses the sensing information to detect an object that exists in the vicinity of the first moving body 100 and is in a specific state. Further, the object detection unit 31 detects the position, speed, direction, and the like of an object in a specific state. Here, an object in a specific state will be described with reference to FIGS.

図2は、第1の移動体100内から見た走行風景の一例を示す図である。図3は、第1の移動体100内から見た走行風景の他の一例を示す図である。図2および図3には、第1の移動体100の周辺として、第1の移動体100の前方に第2の移動体110が存在し、第2の移動体110の前方に物体120が存在している状態が示されている。本実施の形態では、第1の移動体100、第2の移動体110および物体120を車両としている。図2には、物体120が右側のランプ(方向指示器)を点灯させ右折しようとしている状況が示されている。図3には、物体120が左側のランプ(方向指示器)を点灯させ交差点に進入しようとしている状況が示されている。特定の状態とは、このように、物体(車両)120に搭載されたランプ(方向指示器、ブレーキランプまたはハザードランプ等)の点灯を用いて意思を表示している状態を含み、すなわち、減速、停止、右左折、車両変更等をしようとしている状態を含む。物体検出部31は、例えば画像等の論理的または統計的解析または機械学習等によりランプの点灯状態を認識し、特定の状態にある物体120を検出する。   FIG. 2 is a diagram illustrating an example of a traveling landscape viewed from within the first moving body 100. FIG. 3 is a diagram illustrating another example of the traveling scenery viewed from within the first moving body 100. 2 and 3, as the periphery of the first moving body 100, the second moving body 110 exists in front of the first moving body 100, and the object 120 exists in front of the second moving body 110. The state is shown. In the present embodiment, the first moving body 100, the second moving body 110, and the object 120 are vehicles. FIG. 2 shows a situation where the object 120 is going to turn right by turning on the right lamp (direction indicator). FIG. 3 shows a situation where the object 120 is about to enter the intersection by turning on the left lamp (direction indicator). The specific state includes a state in which an intention is displayed using lighting of a lamp (a direction indicator, a brake lamp, a hazard lamp, or the like) mounted on the object (vehicle) 120 as described above, that is, deceleration Including the state of trying to stop, turn left or right, or change the vehicle. The object detection unit 31 recognizes the lamp lighting state by, for example, logical or statistical analysis such as an image or machine learning, and detects the object 120 in a specific state.

なお、特定の状態とは、ランプの点灯を用いて意思を表示している状態に限らない。例えば、特定の状態は、幅寄せ、蛇行若しくはふらつき等の不安定な走行状態を含んでいてもよい。これらの走行状態については、画像およびレーダ情報等の論理的もしくは統計的解析または機械学習等により検出される。また、特定の状態は、タイヤのパンクなどの外部から確認可能な故障状態またはパワーステアリングシステムが備えるモータの故障などの外部からは確認が困難な故障状態を含んでいてもよい。   Note that the specific state is not limited to a state in which intention is displayed using lighting of a lamp. For example, the specific state may include an unstable traveling state such as width-shifting, meandering, or wobbling. These running states are detected by logical or statistical analysis such as images and radar information or machine learning. The specific state may include a failure state that can be confirmed from the outside such as a tire puncture or a failure state that is difficult to confirm from the outside such as a failure of a motor included in the power steering system.

移動体検出部32は、センシング情報を用いて、第1の移動体100の周辺に存在し、物体検出部31により検出された物体120により進路に影響を受ける第2の移動体110を検出する。なお、第2の移動体110が物体120により進路に影響を受けるとは、第2の移動体110が現状の走行状態を維持した場合に、物体120が特定の状態となっていることで、物体120と第2の移動体110とが衝突し得ることを意味する。例えば、図2に示される状況の場合、物体120により進路に影響を受ける第2の移動体110は、物体120が存在する道路(走行路200)と同一の走行路200を走行する移動体である。また、例えば、図3に示される状況の場合、物体120により進路に影響を受ける第2の移動体110は、物体120が存在する道路(走行路220)と交差する走行路200を走行する移動体である。また、例えば、図2に示される状況において、物体120が走行路200ではなく走行路210を走行している場合には、物体120により進路に影響を受ける第2の移動体110は、物体120が存在する道路(走行路210)と隣接する走行路200を走行する移動体である。なお、物体120の存在する走行路および第2の移動体110が走行する走行路の検出は、例えば、白線検知技術を用いて行われる。   The moving body detection unit 32 uses the sensing information to detect the second moving body 110 that exists around the first moving body 100 and is influenced by the path by the object 120 detected by the object detection unit 31. . Note that the second moving body 110 is influenced by the course of the object 120 because the object 120 is in a specific state when the second moving body 110 maintains the current traveling state. This means that the object 120 and the second moving body 110 can collide. For example, in the situation shown in FIG. 2, the second moving body 110 that is influenced by the path of the object 120 is a moving body that travels on the same traveling path 200 as the road (the traveling path 200) where the object 120 exists. is there. Further, for example, in the situation shown in FIG. 3, the second moving body 110 that is affected by the path of the object 120 travels on the travel path 200 that intersects the road (the travel path 220) on which the object 120 exists. Is the body. In addition, for example, in the situation shown in FIG. 2, when the object 120 is traveling on the traveling path 210 instead of the traveling path 200, the second moving body 110 that is affected by the path of the object 120 is the object 120. Is a moving body that travels on a traveling path 200 adjacent to the road (traveling path 210) where the vehicle exists. In addition, the detection of the traveling path where the object 120 exists and the traveling path where the second moving body 110 travels is performed using, for example, a white line detection technique.

周辺状況検出部33は、センシング情報を用いて、第1の移動体100の周辺の状況を検出する。例えば、周辺状況検出部33は、センシング情報を用いて、走行中の道路の渋滞状況、物体120の周辺、第2の移動体110の周辺および第1の移動体100の周辺の道路状況等を検出する。具体的には、周辺状況検出部33は、物体120の左右にスペースがあるか否か、第2の移動体110の左右にスペースがあるか否か、および、第1の移動体の前方にスペースがあるか否か等を検出する。   The surrounding situation detection unit 33 detects the surrounding situation of the first moving body 100 using the sensing information. For example, the surrounding situation detection unit 33 uses the sensing information to determine the traffic situation on the road that is running, the surroundings of the object 120, the surroundings of the second moving body 110, the surrounding road conditions of the first moving body 100, and the like. To detect. Specifically, the surrounding state detection unit 33 determines whether there is a space on the left and right of the object 120, whether there is a space on the left and right of the second moving body 110, and in front of the first moving body. Detect whether there is space or not.

挙動推定部40は、移動体検出部32によって検出された第2の移動体110の挙動を物体120の特定の状態に基づいて推定する。なお、挙動推定部40は、さらに第2の移動体110の状態に基づいて、第2の移動体110の挙動を推定してもよいし、さらに物体120と第2の移動体110との間の関係に基づいて、当該挙動を推定してもよいし、さらに物体120の周辺の道路状況に基づいて、当該挙動を推定してもよいし、さらに第2の移動体110の周辺の道路状況に基づいて、当該挙動を推定してもよい。   The behavior estimation unit 40 estimates the behavior of the second mobile body 110 detected by the mobile body detection unit 32 based on a specific state of the object 120. Note that the behavior estimation unit 40 may further estimate the behavior of the second moving body 110 based on the state of the second moving body 110, and further, between the object 120 and the second moving body 110. The behavior may be estimated based on the relationship, the behavior may be estimated based on the road situation around the object 120, and the road situation around the second moving object 110 may be estimated. Based on the above, the behavior may be estimated.

生成部50は、挙動推定部40によって推定された第2の移動体110の挙動に基づいて、第1の移動体100の移動制御に利用される情報および第1の移動体100の周辺に存在する移動体へ提供される情報の少なくとも1つの出力情報を生成する。第1の移動体100の移動制御に利用される情報は、例えば、第1の移動体100の加速、減速、及び操舵の少なくとも1つを制御するための制御情報を含む。例えば、制御情報は、「走る」、「曲がる」、「止まる」(言い換えると加速、操舵、減速)等の車両の挙動等の制御に関する情報である。また、例えば、提供情報は、第1の移動体100の周辺に存在する移動体が第2の移動体110の挙動によって危険な状態に陥ることを抑制するための情報である。なお、生成部50は、第1の移動体100と第2の移動体110との間の関係(位置関係、速さ、向き等)にも基づいて制御情報を生成する。   Based on the behavior of the second moving body 110 estimated by the behavior estimating section 40, the generation unit 50 is present in the vicinity of the information used for movement control of the first moving body 100 and the first moving body 100. Generating at least one output information of information to be provided to the moving body. Information used for movement control of the first moving body 100 includes, for example, control information for controlling at least one of acceleration, deceleration, and steering of the first moving body 100. For example, the control information is information related to control of the behavior of the vehicle such as “run”, “turn”, “stop” (in other words, acceleration, steering, deceleration). Further, for example, the provided information is information for suppressing a moving body existing around the first moving body 100 from falling into a dangerous state due to the behavior of the second moving body 110. The generation unit 50 generates control information based on the relationship (positional relationship, speed, orientation, etc.) between the first moving body 100 and the second moving body 110.

出力部60は、生成部50により生成される、上記少なくとも1つの出力情報を出力する。例えば、第1の移動体100が自動運転車両の場合には、出力部60は、「曲がる」、「止まる」等の車両の挙動等の制御に関連するシャーシ系のECUであり、ステアリング、エンジンおよびブレーキ等に接続されており、これらに制御情報を出力する。また、例えば、第1の移動体100が手動運転車両の場合には、出力部60は、「曲がる」、「止まる」等の車両の挙動等を指示する制御情報として画像(文字)情報、音声情報、またはその両方を第1の移動体100に搭載されたディスプレイまたはスピーカ等に出力する。なお、出力部60は、第1の移動体100が自動運転車両の場合であっても、第1の移動体100の乗員に通知するために、制御情報として画像(文字)情報、音声情報、またはその両方を第1の移動体100に搭載されたディスプレイまたはスピーカ等に出力してもよい。また、出力部60は、第1の移動体100が手動運転車両の場合であっても、手動運転の補助のために、ステアリング、エンジンおよびブレーキ等に制御情報を出力してもよい。また、例えば、出力部60は、第2の移動体110の挙動に関する情報を、第1の移動体100が備える通信部を介して他の移動体に出力する。   The output unit 60 outputs the at least one output information generated by the generation unit 50. For example, when the first moving body 100 is an autonomous driving vehicle, the output unit 60 is a chassis-related ECU related to the control of the behavior of the vehicle such as “turn” and “stop”. It is connected to a brake and the like, and outputs control information to them. For example, when the first moving body 100 is a manually operated vehicle, the output unit 60 uses image (character) information, audio as control information for instructing the behavior of the vehicle such as “turn” and “stop”. Information or both are output to a display or a speaker mounted on the first moving body 100. Note that the output unit 60 uses image (character) information, voice information, and control information as notification information to notify the occupant of the first moving body 100 even when the first moving body 100 is an autonomous driving vehicle. Alternatively, both of them may be output to a display or a speaker mounted on the first moving body 100. Further, the output unit 60 may output control information to the steering, the engine, the brake, and the like to assist manual driving even when the first moving body 100 is a manually operated vehicle. For example, the output unit 60 outputs information related to the behavior of the second moving body 110 to another moving body via the communication unit included in the first moving body 100.

ECUは、例えば、プロセッサ(マイクロプロセッサ)、メモリ等のデジタル回路、アナログ回路、通信回路等を含む装置である。メモリは、ROM、RAM等であり、プロセッサにより実行される制御プログラム(コンピュータプログラム)を記憶することができる。例えばプロセッサが、制御プログラム(コンピュータプログラム)に従って動作することにより、情報処理装置10は各種機能(取得部20、検出部30、挙動推定部40、生成部50および出力部60)を実現することになる。   The ECU is a device including, for example, a processor (microprocessor), a digital circuit such as a memory, an analog circuit, a communication circuit, and the like. The memory is a ROM, a RAM, or the like, and can store a control program (computer program) executed by the processor. For example, when the processor operates according to a control program (computer program), the information processing apparatus 10 realizes various functions (acquisition unit 20, detection unit 30, behavior estimation unit 40, generation unit 50, and output unit 60). Become.

[2.情報処理装置の動作]
次に、情報処理装置10の動作について図4から図12を用いて説明する。
[2. Operation of information processing apparatus]
Next, the operation of the information processing apparatus 10 will be described with reference to FIGS.

図4は、実施の形態における情報処理装置10の動作の一例を示すフローチャートである。図4は、情報処理装置10の基本的な動作の一例を示している。まず、物体検出部31は特定の状態にある物体120を検出し(ステップS11)、移動体検出部32は物体120により進路に影響を受ける第2の移動体110を検出し(ステップS12)、挙動推定部40は第2の移動体110の挙動を物体120の特定の状態に基づいて推定し(ステップS13)、生成部50は、出力情報を生成し(ステップS14)、そして、出力部60は、出力情報を出力する(ステップS15)。   FIG. 4 is a flowchart illustrating an example of the operation of the information processing apparatus 10 according to the embodiment. FIG. 4 shows an example of a basic operation of the information processing apparatus 10. First, the object detection unit 31 detects the object 120 in a specific state (step S11), the moving body detection unit 32 detects the second moving body 110 that is affected by the path by the object 120 (step S12), The behavior estimation unit 40 estimates the behavior of the second moving body 110 based on the specific state of the object 120 (step S13), the generation unit 50 generates output information (step S14), and the output unit 60 Outputs output information (step S15).

ステップS13において、挙動推定部40は、物体120の特定の状態に加え、さらに物体120の周辺の道路状況にも基づいて、第2の移動体110の挙動を推定する。これについて、図5を用いて説明する。   In step S <b> 13, the behavior estimation unit 40 estimates the behavior of the second moving object 110 based on the road condition around the object 120 in addition to the specific state of the object 120. This will be described with reference to FIG.

図5は、実施の形態における挙動推定部40の動作の一例を示すフローチャートである。なお、図5は、物体120と第2の移動体110とが同一車線に存在している場合に物体120が特定の状態となっているときの挙動推定部40の動作を示している。   FIG. 5 is a flowchart illustrating an example of the operation of the behavior estimation unit 40 in the embodiment. FIG. 5 shows the operation of the behavior estimation unit 40 when the object 120 is in a specific state when the object 120 and the second moving body 110 are in the same lane.

挙動推定部40は、第2の移動体110が特定の状態にある物体120を追い越し可能なスペースがあるか否かを判定する(ステップS21)。例えば、挙動推定部40は、周辺状況検出部33が検出した物体120の周辺の道路状況に基づいて当該判定を行う。   The behavior estimation unit 40 determines whether or not there is a space where the second moving body 110 can pass the object 120 in a specific state (step S21). For example, the behavior estimation unit 40 performs the determination based on the road situation around the object 120 detected by the surrounding situation detection unit 33.

挙動推定部40は、第2の移動体110が物体120を追い越し可能なスペースがあると判定した場合(ステップS21でYes)、第2の移動体110は物体120を追い越すと推定する(ステップS22)。   If the behavior estimation unit 40 determines that there is a space in which the second moving body 110 can pass the object 120 (Yes in step S21), the behavior estimating unit 40 estimates that the second moving body 110 passes the object 120 (step S22). ).

一方、挙動推定部40は、第2の移動体110が物体120を追い越し可能なスペースがないと判定した場合(ステップS21でNo)、第2の移動体110は減速または停止すると推定する(ステップS23)。   On the other hand, when it is determined that there is no space in which the second moving body 110 can pass the object 120 (No in step S21), the behavior estimating unit 40 estimates that the second moving body 110 decelerates or stops (step S21). S23).

また、ステップS15において出力部60が制御情報を出力する場合、出力部60は、第2の移動体110の挙動に加え、さらに第1の移動体100と第2の移動体110との間の関係に基づいて、生成部50に生成される制御情報を出力する。これについて、図6を用いて説明する。   In addition, when the output unit 60 outputs control information in step S <b> 15, in addition to the behavior of the second moving body 110, the output unit 60 further includes between the first moving body 100 and the second moving body 110. Based on the relationship, the control information generated in the generation unit 50 is output. This will be described with reference to FIG.

図6は、実施の形態における出力部60から出力される情報を説明するためのフローチャートである。なお、図6では、物体120と第2の移動体110は、同一車線に存在しているとし、図6は、図5での第2の移動体110の挙動の推定後の情報処理装置10の動作を示している。   FIG. 6 is a flowchart for explaining information output from the output unit 60 in the embodiment. In FIG. 6, it is assumed that the object 120 and the second moving body 110 exist in the same lane, and FIG. 6 shows the information processing apparatus 10 after estimating the behavior of the second moving body 110 in FIG. Shows the operation.

まず、生成部50は、第2の移動体110が第1の移動体100の目前に存在するか否かを判定する(ステップS31)。例えば、生成部50は、移動体検出部32が検出した第2の移動体110の位置に基づいて当該判定を行う。   First, the generation unit 50 determines whether or not the second moving body 110 is present in front of the first moving body 100 (step S31). For example, the generation unit 50 performs the determination based on the position of the second moving body 110 detected by the moving body detection unit 32.

生成部50は、第2の移動体110が第1の移動体100の目前に存在すると判定した場合(ステップS31でYes)、挙動推定部40が第2の移動体110が物体120を追い越すと推定したか否かを判定する(ステップS32)。   When the generation unit 50 determines that the second moving body 110 is present in front of the first moving body 100 (Yes in step S31), the behavior estimation unit 40 causes the second moving body 110 to pass the object 120. It is determined whether or not it has been estimated (step S32).

生成部50は、挙動推定部40が第2の移動体110が物体120を追い越すと推定したと判定した場合(ステップS32でYes)、第2の移動体110が物体120を追い越した後にも第1の移動体100が物体120を追い越し可能なスペースがあるか否かを判定する(ステップS33)。例えば、生成部50は、周辺状況検出部33が検出した物体120の周辺の現状の道路状況に基づいて、第2の移動体110が物体120を追い越した後の(例えば数秒後の)物体120の周辺の道路状況を推定することで、当該判定を行う。   When the behavior estimation unit 40 determines that the second moving body 110 has overtaken the object 120 (Yes in step S32), the generation unit 50 determines whether the second moving body 110 has overtaken the object 120. It is determined whether or not there is a space where one moving body 100 can pass the object 120 (step S33). For example, the generation unit 50 determines the object 120 after the second moving body 110 has passed the object 120 (for example, several seconds later) based on the current road condition around the object 120 detected by the surrounding condition detection unit 33. This determination is performed by estimating the road conditions around the road.

生成部50は、第2の移動体110が物体120を追い越した後にも第1の移動体100が物体120を追い越し可能なスペースがないと判定した場合(ステップS33でNo)、第1の移動体100は物体120を追い越せないため、第1の移動体100を減速または停止させる制御情報を生成する。そして、出力部60は、生成された当該制御情報を出力する(ステップS34)。   If the generation unit 50 determines that there is no space in which the first moving body 100 can pass the object 120 even after the second moving body 110 has passed the object 120 (No in step S33), the first movement is performed. Since the body 100 cannot pass the object 120, control information for decelerating or stopping the first moving body 100 is generated. Then, the output unit 60 outputs the generated control information (step S34).

一方、生成部50は、挙動推定部40が第2の移動体110が物体120を追い越さないと推定した(つまり、減速または停止すると推定した)と判定した場合(ステップS32でNo)、第2の移動体110は減速または停止するため、第1の移動体100を第2の移動体110に追従させる制御情報を生成する。ステップS32でNoの場合には、生成部50は、第1の移動体100を第2の移動体110に合わせて減速または停止させる制御情報を生成する。そして、出力部60は、生成された当該制御情報を出力する(ステップS35)。   On the other hand, the generation unit 50 determines that the behavior estimation unit 40 estimates that the second moving body 110 does not overtake the object 120 (that is, estimates that the vehicle is decelerated or stopped) (No in step S32). Since the moving body 110 of the second vehicle is decelerated or stopped, control information for causing the first moving body 100 to follow the second moving body 110 is generated. In the case of No in step S <b> 32, the generation unit 50 generates control information for decelerating or stopping the first moving body 100 according to the second moving body 110. Then, the output unit 60 outputs the generated control information (step S35).

また、生成部50は、第2の移動体110が物体120を追い越した後にも第1の移動体100が物体120を追い越し可能なスペースがあると判定した場合(ステップS33でYes)、第1の移動体100は物体120を追い越せるため、第1の移動体100を第2の移動体110に追従させる制御情報を生成する。ステップS33でYesの場合には、生成部50は、第1の移動体100を第2の移動体110に追従して物体120を追い越させる制御情報を生成する。そして、出力部60は、生成された当該制御情報を出力する(ステップS35)。   In addition, when the generation unit 50 determines that there is a space in which the first moving body 100 can pass the object 120 even after the second moving body 110 has passed the object 120 (Yes in step S33), the first moving body 100 Since the moving body 100 can pass the object 120, control information for causing the first moving body 100 to follow the second moving body 110 is generated. In the case of Yes in step S33, the generation unit 50 generates control information that causes the first moving body 100 to follow the second moving body 110 to pass the object 120. Then, the output unit 60 outputs the generated control information (step S35).

また、生成部50は、第2の移動体110が第1の移動体100の目前に存在しないと判定した場合(ステップS31でNo)、挙動推定部40が第2の移動体110が第1の移動体100の目前に割り込んでくると推定したか否かを判定する(ステップS36)。例えば、挙動推定部40は、第2の移動体110が物体120を追い越す際に第1の移動体100の走行路に進入して追い越すと推定した場合に、第2の移動体110が第1の移動体100の目前に割り込んでくると推定する。また、例えば、挙動推定部40は、第2の移動体110が物体120を追い越さず減速または停止すると推定した場合に、第2の移動体110が第1の移動体100の目前に割り込んでこないと推定する。   Further, when the generation unit 50 determines that the second moving body 110 does not exist in front of the first moving body 100 (No in Step S31), the behavior estimation unit 40 determines that the second moving body 110 is the first moving body 110. It is determined whether or not it has been estimated that the mobile object 100 will be interrupted immediately before (step S36). For example, when the behavior estimation unit 40 estimates that the second moving body 110 enters and overtakes the traveling path of the first moving body 100 when the second moving body 110 passes the object 120, the second moving body 110 is moved to the first position. It is estimated that the mobile object 100 is interrupted in front of the user. Further, for example, when the behavior estimation unit 40 estimates that the second moving body 110 decelerates or stops without overtaking the object 120, the second moving body 110 does not interrupt the front of the first moving body 100. Estimated.

生成部50は、挙動推定部40が第2の移動体110が第1の移動体100の目前に割り込んでくると推定したと判定した場合(ステップS36でYes)、第1の移動体100は第2の移動体110に追突するおそれがあるため、第1の移動体100を減速または停止させる制御情報を生成する。そして、出力部60は、生成された当該制御情報を出力する(ステップS34)。   If the generation unit 50 determines that the behavior estimation unit 40 has estimated that the second moving body 110 has entered the immediate vicinity of the first moving body 100 (Yes in step S36), the first moving body 100 is Since there is a risk of collision with the second moving body 110, control information for decelerating or stopping the first moving body 100 is generated. Then, the output unit 60 outputs the generated control information (step S34).

生成部50は、挙動推定部40が第2の移動体110が第1の移動体100の目前に割り込んでこないと推定したと判定した場合(ステップS36でNo)、制御情報を生成せず、第1の移動体100は現状の走行を維持する。   The generation unit 50 does not generate control information when the behavior estimation unit 40 determines that the second moving object 110 has estimated that the second moving object 110 does not interrupt the front of the first moving object 100 (No in step S36). The first moving body 100 maintains the current traveling.

このように、出力部60は、第1の移動体100と第2の移動体110との位置関係にも基づいて生成された制御情報を出力する。   As described above, the output unit 60 outputs the control information generated based on the positional relationship between the first moving body 100 and the second moving body 110.

なお、出力部60は、第2の移動体110の挙動(例えば、物体120を追い越すか追い越さないかを示す挙動)に基づいて生成された制御情報が出力したが、例えば、第2の移動体110の挙動を示す情報を、第1の移動体100の周辺に存在する移動体へ提供される情報として出力してもよい。例えば、ステップS34〜S36のいずれかの処理が行われた後に、出力部60は、第2の移動体110の挙動を示す情報を第1の移動体100の周辺に存在する移動体へ出力する(ステップS37)。これにより、第1の移動体100の周辺に存在する移動体は、第2の移動体110の挙動を知ることができ、第2の移動体110の挙動による危険を回避することができる。   Note that the output unit 60 outputs control information generated based on the behavior of the second moving body 110 (for example, behavior indicating whether the object 120 is to be overtaken or not to be overtaken). Information indicating the behavior of 110 may be output as information provided to a mobile object existing around the first mobile object 100. For example, after any one of steps S34 to S36 is performed, the output unit 60 outputs information indicating the behavior of the second moving body 110 to the moving bodies existing around the first moving body 100. (Step S37). Thereby, the mobile body existing around the first mobile body 100 can know the behavior of the second mobile body 110, and the danger due to the behavior of the second mobile body 110 can be avoided.

図5および図6を用いて、物体120と第2の移動体110とが同一車線に存在する場合における情報処理装置10の動作の一例について説明したが、物体120の特定の状態、および、物体120の影響を受ける第2の移動体110の挙動は様々考えられる。   The example of the operation of the information processing apparatus 10 when the object 120 and the second moving body 110 exist in the same lane has been described with reference to FIGS. 5 and 6, but the specific state of the object 120 and the object Various behaviors of the second moving body 110 affected by 120 can be considered.

図7は、物体120の特定の状態、および、物体120の影響を受ける第2の移動体110の挙動の一例を示す図である。図7の(a)は、物体120と第2の移動体110とが同一車線に存在する場合における一例を示す図である。図7の(b)は、物体120と第2の移動体110とが隣接車線に存在する場合における一例を示す図である。図7の(c)は、物体120と第2の移動体110とが対向車線に存在する場合における一例を示す図である。図7の(d)は、物体120と第2の移動体110とが交差車線に存在する場合における一例を示す図である。なお、図7において、物体120または第2の移動体110の進行方向に出てから左右または上下に折れ曲がる矢印は右左折を意味し、進行方向と垂直な方向に出てから進行方向へ折れ曲がる矢印は車線変更を意味している。   FIG. 7 is a diagram illustrating an example of the specific state of the object 120 and the behavior of the second moving body 110 that is affected by the object 120. (A) of FIG. 7 is a figure which shows an example in case the object 120 and the 2nd moving body 110 exist in the same lane. FIG. 7B is a diagram illustrating an example when the object 120 and the second moving body 110 exist in the adjacent lane. (C) of FIG. 7 is a figure which shows an example in case the object 120 and the 2nd moving body 110 exist in an oncoming lane. (D) of Drawing 7 is a figure showing an example in case object 120 and the 2nd moving body 110 exist in a crossing lane. In FIG. 7, an arrow that bends left or right or up and down after coming out in the traveling direction of the object 120 or the second moving body 110 means a right or left turn, and an arrow that turns in a direction perpendicular to the traveling direction and then bends in the traveling direction Means a lane change.

例えば、図7の(a)〜(d)について、物体120の特定の状態としては、減速、停止、右左折、左右への車線変更等があり、第2の移動体110の挙動としては、減速、停止、右左折、左右への車線変更、現状の速度を維持等がある。また、第2の移動体110の挙動に基づいて、出力部60の出力内容(例えば、第1の移動体100の制御内容)が変わってくる。以下、物体120の特定の状態と、当該特定の状態等に応じて推定される第2の移動体110の挙動と、当該挙動に基づく第1の移動体100の制御内容について、5つの適用例を示して、説明する。   For example, with regard to (a) to (d) in FIG. 7, the specific state of the object 120 includes deceleration, stop, right / left turn, left / right lane change, etc., and the behavior of the second moving body 110 is as follows: Deceleration, stop, turn left / right, left / right lane change, maintain current speed, etc. Further, based on the behavior of the second moving body 110, the output content of the output unit 60 (for example, the control content of the first moving body 100) changes. Hereinafter, five application examples of the specific state of the object 120, the behavior of the second moving body 110 estimated according to the specific state, and the control content of the first moving body 100 based on the behavior Will be described.

[3−1.適用例1]
図8は、第2の移動体110と物体120とが同一車線に存在するときの情報処理装置10の動作の一例を示すフローチャートである。なお、適用例1では、第1の移動体100は、第2の移動体110が存在する車線と同一の車線に存在している。
[3-1. Application example 1]
FIG. 8 is a flowchart illustrating an example of the operation of the information processing apparatus 10 when the second moving body 110 and the object 120 exist in the same lane. In Application Example 1, the first moving body 100 exists in the same lane as the lane in which the second moving body 110 exists.

まず、物体検出部31は、特定の状態として、物体120の停止を確認する(ステップS41)。例えば、物体検出部31は、物体120のハザードランプの点灯、発煙筒の煙、または、停止表示機材の設置等の状態を検出することで、物体120の停止を確認する。   First, the object detection unit 31 confirms the stop of the object 120 as a specific state (step S41). For example, the object detection unit 31 confirms the stop of the object 120 by detecting a state such as lighting of a hazard lamp of the object 120, smoke in a smoke cylinder, or installation of a stop display device.

次に、挙動推定部40は、停止する物体120の右側(例えば追い越し車線)にスペースがあるか否かを判定する(ステップS42)。例えば、挙動推定部40は、周辺状況検出部33が検出した物体120の周辺の道路状況に基づいて当該判定を行う。   Next, the behavior estimation unit 40 determines whether there is a space on the right side (for example, the overtaking lane) of the object 120 to be stopped (step S42). For example, the behavior estimation unit 40 performs the determination based on the road situation around the object 120 detected by the surrounding situation detection unit 33.

挙動推定部40は、物体120の右側にスペースがあると判定した場合(ステップS42でYes)、第2の移動体110は、物体120を追い越すことができるため、第2の移動体110が物体120を追い越すと推定する(ステップS43)。   When the behavior estimation unit 40 determines that there is a space on the right side of the object 120 (Yes in step S42), the second moving body 110 can pass the object 120. It is estimated that 120 will be overtaken (step S43).

一方、挙動推定部40は、物体120の右側にスペースがないと判定した場合(ステップS42でNo)、第2の移動体110は、物体120を追い越すことができないため、第2の移動体110が停止すると推定する(ステップS44)。   On the other hand, when the behavior estimation unit 40 determines that there is no space on the right side of the object 120 (No in step S42), the second moving body 110 cannot pass the object 120. Is estimated to stop (step S44).

ステップS43において挙動推定部40が第2の移動体110が物体120を追い越すと推定した後、生成部50は、物体120の右側に第1の移動体100も追い越すスペースがあるか否かを判定する(ステップS45)。例えば、生成部50は、周辺状況検出部33が検出した物体120の周辺の現状の道路状況に基づいて、第2の移動体110が物体120を追い越した後の(例えば数秒後の)物体120の周辺の道路状況を推定することで、当該判定を行う。   After the behavior estimation unit 40 estimates that the second moving body 110 overtakes the object 120 in step S43, the generation unit 50 determines whether there is a space on the right side of the object 120 that the first moving body 100 also overtakes. (Step S45). For example, the generation unit 50 determines the object 120 after the second moving body 110 has passed the object 120 (for example, several seconds later) based on the current road condition around the object 120 detected by the surrounding condition detection unit 33. This determination is performed by estimating the road conditions around the road.

生成部50は、物体120の右側に第1の移動体100も追い越すスペースがあると判定した場合(ステップS45でYes)、第1の移動体100は物体120を追い越せるため、第1の移動体100を第2の移動体110に追従させる制御情報を生成する。そして、出力部60は、当該制御情報を出力することで、第1の移動体100も第2の移動体110に追従して物体120を追い越す(ステップS46)。   If the generation unit 50 determines that there is a space on the right side of the object 120 that the first moving body 100 also overtakes (Yes in step S45), the first moving body 100 can overtake the object 120. Control information for causing the second moving body 110 to follow 100 is generated. Then, the output unit 60 outputs the control information, so that the first moving body 100 also follows the second moving body 110 and passes the object 120 (step S46).

生成部50は、ステップS44において第2の移動体110が停止すると推定された場合、または、物体120の右側に第1の移動体100も追い越すスペースがないと判定した場合(ステップS45でNo)、第1の移動体100を停止させる制御情報を生成する。そして、出力部60は、当該制御情報を出力することで、第1の移動体100は停止する(ステップS47)。   The generation unit 50 determines that the second moving body 110 is estimated to be stopped in step S44, or determines that there is no space on the right side of the object 120 to pass the first moving body 100 (No in step S45). Then, control information for stopping the first moving body 100 is generated. And the output part 60 stops the 1st moving body 100 by outputting the said control information (step S47).

このように、適用例1では、第2の移動体110は、物体120が存在する道路と同一の走行路を走行し、挙動推定部40は、さらに物体120の周辺の道路状況(例えば、物体120の右側のスペース)に基づいて、第2の移動体110の挙動を推定する。なお、制御情報は、第1の移動体100と第2の移動体110との間の関係(例えば位置関係)にも基づいて生成されている。ここでは、位置関係とは、第1の移動体100と第2の移動体110とが同一車線に存在する関係にあることである。なお、後述する適用例2〜5についても、制御情報は、第1の移動体100と第2の移動体110との間の関係(例えば位置関係)にも基づいて生成されている。   As described above, in Application Example 1, the second moving body 110 travels on the same road as the road on which the object 120 exists, and the behavior estimation unit 40 further includes a road condition (for example, the object 120) around the object 120. 120), the behavior of the second moving body 110 is estimated. Note that the control information is also generated based on a relationship (for example, a positional relationship) between the first moving body 100 and the second moving body 110. Here, the positional relationship is a relationship in which the first moving body 100 and the second moving body 110 exist in the same lane. In application examples 2 to 5 to be described later, the control information is also generated based on a relationship (for example, a positional relationship) between the first moving body 100 and the second moving body 110.

[3−2.適用例2]
図9は、第2の移動体110と物体120とが同一車線に存在するときの情報処理装置10の動作の他の一例を示すフローチャートである。なお、適用例2では、第1の移動体100は、第2の移動体110が存在する車線と隣接する車線に存在している。
[3-2. Application example 2]
FIG. 9 is a flowchart illustrating another example of the operation of the information processing apparatus 10 when the second moving body 110 and the object 120 exist in the same lane. In Application Example 2, the first moving body 100 exists in a lane adjacent to the lane in which the second moving body 110 exists.

まず、物体検出部31は、特定の状態として、物体120の停止を確認する(ステップS51)。   First, the object detection unit 31 confirms the stop of the object 120 as a specific state (step S51).

次に、挙動推定部40は、第1の移動体100の前方にスペースがあるか否かを判定する(ステップS52)。つまり、挙動推定部40は、停止する物体120の右側にスペースがあり、かつ、第2の移動体110の右側にスペースがあるか否かを判定する。例えば、挙動推定部40は、周辺状況検出部33が検出した物体120の周辺の道路状況、および、第2の移動体110の周辺の道路状況に基づいて当該判定を行う。   Next, the behavior estimation unit 40 determines whether or not there is a space in front of the first moving body 100 (step S52). That is, the behavior estimation unit 40 determines whether there is a space on the right side of the object 120 to be stopped and a space on the right side of the second moving body 110. For example, the behavior estimation unit 40 performs the determination based on the road situation around the object 120 detected by the surrounding situation detection unit 33 and the road situation around the second moving body 110.

挙動推定部40は、第1の移動体100の前方にスペースがあると判定した場合(ステップS52でYes)、第2の移動体110は、物体120を追い越すことができるため、第2の移動体110が物体120を追い越すと推定する(ステップS53)。   If the behavior estimation unit 40 determines that there is a space in front of the first moving body 100 (Yes in step S52), the second moving body 110 can overtake the object 120. It is estimated that the body 110 passes the object 120 (step S53).

一方、挙動推定部40は、第1の移動体100の前方にスペースがないと判定した場合(ステップS52でNo)、第2の移動体110は、物体120を追い越すことができないため、第2の移動体110が停止すると推定する(ステップS54)。   On the other hand, when the behavior estimation unit 40 determines that there is no space in front of the first moving body 100 (No in step S52), the second moving body 110 cannot pass the object 120. It is presumed that the moving body 110 stops (step S54).

ステップS53において挙動推定部40が第2の移動体110が物体120を追い越すと推定した場合、生成部50は、第2の移動体110の速度が第1の移動体100より遅いか否かを判定する(ステップS55)。例えば、生成部50は、移動体検出部32が検出した第2の移動体110の速度に基づいて、当該判定を行う。   When the behavior estimation unit 40 estimates in step S53 that the second moving body 110 overtakes the object 120, the generation unit 50 determines whether or not the speed of the second moving body 110 is slower than that of the first moving body 100. Determination is made (step S55). For example, the generation unit 50 performs the determination based on the speed of the second moving body 110 detected by the moving body detection unit 32.

生成部50は、第2の移動体110の速度が第1の移動体100より遅いと判定した場合(ステップS55でYes)、第1の移動体100は同一車線に進入してきた第2の移動体110に追突するおそれがあるため、第1の移動体100を減速させる制御情報を生成する。そして、出力部60は、当該制御情報を出力することで、第1の移動体100は減速する(ステップS56)。なお、生成部50は、第1の移動体100から第2の移動体110までの距離が所定の距離以上であるか否かを判定してもよい。なお、所定の距離とは、例えば、カメラ70の撮影によって得られた画像において、第2の移動体110を認識できる程度の距離である。例えば、第1の移動体100から第2の移動体110までの距離が所定の距離以上の場合には、第1の移動体100と第2の移動体110とは十分離れているため、ステップS56において、第1の移動体は減速しなくてもよい。   When the generation unit 50 determines that the speed of the second moving body 110 is slower than the first moving body 100 (Yes in Step S55), the first moving body 100 enters the same lane. Since there is a possibility of colliding with the body 110, control information for decelerating the first moving body 100 is generated. And the output part 60 decelerates the 1st moving body 100 by outputting the said control information (step S56). The generation unit 50 may determine whether or not the distance from the first moving body 100 to the second moving body 110 is equal to or greater than a predetermined distance. The predetermined distance is, for example, a distance that allows the second moving body 110 to be recognized in an image obtained by photographing with the camera 70. For example, when the distance from the first moving body 100 to the second moving body 110 is a predetermined distance or more, the first moving body 100 and the second moving body 110 are sufficiently separated from each other. In S56, the first moving body may not decelerate.

ステップS54において第2の移動体110が停止すると推定された場合、第2の移動体110が第1の移動体100と同一車線に進入してこないため、第1の移動体100は速度を維持する(ステップS57)。または、生成部50は、第2の移動体110の速度が第1の移動体100より速いと判定した場合(ステップS55でNo)、第1の移動体100は同一車線に進入してきた第2の移動体110に追突するおそれが少ないため、第1の移動体100は速度を維持する(ステップS57)。   If it is estimated that the second moving body 110 stops in step S54, the second moving body 110 does not enter the same lane as the first moving body 100, and therefore the first moving body 100 maintains the speed. (Step S57). Alternatively, when the generation unit 50 determines that the speed of the second moving body 110 is faster than the first moving body 100 (No in Step S55), the first moving body 100 enters the same lane. Therefore, the first moving body 100 maintains the speed (step S57).

このように、適用例2では、第2の移動体110は、物体120が存在する道路と同一の走行路を走行し、挙動推定部40は、さらに物体120の周辺の道路状況(例えば、物体120の右側のスペース)、および、第2の移動体110の周辺の道路状況(例えば、第2の移動体110の右側のスペース)に基づいて、第2の移動体110の挙動を推定する。なお、制御情報は、第1の移動体100と第2の移動体110との間の関係(速さおよび向きの少なくとも一方の関係)にも基づいて生成されている。   As described above, in Application Example 2, the second moving body 110 travels on the same road as the road on which the object 120 exists, and the behavior estimation unit 40 further includes a road condition around the object 120 (for example, the object 120 on the right side of 120) and the road condition around the second moving body 110 (for example, the space on the right side of the second moving body 110), the behavior of the second moving body 110 is estimated. Note that the control information is also generated based on the relationship between the first moving body 100 and the second moving body 110 (the relationship between at least one of speed and direction).

[3−3.適用例3]
図10は、第2の移動体110と物体120とが隣接車線に存在するときの情報処理装置10の動作の一例を示すフローチャートである。なお、適用例3では、第1の移動体100は、第2の移動体110が存在する車線と同一の車線に存在している。
[3-3. Application Example 3]
FIG. 10 is a flowchart illustrating an example of the operation of the information processing apparatus 10 when the second moving object 110 and the object 120 exist in the adjacent lane. In Application Example 3, the first moving body 100 exists in the same lane as the lane in which the second moving body 110 exists.

まず、物体検出部31は、特定の状態として、物体120の車線変更を確認する(ステップS61)。例えば、物体検出部31は、物体120の方向指示器の点灯、車体のロールやヨーを検出することで、物体120の車線変更を確認する。   First, the object detection unit 31 confirms the lane change of the object 120 as a specific state (step S61). For example, the object detection unit 31 confirms the lane change of the object 120 by detecting lighting of a direction indicator of the object 120, a roll or yaw of the vehicle body.

次に、挙動推定部40は、物体120と第2の移動体110との速さおよび向きの少なくとも一方の関係(速度差とも呼ぶ)を確認する(ステップS62)。例えば、挙動推定部40は、物体検出部31が検出した物体120の速度、および、移動体検出部32が検出した第2の移動体110の速度に基づいて、当該速度差を確認する。   Next, the behavior estimation unit 40 confirms at least one relationship between speed and direction (also referred to as a speed difference) between the object 120 and the second moving body 110 (step S62). For example, the behavior estimation unit 40 confirms the speed difference based on the speed of the object 120 detected by the object detection unit 31 and the speed of the second mobile body 110 detected by the mobile body detection unit 32.

次に、挙動推定部40は、物体120の速度が第2の移動体110より遅いか否かを判定する(ステップS63)。   Next, the behavior estimation unit 40 determines whether or not the speed of the object 120 is slower than that of the second moving body 110 (step S63).

挙動推定部40は、物体120の速度が第2の移動体110より遅いと判定した場合(ステップS63でYes)、第2の移動体110は、同一車線に進入してきた物体120に追突するおそれがあるため、第2の移動体110が減速すると推定する(ステップS64)。   If the behavior estimation unit 40 determines that the speed of the object 120 is slower than the second moving body 110 (Yes in step S63), the second moving body 110 may collide with the object 120 entering the same lane. Therefore, it is estimated that the second moving body 110 decelerates (step S64).

一方、挙動推定部40は、物体120の速度が第2の移動体110より速いと判定した場合(ステップS63でNo)、第2の移動体110は、同一車線に進入してきた物体120に追突するおそれが少ないため、第2の移動体110が速度を維持すると推定する(ステップS65)。   On the other hand, when the behavior estimation unit 40 determines that the speed of the object 120 is faster than the second moving body 110 (No in step S63), the second moving body 110 collides with the object 120 that has entered the same lane. Therefore, it is estimated that the second moving body 110 maintains the speed (step S65).

ステップS64において挙動推定部40が第2の移動体110が減速すると推定した場合、第1の移動体100は、減速した第2の移動体110に追突するおそれがあるため、生成部50は、第1の移動体100を減速させる制御情報を生成する。そして、出力部60は、当該制御情報を出力することで、第1の移動体100は減速する(ステップS66)。なお、生成部50は、第1の移動体100から第2の移動体110までの距離が所定の距離以上であるか否かを判定してもよい。例えば、第1の移動体100から第2の移動体110までの距離が所定の距離以上の場合には、第1の移動体100と第2の移動体110とは十分離れているため、ステップS66において、第1の移動体100は減速しなくてもよい。   When the behavior estimation unit 40 estimates that the second moving body 110 decelerates in step S64, the first moving body 100 may collide with the decelerated second moving body 110. Control information for decelerating the first moving body 100 is generated. And the output part 60 decelerates the 1st moving body 100 by outputting the said control information (step S66). The generation unit 50 may determine whether or not the distance from the first moving body 100 to the second moving body 110 is equal to or greater than a predetermined distance. For example, when the distance from the first moving body 100 to the second moving body 110 is a predetermined distance or more, the first moving body 100 and the second moving body 110 are sufficiently separated from each other. In S66, the first moving body 100 may not decelerate.

ステップS65において挙動推定部40が第2の移動体110が速度を維持すると推定した場合、第1の移動体100は、第2の移動体110に追従して走行できるため、第1の移動体100は速度を維持する(ステップS67)。   When the behavior estimation unit 40 estimates that the second moving body 110 maintains the speed in step S65, the first moving body 100 can travel following the second moving body 110, so the first moving body 100 maintains the speed (step S67).

このように、適用例3では、第2の移動体110は、物体120が存在する道路と隣接する走行路を走行し、挙動推定部40は、さらに物体120と第2の移動体110との間の関係(例えば、速度差)に基づいて第2の移動体110の挙動を推定する。   As described above, in the application example 3, the second moving body 110 travels on a traveling path adjacent to the road where the object 120 exists, and the behavior estimation unit 40 further determines the relationship between the object 120 and the second moving body 110. The behavior of the second moving body 110 is estimated based on the relationship between them (for example, the speed difference).

[3−4.適用例4]
図11は、第2の移動体110と物体120とが対向車線に存在するときの情報処理装置10の動作の一例を示すフローチャートである。なお、適用例4では、第1の移動体100は、第2の移動体110が存在する車線と同一の車線に存在している。
[3-4. Application Example 4]
FIG. 11 is a flowchart illustrating an example of the operation of the information processing apparatus 10 when the second moving body 110 and the object 120 exist in the oncoming lane. In the application example 4, the first moving body 100 exists in the same lane as the lane in which the second moving body 110 exists.

まず、物体検出部31は、特定の状態として、物体120の右折待ちを確認する(ステップS71)。例えば、物体検出部31は、物体120の方向指示器の点灯、車体の向きを検出することで、物体120の右折待ちを確認する。   First, the object detection unit 31 confirms waiting for a right turn of the object 120 as a specific state (step S71). For example, the object detection unit 31 confirms waiting for a right turn of the object 120 by detecting lighting of the direction indicator of the object 120 and the direction of the vehicle body.

次に、挙動推定部40は、第2の移動体110が低速で移動しているか否かを判定する(ステップS72)。例えば、挙動推定部40は、移動体検出部32が検出した第2の移動体110の速度に基づいて、当該判定を行う。このとき、挙動推定部40は、第2の移動体110の走行路が渋滞しているか否かを判定してもよい。以下では、第2の移動体110が低速で移動している場合には、第2の移動体110の走行路が渋滞していることが原因で低速で移動しているとして説明する。   Next, the behavior estimation unit 40 determines whether or not the second moving body 110 is moving at a low speed (step S72). For example, the behavior estimation unit 40 performs the determination based on the speed of the second moving body 110 detected by the moving body detection unit 32. At this time, the behavior estimation unit 40 may determine whether or not the traveling path of the second moving body 110 is congested. Below, when the 2nd mobile body 110 is moving at low speed, it demonstrates that the traveling path of the 2nd mobile body 110 is moving at low speed because of the traffic jam.

挙動推定部40は、第2の移動体110が低速で移動していると判定した場合(ステップS72でYes)、第2の移動体110の走行路が渋滞しており、物体120に右折させるために多少停止しても問題は起こらないため、物体120に道を譲るために第2の移動体110が停止すると推定する(ステップS73)。   When the behavior estimation unit 40 determines that the second moving body 110 is moving at a low speed (Yes in step S72), the traveling path of the second moving body 110 is congested and causes the object 120 to turn right. Therefore, it is estimated that the second moving body 110 stops in order to give way to the object 120 because no problem occurs even if it stops a little (step S73).

一方、挙動推定部40は、第2の移動体110が低速で移動していないと判定した場合(ステップS72でNo)、物体120は右折待ちを続けるため、第2の移動体110が速度を維持すると推定する(ステップS74)。   On the other hand, when the behavior estimation unit 40 determines that the second moving body 110 is not moving at a low speed (No in step S72), the object 120 continues to wait for a right turn, so the second moving body 110 increases the speed. It is estimated that it will be maintained (step S74).

ステップS73において挙動推定部40が第2の移動体110が停止すると推定した場合、第1の移動体100は、停止した第2の移動体110に追突するおそれがあるため、生成部50は、第1の移動体100を停止させる制御情報を生成する。そして、出力部60は、当該制御情報を出力することで、第1の移動体100は停止する(ステップS75)。   When the behavior estimating unit 40 estimates that the second moving body 110 stops in step S73, the first moving body 100 may collide with the stopped second moving body 110. Control information for stopping the first moving body 100 is generated. And the output part 60 stops the 1st mobile body 100 by outputting the said control information (step S75).

ステップS74において挙動推定部40が第2の移動体110が速度を維持すると推定した場合、第1の移動体100は、第2の移動体110に追従して走行できるため、第1の移動体100は速度を維持する(ステップS76)。   When the behavior estimation unit 40 estimates in step S74 that the second moving body 110 maintains the speed, the first moving body 100 can travel following the second moving body 110, so the first moving body 100 maintains the speed (step S76).

このように、適用例4では、第2の移動体110は、物体120が存在する道路と対向する走行路を走行し、挙動推定部40は、さらに第2の移動体110の状態(例えば、第2の移動体110の速度)に基づいて第2の移動体110の挙動を推定する。   As described above, in the application example 4, the second moving body 110 travels on the traveling path facing the road where the object 120 exists, and the behavior estimation unit 40 further determines the state of the second moving body 110 (for example, Based on the speed of the second moving body 110), the behavior of the second moving body 110 is estimated.

なお、第2の移動体110の走行路が渋滞していない場合には、第2の移動体110が低速で移動しているときでも、例えば一時的に低速で移動しておりすぐに加速する可能性もあるため、ステップS73において、挙動推定部40は、第2の移動体110が停止すると推定せずに、速度を維持すると推定してもよい。   When the travel path of the second moving body 110 is not congested, even when the second moving body 110 is moving at a low speed, for example, the second moving body 110 is temporarily moving at a low speed and immediately accelerates. Since there is also a possibility, in step S73, the behavior estimation unit 40 may estimate that the speed is maintained without estimating that the second moving body 110 stops.

[3−5.適用例5]
図12は、第2の移動体110と物体120とが交差車線に存在するときの情報処理装置10の動作の一例を示すフローチャートである。なお、適用例5では、第1の移動体100は、第2の移動体110が存在する車線と同一の車線に存在している。なお、適用例5は、物体120が駐車場等から出てくる状況であってもよい。
[3-5. Application Example 5]
FIG. 12 is a flowchart illustrating an example of the operation of the information processing apparatus 10 when the second moving object 110 and the object 120 exist in the intersection lane. In Application Example 5, the first moving body 100 exists in the same lane as the lane in which the second moving body 110 exists. Application example 5 may be a situation where the object 120 comes out of a parking lot or the like.

まず、物体検出部31は、特定の状態として、物体120の左折待ちを確認する(ステップS81)。例えば、物体検出部31は、物体120の方向指示器の点灯、車体の向きを検出することで、物体120の左折待ちを確認する。   First, the object detection unit 31 confirms waiting for a left turn of the object 120 as a specific state (step S81). For example, the object detection unit 31 confirms that the object 120 is waiting to turn left by detecting lighting of the direction indicator of the object 120 and the direction of the vehicle body.

次に、挙動推定部40は、第2の移動体110が低速で移動しているか否かを判定する(ステップS82)。例えば、挙動推定部40は、移動体検出部32が検出した第2の移動体110の速度に基づいて、当該判定を行う。このとき、挙動推定部40は、第2の移動体110の走行路が渋滞しているか否かを判定してもよい。以下では、第2の移動体110が低速で移動している場合、第2の移動体110の走行路が渋滞していることが原因で低速で移動しているとして説明する。   Next, the behavior estimation unit 40 determines whether or not the second moving body 110 is moving at a low speed (step S82). For example, the behavior estimation unit 40 performs the determination based on the speed of the second moving body 110 detected by the moving body detection unit 32. At this time, the behavior estimation unit 40 may determine whether or not the traveling path of the second moving body 110 is congested. Below, when the 2nd mobile body 110 is moving at low speed, it demonstrates that it is moving at low speed because the driving | running route of the 2nd mobile body 110 is congested.

挙動推定部40は、第2の移動体110が低速で移動していると判定した場合(ステップS82でYes)、第2の移動体110の走行路が渋滞しており、物体120に右折させるために多少停止しても問題は起こらないため、物体120に道を譲るために第2の移動体110が停止すると推定する(ステップS83)。   When the behavior estimation unit 40 determines that the second moving body 110 is moving at a low speed (Yes in step S82), the traveling path of the second moving body 110 is congested and causes the object 120 to turn right. Therefore, it is estimated that the second moving body 110 stops to give way to the object 120 (step S83).

一方、挙動推定部40は、第2の移動体110が低速で移動していないと判定した場合(ステップS82でNo)、第2の移動体110から物体120までの距離が十分近いか否かを判定する(ステップS84)。例えば、挙動推定部40は、物体検出部31が検出した物体120の位置、および、移動体検出部32が検出した第2の移動体110の位置に基づいて、当該判定を行う。なお、十分近いとは、例えば、物体120が第2の移動体110によって、第2の移動体110が走行する走行路に進入できない程度の近さを意味する。   On the other hand, when the behavior estimation unit 40 determines that the second moving body 110 is not moving at a low speed (No in step S82), whether or not the distance from the second moving body 110 to the object 120 is sufficiently short. Is determined (step S84). For example, the behavior estimation unit 40 performs the determination based on the position of the object 120 detected by the object detection unit 31 and the position of the second moving body 110 detected by the moving body detection unit 32. Note that the term “sufficiently close” means, for example, that the object 120 is close enough that the second moving body 110 cannot enter the travel path on which the second moving body 110 travels.

挙動推定部40は、第2の移動体110から物体120までの距離が十分近くはないと判定した場合(ステップS84でNo)、第2の移動体110の前方にスペースがあり物体120が左折してくる可能性があるため、第2の移動体110が減速すると推定する(ステップS85)。   When the behavior estimation unit 40 determines that the distance from the second moving body 110 to the object 120 is not sufficiently close (No in step S84), there is a space in front of the second moving body 110 and the object 120 turns left. Therefore, it is estimated that the second moving body 110 decelerates (step S85).

一方、挙動推定部40は、第2の移動体110から物体120までの距離が十分近いと判定した場合(ステップS84でYes)、第2の移動体110の前方にスペースがなく物体120が左折してくる可能性は低いため、第2の移動体110が速度を維持すると推定する(ステップS86)。   On the other hand, when the behavior estimation unit 40 determines that the distance from the second moving body 110 to the object 120 is sufficiently short (Yes in step S84), there is no space in front of the second moving body 110 and the object 120 turns left. Since the possibility of coming is low, it is estimated that the second moving body 110 maintains the speed (step S86).

ステップS83において挙動推定部40が第2の移動体110が停止すると推定した場合、第1の移動体100は、停止した第2の移動体110に追突するおそれがあるため、生成部50は、第1の移動体100を停止させる制御情報を生成する。そして、出力部60は、当該制御情報を出力することで、第1の移動体100は停止する(ステップS87)。   When the behavior estimating unit 40 estimates that the second moving body 110 stops in step S83, the first moving body 100 may collide with the stopped second moving body 110. Control information for stopping the first moving body 100 is generated. And the output part 60 stops the 1st mobile body 100 by outputting the said control information (step S87).

ステップS85において挙動推定部40が第2の移動体110が減速すると推定した場合、第1の移動体100は、減速した第2の移動体110に追突するおそれがあるため、生成部50は、第1の移動体100を減速させる制御情報を生成する。そして、出力部60は、当該制御情報を出力することで、第1の移動体100は減速する(ステップS88)。   When the behavior estimation unit 40 estimates that the second moving body 110 decelerates in step S85, the first moving body 100 may collide with the decelerated second moving body 110. Control information for decelerating the first moving body 100 is generated. And the output part 60 decelerates the 1st mobile body 100 by outputting the said control information (step S88).

ステップS86において挙動推定部40が第2の移動体110が速度を維持すると推定した場合、第1の移動体100は、第2の移動体110に追従して走行できるため、第1の移動体100は速度を維持する(ステップS89)。   If the behavior estimation unit 40 estimates in step S86 that the second moving body 110 maintains the speed, the first moving body 100 can travel following the second moving body 110, so the first moving body 100 maintains the speed (step S89).

このように、適用例4では、第2の移動体110は、物体120が存在する道路と交差する走行路を走行し、挙動推定部40は、さらに第2の移動体110の状態(例えば、第2の移動体110の速度)に基づいて第2の移動体110の挙動を推定する。また、挙動推定部40は、さらに物体120と第2の移動体110との間の関係(例えば、位置関係)に基づいて第2の移動体110の挙動を推定する。   As described above, in the application example 4, the second moving body 110 travels on a traveling road that intersects the road where the object 120 exists, and the behavior estimation unit 40 further determines the state of the second moving body 110 (for example, Based on the speed of the second moving body 110), the behavior of the second moving body 110 is estimated. In addition, the behavior estimation unit 40 further estimates the behavior of the second moving body 110 based on the relationship (for example, positional relationship) between the object 120 and the second moving body 110.

[4.効果等]
以上説明したように、例えば、第1の移動体100の周辺に存在する物体120が特定の状態にあることで、第1の移動体100の周辺に存在する第2の移動体110は進路に影響を受けることがある。例えば、物体120の特定の状態に基づいて第2の移動体110の挙動が変化することで、第1の移動体100が危険に陥るおそれがある。そこで、物体120の特定の状態に基づいて第2の移動体110の挙動を推定することで、第2の移動体110が具体的にどのような挙動をとるのかがわかるため、周辺の移動体(第2の移動体110)による危険の予測をより正確に行うことができる。これにより、第1の移動体100が第2の移動体110の挙動による危険を回避するため制御をしたり、第1の移動体100の周辺に存在する他の移動体に第2の移動体110の挙動を通知したりできる。
[4. Effect]
As described above, for example, when the object 120 existing around the first moving body 100 is in a specific state, the second moving body 110 existing around the first moving body 100 enters the course. May be affected. For example, when the behavior of the second moving body 110 changes based on a specific state of the object 120, the first moving body 100 may be in danger. Therefore, by estimating the behavior of the second moving body 110 based on the specific state of the object 120, it is possible to know what kind of behavior the second moving body 110 will take. The danger can be predicted more accurately by the (second moving body 110). As a result, the first moving body 100 performs control in order to avoid danger due to the behavior of the second moving body 110, or the second moving body is transferred to other moving bodies existing around the first moving body 100. 110 behaviors can be notified.

また、物体120が特定の状態になっている場合であっても、第2の移動体110の状態、物体120と第2の移動体110との関係(位置関係、速さ、向き等)、物体120の周辺の道路状況、または、第2の移動体110の周辺の道路状況等によっては、第2の移動体110の挙動の推定結果が変化し得る。したがって、物体120の特定の状態に加え、これらの状態、関係、または、状況等にも基づいて第2の移動体110の挙動を推定することで、より正確に当該挙動を推定できる。   Even when the object 120 is in a specific state, the state of the second moving body 110, the relationship between the object 120 and the second moving body 110 (positional relationship, speed, orientation, etc.), The estimation result of the behavior of the second moving body 110 may change depending on the road condition around the object 120 or the road condition around the second moving object 110. Therefore, in addition to the specific state of the object 120, the behavior of the second moving body 110 can be estimated more accurately by estimating the behavior of the second moving body 110 based on these states, relationships, or situations.

また、第2の移動体110の挙動の推定結果を用いて、第1の移動体100がどのような移動制御をするかは、第1の移動体100と第2の移動体110との間の関係(位置関係、速さ、向き等)によって変化し得る。したがって、第1の移動体100と第2の移動体110との間の関係にも基づいて、より的確な制御情報を生成できる。   In addition, the movement control of the first moving body 100 using the estimation result of the behavior of the second moving body 110 is determined between the first moving body 100 and the second moving body 110. Depending on the relationship (positional relationship, speed, orientation, etc.). Therefore, more accurate control information can be generated based on the relationship between the first moving body 100 and the second moving body 110.

(その他の実施の形態)
以上、本開示の情報処理装置10について、実施の形態に基づいて説明したが、本開示は、上記実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したもの、および、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれる。
(Other embodiments)
Although the information processing apparatus 10 of the present disclosure has been described based on the embodiments, the present disclosure is not limited to the above embodiments. Unless it deviates from the gist of the present disclosure, various modifications conceived by those skilled in the art have been made in this embodiment, and forms constructed by combining components in different embodiments are also included in the scope of the present disclosure. It is.

例えば、上記実施の形態では、物体120は、車両であったが、人、動物または信号機等であってもよい。物体120が人または動物の場合、物体120の特定の状態は、人またはが車道に進入してこようとしている状態、または、車道に存在する状態を含んでもよい。また、物体120が人の場合、物体120の特定の状態は、人がスマートフォン等の携帯端末を見ながら歩いている、いわゆる歩きスマホをしている状態、信号機が赤点灯等をしているのに横断歩道を渡ろうとしている状態等を含んでもよい。また、物体120が信号機の場合、物体120の特定の状態は、信号機が停止または右左折を指示する状態を含んでいてもよい。また、物体120が車両のうち自転車の場合には、物体120の特定の状態は、自転車が路肩付近ではなく車道に存在する状態を含んでいてもよい。なお、これらの状態も、画像およびレーダ情報等の論理的もしくは統計的解析または機械学習等により検出することができる。   For example, in the above embodiment, the object 120 is a vehicle, but may be a person, an animal, a traffic light, or the like. When the object 120 is a person or an animal, the specific state of the object 120 may include a state where the person or the person is about to enter the roadway or a state where the person 120 is present on the roadway. In addition, when the object 120 is a person, the specific state of the object 120 is that a person is walking while looking at a mobile terminal such as a smartphone, a so-called walking smartphone, and the traffic light is lit red. It may include a state of trying to cross a pedestrian crossing. Further, when the object 120 is a traffic light, the specific state of the object 120 may include a state in which the traffic light instructs to stop or turn right or left. Further, when the object 120 is a bicycle of the vehicle, the specific state of the object 120 may include a state in which the bicycle is not on the roadside but on the roadway. These states can also be detected by logical or statistical analysis such as images and radar information, machine learning, or the like.

また、例えば、上記実施の形態では、挙動推定部40は、さらに第2の移動体110の状態として第2の移動体110の速度に基づいて第2の移動体110の挙動を推定したが、これに限らない。例えば、第2の移動体110の状態には、第2の移動体110の加減速、ロールまたはヨーの状態が含まれていてもよい。これは、これらの状態によっても第2の移動体110の挙動の推定結果は変化し得るためである。   Further, for example, in the above-described embodiment, the behavior estimation unit 40 further estimates the behavior of the second moving body 110 based on the speed of the second moving body 110 as the state of the second moving body 110. Not limited to this. For example, the state of the second moving body 110 may include the acceleration / deceleration, roll, or yaw state of the second moving body 110. This is because the estimation result of the behavior of the second moving body 110 can change depending on these states.

また、上記実施の形態では、第2の移動体110が単体である例を説明したが、第2の移動体110が複数であってもよい。具体的には、挙動推定部40は、複数の第2の移動体110の挙動の各々を整合するように推定する。生成部50は、推定された複数の第2の移動体110の挙動の各々に基づいて制御情報又は提供情報を生成する。   In the above-described embodiment, an example in which the second moving body 110 is a single unit has been described. However, a plurality of second moving bodies 110 may be provided. Specifically, the behavior estimation unit 40 estimates the behaviors of the plurality of second moving bodies 110 so as to match each other. The generation unit 50 generates control information or provision information based on each of the estimated behaviors of the plurality of second moving bodies 110.

ここで、物体120によって進路に影響を受ける第2の移動体110が複数存在する場合、第2の移動体100の挙動を個別に推定すると、第2の移動体110の挙動が干渉するおそれがある。その結果、実際の第2の移動体110の各々の挙動と推定結果とが相違し、第1の移動体100をより適切に動作させることが困難となり得る。   Here, when there are a plurality of second moving bodies 110 that are influenced by the path of the object 120, if the behavior of the second moving body 100 is estimated individually, the behavior of the second moving body 110 may interfere. is there. As a result, each actual behavior of the second moving body 110 is different from the estimation result, and it may be difficult to operate the first moving body 100 more appropriately.

しかし、本構成によれば、複数の第2の移動体110の挙動の各々を整合するように推定することにより、推定される挙動の各々が干渉することを抑制できる。したがって、第1の移動体110をより適切に動作させることができ、安全性を向上させることが可能となる。   However, according to this configuration, it is possible to suppress interference of each of the estimated behaviors by estimating each of the behaviors of the plurality of second moving bodies 110 to be matched. Therefore, the first moving body 110 can be operated more appropriately, and safety can be improved.

また、上記実施の形態では、生成部50は第1の移動体100の制御情報を生成する例を説明したが、生成部50は第1の移動体100から所定の範囲に存在する物体に基づいて第1の移動体100の経路計画を決定する処理の入力情報を生成してもよい。具体的には、検出部30は、第1の移動体100から所定の距離の範囲に存在する物体を検出する。検出された物体が移動体でない場合、生成部50は、検出された時点の位置を示す位置情報を生成する。検出された物体が移動体である場合、生成部50は、検出された時点の位置と現在の当該物体の移動速度などから推定される所定の時間経過後の当該物体の位置を示す位置情報を生成する。さらに、当該物体が第2の移動体110である場合、生成部50は、推定された挙動から算出される位置を示す位置情報を生成する。これらの位置情報が経路計画処理の入力となる。経路計画処理は、例えばポテンシャル法を用いた処理であってよい。そして、第1の移動体100は、経路計画処理により出力された経路計画に従って走行する。   In the above embodiment, the generation unit 50 has been described as generating the control information of the first moving body 100. However, the generation unit 50 is based on an object existing within a predetermined range from the first moving body 100. Then, input information of processing for determining the route plan of the first moving body 100 may be generated. Specifically, the detection unit 30 detects an object that exists within a predetermined distance from the first moving body 100. If the detected object is not a moving object, the generation unit 50 generates position information indicating the position at the time of detection. When the detected object is a moving object, the generating unit 50 obtains position information indicating the position of the object after a predetermined time estimated from the position at the time of detection and the current moving speed of the object. Generate. Further, when the object is the second moving body 110, the generation unit 50 generates position information indicating a position calculated from the estimated behavior. These pieces of position information are input to the route planning process. The route planning process may be a process using a potential method, for example. Then, the first moving body 100 travels according to the route plan output by the route plan process.

これにより、第2の移動体110の挙動に応じて第1の移動体100の移動制御をリアルタイムに制御することが容易となる。また、第2の移動体110が複数であっても複数の第2の移動体110の挙動の各々との整合性をより容易に確保することができる。   Thereby, it becomes easy to control the movement control of the first moving body 100 in real time according to the behavior of the second moving body 110. In addition, even if there are a plurality of second moving bodies 110, it is possible to more easily ensure consistency with each of the behaviors of the plurality of second moving bodies 110.

また、本開示は、情報処理装置10として実現できるだけでなく、情報処理装置10を構成する各構成要素が行うステップ(処理)を含む方法として実現できる。   Further, the present disclosure can be realized not only as the information processing apparatus 10 but also as a method including steps (processes) performed by each component configuring the information processing apparatus 10.

例えば、それらのステップは、コンピュータ(コンピュータシステム)によって実行されてもよい。そして、本開示は、それらの方法に含まれるステップを、コンピュータに実行させるためのプログラムとして実現できる。さらに、本開示は、そのプログラムを記録したCD−ROM等である非一時的なコンピュータ読み取り可能な記録媒体として実現できる。   For example, these steps may be performed by a computer (computer system). The present disclosure can be realized as a program for causing a computer to execute the steps included in these methods. Furthermore, the present disclosure can be realized as a non-transitory computer-readable recording medium such as a CD-ROM or the like on which the program is recorded.

具体的には、当該プログラムは、第1の移動体100に搭載される情報処理装置10の動作を制御するプログラムである。当該プログラムは、第1の移動体100の周辺のセンシングにより得られるセンシング情報を取得する取得ステップと、センシング情報を用いて、第1の移動体100の周辺に存在し、特定の状態にある物体120を検出する物体検出ステップと、センシング情報を用いて、第1の移動体100の周辺に存在し、検出された物体120により進路に影響を受ける第2の移動体110を検出する移動体検出ステップと、を含む。また、当該プログラムは、検出された第2の移動体110の挙動を特定の状態に基づいて推定する挙動推定ステップと、推定された当該挙動に基づいて、第1の移動体100の移動制御に利用される情報および第1の移動体100の周辺に存在する移動体へ提供される情報の少なくとも1つの出力情報を生成する生成ステップと、少なくとも1つの出力情報を出力する出力ステップと、を含む。   Specifically, the program is a program that controls the operation of the information processing apparatus 10 mounted on the first moving body 100. The program uses an acquisition step of acquiring sensing information obtained by sensing the periphery of the first moving body 100, and an object that exists in the vicinity of the first moving body 100 and is in a specific state using the sensing information. Using the object detection step for detecting 120 and the sensing information, the moving object detection for detecting the second moving object 110 that exists in the vicinity of the first moving object 100 and is influenced by the path by the detected object 120 is detected. Steps. In addition, the program performs a behavior estimation step of estimating the detected behavior of the second moving body 110 based on a specific state, and controls the movement of the first moving body 100 based on the estimated behavior. A generation step of generating at least one output information of information to be used and information provided to a mobile body existing around the first mobile body 100; and an output step of outputting at least one output information .

例えば、本開示が、プログラム(ソフトウェア)で実現される場合には、コンピュータのCPU、メモリおよび入出力回路等のハードウェア資源を利用してプログラムが実行されることによって、各ステップが実行される。つまり、CPUがデータをメモリまたは入出力回路等から取得して演算したり、演算結果をメモリまたは入出力回路等に出力したりすることによって、各ステップが実行される。   For example, when the present disclosure is realized by a program (software), each step is executed by executing the program using hardware resources such as a computer CPU, a memory, and an input / output circuit. . That is, each step is executed by the CPU obtaining data from a memory or an input / output circuit or the like, and outputting the calculation result to the memory or the input / output circuit or the like.

また、上記実施の形態の情報処理装置10に含まれる複数の構成要素は、それぞれ、専用または汎用の回路として実現されてもよい。これらの構成要素は、1つの回路として実現されてもよいし、複数の回路として実現されてもよい。   In addition, each of the plurality of components included in the information processing apparatus 10 of the above-described embodiment may be realized as a dedicated or general-purpose circuit. These components may be realized as a single circuit or may be realized as a plurality of circuits.

また、上記実施の形態の情報処理装置10に含まれる複数の構成要素は、集積回路(IC:Integrated Circuit)であるLSI(Large Scale Integration)として実現されてもよい。これらの構成要素は、個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。LSIは、集積度の違いにより、システムLSI、スーパーLSIまたはウルトラLSIと呼称される場合がある。   In addition, a plurality of components included in the information processing apparatus 10 of the above-described embodiment may be realized as an LSI (Large Scale Integration) that is an integrated circuit (IC: Integrated Circuit). These components may be individually made into one chip, or may be made into one chip so as to include a part or all of them. The LSI may be referred to as a system LSI, a super LSI, or an ultra LSI depending on the degree of integration.

また、集積回路はLSIに限られず、専用回路または汎用プロセッサで実現されてもよい。プログラム可能なFPGA(Field Programmable Gate Array)、または、LSI内部の回路セルの接続および設定が再構成可能なリコンフィギュラブル・プロセッサが、利用されてもよい。   The integrated circuit is not limited to an LSI, and may be realized by a dedicated circuit or a general-purpose processor. A programmable programmable gate array (FPGA) or a reconfigurable processor in which connection and setting of circuit cells inside the LSI can be reconfigured may be used.

その他、実施の形態に対して当業者が思いつく各種変形を施して得られる形態や、本開示の趣旨を逸脱しない範囲で各実施の形態における構成要素および機能を任意に組み合わせることで実現される形態も本開示に含まれる。   Other forms obtained by subjecting the embodiments to various modifications conceived by those skilled in the art, and forms realized by arbitrarily combining the components and functions of the embodiments without departing from the spirit of the present disclosure Are also included in this disclosure.

10 情報処理装置
20 取得部
30 検出部
31 物体検出部
32 移動体検出部
33 周辺状況検出部
40 挙動推定部
50 生成部
60 出力部
70 カメラ
100 第1の移動体
110 第2の移動体
120 物体
200、210、220 走行路
DESCRIPTION OF SYMBOLS 10 Information processing apparatus 20 Acquisition part 30 Detection part 31 Object detection part 32 Mobile body detection part 33 Peripheral condition detection part 40 Behavior estimation part 50 Generation part 60 Output part 70 Camera 100 1st mobile body 110 2nd mobile body 120 Object 200, 210, 220 Road

Claims (16)

第1の移動体に搭載される情報処理装置であって、
前記第1の移動体の周辺のセンシングにより得られるセンシング情報を取得する取得部と、
前記センシング情報を用いて、前記第1の移動体の周辺に存在し、特定の状態にある物体を検出する物体検出部と、
前記センシング情報を用いて、前記第1の移動体の周辺に存在し、検出された前記物体により進路に影響を受ける第2の移動体を検出する移動体検出部と、
検出された前記第2の移動体の挙動を前記特定の状態に基づいて推定する挙動推定部と、
推定された前記挙動に基づいて前記第1の移動体の移動制御に利用される情報および前記第1の移動体の周辺に存在する移動体へ提供される情報の少なくとも1つの出力情報を生成する生成部と、
前記少なくとも1つの出力情報を出力する出力部と、
を備える情報処理装置。
An information processing apparatus mounted on a first moving body,
An acquisition unit for acquiring sensing information obtained by sensing the periphery of the first moving body;
Using the sensing information, an object detection unit that detects an object existing in a specific state around the first moving body;
Using the sensing information, a moving body detection unit that detects a second moving body that is present around the first moving body and is influenced by a path of the detected object;
A behavior estimation unit that estimates the detected behavior of the second moving body based on the specific state;
Based on the estimated behavior, at least one output information of information used for movement control of the first moving body and information provided to a moving body existing around the first moving body is generated. A generator,
An output unit for outputting the at least one output information;
An information processing apparatus comprising:
前記物体には、車両が含まれ、
前記特定の状態は、前記車両に搭載されたランプの点灯を用いて意思を表示している状態、または、走行状態として幅寄せ、蛇行若しくはふらつき状態を含む、
請求項1に記載の情報処理装置。
The object includes a vehicle,
The specific state includes a state in which intention is displayed using lighting of a lamp mounted on the vehicle, or a running state, a narrowing, meandering or a wobbling state,
The information processing apparatus according to claim 1.
前記物体には、人または動物が含まれ、
前記特定の状態は、前記人または前記動物が車道に存在する状態を含む、
請求項1または2に記載の情報処理装置。
The object includes a person or an animal,
The specific state includes a state in which the person or the animal is present on a roadway,
The information processing apparatus according to claim 1 or 2.
前記物体には、信号機が含まれ、
前記特定の状態は、前記信号機が停止または右左折を指示する状態を含む、
請求項1〜3のいずれか1項に記載の情報処理装置。
The object includes a traffic light,
The specific state includes a state in which the traffic light instructs to stop or turn left or right.
The information processing apparatus according to any one of claims 1 to 3.
前記第2の移動体は、前記物体が存在する道路と同一、隣接または交差する走行路を走行する、
請求項1〜4のいずれか1項に記載の情報処理装置。
The second moving body travels on the same or adjacent or intersecting road as the road on which the object exists.
The information processing apparatus according to any one of claims 1 to 4.
前記挙動推定部は、さらに前記第2の移動体の状態に基づいて、前記挙動を推定する、
請求項1〜5のいずれか1項に記載の情報処理装置。
The behavior estimation unit further estimates the behavior based on the state of the second moving body.
The information processing apparatus according to any one of claims 1 to 5.
前記挙動推定部は、さらに前記物体と前記第2の移動体との間の関係に基づいて、前記挙動を推定する、
請求項1〜6のいずれか1項に記載の情報処理装置。
The behavior estimation unit further estimates the behavior based on a relationship between the object and the second moving body.
The information processing apparatus according to claim 1.
前記制御情報は、さらに前記第1の移動体と前記第2の移動体との間の関係に基づいて、生成される、
請求項1〜7のいずれか1項に記載の情報処理装置。
The control information is further generated based on a relationship between the first moving body and the second moving body.
The information processing apparatus according to claim 1.
前記関係は、位置関係を含む、
請求項7または8に記載の情報処理装置。
The relationship includes a positional relationship,
The information processing apparatus according to claim 7 or 8.
前記関係は、速さおよび向きの少なくとも一方についての関係を含む、
請求項7〜9のいずれか1項に記載の情報処理装置。
The relationship includes a relationship for at least one of speed and orientation,
The information processing apparatus according to any one of claims 7 to 9.
前記挙動推定部は、さらに前記物体の周辺の道路状況に基づいて、前記挙動を推定する、
請求項1〜10のいずれか1項に記載の情報処理装置。
The behavior estimation unit further estimates the behavior based on a road situation around the object.
The information processing apparatus according to claim 1.
前記挙動推定部は、さらに前記第2の移動体の周辺の道路状況に基づいて、前記挙動を推定する、
請求項1〜11のいずれか1項に記載の情報処理装置。
The behavior estimating unit further estimates the behavior based on a road situation around the second moving body.
The information processing apparatus according to claim 1.
前記挙動推定部は、前記第2の移動体が複数存在する場合、複数の第2の移動体の挙動の各々を整合するように推定し、
前記生成部は、前記複数の第2の移動体の挙動の各々に基づいて前記少なくとも1つの出力情報を生成する、
請求項1〜12のいずれか1項に記載の情報処理装置。
The behavior estimation unit estimates the behaviors of the plurality of second moving bodies to be consistent with each other when there are a plurality of the second moving bodies;
The generating unit generates the at least one output information based on each of the behaviors of the plurality of second moving objects;
The information processing apparatus according to claim 1.
前記第1の移動体の移動制御に利用される情報は、前記第1の移動体の加速、減速、及び操舵の少なくとも1つを制御するための制御情報を含む、
請求項1〜13のいずれか1項に記載の情報処理装置。
Information used for movement control of the first moving body includes control information for controlling at least one of acceleration, deceleration, and steering of the first moving body.
The information processing apparatus according to claim 1.
前記第1の移動体の移動制御に利用される情報は、前記第1の移動体から所定の範囲に存在する物体に基づいて前記第1の移動体の経路計画を決定する処理の入力情報を含む、
請求項1〜13のいずれか1項に記載の情報処理装置。
The information used for the movement control of the first moving body includes input information of a process for determining a route plan of the first moving body based on an object existing within a predetermined range from the first moving body. Including,
The information processing apparatus according to claim 1.
第1の移動体に搭載される情報処理装置の動作を制御するプログラムであって、
前記第1の移動体の周辺のセンシングにより得られるセンシング情報を取得する取得ステップと、
前記センシング情報を用いて、前記第1の移動体の周辺に存在し、特定の状態にある物体を検出する物体検出ステップと、
前記センシング情報を用いて、前記第1の移動体の周辺に存在し、検出された前記物体により進路に影響を受ける第2の移動体を検出する移動体検出ステップと、
検出された前記第2の移動体の挙動を前記特定の状態に基づいて推定する挙動推定ステップと、
推定された前記挙動に基づいて、前記第1の移動体の移動制御に利用される情報および前記第1の移動体の周辺に存在する移動体へ提供される情報の少なくとも1つの出力情報を生成する生成ステップと、
前記少なくとも1つの出力情報を出力する出力ステップと、
を含むプログラム。
A program for controlling the operation of an information processing apparatus mounted on a first moving body,
An acquisition step of acquiring sensing information obtained by sensing around the first moving body;
Using the sensing information, an object detection step of detecting an object existing around the first moving body and in a specific state;
Using the sensing information, a moving body detecting step of detecting a second moving body that exists around the first moving body and is influenced by a path of the detected object;
A behavior estimation step of estimating the detected behavior of the second moving body based on the specific state;
Based on the estimated behavior, at least one output information of information used for movement control of the first moving body and information provided to a moving body existing around the first moving body is generated. Generating step to
Outputting the at least one output information;
Including programs.
JP2018021147A 2017-06-19 2018-02-08 Information processing device and program Pending JP2019003605A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/957,254 US20180362047A1 (en) 2017-06-19 2018-04-19 Information processing device and recording medium
EP18171812.3A EP3419002A1 (en) 2017-06-19 2018-05-11 Information processing device and recording medium
CN201810599768.3A CN109147387A (en) 2017-06-19 2018-06-12 Information processing unit and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017119904 2017-06-19
JP2017119904 2017-06-19

Publications (1)

Publication Number Publication Date
JP2019003605A true JP2019003605A (en) 2019-01-10

Family

ID=65006924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018021147A Pending JP2019003605A (en) 2017-06-19 2018-02-08 Information processing device and program

Country Status (1)

Country Link
JP (1) JP2019003605A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015516623A (en) * 2012-03-15 2015-06-11 グーグル・インク Changing the behavior of autonomous vehicles based on the predicted behavior of other vehicles
US9381916B1 (en) * 2012-02-06 2016-07-05 Google Inc. System and method for predicting behaviors of detected objects through environment representation
US20160272207A1 (en) * 2013-05-03 2016-09-22 Google Inc. Predictive Reasoning For Controlling Speed Of A Vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9381916B1 (en) * 2012-02-06 2016-07-05 Google Inc. System and method for predicting behaviors of detected objects through environment representation
JP2015516623A (en) * 2012-03-15 2015-06-11 グーグル・インク Changing the behavior of autonomous vehicles based on the predicted behavior of other vehicles
US20160272207A1 (en) * 2013-05-03 2016-09-22 Google Inc. Predictive Reasoning For Controlling Speed Of A Vehicle

Similar Documents

Publication Publication Date Title
JP6501851B2 (en) Driver assistance device with man-machine interface system
EP3419002A1 (en) Information processing device and recording medium
JP6112054B2 (en) Electronic device, electronic device control method, and electronic device control program
CN108116413B (en) Automatic driving control device
JP6936679B2 (en) Information processing equipment and programs
JP2018025989A (en) Automatic operation system
CN108883725A (en) A kind of driving vehicle warning system and method
JP7059786B2 (en) Out-of-vehicle notification device
CN109074742B (en) Peripheral recognition device, peripheral recognition method, and computer-readable recording medium
JP7321277B2 (en) Driving support device, vehicle control device, driving support system, and driving support method
WO2018021463A1 (en) Control device and control program for self-driving vehicle
JP2017207932A (en) Passage safety device, and traffic accident occurrence prevention method
JP2016007954A (en) Lane merging assist system
JP2019070900A (en) Vehicle controller
JP2022048339A (en) Information processing device
JP2018197966A (en) Travel support method and travel support device
CN109969191B (en) Driving assistance system and method
WO2019106789A1 (en) Processing device and processing method
US11981255B2 (en) Vehicle control device, vehicle, operation method for vehicle control device, and storage medium
JP2020052920A (en) Information processing system and information processing method
CN115107641A (en) Light projection device, method and storage medium
CN111666906A (en) Prompt message generation method and device, electronic equipment and storage medium
JP2019036100A (en) Driving assistance device
JP6245842B2 (en) Vehicle collision prevention processing method, program and system
JPWO2020026461A1 (en) Information processing equipment, information processing methods and information processing programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210906

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211102