JP2020091375A - Information presentation system, information presentation method, program, and moving body - Google Patents
Information presentation system, information presentation method, program, and moving body Download PDFInfo
- Publication number
- JP2020091375A JP2020091375A JP2018227653A JP2018227653A JP2020091375A JP 2020091375 A JP2020091375 A JP 2020091375A JP 2018227653 A JP2018227653 A JP 2018227653A JP 2018227653 A JP2018227653 A JP 2018227653A JP 2020091375 A JP2020091375 A JP 2020091375A
- Authority
- JP
- Japan
- Prior art keywords
- person
- information
- display unit
- predetermined
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】課題は、移動体に乗っている人物に適切に情報を提示できる、情報提示システム、情報提示方法、プログラム、及び、移動体を提供することである。【解決手段】情報提示システム10は、状態取得部41と、動作検出部42と、提示制御部43とを備える。状態取得部41は、所定情報を視覚的に提示する表示部を有する移動体に乗っている人物の頭部の状態を取得する。動作検出部42は、状態取得部41で取得された状態に基づいて、人物が表示部を覗き込む所定動作を行ったかどうかを判定する。提示制御部43は、人物が所定動作を行ったと動作検出部42が判定すると、所定情報を表示部と異なる提示方法で提示する。【選択図】 図1PROBLEM TO BE SOLVED: To provide an information presentation system, an information presentation method, a program, and a moving body capable of appropriately presenting information to a person riding on the moving body. An information presentation system 10 includes a state acquisition unit 41, an operation detection unit 42, and a presentation control unit 43. The state acquisition unit 41 acquires the state of the head of a person riding on a moving body having a display unit that visually presents predetermined information. The motion detection unit 42 determines whether or not a person has performed a predetermined motion of looking into the display unit based on the state acquired by the state acquisition unit 41. When the motion detection unit 42 determines that the person has performed a predetermined motion, the presentation control unit 43 presents the predetermined information by a presentation method different from that of the display unit. [Selection diagram] Fig. 1
Description
本開示は、情報提示システム、情報提示方法、プログラム、及び、移動体に関する。本開示は、特に、移動体に乗っている人物に情報を提示する情報提示システム、情報提示方法、プログラム、及び、移動体に関する。 The present disclosure relates to an information presentation system, an information presentation method, a program, and a mobile body. The present disclosure particularly relates to an information presenting system, an information presenting method, a program, and a moving body that presents information to a person on the moving body.
特許文献1は、車両用表示装置(情報提示システム)を開示する。特許文献1では、車両用表示装置は、車両内に搭載され、該車両に関する各種情報を表示画面に表示する。車両用表示装置は、運転者(移動体に乗っている人物)の注視点が表示画面内にある場合には、運転者が注視している部位の表示文字サイズ(字角)が大きくなるように変更する。 Patent Document 1 discloses a vehicle display device (information presentation system). In Patent Document 1, a vehicular display device is mounted in a vehicle and displays various information regarding the vehicle on a display screen. The display device for a vehicle is designed so that the display character size (corner angle) of the part the driver is gazing becomes large when the gazing point of the driver (person on the moving body) is on the display screen. Change to.
特許文献1は、単に運転者が注視しているかどうかだけで表示文字サイズ(字角)を変える。そのため、運転者の意図しない文字サイズの変更が発生する場合がある。これは、逆に、運転者による情報の取得の妨げになり得る。 In Patent Document 1, the display character size (character angle) is changed only by whether or not the driver is gazing. Therefore, the font size may change unintentionally by the driver. On the contrary, this may hinder the driver from obtaining information.
課題は、移動体に乗っている人物に適切に情報を提示できる、情報提示システム、情報提示方法、プログラム、及び、移動体を提供することである。 An object is to provide an information presentation system, an information presentation method, a program, and a mobile body that can appropriately present information to a person riding on the mobile body.
本開示の一態様の情報提示システムは、状態取得部と、動作検出部と、提示制御部と、を備える。前記状態取得部は、所定情報を視覚的に提示する表示部を有する移動体に乗っている人物の頭部の状態を取得する。前記動作検出部は、前記状態取得部で取得された前記状態に基づいて、前記人物が前記表示部を覗き込む所定動作を行ったかどうかを判定する。前記提示制御部は、前記人物が前記所定動作を行ったと前記動作検出部が判定すると、前記所定情報を前記表示部と異なる提示方法で提示する。 An information presentation system according to an aspect of the present disclosure includes a state acquisition unit, a motion detection unit, and a presentation control unit. The state acquisition unit acquires the state of the head of a person riding on a moving body that has a display unit that visually presents predetermined information. The motion detection unit determines whether or not the person has performed a predetermined motion of looking into the display unit based on the state acquired by the state acquisition unit. When the motion detection unit determines that the person has performed the predetermined motion, the presentation control unit presents the predetermined information by a presentation method different from that of the display unit.
本開示の一態様の情報提示方法は、所定情報を視覚的に提示する表示部を有する移動体に乗っている人物の頭部の状態を取得する。前記情報提示方法は、前記状態に基づいて、前記人物が前記表示部を覗き込む所定動作を行ったかどうかを判定する。前記情報提示方法は、前記人物が前記所定動作を行ったと判定すると、前記所定情報を前記表示部と異なる提示方法で提示する。 An information presentation method according to an aspect of the present disclosure acquires a state of a head of a person who is on a moving body having a display unit that visually presents predetermined information. The information presentation method determines, based on the state, whether the person has performed a predetermined operation of looking into the display unit. When the information presentation method determines that the person has performed the predetermined operation, the predetermined information is presented by a presentation method different from that of the display unit.
本開示の一態様のプログラムは、1以上のプロセッサに、上述の情報提示方法を実行させるための、プログラムである。 A program according to one aspect of the present disclosure is a program for causing one or more processors to execute the above-described information presentation method.
本開示の一態様の移動体は、上述の情報提示システムと、前記情報提示システムが搭載される移動体本体と、を備える。 A mobile body according to one aspect of the present disclosure includes the above-described information presentation system and a mobile body main body on which the information presentation system is mounted.
本開示の態様によれば、移動体に乗っている人物に適切に情報を提示できる、という効果を奏する。 According to the aspects of the present disclosure, it is possible to appropriately present information to a person riding on a moving body.
1.実施形態
図1は、一実施形態の情報提示システム10を示す。本実施形態の情報提示システム10は、状態取得部41と、動作検出部42と、提示制御部43とを備える。状態取得部41は、所定情報を視覚的に提示する表示部R10を有する移動体100に乗っている人物H1の頭部の状態を取得する(図2参照)。動作検出部42は、状態取得部41で取得された状態に基づいて、人物H1が表示部R10を覗き込む所定動作を行ったかどうかを判定する。提示制御部43は、人物H1が所定動作を行ったと動作検出部42が判定すると、所定情報を表示部R10と異なる提示方法で提示する。
1. Embodiment FIG. 1 shows an
このように、情報提示システム10は、人物H1が表示部R10を覗き込む所定動作を行った場合に、表示部R10で視覚的に提示されている所定情報を表示部R10と異なる提示方法で提示する。人間が表示部から情報をより正確に把握しようとした場合には、人間は表示部を覗き込む動作をする可能性が高い。よって、情報提示システム10では、人物H1が情報の取得を意図した場合に、人物H1への情報の提示が可能になる。したがって、情報提示システム10によれば、移動体100に乗っている人物H1に適切に情報を提示できる。
In this way, the
1.2 詳細
以下、情報提示システム10について図面を参照して詳細に説明する。情報提示システム10は、図2に示すように、移動体100に乗っている人物H1に、情報を提示するためのシステムである。情報提示システム10は、移動体100の本体101に搭載される。本実施形態では、移動体100は乗物である。特に、移動体100は自動車である。
1.2 Details Hereinafter, the
移動体100は、複数の表示部R10を有している。表示部R10は、移動体100において、所定情報を視覚的に提示する部分である。換言すれば、所定情報は、表示部R10での表示内容であるといえる。複数の表示部R10は、図2に示すように、第1表示部R11と、第2表示部R12とを含む。第1表示部R11は、後述する画像表示装置31の画面310を含む。第1表示部R11の所定情報の例としては、パーキングアシスト情報、地図情報、カーナビゲーションシステムによるナビゲーション情報、及び、オーディオシステムで再生中の音楽情報又は映像情報が挙げられる。第2表示部R12は、移動体100のインストルメンタルパネル(ダッシュボード)の計器盤である。第2表示部R12の所定情報の例としては、計器盤で表示される情報である。計器盤で表示される情報は、移動体100の現在の状態に関する情報を含み得る。例えば、移動体100の現在の状態に関する情報としては、移動体100の走行速度(現在の速度)、ガソリンの残量(バッテリーの残量)、走行距離、エンジンの回転数、警告灯、表示灯が挙げられる。警告灯としては、ABS警告灯、ブレーキ警告灯、油圧警告灯、高水温警告灯、燃料残量警告灯、故障警告灯が挙げられる。表示灯としては、フォグランプ表示灯、ヘッドランプ上向き表示灯、アイドリングストップ表示灯、低水温表示灯が挙げられる。
The moving
情報提示システム10は、図1に示すように、撮像部20と、提示部30と、処理部40とを備える。
As shown in FIG. 1, the
撮像部20は、情報提示システム10により情報を提示する対象となる人物H1の頭部を含む画像を撮るための装置又はシステムである。撮像部20は、1以上のカメラを含む。本実施形態では、人物H1は、移動体100を運転するドライバを想定している。人物H1は必ずしもドライバに限定されず、助手席や後部座席等に座っている人物であってよい。撮像部20は、図2に示すように、移動体100の本体101において、人物H1の頭部を含む画像、特に、人物H1の顔面の画像を撮ることができる位置に配置される。撮像部20で撮られた画像は処理部40に与えられる。
The
提示部30は、人物H1に情報の提示を行うための装置又はシステムである。つまり、提示部30は、ヒューマン−マシンインタフェースである。提示部30は、画像表示装置31と、音声出力装置32と、ヘッドアップディスプレイ33とを有している。画像表示装置31及びヘッドアップディスプレイ33は、人物H1に視覚的な情報を提示するための装置又はシステムである。画像表示装置31は、液晶ディスプレイや、有機ELディスプレイ等の1以上のディスプレイを含み得る。本実施形態では、画像表示装置31は、本体101に搭載されるカーナビゲーションシステムの液晶ディスプレイを含む。画像表示装置31は、図2に示すように、画面310を有している。音声出力装置32は、人物H1に聴覚的な情報を提示するための装置又はシステムである。音声出力装置32は、1以上のスピーカを含み得る。本実施形態では、音声出力装置32は、本体101に搭載されるオーディオシステムを含む。
The
処理部40は、情報提示システム10の動作を制御する役割を持つ電気回路である。処理部40は、例えば、1以上のプロセッサ(マイクロプロセッサ)により実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラムを実行することで、処理部40として機能する。1以上のプログラムは、メモリに予め記録されていてもよいし、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。
The
処理部40は、図1に示すように、状態取得部41と、動作検出部42と、提示制御部43とを備える。状態取得部41と、動作検出部42と、提示制御部43とは実体のある構成を示しているわけではなく、処理部40によって実現される機能を示している。
As shown in FIG. 1, the
状態取得部41は、移動体100に乗っている人物H1の頭部の状態(現在の状態)を取得する。状態は、人物H1の視点(注視点)、及び、人物H1の頭部の位置を含む。図2に示すように、視点は、人物H1の視線Q1の注がれるところである。要するに、状態取得部41は、移動体100の内部において人物H1が見ている場所を検出する。本実施形態では、状態取得部41は、撮像部20から得られた人物H1の頭部の画像に基づいて、人物H1の視点を検出する。視点の検出には、従来周知のアイトラッキング技術(特に、オプティカルトラッキング)を用いることができる。また、状態取得部41は、移動体100の内部において人物H1の頭部の位置を検出する。本実施形態では、状態取得部41は、撮像部20から得られた人物H1の頭部の画像に基づいて、人物H1の頭部の位置を検出する。人物H1の頭部の位置の検出は、従来周知の技術により可能であるから説明は省略する。
The
動作検出部42は、状態取得部41で取得された状態(人物H1の頭部の状態)に基づいて、人物H1が表示部R10を覗き込む所定動作を行ったかどうかを判定する。本実施形態では、移動体100は、2つの表示部R10を有している。したがって、動作検出部42は、表示部R10毎に、状態取得部41で取得された状態(人物H1の頭部の状態)に基づいて、人物H1が表示部R10を覗き込む所定動作を行ったかどうかを判定する。
The motion detection unit 42 determines whether or not the person H1 has performed a predetermined motion of looking into the display unit R10 based on the state (state of the head of the person H1) acquired by the
より詳細には、動作検出部42は、人物H1が表示部R10を視認している状態で、人物H1の頭部が表示部R10に近付いた場合に、人物H1が所定動作を行ったと判断する。これによって、人物H1の所定動作の判定精度の向上が図れる。 More specifically, the motion detection unit 42 determines that the person H1 has performed a predetermined motion when the head of the person H1 approaches the display unit R10 while the person H1 is visually recognizing the display unit R10. .. As a result, it is possible to improve the determination accuracy of the predetermined motion of the person H1.
動作検出部42は、人物H1の視点に基づいて人物H1が表示部R10を視認しているかどうかを判断する。人物H1が表示部R10を視認しているかどうかの判断では、視線Q1のベクトルと基準ベクトルとの角度θ(図3参照)が用いられる。視線Q1のベクトルは、人物H1の頭部の基準点P1から人物H1の視点に向かうベクトルと定義され得る。人物H1の頭部の基準点P1は、人物H1の頭部の位置の基準、又は、人物H1の視線の起点となる場所である。例えば、人物H1の頭部の基準点P1は、人物H1の左右の目の中点である。基準ベクトルは、人物H1の頭部の基準点P1から表示部R10の所定点P2に向かうベクトルと定義され得る。表示部R10の所定点P2は、表示部R10の位置の基準となる点である。例えば、表示部R10の所定点P2は、表示部R10の中心点である。角度θの演算は、従来周知の技術により可能であるから説明は省略する。 The motion detection unit 42 determines whether or not the person H1 is visually recognizing the display unit R10 based on the viewpoint of the person H1. The angle θ (see FIG. 3) between the vector of the line of sight Q1 and the reference vector is used to determine whether or not the person H1 is visually recognizing the display portion R10. The vector of the line of sight Q1 can be defined as a vector from the reference point P1 of the head of the person H1 toward the viewpoint of the person H1. The reference point P1 of the head of the person H1 is a reference of the position of the head of the person H1 or a place serving as a starting point of the line of sight of the person H1. For example, the reference point P1 of the head of the person H1 is the midpoint of the left and right eyes of the person H1. The reference vector can be defined as a vector from the reference point P1 of the head of the person H1 toward the predetermined point P2 of the display unit R10. The predetermined point P2 on the display section R10 is a reference point for the position of the display section R10. For example, the predetermined point P2 on the display section R10 is the center point of the display section R10. The calculation of the angle θ can be performed by a conventionally known technique, and thus the description thereof will be omitted.
動作検出部42は、角度θが閾値θth以下であれば、人物H1が表示部R10を視認していると判断する。一方、動作検出部42は、角度θが閾値θthを超えていれば、人物H1が表示部R10を視認していないと判断する。閾値θthは、本実施形態では、20[deg]である。閾値θthは、表示部R10の大きさ、及び、人物H1の頭部の基準位置と表示部R10(所定点P2)との距離によって決定され得る。ここで、人物H1の頭部の基準位置は、人物H1が覗き込みをしていない状態での頭部の位置と定義され得る。例えば、人物H1の頭部の基準位置は、人物H1が移動体100の座席に背筋を伸ばして座っている状態での人物H1の頭部の位置である。
If the angle θ is equal to or less than the threshold value θth, the motion detection unit 42 determines that the person H1 is visually recognizing the display unit R10. On the other hand, if the angle θ exceeds the threshold value θth, the motion detection unit 42 determines that the person H1 is not visually recognizing the display unit R10. The threshold value θth is 20 [deg] in this embodiment. The threshold value θth can be determined by the size of the display unit R10 and the distance between the reference position of the head of the person H1 and the display unit R10 (predetermined point P2). Here, the reference position of the head of the person H1 may be defined as the position of the head of the person H1 when the person H1 is not looking into the head. For example, the reference position of the head of the person H1 is the position of the head of the person H1 in a state where the person H1 is sitting on the seat of the moving
動作検出部42は、人物H1の頭部の位置の時間変化に基づいて、人物H1の頭部が表示部R10に近付いたかどうかを判断する。人物H1の頭部が表示部R10に近付いたかどうかの判断では、人物H1の頭部と表示部R10との距離r(図3参照)が用いられる。人物H1の頭部と表示部R10との距離rは、人物H1の頭部の位置と表示部R10の所定点P2との距離である。距離rの演算は、従来周知の技術により可能であるから説明は省略する。 The motion detection unit 42 determines whether or not the head of the person H1 approaches the display unit R10 based on the temporal change in the position of the head of the person H1. The distance r (see FIG. 3) between the head of the person H1 and the display unit R10 is used to determine whether or not the head of the person H1 has approached the display unit R10. The distance r between the head of the person H1 and the display section R10 is the distance between the position of the head of the person H1 and the predetermined point P2 of the display section R10. The calculation of the distance r can be performed by a conventionally well-known technique, and thus the description thereof will be omitted.
本実施形態では、動作検出部42は、人物H1の頭部と表示部R10との距離rが減少する状態が所定時間sth継続した際に、人物H1の頭部が表示部R10に近付いたと判断する。所定時間sthは、本実施形態では、1000[msec]である。所定時間sthは、人物H1が覗き込み動作に要する時間を考慮して適宜設定されればよい。 In the present embodiment, the motion detection unit 42 determines that the head of the person H1 approaches the display unit R10 when the distance r between the head of the person H1 and the display unit R10 decreases for a predetermined time sth. To do. The predetermined time sth is 1000 [msec] in this embodiment. The predetermined time sth may be set as appropriate in consideration of the time required for the person H1 to look into the object.
図4は、角度θ及び距離rの時間変化を示している。図4では、時点t11で、角度θが閾値θth以下になる。よって、動作検出部42は、人物H1が表示部R10を視認していると判断する。これによって、動作検出部42は、人物H1の頭部が表示部R10に近付いたかどうかを判断する。動作検出部42は、距離rを計算し、距離rが減少しているかどうかを判断する。動作検出部42は、距離rが減少している状態の継続期間が所定時間sth継続した時点t12で、人物H1の頭部が表示部R10に近付いたと判断する。その結果、動作検出部42は、人物H1が所定動作を行ったと判断する。なお、図4の時点t11以降で、角度θが閾値θthを超えた場合には、距離rが減少している状態の継続期間はリセットされる。また、角度θが閾値θth以下の状態であっても、距離rが減少ではなく増加した場合にも、距離rが減少している状態の継続期間はリセットされる。 FIG. 4 shows changes over time in the angle θ and the distance r. In FIG. 4, at time t11, the angle θ becomes equal to or less than the threshold value θth. Therefore, the motion detection unit 42 determines that the person H1 is visually recognizing the display unit R10. Thereby, the motion detection unit 42 determines whether or not the head of the person H1 approaches the display unit R10. The motion detector 42 calculates the distance r and determines whether or not the distance r has decreased. The motion detection unit 42 determines that the head of the person H1 has approached the display unit R10 at time t12 when the duration of the state in which the distance r is decreasing continues for the predetermined time sth. As a result, the motion detection unit 42 determines that the person H1 has performed the predetermined motion. When the angle θ exceeds the threshold value θth after the time t11 in FIG. 4, the duration of the state in which the distance r is decreasing is reset. Further, even when the angle θ is equal to or smaller than the threshold value θth, even when the distance r increases instead of decreasing, the duration of the state in which the distance r is decreasing is reset.
提示制御部43は、人物H1が所定動作を行ったと動作検出部42が判定すると、所定情報を表示部R10(第1表示部R11、第2表示部R12)と異なる提示方法で提示する。 When the motion detection unit 42 determines that the person H1 has performed the predetermined motion, the presentation control unit 43 presents the predetermined information by a presentation method different from that of the display unit R10 (first display unit R11, second display unit R12).
本実施形態では、提示方法は、提示の形式と、提示の態様との2つの要素の組み合わせで定義され得る。 In the present embodiment, the presentation method can be defined by a combination of two elements of a presentation format and a presentation mode.
提示の形式は、人物H1が認知可能な情報の形式である。換言すれば、提示の形式は、どのような媒体によって情報を伝達するかを定義する。提示の形式の例としては、視覚情報(視覚的に認知可能な媒体)、聴覚情報(聴覚的に認知可能な媒体)、触覚情報(触覚的に認知可能な媒体)が挙げられる。本実施形態では、提示の形式は、視覚情報と聴覚情報とから選択される。本実施形態では、視覚情報の提示には、画像表示装置31及び/又はヘッドアップディスプレイ33が利用可能である。一方、聴覚情報の提示には、音声出力装置32が利用可能である。 The presentation format is a format of information that the person H1 can recognize. In other words, the form of presentation defines by what medium the information is conveyed. Examples of the presentation format include visual information (visually recognizable medium), auditory information (audible recognizable medium), and tactile information (tactile recognizable medium). In the present embodiment, the presentation format is selected from visual information and auditory information. In the present embodiment, the image display device 31 and/or the head-up display 33 can be used to present the visual information. On the other hand, the audio output device 32 can be used to present the auditory information.
提示の態様は、提示の形式で定められた媒体でどのように情報を伝達するかを定義する。よって、提示の態様は、提示の形式に応じて異なる。視覚情報に対して、提示の態様は、情報の提示の場所、及び、情報の配置の仕方を含み得る。情報の提示の場所は、移動体100のどの場所に情報を提示するかを定義する。例えば、情報の提示の場所は、情報を画像表示装置31とヘッドアップディスプレイ33とのいずれに表示するかを示す。一方、情報の配置の仕方は、提示する情報のレイアウトに関し、例えば、提示する情報を構成する文字、図形等の種類、大きさ(例えば、画像の拡大・縮小)、色彩等も含む。
A presentation aspect defines how to convey information in a medium defined by the format of the presentation. Therefore, the presentation mode differs depending on the presentation format. For visual information, the presentation aspect may include where the information is presented and how the information is arranged. The location of information presentation defines to which location of the
そして、本実施形態でいう、「所定情報を表示部と異なる提示方法で提示する」とは、提示制御部43での提示方法が、表示部R10での提示方法とは、提示の形式と提示の態様との少なくとも一方で異なっていることを意味する。 In the present embodiment, "presenting the predetermined information by a presentation method different from that of the display unit" means that the presentation method by the presentation control unit 43 is the presentation method and the presentation method by the display unit R10. It means that at least one of the above aspects is different.
次に、提示制御部43での提示方法の例を挙げる。 Next, an example of a presentation method in the presentation control unit 43 will be given.
例えば、提示制御部43での提示方法は、所定情報を視覚的に提示する方法であって、所定情報の配置の仕方が表示部R10と異なっていてもよい。つまり、提示制御部43での提示方法は、表示部R10での提示方法と、提示の態様において異なっている。例えば、図5は、第1表示部R11が画像表示装置31の画面310に提示する所定情報の一例を示す。図5では、画面310に表示されている所定情報は、パーキングアシスト情報である。パーキングアシスト情報は、移動体100を上から見下ろしたような第1画像(トップ・ビュー)と、移動体100の後方の第2画像(リヤ・ビュー)とを含む。第1画像は、画面310の第1部分311に表示され、第2画像は、画面310の第2部分312に表示されている。一方、図6は、提示制御部43が画像表示装置31の画面310に提示する所定情報の一例を示す。図6では、パーキングアシスト情報(所定情報)は、移動体100を上から見下ろしたような第1画像(トップ・ビュー)と、移動体100の後方の第2画像(リヤ・ビュー)とを含む。第1画像は、画面310の第1部分311に表示され、第2画像は、画面310の第2部分312に表示されている。ただし、提示制御部43は、第2画像を、第1表示部R11の場合よりも、拡大して画面310の第2部分312に表示している。つまり、提示制御部43での提示方法は、第1表示部R11と同じく所定情報を視覚的に提示する方法ではあるが、所定情報の第2画像を拡大することで、所定情報の配置の仕方を第1表示部R11と異ならせている。これによって、人物H1は、パーキングアシスト情報(所定情報)を第1表示部R11よりも把握しやすくなる。
For example, the presentation method of the presentation control unit 43 is a method of visually presenting the predetermined information, and the way of arranging the predetermined information may be different from that of the display unit R10. That is, the presentation method of the presentation control unit 43 differs from the presentation method of the display unit R10 in the presentation mode. For example, FIG. 5 shows an example of predetermined information presented on the
例えば、提示制御部43は、表示部R10とは異なる場所に所定情報を提示してよい。例えば、第1表示部R11は、所定情報を画像表示装置31の画面310に表示するが、提示制御部43は、所定情報をヘッドアップディスプレイ33に表示してよい。この場合、提示制御部43での提示方法は、表示部R10での提示方法と、提示の態様(情報の提示の場所)において異なっている。このように情報の提示の場所を変えることによっても、人物H1は、パーキングアシスト情報(所定情報)を第1表示部R11よりも把握しやすくなる。
For example, the presentation control unit 43 may present the predetermined information in a place different from the display unit R10. For example, the first display unit R11 may display the predetermined information on the
例えば、提示制御部43での提示方法は、所定情報を聴覚的に提示する方法であってもよい。つまり、提示制御部43での提示方法は、表示部R10での提示方法と、提示の形式において異なっていてよい。例えば、第1表示部R11については、ナビゲーション情報(目的地や、目的地までの距離等)、再生中の音楽や映像のタイトル等を音声出力装置32によって聴覚的に提示してよい。例えば、第2表示部R12については、移動体100の現在の状態に関する情報を音声出力装置32によって聴覚的に提示してよい。具体的には、音声出力装置32によって、移動体100の走行速度(現在の速度)、ガソリンの残量(バッテリーの残量)、走行距離、エンジンの回転数、警告灯の点灯、表示灯の点灯を通知してよい。
For example, the presentation method of the presentation control unit 43 may be a method of auditorily presenting the predetermined information. That is, the presentation method of the presentation control unit 43 may be different from the presentation method of the display unit R10 in the presentation format. For example, for the first display unit R11, the navigation information (destination, distance to the destination, etc.), the title of music or video being played, and the like may be presented aurally by the audio output device 32. For example, for the second display unit R12, the audio output device 32 may audibly present information about the current state of the
1.3 動作
次に、情報提示システム10の動作について図7のフローチャートを参照して簡単に説明する。情報提示システム10では、撮像部20は、人物H1の頭部を含む画像を取得する(S11)。次に、状態取得部41は、撮像部20で撮られた画像から、人物H1の頭部の状態(現在の状態)を取得する。状態は、人物H1の視点(注視点)、及び、人物H1の頭部の位置を含む。 動作検出部42は、状態取得部41で取得された状態(人物H1の頭部の状態)に基づいて、人物H1が表示部R10を覗き込む所定動作を行ったかどうかを判定する(S13)。人物H1が所定動作を行ったと動作検出部42が判定すると(s13:Yes)、提示制御部43は、所定情報を表示部R10(第1表示部R11、第2表示部R12)と異なる提示方法で提示する(S14)。
1.3 Operation Next, the operation of the
1.4 まとめ
以上述べた情報提示システム10は、状態取得部41と、動作検出部42と、提示制御部43とを備える。状態取得部41は、所定情報を視覚的に提示する表示部R10を有する移動体100に乗っている人物H1の頭部の状態を取得する(図2参照)。動作検出部42は、状態取得部41で取得された状態に基づいて、人物H1が表示部R10を覗き込む所定動作を行ったかどうかを判定する。提示制御部43は、人物H1が所定動作を行ったと動作検出部42が判定すると、所定情報を表示部R10と異なる提示方法で提示する。情報提示システム10によれば、移動体100に乗っている人物H1に適切に情報を提示できる。
1.4 Summary The
換言すれば、情報提示システム10は、下記の方法(情報提示方法)を実行しているといえる。情報提示方法は、所定情報を視覚的に提示する表示部R10を有する移動体100に乗っている人物H1の頭部の状態を取得する。情報提示方法は、状態に基づいて、人物H1が表示部R10を覗き込む所定動作を行ったかどうかを判定する。情報提示方法は、人物が所定動作を行ったと判定すると、所定情報を表示部R10と異なる提示方法で提示する。この情報提示方法によれば、移動体100に乗っている人物H1に適切に情報を提示できる。
In other words, it can be said that the
情報提示方法は、1以上のプロセッサがプログラム(コンピュータプログラム)を実行することにより実現される。このプログラムは、1以上のプロセッサに情報提示方法を実行させるためのプログラムである。このようなプログラムによれば、情報提示方法と同様に、移動体100に乗っている人物H1に適切に情報を提示できる。
The information presentation method is realized by one or more processors executing a program (computer program). This program is a program for causing one or more processors to execute the information presentation method. According to such a program, information can be appropriately presented to the person H1 who is on the moving
2.変形例
本開示の実施形態は、上記実施形態に限定されない。上記実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。以下に、上記実施形態の変形例を列挙する。
2. Modification Embodiments of the present disclosure are not limited to the above-described embodiments. The above embodiment can be variously modified according to the design and the like as long as the object of the present disclosure can be achieved. The modifications of the above embodiment are listed below.
一変形例では、動作検出部42は、角度θではなく、視点の位置に基づいて、人物H1が表示部R10を視認しているかどうかを判断してもよい。例えば、動作検出部42は、視点が表示部R10上にあれば、人物H1が表示部R10を視認していると判断してよい。人物H1が表示部R10を視認しているかどうかについてはその他従来周知の技術により判断できる。 In a modification, the motion detection unit 42 may determine whether or not the person H1 is visually recognizing the display unit R10 based on the position of the viewpoint instead of the angle θ. For example, the movement detection unit 42 may determine that the person H1 is visually recognizing the display unit R10 when the viewpoint is on the display unit R10. Whether or not the person H1 visually recognizes the display portion R10 can be determined by other conventionally known techniques.
上記実施形態では、動作検出部42は、人物H1の頭部と表示部R10との距離rが減少する状態が所定時間sth継続した際に、人物H1の頭部が表示部R10に近付いたと判断する。一変形例では、動作検出部42は、人物H1の頭部と表示部R10との距離rが所定値rth減少した際に、人物H1の頭部が表示部R10に近付いたと判断してよい。所定値rthは、本実施形態では、100[mm]である。所定値rthは、人物H1の覗き込み動作によって変化する距離を考慮して適宜設定されればよい。図8は、角度θ及び距離rの時間変化を示している。図8では、時点t21で、角度θが閾値θth以下になる。よって、動作検出部42は、人物H1が表示部R10を視認していると判断する。これによって、動作検出部42は、人物H1の頭部が表示部R10に近付いたかどうかを判断する。動作検出部42は、距離rを計算し、距離rの減少値が所定値rthに達したかどうかを判断する。動作検出部42は、距離rの減少値が所定値rthになった時点t22で、人物H1の頭部が表示部R10に近付いたと判断する。その結果、動作検出部42は、人物H1が所定動作を行ったと判断する。なお、図8の時点t21以降で、角度θが閾値θthを超えた場合には、距離rの減少値はリセットされる。 In the above-described embodiment, the motion detection unit 42 determines that the head of the person H1 approaches the display unit R10 when the distance r between the head of the person H1 and the display unit R10 decreases for a predetermined time sth. To do. In a modification, the motion detection unit 42 may determine that the head of the person H1 has approached the display unit R10 when the distance r between the head of the person H1 and the display unit R10 has decreased by a predetermined value rth. The predetermined value rth is 100 [mm] in this embodiment. The predetermined value rth may be set as appropriate in consideration of the distance that changes due to the look-in motion of the person H1. FIG. 8 shows changes over time in the angle θ and the distance r. In FIG. 8, the angle θ becomes equal to or smaller than the threshold value θth at the time point t21. Therefore, the motion detection unit 42 determines that the person H1 is visually recognizing the display unit R10. Thereby, the motion detection unit 42 determines whether or not the head of the person H1 approaches the display unit R10. The motion detection unit 42 calculates the distance r and determines whether the decrease value of the distance r has reached a predetermined value rth. The motion detection unit 42 determines that the head of the person H1 approaches the display unit R10 at time t22 when the decrease value of the distance r reaches the predetermined value rth. As a result, the motion detection unit 42 determines that the person H1 has performed the predetermined motion. When the angle θ exceeds the threshold value θth after time t21 in FIG. 8, the decrease value of the distance r is reset.
一変形例では、提示制御部43は、所定動作の態様に応じて提示方法を変更してもよい。所定動作の態様の例としては、人物H1の頭部の基準点P1が異なる所定動作が挙げられる。より詳細には、人物H1の頭部の基準点P1が異なる所定動作の例としては、運転席に座っている人物が表示部R10を覗き込む動作、及び、助手席に座っている人物が表示部R10を覗き込む動作が挙げられる。所定動作が、運転席に座っている人物が表示部R10を覗き込む動作であれば、提示制御部43は、所定情報を、音声出力装置32又はヘッドアップディスプレイ33により提示してよい。一方、所定動作が、助手席に座っている人物が表示部R10を覗き込む動作であれば、提示制御部43は、所定情報を、画像表示装置31により提示してよい。人物H1の頭部の基準点P1が異なる所定動作は、同じ座席において高さが異なる所定動作がある。この場合、提示制御部43は、基準点P1の高さに応じて、提示方法を変えることができる。例えば、提示制御部43は、基準点P1が高い場合には、高い位置から見やすい表示をし、基準点P1が低い場合には低い位置から見やすい表示としてよい。 In a modification, the presentation control unit 43 may change the presentation method according to the aspect of the predetermined operation. An example of the mode of the predetermined operation is a predetermined operation in which the reference point P1 of the head of the person H1 is different. More specifically, as an example of the predetermined operation in which the reference point P1 of the head of the person H1 is different, an operation of a person sitting in the driver's seat looking into the display unit R10 and a person sitting in the passenger seat are displayed. An operation of looking into the section R10 can be given. If the predetermined operation is an operation in which a person sitting in the driver's seat looks into the display unit R10, the presentation control unit 43 may present the predetermined information by the voice output device 32 or the head-up display 33. On the other hand, if the predetermined action is an action in which the person sitting in the passenger seat looks into the display unit R10, the presentation control unit 43 may present the predetermined information by the image display device 31. The predetermined motion in which the reference point P1 of the head of the person H1 is different includes a predetermined motion in which the height is different in the same seat. In this case, the presentation control unit 43 can change the presentation method according to the height of the reference point P1. For example, when the reference point P1 is high, the presentation control unit 43 may display the display easily from a high position, and when the reference point P1 is low, the display may be easily displayed from a low position.
一変形例では、提示制御部43は、人物H1の属性に応じて提示方法を変更してもよい。人物H1の属性としては、年齢、性別が挙げられる。一例として、人物H1の属性が年齢である場合を取り上げる。ここで、提示制御部43での提示方法では文字等の視認可能な方法で表示部R10の表示情報を提示するのであれば、年齢が所定値以上である場合に、年齢が所定値未満である場合よりも、文字等を大きくしてよい。これによって、移動体100に乗っている人物H1に適切に情報を提示できる。なお、人物H1の属性としては、年齢、性別以外の種々の情報(例えば、身長、座高、視力)を利用可能である。なお、人物H1の属性は、撮像部20から得た人物H1の画像から判定してもよいし、外部システムから取得してもよい。
In a modification, the presentation control unit 43 may change the presentation method according to the attribute of the person H1. The attributes of the person H1 include age and sex. As an example, consider a case where the attribute of the person H1 is age. Here, in the presentation method by the presentation control unit 43, if the display information of the display unit R10 is presented in a visible manner such as characters, the age is less than the predetermined value when the age is the predetermined value or more. Letters and the like may be larger than in the case. As a result, information can be appropriately presented to the person H1 who is on the moving
一変形例では、表示部R10は、移動体100の内部の部分であればよく、上記実施形態の例(第1表示部R11、第2表示部R12)に限定されない。表示部R10の例としては、移動体100の空調装置の制御盤や、パワーウィンドウの操作盤、運転手席、助手席、後部座席、バックミラー(ルームミラー、サイドミラー)が挙げられる。また、表示部R10は、移動体100の本体101の一部である必要はなく、移動体100の内部にある装置の一部又は全部であってもよい。例えば、表示部R10は、移動体100内にある端末装置の画面であってもよい。端末装置は、スマートフォン、タブレット端末、ウェアラブル端末等である。この場合、情報提示システム10は、端末装置と通信して、表示部R10の所定情報を取得してよい。例えば、端末装置の画面にナビゲーション情報を表示するような場合、端末装置は、移動体100内の所定位置に配置される。よって、端末装置の画面は、表示部R10として検出可能である。
In a modification, the display unit R10 may be any part inside the moving
一変形例では、情報提示システム10は、撮像部20、及び提示部30を備えていなくてよく、処理部40を有していれば実現可能である。つまり、撮像部20及び提示部30は情報提示システム10とっては任意要素であり、情報提示システム10が協働するシステムが備えていてよい。要するに、情報提示システム10は、外部システムから人物H1の画像を取得し、外部システムに、所定情報の提示のための制御情報を送ってもよい。
In a modification, the
一変形例では、情報提示システム10が搭載される移動体100は、自動車ではなく、例えば、二輪車、電車、航空機、建設機械、及び船舶等の乗物であってもよい。
In a modification, the moving
一変形例では、情報提示システム10は、複数のコンピュータにより構成されていてもよい。例えば、情報提示システム10の機能(特に、状態取得部41、動作検出部42、及び提示制御部43)は、複数の装置に分散されていてもよい。更に、情報提示システム10の機能の少なくとも一部が、例えば、クラウド(クラウドコンピューティング)によって実現されていてもよい。
In a modification, the
以上述べた情報提示システム10の実行主体は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを有する。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における情報提示システム10の実行主体としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されていてもよいが、電気通信回線を通じて提供されてもよい。また、プログラムは、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的な記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1乃至複数の電子回路で構成される。LSIの製造後にプログラムされる、フィールド・プログラマブル・ゲート・アレイ(FGPA)、ASIC(application specific integrated circuit)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができる再構成可能な論理デバイスも同じ目的で使うことができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。
The execution subject of the
3.態様
上記実施形態及び変形例から明らかなように、本開示は、下記の態様を含む。以下では、実施形態との対応関係を明示するためだけに、符号を括弧付きで付している。
3. Aspect As is apparent from the above-described embodiments and modifications, the present disclosure includes the following aspects. In the following, the reference numerals are given in parentheses only in order to clearly show the correspondence with the embodiment.
第1の態様は、情報提示システム(10)であって、状態取得部(41)と、動作検出部(42)と、提示制御部(43)とを備える。前記状態取得部(41)は、所定情報を視覚的に提示する表示部を有する移動体に乗っている人物の頭部の状態を取得する。前記動作検出部(42)は、前記状態取得部(41)で取得された前記状態に基づいて、前記人物(H1)が前記表示部(R10,R11,R12)を覗き込む所定動作を行ったかどうかを判定する。前記提示制御部(43)は、前記人物(H1)が前記所定動作を行ったと前記動作検出部(42)が判定すると、前記所定情報を前記表示部(R10)と異なる提示方法で提示する。この態様によれば、移動体(100)に乗っている人物(H1)に適切に情報を提示できる。 A 1st aspect is an information presentation system (10), Comprising: A state acquisition part (41), a motion detection part (42), and a presentation control part (43). The state acquisition unit (41) acquires the state of the head of a person riding on a moving body having a display unit for visually presenting predetermined information. Based on the state acquired by the state acquisition unit (41), the motion detection unit (42) performs a predetermined motion in which the person (H1) looks into the display unit (R10, R11, R12). Determine whether When the motion detection unit (42) determines that the person (H1) has performed the predetermined motion, the presentation control unit (43) presents the predetermined information by a presentation method different from that of the display unit (R10). According to this aspect, it is possible to appropriately present information to the person (H1) riding on the moving body (100).
第2の態様は、第1の態様の情報提示システム(10)に基づく。第2の態様では、前記動作検出部(42)は、前記人物(H1)が前記表示部(R10,R11,R12)を視認している状態で、前記人物(H1)の頭部が前記表示部(R10)に近付いた場合に、前記人物(H1)が前記所定動作を行ったと判断する。この態様によれば、人物(H1)の所定動作の判定精度の向上が図れる。 The second aspect is based on the information presentation system (10) of the first aspect. In the second aspect, the motion detection unit (42) displays the head of the person (H1) while the person (H1) is visually recognizing the display unit (R10, R11, R12). When approaching the section (R10), it is determined that the person (H1) has performed the predetermined operation. According to this aspect, it is possible to improve the determination accuracy of the predetermined motion of the person (H1).
第3の態様は、第2の態様の情報提示システム(10)に基づく。第3の態様では、前記状態は、前記人物(H1)の視点を含む。前記動作検出部(42)は、前記人物(H1)の視点に基づいて前記人物(H1)が前記表示部(R10,R11,R12)を視認しているかどうかを判断する。この態様によれば、人物(H1)の所定動作の判定精度の向上が図れる。 The third aspect is based on the information presentation system (10) of the second aspect. In the third aspect, the state includes the viewpoint of the person (H1). The motion detection unit (42) determines whether the person (H1) is visually recognizing the display unit (R10, R11, R12) based on the viewpoint of the person (H1). According to this aspect, it is possible to improve the determination accuracy of the predetermined motion of the person (H1).
第4の態様は、第2又は第3の態様の情報提示システム(10)に基づく。第4の態様では、前記状態は、前記人物(H1)の頭部の位置を含む。前記動作検出部(42)は、前記人物(H1)の頭部の位置の時間変化に基づいて、前記人物(H1)の頭部が前記表示部(R10,R11,R12)に近付いたかどうかを判断する。この態様によれば、人物(H1)の所定動作の判定精度の向上が図れる。 The fourth aspect is based on the information presentation system (10) of the second or third aspect. In the fourth aspect, the state includes the position of the head of the person (H1). The motion detection unit (42) determines whether or not the head of the person (H1) approaches the display unit (R10, R11, R12) based on the temporal change in the position of the head of the person (H1). to decide. According to this aspect, it is possible to improve the determination accuracy of the predetermined motion of the person (H1).
第5の態様は、第4の態様の情報提示システム(10)に基づく。第5の態様では、前記動作検出部(42)は、前記人物(H1)の頭部と前記表示部(R10,R11,R12)との距離(r)が減少する状態が所定時間(sth)継続した際に、前記人物(H1)の頭部が前記表示部(R10)に近付いたと判断する。この態様によれば、人物(H1)の所定動作の判定精度の向上が図れる。 The fifth aspect is based on the information presentation system (10) of the fourth aspect. In the fifth aspect, the motion detection unit (42) determines that the distance (r) between the head of the person (H1) and the display unit (R10, R11, R12) decreases for a predetermined time (sth). When continuing, it is determined that the head of the person (H1) has approached the display unit (R10). According to this aspect, it is possible to improve the determination accuracy of the predetermined motion of the person (H1).
第6の態様は、第4の態様の情報提示システム(10)に基づく。第6の態様では、前記動作検出部(42)は、前記人物(H1)の頭部と前記表示部(R10,R11,R12)との距離(r)が所定値(rth)減少した際に、前記人物(H1)の頭部が前記表示部(R10)に近付いたと判断する。この態様によれば、人物(H1)の所定動作の判定精度の向上が図れる。 The sixth aspect is based on the information presentation system (10) of the fourth aspect. In the sixth aspect, the motion detection unit (42) is configured to detect when the distance (r) between the head of the person (H1) and the display unit (R10, R11, R12) decreases by a predetermined value (rth). , It is determined that the head of the person (H1) has approached the display unit (R10). According to this aspect, it is possible to improve the determination accuracy of the predetermined motion of the person (H1).
第7の態様は、第1〜第6の態様のいずれか一つの情報提示システム(10)に基づく。第7の態様では、前記表示部(R11)は、画像表示装置(31)の画面(310)を含む。この態様によれば、移動体(100)に乗っている人物(H1)に、より適切に情報を提示できる。 The seventh aspect is based on the information presentation system (10) according to any one of the first to sixth aspects. In the seventh aspect, the display unit (R11) includes a screen (310) of the image display device (31). According to this aspect, it is possible to more appropriately present the information to the person (H1) on the moving body (100).
第8の態様は、第1〜第7の態様のいずれか一つの情報提示システム(10)に基づく。第8の態様では、前記提示方法は、前記所定情報を視覚的に提示する方法であって、前記所定情報の配置の仕方が前記表示部(R10,R11,R12)と異なる。この態様によれば、移動体(100)に乗っている人物(H1)に、より適切に情報を提示できる。 The eighth aspect is based on the information presentation system (10) according to any one of the first to seventh aspects. In the eighth aspect, the presenting method is a method of visually presenting the predetermined information, and a method of arranging the predetermined information is different from that of the display unit (R10, R11, R12). According to this aspect, it is possible to more appropriately present the information to the person (H1) on the moving body (100).
第9の態様は、第8の態様の情報提示システム(10)に基づく。第9の態様では、前記提示制御部(43)は、前記表示部(R10,R11,R12)とは異なる場所に前記所定情報を提示する。この態様によれば、移動体(100)に乗っている人物(H1)に、より適切に情報を提示できる。 The ninth aspect is based on the information presentation system (10) of the eighth aspect. In the ninth aspect, the presentation control unit (43) presents the predetermined information at a location different from the display unit (R10, R11, R12). According to this aspect, it is possible to more appropriately present the information to the person (H1) on the moving body (100).
第10の態様は、第1〜第7の態様のいずれか一つの情報提示システム(10)に基づく。第10の態様では、前記提示方法は、前記所定情報を聴覚的に提示する方法である。この態様によれば、移動体(100)に乗っている人物(H1)に、より適切に情報を提示できる。 The tenth aspect is based on the information presentation system (10) according to any one of the first to seventh aspects. In a tenth aspect, the presenting method is a method of presenting the predetermined information auditorily. According to this aspect, it is possible to more appropriately present the information to the person (H1) on the moving body (100).
第11の態様は、第1〜第10の態様のいずれか一つの情報提示システム(10)に基づく。第11の態様では、前記提示制御部(43)は、前記所定動作の態様に応じて前記提示方法を変更する。この態様によれば、移動体(100)に乗っている人物(H1)に、より適切に情報を提示できる。 The eleventh aspect is based on the information presentation system (10) according to any one of the first to tenth aspects. In an eleventh aspect, the presentation control unit (43) changes the presentation method according to the aspect of the predetermined operation. According to this aspect, it is possible to more appropriately present the information to the person (H1) on the moving body (100).
第12の態様は、第1〜第11の態様のいずれか一つの情報提示システム(10)に基づく。第12の態様では、前記提示制御部(43)は、前記人物(H1)の属性に応じて前記提示方法を変更する。この態様によれば、移動体(100)に乗っている人物(H1)に、より適切に情報を提示できる。 The twelfth aspect is based on the information presentation system (10) according to any one of the first to eleventh aspects. In a twelfth aspect, the presentation control unit (43) changes the presentation method according to the attribute of the person (H1). According to this aspect, it is possible to more appropriately present the information to the person (H1) on the moving body (100).
第13の態様は、情報提示方法であって、所定情報を視覚的に提示する表示部(R10)を有する移動体(100)に乗っている人物(H1)の頭部の状態を取得する。前記情報提示方法は、前記状態に基づいて、前記人物(H1)が前記表示部(R10)を覗き込む所定動作を行ったかどうかを判定する。前記情報提示方法は、前記人物が前記所定動作を行ったと判定すると、前記所定情報を前記表示部(R10,R11,R12)と異なる提示方法で提示する。この態様によれば、移動体(100)に乗っている人物(H1)に適切に情報を提示できる。 A thirteenth aspect is an information presentation method, which acquires the state of the head of a person (H1) who is on a moving body (100) having a display unit (R10) that visually presents predetermined information. The information presentation method determines, based on the state, whether the person (H1) has performed a predetermined operation of looking into the display unit (R10). When the information presentation method determines that the person has performed the predetermined operation, the predetermined information is presented by a presentation method different from that of the display unit (R10, R11, R12). According to this aspect, it is possible to appropriately present information to the person (H1) riding on the moving body (100).
第14の態様は、プログラム(コンピュータプログラム)であって、1以上のプロセッサに、第13の態様の情報提示方法を実行させるための、プログラムである。この態様によれば、移動体(100)に乗っている人物(H1)に適切な情報を提示できる。 A fourteenth aspect is a program (computer program) for causing one or more processors to execute the information presentation method of the thirteenth aspect. According to this aspect, appropriate information can be presented to the person (H1) riding on the moving body (100).
第15の態様は、移動体(100)であって、第1〜第12の態様のいずれか一つの情報提示システム(10)と、前記情報提示システム(10)が搭載される本体(101)と、を備える。この態様によれば、移動体(100)に乗っている人物(H1)に適切に情報を提示できる。 A fifteenth aspect is a mobile body (100), and the information presentation system (10) according to any one of the first to twelfth aspects, and a main body (101) on which the information presentation system (10) is mounted. And According to this aspect, it is possible to appropriately present information to the person (H1) riding on the moving body (100).
10 情報提示システム
31 画像表示装置
310 画面
41 状態取得部
42 動作検出部
43 提示制御部
100 移動体
101 本体
R10,R11,R12 表示部
H1 人物
r 距離
rth 所定値
sth 所定時間
10 information presentation system 31
Claims (15)
前記状態取得部で取得された前記状態に基づいて、前記人物が前記表示部を覗き込む所定動作を行ったかどうかを判定する動作検出部と、
前記人物が前記所定動作を行ったと前記動作検出部が判定すると、前記所定情報を前記表示部と異なる提示方法で提示する提示制御部と、
を備える、
情報提示システム。 A state acquisition unit that acquires the state of the head of a person riding on a moving body that has a display unit that visually presents predetermined information,
An operation detection unit that determines whether or not the person has performed a predetermined operation of looking into the display unit, based on the state acquired by the state acquisition unit,
When the motion detection unit determines that the person has performed the predetermined motion, a presentation control unit that presents the predetermined information in a presentation method different from that of the display unit,
With
Information presentation system.
請求項1の情報提示システム。 The motion detection unit determines that the person has performed the predetermined motion when the person's head approaches the display unit while the person visually recognizes the display unit,
The information presentation system according to claim 1.
前記動作検出部は、前記人物の視点に基づいて前記人物が前記表示部を視認しているかどうかを判断する、
請求項2の情報提示システム。 The state includes a viewpoint of the person,
The motion detection unit determines whether the person is visually recognizing the display unit based on the viewpoint of the person,
The information presentation system according to claim 2.
前記動作検出部は、前記人物の頭部の位置の時間変化に基づいて、前記人物の頭部が前記表示部に近付いたかどうかを判断する、
請求項2又は3の情報提示システム。 The state includes the position of the head of the person,
The motion detection unit determines whether or not the head of the person approaches the display unit, based on a temporal change in the position of the head of the person,
The information presentation system according to claim 2 or 3.
請求項4の情報提示システム。 The motion detection unit determines that the head of the person has approached the display unit when the state in which the distance between the head of the person and the display unit decreases continues for a predetermined time,
The information presentation system according to claim 4.
請求項4の情報提示システム。 The motion detection unit determines that the head of the person approaches the display unit when the distance between the head of the person and the display unit decreases by a predetermined value.
The information presentation system according to claim 4.
請求項1〜6のいずれか一つの情報提示システム。 The display unit includes a screen of an image display device,
The information presentation system according to claim 1.
請求項1〜7のいずれか一つの情報提示システム。 The presentation method is a method of visually presenting the predetermined information, and a method of arranging the predetermined information is different from the display unit,
The information presentation system according to any one of claims 1 to 7.
請求項8の情報提示システム。 The presentation control unit presents the predetermined information to a place different from the display unit,
The information presentation system according to claim 8.
請求項1〜7のいずれか一つの情報提示システム。 The presenting method is a method of presenting the predetermined information auditorily.
The information presentation system according to any one of claims 1 to 7.
請求項1〜10のいずれか一つの情報提示システム。 The presentation control unit changes the presentation method according to the aspect of the predetermined operation,
The information presentation system according to claim 1.
請求項1〜11のいずれか一つの情報提示システム。 The presentation control unit changes the presentation method according to the attribute of the person,
The information presentation system according to claim 1.
前記状態に基づいて、前記人物が前記表示部を覗き込む所定動作を行ったかどうかを判定し、
前記人物が前記所定動作を行ったと判定すると、前記所定情報を前記表示部と異なる提示方法で提示する、
情報提示方法。 Obtaining the state of the head of a person riding on a moving body that has a display unit that visually presents predetermined information,
Based on the state, it is determined whether the person has performed a predetermined operation of looking into the display unit,
If it is determined that the person has performed the predetermined operation, the predetermined information is presented by a presentation method different from that of the display unit,
Information presentation method.
プログラム。 For causing one or more processors to execute the information presentation method of claim 13;
program.
前記情報提示システムが搭載される本体と、
を備える、
移動体。 An information presentation system according to any one of claims 1 to 12,
A main body on which the information presentation system is mounted,
With
Moving body.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018227653A JP7262040B2 (en) | 2018-12-04 | 2018-12-04 | Information presentation system, information presentation method, program, and mobile object |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018227653A JP7262040B2 (en) | 2018-12-04 | 2018-12-04 | Information presentation system, information presentation method, program, and mobile object |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2020091375A true JP2020091375A (en) | 2020-06-11 |
| JP2020091375A5 JP2020091375A5 (en) | 2021-11-04 |
| JP7262040B2 JP7262040B2 (en) | 2023-04-21 |
Family
ID=71012752
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018227653A Active JP7262040B2 (en) | 2018-12-04 | 2018-12-04 | Information presentation system, information presentation method, program, and mobile object |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7262040B2 (en) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005051403A (en) * | 2003-07-31 | 2005-02-24 | Nissan Motor Co Ltd | Vehicle surrounding display device |
| JP2009223187A (en) * | 2008-03-18 | 2009-10-01 | Pioneer Electronic Corp | Display content controller, display content control method and display content control method program |
| JP2013228490A (en) * | 2012-04-24 | 2013-11-07 | Nec Casio Mobile Communications Ltd | Display device, control method thereof and program |
| WO2014188565A1 (en) * | 2013-05-23 | 2014-11-27 | パイオニア株式会社 | Display controller |
| US20170123500A1 (en) * | 2015-10-30 | 2017-05-04 | Intel Corporation | Gaze tracking system |
| JP2017216605A (en) * | 2016-06-01 | 2017-12-07 | キヤノン株式会社 | Electronic device, control method and program thereof, and storage medium |
-
2018
- 2018-12-04 JP JP2018227653A patent/JP7262040B2/en active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005051403A (en) * | 2003-07-31 | 2005-02-24 | Nissan Motor Co Ltd | Vehicle surrounding display device |
| JP2009223187A (en) * | 2008-03-18 | 2009-10-01 | Pioneer Electronic Corp | Display content controller, display content control method and display content control method program |
| JP2013228490A (en) * | 2012-04-24 | 2013-11-07 | Nec Casio Mobile Communications Ltd | Display device, control method thereof and program |
| WO2014188565A1 (en) * | 2013-05-23 | 2014-11-27 | パイオニア株式会社 | Display controller |
| US20170123500A1 (en) * | 2015-10-30 | 2017-05-04 | Intel Corporation | Gaze tracking system |
| JP2017216605A (en) * | 2016-06-01 | 2017-12-07 | キヤノン株式会社 | Electronic device, control method and program thereof, and storage medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7262040B2 (en) | 2023-04-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN105667421B (en) | The system and method used for vehicle including eye tracks of device | |
| JP7222216B2 (en) | Driving support device | |
| US11828947B2 (en) | Vehicle and control method thereof | |
| EP3261871B1 (en) | Display control apparatus and method | |
| JP7712774B2 (en) | Attention-based notifications | |
| CN105539146A (en) | Systems and methods for use at a vehicle including an eye tracking device | |
| CN111163968A (en) | Display systems in vehicles | |
| KR20190029488A (en) | Method, apparatus and computer readable storage medium having instructions for controlling a display of an augmented-reality-display-device for a motor vehicle | |
| JP2015162901A (en) | Virtual see-through instrument cluster with live video | |
| JP6907250B2 (en) | Vehicle display device | |
| JP7662019B2 (en) | In-vehicle display device, method and program | |
| JPWO2018179786A1 (en) | Information display device | |
| CN110116619A (en) | Method for showing information in the head up display HUD of vehicle | |
| CN110962831A (en) | Apparatus for controlling a vehicle, system having the same, and control method | |
| JP2018083441A (en) | Information display method and information display device | |
| US20230418541A1 (en) | Vehicle display system, display system, display method, and non-transitory computer readable storage medium | |
| JP2021024402A (en) | Display control device for vehicle and display system for vehicle | |
| KR20230001923A (en) | Method and apparatus for controlling HUD image based on driver's eyes | |
| JP7262040B2 (en) | Information presentation system, information presentation method, program, and mobile object | |
| JP2020199883A (en) | Display control device, head-up display device, method and computer program | |
| JP2019023806A (en) | Information control device | |
| JP2024076283A (en) | Driving assistance device, driving assistance method, and program | |
| CN115071745A (en) | Method and apparatus for visualization of traffic content in a vehicle | |
| US20210129751A1 (en) | Side and rear reflection controller and side and rear reflection control method | |
| JP7270206B2 (en) | Information presentation system, information presentation method, program, and mobile object |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210921 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210921 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220628 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220719 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220920 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230206 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230331 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7262040 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
| SZ03 | Written request for cancellation of trust registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313Z03 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |