JP2018120531A - Gesture user interface system - Google Patents
Gesture user interface system Download PDFInfo
- Publication number
- JP2018120531A JP2018120531A JP2017013206A JP2017013206A JP2018120531A JP 2018120531 A JP2018120531 A JP 2018120531A JP 2017013206 A JP2017013206 A JP 2017013206A JP 2017013206 A JP2017013206 A JP 2017013206A JP 2018120531 A JP2018120531 A JP 2018120531A
- Authority
- JP
- Japan
- Prior art keywords
- user
- interface system
- space
- user interface
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 23
- 238000000926 separation method Methods 0.000 claims description 7
- 230000007257 malfunction Effects 0.000 abstract description 9
- 230000000694 effects Effects 0.000 abstract description 3
- 238000003384 imaging method Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本願は、利用者の身体動作を検出して当該利用者の意図を認識するジェスチャーユーザインタフェースシステムに関する。 The present application relates to a gesture user interface system that detects a user's physical motion and recognizes the user's intention.
例えば、特許文献1に記載の発明では、乗員の身体動作(ジェスチャー)を検出し、当該検出された結果を利用して車両搭載機器の作動を制御している。
つまり、特許文献1に記載の発明では、乗員等の利用者が操作パネルやスイッチ等を直接的に操作するのではなく、利用者が身振り手振り等の身体動作をすることにより、車両搭載機器が作動する。
For example, in the invention described in Patent Document 1, an occupant's body motion (gesture) is detected, and the operation of the vehicle-mounted device is controlled using the detected result.
In other words, in the invention described in Patent Document 1, a user such as an occupant does not directly operate an operation panel, a switch, or the like, but the user performs a body motion such as a gesture of shaking, so that the on-vehicle equipment is Operate.
例えば、利用者が指先を動作するジェスチャーを行った場合において、当該動作する指先の位置が認識可能な空間領域から外れているときには、(a)車両搭載機器が作動しない、又は(b)車両搭載機器が利用者の意図と異なる作動をする等の誤作動が発生する。 For example, when the user performs a gesture that moves the fingertip, if the position of the moving fingertip is out of the recognizable space area, (a) the vehicle-mounted device does not operate, or (b) the vehicle is mounted Malfunctions such as devices operating differently from the user's intentions occur.
なお、認識可能な空間領域(以下、認識空間ともいう。)とは、検出装置が誤検出する可能性が低い空間領域をいう。つまり、認識空間にて利用者が身体動作をした場合には、誤動作が発生する可能性も低下する。 A recognizable spatial region (hereinafter also referred to as a recognition space) refers to a spatial region that is unlikely to be erroneously detected by the detection device. In other words, when the user performs physical movements in the recognition space, the possibility of malfunctions also decreases.
本願は、上記点に鑑み、誤作動の発生を抑制可能なジェスチャーユーザインタフェースシステムを提供する。 In view of the above points, the present application provides a gesture user interface system capable of suppressing the occurrence of malfunction.
本願では、利用者の身体動作を検出して当該利用者の意図を認識するジェスチャーユーザインタフェースシステムにおいて、利用者が存在する空間内に設定された認識空間(Ao)内でされた身体動作を検出する動作検出装置(10、11)と、認識空間(Ao)外の空間で身体動作がされた場合に、その旨を利用者に報知する報知装置(10、13)とを備える。 In the present application, in a gesture user interface system that detects a user's physical motion and recognizes the user's intention, the physical motion detected in the recognition space (Ao) set in the space where the user exists is detected. And a notification device (10, 13) for notifying the user of a physical motion in a space outside the recognition space (Ao).
これにより、認識空間(Ao)外の空間で身体動作がされた場合に、当該身体動作をした利用者は、その旨を理解でき得る。つまり、「認識空間(Ao)内で身体動作を再度実行する必要がある」旨を利用者に促すことができ得る。延いては、誤作動の発生を抑制でき得る。 Thereby, when a body motion is performed in a space outside the recognition space (Ao), the user who has performed the body motion can understand that fact. That is, it can be urged to the user that “the body motion needs to be executed again in the recognition space (Ao)”. As a result, the occurrence of malfunction can be suppressed.
なお、本願は、以下のように、構成してもよい。
すなわち、報知装置(10、13)は、身体動作が現実にされた位置を検出する動作位置検出部(10、11)、及び動作位置検出部(10、11)により検出された動作位置と認識空間(Ao)との離間距離を利用して、報知する際の報知パターンを決定する報知パターン決定部(10)を有して構成されていることが望ましい。
In addition, you may comprise this application as follows.
That is, the notification device (10, 13) recognizes the movement position detected by the movement position detection unit (10, 11) and the movement position detection unit (10, 11) that detects the position where the body movement is realized. It is desirable to have a notification pattern determination unit (10) that determines a notification pattern for notification using a separation distance from the space (Ao).
これにより、利用者に対して「次回の身体動作をいずれの空間で行うことが妥当であるか」を伝えることができ得る。延いては、次回以降の身体動作が認識空間(Ao)にて実行される可能性が高まるので、誤作動の発生を抑制でき得る。 Thereby, it can be told to the user “in which space it is appropriate to perform the next physical motion”. As a result, since the possibility that the body movements after the next time will be executed in the recognition space (Ao) increases, the occurrence of malfunction can be suppressed.
利用者が着席可能なシート(S)であって、着席者に振動を付与する振動装置(13)が設けられたシート(S)を備え、報知装置(10、13)は、振動装置(13)を振動させて利用者に報知してもよい。なお、振動にて報知する場合には、互いに異なる箇所に配設された第1振動子(13A)及び第2振動子(13B)にて振動装置(13)を構成することが望ましい。これにより、利用者に確実に報知内容を理解させることが可能となり得る。 The seat (S) is a seat (S) that can be seated by the user, and is provided with a vibration device (13) that applies vibration to the seated person. The notification device (10, 13) includes the vibration device (13). ) May be vibrated to notify the user. In the case of notifying by vibration, it is desirable that the vibration device (13) is configured by the first vibrator (13A) and the second vibrator (13B) disposed at different locations. Thereby, it may be possible to make the user understand the content of the notification with certainty.
利用者が存在する位置を検出する利用者位置検出部(12)と、利用者位置検出部(12)が検出した利用者の存在位置を利用して認識空間(Ao)を設定する認識空間設定部(10)とを備えることが望ましい。これにより、利用者にとって好ましい位置に認識空間(Ao)を設定でき得る。 A user position detection unit (12) for detecting a position where the user exists, and a recognition space setting for setting a recognition space (Ao) using the user's presence position detected by the user position detection unit (12). It is desirable to provide a part (10). Thereby, the recognition space (Ao) can be set at a position preferable for the user.
因みに、上記各括弧内の符号は、後述する実施形態に記載の具体的構成等との対応関係を示す一例であり、本発明は上記括弧内の符号に示された具体的構成等に限定されるものではない。 Incidentally, the reference numerals in the above parentheses are examples showing the correspondence with the specific configurations described in the embodiments described later, and the present invention is limited to the specific configurations indicated by the reference numerals in the parentheses. It is not something.
以下に説明する「発明の実施形態」は、本願発明の技術的範囲に属する実施形態の一例を示すものである。つまり、特許請求の範囲に記載された発明特定事項等は、下記の実施形態に示された具体的構成や構造等に限定されるものではない。 The “embodiment of the invention” described below shows an example of an embodiment belonging to the technical scope of the present invention. In other words, the invention specific items described in the claims are not limited to the specific configurations and structures shown in the following embodiments.
以下、本発明の実施形態を図面と共に説明する。なお、各図に付された方向を示す矢印等は、各図相互の関係を理解し易くするために記載したものである。本発明は、各図に付された方向に限定されるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, the arrow etc. which show the direction attached | subjected to each figure are described in order to make it easy to understand the relationship between each figure. The present invention is not limited to the directions given in the drawings.
少なくとも符号を付して説明した部材又は部位は、「1つの」等の断りをした場合を除き、少なくとも1つ設けられている。つまり、「1つの」等の断りがない場合には、当該部材は2以上設けられていてもよい。 At least one member or part described with at least a reference numeral is provided, except where “one” or the like is omitted. That is, when there is no notice such as “one”, two or more members may be provided.
(第1実施形態)
1.乗物用ジェスチャーユーザインタフェースシステムの概要
本実施形態は、自動車等の乗物にジェスチャーユーザインタフェースシステムを適用したものである。なお、本実施形態は、図1に示すように、自動車の後部シートSにジェスチャーユーザインタフェースシステム1を適用したものである。
(First embodiment)
1. Outline of Vehicle Gesture User Interface System In this embodiment, a gesture user interface system is applied to a vehicle such as an automobile. In the present embodiment, as shown in FIG. 1, a gesture user interface system 1 is applied to a rear seat S of an automobile.
すなわち、本実施形態では、ジェスチャーユーザインタフェースシステムを介して乗員の意図を認識し、乗物に搭載された機器(以下、搭載機器という。)を作動させるものである。 In other words, in the present embodiment, an occupant's intention is recognized via a gesture user interface system, and a device mounted on a vehicle (hereinafter referred to as a mounted device) is operated.
搭載機器とは、当該乗物で稼働する各種の機器である。具体的には、例えば、車両用空調装置、車両用オーディオ装置及びカーナビゲーションシステム等の車室内用機器、又はバックドア開閉装置やスライド式ドア開閉装置等の室外用機器である。 The on-board equipment is various equipment that operates on the vehicle. Specifically, for example, vehicle interior devices such as a vehicle air conditioner, a vehicle audio device, and a car navigation system, or outdoor devices such as a back door opening and closing device and a sliding door opening and closing device.
2.ジェスチャーユーザインタフェースシステムの概要(図1参照)
2.1 ジェスチャーユーザインタフェースシステムの構成
ジェスチャーユーザインタフェースシステム1は、動作検出装置及び報知装置を少なくとも備える。動作検出装置は、利用者が認識空間Ao内で実行した身体動作を検出するための装置である。
2. Outline of the gesture user interface system (see Fig. 1)
2.1 Configuration of Gesture User Interface System The gesture user interface system 1 includes at least a motion detection device and a notification device. The motion detection device is a device for detecting a physical motion performed by the user in the recognition space Ao.
認識空間Aoは、「利用者が存在する空間内に予め設定された領域」である。換言すれば、認識空間Aoは、動作検出装置が身体動作の意図を認識(理解)可能な領域である。なお、本実施形態に係る認識空間Aoは、後部シートSに着席した者が手を(例えば、指先)を動作する可能性が高い空間に設定されている。 The recognition space Ao is “an area set in advance in a space where a user exists”. In other words, the recognition space Ao is an area where the motion detection device can recognize (understand) the intention of the body motion. Note that the recognition space Ao according to the present embodiment is set to a space where a person seated on the rear seat S is highly likely to move his hand (for example, a fingertip).
本実施形態に係る動作検出装置は、撮像センサ11及び制御装置10等を有して構成されている。撮像センサ11は、撮像素子等の空間中の身体動作を電気信号に変換可能なカメラ等により構成されている。 The motion detection apparatus according to the present embodiment is configured to include an imaging sensor 11, a control device 10, and the like. The imaging sensor 11 is configured by a camera or the like that can convert body motion in a space such as an imaging element into an electrical signal.
制御装置10は、撮像センサ11から出力する画像データが入力されるとともに、当該画像データを解析して身体動作の意図を認識する。制御装置10は、CPU、ROM及びRAM等を有するマイクロコンピュータにて構成されたものである。ROM等の不揮発性記憶部には、画像データを解析するためのソフトウェアが予め記憶されている。 The control device 10 receives the image data output from the image sensor 11 and analyzes the image data to recognize the intention of the body movement. The control device 10 is configured by a microcomputer having a CPU, a ROM, a RAM, and the like. Software for analyzing image data is stored in advance in a nonvolatile storage unit such as a ROM.
なお、本実施形態に係る制御装置10は、ジェスチャーユーザインタフェースシステム1全体を制御するとともに、動作検出装置の一部を兼ねる。つまり、ROM等の不揮発性記憶部には、ジェスチャーユーザインタフェースシステム1の作動を制御するためのソフトウェアが予め記憶されている。 The control device 10 according to the present embodiment controls the entire gesture user interface system 1 and also serves as a part of the motion detection device. That is, software for controlling the operation of the gesture user interface system 1 is stored in advance in a nonvolatile storage unit such as a ROM.
報知装置は、認識空間Ao外の空間で身体動作がされた場合に、その旨を利用者に報知するための装置である。本実施形態に係る報知装置は、振動装置13及び制御装置10により構成されている。 The notification device is a device for notifying the user of a physical movement in a space outside the recognition space Ao. The notification device according to the present embodiment includes a vibration device 13 and a control device 10.
振動装置13は、シートSに着席した着席者に振動を付与する装置である。制御装置10は、「着席者の身体動作を認識できない」と判断した場合に、「認識空間Ao外の空間で身体動作がされた」とみなして振動装置13を振動させる。 The vibration device 13 is a device that imparts vibration to a seated person seated on the seat S. When the control device 10 determines that “the body motion of the seated person cannot be recognized”, the control device 10 regards it as “the body motion has been performed outside the recognition space Ao” and vibrates the vibration device 13.
本実施形態に係る振動装置13は、図1に示すように、互いに異なる箇所に配設された第1振動子13A及び第2振動子13Bを有して構成されている。第1振動子13Aは、シートバックに配設されて着席者の背部に振動を付与する。第2振動子13Bは、アームレストに配設されて着席者の腕に振動を付与する。 As shown in FIG. 1, the vibration device 13 according to the present embodiment includes a first vibrator 13 </ b> A and a second vibrator 13 </ b> B disposed at different locations. The first vibrator 13A is disposed on the seat back and applies vibration to the back of the seated person. The second vibrator 13B is disposed on the armrest and applies vibration to the arm of the seated person.
2.2 ジェスチャーユーザインタフェースシステムの概略作動
本実施形態では、図2に示すように、認識空間Aoの外側に第1認識空間A1及び第2認識空間A2が設定されている。認識空間Aoは、身体動作の意図を制御装置10が認識できる確率(以下、認識率という。)が所定以上の空間である。
2.2 General Operation of Gesture User Interface System In the present embodiment, as shown in FIG. 2, a first recognition space A1 and a second recognition space A2 are set outside the recognition space Ao. The recognition space Ao is a space that has a probability that the control device 10 can recognize the intention of body movement (hereinafter referred to as a recognition rate) that is greater than or equal to a predetermined value.
第1認識空間A1は、身体動作が実行されたことを制御装置10が認識可能な空間であって、認識空間Aoに比べて認識率が低い空間である。第2認識空間A2は、身体動作が実行されたことを制御装置10が認識可能な空間であって、第1認識空間A1に比べて認識率が低い空間である。 The first recognition space A1 is a space in which the control device 10 can recognize that a body motion has been executed, and is a space with a lower recognition rate than the recognition space Ao. The second recognition space A2 is a space in which the control device 10 can recognize that a body motion has been executed, and is a space with a lower recognition rate than the first recognition space A1.
つまり、認識空間Aoからの離間距離が大きくなるほど、認識率が低下する。第2認識空間A2外では、制御装置10は身体動作が実行されたか否かも認識できない。そして、制御装置10は、第1認識空間A1又は第2認識空間A2で身体動作を認識した場合に、「認識空間Ao外の空間で身体動作がされた」とみなす。 That is, the recognition rate decreases as the distance from the recognition space Ao increases. Outside the second recognition space A2, the control device 10 cannot recognize whether or not a body motion has been executed. Then, when the body movement is recognized in the first recognition space A1 or the second recognition space A2, the control device 10 regards that “the body movement has been performed in a space outside the recognition space Ao”.
なお、本実施形態では、ジェスチャーユーザインタフェースシステム1の作動開始後、予め設定された時間内に制御装置10が身体動作の有無を認識できない場合も、制御装置10は「認識空間Ao外の空間で身体動作がされた」とみなす。 In the present embodiment, even when the control device 10 cannot recognize the presence / absence of a physical motion within a preset time after the operation of the gesture user interface system 1 is started, the control device 10 is “in a space outside the recognition space Ao”. It is considered that physical movement has been made.
換言すれば、動作検出装置は、身体動作が現実にされた位置を検出する動作位置検出機能も兼ね備えている。そして、制御装置10は、検出された身体動作の動作位置と認識空間Aoとの離間距離を利用して、報知する際の報知パターンを決定した後、決定した報知パターンの報知を実行する。 In other words, the motion detection device also has a motion position detection function for detecting the position where the body motion is realized. And the control apparatus 10 performs the alerting | reporting of the determined alerting | reporting pattern, after determining the alerting | reporting pattern at the time of alerting | reporting using the separation distance of the detected movement position of the body motion and the recognition space Ao.
具体的には、制御装置10は、第2認識空間A2において身体動作を認識した場合には、例えば図3で示す第1振動パターンの報知作動を実行する。制御装置10は、第1認識空間A1において身体動作を認識した場合には、例えば図4で示す第2振動パターンの報知作動を実行する。 Specifically, when recognizing the body movement in the second recognition space A2, the control device 10 executes a notification operation of the first vibration pattern shown in FIG. 3, for example. When the control device 10 recognizes the body motion in the first recognition space A1, for example, the control device 10 performs a notification operation of the second vibration pattern shown in FIG.
本実施形態に係る制御装置10は、認識空間Aoにて身体動作を認識した場合には、例えば図5で示す第3振動パターンの報知作動を実行する。つまり、第3振動パターンは、「認識空間Ao内で身体動作がされた」旨の報知パターンである。 When the control apparatus 10 according to the present embodiment recognizes the body movement in the recognition space Ao, for example, the control apparatus 10 performs a notification operation of the third vibration pattern illustrated in FIG. That is, the third vibration pattern is a notification pattern indicating that “a body motion has been performed in the recognition space Ao”.
制御装置10は、ジェスチャーユーザインタフェースシステム1の作動開始後、予め設定された時間内に制御装置10が身体動作の有無を認識できない場合には、第1振動パターンの報知作動を実行する。 When the control device 10 cannot recognize the presence / absence of a physical motion within a preset time after the operation of the gesture user interface system 1 is started, the control device 10 performs a notification operation of the first vibration pattern.
なお、本実施形態に係る各振動パターンでは、認識空間Aoと動作位置との離間距離が大きくなるほど、各振動子13A、13Bの振動周期が短くなるとともに、両振動子13A、13Bの合成振動周期が短くなるように変化する。 In each vibration pattern according to the present embodiment, the greater the distance between the recognition space Ao and the movement position, the shorter the vibration period of each vibrator 13A, 13B, and the combined vibration period of both vibrators 13A, 13B. Changes to be shorter.
第1振動子13Aの振動周期とは、図3〜図5中の時間T1の2倍をいう。第2振動子13Bの振動周期とは、図3〜図5中の時間T2の2倍をいう。合成振動周期とは、「T1+T2−Ta」をいう。 The vibration period of the first vibrator 13A refers to twice the time T1 in FIGS. The vibration period of the second vibrator 13B means twice the time T2 in FIGS. The combined vibration period refers to “T1 + T2−Ta”.
図1に示すシート位置センサ12は、利用者が存在する位置を検出する利用者位置検出部の一例である。すなわち、シートSは、車体に対してスライド変位可能である。シート位置センサ12は、車体に対するシートSの位置を検出し、その検出結果を制御装置10に向けて出力する。 The seat position sensor 12 illustrated in FIG. 1 is an example of a user position detection unit that detects a position where a user exists. That is, the seat S is slidable relative to the vehicle body. The seat position sensor 12 detects the position of the seat S with respect to the vehicle body, and outputs the detection result to the control device 10.
制御装置10は、シート位置センサ12の検出結果を利用して認識空間Aoを設定する。つまり、車体に対するシートSの位置が決まると、利用者である着席者の身体動作を行う空間が概ね決定する。そこで、本実施形態では、「シートSの位置」と「着席者の身体動作を行う空間」との位置関係が予めROM等の不揮発性記憶部に記憶されている。 The control device 10 sets the recognition space Ao using the detection result of the sheet position sensor 12. That is, when the position of the seat S with respect to the vehicle body is determined, the space for performing the body motion of the seated person who is the user is generally determined. Therefore, in the present embodiment, the positional relationship between “the position of the seat S” and “the space in which the seated person performs physical movements” is stored in advance in a nonvolatile storage unit such as a ROM.
そして、制御装置10は、上記位置関係及びシート位置センサ12の検出結果を利用して認識空間Aoを設定する。つまり、例えば、シート位置センサ12の位置が車両前後方向に変化した場合には、認識空間Aoの位置もこれに応じて車両前後方向に変化する。 Then, the control device 10 sets the recognition space Ao using the positional relationship and the detection result of the sheet position sensor 12. That is, for example, when the position of the seat position sensor 12 changes in the vehicle front-rear direction, the position of the recognition space Ao also changes in the vehicle front-rear direction accordingly.
なお、「シートSの位置」と「着席者の身体動作を行う空間」との位置関係は、試験等の試行錯誤的に最適化された関係である。したがって、当該位置関係は、車種や車両の仕向地等により適宜変更される得る内容である。 Note that the positional relationship between the “position of the seat S” and the “space where the seated person moves” is optimized by trial and error such as a test. Therefore, the positional relationship is content that can be appropriately changed depending on the vehicle type, the destination of the vehicle, and the like.
2.3 ジェスチャーユーザインタフェースシステムの作動の詳細
図6に示された制御フローは、上記の概略作動の一例であって、当該制御フローは、制御装置10により実行される。なお、上記制御フローを実行するためのソフトウェアは、ROM等の不揮発性記憶部に予め記憶されている。
2.3 Details of Operation of Gesture User Interface System The control flow shown in FIG. 6 is an example of the above-described general operation, and the control flow is executed by the control device 10. Note that software for executing the control flow is stored in advance in a nonvolatile storage unit such as a ROM.
上記制御フローは、搭載機器が稼働可能な状態となったとき(例えば、エンジンスタートスイッチが投入されたとき等)に起動され、搭載機器が稼働不可能な状態となったときに停止する。 The control flow is started when the on-board equipment is ready for operation (for example, when an engine start switch is turned on), and is stopped when the on-board equipment becomes inoperable.
そして、搭載機器が稼働可能な状態となると、制御装置10は、ジェスチャーユーザインタフェースシステム1が起動しているか否かを判断する(S1)。なお、本実施形態に係る制御装置10は、ジェスチャーユーザインタフェースシステムの起動スイッチ(図示せず。)等の状態を利用して当該判断をする。 When the on-board device is ready for operation, the control device 10 determines whether or not the gesture user interface system 1 is activated (S1). In addition, the control apparatus 10 which concerns on this embodiment makes the said determination using states, such as a start switch (not shown) of a gesture user interface system.
つまり、上記起動スイッチが投入されていると制御装置10が判断した場合には、制御装置10は、ジェスチャーユーザインタフェースシステム1が起動している、つまり「ジェスチャーON(オン)」であると判断する。 That is, when the control device 10 determines that the activation switch is turned on, the control device 10 determines that the gesture user interface system 1 is activated, that is, “gesture ON (on)”. .
制御装置10は、「ジェスチャーON(オン)」であると判断した場合には(S1:YES)、シート位置センサ12の検出結果を読み込んだ後(S3)、当該検出結果を利用して認識空間Aoを設定する(S5)。 When the control device 10 determines that “gesture is ON” (S1: YES), after reading the detection result of the sheet position sensor 12 (S3), the control device 10 uses the detection result to recognize the recognition space. Ao is set (S5).
なお、本実施形態に係る制御装置10は、認識空間Aoの設定が完了したときに、例えば、予め設定された振動パターンを振動装置13を介して出力することにより、利用者に「認識空間Aoを設定した」旨を報知する(S7)。 Note that when the setting of the recognition space Ao is completed, the control device 10 according to the present embodiment outputs, for example, a preset vibration pattern via the vibration device 13 to the user to recognize the “recognition space Ao. Is set "(S7).
上記の報知後、制御装置10は、身体動作の動作位置(本実施形態では、着席者の指先位置座標)を撮像センサ11を利用して取得した後(S9)、当該動作位置がいずれの空間Ao〜A2に位置するかを判断する(S11)。 After the above notification, the control device 10 acquires the motion position of the body motion (in this embodiment, the fingertip position coordinates of the seated person) using the imaging sensor 11 (S9), and then the motion position is in any space. It is determined whether it is located at Ao to A2 (S11).
動作位置がいずれの空間Ao〜A2に位置すると制御装置10が判断した場合には(S11:YES)、制御装置10は、当該動作位置の離間距離を決定・認識した後(S13)、当該離間距離に対して予め設定された振動パターンを決定するとともに(S15)、当該決定された振動パターンを振動装置13に出力させる(S17)。 When the control device 10 determines that the operation position is located in any of the spaces Ao to A2 (S11: YES), the control device 10 determines and recognizes the separation distance of the operation position (S13), and then performs the separation. A predetermined vibration pattern is determined for the distance (S15), and the determined vibration pattern is output to the vibration device 13 (S17).
次に、制御装置10は、身体動作の意味内容、つまり身体動作を通じた利用者の意図を認識・判断し(S19)、身体動作の意味内容を認識できた場合には(S19:YES)、その旨の報知(図5に示す振動パターン)を出力するとともに、身体動作の対象となる搭載機器に対して身体動作の意味内容を示す命令信号を出力する(S21)。 Next, the control device 10 recognizes and judges the meaning content of the body motion, that is, the intention of the user through the body motion (S19), and if the meaning content of the body motion can be recognized (S19: YES), A notification to that effect (vibration pattern shown in FIG. 5) is output, and a command signal indicating the meaning content of the body motion is output to the mounted device that is the target of the body motion (S21).
具体的には、例えば、制御装置10が「当該身体動作は、車両空調装置の設定温度を変更する旨の意味内容である」と判断した場合には、制御装置10は、車両空調装置の制御部に対してその旨の命令信号を出力する。 Specifically, for example, when the control device 10 determines that “the body motion is the meaning of changing the set temperature of the vehicle air conditioner”, the control device 10 controls the vehicle air conditioner. A command signal to that effect is output to the unit.
そして、当該制御部は、命令信号に従って車両用空調装置を作動させる。なお、身体動作の意味内容を認識できないと制御装置10が判断した場合には(S19:NO)、制御装置10は、S3を実行する。 And the said control part operates a vehicle air conditioner according to a command signal. In addition, when the control apparatus 10 judges that the meaning content of a body motion cannot be recognized (S19: NO), the control apparatus 10 performs S3.
制御装置10は、上記命令信号の出力後、振動装置13による報知作動を停止させた後(S23)、身体動作が引き続き実行されているか否かを判断する(S25)。身体動作が引き続き実行されていると制御装置10が判断した場合には(S25:YES)、当該身体動作の対象となる搭載機器に対して身体動作の意味内容を示す命令信号を出力する(S27)。 After outputting the command signal, the control device 10 stops the notification operation by the vibration device 13 (S23), and then determines whether or not the body motion is continuously executed (S25). When the control device 10 determines that the body motion is continuously executed (S25: YES), a command signal indicating the meaning content of the body motion is output to the mounted device that is the target of the body motion (S27). ).
次に、制御装置10は、身体動作の動作位置がいずれの空間Ao〜A2に位置するかを判断する(S29)。動作位置がいずれの空間Ao〜A2に位置すると制御装置10が判断した場合には(S29:YES)、制御装置10は、S25を実行する。なお、動作位置がいずれの空間Ao〜A2に位置しないと制御装置10が判断した場合には(S29:NO)、制御装置10は、S1を実行する。 Next, the control device 10 determines in which space Ao to A2 the movement position of the body movement is located (S29). When the control device 10 determines that the operation position is located in any of the spaces Ao to A2 (S29: YES), the control device 10 executes S25. When the control device 10 determines that the operation position is not located in any of the spaces Ao to A2 (S29: NO), the control device 10 executes S1.
3.本実施形態に係るジェスチャーユーザインタフェースシステムの特徴
本実施形態では、利用者が存在する空間内に設定された認識空間Ao内でされた身体動作を検出するとともに、認識空間Ao外の空間で身体動作がされた場合に、その旨を利用者に報知する。
3. Features of Gesture User Interface System According to the Present Embodiment In the present embodiment, the body motion performed in the recognition space Ao set in the space where the user exists is detected and the body motion is performed in the space outside the recognition space Ao. If this happens, the user is notified of this.
これにより、認識空間Ao外の空間で身体動作がされた場合に、当該身体動作をした利用者は、その旨を理解でき得る。つまり、「認識空間Ao内で身体動作を再度実行する必要がある」旨を利用者に促すことができ得る。延いては、誤作動の発生を抑制でき得る。 Thereby, when a body motion is performed in a space outside the recognition space Ao, the user who has performed the body motion can understand that fact. That is, the user can be prompted to “execute physical movement again in the recognition space Ao”. As a result, the occurrence of malfunction can be suppressed.
本実施形態では、検出された動作位置と認識空間Aoとの離間距離を利用して、報知する際の報知パターン、つまり振動パターンを決定する。
これにより、利用者に対して「次回の身体動作をいずれの空間で行うことが妥当であるか」を伝えることができ得る。延いては、次回以降の身体動作が認識空間Aoにて実行される可能性が高まるので、誤作動の発生を抑制でき得る。
In the present embodiment, a notification pattern at the time of notification, that is, a vibration pattern, is determined using the separation distance between the detected motion position and the recognition space Ao.
Thereby, it can be told to the user “in which space it is appropriate to perform the next physical motion”. As a result, the possibility that the next and subsequent body movements are executed in the recognition space Ao is increased, so that the occurrence of malfunction can be suppressed.
本実施形態では、互いに異なる箇所に配設された第1振動子13A及び第2振動子13Bにて振動装置13を構成している。これにより、利用者に確実に報知内容を理解させることが可能となり得る。 In the present embodiment, the vibration device 13 is configured by the first vibrator 13A and the second vibrator 13B that are disposed at different locations. Thereby, it may be possible to make the user understand the content of the notification with certainty.
本実施形態では、利用者が存在する位置を検出し、当該検出した利用者の存在位置を利用して認識空間Aoを設定する。これにより、利用者にとって好ましい位置に認識空間Aoを設定でき得る。 In this embodiment, the position where the user exists is detected, and the recognition space Ao is set using the detected position of the user. Thereby, the recognition space Ao can be set at a position preferable for the user.
(その他の実施形態)
上述の実施形態に係る各振動パターンでは、認識空間Aoと動作位置との離間距離が大きくなるほど、各振動子13A、13Bの振動周期が短くなるとともに、両振動子13A、13Bの合成振動周期が短くなるように変化した。しかし、本願明細書に開示された発明はこれに限定されるものではない。
(Other embodiments)
In each vibration pattern according to the above-described embodiment, the greater the separation distance between the recognition space Ao and the operation position, the shorter the vibration period of each vibrator 13A, 13B, and the combined vibration period of both vibrators 13A, 13B. Changed to be shorter. However, the invention disclosed in this specification is not limited to this.
上述の実施形態では、ジェスチャーユーザインタフェースシステムの起動スイッチが投入されている場合に「ジェスチャーON(オン)」であると判断した。しかし、本願明細書に開示された発明はこれに限定されるものではない。 In the above-described embodiment, when the activation switch of the gesture user interface system is turned on, it is determined that “gesture is ON”. However, the invention disclosed in this specification is not limited to this.
すなわち、例えば、当該起動スイッチが音声入力装置にて構成されている場合には、当該音声入力装置の状態により「ジェスチャーON(オン)」が判断される構成であってもよい。 That is, for example, when the activation switch is configured by a voice input device, a configuration in which “gesture ON (on)” is determined based on the state of the voice input device may be employed.
上述の実施形態では、振動装置13にて報知装置を構成した。しかし、本願明細書に開示された発明はこれに限定されるものではない。すなわち、例えば、音声や映像にて報知する報知装置であってもよい。 In the above-described embodiment, the notification device is configured by the vibration device 13. However, the invention disclosed in this specification is not limited to this. That is, for example, a notification device that notifies by voice or video may be used.
上述の実施形態に係る振動装置13では、第1振動子13A及び第2振動子13Bにより構成されていた。しかし、本願明細書に開示された発明はこれに限定されるものではない。すなわち、例えば、1つの振動子、又は3つ以上の振動子にて構成されていてもよい。 The vibration device 13 according to the above-described embodiment includes the first vibrator 13A and the second vibrator 13B. However, the invention disclosed in this specification is not limited to this. That is, for example, it may be configured by one vibrator or three or more vibrators.
上述の実施形態では、シート位置センサ12により利用者が存在する位置を検出した。しかし、本願明細書に開示された発明はこれに限定されるものではない。すなわち、例えば、広角カメラ等を利用して利用者が存在する位置を検出してもよい。 In the above-described embodiment, the position where the user exists is detected by the sheet position sensor 12. However, the invention disclosed in this specification is not limited to this. That is, for example, the position where the user exists may be detected using a wide-angle camera or the like.
上述の実施形態では、検出された利用者の存在位置を利用して認識空間Aoを設定した。しかし、本願明細書に開示された発明はこれに限定されるものではない。すなわち、例えば、認識空間Aoを固定された空間として設定されていてもよい。なお、図2では、各空間が球状に示されているが、本願明細書に開示された発明はこれに限定されるものではない。 In the above-described embodiment, the recognition space Ao is set using the detected location of the user. However, the invention disclosed in this specification is not limited to this. That is, for example, the recognition space Ao may be set as a fixed space. In FIG. 2, each space is shown in a spherical shape, but the invention disclosed in the present specification is not limited to this.
上述の実施形態では、乗用車に本発明に係るジェスチャーユーザインタフェースシステムを適用した。しかし、本発明の適用はこれに限定されるものではなく、鉄道車両、船舶及び航空機等の乗物に用いられるシート、並びに劇場や家庭用等に用いられる据え置き型シートにも適用できる。 In the above-described embodiment, the gesture user interface system according to the present invention is applied to a passenger car. However, the application of the present invention is not limited to this, and can also be applied to seats used for vehicles such as railway vehicles, ships and aircraft, and stationary seats used for theaters, homes and the like.
さらに、本発明は、特許請求の範囲に記載された発明の趣旨に合致するものであればよく、上述の実施形態に限定されるものではない。したがって、上述した複数の実施形態のうち少なくとも2つの実施形態を組み合わせてもよい。 Furthermore, the present invention is not limited to the above-described embodiment as long as it matches the gist of the invention described in the claims. Therefore, you may combine at least 2 embodiment among several embodiment mentioned above.
1… ジェスチャーユーザインタフェースシステム
10… 制御装置
11… 撮像センサ
12… シート位置センサ
13… 振動装置
DESCRIPTION OF SYMBOLS 1 ... Gesture user interface system 10 ... Control apparatus 11 ... Imaging sensor 12 ... Sheet position sensor 13 ... Vibration apparatus
Claims (6)
利用者が存在する空間内に設定された認識空間内でされた前記身体動作を検出する動作検出装置と、
前記認識空間外の空間で前記身体動作がされた場合に、その旨を利用者に報知する報知装置と
を備えるジェスチャーユーザインタフェースシステム。 In a gesture user interface system that detects a user's physical motion and recognizes the user's intention,
A motion detection device for detecting the physical motion performed in a recognition space set in a space where a user exists;
A gesture user interface system comprising: a notification device that notifies a user when the body motion is performed in a space outside the recognition space.
前記身体動作が現実にされた位置を検出する動作位置検出部、及び
前記動作位置検出部により検出された動作位置と前記認識空間との離間距離を利用して、報知する際の報知パターンを決定する報知パターン決定部
を有して構成されている請求項1に記載のジェスチャーユーザインタフェースシステム。 The notification device
A motion position detection unit that detects a position where the body motion is realized, and a separation pattern between the motion position detected by the motion position detection unit and the recognition space is used to determine a notification pattern for notification. The gesture user interface system according to claim 1, wherein the gesture user interface system is configured to include a notification pattern determination unit.
前記報知装置は、前記振動装置を振動させて利用者に報知する請求項1又は2に記載のジェスチャーユーザインタフェースシステム。 A seat that can be seated by a user, comprising a seat provided with a vibration device for applying vibration to the seated person,
The gesture user interface system according to claim 1, wherein the notification device vibrates the vibration device to notify a user.
前記利用者位置検出部が検出した利用者の存在位置を利用して前記認識空間を設定する認識空間設定部と
を備える請求項1ないし4のいずれか1項に記載のジェスチャーユーザインタフェースシステム。 A user position detection unit for detecting a position where the user exists;
The gesture user interface system according to any one of claims 1 to 4, further comprising: a recognition space setting unit that sets the recognition space using a user location detected by the user position detection unit.
請求項1ないし5のいずれか1項に記載のジェスチャーユーザインタフェースシステムを有し、当該ジェスチャーユーザインタフェースシステムにより認識された乗員の意図を利用して前記搭載機器を作動させる制御部と
を備える乗物用制御システム。 Mounted on the vehicle and operating on the vehicle;
A vehicle having the gesture user interface system according to any one of claims 1 to 5, and a control unit that operates the on-board equipment using the intention of the passenger recognized by the gesture user interface system. Control system.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017013206A JP2018120531A (en) | 2017-01-27 | 2017-01-27 | Gesture user interface system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017013206A JP2018120531A (en) | 2017-01-27 | 2017-01-27 | Gesture user interface system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018120531A true JP2018120531A (en) | 2018-08-02 |
Family
ID=63045280
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017013206A Pending JP2018120531A (en) | 2017-01-27 | 2017-01-27 | Gesture user interface system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018120531A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021098481A (en) * | 2019-12-23 | 2021-07-01 | 日本電産モビリティ株式会社 | Vehicle control device |
-
2017
- 2017-01-27 JP JP2017013206A patent/JP2018120531A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021098481A (en) * | 2019-12-23 | 2021-07-01 | 日本電産モビリティ株式会社 | Vehicle control device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11169618B2 (en) | Systems and methods for distinguishing gestures | |
| US9315196B2 (en) | Method, device and computer program product for controlling a functional unit of a vehicle | |
| US9965169B2 (en) | Systems, methods, and apparatus for controlling gesture initiation and termination | |
| CN116653715B (en) | Vehicle control systems | |
| US10474357B2 (en) | Touch sensing display device and method of detecting user input from a driver side or passenger side in a motor vehicle | |
| US20150116200A1 (en) | System and method for gestural control of vehicle systems | |
| RU2018108207A (en) | METHOD FOR OBSERVING A VEHICLE SALON | |
| CN106394449A (en) | Vehicle seat control system | |
| US20180147965A1 (en) | Handle assembly of a vehicle door | |
| US11155227B2 (en) | Occupant monitoring device for vehicle and occupant protection system for vehicle | |
| CN103869970B (en) | Pass through the system and method for 2D camera operation user interfaces | |
| CN107776441A (en) | Electronics seat switch and its operating method for the automatic seat of autonomous vehicle | |
| JP7138175B2 (en) | Method of operating head-mounted electronic display device for displaying virtual content and display system for displaying virtual content | |
| JP7524862B2 (en) | Vehicle setting device and vehicle setting method | |
| CN106489273B (en) | Method for protecting the interior of a motor vehicle | |
| KR101946746B1 (en) | Positioning of non-vehicle objects in the vehicle | |
| JP2017090614A (en) | Voice recognition control system | |
| US20190171296A1 (en) | Gesture determination apparatus and program | |
| JP2017111711A (en) | Operation device for vehicle | |
| JP2018120531A (en) | Gesture user interface system | |
| JP2009126485A (en) | Vehicle control system for the disabled | |
| US12522163B2 (en) | Method for function control on a vehicle under consideration of a detected level of attention of a person in an interior of the vehicle | |
| JP6912336B2 (en) | Vehicle seat system | |
| US10705731B2 (en) | Device operational control systems and methods | |
| CN112389458A (en) | Motor vehicle interaction system and method |