[go: up one dir, main page]

JP2018144534A - Driving assist system, driving assist method and driving assist program - Google Patents

Driving assist system, driving assist method and driving assist program Download PDF

Info

Publication number
JP2018144534A
JP2018144534A JP2017039092A JP2017039092A JP2018144534A JP 2018144534 A JP2018144534 A JP 2018144534A JP 2017039092 A JP2017039092 A JP 2017039092A JP 2017039092 A JP2017039092 A JP 2017039092A JP 2018144534 A JP2018144534 A JP 2018144534A
Authority
JP
Japan
Prior art keywords
information
character string
motion
voice recognition
target device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017039092A
Other languages
Japanese (ja)
Other versions
JP6944793B2 (en
Inventor
成人 阿彦
Shigeto Ahiko
成人 阿彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2017039092A priority Critical patent/JP6944793B2/en
Publication of JP2018144534A publication Critical patent/JP2018144534A/en
Application granted granted Critical
Publication of JP6944793B2 publication Critical patent/JP6944793B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02T90/10Technologies relating to charging of electric vehicles
    • Y02T90/16Information or communication technologies improving the operation of electric vehicles

Landscapes

  • Electric Propulsion And Braking For Vehicles (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】運転操作者が異常系の操作をしていないかどうか、正常系の動作を正しく操作しているかどうかの確認を可能とし、より良い安全運転支援を可能とすること。【解決手段】運転操作者の声、身振り手振り(ジェスチャ)、操作対象機器の状態を示す情報と予め比較用データとして、データベースに蓄積した運転操作者の声、身振り手振り(ジェスチャ)、機器の状態を示す情報を比較し、当該情報の比較結果から異常系の操作をしていないかどうか、正常系の動作を正しく操作しているかどうかの安全性確認をする機能を含む手段を備えた運転支援システム。【選択図】図1PROBLEM TO BE SOLVED: To make it possible to confirm whether or not a driving operator is operating an abnormal system and whether or not a normal system is being operated correctly, and to enable better safe driving support. SOLUTION: A driver's voice, a gesture (gesture), information indicating the state of an operation target device and data for comparison in advance, the driver's voice, a gesture (gesture), and a state of the device are stored in a database. Driving support equipped with means including a function to compare the information indicating the above information and confirm the safety of whether or not the abnormal system is being operated and whether or not the normal system is being operated correctly based on the comparison result of the information. system. [Selection diagram] Fig. 1

Description

本発明は、運転支援システムおよび運転支援方法並びに運転支援プログラムに関する。
更に詳しくは、例えば、運転操作の安全性判定機能を有するサーバ(コンピュータ)を備え、鉄道の運転士やバスの運転手(以下、総称して運転者と称する)の声、および/または周囲の音や鉄道やバスの設備の異常音などを認識して音声認識情報を出力する音声認識機能、運転者の身振り手振りなどの仕草・動作(ジェスチャ)を認識、解析してモーションパターン解析結果情報を出力するモーションジェスチャ機能、そのときの操作対象機器の状態を示す情報を含む各情報の組合せを利用し、運転者の運転操作内容、つまり、安全運転操作をしているか否か(非安全運転操作)を判定し、その結果を示す情報を出力し、当該結果を示す情報により、例えば、運転者の運転操作ミスを減少、改善し、運転操作の正確性を向上させ、安全運転を支援するシステム、方法、プログラムに関する。
The present invention relates to a driving support system, a driving support method, and a driving support program.
More specifically, for example, a server (computer) having a function for judging safety of driving operation is provided, and a voice of a railway driver or a bus driver (hereinafter collectively referred to as a driver) and / or surroundings Recognize and analyze gestures and movements (gestures) such as voice recognition functions that recognize sounds and abnormal sounds of railway and bus facilities and output voice recognition information, and driver gestures, and obtain motion pattern analysis result information Using a combination of information including the motion gesture function to be output and information indicating the status of the operation target device at that time, the driver's driving operation content, that is, whether or not the driver is performing a safe driving operation (non-safe driving operation ) And output the information indicating the result. For example, the information indicating the result can reduce or improve the driving error of the driver, improve the accuracy of the driving operation, Supported by the system, method, and program.

車両の安全運転を支援する技術として、例えば、特開2014−92804号公報(特許文献1)に記載の技術がある。この公報には、「判定期間における車両での運転操作が理想的であるか否かを判定するための判定情報を取得し、前記判定情報に基づいて、前記判定期間中の案内タイミングにおける前記車両の運転操作が理想的であるか否かを判定し、前記案内タイミングにおける前記車両の運転操作が理想的である場合、前記案内タイミングにおいて運転操作が理想的であることを示す案内を行う」という記載がある(要約書参照)。   As a technique for supporting safe driving of a vehicle, for example, there is a technique described in Japanese Patent Application Laid-Open No. 2014-92804 (Patent Document 1). In this publication, “determination information for determining whether or not the driving operation in the vehicle during the determination period is ideal is acquired, and the vehicle at the guidance timing during the determination period is obtained based on the determination information. It is determined whether or not the driving operation of the vehicle is ideal, and when the driving operation of the vehicle at the guidance timing is ideal, guidance indicating that the driving operation is ideal at the guidance timing is performed. There is a description (see abstract).

特開2014−92804号公報JP 2014-92804 A

上記従来技術は、例えば、車速の理想的な加速曲線と実速度を対比し、その結果をもって、操作者へ車速に対する運転操作の注意を促す運転支援システムである。係る技術によれば、「運転操作を継続的に理想的な状態とするための指針を提供する」ことが可能である。しかし、鉄道やバスなどの車両を運転する際に操作する操作対象機器などを含む機械の操作には直接に関わりない運転者の声や仕草・動きまで判断して、運転操作の安全性に対する注意を促すことまでは考慮されていない。故に、運転操作者が異常系の操作をしていないかどうか、正常系の動作を正しく操作しているかどうかなどの確認をすることまではできなかった。   The above-described conventional technology is, for example, a driving support system that compares an ideal acceleration curve of vehicle speed with actual speed, and, based on the result, prompts an operator to pay attention to driving operation with respect to the vehicle speed. According to such a technique, it is possible to “provide a guideline for continuously setting a driving operation in an ideal state”. However, the driver's voice, gestures, and movements that are not directly related to the operation of the machine including the operation target device that is operated when driving a vehicle such as a railroad or a bus are judged, and attention is paid to the safety of the driving operation. Is not taken into account. Therefore, it has not been possible to confirm whether the driving operator is operating an abnormal system or whether the normal system is operating correctly.

そこで、本発明では、機械の操作には直接に関わりない運転者の掛け声や運転者の仕草・動きなども安全運転の支援に役立つことに着目し、運転者が異常系の操作をしていないかどうか、正常系の動作を正しく操作しているかどうかの確認を可能とし、よりきめ細かな安全運転支援を可能とすることを目的とする。   Therefore, in the present invention, focusing on the fact that the driver's shout and the driver's gestures and movements that are not directly related to the operation of the machine are also useful for assisting safe driving, the driver does not operate the abnormal system. It is possible to confirm whether or not the normal system is operating correctly, and to enable more detailed safe driving support.

上記課題を解決するために、本発明は、例えば、運転者の声を含む音声情報や身振り手振りなどの仕草・動作(ジェスチャ)のモーションを含む映像情報、操作対象機器の状態を示す情報、の各情報を収集・認識・解析し、その結果と予め安全性判定用情報として、データベースなどの記録手段に登録(蓄積)された運転者の音声認識情報、モーションパターン解析結果情報、操作対象機器の状態を示す情報と比較し、当該情報の比較結果から運転者が異常系の操作をしていないかどうか、正常系の動作を正しく操作しているかどうかの安全性確認、判定し、その結果を示す情報を出力する機能を有する手段を備えたものである。   In order to solve the above-described problems, the present invention provides, for example, audio information including a driver's voice, video information including motions of gestures and gestures (gestures) such as gestures, and information indicating a state of an operation target device. Each information is collected / recognized / analyzed, and the driver's voice recognition information, motion pattern analysis result information, and operation target device information registered and stored in the recording means such as a database as the safety judgment information in advance. Compared with the information indicating the status, it is confirmed from the comparison result of the information whether or not the driver is operating the abnormal system and whether the normal system is operating correctly. Means having a function of outputting the indicated information is provided.

本発明の代表的な運転支援システム、方法、プログラムの一つは、
移動体の運転席側にある通信端末から運転操作対象機器の機器状態を示す情報および当該運転操作対象機器の運転者の音声情報、映像情報を、ネットワークを介して受信するサーバを備えた運転支援システムであって、
前記音声情報、前記映像情報、前記操作対象機器の状態を示す情報を取得する情報取得手段と、
前記情報取得手段にて取得した音声情報を認識し、音声認識情報を出力する音声認識手段と、
前記情報取得手段にて取得した映像情報を解析し、運転者のモーション解析結果情報を出力するモーション解析手段と、
予め比較用情報として、音声認識情報、モーションパターン解析結果情報、対象機器の状態を示す情報、判定結果を示す情報、を登録する記憶手段と、
前記音声認識手段の音声認識情報、前記モーション解析手段のモーションパターン解析結果情報、前記データ取得手段の操作対象機器の状態を示す情報を利用して、前記操作対象機器を操作する利用者の操作が安全か否かの安全性を判定し、当該判定の結果を示す情報を出力する安全性判定処理手段と、
を備え、
前記安全性判定処理手段は、
前記データ取得手段における操作対象機器の状態を示す情報と前記音声認識手段における音声認識情報、前記モーション解析手段におけるモーションパターン解析結果情報を入力情報とし、当該入力情報を前記記憶手段に予め比較用情報として登録された操作対象機器の状態を示す情報、音声認識情報、モーションパターン解析結果情報と比較し、
当該比較の比較結果から、前記記憶手段における操作対象機器の状態を示す情報、音声認識情報、前記モーションパターン解析結果情報に対応して登録された判定結果を示す情報を出力する
ことを特徴とする。
One of the typical driving support systems, methods and programs of the present invention is:
Driving support provided with a server that receives information indicating the device status of the driving operation target device and the voice information and video information of the driver of the driving operation target device from the communication terminal on the driver's seat side of the moving object via the network A system,
Information acquisition means for acquiring information indicating the state of the audio information, the video information, and the operation target device;
Voice recognition means for recognizing voice information acquired by the information acquisition means and outputting voice recognition information;
Analyzing the video information acquired by the information acquisition means, and outputting motion analysis result information of the driver;
Storage means for registering speech recognition information, motion pattern analysis result information, information indicating the state of the target device, and information indicating a determination result as comparison information in advance,
The operation of the user who operates the operation target device is performed using the voice recognition information of the voice recognition unit, the motion pattern analysis result information of the motion analysis unit, and the information indicating the state of the operation target device of the data acquisition unit. Safety judgment processing means for judging safety of safety or not, and outputting information indicating a result of the judgment;
With
The safety determination processing means includes
Information indicating the state of the operation target device in the data acquisition unit, voice recognition information in the voice recognition unit, and motion pattern analysis result information in the motion analysis unit are set as input information, and the input information is previously stored in the storage unit as comparison information. Compared with information indicating the status of the operation target device registered as, voice recognition information, motion pattern analysis result information,
From the comparison result of the comparison, information indicating a state of the operation target device in the storage unit, voice recognition information, and information indicating a determination result registered corresponding to the motion pattern analysis result information are output. .

本発明によれば、運転者が異常系の操作をしていないかどうか、正常系の動作を正しく操作しているかどうかの確認が可能であり、より良い安全運転支援を可能となる。   According to the present invention, it is possible to confirm whether or not the driver is operating an abnormal system and whether or not the normal system is operating correctly, and better safe driving support is possible.

例えば、以下に記載するような効果を期待することができる。
(1)鉄道の運転士やバスの運転手の声と動きが連動した操作内容まで判定し、安全性を判断すること、
(2)声だけ、身振り手振りだけというような基本動作の欠如により安全性が低下している状態を検知すること
などをもって、安全か非安全(発声不足、発声不明瞭、指差し認識不足、指差し過剰など)、を含むきめ細かな結果を安全運転に反映することができる。
上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
For example, the effects described below can be expected.
(1) Judging the details of operations that are linked to the voice and movement of railway drivers and bus drivers, and judging safety.
(2) Safety or non-safety (insufficient utterances, unclear utterances, insufficient pointing recognition, finger detection, etc.) by detecting a state of reduced safety due to the lack of basic actions such as voice only and gesture gestures. It is possible to reflect detailed results including over-representation) in safe driving.
Problems, configurations, and effects other than those described above will become apparent from the following description of embodiments.

図1は本発明における運転支援システムの全体構成図である。FIG. 1 is an overall configuration diagram of a driving support system according to the present invention. 図2は本発明における音声認識処理のフローチャートである。FIG. 2 is a flowchart of the speech recognition process in the present invention. 図3は本発明におけるモーション解析ソフトのフローチャートである。FIG. 3 is a flowchart of the motion analysis software in the present invention. 図4は本発明における安全性判定処理のフローチャートである。FIG. 4 is a flowchart of the safety determination process in the present invention. 図5は本発明における運転支援システムの実施形態例である。FIG. 5 shows an embodiment of the driving support system according to the present invention. 図6は図5におけるデータベースのデータ構成例を示す図である。FIG. 6 is a diagram showing a data configuration example of the database in FIG.

以下、図面を参照しながら、本発明を実施するための形態を詳細に説明する。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

図1は、本発明における運転支援システムの全体構成図である。
運転支援システムは、例えば、鉄道やバスなどの移動体の運転席に設置された音声集音器M1を含み、運転者U1(利用者)の声を集音し、音声情報を出力する機能を有する音声集音装置M、身振り手振り感知器C1を含み、運転者U1(利用者)の仕草や動きなどを感知し、運転者のモーション情報を出力する機能を有する身振り手振り感知装置C、運転操作時に操作対象となる操作対象機器A1、操作対象機器A1の機器状態を示す情報、例えば、現状が「出発時」か「走行時」を示す情報を取得する機能を有する機器状態情報取得部L1、通信機能を有する通信端末T1、安全性判定機能を有する安全性判定サーバS1、ネットワークN1、を有する。
FIG. 1 is an overall configuration diagram of a driving support system according to the present invention.
The driving support system includes, for example, a voice collector M1 installed in a driver's seat of a moving body such as a railroad or a bus, and has a function of collecting voice of the driver U1 (user) and outputting voice information. A gesture detector C1 having a function of detecting a driver U1 (user) gesture and movement and outputting motion information of the driver, including a voice collecting device M and a gesture detector C1 A device status information acquisition unit L1 having a function of acquiring information indicating an operation target device A1 that is sometimes an operation target, information indicating the device status of the operation target device A1, for example, information indicating that the current state is “when departure” or “when traveling”; A communication terminal T1 having a communication function, a safety determination server S1 having a safety determination function, and a network N1 are included.

音声集音装置Mの音声集音器M1は、例えば、鉄道の運転士やバスの運転手、同乗者(含指導者、添乗者など)が発する声(掛け声)を集音する機能を有する少なくとも1台以上のマイクなどからなる。本例では、運転士、運転手や同乗者の声のみを衆本するものであるが、声以外、例えば、パンタグラフ、線路、車両などの鉄道設備の異常音などを検出するものであっても良い。   The sound collector M1 of the sound collector M has, for example, at least a function of collecting voices (screams) produced by railway drivers, bus drivers, and passengers (including instructors and passengers). It consists of one or more microphones. In this example, only the voices of the driver, driver, and passengers are stored in the center, but other than voices, for example, detecting abnormal sounds of railway equipment such as pantographs, tracks, vehicles, etc. good.

感知装置の身振り手振り感知器C1は、例えば、運転者を撮影する1台以上のモーションセンサやビデオカメラ(以下、カメラと称する)、当該カメラにて撮影した映像(含画像)情報により、運転者の仕草・動き(直感的動作など)、例えば、口の動きや目の視線、身振り手振りなどの動作(ジェスチャ)を感知する機能を有する仕草感知部などからなる。   The gesture gesture detector C1 of the sensing device includes, for example, one or more motion sensors, a video camera (hereinafter referred to as a camera) for photographing the driver, and video (including image) information captured by the camera. A gesture sensing unit having a function of sensing movements (gestures) such as mouth movements, eye gaze, gesture gestures, and the like.

仕草感知部は、感知した仕草を分析する仕草分析機能を有し、例えば、既存のポスチャ・ジェスチャ認識機能や顔認識機能を有した技術により構成される。ポスチャ・ジェスチャ認識技術や顔認識機能を有した技術は既に公知である。例えば、人の仕草・動線の認識技術については特開2004−303014号公報に記載されており、その詳細説明は省略する。ポスチャ・ジェスチャ認識技術手段を利用すれば、複数の人を識別し、複数の仕草を分析できる。   The gesture detection unit has a gesture analysis function for analyzing the detected gesture, and is configured by, for example, a technology having an existing posture / gesture recognition function and face recognition function. Posture / gesture recognition techniques and techniques having face recognition functions are already known. For example, a technique for recognizing a human gesture / flow line is described in Japanese Patent Application Laid-Open No. 2004-303014, and detailed description thereof is omitted. By using posture and gesture recognition technology, it is possible to identify multiple people and analyze multiple gestures.

操作対象機器A1は、操作者が操作する対象機器を含む機械である。例えば、運転操作に直接関係するハンドル、ブレーキや運転操作に直接関係しないが、必要とされる例えば、制御機器や計測器などである。   The operation target device A1 is a machine including a target device operated by an operator. For example, a steering wheel, a brake, and a driving instrument that are directly related to the driving operation are not directly related to the driving operation, but a control device, a measuring instrument, and the like are required.

機器状態情報取得部L1は、操作対象機器A1に接続、または埋め込まれ、操作対象機器A1の状態を電気信号に変換(文字化)し、通信端末T1に送信する機能を有する。   The device state information acquisition unit L1 is connected to or embedded in the operation target device A1, and has a function of converting (characterizing) the state of the operation target device A1 into an electric signal and transmitting the electric signal to the communication terminal T1.

操作対象機器A1の機器状態とは、例えば、操作対象機器が走行中(走行時)、停止中(出発時)、閉塞進行、中継進行、などを示す情報であり、鉄道の主管制御機器の操作状態、バスのハンドルの状態などを示す情報(データ)である。   The device state of the operation target device A1 is, for example, information indicating that the operation target device is traveling (during traveling), stopped (during departure), obstruction progress, relay progress, and the like, and the operation of the railway main control device. This is information (data) indicating the status, the status of the bus handle, and the like.

なお、機器状態情報取得部L1と通信端末T1の間は有線接続または無線接続のどちらでも良い。また、本例では、通信端末T1から独立した機器として記載しているが、機器状態情報取得部L1は、操作対象機器A1の状態が取得できるのであれば、通信端末T1の内部に実装されていても良い。   Note that either a wired connection or a wireless connection may be used between the device state information acquisition unit L1 and the communication terminal T1. Further, in this example, the device is described as a device independent of the communication terminal T1, but the device state information acquisition unit L1 is implemented inside the communication terminal T1 as long as the state of the operation target device A1 can be acquired. May be.

通信端末T1は、音声集音器M1、身振り手振り感知器C1の仕草感知部、機器状態情報取得部L1の各部にて収集、感知、取得した各情報(データ)を受け、ネットワークN1を介して安全性判定サーバS1に送信し、また、安全性判定サーバS1側から送信される安全性の判定結果を示す情報、例えば、「発声不足」、「発声不明瞭」、「安全」、「指差し確認不足」、「指差し過剰」、「なし」などを示す文字列の情報を受信し、当該情報を表示部に表示する機能を有する。   The communication terminal T1 receives information (data) collected, detected, and acquired by each unit of the sound collector M1, the gesture detection unit of the gesture gesture detector C1, and the device state information acquisition unit L1, and via the network N1. Information indicating the safety determination result transmitted to the safety determination server S1 and transmitted from the safety determination server S1 side, for example, “insufficient utterance”, “unspoken utterance”, “safety”, “pointing” It has a function of receiving information on character strings indicating “insufficient confirmation”, “excessive pointing”, “none”, etc., and displaying the information on the display unit.

安全性判定サーバS1は、例えば、コンピュータからなり、通信端末T1から送信された音声情報(音声データ)、仕草感知情報(映像データ)、対象機器の機器状態を示す情報(出発時/走行時)などの各情報(データ)を受信し、また、判定結果を示す情報を送信する機能を有する通信部を含む通信装置TR、音声認識ソフトウェアを格納した音声認識ソフトウェア部P1、モーション解析ソフトウェアを格納したモーション解析ソフトウェア部P2、安全性の判定する機能を有する安全性判定処理部P3、を含む演算装置P、予め比較用として使用される、各情報を登録するデータベース(DB)D1、含む記憶装置Dを有する。
通信装置TR、演算装置P(音声認識ソフトウェア部P1、モーション解析ソフトウェア部P2、安全性判定処理部P3)、記憶装置Dはコンピュータシステムを構成する。
The safety determination server S1 is composed of, for example, a computer, and includes voice information (voice data), gesture detection information (video data) transmitted from the communication terminal T1, and information indicating the device status of the target device (when departing / running) A communication device TR including a communication unit having a function of receiving information (data) such as information and transmitting information indicating a determination result, a voice recognition software unit P1 storing voice recognition software, and a motion analysis software are stored. An arithmetic device P including a motion analysis software unit P2, a safety determination processing unit P3 having a function of determining safety, a database (DB) D1 for registering each information, which is used in advance for comparison, and a storage device D including Have
The communication device TR, the arithmetic device P (speech recognition software unit P1, motion analysis software unit P2, safety determination processing unit P3), and the storage device D constitute a computer system.

データベースD1に登録される各情報とは、安全性判定処理部P3にて、安全性の判定する際に利用される比較用の音声認識情報(例えば、音声認識文字列や音素)、モーションパターン解析結果情報(例えば、モーションパターン列/モーション解析結果文字列)、対象機器の機器状態(出発時/走行時)を示す情報(データ)である。また、各情報の組合せから如何なる判定結果であるかを示す情報(例えば、安全、発声不足、など)である(図6参照)。   Each information registered in the database D1 is a voice recognition information for comparison (for example, a voice recognition character string or a phoneme) used for safety judgment in the safety judgment processing unit P3, a motion pattern analysis. Result information (for example, motion pattern string / motion analysis result character string) and information (data) indicating the device status (starting / running) of the target device. Moreover, it is information (for example, safety, lack of utterance, etc.) indicating what kind of determination result is obtained from the combination of each information (see FIG. 6).

音声認識ソフトウェア部P1の音声認識ソフトウェアは、通信端末T1からネットワークN1を介して送信された音声データを入力値として音声認識し、そのときの音声を音声認識結果である音声認識情報として出力する。
例えば、認識した音声データを文字変換(文字化)し、音声認識文字列を生成し、音声認識文字列(音声認識情報)を音声認識結果として出力する。この音声認識結果の音声認識文字列は、安全性判定処理部P3へ入力する値とする。音声認識ソフトウェアによる処理手順は後述する。
The voice recognition software of the voice recognition software unit P1 recognizes voice as voice data transmitted from the communication terminal T1 via the network N1, and outputs the voice at that time as voice recognition information as a voice recognition result.
For example, the recognized speech data is converted into characters (characterized), a speech recognition character string is generated, and the speech recognition character string (speech recognition information) is output as a speech recognition result. The speech recognition character string of the speech recognition result is a value input to the safety determination processing unit P3. The processing procedure by the voice recognition software will be described later.

モーション解析ソフトウェア部P2のモーション解析ソフトウェアは、通信端末T1からネットワークN1を介して送信された映像データを入力値としてモーション解析し、そのときのモーションをモーション解析結果であるモーションパターン解析結果情報として出力する。
例えば、運転者の仕草や動きを分析し、これを文字情報として変換(文字化)し、モーションパターン解析結果文字列を生成し、モーション解析結果文字列をモーション解析結果として出力する。このモーション解析結果のモーションパターン解析結果文字列は、安全性判定処理部P3へ入力する値とする。モーション解析ソフトウェアによる処理手順は後述する。
The motion analysis software of the motion analysis software part P2 performs motion analysis using the video data transmitted from the communication terminal T1 via the network N1 as an input value, and outputs the motion at that time as motion pattern analysis result information. To do.
For example, the driver's gesture and movement are analyzed, converted as character information (characterized), a motion pattern analysis result character string is generated, and the motion analysis result character string is output as a motion analysis result. The motion pattern analysis result character string of the motion analysis result is a value input to the safety determination processing unit P3. The processing procedure by the motion analysis software will be described later.

安全性判定処理部P3は、音声認識ソフトウェアにおける音声認識結果(例えば、音声認識文字列)、モーション解析ソフトウェアにおけるモーションパターン解析結果(例えば、モーション解析結果文字列)、および通信端末T1からネットワークN1を介して送信された操作対象機器A1の機器状態(例えば、文字列)、を入力値(入力情報)とし、データベースD1を検索し、当該データベースに登録された各情報と比較し、その比較結果をもって、運転者による運転操作の安全性の適否、例えば、「安全、非安全(発声不足、発声不明瞭、指差し確認不足、指差し過剰)」、などを判定し、その判定結果を示す情報(例えば、文字列)を出力する動作を行う。
すなわち、安全性判定処理部P3は、音声認識ソフトウェア部P1やモーション解析ソフトウェア部P2、などの結果を、予め記憶装置DのデータベースD1に登録した音声認識文字列、モーションパターン解析結果文字列、操作対象機器の状態を示す文字列と比較し、当該比較した結果、データベースD1に合致する文字列があれば、当該文字列に対応して登録された判定結果の文字列を抽出する機能を有する。
安全性判定処理は、演算装置Pの内部に格納されたプログラムに従って行う。安全性判定結果は、通信装置を介して通信端末T1に送信し、運転者側に通知(通報)する。安全性の判定結果は、必要なときに読出し、確認できるように記憶装置Dに登録しても良い。安全性判定処理部P3における処理手順は後述する。
The safety determination processing unit P3 receives the network N1 from the speech recognition result (for example, speech recognition character string) in the speech recognition software, the motion pattern analysis result (for example, motion analysis result character string) in the motion analysis software, and the communication terminal T1. The device state (for example, character string) of the operation target device A1 transmitted through the server is used as an input value (input information), the database D1 is searched, compared with each information registered in the database, and the comparison result is obtained. , Whether or not the driving operation is safe by the driver, for example, “safety, non-safety (insufficient utterance, unclear utterance, insufficient pointing confirmation, excessive pointing)”, and information indicating the determination result ( For example, a character string) is output.
That is, the safety determination processing unit P3 is a speech recognition character string, motion pattern analysis result character string, operation, and the like, in which the results of the voice recognition software unit P1 and the motion analysis software unit P2 are registered in the database D1 of the storage device D in advance. When there is a character string that matches the database D1 as a result of the comparison with a character string indicating the state of the target device, the determination result character string registered corresponding to the character string is extracted.
The safety determination process is performed according to a program stored inside the arithmetic device P. The safety determination result is transmitted to the communication terminal T1 via the communication device and notified (reported) to the driver side. The safety judgment result may be registered in the storage device D so that it can be read and confirmed when necessary. A processing procedure in the safety determination processing unit P3 will be described later.

記憶装置DのデータベースD1は、例えば、前記音声認識手段における音声認識結果(音声認識文字)と比較するための音声認識文字列、前記モーション解析手段におけるモーション解析結果(モーションパターン解析結果文字列)と比較するためのモーションパターン解析結果文字列、当該音声認識文字列およびモーションパターン解析結果文字列に対応する判定結果の文字列、を時系列に登録した一連のデータ(図6参照)が格納されている。そして、安全性判定処理部P3にて判定処理されるとき、安全性判定処理部P3からの要求に応じて検索され、また、その結果を出力する。例えば、音声認識文字列が「なし」で、モーション文字列が「右前腕:胴体側、右上腕:水平」で、機器の状態が「出発時」の場合は、その判定結果として、「発声不足」の結果を出力する。   The database D1 of the storage device D includes, for example, a speech recognition character string for comparison with a speech recognition result (speech recognition character) in the speech recognition unit, and a motion analysis result (motion pattern analysis result character string) in the motion analysis unit. A series of data (see FIG. 6) in which a motion pattern analysis result character string for comparison and a character string of a determination result corresponding to the voice recognition character string and the motion pattern analysis result character string are registered in time series are stored. Yes. When the determination process is performed by the safety determination processing unit P3, a search is performed in response to a request from the safety determination processing unit P3, and the result is output. For example, if the voice recognition character string is “None”, the motion character string is “Right forearm: Torso side, Upper right arm: Horizontal”, and the device status is “At departure”, the judgment result is “Insufficient utterance” Is output.

図2は音声認識ソフトウェア(P1)のフローチャートである。図2のフローチャートに基づく動作は以下のとおりである。   FIG. 2 is a flowchart of the voice recognition software (P1). The operation based on the flowchart of FIG. 2 is as follows.

まず、ステップS201にて、通信端末T1からネットワークN1を介して送信された音声データを入力値として取得する。   First, in step S201, voice data transmitted from the communication terminal T1 via the network N1 is acquired as an input value.

次に、ステップS201による音声認識処理により取得した音声データをステップS202にて音声認識処理する。   Next, the voice data acquired by the voice recognition process in step S201 is voice-recognized in step S202.

ステップS203にて、音声出力処理し、その音声認識結果として音声認識情報(音声認識文字列)を安全性判定処理部P3へ入力する出力値として出力する。   In step S203, speech output processing is performed, and speech recognition information (speech recognition character string) is output as an output value to be input to the safety determination processing unit P3 as the speech recognition result.

ステップS201〜S203の一連の処理が終わった後、ステップS204にて、後続の音声データの入力があるか判定する。
ここで、後続の音声データの入力がある場合(YES)、ステップS201の音声データを取得する処理に戻る。
後続の音声データの入力がない場合(NO)、音声認識ソフトウェア(P1)の処理を終了する。
After the series of processing in steps S201 to S203 is completed, it is determined in step S204 whether there is input of subsequent audio data.
Here, if there is input of subsequent audio data (YES), the process returns to the process of acquiring audio data in step S201.
If there is no subsequent voice data input (NO), the voice recognition software (P1) process is terminated.

音声認識ソフトウェア(P1)の処理内容は一般的に存在する音声認識システムの仕組みを使用して構わない。   The processing content of the speech recognition software (P1) may use a mechanism of a generally existing speech recognition system.

図3はモーション解析ソフトウェア(P2)のフローチャートである。図3のフローチャートに基づく動作は以下のとおりである。   FIG. 3 is a flowchart of the motion analysis software (P2). The operation based on the flowchart of FIG. 3 is as follows.

まず、ステップS301にて、通信端末T1からネットワークN1を介して送信された映像データを入力値として取得する。   First, in step S301, video data transmitted from the communication terminal T1 via the network N1 is acquired as an input value.

次に、ステップS301のモーション解析処理により取得した映像データをステップS302にてモーション解析処理する。   Next, the video data acquired by the motion analysis processing in step S301 is subjected to motion analysis processing in step S302.

ステップS303にて、モーション出力処理し、その結果をモーションパターン解析結果(モーションパターン解析結果文字列)として、安全性判定処理部(P3)へ入力する出力値として出力する。   In step S303, a motion output process is performed, and the result is output as a motion pattern analysis result (motion pattern analysis result character string) as an output value to be input to the safety determination processing unit (P3).

ステップS301〜S303の一連の処理が終わった後、ステップS304にて、後続の映像データの入力があるか判定する。
ここで、後続の映像データの入力がある場合(YES)、ステップS301の映像データ取得処理に戻る。
後続の映像データの入力がない場合(NO)、モーション解析ソフトウェア(P2)の処理を終了する。
After the series of processing in steps S301 to S303 is completed, it is determined in step S304 whether there is input of subsequent video data.
If there is subsequent video data input (YES), the process returns to the video data acquisition process in step S301.
If there is no subsequent video data input (NO), the processing of the motion analysis software (P2) is terminated.

モーション解析ソフトウェア(P2)の処理内容は一般的に存在するモーション解析システムの仕組みを使用して構わない。   The processing contents of the motion analysis software (P2) may use a mechanism of a generally existing motion analysis system.

図4は安全性判定処理部(P3)のフローチャートである。図4のフローチャートに基づく動作は以下のとおりである。   FIG. 4 is a flowchart of the safety determination processing unit (P3). The operation based on the flowchart of FIG. 4 is as follows.

まず、ステップS401にて、音声認識ソフトウェア(P1)からの音声認識結果である音声認識情報(音声認識文字列)を入力値として取得する。   First, in step S401, speech recognition information (speech recognition character string) that is a speech recognition result from the speech recognition software (P1) is acquired as an input value.

次に、ステップS402にて、モーション解析ソフトウェア(P2)からモーションパターン解析結果であるモーションパターン解析結果情報(モーションパターン解析結果文字列)を入力値として取得する。   Next, in step S402, motion pattern analysis result information (motion pattern analysis result character string), which is a motion pattern analysis result, is acquired as an input value from the motion analysis software (P2).

その後、ステップS403にて、通信端末T1からネットワークN1を介して送信された操作対象機器A1の機器状態(出発時または走行時)を示す情報を入力値として取得する。   Thereafter, in step S403, information indicating the device state (starting or traveling) of the operation target device A1 transmitted from the communication terminal T1 via the network N1 is acquired as an input value.

各入力値が揃ったら、ステップS404にて、音声認識結果、モーションパターン解析結果、操作対象機器A1の機器状態、を示す情報を引数にデータベースD1のテーブル60に予め登録した比較用の登録情報と照合/比較する。   When the input values are obtained, in step S404, the registration information for comparison registered in advance in the table 60 of the database D1 with information indicating the voice recognition result, the motion pattern analysis result, and the device state of the operation target device A1 as arguments. Compare / compare.

次に、ステップS405にて、データベースD1から照合/比較に対応する判定結果を取得し、当該判定結果を示す情報(発声不足、発声不明瞭、安全、指差し認識不足、指差し認識過剰、の何れか)を出力する。この安全性の判定結果は、通信装置TRを介して通信端末T1へ送信される。これにより、運転者側では、運転操作の安全性についての注意点を知ることができる。   Next, in step S405, a determination result corresponding to the collation / comparison is acquired from the database D1, and information indicating the determination result (insufficient utterance, unclear utterance, safety, insufficient pointing recognition, excessive pointing recognition) Any). The safety determination result is transmitted to the communication terminal T1 via the communication device TR. As a result, the driver can know the precautions regarding the safety of the driving operation.

ステップS401〜S405の一連の処理が終わった後、ステップS406にて、後続の判定処理があるか判定する。
ここで、後続の判定処理がある場合(YES)、ステップS401の音声認識結果取得処理に戻る。後続の判定処理がない場合(NO)、安全性判定処理部(P3)の処理を終了する。
After the series of processing in steps S401 to S405 is completed, it is determined in step S406 whether there is a subsequent determination processing.
If there is a subsequent determination process (YES), the process returns to the voice recognition result acquisition process in step S401. When there is no subsequent determination process (NO), the process of the safety determination process part (P3) is complete | finished.

図5は本発明における実施形態の一例を説明する図である。
図5では、操作対象機器A1の機器状態を示す情報が「出発時」と仮定して、入力501の値として運転者(U1〜U4)による4パターンの発声内容(「出発進行」、「発声なし」、「出発進行」、「あいうえお」)と、そのときの音声認識処理502、モーション解析処理503、安全性判定処理504、の例を示している。
FIG. 5 is a diagram for explaining an example of an embodiment of the present invention.
In FIG. 5, assuming that the information indicating the device state of the operation target device A1 is “at the time of departure”, four patterns of utterance contents (“departure progress”, “voice” by the driver (U1 to U4) as values of the input 501 None ”,“ Departure Progress ”,“ Aiueo ”), and voice recognition processing 502, motion analysis processing 503, and safety determination processing 504 at that time.

音声認識ソフトウェア(P1)で処理した音声認識文字列は、
例えば、図5のように、
「出発進行」を認識、「認識音声なし」、「出発進行」を認識、「あいうえお」を認識、を示している。
The speech recognition character string processed by the speech recognition software (P1)
For example, as shown in FIG.
"Departure progress" is recognized, "No recognition voice", "Departure progress" is recognized, and "Aiueo" is recognized.

モーション解析ソフトウェア(P2)で処理したモーションパターン解析結果文字列は、例えば、図5に示すように、
モーションパターン1の『右前腕:胴体側、右上腕:水平』からモーションパターン2の『右前腕:水平、右上腕:水平』に変化し、
モーションパターン1の『右前腕:胴体側、右上腕:水平』からモーションパターン2の『右前腕:水平、右上腕:水平』に変化し、
モーションパターン1の『右前腕:水平、右上腕:水平』からモーションパターン2の『右前腕:水平、右上腕:水平』に変化し、
モーションパターン1の『右前腕:胴体側、右上腕:水平』からモーションパターン2の『右前腕:水平、右上腕:水平』に変化したことを示している。
The motion pattern analysis result character string processed by the motion analysis software (P2) is, for example, as shown in FIG.
The motion pattern 1 changes from “right forearm: trunk, upper right arm: horizontal” to “right forearm: horizontal, upper right arm: horizontal” in motion pattern 2.
The motion pattern 1 changes from “right forearm: trunk, upper right arm: horizontal” to “right forearm: horizontal, upper right arm: horizontal” in motion pattern 2.
Changed from “right forearm: horizontal, upper right arm: horizontal” in motion pattern 1 to “right forearm: horizontal, upper right arm: horizontal” in motion pattern 2,
This shows that the motion pattern 1 has changed from “right forearm: trunk side, upper right arm: horizontal” to “right right arm: horizontal, upper right arm: horizontal” in motion pattern 2.

安全性判定処理部P3で処理した安全性判定結果の文字列は、
例えば、図5に示すように、
音声認識処理およびモーション解析処理に対応する「安全」、「発声不足」、「指差し確認不足」、「発声不明瞭」などを示している。
The character string of the safety judgment result processed by the safety judgment processing unit P3 is
For example, as shown in FIG.
"Safety", "Insufficient utterance", "Insufficient pointing confirmation", "Unspoken utterance", etc. corresponding to speech recognition processing and motion analysis processing are shown.

すなわち、図5における入力501に対する安全性判定サーバS1の各処理は、以下のとおりであることを示している。
入力501が「出発進行」(1パターン目)の場合における
音声認識ソフトウェア部P1は、音声データの音声データ(出発進行)を受け、その音声データが「出発進行」であるとして認識し、その結果を「出発進行」の文字列として出力し、
モーション解析ソフトウェア部P2は、運転者の映像データを受け、運転者が「右前腕:胴体側、右上腕:水平」のモーションパターン1から「右前腕:水平、右上腕:水平」のモーションパターン2に移動(変化)したことを認識し、その結果を図示の如く文字列として出力し、
安全性判定処理部P3は、音声認識ソフトウェア部P1およびモーション解析ソフトウェア部P2における各処理結果を受け、運転者による操作が安全であるか否かを判定し、その結果として「安全」である旨の文字列として出力する。
That is, each process of the safety determination server S1 with respect to the input 501 in FIG. 5 is as follows.
When the input 501 is “departure progress” (first pattern), the voice recognition software unit P1 receives the voice data of the voice data (departure progress), recognizes that the voice data is “departure progress”, and the result Is output as a character string of "departure progress"
The motion analysis software part P2 receives the video data of the driver, and the driver has the motion pattern 2 from “right forearm: horizontal, upper right arm: horizontal” to “right forearm: horizontal, upper right arm: horizontal”. Is recognized (moved), and the result is output as a character string as shown in the figure.
The safety determination processing unit P3 receives each processing result in the voice recognition software unit P1 and the motion analysis software unit P2, determines whether or not the operation by the driver is safe, and the result is “safe”. Is output as a string.

入力501が「発声なし」(2パターン目)の場合における
音声認識ソフトウェア部P1は、音声データの音声データ(発声なし)を受け、その音声データが「音声なし」であるとして認識し、その結果を「認識音声なし」の文字列として出力し、
モーション解析ソフトウェア部P2は、運転者の映像データを受け、運転者が「右前腕:胴体側、右上腕:水平」のモーションパターン1から「右前腕:水平、右上腕:水平」のモーションパターン2に移動(変化)したことを認識し、その結果を図示の如く文字列として出力し、
安全性判定処理部P3は、音声認識ソフトウェア部P1およびモーション解析ソフトウェア部P2における各処理結果を受け、運転者による操作が安全であるか否かを判定し、その結果として「発声不足」である旨の文字列として出力する。
When the input 501 is “no voice” (second pattern), the voice recognition software unit P1 receives voice data (no voice) of the voice data, recognizes that the voice data is “no voice”, and the result Is output as a character string of “No recognized speech”
The motion analysis software part P2 receives the video data of the driver, and the driver has the motion pattern 2 from “right forearm: horizontal, upper right arm: horizontal” to “right forearm: horizontal, upper right arm: horizontal”. Is recognized (moved), and the result is output as a character string as shown in the figure.
The safety determination processing unit P3 receives each processing result in the voice recognition software unit P1 and the motion analysis software unit P2, determines whether or not the operation by the driver is safe, and as a result, “speaking is insufficient”. Output as a character string to that effect.

入力501が「出発進行」(3パターン目)の場合における
音声認識ソフトウェア部P1は、音声データの音声データ(出発進行)を受け、その音声データが「出発進行」であるとして認識し、その結果を「出発進行」の文字列として出力し、
モーション解析ソフトウェア部P2は、運転者の映像データを受け、運転者が「右前腕:水平、右上腕:水平」のモーションパターン1から「右前腕:水平、右上腕:水平」のモーションパターン2に移動、つまりモーションパターンに変化がないことを認識し、その結果を図示の如く文字列として出力し、
安全性判定処理部P3は、音声認識ソフトウェア部P1およびモーション解析ソフトウェア部P2における各処理結果を受け、運転者による操作が安全であるか否かを判定し、その結果として「指差し認識不足」である旨の文字列として出力する。
When the input 501 is “departure progress” (third pattern), the voice recognition software unit P1 receives the voice data of the voice data (departure progress), recognizes that the voice data is “departure progress”, and the result Is output as a character string of "departure progress"
The motion analysis software part P2 receives the driver's video data, and the driver changes the motion pattern 1 from “right forearm: horizontal, upper right arm: horizontal” to motion pattern 2 from “right forearm: horizontal, upper right arm: horizontal”. Recognize that there is no change in movement, that is, motion pattern, and output the result as a character string as shown in the figure,
The safety determination processing unit P3 receives each processing result in the voice recognition software unit P1 and the motion analysis software unit P2, determines whether or not the operation by the driver is safe, and results in “insufficient pointing recognition”. Is output as a character string.

入力501が「あいうえお」(4パターン目)の場合における
音声認識ソフトウェア部P1は、音声データの音声データ(あいうえお)を受け、その音声データが「あいうえお」であることを認識し、その結果を「あいうえお」の文字列として出力し、
モーション解析ソフトウェア部P2は、運転者の映像データを受け、運転者が「右前腕:胴体側、右上腕:水平」のモーションパターン1から「右前腕:水平、右上腕:水平」のモーションパターン2に移動したことを認識し、その結果を図示の如く文字列として出力し、
安全性判定処理部P3は、音声認識ソフトウェア部P1およびモーション解析ソフトウェア部P2における処理結果を受け、運転者による操作が安全であるか否かを判定し、その結果として「発声不明瞭」である旨の文字列として出力する。
When the input 501 is “Aiueo” (fourth pattern), the voice recognition software unit P1 receives the voice data (Aiueo) of voice data, recognizes that the voice data is “Aiueo”, and obtains the result as “ Aiueo "is output as a character string,
The motion analysis software part P2 receives the video data of the driver, and the driver has the motion pattern 2 from “right forearm: horizontal, upper right arm: horizontal” to “right forearm: horizontal, upper right arm: horizontal”. The result is output as a character string as shown in the figure,
The safety determination processing unit P3 receives the processing results in the voice recognition software unit P1 and the motion analysis software unit P2, determines whether or not the operation by the driver is safe, and the result is “unintentional utterance”. Output as a character string to that effect.

図6は、図5におけるデータベースD1に登録された登録情報(データ)の構成例を示すテーブル60である。   FIG. 6 is a table 60 showing a configuration example of registration information (data) registered in the database D1 in FIG.

図6では、音声認識ソフトウェア(P1)で処理した音声認識情報(音声認識文字列)と比較するための音声認識情報(音声認識文字列)601、モーション解析ソフトウェア(P2)で処理したモーションパターンを示すモーションパターン解析結果情報(モーションパターン解析結果文字列)と比較するためのモーションパターン解析結果情報(複数のモーションパターン1〜nのモーションパターン解析結果文字列)602、操作対象機器A1の機器状態の情報(文字列)と比較するための操作対象機器A1の状態を示す情報(文字列)603、判定結果を示す情報(文字列)604を格納するテーブル60の例を示している。   In FIG. 6, the speech recognition information (speech recognition character string) 601 for comparison with the speech recognition information (speech recognition character string) processed by the speech recognition software (P1), the motion pattern processed by the motion analysis software (P2). Motion pattern analysis result information (motion pattern analysis result character strings of a plurality of motion patterns 1 to n) 602 for comparison with the motion pattern analysis result information (motion pattern analysis result character string) shown, and the device state of the operation target device A1 The example of the table 60 which stores the information (character string) 603 which shows the state of operation object apparatus A1 for comparing with information (character string), and the information (character string) 604 which shows a determination result is shown.

音声認識文字列601は、例えば、「なし」、「不明」、「出発進行」、「出発注意」、「出発警告」、「第一閉塞進行」、「中継進行」などの文字列であり、   The voice recognition character string 601 is, for example, a character string such as “none”, “unknown”, “departure progress”, “departure warning”, “departure warning”, “first blockage progress”, “relay progress”, and the like.

モーションパターン1、2におけるモーションパターン解析結果文字列602は、例えば、「右前腕:胴体側、右上腕水平」、「右前腕:水平、右上腕水平」などの文字列であり、   The motion pattern analysis result character string 602 in the motion patterns 1 and 2 is a character string such as “right forearm: trunk side, upper right arm horizontal”, “right forearm: horizontal, upper right arm horizontal”, and the like.

操作対象機器の機器状態を示す文字列603は、例えば、「出発時」、「走行時」などの文字列であり、
判定結果を示す文字列604は、例えば、「発声不足」、「発声不明瞭」、「安全」、「指差し認識不足」、「なし」、「指差し過剰」などの文字列である。
なお、モーションパターン3〜nは、その後、モーションパターンに変化がないことを示している。
The character string 603 indicating the device status of the operation target device is, for example, a character string such as “when departing” and “when traveling”.
The character string 604 indicating the determination result is, for example, a character string such as “insufficient utterance”, “unintelligible utterance”, “safety”, “insufficient pointing recognition”, “none”, “excessive pointing”.
The motion patterns 3 to n indicate that there is no change in the motion pattern thereafter.

図6では、図5の実施形態を簡素に説明するための列構成となっている。
音声認識文字の列は1列であるが、モーションパターン列のそれぞれに対応する音声認識文字の列が含まれていても構わない。同様に、操作対象機器A1の機器状態列は1列であるが、モーションパターン列のそれぞれに属性の列が含まれていても構わない。
In FIG. 6, it has the row | line | column structure for demonstrating the embodiment of FIG. 5 simply.
Although the speech recognition character sequence is one, a speech recognition character sequence corresponding to each of the motion pattern sequences may be included. Similarly, the device status column of the operation target device A1 is one column, but an attribute column may be included in each of the motion pattern columns.

以上述べた実施例によれば、声と動きを連動した安全性の向上、声だけ、身振り手振りだけというような基本動作の欠如により安全性が低下している状態を検知することができる。   According to the embodiment described above, it is possible to detect a state in which safety is lowered due to a lack of basic operations such as improvement of safety linked with voice and movement, only voice, and only gesture gesture.

なお、本発明は上述した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現しても良い。また、上記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現しても良い。各機能を実現するプログラム、テーブル、情報(データ)は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、ICカード、SDカード、DVDなどの記録媒体に置くことができる。
In addition, this invention is not limited to the Example mentioned above, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.
Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them, for example, with an integrated circuit. Further, each of the above-described configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function. Programs, tables, and information (data) that realize each function can be placed in a memory, a recording device such as a hard disk or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.

U1〜U4・・・運転者/利用者(運転士、運転手、同乗者)
M・・・・音声集音装置(音声集音手段)
M1・・・音声集音器(マイク)
C・・・・身振り手振り感知装置(身振り手振り感知手段)
C1・・・身振り手振り感知器(モーションセンサ、カメラ)
A・・・・運転操作に関連する機械
A1・・・操作対象機器
L1・・・機器状態情報取得部
T1・・・通信端末
N1・・・ネットワーク
S1・・・安全性判定サーバ(コンピュータ)
P・・・・演算装置
P1・・・音声認識ソフトウェア部(音声認識手段)
P2・・・モーション解析ソフトウェア部(モーション解析手段)
P3・・・安全性判定処理部(安全性判定処理手段)
D・・・・記憶装置(記憶手段)
D1・・・データベース
TR・・・通信装置

U1-U4 ... Driver / User (Driver, Driver, Passenger)
M ··· Voice sound collection device (voice sound collection means)
M1 ... Voice collector (microphone)
C ... Gesture gesture detection device (gesture gesture detection means)
C1 ... Gesture gesture detector (motion sensor, camera)
A ... Machine A1 related to driving operation ... Operation target device L1 ... Device state information acquisition unit T1 ... Communication terminal N1 ... Network S1 ... Safety judgment server (computer)
P ··· arithmetic device P1 ··· voice recognition software part (voice recognition means)
P2 ... Motion analysis software part (motion analysis means)
P3 ... Safety judgment processing part (safety judgment processing means)
D .... Storage device (storage means)
D1 ... Database TR ... Communication device

Claims (5)

移動体の運転席側にある通信端末から運転操作対象機器の機器状態および当該運転操作対象機器の操作者を含む利用者に関する情報を、ネットワークを介して受信するサーバを備えた運転支援システムであって、
前記サーバは、
利用者の音声データ、仕草データ、操作対象機器の状態を示すデータを取得するデータ取得手段と、
前記データ取得手段にて取得した利用者の音声データを認識し、音声認識情報を出力する音声認識手段と、
前記データ取得手段にて取得した利用者のモーションを示す映像データを解析し、モーション情報を出力するモーション解析手段と、
予め比較用情報として、音声認識情報、モーション解析情報、対象機器の状態を示す情報、判定結果を示す情報、を登録する記憶手段と、
前記音声認識手段の音声認識情報、前記モーション解析手段のモーションパターン解析結果情報、前記データ取得手段の操作対象機器の状態を示す情報を利用して、前記操作対象機器を操作する利用者の操作が安全か否かの安全性を判定し、当該判定の結果を示す情報を出力する安全性判定処理手段と、
を備え、
前記安全性判定処理手段は、
前記データ取得手段における操作対象機器の状態を示す情報と前記音声認識手段における音声認識情報、前記モーション解析手段におけるモーションパターン解析結果情報を入力値とし、当該入力値を前記記憶手段に予め比較用情報として登録された操作対象機器の状態を示す情報、音声認識情報、モーションパターン解析結果情報を比較し、
当該比較の比較結果から、前記記憶手段における操作対象機器の状態を示す情報、音声認識情報、前記モーションパターン解析結果情報に対応する判定結果を示す情報を出力する
ことを特徴とする運転支援システム。
A driving support system including a server that receives information about a device state of a driving operation target device and a user including an operator of the driving operation target device from a communication terminal on a driver's seat side of a mobile object via a network. And
The server
Data acquisition means for acquiring user voice data, gesture data, and data indicating the state of the operation target device;
Voice recognition means for recognizing user voice data acquired by the data acquisition means and outputting voice recognition information;
Analyzing the video data indicating the user's motion acquired by the data acquisition means, and outputting motion information;
Storage means for registering speech recognition information, motion analysis information, information indicating the state of the target device, and information indicating a determination result as information for comparison beforehand
The operation of the user who operates the operation target device is performed using the voice recognition information of the voice recognition unit, the motion pattern analysis result information of the motion analysis unit, and the information indicating the state of the operation target device of the data acquisition unit. Safety judgment processing means for judging safety of safety or not, and outputting information indicating a result of the judgment;
With
The safety determination processing means includes
Information indicating the state of the operation target device in the data acquisition unit, voice recognition information in the voice recognition unit, and motion pattern analysis result information in the motion analysis unit are set as input values, and the input values are stored in the storage unit in advance for comparison information. Compare the information indicating the status of the operation target device registered as, voice recognition information, motion pattern analysis result information,
A driving support system, wherein information indicating a state of an operation target device in the storage unit, voice recognition information, and information indicating a determination result corresponding to the motion pattern analysis result information are output from the comparison result of the comparison.
請求項1に記載された運転支援システムにおいて、
前記データ取得手段が前記通信端末から送信される、マイクの音声データ、カメラの仕草データ、操作対象機器の状態を示す機器状態文字列のデータを送受信する通信部であり、
前記記憶手段が予め比較用情報として登録される機器状態文字列、音声認識文字列、モーションパターン解析結果文字列、判定結果を示す文字列を登録するデータベースであり、
前記音声認識手段が音声認識ソフトウェアを含み、前記音声データを認識し、音声認識文字列を出力する音声認識ソフトウェア部であり、
前記モーション解析手段がモーション解析ソフトウェアを含み、前記仕草データを解析し、モーションパターン解析結果文字列を出力するモーション解析ソフトウェア部であり、
前記安全性判定処理手段が前記音声認識ソフトウェア部における音声認識文字列、前記モーション解析ソフトウェア部におけるモーションパターン解析結果文字列、前記通信部における機器状態を示す文字列、および前記データベースにおける音声認識文字列、モーションパターン解析結果文字列、機器状態を示す文字列、を元に前記操作対象機器を操作する利用者の操作が安全か否かの安全性を判定し、判定結果を文字列として出力する安全性判定処理部であり、
前記判定結果を示す文字列は、安全、発声不足、発声不明瞭、指差し確認不足、指差し確認過剰、などを含み、前記通信部を介して前記通信端末へ送信される
ことを特徴とする運転支援システム。
In the driving assistance system according to claim 1,
The data acquisition means is a communication unit that transmits and receives voice data of a microphone, gesture data of a camera, and data of a device state character string indicating a state of an operation target device, transmitted from the communication terminal,
A database for registering a device state character string, a voice recognition character string, a motion pattern analysis result character string, and a character string indicating a determination result, which are registered in advance as comparison information by the storage unit;
The voice recognition means includes voice recognition software, recognizes the voice data, and outputs a voice recognition character string;
The motion analysis means includes a motion analysis software, analyzes the gesture data, and outputs a motion pattern analysis result character string,
The safety judgment processing means is a voice recognition character string in the voice recognition software unit, a motion pattern analysis result character string in the motion analysis software unit, a character string indicating a device state in the communication unit, and a voice recognition character string in the database Safety that determines whether the operation of the user who operates the operation target device is safe based on the motion pattern analysis result character string and the character string indicating the device state, and outputs the determination result as a character string A sex determination processing unit,
The character string indicating the determination result includes safety, insufficient utterance, unclear utterance, insufficient pointing confirmation, excessive pointing confirmation, and the like, and is transmitted to the communication terminal via the communication unit. Driving support system.
移動体の運転席側にある通信端末から運転操作対象機器の機器状態および当該運転操作対象機器の操作者を含む利用者に関する情報から、当該操作対象の機器の操作の安全性を判定するサーバを備えた運転支援システムにおける運転支援方法であって、
前記サーバは、
利用者の音声データ、仕草データ、操作対象機器の状態を示すデータを取得するデータ取得ステップと、
前記データ取得手段にて取得した利用者の音声データを認識し、音声認識情報を出力する音声認識ステップと、
前記データ取得手段にて取得した利用者のモーションを示す映像データを解析し、モーション情報を出力するモーション解析ステップと、
予め比較用情報として、音声認識情報、モーション解析情報、対象機器の状態を示す情報、判定結果を示す情報、を登録するステップと、
前記音声認識手段の音声認識情報、前記モーション解析手段のモーションパターン解析結果情報、前記データ取得手段の操作対象機器の状態を示す情報を利用して、前記操作対象機器を操作する利用者の操作が安全か否かの安全性を判定し、当該判定の結果を示す情報を出力する安全性判定処理ステップと、
を備え、
前記安全性判定処理ステップは、
操作対象機器の利用者を含む人の音声を音声データとして取得し、当該音声を認識処理し、認識処理した音声認識情報を音声認識結果として出力するステップと、
前記操作対象機器の利用者を含む人の映像を映像データとして取得し、当該映像をモーション解析処理し、モーションパターンのモーション文字列をモーション解析結果として出力するステップと、
前記音声認識結果、前記モーション解析結果、前記操作対象機器の状態、および予め比較用データとしてデータベースに登録した音声認識文字列、モーション文字列、対象機器の状態を示す文字列、判定結果を示す文字列、を入力値とし、これらを比較処理するステップと、
前記比較処理するステップの比較結果を受け、前記操作対象機器の操作の安全性を判定し、判定結果を安全性判定結果として出力するステップと、を含む
ことを特徴とする運転支援方法。
A server that determines the safety of operation of the device to be operated from the communication terminal on the driver's seat side of the mobile object from the device state of the device to be operated and information related to the user including the operator of the device to be operated A driving support method in the provided driving support system,
The server
A data acquisition step for acquiring user voice data, gesture data, and data indicating the state of the operation target device;
A voice recognition step of recognizing user voice data acquired by the data acquisition means and outputting voice recognition information;
Analyzing the video data indicating the user's motion acquired by the data acquisition means, and outputting the motion information;
Registering speech recognition information, motion analysis information, information indicating the state of the target device, and information indicating a determination result as information for comparison in advance;
The operation of the user who operates the operation target device is performed using the voice recognition information of the voice recognition unit, the motion pattern analysis result information of the motion analysis unit, and the information indicating the state of the operation target device of the data acquisition unit. A safety determination processing step for determining safety of whether or not it is safe and outputting information indicating a result of the determination;
With
The safety determination processing step includes:
Obtaining a voice of a person including a user of the operation target device as voice data, recognizing the voice, and outputting the recognized voice recognition information as a voice recognition result;
Acquiring a video of a person including a user of the operation target device as video data, performing a motion analysis process on the video, and outputting a motion character string of a motion pattern as a motion analysis result;
The voice recognition result, the motion analysis result, the state of the operation target device, and the voice recognition character string, the motion character string, the character string indicating the state of the target device, and the character indicating the determination result registered in the database as comparison data in advance. A column as an input value and comparing them,
Receiving a comparison result of the step of performing the comparison process, determining safety of operation of the operation target device, and outputting the determination result as a safety determination result.
安全性判定サーバを含むコンピュータシステムに、
操作対象機器の利用者を含む人の音声を音声データとして取得し、当該音声を認識処理し、認識処理した音声認識文字列を音声認識結果として出力する機能と、
前記操作対象機器の利用者を含む人の映像を映像データとして取得し、当該映像をモーション解析処理し、モーションパターンのモーション文字列をモーション解析結果として出力する機能と、
前記音声認識結果、前記モーション解析結果、および前記操作対象機器の状態、および予め比較用データとしてデータベースに登録した音声認識文字列、モーション文字列、対象機器の状態を示す文字列、判定結果を示す文字列、を入力値とし、これらを比較処理する機能と、
前記比較処理するステップの比較結果を受け、前記操作対象機器の操作の安全性を判定し、判定結果を安全性判定結果として出力する機能と、
を実現するための運転支援プログラム。
In a computer system including a safety judgment server,
A function of acquiring the voice of a person including the user of the operation target device as voice data, recognizing the voice, and outputting the recognized voice recognition character string as a voice recognition result;
A function of acquiring a video of a person including a user of the operation target device as video data, performing a motion analysis process on the video, and outputting a motion character string of a motion pattern as a motion analysis result;
The voice recognition result, the motion analysis result, the state of the operation target device, the voice recognition character string registered in the database as comparison data in advance, the motion character string, the character string indicating the state of the target device, and the determination result are shown. A function that compares a character string as an input value and
A function of receiving the comparison result of the step of performing the comparison process, determining the safety of operation of the operation target device, and outputting the determination result as a safety determination result;
Driving support program to realize.
コンピュータを請求項1または請求項2に記載の運転支援システムとして機能させる運転支援プログラム。

A driving support program that causes a computer to function as the driving support system according to claim 1.

JP2017039092A 2017-03-02 2017-03-02 Driving support system, driving support method and driving support program Active JP6944793B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017039092A JP6944793B2 (en) 2017-03-02 2017-03-02 Driving support system, driving support method and driving support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017039092A JP6944793B2 (en) 2017-03-02 2017-03-02 Driving support system, driving support method and driving support program

Publications (2)

Publication Number Publication Date
JP2018144534A true JP2018144534A (en) 2018-09-20
JP6944793B2 JP6944793B2 (en) 2021-10-06

Family

ID=63589463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017039092A Active JP6944793B2 (en) 2017-03-02 2017-03-02 Driving support system, driving support method and driving support program

Country Status (1)

Country Link
JP (1) JP6944793B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020131843A (en) * 2019-02-15 2020-08-31 株式会社Subaru Vehicular operation control system
JP2020131844A (en) * 2019-02-15 2020-08-31 株式会社Subaru Vehicular operation control system
JP2020205015A (en) * 2019-06-19 2020-12-24 矢崎エナジーシステム株式会社 Safety driving assistance device and driving evaluation system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003285737A (en) * 2002-03-29 2003-10-07 Railway Technical Res Inst Anomaly guidance system
JP2004280376A (en) * 2003-03-14 2004-10-07 Japan Science & Technology Agency Subject action recognition method and apparatus
JP2014071319A (en) * 2012-09-28 2014-04-21 Mitsubishi Precision Co Ltd Railroad simulator and method for simulating driving of railroad

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003285737A (en) * 2002-03-29 2003-10-07 Railway Technical Res Inst Anomaly guidance system
JP2004280376A (en) * 2003-03-14 2004-10-07 Japan Science & Technology Agency Subject action recognition method and apparatus
JP2014071319A (en) * 2012-09-28 2014-04-21 Mitsubishi Precision Co Ltd Railroad simulator and method for simulating driving of railroad

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020131843A (en) * 2019-02-15 2020-08-31 株式会社Subaru Vehicular operation control system
JP2020131844A (en) * 2019-02-15 2020-08-31 株式会社Subaru Vehicular operation control system
JP7307549B2 (en) 2019-02-15 2023-07-12 株式会社Subaru Vehicle driving control system
JP7307550B2 (en) 2019-02-15 2023-07-12 株式会社Subaru Vehicle driving control system
JP2020205015A (en) * 2019-06-19 2020-12-24 矢崎エナジーシステム株式会社 Safety driving assistance device and driving evaluation system
JP7311317B2 (en) 2019-06-19 2023-07-19 矢崎エナジーシステム株式会社 Safe driving support device and driving evaluation system

Also Published As

Publication number Publication date
JP6944793B2 (en) 2021-10-06

Similar Documents

Publication Publication Date Title
JP6977004B2 (en) In-vehicle devices, methods and programs for processing vocalizations
KR102061925B1 (en) Depth based context identification
EP3755597B1 (en) Method for distress and road rage detection
CN113302664B (en) Multimodal user interface for vehicles
US9881605B2 (en) In-vehicle control apparatus and in-vehicle control method
US20170291544A1 (en) Adaptive alert system for autonomous vehicle
CN106537492B (en) Motor vehicle operating device with correction strategy for speech recognition
JP4859982B2 (en) Voice recognition device
EP2562746A1 (en) Apparatus and method for recognizing voice by using lip image
US20200152203A1 (en) Agent device, agent presentation method, and storage medium
JP2014153663A (en) Voice recognition device, voice recognition method and program
JP2018049143A (en) Voice acquisition system and voice acquisition method
US10901503B2 (en) Agent apparatus, agent control method, and storage medium
JP2018144534A (en) Driving assist system, driving assist method and driving assist program
KR20130046759A (en) Apparatus and method for recogniting driver command in a vehicle
CN113330394A (en) Method for communicating with passengers and related device
JP2018180424A (en) Speech recognition apparatus and speech recognition method
JP2016061888A (en) Voice recognition device, voice recognition target section setting method, and voice recognition section setting program
JP5160653B2 (en) Information providing apparatus, communication terminal, information providing system, information providing method, information output method, information providing program, information output program, and recording medium
CN119107947A (en) In-vehicle voice interaction method, device, equipment and storage medium
JP2018075657A (en) Generating program, generation device, control program, control method, robot device and telephone call system
CN117698738A (en) Driver assistance system, driver assistance method, and storage medium
JP2009098217A (en) Speech recognition device, navigation device with speech recognition device, speech recognition method, speech recognition program and recording medium
JP6099845B1 (en) Information device, navigation device, work procedure guidance device, and load status determination method
WO2022172393A1 (en) Voice recognition device and voice recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210913

R150 Certificate of patent or registration of utility model

Ref document number: 6944793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250