[go: up one dir, main page]

JP2018169788A - Language ratio management system and language ratio management method - Google Patents

Language ratio management system and language ratio management method Download PDF

Info

Publication number
JP2018169788A
JP2018169788A JP2017066328A JP2017066328A JP2018169788A JP 2018169788 A JP2018169788 A JP 2018169788A JP 2017066328 A JP2017066328 A JP 2017066328A JP 2017066328 A JP2017066328 A JP 2017066328A JP 2018169788 A JP2018169788 A JP 2018169788A
Authority
JP
Japan
Prior art keywords
language
person
ratio
multilingual
ratio management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017066328A
Other languages
Japanese (ja)
Other versions
JP2018169788A5 (en
JP6876483B2 (en
Inventor
邦弘 加藤
Kunihiro Kato
邦弘 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2017066328A priority Critical patent/JP6876483B2/en
Publication of JP2018169788A publication Critical patent/JP2018169788A/en
Publication of JP2018169788A5 publication Critical patent/JP2018169788A5/en
Application granted granted Critical
Publication of JP6876483B2 publication Critical patent/JP6876483B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】多言語が利用される場所における利用言語の割合を管理することを目的とする。【解決手段】言語割合管理システム1が、利用言語の割合を管理したい対象領域を撮像するカメラ3と、カメラの撮像画像から人物を検出して追跡するとともに、人物の言語行動に基づき人物の利用言語を判定する行動認識装置4と、行動認識装置から、利用言語を示す情報を取得して記憶することにより、対象領域で使用されている利用言語の割合を管理する言語割合管理サーバ5とを備えた構成とする。【選択図】図1PROBLEM TO BE SOLVED: To manage the ratio of languages used in a place where multiple languages are used. SOLUTION: A language ratio management system 1 detects and tracks a person from a camera 3 that captures a target area for which the ratio of the language used is to be managed and an image captured by the camera, and uses the person based on the language behavior of the person. The behavior recognition device 4 for determining the language and the language ratio management server 5 for managing the ratio of the language used in the target area by acquiring and storing information indicating the language used from the behavior recognition device. The configuration is provided. [Selection diagram] Fig. 1

Description

本発明は、多言語が利用される場所における利用言語の割合を管理するための言語割合管理システムおよび言語割合管理方法に関する。   The present invention relates to a language ratio management system and a language ratio management method for managing a ratio of languages used in a place where multiple languages are used.

従来、テーマパーク等の娯楽施設への入場者(人物)に対して各種言語によるサービス情報を提供することを目的として、各人物を識別するための識別情報とその人物の利用言語を示す言語情報とを予め関連付けて記憶しておき、各人物に対してその人物の利用言語でサービス情報を提供する技術が提案されている(特許文献1参照)。この特許文献1の従来技術では、人物の識別情報は、その人物に所持させた無線タグに記憶させている。   Conventionally, for the purpose of providing service information in various languages to visitors (persons) to an amusement facility such as a theme park, identification information for identifying each person and language information indicating the language used by the person Is previously associated and stored, and a technique for providing service information to each person in the language used by the person has been proposed (see Patent Document 1). In the prior art disclosed in Patent Document 1, person identification information is stored in a wireless tag carried by the person.

特開2004‐355087号公報JP 2004-355087 A

例えば空港や観光地等の多言語が利用される場所では、連絡や案内等の各種情報を多言語(複数の言語)で放送することが求められている。そして、多言語で放送するときは、多言語を放送する放送領域で使用されている利用言語を、その放送領域における利用言語の割合に応じた順番で放送することが望ましい。   For example, in places where multiple languages are used, such as airports and sightseeing spots, it is required to broadcast various information such as communication and guidance in multiple languages (multiple languages). When broadcasting in multiple languages, it is desirable to broadcast the languages used in the broadcasting area where the languages are broadcast in an order corresponding to the ratio of the languages used in the broadcasting area.

しかしながら、上記の特許文献1の技術では、各人物の利用言語を特定することはできるものの、放送領域で使用されている利用言語や放送領域における利用言語の割合を管理することはできなかった。なお、利用言語の割合の管理とは、対象領域で使用されている利用言語の認識、および対象領域における利用言語の割合の把握を含む。また、上記の特許文献1の技術では、各人物の識別情報と言語情報とを予め関連付けて記憶しておく必要があるため、空港や観光地等の不特定多数の人物が出入りする場所では、放送領域で使用されている利用言語を判定することはできなかった。   However, although the technique disclosed in Patent Document 1 can identify the language used by each person, the language used in the broadcast area and the ratio of the language used in the broadcast area cannot be managed. Note that the management of the ratio of the language used includes recognition of the language used in the target area and grasping the ratio of the language used in the target area. Moreover, in the technique of the above-mentioned Patent Document 1, since it is necessary to store the identification information and language information of each person in association with each other in advance, in places where an unspecified number of persons such as airports and tourist spots enter and exit, The language used in the broadcasting area could not be determined.

本開示は、このような従来技術の課題を鑑みて案出されたものであり、多言語が利用される場所における利用言語の割合を管理することを可能とする言語割合管理システムおよび言語割合管理方法を提供することを主目的とする。また、本開示は、不特定多数の人物が出入りする場所において人物の利用言語を判定することを可能とする言語割合管理システムおよび言語割合管理方法を提供することを目的とする。   The present disclosure has been devised in view of the problems of the prior art, and a language ratio management system and a language ratio management that can manage the ratio of languages used in a place where multiple languages are used. The main purpose is to provide a method. It is another object of the present disclosure to provide a language ratio management system and a language ratio management method that can determine the language used by a person at a place where an unspecified number of persons come and go.

本開示の言語割合管理システムは、多言語が利用される場所における利用言語の割合を管理するための言語割合管理システムであって、所定の対象領域を撮像するカメラと、前記カメラの撮像画像から人物を検出して追跡するとともに、前記人物の言語行動に基づき前記人物の利用言語を判定する行動認識装置と、前記行動認識装置から前記利用言語を示す情報を取得して記憶することにより、前記対象領域で使用されている利用言語の割合を管理する言語割合管理サーバとを備えたことを特徴とする。   The language ratio management system according to the present disclosure is a language ratio management system for managing a ratio of a used language in a place where multiple languages are used, and includes a camera that captures a predetermined target area, and an image captured by the camera. Detecting and tracking a person, and determining a language used by the person based on the language behavior of the person, and acquiring and storing information indicating the language used from the action recognition device, A language ratio management server that manages the ratio of languages used in the target area is provided.

本開示によれば、多言語が利用される場所における利用言語の割合を管理することが可能となる。   According to the present disclosure, it is possible to manage the ratio of languages used in a place where multiple languages are used.

本開示の第1実施形態に係る言語割合管理システムの概略構成を示す模式図Schematic diagram showing a schematic configuration of a language ratio management system according to the first embodiment of the present disclosure. 第1実施形態に係る言語割合管理システムの変形例を示す図The figure which shows the modification of the language ratio management system which concerns on 1st Embodiment. 多言語掲示板の機能ブロック図Functional block diagram of multilingual bulletin board (a)は表示部の複数の領域の一例を示す図、(b)は表示言語情報の一例を示す図(A) is a figure which shows an example of the several area | region of a display part, (b) is a figure which shows an example of display language information. 行動認識装置の機能ブロック図Functional block diagram of action recognition device 人物情報管理テーブルの一例を示す図The figure which shows an example of a person information management table 言語判定テーブルの一例を示す図The figure which shows an example of a language determination table 言語割合管理サーバの機能ブロック図Functional block diagram of language ratio management server 言語割合管理テーブルの一例を示す図The figure which shows an example of a language ratio management table 言語割合情報の一例を示す図Diagram showing an example of language ratio information 館内放送装置の機能ブロック図Functional block diagram of the in-house broadcasting device 領域情報テーブルの一例を示す図The figure which shows an example of an area | region information table フロアマップの一例を示す図Figure showing an example of a floor map 言語割合取得領域の設定画面を示す図The figure which shows the setting screen of the language ratio acquisition area 多言語再生順序の設定画面を示す図Figure showing the multilingual playback order setting screen 言語割合取得領域設定テーブルの一例を示す図The figure which shows an example of a language ratio acquisition area setting table 多言語再生順序設定テーブルの一例を示す図The figure which shows an example of a multilingual reproduction order setting table 第1実施形態に係る行動認識装置における一連の処理を示すフロー図The flowchart which shows a series of processes in the action recognition apparatus which concerns on 1st Embodiment. 行動認識装置での人物位置情報更新処理を説明するためのフロー図Flow chart for explaining person position information update processing in the action recognition device 行動認識装置での利用言語判定処理を説明するためのフロー図Flow chart for explaining the language usage determination process in the action recognition device 本開示の第2実施形態に係る言語割合管理システムの概略構成を示す模式図Schematic diagram showing a schematic configuration of a language ratio management system according to the second embodiment of the present disclosure. 多言語案内ロボットの機能ブロック図Functional block diagram of multilingual guidance robot 多言語案内ロボットの言語割合取得領域の一例を示す図The figure which shows an example of the language ratio acquisition area | region of a multilingual guidance robot 多言語案内ロボットでの多言語案内処理を説明するためのフロー図Flow diagram for explaining multilingual guidance processing in a multilingual guidance robot 本開示の第3実施形態に係る言語割合管理システムの概略構成を示す模式図Schematic diagram showing a schematic configuration of a language ratio management system according to the third embodiment of the present disclosure. 多言語キオスクの機能ブロック図Functional block diagram of multilingual kiosk 第3実施形態に係る行動認識装置の機能ブロック図Functional block diagram of the action recognition device according to the third embodiment 第3実施形態に係る行動認識装置での利用言語判定処理を説明するためのフロー図The flowchart for demonstrating the utilization language determination process in the action recognition apparatus which concerns on 3rd Embodiment. 本開示の第4実施形態に係る言語割合管理システムの概略構成を示す模式図Schematic diagram showing a schematic configuration of a language ratio management system according to the fourth embodiment of the present disclosure. 人物照合装置の機能ブロック図Functional block diagram of person verification device 人物言語テーブルの一例を示す図The figure which shows an example of a person language table 第4実施形態に係る行動認識装置の機能ブロック図Functional block diagram of the action recognition device according to the fourth embodiment 第4実施形態に係る行動認識装置での人物位置情報更新処理を説明するためのフロー図The flowchart for demonstrating the person position information update process in the action recognition apparatus which concerns on 4th Embodiment. 第4実施形態に係る行動認識装置での利用言語判定処理を説明するためのフロー図The flowchart for demonstrating the utilization language determination process in the action recognition apparatus which concerns on 4th Embodiment. 人物照合装置での照合処理を説明するためのフロー図Flow chart for explaining collation processing in person collation device 本開示の第5実施形態に係る言語割合管理システムの概略構成を示す模式図Schematic diagram showing a schematic configuration of a language ratio management system according to the fifth embodiment of the present disclosure. 第5実施形態に係る行動認識装置の機能ブロック図Functional block diagram of the action recognition device according to the fifth embodiment 第5実施形態に係る人物情報管理テーブルの一例を示す図The figure which shows an example of the person information management table which concerns on 5th Embodiment 第5実施形態に係る行動認識装置での一連の処理を示すフロー図The flowchart which shows a series of processes in the action recognition apparatus which concerns on 5th Embodiment. 第5実施形態に係る行動認識装置でのグループ判定処理を説明するためのフロー図The flowchart for demonstrating the group determination process in the action recognition apparatus which concerns on 5th Embodiment. 本開示の第6実施形態に係る言語割合管理システムの概略構成を示す模式図Schematic diagram showing a schematic configuration of a language ratio management system according to a sixth embodiment of the present disclosure 第6実施形態に係る行動認識装置の機能ブロック図Functional block diagram of the action recognition apparatus according to the sixth embodiment 第6実施形態に係る行動認識装置での利用言語判定処理を説明するためのフロー図The flowchart for demonstrating the use language determination process in the action recognition apparatus which concerns on 6th Embodiment

上記課題を解決するためになされた第1の発明は、多言語が利用される場所における利用言語の割合を管理するための言語割合管理システムであって、利用言語の割合を管理したい対象領域を撮像するカメラと、前記カメラの撮像画像から人物を検出して追跡するとともに、前記人物の言語行動に基づき前記人物の利用言語を判定する行動認識装置と、前記行動認識装置から前記利用言語を示す情報を取得して記憶することにより、前記対象領域で使用されている利用言語の割合を管理する言語割合管理サーバとを備えたことを特徴とする。   A first invention made to solve the above problems is a language ratio management system for managing a ratio of a used language in a place where multiple languages are used, and a target area for which a ratio of the used language is to be managed is determined. A camera that captures an image; a person that is detected and tracked from an image captured by the camera; a behavior recognition device that determines a language used by the person based on the language behavior of the person; and the language used from the behavior recognition device A language ratio management server that manages the ratio of the language used in the target area by acquiring and storing information is provided.

この第1の発明に係る言語割合管理システムによれば、対象領域で使用されている利用言語の割合を言語割合管理サーバで記憶して管理することができる。これにより、多言語が利用される場所における利用言語の割合を管理することが可能となる。なお、利用言語の割合の管理とは、対象領域で使用されている利用言語の認識、および対象領域における利用言語の割合の把握を含む。   According to the language ratio management system according to the first aspect of the present invention, the ratio of the used languages used in the target area can be stored and managed by the language ratio management server. Thereby, it is possible to manage the ratio of the language used in a place where multiple languages are used. Note that the management of the ratio of the language used includes recognition of the language used in the target area and grasping the ratio of the language used in the target area.

また、第2の発明は、上記第1の発明において、前記対象領域内に配置され、互いに異なる言語がそれぞれ表示される複数の表示領域を有する多言語掲示板をさらに備え、前記行動認識装置は、前記撮像画像から前記人物の視線方向を検出するとともに、前記視線方向に基づき前記複数の表示領域のうちの前記人物が注視している表示領域を特定し、特定された前記表示領域に表示されている言語を前記人物の利用言語として判定することを特徴とする。   The second invention further includes a multilingual bulletin board having a plurality of display areas arranged in the target area and displaying different languages, respectively, in the first invention, wherein the action recognition device comprises: The line-of-sight direction of the person is detected from the captured image, and the display area in which the person is gazing out of the plurality of display areas is identified based on the line-of-sight direction, and is displayed in the identified display area The language is determined as the language used by the person.

この第2の発明に係る言語割合管理システムによれば、多言語掲示板の表示領域を視認するという人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。   According to the language ratio management system according to the second aspect of the present invention, it is possible to determine the language used by the person based on the language behavior of the person viewing the display area of the multilingual bulletin board. This makes it possible to determine the language used by a person at a place where an unspecified number of persons come and go.

また、第3の発明は、上記第1の発明または第2の発明において、前記対象領域内に配置され、多言語で操作可能な多言語キオスクをさらに備え、前記行動認識装置は、前記人物が前記多言語キオスクを操作するときに使用した言語を前記人物の利用言語として判定することを特徴とする。   The third invention further includes a multilingual kiosk arranged in the target area and operable in multiple languages in the first invention or the second invention, wherein the action recognition device The language used when operating the multilingual kiosk is determined as the language used by the person.

この第3の発明に係る言語割合管理システムによれば、多言語キオスクを操作するという人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。   According to the language ratio management system according to the third aspect of the present invention, the language used by the person can be determined based on the person's language behavior of operating the multilingual kiosk. This makes it possible to determine the language used by a person at a place where an unspecified number of persons come and go.

また、第4の発明は、上記第1の発明ないし第3の発明のいずれかにおいて、前記対象領域内に配置されたマイクをさらに備え、前記行動認識装置は、前記マイクにより集音された前記人物の音声に基づき、前記人物の利用言語を判定することを特徴とする。   Moreover, 4th invention is further provided with the microphone arrange | positioned in the said object area | region in any one of the said 1st invention thru | or 3rd invention, The said action recognition apparatus is the said sound-collected by the said microphone The language used by the person is determined based on the voice of the person.

この第4の発明に係る言語割合管理システムによれば、発話という人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。   According to the language ratio management system according to the fourth aspect of the present invention, the language used by the person can be determined based on the language behavior of the person called speech. This makes it possible to determine the language used by a person at a place where an unspecified number of persons come and go.

また、第5の発明は、上記第1の発明ないし第4の発明のいずれかにおいて、前記対象領域に対して多言語の音声情報を音声出力する館内放送装置をさらに備え、前記館内放送装置は、前記対象領域で使用されている利用言語の割合を示す言語割合情報を前記言語割合管理サーバに問い合わせて取得し、前記言語割合情報に基づき、音声出力する多言語の種類およびその多言語を音声出力する順番を決定することを特徴とする。   In addition, a fifth invention further includes an in-house broadcasting device that outputs multilingual audio information to the target area in any one of the first to fourth inventions, and the in-house broadcasting device includes: The language ratio information indicating the ratio of the used languages used in the target area is obtained by inquiring the language ratio management server, and based on the language ratio information, the type of multi-language to be output as a voice and the multi-language as a voice The output order is determined.

この第5の発明に係る言語割合管理システムによれば、館内放送装置が音声出力する多言語の種類およびその多言語を音声出力する順番を、対象領域で使用されている利用言語の割合を示す言語割合情報に基づき決定することが可能となる。   According to the language ratio management system according to the fifth aspect of the present invention, the type of multi-language that the in-house broadcasting apparatus outputs sound and the order in which the multi-language is sound-outputted indicate the ratio of the language used in the target area. It becomes possible to determine based on the language ratio information.

また、第6の発明は、上記第1の発明ないし第5の発明において、前記対象領域において多言語の情報を出力する多言語案内ロボットをさらに備え、前記多言語案内ロボットは、前記対象領域で使用されている利用言語の割合を示す言語割合情報を前記言語割合管理サーバに問い合わせて取得し、前記言語割合情報に基づき、出力する多言語の種類およびその多言語を出力する順番を決定することを特徴とする。   The sixth invention further includes a multilingual guide robot that outputs multilingual information in the target area in the first to fifth inventions, wherein the multilingual guide robot is the target area. Querying and obtaining the language ratio information indicating the ratio of the used language being used from the language ratio management server, and determining the type of multi-language to be output and the order of outputting the multi-language based on the language ratio information. It is characterized by.

この第6の発明に係る言語割合管理システムによれば、多言語案内ロボットが出力する多言語の種類およびその多言語を出力する順番を、対象領域で使用されている利用言語の割合を示す言語割合情報に基づき決定することが可能となる。   According to the language ratio management system according to the sixth aspect of the present invention, the language indicating the ratio of the used languages used in the target area, the type of the multilingual output by the multilingual guidance robot, and the order in which the multilingual is output. It becomes possible to determine based on the ratio information.

また、第7の発明は、上記第1の発明ないしの第6の発明において、複数の前記行動認識装置間で、前記撮像画像から検出された人物を照合するための人物照合装置をさらに備え、前記人物照合装置は、少なくとも1つの前記行動認識装置から、前記撮像画像から検出された人物の人物画像およびその人物の利用言語を示す情報を取得して予め記憶しておき、前記少なくとも1つの前記行動認識装置とは別の行動認識装置から照合対象人物の人物画像を受信したときに、前記照合対象人物の人物画像を前記予め記憶した人物画像と照合し、一致する場合には、前記予め記憶した人物画像の人物の利用言語を示す情報を前記別の行動認識装置に送信することを特徴とする。   In addition, a seventh invention further includes a person verification device for verifying a person detected from the captured image among the plurality of behavior recognition devices in the first to sixth inventions, The person verification device acquires and stores in advance information indicating a person image of the person detected from the captured image and a language used by the person from at least one of the action recognition apparatuses, and stores the at least one of the at least one of the action recognition devices. When a person image of a person to be collated is received from a behavior recognition apparatus different from the action recognition apparatus, the person image of the person to be collated is collated with the person image stored in advance, and if they match, the person image is stored in advance. The information indicating the language used by the person in the person image is transmitted to the another action recognition device.

この第7の発明に係る言語割合管理システムによれば、複数の行動認識装置間で、撮像画像から検出された人物を照合することができるので、複数の行動認識装置間で、人物の利用言語を示す情報を共有することが可能となる。   According to the language ratio management system according to the seventh aspect, since the person detected from the captured image can be collated between the plurality of action recognition devices, the language used by the person between the plurality of action recognition devices. Can be shared.

また、第8の発明は、上記第1の発明ないしの第7の発明において、前記撮像画像から検出された人物の追跡結果に基づき人物のグループを判定し、前記グループにおいて利用言語が判明している人物の利用言語を、前記グループ内の利用言語が不明な人物の利用言語とすることを特徴とする。   According to an eighth aspect of the present invention, in the first to seventh aspects of the present invention, a group of persons is determined based on a tracking result of the person detected from the captured image, and a language used is found in the group. The language used by a person is the language used by a person whose language in the group is unknown.

この第8の発明に係る言語割合管理システムによれば、グループにおいて少なくとも1人の利用言語が判明した場合に、その利用言語をそのグループ内の利用言語が不明な利用言語とすることが可能となる。   According to the language ratio management system according to the eighth aspect of the present invention, when at least one used language is found in a group, the used language can be changed to an unknown used language in the group. Become.

また、第9の発明は、多言語が利用される場所における利用言語の割合を管理するための言語割合管理方法であって、利用言語の割合を管理したい対象領域をカメラにより撮像するステップと、前記カメラの撮像画像から人物を検出して追跡するとともに、前記人物の言語行動に基づき前記人物の利用言語を判定するステップと、前記利用言語を示す情報を記憶することにより、前記対象領域で使用されている利用言語の割合を管理するステップとを有することを特徴とする。   Further, a ninth invention is a language ratio management method for managing a ratio of used languages in a place where multiple languages are used, and imaging a target area for which a ratio of used languages is to be managed by a camera; Detecting and tracking a person from a captured image of the camera, determining a language used by the person based on the language behavior of the person, and storing information indicating the language used in the target area And a step of managing a ratio of used languages.

この第9の発明に係る言語割合管理方法によれば、対象領域で使用されている利用言語の割合を記憶して管理することができる。これにより、多言語が利用される場所における利用言語の割合を管理することが可能となる。   According to the language ratio management method according to the ninth aspect of the present invention, the ratio of the used languages used in the target area can be stored and managed. Thereby, it is possible to manage the ratio of the language used in a place where multiple languages are used.

以下、本開示の実施形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.

(第1実施形態)
図1は、本開示の第1実施形態に係る言語割合管理システム1の概略構成を示す模式図である。図1に示すように、言語割合管理システム1は、多言語掲示板2、カメラ3、行動認識装置4、言語割合管理サーバ5と、館内放送装置6とを主として備えている。行動認識装置4は、専用通信回線またはインターネット等の通信ネットワークを介して、多言語掲示板2、カメラ3、および言語割合管理サーバ5に接続されている。また、言語割合管理サーバ5は、専用通信回線またはインターネット等の通信ネットワークを介して、館内放送装置6に接続されている。
(First embodiment)
FIG. 1 is a schematic diagram illustrating a schematic configuration of a language ratio management system 1 according to the first embodiment of the present disclosure. As shown in FIG. 1, the language ratio management system 1 mainly includes a multilingual bulletin board 2, a camera 3, an action recognition device 4, a language ratio management server 5, and an in-house broadcasting device 6. The action recognition device 4 is connected to the multilingual bulletin board 2, the camera 3, and the language ratio management server 5 via a dedicated communication line or a communication network such as the Internet. The language ratio management server 5 is connected to the in-house broadcasting device 6 via a dedicated communication line or a communication network such as the Internet.

本実施形態では、言語割合管理システム1を、空港や駅等の施設に適用した場合について説明する。なお、本開示に係る言語割合管理システム1は、空港や駅等以外にも、ショッピングセンターや観光地等の様々な対象に適用可能である。   This embodiment demonstrates the case where the language ratio management system 1 is applied to facilities, such as an airport and a station. Note that the language ratio management system 1 according to the present disclosure can be applied to various objects such as a shopping center and a sightseeing spot in addition to an airport and a station.

図2は、言語割合管理システム1の変形例を示す図である。図2に示すように、言語割合管理システム1は、多言語掲示板2、カメラ3、行動認識装置4を複数備えていてもよい。図2の例では、多言語掲示板2、カメラ3、行動認識装置4をそれぞれ2つずつ備えており、行動認識装置4Aには多言語掲示板2Aおよびカメラ3Aが接続され、行動認識装置4Bには多言語掲示板2Bおよびカメラ3Bが接続されている。そして、行動認識装置4Aおよび行動認識装置4Bは、言語割合管理サーバ5に接続されている。   FIG. 2 is a diagram illustrating a modification of the language ratio management system 1. As shown in FIG. 2, the language ratio management system 1 may include a plurality of multilingual bulletin boards 2, cameras 3, and action recognition devices 4. In the example of FIG. 2, two multilingual bulletin boards 2, two cameras 3, and two action recognition devices 4 are provided. The multilingual bulletin board 2A and the camera 3A are connected to the action recognition device 4A, and the action recognition device 4B is connected to the action recognition device 4B. A multilingual bulletin board 2B and a camera 3B are connected. The behavior recognition device 4 </ b> A and the behavior recognition device 4 </ b> B are connected to the language ratio management server 5.

多言語掲示板2は、公知の構成を有する電光掲示板であり、空港や駅等の施設のフロアFの適所に配置されている。そして、多言語掲示板2は、図示しない情報管理センター等からの命令に基づき、フロアFに存在する人物Hに対して、連絡や案内等の各種情報を多言語で表示して提供する。   The multilingual bulletin board 2 is an electric bulletin board having a known configuration, and is arranged at an appropriate place on the floor F of a facility such as an airport or a station. The multilingual bulletin board 2 displays various information such as contact and guidance in a multilingual display for the person H existing on the floor F based on a command from an information management center (not shown).

図3は、多言語掲示板2の機能ブロック図である。図3に示すように、多言語掲示板2は、連絡や案内等の各種情報を多言語によりそれぞれ表示する複数の領域を有する表示部11(図4(a)参照)と、表示部11の各領域の表示を管理する表示管理部12と、表示部11の各領域で表示されている言語を示す表示言語情報を行動認識装置4に通知する表示言語提供部13とを有している。表示部11は、例えばLEDパネルや液晶パネル表示部等から構成される。   FIG. 3 is a functional block diagram of the multilingual bulletin board 2. As shown in FIG. 3, the multilingual bulletin board 2 includes a display unit 11 (see FIG. 4A) having a plurality of areas for displaying various types of information such as contact and guidance in multiple languages, and each of the display units 11. The display management unit 12 manages the display of the area, and the display language providing unit 13 notifies the action recognition device 4 of the display language information indicating the language displayed in each area of the display unit 11. The display unit 11 includes, for example, an LED panel or a liquid crystal panel display unit.

図4(a)は、表示部11の複数の領域の一例を示す図であり、図4(b)は、表示言語情報の一例を示す図である。図4(a)の例では、表示部11は、日本語による案内を表示する領域1、英語による案内を表示する領域2、中国語による案内を表示する領域3の3つの領域を有している。したがって、この場合の表示言語情報は、「領域1が日本語、領域2が英語、領域3が中国語」となる。   FIG. 4A is a diagram illustrating an example of a plurality of areas of the display unit 11, and FIG. 4B is a diagram illustrating an example of display language information. In the example of FIG. 4A, the display unit 11 has three areas: an area 1 for displaying guidance in Japanese, an area 2 for displaying guidance in English, and an area 3 for displaying guidance in Chinese. Yes. Accordingly, the display language information in this case is “region 1 is Japanese, region 2 is English, and region 3 is Chinese”.

カメラ3は、公知の撮像機能や通信機能を有する撮像装置であり、多言語掲示板2の近傍の壁や天井等に設置され、多言語掲示板2の周辺の予め定められた撮像領域(対象領域)を静止画像または動画像として時系列に撮像する。カメラ3の撮像画像(静止画像または動画像)は、行動認識装置4に適宜送信される。なお、カメラ3は、予め定められた撮像領域を撮像可能な限りにおいて、その形態、機能、配置、数量等については、特に限定されるものではなく種々の変更が可能である。   The camera 3 is an imaging device having a known imaging function and communication function, and is installed on a wall or ceiling in the vicinity of the multilingual bulletin board 2 and has a predetermined imaging area (target area) around the multilingual bulletin board 2. Are captured in time series as still images or moving images. A captured image (still image or moving image) of the camera 3 is appropriately transmitted to the action recognition device 4. In addition, as long as the camera 3 can image a predetermined imaging region, the form, function, arrangement, quantity, and the like are not particularly limited, and various changes can be made.

行動認識装置4は、公知の構成を有するコンピュータからなり、カメラ3の撮像画像から人物を検出して追跡するとともに、その人物の言語行動に基づきその人物の利用言語を判定する。言語行動とは、人物が、言語を利用して、各種情報を読んだり、書いたり(タッチパネル等を介した入力を含む)、話したり、聞いたりする行動のことである。   The behavior recognition device 4 is composed of a computer having a known configuration, detects and tracks a person from an image captured by the camera 3, and determines the language used by the person based on the language behavior of the person. A language action is an action of a person reading, writing (including input via a touch panel, etc.), talking, or listening using a language.

図5は、行動認識装置4の機能ブロック図である。図5に示すように、行動認識装置4は、カメラ3から撮像画像を取得する画像取得部21と、撮像画像から人物を検出する人物検出部22と、撮像画像中における人物領域(以降、「画像人物領域」とも称する)をフロアFの地図データであるフロアマップの位置座標に変換する位置座標変換部23と、撮像画像(現フレーム画像)から検出された人物が前フレーム画像で検出された人物と同一であるか否かを判定する同一人物判定部24と、言語割合管理サーバ5と接続する言語割合管理サーバ接続部25と、画像取得部21が取得した撮像画像および後述する人物情報管理テーブルを格納する記憶部26とを有している。撮像画像は、前フレーム画像(前画像)または現フレーム画像(現画像)として、記憶部26に格納される。   FIG. 5 is a functional block diagram of the action recognition device 4. As illustrated in FIG. 5, the action recognition device 4 includes an image acquisition unit 21 that acquires a captured image from the camera 3, a person detection unit 22 that detects a person from the captured image, and a human region (hereinafter, “ A position coordinate conversion unit 23 for converting the image area (also referred to as “image person area”) to the position coordinates of the floor map which is map data of the floor F, and a person detected from the captured image (current frame image) is detected in the previous frame image The same person determination unit 24 that determines whether or not the person is the same, a language ratio management server connection unit 25 connected to the language ratio management server 5, a captured image acquired by the image acquisition unit 21, and personal information management described later And a storage unit 26 for storing the table. The captured image is stored in the storage unit 26 as a previous frame image (previous image) or a current frame image (current image).

また、行動認識装置4は、多言語掲示板2と接続する多言語掲示板接続部27、撮像画像から検出された人物の視線方向を該撮像画像から検出する視線方向検出部28と、視線方向検出部28で検出された人物の視線方向および多言語掲示板2から取得した表示言語情報に基づきその人物の利用言語を判定する利用言語判定部29と、利用言語判定部29に接続された言語判定テーブル30とを有している。視線方向検出部28は、撮像画像から人物の顔の向きを検出し、検出された顔の向きをその人物の視線方向とする。利用言語判定部29は、各フレーム画像における判定結果を言語判定テーブル30に記録し、記録された判定結果に基づき人物の利用言語を判定する。   The action recognition device 4 includes a multilingual bulletin board connection unit 27 connected to the multilingual bulletin board 2, a gaze direction detection unit 28 that detects the gaze direction of the person detected from the captured image, and a gaze direction detection unit. A language-of-use determination unit 29 that determines the language used by the person based on the line-of-sight direction of the person detected in 28 and the display language information acquired from the multilingual bulletin board 2, and a language determination table 30 connected to the language-of-use determination unit 29. And have. The line-of-sight direction detection unit 28 detects the direction of the person's face from the captured image, and sets the detected face direction as the line-of-sight direction of the person. The use language determination unit 29 records the determination result of each frame image in the language determination table 30, and determines the use language of the person based on the recorded determination result.

図6は、人物情報管理テーブルの一例を示す図である。図6に示すように、人物情報管理テーブルには、人物IDに紐付けて、人物検出部22で検出された人物の画像人物領域、位置座標変換部23で変換された位置座標、利用言語判定部29で判定された利用言語が記録されている。   FIG. 6 is a diagram illustrating an example of the person information management table. As shown in FIG. 6, in the person information management table, an image person area of a person detected by the person detection unit 22, a position coordinate converted by the position coordinate conversion unit 23, and a use language determination are associated with the person ID. The use language determined by the unit 29 is recorded.

図7は、言語判定テーブル30の一例を示す図である。図7に示すように、言語判定テーブル30には、人物IDに紐付けて、人物が多言語掲示板2を注視した領域である着目領域と、連続するフレームにおいてその着目領域を連続して注視した回数である継続回数が記録されている。   FIG. 7 is a diagram illustrating an example of the language determination table 30. As shown in FIG. 7, in the language determination table 30, a region of interest, which is a region where a person gazes at the multilingual bulletin board 2 in association with a person ID, and the region of interest in successive frames are continuously observed. The number of continuations, which is the number of times, is recorded.

言語割合管理サーバ5は、公知の構成を有するサーバからなり、行動認識装置4から人物の位置座標と利用言語を含む人物情報を取得して言語割合管理テーブル(図9参照)に記憶することにより、カメラ3の撮像領域(対象領域)で使用されている利用言語の割合を管理する。なお、利用言語の割合の管理とは、対象領域で使用されている利用言語の認識、および対象領域における利用言語の割合の把握を含む。   The language ratio management server 5 is a server having a known configuration, acquires personal information including the position coordinates of the person and the language used from the action recognition device 4, and stores it in the language ratio management table (see FIG. 9). The ratio of the language used in the imaging area (target area) of the camera 3 is managed. Note that the management of the ratio of the language used includes recognition of the language used in the target area and grasping the ratio of the language used in the target area.

図8は、言語割合管理サーバ5の機能ブロック図である。図8に示すように、言語割合管理サーバ5は、行動認識装置4(4A、4B)から人物情報を受信する人物情報受信部31と、言語割合管理テーブルを格納する記憶部32と、館内放送装置6から、対象領域で使用されている利用言語の割合についての問い合わせを受信したときに、その問い合わせに応じた言語割合情報を作成する言語割合管理部33と、館内放送装置6からの問い合わせの受信、および言語割合管理部33で作成した言語割合情報の館内放送装置6への送信を行う言語割合送出部34とを有している。上述したように、言語割合管理システム1は、複数の行動認識装置4を備えていてもよい。図8に示す言語割合管理サーバ5は、2つの行動認識装置4A、4Bから人物情報を取得して管理している。   FIG. 8 is a functional block diagram of the language ratio management server 5. As shown in FIG. 8, the language ratio management server 5 includes a person information receiving unit 31 that receives person information from the action recognition device 4 (4A, 4B), a storage unit 32 that stores a language ratio management table, and in-house broadcasting. When an inquiry about the ratio of the language used in the target area is received from the apparatus 6, the language ratio management unit 33 that creates language ratio information corresponding to the inquiry and the inquiry from the in-house broadcasting apparatus 6 It has a language rate sending unit 34 for receiving and sending the language rate information created by the language rate management unit 33 to the in-house broadcasting device 6. As described above, the language ratio management system 1 may include a plurality of action recognition devices 4. The language ratio management server 5 shown in FIG. 8 acquires and manages person information from the two action recognition devices 4A and 4B.

図9は、言語割合管理テーブルの一例を示す図である。図9に示すように、言語割合管理テーブルは、行動認識装置4に対して付与した装置IDに紐付けて、撮像画像中における人物領域(画像人物領域)をフロアマップの位置座標に変換した位置座標と、人物の利用言語とを記憶している。図9の例では、行動認識装置4Aに、装置ID「1」が付与され、行動認識装置4Bに装置ID「2」が付与されている。   FIG. 9 is a diagram illustrating an example of the language ratio management table. As shown in FIG. 9, the language ratio management table is a position obtained by converting a person area (image person area) in a captured image into position coordinates of a floor map in association with the apparatus ID assigned to the action recognition apparatus 4. The coordinates and the language used by the person are stored. In the example of FIG. 9, a device ID “1” is assigned to the behavior recognition device 4A, and a device ID “2” is assigned to the behavior recognition device 4B.

図10は、言語割合管理サーバ5で作成する言語割合情報の一例を示す図である。言語割合情報は、館内放送装置6から問い合わせられた対象領域に含まれている位置座標に対応する利用言語を集計して作成する。図10の例では、対象領域の利用言語の割合は、英語が20人、日本語が11人、中国語が23人、韓国語が3人、不明が15人となっている。なお、図10の例では、利用言語の割合を人数で表したが、パーセンテージで表すようにしてもよい。また、予め定められた閾値以下の言語を足切りするようにしてもよい。   FIG. 10 is a diagram illustrating an example of language ratio information created by the language ratio management server 5. The language ratio information is created by totaling the use languages corresponding to the position coordinates included in the target area inquired from the in-house broadcasting device 6. In the example of FIG. 10, the ratio of the language used in the target area is 20 for English, 11 for Japanese, 23 for Chinese, 3 for Korean, and 15 for unknown. In the example of FIG. 10, the ratio of the language used is expressed by the number of people, but may be expressed by a percentage. Moreover, you may make it cut off the language below a predetermined threshold value.

館内放送装置6は、公知の構成を有する放送装置であり、対象領域に対して多言語の音声情報(連絡や案内等の各種情報)を音声出力する。   The in-house broadcasting device 6 is a broadcasting device having a known configuration, and outputs audio information in various languages (various information such as contact information and guidance) to the target area.

図11は、館内放送装置6の機能ブロック図である。図11に示すように、館内放送装置6は、館内放送装置6のユーザが音声を入力する音声入力部41と、ユーザが入力した音声を認識する音声認識部42と、言語割合管理サーバ5に問い合わせて対象領域の言語割合情報を取得する言語割合取得部43と、ユーザが入力した音声を言語割合情報に基づき決定された多言語に翻訳する翻訳部44と、翻訳された多言語の合成音声を作成する音声合成部45と、作成された合成音声を音声出力(再生)する音声出力部46とを有している。   FIG. 11 is a functional block diagram of the in-house broadcasting device 6. As shown in FIG. 11, the in-house broadcasting device 6 includes an audio input unit 41 for the user of the in-house broadcasting device 6 to input audio, an audio recognition unit 42 for recognizing the audio input by the user, and the language ratio management server 5. A language ratio acquisition unit 43 that inquires and acquires language ratio information of the target area, a translation unit 44 that translates speech input by the user into multiple languages determined based on the language ratio information, and translated multilingual synthesized speech And a voice output unit 46 for outputting (reproducing) the generated synthesized voice as a voice.

また、館内放送装置6は、言語割合管理サーバ5に問い合わせて言語割合情報を取得する領域(すなわち対象領域)である言語割合取得領域および多言語の再生順序を設定するための表示入力パネル47と、表示入力パネル47で設定された言語割合取得領域および多言語再生順序をそれぞれ記憶する言語割合取得領域設定テーブルおよび多言語再生順序設定テーブルを格納した記憶部48とを有している。また、記憶部48には、言語割合取得領域の候補を予め記憶した領域情報テーブルが格納されている。   The in-house broadcasting device 6 inquires the language ratio management server 5 to obtain a language ratio information area (that is, a target area), and a display input panel 47 for setting a multilingual reproduction order. And a storage unit 48 storing a language ratio acquisition area setting table and a multilingual reproduction order setting table for storing the language ratio acquisition area and the multilingual reproduction order set on the display input panel 47, respectively. In addition, the storage unit 48 stores an area information table in which candidates for language ratio acquisition areas are stored in advance.

図12は、館内放送装置6の記憶部48に記憶される領域情報テーブルの一例を示す図である。図13は、フロアFの地図データであるフロアマップの一例を示す図である。図13の例では、フロアFには、2つの多言語掲示板2A、2B(以降、単に、「掲示板A」、「掲示板B」とも称する)が設けられている。この場合、領域情報テーブルは、「フロア全体」、「掲示板A周辺」、および「掲示板B周辺」の3つの領域を示す領域名と、各々の領域を特定する領域情報とを、言語割合取得領域(対象領域)の候補として予め記憶している。   FIG. 12 is a diagram illustrating an example of the area information table stored in the storage unit 48 of the in-house broadcasting device 6. FIG. 13 is a diagram illustrating an example of a floor map that is map data of the floor F. As illustrated in FIG. In the example of FIG. 13, the floor F is provided with two multilingual bulletin boards 2A and 2B (hereinafter also simply referred to as “bulletin board A” and “bulletin board B”). In this case, the area information table includes the area names indicating the three areas of “the entire floor”, “around the bulletin board A”, and “around the bulletin board B”, and the area information specifying each area, as the language ratio acquisition area. It is stored in advance as a candidate for (target region).

図14は、館内放送装置6のユーザが、言語割合取得領域を設定する設定画面を示す図である。図14の例では、言語割合取得領域としてフロア全体が選択され設定されている。したがって、この場合は、館内放送装置6は、フロア全体についての言語割合情報を、言語割合管理サーバ5に問い合わせて取得する。   FIG. 14 is a diagram showing a setting screen on which the user of the in-house broadcasting device 6 sets a language ratio acquisition area. In the example of FIG. 14, the entire floor is selected and set as the language ratio acquisition area. Therefore, in this case, the in-house broadcasting device 6 obtains the language ratio information about the entire floor by inquiring the language ratio management server 5.

図15は、館内放送装置6のユーザが、多言語再生順序を設定する設定画面を示す図である。図15の例では、再生順序の1番目は日本語、2番目は英語、3番目は言語割合情報における割合1位の言語、4番目は言語割合情報における割合2位の言語、5番目と6番目は未選択(無し)と設定されている。したがって、図15の例では、再生順序の1番目から4番目までの4つの言語で音声情報が再生される。なお、言語割合情報における割合1位の言語および割合2位の言語は、事前に1番目、2番目として設定された日本語と英語以外の言語における割合1位の言語と割合2位の言語とするとよい。   FIG. 15 is a diagram showing a setting screen for setting the multilingual reproduction order by the user of the in-house broadcasting device 6. In the example of FIG. 15, the first in the playback order is Japanese, the second is English, the third is the first language in the ratio information, the fourth is the second language in the ratio information, the fifth and sixth The second is set as unselected (none). Therefore, in the example of FIG. 15, the audio information is reproduced in four languages from the first to the fourth in the reproduction order. In the language ratio information, the first-ranked language and the second-ranked language are the first-ranked language and the second-ranked language in the languages other than Japanese and English set in advance as the first and second languages, respectively. Good.

図16は、館内放送装置6の記憶部48に記憶される言語割合取得領域設定テーブルの一例を示す図である。言語割合取得領域設定テーブルには、図14に示した言語割合取得領域の設定画面で設定された言語割合取得領域が記録される。図16の例では、言語割合取得領域は「フロア全体」であると記憶されている。   FIG. 16 is a diagram illustrating an example of a language ratio acquisition area setting table stored in the storage unit 48 of the in-house broadcasting device 6. In the language ratio acquisition area setting table, the language ratio acquisition area set in the language ratio acquisition area setting screen shown in FIG. 14 is recorded. In the example of FIG. 16, the language ratio acquisition area is stored as “entire floor”.

図17は、館内放送装置6の記憶部48に記憶される多言語再生順序設定テーブルの一例を示す図である。多言語再生順序テーブルには、図15に示した多言語再生順序の設定画面で設定された再生順序が記録されている。図17の例では、再生順序は、「1番目は日本語、2番目は英語、3番目は言語割合情報における割合1位の言語、4番目は言語割合情報における割合2位の言語」であると記憶されている。   FIG. 17 is a diagram illustrating an example of a multilingual reproduction order setting table stored in the storage unit 48 of the in-house broadcasting device 6. In the multilingual playback order table, the playback order set on the multilingual playback order setting screen shown in FIG. 15 is recorded. In the example of FIG. 17, the reproduction order is “first is Japanese, second is English, third is the first language in the ratio information, and fourth is the second language in the ratio information”. Is remembered.

図18は、第1実施形態に係る行動認識装置4における一連の処理を示すフロー図である。   FIG. 18 is a flowchart showing a series of processes in the action recognition device 4 according to the first embodiment.

まず、ステップST101では、カメラ3から、多言語掲示板2の周辺の予め定められた撮像領域(対象領域)の撮像画像を取得し、現フレーム画像(現画像)として、記憶部26に格納する。   First, in step ST101, a captured image of a predetermined imaging region (target region) around the multilingual bulletin board 2 is acquired from the camera 3 and stored in the storage unit 26 as a current frame image (current image).

次に、ステップST102では、撮像画像に基づき、人物情報管理テーブル(図6参照)の画像人物領域および位置座標を更新する人物位置情報更新処理を行う。この人物位置情報更新処理の詳細は、図19のフロー図を参照して後述する。   Next, in step ST102, person position information update processing is performed to update the image person area and position coordinates of the person information management table (see FIG. 6) based on the captured image. Details of the person position information update processing will be described later with reference to the flowchart of FIG.

続いて、ステップST103では、撮像画像から検出された人物の利用言語を判定する利用言語判定処理を行う。この利用言語判定処理の詳細は、図20のフロー図を参照して後述する。   Subsequently, in step ST103, a use language determination process for determining the use language of the person detected from the captured image is performed. Details of the use language determination processing will be described later with reference to the flowchart of FIG.

次に、ステップST104では、言語割合管理サーバ5の言語割合管理テーブル(図9参照)に記憶されている人物情報(位置座標および利用言語)の更新処理を行う。具体的には、記憶部26に格納されている人物情報管理テーブル(図6参照)に記憶されている人物情報(位置座標および利用言語)を言語割合管理サーバ5に送信し、言語割合管理サーバ5の言語割合管理テーブルに記憶されている人物情報を更新するか、または言語割合管理テーブルに追加して記録する。   Next, in step ST104, the personal information (position coordinates and language used) stored in the language ratio management table (see FIG. 9) of the language ratio management server 5 is updated. Specifically, the person information (position coordinates and language used) stored in the person information management table (see FIG. 6) stored in the storage unit 26 is transmitted to the language ratio management server 5, and the language ratio management server The person information stored in the language ratio management table 5 is updated or added and recorded in the language ratio management table.

そして、ステップST105では、撮像画像を前フレーム画像として記憶部26に格納し、その後、ステップST101に戻る。   In step ST105, the captured image is stored in the storage unit 26 as a previous frame image, and then the process returns to step ST101.

図19は、行動認識装置4での人物位置情報更新処理(図18のステップST102)を説明するためのフロー図である。   FIG. 19 is a flowchart for explaining person position information update processing (step ST102 in FIG. 18) in the action recognition device 4.

まず、ステップST201では、現フレーム画像から人物領域(画像人物領域)を検出する。現フレーム画像からの人物領域の検出は、人物の特徴量に基づく手法等の公知の手法を用いて行うとよい。   First, in step ST201, a person area (image person area) is detected from the current frame image. The detection of the person region from the current frame image may be performed using a known method such as a method based on the feature amount of the person.

次に、ステップST202では、人物領域(画像人物領域)を、フロアFの地図データであるフロアマップの位置座標に変換する。具体的には、人物領域の中心または重心の座標を位置座標とするとよい。   Next, in step ST202, the person area (image person area) is converted into floor map position coordinates, which are map data of the floor F. Specifically, the coordinates of the center or the center of gravity of the person area may be set as the position coordinates.

続いて、ステップST203では、現フレーム画像で検出された人物が、前フレーム画像に存在するか否かを判定する。この判定は、上記のステップST201の場合と同様に、人物の特徴量に基づく手法等の公知の手法を用いて行うとよい。前フレーム画像に同一人物が存在すると判定された場合(ステップST203:Yes)はステップST204に進み、前フレーム画像に同一人物が存在しないと判定された場合(ステップST203:No)はステップST205に進む。   Subsequently, in step ST203, it is determined whether or not a person detected in the current frame image exists in the previous frame image. This determination may be performed using a known method such as a method based on the feature amount of a person, as in step ST201 described above. If it is determined that the same person exists in the previous frame image (step ST203: Yes), the process proceeds to step ST204. If it is determined that the same person does not exist in the previous frame image (step ST203: No), the process proceeds to step ST205. .

ステップST204では、記憶部26に格納されている人物情報管理テーブル(図6参照)における該当人物IDの位置座標と画像人物領域を更新し、その後、ステップST206に進む。   In step ST204, the position coordinates of the corresponding person ID and the image person area in the person information management table (see FIG. 6) stored in the storage unit 26 are updated, and then the process proceeds to step ST206.

ステップST205では、人物情報管理テーブルに人物IDを追加し、その追加した人物IDに紐付けて画像人物領域および位置座標を記録し、その後、ステップST206に進む。   In step ST205, a person ID is added to the person information management table, the image person area and the position coordinates are recorded in association with the added person ID, and then the process proceeds to step ST206.

ステップST206では、人物情報管理テーブルにおける更新されていない人物IDを削除し、処理を終了する。これにより、現フレーム画像において存在しない人物の人物情報は削除される。上記のステップST202−205は、現フレーム画像から検出された人物領域毎に繰り返される。   In step ST206, the person ID that has not been updated in the person information management table is deleted, and the process ends. Thereby, the person information of the person who does not exist in the current frame image is deleted. The above steps ST202-205 are repeated for each person area detected from the current frame image.

図20は、行動認識装置4での利用言語判定処理(図18のステップST103)を説明するためのフロー図である。以下の処理は、上記の人物位置情報更新処理で更新または追加された人物ID毎に繰り返される。   FIG. 20 is a flowchart for explaining the use language determination processing (step ST103 in FIG. 18) in the action recognition device 4. The following process is repeated for each person ID updated or added in the person position information update process.

まず、ステップST301では、現フレーム画像から、人物の視線方向を検出する。具体的には、現フレーム画像の画像人物領域から、統計的または非統計的識別器を用いる手法やテンプレートマッチングを用いる手法等の公知の手法を用いてその人物の顔領域を検出するとともに、顔領域から公知の手法を用いて顔特徴量を抽出する。そして、抽出された顔特徴量に基づき、予め用意した統計的または非統計的識別器を用いて顔の向きを検出し、検出された人物の顔の向きをその人物の視線方向とする。   First, in step ST301, the gaze direction of a person is detected from the current frame image. Specifically, the face area of the person is detected from the image person area of the current frame image using a known technique such as a technique using a statistical or non-statistic classifier or a technique using template matching. A face feature amount is extracted from the region using a known method. Then, based on the extracted facial feature quantity, a face direction is detected using a statistical or non-statistical classifier prepared in advance, and the detected face direction of the person is set as the line-of-sight direction of the person.

次に、ステップST302では、検出された人物の視線方向に基づき、多言語掲示板の表示部における着目領域を検出する。着目領域とは、人物が注視している領域のことである。   Next, in step ST302, the attention area in the display part of a multilingual bulletin board is detected based on the detected gaze direction of the person. A region of interest is a region where a person is gazing.

続くステップST303では、着目領域が検出されたか否かを判定する。着目領域が検出されなかったと判定された場合(ステップST303:No)はステップST304に進み、着目領域が検出されたと判定された場合(ステップST303:Yes)はステップST305に進む。   In a succeeding step ST303, it is determined whether or not a region of interest is detected. When it is determined that the region of interest has not been detected (step ST303: No), the process proceeds to step ST304, and when it is determined that the region of interest has been detected (step ST303: Yes), the process proceeds to step ST305.

ステップST304では、着目領域が検出されなかったため、言語判定テーブル(図7参照)の着目領域を「無し」、継続回数を「0」に更新し、その後、処理を終了する。   In step ST304, since the region of interest has not been detected, the region of interest in the language determination table (see FIG. 7) is updated to “none”, the number of continuations is updated to “0”, and then the process ends.

ステップST305では、着目領域が前フレーム画像と同一であるか否かを判定する。同一ではないと判定された場合(ステップST305:No)はステップST306に進み、同一であると判定された場合(ステップST305:Yes)はステップST307に進む。   In step ST305, it is determined whether the region of interest is the same as the previous frame image. When it is determined that they are not the same (step ST305: No), the process proceeds to step ST306, and when it is determined that they are the same (step ST305: Yes), the process proceeds to step ST307.

ステップST306では、新規の着目領域を追加し、その着目領域に紐付けて、継続回数「1」を記録し、その後、処理を終了する。   In step ST306, a new region of interest is added, linked to the region of interest, the continuation count “1” is recorded, and then the process ends.

ステップST307では、該当する着目領域の継続回数を「1」増加させる。   In step ST307, the number of continuations of the target region of interest is increased by “1”.

続くステップST308では、継続回数が閾値以上になったか否かを判定する。閾値以上ではないと判定された場合(ステップST308:No)は処理を終了し、閾値以上であると判定された場合(ステップST308:Yes)はステップST309に進む。   In a succeeding step ST308, it is determined whether or not the number of continuations has exceeded a threshold value. If it is determined that the threshold value is not greater than or equal to the threshold value (step ST308: No), the process ends. If it is determined that the threshold value is equal to or greater than the threshold value (step ST308: Yes), the process proceeds to step ST309.

ステップST309では、その着目領域に対応する言語を、人物情報管理テーブルの利用言語の欄に記録し、その後、処理を終了する。領域に対応する言語は、表示言語情報(図4(b)参照)に基づき判定する。これにより、人物の利用言語が判定される。   In step ST309, the language corresponding to the region of interest is recorded in the column of language used in the person information management table, and then the process ends. The language corresponding to the area is determined based on the display language information (see FIG. 4B). As a result, the language used by the person is determined.

次に、言語割合管理サーバ5の動作について説明する。   Next, the operation of the language ratio management server 5 will be described.

言語割合管理サーバ5は、行動認識装置4から、人物の位置座標および利用言語を含む人物情報を受信すると、その人物情報を言語割合管理テーブル(図9参照)に記録する。上述したように、人物情報は、行動認識装置4の装置IDに紐付けて記憶される。そして、館内放送装置6から、対象領域で使用されている利用言語の割合についての問い合わせを受信したときに、対象領域で使用されている利用言語の割合を示す言語割合情報(図10参照)を作成し、館内放送装置6に送信する。   When the language ratio management server 5 receives the person information including the position coordinates of the person and the language used from the action recognition device 4, the language ratio management server 5 records the person information in the language ratio management table (see FIG. 9). As described above, the personal information is stored in association with the device ID of the behavior recognition device 4. And when the inquiry about the ratio of the use language used in the object area is received from the in-house broadcasting device 6, language ratio information (see FIG. 10) indicating the ratio of the use language used in the object area is received. It is created and transmitted to the in-house broadcasting device 6.

次に、館内放送装置6の動作について説明する。   Next, the operation of the in-house broadcasting device 6 will be described.

まず、館内放送装置6のユーザは、館内放送装置6の表示入力パネル47に表示した各設定画面(図14および図15参照)を操作して、言語割合取得領域および多言語再生順序を設定する。言語割合取得領域は、ユーザが、設定画面に表示された言語割合取得領域の候補から、所望する言語割合取得領域を選択することにより設定される。設定された言語割合取得領域は、言語割合取得領域設定テーブル(図16参照)に記憶される。多言語再生順序は、ユーザが、設定画面を操作して再生順序を指定することにより設定される。設定された再生順序は、多言語再生順序設定テーブル(図17参照)に記憶される。   First, the user of the in-house broadcasting device 6 operates each setting screen (see FIGS. 14 and 15) displayed on the display input panel 47 of the in-house broadcasting device 6 to set the language ratio acquisition area and the multilingual playback order. . The language ratio acquisition area is set by the user selecting a desired language ratio acquisition area from the language ratio acquisition area candidates displayed on the setting screen. The set language ratio acquisition area is stored in a language ratio acquisition area setting table (see FIG. 16). The multilingual playback order is set by the user operating the setting screen and specifying the playback order. The set playback order is stored in a multilingual playback order setting table (see FIG. 17).

館内放送装置6は、対象領域(放送領域)に対して多言語の音声情報を音声出力するときは、対象領域の利用言語の割合を言語割合管理サーバ5に問い合わせて言語割合情報を取得し、取得した言語割合情報に基づき、音声出力する多言語の種類およびその多言語を音声出力する順番を決定する。これにより、対象領域で使用されている利用言語を、その対象領域における利用言語の割合に応じて放送することができる。   When the in-house broadcasting device 6 outputs multilingual audio information to the target area (broadcast area), the in-house broadcasting apparatus 6 inquires the language ratio management server 5 for the ratio of the language used in the target area, and acquires the language ratio information. Based on the acquired language ratio information, the type of multi-language to be output as speech and the order of outputting the multi-language as speech are determined. Thereby, the language used in the target area can be broadcast according to the ratio of the language used in the target area.

以上のように、第1実施形態に係る言語割合管理システムによれば、対象領域で使用されている利用言語の割合を言語割合管理サーバ5で記憶して管理することにより、多言語が利用される場所における利用言語の割合を管理することが可能となる。   As described above, according to the language ratio management system according to the first embodiment, the language ratio management server 5 stores and manages the ratio of the used languages used in the target area, so that multiple languages are used. It is possible to manage the ratio of the language used in the location.

また、第1実施形態に係る言語割合管理システムによれば、多言語掲示板2の表示領域を視認するという人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。   Further, according to the language ratio management system according to the first embodiment, it is possible to determine the language used by the person based on the language behavior of the person viewing the display area of the multilingual bulletin board 2. This makes it possible to determine the language used by a person at a place where an unspecified number of persons come and go.

また、第1実施形態に係る言語割合管理システムによれば、館内放送装置6が音声出力する多言語の種類およびその多言語を音声出力する順番を、対象領域で使用されている利用言語の割合を示す言語割合情報に基づき決定することが可能となる。   In addition, according to the language ratio management system according to the first embodiment, the ratio of the languages used in the target area is set according to the types of multi-languages that the in-house broadcasting device 6 outputs and the order in which the multi-languages are output as voices. It is possible to determine based on the language ratio information indicating.

(第2実施形態)
次に、本開示の第2実施形態に係る言語割合管理システム1について説明する。なお、この第2実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
(Second Embodiment)
Next, the language ratio management system 1 according to the second embodiment of the present disclosure will be described. In the second embodiment, items not particularly mentioned below are the same as those in the first embodiment described above.

図21は、第2実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第2実施形態は、館内放送装置6の代わりに多言語案内ロボット7を備えている点が、上記の第1実施形態と異なる。   FIG. 21 is a schematic diagram illustrating a schematic configuration of the language ratio management system 1 according to the second embodiment. The second embodiment is different from the first embodiment in that a multilingual guide robot 7 is provided instead of the in-house broadcasting device 6.

多言語案内ロボット7(以降、単に「ロボット7」と称する)は、現在位置を把握しながらフロアFを自律走行し、予め記憶した多言語の案内音声(音声情報)を、ロボット7を中心とした予め定められた範囲の領域(対象領域)に対して音声出力する。音声出力する多言語の種類およびその多言語を放送する順番は、上記の館内放送装置6の場合と同様に、対象領域で使用されている利用言語の割合に基づき決定する。   The multilingual guidance robot 7 (hereinafter simply referred to as “robot 7”) autonomously travels on the floor F while grasping the current position, and multilingual guidance voices (voice information) stored in advance are centered on the robot 7. The voice is output to the area (target area) of the predetermined range. As in the case of the above-mentioned in-house broadcasting device 6, the type of multi-language to be output as audio and the order of broadcasting the multi-language are determined based on the ratio of the languages used in the target area.

図22は、多言語案内ロボット7の機能ブロック図である。図22に示すように、多言語案内ロボット7は、該ロボット7を駆動する駆動部51と、該ロボット7の現在位置を把握する現在位置把握部52と、言語割合取得領域設定テーブル、多言語再生順序設定テーブル、および多言語の案内情報(音声情報や文字情報)を格納した記憶部53と、言語割合管理サーバ5から言語割合情報を取得する言語割合取得部54と、多言語の案内情報を出力する出力部55とを備えている。出力部55は、スピーカによって音声を再生出力したり、文字情報などをロボット7が備えるディスプレイに表示出力したりするものである。   FIG. 22 is a functional block diagram of the multilingual guide robot 7. As shown in FIG. 22, the multilingual guidance robot 7 includes a driving unit 51 that drives the robot 7, a current position grasping unit 52 that grasps the current position of the robot 7, a language ratio acquisition region setting table, a multilingual A storage unit 53 that stores a reproduction order setting table and multilingual guide information (voice information and character information), a language rate acquisition unit 54 that acquires language rate information from the language rate management server 5, and multilingual guide information Is provided. The output unit 55 reproduces and outputs sound through a speaker, and displays and outputs character information and the like on a display provided in the robot 7.

言語割合取得領域(すなわち対象領域)は、ロボット7の位置座標を中心とした予め定められた半径Rの範囲の円領域である。半径Rは適宜設定される。図23は、ロボット7の言語割合取得領域の一例を示す図である。図23の例では、ロボット7の現在位置の座標(1500、550)を中心とした半径Rの範囲の円領域が、言語割合取得領域となる。   The language ratio acquisition region (that is, the target region) is a circular region having a predetermined radius R around the position coordinate of the robot 7. The radius R is set as appropriate. FIG. 23 is a diagram illustrating an example of the language ratio acquisition area of the robot 7. In the example of FIG. 23, a circle area having a radius R centering on the coordinates (1500, 550) of the current position of the robot 7 is the language ratio acquisition area.

図24は、ロボット7での多言語案内処理を説明するためのフロー図である。下記の処理は、ロボット7の記憶部53に予め設定されたプログラム(例えば多言語案内プログラム)、または図示しない情報管理センター等からの命令に基づき、ロボット7が多言語の案内情報(連絡や案内等の各種情報の音声情報や文字情報)を出力するときに開始される。   FIG. 24 is a flowchart for explaining multilingual guidance processing in the robot 7. The following processing is based on a program preset in the storage unit 53 of the robot 7 (for example, a multilingual guidance program) or a command from an information management center (not shown). This is started when outputting various kinds of information such as voice information and character information).

まず、ステップST401では、現在位置把握部52によりロボット7の現在位置を把握するとともに、現在位置の位置座標および予め定められた半径Rに基づき言語割合取得領域を決定する。上述したように、言語割合取得領域は、現在の位置座標を中心とした半径Rの範囲の円領域となる。   First, in step ST401, the current position grasping unit 52 grasps the current position of the robot 7, and determines a language ratio acquisition region based on the position coordinates of the current position and a predetermined radius R. As described above, the language ratio acquisition region is a circular region having a radius R around the current position coordinate.

次に、ステップST402では、言語割合取得領域(対象領域)で使用されている利用言語の割合を言語割合管理サーバ5に問い合わせ、言語割合管理サーバ5から、対象領域で使用されている利用言語の割合を示す言語割合情報を取得する。   Next, in step ST402, the language ratio management server 5 is inquired about the ratio of the language used in the language ratio acquisition area (target area), and the language ratio management server 5 determines the language used in the target area. Language ratio information indicating the ratio is acquired.

続いて、ステップST403では、言語割合管理サーバ5から取得した言語割合情報および多言語再生順序設定に基づき、言語再生順序を決定する。多言語再生順序設定は、上記の館内放送装置6の場合と同様に、ユーザにより予め設定されている。   Subsequently, in step ST403, the language reproduction order is determined based on the language ratio information acquired from the language ratio management server 5 and the multilingual reproduction order setting. The multilingual reproduction order setting is set in advance by the user in the same manner as in the case of the in-house broadcasting device 6 described above.

そして、ステップST404では、決定された言語再生順序に従って案内情報の出力(案内音声の再生や文字情報の表示)を行い、その後、処理を終了する。   In step ST404, guidance information is output (reproduction of guidance voice or display of character information) in accordance with the determined language reproduction order, and then the process ends.

このように第2実施形態に係る言語割合管理システムによれば、ロボット7が出力する多言語の種類およびその多言語を出力する順番を、対象領域で使用されている利用言語の割合を示す言語割合情報に基づき決定することが可能となる。なお、第1実施形態の館内放送装置と第2実施形態の多言語案内ロボット7とを併用するようにしてもよい。   As described above, according to the language ratio management system according to the second embodiment, the language indicating the ratio of the used languages used in the target area, the type of the multi-language output by the robot 7 and the order in which the multi-language is output. It becomes possible to determine based on the ratio information. Note that the in-house broadcasting device of the first embodiment and the multilingual guidance robot 7 of the second embodiment may be used in combination.

また、上記の例では、ロボット7の現在位置の位置座標および予め定められた半径Rの範囲の領域における利用言語の割合に基づいて、ロボット7が出力する言語の種類を決定したが、ロボット7の正面に位置する人物を検出し、ロボット7がその人物の利用言語を言語割合管理サーバ5に問い合わせ、言語割合管理サーバ5が言語割合管理テーブルから人物の位置座標に基づき利用言語をロボット7に送信することによって、ロボット7が正面に位置する人物へ案内する言語の種類を決定するようにしてもよい。   Further, in the above example, the type of language output by the robot 7 is determined based on the position coordinates of the current position of the robot 7 and the ratio of the language used in the range of the radius R determined in advance. The robot 7 inquires the language ratio management server 5 about the language used by the person, and the language ratio management server 5 sets the language used to the robot 7 based on the position coordinates of the person from the language ratio management table. By transmitting, the type of language that the robot 7 guides to the person located in front may be determined.

(第3実施形態)
次に、本開示の第3実施形態に係る言語割合管理システム1について説明する。なお、この第3実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
(Third embodiment)
Next, the language ratio management system 1 according to the third embodiment of the present disclosure will be described. In the third embodiment, matters not particularly mentioned below are the same as those in the above-described first embodiment.

図25は、第3実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第3実施形態は、多言語掲示板2の代わりに多言語キオスク8を備えている点が、上記の第1実施形態と異なる。   FIG. 25 is a schematic diagram illustrating a schematic configuration of the language ratio management system 1 according to the third embodiment. The third embodiment differs from the first embodiment in that a multilingual kiosk 8 is provided instead of the multilingual bulletin board 2.

多言語キオスク8は、公知の構成を有する情報端末装置であり、フロアFの適所に配置されている。多言語キオスク8は、表示入力部であるタッチパネルを有しており、フロアFに存在する人物はタッチパネルを操作することにより、各種の情報にアクセスすることができる。   The multilingual kiosk 8 is an information terminal device having a known configuration, and is arranged at an appropriate place on the floor F. The multilingual kiosk 8 has a touch panel as a display input unit, and a person existing on the floor F can access various kinds of information by operating the touch panel.

図26は、多言語キオスク8の機能ブロック図である。図26に示すように、多言語キオスク8は、連絡や案内等の各種情報を多言語により表示するともに、ユーザが操作可能な表示入力部(タッチパネル)61と、表示入力部61の表示を管理する表示管理部62と、表示入力部61で表示されている言語、すなわち表示入力部61の操作に使用された言語を示す表示言語情報を行動認識装置4に通知する表示言語提供部63とを有している。   FIG. 26 is a functional block diagram of the multilingual kiosk 8. As shown in FIG. 26, the multilingual kiosk 8 displays various information such as contact and guidance in multiple languages, and manages the display input unit (touch panel) 61 that can be operated by the user and the display of the display input unit 61. And a display language providing unit 63 that notifies the action recognition device 4 of the language displayed on the display input unit 61, that is, the display language information indicating the language used for the operation of the display input unit 61. Have.

図27は、第3実施形態に係る行動認識装置4の機能ブロック図である。図27に示すように、第3実施形態に係る行動認識装置4は、多言語掲示板接続部27の代わりに多言語キオスク接続部64を有しており、この多言語キオスク接続部64を介して多言語キオスク8と接続されている。また、第3実施形態に係る行動認識装置4は、視線方向検出部28および言語判定テーブル30を有していない。それ以外の点は、第1実施形態に係る行動認識装置4と同様なので、説明は省略する。   FIG. 27 is a functional block diagram of the action recognition device 4 according to the third embodiment. As shown in FIG. 27, the action recognition device 4 according to the third embodiment has a multilingual kiosk connection unit 64 instead of the multilingual bulletin board connection unit 27, and the multilingual kiosk connection unit 64 is used. Connected to multilingual kiosk 8. Further, the action recognition device 4 according to the third embodiment does not include the line-of-sight direction detection unit 28 and the language determination table 30. Since the other points are the same as those of the action recognition device 4 according to the first embodiment, description thereof is omitted.

図28は、第3実施形態に係る行動認識装置4での利用言語判定処理を説明するためのフロー図である。以下の処理は、人物ID毎に繰り返される。   FIG. 28 is a flowchart for explaining the use language determination processing in the action recognition device 4 according to the third embodiment. The following processing is repeated for each person ID.

まず、ステップST501では、人物情報管理テーブル(図6参照)に記録されている位置座標に基づき、多言語キオスク8の正面に位置する人物を検出する。行動認識装置4は、多言語キオスク8の位置座標を予め保持しているものとする。   First, in step ST501, a person located in front of the multilingual kiosk 8 is detected based on the position coordinates recorded in the person information management table (see FIG. 6). The action recognition device 4 is assumed to hold the position coordinates of the multilingual kiosk 8 in advance.

次に、ステップST502では、人物情報管理テーブル(図6参照)の位置座標において、多言語キオスク8の正面に位置する人物が検出されたか否かを判定する。検出されたと判定された場合(ステップST502:Yes)は、ステップST503に進み、検出されなかった(多言語キオスク8の正面に位置する人物がいない)と判定された場合(ステップST502:No)は、処理を終了する。   Next, in step ST502, it is determined whether or not a person located in front of the multilingual kiosk 8 has been detected in the position coordinates of the person information management table (see FIG. 6). When it is determined that it has been detected (step ST502: Yes), the process proceeds to step ST503, and when it is determined that it has not been detected (no person is located in front of the multilingual kiosk 8) (step ST502: No). The process is terminated.

ステップST503では、検出された人物が、多言語キオスク8の表示入力部61を操作したか否かを判定する。ここでは、検出された人物が、多言語キオスク8の正面に一定時間以上滞在していた場合に、操作があったと判定するものとする。操作したと判定された場合(ステップST503:Yes)は、ステップST504に進み、操作していないと判定された場合(ステップST503:No)は、処理を終了する。   In step ST503, it is determined whether or not the detected person has operated the display input unit 61 of the multilingual kiosk 8. Here, it is determined that an operation has been performed when the detected person has stayed in front of the multilingual kiosk 8 for a predetermined time or more. If it is determined that it has been operated (step ST503: Yes), the process proceeds to step ST504, and if it is determined that it has not been operated (step ST503: No), the process is terminated.

ステップST504では、多言語キオスク8に、その人物が多言語キオスク8の表示入力部61を操作するときに使用した利用言語を問い合わせる。   In step ST504, the multilingual kiosk 8 is inquired about the language used when the person operates the display input unit 61 of the multilingual kiosk 8.

そして、ステップST505では、問い合わせの結果、すなわちその人物の利用言語を人物情報管理テーブルの利用言語の欄に格納し、その後、処理を終了する。   In step ST505, the result of the inquiry, that is, the use language of the person is stored in the use language column of the person information management table, and then the process ends.

このように第3実施形態に係る言語割合管理システムによれば、多言語キオスク8を操作するという人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。   As described above, according to the language ratio management system according to the third embodiment, it is possible to determine the language used by the person based on the language behavior of the person operating the multilingual kiosk 8. This makes it possible to determine the language used by a person at a place where an unspecified number of persons come and go.

なお、言語割合管理システム1が、多言語掲示板2と多言語キオスク8との両方を備え、両方の装置により人物の利用言語を判定するようにしてもよい、また、一方の装置の判定結果を優先するようにしてもよい。   Note that the language ratio management system 1 may include both the multilingual bulletin board 2 and the multilingual kiosk 8, and may determine the language used by a person using both devices. You may make it give priority.

(第4実施形態)
次に、本開示の第4実施形態に係る言語割合管理システム1について説明する。なお、この第4実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
(Fourth embodiment)
Next, the language ratio management system 1 according to the fourth embodiment of the present disclosure will be described. In the fourth embodiment, items not particularly mentioned below are the same as those in the above-described first embodiment.

図29は、第4実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第4実施形態は、人物照合装置9をさらに備えている点が、上記の第1実施形態と異なる。   FIG. 29 is a schematic diagram showing a schematic configuration of the language ratio management system 1 according to the fourth embodiment. The fourth embodiment is different from the first embodiment in that the person verification device 9 is further provided.

この第4実施形態では、人物照合装置9により、行動認識装置4Aに接続されたカメラ3Aで撮像した撮像画像から抽出した人物画像と、行動認識装置4Bに接続されたカメラ3Bで撮像した撮像画像から抽出した人物画像とを照合することができる。例えば、多言語掲示板2の表示部11の周辺に位置しカメラ3Bで撮像された人物H1が多言語キオスク8の方向に移動しカメラ3Aで撮像された場合に、カメラ3Aで撮像した人物H1の人物画像と、カメラ3Bで撮像した人物H1の人物画像とを人物照合装置9によって照合することができる。したがって、もし行動認識装置4Bで人物H1の利用言語が判明していれば、人物H1の利用言語を、人物照合装置9を介して、行動認識装置4Bに通知することが可能となる。   In the fourth embodiment, a person image extracted from a captured image captured by the camera 3A connected to the action recognition apparatus 4A by the person verification device 9 and a captured image captured by the camera 3B connected to the action recognition apparatus 4B. The person image extracted from the image can be collated. For example, when a person H1 located around the display unit 11 of the multilingual bulletin board 2 and captured by the camera 3B moves in the direction of the multilingual kiosk 8 and is captured by the camera 3A, the person H1 captured by the camera 3A is displayed. The person verification device 9 can collate the person image and the person image of the person H1 captured by the camera 3B. Therefore, if the language used by the person H1 is known by the action recognition device 4B, the language used by the person H1 can be notified to the action recognition device 4B via the person verification device 9.

図30は、人物照合装置9の機能ブロック図である。図30に示すように、人物照合装置9は、行動認識装置4と接続する行動認識装置接続部71と、人物言語テーブルを記憶する記憶部72と、人物画像を照合する人物照合部73とを有している。   FIG. 30 is a functional block diagram of the person verification device 9. As shown in FIG. 30, the person verification device 9 includes an action recognition device connection unit 71 that connects to the action recognition device 4, a storage unit 72 that stores a person language table, and a person verification unit 73 that matches a person image. Have.

図31は、人物言語テーブルの一例を示す図である。図31に示すように、人物言語テーブルでは、バイナリ画像である人物画像に紐付けて、その人物画像の人物の利用言語が記憶されている。   FIG. 31 is a diagram illustrating an example of a person language table. As shown in FIG. 31, in the person language table, the use language of the person of the person image is stored in association with the person image that is a binary image.

図32は、第4実施形態に係る行動認識装置4の機能ブロック図である。図32に示すように、第4実施形態に係る行動認識装置4は、人物照合装置接続部74をさらに有しており、人物照合装置接続部74を介して人物照合装置9と接続されている。それ以外の点は、第1実施形態に係る行動認識装置4と同様なので、説明は省略する。   FIG. 32 is a functional block diagram of the action recognition device 4 according to the fourth embodiment. As shown in FIG. 32, the action recognition device 4 according to the fourth embodiment further includes a person verification device connection unit 74, and is connected to the person verification device 9 via the person verification device connection unit 74. . Since the other points are the same as those of the action recognition device 4 according to the first embodiment, description thereof is omitted.

図33は、第4実施形態に係る行動認識装置4での人物位置情報更新処理を説明するためのフロー図である。この第4実施形態に係る人物位置情報更新処理では、撮像画像(現フレーム画像)から新規の人物が検出され、この新規の人物IDを追加するステップST205の後に、現フレーム画像から抽出した人物画像を人物照合装置9に送信して、人物照合装置9からその人物画像に対応する利用言語を示す利用言語情報を取得する(ステップST601)。そして、取得した利用言語情報を、新規の人物に付与された人物IDに紐づけて、人物情報管理テーブル(図6参照)の利用言語の欄に記録する(ステップST602)。それ以外の点は、第1実施形態に係る人物位置情報更新処理と同様なので、説明は省略する。   FIG. 33 is a flowchart for explaining person position information update processing in the action recognition device 4 according to the fourth embodiment. In the person position information update process according to the fourth embodiment, a new person is detected from the captured image (current frame image), and the person image extracted from the current frame image is added after step ST205 for adding the new person ID. Is transmitted to the person verification device 9, and the usage language information indicating the usage language corresponding to the person image is acquired from the person verification device 9 (step ST601). The acquired use language information is recorded in the use language column of the person information management table (see FIG. 6) in association with the person ID assigned to the new person (step ST602). Since the other points are the same as the person position information update process according to the first embodiment, description thereof will be omitted.

図34は、第4実施形態に係る行動認識装置4での利用言語判定処理を説明するためのフロー図であり、図20のST301−307と同じ部分は省略して図示している。この第4実施形態に係る利用言語判定処理では、ステップST309で着目領域に対応する言語を人物情報管理テーブルの利用言語の欄に格納(記憶)した後に、その利用言語を示す情報を画像人物領域の人物画像とともに人物照合装置9に送信する(ステップST603)。それ以外の点は、第1実施形態に係る人物位置情報更新処理と同様なので、説明は省略する。   FIG. 34 is a flowchart for explaining the use language determination processing in the action recognition device 4 according to the fourth embodiment, and the same parts as ST301-307 in FIG. 20 are omitted. In the use language determination process according to the fourth embodiment, after the language corresponding to the region of interest is stored (stored) in the use language column of the person information management table in step ST309, information indicating the use language is stored in the image person region. And the person image are transmitted to the person verification device 9 (step ST603). Since the other points are the same as the person position information update process according to the first embodiment, description thereof will be omitted.

人物照合装置9は、行動認識装置4(図29の例では、行動認識装置4B)から人物画像および利用言語を取得すると、その人物画像および利用言語を人物言語テーブル(図31)に記録する。   When the person verification device 9 acquires the person image and the use language from the action recognition device 4 (behavior recognition device 4B in the example of FIG. 29), the person check device 9 records the person image and the use language in the person language table (FIG. 31).

図35は、人物照合装置9の照合処理を説明するためのフロー図である。以下の処理は、図33を参照して説明した、行動認識装置4の人物位置情報更新処理におけるステップST601およびステップST602の処理に対応している。   FIG. 35 is a flowchart for explaining the collation processing of the person collation apparatus 9. The following processing corresponds to the processing of step ST601 and step ST602 in the person position information update processing of the action recognition device 4 described with reference to FIG.

まず、ステップST701では、行動認識装置4(図29の例では、行動認識装置4A)から照合対象の人物画像を受信する。   First, in step ST701, a person image to be collated is received from the action recognition device 4 (in the example of FIG. 29, the action recognition device 4A).

次に、ステップST702では、照合対象の人物画像を、人物言語テーブルに記憶されている人物画像と照合する。   Next, in step ST702, the person image to be collated is collated with the person image stored in the person language table.

続いて、ステップST703では、照合対象の人物画像と一致する人物画像が人物言語テーブルに記憶されているか否か、すなわち該当人物が存在するか否かを判定する。該当人物が存在しないと判定された場合(ステップST703:No)は、ステップST704に進み、該当人物が存在すると判定された場合(ステップST703:Yes)は、ステップST705に進む。   Subsequently, in step ST703, it is determined whether or not a person image that matches the person image to be collated is stored in the person language table, that is, whether or not a corresponding person exists. When it is determined that the corresponding person does not exist (step ST703: No), the process proceeds to step ST704, and when it is determined that the corresponding person exists (step ST703: Yes), the process proceeds to step ST705.

ステップST704では、「利用言語は不明」と行動認識装置4に通知し、その後、処理を終了する。   In step ST704, the action recognition device 4 is notified that “the language used is unknown”, and then the process ends.

ステップST705では、人物言語テーブルを参照して該当人物の利用言語を判定し、判定された利用言語を行動認識装置4に通知する。その後、処理を終了する。   In step ST705, the use language of the corresponding person is determined with reference to the person language table, and the determined use language is notified to the action recognition device 4. Thereafter, the process ends.

このように第4実施形態に係る言語割合管理システムによれば、複数の行動認識装置4間で、撮像画像から検出された人物を照合することができるので、複数の行動認識装置4間で、人物の利用言語を示す情報を共有することが可能となる。   As described above, according to the language ratio management system according to the fourth embodiment, since the person detected from the captured image can be collated between the plurality of action recognition apparatuses 4, the plurality of action recognition apparatuses 4 can It is possible to share information indicating the language used by a person.

(第5実施形態)
次に、本開示の第5実施形態に係る言語割合管理システム1について説明する。なお、この第5実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
(Fifth embodiment)
Next, a language ratio management system 1 according to the fifth embodiment of the present disclosure will be described. In the fifth embodiment, matters not particularly mentioned below are the same as those in the above-described first embodiment.

図36は、第5実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第5実施形態は、フロアFに存在する人物のグループを判定し、そのグループ内の少なくとも1人の利用言語が判明した場合に、その利用言語をそのグループ内の利用言語が不明な人物の利用言語と判定する点が、上記の第1実施形態と異なる。   FIG. 36 is a schematic diagram showing a schematic configuration of the language ratio management system 1 according to the fifth embodiment. In the fifth embodiment, when a group of persons existing on the floor F is determined and the use language of at least one person in the group is determined, the use language of the person whose use language in the group is unknown is determined. The point which determines with a use language differs from said 1st Embodiment.

図36の例では、フロアFに、人物H2、H3、H4の3人の人物からなるグループG1と、人物H5、H6の2人の人物からなるグループG2が存在している。同じグループ内の人物は同一の言語を使用すると考えられるので、同じグループ内の少なくとも1人の人物の利用言語が判明すれば、その利用言語がそのグループ内の他の人物の利用言語であると判定することができる。   In the example of FIG. 36, on the floor F, there are a group G1 composed of three persons H2, H3, and H4 and a group G2 composed of two persons H5 and H6. Since people in the same group are considered to use the same language, if the language used by at least one person in the same group is known, the language used is the language used by other people in the group. Can be determined.

したがって、グループG1においては、人物H2の利用言語が判明すると、グループG1の人物H3、H4の利用言語が不明である場合でも、人物H3、H4の利用言語は人物H1の利用言語(図36の例では英語)と判定することができる。同様に、グループG2においては、人物H5の利用言語が判明すると、グループG2の人物H6の利用言語が不明である場合でも、人物H6の利用言語は人物H5の利用言語(図36の例では中国語)と判定することができる。   Therefore, in the group G1, when the usage language of the person H2 is determined, even if the usage languages of the persons H3 and H4 of the group G1 are unknown, the usage language of the persons H3 and H4 is the usage language of the person H1 (FIG. 36). In the example, it can be determined as English). Similarly, in the group G2, when the language used by the person H5 is known, even if the language used by the person H6 in the group G2 is unknown, the language used by the person H6 is the language used by the person H5 (China in the example of FIG. 36). Word).

図37は、第5実施形態に係る行動認識装置4の機能ブロック図である。図37に示すように、第5実施形態に係る行動認識装置4は、グループを判定するグループ判定部81をさらに有している。それ以外の点は、第1実施形態に係る行動認識装置4と同様なので、説明は省略する。   FIG. 37 is a functional block diagram of the action recognition device 4 according to the fifth embodiment. As shown in FIG. 37, the action recognition device 4 according to the fifth embodiment further includes a group determination unit 81 that determines a group. Since the other points are the same as those of the action recognition device 4 according to the first embodiment, description thereof is omitted.

図38は、第5実施形態に係る人物情報管理テーブルを示す図である。図38に示すように、人物情報管理テーブルは、人物ID、画像人物領域、利用言語に加えて、位置座標履歴の欄をさらに有している。位置座標履歴の欄には、現フレーム画像から取得した位置座標を追加して記録する。   FIG. 38 is a diagram showing a person information management table according to the fifth embodiment. As shown in FIG. 38, the person information management table further includes a position coordinate history column in addition to the person ID, the image person area, and the language used. In the position coordinate history column, position coordinates acquired from the current frame image are added and recorded.

図39は、第5実施形態に係る行動認識装置4での一連の処理を説明するためのフロー図である。   FIG. 39 is a flowchart for explaining a series of processes in the action recognition device 4 according to the fifth embodiment.

図39に示すように、この第5実施形態では、ステップST104の言語情報更新処理と、ステップST105の撮像画像を前フレーム画像として記憶部26に格納する処理との間に、グループ判定処理(ステップST106)をさらに有している。このグループ判定処理では、人物のグループを判定し、そのグループのうちの1人の利用言語が判明した場合に、その利用言語をグループ内の利用言語が不明な人物の利用言語とする。それ以外の点は、第1実施形態に係る行動認識装置4での一連の処理と同様なので、説明は省略する。   As shown in FIG. 39, in the fifth embodiment, a group determination process (step S104) is performed between the language information update process in step ST104 and the process in which the captured image in step ST105 is stored in the storage unit 26 as a previous frame image. ST106). In this group determination process, a group of persons is determined, and when the use language of one of the groups is found, the use language is set as the use language of a person whose use language is unknown in the group. Since the other points are the same as the series of processes in the action recognition device 4 according to the first embodiment, description thereof is omitted.

図40は、第5実施形態に係る行動認識装置4のグループ判定処理を説明するためのフロー図である。   FIG. 40 is a flowchart for explaining group determination processing of the action recognition device 4 according to the fifth embodiment.

まず、ステップST801では、人物ID毎に、人物情報管理テーブル(図38参照)の位置座標履歴の欄に、現フレーム画像の位置座標を追加して記憶する。   First, in step ST801, for each person ID, the position coordinates of the current frame image are added and stored in the position coordinate history column of the person information management table (see FIG. 38).

次に、ステップST802では、人物情報管理テーブルの位置座標履歴の欄に記憶された位置座標に基づき、人物のグループと、そのグループに属する人物IDを判定する。例えば、連続する所定数のフレーム画像において一緒に存在し、かつ相互距離が予め定められた距離内である複数の人物をグループと判定するとよい。なお、グループの判定方法はこれに限定されるものではなく、他の様々な公知の方法を用いることができる。   Next, in step ST802, based on the position coordinates stored in the position coordinate history column of the person information management table, a group of persons and a person ID belonging to the group are determined. For example, a plurality of persons that exist together in a predetermined number of consecutive frame images and whose mutual distances are within a predetermined distance may be determined as a group. The group determination method is not limited to this, and various other known methods can be used.

続いて、ステップST803では、判定されたグループ内に利用言語が不明な人物が存在するか否かを判定する。利用言語が不明な人物が存在すると判定された場合(ステップST803:Yes)は、ステップST804に進み、利用言語が不明な人物が存在しない判定された場合(ステップST803:No)は、処理を終了する。   Subsequently, in step ST803, it is determined whether or not there is a person whose use language is unknown in the determined group. If it is determined that there is a person whose use language is unknown (step ST803: Yes), the process proceeds to step ST804. If it is determined that there is no person whose use language is unknown (step ST803: No), the process ends. To do.

ステップST804では、そのグループ内の人物において最も多く使用されている利用言語を、利用言語が不明な人物の利用言語と判定する。そして、判定された利用言語を人物情報管理テーブルの利用言語の欄に記録し、その後、処理を終了する。   In step ST804, the use language most frequently used by the persons in the group is determined as the use language of the person whose use language is unknown. Then, the determined usage language is recorded in the usage language column of the person information management table, and then the processing is terminated.

このように第5実施形態に係る言語割合管理システムによれば、グループ内の少なくとも1人の利用言語が判明した場合に、その利用言語をそのグループ内の利用言語が不明な人物の利用言語と判定することが可能となる。なお、グループ内の少なくとも1人の利用言語が判明した場合に、その利用言語をそのグループ内のすべての人物の利用言語とするようにしてもよい。   As described above, according to the language ratio management system according to the fifth embodiment, when the use language of at least one person in the group is found, the use language is used as the use language of a person whose use language is unknown in the group. It becomes possible to judge. Note that when the language used by at least one person in the group is found, the language used may be the language used by all persons in the group.

(第6実施形態)
次に、本開示の第6実施形態に係る言語割合管理システム1について説明する。なお、この第6実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
(Sixth embodiment)
Next, the language ratio management system 1 according to the sixth embodiment of the present disclosure will be described. In the sixth embodiment, matters not particularly mentioned below are the same as those in the first embodiment described above.

図41は、第6実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第6実施形態は、多言語掲示板2の代わりにマイク10を備えている点が上記の第1実施形態と異なる。   FIG. 41 is a schematic diagram showing a schematic configuration of the language ratio management system 1 according to the sixth embodiment. The sixth embodiment is different from the first embodiment in that a microphone 10 is provided instead of the multilingual bulletin board 2.

マイク10は、公知の構成を有する集音マイクであり、空港のフロアFの適所に配置され、人物の会話等の発話を集音する。   The microphone 10 is a sound collection microphone having a known configuration, and is arranged at an appropriate position on the floor F of the airport to collect speech such as a person's conversation.

図42は、第6実施形態に係る行動認識装置4の機能ブロック図である。図42に示すように、第6実施形態に係る行動認識装置4は、多言語掲示板接続部27の代わりにマイク接続部91を有しており、このマイク接続部91を介してマイク10と接続されている。利用言語判定部29は、マイク10が集音した音声を公知の音声分析技術を用いて分析して、その人物の利用言語を判定するものとする。また、第6実施形態に係る行動認識装置4は、視線方向検出部28および言語判定テーブル30を有していない。それ以外の点は、第1実施形態に係る行動認識装置4と同様なので、説明は省略する。   FIG. 42 is a functional block diagram of the action recognition device 4 according to the sixth embodiment. As shown in FIG. 42, the action recognition device 4 according to the sixth embodiment has a microphone connection unit 91 instead of the multilingual bulletin board connection unit 27, and is connected to the microphone 10 via the microphone connection unit 91. Has been. The use language determination unit 29 analyzes the sound collected by the microphone 10 using a known sound analysis technique, and determines the use language of the person. Moreover, the action recognition device 4 according to the sixth embodiment does not include the line-of-sight direction detection unit 28 and the language determination table 30. Since the other points are the same as those of the action recognition device 4 according to the first embodiment, description thereof is omitted.

図43は、第6実施形態に係る行動認識装置4での利用言語判定処理を説明するためのフロー図である。以下の処理は、人物ID毎に繰り返される。   FIG. 43 is a flowchart for explaining the use language determination processing in the action recognition device 4 according to the sixth embodiment. The following processing is repeated for each person ID.

まず、ステップST901では、人物情報管理テーブル(図6参照)に記録されている位置座標に基づき、マイク10の正面に位置する人物を検出する。行動認識装置4は、マイク10の位置座標を予め保持しているものとする。   First, in step ST901, a person located in front of the microphone 10 is detected based on the position coordinates recorded in the person information management table (see FIG. 6). The action recognition device 4 is assumed to hold the position coordinates of the microphone 10 in advance.

次に、ステップST902では、人物情報管理テーブル(図6参照)の位置座標において、マイク10の正面に位置する人物が検出されたか否かを判定する。検出されたと判定された場合(ステップST902:Yes)は、ステップST903に進み、検出されなかった(マイク10の正面に位置する人物がいない)と判定された場合(ステップST902:No)は、処理を終了する。   Next, in step ST902, it is determined whether or not a person located in front of the microphone 10 is detected in the position coordinates of the person information management table (see FIG. 6). When it is determined that it has been detected (step ST902: Yes), the process proceeds to step ST903, and when it is determined that it has not been detected (no person is located in front of the microphone 10) (step ST902: No), processing is performed. Exit.

ステップST903では、検出された人物の音声をマイク10で取得されたか否かを判定する。音声が取得されたと判定された場合(ステップST903:Yes)はステップST904に進み、音声が取得されなかったと判定された場合(ステップST903:No)は処理を終了する。   In step ST903, it is determined whether or not the detected voice of the person has been acquired by the microphone 10. When it is determined that the voice has been acquired (step ST903: Yes), the process proceeds to step ST904, and when it is determined that the voice has not been acquired (step ST903: No), the process ends.

ステップST904では、利用言語判定部29により、マイク10が集音した音声を分析して、その人物の利用言語を判定する。   In step ST904, the use language determination unit 29 analyzes the sound collected by the microphone 10 and determines the use language of the person.

そして、ステップST905では、判定された利用言語を人物情報管理テーブルの利用言語の欄に格納(記憶)し、その後、処理を終了する。   In step ST905, the determined use language is stored (stored) in the use language column of the person information management table, and then the process ends.

このように第6実施形態に係る言語割合管理システムによれば、発話という人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。   As described above, according to the language ratio management system according to the sixth embodiment, the language used by a person can be determined based on the language behavior of the person called speech. This makes it possible to determine the language used by a person at a place where an unspecified number of persons come and go.

なお、言語割合管理システム1が、多言語掲示板2、多言語キオスク8、およびマイク10の任意の組み合わせを備え、各装置により人物の利用言語を判定するようにしてもよい。また、いずれかの装置の判定結果を優先するようにしてもよい。   The language ratio management system 1 may include an arbitrary combination of the multilingual bulletin board 2, the multilingual kiosk 8, and the microphone 10, and each device may determine the language used by the person. Moreover, you may make it give priority to the determination result of either apparatus.

以上、本開示を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本開示はこれらの実施形態によって限定されるものではない。また、第1実施形態から第6実施形態を任意に組み合わせた実施形態としてもよい。また、上記実施形態に示した本開示に係る言語割合管理システムおよび言語割合管理方法の各構成要素は、必ずしも全てが必須ではなく、少なくとも本開示の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。   As mentioned above, although this indication was explained based on specific embodiments, these embodiments are illustrations to the last, and this indication is not limited by these embodiments. Moreover, it is good also as embodiment which arbitrarily combined 6th Embodiment from 1st Embodiment. In addition, each component of the language ratio management system and the language ratio management method according to the present disclosure shown in the above embodiment is not necessarily essential, and may be appropriately selected as long as it does not depart from the scope of the present disclosure. Is possible.

本開示に係る言語割合管理システムおよび言語割合管理方法は、多言語が利用される場所における利用言語の割合を管理することを可能にする言語割合管理システムおよび言語割合管理方法等として有用である。   The language ratio management system and the language ratio management method according to the present disclosure are useful as a language ratio management system, a language ratio management method, and the like that can manage the ratio of used languages in a place where multiple languages are used.

1 言語割合管理システム
2 多言語掲示板
3 カメラ
4 行動認識装置
5 言語割合管理サーバ
6 館内放送装置
7 多言語放送ロボット
8 多言語キオスク
9 人物照合装置
10 マイク
DESCRIPTION OF SYMBOLS 1 Language ratio management system 2 Multilingual bulletin board 3 Camera 4 Action recognition apparatus 5 Language ratio management server 6 In-house broadcasting apparatus 7 Multilingual broadcasting robot 8 Multilingual kiosk 9 Person collation apparatus 10 Microphone

Claims (9)

多言語が利用される場所における利用言語の割合を管理するための言語割合管理システムであって、
利用言語の割合を管理したい対象領域を撮像するカメラと、
前記カメラの撮像画像から人物を検出して追跡するとともに、前記人物の言語行動に基づき前記人物の利用言語を判定する行動認識装置と、
前記行動認識装置から、前記利用言語を示す情報を取得して記憶することにより、前記対象領域で使用されている利用言語の割合を管理する言語割合管理サーバと
を備えたことを特徴とする言語割合管理システム。
A language ratio management system for managing the ratio of languages used in a place where multiple languages are used,
A camera that captures the target area for which the percentage of languages used is to be managed;
An action recognition device that detects and tracks a person from a captured image of the camera and determines a language used by the person based on the language action of the person;
A language ratio management server that manages the ratio of the used language used in the target area by acquiring and storing information indicating the used language from the action recognition device. Percentage management system.
前記対象領域内に配置され、互いに異なる言語がそれぞれ表示される複数の表示領域を有する多言語掲示板をさらに備え、
前記行動認識装置は、前記撮像画像から前記人物の視線方向を検出するとともに、前記視線方向に基づき前記複数の表示領域のうちの前記人物が注視している表示領域を特定し、特定された前記表示領域に表示されている言語を前記人物の利用言語として判定することを特徴とする請求項1に記載の言語割合管理システム。
A multilingual bulletin board having a plurality of display areas arranged in the target area and displaying different languages from each other;
The behavior recognition device detects a gaze direction of the person from the captured image, identifies a display area in which the person is gazing out of the plurality of display areas based on the gaze direction, and identifies the identified The language ratio management system according to claim 1, wherein a language displayed in a display area is determined as a language used by the person.
前記対象領域内に配置され、多言語で操作可能な多言語キオスクをさらに備え、
前記行動認識装置は、前記人物が前記多言語キオスクを操作するときに使用した言語を前記人物の利用言語として判定することを特徴とする請求項1または請求項2に記載の言語割合管理システム。
A multilingual kiosk arranged in the target area and operable in multiple languages;
3. The language ratio management system according to claim 1, wherein the behavior recognition apparatus determines a language used when the person operates the multilingual kiosk as a language used by the person. 4.
前記対象領域内に配置されたマイクをさらに備え、
前記行動認識装置は、前記マイクにより集音された前記人物の音声に基づき、前記人物の利用言語を判定することを特徴とする請求項1ないし請求項3のいずれかに記載の言語割合管理システム。
A microphone disposed in the target area;
The language ratio management system according to claim 1, wherein the behavior recognition device determines a language used by the person based on the voice of the person collected by the microphone. .
前記対象領域に対して多言語の音声情報を音声出力する館内放送装置をさらに備え、
前記館内放送装置は、前記対象領域で使用されている利用言語の割合を示す言語割合情報を前記言語割合管理サーバに問い合わせて取得し、前記言語割合情報に基づき、音声出力する多言語の種類およびその多言語を音声出力する順番を決定することを特徴とする請求項1ないし請求項4のいずれかに記載の言語割合管理システム。
Further comprising an in-house broadcasting device for outputting multilingual audio information for the target area,
The in-house broadcasting device inquires the language ratio management server for language ratio information indicating the ratio of the used language used in the target area, acquires the language ratio information and outputs the language based on the language ratio information, The language ratio management system according to any one of claims 1 to 4, wherein an order of outputting the multilingual voice is determined.
前記対象領域において多言語の情報を出力する多言語案内ロボットをさらに備え、
前記多言語案内ロボットは、前記対象領域で使用されている利用言語の割合を示す言語割合情報を前記言語割合管理サーバに問い合わせて取得し、前記言語割合情報に基づき、出力する多言語の種類およびその多言語を出力する順番を決定することを特徴とする請求項1ないし請求項5のいずれかに記載の言語割合管理システム。
A multilingual guidance robot that outputs multilingual information in the target area;
The multilingual guidance robot inquires the language ratio management server for language ratio information indicating a ratio of the used languages used in the target area, and obtains the type of multilanguage to be output based on the language ratio information and The language ratio management system according to any one of claims 1 to 5, wherein an order of outputting the multi-language is determined.
複数の前記行動認識装置間で、前記撮像画像から検出された人物を照合するための人物照合装置をさらに備え、
前記人物照合装置は、
少なくとも1つの前記行動認識装置から、前記撮像画像から検出された人物の人物画像およびその人物の利用言語を示す情報を取得して予め記憶しておき、
前記少なくとも1つの前記行動認識装置とは別の行動認識装置から照合対象人物の人物画像を受信したときに、前記照合対象人物の人物画像を前記予め記憶した人物画像と照合し、一致する場合には、前記予め記憶した人物画像の人物の利用言語を示す情報を前記別の行動認識装置に送信することを特徴とする請求項1ないし請求項6のいずれかに記載の言語割合管理システム。
A human collation device for collating a person detected from the captured image between the plurality of behavior recognition devices;
The person verification device
From at least one of the action recognition devices, a person image of a person detected from the captured image and information indicating the language used by the person are acquired and stored in advance.
When a person image of a person to be collated is received from a behavior recognition apparatus different from the at least one action recognition apparatus, the person image of the person to be collated is compared with the person image stored in advance and matches 7. The language ratio management system according to claim 1, wherein information indicating a language used by a person of the person image stored in advance is transmitted to the another action recognition device.
前記撮像画像から検出された人物の追跡結果に基づき人物のグループを判定し、前記グループにおいて利用言語が判明している人物の利用言語を、前記グループ内の利用言語が不明な人物の利用言語とすることを特徴とする請求項1ないし請求項7のいずれかに記載の言語割合管理システム。   A group of persons is determined based on the tracking result of the person detected from the captured image, and a language used by a person whose usage language is known in the group is defined as a language used by a person whose usage language is unknown in the group. The language ratio management system according to any one of claims 1 to 7, wherein: 多言語が利用される場所における利用言語の割合を管理するための言語割合管理方法であって、
利用言語の割合を管理したい対象領域をカメラにより撮像するステップと、
前記カメラの撮像画像から人物を検出して追跡するとともに、前記人物の言語行動に基づき前記人物の利用言語を判定するステップと、
前記利用言語を示す情報を記憶することにより、前記対象領域で使用されている利用言語の割合を管理するステップと
を有することを特徴とする言語割合管理方法。
A language ratio management method for managing the ratio of languages used in a place where multiple languages are used,
Imaging the target area for which the ratio of the language used is to be managed by the camera;
Detecting and tracking a person from a captured image of the camera, and determining a language used by the person based on the language behavior of the person;
Storing the information indicating the language used to manage the rate of the language used in the target area.
JP2017066328A 2017-03-29 2017-03-29 Management system, behavior recognition device, and management method Active JP6876483B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017066328A JP6876483B2 (en) 2017-03-29 2017-03-29 Management system, behavior recognition device, and management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017066328A JP6876483B2 (en) 2017-03-29 2017-03-29 Management system, behavior recognition device, and management method

Publications (3)

Publication Number Publication Date
JP2018169788A true JP2018169788A (en) 2018-11-01
JP2018169788A5 JP2018169788A5 (en) 2020-05-07
JP6876483B2 JP6876483B2 (en) 2021-05-26

Family

ID=64018765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017066328A Active JP6876483B2 (en) 2017-03-29 2017-03-29 Management system, behavior recognition device, and management method

Country Status (1)

Country Link
JP (1) JP6876483B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190098931A (en) * 2019-08-05 2019-08-23 엘지전자 주식회사 Artificial intelligence server and method for setting language of robot
WO2021172212A1 (en) * 2020-02-26 2021-09-02 株式会社バンダイナムコアミューズメント Information system
JP2022017792A (en) * 2020-07-14 2022-01-26 三菱電機株式会社 Language determination apparatus, language determination method, and language determination program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118147A (en) * 1999-10-19 2001-04-27 Toshiba Tec Corp Product sales data processing device
JP2004114178A (en) * 2002-09-24 2004-04-15 Honda Motor Co Ltd Reception guide robot device
JP2013149050A (en) * 2012-01-19 2013-08-01 Fujitsu Ltd Target object determination device, target object determination method and program
JP2014052770A (en) * 2012-09-06 2014-03-20 Toshiba Tec Corp Signage terminal and signage system
JP2015002477A (en) * 2013-06-17 2015-01-05 キヤノン株式会社 Information processing apparatus, information processing system, and information processing method
JP2016524189A (en) * 2013-06-19 2016-08-12 コリア エアポーツ コーポレーション Multilingual information guidance system and apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001118147A (en) * 1999-10-19 2001-04-27 Toshiba Tec Corp Product sales data processing device
JP2004114178A (en) * 2002-09-24 2004-04-15 Honda Motor Co Ltd Reception guide robot device
JP2013149050A (en) * 2012-01-19 2013-08-01 Fujitsu Ltd Target object determination device, target object determination method and program
JP2014052770A (en) * 2012-09-06 2014-03-20 Toshiba Tec Corp Signage terminal and signage system
JP2015002477A (en) * 2013-06-17 2015-01-05 キヤノン株式会社 Information processing apparatus, information processing system, and information processing method
JP2016524189A (en) * 2013-06-19 2016-08-12 コリア エアポーツ コーポレーション Multilingual information guidance system and apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190098931A (en) * 2019-08-05 2019-08-23 엘지전자 주식회사 Artificial intelligence server and method for setting language of robot
KR102303785B1 (en) * 2019-08-05 2021-09-23 엘지전자 주식회사 Artificial intelligence server and method for setting language of robot
US11132995B2 (en) 2019-08-05 2021-09-28 Lg Electronics Inc. Artificial intelligence server for setting language of robot and method for the same
WO2021172212A1 (en) * 2020-02-26 2021-09-02 株式会社バンダイナムコアミューズメント Information system
JP2021135724A (en) * 2020-02-26 2021-09-13 株式会社バンダイナムコアミューズメント Information system
JP2022017792A (en) * 2020-07-14 2022-01-26 三菱電機株式会社 Language determination apparatus, language determination method, and language determination program
JP7076504B2 (en) 2020-07-14 2022-05-27 三菱電機株式会社 Language determination device, language determination method and language determination program

Also Published As

Publication number Publication date
JP6876483B2 (en) 2021-05-26

Similar Documents

Publication Publication Date Title
US11227129B2 (en) Language translation device and language translation method
CN108881976B (en) Methods and systems for displaying objects, and methods and systems for providing objects
KR102002979B1 (en) Leveraging head mounted displays to enable person-to-person interactions
US8364680B2 (en) Computer systems and methods for collecting, associating, and/or retrieving data
CN109819400B (en) User position searching method, device, equipment and medium
CN108984081A (en) A search page interaction method, device, terminal and storage medium
JP2020528705A (en) Moving video scenes using cognitive insights
KR20120102043A (en) Automatic labeling of a video session
US20050259959A1 (en) Media data play apparatus and system
JP6233798B2 (en) Apparatus and method for converting data
CN1825300A (en) Method, system and portable device for real-time provision of gallery guide and exhibit information
CN101086741A (en) Information processing apparatus and information processing method
JP2014504759A (en) Method, terminal, and computer-readable recording medium for supporting collection of objects contained in input image
JP6876483B2 (en) Management system, behavior recognition device, and management method
JP2019533181A (en) Interpretation device and method (DEVICE AND METHOD OF TRANSLATING A LANGUAGE)
US20210295550A1 (en) Information processing device, information processing method, and program
US8713008B2 (en) Apparatus and method for information processing, program, and recording medium
JP2008058276A (en) On-board device
EP2503545A1 (en) Arrangement and method relating to audio recognition
KR20210009903A (en) Method of questioning and answering and apparatuses performing the same
CN103152633A (en) Method and device for identifying key word
CN112309387A (en) Method and apparatus for processing information
KR101940289B1 (en) Video search system based on information
JP2019101751A (en) Information presentation device, information presentation system, information presentation method, and program
KR20130008278A (en) Method and apparatus for searching hand written memo data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210426

R151 Written notification of patent or utility model registration

Ref document number: 6876483

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151