JP2018169788A - Language ratio management system and language ratio management method - Google Patents
Language ratio management system and language ratio management method Download PDFInfo
- Publication number
- JP2018169788A JP2018169788A JP2017066328A JP2017066328A JP2018169788A JP 2018169788 A JP2018169788 A JP 2018169788A JP 2017066328 A JP2017066328 A JP 2017066328A JP 2017066328 A JP2017066328 A JP 2017066328A JP 2018169788 A JP2018169788 A JP 2018169788A
- Authority
- JP
- Japan
- Prior art keywords
- language
- person
- ratio
- multilingual
- ratio management
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
【課題】多言語が利用される場所における利用言語の割合を管理することを目的とする。【解決手段】言語割合管理システム1が、利用言語の割合を管理したい対象領域を撮像するカメラ3と、カメラの撮像画像から人物を検出して追跡するとともに、人物の言語行動に基づき人物の利用言語を判定する行動認識装置4と、行動認識装置から、利用言語を示す情報を取得して記憶することにより、対象領域で使用されている利用言語の割合を管理する言語割合管理サーバ5とを備えた構成とする。【選択図】図1PROBLEM TO BE SOLVED: To manage the ratio of languages used in a place where multiple languages are used. SOLUTION: A language ratio management system 1 detects and tracks a person from a camera 3 that captures a target area for which the ratio of the language used is to be managed and an image captured by the camera, and uses the person based on the language behavior of the person. The behavior recognition device 4 for determining the language and the language ratio management server 5 for managing the ratio of the language used in the target area by acquiring and storing information indicating the language used from the behavior recognition device. The configuration is provided. [Selection diagram] Fig. 1
Description
本発明は、多言語が利用される場所における利用言語の割合を管理するための言語割合管理システムおよび言語割合管理方法に関する。 The present invention relates to a language ratio management system and a language ratio management method for managing a ratio of languages used in a place where multiple languages are used.
従来、テーマパーク等の娯楽施設への入場者(人物)に対して各種言語によるサービス情報を提供することを目的として、各人物を識別するための識別情報とその人物の利用言語を示す言語情報とを予め関連付けて記憶しておき、各人物に対してその人物の利用言語でサービス情報を提供する技術が提案されている(特許文献1参照)。この特許文献1の従来技術では、人物の識別情報は、その人物に所持させた無線タグに記憶させている。
Conventionally, for the purpose of providing service information in various languages to visitors (persons) to an amusement facility such as a theme park, identification information for identifying each person and language information indicating the language used by the person Is previously associated and stored, and a technique for providing service information to each person in the language used by the person has been proposed (see Patent Document 1). In the prior art disclosed in
例えば空港や観光地等の多言語が利用される場所では、連絡や案内等の各種情報を多言語(複数の言語)で放送することが求められている。そして、多言語で放送するときは、多言語を放送する放送領域で使用されている利用言語を、その放送領域における利用言語の割合に応じた順番で放送することが望ましい。 For example, in places where multiple languages are used, such as airports and sightseeing spots, it is required to broadcast various information such as communication and guidance in multiple languages (multiple languages). When broadcasting in multiple languages, it is desirable to broadcast the languages used in the broadcasting area where the languages are broadcast in an order corresponding to the ratio of the languages used in the broadcasting area.
しかしながら、上記の特許文献1の技術では、各人物の利用言語を特定することはできるものの、放送領域で使用されている利用言語や放送領域における利用言語の割合を管理することはできなかった。なお、利用言語の割合の管理とは、対象領域で使用されている利用言語の認識、および対象領域における利用言語の割合の把握を含む。また、上記の特許文献1の技術では、各人物の識別情報と言語情報とを予め関連付けて記憶しておく必要があるため、空港や観光地等の不特定多数の人物が出入りする場所では、放送領域で使用されている利用言語を判定することはできなかった。
However, although the technique disclosed in
本開示は、このような従来技術の課題を鑑みて案出されたものであり、多言語が利用される場所における利用言語の割合を管理することを可能とする言語割合管理システムおよび言語割合管理方法を提供することを主目的とする。また、本開示は、不特定多数の人物が出入りする場所において人物の利用言語を判定することを可能とする言語割合管理システムおよび言語割合管理方法を提供することを目的とする。 The present disclosure has been devised in view of the problems of the prior art, and a language ratio management system and a language ratio management that can manage the ratio of languages used in a place where multiple languages are used. The main purpose is to provide a method. It is another object of the present disclosure to provide a language ratio management system and a language ratio management method that can determine the language used by a person at a place where an unspecified number of persons come and go.
本開示の言語割合管理システムは、多言語が利用される場所における利用言語の割合を管理するための言語割合管理システムであって、所定の対象領域を撮像するカメラと、前記カメラの撮像画像から人物を検出して追跡するとともに、前記人物の言語行動に基づき前記人物の利用言語を判定する行動認識装置と、前記行動認識装置から前記利用言語を示す情報を取得して記憶することにより、前記対象領域で使用されている利用言語の割合を管理する言語割合管理サーバとを備えたことを特徴とする。 The language ratio management system according to the present disclosure is a language ratio management system for managing a ratio of a used language in a place where multiple languages are used, and includes a camera that captures a predetermined target area, and an image captured by the camera. Detecting and tracking a person, and determining a language used by the person based on the language behavior of the person, and acquiring and storing information indicating the language used from the action recognition device, A language ratio management server that manages the ratio of languages used in the target area is provided.
本開示によれば、多言語が利用される場所における利用言語の割合を管理することが可能となる。 According to the present disclosure, it is possible to manage the ratio of languages used in a place where multiple languages are used.
上記課題を解決するためになされた第1の発明は、多言語が利用される場所における利用言語の割合を管理するための言語割合管理システムであって、利用言語の割合を管理したい対象領域を撮像するカメラと、前記カメラの撮像画像から人物を検出して追跡するとともに、前記人物の言語行動に基づき前記人物の利用言語を判定する行動認識装置と、前記行動認識装置から前記利用言語を示す情報を取得して記憶することにより、前記対象領域で使用されている利用言語の割合を管理する言語割合管理サーバとを備えたことを特徴とする。 A first invention made to solve the above problems is a language ratio management system for managing a ratio of a used language in a place where multiple languages are used, and a target area for which a ratio of the used language is to be managed is determined. A camera that captures an image; a person that is detected and tracked from an image captured by the camera; a behavior recognition device that determines a language used by the person based on the language behavior of the person; and the language used from the behavior recognition device A language ratio management server that manages the ratio of the language used in the target area by acquiring and storing information is provided.
この第1の発明に係る言語割合管理システムによれば、対象領域で使用されている利用言語の割合を言語割合管理サーバで記憶して管理することができる。これにより、多言語が利用される場所における利用言語の割合を管理することが可能となる。なお、利用言語の割合の管理とは、対象領域で使用されている利用言語の認識、および対象領域における利用言語の割合の把握を含む。 According to the language ratio management system according to the first aspect of the present invention, the ratio of the used languages used in the target area can be stored and managed by the language ratio management server. Thereby, it is possible to manage the ratio of the language used in a place where multiple languages are used. Note that the management of the ratio of the language used includes recognition of the language used in the target area and grasping the ratio of the language used in the target area.
また、第2の発明は、上記第1の発明において、前記対象領域内に配置され、互いに異なる言語がそれぞれ表示される複数の表示領域を有する多言語掲示板をさらに備え、前記行動認識装置は、前記撮像画像から前記人物の視線方向を検出するとともに、前記視線方向に基づき前記複数の表示領域のうちの前記人物が注視している表示領域を特定し、特定された前記表示領域に表示されている言語を前記人物の利用言語として判定することを特徴とする。 The second invention further includes a multilingual bulletin board having a plurality of display areas arranged in the target area and displaying different languages, respectively, in the first invention, wherein the action recognition device comprises: The line-of-sight direction of the person is detected from the captured image, and the display area in which the person is gazing out of the plurality of display areas is identified based on the line-of-sight direction, and is displayed in the identified display area The language is determined as the language used by the person.
この第2の発明に係る言語割合管理システムによれば、多言語掲示板の表示領域を視認するという人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。 According to the language ratio management system according to the second aspect of the present invention, it is possible to determine the language used by the person based on the language behavior of the person viewing the display area of the multilingual bulletin board. This makes it possible to determine the language used by a person at a place where an unspecified number of persons come and go.
また、第3の発明は、上記第1の発明または第2の発明において、前記対象領域内に配置され、多言語で操作可能な多言語キオスクをさらに備え、前記行動認識装置は、前記人物が前記多言語キオスクを操作するときに使用した言語を前記人物の利用言語として判定することを特徴とする。 The third invention further includes a multilingual kiosk arranged in the target area and operable in multiple languages in the first invention or the second invention, wherein the action recognition device The language used when operating the multilingual kiosk is determined as the language used by the person.
この第3の発明に係る言語割合管理システムによれば、多言語キオスクを操作するという人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。 According to the language ratio management system according to the third aspect of the present invention, the language used by the person can be determined based on the person's language behavior of operating the multilingual kiosk. This makes it possible to determine the language used by a person at a place where an unspecified number of persons come and go.
また、第4の発明は、上記第1の発明ないし第3の発明のいずれかにおいて、前記対象領域内に配置されたマイクをさらに備え、前記行動認識装置は、前記マイクにより集音された前記人物の音声に基づき、前記人物の利用言語を判定することを特徴とする。 Moreover, 4th invention is further provided with the microphone arrange | positioned in the said object area | region in any one of the said 1st invention thru | or 3rd invention, The said action recognition apparatus is the said sound-collected by the said microphone The language used by the person is determined based on the voice of the person.
この第4の発明に係る言語割合管理システムによれば、発話という人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。 According to the language ratio management system according to the fourth aspect of the present invention, the language used by the person can be determined based on the language behavior of the person called speech. This makes it possible to determine the language used by a person at a place where an unspecified number of persons come and go.
また、第5の発明は、上記第1の発明ないし第4の発明のいずれかにおいて、前記対象領域に対して多言語の音声情報を音声出力する館内放送装置をさらに備え、前記館内放送装置は、前記対象領域で使用されている利用言語の割合を示す言語割合情報を前記言語割合管理サーバに問い合わせて取得し、前記言語割合情報に基づき、音声出力する多言語の種類およびその多言語を音声出力する順番を決定することを特徴とする。 In addition, a fifth invention further includes an in-house broadcasting device that outputs multilingual audio information to the target area in any one of the first to fourth inventions, and the in-house broadcasting device includes: The language ratio information indicating the ratio of the used languages used in the target area is obtained by inquiring the language ratio management server, and based on the language ratio information, the type of multi-language to be output as a voice and the multi-language as a voice The output order is determined.
この第5の発明に係る言語割合管理システムによれば、館内放送装置が音声出力する多言語の種類およびその多言語を音声出力する順番を、対象領域で使用されている利用言語の割合を示す言語割合情報に基づき決定することが可能となる。 According to the language ratio management system according to the fifth aspect of the present invention, the type of multi-language that the in-house broadcasting apparatus outputs sound and the order in which the multi-language is sound-outputted indicate the ratio of the language used in the target area. It becomes possible to determine based on the language ratio information.
また、第6の発明は、上記第1の発明ないし第5の発明において、前記対象領域において多言語の情報を出力する多言語案内ロボットをさらに備え、前記多言語案内ロボットは、前記対象領域で使用されている利用言語の割合を示す言語割合情報を前記言語割合管理サーバに問い合わせて取得し、前記言語割合情報に基づき、出力する多言語の種類およびその多言語を出力する順番を決定することを特徴とする。 The sixth invention further includes a multilingual guide robot that outputs multilingual information in the target area in the first to fifth inventions, wherein the multilingual guide robot is the target area. Querying and obtaining the language ratio information indicating the ratio of the used language being used from the language ratio management server, and determining the type of multi-language to be output and the order of outputting the multi-language based on the language ratio information. It is characterized by.
この第6の発明に係る言語割合管理システムによれば、多言語案内ロボットが出力する多言語の種類およびその多言語を出力する順番を、対象領域で使用されている利用言語の割合を示す言語割合情報に基づき決定することが可能となる。 According to the language ratio management system according to the sixth aspect of the present invention, the language indicating the ratio of the used languages used in the target area, the type of the multilingual output by the multilingual guidance robot, and the order in which the multilingual is output. It becomes possible to determine based on the ratio information.
また、第7の発明は、上記第1の発明ないしの第6の発明において、複数の前記行動認識装置間で、前記撮像画像から検出された人物を照合するための人物照合装置をさらに備え、前記人物照合装置は、少なくとも1つの前記行動認識装置から、前記撮像画像から検出された人物の人物画像およびその人物の利用言語を示す情報を取得して予め記憶しておき、前記少なくとも1つの前記行動認識装置とは別の行動認識装置から照合対象人物の人物画像を受信したときに、前記照合対象人物の人物画像を前記予め記憶した人物画像と照合し、一致する場合には、前記予め記憶した人物画像の人物の利用言語を示す情報を前記別の行動認識装置に送信することを特徴とする。 In addition, a seventh invention further includes a person verification device for verifying a person detected from the captured image among the plurality of behavior recognition devices in the first to sixth inventions, The person verification device acquires and stores in advance information indicating a person image of the person detected from the captured image and a language used by the person from at least one of the action recognition apparatuses, and stores the at least one of the at least one of the action recognition devices. When a person image of a person to be collated is received from a behavior recognition apparatus different from the action recognition apparatus, the person image of the person to be collated is collated with the person image stored in advance, and if they match, the person image is stored in advance. The information indicating the language used by the person in the person image is transmitted to the another action recognition device.
この第7の発明に係る言語割合管理システムによれば、複数の行動認識装置間で、撮像画像から検出された人物を照合することができるので、複数の行動認識装置間で、人物の利用言語を示す情報を共有することが可能となる。 According to the language ratio management system according to the seventh aspect, since the person detected from the captured image can be collated between the plurality of action recognition devices, the language used by the person between the plurality of action recognition devices. Can be shared.
また、第8の発明は、上記第1の発明ないしの第7の発明において、前記撮像画像から検出された人物の追跡結果に基づき人物のグループを判定し、前記グループにおいて利用言語が判明している人物の利用言語を、前記グループ内の利用言語が不明な人物の利用言語とすることを特徴とする。 According to an eighth aspect of the present invention, in the first to seventh aspects of the present invention, a group of persons is determined based on a tracking result of the person detected from the captured image, and a language used is found in the group. The language used by a person is the language used by a person whose language in the group is unknown.
この第8の発明に係る言語割合管理システムによれば、グループにおいて少なくとも1人の利用言語が判明した場合に、その利用言語をそのグループ内の利用言語が不明な利用言語とすることが可能となる。 According to the language ratio management system according to the eighth aspect of the present invention, when at least one used language is found in a group, the used language can be changed to an unknown used language in the group. Become.
また、第9の発明は、多言語が利用される場所における利用言語の割合を管理するための言語割合管理方法であって、利用言語の割合を管理したい対象領域をカメラにより撮像するステップと、前記カメラの撮像画像から人物を検出して追跡するとともに、前記人物の言語行動に基づき前記人物の利用言語を判定するステップと、前記利用言語を示す情報を記憶することにより、前記対象領域で使用されている利用言語の割合を管理するステップとを有することを特徴とする。 Further, a ninth invention is a language ratio management method for managing a ratio of used languages in a place where multiple languages are used, and imaging a target area for which a ratio of used languages is to be managed by a camera; Detecting and tracking a person from a captured image of the camera, determining a language used by the person based on the language behavior of the person, and storing information indicating the language used in the target area And a step of managing a ratio of used languages.
この第9の発明に係る言語割合管理方法によれば、対象領域で使用されている利用言語の割合を記憶して管理することができる。これにより、多言語が利用される場所における利用言語の割合を管理することが可能となる。 According to the language ratio management method according to the ninth aspect of the present invention, the ratio of the used languages used in the target area can be stored and managed. Thereby, it is possible to manage the ratio of the language used in a place where multiple languages are used.
以下、本開示の実施形態について、図面を参照しながら説明する。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
(第1実施形態)
図1は、本開示の第1実施形態に係る言語割合管理システム1の概略構成を示す模式図である。図1に示すように、言語割合管理システム1は、多言語掲示板2、カメラ3、行動認識装置4、言語割合管理サーバ5と、館内放送装置6とを主として備えている。行動認識装置4は、専用通信回線またはインターネット等の通信ネットワークを介して、多言語掲示板2、カメラ3、および言語割合管理サーバ5に接続されている。また、言語割合管理サーバ5は、専用通信回線またはインターネット等の通信ネットワークを介して、館内放送装置6に接続されている。
(First embodiment)
FIG. 1 is a schematic diagram illustrating a schematic configuration of a language
本実施形態では、言語割合管理システム1を、空港や駅等の施設に適用した場合について説明する。なお、本開示に係る言語割合管理システム1は、空港や駅等以外にも、ショッピングセンターや観光地等の様々な対象に適用可能である。
This embodiment demonstrates the case where the language
図2は、言語割合管理システム1の変形例を示す図である。図2に示すように、言語割合管理システム1は、多言語掲示板2、カメラ3、行動認識装置4を複数備えていてもよい。図2の例では、多言語掲示板2、カメラ3、行動認識装置4をそれぞれ2つずつ備えており、行動認識装置4Aには多言語掲示板2Aおよびカメラ3Aが接続され、行動認識装置4Bには多言語掲示板2Bおよびカメラ3Bが接続されている。そして、行動認識装置4Aおよび行動認識装置4Bは、言語割合管理サーバ5に接続されている。
FIG. 2 is a diagram illustrating a modification of the language
多言語掲示板2は、公知の構成を有する電光掲示板であり、空港や駅等の施設のフロアFの適所に配置されている。そして、多言語掲示板2は、図示しない情報管理センター等からの命令に基づき、フロアFに存在する人物Hに対して、連絡や案内等の各種情報を多言語で表示して提供する。
The
図3は、多言語掲示板2の機能ブロック図である。図3に示すように、多言語掲示板2は、連絡や案内等の各種情報を多言語によりそれぞれ表示する複数の領域を有する表示部11(図4(a)参照)と、表示部11の各領域の表示を管理する表示管理部12と、表示部11の各領域で表示されている言語を示す表示言語情報を行動認識装置4に通知する表示言語提供部13とを有している。表示部11は、例えばLEDパネルや液晶パネル表示部等から構成される。
FIG. 3 is a functional block diagram of the
図4(a)は、表示部11の複数の領域の一例を示す図であり、図4(b)は、表示言語情報の一例を示す図である。図4(a)の例では、表示部11は、日本語による案内を表示する領域1、英語による案内を表示する領域2、中国語による案内を表示する領域3の3つの領域を有している。したがって、この場合の表示言語情報は、「領域1が日本語、領域2が英語、領域3が中国語」となる。
FIG. 4A is a diagram illustrating an example of a plurality of areas of the
カメラ3は、公知の撮像機能や通信機能を有する撮像装置であり、多言語掲示板2の近傍の壁や天井等に設置され、多言語掲示板2の周辺の予め定められた撮像領域(対象領域)を静止画像または動画像として時系列に撮像する。カメラ3の撮像画像(静止画像または動画像)は、行動認識装置4に適宜送信される。なお、カメラ3は、予め定められた撮像領域を撮像可能な限りにおいて、その形態、機能、配置、数量等については、特に限定されるものではなく種々の変更が可能である。
The
行動認識装置4は、公知の構成を有するコンピュータからなり、カメラ3の撮像画像から人物を検出して追跡するとともに、その人物の言語行動に基づきその人物の利用言語を判定する。言語行動とは、人物が、言語を利用して、各種情報を読んだり、書いたり(タッチパネル等を介した入力を含む)、話したり、聞いたりする行動のことである。
The
図5は、行動認識装置4の機能ブロック図である。図5に示すように、行動認識装置4は、カメラ3から撮像画像を取得する画像取得部21と、撮像画像から人物を検出する人物検出部22と、撮像画像中における人物領域(以降、「画像人物領域」とも称する)をフロアFの地図データであるフロアマップの位置座標に変換する位置座標変換部23と、撮像画像(現フレーム画像)から検出された人物が前フレーム画像で検出された人物と同一であるか否かを判定する同一人物判定部24と、言語割合管理サーバ5と接続する言語割合管理サーバ接続部25と、画像取得部21が取得した撮像画像および後述する人物情報管理テーブルを格納する記憶部26とを有している。撮像画像は、前フレーム画像(前画像)または現フレーム画像(現画像)として、記憶部26に格納される。
FIG. 5 is a functional block diagram of the
また、行動認識装置4は、多言語掲示板2と接続する多言語掲示板接続部27、撮像画像から検出された人物の視線方向を該撮像画像から検出する視線方向検出部28と、視線方向検出部28で検出された人物の視線方向および多言語掲示板2から取得した表示言語情報に基づきその人物の利用言語を判定する利用言語判定部29と、利用言語判定部29に接続された言語判定テーブル30とを有している。視線方向検出部28は、撮像画像から人物の顔の向きを検出し、検出された顔の向きをその人物の視線方向とする。利用言語判定部29は、各フレーム画像における判定結果を言語判定テーブル30に記録し、記録された判定結果に基づき人物の利用言語を判定する。
The
図6は、人物情報管理テーブルの一例を示す図である。図6に示すように、人物情報管理テーブルには、人物IDに紐付けて、人物検出部22で検出された人物の画像人物領域、位置座標変換部23で変換された位置座標、利用言語判定部29で判定された利用言語が記録されている。
FIG. 6 is a diagram illustrating an example of the person information management table. As shown in FIG. 6, in the person information management table, an image person area of a person detected by the
図7は、言語判定テーブル30の一例を示す図である。図7に示すように、言語判定テーブル30には、人物IDに紐付けて、人物が多言語掲示板2を注視した領域である着目領域と、連続するフレームにおいてその着目領域を連続して注視した回数である継続回数が記録されている。
FIG. 7 is a diagram illustrating an example of the language determination table 30. As shown in FIG. 7, in the language determination table 30, a region of interest, which is a region where a person gazes at the
言語割合管理サーバ5は、公知の構成を有するサーバからなり、行動認識装置4から人物の位置座標と利用言語を含む人物情報を取得して言語割合管理テーブル(図9参照)に記憶することにより、カメラ3の撮像領域(対象領域)で使用されている利用言語の割合を管理する。なお、利用言語の割合の管理とは、対象領域で使用されている利用言語の認識、および対象領域における利用言語の割合の把握を含む。
The language
図8は、言語割合管理サーバ5の機能ブロック図である。図8に示すように、言語割合管理サーバ5は、行動認識装置4(4A、4B)から人物情報を受信する人物情報受信部31と、言語割合管理テーブルを格納する記憶部32と、館内放送装置6から、対象領域で使用されている利用言語の割合についての問い合わせを受信したときに、その問い合わせに応じた言語割合情報を作成する言語割合管理部33と、館内放送装置6からの問い合わせの受信、および言語割合管理部33で作成した言語割合情報の館内放送装置6への送信を行う言語割合送出部34とを有している。上述したように、言語割合管理システム1は、複数の行動認識装置4を備えていてもよい。図8に示す言語割合管理サーバ5は、2つの行動認識装置4A、4Bから人物情報を取得して管理している。
FIG. 8 is a functional block diagram of the language
図9は、言語割合管理テーブルの一例を示す図である。図9に示すように、言語割合管理テーブルは、行動認識装置4に対して付与した装置IDに紐付けて、撮像画像中における人物領域(画像人物領域)をフロアマップの位置座標に変換した位置座標と、人物の利用言語とを記憶している。図9の例では、行動認識装置4Aに、装置ID「1」が付与され、行動認識装置4Bに装置ID「2」が付与されている。
FIG. 9 is a diagram illustrating an example of the language ratio management table. As shown in FIG. 9, the language ratio management table is a position obtained by converting a person area (image person area) in a captured image into position coordinates of a floor map in association with the apparatus ID assigned to the
図10は、言語割合管理サーバ5で作成する言語割合情報の一例を示す図である。言語割合情報は、館内放送装置6から問い合わせられた対象領域に含まれている位置座標に対応する利用言語を集計して作成する。図10の例では、対象領域の利用言語の割合は、英語が20人、日本語が11人、中国語が23人、韓国語が3人、不明が15人となっている。なお、図10の例では、利用言語の割合を人数で表したが、パーセンテージで表すようにしてもよい。また、予め定められた閾値以下の言語を足切りするようにしてもよい。
FIG. 10 is a diagram illustrating an example of language ratio information created by the language
館内放送装置6は、公知の構成を有する放送装置であり、対象領域に対して多言語の音声情報(連絡や案内等の各種情報)を音声出力する。
The in-
図11は、館内放送装置6の機能ブロック図である。図11に示すように、館内放送装置6は、館内放送装置6のユーザが音声を入力する音声入力部41と、ユーザが入力した音声を認識する音声認識部42と、言語割合管理サーバ5に問い合わせて対象領域の言語割合情報を取得する言語割合取得部43と、ユーザが入力した音声を言語割合情報に基づき決定された多言語に翻訳する翻訳部44と、翻訳された多言語の合成音声を作成する音声合成部45と、作成された合成音声を音声出力(再生)する音声出力部46とを有している。
FIG. 11 is a functional block diagram of the in-
また、館内放送装置6は、言語割合管理サーバ5に問い合わせて言語割合情報を取得する領域(すなわち対象領域)である言語割合取得領域および多言語の再生順序を設定するための表示入力パネル47と、表示入力パネル47で設定された言語割合取得領域および多言語再生順序をそれぞれ記憶する言語割合取得領域設定テーブルおよび多言語再生順序設定テーブルを格納した記憶部48とを有している。また、記憶部48には、言語割合取得領域の候補を予め記憶した領域情報テーブルが格納されている。
The in-
図12は、館内放送装置6の記憶部48に記憶される領域情報テーブルの一例を示す図である。図13は、フロアFの地図データであるフロアマップの一例を示す図である。図13の例では、フロアFには、2つの多言語掲示板2A、2B(以降、単に、「掲示板A」、「掲示板B」とも称する)が設けられている。この場合、領域情報テーブルは、「フロア全体」、「掲示板A周辺」、および「掲示板B周辺」の3つの領域を示す領域名と、各々の領域を特定する領域情報とを、言語割合取得領域(対象領域)の候補として予め記憶している。
FIG. 12 is a diagram illustrating an example of the area information table stored in the
図14は、館内放送装置6のユーザが、言語割合取得領域を設定する設定画面を示す図である。図14の例では、言語割合取得領域としてフロア全体が選択され設定されている。したがって、この場合は、館内放送装置6は、フロア全体についての言語割合情報を、言語割合管理サーバ5に問い合わせて取得する。
FIG. 14 is a diagram showing a setting screen on which the user of the in-
図15は、館内放送装置6のユーザが、多言語再生順序を設定する設定画面を示す図である。図15の例では、再生順序の1番目は日本語、2番目は英語、3番目は言語割合情報における割合1位の言語、4番目は言語割合情報における割合2位の言語、5番目と6番目は未選択(無し)と設定されている。したがって、図15の例では、再生順序の1番目から4番目までの4つの言語で音声情報が再生される。なお、言語割合情報における割合1位の言語および割合2位の言語は、事前に1番目、2番目として設定された日本語と英語以外の言語における割合1位の言語と割合2位の言語とするとよい。
FIG. 15 is a diagram showing a setting screen for setting the multilingual reproduction order by the user of the in-
図16は、館内放送装置6の記憶部48に記憶される言語割合取得領域設定テーブルの一例を示す図である。言語割合取得領域設定テーブルには、図14に示した言語割合取得領域の設定画面で設定された言語割合取得領域が記録される。図16の例では、言語割合取得領域は「フロア全体」であると記憶されている。
FIG. 16 is a diagram illustrating an example of a language ratio acquisition area setting table stored in the
図17は、館内放送装置6の記憶部48に記憶される多言語再生順序設定テーブルの一例を示す図である。多言語再生順序テーブルには、図15に示した多言語再生順序の設定画面で設定された再生順序が記録されている。図17の例では、再生順序は、「1番目は日本語、2番目は英語、3番目は言語割合情報における割合1位の言語、4番目は言語割合情報における割合2位の言語」であると記憶されている。
FIG. 17 is a diagram illustrating an example of a multilingual reproduction order setting table stored in the
図18は、第1実施形態に係る行動認識装置4における一連の処理を示すフロー図である。
FIG. 18 is a flowchart showing a series of processes in the
まず、ステップST101では、カメラ3から、多言語掲示板2の周辺の予め定められた撮像領域(対象領域)の撮像画像を取得し、現フレーム画像(現画像)として、記憶部26に格納する。
First, in step ST101, a captured image of a predetermined imaging region (target region) around the
次に、ステップST102では、撮像画像に基づき、人物情報管理テーブル(図6参照)の画像人物領域および位置座標を更新する人物位置情報更新処理を行う。この人物位置情報更新処理の詳細は、図19のフロー図を参照して後述する。 Next, in step ST102, person position information update processing is performed to update the image person area and position coordinates of the person information management table (see FIG. 6) based on the captured image. Details of the person position information update processing will be described later with reference to the flowchart of FIG.
続いて、ステップST103では、撮像画像から検出された人物の利用言語を判定する利用言語判定処理を行う。この利用言語判定処理の詳細は、図20のフロー図を参照して後述する。 Subsequently, in step ST103, a use language determination process for determining the use language of the person detected from the captured image is performed. Details of the use language determination processing will be described later with reference to the flowchart of FIG.
次に、ステップST104では、言語割合管理サーバ5の言語割合管理テーブル(図9参照)に記憶されている人物情報(位置座標および利用言語)の更新処理を行う。具体的には、記憶部26に格納されている人物情報管理テーブル(図6参照)に記憶されている人物情報(位置座標および利用言語)を言語割合管理サーバ5に送信し、言語割合管理サーバ5の言語割合管理テーブルに記憶されている人物情報を更新するか、または言語割合管理テーブルに追加して記録する。
Next, in step ST104, the personal information (position coordinates and language used) stored in the language ratio management table (see FIG. 9) of the language
そして、ステップST105では、撮像画像を前フレーム画像として記憶部26に格納し、その後、ステップST101に戻る。
In step ST105, the captured image is stored in the
図19は、行動認識装置4での人物位置情報更新処理(図18のステップST102)を説明するためのフロー図である。
FIG. 19 is a flowchart for explaining person position information update processing (step ST102 in FIG. 18) in the
まず、ステップST201では、現フレーム画像から人物領域(画像人物領域)を検出する。現フレーム画像からの人物領域の検出は、人物の特徴量に基づく手法等の公知の手法を用いて行うとよい。 First, in step ST201, a person area (image person area) is detected from the current frame image. The detection of the person region from the current frame image may be performed using a known method such as a method based on the feature amount of the person.
次に、ステップST202では、人物領域(画像人物領域)を、フロアFの地図データであるフロアマップの位置座標に変換する。具体的には、人物領域の中心または重心の座標を位置座標とするとよい。 Next, in step ST202, the person area (image person area) is converted into floor map position coordinates, which are map data of the floor F. Specifically, the coordinates of the center or the center of gravity of the person area may be set as the position coordinates.
続いて、ステップST203では、現フレーム画像で検出された人物が、前フレーム画像に存在するか否かを判定する。この判定は、上記のステップST201の場合と同様に、人物の特徴量に基づく手法等の公知の手法を用いて行うとよい。前フレーム画像に同一人物が存在すると判定された場合(ステップST203:Yes)はステップST204に進み、前フレーム画像に同一人物が存在しないと判定された場合(ステップST203:No)はステップST205に進む。 Subsequently, in step ST203, it is determined whether or not a person detected in the current frame image exists in the previous frame image. This determination may be performed using a known method such as a method based on the feature amount of a person, as in step ST201 described above. If it is determined that the same person exists in the previous frame image (step ST203: Yes), the process proceeds to step ST204. If it is determined that the same person does not exist in the previous frame image (step ST203: No), the process proceeds to step ST205. .
ステップST204では、記憶部26に格納されている人物情報管理テーブル(図6参照)における該当人物IDの位置座標と画像人物領域を更新し、その後、ステップST206に進む。
In step ST204, the position coordinates of the corresponding person ID and the image person area in the person information management table (see FIG. 6) stored in the
ステップST205では、人物情報管理テーブルに人物IDを追加し、その追加した人物IDに紐付けて画像人物領域および位置座標を記録し、その後、ステップST206に進む。 In step ST205, a person ID is added to the person information management table, the image person area and the position coordinates are recorded in association with the added person ID, and then the process proceeds to step ST206.
ステップST206では、人物情報管理テーブルにおける更新されていない人物IDを削除し、処理を終了する。これにより、現フレーム画像において存在しない人物の人物情報は削除される。上記のステップST202−205は、現フレーム画像から検出された人物領域毎に繰り返される。 In step ST206, the person ID that has not been updated in the person information management table is deleted, and the process ends. Thereby, the person information of the person who does not exist in the current frame image is deleted. The above steps ST202-205 are repeated for each person area detected from the current frame image.
図20は、行動認識装置4での利用言語判定処理(図18のステップST103)を説明するためのフロー図である。以下の処理は、上記の人物位置情報更新処理で更新または追加された人物ID毎に繰り返される。
FIG. 20 is a flowchart for explaining the use language determination processing (step ST103 in FIG. 18) in the
まず、ステップST301では、現フレーム画像から、人物の視線方向を検出する。具体的には、現フレーム画像の画像人物領域から、統計的または非統計的識別器を用いる手法やテンプレートマッチングを用いる手法等の公知の手法を用いてその人物の顔領域を検出するとともに、顔領域から公知の手法を用いて顔特徴量を抽出する。そして、抽出された顔特徴量に基づき、予め用意した統計的または非統計的識別器を用いて顔の向きを検出し、検出された人物の顔の向きをその人物の視線方向とする。 First, in step ST301, the gaze direction of a person is detected from the current frame image. Specifically, the face area of the person is detected from the image person area of the current frame image using a known technique such as a technique using a statistical or non-statistic classifier or a technique using template matching. A face feature amount is extracted from the region using a known method. Then, based on the extracted facial feature quantity, a face direction is detected using a statistical or non-statistical classifier prepared in advance, and the detected face direction of the person is set as the line-of-sight direction of the person.
次に、ステップST302では、検出された人物の視線方向に基づき、多言語掲示板の表示部における着目領域を検出する。着目領域とは、人物が注視している領域のことである。 Next, in step ST302, the attention area in the display part of a multilingual bulletin board is detected based on the detected gaze direction of the person. A region of interest is a region where a person is gazing.
続くステップST303では、着目領域が検出されたか否かを判定する。着目領域が検出されなかったと判定された場合(ステップST303:No)はステップST304に進み、着目領域が検出されたと判定された場合(ステップST303:Yes)はステップST305に進む。 In a succeeding step ST303, it is determined whether or not a region of interest is detected. When it is determined that the region of interest has not been detected (step ST303: No), the process proceeds to step ST304, and when it is determined that the region of interest has been detected (step ST303: Yes), the process proceeds to step ST305.
ステップST304では、着目領域が検出されなかったため、言語判定テーブル(図7参照)の着目領域を「無し」、継続回数を「0」に更新し、その後、処理を終了する。 In step ST304, since the region of interest has not been detected, the region of interest in the language determination table (see FIG. 7) is updated to “none”, the number of continuations is updated to “0”, and then the process ends.
ステップST305では、着目領域が前フレーム画像と同一であるか否かを判定する。同一ではないと判定された場合(ステップST305:No)はステップST306に進み、同一であると判定された場合(ステップST305:Yes)はステップST307に進む。 In step ST305, it is determined whether the region of interest is the same as the previous frame image. When it is determined that they are not the same (step ST305: No), the process proceeds to step ST306, and when it is determined that they are the same (step ST305: Yes), the process proceeds to step ST307.
ステップST306では、新規の着目領域を追加し、その着目領域に紐付けて、継続回数「1」を記録し、その後、処理を終了する。 In step ST306, a new region of interest is added, linked to the region of interest, the continuation count “1” is recorded, and then the process ends.
ステップST307では、該当する着目領域の継続回数を「1」増加させる。 In step ST307, the number of continuations of the target region of interest is increased by “1”.
続くステップST308では、継続回数が閾値以上になったか否かを判定する。閾値以上ではないと判定された場合(ステップST308:No)は処理を終了し、閾値以上であると判定された場合(ステップST308:Yes)はステップST309に進む。 In a succeeding step ST308, it is determined whether or not the number of continuations has exceeded a threshold value. If it is determined that the threshold value is not greater than or equal to the threshold value (step ST308: No), the process ends. If it is determined that the threshold value is equal to or greater than the threshold value (step ST308: Yes), the process proceeds to step ST309.
ステップST309では、その着目領域に対応する言語を、人物情報管理テーブルの利用言語の欄に記録し、その後、処理を終了する。領域に対応する言語は、表示言語情報(図4(b)参照)に基づき判定する。これにより、人物の利用言語が判定される。 In step ST309, the language corresponding to the region of interest is recorded in the column of language used in the person information management table, and then the process ends. The language corresponding to the area is determined based on the display language information (see FIG. 4B). As a result, the language used by the person is determined.
次に、言語割合管理サーバ5の動作について説明する。
Next, the operation of the language
言語割合管理サーバ5は、行動認識装置4から、人物の位置座標および利用言語を含む人物情報を受信すると、その人物情報を言語割合管理テーブル(図9参照)に記録する。上述したように、人物情報は、行動認識装置4の装置IDに紐付けて記憶される。そして、館内放送装置6から、対象領域で使用されている利用言語の割合についての問い合わせを受信したときに、対象領域で使用されている利用言語の割合を示す言語割合情報(図10参照)を作成し、館内放送装置6に送信する。
When the language
次に、館内放送装置6の動作について説明する。
Next, the operation of the in-
まず、館内放送装置6のユーザは、館内放送装置6の表示入力パネル47に表示した各設定画面(図14および図15参照)を操作して、言語割合取得領域および多言語再生順序を設定する。言語割合取得領域は、ユーザが、設定画面に表示された言語割合取得領域の候補から、所望する言語割合取得領域を選択することにより設定される。設定された言語割合取得領域は、言語割合取得領域設定テーブル(図16参照)に記憶される。多言語再生順序は、ユーザが、設定画面を操作して再生順序を指定することにより設定される。設定された再生順序は、多言語再生順序設定テーブル(図17参照)に記憶される。
First, the user of the in-
館内放送装置6は、対象領域(放送領域)に対して多言語の音声情報を音声出力するときは、対象領域の利用言語の割合を言語割合管理サーバ5に問い合わせて言語割合情報を取得し、取得した言語割合情報に基づき、音声出力する多言語の種類およびその多言語を音声出力する順番を決定する。これにより、対象領域で使用されている利用言語を、その対象領域における利用言語の割合に応じて放送することができる。
When the in-
以上のように、第1実施形態に係る言語割合管理システムによれば、対象領域で使用されている利用言語の割合を言語割合管理サーバ5で記憶して管理することにより、多言語が利用される場所における利用言語の割合を管理することが可能となる。
As described above, according to the language ratio management system according to the first embodiment, the language
また、第1実施形態に係る言語割合管理システムによれば、多言語掲示板2の表示領域を視認するという人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。
Further, according to the language ratio management system according to the first embodiment, it is possible to determine the language used by the person based on the language behavior of the person viewing the display area of the
また、第1実施形態に係る言語割合管理システムによれば、館内放送装置6が音声出力する多言語の種類およびその多言語を音声出力する順番を、対象領域で使用されている利用言語の割合を示す言語割合情報に基づき決定することが可能となる。
In addition, according to the language ratio management system according to the first embodiment, the ratio of the languages used in the target area is set according to the types of multi-languages that the in-
(第2実施形態)
次に、本開示の第2実施形態に係る言語割合管理システム1について説明する。なお、この第2実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
(Second Embodiment)
Next, the language
図21は、第2実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第2実施形態は、館内放送装置6の代わりに多言語案内ロボット7を備えている点が、上記の第1実施形態と異なる。
FIG. 21 is a schematic diagram illustrating a schematic configuration of the language
多言語案内ロボット7(以降、単に「ロボット7」と称する)は、現在位置を把握しながらフロアFを自律走行し、予め記憶した多言語の案内音声(音声情報)を、ロボット7を中心とした予め定められた範囲の領域(対象領域)に対して音声出力する。音声出力する多言語の種類およびその多言語を放送する順番は、上記の館内放送装置6の場合と同様に、対象領域で使用されている利用言語の割合に基づき決定する。
The multilingual guidance robot 7 (hereinafter simply referred to as “
図22は、多言語案内ロボット7の機能ブロック図である。図22に示すように、多言語案内ロボット7は、該ロボット7を駆動する駆動部51と、該ロボット7の現在位置を把握する現在位置把握部52と、言語割合取得領域設定テーブル、多言語再生順序設定テーブル、および多言語の案内情報(音声情報や文字情報)を格納した記憶部53と、言語割合管理サーバ5から言語割合情報を取得する言語割合取得部54と、多言語の案内情報を出力する出力部55とを備えている。出力部55は、スピーカによって音声を再生出力したり、文字情報などをロボット7が備えるディスプレイに表示出力したりするものである。
FIG. 22 is a functional block diagram of the
言語割合取得領域(すなわち対象領域)は、ロボット7の位置座標を中心とした予め定められた半径Rの範囲の円領域である。半径Rは適宜設定される。図23は、ロボット7の言語割合取得領域の一例を示す図である。図23の例では、ロボット7の現在位置の座標(1500、550)を中心とした半径Rの範囲の円領域が、言語割合取得領域となる。
The language ratio acquisition region (that is, the target region) is a circular region having a predetermined radius R around the position coordinate of the
図24は、ロボット7での多言語案内処理を説明するためのフロー図である。下記の処理は、ロボット7の記憶部53に予め設定されたプログラム(例えば多言語案内プログラム)、または図示しない情報管理センター等からの命令に基づき、ロボット7が多言語の案内情報(連絡や案内等の各種情報の音声情報や文字情報)を出力するときに開始される。
FIG. 24 is a flowchart for explaining multilingual guidance processing in the
まず、ステップST401では、現在位置把握部52によりロボット7の現在位置を把握するとともに、現在位置の位置座標および予め定められた半径Rに基づき言語割合取得領域を決定する。上述したように、言語割合取得領域は、現在の位置座標を中心とした半径Rの範囲の円領域となる。
First, in step ST401, the current
次に、ステップST402では、言語割合取得領域(対象領域)で使用されている利用言語の割合を言語割合管理サーバ5に問い合わせ、言語割合管理サーバ5から、対象領域で使用されている利用言語の割合を示す言語割合情報を取得する。
Next, in step ST402, the language
続いて、ステップST403では、言語割合管理サーバ5から取得した言語割合情報および多言語再生順序設定に基づき、言語再生順序を決定する。多言語再生順序設定は、上記の館内放送装置6の場合と同様に、ユーザにより予め設定されている。
Subsequently, in step ST403, the language reproduction order is determined based on the language ratio information acquired from the language
そして、ステップST404では、決定された言語再生順序に従って案内情報の出力(案内音声の再生や文字情報の表示)を行い、その後、処理を終了する。 In step ST404, guidance information is output (reproduction of guidance voice or display of character information) in accordance with the determined language reproduction order, and then the process ends.
このように第2実施形態に係る言語割合管理システムによれば、ロボット7が出力する多言語の種類およびその多言語を出力する順番を、対象領域で使用されている利用言語の割合を示す言語割合情報に基づき決定することが可能となる。なお、第1実施形態の館内放送装置と第2実施形態の多言語案内ロボット7とを併用するようにしてもよい。
As described above, according to the language ratio management system according to the second embodiment, the language indicating the ratio of the used languages used in the target area, the type of the multi-language output by the
また、上記の例では、ロボット7の現在位置の位置座標および予め定められた半径Rの範囲の領域における利用言語の割合に基づいて、ロボット7が出力する言語の種類を決定したが、ロボット7の正面に位置する人物を検出し、ロボット7がその人物の利用言語を言語割合管理サーバ5に問い合わせ、言語割合管理サーバ5が言語割合管理テーブルから人物の位置座標に基づき利用言語をロボット7に送信することによって、ロボット7が正面に位置する人物へ案内する言語の種類を決定するようにしてもよい。
Further, in the above example, the type of language output by the
(第3実施形態)
次に、本開示の第3実施形態に係る言語割合管理システム1について説明する。なお、この第3実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
(Third embodiment)
Next, the language
図25は、第3実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第3実施形態は、多言語掲示板2の代わりに多言語キオスク8を備えている点が、上記の第1実施形態と異なる。
FIG. 25 is a schematic diagram illustrating a schematic configuration of the language
多言語キオスク8は、公知の構成を有する情報端末装置であり、フロアFの適所に配置されている。多言語キオスク8は、表示入力部であるタッチパネルを有しており、フロアFに存在する人物はタッチパネルを操作することにより、各種の情報にアクセスすることができる。
The
図26は、多言語キオスク8の機能ブロック図である。図26に示すように、多言語キオスク8は、連絡や案内等の各種情報を多言語により表示するともに、ユーザが操作可能な表示入力部(タッチパネル)61と、表示入力部61の表示を管理する表示管理部62と、表示入力部61で表示されている言語、すなわち表示入力部61の操作に使用された言語を示す表示言語情報を行動認識装置4に通知する表示言語提供部63とを有している。
FIG. 26 is a functional block diagram of the
図27は、第3実施形態に係る行動認識装置4の機能ブロック図である。図27に示すように、第3実施形態に係る行動認識装置4は、多言語掲示板接続部27の代わりに多言語キオスク接続部64を有しており、この多言語キオスク接続部64を介して多言語キオスク8と接続されている。また、第3実施形態に係る行動認識装置4は、視線方向検出部28および言語判定テーブル30を有していない。それ以外の点は、第1実施形態に係る行動認識装置4と同様なので、説明は省略する。
FIG. 27 is a functional block diagram of the
図28は、第3実施形態に係る行動認識装置4での利用言語判定処理を説明するためのフロー図である。以下の処理は、人物ID毎に繰り返される。
FIG. 28 is a flowchart for explaining the use language determination processing in the
まず、ステップST501では、人物情報管理テーブル(図6参照)に記録されている位置座標に基づき、多言語キオスク8の正面に位置する人物を検出する。行動認識装置4は、多言語キオスク8の位置座標を予め保持しているものとする。
First, in step ST501, a person located in front of the
次に、ステップST502では、人物情報管理テーブル(図6参照)の位置座標において、多言語キオスク8の正面に位置する人物が検出されたか否かを判定する。検出されたと判定された場合(ステップST502:Yes)は、ステップST503に進み、検出されなかった(多言語キオスク8の正面に位置する人物がいない)と判定された場合(ステップST502:No)は、処理を終了する。
Next, in step ST502, it is determined whether or not a person located in front of the
ステップST503では、検出された人物が、多言語キオスク8の表示入力部61を操作したか否かを判定する。ここでは、検出された人物が、多言語キオスク8の正面に一定時間以上滞在していた場合に、操作があったと判定するものとする。操作したと判定された場合(ステップST503:Yes)は、ステップST504に進み、操作していないと判定された場合(ステップST503:No)は、処理を終了する。
In step ST503, it is determined whether or not the detected person has operated the
ステップST504では、多言語キオスク8に、その人物が多言語キオスク8の表示入力部61を操作するときに使用した利用言語を問い合わせる。
In step ST504, the
そして、ステップST505では、問い合わせの結果、すなわちその人物の利用言語を人物情報管理テーブルの利用言語の欄に格納し、その後、処理を終了する。 In step ST505, the result of the inquiry, that is, the use language of the person is stored in the use language column of the person information management table, and then the process ends.
このように第3実施形態に係る言語割合管理システムによれば、多言語キオスク8を操作するという人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。
As described above, according to the language ratio management system according to the third embodiment, it is possible to determine the language used by the person based on the language behavior of the person operating the
なお、言語割合管理システム1が、多言語掲示板2と多言語キオスク8との両方を備え、両方の装置により人物の利用言語を判定するようにしてもよい、また、一方の装置の判定結果を優先するようにしてもよい。
Note that the language
(第4実施形態)
次に、本開示の第4実施形態に係る言語割合管理システム1について説明する。なお、この第4実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
(Fourth embodiment)
Next, the language
図29は、第4実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第4実施形態は、人物照合装置9をさらに備えている点が、上記の第1実施形態と異なる。
FIG. 29 is a schematic diagram showing a schematic configuration of the language
この第4実施形態では、人物照合装置9により、行動認識装置4Aに接続されたカメラ3Aで撮像した撮像画像から抽出した人物画像と、行動認識装置4Bに接続されたカメラ3Bで撮像した撮像画像から抽出した人物画像とを照合することができる。例えば、多言語掲示板2の表示部11の周辺に位置しカメラ3Bで撮像された人物H1が多言語キオスク8の方向に移動しカメラ3Aで撮像された場合に、カメラ3Aで撮像した人物H1の人物画像と、カメラ3Bで撮像した人物H1の人物画像とを人物照合装置9によって照合することができる。したがって、もし行動認識装置4Bで人物H1の利用言語が判明していれば、人物H1の利用言語を、人物照合装置9を介して、行動認識装置4Bに通知することが可能となる。
In the fourth embodiment, a person image extracted from a captured image captured by the
図30は、人物照合装置9の機能ブロック図である。図30に示すように、人物照合装置9は、行動認識装置4と接続する行動認識装置接続部71と、人物言語テーブルを記憶する記憶部72と、人物画像を照合する人物照合部73とを有している。
FIG. 30 is a functional block diagram of the
図31は、人物言語テーブルの一例を示す図である。図31に示すように、人物言語テーブルでは、バイナリ画像である人物画像に紐付けて、その人物画像の人物の利用言語が記憶されている。 FIG. 31 is a diagram illustrating an example of a person language table. As shown in FIG. 31, in the person language table, the use language of the person of the person image is stored in association with the person image that is a binary image.
図32は、第4実施形態に係る行動認識装置4の機能ブロック図である。図32に示すように、第4実施形態に係る行動認識装置4は、人物照合装置接続部74をさらに有しており、人物照合装置接続部74を介して人物照合装置9と接続されている。それ以外の点は、第1実施形態に係る行動認識装置4と同様なので、説明は省略する。
FIG. 32 is a functional block diagram of the
図33は、第4実施形態に係る行動認識装置4での人物位置情報更新処理を説明するためのフロー図である。この第4実施形態に係る人物位置情報更新処理では、撮像画像(現フレーム画像)から新規の人物が検出され、この新規の人物IDを追加するステップST205の後に、現フレーム画像から抽出した人物画像を人物照合装置9に送信して、人物照合装置9からその人物画像に対応する利用言語を示す利用言語情報を取得する(ステップST601)。そして、取得した利用言語情報を、新規の人物に付与された人物IDに紐づけて、人物情報管理テーブル(図6参照)の利用言語の欄に記録する(ステップST602)。それ以外の点は、第1実施形態に係る人物位置情報更新処理と同様なので、説明は省略する。
FIG. 33 is a flowchart for explaining person position information update processing in the
図34は、第4実施形態に係る行動認識装置4での利用言語判定処理を説明するためのフロー図であり、図20のST301−307と同じ部分は省略して図示している。この第4実施形態に係る利用言語判定処理では、ステップST309で着目領域に対応する言語を人物情報管理テーブルの利用言語の欄に格納(記憶)した後に、その利用言語を示す情報を画像人物領域の人物画像とともに人物照合装置9に送信する(ステップST603)。それ以外の点は、第1実施形態に係る人物位置情報更新処理と同様なので、説明は省略する。
FIG. 34 is a flowchart for explaining the use language determination processing in the
人物照合装置9は、行動認識装置4(図29の例では、行動認識装置4B)から人物画像および利用言語を取得すると、その人物画像および利用言語を人物言語テーブル(図31)に記録する。
When the
図35は、人物照合装置9の照合処理を説明するためのフロー図である。以下の処理は、図33を参照して説明した、行動認識装置4の人物位置情報更新処理におけるステップST601およびステップST602の処理に対応している。
FIG. 35 is a flowchart for explaining the collation processing of the
まず、ステップST701では、行動認識装置4(図29の例では、行動認識装置4A)から照合対象の人物画像を受信する。
First, in step ST701, a person image to be collated is received from the action recognition device 4 (in the example of FIG. 29, the
次に、ステップST702では、照合対象の人物画像を、人物言語テーブルに記憶されている人物画像と照合する。 Next, in step ST702, the person image to be collated is collated with the person image stored in the person language table.
続いて、ステップST703では、照合対象の人物画像と一致する人物画像が人物言語テーブルに記憶されているか否か、すなわち該当人物が存在するか否かを判定する。該当人物が存在しないと判定された場合(ステップST703:No)は、ステップST704に進み、該当人物が存在すると判定された場合(ステップST703:Yes)は、ステップST705に進む。 Subsequently, in step ST703, it is determined whether or not a person image that matches the person image to be collated is stored in the person language table, that is, whether or not a corresponding person exists. When it is determined that the corresponding person does not exist (step ST703: No), the process proceeds to step ST704, and when it is determined that the corresponding person exists (step ST703: Yes), the process proceeds to step ST705.
ステップST704では、「利用言語は不明」と行動認識装置4に通知し、その後、処理を終了する。
In step ST704, the
ステップST705では、人物言語テーブルを参照して該当人物の利用言語を判定し、判定された利用言語を行動認識装置4に通知する。その後、処理を終了する。
In step ST705, the use language of the corresponding person is determined with reference to the person language table, and the determined use language is notified to the
このように第4実施形態に係る言語割合管理システムによれば、複数の行動認識装置4間で、撮像画像から検出された人物を照合することができるので、複数の行動認識装置4間で、人物の利用言語を示す情報を共有することが可能となる。
As described above, according to the language ratio management system according to the fourth embodiment, since the person detected from the captured image can be collated between the plurality of
(第5実施形態)
次に、本開示の第5実施形態に係る言語割合管理システム1について説明する。なお、この第5実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
(Fifth embodiment)
Next, a language
図36は、第5実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第5実施形態は、フロアFに存在する人物のグループを判定し、そのグループ内の少なくとも1人の利用言語が判明した場合に、その利用言語をそのグループ内の利用言語が不明な人物の利用言語と判定する点が、上記の第1実施形態と異なる。
FIG. 36 is a schematic diagram showing a schematic configuration of the language
図36の例では、フロアFに、人物H2、H3、H4の3人の人物からなるグループG1と、人物H5、H6の2人の人物からなるグループG2が存在している。同じグループ内の人物は同一の言語を使用すると考えられるので、同じグループ内の少なくとも1人の人物の利用言語が判明すれば、その利用言語がそのグループ内の他の人物の利用言語であると判定することができる。 In the example of FIG. 36, on the floor F, there are a group G1 composed of three persons H2, H3, and H4 and a group G2 composed of two persons H5 and H6. Since people in the same group are considered to use the same language, if the language used by at least one person in the same group is known, the language used is the language used by other people in the group. Can be determined.
したがって、グループG1においては、人物H2の利用言語が判明すると、グループG1の人物H3、H4の利用言語が不明である場合でも、人物H3、H4の利用言語は人物H1の利用言語(図36の例では英語)と判定することができる。同様に、グループG2においては、人物H5の利用言語が判明すると、グループG2の人物H6の利用言語が不明である場合でも、人物H6の利用言語は人物H5の利用言語(図36の例では中国語)と判定することができる。 Therefore, in the group G1, when the usage language of the person H2 is determined, even if the usage languages of the persons H3 and H4 of the group G1 are unknown, the usage language of the persons H3 and H4 is the usage language of the person H1 (FIG. 36). In the example, it can be determined as English). Similarly, in the group G2, when the language used by the person H5 is known, even if the language used by the person H6 in the group G2 is unknown, the language used by the person H6 is the language used by the person H5 (China in the example of FIG. 36). Word).
図37は、第5実施形態に係る行動認識装置4の機能ブロック図である。図37に示すように、第5実施形態に係る行動認識装置4は、グループを判定するグループ判定部81をさらに有している。それ以外の点は、第1実施形態に係る行動認識装置4と同様なので、説明は省略する。
FIG. 37 is a functional block diagram of the
図38は、第5実施形態に係る人物情報管理テーブルを示す図である。図38に示すように、人物情報管理テーブルは、人物ID、画像人物領域、利用言語に加えて、位置座標履歴の欄をさらに有している。位置座標履歴の欄には、現フレーム画像から取得した位置座標を追加して記録する。 FIG. 38 is a diagram showing a person information management table according to the fifth embodiment. As shown in FIG. 38, the person information management table further includes a position coordinate history column in addition to the person ID, the image person area, and the language used. In the position coordinate history column, position coordinates acquired from the current frame image are added and recorded.
図39は、第5実施形態に係る行動認識装置4での一連の処理を説明するためのフロー図である。
FIG. 39 is a flowchart for explaining a series of processes in the
図39に示すように、この第5実施形態では、ステップST104の言語情報更新処理と、ステップST105の撮像画像を前フレーム画像として記憶部26に格納する処理との間に、グループ判定処理(ステップST106)をさらに有している。このグループ判定処理では、人物のグループを判定し、そのグループのうちの1人の利用言語が判明した場合に、その利用言語をグループ内の利用言語が不明な人物の利用言語とする。それ以外の点は、第1実施形態に係る行動認識装置4での一連の処理と同様なので、説明は省略する。
As shown in FIG. 39, in the fifth embodiment, a group determination process (step S104) is performed between the language information update process in step ST104 and the process in which the captured image in step ST105 is stored in the
図40は、第5実施形態に係る行動認識装置4のグループ判定処理を説明するためのフロー図である。
FIG. 40 is a flowchart for explaining group determination processing of the
まず、ステップST801では、人物ID毎に、人物情報管理テーブル(図38参照)の位置座標履歴の欄に、現フレーム画像の位置座標を追加して記憶する。 First, in step ST801, for each person ID, the position coordinates of the current frame image are added and stored in the position coordinate history column of the person information management table (see FIG. 38).
次に、ステップST802では、人物情報管理テーブルの位置座標履歴の欄に記憶された位置座標に基づき、人物のグループと、そのグループに属する人物IDを判定する。例えば、連続する所定数のフレーム画像において一緒に存在し、かつ相互距離が予め定められた距離内である複数の人物をグループと判定するとよい。なお、グループの判定方法はこれに限定されるものではなく、他の様々な公知の方法を用いることができる。 Next, in step ST802, based on the position coordinates stored in the position coordinate history column of the person information management table, a group of persons and a person ID belonging to the group are determined. For example, a plurality of persons that exist together in a predetermined number of consecutive frame images and whose mutual distances are within a predetermined distance may be determined as a group. The group determination method is not limited to this, and various other known methods can be used.
続いて、ステップST803では、判定されたグループ内に利用言語が不明な人物が存在するか否かを判定する。利用言語が不明な人物が存在すると判定された場合(ステップST803:Yes)は、ステップST804に進み、利用言語が不明な人物が存在しない判定された場合(ステップST803:No)は、処理を終了する。 Subsequently, in step ST803, it is determined whether or not there is a person whose use language is unknown in the determined group. If it is determined that there is a person whose use language is unknown (step ST803: Yes), the process proceeds to step ST804. If it is determined that there is no person whose use language is unknown (step ST803: No), the process ends. To do.
ステップST804では、そのグループ内の人物において最も多く使用されている利用言語を、利用言語が不明な人物の利用言語と判定する。そして、判定された利用言語を人物情報管理テーブルの利用言語の欄に記録し、その後、処理を終了する。 In step ST804, the use language most frequently used by the persons in the group is determined as the use language of the person whose use language is unknown. Then, the determined usage language is recorded in the usage language column of the person information management table, and then the processing is terminated.
このように第5実施形態に係る言語割合管理システムによれば、グループ内の少なくとも1人の利用言語が判明した場合に、その利用言語をそのグループ内の利用言語が不明な人物の利用言語と判定することが可能となる。なお、グループ内の少なくとも1人の利用言語が判明した場合に、その利用言語をそのグループ内のすべての人物の利用言語とするようにしてもよい。 As described above, according to the language ratio management system according to the fifth embodiment, when the use language of at least one person in the group is found, the use language is used as the use language of a person whose use language is unknown in the group. It becomes possible to judge. Note that when the language used by at least one person in the group is found, the language used may be the language used by all persons in the group.
(第6実施形態)
次に、本開示の第6実施形態に係る言語割合管理システム1について説明する。なお、この第6実施形態では、以下で特に言及しない事項については、上述の第1実施形態の場合と同様とする。
(Sixth embodiment)
Next, the language
図41は、第6実施形態に係る言語割合管理システム1の概略構成を示す模式図である。この第6実施形態は、多言語掲示板2の代わりにマイク10を備えている点が上記の第1実施形態と異なる。
FIG. 41 is a schematic diagram showing a schematic configuration of the language
マイク10は、公知の構成を有する集音マイクであり、空港のフロアFの適所に配置され、人物の会話等の発話を集音する。
The
図42は、第6実施形態に係る行動認識装置4の機能ブロック図である。図42に示すように、第6実施形態に係る行動認識装置4は、多言語掲示板接続部27の代わりにマイク接続部91を有しており、このマイク接続部91を介してマイク10と接続されている。利用言語判定部29は、マイク10が集音した音声を公知の音声分析技術を用いて分析して、その人物の利用言語を判定するものとする。また、第6実施形態に係る行動認識装置4は、視線方向検出部28および言語判定テーブル30を有していない。それ以外の点は、第1実施形態に係る行動認識装置4と同様なので、説明は省略する。
FIG. 42 is a functional block diagram of the
図43は、第6実施形態に係る行動認識装置4での利用言語判定処理を説明するためのフロー図である。以下の処理は、人物ID毎に繰り返される。
FIG. 43 is a flowchart for explaining the use language determination processing in the
まず、ステップST901では、人物情報管理テーブル(図6参照)に記録されている位置座標に基づき、マイク10の正面に位置する人物を検出する。行動認識装置4は、マイク10の位置座標を予め保持しているものとする。
First, in step ST901, a person located in front of the
次に、ステップST902では、人物情報管理テーブル(図6参照)の位置座標において、マイク10の正面に位置する人物が検出されたか否かを判定する。検出されたと判定された場合(ステップST902:Yes)は、ステップST903に進み、検出されなかった(マイク10の正面に位置する人物がいない)と判定された場合(ステップST902:No)は、処理を終了する。
Next, in step ST902, it is determined whether or not a person located in front of the
ステップST903では、検出された人物の音声をマイク10で取得されたか否かを判定する。音声が取得されたと判定された場合(ステップST903:Yes)はステップST904に進み、音声が取得されなかったと判定された場合(ステップST903:No)は処理を終了する。
In step ST903, it is determined whether or not the detected voice of the person has been acquired by the
ステップST904では、利用言語判定部29により、マイク10が集音した音声を分析して、その人物の利用言語を判定する。
In step ST904, the use
そして、ステップST905では、判定された利用言語を人物情報管理テーブルの利用言語の欄に格納(記憶)し、その後、処理を終了する。 In step ST905, the determined use language is stored (stored) in the use language column of the person information management table, and then the process ends.
このように第6実施形態に係る言語割合管理システムによれば、発話という人物の言語行動に基づき、その人物の利用言語を判定することができる。これにより、不特定多数の人物が出入りする場所において人物の利用言語を判定することが可能となる。 As described above, according to the language ratio management system according to the sixth embodiment, the language used by a person can be determined based on the language behavior of the person called speech. This makes it possible to determine the language used by a person at a place where an unspecified number of persons come and go.
なお、言語割合管理システム1が、多言語掲示板2、多言語キオスク8、およびマイク10の任意の組み合わせを備え、各装置により人物の利用言語を判定するようにしてもよい。また、いずれかの装置の判定結果を優先するようにしてもよい。
The language
以上、本開示を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本開示はこれらの実施形態によって限定されるものではない。また、第1実施形態から第6実施形態を任意に組み合わせた実施形態としてもよい。また、上記実施形態に示した本開示に係る言語割合管理システムおよび言語割合管理方法の各構成要素は、必ずしも全てが必須ではなく、少なくとも本開示の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。 As mentioned above, although this indication was explained based on specific embodiments, these embodiments are illustrations to the last, and this indication is not limited by these embodiments. Moreover, it is good also as embodiment which arbitrarily combined 6th Embodiment from 1st Embodiment. In addition, each component of the language ratio management system and the language ratio management method according to the present disclosure shown in the above embodiment is not necessarily essential, and may be appropriately selected as long as it does not depart from the scope of the present disclosure. Is possible.
本開示に係る言語割合管理システムおよび言語割合管理方法は、多言語が利用される場所における利用言語の割合を管理することを可能にする言語割合管理システムおよび言語割合管理方法等として有用である。 The language ratio management system and the language ratio management method according to the present disclosure are useful as a language ratio management system, a language ratio management method, and the like that can manage the ratio of used languages in a place where multiple languages are used.
1 言語割合管理システム
2 多言語掲示板
3 カメラ
4 行動認識装置
5 言語割合管理サーバ
6 館内放送装置
7 多言語放送ロボット
8 多言語キオスク
9 人物照合装置
10 マイク
DESCRIPTION OF
Claims (9)
利用言語の割合を管理したい対象領域を撮像するカメラと、
前記カメラの撮像画像から人物を検出して追跡するとともに、前記人物の言語行動に基づき前記人物の利用言語を判定する行動認識装置と、
前記行動認識装置から、前記利用言語を示す情報を取得して記憶することにより、前記対象領域で使用されている利用言語の割合を管理する言語割合管理サーバと
を備えたことを特徴とする言語割合管理システム。 A language ratio management system for managing the ratio of languages used in a place where multiple languages are used,
A camera that captures the target area for which the percentage of languages used is to be managed;
An action recognition device that detects and tracks a person from a captured image of the camera and determines a language used by the person based on the language action of the person;
A language ratio management server that manages the ratio of the used language used in the target area by acquiring and storing information indicating the used language from the action recognition device. Percentage management system.
前記行動認識装置は、前記撮像画像から前記人物の視線方向を検出するとともに、前記視線方向に基づき前記複数の表示領域のうちの前記人物が注視している表示領域を特定し、特定された前記表示領域に表示されている言語を前記人物の利用言語として判定することを特徴とする請求項1に記載の言語割合管理システム。 A multilingual bulletin board having a plurality of display areas arranged in the target area and displaying different languages from each other;
The behavior recognition device detects a gaze direction of the person from the captured image, identifies a display area in which the person is gazing out of the plurality of display areas based on the gaze direction, and identifies the identified The language ratio management system according to claim 1, wherein a language displayed in a display area is determined as a language used by the person.
前記行動認識装置は、前記人物が前記多言語キオスクを操作するときに使用した言語を前記人物の利用言語として判定することを特徴とする請求項1または請求項2に記載の言語割合管理システム。 A multilingual kiosk arranged in the target area and operable in multiple languages;
3. The language ratio management system according to claim 1, wherein the behavior recognition apparatus determines a language used when the person operates the multilingual kiosk as a language used by the person. 4.
前記行動認識装置は、前記マイクにより集音された前記人物の音声に基づき、前記人物の利用言語を判定することを特徴とする請求項1ないし請求項3のいずれかに記載の言語割合管理システム。 A microphone disposed in the target area;
The language ratio management system according to claim 1, wherein the behavior recognition device determines a language used by the person based on the voice of the person collected by the microphone. .
前記館内放送装置は、前記対象領域で使用されている利用言語の割合を示す言語割合情報を前記言語割合管理サーバに問い合わせて取得し、前記言語割合情報に基づき、音声出力する多言語の種類およびその多言語を音声出力する順番を決定することを特徴とする請求項1ないし請求項4のいずれかに記載の言語割合管理システム。 Further comprising an in-house broadcasting device for outputting multilingual audio information for the target area,
The in-house broadcasting device inquires the language ratio management server for language ratio information indicating the ratio of the used language used in the target area, acquires the language ratio information and outputs the language based on the language ratio information, The language ratio management system according to any one of claims 1 to 4, wherein an order of outputting the multilingual voice is determined.
前記多言語案内ロボットは、前記対象領域で使用されている利用言語の割合を示す言語割合情報を前記言語割合管理サーバに問い合わせて取得し、前記言語割合情報に基づき、出力する多言語の種類およびその多言語を出力する順番を決定することを特徴とする請求項1ないし請求項5のいずれかに記載の言語割合管理システム。 A multilingual guidance robot that outputs multilingual information in the target area;
The multilingual guidance robot inquires the language ratio management server for language ratio information indicating a ratio of the used languages used in the target area, and obtains the type of multilanguage to be output based on the language ratio information and The language ratio management system according to any one of claims 1 to 5, wherein an order of outputting the multi-language is determined.
前記人物照合装置は、
少なくとも1つの前記行動認識装置から、前記撮像画像から検出された人物の人物画像およびその人物の利用言語を示す情報を取得して予め記憶しておき、
前記少なくとも1つの前記行動認識装置とは別の行動認識装置から照合対象人物の人物画像を受信したときに、前記照合対象人物の人物画像を前記予め記憶した人物画像と照合し、一致する場合には、前記予め記憶した人物画像の人物の利用言語を示す情報を前記別の行動認識装置に送信することを特徴とする請求項1ないし請求項6のいずれかに記載の言語割合管理システム。 A human collation device for collating a person detected from the captured image between the plurality of behavior recognition devices;
The person verification device
From at least one of the action recognition devices, a person image of a person detected from the captured image and information indicating the language used by the person are acquired and stored in advance.
When a person image of a person to be collated is received from a behavior recognition apparatus different from the at least one action recognition apparatus, the person image of the person to be collated is compared with the person image stored in advance and matches 7. The language ratio management system according to claim 1, wherein information indicating a language used by a person of the person image stored in advance is transmitted to the another action recognition device.
利用言語の割合を管理したい対象領域をカメラにより撮像するステップと、
前記カメラの撮像画像から人物を検出して追跡するとともに、前記人物の言語行動に基づき前記人物の利用言語を判定するステップと、
前記利用言語を示す情報を記憶することにより、前記対象領域で使用されている利用言語の割合を管理するステップと
を有することを特徴とする言語割合管理方法。 A language ratio management method for managing the ratio of languages used in a place where multiple languages are used,
Imaging the target area for which the ratio of the language used is to be managed by the camera;
Detecting and tracking a person from a captured image of the camera, and determining a language used by the person based on the language behavior of the person;
Storing the information indicating the language used to manage the rate of the language used in the target area.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017066328A JP6876483B2 (en) | 2017-03-29 | 2017-03-29 | Management system, behavior recognition device, and management method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017066328A JP6876483B2 (en) | 2017-03-29 | 2017-03-29 | Management system, behavior recognition device, and management method |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2018169788A true JP2018169788A (en) | 2018-11-01 |
| JP2018169788A5 JP2018169788A5 (en) | 2020-05-07 |
| JP6876483B2 JP6876483B2 (en) | 2021-05-26 |
Family
ID=64018765
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017066328A Active JP6876483B2 (en) | 2017-03-29 | 2017-03-29 | Management system, behavior recognition device, and management method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6876483B2 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20190098931A (en) * | 2019-08-05 | 2019-08-23 | 엘지전자 주식회사 | Artificial intelligence server and method for setting language of robot |
| WO2021172212A1 (en) * | 2020-02-26 | 2021-09-02 | 株式会社バンダイナムコアミューズメント | Information system |
| JP2022017792A (en) * | 2020-07-14 | 2022-01-26 | 三菱電機株式会社 | Language determination apparatus, language determination method, and language determination program |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001118147A (en) * | 1999-10-19 | 2001-04-27 | Toshiba Tec Corp | Product sales data processing device |
| JP2004114178A (en) * | 2002-09-24 | 2004-04-15 | Honda Motor Co Ltd | Reception guide robot device |
| JP2013149050A (en) * | 2012-01-19 | 2013-08-01 | Fujitsu Ltd | Target object determination device, target object determination method and program |
| JP2014052770A (en) * | 2012-09-06 | 2014-03-20 | Toshiba Tec Corp | Signage terminal and signage system |
| JP2015002477A (en) * | 2013-06-17 | 2015-01-05 | キヤノン株式会社 | Information processing apparatus, information processing system, and information processing method |
| JP2016524189A (en) * | 2013-06-19 | 2016-08-12 | コリア エアポーツ コーポレーション | Multilingual information guidance system and apparatus |
-
2017
- 2017-03-29 JP JP2017066328A patent/JP6876483B2/en active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001118147A (en) * | 1999-10-19 | 2001-04-27 | Toshiba Tec Corp | Product sales data processing device |
| JP2004114178A (en) * | 2002-09-24 | 2004-04-15 | Honda Motor Co Ltd | Reception guide robot device |
| JP2013149050A (en) * | 2012-01-19 | 2013-08-01 | Fujitsu Ltd | Target object determination device, target object determination method and program |
| JP2014052770A (en) * | 2012-09-06 | 2014-03-20 | Toshiba Tec Corp | Signage terminal and signage system |
| JP2015002477A (en) * | 2013-06-17 | 2015-01-05 | キヤノン株式会社 | Information processing apparatus, information processing system, and information processing method |
| JP2016524189A (en) * | 2013-06-19 | 2016-08-12 | コリア エアポーツ コーポレーション | Multilingual information guidance system and apparatus |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20190098931A (en) * | 2019-08-05 | 2019-08-23 | 엘지전자 주식회사 | Artificial intelligence server and method for setting language of robot |
| KR102303785B1 (en) * | 2019-08-05 | 2021-09-23 | 엘지전자 주식회사 | Artificial intelligence server and method for setting language of robot |
| US11132995B2 (en) | 2019-08-05 | 2021-09-28 | Lg Electronics Inc. | Artificial intelligence server for setting language of robot and method for the same |
| WO2021172212A1 (en) * | 2020-02-26 | 2021-09-02 | 株式会社バンダイナムコアミューズメント | Information system |
| JP2021135724A (en) * | 2020-02-26 | 2021-09-13 | 株式会社バンダイナムコアミューズメント | Information system |
| JP2022017792A (en) * | 2020-07-14 | 2022-01-26 | 三菱電機株式会社 | Language determination apparatus, language determination method, and language determination program |
| JP7076504B2 (en) | 2020-07-14 | 2022-05-27 | 三菱電機株式会社 | Language determination device, language determination method and language determination program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6876483B2 (en) | 2021-05-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11227129B2 (en) | Language translation device and language translation method | |
| CN108881976B (en) | Methods and systems for displaying objects, and methods and systems for providing objects | |
| KR102002979B1 (en) | Leveraging head mounted displays to enable person-to-person interactions | |
| US8364680B2 (en) | Computer systems and methods for collecting, associating, and/or retrieving data | |
| CN109819400B (en) | User position searching method, device, equipment and medium | |
| CN108984081A (en) | A search page interaction method, device, terminal and storage medium | |
| JP2020528705A (en) | Moving video scenes using cognitive insights | |
| KR20120102043A (en) | Automatic labeling of a video session | |
| US20050259959A1 (en) | Media data play apparatus and system | |
| JP6233798B2 (en) | Apparatus and method for converting data | |
| CN1825300A (en) | Method, system and portable device for real-time provision of gallery guide and exhibit information | |
| CN101086741A (en) | Information processing apparatus and information processing method | |
| JP2014504759A (en) | Method, terminal, and computer-readable recording medium for supporting collection of objects contained in input image | |
| JP6876483B2 (en) | Management system, behavior recognition device, and management method | |
| JP2019533181A (en) | Interpretation device and method (DEVICE AND METHOD OF TRANSLATING A LANGUAGE) | |
| US20210295550A1 (en) | Information processing device, information processing method, and program | |
| US8713008B2 (en) | Apparatus and method for information processing, program, and recording medium | |
| JP2008058276A (en) | On-board device | |
| EP2503545A1 (en) | Arrangement and method relating to audio recognition | |
| KR20210009903A (en) | Method of questioning and answering and apparatuses performing the same | |
| CN103152633A (en) | Method and device for identifying key word | |
| CN112309387A (en) | Method and apparatus for processing information | |
| KR101940289B1 (en) | Video search system based on information | |
| JP2019101751A (en) | Information presentation device, information presentation system, information presentation method, and program | |
| KR20130008278A (en) | Method and apparatus for searching hand written memo data |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200325 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200325 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210122 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210402 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210420 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210426 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6876483 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |