[go: up one dir, main page]

JP2018032164A - 面接システム - Google Patents

面接システム Download PDF

Info

Publication number
JP2018032164A
JP2018032164A JP2016163028A JP2016163028A JP2018032164A JP 2018032164 A JP2018032164 A JP 2018032164A JP 2016163028 A JP2016163028 A JP 2016163028A JP 2016163028 A JP2016163028 A JP 2016163028A JP 2018032164 A JP2018032164 A JP 2018032164A
Authority
JP
Japan
Prior art keywords
applicant
interview
information
emotion
question
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016163028A
Other languages
English (en)
Inventor
純平 佐藤
Junpei Sato
純平 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aruze Gaming Hong Kong Ltd
Universal Entertainment Corp
Original Assignee
Aruze Gaming Hong Kong Ltd
Universal Entertainment Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aruze Gaming Hong Kong Ltd, Universal Entertainment Corp filed Critical Aruze Gaming Hong Kong Ltd
Priority to JP2016163028A priority Critical patent/JP2018032164A/ja
Publication of JP2018032164A publication Critical patent/JP2018032164A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】応答情報の信頼性の程度を判断することができる。【解決手段】面接装置11で取得された顔の映像情報に基づいて応募者16の時間経過に伴って変化する様子を分析し、質疑応答時における感情の種類を判別する制御装置12と、制御装置12で判別された感情の種類と、面接装置11で取得された応答情報とが、応募者16に対応付けて蓄積された応募者情報データベースを記憶する記憶装置14と、応募者情報データベースにアクセス可能な端末装置15とを有する。【選択図】図1

Description

近年においては、人間の面接者の代わりに、人型ロボットにより応募者の面接が行われ、質疑応答で得た応答情報に基づいて募集対象の職種に対する採用の適否が判断される場合がある(非特許文献1)。これにより、多数の応募者により面接が長時間に及んだ場合でも、人型ロボットが各応募者に対して同一基準で面接を行うことによって、採用の適否の判定を安定して行うことが可能になっている。
"シューカツ!採用担当者はロボット「Pepper」??″、[online]、[2016年6月21日検索]、インターネット〈URL:http://w−sc.jp/shukatsu−peppr/〉
しかしながら、上記のような人型ロボットによる面接及び採用の適否の判定では、応募者が嘘をついて質疑応答する場合もあるため、複数の応募者から同じ応答情報が得られた場合でも、これらの応募者全員が募集対象の職種に適した人材であるとは限らない。
そこで、本発明は、応答情報の信頼性の程度を判断することができる面接システムを提供することを目的とする。
本発明は、面接システムであって、応募者に対する質疑応答を通じて、前記応募者の顔の映像情報を含む応答情報を取得する情報取得装置と、前記情報取得装置で取得された前記顔の映像情報に基づいて前記応募者の時間経過に伴って変化する様子を分析し、前記質疑応答時における感情の種類を判別する制御装置と、前記制御装置で判別された前記感情の種類と、前記情報取得装置で取得された前記応答情報とが、前記応募者に対応付けて蓄積された応募者情報データベースを記憶する記憶装置と、前記記憶装置における前記応募者情報データベースにアクセス可能な端末装置とを有する。
上記の構成によれば、端末装置により応募者情報データベースにアクセスして応答情報を確認する際に、応募者の質疑応答時における感情の種類も確認することによって、応答情報の信頼性の程度を感情の種類に基づいて判断することができる。
本発明の面接システムであって、前記制御装置は、瞬時に表れて消える微表情を、前記時間経過に伴って変化する様子としてもよい。
上記の構成によれば、微表情の分析により応募者の質疑応答時における感情の種類を容易に判別することができる。
本発明の面接システムであって、前記制御装置は、前記質疑応答の開始前における前記顔の映像情報に基づいて、一定期間における前記応募者の顔の変化を平均化した平均顔画像を取得し、前記平均顔画像と前記顔の映像情報との相違に基づいて前記応募者の微表情を分析してもよい。
上記の構成によれば、質疑応答の開始前からの一連の処理により応募者の微表情を容易に分析することができる。
本発明の面接システムであって、前記情報取得装置は、さらに、前記応募者の体全体の映像情報を取得し、前記制御装置は、前記体全体の映像情報に基づいて前記応募者の仕草を分析し、前記質疑応答時における前記感情の種類を判別し、当該仕草の分析による前記感情の種類を、前記微表情による前記感情の種類の判別の信頼性に関連付けてもよい。
上記の構成によれば、微表情と仕草とで感情の種類を判別することによって、微表情による感情の種類の判別についての信頼性を高めることができる。
本発明の面接システムであって、前記制御装置は、さらに、前記情報取得装置で取得された前記応答情報に基づいて前記応募者の適性を定量化した面接評価レベルの決定を行い、前記記憶装置に記憶される前記応募者情報データベースは、さらに、前記応答情報と前記面接評価レベルとが、前記応募者に対応付けて蓄積してもよい。
上記の構成によれば、端末装置により応募者情報データベースにアクセスし、各応募者の適性を定量化した人材評価レベルを確認しながら、応答情報の信頼性の程度を感情の種類に基づいて判断することによって、募集対象の職種に適した応募者を短時間で見つけ出すことができる。
本発明の面接システムであって、前記制御装置は、さらに、各職種について最適な適性を定量化した複数の人材評価レベルに対する前記面接評価レベルの類似度をそれぞれ算出し、前記記憶装置に記憶される前記応募者情報データベースは、さらに、前記各職種の類似度を前記応募者に対応付けて蓄積してもよい。
上記の構成によれば、端末装置により応募者情報データベースにアクセスし、各職種について最適な適性を定量化した人材評価レベルに対する面接評価レベルの類似度について応募者の抽出や並べ替えを行いながら、応答情報の信頼性の程度を感情の種類に基づいて判断することによって、募集対象の職種に適した応募者を短時間で見つけ出すことができる。
本発明の面接システムであって、前記情報取得装置は、右アーム及び左アームと、これら右アーム及び左アームを支持した胴体と、前記胴体の上端に設けられた頭部とを有し、前記応募者の姿及び音声を前記応答情報として取得する人型のロボット本体を備えていてもよい。
上記の構成によれば、人型のロボット本体が応募者に対して質疑応答を行うため、人間の面接者に近い雰囲気を無人の面接環境に出現させることができる。
本発明は、応答情報の信頼性の程度を判断することができる。
面接システムの概略構成図である。 分析領域の説明図である。 感情と条件と各領域の表情とを対応付けたテータテーブルの説明図である。 感情と条件と他の動作とを対応付けたテータテーブルの説明図である。 面接装置の斜視図である。 面接装置の概略図である。 面接システムの概略図である。 面接システムの概略図である。 面接システムの情報の流れを示す説明図である。 質疑応答と面接評価レベルの関係を示す説明図である。 質疑応答のタイミングチャートである。 応募者情報テーブルの説明図である。 応募者情報テーブルの説明図である。 面接処理ルーチンのフローチャートである。 表情分析処理ルーチンのフローチャートである。 単位表情分析処理ルーチンのフローチャートである。 応募者の面接過程を示す説明図である。 登録画面イメージの説明図である。 応募者の面接過程を示す説明図である。 応答情報の処理経路を示す説明図である。 面接者の面接結果の利用状態を示す説明図である。 面接結果の表示画面を示す説明図である。
以下、本発明の実施形態を図面に基づいて説明する。
(面接システム:概要)
図1に示すように、面接システム1は、1以上の面接装置11(情報取得装置)と制御装置12と記憶装置14と端末装置15とを有している。面接装置11は、応募者16に対する質疑応答を通じて、応募者16の顔の映像情報を含む応答情報を取得するように構成されている。さらに、面接装置11は、応募者16の体全体の映像情報を含む応答情報を取得するようにも構成されている。面接装置11は、一人の応募者16に対して質疑応答を行うことを可能に構成されている。これにより、面接システム1は、面接装置11の設置台数を応募人数や募集数に応じて増減することによって、面接システム1のコストアップを防止しながら、多くの応募者16の集中による過大な面接待ち時間の発生を防止することが可能になっている。
面接装置11は、制御装置12に対してデータ通信可能に接続されている。面接装置11と制御装置12とは、専用線を介して接続されていてもよいし、インターネットを介して接続されていてもよい。また、データ通信は、応募者16の個人情報の漏洩を防止する観点から暗号化されていることが好ましい。
制御装置12は、面接装置11に対して制御信号や情報信号を送受信可能にされている。これにより、制御装置12は、制御信号の送受信によって、面接装置11の制御を行うことが可能になっている。また、制御装置12は、情報信号の送受信により応答情報を取得し、応答情報に基づいて応募者の適性を定量化した面接評価レベルの決定を行うように構成されている。これにより、制御装置12は、各応募者の適性を定量化した人材評価レベルを確認することによって、募集対象の職種に適した応募者を短時間で見つけ出すことを可能にしている。
また、制御装置12は、面接装置11で取得された顔の映像情報に基づいて応募者16の時間経過に伴って変化する様子を分析することによって、質疑応答時における感情の種類を判別するように構成されている。ここで、感情の種類は、「嫌悪」と「恐怖」と「怒り」と「幸福」と「悲しみ」と「軽蔑」と「驚き」との7種類が存在する。感情の種類を判別する方法は、特に限定されるものではないが、瞬時に表れて消える微表情に基づいて判別することが好ましい。この場合は、微表情の分析により応募者の質疑応答時における感情の種類を容易に判別することができる。微表情と感情の種類との関係についての詳細は後述する。
さらに、制御装置12は、体全体の映像情報に基づいて応募者16の仕草を分析し、質疑応答時における感情の種類を判別し、仕草の分析による感情の種類を、微表情による感情の種類の判別の信頼性に関連付けるように構成されている。『仕草』は、図4の『他の動作』であり、詳細は後述する。これにより、面接システム1は、微表情と仕草とで感情の種類を判別することによって、微表情による感情の種類の判別についての信頼性を高めることができる。
尚、本実施形態においては、微表情に基づく感情の判別についての信頼性を評価するため、仕草に基づく感情の判別を行っているが、これに限定されるものではない。即ち、面接システム1は、仕草の分析による感情の種類についての判別の信頼性を評価するため、微表情の分析による感情の種類の判別を行ってもよい。また、面接システム1は、微表情の分析による感情の種類の判別と、仕草の分析による感情の種類の判別とを、それぞれ独立して行ってもよい。また、面接システム1は、応募者が質疑応答する場合において、「怒り」や「驚き」、「嫌悪」の感情を表したときに、応答に「嘘」が含まれている可能性があると判定する判定機能を制御装置12が有してもよい。この「嘘」を含む応答において、次の質問を「嘘」を前提にした質問に切り替えることによって、応答の信頼性を高めることができる。
さらに、制御装置12は、各職種について最適な適性を定量化した複数の人材評価レベルに対する面接評価レベルの類似度をそれぞれ算出するようにも構成されている。これにより、制御装置12は、募集対象の職種に適した応募者16を容易に見つけ出すことができるように、各職種について最適な適性を定量化した人材評価レベルに対する面接評価レベルの類似度について、応募者の抽出や並べ替えを行うことを可能にしている。尚、以後の説明においては、適性が一般的適性と専門的適性の2部構成の場合について説明するが、これに限定されるものではなくその他の適性が追加されていてもよいし、一般的適性及び専門的適性の何れか一方であってもよい。
制御装置12は、情報提供システム13に情報信号を送受信可能に接続されている。情報提供システム13は、応募者16に対する質問を面接装置11において行わせるように制御装置12に対して質問情報を提供し、応募者16の質問に対する応答を解析するように構成されている。さらに、制御装置12は、記憶装置14に接続されている。記憶装置14は、応答情報と感情の種類と面接評価レベルと各職種毎の類似度とが、応募者16に対応付けて蓄積された応募者情報データベースを記憶している。記憶装置14は、端末装置15に対して情報信号を送受信可能に接続されている。端末装置15は、面接者17による記憶装置14の応募者情報データベースへのアクセスを可能にしている。
上記のように構成された面接システム1によれば、端末装置15により応募者情報データベースにアクセスして応答情報を確認する際に、応募者16の質疑応答時における感情の種類も確認することによって、応答情報の信頼性の程度を感情の種類に基づいて判断することができる。また、面接システム1は、各職種毎に設定された人材評価レベルに対する面接評価レベルの類似度について応募者16の抽出や並べ替えを行うことによって、募集対象の職種に適した応募者を短時間で見つけ出すことができる。さらに、この面接システム1によれば、大量に雇用が発生する場合等における人事担当者の負担を軽減することができる。また、面接装置11による面接のため、一定の尺度によるシステマテイツクで公平な評価が可能になる。これにより、例えば、縁故や賄賂等、面接官の個人的な事情による評価を防ぐことができ、万人に公平に門戸を開くことができる。さらに、人間を介さずに面接を行うことができるため、面接システム1を24時間稼働させることもできる。
(微表情と感情の種類との関係)
図2に示すように、微表情は、感情の種類により顔の一部領域が0.25秒等の一定時間内において瞬間的に変化する表情である。例えば、「嫌悪」の微表情は、鼻にしわを寄せる動作である。また、「嫌悪」を示す他の動作である仕草は、顔・身体を対象から背ける動作である。
「恐怖」の微表情は、両眉を上げる動作と、両眉を中央に引き寄せる動作と、目を見開く動作と、まぶたに力を入れる動作と、口角を横に引く動作との組み合わせである。「恐怖」を示す他の動作である仕草は、頭や体を後退させる動作や、身体を硬直させる動作、逃げる動作、声のピッチが高くなる動作、突然の深呼吸などの動作である。
「怒り」の微表情は、両まゆ毛を中央に引き寄せる動作と、目を見開く動作と、まぶたに力を入れる動作と、唇を固く閉じる動作と、口を開ける動作との組み合わせである。「怒り」を示す他の動作である仕草は、頭やあごが前に突き出される動作や、全身の筋肉が緊張する動作、ドスのきいた声、荒々しい声の様子、大声等の動作である
「幸福」の微表情は、頬を上げる動作と、口角を上げる動作と、口角のみを上げる動作との組み合わせである。「幸福」を示す他の動作である仕草は、興奮した声の動作や他者に近づく動作がある。
「悲しみ」の微表情は、眉の内側を上げる動作と、両眉を中央に引き寄せる動作と、口角を下げる動作と、下唇を上げる動作との組み合わせである。「悲しみ」を示す他の動作である仕草は、頭・視線を下げる動作、うなだれる動作、緩やかな声、言葉数が少なくなるといった動作である。
「軽蔑」の微表情は、片方の口角を上げる動作である。「軽蔑」を示す他の動作である仕草としては、自己の鼻先を見るように頭を後方に引き上げる動作や、その状態で頭を左右片方に傾ける動作である。
「驚き」の微表情は、両眉を上げる動作と、目を見開く動作と、口を開ける動作との組み合わせである。「驚き」を示す他の動作である仕草は、肩を引き上げる動作や深呼吸などの動作である。
本実施形態おいては、コンピュータにより微表情を分析し、感情の種類を判別するため、応募者16の顔を目周辺の目領域161と、鼻周辺の鼻領域162と、頬周辺の頬領域163と、口周辺の口領域164と、顎周辺の顎領域165と、眉周辺の眉領域166とに区分している。そして、各領域161〜166における瞬間的な変化を映像情報に基づいて検出し、変化の状態の組み合わせに一致する条件が存在すれば、一致する条件に対応した種類の感情であると判定可能にしている。
図3は、感情と条件と各領域161〜166の表情とを対応付けたテータテーブルの説明図である。このデータテーブルは、各領域161〜166の微表情に基づいて条件1〜11の成立の有無を判定し、各条件1〜11に対応する感情を判別する際に参照される。
具体的に説明すると、嫌悪の感情は、条件1に対応付けられている。条件1は、「鼻領域162の「しわを寄せる動作」と口領域164の「上唇を上げる動作」とが行われたときに成立する。
「恐怖」の感情は、条件2及び条件3に対応付けられている。条件2は、目領域161の「目を見開く動作」と眉領域166の「両眉を上げる動作」と口領域164の「口角を横に引く動作」とが行われたときに成立する。条件3は、目領域161の「目を見開く動作」と眉領域166の「両眉を中央に引き寄せる動作」と口領域164の「口角を横に引く動作」とが行われたときに成立する。
「怒り」の感情は、条件4及び条件5に対応付けられている。条件4は、目領域161の「目を見開く動作」と眉領域166の「両眉毛を眉を上げる動作」と口領域164の「口角を横に引く動作」とが行われたときに成立する。条件5は、目領域161の「目を見開く動作」と眉領域166の「両眉毛を上げる動作」と口領域164の「口を開ける動作」とが行われたときに成立する。
「幸福」の感情は、条件6及び条件7に対応付けられている。条件6は、頬領域163の「頬を上げる動作」と口領域164の「口角を上げる動作」とが行われたときに成立する。条件7は、口領域164の「口角のみを上げる動作」が行われたときに成立する。
「悲しみ」の感情は、条件8及び条件9に対応付けられている。条件8は、眉領域166の「眉の内側を上げる動作」と口領域164の「口角を下げる動作」と顎領域165の「皺が発生する動作」とが行われたときに成立する。条件9は、眉領域166の「両眉を中央に引き寄せる動作」と口領域164の「下唇を上げる動作」と顎領域165の「皺が発生する動作」とが行われたときに成立する。
「軽蔑」の感情は、条件10に対応付けられている。条件10は、口領域164の「片方の口角を上げる動作」が行われたときに成立する。「驚き」の感情は、条件11に対応付けられている。条件11は、目領域161の「目を見開く動作」と眉領域166の「口を開ける動作」と口領域164の「口を開ける動作」とが行われたときに成立する。
図4は、感情と条件と他の動作とを対応付けたテータテーブルの説明図であり、微表情の分析に基づいて判別された感情の信頼性の程度を調査する際に参照される。具体的には、条件1における「他の動作」は、顔・身体を対象から背ける動作である。条件2・3は、頭や体を後退させる動作や、身体を硬直させる動作、逃げる動作、声のピッチが高くなる動作、突然の深呼吸などの動作である。条件4・5は、頭やあごが前に突き出される動作や、全身の筋肉が緊張する動作、ドスのきいた声、荒々しい声の様子、大声等の動作である。条件6・7は、興奮した声の動作や他者に近づく動作がある。条件8・9は、頭・視線を下げる動作、うなだれる動作、緩やかな声、言葉数が少なくなるといった動作である。条件10は、自己の鼻先を見るように頭を後方に引き上げる動作や、その状態で頭を左右片方に傾ける動作である。条件11は、肩を引き上げる動作や深呼吸などの動作である。
(面接システム:面接装置:面接ロボット)
図1に示すように、面接装置11は、面接ロボットである人型のロボット本体111を有している。尚、以後の説明においては、面接装置11がロボット本体111を備えた場合について説明するが、これに限定されるものではない。
ロボット本体111は、右アーム111a及び左アーム111bと、これら右アーム111a及び左アーム111bを支持した胴体111cと、胴体111cの上端に設けられた頭部111dとを有し、応募者16の姿及び音声を応答情報として取得するように構成されている。これにより、面接装置11は、人型のロボット本体111が応募者16に対して質疑応答を行うため、人間の面接者に近い雰囲気を無人の面接環境に出現させることができる。
右アーム111a及び左アーム111bは、アーム先端部(ハンド部)を三次元空間の任意の位置に移動可能になっている。アーム先端部(ハンド部)は、複数の指を有しており、指差や各種の物品を把持することが可能になっている。これにより、例えば、面接時において、応募者16との握手やジェスチャーを伴った音声の質問、ジェスチャーだけの無言の質問等の各種の動作を伴った質疑応答を行うことが可能になっている。
尚、本実施形態においては、ロボット本体111が人間に最も近い体形となるように、右アーム111a及び左アーム111bの2本のアームを備えた場合について説明するが、これに限定されるものではなく、1本以上のアームを備えていればよい。
胴体111cの上部に配置された頭部111dには、応募者16と対話する対話機構111eが備えられている。対話機構111eは、応募者16に対して質問情報を音声合成により出力する情報出力機構と、回答する応募者16から音声や姿勢、動作、表情等の各種の応答情報を取得する情報取得機構とを有している。情報出力機構としては、音声を出力するスピーカ機構が例示される。スピーカ機構は、音声信号を増幅するデジタルアンプと、デジタルアンプからの電気信号を音波に変換して出力するスピーカとを備えている。情報取得機構としては、映像を取得するカメラ機構や音声を取得するマイク機構が例示される。カメラ機構は、応募者16の顔を撮影するように設定されており、ボイスアングルセンサや3Dセンサ、フルHDカメラの1以上を備えている。尚、対話機構111eの一部又は全部は、ロボット本体111以外の場所に配置されていてもよい。面接装置11の具体的構成については後述する。
このように、面接システム1は、応募者16に対面する面接者が面接ロボットであるため、応募者16の回答に本質が現れる可能性がある。また、面接装置11で得られる応答情報は、画像認識技術等と組み合わせることによって、質問に対する回答以上の評価が可能になっている。
(面接システム:面接装置:面接側端末装置)
さらに、面接装置11は、応募者16の操作により応答情報を入力可能な面接側入力装置112を有している。面接側入力装置112は、キーボード1121やディスプレイ1122、コントローラ1123、マウス等を有している。面接側入力装置112は、ロボット本体111に対して協調した動作を実行可能にされている。具体的に説明すると、面接装置11は、ロボット本体111から応募者16に対して質問や指示を行った後、ロボット本体111による質疑応答と並行して、面接側入力装置112を介した応募者16のキー入力による応答を受け付けることによって、応募者16が応答情報をキー入力する速度やリズム、時間等の1以上のキー入力要素を、ロボット本体111から得られる応答情報とは別の新たな応答情報とすることを可能にし、ひいては面接評価レベルの類似度の信頼性を高めることを可能にしている。
さらに、面接側入力装置112は、ディスプレイ1122を用いて視力検査や色弱検査を行うようにされていてもよい。これにより、視力や色弱で制限を受ける職種を、応募者16の希望職種から除外し、応募者16に対して就業可能な職種や就業不能な職種を告知することができる。尚、告知のタイミングは、面接途中においてロボット本体111が口頭で行ってもよいし、面接側入力装置112のディスプレイ1122に画面表示してもよいし、面接後においてメール等で行ってもよい。また、ロボット本体111が右アーム111aや左アーム111bを動かして、目視する領域を指し示すことが望ましい。この場合は、人間が面接している臨場感を応募者16に持たせることが可能になる。
また、面接側入力装置112は、表計算ソフトや画像作成ソフト、設計ソフト等の各種の業務用ソフトを実行し、応募者16の操作により作業を行うようにされていてもよい。この場合は、各業務ソフトの習熟度を容易に把握することが可能になる。この場合においても、例えばロボット本体111が業務用ソフトの内容や処理手順を口頭で説明しながら、右アーム111aや左アーム111bを動かして、処理する領域や対象画像を指し示すことが望ましい。これにより、人間が面接している臨場感を応募者16に持たせることが可能になる。
(面接システム:面接装置の具体的構成)
図5を用いて、面接装置11を具体的に説明する。面接装置11は、中空の長方体形状の壁部材116を有している。壁部材116は、面接室を形成している。壁部材116の内部には、透明のパーテンション115が設けられている。パーテンション115は、応募者16が存在する応募者室11Aと、ロボット本体111が存在するロボット室11Bとに面接室を仕切っている。これにより、応募者16とロボット本体111とは、パーテンション115を介して一対一で対面できるようになっている。
応募者室11Aには、壁部材116の上端から下端にかけて開口された通路部116aが形成されている。応募者16は、通路部116aにより応募者室11Aに出入りすることが可能になっている。通路部116aには、カーテン117が設けられている。カーテン117は、通路部116aを開閉可能にしており、面接時に外部から応募者室11A内を見ることができないようにしている。
パーテンション115は、支持台118上面の略中央部に立設されている。支持台118における応募者室11A側の部位は、机形状に形成されており、上面に面接側入力装置112を構成するディスプレイ1122やキーボード1121等が載置されていると共に、着席した応募者16の音声を取得するマイク113が設けられている。また、パーテンション115の下端中央部には、応募者16の顔を含む映像を取得し、表情や仕草等を分析して分析内容を出力する映像分析装置119が設けられている。映像分析装置119としては、RealSense(登録商標)が例示される。
一方、支持台118におけるロボット室11B側の部位には、面接を行うロボット本体111が設けられている。ロボット本体111の上方には、面接時の質問等を音声出力するスピーカ114a・114bが配置されている。スピーカ114a・114bは、壁部材116の上端部に設けられている。
また、支持台118の内部には、図1の制御装置121が設けられている。制御装置121は、図6に示すように、ロボット制御処理を実行するロボットコントローラ1211と、映像処理を実行するカメラコントローラ1212と、制御エージェントコントローラ1213とで構成されている。制御エージェントコントローラ1213は、情報提供システム13及びロボットコントローラ1211にそれぞれ指示を出す制御エージェント機能を有している。
図7に示すように、面接システム1は、複数の面接装置11を有してもよい。この場合における制御装置12は、統括コントローラ1214を有している。統括コントローラ1214は、各面接装置11におけるロボットコントローラ1211に接続されており、各制御装置12におけるロボット本体111の状態を監視している。統括コントローラ1214は、ロボット監視端末21に接続されており、集中的に各面接装置11を監視することが可能になっている。
また、データベースサーバとしての記憶装置14は、各面接装置11の制御エージェントコントローラ1213に接続されている。記憶装置14は、制御エージェントコントローラ1213から得られた応募者16の応答情報等の各種の情報を保管するようになっている。この図7の面接システム1は、同一の部屋内において、複数の面接装置11を配置する場合に好適である。
図8に示すように、さらに、面接システム1は、複数の面接装置11を異なる部屋や遠方の場所にそれぞれ配置することもできる。具体的には、1以上の面接装置11と統括コントローラ1214とロボット監視端末21とで一組の面接ユニット22を構成し、この面接ユニット22をそれぞれの場所に配置し、各面接ユニット22における制御エージェントコントローラ1213を1台の記憶装置14に接続した構成により実現することができる。
(面接システム:制御装置)
図1に示すように、制御装置12は、ロボット本体111に対して動作指示を行う処理と、ロボット本体111から送信される入力情報である応答情報を受信する処理と、面接側入力装置112に対する出力情報の送信及び入力情報(応答情報)の受信を行う処理とを実行可能にされている。さらに、制御装置12は、取得した応答情報に基づいて類似度を算出する処理を実行可能にされている。以下に類似度を算出する処理を具体的に説明する。
図9に示すように、応募者16に対して質疑応答を行った面接装置11から応答情報ai(1,1)〜ai(n,m)が制御装置12に入力される。尚、応答情報ai(1,1)〜ai(n,m)は、ロボット本体111から得られた応募者16の受け答えや、仕草、表情、身だしなみ等の他、面接側入力装置112からのキー入力のデータやタイミング等の複数の応答項目(1,1)〜(n,m)が、各応募者16について収集されたものである。
例えば、図10に示すように、質疑応答は、応募者16の一人について、一般的適性を調査するための質疑応答と、専門的適性を調査するための質疑応答との2部構成になっている。一般的適性の質疑応答は、性格や一般教養等の調査により「行動的側面」と「意欲的側面」と「情緒的側面」とを検査することを主目的としている。専門的適性の質疑応答は、応募時に応募者16が入力した希望職種に対応した職種に対する適性を専門的知識等の調査により検査することを主目的としている。
具体的に説明すると、図11に示すように、応募者16がA1(応募者ID)であれば、この応募者16に対して1番目の質問Q1(1)が行われる。そして、質問Q1(1)に対する応募者16の音声の応答A1(1,1)や映像の応答(仕草)A1(1,2)、映像の応答(表情)A1(1,3)、キー入力の応答A1(1,m)等の各種の応答A1(1.m)が取得される。また、3番目の質問Q1(3)の場合は、応答情報a1(1,1)〜a1(3,m)が得られる。そして、これらの質問Q1(1)〜Q1(n)に対する応答情報ai(1,1)〜ai(n,m)が図12の応募者情報テーブルに格納される。尚、音声は、制御装置12においてテキスト化される。応募者情報テーブルの詳細については後述する。
図9に示すように、一人の応募者16に対する質疑応答により得られた複数の応答情報ai(1,1)〜ai(n,m)は、定量化処理により適性を数値により定量化した面接評価レベルbi(1)〜bi(N)とされる。面接評価レベルbi(1)〜bi(N)は、一般的適性及び専門的適性を数値により示している。具体的には、図10に示すように、一般的質問Q1(1)…から得られた応答情報ai(1,1)…に基づいて一般的適性が数値化される。例えば、社会的内向性が面接評価レベルbi(1)において数値で示され、内省性が面接評価レベルbi(2)において数値で示され、笑顔が面接評価レベルbi(3)において数値で示される。
また、専門的質問Q1(n)…から得られた応答情報ai(n,m)…に基づいて専門的適性が数値化される。例えば、専門的知識量が面接評価レベルbi(n−1)において数値で示され、計算力が面接評価レベルbi(N)において数値で示される。
図9に示すように、面接評価レベルbi(1)〜bi(N)は、各職種1〜N毎に設定された人材評価レベルci(1)〜ci(N)とそれぞれ比較される。そして、各人材評価レベルci(1)〜ci(N)に対する面接評価レベルbi(1)〜bi(N)の類似度1〜Nが算出される。ここで、人材評価レベルci(1)〜ci(N)は、受付けや会計、営業、清掃等の各職種1〜Nに適した複数の人材が応募者16として本面接システム1の面接を受けることにより得られた複数の面接評価レベルbi(1)〜bi(N)の平均値である。これにより、応募者16は、面接評価レベルbi(1)〜bi(N)と人材評価レベルci(1)〜ci(N)とを比較して得られた類似度の高い職種1〜Nに適した人材である可能性が高いことになる。例えば、笑顔を示す面接評価レベルbi(3)の数値が高い応募者16は、受付けの職種の人材評価レベルci(3)に対して高い類似度を示すことから、受付けの職種に向いていることになる。尚、各職種1〜Nに適した人材は、過去に採用した人物の実績に基づいた過去採用者モデルを用いて判断されてもよいし、著名人や有名起業家、有名実業家等の資質モデルを用いて判断されてもよい。
また、制御装置12は、質疑応答時における感情の種類を判別する処理と、判別結果の信頼性を評価する処理とを実行し、これらの処理で得られた感情の判別結果と判別の信頼性を面接評価レベルbi(1)〜bi(N)に関連付けている。
具体的に説明すると、図11に示すように、面接の受け付け時において、応募者16の映像情報に基づいて一定期間内における表情の平均化を行うことによって、微表情を検出するための基準となる平均顔画像が形成される。この後、応募者16に対して1番目の質問Q1(1)が行われる。質問Q1(1)に対する応募者16の表情の応答A1(1,3)が取得されると、表情の応答A1(1,3)と平均顔画像とが比較され、図2に示された各領域161〜166における表情の変化が分析される。
各領域161〜166の変化が図3の条件1〜11を満足するものであれば、満足した条件1〜11に対応する感情の下に応答したものとなる。例えば、質問Q1(1)に対して、鼻領域162において皺を寄せ、口領域164において上唇を上げる変化が検出された場合は、条件1を満足することによって、応答時の感情が「嫌悪」を示すことになる。
また、図11に示すように、質問Q1(1)に対する応募者16の仕草の応答A1(1,2)が取得されると、仕草が分析される。仕草が図4の条件1〜11を満足するものであれば、満足した条件1〜11に対応する感情の下に応答したものとなる。例えば、質問Q1(1)に対して、顔を背ける動作が検出された場合は、条件1を満足することによって、応答時の感情が「嫌悪」を示すことになる。
質問Q1(1)に対する応答において、微表情に基づいた感情『嫌悪』と、仕草に基づいた感情『嫌悪』とが一致しているため、微表情に基づいた感情『嫌悪』の分析結果の信頼性が高いと判定される。そして、図10及び図13に示すように、高い信頼性を示す「1」が感情情報に設定され、感情情報c1(1,1)が応答情報ai(1,1)〜ai(n,m)に対応付けて格納される。一方、微表情に基づいた感情『嫌悪』と、仕草に基づいた感情『嫌悪』とが一致していない場合は、微表情に基づいた感情『嫌悪』の分析結果の信頼性が低いと判定される。この場合は、感情情報c1(1,0)が応答情報ai(1,1)〜ai(n,m)に対応付けて格納される。
尚、例えば、喜び等の肯定的感情である場合は、適性を定量化する際に、定量化した数値がレベルアップするように補正し、悲しみ等の否定的感情である場合は、適性を定量化する際に、定量化した数値がレベルダウンするように補正することが好ましい。これにより、定量化された適性を一層正確に数値で表現することができる。
(面接システム:情報提供システム)
図1に示すように、情報提供システム13は、制御装置12に対して情報信号を送受信可能に接続されている。情報提供システム13は、Communication Agent with Intelligent Word Analyzerとも称し、応募者16が操作する面接装置11から音声やキー入力で入力された入力文字列(例えば、応募者16が入力する質問)を受信する入力受信部と、知識データに基づいて、入力文字列に対応する応答内容(例えば、応募者16の質問に対する回答)を決定する応答内容決定部(例えば、情報提供サーバ200の応答内容決定部212)と、応答内容決定部により決定された応答内容を含む応答データを生成し、制御装置12を介して面接装置11に送信する応答データ生成部とを備えている。
知識データは、入力文字列の比較対象である比較対象文字列と、比較対象文字列に対応付けられた応答文字列を含んでいる。応答内容決定部は、入力文字列と比較対象文字列を比較して、入力文字列と最も意味が近く、且つその意味の近さが一定程度以上であると判定された場合に、その比較対象文字列に対応付けられた応答文字列を、応答内容として決定するように構成されている。
これにより、情報提供システム13は、例えば応募者16からの質問に応答して、最適なものとして評価された回答候補をロボット本体111が口頭で回答したり、面接側入力装置112において表示することによって、面接装置11と応募者16との質疑応答を人間が行っているような状態で行うことを可能にしている。
(面接システム:記憶装置)
記憶装置14は、応募者情報データベースを記憶している。応募者情報データベースは、図12及び図13の応募者情報テーブルの形態で格納されている。図12の応募者情報テーブルは、応募者欄と応答情報欄と面接評価レベル欄と複数の類似度欄(1〜N)とを有している。応募者欄は、応募者の固有の識別番号(A1、A2等)を格納している。応答情報欄は、各応募者に対応付けられた応答情報ai(1,1)〜ai(n,m)を格納している。面接評価レベル欄は、各応募者に対応付けされた面接評価レベルbi(1)〜bi(N)を格納している。各類似度欄(1〜N)は、職種1〜Nに対応付けられており、数値が高い程、高い類似度を有することを示している。
例えば、A1の応募者16について、類似度1が「20」、類似度2が「56」、類似度3が「84」、類似度Nが「15」である場合において、類似度3が高い値を示している。これにより、A1の応募者16は、類似度3に対応した職種3に適した人材であることが分かる。また、A3の応募者16について、類似度1が「24」、類似度2が「90」、類似度3が「11」、類似度Nが「78」である場合において、類似度2及び類似度Nが高い値である。これにより、A3の応募者16は、類似度2及び類似度Nに対応した2種類の職種2・Nに適した人材であることが分かる。
また、図13の応募者情報テーブルは、感情欄を有している。感情欄は、応答情報ai(1,1)〜ai(n,m)に対応付けて感情情報ci(n,m)を格納している。感情情報ci(n,m)は、「i」が応募者16のID、「n」が感情の種類に対応する図3の条件1〜11、「m」が高い信頼性を示す信頼値「1」及び低い信頼性を示す信頼値「0」である。例えば、微表情の分析結果が条件5の「怒り」を満足し、仕草の分析結果が「怒り」であれば、怒りの感情が高い信頼性の分析結果として得られたことを示す感情情報ci(5,1)となる。一方、微表情の分析結果が条件5の「怒り」を満足し、仕草の分析結果が「喜び」であれば、怒りの感情が低い信頼性の分析結果として得られたことを示す感情情報ci(5,0)となる。
尚、例えばQ1(3)に対応する応答のように、微表情の分析結果が条件7と条件10とを満足していた場合は、複数の感情「幸福、軽蔑」が混ざった状態で応答したことになる。この場合は、感情情報ci(7,0)及び感情情報ci(10,1)が格納される。また、この場合は、仕草の分析により感情情報ci(10,1)が高い信頼性であるため、「軽蔑」の感情が「幸福」の感情よりも強く出ていることが分かる。
(面接システム:端末装置)
図1に示すように、記憶装置14は、端末装置15との間でデータ通信可能にされている。端末装置15は、ディスプレイ等の表示装置やキーボード等の入力装置を有しており、面接者17の操作により記憶装置14の応募者情報データベースにアクセスすることによって、所望の職種に適した応募者16を抽出することが可能になっている。
具体的に説明すると、端末装置15は、募集対象の職種を入力可能な端末側入力装置151と、表示装置152と、各応募者16について募集対象の職種への推薦度合を類似度に関連付けて表示装置152に表示させる端末コントローラとを有している。例えば、図9においては、応募者16が希望する職種に対する類似度に基づいて決定された推薦度合が「おすすめ度:90%」として表示される。これにより、募集対象の職種を端末側入力装置151により入力すれば、表示装置152に表示された応募者16の推薦度合に基づいて、募集対象の職種に適した候補者を応募者16の中から容易且つ迅速に選択することができる。尚、推薦度合は、類似度を10段階等の複数段階に区分し、数値で表してもよいし、色分け表示してもよい。色分け表示した場合は、多くの応募者16の中から候補者を容易に絞り込むことが可能になる。また、推薦度合とは別に、各応答時の感情を表示してもよい。
尚、端末装置15における端末コントローラは、類似度が所定値以上の職種を表示装置152に表示させてもよい。例えば、類似度が90等の所定値以上の職種を抽出し、抽出した職種を「他のおすすめ職種」のように表示してもよい。この場合は、表示装置152に表示された応募者16について募集対象の職種の推薦度合に加えて、応募者16が他のどのような職種に適しているかを容易に確認することができる。さらに、表示装置152に表示された応募者16の希望職種に対して類似度が所定値以上の他の応募者16の名前の一覧を、類似度の高い順から「他のおすすめ人材」として表示してもよい。この場合は、候補の絞り込みを容易にすることができる。
(面接システム:面接処理)
上記の構成において、図14に示すように、制御装置12において実行される面接処理ルーチンを用いて、面接システム1における面接の処理動作を詳細に説明する。
先ず、応募者16が面接装置11の面接側入力装置112を操作したか否かが判定される(S1)。操作されない場合は(S1:NO)、S1が繰り返して実行されることによって、操作されるまで待機状態にされる。この後、図17Aに示すように、応募者16により面接側入力装置112が操作された場合は(S1:YES)、ロボット本体111の頭部111dに搭載されたカメラや図5の映像分析装置119により応募者16の撮影が開始される(S2)。これにより、ロボット本体111から応募者16の映像情報と音声情報とが応答情報として制御装置12に送信される。
次に、図17Bに示すように、登録情報画面2が表示されると共に、登録情報の入力が受け付けられる(S3)。登録情報画面2は、名前と電話番号とメールアドレスと希望職種との入力欄21と、登録完了を指示する登録ボタン22とを有したカード状の入力画面である。登録情報画面2は、応募者16の必要最低限の情報だけが入力されるようになっており、過度な登録情報による誤った判断を面接者17に生じさせないようにしている。
登録情報の入力が完了したか否かが判定される(S4)。入力が完了するまで(S4:NO)、S4が再実行されることによって、登録情報の入力が完了するまで待機状態にされる。入力が完了すると(S4:YES)、面接の開始処理が実行される(S5)。具体的には、ロボット本体111がお辞儀をし、自身の名前を名乗る等の自己紹介をした後、面接の流れを説明する。面接の流れは、口頭で説明しながら、面接側入力装置112の表示画面を指さして、どのような作業を行うかが手振り身振りで行われる。
面接の説明が終了すると、図18に示すように、ロボット本体111により応募者16に対して質疑応答が行われる。質疑応答は、一般的適性及び専門的適性を検査することができるように、応募者16の性格や一般教養に関する一般的な内容と、専門分野の関連知識等を問う専門的な内容とがある。尚、このような質疑応答の最中に、インターネットを介して応募者16の回答内容の正誤や正確性を判断するようになっていてもよい。そして、ロボット本体111により応募者16の動作や音声の応答情報が取得されると共に、面接側入力装置112に対する応募者16のキー入力による応答情報が取得される(S6)。
応答情報の取得は、面接が終了するまで継続され(S7)。面接が終了すると(S7:YES)、続いて、面接の終了処理が実行される(S8)。具体的には、ロボット本体111による面接終了の挨拶の後、今後の面接結果の連絡等の流れの説明が行われる。
次に、図19に示すように、応募者16とロボット本体111との会話内容を含む応答情報の面接評価レベルが決定され(S9)、面接評価レベルの類似度の算出が評価処理として全職種について行われる(S10)。
具体的には、図9に示すように、応募者16に対して質疑応答を行った面接装置11から、受け答えや仕草等の応答情報ai(1,1)〜ai(n,m)が入力されると、これらの応答情報ai(1,1)〜ai(n,m)に基づいて一般的適性及び専門的適性を数値で定量化した面接評価レベルbi(1)〜bi(N)が求められる。そして、面接評価レベルbi(1)〜bi(N)は、各職種1〜N毎に設定された人材評価レベルci(1)〜ci(N)とそれぞれ比較され、各人材評価レベルci(1)〜ci(N)に対する面接評価レベルbi(1)〜bi(N)の類似度1〜Nが算出される。このようにして得られた応答情報ai(1,1)〜ai(n,m)や類似度1〜N等の各種の情報が応募者情報データベースとして記憶装置14に格納される(S11)。そして、面接処理ルーチンが終了されることによって、一人の応募者16の面接が完了することになる。このようにして複数の応募者16に対して一人ずつ面接を行うことによって、応募者情報データベースのデータが蓄積されていくことになる。尚、複数の面接装置11を準備すれば、複数倍の効率で応募者情報データベースのデータが蓄積されていくことになる。
(面接システム:表情分析処理)
上記のようにして面接処理ルーチンが実行されているときに、応答情報ai(1,1)〜ai(n,m)に感情を関連付ける表情分析処理ルーチンが並列的に実行されている。図15に示すように、表情分析処理においては、先ず、映像情報が入力されたか否かが判定される(S21)。映像情報が入力されない場合は(S21:NO)、待機状態とされる。一方、図11の面接受付期間において、映像情報が入力された場合は(S21:YES)、応募者16が面接のための登録情報を入力している期間において、顔の映像情報が一定時間毎に切り取られた複数の静止画像とされ、これらの静止画像を平均化した平均顔画像が取得される(S22)。この後、図2に示すように、平均顔画像から分析領域(目領域161、鼻領域162、頬領域163、口領域164、顎領域165、眉領域166)が抽出される(S23)。
図11の一般的適性の質疑応答が開始されるまで待機状態とされる。即ち、質疑応答が開始されたか否かが判定される(S24)。質疑応答が開始されない場合は(S24:NO)、S24が再実行される。質疑応答が開始された場合は(S24:YES)、単位表情分析処理が実行される(S25)。
図16に示すように、単位表情分析処理においては、応答情報ai(1,1)〜ai(n,m)が、どのような感情の下に取得されたものであるかを調査すると共に、得られた感情の信頼性の評価を行うようになっている。
具体的に説明すると、図11に示すように、1単位の質疑応答で取得された顔映像を一定時間毎に切り分けることによって、複数の分析顔画像が取得される(S31)。ここで、「1単位の質疑応答」とは、一つの質問Q1(n)に対して、一群の応答情報ai(1,1)〜ai(1,m)が得られることを意味する。
この後、分析顔画像から図2の分析領域が抽出される(S32)。そして、一つの選択された分析顔画像の分析領域と、この分析領域に対応する平均顔画像の分析領域とが対比される。例えば、眉領域166同士が比較される(S33)。対比結果が一定値以上であるか否かが判定される(S34)。対比結果が一定値以上でなければ(S34:NO)、分析領域における変化はないと判定され、S32から再実行される。そして、次に選択された分析顔画像の分析領域と、この分析領域に対応する平均顔画像の分析領域とが対比される(S33)。
一方、対比結果が一定値以上であれば(S34:YES)、この分析領域について、表情判定項目を調査及び登録する。例えば、図3に示すように、目領域161における対比結果が一定値以上の場合であって、且つ、目を見開いた状態である場合は、表情判定項目における目領域項目に、「1」等のフラグデータが登録される。即ち、条件2・3・4・5・11に「1」の設定フラグが登録される。また、眉領域166における対比結果が一定値以上の場合であって、且つ、両眉を中央に引き寄せた状態である場合は、表情判定項目における眉領域項目に、「1」等のフラグデータが登録される。即ち、条件3・4・5・9に「1」の設定フラグが登録される。
この後、全ての分析領域についての対比を完了したか否かが判定される(S36)。全ての分析領域についての対比を完了していなければ(S36:NO)、S32から再実行され、対比されていない次の分析領域についての抽出及び対比が行われる。
全ての分析領域についての対比が完了した場合は(S36:YES)、表情判定項目の判定条件が成立したか否かが判定される(S37)。一方、判定条件が成立していない場合は(S37:NO)、続いて、最終の質疑応答が終了したか否かが判定される(S41)。最終の質疑応答でなければ(S41:NO)、次の質疑応答についての感情分析を行うように、S31から再実行される。一方、最終の質疑応答であれば(S41:YES)、本ルーチンが終了され、図15の表情分析処理にリターンされる。
一方、例えば、目領域161の『目を見開く』として「1」、眉領域166の「両眉を中央に引き寄せる」として「1」、口領域164の『口角を横に引く』として「1」のフラグデータがそれぞれ登録されていた場合は、条件3(恐怖の感情)が成立することになる。この場合は、判定条件が成立しているとして(S37:YES)、続いて判定結果の信頼性が調査される。
先ず、成立した判定条件の感情が登録され(S38)、成立した判定条件に対応した他の動作条件が仕草の映像情報に基づいて判定される(S39)。そして、他の動作条件の判定結果に応じて感情信頼値(高信頼性「1」、低信頼性「0」)が設定される(S40)。この結果、例えば図13に示すように、1番目の応募者16に対する1問目の質問情報Q1(1)に対して、感情情報C1(1、1)が登録されていた場合は、高い信頼性で「嫌悪」の感情の下に応答情報a1(1,1)〜a1(1,m)が取得されたことが分かる。また、15番目の応募者16に対する3問目の質問情報Q15(3)に対して、感情情報C15(6、0)が登録されていた場合は、低い信頼性で「幸福」の感情の下に応答情報a15(3,1)〜a1(3,m)が取得されたことが分かる。
この後、最終の質疑応答が終了したか否かが判定される(S41)。最終の質疑応答でなければ(S41:NO)、次の質疑応答についての感情分析を行うように、S31から再実行される。一方、最終の質疑応答であれば(S41:YES)、本ルーチンが終了され、図15の表情分析処理にリターンされる。
上記の面接中、或いは、面接後において、図20Aに示すように、面接者17が端末装置15を通じて記憶装置14の応募者情報データベースにアクセスし、面接結果を参照することができる。参照時においては、例えば図20Bに示すように、応募者16の個人ごとの面接結果の表示と、希望職種ごとの候補者の一覧表示とが選択可能にされる。
個人ごとの面接結果の表示は、一人の応募者16における応答情報ai(1,1)〜ai(n,m)や面接評価レベルbi(1)〜bi(N)、類似度1〜N等が表示される。尚、応答情報ai(1,1)〜ai(n,m)と一緒に、応答時の感情情報が表示されてもよい。例えば、『応募者情報』として、応募の受け付け時に入力した名前や電話番号、メールアドレス、希望職種からなる登録情報が表示される。また、『回答内容』として、希望職種にとって重要な判断材料となる質問が表示されると共に、この質問に対する応答が応答情報ai(1,1)〜ai(n,m)から選択されて表示される。さらに、『応答情報』として、上記の回答内容で表示された応答以外の応答情報ai(1,1)〜ai(n,m)が表示される。尚、『応答情報』として、応答時における応募者16の表情や様子が静止画や動画で表示されてもよい。
また、希望職種ごとの候補者の一覧表示は、例えば職種として『経理』を入力した場合において、希望職種を『経理』とした応募者16の一覧が表示される。具体的には、応募者16の名前及び希望職種に加えて、社会的内向性や内省性、笑顔等の各種の面接評価レベルbi(1)〜bi(N)が表示される。尚、端末装置15は、経理等の検索対象の職種に対する類似度が高い応募者16を一覧表示するようになっていてもよい。
以上、本発明の実施形態を説明したが、具体例を例示したに過ぎず、特に本発明を限定するものではなく、各手段等の具体的構成は、適宜設計変更可能である。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
また、上述した詳細な説明では、本発明をより容易に理解できるように、特徴的部分を中心に説明した。本発明は、上述した詳細な説明に記載する実施形態に限定されず、その他の実施形態にも適用することができ、その適用範囲は多様である。また、本明細書において用いた用語及び語法は、本発明を的確に説明するために用いたものであり、本発明の解釈を制限するために用いたものではない。また、当業者であれば、本明細書に記載された発明の概念から、本発明の概念に含まれる他の構成、システム、方法等を推考することは容易であると思われる。従って、請求の範囲の記載は、本発明の技術的思想の範囲を逸脱しない範囲で均等な構成を含むものであるとみなされなければならない。また、要約書の目的は、特許庁及び一般的公共機関や、特許、法律用語又は専門用語に精通していない本技術分野に属する技術者等が本出願の技術的な内容及びその本質を簡易な調査で速やかに判定し得るようにするものである。従って、要約書は、請求の範囲の記載により評価されるべき発明の範囲を限定することを意図したものではない。また、本発明の目的及び本発明の特有の効果を十分に理解するために、すでに開示されている文献等を充分に参酌して解釈されることが望まれる。
上述した詳細な説明は、コンピュータで実行される処理を含むものである。以上での説明及び表現は、当業者が最も効率的に理解することを目的として記載している。本明細書では、1の結果を導き出すために用いられる各処理は、自己矛盾がない処理として理解されるべきである。また、各処理では、電気的又は磁気的な信号の送受信、記録等が行われる。各処理における処理では、このような信号を、ビット、値、シンボル、文字、用語、数字等で表現しているが、これらは単に説明上便利であるために用いたものであることに留意する必要がある。また、各処理における処理は、人間の行動と共通する表現で記載される場合があるが、本明細書で説明する処理は、原則的に各種の装置により実行されるものである。また、各処理を行うために要求されるその他の構成は、以上の説明から自明になるものである。
1 面接システム
11 面接装置
12 制御装置
13 情報提供システム
14 記憶装置
15 端末装置
16 応募者
17 面接者
111 ロボット本体
115 パーテンション
116 壁部材
119 映像分析装置
112 面接側入力装置
151 端末側入力装置
152 表示装置

Claims (7)

  1. 応募者に対する質疑応答を通じて、前記応募者の顔の映像情報を含む応答情報を取得する情報取得装置と、
    前記情報取得装置で取得された前記顔の映像情報に基づいて前記応募者の時間経過に伴って変化する様子を分析し、前記質疑応答時における感情の種類を判別する制御装置と、
    前記制御装置で判別された前記感情の種類と、前記情報取得装置で取得された前記応答情報とが、前記応募者に対応付けて蓄積された応募者情報データベースを記憶する記憶装置と、
    前記記憶装置における前記応募者情報データベースにアクセス可能な端末装置と
    を有することを特徴とする面接システム。
  2. 前記制御装置は、瞬時に表れて消える微表情を、前記時間経過に伴って変化する様子とすることを特徴とする請求項1に記載の面接システム。
  3. 前記面接制御装置は、
    前記質疑応答の開始前における前記顔の映像情報に基づいて、一定期間における前記応募者の顔の変化を平均化した平均顔画像を取得し、
    前記平均顔画像と前記顔の映像情報との相違に基づいて前記応募者の微表情を分析することを特徴とする請求項1に記載の面接システム。
  4. 前記情報取得装置は、さらに、前記応募者の体全体の映像情報を取得し、
    前記面接制御装置は、
    前記体全体の映像情報に基づいて前記応募者のしぐさを分析し、前記質疑応答時における前記感情の種類を判別し、当該しぐさの分析による前記感情の種類を、前記微表情による前記感情の種類の判別の信頼性に関連付けることを特徴とする請求項1に記載の面接システム。
  5. 前記面接制御装置は、さらに、前記情報取得装置で取得された前記応答情報に基づいて前記応募者の適性を定量化した面接評価レベルの決定を行い、
    前記記憶装置に記憶される前記応募者情報データベースは、さらに、前記応答情報と前記面接評価レベルとが、前記応募者に対応付けて蓄積することを特徴とする請求項1に記載の面接システム。
  6. 前記面接制御装置は、さらに、各職種について最適な適性を定量化した複数の人材評価レベルに対する前記面接評価レベルの類似度をそれぞれ算出し、
    前記記憶装置に記憶される前記応募者情報データベースは、さらに、前記各職種の類似度が前記応募者に対応付けて蓄積することを特徴とする請求項5に記載の面接システム。
  7. 前記情報取得装置は、
    右アーム及び左アームと、これら右アーム及び左アームを支持した胴体と、前記胴体の上端に設けられた頭部とを有し、前記応募者の姿及び音声を前記応答情報として取得する人型のロボット本体を備えていることを特徴とする請求項1に記載の面接システム。
JP2016163028A 2016-08-23 2016-08-23 面接システム Pending JP2018032164A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016163028A JP2018032164A (ja) 2016-08-23 2016-08-23 面接システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016163028A JP2018032164A (ja) 2016-08-23 2016-08-23 面接システム

Publications (1)

Publication Number Publication Date
JP2018032164A true JP2018032164A (ja) 2018-03-01

Family

ID=61304339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016163028A Pending JP2018032164A (ja) 2016-08-23 2016-08-23 面接システム

Country Status (1)

Country Link
JP (1) JP2018032164A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108470064A (zh) * 2018-03-26 2018-08-31 黑龙江省经济管理干部学院 一种基于智能机器人的新闻稿生成方法
CN109670023A (zh) * 2018-12-14 2019-04-23 平安城市建设科技(深圳)有限公司 人机自动面试方法、装置、设备和存储介质
CN110728182A (zh) * 2019-09-06 2020-01-24 平安科技(深圳)有限公司 基于ai面试系统的面试方法、装置和计算机设备
JP2020144550A (ja) * 2019-03-05 2020-09-10 株式会社オープンクラウド 採用選考システム
CN112686642A (zh) * 2021-01-08 2021-04-20 贝朗医疗(上海)国际贸易有限公司 一种视频面试方法及装置
JP2021089646A (ja) * 2019-12-05 2021-06-10 富士通株式会社 検出方法、通知方法、検出プログラムおよび通知プログラム
JP2021517287A (ja) * 2019-04-12 2021-07-15 クーパン コーポレイション マイクロ表現を用いて信ぴょう性を決定するコンピュータ化されたシステムおよび方法
CN113810649A (zh) * 2020-06-16 2021-12-17 尤妮佳股份有限公司 通信系统和通信方法
JP2022073140A (ja) * 2020-10-30 2022-05-17 株式会社Zenkigen 選考装置及びプログラム
JP2023509750A (ja) * 2020-01-08 2023-03-09 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド 表情識別方法及び装置、機器、コンピュータ可読記憶媒体並びにコンピュータプログラム
JP2025048913A (ja) * 2023-09-21 2025-04-03 ソフトバンクグループ株式会社 システム

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108470064A (zh) * 2018-03-26 2018-08-31 黑龙江省经济管理干部学院 一种基于智能机器人的新闻稿生成方法
CN109670023A (zh) * 2018-12-14 2019-04-23 平安城市建设科技(深圳)有限公司 人机自动面试方法、装置、设备和存储介质
JP2020144550A (ja) * 2019-03-05 2020-09-10 株式会社オープンクラウド 採用選考システム
US11494477B2 (en) 2019-04-12 2022-11-08 Coupang Corp. Computerized systems and methods for determining authenticity using micro expressions
JP2021517287A (ja) * 2019-04-12 2021-07-15 クーパン コーポレイション マイクロ表現を用いて信ぴょう性を決定するコンピュータ化されたシステムおよび方法
CN110728182A (zh) * 2019-09-06 2020-01-24 平安科技(深圳)有限公司 基于ai面试系统的面试方法、装置和计算机设备
WO2021042842A1 (zh) * 2019-09-06 2021-03-11 平安科技(深圳)有限公司 基于ai面试系统的面试方法、装置和计算机设备
CN110728182B (zh) * 2019-09-06 2023-12-26 平安科技(深圳)有限公司 基于ai面试系统的面试方法、装置和计算机设备
JP2021089646A (ja) * 2019-12-05 2021-06-10 富士通株式会社 検出方法、通知方法、検出プログラムおよび通知プログラム
JP7354813B2 (ja) 2019-12-05 2023-10-03 富士通株式会社 検出方法、通知方法、検出プログラムおよび通知プログラム
JP2023509750A (ja) * 2020-01-08 2023-03-09 シャンハイ センスタイム リンガン インテリジェント テクノロジー カンパニー リミテッド 表情識別方法及び装置、機器、コンピュータ可読記憶媒体並びにコンピュータプログラム
JP2021197665A (ja) * 2020-06-16 2021-12-27 ユニ・チャーム株式会社 通信システム及び通信方法
CN113810649A (zh) * 2020-06-16 2021-12-17 尤妮佳股份有限公司 通信系统和通信方法
JP7545239B2 (ja) 2020-06-16 2024-09-04 ユニ・チャーム株式会社 通信システム及び通信方法
JP2022073140A (ja) * 2020-10-30 2022-05-17 株式会社Zenkigen 選考装置及びプログラム
JP7578266B2 (ja) 2020-10-30 2024-11-06 株式会社Zenkigen 選考装置及びプログラム
JP2024180619A (ja) * 2020-10-30 2024-12-26 株式会社Zenkigen 選考装置及びプログラム
CN112686642A (zh) * 2021-01-08 2021-04-20 贝朗医疗(上海)国际贸易有限公司 一种视频面试方法及装置
JP2025048913A (ja) * 2023-09-21 2025-04-03 ソフトバンクグループ株式会社 システム

Similar Documents

Publication Publication Date Title
JP2018032164A (ja) 面接システム
JP6741504B2 (ja) 面接システム
US11113890B2 (en) Artificial intelligence enabled mixed reality system and method
Vinola et al. A survey on human emotion recognition approaches, databases and applications
JP6715410B2 (ja) 評価方法、評価装置、評価プログラム、および、評価システム
CN110313923A (zh) 基于联合注意能力测试和音视频行为分析的孤独症早期筛查系统
US20180047030A1 (en) Customer service device, customer service method, and customer service system
US20190139438A1 (en) System and method for guiding social interactions
JP2018060374A (ja) 情報処理装置、評価システムおよびプログラム
Sánchez-Ancajima et al. Gesture Phase Segmentation Dataset: An Extension for Development of Gesture Analysis Models.
Shiva et al. Calculating The Impact Of Event Using Emotion Detection
WO2022168185A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022180824A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
Wahid et al. Emotion detection using unobtrusive methods: An integrated approach
CN120277395B (zh) 基于多模态时间序列数据的房树人测验分析方法及装置
JP7734291B1 (ja) 情報処理システム、情報処理方法及びプログラム
JP7100938B1 (ja) 動画像分析プログラム
US20240371397A1 (en) System for processing text, image and audio signals using artificial intelligence and method thereof
JP2020135460A (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム
Sreekrishna et al. Emotional Evaluation of Facial Tension Using LSTM for Psychological Assessments
KR20240133886A (ko) 빅데이터 처리를 통한 비대면 심리지원 서비스 제공 시스템 및 그 방법
CN108154381A (zh) 提案候选提示装置以及提案候选提示方法
Ali et al. Smart Class Analytics for Assessing Group Understandingvia Facial Expressions
Sakib et al. Real-Time Confidence Detection through Facial Expressions and Hand Gestures
Nandrajog et al. Multimodal CNN-GRU Approach for Job Interview Assessment: Integrating Facial Expressions and Speech Analysis