JP2015153324A - 情報検索装置、情報検索方法及び情報検索プログラム - Google Patents
情報検索装置、情報検索方法及び情報検索プログラム Download PDFInfo
- Publication number
- JP2015153324A JP2015153324A JP2014028836A JP2014028836A JP2015153324A JP 2015153324 A JP2015153324 A JP 2015153324A JP 2014028836 A JP2014028836 A JP 2014028836A JP 2014028836 A JP2014028836 A JP 2014028836A JP 2015153324 A JP2015153324 A JP 2015153324A
- Authority
- JP
- Japan
- Prior art keywords
- user
- instruction
- unit
- information search
- recognition result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザが検索対象に関連するワードを把握していない場合であっても適切に情報を検索する技術を提供することを目的とする。
【解決手段】本発明の一態様は、ユーザからの音声入力を受け付ける音声入力手段と、前記音声入力を認識した音声認識結果を取得する音声認識結果取得手段と、前記音声認識結果から指示語を抽出する指示語抽出手段と、前記ユーザの動作を認識し、認識した動作からユーザの指示を推定する動作指示推定手段と、前記指示語抽出手段が抽出した指示語、前記動作指示推定手段が推定したユーザの指示及び前記音声認識結果を基に前記ユーザの検索指示を作成する指示作成手段とを有する情報検索装置に関する。
【選択図】図1
【解決手段】本発明の一態様は、ユーザからの音声入力を受け付ける音声入力手段と、前記音声入力を認識した音声認識結果を取得する音声認識結果取得手段と、前記音声認識結果から指示語を抽出する指示語抽出手段と、前記ユーザの動作を認識し、認識した動作からユーザの指示を推定する動作指示推定手段と、前記指示語抽出手段が抽出した指示語、前記動作指示推定手段が推定したユーザの指示及び前記音声認識結果を基に前記ユーザの検索指示を作成する指示作成手段とを有する情報検索装置に関する。
【選択図】図1
Description
本発明は、ユーザが音声発話や動作を用いて、自然な操作により情報検索を行う技術に関する。
従来、ユーザが情報検索する際には、検索する情報に関連するワードを端末にキー入力する必要があった。それに対して、近年、音声検索サービスが登場し、ユーザが端末に向かって音声を発話し、発話した音声からキーワードを抽出することで情報検索することが可能となっている。
また、ユーザが発話した自然文の中からユーザの意図を解釈し、システムが自動でキーワードを作成して情報検索をする技術も存在する。例えば、特許文献1では、ユーザ発話から、例えばユーザが意図する場所や店の名前等を知識ベースから検索する技術について開示されている。
しかしながら、ユーザが音声で発話し、情報検索する場合には、検索対象に関連するワードを発話する必要があり、そのような関連ワードをユーザが把握していない場合は、検索できないという問題点がある。例えば、ユーザの目の前にあるビルの中にある店の名前を検索したい場合、特許文献1に開示の従来技術では、ユーザは当該ビルの名称を発話する必要があり、ユーザが当該ビルの名称を把握していない場合は、検索することができない。
また、ユーザがある寸法を有する物体について検索したい場合、特許文献1に開示の従来技術では、音声で検索する際にユーザはその物体の寸法を指定して検索する必要があり、ユーザが当該物体の寸法を把握していない場合は、検索することができない。
本発明は、以上のような課題を鑑み、ユーザが検索対象に関連するワードを把握していない場合であっても適切に情報を検索する技術を提供することを目的とする。
上記課題を解決するため、本発明の一態様は、ユーザからの音声入力を受け付ける音声入力手段と、前記音声入力を認識した音声認識結果を取得する音声認識結果取得手段と、前記音声認識結果から指示語を抽出する指示語抽出手段と、前記ユーザの動作を認識し、認識した動作からユーザの指示を推定する動作指示推定手段と、前記指示語抽出手段が抽出した指示語、前記動作指示推定手段が推定したユーザの指示及び前記音声認識結果を基に前記ユーザの検索指示を作成する指示作成手段とを有する情報検索装置に関する。
本発明によれば、ユーザが検索対象に関連するワードを把握していない場合であっても、適切に情報を検索することが可能となる。
以下、図面に基づいて本発明の実施の形態を説明する。
[第1実施形態]
以下、本発明の第1実施形態について図面を参照して説明する。
[構成]
図1は、本発明の第1実施形態にかかる情報検索システム及び情報検索装置の構成について説明する機能ブロック図である。図1に示されるように、情報検索システム1は、情報検索装置10と、音声認識サーバ20と、情報検索サーバ30とを含んで構成されている。
[第1実施形態]
以下、本発明の第1実施形態について図面を参照して説明する。
[構成]
図1は、本発明の第1実施形態にかかる情報検索システム及び情報検索装置の構成について説明する機能ブロック図である。図1に示されるように、情報検索システム1は、情報検索装置10と、音声認識サーバ20と、情報検索サーバ30とを含んで構成されている。
情報検索装置10は、カメラ等の撮影機器を内蔵し、通信網(例えば、移動体通信網)を介して音声認識サーバ20及び情報検索サーバ30等と通信を行うことができる情報処理装置であり、例えば、携帯電話機やスマートフォン、PC(Personal Computer)、デジタルサイネージ等が該当する。情報検索装置10は、例えば、プロセッサなどのCPU(Central Processing Unit)、RAM(Random Access Memory)などのメモリ装置、ハードディスク装置などの補助記憶装置、無線信号を通信するための通信装置、ユーザとやりとりするためのインタフェース装置、情報検索装置10の位置や方向を検知するセンサ装置などから構成される。センサ装置は、例えば、GPS(Global Positioning System)機能を実現することによって情報検索装置100の位置を検出する位置検出装置、情報検索装置100の向きを検知する地磁気センサなどを有する。
後述される情報検索装置100の各機能は、通信装置及び/又はインタフェース装置を介し補助記憶装置に格納されているデータやプログラムをメモリ装置にロードし、ロードされたプログラムに従ってCPUがデータを処理することによって実現される。
音声認識サーバ20は、情報検索装置10から音声データを受信し、受信した音声に対して音声認識を行い、音声認識の結果である文章あるいは単語の集合を情報検索装置10に送信する。
情報検索サーバ30は、情報検索装置10から検索キーワードを含む検索要求を受信し、受信した検索キーワードにより情報検索を行い、検索結果を情報検索装置10に返信する。なお、情報検索サーバ30が受信する検索キーワードは単語の集合であってもよいし、文章であってもよい。情報検索サーバ30が検索キーワードとして文章を受信した場合は、所謂自然文検索と呼ばれる検索手法により情報検索を行ってもよい。自然文検索の手法としては既存の種々の技術を用いることができる。
次に、情報検索装置10の機能構成について図1を参照して説明する。図1に示されるように、情報検索装置10は、機能的要素として、音声入力部110(音声入力手段)と、音声認識結果取得部120(音声認識結果取得手段)と、指示語抽出部130(指示語抽出手段)と、撮像部140(撮像手段)と、動作指示推定部150(動作指示推定手段)と、指示作成部160(指示作成手段)と、検索結果出力部170と、記憶部180(記憶手段)とを含んで構成される。
後述される情報検索装置10における処理は、典型的には、携帯電話機やスマートフォンなどの情報処理装置上で実行される情報検索アプリケーションにより実現されてもよい。この場合、上述した各種機能的要素は、情報検索アプリケーションを構成するモジュールとして実現されてもよい。
音声入力部110は、ユーザからの音声入力を受け付け、入力された音声データを音声認識サーバ20に送信する。音声認識結果取得部120は、音声認識サーバ20の音声認識結果を、テキストデータとして取得する。
指示語抽出部130は、音声認識結果取得部120が取得したテキストデータから、指示語を抽出する。ここで、指示語とは、ユーザの動作による検索意図を表す語であり、例えば代名詞を含む語である。指示語抽出部130は、音声認識結果取得部120が取得したテキストデータを基に、記憶部180に記憶する指示語リストを検索し、テキストデータ内にヒットした指示語があった場合は当該レコードに含まれる指示語を抽出するとともに、当該指示語が表す指示種別を特定する。図2に、記憶部180に記憶する指示語リストの例を示す。記憶部180は、指示語リストとして、指示語とそれに対応する指示種別を格納している。
指示語抽出部130の動作を、具体例を用いて説明する。例えば、ユーザが「これくらいのケーキ」と発話したとする。指示語抽出部130は、ユーザの発話を基に記憶部180に記憶する指示語リストを検索し、指示語「これくらい」を抽出するとともに、当該指示語に対応する指示種別として「寸法」を特定する。
撮像部140は、情報検索装置10に備えられたカメラ等の撮像装置を用いて、ユーザの動作を撮像する。
動作指示推定部150は、指示語抽出部130が抽出した指示語及び指示語に対応する指示種別と、撮像部140が撮像したユーザの動作を基に、ユーザの指示の推定を行う。以下、具体例を用いて説明する。例えば、ユーザが「これくらいのケーキ」と発話したうえで、図3に示すようなケーキの寸法を表す動作をしたとする。この場合、指示語抽出部130は、上述の通り、発話による指示が「寸法」を表すものであることを特定している。よって、動作指示推定部150は、撮像部140が撮像したユーザの動作の中から、ユーザの指示として「寸法」を推定する。
動作指示推定部150による「寸法」の推定は、以下のようにして行う。まず、撮像部140が撮像した画像から、ユーザの手を検出する。この手の検出には、既存の種々の手法を用いることができる。
次に検出したユーザの手の位置や形状を基に、ユーザによる寸法を表す動作の特定を行う。図3の例では、ユーザが両手を平行に広げた動作を、寸法を表す動作として特定する。また別の例では、ユーザが片手で親指と人差し指を広げる動作を、寸法を表す動作として特定するようにしてもよい。
次に、特定した寸法を表す動作を基に、寸法の推定を行う。寸法の推定は、例えば、特定した寸法を表す動作に対応する画素数と体の部位に対応する画素数との比較により行う。具体的には、記憶部180に図4に示すような体の部位と寸法種別、寸法を対応づけたテーブルを記憶しておく。動作指示推定部150は、特定した寸法を表す動作に対応する画素数を算出するとともに、撮像部140が撮像した画像から、図4に示すような体の部位を検出し、対応する画素数を算出する。その後、これらの画素数の比較と記憶部180に記憶された当該体の部位に対応する寸法から、寸法の推定を行う。
目下の例において、図3に示すユーザが両手を平行に広げた動作に対応する画素数(左手の先と右手の先の間の画素数)が180画素であり、顔の幅に対応する画素が150画素であったとする。図4に示すテーブルを参照すると、顔の幅の寸法は16cmであることが分かるため、ユーザの動作に対応する寸法は、180÷150×16≒19cmと推定される。
なお、記憶部180に記憶する体の部位に対応する寸法は、複数の人からサンプリングした平均的なサイズを用いてもよいし、当該ユーザ固有のサイズを事前に登録しておいてもよい。
指示作成部160は、音声認識結果取得部120が取得したテキストデータ、指示語抽出部130が抽出した指示語及び動作指示推定部150が推定したユーザの指示を基に、情報検索サーバ30への検索指示を作成する。具体的には、指示作成部160は、テキストデータに含まれる指示語を推定したユーザの指示に置換することで検索指示を作成する。
図3の例では、音声認識結果取得部120が取得したテキストデータは、「これくらいのケーキ」であり、指示語抽出部130が抽出した指示語は「これくらい」であり、動作指示推定部150が推定したユーザの指示は、寸法が「19cm」である。指示作成部160は、これらの情報に基づいて、「これくらいのケーキ」の「これくらい」を「19cm」に置換し、「19cmのケーキ」を検索指示として作成する。
なお、検索指示を作成する際に、推定した寸法を四捨五入等により概数に変換したり、単位を変換したりした後に置換してもよい。例えば、「19cm」を十の位で四捨五入した「20cm」に変換してもよいし、ケーキを表す単位である「号」で表される大きさのうち、19cmに最も近い「6号」に変換してもよい。
指示作成部160は、作成した検索指示を情報検索サーバ30に送信する。この際、情報検索サーバ30が所謂自然文検索に対応している場合は置換後のテキストデータをそのまま送信してもよい。対応していない場合には、指示作成部160は、置換後のテキストデータから検索クエリとなるワードを抽出して、情報検索サーバ30に送信してもよい。具体的には、テキストデータを形態素解析し、独立語を抽出して検索クエリとする。図3の例では、置換後のテキストデータ「19cmのケーキ」の独立語は「19cm」、「ケーキ」であるため、これらのワードを検索クエリとして情報検索サーバ30に送信する。
検索結果出力部170は、情報検索サーバ30より、検索結果を受信し、出力する。検索結果出力部170は、検索結果をディスプレイに表示してもよいし、検索結果のテキストデータを音声合成することで出力してもよい。
[フローチャート]
次に、本実施形態に係る情報検索方法の処理の流れを図5に示すフローチャートを用いて説明する。まず、情報検索装置10の音声入力部110にて、ユーザからの音声発話を入力する(ステップS01)。次に、入力された音声発話が音声データとして音声認識サーバ20に送信され、音声認識サーバ20にて音声認識を行う(ステップS02)。
[フローチャート]
次に、本実施形態に係る情報検索方法の処理の流れを図5に示すフローチャートを用いて説明する。まず、情報検索装置10の音声入力部110にて、ユーザからの音声発話を入力する(ステップS01)。次に、入力された音声発話が音声データとして音声認識サーバ20に送信され、音声認識サーバ20にて音声認識を行う(ステップS02)。
その後、音声認識サーバ20による音声認識結果を、テキストデータとして情報検索装置10の音声認識結果取得部120が取得する(ステップS03)。そして、指示語抽出部130が、取得したテキストデータから指示語を抽出し、指示語に対応する指示種別を特定する(ステップS04)。
指示語抽出部130が指示語を抽出した場合(ステップS05のYes)、撮像部140がユーザの動作を撮像し(ステップS06)、撮像したユーザの動作とステップS04で抽出された指示語及び対応する指示種別を用いて、動作指示推定部150がユーザの動作による指示の推定を行う(ステップS07)。
その後、ステップS03で取得したテキストデータ、ステップS04で抽出された指示語及び動作指示推定部で推定したユーザの指示に基づいて、指示作成部160が検索指示を作成する(ステップS08)。作成された検索指示は情報検索サーバ30に送信され、情報検索サーバ30にて検索指示に基づく情報検索を行う(ステップS09)。その後、情報検索結果が情報検索装置10に送信され、検索結果出力部170にて検索結果を出力する(ステップS10)。
他方、指示語抽出部130が指示語を抽出しなかった場合は(ステップS05のNo)、ステップS03で取得したテキストデータを基に、指示作成部160が検索指示を作成する(ステップS08)。その後の流れは上述のとおりである。
以上で説明したように、本実施形態に係る発明によれば、ユーザが検索対象の寸法を具体的に特定できない場合であっても、寸法を表す動作を行うことにより、当該検索対象の寸法を指定した検索を行うことができる。
[第2実施形態]
以下、本発明の第2実施形態について図面を参照して説明する。
[構成]
図6は、本発明の第2実施形態にかかる情報検索システム及び情報検索装置の構成について説明する機能ブロック図である。本実施形態における情報検索システムの構成は図1に示す第1実施形態にかかる情報検索システムの構成と同様である。
[第2実施形態]
以下、本発明の第2実施形態について図面を参照して説明する。
[構成]
図6は、本発明の第2実施形態にかかる情報検索システム及び情報検索装置の構成について説明する機能ブロック図である。本実施形態における情報検索システムの構成は図1に示す第1実施形態にかかる情報検索システムの構成と同様である。
本実施形態における情報検索装置10Nは、機能的要素として、音声入力部110(音声入力手段)と、音声認識結果取得部120(音声認識結果取得手段)と、指示語抽出部130(指示語抽出手段)と、撮像部140(撮像手段)と、動作指示推定部150N(動作指示推定手段)と、指示作成部160N(指示作成手段)と、検索結果出力部170と、記憶部180と、方向検知部190(方向検知手段)と、位置検知部191とを含んで構成される。なお、図1において説明済みの要素については同じ参照番号が付され、重複的な説明は行わない。
方向検知部190は、地磁気センサ等のセンサにより取得された情報を基に、情報検索装置10が向いている方向(角度)を検知する。位置検知部191は、GPSや無線基地局による測位結果に基づき、情報検索装置10の位置を検知する。
動作指示推定部150Nは、指示語抽出部130が抽出した指示語及び指示語に対応する指示種別と、撮像部140が撮像したユーザの動作と、方向検知部190が検知した情報検索装置10が向いている方向を基に、ユーザの指示の推定を行う。
以下、具体例を用いて説明する。例えば、ユーザが「あっちの方のレストラン」と発話したうえで、図7(a)に示すようなビルの方向を表す動作をしたとする。この場合、指示語抽出部130は、上述の第1実施形態と同様の処理により、発話による指示が「方向」を表すものであることを特定する。よって、動作指示推定部150Nは、撮像部140が撮像したユーザの動作の中から、ユーザの指示として「方向」を推定する。
動作指示推定部150Nによる「方向」の推定は、以下のようにして行う。まず、撮像部140が撮像した画像から、ユーザの手を検出する。この手の検出には、既存の種々の手法を用いることができる。
次に、動作指示推定部150Nは、検出したユーザの手の位置を基に、ユーザの手の情報検索装置10Nに対する相対的角度の推定を行う。相対的角度の推定は、例えば、検知したユーザの手の位置が、撮像部140が撮像した画像の中心画素からどれくらい離れているかを算出することにより行い、より具体的には、以下の式により算出することにより行う。
相対的角度(Dr)=Ph/(Pa/2)*A
ここで、Phは、検出したユーザの手の位置の、撮像された画像の横方向における中心画素からの画素数を表し、中心画素から右側(時計回り方向)にある場合は正値を、中心画素から左側(反時計回り方向)にある場合は負値をとるものとする。Paは、撮像部140が撮像した画像の横方向における画素数を表す。Aは、手の位置が画像端にあった場合の相対的角度の換算値であり、情報検索装置10に備えられたカメラ等の撮像装置の画角の半分に相当する。つまり、相対的角度(Dr)は、カメラの画角に対して、ユーザの手の位置が画面内のどこに位置するかにより決定される。
ここで、Phは、検出したユーザの手の位置の、撮像された画像の横方向における中心画素からの画素数を表し、中心画素から右側(時計回り方向)にある場合は正値を、中心画素から左側(反時計回り方向)にある場合は負値をとるものとする。Paは、撮像部140が撮像した画像の横方向における画素数を表す。Aは、手の位置が画像端にあった場合の相対的角度の換算値であり、情報検索装置10に備えられたカメラ等の撮像装置の画角の半分に相当する。つまり、相対的角度(Dr)は、カメラの画角に対して、ユーザの手の位置が画面内のどこに位置するかにより決定される。
目下の例において、図7(b)に示すユーザの手の位置の中心画素からの画素数が120画素であり、撮像部140が撮像した撮像した画像の画素数が480画素であったとする。また、上式におけるAを30°とする。かかる場合、相対的角度は以下のようにして算出する。
Dr=120/(480/2)*30=15°
その後、動作指示推定部150Nは、算出した相対的角度を、方向検知部190で検知した角度に加算するとともに、位置検知部191で検知した位置を付加することでユーザの動作が指示する方向を推定する。目下の例において、方向検知部190で検知した角度が「220°」であり、位置検知部191で検知した位置が「北緯36度 東経139度」であった場合、ユーザの動作が指示する方向は、「北緯36度 東経139度を中心とする235°」の方向となる。
その後、動作指示推定部150Nは、算出した相対的角度を、方向検知部190で検知した角度に加算するとともに、位置検知部191で検知した位置を付加することでユーザの動作が指示する方向を推定する。目下の例において、方向検知部190で検知した角度が「220°」であり、位置検知部191で検知した位置が「北緯36度 東経139度」であった場合、ユーザの動作が指示する方向は、「北緯36度 東経139度を中心とする235°」の方向となる。
あるいは、他の実施例では、動作指示推定部150Nは、ユーザが意図する方向に情報検索装置10の向き(例えば、情報検索装置10の表示画面に対向する方向など)を合わせるようユーザに指示し、検出した情報検索装置10の向きをユーザの動作が指示する方向として決定してもよい。
指示作成部160Nは、第1実施形態と同様、音声認識結果取得部120が取得したテキストデータ、指示語抽出部130が抽出した指示語、位置検知部191が検知した位置及び動作指示推定部150が推定したユーザの指示を基に、情報検索サーバ30への検索指示を作成する。具体的には、指示作成部160は、テキストデータに含まれる指示語を推定したユーザの指示に置換することで検索指示を作成する。
目下の例では、音声認識結果取得部120が取得したテキストデータは、「あっちの方のレストラン」であり、指示語抽出部130が抽出した指示語は「あっち」であり、動作指示推定部150が推定したユーザの指示は、方向が「北緯36度 東経139度を中心とする235°」である。指示作成部160は、これらの情報に基づいて、「北緯36度 東経139度を中心とする235°の方にあるレストラン」を検索指示として作成する。
なお、動作指示推定部150Nが推定した方向に誤差があることを考慮し、検索指示に含まれる方向に幅を持たせてもよい。例えば、±10°の幅を持たせて「225°〜245°」としてもよい。また、ある一定の距離以内の範囲を検索対象として検索指示を作成することとしてもよい。例えば、一定の距離を500mとした場合、「北緯36度 東経139度を中心とする235°の方にある500m以内のレストラン」が検索指示となる。
以上で説明したように、本実施形態に係る発明によれば、ユーザが検索対象の関連ワードを具体的に特定できない場合であっても、検索対象としたい方向を表す動作を行うことにより、当該検索対象の方向を指定した検索を行うことができる。
[変形例]
上述の第1実施形態ではユーザの動作指示として寸法を、第2実施形態ではユーザの動作指示として方向をそれぞれ推定していたが、これらを組み合わせてもよい。すなわち、指示語抽出部130が抽出した指示語に対応する指示種別により、動作指示推定部150における寸法の推定処理と動作指示推定部150Nにおける方向の推定処理とを切り替えることとしてもよい。
上述の第1実施形態ではユーザの動作指示として寸法を、第2実施形態ではユーザの動作指示として方向をそれぞれ推定していたが、これらを組み合わせてもよい。すなわち、指示語抽出部130が抽出した指示語に対応する指示種別により、動作指示推定部150における寸法の推定処理と動作指示推定部150Nにおける方向の推定処理とを切り替えることとしてもよい。
上述の実施形態では音声認識サーバ20により音声認識を行っていたが、音声認識サーバ20を用いず、情報検索装置10内で音声認識処理を行ってもよい。
上述の実施形態では動作指示推定部150は、撮像部140が撮像したユーザの動作を基にユーザの指示を推定していたが、撮像部140は必ずしも必要でない。例えば、距離センサ等の種々のセンサを用いてユーザの動作をセンシングすることで、ユーザの指示を推定することが可能である。
上述の第2実施形態では、動作指示推定部150Nは、位置検知部191が検知した位置を用いてユーザの指示としての方向を推定していたが、位置検知部191は必ずしも必要でない。例えば、ユーザとの相対的な位置関係により検索対象が特定できるような場合には、方向検知部190が検知した方向とユーザの手の情報検索装置10Nに対する相対的角度のみを用いて方向を推定することとしてもよい。
以上、本発明の実施例について詳述したが、本発明は上述した特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
1 情報検索システム
10,10N 情報検索装置
20 音声認識サーバ
30 情報検索サーバ
10,10N 情報検索装置
20 音声認識サーバ
30 情報検索サーバ
Claims (9)
- ユーザからの音声入力を受け付ける音声入力手段と、
前記音声入力を認識した音声認識結果を取得する音声認識結果取得手段と、
前記音声認識結果から指示語を抽出する指示語抽出手段と、
前記ユーザの動作を認識し、認識した動作からユーザの指示を推定する動作指示推定手段と、
前記指示語抽出手段が抽出した指示語、前記動作指示推定手段が推定したユーザの指示及び前記音声認識結果を基に前記ユーザの検索指示を作成する指示作成手段と、
を有する情報検索装置。 - 前記指示語抽出手段が抽出する指示語は代名詞である、請求項1に記載の情報検索装置。
- 前記ユーザの動作を撮像する撮像手段を更に有し、
前記動作指示推定手段は、前記撮像手段が撮像したユーザの動作に基づいて前記ユーザの指示を推定する、請求項1又は2に記載の情報検索装置。 - 前記ユーザの動作は、寸法を表す動作であり、
前記動作指示推定手段は、前記ユーザの動作に対応する寸法を推定し、
前記指示作成手段は、前記ユーザの動作に対応する寸法及び前記音声認識結果を基に前記ユーザの指示を作成する、請求項3に記載の情報検索装置。 - 前記ユーザの体の部位の寸法を記憶する記憶手段を更に有し、
前記撮像手段は、前記ユーザの体の部位をも撮像し、
前記動作指示推定手段は、前記撮像手段で撮像した前記ユーザの体の部位に対応する寸法を前記記憶手段から抽出し、該ユーザの体の部位に対応する画素数、前記ユーザの動作に対応する画素数、及び前記記憶手段に記憶された該ユーザの体の部位に対応する寸法を基に、前記ユーザの動作に対応する寸法を推定する、請求項4に記載の情報検索装置。 - 前記動作は、方向を表す動作であり、
前記動作指示推定手段は、前記ユーザの動作に対応する方向を推定し、
前記指示作成手段は、前記ユーザの動作に対応する方向と前記音声認識結果を基に前記ユーザの指示を作成する、請求項3に記載の情報検索装置。 - 当該情報検索装置の方向を検知する方向検知手段を更に備え、
前記撮像手段は、前記ユーザの手を撮像し、
前記動作指示推定手段は、前記方向検知手段で検知した当該情報検索装置の方向及び前記撮像手段で撮像したユーザの手の位置を基に、前記ユーザが指示する方向を推定する、請求項6に記載の情報検索装置。 - 情報検索装置により実現される情報検索方法であって、
ユーザからの音声入力を受け付けるステップと、
前記音声入力を認識した音声認識結果を取得するステップと、
前記音声認識結果から指示語を抽出するステップと、
前記ユーザの動作を認識し、認識した動作からユーザの指示を推定するステップと、
前記抽出した指示語、前記推定したユーザの指示及び前記音声認識結果を基に前記ユーザの検索指示を作成するステップと、
を有する情報検索方法。 - ユーザからの音声入力を受け付けるステップと、
前記音声入力を認識した音声認識結果を取得するステップと、
前記音声認識結果から指示語を抽出するステップと、
前記ユーザの動作を認識し、認識した動作からユーザの指示を推定するステップと、
前記抽出した指示語、前記推定したユーザの指示及び前記音声認識結果を基に前記ユーザの検索指示を作成するステップと、
をコンピュータに実行させるためのコンピュータプログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014028836A JP2015153324A (ja) | 2014-02-18 | 2014-02-18 | 情報検索装置、情報検索方法及び情報検索プログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014028836A JP2015153324A (ja) | 2014-02-18 | 2014-02-18 | 情報検索装置、情報検索方法及び情報検索プログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2015153324A true JP2015153324A (ja) | 2015-08-24 |
Family
ID=53895448
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014028836A Pending JP2015153324A (ja) | 2014-02-18 | 2014-02-18 | 情報検索装置、情報検索方法及び情報検索プログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2015153324A (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017054064A (ja) * | 2015-09-11 | 2017-03-16 | 株式会社Nttドコモ | 対話装置および対話プログラム |
| JP2018180542A (ja) * | 2017-04-14 | 2018-11-15 | ネイバー コーポレーションNAVER Corporation | ネットワークに連結した音響機器とのマルチモーダルインタラクション方法およびシステム |
| JP2021141473A (ja) * | 2020-03-06 | 2021-09-16 | 株式会社リコー | 命令要求システム、命令要求方法、命令処理システム及びプログラム |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05108302A (ja) * | 1991-10-14 | 1993-04-30 | Nippon Telegr & Teleph Corp <Ntt> | 音声と指示動作を用いた情報入力方法 |
| JPH06131437A (ja) * | 1992-10-20 | 1994-05-13 | Hitachi Ltd | 複合形態による操作指示方法 |
| JPH08166866A (ja) * | 1994-10-14 | 1996-06-25 | Hitachi Ltd | 対話型インターフェースを具備した編集支援システム |
| JPH08263258A (ja) * | 1995-03-23 | 1996-10-11 | Hitachi Ltd | 入力装置、入力方法、情報処理システムおよび入力情報の管理方法 |
| JPH0981364A (ja) * | 1995-09-08 | 1997-03-28 | Nippon Telegr & Teleph Corp <Ntt> | マルチモーダル情報入力方法及び装置 |
| JP2005178473A (ja) * | 2003-12-17 | 2005-07-07 | Denso Corp | 車載機器用インターフェース |
| JP2009026158A (ja) * | 2007-07-20 | 2009-02-05 | Oki Electric Ind Co Ltd | 対象物指定装置、対象物指定方法およびコンピュータプログラム |
| JP2012242948A (ja) * | 2011-05-17 | 2012-12-10 | Sony Corp | 表示制御装置および方法、並びにプログラム |
| US20130144629A1 (en) * | 2011-12-01 | 2013-06-06 | At&T Intellectual Property I, L.P. | System and method for continuous multimodal speech and gesture interaction |
| WO2013188002A1 (en) * | 2012-06-15 | 2013-12-19 | Honda Motor Co., Ltd. | Depth based context identification |
-
2014
- 2014-02-18 JP JP2014028836A patent/JP2015153324A/ja active Pending
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05108302A (ja) * | 1991-10-14 | 1993-04-30 | Nippon Telegr & Teleph Corp <Ntt> | 音声と指示動作を用いた情報入力方法 |
| JPH06131437A (ja) * | 1992-10-20 | 1994-05-13 | Hitachi Ltd | 複合形態による操作指示方法 |
| JPH08166866A (ja) * | 1994-10-14 | 1996-06-25 | Hitachi Ltd | 対話型インターフェースを具備した編集支援システム |
| JPH08263258A (ja) * | 1995-03-23 | 1996-10-11 | Hitachi Ltd | 入力装置、入力方法、情報処理システムおよび入力情報の管理方法 |
| JPH0981364A (ja) * | 1995-09-08 | 1997-03-28 | Nippon Telegr & Teleph Corp <Ntt> | マルチモーダル情報入力方法及び装置 |
| JP2005178473A (ja) * | 2003-12-17 | 2005-07-07 | Denso Corp | 車載機器用インターフェース |
| JP2009026158A (ja) * | 2007-07-20 | 2009-02-05 | Oki Electric Ind Co Ltd | 対象物指定装置、対象物指定方法およびコンピュータプログラム |
| JP2012242948A (ja) * | 2011-05-17 | 2012-12-10 | Sony Corp | 表示制御装置および方法、並びにプログラム |
| US20130144629A1 (en) * | 2011-12-01 | 2013-06-06 | At&T Intellectual Property I, L.P. | System and method for continuous multimodal speech and gesture interaction |
| WO2013188002A1 (en) * | 2012-06-15 | 2013-12-19 | Honda Motor Co., Ltd. | Depth based context identification |
Non-Patent Citations (2)
| Title |
|---|
| 大江 龍人,外4名: ""身体動作を用いて商品サイズを絞込む検索インタフェースの設計と評価"", 情報処理学会 インタラクション2012[DVD−ROM], JPN6017041265, 17 March 2012 (2012-03-17), pages 509 - 514, ISSN: 0003670819 * |
| 栗原 竜矢,外2名: ""Kinectセンサを用いた物探し支援システムの試作"", 第19回インタラクティブシステムとソフトウェアに関するワークショップ[ONLINE], JPN6017041262, 3 December 2011 (2011-12-03), ISSN: 0003795181 * |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017054064A (ja) * | 2015-09-11 | 2017-03-16 | 株式会社Nttドコモ | 対話装置および対話プログラム |
| JP2018180542A (ja) * | 2017-04-14 | 2018-11-15 | ネイバー コーポレーションNAVER Corporation | ネットワークに連結した音響機器とのマルチモーダルインタラクション方法およびシステム |
| JP2021141473A (ja) * | 2020-03-06 | 2021-09-16 | 株式会社リコー | 命令要求システム、命令要求方法、命令処理システム及びプログラム |
| JP7435045B2 (ja) | 2020-03-06 | 2024-02-21 | 株式会社リコー | 命令要求システム、命令要求方法、命令処理システム及びプログラム |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9424255B2 (en) | Server-assisted object recognition and tracking for mobile devices | |
| CN105318881B (zh) | 地图导航方法、装置及系统 | |
| CN105917361B (zh) | 动态地更新含有对应于已知目标对象的特征的特征数据库 | |
| US9720510B2 (en) | User-directed personal information assistant | |
| CN102567502B (zh) | 用设备标识补充生物测定标识 | |
| US11288511B2 (en) | System and method for displaying pertinent data to supplement information in images provided from a mobile communication device using augmented reality | |
| JP6807268B2 (ja) | 画像認識エンジン連携装置およびプログラム | |
| KR20130114268A (ko) | 로컬 맵들 및 위치-측정 주석추가된 데이터를 제공하기 위한 인간-보조 기술 | |
| KR20130106833A (ko) | 휴대용 전자 디바이스에 대한 입력을 증진시키기 위한 카메라 사용 | |
| WO2016149918A1 (zh) | 用户地理位置的确定 | |
| CN103064980A (zh) | 基于移动终端及gps查询景点信息的方法和系统 | |
| WO2017128895A1 (zh) | 一种基于场景共享的导航协助方法及终端 | |
| KR20150126214A (ko) | 음성 인식 장치 및 방법, 잡음-음성 인식 모델 생성 장치 및 방법 | |
| CN110462608A (zh) | 针对捕获内容的自动叙述创建 | |
| WO2021115268A1 (zh) | 地铁运行方向的确定方法、装置、终端及存储介质 | |
| CN110874554B (zh) | 动作识别方法、终端设备、服务器、系统及存储介质 | |
| US20140176689A1 (en) | Apparatus and method for assisting the visually impaired in object recognition | |
| JP2015153324A (ja) | 情報検索装置、情報検索方法及び情報検索プログラム | |
| CN107203573A (zh) | 一种基于关注点信息的信息推送方法及装置 | |
| CN110322893A (zh) | 语音数据处理方法、装置、计算机设备和存储介质 | |
| JP2016058057A (ja) | 翻訳システム、翻訳方法、コンピュータプログラム、コンピュータが読み取り可能な記憶媒体 | |
| WO2014201953A1 (en) | Methods, apparatus, and terminal devices of image processing | |
| US9641740B2 (en) | Apparatus and method for auto-focusing in device having camera | |
| US9536152B2 (en) | Methods and systems for multimedia trajectory annotation | |
| CN115496799A (zh) | 视觉定位方法及装置、电子设备、存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160805 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171031 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171220 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180515 |