JP2000112610A - コンテンツ表示選択システム及びコンテンツ記録媒体 - Google Patents
コンテンツ表示選択システム及びコンテンツ記録媒体Info
- Publication number
- JP2000112610A JP2000112610A JP29311498A JP29311498A JP2000112610A JP 2000112610 A JP2000112610 A JP 2000112610A JP 29311498 A JP29311498 A JP 29311498A JP 29311498 A JP29311498 A JP 29311498A JP 2000112610 A JP2000112610 A JP 2000112610A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- content
- information
- display
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 28
- 230000008921 facial expression Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 3
- 230000009471 action Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 102220495430 Glutaredoxin-like protein C5orf63_S12A_mutation Human genes 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Landscapes
- Computer And Data Communications (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
Abstract
(57)【要約】
【課題】 音声認識のみならず、少なくとも画像認識を
含む複数の認識方法を用いてコンピュータを操作するユ
ーザの意志やコマンドを受け付けることができ、指定さ
れたリンク先にリンクすることを可能とするコンテンツ
表示選択システムを提供する。 【解決手段】 コンテンツの記述テキストには、認識装
置の種類を示す「カテゴリー」と、認識装置により認識
するユーザの選択事項としての「認識候補データ」と、
選択結果のリンク先である「リンク情報」を記述してお
き、本システムの制御手段10が表示装置12に表示さ
れている表示コンテンツの有する「カテゴリー」を認識
装置14A、14Bに送り、表示されている「認識候補
データ」を認識できるよう、認識装置に送り、かつ認識
結果を受けて該当するリンク情報を選択し、表示コンテ
ンツをリンク情報で示されるコンテンツに変更する。
含む複数の認識方法を用いてコンピュータを操作するユ
ーザの意志やコマンドを受け付けることができ、指定さ
れたリンク先にリンクすることを可能とするコンテンツ
表示選択システムを提供する。 【解決手段】 コンテンツの記述テキストには、認識装
置の種類を示す「カテゴリー」と、認識装置により認識
するユーザの選択事項としての「認識候補データ」と、
選択結果のリンク先である「リンク情報」を記述してお
き、本システムの制御手段10が表示装置12に表示さ
れている表示コンテンツの有する「カテゴリー」を認識
装置14A、14Bに送り、表示されている「認識候補
データ」を認識できるよう、認識装置に送り、かつ認識
結果を受けて該当するリンク情報を選択し、表示コンテ
ンツをリンク情報で示されるコンテンツに変更する。
Description
【0001】
【発明の属する技術分野】本発明は、コンピュータによ
るデータの表示とコンピュータ使用者からのコマンドな
どの受け付けに関し、特にインターネットなどにおける
ホームページのコンテンツ閲覧システムとして利用され
るコンピュータによるコンテンツ表示選択システム及び
コンテンツが記録されたコンテンツ記録媒体に関する。
るデータの表示とコンピュータ使用者からのコマンドな
どの受け付けに関し、特にインターネットなどにおける
ホームページのコンテンツ閲覧システムとして利用され
るコンピュータによるコンテンツ表示選択システム及び
コンテンツが記録されたコンテンツ記録媒体に関する。
【0002】
【従来の技術】コンピュータがマルチメディア対応にな
り、通信回線などを経由してネットワークにおいて利用
されるようになり、またインターネットの普及に伴い、
コンピュータ利用者が飛躍的に増大している。これま
で、コンピュータへのコマンドの付与は、主としてキー
ボードやマウスなど手動操作の器具を用いて行なわれて
いる。かかる手動操作の器具に代って人間が発生する音
声を認識し、コンピュータ利用者の意志やコマンドを受
け付けるシステムが開発されている。かかる音声認識を
用いた音声対話型のコンピュータシステムが、例えば特
開平8−335160号公報に示されている。この公報
に記載された従来技術によれば、データ接続によって取
得したビデオスクリーン表示の信号とデータリンク集合
を認識する手段を設け、そのデータリンクに対応する文
法を取得し、その文法を音声認識部で受け取ることがで
きるというものである。
り、通信回線などを経由してネットワークにおいて利用
されるようになり、またインターネットの普及に伴い、
コンピュータ利用者が飛躍的に増大している。これま
で、コンピュータへのコマンドの付与は、主としてキー
ボードやマウスなど手動操作の器具を用いて行なわれて
いる。かかる手動操作の器具に代って人間が発生する音
声を認識し、コンピュータ利用者の意志やコマンドを受
け付けるシステムが開発されている。かかる音声認識を
用いた音声対話型のコンピュータシステムが、例えば特
開平8−335160号公報に示されている。この公報
に記載された従来技術によれば、データ接続によって取
得したビデオスクリーン表示の信号とデータリンク集合
を認識する手段を設け、そのデータリンクに対応する文
法を取得し、その文法を音声認識部で受け取ることがで
きるというものである。
【0003】また、他の従来技術として、電子通信学会
の信学技法IE95-46,MVE95-39(1995,7月)には、既存のコ
ンテンツ記述言語から機械的に認識に必要な情報を抽出
する技術が開示されている。
の信学技法IE95-46,MVE95-39(1995,7月)には、既存のコ
ンテンツ記述言語から機械的に認識に必要な情報を抽出
する技術が開示されている。
【0004】
【発明が解決しようとする課題】これらの従来の技術で
は、ある限定したシステムで限られた認識方法のみを選
択できるにすぎない。すなわち、上記特開平8−335
160号公報の方式では音声認識のみによりユーザの意
志やコマンドを受け付けることができるのであり、例え
ばジェスチャー、手話、顔表情、手書きパターンなどの
認識を行なうことにより、同時に複数の認識手段に対し
て同一のコンテンツ記述テキスト上で記述しておき、こ
れらの複数の認識手段を用いてユーザの意志やコマンド
を受け付けるという技術は考えられていなかった。
は、ある限定したシステムで限られた認識方法のみを選
択できるにすぎない。すなわち、上記特開平8−335
160号公報の方式では音声認識のみによりユーザの意
志やコマンドを受け付けることができるのであり、例え
ばジェスチャー、手話、顔表情、手書きパターンなどの
認識を行なうことにより、同時に複数の認識手段に対し
て同一のコンテンツ記述テキスト上で記述しておき、こ
れらの複数の認識手段を用いてユーザの意志やコマンド
を受け付けるという技術は考えられていなかった。
【0005】さらに、機械的な抽出では、上記信学技法
の第36頁に記述されている通り、同じ文字列で、別の
リンク先が定義されていたりすると、どのコンテンツ
(表示部分)をどの音声で指定してよいかわからない、
という問題点がある。また、特別の認識が可能だったと
しても、システムに精通しているか、特別な訓練を行わ
なければ操作方法を理解することが難しく、初心者で
は、取り扱いが難しいという問題もあった。また、手の
不自由なハンディキャップユーザへのアシストの観点か
らも、複数の認識方法を用いることが望まれていて、ホ
ームページなどのコンテンツ閲覧システムを提供するイ
ンターネットビジネス業者にとって、コンテンツ自体の
改良が望まれ、これに対応してコンテンツを閲覧するユ
ーザ側のハード面の改良が望まれている。
の第36頁に記述されている通り、同じ文字列で、別の
リンク先が定義されていたりすると、どのコンテンツ
(表示部分)をどの音声で指定してよいかわからない、
という問題点がある。また、特別の認識が可能だったと
しても、システムに精通しているか、特別な訓練を行わ
なければ操作方法を理解することが難しく、初心者で
は、取り扱いが難しいという問題もあった。また、手の
不自由なハンディキャップユーザへのアシストの観点か
らも、複数の認識方法を用いることが望まれていて、ホ
ームページなどのコンテンツ閲覧システムを提供するイ
ンターネットビジネス業者にとって、コンテンツ自体の
改良が望まれ、これに対応してコンテンツを閲覧するユ
ーザ側のハード面の改良が望まれている。
【0006】したがって、本発明は音声認識のみなら
ず、少なくとも画像認識を含む複数の認識方法を用いて
コンピュータを操作するユーザの意志やコマンドを受け
付けることができ、ユーザの指示に従って指定されたリ
ンク先にリンクすることを可能とするコンテンツ表示選
択システムを提供することを第1の目的とする。
ず、少なくとも画像認識を含む複数の認識方法を用いて
コンピュータを操作するユーザの意志やコマンドを受け
付けることができ、ユーザの指示に従って指定されたリ
ンク先にリンクすることを可能とするコンテンツ表示選
択システムを提供することを第1の目的とする。
【0007】また、本発明は音声認識のみならず、少な
くとも画像認識を含む複数の認識方法を用いてコンピュ
ータを操作するユーザの意志やコマンドを受け付けるこ
とができ、ユーザの指示に従って指定されたリンク先に
リンクすることを可能とするためのコンテンツが記録さ
れたコンテンツ記録媒体を提供することを第2の目的と
する。なお、本発明において「画像認識」とは、コンピ
ュータを操作するユーザのジェスチャー、手話、顔表
情、手書きパターンなどの認識を含む概念である。した
がって、ビデオカメラなどを用いた光学的認識のみなら
ず、筆圧などによる形状認識など、あらゆる画像認識手
段による認識を含むものとする。
くとも画像認識を含む複数の認識方法を用いてコンピュ
ータを操作するユーザの意志やコマンドを受け付けるこ
とができ、ユーザの指示に従って指定されたリンク先に
リンクすることを可能とするためのコンテンツが記録さ
れたコンテンツ記録媒体を提供することを第2の目的と
する。なお、本発明において「画像認識」とは、コンピ
ュータを操作するユーザのジェスチャー、手話、顔表
情、手書きパターンなどの認識を含む概念である。した
がって、ビデオカメラなどを用いた光学的認識のみなら
ず、筆圧などによる形状認識など、あらゆる画像認識手
段による認識を含むものとする。
【0008】
【課題を解決するための手段】上記目的を達成するた
め、本発明ではコンピュータの表示装置に表示すべきコ
ンテンツに少なくとも音声認識と画像認識を含む複数の
認識方法のいずれかによりユーザの意志を認識できるよ
うに、認識方法のカテゴリーを音声又は画像にて与える
ための記述をあらかじめ含めておき、このコンテンツを
ブラウザソフトがインストールされたコンピュータとし
てのコンテンツ表示選択システムにて表示するとき、こ
のコンピュータが少なくとも音声認識と画像認識を含む
認識装置と、コンテンツを表示する表示装置と、認識装
置と表示装置を関連付けて制御する制御手段とを有する
構成であって、表示すべきコンテンツを記述する記述テ
キストには、認識装置の種類を示す「カテゴリー」と、
認識装置により認識するユーザの選択事項の候補である
「認識候補データ」と、選択された事項のリンク先であ
る「リンク情報」を認識情報として記述しておき、制御
手段が表示装置に表示されている表示コンテンツの有す
る「カテゴリー」を認識装置に送り、表示装置に表示さ
れている「認識候補データ」を認識装置にて認識できる
よう、「認識候補データ」を認識装置に送り、かつ認識
装置による認識結果を受けて該当するリンク情報を選択
し、表示装置に表示されるコンテンツを該当するリンク
情報で示されるコンテンツに変更するよう表示装置を制
御するよう構成されているのである。
め、本発明ではコンピュータの表示装置に表示すべきコ
ンテンツに少なくとも音声認識と画像認識を含む複数の
認識方法のいずれかによりユーザの意志を認識できるよ
うに、認識方法のカテゴリーを音声又は画像にて与える
ための記述をあらかじめ含めておき、このコンテンツを
ブラウザソフトがインストールされたコンピュータとし
てのコンテンツ表示選択システムにて表示するとき、こ
のコンピュータが少なくとも音声認識と画像認識を含む
認識装置と、コンテンツを表示する表示装置と、認識装
置と表示装置を関連付けて制御する制御手段とを有する
構成であって、表示すべきコンテンツを記述する記述テ
キストには、認識装置の種類を示す「カテゴリー」と、
認識装置により認識するユーザの選択事項の候補である
「認識候補データ」と、選択された事項のリンク先であ
る「リンク情報」を認識情報として記述しておき、制御
手段が表示装置に表示されている表示コンテンツの有す
る「カテゴリー」を認識装置に送り、表示装置に表示さ
れている「認識候補データ」を認識装置にて認識できる
よう、「認識候補データ」を認識装置に送り、かつ認識
装置による認識結果を受けて該当するリンク情報を選択
し、表示装置に表示されるコンテンツを該当するリンク
情報で示されるコンテンツに変更するよう表示装置を制
御するよう構成されているのである。
【0009】すなわち、本発明によれば少なくとも音声
認識と画像認識を含む認識装置と、コンテンツを表示す
る表示装置と、前記認識装置と前記表示装置を関連付け
て制御する制御手段とを有するコンテンツ表示選択シス
テムであって、表示すべきコンテンツを記述する記述テ
キストには、前記認識装置の種類を示す「カテゴリー」
と、前記認識装置により認識するユーザの選択事項の候
補である「認識候補データ」と、選択された事項のリン
ク先である「リンク情報」を認識情報として記述してお
き、前記制御手段が前記表示装置に表示されている表示
コンテンツの有する「カテゴリー」を前記認識装置に送
り、前記表示装置に表示されている「認識候補データ」
を前記認識装置にて認識できるよう、前記「認識候補デ
ータ」を前記認識装置に送り、かつ前記認識装置による
認識結果を受けて該当するリンク情報を選択し、前記表
示装置に表示されるコンテンツを前記該当するリンク情
報で示されるコンテンツに変更するよう前記表示装置を
制御するよう構成されているコンテンツ表示選択システ
ムが提供される。
認識と画像認識を含む認識装置と、コンテンツを表示す
る表示装置と、前記認識装置と前記表示装置を関連付け
て制御する制御手段とを有するコンテンツ表示選択シス
テムであって、表示すべきコンテンツを記述する記述テ
キストには、前記認識装置の種類を示す「カテゴリー」
と、前記認識装置により認識するユーザの選択事項の候
補である「認識候補データ」と、選択された事項のリン
ク先である「リンク情報」を認識情報として記述してお
き、前記制御手段が前記表示装置に表示されている表示
コンテンツの有する「カテゴリー」を前記認識装置に送
り、前記表示装置に表示されている「認識候補データ」
を前記認識装置にて認識できるよう、前記「認識候補デ
ータ」を前記認識装置に送り、かつ前記認識装置による
認識結果を受けて該当するリンク情報を選択し、前記表
示装置に表示されるコンテンツを前記該当するリンク情
報で示されるコンテンツに変更するよう前記表示装置を
制御するよう構成されているコンテンツ表示選択システ
ムが提供される。
【0010】また、本発明によれば少なくとも音声認識
と画像認識を含む複数の認識方法のいずれかによりユー
ザの意志を認識できるように、認識方法のカテゴリーを
音声又は画像にて与えるための記述を含むコンテンツ
が、コンピュータが読み取り可能な状態で記録されたコ
ンテンツ記録媒体が提供される。
と画像認識を含む複数の認識方法のいずれかによりユー
ザの意志を認識できるように、認識方法のカテゴリーを
音声又は画像にて与えるための記述を含むコンテンツ
が、コンピュータが読み取り可能な状態で記録されたコ
ンテンツ記録媒体が提供される。
【0011】なお、前記記述テキストには、前記認識候
補データに関する補足文字列を表示するための「補助情
報」を前記認識情報として記述しておき、前記制御手段
が前記「補助情報」を前記表示装置に送り、前記表示装
置が前記「補助情報」によって画面上に前記認識候補デ
ータに関する補足文字列を表示するよう構成されている
ことは本発明の好ましい態様である。
補データに関する補足文字列を表示するための「補助情
報」を前記認識情報として記述しておき、前記制御手段
が前記「補助情報」を前記表示装置に送り、前記表示装
置が前記「補助情報」によって画面上に前記認識候補デ
ータに関する補足文字列を表示するよう構成されている
ことは本発明の好ましい態様である。
【0012】また、前記記述テキストには、前記認識装
置が含む認識方法を示す「ガイド情報」を前記認識情報
として記述しておき、前記制御手段が前記「ガイド情
報」を前記表示装置に送り、前記表示装置が前記「ガイ
ド情報」によって画面上に前記認識装置が含む認識方法
を示してユーザに前記認識手法のガイドを提供するよう
構成されていることは本発明の好ましい態様である。
置が含む認識方法を示す「ガイド情報」を前記認識情報
として記述しておき、前記制御手段が前記「ガイド情
報」を前記表示装置に送り、前記表示装置が前記「ガイ
ド情報」によって画面上に前記認識装置が含む認識方法
を示してユーザに前記認識手法のガイドを提供するよう
構成されていることは本発明の好ましい態様である。
【0013】さらに、前記画像認識がジェスチャー、手
話、顔表情、手書きパターンの少なくとも1つを認識す
るものであることは本発明の好ましい態様である。
話、顔表情、手書きパターンの少なくとも1つを認識す
るものであることは本発明の好ましい態様である。
【0014】本発明によれば、インターネットなどのホ
ームページを表示する際に、表示しているコンテンツを
キーボード、マウスなどで指定する以外に、音声確認、
ジェスチャー、手話、顔表情、手書きパターンなどによ
る選択を行えるように、ホームページの記述テキストに
認識システムのカテゴリーと、関連するコンテンツの情
報を記述する書式を備え、表示システムではその表示シ
ステムが備える認識装置に応じて記述テキストにより認
識に必要な情報を取得するようにしている。
ームページを表示する際に、表示しているコンテンツを
キーボード、マウスなどで指定する以外に、音声確認、
ジェスチャー、手話、顔表情、手書きパターンなどによ
る選択を行えるように、ホームページの記述テキストに
認識システムのカテゴリーと、関連するコンテンツの情
報を記述する書式を備え、表示システムではその表示シ
ステムが備える認識装置に応じて記述テキストにより認
識に必要な情報を取得するようにしている。
【0015】さらに、対応する認識システムごとに、ホ
ームページ表示の際に、どのような音声認識、ジェスチ
ャー、手話、顔表情、手書きパターン認識が用意されて
いるかを示すガイドデータを提供し、音声認識ならば音
声によるアナウンス、ジェスチャー、手話、顔表情なら
アニメーション、動画データによる表示、手書きパター
ンなら、参考になる図形の表示(アニメーションも含
む)を同時に提供することは本発明の好ましい態様であ
る。
ームページ表示の際に、どのような音声認識、ジェスチ
ャー、手話、顔表情、手書きパターン認識が用意されて
いるかを示すガイドデータを提供し、音声認識ならば音
声によるアナウンス、ジェスチャー、手話、顔表情なら
アニメーション、動画データによる表示、手書きパター
ンなら、参考になる図形の表示(アニメーションも含
む)を同時に提供することは本発明の好ましい態様であ
る。
【0016】
【発明の実施の形態】以下、図面を参照して本発明の好
ましい実施の形態について説明する。図1は本発明に係
るコンテンツ表示選択システムの好ましい実施の形態を
概念的に示すブロック図である。このコンテンツ表示選
択システムはコンピュータとその関連装置により構成さ
れるが、これを機能的に示すと、図示省略のCPU(中
央演算処理装置)、主記憶装置及びインタフェースを含
む制御装置10、画像を表示し音声を再生する表示装置
12、音声認識を行なう第1認識装置14A、画像認識
を行なう第2認識装置14B、リンク情報を記憶するリ
ンク情報記憶部16、補助情報の表示を制御する補助情
報表示制御部18が存在し、サーバ22からコンテンツ
記述テキスト20を受け取る様子が示されている。
ましい実施の形態について説明する。図1は本発明に係
るコンテンツ表示選択システムの好ましい実施の形態を
概念的に示すブロック図である。このコンテンツ表示選
択システムはコンピュータとその関連装置により構成さ
れるが、これを機能的に示すと、図示省略のCPU(中
央演算処理装置)、主記憶装置及びインタフェースを含
む制御装置10、画像を表示し音声を再生する表示装置
12、音声認識を行なう第1認識装置14A、画像認識
を行なう第2認識装置14B、リンク情報を記憶するリ
ンク情報記憶部16、補助情報の表示を制御する補助情
報表示制御部18が存在し、サーバ22からコンテンツ
記述テキスト20を受け取る様子が示されている。
【0017】まず制御装置10の主記憶装置にはHTM
L記述コンテンツを表示するためのブラウザソフトがあ
らかじめインストールされているものとする。なお、第
2認識装置14Bはユーザの上半身又は全身によるジェ
スチャー、手話、手書きパターンなどの1つ以上を認識
するものである。したがって、第1認識装置14Aと第
2認識装置14Bを併用することで、音声認識とジェス
チャー認識、音声認識と手話認識、音声認識と手書きパ
ターン認識、あるいは音声認識とジェスチャー認識、手
話認識、手書きパターン認識のうちの2つ以上によりユ
ーザの意志やコマンドを認識することができる。
L記述コンテンツを表示するためのブラウザソフトがあ
らかじめインストールされているものとする。なお、第
2認識装置14Bはユーザの上半身又は全身によるジェ
スチャー、手話、手書きパターンなどの1つ以上を認識
するものである。したがって、第1認識装置14Aと第
2認識装置14Bを併用することで、音声認識とジェス
チャー認識、音声認識と手話認識、音声認識と手書きパ
ターン認識、あるいは音声認識とジェスチャー認識、手
話認識、手書きパターン認識のうちの2つ以上によりユ
ーザの意志やコマンドを認識することができる。
【0018】図2は、図1の構成の動作を示すフローチ
ャートであり、このフローチャートに従って図1の構成
の動作について説明する。ブラウザソフトが起動して、
図2のプログラムがスタートし、いま、制御装置10が
サーバ22からネットワーク、ファイルシステムなどを
通してコンテンツ記述テキスト20を取得したものとす
る(ステップS1)。制御装置10は、コンテンツ記述
テキスト20を解析し(ステップS2)、拡張された認
識情報が含まれているか否かを判断する(ステップS
3)。拡張された認識情報が含まれていない場合、すな
わち通常のコンテンツであるときは、従来どおりの表示
処理により画像、テキストなどを表示する(ステップS
4)。
ャートであり、このフローチャートに従って図1の構成
の動作について説明する。ブラウザソフトが起動して、
図2のプログラムがスタートし、いま、制御装置10が
サーバ22からネットワーク、ファイルシステムなどを
通してコンテンツ記述テキスト20を取得したものとす
る(ステップS1)。制御装置10は、コンテンツ記述
テキスト20を解析し(ステップS2)、拡張された認
識情報が含まれているか否かを判断する(ステップS
3)。拡張された認識情報が含まれていない場合、すな
わち通常のコンテンツであるときは、従来どおりの表示
処理により画像、テキストなどを表示する(ステップS
4)。
【0019】一方、拡張された認識情報を確認すると、
制御装置10に接続された認識装置14A、14Bの認
識方法と一致する認識情報が含まれているか検索し、用
意された認識装置14A、14Bの認識方法(図1の例
では音声認識と画像認識)に該当する認識情報が発見さ
れると、制御装置10はコンテンツ記述テキストから認
識情報を抽出する(ステップS5)。次いで、第1の認
識装置14Aと第2の認識装置14Bに対応する認識候
補データを送付する(ステップS6A、S6B)。同時
にリンク情報記憶部16に、認識候補と関連するリンク
先を記憶する。また、これらのステップS6A、S6B
では、コンテンツ記述テキストに記述された対応する
「補助情報」を補助情報表示制御部18にそれぞれ送
る。次いで制御装置10は認識開始命令を認識装置14
A、14Bに送り(ステップS7)、これを受けて認識
装置14A、14Bは、制御装置10から送付された認
識情報を基に、認識処理を開始する。
制御装置10に接続された認識装置14A、14Bの認
識方法と一致する認識情報が含まれているか検索し、用
意された認識装置14A、14Bの認識方法(図1の例
では音声認識と画像認識)に該当する認識情報が発見さ
れると、制御装置10はコンテンツ記述テキストから認
識情報を抽出する(ステップS5)。次いで、第1の認
識装置14Aと第2の認識装置14Bに対応する認識候
補データを送付する(ステップS6A、S6B)。同時
にリンク情報記憶部16に、認識候補と関連するリンク
先を記憶する。また、これらのステップS6A、S6B
では、コンテンツ記述テキストに記述された対応する
「補助情報」を補助情報表示制御部18にそれぞれ送
る。次いで制御装置10は認識開始命令を認識装置14
A、14Bに送り(ステップS7)、これを受けて認識
装置14A、14Bは、制御装置10から送付された認
識情報を基に、認識処理を開始する。
【0020】次いで、各認識装置14A、14Bで認識
が行なわれたか否かがチェックされる(ステップS
8)。なお、このフローチャートでは、2つの認識装置
14A、14Bを順番にチェックしているが、認識装置
が多い場合や、チェックに時間を要する場合などは、割
込処理を用いることができる。認識が行われたことがス
テップS8で判断されると、認識装置14A、14Bは
それぞれ対応する認識候補中のどの認識候補に対する認
識が行われたかを制御装置10に返し、制御装置10は
認識結果を表示装置12にて表示し(ステップS9)、
制御装置10はその認識結果からリンク情報記憶部16
に記憶されたリンク先を検索し(ステップS10)、該
当するリンク先を選択し、新しいリンク先として新たな
コンテンツ記述テキスト20をサーバ22から取得する
(ステップS11)。なお、補助情報表示制御部18で
は、コンテンツ記述テキストに記述された「補助情報」
を受けて、対応する表示を表示装置12にて行う。な
お、表示装置12は、画像のみならず、音声の再生をも
行うものであり、具体的にはディスプレイとスピーカ
(ヘッドフォン)を含む。
が行なわれたか否かがチェックされる(ステップS
8)。なお、このフローチャートでは、2つの認識装置
14A、14Bを順番にチェックしているが、認識装置
が多い場合や、チェックに時間を要する場合などは、割
込処理を用いることができる。認識が行われたことがス
テップS8で判断されると、認識装置14A、14Bは
それぞれ対応する認識候補中のどの認識候補に対する認
識が行われたかを制御装置10に返し、制御装置10は
認識結果を表示装置12にて表示し(ステップS9)、
制御装置10はその認識結果からリンク情報記憶部16
に記憶されたリンク先を検索し(ステップS10)、該
当するリンク先を選択し、新しいリンク先として新たな
コンテンツ記述テキスト20をサーバ22から取得する
(ステップS11)。なお、補助情報表示制御部18で
は、コンテンツ記述テキストに記述された「補助情報」
を受けて、対応する表示を表示装置12にて行う。な
お、表示装置12は、画像のみならず、音声の再生をも
行うものであり、具体的にはディスプレイとスピーカ
(ヘッドフォン)を含む。
【0021】次に図3と図4により本発明の第2の実施
の形態について説明する。第2の実施の形態は、コンテ
ンツに「ガイド情報」が加えて記述されている場合に有
効なものである。すなわち、「ガイド情報」がコンテン
ツに付記されていた場合は、そのガイド情報が示す別の
データ、コンテンツを取得し、音声、動画、アニメーシ
ョンなどのガイド情報を基にガイド情報表示制御部24
が表示装置12を制御して再生することができる。すな
わち、図3に示されるように、第2の実施の形態では、
図1の構成に加えてガイド情報表示制御部24が制御装
置に接続されている。この、ガイド情報表示制御部24
には、コンテンツに含まれるガイド情報1とガイド情報
2が一時記憶され、表示装置12における表示の態様が
制御される。また、図4のフローチャートは、図2のフ
ローチャートのステップS6BとステップS7の間にガ
イド情報1とガイド情報2を順次表示・再生するステッ
プS12A、S12Bが設けられたものとなっている。
の形態について説明する。第2の実施の形態は、コンテ
ンツに「ガイド情報」が加えて記述されている場合に有
効なものである。すなわち、「ガイド情報」がコンテン
ツに付記されていた場合は、そのガイド情報が示す別の
データ、コンテンツを取得し、音声、動画、アニメーシ
ョンなどのガイド情報を基にガイド情報表示制御部24
が表示装置12を制御して再生することができる。すな
わち、図3に示されるように、第2の実施の形態では、
図1の構成に加えてガイド情報表示制御部24が制御装
置に接続されている。この、ガイド情報表示制御部24
には、コンテンツに含まれるガイド情報1とガイド情報
2が一時記憶され、表示装置12における表示の態様が
制御される。また、図4のフローチャートは、図2のフ
ローチャートのステップS6BとステップS7の間にガ
イド情報1とガイド情報2を順次表示・再生するステッ
プS12A、S12Bが設けられたものとなっている。
【0022】次に、コンテンツに付加される認識情報の
例について説明する。認識情報は、コンテンツを記述す
る記述テキストに付加された、「カテゴリー」、「認識
候補データ」、「リンク情報」、「補助情報」で表わさ
れた情報である。カテゴリーには、認識装置の種類を記
述する。例えば音声認識、ジェスチャー、手話、顔表
情、手書きパターンなどがある。
例について説明する。認識情報は、コンテンツを記述す
る記述テキストに付加された、「カテゴリー」、「認識
候補データ」、「リンク情報」、「補助情報」で表わさ
れた情報である。カテゴリーには、認識装置の種類を記
述する。例えば音声認識、ジェスチャー、手話、顔表
情、手書きパターンなどがある。
【0023】音声認識の認識情報は、音声認識に必要な
音声の候補を提供するものである。認識装置14で認識
された結果から制御装置10がリンク情報を選択する。
ジェスチャーはユーザの上半身又は全身の動作を、カメ
ラ映像で取り込み、その一連の動作をモーションキャプ
チャーなどにより解析し、画面上のコンテンツとのリン
クを関連づける。ジェスチャーについては、一連の動作
を定型化し、例えば「おじぎ」、「右手上げる」、「左
手上げる」、「座る」、「飛び跳ねる」、「右手腰に付
ける」、「左手振る」、「右足上げる」などの動作を決
めておき、第2認識装置14Bによる動作解析の結果を
標準化しておくとさらに汎用性がある。
音声の候補を提供するものである。認識装置14で認識
された結果から制御装置10がリンク情報を選択する。
ジェスチャーはユーザの上半身又は全身の動作を、カメ
ラ映像で取り込み、その一連の動作をモーションキャプ
チャーなどにより解析し、画面上のコンテンツとのリン
クを関連づける。ジェスチャーについては、一連の動作
を定型化し、例えば「おじぎ」、「右手上げる」、「左
手上げる」、「座る」、「飛び跳ねる」、「右手腰に付
ける」、「左手振る」、「右足上げる」などの動作を決
めておき、第2認識装置14Bによる動作解析の結果を
標準化しておくとさらに汎用性がある。
【0024】手話については、すでに一連の動作が定義
されており、第2認識装置14Bの解析能力により、単
純な動作から複雑な動作まで選択することが可能であ
る。特に手話として認識しない場合はジェスチャーによ
る認識の1つとすることができる。顔表情についても、
カメラ画像などにより認識が可能である。ジェスチャー
と同様に「右目つぶる」、「左目つぶる」、「口を開け
る」、「舌を出す」などがある。手書きパターンについ
ては、手書き文字認識などの技術の応用により、キーボ
ードの代用として用いることも可能であるが、完全な文
字認識に至らずとも、「まる」、「バツ」、「波線」、
「やま」、「四角」、「三角」などの単純図形でも十分
である。
されており、第2認識装置14Bの解析能力により、単
純な動作から複雑な動作まで選択することが可能であ
る。特に手話として認識しない場合はジェスチャーによ
る認識の1つとすることができる。顔表情についても、
カメラ画像などにより認識が可能である。ジェスチャー
と同様に「右目つぶる」、「左目つぶる」、「口を開け
る」、「舌を出す」などがある。手書きパターンについ
ては、手書き文字認識などの技術の応用により、キーボ
ードの代用として用いることも可能であるが、完全な文
字認識に至らずとも、「まる」、「バツ」、「波線」、
「やま」、「四角」、「三角」などの単純図形でも十分
である。
【0025】これらの種々の認識手法に対応した認識装
置の種類をカテゴリーとし、それぞれの認識情報として
以下のように定義する。 <Extend Recognition Category=”xxxx”> xxxx:カテゴリー <Language=yyyyy> yyyy:記述言語に関する情報 <List aaaa, bbbb, cccc> aaaa:認識候補 bbbb:リンク先 cccc:補助情報 </Extend Recognition>
置の種類をカテゴリーとし、それぞれの認識情報として
以下のように定義する。 <Extend Recognition Category=”xxxx”> xxxx:カテゴリー <Language=yyyyy> yyyy:記述言語に関する情報 <List aaaa, bbbb, cccc> aaaa:認識候補 bbbb:リンク先 cccc:補助情報 </Extend Recognition>
【0026】カテゴリーについては、以下のように定義
する ”Voice” 音声認識 ”Gesture”ジェスチャー ”Sign language” 手話 ”Face” 顔表情 ”Pen” 手書きパターン、タブレットなど カテゴリーはこれ以外にも、拡張が可能である。
する ”Voice” 音声認識 ”Gesture”ジェスチャー ”Sign language” 手話 ”Face” 顔表情 ”Pen” 手書きパターン、タブレットなど カテゴリーはこれ以外にも、拡張が可能である。
【0027】制御装置10は自分に用意されていない拡
張部分は無視するので、上記フォーマットに沿って記述
されていれば、コンテンツ記述テキストに未知の認識装
置に関する記述があっても無視される。
張部分は無視するので、上記フォーマットに沿って記述
されていれば、コンテンツ記述テキストに未知の認識装
置に関する記述があっても無視される。
【0028】認識情報には以下のような例がある、 音声認識の場合 <Language=”Japanese”> 言語体系は日本語 <List”りんくいち”,http://www.server1.com,”りんく1”> 読みの候補は”りんくいち” リンク先はhttp://www.server1.com 画面に表示する場合は”リンク1”という文字列を使う
【0029】ここで示すListの場合、”りんくいち”と
いう音声が認識されると、リンク先であるhttp://www.s
erver1.comのコンテンツを表示する。また画面に認識候
補を表示する場合は、3つめの”りんく1”という文字
列を使う。言語体系は、認識候補の表記にどういう言語
を使うかを示し、日本語以外の認識システムに候補を提
供する場合は、Languageタグをいくつか用意して、他国
語への対応も可能とする。
いう音声が認識されると、リンク先であるhttp://www.s
erver1.comのコンテンツを表示する。また画面に認識候
補を表示する場合は、3つめの”りんく1”という文字
列を使う。言語体系は、認識候補の表記にどういう言語
を使うかを示し、日本語以外の認識システムに候補を提
供する場合は、Languageタグをいくつか用意して、他国
語への対応も可能とする。
【0030】ジェスチャーの場合は、 <Language=”Japanese”> 動作記述は日本語 <List”右手上げ”,http://www.server1.com,”右手を上げる”> 読みの候補は”右手を上げる” リンク先はhttp://www.server1.com 画面に表示する場合は”右手上げる”という文字列を使 う
【0031】ここでも動作の記述に日本語以外を使うこ
とを考慮し、Languageタグを用意する。ここにあげたLi
stの場合は、右手を上げるという動作が認識された場合
はリンク先であるhttp://www.server1.comのコンテンツ
を表示する。画面に動作の候補を表示する場合に3つめ
の”右手を上げる”という文字列を表示する。
とを考慮し、Languageタグを用意する。ここにあげたLi
stの場合は、右手を上げるという動作が認識された場合
はリンク先であるhttp://www.server1.comのコンテンツ
を表示する。画面に動作の候補を表示する場合に3つめ
の”右手を上げる”という文字列を表示する。
【0032】手話の場合、 <Language=”Japanese”> 手話体系は日本語 <List”こんにちわ”,http://www.server1.com,”こんにちわ”> 手話の候補は”こんにちわ” リンク先はhttp://www.server1.com 画面に表示する場合は”こんにちわ”という文字列を使 う
【0033】手話に手話体系として言語を指定するの
は、国によって手話の定義がそれぞれ違うからである。
手話体系としてここでもLanguageタグを用意する。ここ
にあげたListの場合は、”こんにちわ”ということを表
現する手話動作が認識された場合はリンク先であるhtt
p://www.server1.comのコンテンツを表示する。画面に
手話動作の候補を表示する場合に、3つめの”こんにち
わ”という文字列を表示する。
は、国によって手話の定義がそれぞれ違うからである。
手話体系としてここでもLanguageタグを用意する。ここ
にあげたListの場合は、”こんにちわ”ということを表
現する手話動作が認識された場合はリンク先であるhtt
p://www.server1.comのコンテンツを表示する。画面に
手話動作の候補を表示する場合に、3つめの”こんにち
わ”という文字列を表示する。
【0034】顔表情の場合は、 <Language=”Japanese”> 動作表記は日本語 <List”口開ける”,http://www.server1.com,”口を開ける”> 動作の候補は”口を開ける” リンク先はhttp://www.server1.com 画面に表示する場合は”口を開ける”という文字列を使 う
【0035】ここでも動作の記述に日本語以外を使うこ
とを考慮し、Languageタグを用意する。ここにあげたLi
stの場合は、”口を開ける”ということを動作が認識さ
れた場合はリンク先であるhttp://www.server1.comのコ
ンテンツを表示する。画面に顔表情の候補を表示する場
合に3つめ”口を開ける”という文字列を表示する。
とを考慮し、Languageタグを用意する。ここにあげたLi
stの場合は、”口を開ける”ということを動作が認識さ
れた場合はリンク先であるhttp://www.server1.comのコ
ンテンツを表示する。画面に顔表情の候補を表示する場
合に3つめ”口を開ける”という文字列を表示する。
【0036】手書きのパターンの場合は、 <Language=”Japanese”> 表記は日本語 <List”丸”,http://www.server1.com,”丸を書く”> 動作の候補は”丸”を書く リンク先はhttp://www.server1.com 画面に表示する場合は”丸を書く”という文字列を使う
【0037】ここでも動作の記述に日本語以外を使うこ
とを考慮し、Languageタグを用意する。日本語以外で
は、記号をそのまま記述したり、Draw Circle、などの
英語表記もある。ここにあげたListの場合は、丸を書く
という動作が認識された場合はリンク先であるhttp://w
ww.server1.comのコンテンツを表示する。画面に動作、
記号の候補を表示する場合に3つめの”丸を書く”とい
う文字列を表示する。
とを考慮し、Languageタグを用意する。日本語以外で
は、記号をそのまま記述したり、Draw Circle、などの
英語表記もある。ここにあげたListの場合は、丸を書く
という動作が認識された場合はリンク先であるhttp://w
ww.server1.comのコンテンツを表示する。画面に動作、
記号の候補を表示する場合に3つめの”丸を書く”とい
う文字列を表示する。
【0038】以上のように、様々な認識方式について、
認識候補とリンク先、補助情報を提供できるようにコン
テンツ記述テキストを用意する。制御装置10では、読
み込まれたコンテンツ記述テキストに、上記の認識シス
テムのための候補があることが確認されると、自分の制
御装置10で備える認識システムに合致する認識情報を
選択し、候補データから、認識システムの認識部に登録
する。認識システムでは、登録された動作、候補が選択
された場合に、どの候補が認識されたかを返し、制御装
置10では、認識された結果からリンク先を選択し、リ
ンク先のコンテンツを表示する。
認識候補とリンク先、補助情報を提供できるようにコン
テンツ記述テキストを用意する。制御装置10では、読
み込まれたコンテンツ記述テキストに、上記の認識シス
テムのための候補があることが確認されると、自分の制
御装置10で備える認識システムに合致する認識情報を
選択し、候補データから、認識システムの認識部に登録
する。認識システムでは、登録された動作、候補が選択
された場合に、どの候補が認識されたかを返し、制御装
置10では、認識された結果からリンク先を選択し、リ
ンク先のコンテンツを表示する。
【0039】また、第2の実施の形態の場合は、上記の
List表記の4つめのパラメータに、その認識候補をガイ
ドする、ガイド情報を記述する。例えば音声認識用のLi
stであれば、 <List”りんくいち”,http://www.server1.com,”リ
ンク1”,Link1.wav> というように、4つめのパラメータに、音声データであ
る波形ファイルを記述する。表示システムにおいて、こ
の第4パラメータを確認した場合、コンテンツの表示を
行う際に、同時に音声でこの波形ファイルの再生を行
う。
List表記の4つめのパラメータに、その認識候補をガイ
ドする、ガイド情報を記述する。例えば音声認識用のLi
stであれば、 <List”りんくいち”,http://www.server1.com,”リ
ンク1”,Link1.wav> というように、4つめのパラメータに、音声データであ
る波形ファイルを記述する。表示システムにおいて、こ
の第4パラメータを確認した場合、コンテンツの表示を
行う際に、同時に音声でこの波形ファイルの再生を行
う。
【0040】例えば、ページが表示され、音声による認
識で”りんくいち”という音声でリンクを指定できる場
合には、「このページに表示されたコンテンツはりんく
いちという音声で選択できます」というように音声のガ
イドを付けることができる。これが複数のListが含まれ
ているときは、「このページに表示されたコンテンツ
は」と「という音声で選択できます。」という音声を制
御装置10で用意しておいて、各Listから「りんくい
ち」「りんくに」という候補に対する音声を抽出し、
「このページに表示されたコンテンツはりんくいち、り
んくにという音声で選択できます」というようにメッセ
ージを連結してガイドを行う。
識で”りんくいち”という音声でリンクを指定できる場
合には、「このページに表示されたコンテンツはりんく
いちという音声で選択できます」というように音声のガ
イドを付けることができる。これが複数のListが含まれ
ているときは、「このページに表示されたコンテンツ
は」と「という音声で選択できます。」という音声を制
御装置10で用意しておいて、各Listから「りんくい
ち」「りんくに」という候補に対する音声を抽出し、
「このページに表示されたコンテンツはりんくいち、り
んくにという音声で選択できます」というようにメッセ
ージを連結してガイドを行う。
【0041】また、ジェスチャー、顔表情、手話の場合
は、第4パラメータには、動画、アニメーションなどの
データを記述し、 <List”右手上げる”,http://www.server1.com,”右
手上げる”,motion1.avi> というように、音声付きの動画データガイド情報として
用い、コンテンツの表示と同時に「このページに表示さ
れたコンテンツは画面でごらんできるように、右手を上
げることによって選択できます」というメッセージと動
画によって候補のガイダンスを行える。複数の選択が可
能な場合は、音声認識の時と同様に、音声によるガイダ
ンスを連結することによって複数の候補をガイドする。
は、第4パラメータには、動画、アニメーションなどの
データを記述し、 <List”右手上げる”,http://www.server1.com,”右
手上げる”,motion1.avi> というように、音声付きの動画データガイド情報として
用い、コンテンツの表示と同時に「このページに表示さ
れたコンテンツは画面でごらんできるように、右手を上
げることによって選択できます」というメッセージと動
画によって候補のガイダンスを行える。複数の選択が可
能な場合は、音声認識の時と同様に、音声によるガイダ
ンスを連結することによって複数の候補をガイドする。
【0042】手話、手書きパターンについても同様に、
音声と動画、アニメーション、または静止画の候補を画
面に表示することにより、初心者でも操作に迷うことな
く操作を行える。また、これらの認識情報は、制御装置
10によっては複数同時に対応することも可能であり、
ガイダンスについても表示システムにより「音声認識」
「ジェスチャー」の複数のガイダンスを行うようにする
ことが可能である。
音声と動画、アニメーション、または静止画の候補を画
面に表示することにより、初心者でも操作に迷うことな
く操作を行える。また、これらの認識情報は、制御装置
10によっては複数同時に対応することも可能であり、
ガイダンスについても表示システムにより「音声認識」
「ジェスチャー」の複数のガイダンスを行うようにする
ことが可能である。
【0043】
【発明の効果】以上説明したように本発明によれば、同
一のコンテンツ記述テキスト上に、複数の認識装置に対
する認識候補データとリンク情報を提供することがで
き、制御装置10においても制御装置10に備えられた
認識装置に応じて必要な認識候補データ、リンク情報の
取得が可能となる。また、同時にガイド情報を提供、表
示することにより、ユーザに対して、認識手段のガイド
を行えるようになる。
一のコンテンツ記述テキスト上に、複数の認識装置に対
する認識候補データとリンク情報を提供することがで
き、制御装置10においても制御装置10に備えられた
認識装置に応じて必要な認識候補データ、リンク情報の
取得が可能となる。また、同時にガイド情報を提供、表
示することにより、ユーザに対して、認識手段のガイド
を行えるようになる。
【図1】本発明に係るコンテンツ表示選択システムの第
1の実施の形態の模式的ブロック図である。
1の実施の形態の模式的ブロック図である。
【図2】図1の第1の実施の形態における動作を示すフ
ローチャートである。
ローチャートである。
【図3】本発明に係るコンテンツ表示選択システムの第
2の実施の形態の模式的ブロック図である。
2の実施の形態の模式的ブロック図である。
【図4】図3の第2の実施の形態における動作を示すフ
ローチャートである。
ローチャートである。
10 制御装置 12 画像を表示し音声を再生する表示装置 14A 音声認識を行なう第1認識装置 14B 画像認識を行なう第2認識装置 16 リンク情報記憶部 18 補助情報表示制御部 20 コンテンツ記述テキスト 22 サーバ 24 ガイド情報表示制御部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/00 G10L 3/00 551P
Claims (5)
- 【請求項1】 少なくとも音声認識と画像認識を含む認
識装置と、コンテンツを表示する表示装置と、前記認識
装置と前記表示装置を関連付けて制御する制御手段とを
有するコンテンツ表示選択システムであって、 表示すべきコンテンツを記述する記述テキストには、前
記認識装置の種類を示す「カテゴリー」と、前記認識装
置により認識するユーザの選択事項の候補である「認識
候補データ」と、選択された事項のリンク先である「リ
ンク情報」を認識情報として記述しておき、 前記制御手段が前記表示装置に表示されている表示コン
テンツの有する「カテゴリー」を前記認識装置に送り、
前記表示装置に表示されている「認識候補データ」を前
記認識装置にて認識できるよう、前記「認識候補デー
タ」を前記認識装置に送り、かつ前記認識装置による認
識結果を受けて該当するリンク情報を選択し、前記表示
装置に表示されるコンテンツを前記該当するリンク情報
で示されるコンテンツに変更するよう前記表示装置を制
御するよう構成されているコンテンツ表示選択システ
ム。 - 【請求項2】 前記記述テキストには、前記認識候補デ
ータに関する補足文字列を表示するための「補助情報」
を前記認識情報として記述しておき、 前記制御手段が前記「補助情報」を前記表示装置に送
り、 前記表示装置が前記「補助情報」によって画面上に前記
認識候補データに関する補足文字列を表示するよう構成
されていることを特徴とする請求項1記載のコンテンツ
表示選択システム。 - 【請求項3】 前記記述テキストには、前記認識装置が
含む認識方法を示す「ガイド情報」を前記認識情報とし
て記述しておき、 前記制御手段が前記「ガイド情報」を前記表示装置に送
り、 前記表示装置が前記「ガイド情報」によって画面上に前
記認識装置が含む認識方法を示してユーザに前記認識手
法のガイドを提供するよう構成されていることを特徴と
する請求項1記載のコンテンツ表示選択システム。 - 【請求項4】 前記画像認識がジェスチャー、手話、顔
表情、手書きパターンの少なくとも1つを認識するもの
である請求項1又は2記載のコンテンツ表示選択システ
ム。 - 【請求項5】 少なくとも音声認識と画像認識を含む複
数の認識方法のいずれかによりユーザの意志を認識でき
るように、認識方法のカテゴリーを音声又は画像にて与
えるための記述を含むコンテンツが、コンピュータが読
み取り可能な状態で記録されたコンテンツ記録媒体。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP29311498A JP2000112610A (ja) | 1998-09-30 | 1998-09-30 | コンテンツ表示選択システム及びコンテンツ記録媒体 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP29311498A JP2000112610A (ja) | 1998-09-30 | 1998-09-30 | コンテンツ表示選択システム及びコンテンツ記録媒体 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000112610A true JP2000112610A (ja) | 2000-04-21 |
Family
ID=17790618
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP29311498A Pending JP2000112610A (ja) | 1998-09-30 | 1998-09-30 | コンテンツ表示選択システム及びコンテンツ記録媒体 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2000112610A (ja) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002366344A (ja) * | 2001-06-12 | 2002-12-20 | Asahi Kasei Corp | 音声命令システム、音声命令装置、音声命令方法および音声命令プログラム |
| JP2003131772A (ja) * | 2001-05-04 | 2003-05-09 | Microsoft Corp | Webで使用可能な認識のためのマークアップ言語拡張部 |
| JP2007148911A (ja) * | 2005-11-29 | 2007-06-14 | Nippon Telegr & Teleph Corp <Ntt> | 情報出力システム、情報出力方法およびプログラム |
| JP2013041579A (ja) * | 2011-08-05 | 2013-02-28 | Samsung Electronics Co Ltd | 電子装置及びその制御方法 |
| US8750579B2 (en) | 2011-09-29 | 2014-06-10 | Kabushiki Kaisha Toshiba | Image information processing apparatus and image information processing method |
| KR20140070747A (ko) * | 2012-11-26 | 2014-06-11 | 현대자동차주식회사 | 차량 제어 안내 장치 및 방법 |
| US9002714B2 (en) | 2011-08-05 | 2015-04-07 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
| US10558425B2 (en) | 2015-05-22 | 2020-02-11 | Fujitsu Limited | Display control method, data process apparatus, and computer-readable recording medium |
| US10839140B2 (en) | 2018-06-25 | 2020-11-17 | Baidu Online Network Technology (Beijing) Co., Ltd. | Page displaying method, apparatus based on H5 webpage, and computer readable storage medium |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0695828A (ja) * | 1992-09-14 | 1994-04-08 | Toshiba Corp | 音声入力システム |
| JPH07306772A (ja) * | 1994-05-16 | 1995-11-21 | Canon Inc | 情報処理方法及び装置 |
| JPH10222342A (ja) * | 1997-02-06 | 1998-08-21 | Nippon Telegr & Teleph Corp <Ntt> | ハイパーテキスト音声制御方法及び装置 |
-
1998
- 1998-09-30 JP JP29311498A patent/JP2000112610A/ja active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0695828A (ja) * | 1992-09-14 | 1994-04-08 | Toshiba Corp | 音声入力システム |
| JPH07306772A (ja) * | 1994-05-16 | 1995-11-21 | Canon Inc | 情報処理方法及び装置 |
| JPH10222342A (ja) * | 1997-02-06 | 1998-08-21 | Nippon Telegr & Teleph Corp <Ntt> | ハイパーテキスト音声制御方法及び装置 |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003131772A (ja) * | 2001-05-04 | 2003-05-09 | Microsoft Corp | Webで使用可能な認識のためのマークアップ言語拡張部 |
| JP2002366344A (ja) * | 2001-06-12 | 2002-12-20 | Asahi Kasei Corp | 音声命令システム、音声命令装置、音声命令方法および音声命令プログラム |
| JP2007148911A (ja) * | 2005-11-29 | 2007-06-14 | Nippon Telegr & Teleph Corp <Ntt> | 情報出力システム、情報出力方法およびプログラム |
| JP2013041579A (ja) * | 2011-08-05 | 2013-02-28 | Samsung Electronics Co Ltd | 電子装置及びその制御方法 |
| US9002714B2 (en) | 2011-08-05 | 2015-04-07 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
| US9733895B2 (en) | 2011-08-05 | 2017-08-15 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
| US8750579B2 (en) | 2011-09-29 | 2014-06-10 | Kabushiki Kaisha Toshiba | Image information processing apparatus and image information processing method |
| KR20140070747A (ko) * | 2012-11-26 | 2014-06-11 | 현대자동차주식회사 | 차량 제어 안내 장치 및 방법 |
| KR101875626B1 (ko) * | 2012-11-26 | 2018-07-09 | 현대자동차 주식회사 | 차량 제어 안내 장치 및 방법 |
| US10558425B2 (en) | 2015-05-22 | 2020-02-11 | Fujitsu Limited | Display control method, data process apparatus, and computer-readable recording medium |
| US10839140B2 (en) | 2018-06-25 | 2020-11-17 | Baidu Online Network Technology (Beijing) Co., Ltd. | Page displaying method, apparatus based on H5 webpage, and computer readable storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7277845B2 (en) | Communication support apparatus and method | |
| JP5257330B2 (ja) | 発言記録装置、発言記録方法、プログラム及び記録媒体 | |
| JP2022116104A (ja) | リアルタイム手書き認識の管理 | |
| TWI488174B (zh) | 自動地建立文字資料與音訊資料間之映射 | |
| US6181351B1 (en) | Synchronizing the moveable mouths of animated characters with recorded speech | |
| US8719029B2 (en) | File format, server, viewer device for digital comic, digital comic generation device | |
| US8798999B2 (en) | Dialog design tool and method | |
| US6549887B1 (en) | Apparatus capable of processing sign language information | |
| US20050080629A1 (en) | Multi-mode interactive dialogue apparatus and method | |
| CN101998107A (zh) | 信息处理装置、会议系统和信息处理方法 | |
| KR20090090613A (ko) | 멀티모달 대화형 이미지 관리 시스템 및 방법 | |
| CN109543021B (zh) | 一种面向智能机器人的故事数据处理方法及系统 | |
| CN113672086A (zh) | 一种页面处理方法、装置、设备及介质 | |
| CN114547288A (zh) | 一种客服信息展示方法、装置、设备及介质 | |
| JPH07222248A (ja) | 携帯型情報端末における音声情報の利用方式 | |
| JP2000112610A (ja) | コンテンツ表示選択システム及びコンテンツ記録媒体 | |
| CN108885610A (zh) | 生成和绘制变形的文本 | |
| US20080243510A1 (en) | Overlapping screen reading of non-sequential text | |
| US20220020366A1 (en) | Information processing apparatus and non-transitory computer readable medium | |
| JP2001306601A (ja) | 文書処理装置及びその方法、及びそのプログラムを格納した記憶媒体 | |
| JP2001296991A (ja) | データ処理装置、データ処理方法、記録媒体 | |
| JP2002259113A (ja) | 音声マクロ処理装置、その方法、そのコンピュータ・プログラムおよびそのプログラムを記録した記録媒体 | |
| JP2021117759A (ja) | テキスト情報編集装置及びテキスト情報編集方法 | |
| WO2024111387A1 (ja) | 処理装置、処理方法、及び記録媒体 | |
| JP2006236037A (ja) | 音声対話コンテンツ作成方法、装置、プログラム、記録媒体 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040316 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20040709 |