[go: up one dir, main page]

JP2004164288A - Information processor, information processing support device, user information management device and information processing support system - Google Patents

Information processor, information processing support device, user information management device and information processing support system Download PDF

Info

Publication number
JP2004164288A
JP2004164288A JP2002329465A JP2002329465A JP2004164288A JP 2004164288 A JP2004164288 A JP 2004164288A JP 2002329465 A JP2002329465 A JP 2002329465A JP 2002329465 A JP2002329465 A JP 2002329465A JP 2004164288 A JP2004164288 A JP 2004164288A
Authority
JP
Japan
Prior art keywords
information processing
resource
information
user
request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002329465A
Other languages
Japanese (ja)
Other versions
JP4013740B2 (en
Inventor
Ichiro Yoshida
一郎 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2002329465A priority Critical patent/JP4013740B2/en
Publication of JP2004164288A publication Critical patent/JP2004164288A/en
Application granted granted Critical
Publication of JP4013740B2 publication Critical patent/JP4013740B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Stored Programmes (AREA)
  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make other equipment to efficiently execute requested information processing even when the requested information processing cannot be executed with a resource inside a main body. <P>SOLUTION: This portable information processor 1 has a telephone function, allows voice input, and has a CCD camera 6 or the like. The portable information processor 1 can access a server of a resource management company 13, the external equipment 12 or PCs 11a-11d inside a territory via a network 10. When the processing is requested from a user A, the portable information processor 1 decides whether the processing is possible inside itself, downloads the resource of the external equipment 12 and constructs an application when the processing is impossible, and accomplishes the processing by use of the hardware resource. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、外部から受ける情報処理依頼に対して、自己のリソースでは達成できない場合でも、これを他の機器と連携して処理を行えるようにした情報処理装置、情報処理支援装置、ユーザ情報管理装置および情報処理支援システムに関する。
【0002】
【発明が解決しようとする課題】
従来、1つの機器で処理機能を満足できないときに、外部の機器と連携して処理を行うことが検討されつつある。例えば、1台のPCで処理できない数値計算問題を解決するのに、複数のPCを用いて並列処理が行われることがある。この場合、複数のPCにはほぼ同じ構成(CPU、メモリ、処理速度)で、リソース自体も固定されたもののため、別の処理を行う場合、複数のPCのリソースを別の処理に適合するように再構成する必要がある。
【0003】
一方、機器を使用するユーザが人の場合、単純な数値計算とは異なり、一般的な人の要求、命令は特定の分野に限定されていないため、人からPCに命令が出されたとき、それをそのPCが持つリソースだけで処理することは難しいことになる。これは、例えば、音声認識、画像認識(読唇術)、文字認識等によるHMI(Human−Machine Interface)などを想定している。
【0004】
そのため、このような要求に対応するためには、従来の並列処理とは異なる外部機器との連携機能が必要になる(連携分散処理)。この場合、外部機器の連携により生ずる処理の遅れに関するユーザのイライラを解消するために、処理中において処理完了予測時刻等をユーザに知らせる手段が必要になる。
【0005】
また、上記の要求を実現するために、具体的には、ユーザが話した言葉を機器が認識した場合に、その単語が、名詞,動詞,形容詞,助詞等のいずれであるかを判別して分類し、ユーザの目的に合致した制御を行う機能が必要である。各品詞を分類してその活用形まで対応付けを行うことで、ユーザの意図を把握する必要がある。つまり、依頼内容を把握すること、すなわち音声認識を行った結果からテキスト解析を行うことでユーザの意図を把握するようにするのである。
【0006】
本発明は上記事情に鑑みてなされたものであり、その目的は、人、または他の機器からの情報処理依頼を受けた時、その処理を情報処理機器本体だけで実行できない場合でもこれを他の機器に依頼して実行できるようにした情報処理装置、情報処理支援装置、ユーザ情報管理装置および情報処理支援システムを提供することにある。
【0007】
【課題を解決するための手段】
請求項1の情報処理装置によれば、受付手段により外部からの依頼情報処理を受け付けると、その依頼情報処理が自己のリソースを用いて実行可能か否かを判定手段により判定し、実行可能な場合には実行手段によりそのまま実行し、実行不能な場合には、その実行に不足するリソースが収集可能か否かを探索手段により探索して収集可能であるときにはプログラム構築手段によりその不足リソースを収集して処理プログラムを構築し、実行手段により依頼情報処理を実行させることができるようになる。
【0008】
これにより、自己が備えているリソースだけでは達成することが出来ない場合でも、依頼情報処理について不足するリソースが外部から収集可能である場合にはこれを収集して処理プログラムを構築することができ、これによって外部と連携して広い範囲の情報処理を達成することができ、依頼情報処理の内容の範囲についての制限を少なくして汎用的な利用をすることができるようになる。
【0009】
請求項2の情報処理装置によれば、上記発明において、探索手段が不足リソースをハードウェアであると判定したときには、処理依頼手段により、不足リソースのハードウェアを利用可能な情報処理支援装置を探索して実行すべき情報処理を依頼し、そのハードウェアにより実行された結果を受領手段により受け取ることができるので、自己の内部ではハードウェアリソースが不足していてい処理プログラムを構築することが出来ない場合でも、外部の情報処理支援装置が備えるハードウェアを利用して達成することができるようになる。
【0010】
請求項3の情報処理装置によれば、上記各発明において、処理時間推定手段により、依頼情報処理を自己のリソースのみを用いて処理する場合の処理時間および外部リソースを用いて協同で処理する場合の処理時間を推定し、処理方法選択手段により、推定された2つの処理時間を比較して依頼情報処理を処理するのに適した処理方法を選択して実行するようにしたので、本来自己が備えるリソースを用いて処理することが出来る場合でも、処理時間を優先したい場合などで、外部のリソースを用いて処理することで短時間で処理することが出来るときには外部リソースを選択して処理させることができるようになる。
【0011】
この結果、自己のリソースで達成できない場合のみに外部のリソースを利用する形態にとらわれず、処理時間を優先して確実且つ迅速な処理を行うように選択して実行させることができるようになり、依頼情報処理に対して柔軟な対応をすることができるようになる。
【0012】
請求項4の情報処理装置によれば、上記各発明において、受付手段として、人が音声により入力する情報処理の依頼を受け付ける入力手段と、この入力手段により入力された音声情報を前記実行手段が実行可能な情報として解釈する依頼解釈手段とを備えた構成としているので、情報処理の依頼をするのが人である場合に、直接音声により入力して依頼を行わせることができるようになり、使い勝手の向上を図ることができるようになる。
【0013】
請求項5に記載の情報処理支援装置によれば、ネットワークを介して情報処理装置からアクセスされ、その情報処理装置が有する前記請求項1ないし4に記載の情報処理装置のプログラム構築手段により不足リソースの収集依頼を受けると、リソース提供手段は、これに応じてその不足リソースを提供するので、情報処理装置と連携して依頼情報処理の実行を達成することができるようになる。
【0014】
請求項6に記載の情報処理支援装置によれば、上記請求項5の発明において、処理依頼手段は、リソース提供手段により不足リソースがハードウェアであると判定されたときに、その不足リソースのハードウエアを利用可能な他の情報処理支援装置を探索してそのハードウェアで行うべき情報処理を依頼するので、依頼を受けた情報処理について自己が有するハードウェアでは処理不能でも、外部の他の情報処理支援装置と連携して情報処理を実行可能である場合には依頼して実行することができるので、自己が備えるリソースに加えて他の情報処理支援装置のハードウェアリソースも利用して処理を実現することができるようになる。
【0015】
請求項7に記載の情報処理支援装置によれば、請求項2に記載の情報処理装置もしくは請求項5に記載の情報処理支援装置の処理依頼手段により前記不足リソースのハードウェアの利用依頼を受けたときに、対象となったハードウェアで行うべき情報処理を受け付けてこれを処理する処理手段と、この処理手段による処理結果を前記情報処理装置の受領手段に渡す送信手段とを設けているので、情報処理装置に対して、利用依頼を受けた不足リソースであるハードウェアを提供して情報処理を行ってその結果を送信手段により送信することができる。これにより、情報処理装置が単独ではハードウェアリソースが不足していて処理できない情報処理についても、これを支援して達成させることができるようになる。
【0016】
請求項8に記載の情報処理支援装置によれば、上記請求項5ないし7の発明において、自己が備えるリソースが情報処理装置の処理方法選択手段により選択された外部リソースに該当する場合に、その要求に応じて協同して前記依頼情報処理を実行するので、単独では処理能力に劣る場合や、処理不能なリソースがある場合に、効率よく依頼された情報処理を達成することができるようになる。
【0017】
請求項9に記載のユーザ情報管理装置によれば、請求項4に記載の情報処理装置を使用してネットワークを通じて音声情報を送信する場合において、ネットワークに接続され、識別情報生成手段により、情報処理装置から送信される音声情報に基づいてその使用者の識別情報を生成し、リソース管理手段により、この識別情報生成手段により生成された識別情報をリソースとして管理するようにしたので、使用者が情報処理装置に対して音声情報を入力してアクセスする場合に、その使用者の識別情報を一元的に管理することができると共に、使用者が情報処理装置を別のものに替えた場合などにおいても、それまでに入力した情報を読み出して使用することができる。さらには、情報処理支援装置や他の情報処理装置で使用したい場合でもそれをリソースとして取得することで共有することができるようになる。
【0018】
請求項10に記載の情報処理支援システムによれば、ユーザが情報処理の要求を依頼することができる情報処理装置と、この情報処理装置からネットワークを通じて情報処理依頼を受けて動作する少なくとも1つの情報処理支援装置とから構成し、情報処理装置を、情報処理依頼が内部に保有するリソースで処理できるか否かを判定する手段と、内部保有リソースで処理不足するリソースを外部機器に依頼するためにネットワークを介して外部から取得するリソース取得手段とを設ける構成とし、情報処理支援装置を、情報処理装置からの不足リソースの要求を受けたときに、その不足リソースがソフトウェアの場合に、そのソフトウェアリソースを探索してそれをその情報処理装置に送るソフトウェアリソース提供手段と、不足リソースがハードウェアである場合に、そのハードウェアの不足リソースを探索する探索手段と、この探索手段により探索されたハードウェアを持つ周辺機器に前記ハードウェアリソースの不足に起因して処理が滞っているタスクを依頼するタスク依頼手段と、依頼した前記周辺機器から依頼結果を受領して情報処理装置へ送る転送手段とを備えた構成としているので、情報処理装置と情報処理支援装置とにより、情報処理装置が単独では処理し得ない情報処理についても、協働して達成することができるようになる。また、情報処理装置側のリソースとして過剰なものを備える必要がなくなり、コスト的にもメリットのあるものとなる。
【0019】
請求項11に記載の情報処理支援システムによれば、上記請求項10の発明において、情報処理装置に対して音声情報を入力することで前記依頼をする場合に、その入力された音声情報に基づいてその音声入力を行ったユーザの識別情報を生成してこれを前記情報処理装置の外部においてリソースとして管理するリソース管理手段を設けたので、リソース管理手段がリソースとして管理するユーザの識別情報を利用して音声認識のための情報を有効に使用しながら、且つセキュリティを高めた連携動作を行うことができるようになる。
【0020】
請求項12に記載の情報処理支援システムによれば、上記請求項11の発明において、リソース管理手段を、情報処理装置側において構築したアプリをリソースとして受けつけて管理するように構成したので、情報処理装置において生成したアプリを他の情報処理装置も利用することができるリソースとして備えることができるようになり、アプリの有効活用を図ることが出来ると共に、無駄なコストを省くと共に迅速な処理を行うことができるようになる。
【0021】
請求項13に記載の情報処理支援システムによれば、上記請求項11または12の発明において、リソース管理手段を、ユーザの認識情報を情報処理支援装置の要求に応じて提供するように構成したので、ユーザ認識情報を共有してセキュリティを高めると共に、ユーザの要求事項を迅速且つ確実に把握することができるようになる。
【0022】
請求項14に記載の情報処理支援システムによれば、ユーザから命令を受けたときに、本体のハードウェアだけでその命令を処理できるか否かを判定する判定手段と、この判定手段により本体のみでその命令が処理できないと判定されたときに、外部の情報処理支援装置に一時的に移動してそのリソースを利用して必要な処理を完了させるAIエージェントを生成するAIエージェント生成手段とを備え、AIエージェントを、前記情報処理支援装置内で内部に保有するリソースを利用して必要な処理を完了させて、その完了結果を移動前の場所に転送させた後、必要な処理が完了すると自己消滅するように構成したので、AIエージェントという概念のもとで、情報処理装置の内部のリソースが不足する場合でも効率的に情報処理を達成することができるようになる。
【0023】
【発明の実施の形態】
以下、本発明を携帯情報処理機を用いたシステムに適用した場合の一実施形態について図面を参照して説明する。
【0024】
(基本構成の説明)
図1はこのシステムの全体構成を概略的に示すもので、情報処理装置としての携帯情報処理機1は、ユーザAが主たる使用者で、いわゆるモバイル機器と呼ばれるものである。この携帯情報処理機1は、携帯電話としての機能およびパケット通信機としての機能を兼ね備えている。
【0025】
この携帯情報処理機1は、操作入力をするためのキーボード2、表示装置3を備えると共に、マイクロホン4、スピーカ5、CCDカメラ6やタッチパネル7(図2参照)を備えており、ユーザの音声入力や操作入力あるいは画像入力を受け付けるように構成されている。外部との通信にはアンテナ8を通じて送受信を行うように構成されている。表示装置3は、例えばLCD,EL,有機EL等のものが用いられており、これはCCDカメラ6の画像表示やTVモニタとしても使用できる。
【0026】
携帯情報処理機1は、無線電話機能を使用すると、中継局9を介してネットワーク10にアクセスすることができる。ユーザAが自己のテリトリーとして使用可能な外部機器(情報処理支援装置)として、例えば家用PC(パソコン)11a、会社用PC11b車両用PC11c、その他のPC11dなどがあるが、これらはインターネットなどに代表されるネットワーク10を通じて携帯情報処理機1がアクセス可能となっている。
【0027】
また、ネットワーク10には、多数のユーザが共通に利用することができる情報処理支援装置としての外部機器12が接続されており、携帯情報処理機1によりアクセス可能となっている。さらに、後述する個人認識モジュールを多数のユーザ毎に管理しているユーザ情報管理装置としてのリソース管理会社13の端末装置(サーバ)もネットワーク10に接続されていて、携帯情報処理機1や外部機器11、12などによりアクセス可能となっている。
【0028】
図2は携帯情報処理機1の電気的構成を示している。全体の制御をつかさどる制御回路14は、CPU、ROM、RAMなどを主体として構成されるもので、電話機能の制御や通信機能に加えて、種々の情報処理機能を達成するようにソフトウェアおよびハードウェアが組み込まれている。この制御回路14には、前述した各構成に加えて、通信回路15、GPS受信機16、メモリ17や、ICカードの情報を読み書きするICカードリーダ18などが接続されている。
【0029】
通信回路15により外部へ送信されたデータは、中継局9などを経由して、家や会社、車両その他に置かれたPC11a〜11dなどで受信させたり、後述する外部機器12に受信させることができる。送信データのあて先を決めるために、機器に設定されたインターネットのIPアドレスやユーザが独自に設定したユーザアドレス等が用いられる。
【0030】
携帯情報処理機1の制御回路14は、ユーザの音声認識により得た結果を分析して、ユーザの発生音(発音の特徴、イントネーション、母音、子音の周波数帯域など)や使用する語彙からユーザの特徴を割り出して記憶するようになっている。
【0031】
前記のように、携帯情報処理機1は、そのユーザAの音声を認識してユーザAの特徴を記憶することができるように構成されている。ユーザAは、ほぼ常時使用する携帯情報処理機1の解析、学習結果をAの管理するサーバやPC11a〜11dなどに蓄積する。あるいは、リソース管理会社13のサーバにユーザAの解析、学習結果の蓄積、管理を記憶して管理するようにしてもよい。
【0032】
外部機器12は、ユーザAの持つ携帯情報処理機1にユーザAを認識するためのデータの使用依頼を行い、必要な認証が完了すると、携帯情報処理機1からユーザ認証に必要な音声認識データを受領することができる。また、外部機器12からユーザAのデータ使用依頼がリソース管理会社13のサーバにあった場合も同様に、サーバは通信によって外部機器12へ必要なデータを送るように構成されている。
【0033】
このようにして、携帯情報処理機1を用いて入力を行うユーザAについて、その携帯情報処理機1あるいはリソース管理会社13から音声認識についてのデータを受け取ることができるので、外部機器12がユーザAであることとその言語を確実に認識できるようになる。
【0034】
なお、外部機器12が携帯情報処理機1もしくはリソース管理会社13から受領した音声認識に関するデータには有効期限がつけられており、その有効期限として設定されている時間が経過すると自動的にそのデータは消去されるように決められている。なお、外部機器12の種類によっては、例えば家電製品のように、ある程度長時間使用される機器では、設定時間が日単位で設定され、自動販売機のような機器では分単位で消去されるように設定される。また、セキュリティ確保の目的でデータが使用される場合は、月や年単位でデータ更新を行うようにしても良い。
【0035】
(概略的な動作説明)
次に、認識結果をもとに事前動作確認を行う例について図3ないし5を用いて説明する。まず、図3においては、携帯情報処理機1の概略的な動作について順を追って示している。図4および図5では、それらを詳細にした流れが示されている。
【0036】
図3の携帯情報処理機1の動作フローにおいて、まず、ユーザによる入力が行われると、その情報収集を行い(ステップA1)、収集した情報についてそれらの情報が何を意味しているのかの認識処理を行う(ステップA2)。ここで、ステップA1の情報収集は、外部つまりユーザAあるいは他のユーザなどから入力があるかをチェックするステップで、続くステップA2の情報認識は、入力があるとその情報を別の形に変え、機器が理解しやすい形に変更する(音声認識では声をテキストに変更する操作を示す)処理を行う。
【0037】
次に、携帯情報処理機1は、依頼されている処理内容が認識できると、その認識結果について得られた情報の範囲で実行可能か否かを判定する(ステップA3)。これは、テキストデータを解析して、テキストデータからユーザの意向を判定する(命令、依頼、質問、その他から機器がすべき動作を決定する)処理である。
【0038】
次に、認識結果に基づいて、その依頼内容について事前動作確認を行い、実行に必要な情報で認識できない部分をユーザAに問い合わせて認識語彙を増加させる(ステップA4)。ここで、事前動作確認とは、ユーザAが発した言葉が理解できない場合、ユーザAはどのような目的を持っていて、それは具体的にどのような処理を期待しているかをユーザAに確認するために行われるものである。
【0039】
ここでは、ユーザAの意向に沿えるソフト、ハードの条件を検証する(ユーザの意向確認と、動作シミュレートを行う。ここで語彙増加、認識条件向上用の設定値の調整、マッチングデータを収集、蓄積する)。
【0040】
続いて、ユーザAの要求に内部リソースでは対応できないと判定された場合、不足リソースを探索し、不足リソースが見つかった場合、ユーザAに外部との協調による動作をすること(ここでは、不足リソースをダウンロードして携帯情報処理機1内でアプリを構築するか、それともタスクを外部に依頼するかの選択を行うこと)の情報提供、確認の処理と、ユーザAが不足リソースダウンロードまたは、協調動作を受け入れた場合に、対応するリソースを収集するか、または外部機器12へタスクを依頼する処理(ステップA5)が実施される。このようにして対応モジュールが収集されると、次に、動作確定処理(ステップA6)として、動作可能と判定された処理について実際に動作することを確定し、その動作を実行する(ステップA7)。
【0041】
これにより、ユーザAの意図に反した動作を行わないようにして、携帯情報処理機1の動作効率を改善させると共に、ユーザAの特徴を記録して認識率の改善を図るようにしている。また、ユーザAの言い間違いや勘違いによる携帯情報処理機1の動作ミスを未然に防止することができるようになる。
【0042】
(詳細な動作説明)
次に、図4および図5を参照して携帯情報処理機1の動作の詳細について説明する。この動作の主体となる制御回路14は、まず、マイクロホン4を通じて入力された音声データから、ユーザAが機器に対して入力(会話)を行おうとしているか否かについて処理を行う(ステップS1)。そして、ユーザの音声の有無の検知、背景雑音の低減などの処理結果を常時出力すると共に、ユーザAの入力(会話)があれば確実にそれを認識処理に移行できるように判定を行っている(ステップS2)。
【0043】
制御回路14は、上記出力結果から、会話があったか否かを判定し、会話が無いと判定された場合にはステップS1に戻り、会話が有りと判定された場合には、続いて会話データ部の切り出しを行う(ステップS3)。続いて、適宜切り出したデータをデジタルデータに変換し(ステップS4)、さらにそのデータが認識できるように変換処理を行う(ステップS5)。
【0044】
次に、制御回路14は、変換されたデータについて音声認識処理(音声マッチング)を行い(ステップS6)、これをテキストデータに変換する(ステップS7)。このとき、音の大きさ、抑揚データなども合わせて解析する。
【0045】
この後、制御回路14は、得られたテキストデータについて、単語の並びをもとに文の構造を、文法的に分類する(ステップS8)。続いて、テキストデータから単語を抽出し、それらを品詞(名詞、動詞、助詞、形容詞等)に分け(ステップS9)、抽出された単語については、それぞれ品詞を類別するID(データタイプタグ)を付けて記憶する(ステップS10,S11)。
【0046】
ここで、制御回路14は、各単語につけた品詞の矛盾をチェックしたり、あるいは、テキストとして認識することはできたがその意味が通らない単語(認識データ辞書にはないもの)があるかどうかについてチェックを行い(ステップS12)、問題がなければ(ステップS12で「YES」と判断)、次のステップS20へ進む。
【0047】
一方、単語に矛盾がある場合、制御回路14は、ステップS13に進み、矛盾が生じている単語を表示装置に表示して、ユーザに再入力をしてもらうように促す。制御回路14は、ユーザが再入力するのを待ち(ステップS14,S15)、入力されたデータは認識処理が行われる(ステップS16)。ユーザによる再入力が無い場合にはステップS15で「YES」と判断して、開始画面に移動する(ステップS1に戻る)。
【0048】
ここで、制御回路14は、入力されたデータの解析を行い、使用されている単語がデータ辞書にあるか否かを判定して単語に矛盾が生じていないか否かを判定する。もし、入力データが理解できない(認識辞書に無い)場合には、ユーザへ理解できない単語を復唱あるいは表示にて知らせる。ユーザはそれにより理解されなかった単語を入力する。入力結果は解析され、理解できるか否かが判定される。この部分で、制御回路14は、入力された単語を認識するための必要データを記憶し、同じユーザAの入力に対し、認識候補を増やして認識率を向上させることができるようになる。必要なデータとは、基本音素データ、音素変動パラメータ、抑揚、速度、選択語彙の変化などである。
【0049】
次に、制御回路14は、認識されたデータに矛盾がないかを再度チェックし(ステップS17)、まだ矛盾があれば、ユーザにそのデータを登録するか否かを判断し(ステップS18)、「YES」ならば正しい語を入力するよう表示させてユーザに依頼する(ステップS19)。ユーザにより代替語が入力されると、制御回路14は、音データと代替語を関連付けて保存する。また、ユーザが設定時間が経過する間、何もしない場合には、データに矛盾があるためそれ以上の処理ができないので、開始画面へ移動する(ステップS18で「NO」と判断してステップS1に戻る)。
【0050】
制御回路14は、ステップS19で代替入力を得て単語レベルで矛盾がなくなると、次に、認識されたテキストのメッセージタイプを分類する(図5のステップS20)。ここでいうメッセージタイプとは、例えば、呼びかけ、説明、依頼、質問、確認、応答などの各タイプを想定している。この分類に際しては、制御回路14は、分類されたテキストから動詞を探し、動詞の前後関係からメッセージタイプを分析して決定する(ステップS21)。
【0051】
この後、制御回路14は、そのメッセージタイプの内容に対応できるかを判定し(ステップS22)、対応できないと判定するとユーザにメッセージタイプの再確認を行う(ステップS23)。再確認の処理では、ユーザにメッセージタイプの入力を促すための画面表示を行う。そして、ユーザにより再確認の入力がなされると、制御回路14は、その結果が前と同じメッセージタイプかを確認してその結果がどのメッセージタイプかをチェックする(ステップS24)。
【0052】
制御回路14は、メッセージタイプの再チェックを行ってもそれがわからないと判定すると(ステップS24で「NO」と判断)、対応できない旨の表示と、対応できない理由や、入力に関する推奨項目を表示する(ステップS25)。この場合には、メッセージタイプを明確にするための入力の仕方の案内を行うと良い。例えば、
「質問なら、『・・・か? ですか?』、依頼なら『・・・してほしい』の語尾を使ってください。」
等の表示、又は音声伝達を行うことで案内を行うと良い。
【0053】
次に、ステップS22で、テキストのメッセージタイプに対応できると判定されると、制御回路14は、そのメッセージタイプに入れられた単語を解析し、そのメッセージの処理を行うためのリソースの有無をチェックするようになる(ステップS26)。
【0054】
次に、制御回路14は、リソース不足と判定した場合には(ステップS27で「YES」と判断)、外部機器12との通信を開始し、不足リソースを探索するようになる(ステップS28)。外部機器12としてはユーザのコンタクトできる事務所や家庭のPC11a〜11dなどを経由してインターネット10で探索したり、あるいはリソースを管理するリソース管理会社13に接続して、リソースの有無を問い合わせる。
【0055】
制御回路14は、探索処理を行うことより、不足するリソースが見つかれば(ステップS29で「YES」と判断)、リソースの属性を読み出し(ステップS30)、ユーザに不足するリソースをどのように取り扱うかを問い合わせを行う(ステップS31)。
【0056】
ここでは、制御回路14は、ユーザに対して、リソースをダウンロードする(ステップS33)か、不足リソースのサイズが大きい場合やダウンロード時間がかかりすぎる場合や内部処理能力不足が予想される等の場合で、外部機器との協調動作(ステップS34)を選ぶか、処理を取りやめる(ステップS35)かを選択する問い合わせを行う。
【0057】
ユーザが実行を示す決定をした場合(ステップS32にて、ステップS33,S34のいずれかを選択した場合)には、制御回路14は、不足リソースのダウンロード(ステップS33)または外部機器12との協調動作(ステップS34)のセットアップをして、アプリを構築する処理を実行し(ステップS36〜S39)、ユーザのメッセージに応じた動作をする(この部分の機能は、リアルタイムインタラクティブアプリ構築環境とも言える)。
【0058】
なお、上記の処理を経ることで得られたアプリについては、制御回路14は、メッセージタイプ毎に分類して記憶するようになっている。この場合、リソース自体が大きいため、記憶エリアを確保できない場合は、リソース名とそのリソースを得た場所(アドレス)情報を記憶する。これにより、将来、同じメッセージタイプにおいて、類似するユーザ依頼があった場合には、記憶したリソースの情報を読み出すことで迅速にアプリ構築が行えるようになる。
【0059】
(リソース管理会社の管理システムの説明)
次に、上記のシステムを用いた場合のリソース管理会社13における管理システムについて図6を参照して説明する。図6において、リソース管理会社13は、主にユーザの音声認識関連データをリソースとして管理するように構成されている。
【0060】
前述した携帯情報処理機1は、電話機能を有しており、図示しない電話会社と使用契約が行われる。また、電話使用と同時にリソース管理会社13との間で音声認識機能拡張への登録を行う。ここで、音声認識処理については、ユーザ本人を確認するための補助手段としても使用可能としている。
【0061】
まず、ユーザが携帯情報処理機1を用いて電話機能を使うと、ユーザの通常使用する音声認識関連データが改良され認識率が向上していく。それらの音声認識関連データは定期的にリソース管理会社13において記録される。これによって、ユーザの所有する携帯情報処理機1が壊れても音声認識関連データを失うおそれがないので、新たな携帯情報処理機1を使用する際に、その機器内で音声認識関連データを新たに作成する必要がなくなる。
【0062】
次に、ユーザが携帯情報処理機1に指示を出すと、携帯情報処理機1は、前述したように、その指示に応じてメッセージタイプを調べ、それにあったリソースをリソース管理会社13から無償で取得する。リソースのダウンロードに応じてリソース管理会社はユーザから料金を徴収するようなシステムとすることもできる。
【0063】
さらに、携帯情報処理機1を上述したようにして使用することで、ユーザが構築したアプリは、リソース管理会社13側で管理することができる。これによって、他のユーザが管理されているリソースのアプリを使いたい場合、有償あるいは無償で配布することで共有することができるようになる。その際、アプリを構築したユーザに使用料を支払うことができるようにすれば、アプリを構築するユーザ側も積極的に提供するアプリを構築することができ、また、利用するユーザ側も既に出来上がっているアプリの中から適切なものを選ぶことで迅速且つ実績のあるリソースとして活用することができるようになる。
【0064】
そして、リソース管理会社13は、サーバで管理しているユーザの音声認識関連データが外部機器12(料金をとるサービス機器)で使用することを積極的に行うことで、その使用料金を徴収するメリットを享受することができる。ユーザ認識用の音声認識関連データの使用は、外部機器12へ購入を依頼する手順のどこかでリソース管理会社13に使用を連絡する手順を設け、リソース管理会社13が使用状況を把握できるようにする。たとえば、ユーザ認識用の音声認識関連データを外部機器12に転送したタイミングでリソース管理会社13は、外部機器12の管理会社へ課金処理を行うようになっている。
【0065】
上記のようにシステムを構築することで、ユーザ認識率が高い機器は、従来の認識機能よりも優れた認識機能を提供することができるようになるため、サービスが向上しユーザにとって受け入れられやすくなる。また、本人認証を厳密に行えるようになるため、セキュリティの確保にも効果がある。また、ユーザ認識用の音声認識関連データはリソース管理会社13が管理するため、自分のデータを失うおそれがない。
【0066】
図6の例では、携帯情報処理機1にリソースを集め、携帯情報処理機1内でアプリを構築する例を示している。すなわち、ユーザの依頼に対応するためにユーザのメッセージタイプを見つけ、そのメッセージタイプに応じた動作を行えるかどうかを検証し、その結果、携帯情報処理機1内部のリソースだけでは動作が行えない場合、外部機器12などからリソースを獲得してアプリを構築する例を示している。
【0067】
携帯情報処理機1が、十分高速な演算装置やメモリ等のハードを持ち、大きなアプリも構築できるハードリソースを持っている場合は問題なく実行をすることができるが、携帯情報処理機1側のハードウェアリソースが不足し、内部では十分なアプリが構築できない場合、外部のハードウェアリソースと共同してユーザの依頼を処理するアプリを構築する必要がでてくる。
【0068】
携帯情報処理機1の制御回路14は、どのような構成でユーザの依頼に対応できるかを、言語認識結果から得られたメッセージタイプの内容を解析して、アプリ構築をシミュレートする。内部のリソースで対処できる場合は、アプリを構築してユーザの依頼を実行する。
【0069】
一方、携帯情報処理機1の内部のリソースでは対応できない場合、あるいはアプリは構築できるが処理に時間がかかる場合や、アプリを構築するハードウェアリソースがないためアプリを構築できない場合等では、次のような対応をする。制御回路14は、外部リソースを探す。対応できる外部リソースを持つリソース管理会社13、あるいはユーザが別の場所に保有する外部機器11a〜11dや外部機器12等で不足リソース(ハード)を補うことが出来れば、それらに協調動作依頼とその依頼内容を含めたデータを送信する。
【0070】
依頼内容を受信した外部のリソースを管理する機器11a〜11d,12からは、依頼内容に対する対応可否の回答と、対応可とすると、いつまでに依頼内容に対応できるかを携帯情報処理機1の制御回路14に送る。また、利用が有料であるリソース管理会社13を利用した場合には、その料金情報等も合わせて受け取る。
【0071】
携帯情報処理機1は、これらをユーザに提示して、ユーザに依頼を実行してよいかの判断を委ねる。ユーザ依頼において、ユーザが既に同じ依頼を何度も行い、ユーザがその依頼に関する判断条件を判定して、ユーザに判断を委ねることを省いて協調動作を管理することも可能である。
【0072】
(リソース管理会社から外部機器へのデータ転送の説明)
図7と図8は、リソース管理会社13から外部機器12へのデータ転送の様子を模式的に示したものである。図7に示すように、ユーザの携帯情報処理機1から外部機器12へ情報を伝達し、外部機器12はホストであるリソース管理会社13のサーバへ認識モジュールすなわちユーザ認識用の音声認識関連データの送信を依頼し、そのデータを受領する。外部機器12は、携帯情報処理機1のユーザの言語を認識してユーザの要求を処理することができるようになる。以下に図8のフローの説明をする。
【0073】
図8において、外部機器12はリソース管理会社12のサーバ(以下、リソース管理会社と略称する)にあらかじめ利用登録を行う(ステップP1)。携帯情報処理機1もリソース管理会社12に利用登録を行う(ステップP2)。リソース管理会社13は、これらの利用登録を受け付ける(ステップP3)。
【0074】
携帯情報処理機1からは、ユーザが使用をするたびにその音声認識関連データを記憶して蓄積しており、その蓄積している音声認識関連データについて、適宜の時間間隔でリソース管理会社12に送り(ステップP4)、リソース管理会社12はそのデータを定期的にアップデートする(ステップP5)。
【0075】
携帯情報処理機1のユーザAが外部機器12の利用をしたい場合、携帯情報処理機1から外部機器12に対して利用依頼を出す(ステップP6)。これに対して、外部機器12は外部機器利用依頼を受け付け、その利用依頼に含まれたユーザIDを読む(ステップP7)。次に、外部機器12は、リソース管理会社13に利用者確認依頼とデータ利用依頼を行う(ステップP8)。
【0076】
これを受けて、リソース管理会社12は、利用者確認処理をした後(ステップP9)、要求を受けた外部機器12に対して必要なデータを送る(ステップP10)。外部機器12は、ユーザの依頼を処理できるように必要なデータ(リソース)を集め(ステップP11)、アプリをセットアップするようになる(ステップP12)。
【0077】
それが完了すると、外部機器12は、ユーザに入力を促すように表示を携帯情報処理機1又は外部機器12に行う(ステップP13)。これに対して、ユーザは携帯情報処理機1を用いて入力処理を行う(ステップP14)。外部機器12はデータ認識と応答の処理を行う(ステップP15)。
【0078】
ユーザは利用が完了すると、携帯情報処理機1により利用完了入力を行う(ステップP16)。外部機器12は、携帯情報処理機1から送信された利用完了を受信すると、リソース管理会社13から受領したデータを設定時間後に消去するように処理する(ステップP17)。
【0079】
(携帯情報処理機がアプリを構築する場合の説明)
次に、図9を参照して、携帯情報処理機1がユーザからの依頼を受け、アプリ構築を検討した結果、外部機器12にてアプリ全体を構築する例を説明する。なお、この説明においては、携帯情報処理機1において、制御回路14が実施していた処理について、ソフトウェアである音声モジュールが主体的に動作する形式で説明する。
【0080】
すなわち、携帯情報処理機1の音声モジュールは、ユーザが入力する音声から言語を認識し、その認識結果からユーザの依頼をメッセージタイプに分類する。次に、リソースマネージャがメッセージタイプとその詳細を解析し、どのようなリソースを用いてアプリを構築するかを検討し、アプリ仕様設計書を作成する。アプリ仕様設計書には、アプリ構築に必要なリソースのタイプとその構成(アプリモジュールの連結)が記載されている。
【0081】
このアプリ仕様設計書に基づき、リソースマネージャは、携帯情報処理機1内部のリソースを調査する。この場合には、携帯情報処理機1内で処理することは難しいと判断している例を示している。たとえば非常に演算量が多いため、携帯情報処理機1内でアプリを構築すると時間がかかりすぎるような場合がこの例に対応する。
【0082】
携帯情報処理機1は、外部機器12へアプリ仕様設計書と携帯情報処理機1が持つリソースを外部機器12へ送る。外部機器12はアプリ使用設計書に基づき、必要なリソースを機器の内部や外部のリソース管理会社13から集め、アプリを構築する。外部機器12内で構築されたアプリは、ユーザの依頼に対する結果を出す。出された結果は通信用インターフェース回路を用いて携帯情報処理機1に送られ、ユーザに提示される。
【0083】
上記のようなアプリの構築を行う場合のリソースマネージャとユーザとの関係は、図10に示すようになっている。すなわち、リソースマネージャは、ユーザの言語やジェスチャをテキストに変換して、メッセージタイプ、メッセージタイプ対応情報(必要な機能モジュール、リソース)を決定して、ユーザの目的を確認する。
【0084】
リソースマネージャは、ユーザの目的がわかると、自己の機器の内部にあるリソースを確認して、仮のアプリを作成し、それがユーザの目的を満たすか否かを判定する。もし、ユーザの目的を満たせない時は外部からリソースを集めて再度仮のアプリを作成しユーザに提示する。ユーザが気に入ったところでアプリを完全に機能するようにリソースを配置して、アプリ動作を開始する。
【0085】
また、ユーザが気に入ったアプリの構成(リソースリスト、リソース配置等)を記録し、後でユーザが再度そのアプリの動作を希望したとき、迅速にそのアプリを構築できるようにする。
【0086】
(携帯情報処理機が外部機器と協働して処理を実行する場合の説明)
上述の例では、携帯情報処理機1が、アプリを外部機器12にて構築して、結果のみを携帯情報処理機1へ返すようにしているが、これに代えて、図11に示すように、携帯情報処理機1でアプリの一部を構築し、外部機器12で残りのアプリを構築し、それらが協調して動作し、外部機器12の結果を携帯情報処理機1が利用して最終的な結果を出すようにしてもよい。
【0087】
このような場合の一例として、JAVAVMの上で作動するリソースを大量に必要とするアプリケーションをリソースを持たない携帯情報処理機1で動作させる場合、携帯情報処理機1だけでは動作できないアプリを外部機器12と連携して動作させてユーザには見かけ上、携帯情報処理機1だけで動くように見せる手段として有効である。
【0088】
どんなアプリでも作動できるように、ネットワーク上にある使用可能なリソースのデータベースを持ち、それらを適宜利用してユーザの依頼を処理することを考えると、図11に示した構成が効率的である。
【0089】
(具体的な応用例の説明)
また、別の例として、コンピュータグラフィックスのアニメーション作成のように、大量の画像を作成する場合、1台のコンピュータでそれらの処理を行うと、莫大な演算能力が必要になる。従来は、複数のCPUを搭載できる高速なコンピュータを複数台使って、画像作成および動画作成を行っていた。
【0090】
このような場合に、本発明の構成を採用することで、画像作成の中心にある制御アプリがネットワーク上にある負荷の少ない複数のPCそれぞれに、描画に必要なアプリ機能を構築し、CPUの能力に応じて描画画面、描画枚数等を割り当てることが可能になる。また、描画された結果を、動画化するためには、制御アプリが動画化する機能を持つPC等を探して、そこへ複数のPCが描画したデータを送信するように命令を出す。これにより、従来のように高価な機器を使用しなくても、大規模な画像(動画)を作成することが可能になる。
【0091】
ただし、この前提は、制御アプリが負荷の少ないPCを選択する場合に、セキュリティ機能(相互認証)を受け、この認証が確認された場合に、選択されたPCは命令を受けるようにする。このとき、制御アプリが業務を依頼する外部PCは、それぞれ使用可能のリソースリストを持ち、制御アプリは、そのリソースリストを参照して、外部PCへの業務を割り当てるようにする。また、制御アプリは、そのリソースリストを超えるPCのリソース領域にはアクセスできないようになっている。
【0092】
(ビジネスモデルとして成立するシステムの説明)
次に、上記システムを利用して成立するビジネスモデルについて説明する。制御アプリが業務を依頼するPCのユーザには、通信料金の割引や、使用時間に応じたポイント、あるいは作成された画像を安価で利用出来る等のサービスが付加される。このようにして、業務にPCを貸すことでPCの購入を安価にすることができる。
【0093】
例えば、PC自体を主に個人リースし、ユーザの使っていない空き時間で、そのPCを使いたいユーザに共同利用させることができるようにする。ここで、空き時間に使いたいユーザは、負荷の大きなアプリを動かしたいヘビーユーザであり、通常のアプリを動作させるユーザをライトユーザとすると、ライトユーザ、ヘビーユーザ両者に時間に応じた料金を支払うようにし、PCの維持費(電気代、通信費)はヘビーユーザが使用時間、量に応じて支払うようにする。ライトユーザは、従来よりも安価にPCを使うことができる。また、ヘビーユーザは、PCを設置するために空間が不要になるという効果がある。
【0094】
(車載サーバのOS補助アプリに適用した例の説明)
次に、上記のシステムを車載サーバのOS補助アプリに適用した場合の例を示す。すなわち、車載サーバの補助アプリは、外部から依頼を受け取る(同時に複数の処理を行う)。補助アプリ(OSGi)は、依頼内容が、車載サーバに搭載されたアプリモジュール(アプレット、サーブレット、あるいはその部品ソフト)で実行できるか判定する。
【0095】
補助アプリは、車載サーバ本体で処理できないと判定すると、どのようなアプリモジュールが不足するかをチェックする。補助アプリは、不足するモジュールをネットワークにアクセスして獲得できないかをチェックする。補助アプリは、不足するアプリモジュールをネットワークを介して獲得できることがわかると、そのアプリモジュールを獲得しても良いかをユーザに問い合わせる。あるいは予めユーザが自動的にアプリモジュールを獲得する条件を設定しておく、それから外れた場合は、ユーザに問い合わせる。
【0096】
補助アプリは、不足リソースをネットワークを介して獲得する。補助アプリは、不足リソースを獲得すると、実行できるアプリケーションの形に構築して、OSに処理を渡す。OSは、依頼された処理を行う。アプリの動作が感旅してOSに完了を通知し、OSがその処理完了を確認すると、結果を補助アプリに渡す。補助アプリはアプリ不要なリソースを削除、あるいは退避する。
【0097】
続いて、上記システムにおける携帯情報処理機1の機能を、情報処理装置としてのPC11a〜11d(以下PC11と称する)が実行する場合について、PC11内に上記システムを実行するように構成されたソフトウェアであるリソース収集型AIモジュール(以下、単にAIモジュールと称する)を設定して行う場合について説明する。
【0098】
図12はその基本的な動作をチャートに示したものである。ユーザの手元(ホーム)にあるPC11のAIモジュールがユーザから処理の命令(ステップR1)を受けたとき(ステップR2)に、AIモジュール(ソフト)は、自己が常駐する本体(ハード)だけでその命令を処理できるか否かを判定する(ステップR3,R4)。
【0099】
本体内でその命令の処理が可能である場合には(ステップR4で「YES」と判断)、内部処理を実行してその結果を出力する(ステップR5,R6)。また、本体のみでその命令が処理できないと判定されると、AIモジュールは、他のPCに一時的に移動可能なAIエージェント(ソフトモジュール)を生成し、他のPC12(その他情報処理機器あるいは外部機器)にAIエージェント(ソフトモジュール)を送る(ステップR7)。
【0100】
他のPC12では、AIエージェントを受信すると(ステップR8)、内部でAIエージェントが起動するようになる。AIエージェントは、PC12内のリソース(ハードとソフト)の使用依頼をして(ステップR9)、OKであれば(ステップR10で「YES」と判断)、リソースを利用して必要な処理を完了させて(ステップR11)、その完了結果をAIモジュールのある場所(ホーム)へ転送する(ステップR12)。この後、PC12内のAIエージェントは必要な処理が完了したことをもって自己消滅するか、あるいはAIエージェントはOSにAIエージェントを消す命令を残して停止する(ステップR13)。
【0101】
また、AIエージェントが内部リソースの使用依頼を出したときに、OKが得られない場合には(ステップR10で「NO」と判断)、AIエージェントの依頼が実行できないことから、キャンセル処理を行ってその旨をAIエージェントの送信元であるAIモジュールが常駐しているPC11側に通知する(ステップR14,R15)。
【0102】
PC11側では、AIモジュールが、AIエージェントを送った先のPC12から処理結果を受け取ると(ステップR16)、その結果をユーザに出力するようになる(ステップR6)。なお、PC12に送ったAIエージェントから内部リソースの使用依頼がOKされなかった場合には、この通知を受けた後(ステップR15)、他のPC12を探索して上記のステップを繰り返し実行するか、あるは利用が出来ない場合の処置をとることになる。
【0103】
上記のようにすると、ネットワーク10を用いた遠隔処理のように、通信のために回線内に常にデータを流す必要がないため、ネットワーク回線の混雑を緩和することができる。ただし、これを安易に実行するとPCユーザのプライバシーに触れることの可能性が出てくるので、各PC11,12においては、他のPCからのAIエージェントに割り当てられるリソースを制限する機能を持たせることが必要となる。
【0104】
また、AIエージェントに公開されるネットワークエリアをパブリックエリア、公開されないエリアをプロテクトエリアと呼ぶことにする。AIエージェントは基本的にパブリックエリア情報を検索、移動することができるように設定される。さらに、AIエージェント発行者がネットワーク使用について対価を支払うことが前提であれば、対価支払に応じてAIエージェントを受け入れたPC11,12は、使用可能エリアの使用制限を緩めるようなネットワーク構成にしても良い。また、各PCユーザは他のPCユーザから利用に応じた対価を得るようにすると良い。
【0105】
次に、上記したリソース収集型AIモジュールを適用した場合の具体的事例について説明する。
【0106】
(具体的事例その1)
まず、具体的事例その1として、リアルイメージナビゲーションについて説明する。これは、ドライバが走行中に自分の目的場所の景色、道路機能(自動運転エリアか)、混雑状況、駐車場の入口の渋滞状況、駐車場が自動料金収受システムか、駐車場の駐車アシストの有無等のリアルイメージの情報を得ることができるようにしたもので、ドライバに動画で表示できるようにするナビゲーションシステムである。
【0107】
ここでは、情報処理装置として車両に搭載しているPC11cが車載サーバとして機能するように構成されている。車載サーバ11cは、カーナビゲーション装置と協働してナビゲーション機能の向上を図るものである。そして、後述する種々の情報をカーナビゲーション装置の表示装置を利用して表示させるようになっている。
【0108】
ユーザ(車両のドライバ、同乗者の使用も可能)は、車上で自分の行きたい場所(例えば、ショッピングセンタ)の名前を、通信メディアなどで知った(あるいは別のメディアで情報を入手した)とする。そのとき、ユーザがその場所の景色、渋滞状況(空から見た)、駐車場の空き状況、駐車場の入口の渋滞状況、駐車場が自動料金収受システム対応か、駐車場の自動駐車アシストの有無等を知りたくなり、車載サーバ11cに調査を依頼するシチュエーションを考える。
【0109】
車載サーバ11cは、自分自身のリソース(メモリ、DVD、CD、接続中のネットワーク等)を調査する。例えば、依頼者の欲する場所の情報(現在の航空写真、紹介文)が無い、駐車場付近の画像等を保有していない、自動走行のための基本データ(デジタル道路情報)が無い等、車載サーバ11c単独でユーザの要求を処理できない依頼であると判定すると、そのときに、ユーザ要求に答えるための不足するデータと機能を分類して、処理すべきタスクを構成し、そのタスクを処理するAIモジュールを作成する。
【0110】
ここでいうAIモジュールとは、テキストで構成されたプログラムスクリプトや、相手先PCが理解できるプログラム言語、相手PCが音声認識が可能ならユーザの音声の指示、またはそのテキスト変換されたデータ等であり、種々の形態がある。
【0111】
次にAIモジュールがどのように作動するかを詳細に説明する。車載サーバ11cは、種々の通信メディア情報をユーザに届け、必要ならその情報を記録するメディア車載機(あるいは車載サーバの追加機能モジュール)から、ユーザが調査依頼を出したキーワードを、メディア車載機が記録したデジタルデータから検索する(ここで車載サーバ11cにメディア車載機の機能を持たせるようにしてもよい)。
【0112】
その情報として、例えば
[情報1]−「○○ショッピングセンタは、会員の皆さんにXX時より30分のタイムサービスを行います。これから送りますキーワード情報をお持ちの方に限り、下記の製品を40%引きにします」
という情報をユーザが得たとする。
【0113】
ユーザは、紹介された製品を欲しいと思うと、車載サーバ11cに対して音声にて、現在位置から○○ショッピングセンタに移動して、目的の商品の購入が可能かを問い合わせることができる。
【0114】
ここで、ユーザは、単純に「上記情報の製品を購入できるか?」と車載サーバ11cに問い合わせる場合を想定する。車載サーバ11cは、ユーザのリクエストに対し、いくつかの質問をすることで、ユーザの要求が、
「XX時30分までに(MM分以内に)この車両は目的地に到着できるか」
という具体的な内容であることを判別する。そこで、車載サーバ11cは、車両の目的地到着時刻推定のタスクを実行する。
【0115】
車載サーバ11cは、目的地までのルートを複数検索し、法定速度で走行したときの平均走行時間からユーザの欲しい商品を購入できる可能性を判定する。ここで、全く可能性が無い場合は、車載サーバ11cは、ユーザに不可能という応答を返す。
【0116】
一方、車載サーバ11cが、商品を購入できる可能性があると判定した場合には、現在地から目的地までの正確な渋滞情報、渋滞を回避したときの走行時間、目的地付近の渋滞状況(駐車場付近の渋滞台数)、駐車場付近の移動速度等を考慮し、購入可能性を推定する処理を行う。しかし、上記の情報がローカルな情報で車載サーバ11cの位置からでは詳細な情報が得られない場合が考えられる。その際、車載サーバ11cは、目的地付近の種々の情報発信機器へアクセスして必要な情報を集める必要がある。
【0117】
例えば、対象となっているショッピングセンタまで行く経路1として、県道のA,B,C,Dを通過して行くとすると、その間のリアルタイム情報を集める必要がある。これ以外に経路がある場合には、それらについても同様にリアルタイム情報を集めて到達時間を求める。
【0118】
車載サーバ11cは、図13に概念的に示すように、ユーザの依頼を県道の通過エリア毎に分類し、その分類単位のタスク1,2,3などに分けて、そのタスクを行うAIモジュール1,2,3などを作成し、通過時間を調査する。それぞれの通過時間を受け取ると、目的地までの走行時間が精度良く推定できる。
【0119】
図14は、AIモジュールが生成するAIエージェントの設定事項を示しており、AIモジュールID、ターゲットネットワークID、スクリプトテキスト、検索エリア、回答データ(単位)、回答期限、AIモジュール寿命、オプション等を含むものである。
【0120】
次に、図15を参照して、AIエージェントの具体的な構成の一例を示す。AIモジュールIDは、例えばIPv6形式の値を設定している。この中にAIモジュールを作成した車載サーバ11cのIPが含まれている。そして回答データが自動的に車載サーバ11cへ戻るようになっている。これにはタスクIDまで含ませてもよい。設定例としては、例えば、
「12DE:09a1:333F:FFFF:12DE:09a1:333F:FFFF」
である。
【0121】
ターゲットネットワークIDは、例えば、設定エリアにあるサーバ(ネットワーク)のIPを設定し(複数ある場合には複数を設定)、その設定には関連情報のデータベースに事前にアクセスして絞り込むようにしておく。AIエージェントのアクセスレベルは、パブリック、プライベート1、プライベート2、アドミニストレータ等アクセス権限を分けるようにする。なお、通常はパブリックに設定される。
【0122】
スクリプトテキストは、例えば、
「県道○○線 A−B地点 の 通行車両 の 通過時間 を 複数の通過車両 の 通過時間から 算定する。」
などであり、これはコマンドとデータを順に並べて記載するようにしてもよい。
【0123】
検索エリアは、緯度範囲、経度範囲内のサーバ、あるいは関連エリアの情報データベースを持つリソース管理会社13のサーバなどを対象とする。回答データは、例えば、
「県道○○線A−B地点の車両通過時間(単位 分)」
などとして設定する。データ形式は、テキスト、バイナリ、XMLなど設定することができるが、汎用性の高いXML形式で設定することが望ましい場合が多くなっている。
【0124】
回答期限は、例えば30秒といった時間に設定される。また、AIエージェント寿命は、例えば35秒といった時間に設定される。オプション1として、AIエージェントを受入れたサーバが、そのAIエージェントも寿命が終わったこと(消去した)を送信元に連絡するように受入先サーバに依頼しておく条件や、オプション2として、回答期限延長条件などを設定する。この回答期限延長条件は、処理が指定時間内で完了しなかった場合、時間延長するか、それとも時間が来たら処理を止めるかなどを設定するものである。
【0125】
ここで、検索されるサーバには位置座標が設定される。対象となる車両にサーバが搭載されている場合、車両の移動によって検索エリアから外れる場合がある。その場合、指定した検索エリアから外れた車両については検索対象から外すことが可能になる。
【0126】
車載サーバ11cは、目的地周辺のネットワークを検索するために、キーワードを用いて、どのネットワークのどのサーバにどのような情報があるかの概略情報を得る。その結果をもとに、車載サーバ11cは、複数のAIモジュールを作る。
【0127】
AIモジュールは、最初に返信するAIエージェントが活動する概略検査ネットワークエリアと検索キーを決定し、AIエージェントをその検査ネットワークエリアのサーバに送る。複数のAIエージェントのうち、最初に車載サーバ11cから送られたAIエージェントは、受入れられたネットワークのリソースに応じて、作業する範囲と作業内容を決定し車載サーバ11cへ連絡する。作業する範囲と作業内容は、AIエージェントを受入れたサーバが適宜決定する。
【0128】
図16に示すように、最初のAIエージェントが、AIモジュールに返す情報は下記のようになる。AIモジュールIDは、上述と同様にIPv6形式の値をつける。送信先のターゲットネットワークIDは車載サーバのIDを設定する。調査範囲サーバIPは調査を行うことが認証されたサーバのIP(AIエージェント受入サーバで決定)に設定する。
【0129】
認証番号は、AIエージェントが受け入れられた結果を示す認証番号であり、これは、受入先サーバが発行するものである。この認証番号の値からAIエージェントと受入先サーバがいつ処理を開始したかを後で見なおすことができるようになっている。調査分類範囲は、AIエージェントが調査するカテゴリ(あるいはキーワード)である。
【0130】
AIモジュールは、次のAIエージェントの作業内容を第1のAIエージェントと重複しないように設定し、目的のサーバ(ネットワーク)へ送信する。以後、車載サーバから送信されるAIエージェントに同様な設定がなされるようになっている。
【0131】
AIエージェントが受け入れられると、受入先のサーバは、AIエージェントに含まれるスクリプトまたはコマンドを読み出してAIエージェントの目的を実行する。この時、受入先サーバは、AIエージェントの要求内容を分析し、パブリックエリアの情報で回答可能、すなわち目的のデータが得られれば(例えば、受入先サーバが、パブリックエリアに車両通行時間のデータベースを持っていれば)、それをAIエージェントの応答データに入れて、車載サーバ11cへ返すようになる。
【0132】
(具体的事例その2)
AIエージェントの別の形として、AIエージェントが一つのアプリケーションとして受入サーバでオープンされ、AIエージェントに含まれるスクリプトを順次実行して結果を求め、結果を車載サーバへ戻すようにすることもできる。
【0133】
スクリプトの具体例としては、例えば、
「県道○○線 A−B地点 の 通行車両 の 通過時間 を 複数の通行車両 の 通過時間から算定する」
というものである。
【0134】
このために、AIエージェントが、車載サーバ11cから情報処理支援装置である交通管理用サーバ12に送られる場合を記述する。
【0135】
(1)車載サーバ11cは、AIエージェントを交通管理サーバに送信する。
(2)交通管理サーバ12はAIエージェントを認証する。
(3)交通管理サーバ12はAIエージェント認証結果を車載サーバに送信する。
(4)交通管理サーバ12は、AIエージェントの動作部(スクリプト)を翻訳し、AIエージェントの目的が達成できるようにソフトウェアを構成する。また交通管理サーバ12がもつデータベースを検索し、目的のデータ(XX時のA地点とB地点の走行時間のデータ)を探す。
【0136】
(5)交通管理サーバ12は、目的のデータ(複数の車両のA−B間の走行時間、または走行速度が見つかるとそれを処理し、A−B間の走行時間の回答を出す。
(6)交通管理サーバ12は、設定されたデータ構成を形成して、車載サーバ11cに回答を返す。オプション関連データ送付が必要であれば、それらも同時に車載サーバ11cへ送る。
(7)回答を受けた車載サーバ11cは、回答が十分なものであれば受信完了を返す。
(8)一方、回答が不十分であれば(たとえばサンプル数が少なくて精度が悪い場合)、車載サーバ11cは、新規スクリプト(同様な交通状況の日の平均走行速度)を構成して交通管理サーバ12へ送る。
(9)交通管理サーバ12は、受信したデータが受信済みのAIエージェントであれば、そこへスクリプトを送り、再度データ検索を行う。
(10)結果が得られれば、交通管理サーバ12は再度車載サーバ11cへ回答を返す。
(11)交通管理サーバ12は、AIエージェントの寿命がくると、AIエージェントを消去する。
【0137】
AIエージェントは、送信先サーバに到着して受付がされた時に応答を返し、以後は結果がでるまで、あるいはタイムオーバになったときだけ応答を返すようにする。そのため、通常のネットワークの処理のように随時サーバ間の通信をしなくても良いため、ネットワークのトラフィックを抑えることができる。
【0138】
(具体的事例その3)
別の例として、地点A‐Bを走行する車載サーバ11cをリアルタイムでモニタし、実際の車両速度を得る例を示す。
(1)自車の車載サーバ11cは、地点A‐B間を走行する車両のサーバ12(情報処理支援装置)を検索する。
(2)検索した結果、地点A−B間を走行する車両があれば、そのIPを調べ、その車両のサーバ12にAIエージェントを送る。
(3)AIエージェントが送られた車両のサーバ12が、AIエージェントのアクセスを許せば、AIエージェントは車両速度、走行時間、車両の周囲の状況の情報等を車速センサ(あるいは測定結果メモリエリア)や車載カメラ等を利用して十分な情報を収集する。あるいは、AIエージェントに添付されたスクリプトを他車の車載サーバ12で実行する。
【0139】
(4)必要な情報が集まると、AIエージェント(あるいは他車のサーバ12)は自車の車載サーバ11cへ結果を返す。
(5)車載サーバ11cは,複数の車両から同様な情報を集め、正確な通行時間情報を得る。
(6)他車のサーバ12にアクセスする場合、アクセスしている時間に応じて利用料金を計算する(アクセスが有料設定なら)。
【0140】
(具体的事例その4)
次に、車上での画像編集を行う場合のAIエージェントの動作の例について説明する。ここでは、自車には望遠カメラがなく撮りたい景色を撮影できない場合、他車の望遠カメラを利用して景色を撮影し、それを車内で加工する例を示す。この時、車内には加工ソフトがなく、外部から加工ソフトのリソースを持ってい来る例を示す。
【0141】
(1)車載サーバ11cは、ユーザから、撮影位置を指定した写真を撮影し、それらをまとめて1つの画面を作成するように依頼される。これは、例えば、ドライブ記録アルバムの作成をする場合などである。しかし、車載サーバ11cは指定されたアングル(例えば望遠)が自車のカメラでは不可能と判定したとする。また、写真をまとめる機能を保持していないと判定したとする。
【0142】
(2)車載サーバ11cは周辺の車両のサーバ12にアクセスし、指定されたアングルで撮影できる車両があるかをAIエージェントを送って調査する。
(3)AIエージェントのスクリプトには、ユーザの希望するアングルが指定されており、他車のカメラの画像が指定条件を満たした時、その画像をキャプチャする。
(4)他車でキャプチャされた画像リソースは、AIエージェントにより自車の車載サーバ11cに送られる。
【0143】
(5)並行して、車載サーバ11cは写真をまとめる画像ソフトモジュール(リソース)を検索するために、ネットワークを検索し、関連リソースを持つリソースサーバへAIエージェントを送る。そのAIモジュールのスクリプトには検索条件(写真画像編集機能、拡大縮小、コンポジット、重ね合わせ、レイヤ構成等)が含まれる。
【0144】
(6)リソースサーバ12は車載サーバ11cへ必要なリソースを送る。ここで、対価が必要ならこの時点で支払処理を行うことになる。
(7)車載サーバ11cは、他車から受信したデータを画像編集リソースを用いてユーザの好みに合うように編集する。編集の途中段階でユーザに結果を見せ、その結果がユーザの満足が得られるまで、編集ソフト(受信リソース)を用いる。
【0145】
(具体的事例その5)
次に、通信販売品の購入をする場合の具体例について説明する。例えば、ユーザがデジタル放送で知った商品を直ぐに購入するために、それが販売される目的の場所に行く例を示す。
【0146】
ユーザは車両で、自分が購入したい物品の情報をデジタル放送から入手(見たり聞いたりして)する。この時、ユーザには品名が聞こえたが、それがいつどこで販売されるかが聞き取れなかったとする。
【0147】
ユーザは車載サーバ11cに、完全に聞き取れなかった情報の一部を検索キーワードにして、デジタル放送を検索するようにサーバに依頼する。車載サーバ11cは、メディア車載機12に、過去のユーザが聴取した放送プログラムを呼び出させて、その中から検索キーワードに適合する部分を複数選択させる。
【0148】
車載サーバ11cは、メディア車載機12が選択したいくつかの候補を選び、ユーザに提供する。ユーザは、適合するものがあれば、それを車載サーバ11cに示すことで、車載サーバ11cはユーザが情報を得た放送プログラムの必要な部分を確定する。
【0149】
車載サーバは11c、ここで、ユーザに対して、ユーザが希望する内容を問い合わせる。例えば、ユーザが品物をすぐに購入するために、販売場所まで今すぐに短時間で行きたいと応答した場合、車載サーバ11cは販売場所までのルート情報を確定したデジタル放送プログラムをもとに検索する。この場合、例えば、今日の走行スケジュールが設定されている場合に、その合間に行くためにはどのように車両走行移動を行うかということも考慮することができる。
【0150】
ユーザが購入したい製品を販売する販売会社名がデジタル放送のデータに含まれていれば、そのデータを検索キーに使って、販売場所を検索することができる。これは、販売場所の中に販売会社へのリンクデータが埋め込まれていたり、逆に、販売会社データに販売情報のリンクデータが埋め込まれているように放送プログラムが作成されているということが前提条件となる。
【0151】
この場合、メディア車載機12は、車両に送られたさまざまなデジタル情報をユーザの要求に応じて切替え、ユーザがいつ、何を聴取していたかの履歴を記録する。メディア車載機12が記録したデジタル情報データには、複数の関連情報と連携できるリンクデータ(例えばURLアドレス)が含まれている。メディア車載機12は、ユーザが設定した番組を別途記録することが可能なように構成されている。
【0152】
ユーザは通信メディアから得た情報を確認するために、自分が聞いた情報をプレイバックし、キーワードを探して情報検索を行うことができる。ここで、通信メディア情報はデジタル信号化されて車両に送られてくるため、車両に通信メディア記録手段が搭載されている。ユーザは自分が聞いた情報(音声)を再確認できる。
【0153】
また、音声情報は情報検索等でテキスト情報が必要になった場合、テキスト情報に変換される。あるいは、あらかじめテキスト情報が音声と同時に送信されている場合、そのテキスト情報を検索キーにして情報検索を用いるようにしてもよい。また、デジタル放送の信号にURLのような必要な情報に接続(リンク)するための情報を含むようにすれば、ドライバはその情報を利用して即座に関連情報サイトにアクセスすることが可能になる。
【0154】
各サイトへアクセスする際、ユーザがいわゆるブラウザを使って検索する場合、一度に多くのサーバにアクセスして情報を得ることは難しい。そのため、車載サーバはAIモジュールを多くの関連リンクのサーバに送付して、同時に多くの情報を集めるようにする。
【0155】
上記のようにAIエージェントは、スクリプトを含み、そこにユーザの嗜好、価格範囲等を入れておく。このようにして、一度に多くのWEBサイトを検索し、短時間で多くの情報を集めることができる。集めた情報は車載サーバ11cに集めることで、以後の加工が容易に行える。
【0156】
(具体的事例その6)
次に、データ収集および加工の例について述べる。ユーザが走行中に、オフィスのユーザ用PC11bのデータファイルを検索して、必要なファイルが見つかれば走行中の車両に見つかったファイルを転送し表示する。もし、必要なデータがユーザ用PC11bに見つからなかった場合、AIエージェントがオフィスネットワークに送られ、ドライバの希望するファイルに類似のファイルをネットワークから選択して、データを再構成し車両(ドライバ)に転送する。
【0157】
もし、ドライバの希望する情報データがそのネットワークになければ、AIエージェントは、オフィスのネットワークのアクセス可能エリアからそれらを検索し、ドライバの希望するデータを探索し、必要なら探索データを加工して、ドライバへ送る。
【図面の簡単な説明】
【図1】本発明の一実施形態を示すシステムの概略的構成図
【図2】携帯情報処理機の電気的なブロック構成図
【図3】携帯情報処理機の概略的な処理の流れ図
【図4】携帯情報処理機の処理プログラムのフローチャート(その1)
【図5】携帯情報処理機の処理プログラムのフローチャート(その2)
【図6】リソース管理システムの作用説明図
【図7】リソース管理会社から外部機器へのデータ転送の概念図
【図8】携帯情報処理機、リソース管理会社および外部機器の動作を相互関係を持って示す流れ図
【図9】外部機器との協調動作を示す作用説明図(その1)
【図10】リソースマネージャのアプリ構築の流れを説明する図
【図11】外部機器との協調動作を示す作用説明図(その2)
【図12】AIモジュールと他のPCとの間の動作を示す流れ図
【図13】ユーザ依頼に基づいたタスクの構成説明図
【図14】AIモジュールの設定事項の説明図
【図15】AIエージェントの構成例を示す図
【図16】AIエージェントがAIモジュールに返す情報の説明図
【符号の説明】
1は携帯情報処理機(情報処理装置)、4はマイクロホン、5はスピーカ、6はCCDカメラ、10はネットワーク、11a〜11dはPC(外部機器、情報処理装置)、12は外部機器(情報処理支援装置)、13はリソース管理会社のサーバ、14は制御回路である。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention is directed to an information processing apparatus, an information processing support apparatus, and a user information management that can perform a process in cooperation with another device even when an information processing request received from the outside cannot be achieved by own resource. The present invention relates to a device and an information processing support system.
[0002]
[Problems to be solved by the invention]
Conventionally, when one device cannot satisfy the processing function, it is being studied to perform processing in cooperation with an external device. For example, in order to solve a numerical calculation problem that cannot be processed by one PC, parallel processing may be performed using a plurality of PCs. In this case, since the plurality of PCs have substantially the same configuration (CPU, memory, processing speed) and the resources themselves are fixed, when performing another process, the resources of the plurality of PCs are adapted to another process. Need to be reconfigured.
[0003]
On the other hand, when the user who uses the device is a person, unlike a simple numerical calculation, the request and command of a general person are not limited to a specific field, so when a command is issued from a person to a PC, It will be difficult to process it using only the resources of the PC. This assumes, for example, HMI (Human-Machine Interface) based on voice recognition, image recognition (lip reading), character recognition, and the like.
[0004]
Therefore, in order to respond to such a request, a coordination function with an external device different from the conventional parallel processing is required (cooperation distributed processing). In this case, in order to eliminate the user's irritation regarding the processing delay caused by the cooperation of the external device, means for notifying the user of the predicted processing completion time during the processing is required.
[0005]
Further, in order to realize the above request, specifically, when the device recognizes a word spoken by the user, the device determines whether the word is a noun, a verb, an adjective, a particle, or the like. It is necessary to have a function of classifying and performing control in accordance with the purpose of the user. It is necessary to comprehend the intention of the user by classifying each part of speech and associating it with its inflected form. That is, the intention of the user is grasped by grasping the contents of the request, that is, performing text analysis from the result of the voice recognition.
[0006]
The present invention has been made in view of the above circumstances, and has as its object the purpose of receiving an information processing request from a person or another device even if the processing cannot be executed only by the information processing device itself. It is an object of the present invention to provide an information processing device, an information processing support device, a user information management device, and an information processing support system which can be executed by requesting a device.
[0007]
[Means for Solving the Problems]
According to the information processing apparatus of claim 1, when the request information from the outside is received by the receiving means, the determination means determines whether or not the requested information processing can be executed using its own resource, and the request information can be executed. In this case, the execution means executes the program as it is. If the execution is not possible, the search means searches whether or not the resources insufficient for the execution can be collected. Thus, a processing program can be constructed, and the requested information processing can be executed by the execution means.
[0008]
This makes it possible to build a processing program by collecting resources that are insufficient for requested information processing from the outside, even if the resources cannot be achieved only by the resources provided by the user. Thereby, a wide range of information processing can be achieved in cooperation with the outside, and a general-purpose use can be achieved by reducing the restriction on the range of the content of the requested information processing.
[0009]
According to the information processing apparatus of the second aspect, in the above invention, when the searching means determines that the insufficient resource is hardware, the processing requesting means searches the information processing support apparatus capable of using the hardware of the insufficient resource. Requesting information processing to be executed and receiving the result executed by the hardware by the receiving means, the hardware resources are insufficient in the self, and the processing program cannot be constructed. Even in such a case, this can be achieved by using hardware provided in an external information processing support device.
[0010]
According to the information processing apparatus of the third aspect, in each of the above inventions, the processing time estimating means cooperatively processes the requested information processing using the processing time using only its own resource and external resources. The processing time is estimated, and the processing method selecting means compares the two estimated processing times to select and execute a processing method suitable for processing the requested information processing. Even when processing can be performed using the provided resources, if processing can be performed in a short time by processing using external resources, such as when priority is given to processing time, external resources should be selected and processed. Will be able to
[0011]
As a result, it is possible to select and execute a reliable and quick process by giving priority to the processing time, without being limited to a mode of using an external resource only when the resource cannot be achieved by its own resource. It becomes possible to respond flexibly to the requested information processing.
[0012]
According to the information processing apparatus of the fourth aspect, in each of the above inventions, as the receiving means, the input means for receiving a request for information processing to be input by voice by a person, and the execution means for inputting the voice information input by the input means Since it is configured to include request interpreting means for interpreting as executable information, when a request is made for information processing by a person, the request can be made by directly inputting by voice, The usability can be improved.
[0013]
According to the information processing support apparatus according to claim 5, the information processing apparatus is accessed from the information processing apparatus via a network, and the information processing apparatus according to claim 1 has a resource deficiency by the program construction means of the information processing apparatus. Receiving the collection request, the resource providing unit provides the insufficient resource in response to the request, so that the execution of the requested information processing can be achieved in cooperation with the information processing apparatus.
[0014]
According to the information processing support apparatus of the sixth aspect, in the invention of the fifth aspect, when the resource providing means determines that the insufficient resource is hardware, Searches for another information processing support device that can use the hardware, and requests information processing to be performed by the hardware. If information processing can be executed in cooperation with the processing support device, it can be requested and executed. Therefore, in addition to the resources provided by itself, the processing can be performed by using the hardware resources of other information processing support devices. It can be realized.
[0015]
According to the information processing support apparatus according to claim 7, the information processing apparatus according to claim 2 or the processing request unit of the information processing support apparatus according to claim 5 receives a request to use the hardware of the insufficient resource. In this case, there are provided processing means for receiving and processing the information processing to be performed by the target hardware, and transmitting means for passing the processing result of the processing means to the receiving means of the information processing apparatus. It is also possible to provide the information processing apparatus with hardware that is a resource deficient in response to the use request, perform information processing, and transmit the result by the transmission unit. This makes it possible to support and achieve information processing that cannot be processed due to insufficient hardware resources by the information processing apparatus alone.
[0016]
According to the information processing support device of the eighth aspect, in the invention of the fifth to seventh aspects, when a resource provided by the device itself corresponds to an external resource selected by the processing method selection means of the information processing device, Since the requested information processing is executed in cooperation with a request, the requested information processing can be efficiently achieved when the processing capacity alone is poor or there are resources that cannot be processed. .
[0017]
According to the user information management apparatus of the ninth aspect, when audio information is transmitted through the network using the information processing apparatus of the fourth aspect, the user information management apparatus is connected to the network and the identification information generation unit performs the information processing. The identification information of the user is generated based on the voice information transmitted from the device, and the resource management means manages the identification information generated by the identification information generation means as a resource. When accessing the processing device by inputting voice information, the identification information of the user can be centrally managed, and even when the user changes the information processing device to another one. , The information input so far can be read and used. Furthermore, even when it is desired to use the information processing device or another information processing device, it can be shared by acquiring it as a resource.
[0018]
According to the information processing support system according to claim 10, an information processing apparatus to which a user can request an information processing, and at least one piece of information operated by receiving an information processing request from the information processing apparatus via a network. Means for determining whether or not an information processing request can be processed by internally held resources, and requesting an external device for a resource that is insufficiently processed by internally held resources. A resource acquisition unit that acquires the resource from outside via a network, and when the information processing support device receives a request for a resource shortage from the information processing device, if the resource shortage is software, the software resource Means for providing software resources to search for and send In the case of hardware, a search means for searching for a resource shortage of the hardware, and a peripheral device having the hardware searched by the search means for a task whose processing is delayed due to the shortage of the hardware resource. A task requesting means for requesting, and a transfer means for receiving a request result from the requested peripheral device and transmitting the request result to the information processing apparatus. Information processing that cannot be processed alone can be achieved in cooperation. In addition, there is no need to provide an excessive resource as a resource on the information processing apparatus side, which is advantageous in terms of cost.
[0019]
According to the information processing support system of the eleventh aspect, in the invention of the tenth aspect, when the request is made by inputting voice information to the information processing apparatus, the request is made based on the input voice information. Resource management means for generating identification information of a user who has performed the voice input and managing the identification information as a resource outside the information processing apparatus, so that the resource management means uses the identification information of the user managed as a resource. As a result, it is possible to perform a cooperative operation with enhanced security while effectively using information for voice recognition.
[0020]
According to the information processing support system of the twelfth aspect, in the invention of the eleventh aspect, the resource management means is configured to receive and manage an application built on the information processing apparatus side as a resource. The app generated by the device can be provided as a resource that can be used by other information processing devices, so that the application can be effectively used, and unnecessary processing can be reduced and quick processing can be performed. Will be able to
[0021]
According to the information processing support system of the thirteenth aspect, in the invention of the eleventh or twelfth aspect, the resource management means is configured to provide the user's recognition information in response to a request from the information processing support apparatus. In addition, the security can be enhanced by sharing the user identification information, and the requirements of the user can be quickly and reliably grasped.
[0022]
According to the information processing support system of the present invention, when an instruction is received from a user, a determination unit that determines whether the instruction can be processed only by the hardware of the main unit, and only the main unit is determined by the determination unit. AI agent generating means for generating an AI agent for temporarily moving to an external information processing support device and using the resources to complete necessary processing when it is determined that the instruction cannot be processed by , The AI agent completes necessary processing using resources held in the information processing support apparatus, and transfers the completion result to a location before movement. Since it is configured to disappear, under the concept of an AI agent, information processing can be efficiently achieved even when resources inside the information processing apparatus are insufficient. It becomes possible.
[0023]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment in which the present invention is applied to a system using a portable information processing device will be described with reference to the drawings.
[0024]
(Explanation of basic configuration)
FIG. 1 schematically shows the overall configuration of this system. A portable information processing device 1 as an information processing device is a user mainly used by a user A, and is called a so-called mobile device. The portable information processing device 1 has both a function as a mobile phone and a function as a packet communication device.
[0025]
The portable information processing device 1 includes a keyboard 2 for inputting operations, a display device 3, and a microphone 4, a speaker 5, a CCD camera 6, and a touch panel 7 (see FIG. 2). And an operation input or an image input. For communication with the outside, transmission and reception are performed through the antenna 8. The display device 3 is, for example, an LCD, an EL, an organic EL, or the like, and can be used as an image display of the CCD camera 6 or as a TV monitor.
[0026]
The portable information processing device 1 can access the network 10 via the relay station 9 by using the wireless telephone function. Examples of external devices (information processing support devices) that the user A can use as his / her own territory include a home PC (personal computer) 11a, a company PC 11b, a vehicle PC 11c, and other PCs 11d. These are represented by the Internet and the like. The portable information processing device 1 can be accessed through a network 10.
[0027]
An external device 12 as an information processing support device that can be commonly used by many users is connected to the network 10 and is accessible by the portable information processing device 1. Further, a terminal device (server) of a resource management company 13 as a user information management device that manages a personal recognition module described later for each of a large number of users is also connected to the network 10, and the portable information processing device 1 and external devices Accessible by 11, 12, etc.
[0028]
FIG. 2 shows an electrical configuration of the portable information processing device 1. The control circuit 14, which controls the entire control, mainly includes a CPU, a ROM, a RAM, and the like. In addition to the control of the telephone function and the communication function, the control circuit 14 has software and hardware to achieve various information processing functions. Is incorporated. The control circuit 14 is connected to a communication circuit 15, a GPS receiver 16, a memory 17, an IC card reader 18 for reading and writing information on an IC card, and the like, in addition to the components described above.
[0029]
The data transmitted to the outside by the communication circuit 15 can be received by the PCs 11a to 11d placed in a house, a company, a vehicle, or the like via the relay station 9 or the like, or can be received by an external device 12 described later. it can. In order to determine the destination of the transmission data, an Internet IP address set in the device or a user address uniquely set by the user is used.
[0030]
The control circuit 14 of the portable information processing device 1 analyzes the result obtained by the user's voice recognition, and analyzes the user's generated sound (characteristics of pronunciation, intonation, vowels, consonants, etc.) and the vocabulary used by the user. Features are determined and stored.
[0031]
As described above, the portable information processing device 1 is configured to be able to recognize the voice of the user A and store the characteristics of the user A. The user A accumulates the analysis and learning results of the portable information processing device 1 that is almost always used in a server managed by A, the PCs 11a to 11d, and the like. Alternatively, the analysis of the user A and the accumulation and management of the learning result may be stored and managed in the server of the resource management company 13.
[0032]
The external device 12 requests the portable information processing device 1 of the user A to use the data for recognizing the user A. When the necessary authentication is completed, the portable information processing device 1 outputs the voice recognition data required for the user authentication. Can be received. Similarly, when the data use request of the user A is sent from the external device 12 to the server of the resource management company 13, the server is configured to transmit necessary data to the external device 12 by communication.
[0033]
In this manner, the user A who performs input using the portable information processing device 1 can receive the speech recognition data from the portable information processing device 1 or the resource management company 13. And that language can be recognized with certainty.
[0034]
The data relating to voice recognition received by the external device 12 from the portable information processing device 1 or the resource management company 13 has an expiration date, and when the time set as the expiration date elapses, the data is automatically transmitted. Is to be deleted. Depending on the type of the external device 12, for example, a set time is set in days for a device that is used for a long time such as a home appliance, and is deleted in minutes for a device such as a vending machine. Is set to If data is used for security purposes, the data may be updated on a monthly or yearly basis.
[0035]
(Schematic operation explanation)
Next, an example of performing a preliminary operation check based on a recognition result will be described with reference to FIGS. First, FIG. 3 sequentially shows a schematic operation of the portable information processing device 1. FIGS. 4 and 5 show a flow in which these are detailed.
[0036]
In the operation flow of the portable information processing device 1 shown in FIG. 3, first, when an input is made by a user, the information is collected (step A1), and what the information means about the collected information is recognized. Processing is performed (step A2). Here, the information gathering of step A1 is a step of checking whether there is an input from outside, that is, the user A or another user, and the information recognition of the following step A2 is to change the information into another form when the input is made. Then, a process of changing the form to a form that is easy for the device to understand (in the voice recognition, an operation of changing the voice to text) is performed.
[0037]
Next, when the requested processing content can be recognized, the portable information processing device 1 determines whether or not execution is possible within the range of the information obtained on the recognition result (step A3). This is a process of analyzing text data and determining a user's intention from the text data (determining an operation to be performed by the device based on a command, a request, a question, and the like).
[0038]
Next, based on the recognition result, the operation of the request is checked in advance, and the part that cannot be recognized with the information necessary for execution is inquired to the user A to increase the recognized vocabulary (step A4). Here, the preliminary operation check means that if the user A cannot understand the words spoken, the user A confirms to the user A what purpose the user A has and what specific processing is expected. It is done to do.
[0039]
Here, the software and hardware conditions that meet the user A's intention are verified (the user's intention is checked and the operation is simulated. Here, the vocabulary increase, the setting value for the recognition condition improvement is adjusted, and the matching data is collected. ,accumulate).
[0040]
Subsequently, if it is determined that the internal resource cannot meet the request of the user A, the shortage resource is searched, and if the shortage resource is found, the user A is operated in cooperation with the outside (here, the shortage resource is used). To select whether to build an application in the portable information processing device 1 or to request a task to the outside), provide information and confirm, and the user A downloads the insufficient resources or performs a cooperative operation. Is received, the corresponding resource is collected or a process of requesting a task to the external device 12 (step A5) is performed. When the corresponding modules are collected in this manner, next, as operation determination processing (step A6), it is determined that the processing determined to be operable is actually performed, and the operation is performed (step A7). .
[0041]
Thereby, the operation contrary to the intention of the user A is not performed, the operation efficiency of the portable information processing device 1 is improved, and the characteristics of the user A are recorded to improve the recognition rate. In addition, it is possible to prevent an erroneous operation of the portable information processing device 1 due to a mistake or misunderstanding of the user A.
[0042]
(Detailed operation explanation)
Next, the operation of the portable information processing device 1 will be described in detail with reference to FIGS. First, the control circuit 14, which is the main part of this operation, performs a process as to whether or not the user A is going to perform input (conversation) with the device from the audio data input through the microphone 4 (step S1). Then, a process result such as detection of presence / absence of the voice of the user and reduction of background noise is constantly output, and a determination is made so that if there is an input (conversation) of the user A, the process can be surely shifted to a recognition process. (Step S2).
[0043]
The control circuit 14 determines whether or not there is a conversation based on the output result. If it is determined that there is no conversation, the process returns to step S1. (Step S3). Subsequently, the appropriately cut data is converted into digital data (step S4), and a conversion process is performed so that the data can be recognized (step S5).
[0044]
Next, the control circuit 14 performs a speech recognition process (speech matching) on the converted data (step S6), and converts this into text data (step S7). At this time, the sound volume, intonation data and the like are also analyzed.
[0045]
Thereafter, the control circuit 14 grammatically classifies the sentence structure of the obtained text data based on the word arrangement (step S8). Subsequently, words are extracted from the text data, and they are divided into parts of speech (nouns, verbs, particles, adjectives, etc.) (step S9). For the extracted words, IDs (data type tags) for classifying the parts of speech are respectively assigned. Attach and store (steps S10, S11).
[0046]
Here, the control circuit 14 checks the inconsistency of the part of speech attached to each word, or determines whether there is a word that could be recognized as a text but has no meaning (a word not in the recognition data dictionary). Is checked (step S12), and if there is no problem ("YES" is determined in step S12), the process proceeds to the next step S20.
[0047]
On the other hand, if the words have inconsistencies, the control circuit 14 proceeds to step S13, displays the inconsistent words on the display device, and prompts the user to input again. The control circuit 14 waits for the user to input again (steps S14 and S15), and the input data is subjected to a recognition process (step S16). If there is no re-input by the user, “YES” is determined in the step S15, and the screen moves to the start screen (return to the step S1).
[0048]
Here, the control circuit 14 analyzes the input data, determines whether or not the used word is in the data dictionary, and determines whether or not the word is inconsistent. If the input data cannot be understood (not in the recognition dictionary), the user is notified of the incomprehensible word by repetition or display. The user enters a word that was not understood thereby. The input result is analyzed to determine whether it can be understood. In this part, the control circuit 14 stores necessary data for recognizing the input word, and can increase the recognition rate by increasing the number of recognition candidates for the same user A input. Necessary data includes basic phoneme data, phoneme variation parameters, intonation, speed, changes in selected vocabulary, and the like.
[0049]
Next, the control circuit 14 checks again whether there is any inconsistency in the recognized data (step S17), and if there is any inconsistency, determines whether or not to register the data with the user (step S18), If "YES", a display is made to input a correct word and the user is requested (step S19). When a substitute word is input by the user, the control circuit 14 stores the sound data and the substitute word in association with each other. If the user does nothing while the set time has elapsed, the data is inconsistent and no further processing can be performed. Therefore, the user moves to the start screen ("NO" in step S18 and step S1). Back to).
[0050]
When there is no contradiction at the word level after obtaining the alternative input in step S19, the control circuit 14 next classifies the message type of the recognized text (step S20 in FIG. 5). Here, the message type is assumed to be, for example, each type of call, description, request, question, confirmation, response, and the like. At the time of this classification, the control circuit 14 searches for a verb from the classified text and analyzes and determines a message type from the context of the verb (step S21).
[0051]
Thereafter, the control circuit 14 determines whether or not the content of the message type can be handled (step S22). If it is determined that the content cannot be handled, the control circuit 14 reconfirms the message type with the user (step S23). In the reconfirmation process, a screen is displayed to prompt the user to input a message type. Then, when the user inputs re-confirmation, the control circuit 14 checks whether the result is the same message type as before and checks which message type is the result (step S24).
[0052]
If the control circuit 14 determines that the message type cannot be determined even if the message type is re-checked (determined as “NO” in step S24), the control circuit 14 displays a message indicating that the message cannot be handled, a reason why the message cannot be handled, and recommended items for input. (Step S25). In this case, it is preferable to provide guidance on an input method for clarifying the message type. For example,
"If you have a question, please use" ...? "
It is preferable to provide guidance by displaying such as or by transmitting voice.
[0053]
Next, if it is determined in step S22 that the message type can be handled in the text message type, the control circuit 14 analyzes the word included in the message type and checks whether there is a resource for processing the message. (Step S26).
[0054]
Next, when it is determined that the resources are insufficient (determination of “YES” in step S27), the control circuit 14 starts communication with the external device 12 and searches for the insufficient resources (step S28). As the external device 12, a search is made on the Internet 10 via PCs 11a to 11d at the office or home to which a user can contact, or a connection is made to a resource management company 13 that manages resources to inquire whether there is a resource.
[0055]
If the control circuit 14 finds a lacking resource by performing the search process (determined “YES” in step S29), the control circuit 14 reads out the attribute of the resource (step S30), and handles the resource lacking for the user. Is inquired (step S31).
[0056]
Here, the control circuit 14 downloads the resource to the user (step S33), or when the size of the insufficient resource is large, when the download time is too long, or when the internal processing capacity is expected to be insufficient, or the like. An inquiry is made to select whether to cooperate with an external device (step S34) or to cancel the process (step S35).
[0057]
When the user decides to execute (in step S32, one of steps S33 and S34 is selected), the control circuit 14 downloads the insufficient resources (step S33) or cooperates with the external device 12. The operation (step S34) is set up, the processing for constructing the application is executed (steps S36 to S39), and the operation according to the message of the user is performed (the function of this part can be said to be a real-time interactive application construction environment). .
[0058]
Note that the control circuit 14 classifies and stores the applications obtained through the above processing for each message type. In this case, if the storage area cannot be secured because the resource itself is large, the resource name and the location (address) information where the resource was obtained are stored. Thereby, when a similar user request is made in the same message type in the future, the application can be quickly constructed by reading out the stored resource information.
[0059]
(Description of the management system of the resource management company)
Next, a management system in the resource management company 13 using the above system will be described with reference to FIG. In FIG. 6, a resource management company 13 is mainly configured to manage user's voice recognition related data as resources.
[0060]
The above-described portable information processing device 1 has a telephone function, and a usage contract is made with a telephone company (not shown). At the same time as using the telephone, registration with the resource management company 13 for the extension of the voice recognition function is performed. Here, the voice recognition processing can be used as an auxiliary means for confirming the user himself / herself.
[0061]
First, when the user uses the telephone function using the portable information processing device 1, the speech recognition related data normally used by the user is improved, and the recognition rate is improved. The data related to the voice recognition is recorded periodically in the resource management company 13. As a result, even if the portable information processing device 1 owned by the user is broken, there is no danger of losing the voice recognition related data. Therefore, when the new portable information processing device 1 is used, the voice recognition related data is newly stored in the device. You do not need to create it.
[0062]
Next, when the user issues an instruction to the portable information processing device 1, the portable information processing device 1 checks the message type in accordance with the instruction as described above, and allocates resources corresponding to the message type from the resource management company 13 free of charge. get. The resource management company may adopt a system in which a fee is collected from the user according to the download of the resource.
[0063]
Further, by using the portable information processing device 1 as described above, the application constructed by the user can be managed by the resource management company 13 side. In this way, when another user wants to use the application of the managed resource, the user can share the application by distributing it for a fee or free of charge. At that time, if the usage fee can be paid to the user who built the application, the user who builds the application can also build an application that is actively provided, and the user who uses the application is already completed Choosing the right app from the apps you are using will allow you to use it as a quick and proven resource.
[0064]
The resource management company 13 proactively uses the voice recognition-related data of the user managed by the server with the external device 12 (service device for which a fee is charged), thereby collecting the use fee. Can be enjoyed. The use of the voice recognition related data for user recognition is provided by providing a procedure for notifying the resource management company 13 of the use somewhere in the procedure for requesting the purchase to the external device 12 so that the resource management company 13 can grasp the usage status. I do. For example, the resource management company 13 performs a billing process to the management company of the external device 12 at the timing when the voice recognition related data for user recognition is transferred to the external device 12.
[0065]
By constructing the system as described above, a device having a high user recognition rate can provide a recognition function superior to the conventional recognition function, so that the service is improved and the user is easily accepted. . In addition, since personal authentication can be performed strictly, security is also effective. In addition, since the voice management related data for user recognition is managed by the resource management company 13, there is no risk of losing its own data.
[0066]
FIG. 6 shows an example in which resources are collected in the portable information processing device 1 and an application is built in the portable information processing device 1. That is, in order to respond to the request of the user, a message type of the user is found, and it is verified whether or not the operation according to the message type can be performed. As a result, the operation cannot be performed only by the resources inside the portable information processing device 1. An example is shown in which an application is constructed by acquiring resources from the external device 12 or the like.
[0067]
When the portable information processing device 1 has hardware such as an arithmetic device and a memory that are sufficiently fast and has hardware resources capable of building a large application, the portable information processing device 1 can execute without any problem. When hardware resources are insufficient and a sufficient application cannot be built internally, it is necessary to build an application that processes a user's request in cooperation with an external hardware resource.
[0068]
The control circuit 14 of the portable information processing device 1 analyzes the content of the message type obtained from the language recognition result to simulate the construction of the application in what configuration can respond to the request of the user. If it can be handled by internal resources, build an application and execute the user's request.
[0069]
On the other hand, when the resources inside the mobile information processing device 1 cannot be used, or when the application can be constructed but the processing takes time, or when the application cannot be constructed because there is no hardware resource for constructing the application, the following: Take such a response. The control circuit 14 searches for an external resource. If the resource management company 13 having an external resource that can be handled, or the user can supplement the lacking resources (hardware) with the external devices 11a to 11d, the external device 12, or the like held in another place, the cooperative operation request and the Send the data including the request content.
[0070]
The devices 11a to 11d and 12 that manage the external resources that have received the request content reply from the portable information processing device 1 with a response indicating whether or not the request content can be responded, and when the response can be performed, how long the request content can be responded to. Send to circuit 14. Further, when the resource management company 13 whose usage is charged is used, the fee information and the like are also received.
[0071]
The portable information processing device 1 presents these to the user, and entrusts the user with the determination of whether to execute the request. In a user request, it is also possible for the user to make the same request many times, to judge the judgment conditions relating to the request, and to manage the cooperative operation without leaving the judgment to the user.
[0072]
(Explanation of data transfer from resource management company to external device)
7 and 8 schematically show how data is transferred from the resource management company 13 to the external device 12. FIG. As shown in FIG. 7, information is transmitted from the portable information processing device 1 of the user to the external device 12, and the external device 12 sends the recognition module, that is, the voice recognition related data for user recognition to the server of the resource management company 13 which is the host. Request transmission and receive the data. The external device 12 can recognize the language of the user of the portable information processing device 1 and process the user's request. Hereinafter, the flow of FIG. 8 will be described.
[0073]
In FIG. 8, the external device 12 makes use registration in advance with a server of the resource management company 12 (hereinafter, simply referred to as a resource management company) (step P1). The portable information processing device 1 also performs use registration with the resource management company 12 (step P2). The resource management company 13 accepts these use registrations (Step P3).
[0074]
Each time the user uses the portable information processing device 1, the voice recognition related data is stored and stored. The stored voice recognition related data is transmitted to the resource management company 12 at appropriate time intervals. (Step P4) The resource management company 12 periodically updates the data (Step P5).
[0075]
When the user A of the portable information processing device 1 wishes to use the external device 12, the portable information processing device 1 issues a use request to the external device 12 (step P6). In response to this, the external device 12 receives the external device use request, and reads the user ID included in the use request (Step P7). Next, the external device 12 makes a user confirmation request and a data use request to the resource management company 13 (Step P8).
[0076]
In response to this, the resource management company 12 performs a user confirmation process (step P9), and then sends necessary data to the external device 12 that has received the request (step P10). The external device 12 collects necessary data (resources) so as to process the request of the user (step P11), and sets up the application (step P12).
[0077]
When the process is completed, the external device 12 performs a display on the portable information processing device 1 or the external device 12 so as to prompt the user to input (Step P13). On the other hand, the user performs an input process using the portable information processing device 1 (Step P14). The external device 12 performs data recognition and response processing (Step P15).
[0078]
When the use is completed, the user performs a use completion input using the portable information processing device 1 (step P16). Upon receiving the use completion transmitted from the portable information processing device 1, the external device 12 performs processing to delete the data received from the resource management company 13 after a set time (step P17).
[0079]
(Explanation when mobile information processor builds application)
Next, with reference to FIG. 9, an example in which the portable information processing device 1 receives a request from a user, considers application construction, and builds the entire application using the external device 12 will be described. In this description, the processing performed by the control circuit 14 in the portable information processing device 1 will be described in a form in which an audio module, which is software, mainly operates.
[0080]
That is, the voice module of the portable information processing device 1 recognizes a language from a voice input by the user, and classifies the user's request into a message type based on the recognition result. Next, the resource manager analyzes the message type and its details, examines what resources are used to build the application, and creates an application specification design document. The application specification design document describes the types of resources required for building the application and their configurations (connection of application modules).
[0081]
Based on the application specification design document, the resource manager investigates resources inside the portable information processing device 1. In this case, an example is shown in which it is determined that it is difficult to process in the portable information processing device 1. For example, this case corresponds to a case where it takes too much time to build an application in the portable information processing device 1 because the amount of calculation is extremely large.
[0082]
The portable information processing device 1 sends the application specification design document and the resources of the portable information processing device 1 to the external device 12 to the external device 12. The external device 12 collects necessary resources from a resource management company 13 inside or outside the device and builds an application based on the application usage design document. The application built in the external device 12 gives a result in response to a user request. The issued result is sent to the portable information processing device 1 using the communication interface circuit, and presented to the user.
[0083]
FIG. 10 shows the relationship between the resource manager and the user when the application is constructed as described above. That is, the resource manager converts the language and gesture of the user into text, determines the message type and the message type correspondence information (required function modules and resources), and confirms the purpose of the user.
[0084]
When the resource manager knows the purpose of the user, the resource manager checks resources inside the own device, creates a temporary application, and determines whether or not the temporary application satisfies the user's purpose. If the user's purpose cannot be satisfied, resources are collected from outside, a temporary application is created again, and presented to the user. Place resources so that the app is fully functional where the user likes, and start running the app.
[0085]
Also, the configuration (resource list, resource arrangement, etc.) of the application that the user liked is recorded, and when the user later wants to operate the application again, the application can be quickly constructed.
[0086]
(Explanation of the case where the portable information processing device executes the process in cooperation with the external device)
In the above example, the portable information processing device 1 constructs an application on the external device 12 and returns only the result to the portable information processing device 1. Instead, as shown in FIG. The portable information processing device 1 builds a part of the application, the external device 12 builds the remaining applications, and operates in cooperation with each other. It may be possible to obtain a specific result.
[0087]
As an example of such a case, when an application that operates on JAVAVM and requires a large amount of resources is operated by the portable information processing device 1 having no resources, an application that cannot be operated by the portable information processing device 1 alone is connected to an external device. This is effective as a means for operating in cooperation with the mobile information processing apparatus 12 so as to make the user seem to operate only with the portable information processing device 1.
[0088]
Considering that a database of available resources on a network is provided and a user's request is processed by using them as appropriate so that any application can operate, the configuration shown in FIG. 11 is efficient.
[0089]
(Description of specific application examples)
Further, as another example, when a large number of images are created, such as when creating an animation of computer graphics, if one computer processes them, an enormous amount of computational power is required. Conventionally, image creation and moving image creation have been performed using a plurality of high-speed computers capable of mounting a plurality of CPUs.
[0090]
In such a case, by adopting the configuration of the present invention, a control application at the center of image creation builds application functions necessary for drawing on each of a plurality of low-load PCs on a network, and a CPU of the CPU. It becomes possible to allocate a drawing screen, the number of drawn images, and the like according to the ability. In addition, in order to convert the drawn result into a moving image, the control application searches for a PC or the like having a function to convert the drawn image, and issues an instruction to transmit data drawn by a plurality of PCs to the PC. Thus, a large-scale image (moving image) can be created without using expensive equipment as in the related art.
[0091]
However, this premise is that when the control application selects a PC with a small load, it receives a security function (mutual authentication), and when this authentication is confirmed, the selected PC receives an instruction. At this time, each of the external PCs to which the control application requests work has an available resource list, and the control application refers to the resource list and allocates work to the external PC. Further, the control application cannot access the resource area of the PC exceeding the resource list.
[0092]
(Explanation of the system established as a business model)
Next, a business model established using the above system will be described. The user of the PC to whom the control application requests the business is provided with services such as discounting the communication fee, points according to the usage time, and the ability to use the created image at low cost. In this way, by renting a PC to work, the purchase of the PC can be reduced.
[0093]
For example, the PC itself is mainly leased individually so that a user who wants to use the PC can jointly use the PC during idle time when the user is not using it. Here, the user who wants to use the free time is a heavy user who wants to run an application with a large load, and if a user who operates a normal application is a light user, he pays a time-based fee to both the light user and the heavy user. In this way, PC maintenance costs (electricity costs, communication costs) are paid by heavy users according to the usage time and amount. The light user can use the PC at a lower cost than before. In addition, there is an effect that a heavy user does not need a space for installing a PC.
[0094]
(Explanation of the example applied to the OS auxiliary application of the in-vehicle server)
Next, an example in which the above-described system is applied to an OS auxiliary application of an in-vehicle server will be described. That is, the auxiliary application of the in-vehicle server receives a request from outside (performs a plurality of processes at the same time). The auxiliary application (OSGi) determines whether the content of the request can be executed by an application module (an applet, a servlet, or its component software) mounted on the in-vehicle server.
[0095]
If the auxiliary application determines that it cannot be processed by the in-vehicle server main body, it checks what application module is insufficient. The auxiliary application accesses the network to check whether the missing module can be acquired. When the auxiliary application finds that the insufficient application module can be acquired via the network, the auxiliary application inquires of the user whether the application module can be acquired. Alternatively, the user sets in advance conditions for automatically acquiring an application module. If the condition is not satisfied, the user is inquired.
[0096]
The auxiliary application acquires the scarce resource via the network. When the auxiliary application acquires the resource shortage, the auxiliary application builds the application into an executable application and passes the process to the OS. The OS performs the requested processing. The operation of the application is felt and the completion is notified to the OS. When the OS confirms the completion of the processing, the result is passed to the auxiliary application. The auxiliary application deletes or saves unnecessary resources.
[0097]
Subsequently, in the case where the functions of the portable information processing device 1 in the above-described system are executed by PCs 11a to 11d (hereinafter, referred to as PC 11) as information processing apparatuses, software configured to execute the above-described system in the PC 11 is used. A case where a resource collection type AI module (hereinafter simply referred to as an AI module) is set and performed will be described.
[0098]
FIG. 12 is a chart showing the basic operation. When the AI module of the PC 11 located at the user's hand (home) receives a processing instruction (step R1) from the user (step R2), the AI module (software) is only the main body (hardware) where the AI module (resident) resides. It is determined whether the instruction can be processed (steps R3 and R4).
[0099]
If the instruction can be processed in the main body (determined as “YES” in step R4), the internal processing is executed and the result is output (steps R5 and R6). If it is determined that the command cannot be processed only by the main unit, the AI module generates an AI agent (soft module) that can be temporarily moved to another PC, and the other PC 12 (other information processing device or external information processing device). An AI agent (software module) is sent to the device (step R7).
[0100]
Upon receiving the AI agent (step R8), the other PC 12 starts the AI agent internally. The AI agent requests the use of the resources (hardware and software) in the PC 12 (step R9), and if OK (determines “YES” in step R10), completes the necessary processing using the resources. (Step R11), and transfers the completion result to a place (home) where the AI module is located (Step R12). Thereafter, the AI agent in the PC 12 self-destructs when the necessary processing is completed, or the AI agent stops, leaving an instruction to delete the AI agent to the OS (step R13).
[0101]
If the AI agent issues a request to use the internal resource and does not obtain an OK (determined “NO” in step R10), the request of the AI agent cannot be executed. This is notified to the PC 11 where the AI module, which is the source of the AI agent, resides (steps R14, R15).
[0102]
On the PC 11 side, when the AI module receives the processing result from the PC 12 to which the AI agent has been sent (step R16), the result is output to the user (step R6). If the request to use the internal resource is not OK from the AI agent sent to the PC 12, after receiving this notification (step R15), another PC 12 is searched and the above steps are repeatedly executed. Or take action if unavailable.
[0103]
In this manner, unlike remote processing using the network 10, there is no need to constantly flow data through the line for communication, so that congestion on the network line can be reduced. However, if this is easily executed, the privacy of the PC user may be touched. Therefore, each of the PCs 11 and 12 should have a function of limiting resources allocated to the AI agent from another PC. Is required.
[0104]
A network area opened to the AI agent is called a public area, and an area not opened to the public is called a protected area. The AI agent is basically set so that it can search and move public area information. Furthermore, if it is assumed that the AI agent issuer pays for the use of the network, the PCs 11 and 12 that have accepted the AI agent in accordance with the payment have a network configuration in which the use restrictions on the available area are relaxed. good. Further, it is preferable that each PC user obtains a price corresponding to the use from another PC user.
[0105]
Next, a specific case in which the above-described resource collection type AI module is applied will be described.
[0106]
(Specific case 1)
First, as a specific example 1, real image navigation will be described. This means that the driver can view the destination while driving, the road function (autonomous driving area), congestion, traffic congestion at the entrance of the parking lot, whether the parking lot is an automatic toll collection system, This is a navigation system that can obtain real image information such as presence / absence and the like and that can be displayed as a moving image to a driver.
[0107]
Here, the PC 11c mounted on the vehicle as the information processing device is configured to function as an in-vehicle server. The in-vehicle server 11c cooperates with the car navigation device to improve the navigation function. Then, various information described later is displayed using a display device of the car navigation device.
[0108]
The user (the driver of the vehicle or the use of a passenger) can know the name of the place (for example, a shopping center) on the vehicle where he / she wants to go on communication media or the like (or obtained information on another medium). And At that time, if the user views the location, the traffic congestion status (viewed from the sky), the parking lot availability, the traffic congestion status at the entrance of the parking lot, whether the parking lot is compatible with the automatic toll collection system, Consider a situation in which the user wants to know the presence / absence or the like and requests the vehicle-mounted server 11c to perform an investigation.
[0109]
The in-vehicle server 11c investigates its own resources (memory, DVD, CD, connected network, etc.). For example, there is no information on the place the client wants (current aerial photograph, introduction text), no images near the parking lot, no basic data for automatic driving (digital road information), etc. If it is determined that the request cannot be processed by the server 11c alone, at that time, the insufficient data and functions for responding to the user request are classified, a task to be processed is configured, and the task is processed. Create an AI module.
[0110]
The AI module referred to here is a program script composed of text, a programming language that can be understood by the partner PC, an instruction of a user's voice if the partner PC can recognize speech, or data obtained by converting the text thereof. There are various forms.
[0111]
Next, how the AI module operates will be described in detail. The in-vehicle server 11c sends various communication media information to the user and, if necessary, from the media in-vehicle device (or the additional function module of the in-vehicle server) that records the information, sends the keyword requested by the user to the research, A search is performed from the recorded digital data (the in-vehicle server 11c may be provided with the function of a media in-vehicle device).
[0112]
As the information, for example,
[Information 1]-"XX Shopping Center will provide members with a 30-minute time service from XX. Only those who have the keyword information to be sent will receive a 40% discount on the following products. "
Is obtained by the user.
[0113]
When the user wants the introduced product, the user can move to the OO shopping center from the current position by voice to the in-vehicle server 11c and inquire whether the desired product can be purchased.
[0114]
Here, it is assumed that the user simply inquires of the in-vehicle server 11c "Can the product with the above information be purchased?" The in-vehicle server 11c asks the user some questions in response to the user's request,
"Can this vehicle reach its destination by XX: 30 (within MM minutes)?"
Is determined. Thus, the vehicle-mounted server 11c executes a task of estimating the destination arrival time of the vehicle.
[0115]
The in-vehicle server 11c searches for a plurality of routes to the destination, and determines the possibility of purchasing a product desired by the user from the average traveling time when traveling at a legal speed. Here, when there is no possibility at all, the in-vehicle server 11c returns a response indicating that it is impossible to the user.
[0116]
On the other hand, when the in-vehicle server 11c determines that there is a possibility that the product can be purchased, accurate traffic information from the current location to the destination, traveling time when avoiding the traffic, traffic conditions near the destination (parking status). In consideration of the number of traffic jams near the parking lot), the moving speed near the parking lot, and the like, processing for estimating the possibility of purchase is performed. However, there is a case where the above information is local information and detailed information cannot be obtained from the position of the vehicle-mounted server 11c. At that time, the on-vehicle server 11c needs to access various information transmitting devices near the destination to collect necessary information.
[0117]
For example, assuming that the route 1 to the target shopping center passes through prefectural roads A, B, C, and D, it is necessary to collect real-time information during that time. If there are other routes, real-time information is similarly collected for those routes to determine the arrival time.
[0118]
As shown conceptually in FIG. 13, the in-vehicle server 11c classifies the user's request into each passing area of the prefectural road, divides the request into tasks 1, 2, 3, and the like of the classification unit, and performs the AI module 1 that performs the task. , 2, 3 etc., and investigate the transit time. Receiving the respective transit times, the travel time to the destination can be accurately estimated.
[0119]
FIG. 14 shows the settings of the AI agent generated by the AI module, including the AI module ID, target network ID, script text, search area, answer data (unit), answer deadline, AI module life, options, and the like. It is a thing.
[0120]
Next, an example of a specific configuration of the AI agent will be described with reference to FIG. As the AI module ID, for example, a value in the IPv6 format is set. This includes the IP of the in-vehicle server 11c that has created the AI module. Then, the answer data is automatically returned to the in-vehicle server 11c. This may include even the task ID. As a setting example, for example,
"12DE: 09a1: 333F: FFFF: 12DE: 09a1: 333F: FFFF"
It is.
[0121]
As the target network ID, for example, the IP of the server (network) in the setting area is set (if there are a plurality, the plurality is set). . The access level of the AI agent is divided into public, private 1, private 2, and administrator access rights. In addition, it is usually set to public.
[0122]
Script text, for example,
"Calculate the transit time of the passing vehicles on the prefectural road XX line AB point from the passing times of multiple passing vehicles."
Etc., which may be described by arranging commands and data in order.
[0123]
The search area is a server in the latitude range or the longitude range, or a server of the resource management company 13 having an information database of the related area. Answer data, for example,
"Vehicle transit time at prefectural road XX line AB point (unit minutes)"
Set as etc. The data format can be set as text, binary, XML, etc., but it is often desirable to set the data format in a highly versatile XML format.
[0124]
The answer deadline is set to a time of, for example, 30 seconds. The life of the AI agent is set to, for example, 35 seconds. As an option 1, a condition in which the server that accepts the AI agent requests the accepting server to notify the sender that the life of the AI agent has expired (erased). Set the extension conditions, etc. The response term extension condition sets whether to extend the time if the processing is not completed within the designated time, or to stop the processing when the time comes.
[0125]
Here, position coordinates are set in the server to be searched. When the server is mounted on the target vehicle, the vehicle may move out of the search area due to the movement of the vehicle. In this case, vehicles that are out of the designated search area can be excluded from the search target.
[0126]
The in-vehicle server 11c uses a keyword to obtain general information on which server has which information on which network in order to search for a network around the destination. On the basis of the result, the vehicle server 11c creates a plurality of AI modules.
[0127]
The AI module first determines the general inspection network area and the search key in which the returning AI agent is active, and sends the AI agent to a server in the inspection network area. Among the plurality of AI agents, the AI agent first sent from the in-vehicle server 11c determines a work range and work contents according to the accepted network resources, and notifies the in-vehicle server 11c. The range of the work and the contents of the work are appropriately determined by the server that has received the AI agent.
[0128]
As shown in FIG. 16, the information returned by the first AI agent to the AI module is as follows. The AI module ID is assigned a value in the IPv6 format as described above. The ID of the in-vehicle server is set as the target network ID of the transmission destination. The investigation range server IP is set to the IP (determined by the AI agent receiving server) of the server that has been authenticated to perform the investigation.
[0129]
The authentication number is an authentication number indicating the result of the acceptance by the AI agent, and is issued by the receiving server. From the value of the authentication number, it can be considered later when the AI agent and the receiving server start processing. The investigation classification range is a category (or keyword) investigated by the AI agent.
[0130]
The AI module sets the work contents of the next AI agent so as not to overlap with the first AI agent, and transmits the work contents to the target server (network). Thereafter, similar settings are made to the AI agent transmitted from the vehicle-mounted server.
[0131]
When the AI agent is accepted, the accepting server reads the script or command included in the AI agent and executes the purpose of the AI agent. At this time, the receiving server analyzes the request contents of the AI agent and can reply with the information of the public area, that is, if the target data is obtained (for example, the receiving server stores the database of the vehicle traffic time in the public area). If it does, it is included in the response data of the AI agent and returned to the in-vehicle server 11c.
[0132]
(Specific case # 2)
As another form of the AI agent, the AI agent may be opened on the receiving server as one application, sequentially execute scripts included in the AI agent, obtain a result, and return the result to the vehicle server.
[0133]
As a specific example of the script, for example,
"Calculate the transit time of vehicles passing through the prefectural road XX line AB point from the transit times of multiple vehicles."
That is.
[0134]
For this reason, a case where the AI agent is sent from the in-vehicle server 11c to the traffic management server 12, which is an information processing support device, will be described.
[0135]
(1) The in-vehicle server 11c transmits the AI agent to the traffic management server.
(2) The traffic management server 12 authenticates the AI agent.
(3) The traffic management server 12 transmits the AI agent authentication result to the on-vehicle server.
(4) The traffic management server 12 translates the operation unit (script) of the AI agent and configures software so that the purpose of the AI agent can be achieved. In addition, the database of the traffic management server 12 is searched to find target data (data of travel time at the points A and B at the time of XX).
[0136]
(5) When the traffic management server 12 finds the target data (the traveling time between the vehicles A and B or the traveling speed of a plurality of vehicles is found, the traffic management server 12 processes the data and gives the answer of the traveling time between the vehicles A and B.
(6) The traffic management server 12 forms the set data configuration and returns an answer to the on-vehicle server 11c. If the option-related data needs to be sent, they are also sent to the in-vehicle server 11c at the same time.
(7) The in-vehicle server 11c that has received the response returns a reception completion signal if the response is sufficient.
(8) On the other hand, if the answer is insufficient (for example, when the number of samples is small and the accuracy is low), the in-vehicle server 11c constructs a new script (average traveling speed on a day with similar traffic conditions) to manage traffic. Send to server 12.
(9) If the received data is the received AI agent, the traffic management server 12 sends the script to it and performs the data search again.
(10) If the result is obtained, the traffic management server 12 returns a reply to the vehicle-mounted server 11c again.
(11) When the life of the AI agent has expired, the traffic management server 12 deletes the AI agent.
[0137]
The AI agent returns a response when it arrives at the destination server and is accepted, and thereafter returns a response until a result is obtained or only when the time is over. For this reason, communication between servers does not need to be performed at any time as in normal network processing, so that network traffic can be suppressed.
[0138]
(Specific case 3)
As another example, an example is shown in which the in-vehicle server 11c traveling at the point AB is monitored in real time to obtain the actual vehicle speed.
(1) The in-vehicle server 11c of the own vehicle searches for the server 12 (information processing support device) of the vehicle traveling between the points AB.
(2) As a result of the search, if there is a vehicle traveling between the points A and B, the IP is checked, and the AI agent is sent to the server 12 of the vehicle.
(3) If the server 12 of the vehicle to which the AI agent is sent permits the access of the AI agent, the AI agent transmits information such as the vehicle speed, the running time, and the situation around the vehicle to a vehicle speed sensor (or a measurement result memory area). Gather sufficient information using a vehicle or an in-vehicle camera. Alternatively, the script attached to the AI agent is executed by the in-vehicle server 12 of another vehicle.
[0139]
(4) When necessary information is collected, the AI agent (or the server 12 of another vehicle) returns a result to the on-vehicle server 11c of the own vehicle.
(5) The in-vehicle server 11c collects similar information from a plurality of vehicles and obtains accurate travel time information.
(6) When accessing the server 12 of another vehicle, the usage fee is calculated according to the access time (if the access is set to pay).
[0140]
(Specific case # 4)
Next, an example of the operation of the AI agent when performing image editing on a car will be described. Here, an example is shown in which, when the own vehicle does not have a telephoto camera and the desired scene cannot be photographed, the scene is photographed using the telephoto camera of another vehicle and processed in the vehicle. At this time, there is shown an example in which there is no processing software in the vehicle and resources of the processing software are brought in from outside.
[0141]
(1) The in-vehicle server 11c is requested by the user to take a picture specifying a shooting position and to collectively create a single screen. This is the case, for example, when creating a drive recording album. However, it is assumed that the in-vehicle server 11c determines that the designated angle (for example, telephoto) is impossible with the camera of the own vehicle. It is also assumed that it is determined that a function for collecting photos is not held.
[0142]
(2) The in-vehicle server 11c accesses the server 12 of a nearby vehicle and sends an AI agent to check whether or not there is a vehicle that can take a picture at the designated angle.
(3) The angle desired by the user is specified in the script of the AI agent, and when the image of the camera of another vehicle satisfies the specified condition, the image is captured.
(4) The image resource captured by another vehicle is sent to the vehicle-mounted server 11c of the own vehicle by the AI agent.
[0143]
(5) In parallel, the in-vehicle server 11c searches the network to search for an image software module (resource) for collecting photos, and sends the AI agent to a resource server having related resources. The script of the AI module includes search conditions (photo image editing function, enlargement / reduction, composite, superposition, layer configuration, etc.).
[0144]
(6) The resource server 12 sends necessary resources to the vehicle server 11c. Here, if payment is required, payment processing is performed at this point.
(7) The in-vehicle server 11c edits the data received from the other vehicle using the image editing resource so as to suit the user's preference. The result is shown to the user in the middle of editing, and editing software (reception resources) is used until the result is satisfied by the user.
[0145]
(Specific case # 5)
Next, a specific example in the case of purchasing a mail order product will be described. For example, an example is shown in which a user goes to a destination where the product is sold in order to immediately purchase a product that the user has learned through digital broadcasting.
[0146]
In a vehicle, a user obtains (views and listens to) information on an article he or she wants to purchase from a digital broadcast. At this time, it is assumed that the user can hear the name of the product, but cannot know when and where it is sold.
[0147]
The user requests the in-vehicle server 11c to search a digital broadcast by using a part of the information that cannot be completely heard as a search keyword. The in-vehicle server 11c causes the in-vehicle media device 12 to call a broadcast program listened to by a past user, and to select a plurality of portions that match the search keyword from the broadcast programs.
[0148]
The in-vehicle server 11c selects some candidates selected by the in-vehicle media device 12 and provides them to the user. If there is a suitable one, the user indicates it to the in-vehicle server 11c, and the in-vehicle server 11c determines a necessary part of the broadcast program from which the user has obtained information.
[0149]
The in-vehicle server 11c inquires the user about the contents desired by the user. For example, if the user responds that he / she wants to go to the sales location in a short time in order to purchase the item immediately, the vehicle-mounted server 11c searches for the route information to the sales location based on the determined digital broadcast program. I do. In this case, for example, when a today's travel schedule is set, it is also possible to consider how the vehicle travels and moves in order to go between the schedules.
[0150]
If the name of the sales company that sells the product that the user wants to purchase is included in the digital broadcast data, the sales location can be searched using the data as a search key. This presupposes that the broadcast program is created such that the link data to the sales company is embedded in the sales place, or conversely, the link data of the sales information is embedded in the sales company data. Condition.
[0151]
In this case, the media in-vehicle device 12 switches various digital information sent to the vehicle according to the user's request, and records a history of when and what the user listened to. The digital information data recorded by the media on-board unit 12 includes link data (for example, a URL address) that can be linked with a plurality of related information. The in-vehicle media device 12 is configured to separately record a program set by the user.
[0152]
In order to confirm information obtained from the communication media, the user can play back the information he has heard, search for a keyword, and perform an information search. Here, since the communication media information is converted into a digital signal and sent to the vehicle, the vehicle is equipped with a communication medium recording unit. The user can reconfirm the information (speech) he has heard.
[0153]
The voice information is converted to text information when text information is required for information retrieval or the like. Alternatively, when text information is transmitted simultaneously with the voice in advance, information search may be used using the text information as a search key. In addition, if the digital broadcast signal includes information for connecting (linking) to necessary information such as a URL, the driver can use the information to immediately access a related information site. Become.
[0154]
When a user searches using a so-called browser when accessing each site, it is difficult to access many servers at once to obtain information. Therefore, the in-vehicle server sends the AI module to the server of many related links, and collects a lot of information at the same time.
[0155]
As described above, the AI agent includes a script in which user preferences, price ranges, and the like are entered. In this way, many web sites can be searched at once, and a large amount of information can be collected in a short time. By collecting the collected information in the in-vehicle server 11c, subsequent processing can be easily performed.
[0156]
(Specific case 6)
Next, an example of data collection and processing will be described. While the user is traveling, the data file of the office user PC 11b is searched, and if a necessary file is found, the found file is transferred and displayed on the traveling vehicle. If the required data is not found on the user PC 11b, the AI agent is sent to the office network, selects a file similar to the file desired by the driver from the network, reconstructs the data, and sends it to the vehicle (driver). Forward.
[0157]
If the information data desired by the driver is not on the network, the AI agent searches them from the accessible area of the office network, searches for the data desired by the driver, processes the search data if necessary, Send to driver.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a system showing an embodiment of the present invention.
FIG. 2 is an electrical block diagram of the portable information processing device.
FIG. 3 is a schematic flowchart of a process performed by the portable information processing device;
FIG. 4 is a flowchart of a processing program of the portable information processing device (part 1).
FIG. 5 is a flowchart of a processing program of the portable information processing device (part 2).
FIG. 6 is a diagram illustrating the operation of the resource management system.
FIG. 7 is a conceptual diagram of data transfer from a resource management company to an external device.
FIG. 8 is a flowchart showing the operation of the portable information processing device, the resource management company, and the external device in a mutual relationship;
FIG. 9 is an operation explanatory view showing a cooperative operation with an external device (part 1)
FIG. 10 is a view for explaining the flow of application construction of a resource manager.
FIG. 11 is an operation explanatory view showing a cooperative operation with an external device (part 2);
FIG. 12 is a flowchart showing an operation between the AI module and another PC.
FIG. 13 is an explanatory diagram of a configuration of a task based on a user request.
FIG. 14 is an explanatory diagram of setting items of an AI module.
FIG. 15 is a diagram showing a configuration example of an AI agent.
FIG. 16 is an explanatory diagram of information returned by an AI agent to an AI module.
[Explanation of symbols]
1 is a portable information processing device (information processing device), 4 is a microphone, 5 is a speaker, 6 is a CCD camera, 10 is a network, 11a to 11d are PCs (external devices and information processing devices), and 12 is an external device (information processing device). Support device), 13 is a server of the resource management company, and 14 is a control circuit.

Claims (14)

外部から情報処理の依頼を受ける受付手段と、
この受付手段により受け付けた依頼情報処理を自己のリソースを用いて実行可能か否かを判定する判定手段と、
この判定手段により実行不可能と判定されたときに不足リソースを探索して外部から収集可能か否かを判定する探索手段と、
この探索手段により収集可能と判定されたときにその不足リソースを収集して前記依頼情報処理を実行するための処理プログラムを構築するプログラム構築手段と、
前記依頼情報処理を前記自己のリソースもしくは前記プログラム構築手段により構築された前記処理プログラムを用いて実行する実行手段とを備えたことを特徴とする情報処理装置。
Receiving means for receiving a request for information processing from outside;
Determining means for determining whether the request information received by the receiving means can be executed using its own resource,
A search unit that searches for a lacking resource when it is determined that the resource is not executable by the determination unit and determines whether the resource can be collected from outside;
A program construction means for constructing a processing program for collecting the insufficient resources and executing the requested information processing when it is determined that collection is possible by the search means;
An execution unit that executes the requested information processing using the own resource or the processing program constructed by the program construction unit.
請求項1に記載の情報処理装置において、
前記探索手段により前記不足リソースがハードウェアであると判定されたときに、その不足リソースのハードウエアを利用可能な情報処理支援装置を探索してそのハードウェアで行うべき情報処理を依頼する処理依頼手段と、
前記情報処理支援装置から前記情報処理結果を受け取る受領手段とを備えたことを特徴とする情報処理装置。
The information processing device according to claim 1,
When the search means determines that the insufficient resource is hardware, a processing request for searching for an information processing support device capable of using the hardware of the insufficient resource and requesting information processing to be performed by the hardware Means,
Receiving means for receiving the information processing result from the information processing support apparatus.
請求項1または2に記載の情報処理装置において、
前記依頼情報処理を自己のリソースのみを用いて処理する場合の処理時間および外部リソースを用いて協同で処理する場合の処理時間を推定する処理時間推定手段と、
この処理時間推定手段により推定された2つの処理時間を比較して前記依頼情報処理を処理するのに適した処理方法を選択して実行する処理方法選択手段とを備えたことを特徴とする情報処理装置。
The information processing device according to claim 1 or 2,
A processing time estimating means for estimating the processing time when processing the requested information processing using only its own resource and the processing time when processing in cooperation using external resources;
Processing information selecting means for comparing the two processing times estimated by the processing time estimating means and selecting and executing a processing method suitable for processing the requested information processing; Processing equipment.
請求項1ないし3のいずれかに記載の情報処理装置において、
前記受付手段は、
人が音声により入力する情報処理の依頼を受け付ける入力手段と、
この入力手段により入力された音声情報を前記実行手段が実行可能な情報として解釈する依頼解釈手段と
を備えていることを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
The receiving means,
Input means for receiving a request for information processing that is input by voice by a person,
An information processing apparatus, comprising: request interpreting means for interpreting voice information input by the input means as information executable by the executing means.
ネットワークを介して情報処理装置からアクセス可能に設けられ、請求項1ないし4のいずれかに記載の情報処理装置のプログラム構築手段により前記不足リソースの収集依頼を受けるとこれに応じてその不足リソースを提供するリソース提供手段を備えたことを特徴とする情報処理支援装置。The information processing apparatus is provided so as to be accessible from an information processing apparatus via a network. An information processing support device comprising a resource providing unit for providing. 請求項5に記載の情報処理支援装置において、
前記リソース提供手段により前記不足リソースがハードウェアであると判定されたときに、その不足リソースのハードウエアを利用可能な他の情報処理支援装置を探索してそのハードウェアで行うべき情報処理を依頼する処理依頼手段を備えたことを特徴とする情報処理支援装置。
The information processing support device according to claim 5,
When the resource providing unit determines that the lacking resource is hardware, it searches for another information processing support device that can use the hardware of the lacking resource and requests information processing to be performed by the hardware. An information processing support device, comprising: a processing request unit that performs processing.
請求項2に記載の情報処理装置もしくは請求項5に記載の情報処理支援装置の処理依頼手段により前記不足リソースのハードウェアの利用依頼を受けたときに、対象となったハードウェアで行うべき情報処理を受け付けてこれを処理する処理手段と、この処理手段による処理結果を前記情報処理装置の受領手段に渡す送信手段とを備えたことを特徴とする情報処理支援装置。Information to be performed by the target hardware when a request to use the hardware of the scarce resource is received by a processing request unit of the information processing device according to claim 2 or the information processing support device according to claim 5. An information processing support apparatus comprising: processing means for receiving and processing a process; and transmitting means for passing a processing result of the processing means to a receiving means of the information processing apparatus. 請求項5ないし7のいずれかに記載の情報処理支援装置において、
自己が備えるリソースが情報処理装置の処理方法選択手段により選択された外部リソースに該当する場合に、その要求に応じて協同して前記依頼情報処理を実行することを特徴とする情報処理支援装置。
The information processing support device according to any one of claims 5 to 7,
An information processing support apparatus, wherein, when a resource provided by the apparatus itself corresponds to an external resource selected by a processing method selection unit of the information processing apparatus, the requested information processing is executed in cooperation with the request.
請求項4に記載の情報処理装置を使用してネットワークを通じて音声情報を送信する場合において、
ネットワークに接続され、前記情報処理装置から送信される前記音声情報に基づいてその使用者の識別情報を生成する識別情報生成手段と、
この識別情報生成手段により生成された前記識別情報をリソースとして管理するリソース管理手段と
を備えたことを特徴とするユーザ情報管理装置。
When transmitting voice information through a network using the information processing apparatus according to claim 4,
Connected to a network, identification information generating means for generating identification information of the user based on the audio information transmitted from the information processing device,
A resource management unit for managing the identification information generated by the identification information generation unit as a resource.
ユーザが情報処理の要求を依頼することができる情報処理装置と、この情報処理装置からネットワークを通じて情報処理依頼を受けて動作する少なくとも1つの情報処理支援装置とからなり、
前記情報処理装置は、
前記情報処理依頼が内部に保有するリソースで処理できるか否かを判定する手段と、
内部保有リソースで処理不足するリソースを外部機器に依頼するためにネットワークを介して外部から取得するリソース取得手段とを備え、
前記情報処理支援装置は、
前記情報処理装置からの不足リソースの要求を受けたときに、その不足リソースがソフトウェアの場合に、そのソフトウェアリソースを探索してそれをその情報処理装置に送るソフトウェアリソース提供手段と、
前記不足リソースがハードウェアである場合に、そのハードウェアの不足リソースを探索する探索手段と、
この探索手段により探索されたハードウェアを持つ周辺機器に前記ハードウェアリソースの不足に起因して処理が滞っているタスクを依頼するタスク依頼手段と、
依頼した前記周辺機器から依頼結果を受領して前記情報処理装置へ送る転送手段とを備えていることを特徴とする情報処理支援システム。
An information processing apparatus that allows a user to request an information processing request, and at least one information processing support apparatus that operates upon receiving an information processing request from the information processing apparatus via a network;
The information processing device,
Means for determining whether the information processing request can be processed by internally held resources,
Resource acquisition means for acquiring from outside via a network to request an external device for a resource that is insufficiently processed by internally owned resources,
The information processing support device,
A software resource providing unit that searches for the software resource and sends it to the information processing apparatus when the resource shortage is received from the information processing apparatus when the resource shortage is software;
When the scarce resource is hardware, searching means for searching for the scarce resource of the hardware,
A task requesting unit for requesting a peripheral device having hardware searched by the searching unit for a task whose processing has been delayed due to the lack of the hardware resources;
An information processing support system comprising: a transfer unit that receives a request result from the requested peripheral device and sends the result to the information processing apparatus.
請求項10に記載の情報処理支援システムにおいて、
情報処理装置に対して音声情報を入力することで前記依頼をする場合に、その入力された音声情報に基づいてその音声入力を行ったユーザの識別情報を生成してこれを前記情報処理装置の外部においてリソースとして管理するリソース管理手段を設けたことを特徴とする情報処理支援システム。
The information processing support system according to claim 10,
When the request is made by inputting voice information to the information processing device, the identification information of the user who performed the voice input is generated based on the input voice information, and this is generated by the information processing device. An information processing support system provided with resource management means for externally managing resources.
請求項11に記載の情報処理支援システムにおいて、
前記リソース管理手段は、前記情報処理装置側において構築したアプリをリソースとして受けつけて管理するように構成されていることを特徴とする情報処理支援システム。
The information processing support system according to claim 11,
The information processing support system, wherein the resource management unit is configured to receive and manage an application built on the information processing apparatus side as a resource.
請求項11または12に記載の情報処理支援システムにおいて、
前記リソース管理手段は、前記ユーザの認識情報を情報処理支援装置の要求に応じて提供することを特徴とする情報処理支援システム。
The information processing support system according to claim 11, wherein
The information processing support system, wherein the resource management unit provides the user recognition information in response to a request from the information processing support device.
ユーザから命令を受けたときに、本体のハードウェアだけでその命令を処理できるか否かを判定する判定手段と、
この判定手段により本体のみでその命令が処理できないと判定されたときに、外部の情報処理支援装置に一時的に移動してそのリソースを利用して必要な処理を完了させるAIエージェントを生成するAIエージェント生成手段とを備え、
前記AIエージェントを、前記情報処理支援装置内で内部に保有するリソースを利用して必要な処理を完了させて、その完了結果を移動前の場所に転送刺せた後、必要な処理が完了すると自己消滅するように構成したことを特徴とする情報処理支援システム。
Determining means for determining whether or not the command can be processed only by the hardware of the main body when receiving the command from the user;
When the determining means determines that the instruction cannot be processed only by the main body, the AI that temporarily moves to an external information processing support apparatus and generates an AI agent that completes necessary processing using the resource is used. Agent generating means,
The AI agent completes necessary processing using resources internally held in the information processing support apparatus, and transfers the completion result to a location before movement. An information processing support system characterized by being configured to disappear.
JP2002329465A 2002-11-13 2002-11-13 Information processing apparatus, information processing support apparatus, and information processing support system Expired - Fee Related JP4013740B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002329465A JP4013740B2 (en) 2002-11-13 2002-11-13 Information processing apparatus, information processing support apparatus, and information processing support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002329465A JP4013740B2 (en) 2002-11-13 2002-11-13 Information processing apparatus, information processing support apparatus, and information processing support system

Publications (2)

Publication Number Publication Date
JP2004164288A true JP2004164288A (en) 2004-06-10
JP4013740B2 JP4013740B2 (en) 2007-11-28

Family

ID=32807453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002329465A Expired - Fee Related JP4013740B2 (en) 2002-11-13 2002-11-13 Information processing apparatus, information processing support apparatus, and information processing support system

Country Status (1)

Country Link
JP (1) JP4013740B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038669A (en) * 2004-07-28 2006-02-09 Toyota Infotechnology Center Co Ltd Grid computing system, program, recording medium, and grid computing method
JP2006178658A (en) * 2004-12-21 2006-07-06 Fujitsu Ltd Information processing method and program
JP2007087273A (en) * 2005-09-26 2007-04-05 Toyota Infotechnology Center Co Ltd Distributed processing system and in-vehicle terminal
JP2013520754A (en) * 2010-02-26 2013-06-06 ロヴィ テクノロジーズ コーポレイション Computerized method and system
JP2013117931A (en) * 2011-12-05 2013-06-13 Panasonic Corp Information processing system
JP2014241119A (en) * 2013-06-12 2014-12-25 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus, information processing system, and information processing method
CN113449948A (en) * 2020-12-31 2021-09-28 北京新氧科技有限公司 Service processing method, device, electronic equipment and medium
US12111169B2 (en) * 2022-10-27 2024-10-08 Volvo Car Corporation Method and system for context based navigation system interaction

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9304675B2 (en) * 2006-09-06 2016-04-05 Apple Inc. Portable electronic device for instant messaging

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038669A (en) * 2004-07-28 2006-02-09 Toyota Infotechnology Center Co Ltd Grid computing system, program, recording medium, and grid computing method
JP2006178658A (en) * 2004-12-21 2006-07-06 Fujitsu Ltd Information processing method and program
JP2007087273A (en) * 2005-09-26 2007-04-05 Toyota Infotechnology Center Co Ltd Distributed processing system and in-vehicle terminal
JP2013520754A (en) * 2010-02-26 2013-06-06 ロヴィ テクノロジーズ コーポレイション Computerized method and system
JP2013117931A (en) * 2011-12-05 2013-06-13 Panasonic Corp Information processing system
US9215126B2 (en) 2011-12-05 2015-12-15 Panasonic Intellectual Property Management Co., Ltd. Information processing system running operating systems based on connection state
JP2014241119A (en) * 2013-06-12 2014-12-25 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus, information processing system, and information processing method
CN113449948A (en) * 2020-12-31 2021-09-28 北京新氧科技有限公司 Service processing method, device, electronic equipment and medium
CN113449948B (en) * 2020-12-31 2024-05-03 北京新氧科技有限公司 Business processing method, device, electronic equipment and medium
US12111169B2 (en) * 2022-10-27 2024-10-08 Volvo Car Corporation Method and system for context based navigation system interaction

Also Published As

Publication number Publication date
JP4013740B2 (en) 2007-11-28

Similar Documents

Publication Publication Date Title
JP4458453B2 (en) Carpooling intermediary management device and program thereof
CN114584651B (en) Method for pushing notification, electronic device and storage medium
US9754016B1 (en) Dynamic content discoverability
CN114036390A (en) Scene service recommendation method and device, electronic equipment and storage medium
CN102017662A (en) Information providing system, terminal for transmitting/receiving information, and information providing method
JP2004310316A (en) Vehicle allocation processing device, system, method, program, and recording medium for recording the program
CN108513705A (en) Selective Sensor Polling
US20090198623A1 (en) System and method for executing and authenticating an activity at a remote location
CN103959355A (en) A system and a method for locating one or more peers
WO2016092530A1 (en) Data mediation system and method
CN103365949B (en) Method and system for determining crowd topics from communications in a focus area
WO2017142840A1 (en) Systems and methods for scheduling collection of sensor data
CN104509084B (en) Telephone number information with function of search provides system and method
JP2006107421A (en) Information cooperation service system, electronic device, portable terminal, authentication device, and communication method
JP4013740B2 (en) Information processing apparatus, information processing support apparatus, and information processing support system
US20030154211A1 (en) Methods of gathering and delivering information, terminal unit and server for information processing, and computer product
JP7331526B2 (en) Information processing device, document creation method, program
WO2018172906A1 (en) Behavior management method, behavior management device, and settlement assistance computer
KR100553944B1 (en) Registration method and advertising content registration system of advertising content exposed through brand search
US20140344454A1 (en) Information management device, network system, information management program, and information management method
CN109916420B (en) Vehicle navigation method and related device
US20220188736A1 (en) Method for improving law enforcement accountability
CN118096284A (en) Method and device for processing riding data, passenger terminal and driver terminal
Korthaus et al. Opportunities and challenges for mobile crowdsourcing-conceptualisation of a platform architecture
CN108645422A (en) A kind of analysis method, system and the device of vehicle user behavioural characteristic

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070529

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070903

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110921

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110921

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130921

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees