以下に、添付図面を参照して、情報処理システム、情報処理装置、情報処理方法および情報処理プログラムの実施形態を詳細に説明する。
(各実施形態に共通の構成)
図1は、各実施形態に共通して適用可能な情報処理システムの一例の構成を示す。図1において、情報処理システム1は、情報処理装置としてのサーバ10と、サーバ10にLAN(Local Area Network)といったネットワーク12により接続される複数の端末装置20a、20a、…を含む。情報処理システム1は、さらに、サーバ10に対してインターネットといった外部のネットワーク30を介して接続される1以上の端末装置20bを含んでもよい。
サーバ10は、例えばハードディスクドライブを含む記憶装置11が接続される。サーバ10は、例えば各端末装置20a、20a、…、20bから送信されたデータを記憶装置11に記憶する。
また、サーバ10に対して、表示装置が接続される。図1の例では、表示装置として、電子黒板であるIWB(Interactive Whiteboard)13がサーバ10に接続されている。サーバ10は、例えば各端末装置20a、20a、…、20bから転送されたデータに基づき表示情報を生成してIWB13に供給する。IWB13は、サーバ10から供給された表示情報に従った画面を表示する。
なお、図1の例では、IWB13がサーバ10に直接的に接続されるように示しているが、これはこの例に限定されず、IWB13をネットワーク12に接続してもよい。また、図1の例では、各端末装置20a、20a、…がネットワーク12に対して有線で接続されるように示されているが、これはこの例に限定されず、各端末装置20a、20a、…は、ネットワーク12に対して無線で接続されていてもよい。さらに、ネットワーク12自体を、無線通信によるネットワークにより構成してもよい。
ここで、各端末装置20a、20a、…、20bは、同一の会議に参加する各メンバにより用いられるものとする。このとき、例えば、端末装置20a、20a、…は、同一の部屋内にて用いられるものとする。また、端末装置20bは、当該部屋に対して遠隔の場所にて用いられ、既知の遠隔会議システムにおいて、端末装置20a、20a、…と例えばネットワーク30を介して会議を共有するものとする。
なお、各端末装置20a、20a、…、20bは、それぞれマイクロフォンが内蔵または接続され、録音が可能とされているものとする。ここで、各端末装置20a、20a、…は同室で用いられるが、各端末装置20a、20a、…の位置やそれぞれが備えるマイクロフォンの性能などにより、各端末装置20a、20a、…は、各メンバの発言による音声を、満遍無く録音できない場合がある。これは、遠隔会議システムにより接続される端末装置20bにおいても同様である。
図2は、各実施形態に共通して適用可能なサーバ10の一例のハードウェア構成を示す。図2において、サーバ10は、CPU(Central Processing Unit)100と、ROM(Read Only Memory)101と、RAM(Random Access Memory)102と、ストレージ103と、通信I/F104とを含み、これら各部がバス110により互いに通信可能に接続される。
ストレージ103は、ハードディスクドライブや不揮発性半導体メモリにより構成され、CPU100が動作するための各種プログラムやデータが格納される。また、ROM101は、例えばサーバ10が起動するために用いるプログラムやデータが予め記憶される。
CPU100は、ストレージ103やROM101に格納されるプログラムに従い、RAM102をワークエリアとして用いて動作し、サーバ10の全体の動作を制御する。通信I/F104は、CPU100の指示に従い、ネットワーク12を介した通信を制御する。また、通信I/F104は、記憶装置11との通信も制御する。なお、記憶装置11は、ストレージ103を兼用して用いてもよい。さらに、通信I/F104は、IWB13がサーバ10に直接的に接続される場合には、IWB13との通信も制御する。
図3は、各実施形態に共通して適用可能な端末装置20aの一例のハードウェア構成を示す。なお、端末装置20bは、端末装置20aと同等の構成にて実現可能なので、特に記載の無い限り、端末装置20aで代表させて説明する。
端末装置20aは、例えば一般的なパーソナルコンピュータとして構成することができる。図3において、端末装置20aは、CPU200と、ROM201と、RAM202と、表示制御部203と、ストレージ204と、入力I/F205と、音声I/F206と、通信I/F207とを含み、これら各部がバス210により互いに通信可能に接続される。
ストレージ204は、ハードディスクドライブや不揮発性半導体メモリにより構成され、CPU200が動作するための各種プログラムやデータが格納される。また、ROM201は、例えば端末装置20aが起動するために用いるプログラムやデータが予め記憶される。CPU200は、ストレージ204やROM201に格納されるプログラムに従い、RAM202をワークエリアとして用いて動作し、端末装置20aの全体の動作を制御する。
表示制御部203は、ディスプレイ214が接続され、プログラムに従いCPU200に生成された表示情報に基づき、ディスプレイ214が表示可能な表示制御信号を生成する。表示制御部203は、生成した表示制御信号をディスプレイ214に供給する。ディスプレイ214は、例えばLCD(Liquid Crystal Display)といった表示デバイスと、表示制御信号に従い当該表示デバイスを駆動する駆動部とを備える。
入力I/F205は、端末装置20aに対するデータの入力を受け付けるためのインタフェースであり、例えばUSB(Universal Serial Bus)を適用することができる。図3の例では、入力I/F205に対して、キーボード215が接続されている。なお、入力I/F205として、押圧または接触した位置に応じた信号を出力するタッチセンサを用いることも可能である。この場合、ディスプレイ214とタッチセンサとを一体的に形成して、タッチパネルを構成することができる。
音声I/F206は、アナログ形式による音信号の入力を受け付け、入力された音信号を、デジタル形式による音データに変換する。図3の例では、音声I/F206に対して、音を収音してアナログ音信号を出力するマイクロフォン(MIC)216が接続されている。マイクロフォン216は、端末装置20aに内蔵されていてもよいし、外部機器として端末装置20aに接続してもよい。
通信I/F207は、CPU200の指示に従い、ネットワーク12を介した通信を制御する。
なお、ここでは、端末装置20aがパーソナルコンピュータであるとして説明したが、これはこの例に限定されない。例えば、端末装置20aは、タブレット型コンピュータであってもよいし、多機能型携帯電話端末(スマートフォン)であってもよい。また、端末装置20aは、情報処理システム1における用途によっては、音声I/F206を省略することができる。
(第1の実施形態)
次に、第1の実施形態について説明する。図4は、第1の実施形態に係る情報処理システム1の処理の流れを概略的に示す。なお、図4において、上述した図1と共通する部分には同一の符号を付して、詳細な説明を省略する。また、以下では、「音」は、人声を含む全ての音を表し、「音声」は、人声による音を表すものとする。
第1の実施形態では、サーバ10は、端末装置20a、20a、…、20bに、音データに含まれる音声に係る部分をテキスト情報に変換するテキスト化ツール21を提供する(ステップS10)。図4の例では、説明のため、端末装置20a、20a、…、20bのうち1台の端末装置20aを注目して示している。なお、テキスト化ツール21は、例えばサーバ10においてストレージ103に予め記憶される。
端末装置20aは、テキスト化ツール21により、例えば各メンバの発言による音声を含む、会議において発生する音を収音し(ステップS11)、収音した音に含まれる音声部分をテキスト情報に変換する。このとき、テキスト化ツール21は、変換されたテキスト情報に対して、当該テキスト情報に対応する音声の、音データ内での位置(時間)を示す時間情報を付加する。
テキスト化ツール21は、音声が変換されたテキストと、当該テキストに関連付けられた時間情報とをサーバ10に送信する(ステップS12)。サーバ10は、端末装置20aから送信されたテキストおよび時間情報に基づき、テキストを時系列に沿って表示させるための表示情報を生成する。サーバ10は、このテキストおよび時間情報に基づく表示情報を、IWB13に送信する(ステップS13)。IWB13は、この表示情報に従い、テキストを時系列に沿って表示させる。
このステップS10〜ステップS13の処理を、同一の会議に参加する各端末装置20a、20a、…、20bそれぞれにおいて実行する。これにより、IWB13に対して、各端末装置20a、20a、…、20bにおいてそれぞれ収音された音に基づく各テキストが、時系列に沿ってそれぞれ表示される。したがって、会議に参加する各メンバは、議事の進行を、より容易に把握することが可能となる。
(第1の実施形態の詳細)
図5は、第1の実施形態に係るサーバ10の機能を説明するための一例の機能ブロック図である。図5において、サーバ10は、通信部120と、制御部121と、記憶部122と、検出部123と、収集部124と、関連付け部125と、表示情報生成部126とを含む。
これら通信部120、制御部121、記憶部122、検出部123、収集部124、関連付け部125および表示情報生成部126は、CPU100上で動作するプログラムにより実現される。これに限らず、通信部120、制御部121、記憶部122、検出部123、収集部124、関連付け部125および表示情報生成部126の一部または全部を、互いに協働して動作するハードウェア回路により構成してもよい。
制御部121は、通信部120、記憶部122、検出部123、収集部124、関連付け部125および表示情報生成部126それぞれの動作を統合的に制御する。通信部120は、通信I/F104による通信を制御する。記憶部122は、記憶装置11およびストレージ103に対するデータの書き込み、読み出しを制御する。検出部123は、2つのテキストを比較して対応部分を検出する。収集部124は、各端末装置20a、20a、…、20bから送信されたテキストおよび時間情報を収集する。関連付け部125は、テキストと時間情報とを関連付ける。表示情報生成部126は、例えばIWB13に表示させる画面を形成するための表示情報を生成する。
サーバ10における各機能を実現するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、フレキシブルディスク(FD)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供される。これに限らず、当該プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、当該ネットワークを介してダウンロードさせることにより提供してもよい。また、当該プログラムをインターネットなどのネットワークを経由して提供または配布するように構成してもよい。
当該プログラムは、上述した各部(通信部120、制御部121、記憶部122、検出部123、収集部124、関連付け部125および表示情報生成部126)を含むモジュール構成となっている。実際のハードウェアとしては、CPU100がストレージ103などの記憶媒体から当該プログラムを読み出して実行することにより、上述した各部がRAM102などの主記憶装置上にロードされ、通信部120、制御部121、記憶部122、検出部123、収集部124、関連付け部125および表示情報生成部126が主記憶装置上に生成されるようになっている。
なお、第1の実施形態においては、検出部123および関連付け部125の機能は省略できる。
図6は、第1の実施形態に係る端末装置20aの機能を説明するための一例の機能ブロック図である。なお、端末装置20bは、端末装置20aと同等の機能を含むため、ここでの説明を省略する。図6において、端末装置20aは、通信部220と、制御部221と、入力部222と、取得部223と、表示部225とを含む。また、取得部223は、音取得部2230と、テキスト取得部2231とを含む。
これら通信部220、制御部221、入力部222、取得部223および表示部225は、CPU200上で動作するプログラムにより実現される。これに限らず、通信部220、制御部221、入力部222、取得部223および表示部225のうち通信部220、制御部221、入力部222および表示部225は、互いに協働して動作するハードウェア回路により構成してもよい。
制御部221は、通信部220、入力部222、取得部223および表示部225それぞれの動作を統合的に制御する。通信部220は、通信I/F207による通信を制御する。入力部222は、入力I/F205に対してなされた入力を受け付ける。表示部225は、ディスプレイ214に表示させるための表示情報を生成する。
取得部223は、図4で説明したテキスト化ツール21に対応するもので、サーバ10からネットワーク12を介してダウンロードして取得されるプログラムがCPU200上で実行されることで、取得部223に含まれる音取得部2230およびテキスト取得部2231がRAM202などの主記憶装置上にロードされ、これら各部が主記憶装置上に生成されるようになっている。取得部223は、例えば、端末装置20aが搭載するOS(Operating System)がWindows(登録商標)であれば、ActiveX(登録商標)と呼ばれる技術を用いて、サーバ10から端末装置20aに導入される。
次に、第1の実施形態に係る情報処理システム1における処理について、図7および図8を用いてより詳細に説明する。図7は、第1の実施形態に係る情報処理システム1の処理の流れを説明するための図である。また、図8は、第1の実施形態に係る端末装置20aにおける処理を示す一例のフローチャートである。なお、図7において、上述した図1、図3、図5および図6と共通する部分には同一の符号を付して、詳細な説明を省略する。
各端末装置20a、20a、…、20bのうち、ある端末装置20aを注目し、当該端末装置20aに対する所定の操作により、例えば端末装置20aは、サーバ10に対してテキスト化ツール21を要求する(図8のステップS100)。サーバ10は、この要求に応じて、端末装置20aに対してテキスト化ツール21を送信する。端末装置20aは、送信されたテキスト化ツール21をダウンロードして取得する(ステップS101)。これにより、端末装置20a上に取得部223が形成される。
図9は、第1の実施形態に係る取得部223により端末装置20aのディスプレイ214に表示されるテキスト化ツール画面の例を示す。図9において、テキスト化ツール画面250は、録音ボタン251と、テキスト化ボタン252と、終了ボタン253と、最小化ボタン254とを含む。録音ボタン251は、操作することで、マイクロフォン216により収音された音による音データの録音の開始を取得部223に指示する。また、録音ボタン251は、録音状態で操作されると、録音の中止を取得部223に指示する。テキスト化ボタン252は、操作することで、録音ボタン251の操作に応じて録音された音データのテキスト化処理の開始を取得部223に指示する。終了ボタン253は、操作することで、テキスト化ツール画面250を閉じる。このとき、録音中であれば、録音が中止される。最小化ボタン254は、操作することで、テキスト化ツール画面250が最小化される。テキスト化ツール画面250が最小化されても、最小化ボタン254を操作した時点で実行中の動作は、停止されない。
取得部223は、録音ボタン251が操作されると、音取得部2230による録音を開始させ(ステップS102)、マイクロフォン216により収音された音による音データを音取得部2230に取得させる。音取得部2230は、取得した音データを、音データの取得を開始した時間を示す情報を関連付けて、ストレージ204に記憶する。音データ取得開始時間は、例えば、当該音データがストレージ204に記憶される場合の、当該音データが格納されるファイルのタイムスタンプを適用することができる。
次のステップS103で、取得部223は、テキスト取得部2231により、録音により記憶された音データに対するテキスト化処理を実行する(ステップS103)。
テキスト化処理において、テキスト取得部2231は、音取得部2230により記憶された音データを取得してテキスト変換部224に渡し、テキスト変換部224に対して音データのテキストへの変換を要求する。ここで、テキスト変換部224は、取得部223またはテキスト取得部2231に含まれる構成としてもよいし、例えばネットワーク30上においてテキスト化サービスを提供するテキスト化サーバの機能を利用してもよい。
テキスト変換部224は、既知の音声認識技術を用いて、テキスト取得部2231から渡された音データをテキスト情報に変換する。例えば、テキスト変換部224は、予め学習された音響モデルを用いて音データに含まれる音声を認識し、認識された一連の音声の集合をワードとして特定する。ワードの特定には、例えば隠れマルコフモデルを用いることができる。
なお、特定されたワードは、テキストとしては、音声に従い例えば平仮名あるいは片仮名により表記される。テキスト変換部224は、この平仮名あるいは片仮名により構成されるワードを、既知の仮名漢字変換技術を用いて漢字仮名交じり文によるワードに変換する。
テキスト変換部224は、さらに、特定したワードに対して時間情報を関連付ける。例えば、テキスト変換部224は、音データの先頭から当該ワードの先頭の音声までの時間を計測し、この時間を示す時間情報を、当該ワードに関連付ける。テキスト変換部224は、特定されたワードと、当該ワードに関連付けられた時間情報とをテキスト取得部2231に渡す。
取得部223は、テキスト取得部2231により、テキスト変換部224から渡されたワードを、関連付けられた時間情報と共に取得する(ステップS104)。取得部223は、テキスト取得部2231により、取得したワードおよび対応する時間情報をサーバ10に送信する(ステップS105)。送信されたワードおよび時間情報は、サーバ10において収集部124に収集され、記憶部122に記憶される。
なお、上述したワードの漢字仮名交じり文への変換は、例えば端末装置20aに搭載される漢字仮名交じり文変換プログラムを利用して、テキスト取得部2231において実行してもよい。
次のステップS106で、取得部223は、録音が終了したか否かを判定する。取得部223は、録音が終了していないと判定した場合、処理をステップS103に戻す。したがって、音データがテキスト化されたワード、および、ワードに対応する時間情報は、音データからワードが特定される毎に、サーバ10に送信される。
一方、取得部223は、ステップS106で録音が終了したと判定した場合、この図8のフローチャートによる一連のテキスト化処理を終了させる。なお、1の音データから取得された一連のワードを、纏めて第1テキストと呼ぶ。すなわち、ワードは、第1テキストの部分である。
取得部223は、テキスト化処理が終了すると、ストレージ204に記憶された音データを、サーバ10に送信する。サーバ10は、送信されたこの音データを、記憶装置11に記憶する。
なお、この図8のフローチャートによる一連の処理は、各端末装置20a、20a、…、20bにより、それぞれ独立して実行される。
図10を用いて、第1の実施形態に係る、上述したステップS103による音データのテキスト化処理について説明する。図10(a)および図10(b)は、それぞれ、例えば端末装置20a、20a、…のうち1の端末装置20aと、端末装置20bとにより録音された音データ300aおよび300bに基づくテキスト化処理を示している。図10(a)および図10(b)に示されるように、音データ300aおよび300bがテキスト化されて、それぞれ複数のワードを含む第1テキスト301aおよび301bが取得される。
図10(a)において、テキスト変換部224は、時刻Ta0から録音が開始された音データ300aについて、時刻Ta0(以下、録音開始時刻Ta0)を起点とした時間ta1、ta2およびta3から、それぞれ音声を検出したものとする。ここで、録音開始時刻Ta0は、絶対時刻であり、時間ta1、ta2およびta3は、音データ300a内における相対時間である。
テキスト変換部224は、時間ta1から検出された音声をテキストに変換し、ワードA10を取得する。同様に、テキスト変換部224は、時間ta2およびta3から検出された各音声をテキストに変換し、ワードA11およびA12をそれぞれ取得する。そして、テキスト変換部224は、図10(a)の下段に例示されるように、各ワードA10、A11およびA12に対してそれぞれ時間ta1、ta2およびta3を関連付ける。
例えば、テキスト変換部224は、ワードA10が取得されると、取得したワードA10に対して時間ta1を関連付ける。そして、テキスト変換部224は、ワードA10と時間ta1とをテキスト取得部2231に渡す。テキスト変換部224は、このワードおよび時間をテキスト取得部2231に渡す処理を、例えばワードが取得される毎に実行する。
図10(b)の、音データ300bに対する処理も、上述と同様である。音データ300bは、時刻Tb0から録音が開始される。なお、一般的には、音データ300bの録音開始時刻Tb0は、上述した音データ300aの録音開始時刻Ta0に対して異なる時刻となる。
テキスト変換部224は、音データ300aの場合と同様に、音データ300bの時間tb1、tb2およびtb3から検出された各音声をテキストに変換し、それぞれワードB10、B11およびB12を取得する。テキスト変換部224は、図10(b)の下段に例示されるように、ワードB10、B11およびB12の取得毎に、これらワードB10、B11およびB12に対して時間tb1、tb2およびtb3を関連付けて、テキスト取得部2231に渡す。
各ワードA10、A11およびA12の絶対時刻Ta1、Ta2およびTa3は、時刻Ta0に各時間ta1、ta2およびta3を加算することで求めることができる。各ワードB10、B11およびB12についても同様に、時刻Tb0に各時刻tb1、tb2およびtb3を加算することで、絶対時刻を求めることができる。
図11は、第1の実施形態に係るサーバ10における処理を示す一例のフローチャートである。ステップS110で、サーバ10は、制御部121により、端末装置20a、20a、…、20bのうち何れか(例えば端末装置20a、20a、…のうち1の端末装置20a)から、テキスト化ツール21の要求を受信したか否かを判定する。制御部121は、受信していないと判定した場合、処理をステップS110に戻し、受信したと判定した場合、処理をステップS111に移行する。
ステップS111で、制御部121は、テキスト化ツール21の要求元に対してテキスト化ツール21を送信する。次のステップS112で、制御部121は、テキスト化ツール21の要求元から、ワードと、当該ワードに対応する時間情報とを受信したか否かを判定する。制御部121は、受信していないと判定した場合、処理をステップS112に戻し、受信したと判定した場合、処理をステップS113に移行させる。
ステップS113で、制御部121は、記憶部122により、テキスト化ツール21の要求元から受信したワードと時間情報とを関連付けて記憶装置11に保存する。次のステップS114で、制御部121は、表示情報生成部126により、テキスト化ツール21の要求元から受信したワードに時間情報を関連付けて表示させるための表示情報を生成する。生成された表示情報は、例えばIWB13に送信され、後述するように、IWB13においてワードと時間情報とが関連付けられて表示される。
次のステップS115で、制御部121は、テキスト化ツール21の要求元からの、1の音データに基づくワードの受信が全て終了したか否かを判定する。制御部121は、例えば、テキスト化ツール21の要求元からの直前のワードの受信から所定時間を経過して次のワードの受信が無い場合に、1の音データに基づく全てのワードの受信が終了したと判定する。テキスト化ツール21の要求元が、1の音データに基づくワードの送信が終了した旨を示す情報を送信するようにしてもよい。
制御部121は、1の音データに基づく全てのワードの受信が終了していないと判定した場合、処理をステップS112に戻す。一方、1の音データに基づく全てのワードの受信が終了したと判定した場合は、当該テキスト化ツール21の要求元に係る、図11のフローチャートによる一連の処理が終了される。
図12は、第1の実施形態に係る、上述のステップS113で表示情報生成部126により生成された表示情報に基づく時系列表示画面320の例を示す。図12に例示される時系列表示画面320は、サーバ10により例えばIWB13に表示される。これに限らず、時系列表示画面320を各端末装置20a、20a、…、20bのディスプレイ214に表示させてもよいし、サーバ10にアクセスを許可されたさらに別の端末装置のディスプレイに表示させてもよい。
時系列表示画面320は、ワードおよび時間情報をサーバ10に送信した各端末装置にそれぞれ対応する時系列表示部321a、321b、…を含む。図12の例では、時系列表示部321aは、図10(a)で説明した端末装置20aに対応し、音データ300aに基づく情報が表示される。また、時系列表示部321bは、図10(b)で説明した端末装置20bに対応し、音データ300bに対応する情報が表示される。
図12の例では、時系列表示部321aは、領域322aに、時間軸を矢印で示す表示323aと、音データ300aから取得された各ワードA10、A11、A12、…とが表示されている。各ワードA10、A11、A12、…は、時間軸に従った順序および間隔で表示され、それぞれ対応する時間ta1、ta2、ta3、…を示す時間情報がさらに表示されている。ここでは、各時間ta1、ta2、ta3、…は、音データ300aの録音開始時刻Ta0を加算した絶対時刻として表示されている。
時系列表示部321bも、時系列表示部321aと同様に、領域322bに、時間軸を矢印で示す表示323bと、音データ300bから取得された各ワードB10、B11、B12、…と、それぞれに対応する時間tb1、tb2、tb3、…を示す各時間情報とが、時間軸に従った順序および間隔で表示される。
時系列表示部321bにおいて、各時間tb1、tb2、tb3、…は、時系列表示部321aと同様、音データ300bの録音開始時刻Tb0を加算した絶対時刻として表示される。これにより、時系列表示部321aと時系列表示部321bとで時間軸が一致する。したがって、複数の端末装置20a、20a、…、20bで収音された各音から取得された各ワードが共通の時系列に沿って表示され、議事の把握が容易になる。
なお、端末装置20bは、各端末装置20a、20a、…と遠隔会議システムにより接続されるため、各情報の伝達に遅延が発生する可能性がある。この場合には、遅延時間を予め取得しておき、取得された遅延時間を各時間tb1、tb2、tb3、…から減算することが考えられる。
(第2の実施形態)
次に、第2の実施形態について説明する。議事録の作成において、会議中に録音した音を会議終了後に再生し、再生された音を元にテキストを入力して清書テキストを作成し、この清書テキストを用いて議事録を作成する場合がある。この場合、再生された音が録音された時刻と、清書テキストの各部との関連性が無く、清書テキストを用いて作成した議事録を参照しても、会議の進行を容易に把握できないおそれがある。
第2の実施形態では、清書されたテキストに対して時間情報を関連付ける。図13は、第2の実施形態に係る情報処理システム1の処理の流れを概略的に示す。なお、第2の実施形態では、図1に示した情報処理システム1の構成をそのまま利用できる。図13において、上述した図1と共通する部分には同一の符号を付して、詳細な説明を省略する。
図13において、記憶装置11には、各端末装置20a、20a、…、20bにより録音された音に基づき、上述した第1の実施形態で説明したような方法で作成した各ワードA10、A11、A12、…、B10、B11、B12、…と、これらに対応する時間情報である時間ta1、ta2、ta3、…、tb1、tb2、tb3、…とが関連付けられて既に保存されているものとする。
ユーザは、ネットワーク12に接続可能であり、サーバ10にアクセス可能な情報処理装置を用いて、会議中に録音された音に基づき清書テキストを作成する(ステップS20)。例えば、ユーザは、端末装置20a、20a、…、20bのうち1の端末装置を用いて清書テキストを作成することができる。清書テキストを作成するために用いる音データは、清書テキストを作成する端末装置20aにより録音し当該端末装置20aに保存した音データを用いることができる。これに限らず、各端末装置20a、20a、…、20bにより録音され、記憶装置11に保存された1以上の音データを用いて清書テキストを作成してもよい。
ユーザは、清書テキストを作成すると、作成した清書テキストを端末装置20aからサーバ10に送信する(ステップS21)。サーバ10は、送信された清書テキストと、記憶装置11に記憶される、各端末装置20a、20a、…、20bから取得した各ワードとを比較して、各ワードと対応する清書テキストの部分を検出する(ステップS22)。そして、サーバ10は、検出された清書テキストの部分に対して、対応するワードに関連付けられた時間情報を関連付ける。
サーバ10は、この時間情報が関連付けられた清書テキストの部分を表示させる表示情報を生成し、例えばIWB13に供給する(ステップS23)。これにより、清書テキストを、部分毎に時系列に沿って表示させることができる。
図14は、第2の実施形態に係る情報処理システム1の処理の流れを説明するための図である。この図14と、図15〜図17のフローチャートとを参照しながら、第2の実施形態に係る情報処理システム1の処理について説明する。なお、図14において、上述した図1、図3、図5および図6と共通する部分には同一の符号を付して、詳細な説明を省略する。
なお、第2の実施形態においては、サーバ10の機能に関し、図5における収集部124の機能は省略できる。
図15は、第2の実施形態に係る端末装置20aの処理を示す一例のフローチャートである。ステップS120で、端末装置20aは、清書テキストである第2テキストを取得する。例えば、端末装置20aにおいて、入力部222に対して清書テキストが入力され、第2テキストが取得される。なお、第2テキストは、一般的には、入力時に、端末装置20aに搭載される仮名漢字変換プログラムを用いて漢字仮名交じり文のテキストに変換されている。次のステップS121で、端末装置20aは、ステップS120で取得した第2テキストを、通信部220によりネットワーク12を介してサーバ10に送信する。
ステップS120における入力部222に対する清書テキストの入力は、端末装置20aに接続されるキーボード215を用いて人手により行うことができる。これに限らず、他の情報処理装置により作成された清書テキストを、USBといったインタフェースや、ネットワーク12を介して、データとして入力部222に入力してもよい。
図16は、第2の実施形態に係る、上述した図15の第2テキストの送信に対応するサーバ10の処理を示す一例のフローチャートである。ステップS130で、サーバ10は、ネットワーク12を介して第2テキストを受信したか否かを判定する。サーバ10は、受信していないと判定した場合、処理をステップS130に戻し、受信したと判定した場合、処理をステップS131に移行させる。ステップS131で、サーバ10は、ステップS130で受信した第2テキストをRAM102やストレージ103に記憶する。
図17は、第2の実施形態に係る、サーバ10における、第2テキストに対する、第1テキストに含まれる各ワードの対応付け処理を示す一例のフローチャートである。この図17のフローチャートと、上述した図14とを参照しながら、この対応付け処理について説明する。
図17のフローチャートによる処理は、上述の図16のフローチャートによる処理の終了後に、開始される。図17のフローチャートの処理に先立って、サーバ10は、記憶部122により、記憶装置11から処理の対象となる第1テキストを取得する。この第1テキストは、上述したように、1以上のワードを含む。また、サーバ10は、変数mを1に初期化する。
ステップS140で、サーバ10において、検出部123は、第1テキストに含まれるワードの数であるワード数nを取得する。次のステップS141で、検出部123は、図16のフローチャートのステップS131で記憶された第2テキスト内で、第1テキストのm番目のワードに対応する箇所を探索する。
図18を用いて、第2の実施形態に係る、ステップS141における探索処理について説明する。図18において、第2テキスト330(この例では「今日はいい天気でした。明日は雨でしょう。」)内で、第1テキストに含まれるm番目のワード333(この例では「いい天気」)と対応する箇所を探索する。この場合、例えば、第2テキスト330に対して、ワード333に含まれる文字数(4文字)と等しい長さの窓332を設定する。そして、窓332を第2テキスト330内で移動させて、窓332内の文字列に対してワード333が対応するか否かを判定する。このとき、例えば、文字単位で一致を判定し、一致する割合が所定以上の場合に、当該ワード333が窓332内の文字列に対応すると判定することができる。
ステップS142で、検出部123は、第2テキスト内に、第1テキストのm番目のワードに対応する箇所が存在するか否かを判定する。検出部123は、対応箇所が存在しないと判定した場合、処理をステップS144に移行させ、対応箇所が存在すると判定した場合、処理をステップS143に移行させる。
ステップS143で、サーバ10において関連付け部125は、第2テキストの、第1テキストのm番目のワードに対応する箇所に、当該m番目のワードに対応する時間情報を関連付ける。例えば、上述した図10(a)を参照し、m番目のワードがワードA11である場合、対応する時間情報として時間ta2を関連付ける。このとき、関連付ける時間情報は、時間ta2に対して録音開始時刻Ta0を加算した絶対時刻とすると好ましい。
次のステップS144で、検出部123は、変数mがワード数nと等しいか否かを判定する。検出部123は、変数mがワード数nと等しくないと判定した場合、変数mに1を加算して処理をステップS141に戻す。一方、検出部123は、変数mがワード数nと等しいと判定した場合、処理対象の第1テキストに対する処理が完了したとして、処理をステップS145に移行させる。
ステップS145で、関連付け部125は、第2テキストと、第2テキストの各部に関連付けられた時間情報とを、結果データとして出力する。出力された第2テキストおよび時間情報は、例えば記憶部122により記憶装置11に記憶される。
図19を用いて、第2の実施形態に係る、図17のフローチャートの処理について、より具体的に説明する。音データ334から取得された第1テキストは、5つのワードA1’、A2’、A3’、A4’およびA5’を含む(n=5)。各ワードA1’、A2’、A3’、A4’およびA5’の音データ334内での開始時間は、それぞれ時間t1、t2、t3、t4およびt5であるものとする。
検出部123は、1番目のワードA1’は、3文字であるので、第2テキスト330に3文字の長さの窓332を設定し、窓332を第2テキスト330内で移動させて、ワードA1’に対応する第2テキストの部分が存在するか否かを判定する。図19の例では、第2テキスト330の先頭の3文字の部分A1がワードA1’に対応する部分として検出される。関連付け部125は、部分A1の先頭にワードA1’の開始時間である時間t1を関連付ける。
以下、同様にして、検出部123は、2〜n番目の各ワードA2’、A3’、A4’およびA5’について、第2テキスト330内の対応箇所を順次探索する。その結果、検出部123により、各ワードA2’、A3’、A4’およびA5’にそれぞれ対応する第2テキスト330の部分A2、A3、A4およびA5が検出される。関連付け部125は、検出された各部分A2、A3、A4およびA5に対して、各ワードA2’、A3’、A4’およびA5’の開始時間t2、t3、t4およびt5をそれぞれ関連付ける。
こうして、第2テキストは、各ワードA1’〜A5’に対応する各部分A1〜A5に対して、各ワードA1’〜A5’それぞれの開始時間t1〜t5が関連付けられて出力される。
なお、上述では、第1テキストと第2テキストとを、テキスト情報として比較しているが、これはこの例に限定されない。例えば、第1テキストおよび第2テキストを既知の音声合成技術によりそれぞれ第1音声データおよび第2音声データに変換し、これら第1音声データと第2音声データとを比較することで、第2テキスト内の、第1テキストに含まれる各ワードの対応部分を検出してもよい。
(第2の実施形態の変形例)
次に、第2の実施形態の変形例について説明する。第2の実施形態の変形例は、複数の音データからそれぞれ取得された各第1テキストに含まれる各ワードと、第2テキストの部分とを関連付ける例である。ここで、複数の音データは、例えば同一の会議において異なる条件で録音された音データであるものとする。この場合、各音データに含まれる音声は、それぞれの録音に用いたマイクロフォンの位置や、話者の位置などに応じて異なる場合がある。一例として、ある音データに含まれる音声が、他の音データでは含まれない、または、検出困難なレベルで含まれるような場合が考えられる。
図20は、第2の実施形態の変形例に係る、サーバ10における、第2テキストに対する、複数の第1テキストに含まれる各ワードの対応付け処理を示す一例のフローチャートである。この図20のフローチャートと、上述した図14とを参照しながら、この対応付処理について説明する。なお、第2の実施形態の変形例では、図1に示した情報処理システム1の構成をそのまま利用できるので、システム構成については説明を省略する。
図20のフローチャートによる処理は、上述の図16のフローチャートによる処理の終了後に、開始される。図20のフローチャートの処理に先立って、サーバ10は、記憶部122により、記憶装置11から処理の対象となる複数の第1テキストを取得する。取得した各第1テキストは、上述したように、1以上のワードを含む。また、サーバ10は、変数qを1に初期化する。
ステップS150で、サーバ10において、検出部123は、対象となる第1テキストの数pを取得する。次のステップS151で、検出部123および関連付け部125は、q番目の第1テキストについて、図17のフローチャートを用いて説明した処理に従い、第2のテキストの各部分に対する時間情報の関連付けを行う。次のステップS152で、検出部123は、変数qが第1テキスト数pと等しいか否かを判定する。検出部123は、変数qが第1テキスト数pと等しくないと判定した場合、変数qに1を加算して処理をステップS151に戻し、次の第1テキストについて、関連付け処理を実行する。
一方、検出部123は、変数qが第1テキスト数pと等しいと判定した場合、処理対象の全ての第1テキストに対する処理が完了したとして、処理をステップS153に移行する。ステップS153で、関連付け部125は、第2テキストと、第2テキストの各部分に関連付けられた時間情報とを、結果データとして出力する。出力された第2テキストおよび時間情報は、例えば記憶部122により記憶装置11に記憶される。
図21を用いて、図20のフローチャートの処理について、より具体的に説明する。
図21(a)は、例えば第1の端末装置20a(PC#1とする)により録音された音データ334aと、当該音データ334aから取得された第1テキスト331a(q=1の第1テキストとする)との例を示す。図21(a)の例では、第1テキスト331aは、それぞれ音データ334a内の時間ta1、ta2およびta3を開始時間とするワードA10’、A11’およびA12’を含む。なお、音データ334aの録音開始時刻は、時刻Ta00とする。
図21(b)は、同様に、例えば第2の端末装置20a(PC#2とする)により録音された音データ334bと、当該音データ334bから取得された第1テキスト331b(q=2の第1テキストとする)との例を示す。図21(b)の例では、第1テキスト331bは、それぞれ音データ334b内の時間tb1、tb2およびtb3を開始時間とするワードB10’、B11’およびB12’を含む。なお、音データ334bの録音開始時刻は、時刻Tb00とする。
さらに、図21(c)は、同様に、例えば第3の端末装置20a(PC#3とする)により録音された音データ334cと、当該音データ334cから取得された第1テキスト331c(q=3の第1テキストとする)との例を示す。図21(c)の例では、第1テキスト331cは、それぞれ音データ334c内の時間tc1、tc2およびtc3を開始時間とするワードC10’、C11’およびC12’を含む。なお、音データ334cの録音開始時刻は、時刻Tc00とする。
図21(d)は、第2テキスト330の例を示す。この例では、第2テキスト330は、図21(a)〜図21(c)にそれぞれ示した各ワードA10’〜A12’、B10’〜B12’、および、C10’〜C12’にそれぞれ対応する各部分A10〜A12、B10〜B12、および、C10〜C12を含んでいる。なお、第2テキスト330は、例えば会議中の発言順に従い、各部分が、部分A10、B10、C10、A11、B11、C11、A12、B12、C12の順に並べられている。
図20のフローチャートにおいて、ステップS150で対象の第1テキストの数n=3が取得される。1回目(q=1)のステップS151の処理で、検出部123に、第1テキスト331aに含まれる各ワードA10’、A11’およびA12’にそれぞれ対応する第2テキスト330の各部分A10、A11およびA12が検出される。関連付け部125は、検出された第2テキスト330の各部分A10、A11およびA12に対して、各ワードA10’、A11’およびA12’に対応する時間ta1、ta2およびta3をそれぞれ関連付ける。
図20のフローチャートの2回目(q=2)の処理においても、同様に、検出部123により、第1テキスト331bに含まれる各ワードB10’、B11’およびB12’が、第2テキスト330の各部分B10、B11およびB12に対して対応付けられ、関連付け部125により、各部分B10、B11およびB12に、各ワードB10’、B11’およびB12’に対応する時間tb1、tb2およびtb3が関連付けられる。
同様にして、図20のフローチャートの3回目(q=3)の処理においても、第2テキスト330の各部分C10、C11およびC12に対して、時間tc1、tc2およびtc3が関連付けられる。
図22は、第2の実施形態の変形例に係る、図20のフローチャートのステップS153で出力される結果データの一例を示す。図22の例では、結果データ340は、各行に、第2テキスト330の各部分A10、B10、C10、A11、B11、C11、A12、B12、C12のテキストと、これら各部分それぞれに関連付けられた各時間ta1、ta2、ta3、tb1、tb2、tb3、tc1、tc2、tc3とが対応付けられて含まれている。
なお、結果データ340における各時間ta1、ta2、ta3、tb1、tb2、tb3、tc1、tc2、tc3は、それぞれ、音データ334a、332bおよび332c内での時間に対して対応する録音開始時刻Ta00、Tb00およびTc00を加算した絶対時刻であるものとする。
また、図22の例では、第2テキスト330の各部分A10、B10、C10、A11、B11、C11、A12、B12、C12にそれぞれ対応するワードA10’、B10’、C10’、A11’、B11’、C11’、A12’、B12’、C12’が検出された音データ334a、332bおよび332cを録音した各端末装置20a(PC#1、PC#2およびPC#3)を示す情報が、さらに含まれている。
図23は、第2の実施形態の変形例に係る、上述した結果データ340に基づき表示情報生成部126により生成された表示情報に基づく時系列表示画面350の例を示す。図23に例示される時系列表示画面350は、サーバ10により例えばIWB13に表示される。これに限らず、時系列表示画面350を各端末装置20a、20a、…、20bのディスプレイ214に表示させてもよいし、サーバ10にアクセスを許可されたさらに別の端末装置のディスプレイに表示させてもよい。
時系列表示画面350は、時系列表示部351を含み、時系列表示部351内の領域352に、時間軸を矢印で示す表示353と、第2テキスト330に含まれる各部分A10、B10、C10、A11、B11、C11、A12、B12、C12のテキストとが表示されている。各部分A10、B10、C10、A11、B11、C11、A12、B12、C12のテキストは、それぞれに関連付けられた絶対時刻である時間ta1、tb1、tc1、ta2、tb2、tc2、ta3、tb2、tc3の順序および間隔に従い、時間軸上に表示される。
このように、第2の実施形態の変形例では、ユーザにより清書されたテキストである第2テキストの各部分に対して、例えば実際の会議の発言がなされた時刻に対応する時間情報が、複数の音データに基づき関連付けられる。そのため、条件が異なる複数の端末装置で録音された音データのそれぞれが、発言による音声を部分的に含んでいなくても、会議全体における発言の流れを把握することが可能となる。
(第3の実施形態)
次に、第3の実施形態について説明する。第3の実施形態は、上述した第1の実施形態に係る情報処理システム1を、成果物生成システムに適用させた例である。成果物生成システムは、例えば、1以上の端末装置により更新された共有データを、それぞれ1以上の端末装置を含む複数のグループからそれぞれ集め、集めた複数の共有データを指定したタイミングで合成して、その時点での成果物としての成果物データを生成する。
図24は、図1に示したサーバ10に対応する、第3の実施形態に係るサーバ10’の機能を説明するための機能ブロック図である。なお、図24において、上述した図5と共通する部分には同一の符号を付して、詳細な説明を省略する。また、サーバ10のハードウェア構成は、図2で説明した構成をそのまま適用できるので、ここでの説明を省略する。
図24において、サーバ10’は、通信部120と、制御部121と、記憶部122と、選択部1042と、1以上のプロジェクト管理部1044とを含む。通信部120、制御部121、記憶部122、選択部1042および1以上のプロジェクト管理部1044は、CPU100上で動作するプログラムにより実現される。これに限らず、通信部120、制御部121、記憶部122、選択部1042および1以上のプロジェクト管理部1044のうち一部または全部を、互いに協働して動作するハードウェア回路により構成してもよい。
サーバ10’は、ウェブブラウザなどを実行する複数の端末装置20aからのアクセスを受け付ける。そして、サーバ10’は、複数の端末装置20aのそれぞれに対して、その端末装置20aが要求した情報を提供する。
また、サーバ10’は、複数の端末装置20aが更新することが可能な少なくとも1つの共有データを管理する。より詳しくは、サーバ10’は、複数の端末装置20aのそれぞれが、既存の共有データの参照、新規の共有データの登録、既存の共有データの変更および既存の共有データの削除等をすることができるように、少なくとも1つの共有データを管理する。
また、サーバ10’は、それぞれの端末装置20aに表示された画像である端末画像を取得し、端末画像のログを記憶する。また、サーバ10’は、管理している共有データのログを記憶する。また、サーバ10’は、管理している少なくとも1つの共有データを含む成果物データを生成する。
ここで、共有データは、例えば、テキストデータ、画像データ、動画像データ、音楽データ、文書データまたはプログラムデータ(スクリプトデータ)等のどのようなデータであってもよい。成果物データは、例えば、少なくとも1つの共有データを合成して文書化したデータである。例えば、成果物データは、テキストデータまたは画像データである共有データを、所定の位置に配置したPDF(Portable Document Format)データ等の文書データである。また、成果物データは、テキストデータ、画像データ、動画像データ、音楽データ、文書データおよびプログラムデータ等を合成したウェブ文書データであってもよい。
サーバ10’は、プロジェクト毎に、複数のユーザによるグループを形成する。サーバ10’は、プロジェクト毎に、ユーザ間のコミュニケーションを実現させる。また、サーバ10’は、プロジェクト毎にプロジェクト管理部1044を有する。
図24において、選択部1042は、ユーザ認証がされた端末装置20aからアクセスされた場合、図25に示すようなプロジェクト選択画面1200を端末装置20aに提供して、端末装置20aのディプレイ214に表示させる。プロジェクト選択画面1200は、管理している少なくとも1つのプロジェクトの中から、参加する1つのプロジェクトを端末装置20aに選択させるための画面である。端末装置20aは、ユーザにより何れかのプロジェクトが選択された場合、選択されたプロジェクトを示す選択情報をサーバ10’に送信する。
選択部1042は、端末装置20aからの選択情報に応じて、その端末装置20aが参加するプロジェクトを選択する。選択部1042は、端末装置20aからの選択情報に応じて選択されたプロジェクトに対応するプロジェクト管理部1044を呼び出し、そのプロジェクト管理部1044とその端末装置20aとの間の情報のやり取りを可能とする。
それぞれのプロジェクト管理部1044は、対応するプロジェクトに参加するそれぞれの端末装置20aからアクセスを受け付ける。また、それぞれのプロジェクト管理部1044は、対応するプロジェクトに関する各種の情報処理を実行する。
記憶部122は、それぞれのプロジェクト管理部1044が管理するデータを、プロジェクト毎に記憶装置11に記憶させる。これに限らず、記憶部122は、それぞれのプロジェクト管理部1044が管理するデータをストレージ103に記憶させてもよいし、当該データを記憶装置11およびストレージ103にそれぞれ記憶させてもよい。
図26は、第3の実施形態に係るプロジェクト管理部1044の機能を説明するための機能ブロック図である。プロジェクト管理部1044は、テキスト処理部1100と、端末管理部1101と、共有データ管理部1102と、成果物管理部1103と、主画面提供部1104と、時間管理部1105とを含む。
図27は、第3の実施形態に係るテキスト処理部1100の機能を説明するための一例の機能ブロック図である。テキスト処理部1100は、検出部123と、収集部124と、関連付け部125と、表示情報生成部126とを含み、図5で説明したサーバ10の機能の一部を実現する。すなわち、第3の実施形態に係るサーバ10’は、第1の実施形態に係るサーバ10の機能を含む。
図26の説明に戻り、主画面提供部1104は、それぞれの端末装置20aの画面に、例えば、図28に示すように、操作領域1320と、再生領域1340と、作業領域1360と、時間管理領域1380とを含む主画面1300を表示させる。
主画面1300において、操作領域1320には、各種の操作ボタン1310a、1310bおよび1310cが表示される。操作ボタン1310aは、例えば再生領域1340の表示を制御するためのボタン、操作ボタン1310bは、成果物データ作成を指示するためのボタン、操作ボタン1310cは、音声収集およびテキスト変換の開始を指示する画面を表示させるためのボタンである。
主画面1300において、再生領域1340には、プロジェクトに参加するそれぞれの端末装置20aに表示された画像である端末画像が表示される。作業領域1360には、プロジェクトに参加するそれぞれの端末装置20aからアクセス可能な共有データが表示される。時間管理領域1380には、時間の経過および表示する画像およびテキストの時刻に関する情報、および、プロジェクトの進行の管理をするための情報が表示される。
図26の説明に戻り、端末管理部1101は、端末画像取得機能と、端末ログ生成機能と、端末画像表示制御機能とを含む。端末管理部1101は、端末画像取得機能により、それぞれの端末装置20aに表示された画像である端末画像を取得する。端末管理部1101は、端末ログ生成機能により、端末画像取得機能により取得された端末画像に基づき、端末装置20a毎に端末画像のログを生成し、生成した端末画像のログを時刻情報と関連付けて、記憶部122により例えば記憶装置11に記憶させる。
端末管理部1101は、端末画像表示制御機能により、それぞれの端末装置20aに表示された端末画像を、対象の端末装置20aの画面における主画面1300の再生領域1340に表示させる。この場合において、端末管理部1101は、端末画像取得機能により取得したリアルタイムの端末画像を再生領域1340に表示させる。これに限らず、端末管理部1101は、記憶部122により、記憶装置11から端末画像の最新のログを取得して、再生領域1340に表示させてもよい。
また、ユーザは、主画面1300の時間管理領域1380に対する操作により、過去の時刻(第1時刻)を指定することができる。端末管理部1101は、端末画像表示制御機能により、対象の端末装置20aにより第1時刻が指定された場合、当該指定された第1時刻の端末画像のログを記憶装置11から取得して、対象の端末装置20aの画面における主画面1300の再生領域1340に表示させる。これにより、端末管理部1101は、過去に表示された端末画像をユーザに提供することができる。
共有データ管理部1102は、共有データ管理機能と、共有データログ生成機能と、共有データ表示制御機能とを含む。共有データ管理部1102は、共有データ管理機能により、少なくとも1つの共有データを管理する。さらに、共有データ管理部1102は、共有データ管理機能により、プロジェクトに参加しているそれぞれの端末装置20aから、共有データへのアクセスを受け付ける。
さらにまた、共有データ管理部1102は、共有データ管理機能により、1つのプロジェクトに対して少なくとも1つのワークシートを設定する。ワークシートは、共有データを管理するためのインデックスを示す情報である。共有データ管理部1102は、共有データ管理機能により、共有データを何れかのワークシートに関連付けて管理する。例えば、共有データ管理部1102は、作業領域1360に表示される各共有データを、1つのワークシートに関連付けて管理する。
共有データ管理部1102は、共有データログ生成機能により、管理されている共有データのログを生成し、生成した共有データのログを時刻情報と関連付けて、記憶部122により例えば記憶装置11に記憶させる。
共有データ管理部1102は、共有データ表示制御機能により、少なくとも1つの共有データを、対象の端末装置20aの画面における主画面1300の作業領域1360に表示させる。この場合において、共有データ管理部1102は、共有データ表示制御機能により、管理されている最新の共有データを作業領域1360に表示させる。これに限らず、共有データ管理部1102は、記憶部122により、記憶装置11から共有データの最新のログを取得して、作業領域1360に表示させてもよい。
また、ユーザは、主画面1300の時間管理領域1380を操作して、過去の時刻(第2時刻)を指定することができる。共有データ管理部1102は、共有データ表示制御機能により、対象の端末装置20aにより第2時刻が指定された場合、第2時刻の共有データのログを記憶装置11から取得して、対象の端末装置20aの画面における主画面1300の作業領域1360に表示させる。これにより、共有データ管理部1102は、過去に表示された共有データをユーザに提供することができる。
成果物管理部1103は、成果物生成機能と、成果物表示制御機能とを含む。成果物管理部1103は、成果物生成機能により、特定のユーザの端末装置20aからの操作ボタン1310bに対する操作に応じて、少なくとも1つの共有データを含む成果物データを生成する。成果物管理部1103は、成果物生成機能により生成した成果物データを、記憶部122により例えば記憶装置11に記憶させる。成果物管理部1103は、成果物表示制御機能により、記憶装置11から成果物データを取得して、対象の端末装置20aの画面における主画面1300に設けられる成果物表示領域に表示させる。
時間管理部1105は、時間の経過および表示する画像およびテキストの時刻に関する情報を、対象の端末装置20aの画面における主画面1300の時間管理領域1380に表示させる。時間管理部1105は、例えば、現在時刻を示す情報と、過去の端末画像を示すサムネイル画像と、過去の共有データを示すサムネイル画像とを時間管理領域1380に表示させる。さらに、時間管理部1105は、テキスト処理部1100において収集され時間情報を関連付けられたテキストを、時間管理領域1380に表示させる。
また、時間管理部1105は、例えば、再生領域1340に表示させる端末画像のログの時刻(第1時刻)、および、作業領域1360に表示させる共有データのログの時刻(第2時刻)を制御するためのユーザインターフェイス等を、時間管理領域1380に表示させる。
次に、第3の実施形態に係るサーバ10’におけるテキスト収集および表示処理について、上述した図6および図8、ならびに、図28を参照しながら説明する。図28を参照し、対象の端末装置20aは、主画面1300の操作ボタン1310cが操作されると、上述した図8のフローチャートの処理を開始する。すなわち、当該端末装置20aは、操作ボタン1310cに対する操作に応じて、図8のステップS100に従い、サーバ10’に対してテキスト化ツール21を要求する。サーバ10’は、この要求に応じて、当該端末装置20aに対してテキスト化ツール21を送信する。
端末装置20aは、送信されたテキスト化ツール21をダウンロードして取得する(図8のステップS101)。これにより、端末装置20a上に取得部223(図6参照)が形成され、端末装置20aに図9に示したテキスト化ツール画面250が表示される。図29は、第3の実施形態に係る、テキスト化ツール画面250の表示の例を示す。この例では、テキスト化ツール画面250が主画面1300に対してオーバーラップされて表示されている。
上述したように、テキスト化ツール画面250において、録音ボタン251が操作されると、取得部223(図6参照)による録音が開始される。さらに、テキスト化ボタン252が操作されると、録音ボタン251の操作に応じて録音された音データのテキスト化処理が開始される(図8のステップS102)。最小化ボタン254を操作することで、テキスト化ツール画面250が最小化され、例えば主画面1300における作業の邪魔にならないようにできる。テキスト化ツール画面250が最小化されている場合でも、録音およびテキスト化処理は継続される。
以降、図8のステップS103〜ステップS106の処理に従い、録音終了の判定がなされるまで、録音およびテキスト化処理が実行される。
図8のステップS105の処理において説明したように、端末装置20aは、テキスト化ツール21で取得されたワードおよび時間情報を、サーバ10’に送信する。端末装置20aから送信されたワードおよび時間情報は、サーバ10’において、テキスト処理部1100に含まれる収集部124に収集される。収集部124は、収集したワードおよび時間情報を、時間管理部1105に渡す。また、収集部124は、収集したワードおよび時間情報を、例えば共有データ管理部1102に渡す。共有データ管理部1102は、渡されたワードおよび時間情報を、作業領域1360に対応するワークシートに関連付けて、記憶部122により記憶装置11に記憶させる。
サーバ10’において、時間管理部1105は、テキスト処理部1100の収集部124から渡されたワードすなわちテキストを、対応する時間情報に従い、例えば主画面1300の時間管理領域1380に表示させる。
図30は、第3の実施形態に係る、時間管理部1105により表示される時間管理領域1380の例を示す。時間管理部1105は、時間管理領域1380に、タイムラインバー1381と、現在時刻線1382とを表示させる。
タイムラインバー1381は、現在時刻を含む所定の時間範囲の時刻を表す。例えば、図30の例では、タイムラインバー1381は、8時50分から10時20分までの範囲の時刻を表している。現在時刻線1382は、タイムラインバー1381における現在時刻に対応する位置を示す。図30の例では、現在時刻線1382は、9時55分を現在時刻として示している。時間管理部1105は、時間の経過に従って、タイムラインバー1381の表示範囲と、現在時刻線1382の位置とを相対的に移動させる。
時間管理部1105は、時間管理領域1380に対して、端末画像のログのサムネイル画像1383、1383、…を、タイムラインバー1381における端末画像のログの生成時刻に対応する位置にさらに表示させる。例えば、時間管理部1105は、時間管理領域1380に、内容が更新された時刻における端末画像のサムネイル画像1383を表示させる。
また、時間管理部1105は、共有データのサムネイル画像1383を、タイムラインバー1381における端末画像のログの生成時刻に対応する位置に表示させてもよい。例えば、時間管理部1105は、内容が更新された時刻における共有データのサムネイル画像1383を表示させる。時間管理部1105は、ユーザによる操作に応じて、時間管理領域1380に端末画像のサムネイル画像1383と、共有データのサムネイル画像1383とのうち何れを表示させるかを切り替える。
さらに、時間管理部1105は、時間管理領域1380に対して、テキスト処理部1100の収集部124から渡されたテキスト1384、1384、…を、タイムラインバー1381における当該テキストに関連付けられた時間情報に対応する位置にさらに表示させる。
なお、図30の例では、録音開始マーク1387により示される時刻(例えば8時45分)から録音およびテキスト化処理が開始されている。そのため、時間管理領域1380には、この録音開始マーク1387が示す時刻以降の時間情報が関連付けられたテキスト1384、1384、…が表示されている。
なお、図30において、第1時刻マーク1385は、再生領域1340に表示する端末画像のログの時刻(第1時刻)を指定する。ユーザ操作に応じて第1時刻マーク1385の位置をタイムラインバー1381における過去の時刻に対応する位置に移動させることで、再生領域1340に、過去に表示された端末画像が表示される。また、第2時刻マーク1386は、作業領域1360に表示する共有データのログの時刻(第2時刻)を指定する。ユーザの操作に応じて第2時刻マーク1386の位置をタイムラインバー1381における過去の時刻に対応する位置に移動させることで、作業領域1360には、過去に表示された共有データが表示される。
第3の実施形態に係るサーバ10’は、成果物データの生成に関する議事録を作成することができる。図31は、第3の実施形態に係る、サーバ10’において成果物管理部1103が作成する議事録データの例を示す。
図31において、議事録データ1400は、成果物データ情報1401と、共有データリスト1402と、発言リスト1403とを含むデータである。共有データリスト1402は、例えば、その成果物データ情報1401に対応するワークシートに関連付けられた少なくとも共有データと、その共有データを生成したユーザと、生成した日時とを含む。また、発言リスト1403は、当該成果物データ情報に対応するワークシートに関連付けられた少なくとも発言データ(テキスト)と、発言データの発言を行ったユーザと、発言データに関連付けられた日時(時間情報)とを含む。成果物管理部1103は、このような議事録データ1400を生成することにより、後で成果物データの内容や、議事の流れなどを確認させることができる。
第2の実施形態で説明した清書テキストに基づき、議事録データ1400の発言リスト1403の内容を書き換えることができる。例えば、図22を用いて説明した結果データ340に含まれる時間情報と、各端末装置20aを示す情報と、第2テキスト330の各部分のテキストを用いて、発言リスト1403の日時、ユーザおよび発言データをそれぞれ書き換える。
このように、第3の実施形態では、成果物データを生成するために用いる端末画像および共有データと、共有データの更新過程などにおいてなされた発言に基づくテキストとを、共通の時間軸で管理できる。そのため、成果物データを生成した際の処理の流れなどの把握が容易となり、作業の効率を向上させることが可能となる。
なお、上述の実施形態は、本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形による実施が可能である。