JP2001160064A - Document processing device, document processing method, recording medium - Google Patents
Document processing device, document processing method, recording mediumInfo
- Publication number
- JP2001160064A JP2001160064A JP34470099A JP34470099A JP2001160064A JP 2001160064 A JP2001160064 A JP 2001160064A JP 34470099 A JP34470099 A JP 34470099A JP 34470099 A JP34470099 A JP 34470099A JP 2001160064 A JP2001160064 A JP 2001160064A
- Authority
- JP
- Japan
- Prior art keywords
- document
- video
- output
- data
- video data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
(57)【要約】
【課題】 ビデオデータ出力に応じた文書出力の実現。
【解決手段】 ビデオデータの出力と連動して、ビデオ
データに対応する電子文書データの内容が提示出力され
るようにする。電子文書データについては、本文又は要
約文の表示、テロップ表示、読み上げなどの態様で提示
されるようにする。またビデオデータのタイムコードに
応じて、電子文書の提示を切り換える。
(57) [Summary] [PROBLEMS] Realization of document output according to video data output. SOLUTION: The content of electronic document data corresponding to the video data is presented and output in conjunction with the output of the video data. The electronic document data is presented in a form such as display of a text or a summary, display of a telop, and reading aloud. The presentation of the electronic document is switched according to the time code of the video data.
Description
【0001】[0001]
【発明の属する技術分野】本発明は電子文書処理に関
し、特にビデオデータと、関連する電子文書データを連
動出力する文書処理装置、及びその文書処理方法、さら
にはその文書処理方法の動作プログラムを記録した記録
媒体に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to electronic document processing, and more particularly, to a document processing apparatus for interlocking and outputting video data and related electronic document data, a document processing method thereof, and an operation program of the document processing method. It relates to a recording medium that has been used.
【0002】[0002]
【従来の技術】従来、インターネットにおいて、ウィン
ドウ形式でハイパーテキスト型情報を提供するアプリケ
ーションサービスとしてWWW(World Wide Web)が提
供されている。2. Description of the Related Art Conventionally, WWW (World Wide Web) has been provided as an application service for providing hypertext information in a window format on the Internet.
【0003】WWWは、文書の作成、公開または共有化
の文書処理を実行し、新しいスタイルの文書の在り方を
示したシステムである。しかし、文書の実際上の利用の
観点からは、文書の内容に基づいた文書の分類や要約と
いった、WWWを越える高度な文書処理が求められてい
る。このような高度な文書処理には、文書の内容の機械
的な処理が不可欠である。[0003] The WWW is a system for executing document processing for creating, publishing, or sharing a document, and showing the way of a new style document. However, from the viewpoint of practical use of documents, advanced document processing beyond WWW, such as classification and summarization of documents based on the contents of the documents, is required. For such advanced document processing, mechanical processing of the contents of the document is indispensable.
【0004】しかしながら、文書の内容の機械的な処理
は、以下のような理由から依然として困難である。第1
に、ハイパーテキストを記述する言語であるHTML
(Hyper Text Markup Language)は、文書の表現につい
ては規定するが、文書の内容についてはほとんど規定し
ない。第2に、文書間に構成されたハイパーテキストの
ネットワークは、文書の読者にとって文書の内容を理解
するために必ずしも利用しやすいものではない。第3
に、一般に文章の著作者は読者の便宜を念頭に置かずに
著作するが、文書の読者の便宜が著作者の便宜と調整さ
れることはない。However, mechanical processing of the contents of a document is still difficult for the following reasons. First
HTML, a language that describes hypertext
(Hyper Text Markup Language) specifies the expression of a document, but hardly specifies the content of the document. Second, a network of hypertexts formed between documents is not always easy for a reader of the document to understand the contents of the document. Third
In general, the author of a document writes without considering the convenience of the reader, but the convenience of the reader of the document is not adjusted to the convenience of the author.
【0005】このように、WWWは新しい文書の在り方
を示したシステムであるが、文書を機械的に処理しない
ので、高度な文書処理をおこなうことができなかった。
換言すると、高度な文書処理を実行するためには、文書
を機械的に処理することが必要となる。[0005] As described above, the WWW is a system showing the way of a new document. However, since the document is not mechanically processed, advanced document processing cannot be performed.
In other words, in order to perform advanced document processing, it is necessary to process the document mechanically.
【0006】そこで、文書の機械的な処理を目標とし
て、文書の機械的な処理を支援するシステムが自然言語
研究の成果に基づいて開発されている。自然言語研究に
よる文書処理として、文書の著作者等による文書の内部
構造についての属性情報、いわゆるタグの付与を前提と
した、文書に付与されたタグを利用する機械的な文書処
理が提案されている。Therefore, a system for supporting mechanical processing of documents has been developed based on the results of natural language research, with the goal of mechanical processing of documents. As a document processing based on natural language research, mechanical document processing using tags attached to a document has been proposed on the assumption that attribute information about the internal structure of the document by the author of the document, so-called tags are added. I have.
【0007】[0007]
【発明が解決しようとする課題】ところで、近年のコン
ピュータの普及や、ネットワーク化の進展に伴い、文章
処理や、文書の内容に依存した索引などで、テキスト文
書の作成、ラベル付け、変更などをおこなう文書処理の
高機能化が求められている。たとえば、ユーザの要望に
応じた文書の要約や、文書の分類等が望まれる。また、
文書やその要約を表示する文書ビューワや表示部の形態
に適した表示スタイルや、表示とともに行われる読み上
げ機能、さらには文書や画像の表示と読み上げの連動な
ど、よりユーザーにとって好適な処理が求められてい
る。そしてさらに、文書データに関連して動画や静止画
などのビデオデータを出力することができるようにすれ
ば、ユーザーにとって、より多様かつ高度であり、さら
に的確な情報を提供できることが期待されるが、従っ
て、各種の文書処理に加えてビデオデータとの連携化が
望まれている。By the way, with the recent spread of computers and the progress of networking, text processing, creation of text documents, labeling, change, and the like have been performed by using an index depending on the contents of the documents. There is a demand for enhanced document processing to be performed. For example, it is desired to summarize a document or classify a document according to a user's request. Also,
Processing that is more suitable for users, such as display styles suitable for the form of the document viewer or display unit that displays documents and their summaries, read-aloud functions that accompany display, and interlocking of display of documents and images with read-aloud is required. ing. Furthermore, if it is possible to output video data such as moving images and still images in association with document data, it is expected that users will be able to provide more diverse, sophisticated, and more accurate information. Therefore, it is desired to cooperate with video data in addition to various types of document processing.
【0008】[0008]
【課題を解決するための手段】本発明は、このような事
情に鑑みて提案されたものであって、ビデオデータの出
力とともに適切な態様で文書データの出力が行われるよ
うにすることを目的とする。SUMMARY OF THE INVENTION The present invention has been proposed in view of such circumstances, and has as its object to output document data in an appropriate mode together with the output of video data. And
【0009】このため本発明の文書処理装置は、電子文
書データとビデオデータの対応関係を判別する判別手段
と、ビデオデータを出力する制御を行うビデオ出力制御
手段と、前記ビデオ出力制御手段の制御に基づくビデオ
データの出力と連動して、前記判別手段により判別され
た、ビデオデータに対応する電子文書データの内容を提
示出力する制御を行う文書出力制御手段と、を備えるよ
うにする。また前記判別手段は、電子文書データに付加
されたビデオデータ指定情報、又はビデオデータに付加
されたタイムコードにより、電子文書データとビデオデ
ータの対応関係を判別するようにする。また前記文書出
力制御手段は、電子文書データの本文又は要約文の表示
が実行されるように制御を行う。或いは、電子文書デー
タの本文又は要約文についてのテロップの表示が実行さ
れるように制御を行う。或いは、電子文書データの本文
又は要約文についての読み上げ出力が実行されるように
制御を行う。また前記文書出力制御手段は、前記ビデオ
出力制御手段の制御に基づいて出力されているビデオデ
ータのタイムコードを監視して、電子文書データの提示
出力部分を切り換えるようにする。For this reason, the document processing apparatus of the present invention comprises a determining means for determining the correspondence between electronic document data and video data, a video output control means for controlling output of video data, and a control of the video output control means. Document output control means for controlling the presentation and output of the contents of the electronic document data corresponding to the video data determined by the determination means in conjunction with the output of the video data based on the video data. The determining means determines the correspondence between the electronic document data and the video data based on the video data designation information added to the electronic document data or the time code added to the video data. Further, the document output control means performs control such that display of a text or a summary of electronic document data is executed. Alternatively, control is performed so that the display of a telop for the main text or the summary text of the electronic document data is executed. Alternatively, control is performed so that the text-to-speech output of the text or the summary sentence of the electronic document data is executed. The document output control means monitors the time code of the video data output under the control of the video output control means, and switches the presentation output portion of the electronic document data.
【0010】本発明の文書処理方法は、電子文書データ
とビデオデータの対応関係を判別する判別手順と、ビデ
オデータを出力する制御を行うビデオ出力制御手順と、
前記ビデオ出力制御手順での制御に基づくビデオデータ
の出力と連動して、前記判別手順により判別された、ビ
デオデータに対応する電子文書データの内容を提示出力
する制御を行う文書出力制御手順と、が行われるように
する。According to the document processing method of the present invention, a discrimination procedure for discriminating a correspondence between electronic document data and video data, a video output control procedure for controlling output of video data,
In conjunction with the output of the video data based on the control in the video output control procedure, the document output control procedure for performing control to present and output the contents of the electronic document data corresponding to the video data determined by the determination procedure, Is done.
【0011】また本発明の記録媒体は、以上のような各
手順を有する動作制御プログラムが記録されているもの
とする。さらに動作制御プログラムとともに、電子文書
データ又はビデオデータを記録し、これらを文書処理装
置に提供できるようにする。It is also assumed that the recording medium of the present invention has recorded thereon an operation control program having the above-described procedures. Further, together with the operation control program, electronic document data or video data is recorded, and these can be provided to the document processing apparatus.
【0012】[0012]
【発明の実施の形態】以下、本発明の実施の形態につい
て次の順序で説明する。 1.文書処理装置の構成 2.文書データ構造 3.文書データに対する手動分類処理 3−1 処理手順 3−2 インデックス作成 3−3 文書閲覧/分類作成/分類操作 3−4 分類モデル作成/登録 4.文書データに対する自動分類処理 4−1 処理手順 4−2 自動分類 5.読み上げ処理 6.要約作成/表示処理 7.ビデオファイルの出力処理 7−1 ビデオファイル及びタグ 7−2 ビデオ出力処理 8.文書処理装置の機能ブロック構成 9.ビデオ及び連動文書表示出力処理 10.ビデオ及び連動文書読み上げ出力処理 11.変形例Embodiments of the present invention will be described below in the following order. 1. 1. Configuration of document processing device 2. Document data structure 3. Manual classification process for document data 3-1 Processing procedure 3-2 Index creation 3-3 Document browsing / classification creation / classification operation 3-4 Classification model creation / registration 4. Automatic classification processing for document data 4-1 Processing procedure 4-2 Automatic classification Speech processing 6. 6. Summary creation / display processing 7. Output processing of video file 7-1 Video file and tag 7-2 Video output processing 8. Functional block configuration of document processing device 9. Video and linked document display output processing 10. Video and linked document reading output processing Modified example
【0013】1.文書処理装置の構成 本発明の実施の形態の文書処理装置1は、図1に示すよ
うに、制御部11およびインターフェース12を備える
本体10と、ユーザからの入力を受けて本体10に送る
入力部20と、外部との信号の送受信を行う通信部21
と、本体10からの出力を表示する表示部30と、記録
媒体32に対して情報を記録/再生する記録/再生部3
1と、音声出力部33と、HDD(ハードディスクドラ
イブ)34を有している。1. 1. Configuration of Document Processing Apparatus As shown in FIG. 1, a document processing apparatus 1 according to an embodiment of the present invention includes a main body 10 including a control unit 11 and an interface 12, and an input unit that receives an input from a user and sends the input to the main body 10. 20 and a communication unit 21 for transmitting and receiving signals to and from the outside
A display unit 30 for displaying an output from the main body 10; and a recording / reproducing unit 3 for recording / reproducing information on / from a recording medium 32.
1, an audio output unit 33, and a hard disk drive (HDD).
【0014】本体10は、制御部11およびインターフ
ェース12を有し、この文書処理装置1の主要な部分を
構成している。制御部11は、この文書処理装置1にお
ける処理を実行するCPU13と、揮発性のメモリであ
るRAM14と、不揮発性のメモリであるROM15と
を有している。CPU13は、たとえばROM15に記
録された手順にしたがって、必要な場合にはデータを一
時的にRAM14に格納して、プログラムを実行するた
めの制御をおこなう。この制御部11の動作としては、
詳しくはそれぞれ後述していくが、供給された文書デー
タに関する分類処理、要約作成処理、読み上げ動作のた
めの音声読み上げ用ファイルの生成処理、及びこれらの
処理に必要な文書解析などがある。さらに、文書データ
に関連するビデオデータの出力制御処理も行う。そして
これらの動作のために必要なプログラムやアプリケーシ
ョンソフトが、ROM15や、HDD34、あるいは記
録媒体32に記憶されている。なお、制御部11が用い
る文書処理プログラムは上記のようにあらかじめROM
15に格納されたり、あるいは、記録媒体32やHDD
34から取り込むことが考えられるが、例えば通信部2
1を介してインターネット等のネットワークから、外部
サーバ等が提供する文書処理プログラムをダウンロード
することも考えられる。The main body 10 has a control unit 11 and an interface 12, and constitutes a main part of the document processing apparatus 1. The control unit 11 has a CPU 13 that executes processing in the document processing apparatus 1, a RAM 14 that is a volatile memory, and a ROM 15 that is a non-volatile memory. The CPU 13 temporarily stores data, if necessary, in the RAM 14 according to a procedure recorded in the ROM 15, for example, and performs control for executing the program. The operation of the control unit 11 is as follows.
As will be described later in detail, there are a classification process for the supplied document data, a summary creation process, a process of generating a speech reading file for a reading operation, and a document analysis required for these processes. Further, output control processing of video data related to the document data is also performed. The programs and application software necessary for these operations are stored in the ROM 15, the HDD 34, or the recording medium 32. The document processing program used by the control unit 11 is stored in a ROM
15 or a recording medium 32 or HDD
34, for example, the communication unit 2
It is also conceivable to download a document processing program provided by an external server or the like from a network such as the Internet via the Internet.
【0015】インターフェース12は、制御部11、入
力部20、通信部21、表示部30、記録/再生部3
1、音声出力部33、HDD34に接続される。そして
インターフェース12は、制御部11の制御の下に、入
力部20からのデータの入力、通信部21との間のデー
タの入出力、表示部30へのデータの出力、記録/再生
部31に対するデータの入出力、音声出力部33へのデ
ータの出力、HDD34に対するデータの入出力の各動
作を行う。具体的には制御部11と上記各部の間でのデ
ータの入出力のタイミングを調整したり、データの形式
を変換することなどを行う。The interface 12 includes a control unit 11, an input unit 20, a communication unit 21, a display unit 30, and a recording / reproducing unit 3.
1. Connected to the audio output unit 33 and HDD. Under the control of the control unit 11, the interface 12 inputs data from the input unit 20, inputs and outputs data to and from the communication unit 21, outputs data to the display unit 30, and controls the recording / reproducing unit 31. Each operation of data input / output, data output to the audio output unit 33, and data input / output to the HDD 34 is performed. More specifically, it adjusts the timing of data input / output between the control unit 11 and each of the above units, converts the format of data, and the like.
【0016】入力部20は、この文書処理装置1に対す
るユーザの入力を受ける部分である。この入力部20
は、たとえばキーボードやマウスにより構成される。ユ
ーザは、この入力部20を用い、キーボードによリキー
ワード等の文字を入力したり、マウスにより表示部30
に表示されている電子文書のエレメントを選択すること
などができる。なお、以下では文書処理装置1で扱う電
子文書を、「文書データ」又は単に「文書」と称するこ
とにする。また「エレメント」とは文書を構成する要素
であって、たとえば文書、文および語が含まれる。The input section 20 is a section for receiving an input from the user to the document processing apparatus 1. This input unit 20
Is composed of, for example, a keyboard and a mouse. The user uses the input unit 20 to input characters such as keywords using a keyboard, or to display the display unit 30 using a mouse.
For example, the user can select an element of the electronic document that is displayed in. Hereinafter, an electronic document handled by the document processing apparatus 1 is referred to as “document data” or simply “document”. The “element” is an element constituting a document, and includes, for example, a document, a sentence, and a word.
【0017】通信部21は、この文書処理装置1に外部
からたとえば通信回線を介して送信される信号を受信し
たり、通信回線に信号を送信する部位である。この通信
部21は、外部から送信された1又は複数の文書等のデ
ータを受信し、受信したデータを本体10に送る。もち
ろん通信回線を介して外部装置にデータを送信すること
も行われる。また、文書データに付随して、もしくは独
立して、1又は複数のビデオデータ(ビデオファイル)
が通信部21により取り込まれることもある。The communication unit 21 is a unit that receives a signal transmitted from the outside to the document processing apparatus 1 via, for example, a communication line, and transmits a signal to the communication line. The communication unit 21 receives one or a plurality of data such as documents transmitted from the outside, and sends the received data to the main body 10. Of course, data is transmitted to an external device via a communication line. Also, one or a plurality of video data (video files) accompanying or independently of the document data
May be captured by the communication unit 21.
【0018】表示部30は、この文書処理装置1の出力
としての文字や画像情報を表示する部位である。この表
示部30は、たとえば陰極線管(cathode ray tube;CR
T)や液晶表示装置(Liquid crystal display;LCD)な
どにより構成され、たとえば単数または複数のウィンド
ウを表示し、このウィンドウ上に文字、図形等を表示す
る。The display section 30 is a section for displaying characters and image information as an output of the document processing apparatus 1. The display unit 30 is, for example, a cathode ray tube (CR).
T), a liquid crystal display (LCD), or the like, for example, displays one or more windows, and displays characters, figures, and the like on these windows.
【0019】記録/再生部31は、たとえばいわゆるフ
ロッピーディスクのような記録媒体32に対してデータ
の記録/再生をおこなう。なお、ここでは記録媒体32
の例としてフロッピーディスク(磁気ディスク)を例を
あげているが、もちろん光ディスク、光磁気ディスク、
メモリカードなど、可搬性メディアであれば記録媒体3
2の例として適用できる。そして記録/再生部31は、
メディアに応じた記録再生装置(ディスクドライブ、カ
ードドライブなど)であればよい。The recording / reproducing section 31 records / reproduces data on / from a recording medium 32 such as a so-called floppy disk. Here, the recording medium 32
An example of a floppy disk (magnetic disk) is given as an example of an optical disk, a magneto-optical disk,
Recording medium 3 if it is a portable medium such as a memory card.
2 can be applied as an example. Then, the recording / reproducing unit 31
Any recording / reproducing device (disk drive, card drive, etc.) according to the media may be used.
【0020】記録媒体32が、文書を処理するための文
書処理プログラムが記録されているものである場合は、
記録/再生部31は、その記録媒体32から文書処理プ
ログラムを読み出して制御部11に供給することができ
る。また記録媒体32に文書データやビデオデータが記
録されていれば、記録/再生部31でそれを読み出して
制御部11に供給することができる。即ち文書処理装置
1にとって、通信部21による文書データ及びビデオデ
ータの受信とは別の、文書データ及びビデオデータの入
力態様となる。さらに、制御部11は当該文書処理装置
1で処理した文書データを記録/再生部31において記
録媒体32に記録させることもできる。When the recording medium 32 stores a document processing program for processing a document,
The recording / reproducing unit 31 can read out the document processing program from the recording medium 32 and supply it to the control unit 11. If document data or video data is recorded on the recording medium 32, the recording / reproduction unit 31 can read out the data and supply the read data to the control unit 11. That is, the document processing apparatus 1 is an input mode of the document data and the video data which is different from the reception of the document data and the video data by the communication unit 21. Further, the control unit 11 can cause the recording / reproducing unit 31 to record the document data processed by the document processing apparatus 1 on the recording medium 32.
【0021】音声出力部33は、文書処理装置1の出力
としての文書を、読み上げ音声として出力する部位であ
る。即ち音声出力部33は、制御部11が文書情報(後
述する読み上げ用ファイル)に基づいた音声合成処理に
より生成した音声信号が供給された際に、その音声信号
の出力処理を行うことで、表示部30とともに文書処理
装置1の出力手段として機能する。The voice output unit 33 is a part for outputting a document as an output of the document processing apparatus 1 as a reading voice. That is, when a voice signal generated by a voice synthesis process based on document information (a reading file to be described later) is supplied by the control unit 11, the voice output unit 33 performs output processing of the voice signal to perform display. Together with the unit 30, it functions as an output unit of the document processing apparatus 1.
【0022】HDD34は、文書処理装置1における大
容量の記録領域を提供する。HDD34は、制御部11
の制御に基づいて情報の記録/再生を行う。このHDD
34は、制御部11で実行される各種処理のためのアプ
リケーションプログラム、例えば音声合成のためのプロ
グラムなどの格納するために用いられたり、例えば当該
文書処理装置1に取り込まれた文書データやビデオデー
タ等を格納しておく部位として用いることなどが可能と
なる。The HDD 34 provides a large-capacity recording area in the document processing apparatus 1. The HDD 34 includes the control unit 11
The recording / reproduction of information is performed based on the control of. This HDD
Reference numeral 34 denotes an application program for various processes executed by the control unit 11, for example, a program for voice synthesis, or the like, or for example, document data or video data loaded into the document processing apparatus 1. Etc. can be used as a part for storing.
【0023】2.文書データ構造 続いて、本例における文書データの構造について説明す
る。本例においては、文書処理は、文書に付与された属
性情報であるタグを参照しておこなわれる。本例で用い
られるタグには、文書の構造を示す統語論的(syntacti
c)タグと、多言語間で文書の機械的な内容理解を可能
にするような意味的(semantic)・語用論的タグとがあ
る。2. Document Data Structure Next, the structure of document data in this example will be described. In this example, document processing is performed with reference to a tag that is attribute information assigned to the document. The tags used in this example include syntactic
c) There are tags and semantic / pragmatic tags that enable mechanical understanding of the content of documents between multiple languages.
【0024】統語論的なタグとしては、文書の内部構造
を記述するものがある。タグ付けによる内部構造は、図
2に示すように、文書、文、語彙エレメント等の各エレ
メントが互いに、通常リンク、参照・被参照リンクによ
りリンクされて構成されている。図中において、白丸
“○”はエレメントを示し、最下位の白丸は文書におけ
る最小レベルの語に対応する語彙エレメントである。ま
た、実線は文書、文、語彙エレメント等のエレメント間
のつながり示す通常リンク(normal link)であり、破
線は参照・被参照による係り受け関係を示す参照リンク
(reference link)である。文書の内部構造は、上位か
ら下位への順序で、文書(documemt)、サブディビジョ
ン(subdivision)、段落(paragraph)、文(sentenc
e)、サブセンテンシャルセグメント(subsentential s
egment)、・・・、語彙エレメントから構成される。こ
のうち、サブディビジョンと段落はオプションである。Some syntactic tags describe the internal structure of a document. As shown in FIG. 2, the internal structure by tagging is configured such that each element such as a document, a sentence, and a vocabulary element is linked to each other by a normal link and a reference / referenced link. In the figure, a white circle “○” indicates an element, and the lowest white circle is a vocabulary element corresponding to the minimum level word in the document. The solid line is a normal link indicating a connection between elements such as a document, a sentence, and a vocabulary element, and the dashed line is a reference link indicating a dependency relationship by reference / reference. The internal structure of a document is document (documemt), subdivision (subdivision), paragraph (paragraph), sentence (sentenc
e), subsentential segment (subsentential s
egment), ..., vocabulary elements. Of these, subdivisions and paragraphs are optional.
【0025】一方、意味論・語用論的なタグ付けとして
は、多義語の意味のように意味等の情報を記述するもの
がある。本例におけるタグ付けは、HTML(Hyper Te
xt Markup Language)と同様なXML(Extensible Mar
kup Language)の形式によるものである。On the other hand, as the semantic / pragmatic tagging, there is a method of describing information such as a meaning like a meaning of a polysemy. Tagging in this example is performed by HTML (Hyper Te
XML (Extensible Mar) similar to xt Markup Language
kup Language).
【0026】タグ付けの一例を次に示すが、文書へのタ
グ付けはこの方法に限られない。また、以下では英語と
日本語の文書の例を示すが、タグ付けによる内部構造の
記述は他の言語にも同様に適用することができる。An example of tagging is shown below, but tagging a document is not limited to this method. In the following, examples of English and Japanese documents are shown, but the description of the internal structure by tagging can be similarly applied to other languages.
【0027】たとえば、“Time flies like an arro
w.”という文については、下記のようなタグ付けをする
ことができる。< >が、文書に対して付与されたタグ
である。For example, “Time flies like an arro
The sentence "w." can be tagged as follows. <> is a tag added to the document.
【0028】 <文><名詞句 語義=“time0”>time</名詞句> <動詞句><動詞 語義=“fly1”>flies</動詞> <副詞句><副詞 語義=like0>like</副詞> <
名詞句>an <名詞 語義=“arrow0”>arrow</名詞></名詞
句> </副詞句></動詞句>.</文><Sentence><noun phrase word meaning = “time0”> time </ noun phrase><verbphrase><verb word meaning = “fly1”> flies <// verb><adverbphrase><adverb word meaning = like0> like < / Adverb><
Noun phrase> an <noun meaning = “arrow0”> arrow </ noun></ noun phrase></ adverb phrase></ verb phrase>. </ Sentence>
【0029】ここで<文>、<名詞>、<名詞句>、<
動詞>、<動詞句>、<副詞>、<副詞句>は、それぞ
れ文、名詞、名詞句、動詞、動詞句、形容詞/副詞(前
置詞句または後置詞句を含む)、形容詞句/副詞句、を
示している。つまり文の統語構造(syntactic structur
e)を表している。Here, <sentence>, <noun>, <noun phrase>, <
Verbs, <verb phrases>, <adverbs>, <adverb phrases> are sentences, nouns, noun phrases, verbs, verb phrases, adjectives / adverbs (including prepositional or postpositional phrases), adjective phrases / adverbial phrases, respectively. Is shown. In other words, the syntactic structur of a sentence
e).
【0030】これらのタグは、エレメントの先端の直前
および終端の直後に対応して配置される。エレメントの
終端の直後に配置されるタグは、記号“ /”によりエ
レメントの終端であることを示している。エレメントと
は統語的構成素、すなわち句、節、および文のことであ
る。なお、語義(word sense)=“time0”は、語“ti
me”の有する複数の意味、すなわち複数の語義のうちの
第0番目の意味を指している。具体的には、語“time”
には少なくとも名詞、形容詞、動詞の意味があるが、こ
こでは語“time”が名詞(=第0番目の意味)であるこ
とを示している。同様に、語“オレンジ”は少なくとも
植物の名前、色、果物の意味があるが、これらも語義に
よって区別することができる。These tags are arranged immediately before the front end and immediately after the end of the element. The tag placed immediately after the end of the element indicates that it is the end of the element by the symbol "/". Elements are syntactic constructs: phrases, clauses, and sentences. Note that the meaning (word sense) = “time0” corresponds to the word “ti”.
It refers to the plural meanings of “me”, that is, the 0th meaning of the plural meanings.
Has at least the meanings of a noun, adjective, and verb. Here, it indicates that the word "time" is a noun (= the 0th meaning). Similarly, the word "orange" has at least the meaning of plant name, color, and fruit, but these can also be distinguished by their meaning.
【0031】本例では、文書データについては、図3に
示すように、表示部30上のウィンドウ101におい
て、その統語構造を表示することができる。このウィン
ドウ101においては、右半面103に語彙エレメント
が、左半面102に文の内部構造がそれぞれ表示されて
いる。In this example, the syntactic structure of the document data can be displayed in the window 101 on the display unit 30, as shown in FIG. In this window 101, vocabulary elements are displayed on the right half 103, and the internal structure of the sentence is displayed on the left half 102.
【0032】例えば図示するようにこのウィンドウ10
1には、タグ付けにより内部構造が記述された文章「A
氏のB会が終わったC市で、一部の大衆紙と一般紙がそ
の写真報道を自主規制する方針を紙面で明らかにし
た。」の一部が表示されている。この文書のタグ付けの
例は次のようになる。For example, as shown in FIG.
1 has a sentence “A” in which the internal structure is described by tagging.
In C City, where his B meeting was over, some popular and general newspapers have stated on paper that they will voluntarily regulate their photographic coverage. Is displayed. An example of tagging this document is as follows:
【0033】<文書><文><副詞句 関係=“場所”
><名詞句><副詞句 場所=“C市”> <副詞句 関係=“主語”><名詞句 識別子=“B
会”><副詞句 関係=“所属”><人名 識別子=
“A氏”>A氏</人名>の</副詞句><組織名 識別子=“B会”>B会</組織名></名詞句>が<
/副詞句> 終わった</副詞句><地名 識別子=“C市”>C市
</地名></名詞句>で、</副詞句><副詞句 関
係=“主語”><名詞句 識別子=“press” 統語=“並列”><名詞句><副詞句>一部の</副詞
句>大衆紙</名詞句>と<名詞>一般紙</名詞><
/名詞句>が</副詞句> <副詞句 関係=“目的語”><副詞句 関係=“内
容” 主語=“press”> <副詞句 関係=“目的語”><名詞句><副詞句><
名詞 共参照=“B会”>そ</名詞>の</副詞句>
写真報道</名詞句>を</副詞句> 自主規制する</副詞句>方針を</副詞句> <副詞句 間係=“位置”>紙面で</副詞句> 明らかにした。</文></文書><Document><sentence><adverb phrase relation = “place”
><Nounphrase><adverb phrase phrase = “C city”><adverb phrase relation = “subject”><noun phrase identifier = “B
Kai ”><adverb phrase relation =“ affiliation ”><person name identifier =
"/ Mr. A"> Mr. A // person name </ adverb phrase><organization name identifier = “B society”> B society </ organization name> // noun phrase>
/ Adverb phrase> finished </ adverb phrase><place name identifier = "C city"> C city </ place name></ noun phrase>, </ adverb phrase><adverb phrase relation = "subject"><noun phrase Identifier = "press" Syntax = "parallel"><nounphrase><adverbphrase> Some </ adverb phrase> popular paper </ noun phrase> and <noun> general paper </ noun><
/ Noun phrase> is </ Adverb phrase><Adverbphrase> Relation = "Object"><Adverb phrase Relationship = "Content" Subject = "press"><Adverb phrase Relation = "Object"><Nounphrase><AdverbPhrase><
Noun co-reference = "B-kai"> so </ noun></ adverb phrase>
Photo reporting </ noun phrase></ adverb phrase> Self-regulating </ adverb phrase> Policy </ adverb phrase><adverb phrase relation = "position"></ adverb phrase> on paper. </ Text></text>
【0034】このようにタグ付されることで、各一対の
タグ< >〜</ >によって文書の構造が表現され
る。例えば<文書>〜</文書>で1つの文書の範囲が
示され、同様に<文>〜</文>で1つの文の範囲が示
される。また例えば、<名詞句 識別子=“B会”>〜
</名詞句>により、「A氏のB会」という部分が「B
会」を識別子とする名詞句として表現される。即ち上記
タグ付により、図3の左半面102に示した文の内部構
造が表現される。By being tagged in this way, the structure of the document is expressed by each pair of tags <> to </>. For example, <document> to </ document> indicates the range of one document, and similarly, <sentence> to </ sentence> indicates the range of one sentence. Also, for example, <Noun phrase identifier = “B meeting”>
According to </ noun phrase>, the part "Mr. A's B meeting"
It is expressed as a noun phrase with "kai" as the identifier. That is, the internal structure of the sentence shown on the left half surface 102 in FIG. 3 is expressed by the tagging.
【0035】さらに、この文書においては、「一部の大
衆紙と一般紙」は、統語=“並列”というタグにより並
列であることが表されている。並列の定義は、係り受け
関係を共有するということである。特に何も指定がない
場合、たとえば、<名詞句関係=x><名詞>A</名
詞><名詞>B</名詞></名詞句>は、AがBに依
存関係があることを表す。関係=xは関係属性を表す。Further, in this document, "part of popular paper and general paper" is expressed in parallel by a tag of syntactic = "parallel". The definition of parallel is to share a dependency relationship. If nothing is specified, for example, <noun phrase relation = x><noun> A </ noun><noun> B <// noun></ noun phrase> indicates that A has a dependency on B Represent. Relation = x represents a relation attribute.
【0036】関係属性は、統語、意味、修辞についての
相互関俵を記述する。主語、目的語、間接目的語のよう
な文法機能、動作主、被動作者、受益者などのような主
題役割、および理由、結果などのような修辞関係はこの
関係属性により記述される。本例では、主語、目的語、
間接目的語のような比較的容易な文法機能について関係
属性を記述する。The relation attribute describes the interaction between syntactic, meaning, and rhetorical. Grammar functions such as subjects, objects, and indirect objects, subject roles such as an actor, a subject, a beneficiary, etc., and rhetorical relations such as a reason and a result are described by the relation attributes. In this example, the subject, object,
Describe relative attributes for relatively easy grammar functions such as indirect objects.
【0037】また、この文書においては、“A氏”、
“B会”、“C市”のような固有名詞について、地名、
人名、組織名等のタグにより属性が記述されている。こ
れら地名、人名、組織名等のタグが付与されることで、
その語が固有名詞であることが表現される。In this document, "Mr. A"
For proper nouns such as "B Association" and "C City", place names,
Attributes are described by tags such as person names and organization names. By adding tags such as place name, person name, organization name, etc.,
It is expressed that the word is a proper noun.
【0038】3.文書データに対する手動分類処理 3−1 処理手順 本例の文書処理装置1では、例えば通信部21(又は記
録/再生部31)により外部から文書データが取り込ま
れると、その文書データを内容に応じて分類する処理を
行う。なお、以下の説明では、外部からの文書データは
通信部21を介して取り込まれるとして述べていくが、
その説明は、外部からフロッピーディスク等の可搬性メ
ディアの形態で供給され、記録/再生部31から文書デ
ータが取り込まれる場合も同様となるものである。3. Manual Classification Processing on Document Data 3-1 Processing Procedure In the document processing apparatus 1 of this example, when document data is taken in from the outside by, for example, the communication unit 21 (or the recording / reproducing unit 31), the document data is converted according to the content. Perform classification processing. In the following description, it is described that document data from the outside is taken in via the communication unit 21.
The description is the same when the document data is supplied from the outside in the form of a portable medium such as a floppy disk and the document data is taken in from the recording / reproducing unit 31.
【0039】分類処理としては、文書データ内容に応じ
てユーザーが手動で分類する手動分類処理と、文書処理
装置1が自動的に分類する自動分類処理がある。これら
の分類処理は、後述する分類モデルに基づいて行われる
わけであるが、文書処理装置1においては、初期状態で
は分類モデルは存在しない。そのため初期状態にある時
点では、手動分類処理として、分類モデルの作成を含む
分類処理が必要になる。そして、分類モデルが生成され
た後においては、入力された文書データに対して自動分
類処理が可能となるものである。まずここでは、最初に
実行することが必要とされる手動分類処理について説明
する。即ちこの手動分類処理とは、初期状態にある文書
処理装置1が外部から送られた文書データを受信した際
に、ユーザーの操作に基づいて、制御部11が分類モデ
ルの作成及び文書データの分類を行う動作となる。As the classification process, there are a manual classification process in which the user manually classifies according to the contents of the document data, and an automatic classification process in which the document processing apparatus 1 automatically classifies. These classification processes are performed based on a classification model described later. However, in the document processing apparatus 1, no classification model exists in an initial state. Therefore, at the time of the initial state, a classification process including creation of a classification model is required as a manual classification process. After the classification model is generated, the input document data can be automatically classified. First, a manual classification process that needs to be performed first will be described. That is, the manual classification process means that when the document processing apparatus 1 in the initial state receives document data sent from the outside, the control unit 11 creates a classification model and classifies the document data based on a user operation. Is performed.
【0040】まず手動分類処理としての全体の処理手順
を図4に示す。なお、各処理ステップの詳細な処理につ
いては後述する。FIG. 4 shows the overall processing procedure as the manual classification processing. The detailed processing of each processing step will be described later.
【0041】図4のステップF11は、文書処理装置1
の受信部21による文書受信処理を示している。このス
テップF11では、受信部21は、たとえば通信回線を
介して送信された1又は複数の文書を受信する。受信部
21は、受信した文書を文書処理装置の本体10に送
る。制御部11は供給された1又は複数の文書データを
RAM14又はHDD34に格納する。Step F11 in FIG.
2 shows a document receiving process by the receiving unit 21 of FIG. In step F11, the receiving unit 21 receives one or a plurality of documents transmitted via, for example, a communication line. The receiving unit 21 sends the received document to the main body 10 of the document processing device. The control unit 11 stores the supplied document data or document data in the RAM 14 or the HDD 34.
【0042】なお、文書受信時には、その文書に関連す
るビデオデータ(動画又は静止画データ)を含むビデオ
ファイルが受信される場合があり(もちろんビデオデー
タのみの受信もあり得る)、1又は複数のビデオファイ
ルが受信された場合は、制御部11はそのビデオファイ
ルを取り込んでRAM14又はHDD34に格納する。
ビデオファイルに関する処理については後に詳述する。When a document is received, a video file containing video data (moving image or still image data) related to the document may be received (of course, only video data may be received). When a video file is received, the control unit 11 takes in the video file and stores it in the RAM 14 or the HDD 34.
Processing relating to the video file will be described later in detail.
【0043】ステップF12では、文書処理装置1の制
御部11は、受信部21から送られた複数の文書の特徴
を抽出し、それぞれの文書の特徴情報すなわちインデッ
クスを作成する。制御部11は、作成したインデックス
を、たとえばRAM14又はHDD34に記憶させる。
後述するがインデックスは、その文書に特徴的な、固有
名詞、固有名詞以外の語義などを含むものであり、文書
の分類や検索に利用できるものである。In step F12, the control section 11 of the document processing apparatus 1 extracts the features of the plurality of documents sent from the receiving section 21 and creates feature information, that is, an index of each document. The control unit 11 stores the created index in, for example, the RAM 14 or the HDD 34.
As will be described later, the index includes proper nouns, meanings other than proper nouns, and the like, which are characteristic of the document, and can be used for document classification and search.
【0044】ステップF13の文書閲覧は、ユーザーの
必要に応じて実行される処理である。つまりユーザーの
操作に応じて行われる。なお、このステップF13や次
のステップF14は、ユーザ操作に基づく処理である。
入力された文書データに対しては、ユーザーは所要の操
作を行うことにより、表示部30の画面上で、その文書
内容を閲覧することができる。そして文書閲覧中は、ユ
ーザーは画面上のアイコン等に対する操作により、例え
ば後述する要約作成などの各種処理を指示できるが、こ
の手動分類処理に関しては、ステップF14として示す
ように、分類項目の作成及び分類操作としての処理に進
むことになる。ステップF14では、ユーザーが分類項
目(なお本明細書では、分類項目のことをカテゴリとも
いう)を設定する操作を行うことに応じて、制御部11
は分類項目を生成/表示していく。またユーザーが文書
データを、設定された分類項目に振り分けていく操作も
行うことになり、それに応じて制御部11は文書データ
の振り分け/表示を行うことになる。The document browsing in step F13 is a process executed as required by the user. That is, it is performed according to a user operation. Step F13 and the next step F14 are processes based on a user operation.
The user can view the content of the input document data on the screen of the display unit 30 by performing a required operation. While browsing the document, the user can instruct various processes such as summarization, which will be described later, by operating the icons and the like on the screen. The process will proceed to the classification operation. In step F14, in response to the user performing an operation of setting a classification item (the classification item is also referred to as a category in this specification), the control unit 11
Generates / displays classification items. The user also performs an operation of sorting the document data into the set classification items, and the control unit 11 sorts and displays the document data accordingly.
【0045】ステップF15では、制御部11は、ステ
ップF14でユーザーが行った分類項目作成及び分類操
作に応じて、分類モデルを作成する。分類モデルは、文
書を分類する複数の分類項目(カテゴリ)から構成され
るとともに、各カテゴリに対して各文書のインデックス
(ステップF12で作成した各文書のインデックス)を
対応づけることで、分類状態を規定するデータである。
このような分類モデルを生成したら、ステップF16
で、その分類モデルを登録する。即ち制御部11は、分
類モデルをたとえばRAM14に記憶させることで登録
を行う。以上の図4の処理により、文書処理状態1が初
期状態にある時に入力された1又は複数の各文書データ
について、手動分類及び分類モデルの作成が行われたこ
とになる。この図4のステップF12以下の処理につい
て詳しく述べていく。In step F15, the control unit 11 creates a classification model in accordance with the classification item creation and classification operation performed by the user in step F14. The classification model includes a plurality of classification items (categories) for classifying documents, and associates each document index with each category index (index of each document created in step F12) to change the classification state. This is the specified data.
After generating such a classification model, step F16
Then, the classification model is registered. That is, the control unit 11 performs the registration by storing the classification model in, for example, the RAM 14. By the processing of FIG. 4 described above, manual classification and creation of a classification model have been performed for one or a plurality of pieces of document data input when the document processing state 1 is in the initial state. The processing of step F12 and subsequent steps in FIG. 4 will be described in detail.
【0046】3−2 インデックス作成 ステップF14では、制御部11は入力された文書デー
タについてインデックスの作成を行う。まず、或る1つ
の文書データに対して作成されたインデックスの具体例
を示す。3-2. Index Creation In step F14, the control unit 11 creates an index for the input document data. First, a specific example of an index created for certain document data will be described.
【0047】<インデックス 日付=“AAAA/BB/CC”
時刻=“DD:EE:FF” 文書アドレス=“1234”> <ユーザの操作履歴 最大要約サイズ=“100”> <選択 エレメントの数=“10”>ピクチャーテル</
選択> ・・・ </ユーザの操作履歴> <要約>減税規模、触れず−X首相の会見</要約> <語 語義=“0003” 中心活性値=“140.6”>触れ
ず</語> <語 語義=“0105” 識別子=“X” 中心活性値=
“67.2”>首相</語> <人名 識別子=“X” 語 語義=“6103” 中心活
性値=“150.2”>X首相</語 /人名> <語 語義=“5301” 中心活性値=“120.6”>求め
た</語> <語 語義=“2350” 識別子=“X” 中心活性値=
“31.4”>首相</語> <語 語義=“9582” 中心活性値=“182.3”>強調
した</語> <語 語義=“2595” 中心活性値=“93.6”>触れる
</語> <語 語義=“9472” 中心活性値=“12.0”>予告し
た</語> <語 語義=“4934” 中心活性値=“46.7”>触れな
かった</語> <語 語義=“0178” 中心活性値=“175.7”>釈明
した</語> <語 語義=“7248” 識別子=“X” 中心活性値=
“130.6”>私</語> <語 語義=“3684” 識別子=“X” 中心活性値=
“121.9”>首相</語> <語 語義=“1824” 中心活性値=“144.4.”>訴え
た</語> <語 語義=“7289” 中心活性値=“176.8”>見せ
た</語> </インデックス><Index date = "AAAA / BB / CC"
Time = “DD: EE: FF” Document address = “1234”><User operation history Maximum summary size = “100”><Number of selected elements = “10”> Picturetel </
Selection> ... </ User operation history><Summary> Tax reduction scale, not touching-Prime Minister X's interview </ Summary><Word Meaning = "0003" Central activity value = "140.6"> No touch </ word><Word meaning = “0105” identifier = “X” central activity value =
“67.2”> Prime Minister </ word><person name identifier = “X” word meaning = “6103” central activity value = “150.2”> X Prime Minister </ word / person name><word meaning = “5301” central activity value = “ 120.6 ”> sought </ word><word meaning =“ 2350 ”identifier =“ X ”central activity value =
“31.4”> Prime Minister </ word><word meaning = “9582” central activity value = “182.3”> emphasized </ word><word meaning = “2595” central activity value = “93.6”> touch </ word><Word meaning = “9472” central activity value = “12.0”> forecasted </ word><word meaning = “4934” central activity value = “46.7”> not touched </ word><word meaning = “0178” Central activity value = "175.7"> Explained </ word><word Meaning = "7248" Identifier = "X" Central activity value =
“130.6”> I </ word><word Meaning = “3684” Identifier = “X” Central activity value =
“121.9”> Prime Minister </ word><word meaning = “1824” Central activity value = “144.4.”> Appealed </ word><word meaning = “7289” Central activity value = “176.8”> showed Word></index>
【0048】このインデックスにおいては、<インデッ
クス>および</インデックス>は、インデックスの始
端および終端を、<日付>および<時刻>はこのインデ
ックスが作成された日付および時刻を、<要約>および
</要約>はこのインデックスの内容の要約の始端およ
び終端を、それぞれ示している。また、<語>および<
/語>は語の始端および終端を示している。さらに例え
ば、語義=“0003”は、第3番目の語義であることを示
している。他についても同様である。上述したように、
同じ語でも複数の意味を持つ場合があるので、それを区
別するために語義ごとに番号が予め決められており、そ
の該当する語義が番号で表されているものである。In this index, <index> and </ index> indicate the start and end of the index, <date> and <time> indicate the date and time when this index was created, <summary> and </ Summary> indicates the start and end of the summary of the contents of this index, respectively. Also, <word> and <
/ Word> indicates the beginning and end of the word. Further, for example, the meaning = “0003” indicates that it is the third meaning. The same applies to other cases. As mentioned above,
Since the same word may have a plurality of meanings, a number is predetermined for each meaning in order to distinguish them, and the corresponding meaning is represented by a number.
【0049】また、<ユーザの操作履歴>および</ユ
ーザの操作履歴>は、ユーザの操作履歴の始端および終
端を、<選択>および</選択>は、選択されたエレメ
ントの始端および終端を、それぞれ示している。最大要
約サイズ=“100”は、要約の最大のサイズが100文
字であることを、エレメントの数=“10”は、選択され
たエレメントの数が10であることを示している。<User operation history> and </ user operation history> indicate the start and end of the user's operation history, and <select> and </ select> indicate the start and end of the selected element. , Respectively. The maximum summary size = “100” indicates that the maximum size of the summary is 100 characters, and the number of elements = “10” indicates that the number of selected elements is 10.
【0050】この例のように、インデックスは、その文
書に特徴的な、固有名詞、固有名詞以外の語義などを含
むものである。例えばこのようなインデックスを作成す
るステップF12の処理を、図5〜図8で説明する。な
お、図5は1つの文書データに対するインデックス作成
処理を示しており、従って複数の文書データについて処
理を行う場合は、各文書データについてこの図5の処理
が行われることになる。また図5のステップF31の詳
細な処理を図7に示し、さらに図7のステップF43の
詳細な処理を図8に示している。As in this example, the index includes proper nouns, meanings other than proper nouns, and the like, which are characteristic of the document. For example, the process of step F12 for creating such an index will be described with reference to FIGS. FIG. 5 shows an index creation process for one document data. Therefore, when a process is performed for a plurality of document data, the process of FIG. 5 is performed for each document data. Further, FIG. 7 shows a detailed process of step F31 in FIG. 5, and FIG. 8 shows a detailed process of step F43 in FIG.
【0051】上述した図4のステップF12のインデッ
クス作成処理としては、まず図5のステップF31の活
性拡散が行われる。この活性拡散とは、文書データにつ
いて、エレメントの中心活性値を文書の内部構造に基づ
いて拡散することで、中心活性値の高いエレメントと関
わりのあるエレメントにも高い中心活性値を与えるよう
な処理である。即ち、文書を構成する各エレメントに対
して初期値としての中心活性値を与えた後、その中心活
性値を、文書の内部構造、具体的にはリンク構造に基づ
いて拡散する。この中心活性値は、タグ付けによる内部
構造に応じて決定されるので、文書の特徴の抽出等に利
用されるものである。制御部11は、このステップF3
1として、活性拡散を行い、活性拡散の結果として得ら
れた各エレメントの中心活性値を、たとえばRAM14
に記憶させることになる。As the index creation processing in step F12 in FIG. 4 described above, first, active diffusion in step F31 in FIG. 5 is performed. This active diffusion is a process in which the central activity value of an element is spread based on the internal structure of a document with respect to document data, so that an element related to an element having a high central activity value also has a high central activity value. It is. That is, after giving a central activity value as an initial value to each element constituting the document, the central activity value is diffused based on the internal structure of the document, specifically, the link structure. Since this central activity value is determined according to the internal structure by tagging, it is used for extracting features of a document. The control unit 11 determines in step F3
As 1, the active diffusion is performed, and the central active value of each element obtained as a result of the active diffusion is stored in, for example, the RAM 14.
Will be stored.
【0052】ステップF31の活性拡散について、図6
〜図8で詳しく説明していく。まずエレメントとエレメ
ントのリンク構造の例を図6に示す。図6においては、
文書を構成するエレメントとリンクの構造の一部とし
て、エレメントE1、E2の周辺を示している。E1〜
E8はエレメントの例であり、この中でエレメントE
1、E2に注目して説明する。FIG. 6 shows the active diffusion in step F31.
8 will be described in detail. First, an example of a link structure between elements is shown in FIG. In FIG.
The periphery of elements E1 and E2 is shown as part of the structure of the elements and links that make up the document. E1
E8 is an example of an element, in which element E
1 and E2 will be described.
【0053】エレメントE1の中心活性値はe1である
とし、またエレメントE2の中心活性値はe2であると
する。このエレメントE1,E2は、リンクL12(上
述した通常リンクもしくは参照リンク)にて接続されて
いる。リンクL12のエレメントE1に接続する端点を
T12、エレメントE2に接続する端点をT21とす
る。エレメントE1は、さらにエレメントE3,E4,
E5と、それぞれリンクL13,L14,L15で接続
されている。各リンクL13,L14,L15における
エレメントE1側の端点をそれぞれT13,T14,T
15とする。またエレメントE2は、エレメントE6,
E7,E8とも、それぞれリンクL26,L27,L2
8で接続されている。各リンクL26,L27,L28
におけるエレメントE2側の端点をそれぞれT26,T
27,T28とする。このようなリンク構造の例を用い
ながら、図7、図8の活性拡散処理を説明していく。It is assumed that the central activity value of element E1 is e1, and the central activity value of element E2 is e2. The elements E1 and E2 are connected by a link L12 (the normal link or the reference link described above). The end point of the link L12 connected to the element E1 is T12, and the end point of the link L12 connected to the element E2 is T21. Element E1 further includes elements E3, E4,
E5 is connected to links L13, L14, and L15, respectively. The end points of the links L13, L14, and L15 on the element E1 side are denoted by T13, T14, and T, respectively.
It is assumed to be 15. Element E2 is composed of elements E6 and E6.
Links L26, L27, L2 for E7 and E8 respectively
8 are connected. Each link L26, L27, L28
At the element E2 side are denoted by T26 and T26, respectively.
27 and T28. The active diffusion processing of FIGS. 7 and 8 will be described using an example of such a link structure.
【0054】図7のステップF41で制御部11は、イ
ンデックス作成対象としての文書データについて活性拡
散を開始するにあたり、まず文書データの全エレメント
について中心活性値の初期設定を行う。中心活性値の初
期値としては、例えば固有名詞や、ユーザーが選択(ク
リック)したエレメント等に高い値を与えるようにす
る。また制御部11は、参照リンクと通常リンクに関し
て、エレメントを連結するリンクの端点T(xx)の端点活
性値を0に設定する。制御部11は、このように付与し
た端点活性値の初期値を、たとえばRAM14に記憶さ
せる。In step F41 of FIG. 7, when starting the active diffusion for the document data to be indexed, the control unit 11 first initializes the central active value for all elements of the document data. As the initial value of the central activity value, for example, a high value is given to a proper noun, an element selected (clicked) by a user, or the like. Further, the control unit 11 sets the end point activation value of the end point T (xx) of the link connecting the elements to 0 for the reference link and the normal link. The control unit 11 stores, for example, the RAM 14 with the initial value of the endpoint activation value thus assigned.
【0055】ステップF42においては、制御部11
は、文書を構成するエレメントEiを計数するカウンタ
の初期化をおこなう。すなわち、エレメントを計数する
カウンタのカウント値iを1に設定する。i=1の場
合、このカウンタは、第1番目のエレメント(例えば図
6のエレメントE1)を参照することになる。In step F42, the controller 11
Initializes a counter for counting the elements Ei constituting the document. That is, the count value i of the counter for counting elements is set to one. If i = 1, this counter will refer to the first element (eg, element E1 in FIG. 6).
【0056】ステップF43においては、制御部11
は、カウンタが参照するエレメントについて、新たな中
心活性値を計算する中心活性値更新処理を実行する。こ
の中心活性値更新処理について、エレメントE1につい
ての処理を例に挙げながら、図8で詳しく説明する。こ
の中心活性値更新処理は、エレメントについての端点活
性値を更新し、さらに更新された端点活性値と現在の中
心活性値を用いて、新たな中心活性値を算出する処理と
なる。In step F43, the control unit 11
Executes a central activation value update process for calculating a new central activation value for the element referenced by the counter. This center activation value update process will be described in detail with reference to FIG. 8 by taking the process for the element E1 as an example. The center activation value updating process is a process of updating the end point activation value of the element, and calculating a new center activation value using the updated end point activation value and the current center activation value.
【0057】図8のステップF51では、制御部11
は、文書を構成するエレメントEi(例えばこの場合E
1)に一端が接続されたリンクの数を計数するカウンタ
の初期化をおこなう。すなわち、リンクを計数するカウ
ンタのカウント値jを1に設定する。j=1の場合、こ
のカウンタは、エレメントEiと接続された第1番目の
リンクL(yy)を参照することになる。図6の例では、
エレメントE1についての第1のリンクとして例えばリ
ンクL12を参照する。In step F51 of FIG.
Is an element Ei (for example, in this case E
In 1), a counter for counting the number of links having one end connected thereto is initialized. That is, the count value j of the counter for counting the links is set to one. When j = 1, this counter refers to the first link L (yy) connected to the element Ei. In the example of FIG.
For example, the link L12 is referred to as the first link for the element E1.
【0058】ステップF52で制御部11は、参照中の
リンク、つまりエレメントE1とE2を接続するリンク
L12について、関係属性のタグを参照することにより
通常リンクであるか否かを判断する。制御部11は、リ
ンクL12が通常リンクであればステップF53に、一
方リンクL12が参照リンクであればステップF54に
処理を進める。In step F52, the control section 11 determines whether or not the link being referred to, that is, the link L12 connecting the elements E1 and E2, is a normal link by referring to the tag of the related attribute. If the link L12 is a normal link, the control unit 11 proceeds to step F53, and if the link L12 is a reference link, proceeds to step F54.
【0059】リンクL12が通常リンクと判断されてス
テップF53に進んだ場合は、制御部11は、エレメン
トE1の通常リンクL12に接続された端点T12の新
たな端点活性値を計算する処理をおこなう。端点T12
の端点活性値t12は、リンク先のエレメントE2の端
点活性値のうち、リンクL12以外のリンクに接続する
すべての端点の各端点活性値(この場合T26、T2
7、T28の各端点活性値t26、t27,t28)
と、エレメントE2の中心活性値e2を加算し、この加
算で得た値を、文書に含まれるエレメントの総数で除す
ることにより求められる。制御部11は、この様な演算
を、RAM14から読み出した各端点活性値および各中
心活性値を用いて行うことで、通常リンクと接続された
端点についての新たな端点活性値を算出し、算出した端
点活性値を、RAM14に記憶させる。つまり端点T1
2の端点活性値t12を更新する。If the link L12 is determined to be a normal link and the process proceeds to step F53, the control section 11 performs a process of calculating a new endpoint activation value of the endpoint T12 connected to the normal link L12 of the element E1. Endpoint T12
Are the endpoint activation values of all the endpoints connected to the link other than the link L12 among the endpoint activation values of the linked element E2 (in this case, T26 and T2).
7, each end point activation value t26, t27, t28 of T28)
And the central activation value e2 of the element E2, and the value obtained by this addition is divided by the total number of elements included in the document. The control unit 11 performs such an operation using each endpoint activity value and each center activity value read from the RAM 14, thereby calculating a new endpoint activity value for the endpoint connected to the normal link. The calculated end point activation value is stored in the RAM 14. That is, the end point T1
The end point activation value t12 of No. 2 is updated.
【0060】一方、ステップF52でリンクL12が参
照リンクであると判断され、ステップF54に進んだ場
合は、同じく制御部11は、通常リンクL12に接続さ
れたエレメントE1の端点T12の新たな端点活性値を
計算する処理をおこなうことになるが、端点活性値の算
出のための演算は次のようになる。即ちこの場合は、端
点T12の端点活性値t12は、リンク先のエレメント
E2の端点活性値のうち、リンクL12以外のリンクに
接続するすべての端点の各端点活性値(この場合T2
6、T27、T28の各端点活性値t26、t27,t
28)と、エレメントE2の中心活性値e2を加算した
値とする。(つまり除算がない点が上記通常リンクの場
合と異なるものとなる) そして制御部11は、この様な演算を、RAM14から
読み出した各端点活性値および各中心活性値を用いて行
うことで、参照リンクと接続された端点についての新た
な端点活性値を算出し、算出した端点活性値を、RAM
14に記憶させる。つまり端点T12の端点活性値t1
2を更新する。On the other hand, if it is determined in step F52 that the link L12 is a reference link and the process proceeds to step F54, the control unit 11 similarly sets a new endpoint activation of the endpoint T12 of the element E1 connected to the normal link L12. The processing for calculating the value is performed. The calculation for calculating the end point activity value is as follows. That is, in this case, the endpoint activation values t12 of the endpoint T12 are the endpoint activation values of all the endpoints connected to the link other than the link L12 among the endpoint activation values of the linked element E2 (in this case, T2
6, each end point activation value t26, t27, t of T27, T28
28) and the central activation value e2 of the element E2. (That is, the point where there is no division is different from the case of the above-mentioned normal link.) The control unit 11 performs such an operation using each of the end point activation values and each of the center activation values read from the RAM 14, A new endpoint activity value is calculated for the endpoint connected to the reference link, and the calculated endpoint activity value is stored in the RAM.
14 is stored. That is, the end point activation value t1 of the end point T12
Update 2.
【0061】このようなステップF53又はF54の処
理を行なったら、制御部11はステップF55での判別
処理を介して(判別結果がNOであれば)ステップF5
7に進み、カウント値jをインクリメントしてステップ
F52に戻る。即ち続いて、カウント値j=2とされる
ことにより、エレメントE1についての第2のリンク
(例えばリンクL13)が参照されることになるため、
上記同様にステップF52以降の処理でリンクL13に
接続される端点T13の端点活性値t13が算出/更新
されることになる。After performing the processing in step F53 or F54, the control unit 11 performs the processing in step F5 through the determination processing in step F55 (if the determination result is NO).
Proceeding to 7, the count value j is incremented, and the process returns to step F52. That is, subsequently, by setting the count value j = 2, the second link (for example, link L13) for the element E1 is referred to.
In the same manner as described above, the end point activation value t13 of the end point T13 connected to the link L13 is calculated / updated in the processing after step F52.
【0062】ステップF55では、制御部11は、現在
カウント値iで参照中のエレメントEi(E1)につい
て、全てのリンクについての新たな端点活性値が計算さ
れたか否かを判別して処理を分岐するものであるため、
端点活性値の更新処理は、参照中のエレメントEiの全
ての端点活性値が更新されるまで行われる。つまりステ
ップF57でカウント値jがインクリメントされながら
処理が繰り返されることで、例えばエレメントE1につ
いては、端点T12,T13,T14,T15について
それぞれ端点活性値t12,t13,t14,t15が
更新されていき、その全てが更新された時点で、処理は
ステップF55からF56に進むことになる。In step F55, the control unit 11 determines whether or not new end point activation values for all links have been calculated for the element Ei (E1) currently being referred to by the count value i, and branches the processing. Because
The process of updating the endpoint activation values is performed until all endpoint activation values of the element Ei being referred to are updated. That is, by repeating the process while incrementing the count value j in step F57, for the element E1, for example, the endpoint activation values t12, t13, t14, and t15 are updated for the endpoints T12, T13, T14, and T15, respectively. When all of them have been updated, the process proceeds from step F55 to F56.
【0063】エレメントEiについての全ての端点活性
値が求められたことに応じて、ステップF56では、更
新された端点活性値を用いて、エレメントEiの新たな
中心活性値eiを算出する。エレメントEiの新たな中
心活性値eiは、エレメントEiの現在の中心活性値e
iとエレメントEiのすべての端点の新たな端点活性値
の和で求められる。例えば図6のエレメントE1の場合
は、新たな中心活性値e1(new)は、 e1(new)=e1+t12+t13+t14+t15 となる。In step F56, a new central activity value ei of the element Ei is calculated by using the updated endpoint activity values in response to all the endpoint activity values for the element Ei being obtained. The new central activation value ei of the element Ei is the current central activation value e of the element Ei.
It is determined by the sum of new endpoint activation values of all endpoints of i and element Ei. For example, in the case of the element E1 in FIG. 6, the new central activation value e1 (new) is e1 (new) = e1 + t12 + t13 + t14 + t15.
【0064】制御部11は、このようにして現在カウン
ト値iで参照中のエレメントEiの中心活性値eiを算
出する。そして、制御部11は、計算した新たな中心活
性値eiをRAM14に記憶させる。つまりエレメント
Eiの中心活性値eiを更新する。(但しこの時点で
は、後述するステップF45の処理で用いるため、旧中
心活性値も保持しておく)The control unit 11 calculates the central activation value ei of the element Ei being referred to by the current count value i in this way. Then, the control unit 11 causes the RAM 14 to store the calculated new central activation value ei. That is, the central activation value ei of the element Ei is updated. (However, at this point, the old center activation value is also held because it is used in the process of step F45 described later.)
【0065】図7のステップF43の中心活性値更新処
理として、以上図8に示したような処理が行われるた
ら、制御部11の処理は図7のステップF44に進み、
制御部11は、文書中のすべてのエレメントについて中
心活性値更新処理が完了したか否かを判断する。具体的
には、制御部11は、カウント値iが、文書に含まれる
エレメントの総数に達したか否かを判断する。制御部1
1は、すべてのエレメントについて中心活性値更新処理
が完了していないときは、ステップF47に処理を進
め、カウント値iをインクリメントしてステップF43
に戻る。例えば上記のようにエレメントE1についての
処理が終わった後であれば、カウント値i=2とされ
て、今度はエレメントE2が参照されることになる。そ
してエレメントE2について、ステップF43の中心活
性値更新処理(即ち図8の処理)が上記同様に行われ
る。重複説明となるため詳細は述べないが、図6のリン
ク例でいえば、エレメントE2の場合は、図8の処理に
おいて端点T21,T26,T27,T28の各端点活
性値t21,t26,t27,t28が更新された後、
新たな中心活性値e2(new)が、 e2(new)=e2+t21+t26+t27+t28 として算出され、更新されることになる。When the processing shown in FIG. 8 is performed as the central activation value updating processing in step F43 in FIG. 7, the processing of the control unit 11 proceeds to step F44 in FIG.
The control unit 11 determines whether or not the central activation value update processing has been completed for all elements in the document. Specifically, control unit 11 determines whether or not count value i has reached the total number of elements included in the document. Control unit 1
When the central activation value update processing has not been completed for all the elements, the process proceeds to step F47, where the count value i is incremented, and
Return to For example, after the processing for the element E1 is completed as described above, the count value i is set to 2 and the element E2 is referred to this time. Then, for the element E2, the central activation value update processing of step F43 (that is, the processing of FIG. 8) is performed in the same manner as described above. Although the details will not be described because they are redundant description, in the case of the link example of FIG. 6, in the case of the element E2, the end point activation values t21, t26, t27 of the end points T21, T26, T27, T28 in the processing of FIG. After t28 is updated,
A new central activity value e2 (new) is calculated as e2 (new) = e2 + t21 + t26 + t27 + t28, and is updated.
【0066】図7の処理においては、このようにステッ
プF47でカウント値iがインクリメントされて参照エ
レメントが変更されながらステップF43の中心活性値
更新処理が繰り返されることで、文書に含まれる全ての
エレメントの中心活性値が更新されていくことになる。In the processing shown in FIG. 7, the count value i is incremented in step F47 and the central activation value update processing in step F43 is repeated while the reference element is changed. Will be updated.
【0067】文書中のすべてのエレメントについて中心
活性値の更新が完了したときは、処理はステップF44
からF45に進むことになる。ステップF45において
は、制御部11は、文書に含まれるすべてのエレメント
の中心活性値の変化分、すなわち新たに計算された中心
活性値の元の中心活性値に対する変化分について平均値
を計算する。例えば制御部11は、RAM14に記憶さ
れた旧中心活性値と、更新した新たな中心活性値を、文
書に含まれるすべてのエレメントについて読み出す。そ
して各エレメントについて新中心活性値と旧中心活性値
の差分を求め、その差分の総和をエレメントの総数で除
することにより、すべてのエレメントの中心活性値の変
化分の平均値を計算する。制御部11は、このように計
算したすべてのエレメントの中心活性値の変化分の平均
値を、たとえばRAM14に記憶させる。When the update of the central activation value has been completed for all the elements in the document, the processing is terminated at step F44.
To F45. In step F45, the control unit 11 calculates the average value of the change in the central activity values of all the elements included in the document, that is, the change in the newly calculated central activity value from the original central activity value. For example, the control unit 11 reads the old central activation value stored in the RAM 14 and the updated new central activation value for all elements included in the document. Then, for each element, the difference between the new central activity value and the old central activity value is obtained, and the sum of the differences is divided by the total number of elements to calculate the average value of the change in the central activity value of all elements. The control unit 11 causes the RAM 14 to store, for example, the average value of the change in the central activity value of all elements calculated in this way.
【0068】続いてステップF46において制御部11
は、ステップF45で計算した平均値が、あらかじめ設
定された閾値以内であるか否かを判断する。そして、制
御部11は、上記平均値が閾値以内である場合は、活性
拡散処理としての一連の行程を終了するが、上記平均値
が閾値以内でないときには、ステップF42にもどっ
て、上述した一連の行程を再び実行する。Subsequently, at step F46, the control unit 11
Determines whether the average calculated in step F45 is within a preset threshold. When the average value is within the threshold value, the control unit 11 ends a series of steps as the active diffusion process. When the average value is not within the threshold value, the control unit 11 returns to step F42 and performs the above-described series of processes. Perform the process again.
【0069】この一連の活性拡散処理は、中心活性値が
高いエレメントに関連のある(リンクする)エレメント
について、その中心活性値を引き上げていく処理といえ
るものである。ところが、この活性拡散を1回行うのみ
では、インデックス作成処理の目的を考えたときに、本
来中心活性値を引き上げられるべきエレメントの中で、
中心活性値が十分に引き上げられないものが発生する場
合もありうる。例えば、1回の活性拡散では、中心活性
値の初期値が高く設定されたエレメントに直接リンクす
るエレメントについては、或る程度中心活性値が引き上
げられるが、直接リンクしていないエレメントは、それ
がインデックスとして重要なエレメントであっても十分
に中心活性値が引き上げられないことが生ずる。そこ
で、ステップF46の判断を介して、必要に応じて活性
拡散処理を複数回行うようにすることで、全体的に中心
活性値が収束されるようにし、中心活性値が引き上げら
れない重要なエレメントがなるべく生じないようにする
ものである。なお、複数回の活性拡散で、全体的に中心
活性値が収束されていくのは、活性拡散処理で更新され
た各エレメントの中心活性値に基づいて、さらに次の活
性拡散処理で各エレメントの中心活性値が更新されてい
くためである。但し、このような活性拡散処理が多数回
行われすぎると、全エレメントの中心活性値が収束しき
ってほぼ同値となるような事態となり、不適切である。
このため、ステップF45,F46の処理として、中心
活性値の変化分の平均値を求めるように、その変化分に
基づいて活性拡散処理の終了タイミングを判断すること
で、インデックス作成に好適な活性拡散が実現されるこ
とになる。This series of active diffusion processing can be said to be processing for raising the central activity value of an element related (linked) to an element having a high central activity value. However, by performing this activation diffusion only once, when considering the purpose of the index creation processing, among the elements that should be able to raise the central activation value,
In some cases, the central activity value may not be sufficiently raised. For example, in one activation diffusion, for an element directly linked to an element for which the initial value of the central activation value is set high, the central activation value is raised to some extent, but for an element that is not directly linked, it is Even if the element is important as an index, the central activity value may not be sufficiently raised. Therefore, by performing the active diffusion process a plurality of times as necessary based on the determination in step F46, the central activity value can be converged as a whole, and important elements that cannot be increased in the central activity value As much as possible. The reason why the central activity value is converged as a whole in the active diffusion process a plurality of times is that the central active value of each element updated in the active diffusion process is based on the central activity value of each element, and further the active activity diffusion process is performed for each element. This is because the central activity value is updated. However, if such activation diffusion processing is performed too many times, the central activation values of all the elements converge and become almost the same, which is inappropriate.
For this reason, in the processing of steps F45 and F46, the end timing of the active diffusion process is determined based on the change so as to obtain the average value of the change of the central active value, so that the active diffusion suitable for index creation is performed. Will be realized.
【0070】以上の図7、図8のような活性拡散処理
(即ち図5のステップF31)が完了したら、制御部1
1の処理は図5のステップF32に進むことになる。ス
テップF32においては、制御部11は、ステップF3
1で得られた各エレメントの中心活性値に基づいて、中
心活性値があらかじめ設定された閾値を超えるエレメン
トを抽出する。制御部11は、このように抽出したエレ
メントをRAM14に記憶させる。When the active diffusion processing as shown in FIGS. 7 and 8 (ie, step F31 in FIG. 5) is completed, the controller 1
The process 1 proceeds to step F32 in FIG. In step F32, the control unit 11 determines in step F3
Based on the central activity value of each element obtained in step 1, an element whose central activity value exceeds a preset threshold is extracted. The control unit 11 causes the RAM 14 to store the extracted elements.
【0071】続いてステップF33においては、制御部
11は、ステップF32にて抽出したエレメントをたと
えばRAM14から読み出す。そして制御部11は、こ
の抽出したエレメントの中からすべての固有名詞を取り
出してインデックスに加える。固有名詞は語義を持た
ず、辞書に載っていないなどの特殊の性質を有するので
固有名詞以外の語とは別に扱うものである。なお語義と
は、前述したように、語の有する複数の意味のうちの各
意味に対応したものである。各エレメントが固有名詞で
あるか否かは、文書に付されたタグに基づいて判断する
ことができる。たとえば、図3に示したタグ付けによる
内部構造においては、“A氏”、“B会”および“C
市”は、タグによる関係属性がそれぞれ“人名”、“組
織名”および“地名”であるので固有名詞であることが
分かる。そして、制御部11は、取り出した固有名詞を
インデックスに加え、その結果をRAM14に記憶させ
る。Subsequently, in step F33, the control section 11 reads out the elements extracted in step F32, for example, from the RAM 14. Then, the control unit 11 extracts all proper nouns from the extracted elements and adds them to the index. Proper nouns have special properties such as having no meaning and not appearing in dictionaries, and are therefore treated separately from words other than proper nouns. As described above, the word meaning corresponds to each of a plurality of meanings of the word. Whether or not each element is a proper noun can be determined based on a tag attached to the document. For example, in the internal structure by tagging shown in FIG. 3, "A", "B" and "C"
“City” is a proper noun since the related attributes of the tags are “person name”, “organization name”, and “place name”, and the control unit 11 adds the extracted proper noun to the index, and The result is stored in the RAM 14.
【0072】次のステップF34においては、制御部1
1は、ステップF32にて抽出したエレメントの中か
ら、固有名詞以外の語義を取り出してインデックスに加
え、その結果をRAM14に記憶させる。In the next step F34, the control unit 1
1 extracts the meanings other than proper nouns from the elements extracted in step F32, adds them to the index, and stores the result in the RAM 14.
【0073】以上の処理により、例えば上記した具体例
のようなインデックスが生成される。即ちインデックス
は、タグ付けされた文書の特徴を発見して、その特徴を
配列したものとなり、その文書の特徴は、文書の内部構
造に応じて拡散処理された中心活性値に基づいて判断さ
れるものとなる。そしてこのようなインデックスは、文
書を代表するような特徴を表す語義および固有名詞を含
むので、所望の文書を参照する際に用いることができ
る。なお、インデックスには、文書の特徴を表す語義お
よび固有名詞とともに、その文書がRAM14(又はH
DD34)において記憶された位置を示す文書アドレス
を含めておく。By the above processing, for example, an index as in the above specific example is generated. That is, the index finds the features of the tagged document and arranges the features, and the features of the document are determined based on the central activity value diffused according to the internal structure of the document. It will be. Since such an index includes meanings and proper nouns representing features representative of a document, it can be used when referring to a desired document. The index includes, in addition to the meanings and proper nouns representing the characteristics of the document, the document in the RAM 14 (or H
The document address indicating the position stored in DD34) is included.
【0074】3−3 文書閲覧/分類作成/分類操作 以上の図5〜図8で説明したインデックス作成処理は図
4のステップF12で行われるものとなる。従って図4
の手動分類処理としては、続いてステップF13,F1
4の処理、即ち上述したようにユーザーによる閲覧及び
手動分類の処理に移る。3-3 Document Browsing / Category Creation / Classification Operation The index creation processing described above with reference to FIGS. 5 to 8 is performed in step F12 in FIG. Therefore, FIG.
As for the manual classification processing of step F13 and step F1
The process proceeds to the process of No. 4, that is, the process of browsing and manual classification by the user as described above.
【0075】上述のように、図4のステップF13にお
いては、ユーザーは表示部30に表示される文書を閲覧
することができる。またステップF14においては、ユ
ーザーが分類項目を設定する操作や、文書データを、設
定された分類項目に振り分けていく操作を行うことがで
きる。このステップF13,F14で行われる操作や、
それに対応する制御部11の処理及び表示部30の表示
例は以下のようになる。As described above, in step F13 of FIG. 4, the user can browse the document displayed on the display unit 30. In step F14, the user can perform an operation of setting a classification item and an operation of sorting document data into the set classification item. The operations performed in steps F13 and F14,
The corresponding process of the control unit 11 and a display example of the display unit 30 are as follows.
【0076】図9、図10は表示部30における表示の
具体例を示している。まず図9は、詳しくは後述する分
類モデルに対応した文書分類ウインドウ201の表示例
である。即ち、文書分類の表示に用いられるグラフィッ
クユーザインターフェース(graphic user interface;
GUI)の具体例となる。この文書分類ウィンドウ201
には、操作用のボタン表示202として、画面のウィン
ドウの状態を初期の位置にもどすポジションリセット
(position reset)ボタン202aと、文書の内容を閲
読するブラウザ(browser)を呼び出すブラウザボタン
202bと、このウィンドウからの脱出(exit)ボタン
202cとが表示される。FIGS. 9 and 10 show specific examples of the display on the display unit 30. FIG. First, FIG. 9 is a display example of a document classification window 201 corresponding to a classification model described later in detail. That is, a graphic user interface (graphic user interface) used for displaying a document classification.
GUI). This document classification window 201
The operation button display 202 includes a position reset button 202a for returning a screen window state to an initial position, a browser button 202b for calling a browser (browser) for reading the contents of a document, An exit button 202c is displayed.
【0077】また、この文書分類ウィンドウ201は、
分類モデルに対応する分類項目に応じた小ウインドウと
して、文書分類エリア203,204,205・・・が
形成される。文書分類エリア203は、“他のトピック
ス”を表示するエリアとされる。この”他のトピック
ス”の文書分類エリア203は、まだ分類されていない
文書が提示される領域となる。例えば図4のステップF
11で受信された各文書(つまりこれから分類しようと
する文書)は、この”他のトピックス”の文書分類エリ
ア203に提示される。文書分類エリア204は、例え
ば”ビジネスニュース”に分類された文書が提示される
領域となる。文書分類エリア205は、例えば”政治ニ
ュース”に分類された文書が提示される領域となる。こ
れら以外にも、図中で符号を付していない文書分類エリ
アは、それぞれ特定の分類項目に応じた文書が提示され
る領域となる。This document classification window 201
Document classification areas 203, 204, 205,... Are formed as small windows corresponding to the classification items corresponding to the classification model. The document classification area 203 is an area for displaying “other topics”. The “other topics” document classification area 203 is an area where documents that have not been classified yet are presented. For example, step F in FIG.
Each document received at 11 (that is, a document to be classified) is presented in the "other topics" document classification area 203. The document classification area 204 is an area where documents classified as, for example, “business news” are presented. The document classification area 205 is an area in which documents classified as, for example, “political news” are presented. In addition to these, document classification areas without reference numerals in the figure are areas where documents corresponding to specific classification items are presented.
【0078】これらの各文書分類エリア203,204
・・・では、その各文書分類エリアに設定された分類項
目(カテゴリ)に分類された文書が、その文書のアイコ
ンと文書のタイトルにより提示される。タイトルがない
場合には、一文の要約が表示される。また各文書分類エ
リア203,204・・・の大きさは固定的ではなく、
ユーザーがドラッグ操作などにより各文書分類エリアを
区切る区切枠211,212,213・・・を移動させ
ることにより、各文書分類エリア203,204・・・
の面積を任意に変更させることができる。文書分類エリ
アの数もユーザーが任意に増減できる。Each of these document classification areas 203 and 204
.., The documents classified into the classification items (categories) set in the respective document classification areas are presented by the icon of the document and the title of the document. If there is no title, a summary of one sentence is displayed. Also, the size of each of the document classification areas 203, 204,... Is not fixed,
When the user moves the delimiting frames 211, 212, 213,... Separating the document classification areas by a drag operation or the like, the document classification areas 203, 204,.
Can be arbitrarily changed. The user can arbitrarily increase or decrease the number of document classification areas.
【0079】また各文書分類エリア203,204・・
・のタイトル(例えば「政治ニュース」など)は、ユー
ザーが任意に設定、変更できるものである。なお、この
文書分類エリアの数及び各タイトルは、後述する分類モ
デルの分類項目に応じたものとなる。言い換えれば、ユ
ーザーがこの分類ウインドウ201においてマウスやキ
ーボード等による入力部20からの操作で、文書分類エ
リアの設定や削除、或いはタイトル設定を行うことで、
分類モデルの分類項目の数やタイトルが設定されること
になる。Each of the document classification areas 203, 204,.
The title (for example, "political news") can be arbitrarily set and changed by the user. Note that the number of document classification areas and each title correspond to the classification items of the classification model described later. In other words, the user sets or deletes a document classification area or performs a title setting in the classification window 201 by operating the input unit 20 using a mouse, a keyboard, or the like.
The number and title of the classification items of the classification model are set.
【0080】図10は、ユーザーが文書データの内容を
閲覧する閲覧ウインドウ301の例を示している。例え
ばユーザーが、図9の分類ウインドウ201において或
る文書をクリックして選択した状態としたうえで、ブラ
ウザボタン202bをクリックすることで、制御部11
は図10のように選択された文書を表示する閲覧ウイン
ドウ301を開くようにする。FIG. 10 shows an example of a browsing window 301 for a user to browse the contents of document data. For example, the user clicks on a certain document in the classification window 201 of FIG. 9 to select the document, and then clicks the browser button 202b, so that the control unit 11
Opens a browsing window 301 for displaying the selected document as shown in FIG.
【0081】この閲覧ウインドウ301には、文書デー
タファイルのファイル名を表示するファイル名表示部3
02、そのファイル名の文書データを表示する文書表示
部303、文書表示部303に表示された文書の要約文
を表示する要約表示部304、キーワードの入力/表示
を行うキーワード表示部305が設けられる。また操作
用のボタン表示306として、要約文の作成を指示する
ための要約作成ボタン306a、アンドゥ操作(操作取
消)を行うためのアンドゥボタン306b、読み上げ動
作を実行させるための読み上げボタン306c、ビデオ
データの表示を指示するためのビデオボタン306dな
どが表示される。In the browsing window 301, a file name display unit 3 for displaying the file name of the document data file
02, a document display unit 303 for displaying the document data of the file name, a summary display unit 304 for displaying a summary of the document displayed on the document display unit 303, and a keyword display unit 305 for inputting / displaying a keyword. . As the operation button display 306, a summary creation button 306a for instructing creation of a summary sentence, an undo button 306b for performing an undo operation (operation cancellation), a reading button 306c for executing a reading operation, and video data A video button 306d or the like for instructing the display of is displayed.
【0082】この様な閲覧ウインドウ301において、
ユーザーは文書表示部303に表示される文書を閲覧す
ることができる。なお、文書の全体を表示しきれないと
きは、文書の一部が表示される。もちろんスクロール操
作を行うことで、全文を閲覧できる。また、ユーザーは
要約作成ボタン306aをクリックすることで、文書表
示部303に表示される文書についての要約文を作成さ
せ、要約表示部304に表示させることができる。さら
にユーザーは、読み上げボタン306cをクリックする
ことで、文書表示部303に表示されている文書の本文
又は要約文についての読み上げを実行させることができ
る。また、ユーザーはビデオボタン306dをクリック
することで、文書表示部303に表示されている文書の
本文、または要約表示部304に表示されている要約文
に関連するビデオデータの表示を実行させることができ
る。なお、要約文作成のための制御部11の処理、読み
上げ動作についての処理、及びビデオ出力動作について
の処理はそれぞれ後述する。In such a browsing window 301,
The user can browse the document displayed on the document display unit 303. If the entire document cannot be displayed, a part of the document is displayed. Of course, you can browse the full text by scrolling. In addition, by clicking the summary creation button 306a, the user can cause a summary sentence for the document displayed on the document display unit 303 to be created and displayed on the summary display unit 304. Further, by clicking the read-aloud button 306c, the user can cause the text or the summary of the document displayed on the document display section 303 to be read aloud. Further, by clicking the video button 306d, the user can cause the display of the text of the document displayed on the document display unit 303 or the display of the video data related to the summary displayed on the summary display unit 304. it can. The processing of the control unit 11 for creating the summary sentence, the processing for the reading operation, and the processing for the video output operation will be described later.
【0083】以上のような分類ウインドウ201、閲覧
ウインドウ301は、図4の手動分類処理の際に限ら
ず、ユーザーの操作に応じて随時表示部20に表示され
るものであるが、図4の手動分類処理に関していえば、
ユーザーは受信した文書の種類や内容を、分類ウインド
ウ201、閲覧ウインドウ301で確認することができ
るものである。具体的には、図4のステップF11で受
信された1又は複数の文書は、ステップF12でのイン
デックス作成処理の後、図9のような分類ウインドウ2
01における”他のトピックス”の文書分類エリア20
3に表示される。この分類ウインドウ201において、
ユーザーは、文書分類エリア203に表示された各文書
を手動で分類していくことになるが、例えば文書のタイ
トルだけ等では内容がわからない場合は、図10の閲覧
ウインドウ301により文書内容を確認する。そのよう
にユーザの必要に応じて行われる閲覧が図4のステップ
F13の処理となる。The classification window 201 and the browsing window 301 as described above are displayed on the display unit 20 at any time according to the user's operation, not limited to the manual classification processing in FIG. As for the manual classification process,
The user can confirm the type and content of the received document in the classification window 201 and the browsing window 301. Specifically, one or a plurality of documents received in step F11 in FIG. 4 are subjected to the index creation processing in step F12, and then the classification window 2 shown in FIG.
01 "other topics" document classification area 20
3 is displayed. In this classification window 201,
The user manually classifies each of the documents displayed in the document classification area 203. If, for example, the content is not known only by the title of the document, the user checks the content of the document by using the browsing window 301 in FIG. . The browsing performed as needed by the user in this manner is the process of step F13 in FIG.
【0084】ステップF14としては、ユーザーは分類
ウインドウ201上において分類項目の追加、更新、削
除等を任意に行うことができ、その操作に応じて、制御
部11は表示される文書分類エリア203、204・・
・の表示態様(数、面積、タイトル等)を変更させてい
く。なお、ユーザーによる分類項目(文書分類エリアの
タイトル)の設定/変更は、それが後述する分類モデル
に反映されることになる。In step F14, the user can arbitrarily add, update, or delete a classification item on the classification window 201, and in accordance with the operation, the control unit 11 causes the displayed document classification area 203, 204 ...
・ Change the display mode (number, area, title, etc.). The setting / change of the classification item (title of the document classification area) by the user is reflected in the classification model described later.
【0085】ユーザーは必要に応じて分類項目の設定を
行った後、文書分類エリア203に表示されている各文
書を、各文書分類エリアに振り分けていく。つまりユー
ザーの手動により、文書を分類する。具体的には、”他
のトピックス”の文書分類エリア203に表示されてい
る文書のアイコンを、例えば入力部20のマウスを用
い、所望の分類項目(カテゴリ)に対応する文書分類エ
リアにドラッグすることによりおこなう。例えばユーザ
ーは、「スポーツ」というタイトルの文書分類エリアを
設定したうえで、”他のトピックス”の文書分類エリア
203に表示されているスポーツ関連の文書のアイコン
を、“スポーツ”の文書分類エリアにドラッグするよう
な操作を行う。このようにして手動で分類された各文書
のアイコンやタイトルは、以降、そのドラッグされた先
の文書分類エリア内で表示される。After setting the classification items as necessary, the user sorts each document displayed in the document classification area 203 into each document classification area. That is, the documents are classified manually by the user. Specifically, the icon of the document displayed in the document classification area 203 of “other topics” is dragged to the document classification area corresponding to a desired classification item (category) using, for example, the mouse of the input unit 20. Do it by doing. For example, the user sets a document classification area titled “Sports”, and changes the icon of a sports-related document displayed in the document classification area 203 of “Other topics” to the document classification area of “Sports”. Perform an operation like dragging. The icons and titles of the documents that have been manually classified in this manner are thereafter displayed in the dragged destination document classification area.
【0086】3−4 分類モデル作成/登録 以上のようにユーザーによる手動分類操作が行われた
ら、制御部11は図4のステップF15において、ユー
ザの分類操作に基づいた複数のカテゴリからなる分類モ
デルを作成する。すなわち制御部11は、各カテゴリに
分類された上記複数の文書のインデックスを集めて、分
類モデルを生成する。そして、分類モデルの各カテゴリ
に上記複数の文書を分類する。3-4 Creation / Registration of Classification Model As described above, when the user performs the manual classification operation, the control unit 11 determines in step F15 of FIG. 4 that the classification model is composed of a plurality of categories based on the user's classification operation. Create That is, the control unit 11 collects indices of the plurality of documents classified into each category and generates a classification model. Then, the plurality of documents are classified into each category of the classification model.
【0087】分類モデルは、文書を分類する複数の分類
項目(カテゴリ)から構成される。そして各カテゴリに
ついて、分類された文書が示されるデータ形態となる。
各文書については、上記ステップF12などでインデッ
クスが形成されるが、分類モデルは例えば図11(a)
に示すように、各カテゴリについて分類された文書のイ
ンデックスが対応づけられたようなデータ構造となる。
この図11(a)では、カテゴリとして「スポーツ」
「会社」「コンピュータ」・・・等が設定されている
が、これらは上記のように分類ウインドウ201におい
てユーザーが設定した分類項目となる。なお、もちろん
ユーザーが設定しなくとも、予め設定されている(つま
り分類ウインドウで文書分類エリアとして表示される)
カテゴリがあってもよい。そして各分類項目にはインデ
ックスIDX1、IDX2・・・が対応づけられるが、
即ち各分類項目には、ユーザーが上記のように分類した
文書のインデックスが対応づけられるものとなる。The classification model is composed of a plurality of classification items (categories) for classifying documents. Then, for each category, a data format is provided in which the classified documents are shown.
An index is formed for each document in step F12 and the like, and the classification model is, for example, as shown in FIG.
As shown in (1), the data structure is such that the indexes of the documents classified for each category are associated with each other.
In FIG. 11A, the category is “sports”.
“Company”, “Computer”, etc. are set, but these are the classification items set by the user in the classification window 201 as described above. Of course, even if the user does not set, it is set in advance (that is, displayed as a document classification area in the classification window).
There may be categories. Each of the classification items is associated with an index IDX1, IDX2,.
That is, the index of the document classified by the user as described above is associated with each classification item.
【0088】各分類項目に対応づけられるインデックス
は、分類ウインドウ201においてその分類項目の文書
分類エリアに表示されている文書のインデックスであ
る。例えばインデックスIDX1がカテゴリ「スポー
ツ」に対応づけられているのは、ユーザーが、分類ウイ
ンドウ201において「スポーツ」をタイトルとする文
書分類エリアを作成し、さらにインデックスIDX1の
文書のアイコンを、その「スポーツ」をタイトルとする
文書分類エリアにドラッグするという手動分類を行った
ことに基づくものとなる。The index associated with each classification item is the index of the document displayed in the document classification area of the classification item in the classification window 201. For example, the index IDX1 is associated with the category "sports" because the user creates a document classification area with the title "sports" in the classification window 201, and furthermore, sets the icon of the document of the index IDX1 to "sports". Is manually dragged to a document classification area having a title of "".
【0089】ところで上述のように各文書のインデック
スは、固有名詞、固有名詞以外の語義や文書アドレス等
を含んでいる。そして、例えば図11(a)のように1
つの分類項目には1又は複数のインデックスが対応づけ
られるが、インデックスとして固有名詞、語義、文書ア
ドレス等が含まれるため、分類モデルは図11(b)の
ようにも表すことができる。As described above, the index of each document includes proper nouns, meanings other than proper nouns, document addresses, and the like. Then, for example, as shown in FIG.
One or a plurality of indices are associated with one classification item. Since the indexes include proper nouns, meanings, document addresses, and the like, the classification model can be represented as shown in FIG. 11B.
【0090】即ち図11(b)に示すように、分類モデ
ルは、各カテゴリに対応するカテゴリインデックスとし
て、固有名詞、固有名詞以外の語義、文書アドレスの欄
を有する構造となる。そして分類モデルにおいては、各
カテゴリ「スポーツ」「社会」「コンピュータ」「植
物」「美術」「イベント」に対して、固有名詞“A氏、
・・・”、“B氏、・・・”、“C社、G社、・・
・”、“D種、・・・”、“E氏、・・・”および“F
氏”等の固有名詞が割り当てられる。また、“野球(4
546)、グランド(2343)、・・・”、“労働
(3112)、固有(9821)、・・・”、“モバイ
ル(2102)、・・・”、“桜1(11111)、オ
レンジ1(9911)”、“桜2(11112)、オレ
ンジ2(9912)”および“桜3(11113)”等
の語義も各カテゴリに割り当てられる。さらに文書アド
レス“SP1、SP2、SP3、・・・”、“S01、
S02、S03、・・・”、“CO1、CO2、CO
3、・・・”、“PL1、PL2、PL3、・・・”、
“AR1、AR2、AR3、・・・”および“EV1、
EV2、EV3、・・・”も各カテゴリに割り当てられ
る。That is, as shown in FIG. 11B, the classification model has a structure having columns of proper nouns, meanings other than proper nouns, and document addresses as category indexes corresponding to each category. Then, in the classification model, the proper noun “Mr. A” for each category “sports” “society” “computer” “plant” “art” “event”
... "," Mr. B, ... "," Company C, Company G, ...
"," D type, ... "," Mr. E, ... "and" F
A proper noun such as "Mr." is also assigned.
546), ground (2343), ... "," labor (3112), unique (9821), ... "," mobile (2102), ... "," cherry blossom 1 (11111), orange 1 ( 9911) "," Sakura 2 (11112), Orange 2 (9912) ", and" Sakura 3 (11113) "are also assigned to each category. Further, the document addresses" SP1, SP2, SP3,... " “S01,
S02, S03,... "," CO1, CO2, CO
3, ... "," PL1, PL2, PL3, ... ",
"AR1, AR2, AR3, ..." and "EV1,
EV2, EV3,... "Are also assigned to each category.
【0091】なお、“桜1”“桜2”“桜3”は、
“桜”の第1の語義(11111)、第2の語義(11
112)、第3の語義(11113)を示している。ま
た、“オレンジ1”“オレンジ2”は、“オレンジ”の
第1の語義(9911)、第2の語義(9912)を示
している。たとえば“オレンジ1”は植物のオレンジを
表し、“オレンジ2”はオレンジ色を表す。固有名詞以
外の場合に語そのものではなく語義を用いるのは、この
様に、同じ語でも複数の意味を有することがあるからで
ある。Note that "Sakura 1", "Sakura 2" and "Sakura 3"
The first meaning (11111) and the second meaning (1111)
112) and the third meaning (11113). “Orange 1” and “Orange 2” indicate the first meaning (9911) and the second meaning (9912) of “orange”. For example, "orange 1" represents a plant orange, and "orange 2" represents an orange color. The reason that the meaning is used instead of the word itself in cases other than proper nouns is that the same word may have a plurality of meanings.
【0092】図4のステップF15では、ユーザーの手
動分類操作に応じて例えばこの様な分類モデルが生成さ
れる。そしてステップF16として分類モデルが登録、
即ちRAM15(又はHDD34)に記録される。この
ように分類モデルが生成/登録されることにより、文書
の分類が行われたことになる。In step F15 in FIG. 4, for example, such a classification model is generated according to a manual classification operation by the user. Then, the classification model is registered as Step F16,
That is, it is recorded in the RAM 15 (or the HDD 34). The generation / registration of the classification model in this way means that the classification of the document has been performed.
【0093】なお、このように図4におけるステップF
15、F16として分類モデルの作成/登録が行われた
後は、後述する自動分類処理や、ユーザーの分類項目の
編集、或いは手動分類操作などに応じて、分類モデルは
逐次更新されていくことになる。分類モデルが更新され
ると、分類モデルに更新日時が記録される。図11に
は、更新日時として“1998年12月10日19時5
6分10秒”が記録されている。Note that, as described above, step F in FIG.
After the creation / registration of the classification model is performed as F15 and F16, the classification model is sequentially updated in accordance with automatic classification processing described later, editing of a classification item by a user, or manual classification operation. Become. When the classification model is updated, the update date and time are recorded in the classification model. FIG. 11 shows that the update date and time “19:05 on December 10, 1998
6 minutes and 10 seconds "are recorded.
【0094】4.文書データに対する自動分類処理 4−1 処理手順 本例の文書処理装置1では、上記のように一旦分類モデ
ルが作成された後は、例えば通信部21により外部から
取り込まれた文書データを、自動的に分類していく自動
分類処理が可能となる。即ち以下説明する自動分類処理
とは、文書処理装置1が外部から送られた文書データを
受信した際に、その文書データを分類モデルに対して分
類していく処理となる。なお、この例では、一つの文書
を受信する毎に以下説明する自動分類処理をおこなうこ
ととするか、複数の所定数の文書を受信する度におこな
ってもよいし、ユーザが図9の画面を開く操作をしたと
きにそれまでに受信した全文書に対して自動分類処理を
おこなうようにしてもよい。4. 4. Automatic Classification Processing for Document Data 4-1 Processing Procedure In the document processing apparatus 1 of the present example, after the classification model is once created as described above, for example, the document data taken in from the outside by the communication unit 21 is automatically converted. The automatic classification process of classifying into is possible. That is, the automatic classification process described below is a process of, when the document processing apparatus 1 receives document data sent from the outside, classifying the document data with respect to a classification model. In this example, the automatic classification process described below may be performed each time one document is received, or may be performed each time a plurality of predetermined documents are received. The automatic classification process may be performed on all the documents received so far when the operation of opening is performed.
【0095】自動分類処理としての全体の処理手順を図
12に示す。図12のステップF21は、文書処理装置
1の受信部21による文書受信処理を示している。この
ステップF21では、受信部21は、たとえば通信回線
を介して送信された1又は複数の文書を受信する。受信
部21は、受信した文書を文書処理装置の本体10に送
る。制御部11は供給された1又は複数の文書データを
RAM14又はHDD34に格納する。なお文書データ
とともに(又は文書データとは独立して)、1又は複数
のビデオファイルが受信された場合は、制御部11はそ
のビデオファイルを取り込んでRAM14又はHDD3
4に格納することになる。FIG. 12 shows the entire processing procedure as the automatic classification processing. Step F21 in FIG. 12 illustrates a document receiving process by the receiving unit 21 of the document processing apparatus 1. In this step F21, the receiving section 21 receives one or a plurality of documents transmitted via a communication line, for example. The receiving unit 21 sends the received document to the main body 10 of the document processing device. The control unit 11 stores the supplied document data or document data in the RAM 14 or the HDD 34. When one or a plurality of video files are received together with the document data (or independently of the document data), the control unit 11 fetches the video file and stores the video file in the RAM 14 or the HDD 3.
4 will be stored.
【0096】続いてステップF22に進み、制御部11
は、ステップF21で取り込まれた文書についてインデ
ックスを作成する。Subsequently, the process proceeds to step F22, where the control unit 11
Creates an index for the document taken in step F21.
【0097】ステップF23では、制御部11は、分類
モデルに基づいて、インデックスを付された各文書を、
分類モデルのいずれかのカテゴリに自動分類する。そし
て、制御部11は、分類の結果をたとえばRAM14に
記憶させる。自動分類の詳細については後述する。In step F23, the control section 11 converts each indexed document based on the classification model into
Automatic classification into one of the categories of the classification model. Then, the control unit 11 causes the RAM 14 to store the result of the classification, for example. Details of the automatic classification will be described later.
【0098】ステップF24では、制御部11は、ステ
ップF23での新たな文書の自動分類の結果に基づい
て、分類モデルを更新する。そしてステップF25で
は、制御部11は、ステップF24で更新された分類モ
デルを登録する。例えば分類モデルをRAM14に記憶
させる。In step F24, the control unit 11 updates the classification model based on the result of the automatic classification of a new document in step F23. Then, in step F25, the control unit 11 registers the classification model updated in step F24. For example, the classification model is stored in the RAM 14.
【0099】以上の図12の処理により、文書処理状態
1に入力された文書データが、分類モデル上で分類され
るように自動分類処理が行われることになる。すなわち
この自動分類処理においては、受信した文書に対しては
インデックスが作成され、さらに自動分類が行われた
後、そのインデックスを構成している固有名詞、語義、
文書アドレス等が、上記図11のように分類モデル上で
或るカテゴリーに対応づけられることになる(分類モデ
ルが更新される)。By the above-described processing in FIG. 12, the automatic classification processing is performed so that the document data input to the document processing state 1 is classified on the classification model. That is, in this automatic classification process, an index is created for the received document, and after the automatic classification is performed, proper nouns, meanings,
The document address and the like are associated with a certain category on the classification model as shown in FIG. 11 (the classification model is updated).
【0100】ステップF21、F22の処理は、上述し
た手動分類処理におけるステップF11,F12と同様
である。即ちステップF22のインデックス作成処理と
しては、図5〜図8で説明した処理が行われるものであ
り、ここでの繰り返しの説明は避ける。また、ステップ
F24の分類モデルの更新は、ステップF23の自動分
類の分類結果に応じてものとなる。以下、上述の手動分
類処理とは異なる処理として、ステップF23の自動分
類について詳細に説明する。The processes in steps F21 and F22 are the same as steps F11 and F12 in the above-described manual classification process. That is, as the index creation processing in step F22, the processing described with reference to FIGS. 5 to 8 is performed, and a repeated description thereof will be omitted. The update of the classification model in step F24 depends on the classification result of the automatic classification in step F23. Hereinafter, automatic classification in step F23 will be described in detail as processing different from the above-described manual classification processing.
【0101】4−2 自動分類 図12のステップF23での自動分類の詳しい処理を図
13に示す。図13のステップF61では、制御部11
は、分類モデルのカテゴリCiに含まれる固有名詞の集
合と、ステップF21で受信した文書から抽出されイン
デックスに入れられた語のうちの固有名詞の集合とにつ
いて、これらの共通集合の数をP(Ci)とする。そし
て制御部11は、このようにして算出した数P(Ci)
をRAM14に記憶させる。4-2 Automatic Classification FIG. 13 shows the detailed processing of the automatic classification in step F23 in FIG. In step F61 of FIG.
Defines the number of intersections of the set of proper nouns included in the category Ci of the classification model and the set of proper nouns among the words extracted from the document received in step F21 and put into the index by P ( Ci). Then, the control unit 11 calculates the number P (Ci) thus calculated.
Is stored in the RAM 14.
【0102】ステップF62においては、制御部11
は、その文書のインデックス中に含まれる全語義と、各
カテゴリCiに含まれる全語義との語義間関連度を、後
述する図15に示す語義間関連度の表を参照して、語義
間関連度の総和R(Ci)を演算する。すなわち制御部
11は、分類モデルにおける固有名詞以外の語につい
て、全語義間関連度の総和R(Ci)を演算する。そし
て制御部11は、演算した語義間関連度の総和R(C
i)をRAM14に記憶させる。In step F62, the control unit 11
Refers to the degree of association between all meanings included in the index of the document and all the meanings included in each category Ci by referring to the table of association between meanings shown in FIG. The total sum R (Ci) of the degrees is calculated. That is, the control unit 11 calculates the total sum R (Ci) of the degrees of association between all the meanings of words other than the proper noun in the classification model. The control unit 11 then calculates the total sum R (C
i) is stored in the RAM 14.
【0103】ここで語義間関連度について説明してお
く。語義間関連度は、図14の処理により文書処理装置
1が備える電子辞書に含まれる語義について予め算出
し、その結果を図15のように保持しておけばよい。つ
まり、制御部11が予め一度だけ図14の処理を実行し
ておくようにすることで、図13の自動分類処理の際に
用いることができる。Here, the degree of association between meanings will be described. The degree of association between meanings may be calculated in advance for the meanings included in the electronic dictionary included in the document processing apparatus 1 by the processing in FIG. 14 and the result may be stored as shown in FIG. That is, if the control unit 11 executes the process of FIG. 14 once in advance, it can be used in the automatic classification process of FIG.
【0104】制御部11が予め実行しておく図15の処
理は次のようになる。まずステップF71において、制
御部11は、電子辞書内の語の語義の説明を用いて、こ
の辞書を使って語義のネットワークを作成する。すなわ
ち、辞書における各語義の説明とこの説明中に現れる語
義との参照関係から、語義のネットワークを作成する。
ネットワークの内部構造は、上述したようなタグ付けに
より記述される。文書処理装置の制御部11は、たとえ
ばRAM14に記憶された電子辞書について、語義とそ
の説明を順に読み出して、ネットワークを作成する。制
御部14は、このようにして作成した語義のネットワー
クをRAM14に記憶させる。The processing of FIG. 15 executed by the control unit 11 in advance is as follows. First, in step F71, the control unit 11 uses the description of the meaning of a word in the electronic dictionary and creates a meaning network using this dictionary. That is, a meaning network is created from the reference relation between the explanation of each meaning in the dictionary and the meaning appearing in the explanation.
The internal structure of the network is described by tagging as described above. For example, the control unit 11 of the document processing apparatus sequentially reads meanings and descriptions of the electronic dictionary stored in the RAM 14 and creates a network. The control unit 14 causes the RAM 14 to store the meaning network created in this manner.
【0105】なお、上記ネットワークは、文書処理装置
の制御部11が辞書を用いて作成する他に、受信部21
にて外部から受信したリ、記録/再生部31にて記録媒
体32から再生したりすることにより得ることもでき
る。また上記電子辞書は、受信部21にて外部から受信
したり、記録/再生部31にて記録媒体32から再生し
たりすることにより得ることができる。The network is not only created by the control unit 11 of the document processing apparatus using a dictionary, but also by the receiving unit 21.
The recording / reproducing section 31 reproduces the data received from the outside from the recording medium 32. Further, the electronic dictionary can be obtained by receiving from the outside by the receiving unit 21 or by reproducing from the recording medium 32 by the recording / reproducing unit 31.
【0106】ステップF72においては、ステップF7
1で作成された語義のネットワーク上で、各語義のエレ
メントに対応する中心活性値の拡散処理をおこなう。こ
の活性拡散により、各語義に対応する中心活性値は、上
記辞書により与えられたタグ付けによる内部構造に応じ
て与えられる。中心活性値の拡散処理は、図7で説明し
た処理となる。In Step F72, Step F7
The central activity value corresponding to each semantic element is spread on the semantic network created in step 1. By this activity diffusion, the central activity value corresponding to each meaning is given according to the internal structure by tagging given by the dictionary. The diffusion processing of the central activity value is the processing described with reference to FIG.
【0107】ステップF73においては、ステップF7
1で作成された語義のネットワークを構成するある一つ
の語義Siを選択し、続くステップF74においては、
この語義Siに対応する語彙エレメントEiの中心活性
値eiの初期値を変化させ、このときの中心活性値の差
分△eiを計算する。In Step F73, Step F7
One semantic Si constituting the semantic network created in 1 is selected, and in the subsequent step F74,
The initial value of the central activity value ei of the vocabulary element Ei corresponding to this meaning Si is changed, and the difference △ ei of the central activity value at this time is calculated.
【0108】さらにステップF75においては、ステッ
プF74におけるエレメントEiの中心活性値eiの差
分△eiに対応する、他の語義Sjに対応するエレメン
トEjの中心活性値ejの差分△ejを求める。ステッ
プF76においては、ステップF75で求めた差分△e
jを、ステップF74で求めた△eiで除した商△ej
/△eiを、語義Siの語義sjに対する語義間関連度
とする。Further, in step F75, a difference Δej of the central activation value ej of the element Ej corresponding to another meaning Sj corresponding to the difference Δei of the central activation value ei of the element Ei in step F74 is determined. In step F76, the difference Δe obtained in step F75
quotient jej obtained by dividing j by △ ei obtained in step F74
/ △ ei is the degree of association between meanings of the meaning Si with respect to the meaning sj.
【0109】ステップF77においては、一の語義Si
と他の語義Sjとのすべての対について語義間関連度の
演算が終了したか否かについて判断する。すべての語義
の対について語義間関連度の演算が終了していないとき
には、ステップF73にもどり、語義間関連度の演算が
終了していない対について語義間関連度の演算を継続す
る。このようなステップF73からステップF77のル
ープにおいて、制御部11は、必要な値をたとえばRA
M14から順に読み出して、上述したように語義間関連
度を計算する。制御部11は、計算した語義間関連度を
たとえばRAM14に順に記憶させる。そして、すべて
の語義の対について語義間関連度の演算が終了したとき
には、ステップF77から、この一連の処理を終了す
る。In step F77, one meaning Si
It is determined whether or not the calculation of the degree of association between meanings has been completed for all pairs of the word and another meaning Sj. When the calculation of the relevance between meanings is not completed for all pairs of meanings, the process returns to step F73, and the calculation of the relevance between meanings is continued for the pairs for which the calculation of the relevance is not completed. In the loop from step F73 to step F77, the control unit 11 sets a necessary value to, for example, RA
M14 is sequentially read out, and the degree of association between meanings is calculated as described above. The control unit 11 causes the RAM 14 to sequentially store the calculated meaning-to-sense associations, for example. Then, when the calculation of the degree of inter-word meaning is completed for all the word-sense pairs, this series of processing is ended from step F77.
【0110】このような語義間関連度の算出は、或る1
つの語義の中心活性値を変化させた時に、それにつられ
て中心活性値が変化する語義を、関連度が高いものとす
る処理といえる。つまりステップF74で或る語義の中
心活性値を変化させると、それに応じて関連する(リン
クされた)語義の中心活性値が変化するものとなるた
め、その変化の度合いを調べれば、或る語義に対する他
の各語義の関連度がわかるものである。(或るエレメン
トEiの中心活性値は、上述した活性拡散の説明におい
て述べたように、リンク先のエレメントの中心活性値と
端点活性値が反映されて、そのエレメントEi端点活性
値が更新されたうえで、そのエレメントEiの端点活性
値と現在の中心活性値の和から求められるため、リンク
先との関連度が大きいほど中心活性値の変化量は大きく
なる) このような処理を各語義から他の全ての語義に対して行
っていくことで、すべての語義の対(組み合わせ)につ
いて、関連度を算出することができる。The calculation of the degree of association between meanings is performed by a certain one.
It can be said that, when the central activity value of one meaning is changed, the meaning in which the central activity value changes along with the meaning has a high degree of relevance. That is, if the central activity value of a certain meaning is changed in step F74, the central activity value of the related (linked) meaning changes accordingly, and if the degree of the change is examined, a certain meaning is obtained. The degree of relevance of each other meaning with respect to is understood. (The central activation value of an element Ei reflects the central activation value and the endpoint activation value of the linked element as described in the above description of the activity diffusion, and the element Ei endpoint activation value is updated. In addition, since the value is obtained from the sum of the end point activity value of the element Ei and the current center activity value, the larger the degree of association with the link destination is, the larger the amount of change of the center activity value is.) By performing the processing for all other meanings, it is possible to calculate the degree of association for all pairs (combinations) of meanings.
【0111】このように計算された語義間関連度は、図
15に示すように、それぞれの語義と語義の間に定義さ
れる。この図15の表においては、語義間関連度は0か
ら1までの値をとるように正規化されている。そしてこ
の表においては一例として“コンピュータ”、“テレ
ビ”、“VTR”の間の相互の語義間関連度が示されて
いる。“コンピュータ”と“テレビ”の語義間関連度は
0.55、“コンピュータ” と“VTR”の語義間関
連度は0.25、“テレビ”と“VTR”の語義間関連
度は0.60である。The calculated degree of association between meanings is defined between each meaning as shown in FIG. In the table of FIG. 15, the degree of association between meanings is normalized to take a value from 0 to 1. In this table, as an example, the degree of inter-semantic association between “computer”, “television”, and “VTR” is shown. The relevance between meanings of "computer" and "television" is 0.55, the relevance between meanings of "computer" and "VTR" is 0.25, and the relevance between meanings of "television" and "VTR" is 0.60. It is.
【0112】以上のように予め算出されていた語義間関
連度を用いて図13のステップF62の処理が行われた
ら、続いて制御部11は、ステップF63として、カテ
ゴリCiに対する文書の文書分類間関連度Rel(C
i)を Rel(Ci)=m1P(Ci)+n1R(Ci) として算出する。ここで、係数m1、n1は定数で、そ
れぞれの値の文書分類間関連度への寄与の度合いを表す
ものである。制御部11は、ステップF61で算出した
共通集合の数P(Ci)およびステップF62で算出し
た語義間関連度の総和R(Ci)を用いて、上記式の演
算を行い、文書分類間関連度Rel(Ci)を算出す
る。制御部11は、このように算出した文書分類間関連
度Rel(Ci)をRAM14に記憶させる。When the processing of step F62 in FIG. 13 is performed using the degree of association between the meanings calculated in advance as described above, the control unit 11 then proceeds to step F63 where the inter-document classification of the document with respect to the category Ci is performed. Relevance Rel (C
i) is calculated as Rel (Ci) = m1P (Ci) + n1R (Ci). Here, the coefficients m1 and n1 are constants and represent the degree of contribution of the respective values to the inter-document-class relevance. The control unit 11 performs the calculation of the above expression using the number P (Ci) of common sets calculated in step F61 and the sum R (Ci) of the degree of association between meanings calculated in step F62, and calculates the degree of association between document classifications. Calculate Rel (Ci). The control unit 11 causes the RAM 14 to store the thus calculated inter-document-class relevance Rel (Ci).
【0113】なお、これらの係数m1、n1の値として
は、たとえばm1=10、n1=1とすることができ
る。また係数m1、n1の値は、統計的手法を使って推
定することもできる。すなわち、制御部11は、複数の
係数mおよびnの対について文書分類間関連度Rel
(Ci)が与えられることで、上記係数を最適化により
求めることができる。The values of these coefficients m1 and n1 can be, for example, m1 = 10 and n1 = 1. The values of the coefficients m1 and n1 can also be estimated using a statistical method. That is, the control unit 11 determines the degree of association Rel between document classifications for a plurality of pairs of coefficients m and n.
Given (Ci), the coefficient can be obtained by optimization.
【0114】ステップF64においては、制御部11
は、カテゴリCiに対する文書分類間関連度Rel(C
i)が最大で、その文書分類間関連度Rel(Ci)の
値がある閾値を越えているとき、そのカテゴリCiに文
書を分類する。すなわち制御部11は、複数のカテゴリ
に対してそれぞれ文書分類間関連度を作成し、最大の文
書分類間関連度が閣値を越えているときには、文書を最
大の文書分類間関連度を有する上記カテゴリCiに分類
する。これにより文書が自動的に所要のカテゴリに分類
されることになる。なお最大の文書分類間関連度が閾値
を越えていないときには、文書の分類はおこなわない。In Step F64, the control unit 11
Is the document class relevance Rel (C
When i) is the largest and the value of the degree of association Rel (Ci) between the document classifications exceeds a certain threshold, the documents are classified into the category Ci. That is, the control unit 11 creates the inter-document-class relevance for each of the plurality of categories, and when the maximum inter-document-class relevance exceeds the cabinet value, the control unit 11 assigns the document with the maximum inter-document-class relevance. Classify into category Ci. As a result, the document is automatically classified into a required category. If the maximum degree of association between document classifications does not exceed the threshold value, no document classification is performed.
【0115】以上のような図13の処理として、図12
のステップF23の自動分類が行われたら、ステップF
24、F25で、それに応じて分類モデルを更新し、登
録することで、一連の自動分類が完了する。即ち文書処
理装置1に受信された文書データは、自動的に分類され
たことになり、ユーザーは例えば図9の分類ウインドウ
201において、所要の文書分類エリアにおいて、受信
された文書データを確認できることになる。The processing shown in FIG.
If the automatic classification in step F23 is performed,
The series of automatic classification is completed by updating and registering the classification model accordingly at 24 and F25. That is, the document data received by the document processing apparatus 1 is automatically classified, and the user can confirm the received document data in a required document classification area, for example, in the classification window 201 of FIG. Become.
【0116】5.読み上げ処理 続いて、文書データについての読み上げを行う処理につ
いて述べる。上述したようにユーザーは、文書を選択し
て図10のような閲覧ウインドウ301を開くことによ
り、文書の本文を閲覧することができる。例えば上述し
た手動分類処理におけるステップF13の時点や、その
他任意の時点において、図9で説明した分類ウインドウ
201から、閲覧ウインドウ301を開くことができ
る。5. Read-aloud process Next, a process of reading aloud document data will be described. As described above, the user can browse the text of the document by selecting the document and opening the browse window 301 as shown in FIG. For example, the viewing window 301 can be opened from the classification window 201 described with reference to FIG.
【0117】例えば分類ウインドウ201において或る
文書を選択した状態でブラウザボタン202bをクリッ
クすることで、後述する図26のように、文書表示部3
03に選択された文書の本文が表示された閲覧ウインド
ウ301が開かれる。なお文書表示部303に文書全文
が表示できないときには、その文書の一部が表示され
る。また要約文が作成されていない時点では、図26の
ように要約表示部304は空白とされる。要約文の作成
及び表示動作については後述する。For example, by clicking a browser button 202b while a certain document is selected in the classification window 201, the document display unit 3 is displayed as shown in FIG.
A browsing window 301 displaying the text of the document selected in 03 is opened. When the entire text of the document cannot be displayed on the document display unit 303, a part of the document is displayed. At the point in time when a summary sentence has not been created, the summary display section 304 is blank as shown in FIG. The creation and display operation of the summary sentence will be described later.
【0118】このように文書処理装置1は、タグ付けさ
れた文書を受信すると、その本文や詳しくは後述する要
約文を表示してユーザーに提示できるが、さらに受信し
た文書を音声でユーザーに提示することもできる。即ち
CPU13により、ROM15やHDD34に記録され
ている電子文書処理プログラムのうちの音声読み上げプ
ログラムを起動することで、図16に示すような一連の
工程を経ることによって、文書の読み上げを行うことが
できる。まずここでは、簡略化した各工程の説明を行
い、その後、具体的な文書例を用いて、各工程の説明を
詳細に行う。As described above, when the document processing apparatus 1 receives the tagged document, the document processing apparatus 1 can display the text and a summary sentence described later in detail, and present the received document to the user by voice. You can also. In other words, the CPU 13 activates a voice reading program among the electronic document processing programs recorded in the ROM 15 or the HDD 34, thereby reading the document through a series of steps as shown in FIG. . First, here, a simplified description of each step is given, and thereafter, each step is explained in detail using a specific document example.
【0119】制御部11の処理として、図16のステッ
プF101は、図4のステップF11(又は図12のス
テップF21)と同様の文書受信/記憶処理である。上
述ののように、受信した文書(タグ付文書)については
手動又は自動での分類処理が行われるが、それと同様
に、受信した文書について読み上げ処理も実行可能とい
う意味で図16にステップF101を記したものであ
る。ここでは特に処理手順として、分類処理と読み上げ
処理の順序その他を規定するものではない。As a process of the control unit 11, step F101 in FIG. 16 is a document receiving / storing process similar to step F11 in FIG. 4 (or step F21 in FIG. 12). As described above, the received document (tagged document) is subjected to manual or automatic classification processing. Similarly, in step S101, FIG. It is written. Here, the order of the classification process and the reading process and the like are not particularly defined as the processing procedure.
【0120】なお、文書読み上げ処理の対象となる文書
(受信文書)には、後述するように、音声合成を行うた
めに必要なタグが付与されていることが必要である。但
し、文書処理装置1は、タグ付けされた文章を受信した
うえで、その文書に音声合成を行うために必要なタグを
新たに付与して文書を作成することもできる。以下で
は、このようにして受信又は作成されて用意されたタグ
付き文書を、タグファイルと記す。It is necessary that a document (reception document) to be subjected to the text-to-speech processing is provided with a tag necessary for performing speech synthesis, as described later. However, after receiving the tagged text, the document processing apparatus 1 can also create a document by newly adding a tag necessary for performing speech synthesis to the document. Hereinafter, the tagged document prepared by receiving or creating in this manner is referred to as a tag file.
【0121】文書処理装置1の文書読み上げ処理として
は続いてステップF102において、CPU13の制御
のもとに、タグファイルに基づいて読み上げ用ファイル
を生成する。この読み上げ用ファイルは、後述するよう
に、タグファイル中のタグから、読み上げのための属性
情報を導出し、この属性情報を埋め込むことにより生成
される。In the document reading process of the document processing apparatus 1, subsequently, in step F102, a reading file is generated based on the tag file under the control of the CPU 13. As will be described later, the reading file is generated by deriving attribute information for reading from a tag in the tag file and embedding the attribute information.
【0122】続いてステップF103において文書処理
装置1は、CPU13の制御のもとに、読み上げ用ファ
イルを用いて、音声合成エンジンに適した処理を行う。
なお、この音声合成エンジンは、ハードウェアで構成し
てもよいし、ソフトウェアで実現するようにしてもよ
い。音声合成エンジンをソフトウェアで実現する場合に
は、そのアプリケーションプログラムは、ROM15や
HDD34等に予め記憶されている。本例の文書処理装
置1において、読み上げ処理や、後述する要約作成/表
示処理、ビデオ出力処理などを実行するために形成され
る機能ブロック構成については、図37を用いて後に説
明するが、上記音声合成エンジンは、その図37におけ
る音声合成エンジン601に相当する。Subsequently, in step F103, under the control of the CPU 13, the document processing apparatus 1 performs processing suitable for the speech synthesis engine using the reading file.
This speech synthesis engine may be configured by hardware or may be realized by software. When the speech synthesis engine is realized by software, the application program is stored in the ROM 15 or the HDD 34 in advance. In the document processing apparatus 1 of this example, a functional block configuration formed to execute a reading process, a summary creation / display process, a video output process, and the like, which will be described later, will be described later with reference to FIG. The speech synthesis engine corresponds to the speech synthesis engine 601 in FIG.
【0123】続いて文書処理装置1はステップF104
において、ユーザが後述するユーザインターフェースを
用いて行う操作に応じて処理を行う。文書処理装置1
は、このような処理を行うことによって、与えられた文
書を読み上げることができる。これらの各工程につい
て、以下詳細に説明する。Subsequently, the document processing apparatus 1 proceeds to step F104.
In, processing is performed according to an operation performed by a user using a user interface described later. Document processing device 1
Can read out a given document by performing such processing. Each of these steps will be described in detail below.
【0124】まず、ステップF101におけるタグ付け
された文書の受信又は作成について説明する。文書処理
装置1は、例えば通信部21から文書(音声合成を行う
ために必要なタグが既に付与されている文書)を受信す
る。または、文書処理装置1は、タグ付けされた文書を
受信し、その文書に音声合成を行うために必要なタグを
新たに付与して文書を作成する。First, reception or creation of a tagged document in step F101 will be described. The document processing apparatus 1 receives, for example, a document (a document to which a tag required for performing speech synthesis has already been added) from the communication unit 21. Alternatively, the document processing apparatus 1 receives a tagged document, and newly adds a tag necessary for performing speech synthesis to the document to create the document.
【0125】説明上の例として、以下のような、日本
語、及び英語の文書にタグ付けがなされたタグファイル
が、受信又は作成されものとする。As an illustrative example, it is assumed that the following tag file in which Japanese and English documents are tagged is received or created.
【0126】まずタグファイルの元となる日本語文書
は、次のような文書とする。 「[素敵にエイジング]/8ガン転移、抑えられる!? がんはこの十数年、わが国の死因第一位を占めている。
その死亡率は年齢が進むとともに増加傾向にある。高齢
者の健康を考えるとき、がんの問題を避けて通れない。
がんを特徴づけるのは、細胞増殖と転移である。人間の
細胞には、自動車でいえばアクセルに当たり、がんをど
んどん増殖する「がん遺伝子」と、ブレーキ役の「がん
抑制遺伝子」がある。双方のバランスが取れていれば問
題はない。正常な調節機能が失われ、細胞内でブレーキ
が利かない変異が起こると、がんの増殖が始まる。高齢
者の場合、長い年月の間にこの変異が蓄積し、がん化の
条件を備えた細胞の割合が増え、がん多発につながるわ
けだ。ところで、もう一つの特徴、転移という性質がな
ければ、がんはそれほど恐れる必要はない。切除するだ
けで、完治が可能になるからである。転移を抑制するこ
との重要性がここにある。この転移、がん細胞が増える
だけでは発生しない。がん細胞が細胞と細胞の間にある
蛋白(たんぱく)質などを溶かし、自分の進む道をつく
って、血管やリンパ管に入り込む。循環しながら新たな
“住み家”を探して潜り込む、といった複雑な動きをす
ることが、近年解明されつつある。」First, a Japanese document serving as a source of a tag file is as follows. "[Nice aging] / 8 cancer metastases can be suppressed! Cancer has been the leading cause of death in Japan for more than a decade.
The mortality rate is increasing with age. When thinking about the health of the elderly, you cannot avoid cancer.
Characterizing cancer is cell proliferation and metastasis. There are two types of human cells: "cancer genes", which act as accelerators in automobiles and rapidly grow cancer, and "cancer suppressing genes" that act as brakes. There is no problem if both are balanced. Loss of normal regulatory function and nonbreaking mutations in the cell initiate cancer growth. In the elderly, the mutation accumulates over the years, increasing the proportion of cells with cancerous conditions, leading to more cancers. By the way, without the other characteristic, metastasis, cancer doesn't have to be so afraid. This is because a complete cure is possible just by resection. Here is the importance of suppressing metastasis. This metastasis does not occur simply by increasing the number of cancer cells. Cancer cells dissolve proteins (proteins) between cells, create their own way, and enter blood vessels and lymph vessels. In recent years, it has been elucidated that complicated movements such as searching for a new “dwelling house” while circulating are performed. "
【0127】タグファイルの元となる英語の文書の例は
次のようなものとする 「During its centennial year, The ABC Journal will
report events of the past century that stand as m
ilestones of American business history. THREE COMP
UTERS THAT CHANGED the face of personal computing
were Iaunchedin 1977. That year the PC A II, PC B
and PC C came to market. The computers were crude
by today's standerds. PC A ll owners, for example,
had touse their television sets as screens and sto
red data on audiocassettes.」An example of an English document serving as a source of a tag file is as follows: “During its centennial year, The ABC Journal will
report events of the past century that stand as m
ilestones of American business history.THREE COMP
UTERS THAT CHANGED the face of personal computing
were Iaunchedin 1977. That year the PC A II, PC B
and PC C came to market.The computers were crude
by today's standerds.PC A ll owners, for example,
had touse their television sets as screens and sto
red data on audiocassettes.
【0128】文書処理装置1は、このような日本語又は
英語の文書についてタグが付された文書を受信すると、
分類処理や、後述する図26、図27のようにその本文
を表示したり、要約文を作成して表示することができ
る。When the document processing apparatus 1 receives a document to which such a Japanese or English document is tagged,
It is possible to perform the classification process, display the text as shown in FIGS. 26 and 27 described later, or create and display a summary sentence.
【0129】ここで上記の日本語又は英語の文書は、そ
れそれ、図18又は図19に示すようなタグファイルと
して構成されている。日本語文書のタグファイルとして
は、図18(a)に見出しの部分である「〔素敵にエイ
ジング〕/8ガン転移、抑えられる!?」を抜粋したも
のを示し、図18(b)に、文書中の最後の段落である
「この転移、がん細胞が・・・・近年解明されつつあ
る。」を抜粋したものを示している。残りの段落につい
ては省略してある。なお、実際のタグファイルは、見出
し部分から最後の段落までが1つのファイルとして構成
されている。Here, the above-mentioned Japanese or English documents are each constituted as a tag file as shown in FIG. 18 or FIG. As a tag file of a Japanese document, FIG. 18 (a) shows an excerpt of the heading “[nicely aging] / 8 cancer metastasis, suppressed !?”, and FIG. 18 (b) It shows an excerpt from the last paragraph in the document, "This metastasis, cancer cells are being elucidated in recent years." The remaining paragraphs have been omitted. It should be noted that the actual tag file is composed of one file from the heading to the last paragraph.
【0130】図18(a)に示す見出し部分において、
<見出し>というタグは、この部分が見出しであること
を示している。この図18(a)(b)に示すタグファ
イルは基本的には、図2を用いて文書データ構造を説明
した際に用いたタグファイル例と同様にタグが付されて
いるものであり、上述した各タグについての細かい説明
は省略するが、所要各所に、音声合成を行うために必要
なタグが付与されているものである。In the heading portion shown in FIG.
The tag <heading> indicates that this part is a heading. The tag files shown in FIGS. 18A and 18B are basically attached with tags in the same manner as the tag file example used when the document data structure was described with reference to FIG. Although a detailed description of each of the above-described tags is omitted, tags required for performing speech synthesis are added to required locations.
【0131】音声合成を行うために必要なタグとして
は、例えばまず、図中「例1」の部分に示すように、
「蛋白(たんぱく)」のように元の文書に読み仮名を示
す情報が与えられているときに付与されるものがある。
すなわち、この場合では、「たんぱくたんぱく」と重複
して読み上げてしまうことを防ぐために、発音=“nul
l”という読み属性情報が記述されており、「(たんぱ
く)」の部分読み上げを禁止するタグが付与されてい
る。また、音声合成を行うために必要なタグとしては、
図中「例2」「例3」に示すように、「リンパ管」のよ
うな専門用語や「住み家」のように、誤った読み上げを
行う可能性のある難訓部分に付与されるものがある。す
なわち、この場合では、「りんぱくだ」や「すみいえ」
と読み上げてしまうことを防ぐために、それぞれ、発音
=“りんぱかん”、発音=“すみか”という読み仮名を
示す読み属性情報が記述されている。For example, first, as shown in the portion of “Example 1” in the figure,
Some are given when information indicating a reading pseudonym is given to the original document, such as “protein”.
In other words, in this case, the pronunciation = “nul
Reading attribute information “l” is described, and a tag for prohibiting partial reading of “(tanpaku)” is added. Also, the tags required to perform speech synthesis include:
As shown in the "Example 2" and "Example 3" in the figure, technical terms such as "lymphatic vessels" and difficult-to-read parts such as "dwelling house" that may be read aloud incorrectly There is. In other words, in this case, "Rinpakuda" or "Sumie"
In order to prevent the pronunciation from being read out, pronunciation attribute information indicating the pronunciation pseudonym of pronunciation = “Rinkan” and pronunciation = “Sumika” is described.
【0132】一方、図19に示すタグファイルにおける
音声合成を行うために必要なタグとしては、図中「例
4」として示す部分のように、「II」というローマ数
字に対して、発音=“two”という読み属性情報が記述
されている。これは、「II」を「トゥ(two)」と読
み上げさせたい場合に、「セカンド(second)」と読み
上げてしまうことを防ぐために記述されているものであ
る。On the other hand, as a tag necessary for performing speech synthesis in the tag file shown in FIG. 19, as shown in a portion shown as “Example 4” in the figure, a pronunciation = “ Two ”reading attribute information is described. This is described in order to prevent "II" from being read out as "second" when it is desired to be read out as "two".
【0133】また、例えば文書内に引用文が含まれてい
る場合、このようなタグファイルには、図示しないが、
その文が引用文であることを示すタグが付与される。さ
らに、タグファイルには、例えば文書内に疑問文がある
場合、図示しないが、その文が疑問文であることを示す
タグが付与される。For example, if a document includes a quote, such a tag file includes, although not shown,
A tag indicating that the sentence is a quote is attached. Further, when there is a question sentence in the document, for example, a tag indicating that the sentence is a question sentence is added to the tag file, though not shown.
【0134】文書処理装置1は、先に図16に示したス
テップF101において、例えば以上の例のように、音
声合成を行うために必要なタグが付与された文書を受信
又は作成するものとなる。In step F101 shown in FIG. 16, the document processing apparatus 1 receives or creates a document to which a tag necessary for performing speech synthesis has been added as in the above example. .
【0135】つぎに、図16のステップF102におけ
る読み上げ用ファイルの生成について説明する。文書処
理装置1は、タグファイル中のタグから、読み上げめた
めの属性情報を導出し、この属性情報を埋め込むことに
よって読み上げ用ファイルを生成する。具体的には、文
書処理装置1は、文書の段落、文、句の先頭を示すタグ
を見つけ出し、これらのタグに対応して読み上げのため
の属性情報を埋め込む。また文書処理装置は、文書の要
約文を作成した場合には、その要約文に含まれる部分の
先頭を文書から見つけ出し、読み上げの際に音量を増大
させる属性情報を埋め込み、要約文に含まれる部分であ
ることを強調することなどもできる。Next, the generation of a reading file in step F102 of FIG. 16 will be described. The document processing device 1 derives attribute information for reading out from a tag in the tag file, and generates a reading-out file by embedding the attribute information. Specifically, the document processing apparatus 1 finds tags indicating the beginning of a paragraph, a sentence, or a phrase of a document, and embeds attribute information for reading aloud in correspondence with these tags. When the document processing apparatus prepares the summary of the document, the head of the part included in the summary is found from the document, and the attribute information for increasing the volume at the time of reading out is embedded. Can be emphasized.
【0136】文書処理装置1は、図18又は図19に示
したタグファイルから図20又は図21に示すような読
み上げ用ファイルを生成する。なお、図20(a)
(b)は図18(a)(b)に示した部分に対応するも
のである。実際の読み上げ用ファイルは、上述した見出
し部分から最後の段落までが1つのファイルとして構成
されていることは勿論である。The document processing device 1 generates a reading file as shown in FIG. 20 or 21 from the tag file shown in FIG. 18 or FIG. FIG. 20 (a)
(B) corresponds to the portion shown in FIGS. It goes without saying that the actual reading file is composed of one file from the above-mentioned heading portion to the last paragraph.
【0137】図20に示す読み上げ用ファイルには、文
書の先頭に対応してCom=Lang***という属性情報が埋め
込まれている。この属性情報は、文書を記述している言
語を示す。ここでは、Com=Lang=JPNという属性情報であ
り、文書を記述している言語が日本語であることを示し
ている。文書処理装置においては、この属性情報を参照
することで、文書毎に言語に応じた適切な音声合成エン
ジンを選択することができる。In the reading file shown in FIG. 20, attribute information of Com = Lang *** is embedded corresponding to the head of the document. This attribute information indicates the language describing the document. Here, the attribute information is Com = Lang = JPN, indicating that the language describing the document is Japanese. In the document processing apparatus, by referring to the attribute information, it is possible to select an appropriate speech synthesis engine corresponding to the language for each document.
【0138】また、この読み上げ用ファイルには各所
に、Com=begin_p、Com=begin_s、Com=begin_phという属
性情報が埋め込まれている。これらの属性情報は、それ
ぞれ、文書の段落、文及び句の先頭を示す。文書処理装
置1は、上述したタグファイル中のタグに基づいて、こ
れらの段落、文及び句の先頭を識別する。なお、読み上
げ用ファイルにおいて、例えば上述したタグファイル中
の<形容動詞句><名詞句>のように、同じレベルの統
語構造を表すタグが連続して表れる部分に対しては、そ
れぞれに対応する数のCom=begin_phが埋め込まれずに、
まとめられて1つのCom=begin_phが埋め込まれる。The read-out file has embedded therein attribute information such as Com = begin_p, Com = begin_s, and Com = begin_ph. These pieces of attribute information indicate the beginnings of paragraphs, sentences, and phrases of the document, respectively. The document processing device 1 identifies the beginning of these paragraphs, sentences, and phrases based on the tags in the tag file described above. In the reading file, for example, portions where tags representing syntactic structures of the same level appear continuously, such as <adjective verb phrase><nounphrase> in the above-described tag file, correspond to each. Without the number Com = begin_ph being embedded,
It is put together and one Com = begin_ph is embedded.
【0139】さらに、読み上げ用ファイルには、Com=be
gin_p、Com=begin_s、及びCom=begin_phに対応して、そ
れぞれ、Pau=500、Pau=100及びPau=50という属性情報が
埋め込まれている。これらの属性情報は、それぞれ、読
み上げの際に500ミリ秒、100ミリ秒及び50ミリ
秒の休止期間を設けることを示す。すなわち文書処理装
置1が、文章の段落、文及び句の先頭こおいて、それぞ
れ、500ミリ秒、100ミリ秒及び50ミリ秒の休止
期間を設けて文書を音声合成エンジンにより読み上げる
ようにするための情報である。なお、これらの属性情報
は、Com=begin_p、Com=begin_s及びCom=begin_phに対応
して埋め込まれる。そのため、例えばタグファイル中の
<副詞句><名詞句>のように、同じレベルの統語構造
を表すタグが連続して表れる部分は、1つの句として捉
えられ、それぞれに対応する数のPau=50が埋め込まれず
に、まとめられて1つのPau=50が埋め込まれる。また、
例えばタグファイル中の<段落><文><名詞句>のよ
うに、異なるレベルの統語構造を表すタグが連続して表
れる部分については、それぞれに対応するPau=***が埋
め込まれる。そのため文書処理装置1は、このような部
分を読み上げる際には、例えば文書の段落、文及び句の
それぞれの休止期間を加算して得られる650ミリ秒の
休止期間を設けて読み上げるようにする。このように、
文書処理装置1は、段落、文及び句に対応した休止期間
を設けることで、段落、文及び句の切れ目を考慮した違
和感のない読み上げを行うことができる。なお、この休
止期間は、文書の段落、文及び句の先頭において、それ
ぞれ、600ミリ秒、100ミリ秒及び50ミリ秒であ
る必要はなく、適宜変更することができる。Further, the read-out file includes Com = be
Attribute information of Pau = 500, Pau = 100, and Pau = 50 is embedded corresponding to gin_p, Com = begin_s, and Com = begin_ph, respectively. These pieces of attribute information indicate that pause periods of 500 ms, 100 ms, and 50 ms are provided for reading out. That is, the document processing apparatus 1 provides pauses of 500 ms, 100 ms, and 50 ms at the beginning of a paragraph, a sentence, and a phrase of a sentence, respectively, so that the document is read out by the speech synthesis engine. Information. Note that these pieces of attribute information are embedded corresponding to Com = begin_p, Com = begin_s, and Com = begin_ph. Therefore, for example, a portion where tags representing the same level of syntactic structure appear continuously, such as <adverb phrase><nounphrase> in the tag file, is regarded as one phrase, and the corresponding number of Pau = One Pau = 50 is embedded together without being embedded. Also,
For example, Pau = *** is embedded in portions where tags representing different levels of syntactic structure appear continuously, such as <paragraph><sentence><nounphrase> in the tag file. Therefore, when reading out such a portion, the document processing apparatus 1 provides a pause period of 650 milliseconds obtained by adding the pause periods of the paragraphs, sentences, and phrases of the document, for example. in this way,
By providing a pause period corresponding to a paragraph, a sentence, and a phrase, the document processing apparatus 1 can perform reading without discomfort in consideration of a break between the paragraph, the sentence, and the phrase. The pause period need not be 600 ms, 100 ms, and 50 ms at the beginning of the paragraph, sentence, and phrase of the document, respectively, and can be changed as appropriate.
【0140】さらにまた、読み上げ用ファイルにおいて
は、タグファイル中で記述されている発音=“null”と
いう読み属性情報に対応して、「(たんぱく)」が除か
れているとともに、発音=“りんぱかん”、発音=“す
みか”という読み属性情報に対応して、「リンパ管」、
「住み家」が、それぞれ、「りんぱかん」、「すみか」
に置換されている。文書処理装置1は、このような読み
属性情報を埋め込むことで、音声合成エンジンが参照す
る辞書の不備による読み誤りをすることがないようにし
ている。Further, in the reading-out file, “(protein)” is removed and the pronunciation = “rin” corresponding to the pronunciation attribute information of pronunciation = “null” described in the tag file. According to the reading attribute information of "kan" and pronunciation = "Sumika", "lymphatic vessels"
"Dwellers" are "Rinkan" and "Sumika", respectively.
Has been replaced by By embedding such reading attribute information, the document processing device 1 prevents reading errors due to inadequate dictionaries referenced by the speech synthesis engine.
【0141】また、読み上げ用ファイルには、文書内に
含まれた引用文であることを示すタグに基づいて、この
引用文のみを別の音声合成エンジンを用いるように指定
するための属性情報が埋め込まれてもよい。さらに、読
み上げ用ファイルには、疑問文であることを示すタグに
基づいて、その文の語尾のイントネーションを上げるた
めの属性情報が埋め込まれるようにしてもよい。さらに
また、読み上げ用ファイルには、必要に応じて、いわゆ
る「である調」の文体を「ですます調」の文体に変換す
るための属性情報を埋め込むこともできる。なお、この
場合、文書処理装置1は、このような属性情報を読み上
げ用ファイルに埋め込むのではなく、「である調」の文
体を「ですます調」の文体に変換して音声読み上げ用フ
ァイルを生成するようにしてもよい。Further, in the reading-out file, attribute information for designating only this quotation to use another speech synthesis engine based on a tag indicating that the quotation is included in the document is included. It may be embedded. Further, attribute information for raising the intonation of the ending of the sentence may be embedded in the reading-out file based on a tag indicating that the sentence is a question sentence. Furthermore, in the reading-out file, if necessary, attribute information for converting a so-called "Dama-tona" style to a "Dama-tona" style can be embedded. In this case, instead of embedding such attribute information in the reading-out file, the document processing apparatus 1 converts the style of "Dana-tona" into the style of "Dan-Ma-tona" and converts the speech reading-out file. You may make it generate | occur | produce.
【0142】一方、図21に示す読み上げ用ファイルに
は、文書の先頭に対応してCom=Lang=ENGという属性情報
が埋め込まれており、文書を記述している言語が英語で
あることを示している。また、読み上げ用ファイルに
は、Com=Vol=***という属性情報が埋め込まれている。
この属性情報は、読み上げの時の音量を示す。例えば、
Com=Vol=0は、文書処理装置のデフォルトの音量で読み
上げることを示している。また、Com=Vol=80は、デフォ
ルトの音量を80%増量した音量で読み上げることを示
している。任意の、Com=Vol=***は、次のCom=Vol=***ま
で有効である。さらに、読み上げ用ファイルにおいて
は、タグファイル中で記述されている発音=“two”と
いう読み属性情報に対応して、「II」が「two」に置
換されている。On the other hand, in the read-out file shown in FIG. 21, attribute information Com = Lang = ENG is embedded at the beginning of the document, indicating that the language describing the document is English. ing. The attribute information of Com = Vol = *** is embedded in the file for reading out.
This attribute information indicates the volume at the time of reading. For example,
Com = Vol = 0 indicates that the text is read out at the default volume of the document processing apparatus. Com = Vol = 80 indicates that the default volume is read out at a volume increased by 80%. Any Com = Vol = *** is valid until the next Com = Vol = ***. Further, in the reading file, "II" is replaced by "two" in accordance with the reading attribute information of pronunciation = "two" described in the tag file.
【0143】文書処理装置1は、図17に示す一連の工
程を経ることによって、このような読み上げ用ファイル
を生成する。まず文書処理装置1は、ステップF201
において、CPU13によって、受信又は作成したタグ
ファイルを解析する。ここで文書処理装置1は、文書を
記述している言語を判別するとともに、文書の段落、文
及び句の先頭や、読み属性情報をタグに基づいて探し出
す。続いて文書処理装置1は、ステップF202におい
て、CPU13によって、文書を記述している言語に応
じて文書の先頭にCom=Lang=***という属性情報を埋め込
む。The document processing apparatus 1 generates such a reading file through a series of steps shown in FIG. First, the document processing apparatus 1 executes step F201.
The CPU 13 analyzes the received or created tag file. Here, the document processing apparatus 1 determines the language in which the document is described, and searches for the head of the paragraph, sentence, and phrase of the document, and the reading attribute information based on the tag. Subsequently, in step F202, the document processing apparatus 1 embeds attribute information Com = Lang = *** at the head of the document by the CPU 13 in accordance with the language in which the document is described.
【0144】次に文書処理装置1は、ステップF203
において、CPU13によって、文書の段落、文及び句
の先頭を読み上げ用ファイルにおける属性情報に置換す
る。すなわち文書処理装置1は、タグファイル中の<段
落>、<文>及び<***句>を、それぞれ、Com=begi
n_p、Com=begin_s及びCom=begin_phに置換する。Next, the document processing apparatus 1 executes step F203.
, The CPU 13 replaces the head of the paragraph, sentence and phrase of the document with the attribute information in the reading file. That is, the document processing apparatus 1 replaces <paragraph>, <sentence>, and <*** phrase> in the tag file with Com = begi
Replace with n_p, Com = begin_s and Com = begin_ph.
【0145】さらに文書処理装置1は、ステップF20
4において、CPU13によって、同じレベルの統語構
造が表れて同じCom=begin_***が重複しているものを、
1つのCom=begin_***にまとめる。続いて文書処理装置
1は、ステップF205において、CPU13によっ
て、Com=begin_***に対応してPau=***を埋め込む。すな
わち文書処理装置1は、Com=begin_pの前にPau=500を埋
め込み、Com=begin_sの前にPau=100を埋め込み、Com=be
gin_phの前にPau=50を埋め込む。そして文書処理装置1
は、ステップF206において、CPU13によって、
読み属性情報に基づいて、正しい読みに置換する。すな
わち文書処理装置1は、発音=“null”という読み属性
情報に基づいて、「(たんぱく)」を除去するととも
に、発音=“りんぱかん”、発音=“すみか”という読
み属性情報に基づいて、「リンパ管」、「住み家」を、
それぞれ、「りんぱかん」、「すみか」に置換する。Further, the document processing apparatus 1 executes step F20.
In 4, the same level of syntactic structure appears by the CPU 13 and the same Com = begin _ ***
Combine into one Com = begin _ ***. Subsequently, in step F205, the document processing apparatus 1 embeds Pau = *** in correspondence with Com = begin _ *** by the CPU 13. That is, the document processing apparatus 1 embeds Pau = 500 before Com = begin_p, embeds Pau = 100 before Com = begin_s,
Embed Pau = 50 before gin_ph. And the document processing device 1
Is determined by the CPU 13 in step F206.
Replace with correct reading based on reading attribute information. That is, the document processing apparatus 1 removes “(protein)” based on the pronunciation attribute information “pronunciation =“ null ”, and based on the pronunciation attribute information“ pronunciation = “Rinkan” and pronunciation = “Sumika”. "Lymphatic vessels", "houses"
Substitute “Rinkan” and “Sumika”, respectively.
【0146】文書処理装置1は、先に図16に示したス
テップF102において、この図17に示す処理を行う
ことによって、読み上げ用ファイルを自動的に生成す
る。文書処理装置1は、生成した読み上げ用ファイルを
RAM14に記憶させる。In step F102 shown in FIG. 16, the document processing apparatus 1 automatically generates a reading file by performing the processing shown in FIG. The document processing device 1 causes the RAM 14 to store the generated reading file.
【0147】つぎに、図16のステップF103におけ
る読み上げ用ファイルを用いた処理について説明する。
文書処理装置1は、読み上げ用ファイルを用いて、RO
M15やHDD34等に予め記憶されている音声合成エ
ンジンに適した処理をCPU13の制御のもとに行う。
具体的には、文書処理装置1は、読み上げ用ファイルに
埋め込まれているCom=Lang=***という属性情報に基づい
て、使用する音声合成エンジンを選択する。音声合成エ
ンジンは、言語や男声/女声等の種類に応じて識別子が
付されており、その情報が例えば初期設定ファイルとし
てHDD34に記録されている。文書処理装置1は、初
期設定ファイルを参照し、言語に対応した識別子の音声
合成エンジンを選択する。 .Next, the processing using the reading file in step F103 of FIG. 16 will be described.
The document processing device 1 uses the read-out file to
Under the control of the CPU 13, processing suitable for the speech synthesis engine stored in advance in the M15, the HDD 34, or the like is performed.
Specifically, the document processing apparatus 1 selects a speech synthesis engine to be used based on the attribute information of Com = Lang = *** embedded in the reading file. The speech synthesis engine is provided with an identifier according to the type of language or male / female voice, and the information is recorded in the HDD 34 as, for example, an initialization file. The document processing device 1 refers to the initialization file and selects a speech synthesis engine having an identifier corresponding to the language. .
【0148】また文書処理装置1は、読み上げ用ファイ
ルに埋め込まれているCom=begin_***を音声合成エンジ
ンに適した形式に変換する。例えば文書処理装置1は、
Com=begin_phをMark=10000のように10000番台の番
号でマーク付けする。またCom=begin_sをMark=1000のよ
うに1000番台の番号でマーク付けし、Com=begin_p
をMark=100のように100番台の番号でマーク付けす
る。これは、<句>、<文>、<段落>の先頭が、それ
ぞれ10000番台、1000番台、100番台の番号
で示されることを意味し、このマークによって<句>、
<文>、<段落>の先頭が識別できるようになる。さら
に、読み上げ用ファイルにおいては、音量の属性情報が
Voll=***のようにデフォルトの音量の百分率で表されて
いることから、文書処理装置1は、この属性情報に基づ
いて、百分率の情報を絶対値の情報に変換して求める。The document processing apparatus 1 converts Com = begin _ *** embedded in the file for reading out into a format suitable for the speech synthesis engine. For example, the document processing device 1
Mark Com = begin_ph with a number in the 10000s, such as Mark = 10000. Also mark Com = begin_s with a number in the 1000s, such as Mark = 1000, and Com = begin_p
Is marked with a number in the 100s, such as Mark = 100. This means that the heads of <phrase>, <sentence>, and <paragraph> are indicated by numbers in the 10000s, 1000s, and 100s, respectively.
The head of <sentence> and <paragraph> can be identified. Furthermore, in the reading file, the volume attribute information is
Since the volume is represented by the default volume percentage such as Voll = ***, the document processing apparatus 1 converts the percentage information into absolute value information based on the attribute information and obtains the absolute value information.
【0149】文書処理装置1は、先に図16に示したス
テップF103において、このような読み上げ用ファイ
ルを用いた処理を行うことによって、読み上げ用ファイ
ルを音声合成エンジンが文書を読み上げることが可能な
形式に変換するものとなる。In step F103 shown in FIG. 16, the document processing apparatus 1 performs processing using such a file for reading out, so that the speech synthesis engine can read out the file for reading out. It will be converted to a format.
【0150】つぎに、図16のステップF104におけ
るユーザインターフェースを用いた操作について説明す
る。文書処理装置1は、ユーザが例えば入力部20のマ
ウス等を操作して、先に図10に示した読み上げボタン
306cをクリックすることによって、音声合成エンジ
ンを起動する。そして文書処理装置1は、図22に示す
ようなユーザインターフェース用の読み上げウインドウ
401を表示部30に表示する。Next, the operation using the user interface in step F104 of FIG. 16 will be described. The document processing apparatus 1 activates the speech synthesis engine when the user operates, for example, a mouse or the like of the input unit 20 and clicks on the read-aloud button 306c shown in FIG. Then, the document processing apparatus 1 displays a reading window 401 for a user interface on the display unit 30 as shown in FIG.
【0151】この読み上げウインドウ401は、図示す
るように、文書を読み上げさせるための再生ボタン42
0と、読み上げを停止させるための停止ボタン421
と、読み上げを一時停止させるための一時停止ボタン4
22とを有する。また、この読み上げウインドウ401
は、文単位で頭出し、早戻し及び早送りさせるための頭
出しボタン411、早戻しボタン412及び早送りボタ
ン413と、段落単位で頭出し、早戻し及び早送りさせ
るための頭出しボタン414、早戻しボタン415及び
早送りボタン416と、句単位で頭出し、早戻し及び早
送りさせるための頭出しボタン417、早戻しボタン4
18及び早送りボタン419とを有する。As shown in the figure, the read-out window 401 has a play button 42 for reading out a document.
0 and a stop button 421 for stopping reading out
And pause button 4 to pause reading aloud
22. In addition, the reading window 401
Are a cue button 411, a fast rewind button 412, and a fast forward button 413 for cueing, fast rewinding, and fast forwarding in sentence units, a cueing button 414 for cueing, fast rewinding, and fast forwarding in paragraph units, and a fast rewinding button. A button 415 and a fast forward button 416, and a cue button 417 and a fast reverse button 4 for cueing, fast rewinding, and fast forwarding in phrase units
18 and a fast forward button 419.
【0152】さらに、読み上げウインドウ401は、読
み上げる対象を全文とするか、上述したようにして作成
された要約文とするかを選択するための選択スイッチ4
23,424を有する。また、読み上げ時に画像を表示
する画像表示エリア403が設定され、読み上げている
人のイメージを表示したり、テロップ表示エリア402
が設けられ、読み上げ音声に対応して文字がテロップ表
示できるようにされている。Further, a reading window 401 is provided with a selection switch 4 for selecting whether to read a whole sentence or a summary sentence created as described above.
23,424. Further, an image display area 403 for displaying an image at the time of reading is set, and an image of a person who is reading is displayed, and a telop display area 402 is displayed.
Is provided so that characters can be displayed in a telop corresponding to the reading voice.
【0153】なお、ここでは図示しないが、例えば、音
声を増減させるためのボタンや読み上げの速さを増減さ
せるためのボタン、男声/女声等の声を変化させるため
のボタン等を有していてもよい。Although not shown here, for example, it has buttons for increasing / decreasing voice, buttons for increasing / decreasing reading speed, buttons for changing voices such as male / female voices, and the like. Is also good.
【0154】文書処理装置1は、ユーザがこれらの各種
ボタン/スイッチを例えば入力部20のマウス等を操作
してクリック/選択することに応じて、音声合成エンジ
ンによる読み上げ動作を行う。例えば、文書処理装置1
は、ユーザが再生ボタン420をクリックすることによ
って、文書の読み上げを開始する。具体的には制御部1
1は音声合成処理により生成した音声信号を音声出力部
33に供給し、音声として出力する。また文書処理装置
1は、停止ボタン421、一時停止ボタン422のクリ
ックにおいて、読み上げ処理の停止や一時停止を行う。The document processing apparatus 1 performs a reading operation by the speech synthesis engine in response to the user clicking / selecting these various buttons / switches by operating the mouse or the like of the input unit 20, for example. For example, the document processing device 1
Starts reading the document by clicking the play button 420 by the user. Specifically, the control unit 1
1 supplies the audio signal generated by the audio synthesis processing to the audio output unit 33 and outputs it as audio. In addition, the document processing apparatus 1 stops or pauses the reading process when the stop button 421 and the pause button 422 are clicked.
【0155】また、読み上げの途中でユーザが頭出しボ
タン411を押すことによって、現在読み上げている文
の先頭にジャンプして再び読み上げる。頭出しボタン4
14、417についても同様に、それぞれ現在読み上げ
ている段落や句の先頭にジャンプして再び読み上げを行
う。制御部11は、この頭出しボタン411、414、
417の操作に関しては、上記したマーク付により、ジ
ャンプ先を認識するものとなる。即ち、文に関する頭出
しボタン411が操作された際には、制御部11は、現
在読み上げている文の途中位置から文を遡っていき、1
000番台のマークをサーチする。そして1000番台
のマークが検出されたら、そこから読み上げを再開する
ものとなる。段落や句の場合は、それぞれ100番台、
10000番台のマークを探して読み上げを再開するも
のとなる。この様な処理によって、例えば文書中でユー
ザが所望の部分を繰り返し再生させたいといった要求に
応えることができる。When the user presses the cue button 411 during the reading, the user jumps to the head of the currently read sentence and reads the sentence again. Cue button 4
In the same manner, for 14 and 417, the program jumps to the beginning of the currently read paragraph or phrase, and is read again. The control unit 11 controls the cue buttons 411, 414,
Regarding the operation 417, the jump destination is recognized by the above-mentioned marking. In other words, when the cue button 411 relating to a sentence is operated, the control unit 11 traces the sentence back from the middle position of the sentence currently being read out.
Search for 000's mark. When a mark in the 1000's range is detected, reading out is resumed from there. In the case of paragraphs and phrases,
Reading is resumed by looking for a mark in the 10000s range. By such processing, for example, it is possible to respond to a request that a user wants to repeatedly reproduce a desired portion in a document.
【0156】文書処理装置1は、図16のステップF1
04において、ユーザがこのような読み上げウインドウ
401でのユーザインターフェースを用いた操作を行う
ことに応じて、音声合成エンジンにより文書を読み上げ
る。このようにして文書処理装置1は、所望の文書を音
声合成エンジンにより違和感なく読み上げることができ
る。The document processing apparatus 1 executes the processing in step F1 in FIG.
At 04, in response to the user performing an operation using the user interface in the reading window 401, the text-to-speech engine reads the document. In this manner, the document processing apparatus 1 can read out a desired document by the speech synthesis engine without any discomfort.
【0157】ところで読み上げる対象の文書としては文
書データの本文でもよいし、後述するように生成される
要約文であってもよい。本文か要約文かは、選択スイッ
チ423,424のクリックにより選択されるが、いず
れにしても、本文又は要約文としてのタグファイルにつ
いて、図16のステップF102,F103の処理が行
われることで、音声合成エンジンによる文書読み上げが
可能となる。By the way, the document to be read may be the body of the document data, or may be a summary sentence generated as described later. The text or the summary text is selected by clicking the selection switches 423 and 424. In any case, the processing in steps F102 and F103 in FIG. The text-to-speech by the speech synthesis engine becomes possible.
【0158】なお本例では、受信又は作成したタグファ
イルから読み上げ用ファイルを生成するものとしたが、
このような読み上げ用ファイルを生成せずに、タグファ
イルに基づいて直接読み上げを行うようにしてもよい。
この場合、文書処理装置1は、タグファイルを受信又は
作成した後、音声合成エンジンを用い、タグファイルに
付与されている段落、文及び句を示すタグに基づいて、
段落、文及び句の先頭に所定の休止期間を設けて読み上
げる。このようにすることによって、文書処理装置1
は、音声読み上げ用ファイルを生成することなく、タグ
ファイルに基づいて直接読み上げることができる。In this example, the reading file is generated from the received or created tag file.
Instead of generating such a reading file, reading may be directly performed based on the tag file.
In this case, after receiving or creating the tag file, the document processing device 1 uses a speech synthesis engine and, based on tags indicating paragraphs, sentences, and phrases attached to the tag file,
A certain pause is provided at the beginning of a paragraph, sentence or phrase to read out. By doing so, the document processing device 1
Can be read directly based on the tag file without generating a voice reading file.
【0159】6.要約作成/表示処理 続いて、文書データについての要約文を作成する処理に
ついて述べる。上述したようにユーザーは、文書を選択
して図10のような閲覧ウインドウ301を開くことに
より、文書の本文を閲覧することができる。そして閲覧
ウインドウ301においては、選択された文書の本文及
び要約文が表示される。但し、また要約文が作成されて
いない時点では、図26のように要約表示部304は空
白とされる。6. Summary Creation / Display Process Next, a process of creating a summary sentence for document data will be described. As described above, the user can browse the text of the document by selecting the document and opening the browse window 301 as shown in FIG. In the browsing window 301, the text and the summary of the selected document are displayed. However, at the point in time when a summary sentence has not been created, the summary display unit 304 is blank as shown in FIG.
【0160】この閲覧ウインドウ301において要約作
成ボタン306aがクリックされると、文書表示部30
3に表示されている文書についての要約文が作成され、
図27に示すように要約表示部304に表示される。つ
まり制御部11は、ソフトウエアもしくはハードウエア
で構成される要約作成エンジン(図37で後述)を起動
させることにより、ユーザーの要約作成操作に応じて、
以下説明するような要約文作成処理を行い、作成後、そ
れを表示する制御を行うものとなる。文書から要約を作
成する処理は、文書のタグ付けによる内部構造に基づい
て実行される。When the user clicks on the summary creation button 306a in the browsing window 301, the document display unit 30
A summary sentence for the document displayed in 3 is created,
This is displayed on the summary display unit 304 as shown in FIG. In other words, the control unit 11 activates a digest creation engine (described later with reference to FIG. 37) composed of software or hardware, and in response to a digest creation operation of the user,
A summary sentence creation process as described below is performed, and after creation, control for displaying the summary sentence is performed. The process of creating an abstract from a document is performed based on the internal structure of the document by tagging.
【0161】なお要約文は、通常は、要約表示部304
のサイズに応じて生成される。そして本文表示部303
と要約表示部304の面積は、ユーザーが仕切枠312
を移動させることで変化させることができる。つまり要
約文は、要約作成が指示された時点での要約表示部30
4のサイズに応じたサイズ(文書長)で作成されること
になる。例えば図26では要約表示部304は非常に狭
いものとなっているが、ユーザーが仕切枠312を移動
させて要約表示部304を広くした上で、要約作成を指
示することで、例えば図27のように広げられた要約表
示部304に、そのエリアサイズに合った文書長の要約
文が作成され、表示されるものとなる。The summary sentence is usually displayed in the summary display section 304.
Is generated according to the size of And a text display unit 303
And the area of the summary display section 304 is determined by the user
Can be changed by moving. That is, the summary sentence is displayed in the summary display unit 30 at the time when the summary creation is instructed.
4 is created with a size (document length) corresponding to the size of the document No. 4. For example, in FIG. 26, the summary display unit 304 is very narrow, but when the user moves the partition frame 312 to widen the summary display unit 304 and instructs the creation of a summary, for example, as shown in FIG. A summary sentence having a document length corresponding to the area size is created and displayed on the summary display unit 304 expanded as described above.
【0162】但し、例えば図26のように要約表示部3
04が非常に狭い場合に、そのサイズに応じた要約文を
作成するとすると、その要約文は不十分な内容となって
しまうことが多い。つまり十分な文書長で要約文を作成
できないため、実質的に要約としての機能を果たさない
文章となってしまう。そこで本例では、要約表示部30
4としてのウインドウサイズ(ウインドウ内に表示可能
な文書長)が所定値以下、例えば図26のような画面上
での行数でいうと1〜2行程度未満の場合などには、要
約表示部304のサイズを越える文書長の要約文を作成
するようにし、ソフトウエアもしくはハードウエアで構
成されるテロップ作成エンジン(図37で後述)によ
り、それをテロップ化して表示するようにしている。However, for example, as shown in FIG.
If the summary sentence is created according to the size when 04 is very narrow, the summary sentence often has insufficient content. In other words, since an abstract cannot be created with a sufficient document length, the sentence does not substantially function as an abstract. Therefore, in this example, the summary display unit 30
If the window size (the document length that can be displayed in the window) as 4 is equal to or less than a predetermined value, for example, if the number of lines on the screen as shown in FIG. A summary sentence having a document length exceeding the size of 304 is created, and a telop creation engine (to be described later with reference to FIG. 37) constituted by software or hardware converts the summary into a telop and displays it.
【0163】以下、このようなテロップ表示を含む、本
例の要約文の作成及び表示動作について説明していく。Hereinafter, the operation of creating and displaying a summary sentence of this example including such a telop display will be described.
【0164】閲覧ウインドウ301上で要約作成ボタン
306aがクリックされることにより、制御部11(要
約作成エンジン)によって図23の要約作成処理が開始
される。なお図23の要約作成処理が終了すると、続い
て図24の要約文表示処理が実行され、また場合によっ
ては、その要約文表示処理中で図25のテロップ表示処
理が行われるものとなる。[0164] When summary creation button 306a is clicked on browsing window 301, controller 11 (summary creation engine) starts the summary creation process of FIG. When the summary creation processing of FIG. 23 ends, the summary sentence display processing of FIG. 24 is subsequently executed, and in some cases, the telop display processing of FIG. 25 is performed during the summary sentence display processing.
【0165】図23の要約作成処理としては、まずステ
ップF81として制御部11は活性拡散を行う。本例に
おいては、活性拡散により得られた中心活性値を重要度
として採用することにより、文書の要約を行うものであ
る。すなわち、タグ付けによる内部構造を与えられた文
書においては、活性拡散を行うことにより、各エレメン
トにタグ付けによる内部構造に応じた中心活性値を付与
することができる。ステップF81で行う活性拡散処理
は、図6〜図8で説明したものと同様の処理となるが、
上述したように活性拡散は、中心活性値の高いエレメン
トと関わりのあるエレメントにも高い中心活性値を与え
るような処理である。すなわち、活性拡散は、照応(共
参照)表現とその先行詞の間で中心活性値が等しくな
り、それ以外では中心活性値が減衰するような中心活性
値についての演算である。この中心活性値は、タグ付け
による内部構造に応じて決定されるので、タグ付けによ
る内部構造を考慮した文書の分析に利用することができ
る。In the digest creation processing of FIG. 23, first, in step F81, the control unit 11 performs active diffusion. In this example, the document is summarized by employing the central activity value obtained by the activity diffusion as the importance. That is, in a document given an internal structure by tagging, by performing active diffusion, a central activation value corresponding to the internal structure by tagging can be given to each element. The active diffusion process performed in step F81 is the same as the process described with reference to FIGS.
As described above, the active diffusion is a process of giving a high central activity value to an element related to an element having a high central activity value. That is, the active diffusion is an operation on the central activity value such that the central activity value is equal between the anaphor (co-reference) expression and its antecedent, and the central activity value attenuates otherwise. Since the central activity value is determined according to the internal structure by tagging, it can be used for analyzing a document in consideration of the internal structure by tagging.
【0166】次にステップF82で、その時点の要約表
示部304のサイズwsyを確認し、要約表示部サイズ
wsyが予め設定されている所定サイズwsth以上で
あるか否かを確認する。この所定サイズwsthとは、
通常、要約文としては十分な文書長(文字数)を表示で
きるウインドウサイズとして設定されているものであ
る。所定サイズwsthとしての具体的な値は、システ
ム設計上、適切な値が決められるものとなる。Next, in step F82, the size wsy of the summary display unit 304 at that time is checked, and it is checked whether the size wsy of the summary display unit is equal to or larger than a predetermined size wsth set in advance. The predetermined size wsth is
Normally, the summary is set as a window size that can display a sufficient document length (number of characters). An appropriate value as the predetermined size wsth is determined appropriately in terms of system design.
【0167】まず、要約表示部サイズwsyが予め設定
されている所定サイズwsth以上であった場合につい
て説明していく。これは要約表示部サイズwsyに応じ
た要約文が作成される場合の処理となる。この場合、制
御部11の処理は、ステップF83に進み、制御部11
は、その時点で表示部30に表示されている閲覧ウィン
ドウ301の要約表示部304のサイズwsy(具体的
にはこの要約表示部304に表示可能な最大文字数)を
変数(最大文字数)wsと設定する。また制御部11
は、要約の文字列(要約文を保持する内部レジスタ)s
を初期化して初期値s(0)=””と設定する。制御部
11は、このように設定した、最大文字数wsおよび文
字列sの初期値s(0)を、RAM14に記録する。First, a case where the summary display portion size wsy is equal to or larger than a predetermined size wsth will be described. This is a process when a summary sentence according to the summary display unit size wsy is created. In this case, the process of the control unit 11 proceeds to step F83,
Sets the size wsy (specifically, the maximum number of characters that can be displayed on the summary display unit 304) of the summary display unit 304 of the browsing window 301 currently displayed on the display unit 30 as a variable (maximum number of characters) ws. I do. The control unit 11
Is the summary string (an internal register that holds the summary sentence) s
Is initialized and the initial value s (0) is set to "". The control unit 11 records the maximum number of characters ws and the initial value s (0) of the character string s thus set in the RAM 14.
【0168】次にステップF85に進み、制御部11
は、文の骨格の抽出処理をカウントするカウンタのカウ
ント値iを「1」に設定する。そしてステップF86で
制御部11は、カウンタのカウント値iに基づいて、文
章からi番目に平均中心活性値の高い文の骨格を抽出す
る。平均中心活性値とは、一つの文を構成する各エレメ
ントの中心活性値を平均したものである。制御部11
は、たとえばRAM14に記録した文字列s(i−1)
を読み出し、この文字列s(i−1)に対して、抽出し
た文の骨格の文字列を加えて、S(i)とする。そして
制御部11は、このようにして得た文字列s(i)をR
AM14に記録する。初回は、文字列s(i−1)は初
期値s(0)であるので、今回抽出した文の骨格が文字
列S(i)としてRAM14に記憶されることになる。
また以降においてステップF84の処理が行われる場合
は、抽出された文の骨格が文字列S(i)に、それまで
の文字列S(i)(つまりその時点では文字列S(i−
1))に追加されていくものとなる。また同時に、制御
部11はこのステップF84において、上記文の骨格に
含まれないエレメントの中心活性値順のリストL(i)
を作成し、このリストL(i)をRAM14に記録す
る。Next, the process proceeds to step F85, where the control unit 11
Sets the count value i of the counter that counts the sentence skeleton extraction process to “1”. Then, in step F86, the control unit 11 extracts the skeleton of the sentence having the i-th highest average central activity value from the sentence based on the count value i of the counter. The average central activity value is the average of the central activity values of the elements constituting one sentence. Control unit 11
Is, for example, a character string s (i-1) recorded in the RAM 14.
Is read out, and the character string of the skeleton of the extracted sentence is added to this character string s (i-1) to obtain S (i). Then, the control unit 11 converts the character string s (i) thus obtained into R
Record in AM14. In the first time, since the character string s (i-1) has the initial value s (0), the skeleton of the sentence extracted this time is stored in the RAM 14 as the character string S (i).
When the process of step F84 is performed thereafter, the skeleton of the extracted sentence is changed to the character string S (i), and the character string S (i) up to that point (that is, the character string S (i-
1)). At the same time, the control unit 11 determines in this step F84 a list L (i) of the elements not included in the skeleton of the sentence in the order of the central activation value.
And the list L (i) is recorded in the RAM 14.
【0169】すなわち、このステップF86において
は、要約のアルゴリズムは、活性拡散の結果を用いて、
平均中心活性値の大きい順に文を選択し、選択された文
の骨格の抽出する。文の骨格は、文から抽出した必須要
素により構成される。必須要素になりうるのは、エレメ
ントの主辞(head)と、主語(subject)、目的語(obj
ect)、間接目的語(indirect object)、所有者(poss
essor)、原因(cause)、条件(condition)または比
較(comparison)の関係属性を有する要素と、等位構造
が必須要素のときにはそれに直接含まれるエレメントと
が必須要素を構成するものである。そして、文の必須要
素をつなげて文の骨格を生成し、要約に加える。That is, in this step F86, the summarization algorithm uses the result of activity diffusion to
The sentences are selected in descending order of the average central activity value, and the skeleton of the selected sentence is extracted. The skeleton of a sentence is composed of essential elements extracted from the sentence. Required elements can be the head of the element, the subject, the object (obj
ect), indirect object, owner (poss
An element having a relationship attribute of essor, cause, condition, or comparison, and an element directly included when the coordination structure is an essential element, constitute an essential element. Then, by connecting the essential elements of the sentence, a skeleton of the sentence is generated and added to the summary.
【0170】ステップF87では制御部11は、文字列
s(i)の長さが、閲覧ウィンドウ301の要約表示部
104の最大文字数wsより大きいか否かを判断する。
このステップF87は、要約表示部304のサイズに応
じた要約文を作成するための判断処理となる。At step F87, the control section 11 determines whether or not the length of the character string s (i) is larger than the maximum number of characters ws of the summary display section 104 of the browsing window 301.
This step F87 is a determination process for creating a summary sentence according to the size of the summary display unit 304.
【0171】制御部11は、文字列s(i)の長さが最
大文字数wsに達していないときは、処理をステップF
88に進める。ステップF88では制御部11は、文書
中で、(i+1)番目に平均中心活性値が高い文のエレ
メントの中心活性値と、上記ステップF86で作成した
リストL(i)の最も中心活性値が高いエレメントの中
心活性値を比較する。つまり、上記ステップF86にお
いて要約として採用された文の次に平均中心活性値が高
い文(即ち次に要約文に付加する候補となる文)と、ス
テップF86において要約として採用された文の中で骨
格ではないとして要約からは排除されたエレメントの中
心活性値を比較する。If the length of the character string s (i) has not reached the maximum number of characters ws, the control unit 11 proceeds to step F
Proceed to 88. In step F88, the control unit 11 determines in the document the central activity value of the element of the sentence having the (i + 1) -th highest average central activity value and the highest central activity value of the list L (i) created in step F86. Compare the central activity values of the elements. That is, the sentence having the next highest average central activity value after the sentence adopted as the summary in step F86 (that is, the sentence which is a candidate to be added to the next summary sentence) and the sentence adopted as the summary in step F86 The central activity values of elements excluded from the summary as not scaffolds are compared.
【0172】このステップF88の処理は、要約文とし
ての文字列に次に加える部位を、その直前のステップF
86で採用した文において骨格として採用されなかった
ものから選ぶか、或いは他の文から選ぶかを判断する処
理となる。In the process of step F88, the part to be added next to the character string as the summary sentence is set in the immediately preceding step F88.
This is a process of determining whether to select from sentences not adopted as a skeleton in the sentence adopted in 86 or to select from other sentences.
【0173】(i+1)番目に平均中心活性値が高い文
におけるエレメントの中心活性値よりも、リストL
(i)における最も高い中心活性値の方が、中心活性値
が高い値であった場合は、要約文としての文字列に次に
加える部位を、その直前のステップF86で採用した文
において骨格として採用されなかったものから選ぶよう
にする。このため制御部11の処理はステップF90に
進み、リストL(i)における最も中心活性値が高いエ
レメントを、その時点で記憶されている文字列S(i)
に加え、文字列SS(i)とする。またこのとき、文字
列SS(i)に加えたエレメントをリストL(i)から
削除する。そして、ステップF91において、文字列S
S(i)が、最大文字数wsより大きいか否かを判断
し、大きくなければステップF88に戻る。In the sentence having the (i + 1) -th highest average central activity value, the list L is higher than the central activity value of the element.
If the highest central activity value in (i) is the higher central activity value, the portion to be added next to the character string as the summary sentence is used as the skeleton in the sentence immediately preceding step F86. Try to choose from those that have not been adopted. Therefore, the process of the control unit 11 proceeds to step F90, in which the element having the highest central activity value in the list L (i) is stored in the character string S (i) stored at that time
And a character string SS (i). At this time, the element added to the character string SS (i) is deleted from the list L (i). Then, in step F91, the character string S
It is determined whether S (i) is greater than the maximum number of characters ws. If not, the process returns to step F88.
【0174】ステップF88において、(i+1)番目
に平均中心活性値が高い文のエレメントとして、リスト
L(i)における最も高い中心活性値よりも中心活性値
が高いエレメントがあった場合は、要約文としての文字
列に次に加える部位を、その直前のステップF86で採
用した文とは別の文から選ぶこととしてステップF89
でカウント値iをインクリメントしてステップF86に
戻ることになる。つまりステップF88で、(i+1)
番目に平均中心活性値が高い文とされた文について、ス
テップF86で骨格を抽出し、それを文字列S(i)に
加えるようにする。In step F88, if the (i + 1) -th element having the highest central activity value is higher than the highest central activity value in the list L (i), the summary sentence In step F89, the part to be added next to the character string is selected from a sentence different from the sentence adopted in step F86 immediately before.
, The count value i is incremented, and the process returns to step F86. That is, in step F88, (i + 1)
For the sentence having the second highest average central activity value, the skeleton is extracted in step F86 and added to the character string S (i).
【0175】以上のように、ステップF86又はステッ
プF90で文の骨格となるエレメントやその他のエレメ
ントとして、中心活性値の高いものを基準として文字列
に加えていきながら、ステップF87又はステップF9
1で、文字列S(i)又はSS(i)を最大文字数ws
と比較していくことで、最大文字数wsに近いが最大文
字数wsを越えない文字列を作成していくことになる。As described above, in step F87 or step F9, while adding the character string as a skeleton element or other element of the sentence in step F86 or step F90 on the basis of the element having the higher central activation value.
1, the character string S (i) or SS (i) is converted to the maximum number of characters ws
By comparing with, a character string close to the maximum number of characters ws but not exceeding the maximum number of characters ws is created.
【0176】例えばステップF87で文字列S(i)が
最大文字数wsを越えた場合は、制御部11の処理はス
テップF92に進み、直前のステップF86で骨格を加
える前の文字列S(i−1)を、要約文とする。つま
り、これはステップF86で文の骨格を加えたことによ
り、最大文字数wsを越えてしまったことになるため、
その骨格を加える前の文字列S(i−1)が、最大文字
数wsに近いが最大文字数wsを越えない文字列である
と判断して、それを要約文とするものである。For example, if the character string S (i) exceeds the maximum number of characters ws in step F87, the process of the control section 11 proceeds to step F92, and the character string S (i- 1) is a summary sentence. In other words, this means that the maximum number of characters ws has been exceeded by adding the skeleton of the sentence in step F86.
The character string S (i-1) before adding the skeleton is determined to be a character string that is close to the maximum number of characters ws but does not exceed the maximum number of characters ws, and is used as a summary sentence.
【0177】なお、このため初めてステップF86で文
字列S(i)を生成した時点(i=1の時点)で、ステ
ップF87で、文字列S(i)が最大文字数wsを越え
た場合は、文字列S(i−1)は、ステップF83で設
定した初期値としての文字列S(0)となるため、実質
的に要約文は作成できなかったことになる。これは、要
約表示部304のサイズが小さすぎたことに起因するた
め、ユーザーは画面上で要約表示部304の面積を広げ
た上で、再度、要約作成ボタン306aをクリックし
て、図23の処理が開始されるようにすればよい。但
し、本例の場合、ステップF82において要約表示部3
04のサイズが小さすぎる場合が判別され、そのような
場合は後述するように、要約表示部304のサイズで表
示可能な文書長より長い文書長の要約文が作成される処
理となるため、実質的に要約文が作成できなくなる事態
は、ほとんど発生しない。If the character string S (i) exceeds the maximum number of characters ws in step F87 when the character string S (i) is generated for the first time (i = 1) in step F86, Since the character string S (i-1) becomes the character string S (0) as the initial value set in step F83, a summary sentence could not be created substantially. This is because the size of the summary display unit 304 is too small. Therefore, the user enlarges the area of the summary display unit 304 on the screen, and then clicks the summary creation button 306a again to return to FIG. What is necessary is just to make a process start. However, in the case of this example, in step F82, the summary display unit 3
04 is determined to be too small. In such a case, as will be described later, the process is to generate a summary sentence having a document length longer than the document length that can be displayed in the size of the summary display unit 304. It rarely happens that a summary sentence cannot be created.
【0178】ステップF87で文字列S(i)が最大文
字数wsを越えていない場合は、上述のように制御部1
1の処理はステップF88に進み、次に文字列に加える
部分を判断することになる。そして上記のようにステッ
プF91に進んだ場合は、文字列SS(i)が最大文字
数wsを越えたか否かを判別する。ここで文字列SS
(i)が最大文字数wsを越えた場合は、制御部11の
処理はステップF93に進み、直前のステップF90で
或るエレメントを加える前の文字列S(i)を、要約文
とすることになる。つまり、これはステップF90でエ
レメントを加えたことにより、最大文字数wsを越えて
しまったことになるため、そのエレメントを加える前の
文字列S(i)が、最大文字数wsに近いが最大文字数
wsを越えない文字列であると判断して、それを要約文
とするものである。If the character string S (i) does not exceed the maximum number of characters ws in step F87, as described above, the control unit 1
The process of step 1 proceeds to step F88, in which the next portion to be added to the character string is determined. When the process proceeds to step F91 as described above, it is determined whether or not the character string SS (i) has exceeded the maximum number of characters ws. Where the string SS
If (i) exceeds the maximum number of characters ws, the process of the control unit 11 proceeds to step F93, and the character string S (i) before adding a certain element in the immediately preceding step F90 is used as a summary sentence. Become. In other words, this means that the maximum number of characters ws has been exceeded by adding the element in step F90. Therefore, the character string S (i) before the addition of the element is close to the maximum number of characters ws but is not the maximum number of characters ws. Is determined to be a character string that does not exceed, and is used as a summary sentence.
【0179】以上の処理説明は、ステップF82→F8
3→F85と進んだ場合として説明した。従って、図2
3の処理を終えた時点で、要約表示部304のサイズに
適合した文書長の要約文が作成されたことになる。そし
てその要約文の内容は、平均中心活性値の高い1又は複
数の文の骨格、及び骨格以外の中心活性値の高いエレメ
ントが用いられたものとなる。この様に作成された要約
文は、RAM14に記憶されるとともに、図27のよう
に要約表示部304に、その要約文全体が固定的に表示
される。The above processing is described in steps F82 → F8.
The description has been made assuming that the process proceeds from 3 to F85. Therefore, FIG.
At the point of time when the process of step 3 is completed, a summary sentence having a document length suitable for the size of the summary display unit 304 has been created. The contents of the summary sentence include the skeleton of one or more sentences having a high average central activity value and elements having a high central activity value other than the skeleton. The summary sentence created in this way is stored in the RAM 14, and the entire summary sentence is fixedly displayed on the summary display unit 304 as shown in FIG.
【0180】つまり、図23の要約作成処理が終了され
ると続いて制御部11の処理は図24の要約文表示処理
に進む。要約文表示処理としては、まずステップF94
で、要約表示部304のサイズwsyがその時点での最
大文字数wsと一致しているか否かを確認する。つまり
直前の要約作成処理で用いられていた最大文字数ws
は、ステップF83で要約表示部304のサイズwsy
が代入されたものであるか否かを判別する。wsy=w
sの場合とは、上記の処理により、その時点の要約表示
部304のサイズに適合した要約文が作成された場合で
ある。そこでその場合は、ステップF96に進み、作成
された要約文を要約表示部304に表示させる。これに
より、図27のように要約文全体が固定表示される。つ
まり、ユーザーが予め要約表示部304のサイズを任意
に設定した上で要約作成を指示することで、要約表示部
304のサイズに応じた文書長の要約が固定的に(つま
りテロップ化として切り換えや移動なしに)表示される
ことになる。That is, when the digest creation processing of FIG. 23 is completed, the process of the control unit 11 proceeds to the digest sentence display processing of FIG. In the summary sentence display processing, first, step F94
Then, it is confirmed whether or not the size wsy of the summary display unit 304 matches the maximum number of characters ws at that time. That is, the maximum number of characters ws used in the immediately preceding summary creation process
Is the size wsy of the summary display unit 304 in step F83.
It is determined whether or not is substituted. wsy = w
The case of s is a case where a summary sentence suitable for the size of the summary display unit 304 at that time is created by the above processing. Therefore, in this case, the process proceeds to step F96, and the generated summary text is displayed on the summary display unit 304. As a result, the entire summary sentence is fixedly displayed as shown in FIG. That is, when the user sets the size of the summary display unit 304 in advance and instructs the creation of a summary, the summary of the document length according to the size of the summary display unit 304 is fixed (that is, switched as telop or switched). (No movement).
【0181】なお、表示された要約文を見てユーザーが
より詳しい要約文を見たいと思った場合、或いはより短
い要約文を見たいと思った場合は、閲覧ウインドウ30
1の要約表示部304のサイズ(面積)を増減した上
で、再度要約作成ボタン306aをクリックすればよ
い。すると、要約表示部304のサイズwsyが、所定
サイズwsth以上である限りは、図23の上述した処
理により、その時点の要約表示部304のサイズに応じ
た文書長の要約書が作成され、表示されることになる。When the user looks at the displayed summary and wants to see a more detailed summary, or wants to see a shorter summary, the browsing window 30 is displayed.
After increasing or decreasing the size (area) of the first summary display unit 304, the user may click the summary creation button 306a again. Then, as long as the size wsy of the summary display unit 304 is equal to or larger than the predetermined size wsth, a summary having a document length corresponding to the size of the summary display unit 304 at that time is created and displayed by the above-described processing of FIG. Will be done.
【0182】ところで、例えば図26のように要約表示
部304が非常に小さいサイズとされている状態でユー
ザーが要約作成ボタン306aをクリックし、図23の
要約作成処理が開始された場合などで、ステップF82
において要約表示部304のサイズwsyが、所定サイ
ズwsth未満であると判断された場合は、以下のよう
な処理が行われることとなる。By the way, for example, when the user clicks on the summary creation button 306a in a state where the summary display section 304 has a very small size as shown in FIG. 26 and the summary creation processing of FIG. Step F82
In the case where it is determined that the size wsy of the summary display unit 304 is smaller than the predetermined size wsth, the following processing is performed.
【0183】この場合は制御部11の処理はステップF
84に進み、最大文字数wsとして、予め設定された固
定値wsfixを代入する。この固定値wsfixと
は、要約文として最低限必要であるとして設定された文
字数に相当する値であり、システム設計上、適切な値が
設定される。例えばwsfix=wsthとしてもよ
い。さらに、固定値wsfix=(wsfix−i)×
Vとし、固定値初期値wsfix−iを保持するととも
に、係数Vの値をユーザーが任意に入力できるようにす
ることで、固定値wsfixをユーザーが任意に設定で
きるようにしてもよい。In this case, the processing of the control unit 11 is performed in step F
Proceeding to 84, a preset fixed value wsfix is substituted as the maximum number of characters ws. The fixed value wsfix is a value corresponding to the number of characters set as a minimum required as a summary sentence, and an appropriate value is set in terms of system design. For example, wsfix = wsth may be set. Further, a fixed value wsfix = (wsfix−i) ×
V, the fixed value initial value wsfix-i is held, and the user can arbitrarily input the value of the coefficient V, so that the user can arbitrarily set the fixed value wsfix.
【0184】また、制御部11は、要約の文字列(要約
文を保持する内部レジスタ)sを初期化して初期値s
(0)=””と設定する。制御部11は、このように設
定した、最大文字数wsおよび文字列sの初期値s
(0)を、RAM14に記録する。The control unit 11 initializes a summary character string (an internal register for holding a summary sentence) s, and
(0) = “” is set. The control unit 11 sets the maximum number of characters ws and the initial value s of the character string s set as described above.
(0) is recorded in the RAM 14.
【0185】続いて制御部11はステップF85で変数
i=1とした後、ステップF86以降の処理に進むが、
これは上述したとおりとなるため重複説明は避ける。即
ちこの場合も、最大文字数wsを越えない範囲で、最大
文字数wsに最も近い文字数としての要約文を作成して
いくことになる。但しこの場合は、最大文字数ws=w
sfixとされているため、その時点の要約表示部30
4のサイズに応じた文字数とはならず、実際には要約表
示部304での表示可能な文字数を越える文字数(文書
長)の要約文が生成されることになる。Subsequently, the control unit 11 sets the variable i to 1 in step F85, and then proceeds to the processing after step F86.
Since this is as described above, repeated description will be avoided. That is, also in this case, a summary sentence having the number of characters closest to the maximum number of characters ws is created without exceeding the maximum number of characters ws. However, in this case, the maximum number of characters ws = w
sfix, the summary display unit 30 at that time is displayed.
Therefore, a summary sentence having a number of characters (document length) exceeding the number of characters that can be displayed on the summary display unit 304 is not generated.
【0186】ステップF86〜F93の処理により要約
文が作成されたら、制御部11は図24の要約文表示処
理を実行する。そしてこの場合は最大文字数wsは要約
表示部サイズwsyではないため、ステップF94から
F95に進み、テロップ作成エンジンを用いて、生成し
た要約文をテロップ化して表示していく処理を行うこと
になる。When a summary sentence is created by the processing of steps F86 to F93, the control unit 11 executes a summary sentence display process of FIG. In this case, since the maximum number of characters ws is not the summary display portion size wsy, the process proceeds from step F94 to F95, and a process of displaying the generated summary text as a telop using the telop creation engine is performed.
【0187】このステップF95のテロップ表示処理の
例を図25に詳しく示す。まず制御部11(テロップ作
成エンジン)はステップF501で変数n=1とセット
する。そしてステップF502で、生成した要約文から
第nの文を抽出する。従ってまず要約文を構成している
第1の文が抽出される。FIG. 25 shows an example of the telop display processing in step F95 in detail. First, the control unit 11 (telop creation engine) sets a variable n = 1 in step F501. In step F502, the n-th sentence is extracted from the generated summary sentence. Therefore, first, the first sentence constituting the summary sentence is extracted.
【0188】次にステップF503で、抽出した文の文
長Ls(語数)が、要約表示部サイズwsyを越えてい
るか否かを判別する。例えば要約文を構成している1又
は複数の文のうちの第1の文が、その時点の要約表示部
サイズwsyにおいて表示可能な語数以下であったとす
ると、制御部11の処理はステップF504に進む。そ
して、文長Lsに所定の係数kを乗算して、テロップ表
示時間T1を算出する。Next, in step F503, it is determined whether or not the sentence length Ls (the number of words) of the extracted sentence exceeds the summary display portion size wsy. For example, assuming that the first sentence of one or a plurality of sentences forming the summary sentence is equal to or less than the number of words that can be displayed in the current summary display unit size wsy, the process of the control unit 11 proceeds to step F504. move on. Then, the telop display time T1 is calculated by multiplying the sentence length Ls by a predetermined coefficient k.
【0189】続いてステップF505で制御部11は内
部タイマのカウントをスタートさせるとともに、ステッ
プF506で、その第1の文を要約表示部304に表示
させる。このとき、文長Lsは要約表示部サイズwsy
以下であるため、その第1の文の全体が、テロップとし
て要約表示部304に表示される。この表示動作中に
は、制御部11はステップF507でタイムカウント値
を監視しており、タイマによりT1時間が計数された時
点で、ステップF515に進む。そして、ステップF5
15で要約文の最後の文の表示までが完了したか否かを
判断し、完了していなければステップF516で変数n
をインクリメントしたうえでステップF502に戻る。
従って、次に要約文を構成している文のうちの第2の文
を抽出することになる。Subsequently, in step F505, the control section 11 starts counting of the internal timer, and displays the first sentence on the summary display section 304 in step F506. At this time, the sentence length Ls is the summary display section size wsy
Because of the following, the entire first sentence is displayed on the summary display unit 304 as a telop. During this display operation, the control unit 11 monitors the time count value in step F507, and proceeds to step F515 when T1 is counted by the timer. Then, Step F5
In step F516, it is determined whether the display of the last sentence of the summary sentence has been completed.
, And the process returns to step F502.
Therefore, the second sentence of the sentences constituting the summary sentence is extracted next.
【0190】続いて制御部11は、第2の文についてス
テップF503の判別を行うが、ここで、第2の文の文
長が要約表示部サイズwsyを越えていたとすると(つ
まり一度に文全体を表示できない場合)、制御部11の
処理はステップF508に進み、要約表示部に表示可能
な文長Lwsyに所定の係数kを乗算して、テロップ表
示時間T1を算出する。続いてステップF509で制御
部11は内部タイマのカウントをスタートさせるととも
に、ステップF510で、その第2の文をテロップとし
て要約表示部304に表示させる。但し、このとき、文
長Lsは要約表示部サイズwsyを越えているため、表
示可能な先頭部分のみを表示することになる。つまり第
2の文のうちの、先頭から文長Lwsyに相当する部分
を表示する。この表示動作中には、制御部11はステッ
プF511でタイムカウント値を監視しており、タイマ
によりT1時間が計数された時点で、ステップF512
に進む。Subsequently, the control unit 11 makes a determination in step F503 for the second sentence. Here, if the sentence length of the second sentence exceeds the summary display unit size wsy (that is, the entire sentence at a time) Is not possible), the process of the control unit 11 proceeds to step F508, and multiplies the sentence length Lwsy, which can be displayed on the summary display unit, by a predetermined coefficient k to calculate the telop display time T1. Subsequently, in step F509, the control unit 11 starts counting of the internal timer, and in step F510, causes the summary display unit 304 to display the second sentence as a telop. However, at this time, since the sentence length Ls exceeds the summary display portion size wsy, only the displayable head portion is displayed. That is, a portion corresponding to the sentence length Lwsy from the beginning of the second sentence is displayed. During this display operation, the control unit 11 monitors the time count value in step F511, and when the time T1 is counted by the timer, the control unit 11 proceeds to step F512.
Proceed to.
【0191】ステップF512では、表示されている文
を、1文字分スクロールさせる。そしてステップF31
3でT2時間待機する。そして、ステップF514で第
2の分の最後の文字までが表示されたか否かを判断し、
まだ最後の文字まで達していなければ、ステップF51
2に戻って1文字分スクロールさせる。待機時間として
のT2時間は、スクロールタイミングを規定する時間と
なり、これもシステム設計上設定される値となるが、例
えば0.5〜1秒程度とすると、適切な速度で、文がス
クロールされていくことになる。In step F512, the displayed sentence is scrolled by one character. And step F31
At 3, wait for T2 time. Then, it is determined whether or not up to the last character of the second minute has been displayed in step F514,
If the last character has not been reached yet, step F51
Return to 2 and scroll one character. The T2 time as the standby time is a time that defines the scroll timing, which is also a value set in the system design. For example, if the time is about 0.5 to 1 second, the sentence is scrolled at an appropriate speed. Will go.
【0192】このようなステップF508〜F514の
処理により、要約表示部304に表示しきれない文につ
いては、まず先頭部分がT1時間表示された後、T2時
間毎に1文字づつ表示がスクロールされていき、その文
の最後の文字に至るまで表示されることになる。As a result of the processing in steps F508 to F514, for a sentence that cannot be displayed on the summary display unit 304, the display is scrolled one character at a time every T2 after the top is first displayed for T1. It will be displayed until the last character of the sentence.
【0193】スクロールにより文の最後の文字までが表
示されたら、制御部11の処理はステップF514から
F515に進み、要約文の最後の文の表示までが完了し
たか否かを判断し、完了していなければステップF51
6で変数nをインクリメントしたうえでステップF50
2に戻る。従って、次に要約文を構成している文のうち
の第3の文を抽出することになる。そして第3の文につ
いて、ステップF504〜F507、もしくはステップ
F508〜F514の処理によりテロップ表示を実行す
る。When the last character of the sentence is displayed by scrolling, the process of the control unit 11 proceeds from step F514 to F515, and determines whether or not the display of the last sentence of the summary sentence is completed. If not, step F51
In step F50, after incrementing the variable n in 6,
Return to 2. Therefore, the third sentence among the sentences constituting the summary sentence is extracted next. Then, for the third sentence, the telop display is executed by the processing of steps F504 to F507 or steps F508 to F514.
【0194】ステップF515で、要約文を構成する全
ての文について表示を終了したと判断すると、処理はス
テップF517に進み、要約文の先頭部分を表示する。
即ち要約表示部サイズwsyにおいて表示可能な先頭部
分を表示する状態とする。またステップF518で、後
述するスクロールバー307を表示して、テロップ表示
処理を終了する。If it is determined in step F515 that the display of all the sentences constituting the summary sentence has been completed, the process proceeds to step F517, where the head of the summary sentence is displayed.
That is, a state is displayed in which the displayable top portion is displayed in the summary display portion size wsy. In step F518, a scroll bar 307 described later is displayed, and the telop display process ends.
【0195】以上のようなテロップ表示処理で実現され
る表示動作は、次のようになる。例えば図26のように
要約表示部304が非常に狭くされた状態の閲覧ウイン
ドウ301において要約作成ボタン306aがクリック
され、要約文が作成されるとする。このとき、上述の図
23の処理で要約表示部304での表示可能な文書長よ
りも長い要約文が作成される。The display operation realized by the above telop display processing is as follows. For example, it is assumed that the digest creation button 306a is clicked in the browsing window 301 in which the digest display unit 304 is very narrow as shown in FIG. 26, and a digest is created. At this time, a summary sentence longer than the document length that can be displayed on the summary display unit 304 is created by the processing of FIG. 23 described above.
【0196】例えば図26において本文表示部303に
表示されている本文に対して、次のような要約文が生成
されたとする。「[素敵にエイジング]/8ガン転移、
抑えられる!?がんを特徴づけるのは、細胞増殖と転移
である。人間の細胞には、「がん遺伝子」と、「がん抑
制遺伝子」がある。高齢者の場合、長い年月の間に正常
な調節機能が失われ、細胞内でブレーキが利かない変異
が蓄積し、細胞の割合が増え、がん多発につながるわけ
だ。転移、がん細胞が増えるだけでは発生しない。がん
細胞が蛋白質などを溶かし、道をつくって、血管やリン
パ管に入り込む。がんの診断、治療の面から(nm2
3)の期待が集まっている。」For example, it is assumed that the following summary sentence is generated for the text displayed on the text display unit 303 in FIG. "[Nice aging] / 8 cancer metastasis,
Can be suppressed! ? Characterizing cancer is cell proliferation and metastasis. Human cells have "oncogenes" and "cancer suppressor genes." In the elderly, normal regulation is lost over the years and non-braking mutations accumulate in cells, increasing the proportion of cells and leading to more cancers. Metastasis does not occur simply by increasing the number of cancer cells. Cancer cells dissolve proteins and so on, making a path and entering blood vessels and lymph vessels. From the aspect of cancer diagnosis and treatment (nm2
The expectations of 3) are gathering. "
【0197】このような要約文は、次のように〜の
7つの文から構成されているが、上述した本例のテロッ
プ表示処理では、文単位でテロップ化する。 [素敵にエイジング]/8ガン転移、抑えられる!? がんを特徴づけるのは、細胞増殖と転移である。 人間の細胞には、「がん遺伝子」と、「がん抑制遺伝
子」がある。 高齢者の場合、長い年月の間に正常な調節機能が失わ
れ、細胞内でブレーキが利かない変異が蓄積し、細胞の
割合が増え、がん多発につながるわけだ。 転移、がん細胞が増えるだけでは発生しない。 がん細胞が蛋白質などを溶かし、道をつくって、血管
やリンパ管に入り込む。 がんの診断、治療の面から(nm23)の期待が集ま
っている。Such a summary sentence is composed of the following seven sentences as follows. In the above-described telop display processing of the present example, a telop is formed for each sentence. [Nice aging] / 8 cancer metastasis can be suppressed! ? Characterizing cancer is cell proliferation and metastasis. Human cells have "oncogenes" and "cancer suppressor genes." In the elderly, normal regulation is lost over the years and non-braking mutations accumulate in cells, increasing the proportion of cells and leading to more cancers. Metastasis does not occur simply by increasing the number of cancer cells. Cancer cells dissolve proteins and so on, making a path and entering blood vessels and lymph vessels. Expectations of (nm23) have been gathered from the aspect of cancer diagnosis and treatment.
【0198】図25の処理により、まず最初に第1の文
が抽出され、図28のように要約表示部304に表示
される。この図25の状態以降の要約表示部304のテ
ロップ表示状態を図29(a)〜(j)で説明してい
く。By the processing in FIG. 25, first, the first sentence is extracted and displayed on the summary display unit 304 as shown in FIG. The telop display states of the summary display unit 304 after the state of FIG. 25 will be described with reference to FIGS.
【0199】図28の文は、文長Ls≦wsyである
(文全体を表示可能である)ため、図25のステップF
504〜F507の処理で、図29(a)の表示状態
が、文長に応じて算出されたT1時間継続される。続い
て文、も文長Ls≦wsyとなるため、それぞれス
テップF504〜F507の処理で、文長に応じて算出
されたT1時間づつ、図29(b)(c)の表示が実行
される。The sentence of FIG. 28 satisfies the sentence length Ls ≦ wsy (the entire sentence can be displayed).
In the processing of 504 to F507, the display state of FIG. 29A is continued for T1 time calculated according to the sentence length. Subsequently, since the sentence length also becomes the sentence length Ls ≦ wsy, the display of FIGS. 29B and 29C is executed by the processing of steps F504 to F507 for each T1 time calculated according to the sentence length.
【0200】次の文は、文長Ls>wsyである(文
全体を表示不能である)ため、図25のステップF50
8〜F514の処理が行われる。即ちまず図29(d)
のように文の先頭部分が、算出されたT1時間表示され
た後、T2時間毎に、図29(e)→(f)のように、
表示が1文字づつスクロールされる。その後同様にスク
ロールが進み、図29(g)の状態となることで、文
の表示が完了することになる。Since the next sentence has a sentence length Ls> wsy (the entire sentence cannot be displayed), step F50 in FIG.
8 to F514 are performed. That is, first, FIG.
After the head of the sentence is displayed for the calculated T1 time as shown in FIG. 29, every T2 time, as shown in FIG. 29 (e) → (f),
The display scrolls one character at a time. Thereafter, the scrolling proceeds in the same manner, and the display of the sentence is completed when the state of FIG. 29G is reached.
【0201】続いて文、、がそれぞれ順次抽出さ
れ、これらは文長Ls≦wsyであるため、それぞれス
テップF504〜F507の処理で、文長に応じて算出
されたT1時間づつ、図29(h)(i)(j)の表示
が実行される。Next, the sentences are sequentially extracted, and since they satisfy the sentence length Ls ≦ wsy, in the processing of steps F504 to F507, respectively, the time T1 calculated according to the sentence length is shown in FIG. ) (I) and (j) are displayed.
【0202】以上のように各文毎にテロップとして順次
表示され、また文長が長くて表示しきれない場合は、そ
の表示しきれなかった部分がスクロールにより表示され
る。そして、要約文を構成する全文のテロップ表示を完
了したら、図25のステップF517、F518とし
て、図30に示すように要約文の先頭部分が表示される
とともに、スクロールバー307が表示される。即ち、
上記テロップ表示により、要約文全体をユーザーに提示
した後は、スクロールバー307を用意することで、そ
の後ユーザーが、要約表示部304上の文字を任意にス
クロールさせて、要約文内容を確認できるようにするも
のである。As described above, each sentence is sequentially displayed as a telop. If the sentence is too long to be displayed, the portion that could not be displayed is displayed by scrolling. Then, when the telop display of all the sentences constituting the summary sentence is completed, the head of the summary sentence is displayed as shown in FIG. 30 and the scroll bar 307 is displayed as steps F517 and F518 in FIG. That is,
After the entire summary is presented to the user by the above telop display, a scroll bar 307 is provided so that the user can scroll the characters on the summary display unit 304 arbitrarily and check the content of the summary. It is to be.
【0203】本例の要約文の作成及び表示は以上のよう
に実行されるが、これによりユーザーにとって好適な要
約提示が可能となる。まず、ユーザーは、要約表示部3
04のサイズを任意に設定することで、生成される要約
文の文書長を設定できる。つまり詳しい要約文を見たい
ときには要約表示部304を広くしてから要約作成ボタ
ン306aをクリックし、一方、簡単な内容の要約文を
見たいときには要約表示部304を狭くしてから要約作
成ボタン306aをクリックすればよい。それにより、
ユーザーの望むサイズの要約文が生成され、テロップで
はなく固定表示される。The creation and display of the summary sentence of the present embodiment are executed as described above. This makes it possible to present a summary suitable for the user. First, the user displays the summary display 3
By setting the size of the summary 04 arbitrarily, the document length of the generated summary sentence can be set. In other words, when the user wants to view a detailed summary, he or she clicks the summary creation button 306a after widening the summary display section 304. On the other hand, when he wants to see a summary of simple content, he narrows the summary display section 304 and then clicks the summary creation button 306a. Just click. Thereby,
A summary sentence of the size desired by the user is generated, and is displayed instead of a telop.
【0204】また、もしユーザーが要約表示部304を
狭くしすぎてしまった場合は、そのウインドウサイズに
関わらず最低限必要な文書長の要約文が作成され、上述
のようにテロップ化されて表示されることになる。従っ
て、例えばユーザーが本文表示部303を広くとりたい
ためにやむおえず要約表示部304をかなり狭くしたよ
うな場合でも、ユーザーは適切な内容の要約文を見るこ
とができるようになる。これにより内容を正確に認識で
きる。If the user has made the summary display section 304 too narrow, a summary text of the minimum required document length is created regardless of the window size, and is displayed in a telop as described above. Will be done. Therefore, for example, even when the user has to make the summary display section 304 considerably narrower in order to make the text display section 303 wider, the user can view the summary text with appropriate contents. Thereby, the contents can be accurately recognized.
【0205】また本例のテロップ表示処理では、要約文
を文単位でテロップ化しているが、1つの文の表示時間
(T1)は、その文長に応じて算出しているため、各文
(テロップ)は、ユーザーが読むのに適切な表示時間と
なる。さらに、文が長い場合は、スクロール表示を実行
するため、ユーザーが1つの文を認識することに好適で
ある(後続部分は切換表示でなく移動表示されるため
に、1つの文が続いていることをユーザーが認識しやす
い)。In the telop display processing of this example, the summary sentence is converted into a telop in units of sentences. However, since the display time (T1) of one sentence is calculated according to the sentence length, each sentence ( Telop) is an appropriate display time for the user to read. Furthermore, when the sentence is long, it is preferable that the user recognizes one sentence in order to execute the scroll display (one sentence follows because the subsequent part is displayed in a moving manner instead of a switching display). Is easy for users to recognize).
【0206】なお、テロップ表示処理の例としては図2
5の例に限らず各種の処理例が考えられる。例えば文単
位でなく、文節、句などの単位でテロップ化するように
してもよいし、文や文節の長さに応じて、表示の区切を
変更するようにしてもよい。また、要約文全体を最初か
ら最後までスクロール表示していくことも考えられる。
いずれにしても、切換表示又は移動表示、もしくはその
組み合わせにより、要約文の全体がユーザーに提示され
るようにすればよい。FIG. 2 shows an example of the telop display process.
Not only the example of 5, but also various processing examples are conceivable. For example, a telop may be formed not in units of sentences but in units of phrases, phrases, or the like, or display divisions may be changed according to the length of sentences or phrases. It is also conceivable to scroll the entire summary from the beginning to the end.
In any case, the entire summary may be presented to the user by switching display or moving display, or a combination thereof.
【0207】また各テロップとしての表示期間や切換タ
イミング、スクロールタイミングの設定は多様に考えら
れる。上述のように本例では本文や要約文についての読
み上げも可能であるが、テロップ作成エンジンにより行
われるテロップ表示のタイミングを、読み上げ音声の出
力タイミングに合わせて設定することも可能である。例
えば上述したように読み上げ処理においては、タグファ
イルから読み上げ用ファイルを生成し、その読み上げ用
ファイルを音声合成エンジンに適した形態に変換した上
で、音声合成エンジンによって、人が話すような自然な
感じでの速度や、段落、文、句の区切によって読み上げ
が実行されるようにしている。従って、そのような段
落、文、句の区切や、読み上げ速度と同様のテロップ区
切や、表示期間の設定を行うことで、ユーザーにとって
読みやすいテロップ表示を実現できる。具体的な手法例
としては、上述したように音声合成エンジンによる読み
上げ処理を実行させ(但し読み上げ音声の出力は実行さ
せない)、CPU13はその読み上げタイミングを参照
して、テロップ表示の区切及び切換タイミングを設定す
ればよい。例えば音声合成エンジンによって或る句の読
み上げが実行されている期間(実際には音声は出力しな
い)に、その句としての文字列をテロップ表示するとと
もに、読み上げ音声が次の句に進んだ時点で、次の句の
テロップ表示に切り換えるような処理となる。このよう
な音声合成エンジンとテロップ作成エンジンの連動を実
現する構成も図37で後述する。The setting of the display period, the switching timing, and the scroll timing of each telop can be variously considered. As described above, in this example, the text and the summary text can be read aloud, but the timing of the telop display performed by the telop creation engine can be set in accordance with the output timing of the read voice. For example, in the reading process as described above, a reading file is generated from a tag file, and the reading file is converted into a form suitable for a speech synthesis engine. Speaking is performed according to the speed at which the user feels, and paragraphs, sentences, and phrases are separated. Therefore, by setting such a paragraph, sentence, and phrase division, a telop division similar to the reading speed, and a display period, a telop display that is easy for the user to read can be realized. As a specific example of the method, as described above, the text-to-speech processing is performed by the speech synthesis engine (however, the output of the text-to-speech voice is not performed), and the CPU 13 refers to the text-to-speech timing to determine the telop display division and switching timing. Just set it. For example, during the period when a certain phrase is being read out by the speech synthesis engine (actually no voice is output), a character string as the phrase is displayed as a telop, and when the read-out voice advances to the next phrase, Is switched to the telop display of the next phrase. A configuration for realizing such interlocking between the speech synthesis engine and the telop creation engine will be described later with reference to FIG.
【0208】ところで、上記の例は、要約作成処理とそ
の表示処理に関連して、要約表示の際に場合によっては
テロップ表示を行う処理として説明したが、テロップ表
示を要約作成/表示処理とは関連せずに実行することも
可能である。すなわち、或る文書データの本文又は要約
文に対して、図25で説明した処理が行われれば、テロ
ップ表示が可能となるものであり、テロップ表示動作が
ユーザーの操作等に応じて独立に行われてもよい。従っ
て、本例のテロップ表示動作は、必ずしも図23、図2
4で説明した要約表示部304のサイズに応じて実行さ
れるだけのものではなく、例えば要約表示部304のサ
イズ又は要約作成処理などに関わらず、ユーザーが任意
に実行させることができるものである。もちろん読み上
げ動作とともにテロップ表示を行うことも可能である。In the above example, the process of displaying a telop in the summary display in some cases has been described in connection with the summary creation process and its display process. It is also possible to execute without association. That is, if the processing described with reference to FIG. 25 is performed on the text or the summary sentence of certain document data, the telop display can be performed, and the telop display operation is performed independently according to the operation of the user. May be. Therefore, the telop display operation of the present example is not necessarily performed in the manner shown in FIGS.
The process is not only executed according to the size of the summary display unit 304 described in 4 but can be arbitrarily executed by the user regardless of, for example, the size of the summary display unit 304 or the summary creation processing. . Of course, the telop display can be performed together with the reading operation.
【0209】7.ビデオファイルの出力処理 7−1 ビデオファイル及びタグ 以上の説明は本例の文書処理装置1において主に文書デ
ータのみを対象とした処理についてであるが、本例の文
書処理装置1では、上記のような各種処理、例えば本文
の表示出力、要約文の表示出力、読み上げ音声の出力な
どと連携して、もしくは独立して、文書データに関連す
るビデオデータを出力することができる。以下、ビデオ
データに関する各種処理を説明していく。[0209] 7. Output Processing of Video File 7-1 Video File and Tag The above description is about the processing mainly for only the document data in the document processing apparatus 1 of the present embodiment, but in the document processing apparatus 1 of the present embodiment, Video data related to document data can be output in cooperation with or independently of such various processes, for example, display output of a text, display output of a summary sentence, output of a read-out voice, and the like. Hereinafter, various processes regarding video data will be described.
【0210】まず、ビデオデータとしてのデータファイ
ル(以下、ビデオファイルという)及び、ビデオファイ
ルを文書データと関連づけるために文書データに付与さ
れているタグ構造について説明する。上述したように、
例えば通信部21や記録媒体32から文書処理装置1に
文書データが取り込まれる際には、同時にビデオファイ
ルが取り込まれることがある。また文書データとは別に
ビデオファイルが入力されることもある。図4、図12
などで説明したように、文書処理装置1に取り込まれた
文書データやビデオファイルは、RAM14やHDD3
4などに格納される。そして制御部11は必要に応じて
格納された文書データを取り出すことで、上述のように
文書の本文の表示や、要約作成及び表示、読み上げなど
を実行できるが、格納されているビデオファイルに関し
ても、処理対象となっている文書データに対応するビデ
オファイルを取り出して表示出力することができる。First, a data file as video data (hereinafter, referred to as a video file) and a tag structure added to the document data to associate the video file with the document data will be described. As mentioned above,
For example, when document data is taken into the document processing apparatus 1 from the communication unit 21 or the recording medium 32, a video file may be taken at the same time. A video file may be input separately from the document data. 4 and 12
As described above, the document data and the video file taken into the document processing apparatus 1 are stored in the RAM 14 or the HDD 3.
4 or the like. Then, the control unit 11 can display the text of the document, create and display the summary, display the text, etc. as described above by extracting the stored document data as necessary. In addition, a video file corresponding to the document data to be processed can be extracted and displayed and output.
【0211】図31に、文書処理装置1内に格納されて
いる文書データ及びビデオファイルのイメージを示す。
文書データ、即ちタグファイルとしては、図示するよう
にタグファイルTG1、TG2、TG3・・・・という
ように、各種文書データが格納されている。一方、ビデ
オファイルとしても、例えばビデオファイルV1、V2
・・・・というように、各種のファイルが格納されてい
る。ビデオファイルの内容は多様であり、それぞれ文書
データやビデオデータを供給するサーバ側が任意に作成
するものであるが、例えばビデオファイルV1では複数
のシーンとしての動画データVM1〜VM4が含まれて
いる。ビデオファイルV3は5つの動画データVM5〜
VM9が、ビデオファイルV5は1つの動画データVM
12が含まれている。またビデオファイルV2は、複数
の静止画データVS1〜VS7が含まれている。ビデオ
ファイルV4では、複数の静止画データVS8,VS9
と、複数の動画データVM10,VM11が含まれてい
る。もちろんこれ以外にも、多様なビデオファイルが存
在する。ビデオデータは、例えばMPEGデータなどと
される。FIG. 31 shows an image of document data and a video file stored in the document processing apparatus 1.
As document data, that is, tag files, various document data such as tag files TG1, TG2, TG3,... On the other hand, as video files, for example, video files V1, V2
··············· Various files are stored. The contents of the video file are various and are arbitrarily created by the server that supplies the document data and the video data. For example, the video file V1 includes moving image data VM1 to VM4 as a plurality of scenes. The video file V3 has five moving image data VM5
VM9 is the video file V5 is one moving image data VM
12 are included. The video file V2 includes a plurality of still image data VS1 to VS7. In the video file V4, a plurality of still image data VS8, VS9
And a plurality of moving image data VM10 and VM11. Of course, there are various other video files. The video data is, for example, MPEG data.
【0212】また動画データには、オーディオデータが
含まれているものとしている。但し静止画データには、
基本的にはオーディオデータは含まれないが、静止画映
像に関連するオーディオデータが付加されていてもよ
い。なお、ここでいうオーディオデータとは、動画もし
くは静止画としての画像に対応して記録されたオーディ
オデータであり、関連関係にある文書データの本文や要
約文の内容が読み上げられたようなオーディオデータで
はない(上述のように音声合成処理により発生される読
み上げ音声信号のことではなく、また読み上げ音声と同
内容の音声信号ではない)。つまりオーディオデータ
は、ビデオデータに付随する音声のデータのことをいっ
ており、直接的に文書データと一致するものではない。
例えば記録された映像の収録時の周囲音声、効果音、ア
ナウンス/説明等の音声など、通常のビデオデータに含
まれる音声データのことである。(但し、情報提供者側
の意向により、或る文書データに対応するビデオデータ
に、その文書データをそのまま読み上げたような内容の
オーディオデータを付加することはあり得る。)[0212] The moving image data is assumed to include audio data. However, for still image data,
Basically, audio data is not included, but audio data related to a still image may be added. The audio data referred to here is audio data recorded in correspondence with an image as a moving image or a still image, and is an audio data in which the contents of a text or a summary of related document data are read out. (This is not a read-out voice signal generated by the voice synthesis process as described above, and is not a voice signal having the same content as the read-out voice). In other words, audio data refers to audio data accompanying video data, and does not directly match document data.
For example, it refers to audio data included in normal video data, such as ambient sound, sound effect, and sound of announcement / description at the time of recording the recorded video. (However, depending on the information provider's intention, audio data having a content as if the document data was read out as it is could be added to video data corresponding to certain document data.)
【0213】また、各ビデオファイルは、例えば、時/
分/秒/フレームとしてのタイムコードTCがビデオデ
ータを構成するフレーム単位で付されている。例えばビ
デオファイルV1では図示するように、先頭のフレーム
から終端のフレームまでにおいて「00:00:00:
00」〜「00:03:39:05」のタイムコードT
Cが付されている。このタイムコードTCはビデオファ
イルにおける各部のアドレス的に機能し、例えばタイム
コードを指定することで、任意の箇所(任意の区間)を
再生させることができる。例えばビデオファイルV1に
おける動画データVM2を再生させる場合などは、その
動画データVM2としての区間の開始フレームと終了フ
レームのタイムコードが指定されればよい。Each video file is, for example, a time /
A time code TC as minutes / seconds / frames is attached for each frame constituting video data. For example, in the video file V1, as shown in the figure, “00:00:00:
00 ”to“ 00: 03: 39: 05 ”time code T
C is attached. The time code TC functions as an address of each part in the video file. For example, by specifying a time code, an arbitrary portion (arbitrary section) can be reproduced. For example, when reproducing the moving image data VM2 in the video file V1, the time code of the start frame and the end frame of the section as the moving image data VM2 may be specified.
【0214】このようにビデオファイルは、それぞれ1
又は複数の動画や静止画のデータで構成されるが、文書
データ(タグファイル)は、その文書内容に関連するビ
デオデータとして、ビデオファイル名や各動画データ、
静止画データを指定するタグが付されている。つまりタ
グファイルとしては、文書全体、段落、文、句などの任
意の単位で、タグにより関連するビデオデータを指定す
ることができ、文書処理装置1は、そのようなタグ(以
下、ビデオデータを指定するタグを、ビデオタグとい
う)に基づいて、文書データに関連するビデオデータを
判別し、出力することができる。As described above, each video file has 1
Alternatively, the document data (tag file) is composed of a plurality of moving image and still image data, and a video file name, each moving image data,
A tag for specifying still image data is attached. That is, as the tag file, related video data can be specified by tags in arbitrary units such as the entire document, paragraphs, sentences, phrases, and the like. The video data related to the document data can be determined and output based on the designated tag (referred to as a video tag).
【0215】また、ビデオタグにより文書データに関連
するビデオデータを判別できるということは、その時点
で逆にビデオデータから関連する文書データを判別でき
ることにもなる。さらに文書データに付されたビデオタ
グにタイムコードが含まれていることで、タイムコード
で規定されるシーン毎に、関連する文書部分を特定でき
るものともなる。In addition, the fact that video data related to document data can be determined by the video tag means that the relevant document data can be determined from the video data at that time. Further, since the time code is included in the video tag attached to the document data, a related document portion can be specified for each scene defined by the time code.
【0216】ビデオタグが付されたタグファイルの例を
図32、図33に示す。図32は、前述した図18と同
一の内容としてのタグファイルに、ビデオタグが付加さ
れた例である。図18の場合は、文書範囲を規定するタ
グとして<文書>〜</文書>が付されていたが、この
場合、文書範囲を示すタグにおいてビデオタグが付加さ
れ、 <文書 ビデオファイル=“V3”> とされ、この文書データの全体に関連するビデオデータ
が、図31に示したビデオファイルV3に含まれること
が表されている。FIGS. 32 and 33 show examples of tag files with video tags. FIG. 32 shows an example in which a video tag is added to a tag file having the same contents as in FIG. 18 described above. In the case of FIG. 18, <document> to </ document> are added as tags defining the document range. ">", Indicating that video data related to the entire document data is included in the video file V3 shown in FIG.
【0217】また(例10)としての部分に示すよう
に、<見出し><シーン=“VM5”in=“00:0
0:00:00” out=“00:00:16:1
0”>・・・・・</シーン></見出し>とされ、こ
のようなタグによって、この文書データの見出し部分に
関連するビデオデータが、図31に示したビデオファイ
ルV3に含まれる動画データVM5であることが表され
ている。また、in=“00:00:00:00”とo
ut=“00:00:03:12”により、ビデオファ
イルV3内における動画データVM5としてのシーンの
開始時間(開始フレーム)と終了時間(終了フレー
ム)、即ちタイムコードが指定されている。Also, as shown in the portion as (Example 10), <heading><scene = “VM5” in = “00: 0”
0: 00: 00: 00 "out =" 00: 00: 16: 1
0 ″>... </ Scene></heading>, and the video data related to the heading of the document data is included in the video file V3 shown in FIG. It is indicated that the data is VM5, and that in = “00: 00: 00: 00” and o
By ut = “00: 00: 03: 12”, the start time (start frame) and end time (end frame) of the scene as the moving image data VM5 in the video file V3, that is, the time code is specified.
【0218】さらに(例11)としての部分に示すよう
に、<段落><シーン=“VM9”in=“00:0
5:29:01” out=“00:06:41:0
0”>・・・・・</シーン></段落>とされ、この
ようなタグによって、この文書データにおける図32
(b)に示した段落部分に関連するビデオデータが、図
31に示したビデオファイルV3に含まれる動画データ
VM9であることが表されている。また、in=“0
0:05:29:01” out=“00:06:4
1:00”により、ビデオファイルV3内における動画
データVM9としてのシーンの開始時間(開始フレー
ム)と終了時間(終了フレーム)、即ちタイムコードが
指定されている。Further, as shown in the portion as (Example 11), <paragraph><scene = “VM9” in = “00: 0”
5:29:01 ”out =“ 00: 06: 41: 0 ”
0 ″>... </ Scene></paragraph>, and the tags shown in FIG.
It is shown that the video data related to the paragraph shown in (b) is the moving image data VM9 included in the video file V3 shown in FIG. Also, in = “0”
0: 05: 29: 01 "out =“ 00: 06: 4
1:00 "specifies the start time (start frame) and end time (end frame) of the scene as the moving image data VM9 in the video file V3, that is, the time code.
【0219】このようなタグ構造により、制御部11
は、当該タグファイルに関連するビデオデータを判別で
き、必要に応じて再生出力させることができる。With such a tag structure, the control unit 11
Can determine video data related to the tag file, and can reproduce and output the data as necessary.
【0220】また図33は、前述した図19と同一の内
容としてのタグファイルに、ビデオタグが付加された例
である。この例は、文書データ内の1つの文ごとに、対
応する1つの静止画データが指定されている例である。
まず、<文書 ビデオファイル=“V2”>・・・・<
/文書>というタグにより、この文書に関連するビデオ
データがビデオファイルV2に含まれていることが示さ
れる。そして各文は、<文>〜</文>というタグで、
その範囲が示されるが、(例12)〜(例16)におい
て示すように、それぞれ各文についてのタグが、 <文 シーン=“VS1”>・・・・</文> <文 シーン=“VS2”>・・・・</文> <文 シーン=“VS3”>・・・・</文> <文 シーン=“VS4”>・・・・</文> <文 シーン=“VS5”>・・・・</文> とされており、つまり、各文のそれぞれに、静止画デー
タVS1、VS2、VS3、VS4、VS5が対応して
いることが示されている。FIG. 33 shows an example in which a video tag is added to the tag file having the same contents as in FIG. 19 described above. In this example, one corresponding still image data is specified for each sentence in the document data.
First, <document video file = “V2”>... <
The tag “/ document>” indicates that video data related to this document is included in the video file V2. And each sentence is a tag <sentence>-</ sentence>,
Although the range is shown, as shown in (Example 12) to (Example 16), the tag for each sentence is <Sentence Scene = "VS1"> ... </ Sentence><Sentence Scene = "" VS2 "> ... </ sentence><sentence scene =" VS3 "> ... </ sentence><sentence scene =" VS4 "> ... </ sentence><sentence scene =" VS5 " ... </ Sentence>, that is, it indicates that the still image data VS1, VS2, VS3, VS4, and VS5 correspond to each sentence.
【0221】なお、ビデオファイルV2において各静止
画データVS1〜VS7がそのデータ名称「VS1」・
・・「VS7」として再生指定できる管理構造がとられ
ていることを前提とすれば、このようなシーンをデータ
名称のみで指定するビデオタグでよいが、静止画データ
についても上記の動画データと同様にビデオタグ内でタ
イムコードにより指定されるようにしてもよい。また逆
に、動画データの再生区間をデータ名称のみで指定でき
る場合は、必ずしも上記のようにタイムコードを指定す
る必要はない。In the video file V2, each of the still image data VS1 to VS7 has a data name "VS1".
..Assuming that a management structure that can be designated as "VS7" is adopted, a video tag that designates such a scene only by a data name may be used. Similarly, it may be specified by a time code in a video tag. Conversely, when the playback section of the moving image data can be specified only by the data name, it is not always necessary to specify the time code as described above.
【0222】この図32、図33のようなタグ構造によ
り、制御部11は、当該タグファイルの各文に関連する
ビデオデータを判別でき、必要に応じて再生出力させる
ことができる。With the tag structure shown in FIGS. 32 and 33, the control section 11 can determine video data related to each sentence of the tag file, and can reproduce and output the video data as necessary.
【0223】上記図32の例は、文書の見出しや段落な
どの単位で、それぞれに1つの動画データが対応づけら
れた例で、図33は文書の各文に、それぞれ静止画デー
タが対応づけられた例であるが、タグファイルによるビ
デオデータの対応付は、多様なバリエーションで可能と
なる。即ち、<**句>〜</**句>などのタグにビ
デオタグを付加すれば、句単位など、任意の単位で或る
ビデオデータを対応づけることが可能である。また文書
全体の範囲を示す<文書>〜</文書>のタグにビデオ
タグを付加すれば、文書全体に対して1つのビデオデー
タを対応づけることができる。また、1つのタグファイ
ル内で、複数の動画データを対応付けしたり、静止画デ
ータと動画データを複合的に対応付けすることも当然可
能である。The example of FIG. 32 is an example in which one piece of moving image data is associated with each of the units such as a headline and a paragraph of a document. FIG. In this example, association of video data with a tag file is possible in various variations. That is, if a video tag is added to a tag such as <** phrase> to </ ** phrase>, it is possible to associate certain video data in an arbitrary unit such as a phrase unit. If a video tag is added to tags <document> to </ document> indicating the range of the entire document, one video data can be associated with the entire document. In addition, it is naturally possible to associate a plurality of pieces of moving image data or combine still image data and moving image data in one tag file.
【0224】7−2 ビデオ出力処理 以上の例のようなタグファイルによれば、文書処理装置
1はタグファイルに関連づけてビデオデータを出力する
ことができる。以下、ビデオデータに関する出力処理を
説明していく。なお、ビデオデータの出力時には、同時
に文書データに関して本文又は要約文の表示、テロップ
表示、読み上げなどを連動的に実行することもできる
が、これらの動作については詳しく後述する。ここでは
文書処理装置1が、ビデオデータのみを出力する場合の
動作を説明していく。7-2 Video Output Processing According to the tag file as in the above example, the document processing apparatus 1 can output video data in association with the tag file. Hereinafter, output processing for video data will be described. At the time of outputting the video data, the display of the text or the summary sentence, the display of the telop, the reading out of the text data and the like can be simultaneously performed with respect to the document data. These operations will be described later in detail. Here, an operation when the document processing apparatus 1 outputs only video data will be described.
【0225】図35は制御部11によるビデオ出力処理
を示す。この処理は、例えば上述した図26のように閲
覧ウインドウ301が表示されている状態で、ビデオボ
タン306dがクリックされることにより開始される。
もちろん図27のように要約文が作成され、表示された
状態にあるときに、ビデオボタン306dがクリックさ
れた場合でもよい。FIG. 35 shows the video output processing by the control unit 11. This process is started when the video button 306d is clicked while the viewing window 301 is displayed as shown in FIG. 26 described above, for example.
Needless to say, the video button 306d may be clicked while the summary is created and displayed as shown in FIG.
【0226】ビデオボタン306dがクリックされるこ
とに応じて、制御部11は、まず図35のステップF6
01として、閲覧ウインドウ301上に表示されている
文書データのタグファイルを確認し、そのタグファイル
が上記図32、図33のようにビデオタグを含むもので
あるか、或いは図18、図19のようにビデオタグが存
在しないものであるかを確認する。In response to clicking on video button 306d, control unit 11 firstly proceeds to step F6 in FIG.
01, the tag file of the document data displayed on the browsing window 301 is confirmed, and the tag file includes a video tag as shown in FIGS. 32 and 33, or as shown in FIGS. Check if the video tag does not exist.
【0227】もしビデオタグが存在しないタグファイル
について、閲覧ウインドウ301が開かれていた状態で
あったときは、表示されている文書データに関連するビ
デオデータは存在しないと判断し、ステップF601か
らビデオ出力処理を終える。つまりその場合は、ビデオ
ボタン306dのクリックは無効な操作となる。If the browsing window 301 is open for a tag file having no video tag, it is determined that there is no video data related to the displayed document data. Finish the output process. That is, in this case, clicking the video button 306d is an invalid operation.
【0228】ところが、閲覧ウインドウ301で表示さ
れている文書データのタグファイルにビデオタグが含ま
れていた場合は、その文書データに関連するビデオデー
タが指定されていることになるため、制御部11は処理
をステップF602に進め、ビデオ出力用ファイルを生
成する。ビデオ出力用ファイルとは、例えば図34
(a)(b)に示すように、タグファイルからビデオタ
グを抽出して生成するファイルである。図34(a)は
図32のタグファイルから生成したビデオ出力用ファイ
ルであり、この場合、上述したビデオタグが抽出され、
図示するようにビデオファイルV3における動画データ
VM5〜VM9を指定するファイル内容となる。なお、
図32(a)(b)ではタグファイルにおいて動画デー
タVM5、VM9が指定されて部分のみを示したが、こ
の図34(a)の例は、図32(a)(b)の各文書部
分の間に3つの段落が存在し、それぞれの段落について
動画データVM6、VM7、VM8がそれぞれ指定され
ていたとしたときの例である。However, if the video data is included in the tag file of the document data displayed in the browsing window 301, the video data related to the document data is specified. Advances the process to step F602, and generates a video output file. The video output file is, for example, as shown in FIG.
(A) As shown in (b), a file is generated by extracting a video tag from a tag file. FIG. 34A shows a video output file generated from the tag file shown in FIG. 32. In this case, the above-described video tag is extracted,
As shown in the figure, the file content specifies the moving image data VM5 to VM9 in the video file V3. In addition,
FIGS. 32 (a) and 32 (b) show only portions where the moving image data VM5 and VM9 are specified in the tag file. However, the example of FIG. 34 (a) shows the respective document portions shown in FIGS. 32 (a) and 32 (b). This is an example in which three paragraphs exist between the moving image data and the moving image data VM6, VM7, and VM8 are specified for each paragraph.
【0229】また図34(b)は図33のタグファイル
から生成したビデオ出力用ファイルであり、この場合、
図示するようにビデオファイルV2における静止画デー
タVS1〜VS5を指定するファイル内容となる。FIG. 34B shows a video output file generated from the tag file shown in FIG. 33. In this case,
As shown in the figure, the file content specifies the still image data VS1 to VS5 in the video file V2.
【0230】このようなビデオ出力用ファイルは、文書
処理装置1内のビデオエンジンによるビデオ再生動作の
実行のためのファイルとなる。ビデオエンジンは、ハー
ドウェアで構成してもよいし、ソフトウェアで実現する
ようにしてもよい。ビデオエンジンをソフトウェアで実
現する場合には、そのアプリケーションプログラムは、
ROM15やHDD34等に予め記憶されている。ビデ
オエンジンを含む機能構成については図37で後述す
る。[0230] Such a video output file is a file for executing a video playback operation by the video engine in the document processing apparatus 1. The video engine may be configured by hardware or realized by software. If the video engine is implemented by software, the application program
It is stored in the ROM 15 or the HDD 34 in advance. The functional configuration including the video engine will be described later with reference to FIG.
【0231】なお、図34はビデオ出力用ファイルの構
造としての一例であり、実際にビデオ出力用ファイルが
このような構造に限定されるものではない。また、この
図35の処理や、後述する、文書データの出力をととも
に実行する場合のビデオ出力処理では、ビデオ出力用フ
ァイルに基づいてビデオデータが出力されるものとして
いるが、ビデオエンジンが直接タグファイルに基づいて
ビデオデータの再生を行うようにすることもできる。FIG. 34 shows an example of the structure of the video output file, and the video output file is not actually limited to such a structure. In the processing of FIG. 35 and the video output processing in the case where the document data is output together with the output of the document data, which will be described later, the video data is output based on the video output file. Reproduction of video data may be performed based on a file.
【0232】続いて制御部11はステップF603で、
ビデオエンジンを起動する。また制御部11はステップ
F604で、表示部30に例えば図36に示すようなビ
デオウインドウ501を開く。このビデオウインドウ5
01には、文書データファイルのファイル名を表示する
ファイル名表示部502、そのファイル名の文書データ
に関連するビデオデータを表示するビデオ表示部50
3、ビデオ表示部503で表示されている映像の位置
(動画データの再生進行位置)を示すビデオバー50
4、表示されている映像の開始位置としてのタイムコー
ドを表示する開始位置表示部521、表示されている映
像の現在の再生位置(カレントポジション)としてのタ
イムコードを表示する現在位置表示部522、表示され
ている映像の終了位置としてのタイムコードを表示する
終了位置表示部523などが表示される。さらに、画像
再生動作をユーザーが指示するために、再生ボタン50
5、一時停止ボタン506、停止ボタン507、早戻し
ボタン508、早送りボタン509、戻し方向の頭出し
ボタン510、送り方向の頭出しボタン511などが表
示される。Subsequently, the control unit 11 determines in step F603 that
Start the video engine. In step F604, the control unit 11 opens a video window 501 on the display unit 30, for example, as shown in FIG. This video window 5
01, a file name display section 502 for displaying a file name of the document data file, and a video display section 50 for displaying video data related to the document data having the file name.
3. A video bar 50 indicating the position of the image displayed on the video display unit 503 (the position where the reproduction of the moving image data proceeds).
4. a start position display section 521 for displaying a time code as a start position of a displayed image; a current position display section 522 for displaying a time code as a current reproduction position (current position) of the displayed image; An end position display section 523 that displays a time code as an end position of the displayed video is displayed. Further, in order for the user to instruct an image reproducing operation, a reproducing button 50 is provided.
5, a pause button 506, a stop button 507, a fast-reverse button 508, a fast-forward button 509, a cue button 510 in a return direction, a cue button 511 in a feed direction, and the like are displayed.
【0233】このようなビデオウインドウ501を開い
たら、制御部11はステップF605としてユーザーイ
ンターフェースの操作に応じた処理を行うことになる。
例えば図34(a)のようなビデオ出力用ファイルによ
れば、図31に示したビデオファイルV3の動画データ
VM5の再生が指定されたことになるが、ビデオウイン
ドウ501で再生ボタン505がクリックされた場合
は、制御部11はビデオエンジンにより、動画データV
M5の再生を開始させる。これによりビデオ表示部50
3に動画データVM5の映像が表示される。なおこのと
き動画データVM5に含まれるオーディオデータは音声
出力部33から音声として出力されることになる。図3
4(a)のビデオ出力用ファイルによる場合、動画デー
タVM5の再生が完了したら、続いて動画データVM6
の再生出力が行われる。以降、動画データVM7,VM
8,VM9の再生が行われていく。When such a video window 501 is opened, the control section 11 performs a process corresponding to the operation of the user interface as step F605.
For example, according to the video output file as shown in FIG. 34A, the reproduction of the moving image data VM5 of the video file V3 shown in FIG. 31 is designated, but the reproduction button 505 is clicked in the video window 501. In this case, the control unit 11 sends the moving image data V
The reproduction of M5 is started. Thereby, the video display unit 50
3 displays an image of the moving image data VM5. At this time, the audio data included in the moving image data VM5 is output as audio from the audio output unit 33. FIG.
4 (a), when the reproduction of the moving image data VM5 is completed, the moving image data VM6
Is output. Hereinafter, the moving image data VM7, VM
8. The reproduction of the VM 9 is performed.
【0234】また、例えば動画データVM5の再生中に
一時停止ボタン506がクリックされると、制御部11
はビデオエンジンによる動画データVM5の再生を一時
停止させる。停止ボタン507がクリックされると、制
御部11はビデオエンジンによる動画データVM5の再
生を停止させる。早戻しボタン508、又は早送りボタ
ン509がクリックされると、制御部11はビデオエン
ジンによる動画データVM5の再生動作の早戻し又は早
送りを実行させる。戻し方向の頭出しボタン510、又
は送り方向の頭出しボタン511がクリックされると、
制御部11はビデオエンジンによる動画データVM5の
再生箇所として、例えば前後のシーン(又はポイントと
なる特定箇所)の先頭箇所又は他の動画データ(VM6
等)の先頭箇所に戻し(又は送り)、その箇所からの再
生を実行させる。さらに、ユーザーがビデオバー504
における現在位置の表示部分をドラッグした場合は、そ
れに応じて、ビデオエンジンによる動画データVM5の
再生箇所の戻し方向又は進み方向に移動させる。If the pause button 506 is clicked during the reproduction of the moving image data VM5, for example,
Suspends reproduction of the moving image data VM5 by the video engine. When the stop button 507 is clicked, the control unit 11 stops the reproduction of the moving image data VM5 by the video engine. When the fast reverse button 508 or the fast forward button 509 is clicked, the control unit 11 causes the video engine to perform fast reverse or fast forward of the reproduction operation of the moving image data VM5. When the cue button 510 in the return direction or the cue button 511 in the feed direction is clicked,
The control unit 11 determines, for example, the beginning of the preceding or succeeding scene (or a specific point to be a point) or another moving image data (VM6)
Etc.) to the beginning (or forward), and playback from that location is executed. In addition, the user can change the video bar 504
When the display portion of the current position is dragged, the video engine VM5 is moved in the backward or forward direction of the playback position of the moving image data VM5 accordingly.
【0235】ところで、例えば図34(b)のようなビ
デオ出力用ファイルに基づく場合など、表示されるビデ
オデータが静止画データである場合は、一時停止ボタン
506、早戻しボタン508、早送りボタン509操作
は実質的に意味がないため表示されないようにしてもよ
い。そしてその場合は、再生ボタン505のクリックに
より、静止画データの表示が開始され、またタグファイ
ルにより複数の静止画データが指定されていた場合は、
戻し方向の頭出しボタン510、又は送り方向の頭出し
ボタン511のクリックに応じて、静止画データが切り
換えられていくようにすればよい。When the video data to be displayed is still image data, for example, based on a video output file as shown in FIG. Since the operation is substantially meaningless, it may not be displayed. In that case, the display of the still image data is started by clicking the play button 505, and when a plurality of still image data is specified by the tag file,
Still image data may be switched in response to clicking on the cue button 510 in the return direction or the cue button 511 in the feed direction.
【0236】このようなユーザーインターフェース操作
に応じた処理により、ユーザーは、ビデオデータを任意
の状態で視聴できることになる。そして、このように閲
覧ウインドウ301で表示されている文書データに関連
したビデオデータがビデオウインドウ501において表
示されることで、ユーザーは文書内容に関連したビデオ
データを見ることができ、文書内容(情報内容)をより
的確かつ詳細に知ることができる。By the processing according to the user interface operation, the user can view the video data in an arbitrary state. Then, by displaying the video data related to the document data displayed in the browsing window 301 in the video window 501 in this manner, the user can see the video data related to the document content, and the document content (information Content) can be known more accurately and in detail.
【0237】8.文書処理装置の機能ブロック構成 以上、文書処理装置1において実現される各種の動作を
説明してきた。具体的にいえば、文書データについての
要約作成/表示、本文又は要約文についてのテロップ表
示、本文又は要約文についての読み上げ、及びビデオデ
ータの出力である。これらの動作、及び後述するビデオ
データと文書データの連動出力動作を可能とするため
に、例えば制御部11内のソフトウエア構成(もしくは
ハードウエア構成でもよい)及びファイル群構成とし
て、形成される機能ブロックを図37に示す。なお図3
7は、表示部30又は音声出力部33からの出力動作に
関連する部位のみを示したものであり、例えば文書受信
処理、分類処理などを実現する機能ブロックについては
省略した。[0237] 8. Functional Block Configuration of Document Processing Device Various operations realized in the document processing device 1 have been described above. To be more specific, they are creation / display of an abstract for document data, display of a telop for a text or an abstract, reading out of a text or an abstract, and output of video data. In order to enable these operations and an interlocked output operation of video data and document data, which will be described later, a function formed as a software configuration (or a hardware configuration) and a file group configuration in the control unit 11, for example. The block is shown in FIG. FIG. 3
Reference numeral 7 denotes only a portion related to an output operation from the display unit 30 or the audio output unit 33, and functional blocks for implementing, for example, a document reception process and a classification process are omitted.
【0238】この場合、図示するように上述した音声合
成エンジン601、テロップ作成エンジン602、要約
作成エンジン603、ビデオエンジン604が設けられ
る。また後述するビデオデータと文書データの連動出力
動作を行うためにビデオ連動文書作成エンジン620が
設けられる。また音声出力部33に対する音声信号の出
力処理部として音声制御部605や、表示部30に対す
る画像信号の出力処理部として表示制御部606が設け
られる。さらに、ユーザーインターフェース607とし
て、表示される各種ウインドウ上でのボタンについての
ユーザー操作(入力部20としてのマウスのクリック等
による操作)についての処理を行う部位が設けられる。
そして、これらの機能ブロックの制御を行うコントロー
ラ600が形成される。In this case, the above-described speech synthesis engine 601, telop creation engine 602, summary creation engine 603, and video engine 604 are provided as shown. In addition, a video-linked document creation engine 620 is provided to perform a linked output operation of video data and document data described later. An audio control unit 605 is provided as an audio signal output processing unit for the audio output unit 33, and a display control unit 606 is provided as an image signal output processing unit for the display unit 30. Further, a part that performs processing for a user operation (an operation by clicking a mouse or the like as the input unit 20) on a button on various displayed windows is provided as the user interface 607.
Then, a controller 600 for controlling these functional blocks is formed.
【0239】またファイルとしては、上述してきた読み
上げ用ファイル608、本文タグファイル609、要約
文タグファイル610、ビデオファイル611、ビデオ
出力用ファイル612がある。上述したように、本文タ
グファイル609及びビデオファイル611は、通信部
21もしくは記録/再生部31(記録媒体32)から取
り込まれるものとなる。また、要約文タグファイル61
0は、要約作成エンジン603によって本文タグファイ
ル609から生成される。読み上げ用ファイル608
は、本文タグファイル609もしくは要約文タグファイ
ル610が変換されて生成される。ビデオ出力用ファイ
ル612は、本文タグファイル609もしくは要約文タ
グファイル610から変換されて(具体的にはビデオタ
グが抽出されて)生成される。The files include the reading file 608, the body tag file 609, the summary tag file 610, the video file 611, and the video output file 612 described above. As described above, the body tag file 609 and the video file 611 are taken from the communication unit 21 or the recording / reproducing unit 31 (recording medium 32). In addition, the summary sentence tag file 61
0 is generated from the body tag file 609 by the summary creation engine 603. Speech file 608
Is generated by converting the body text tag file 609 or the summary sentence tag file 610. The video output file 612 is generated by converting (specifically, extracting a video tag) from the text tag file 609 or the summary sentence tag file 610.
【0240】さらに、後述するビデオデータと文書デー
タの連動出力動作のために、ビデオ連動文書作成エンジ
ン620によってビデオ連動出力用文書ファイル621
が作成される。このビデオ連動出力用文書ファイル62
1は、本文タグファイル609もしくは要約文タグファ
イル610が変換されて、文書の固定表示又はテロップ
表示に用いられるファイルとされるか、もしくは読み上
げ出力のためのファイルとされる。Further, for a linked output operation of video data and document data, which will be described later, a video linked output document file 621 is generated by the video linked document creation engine 620.
Is created. This video linked output document file 62
Reference numeral 1 denotes a file in which the text tag file 609 or the summary tag file 610 is converted and used as a fixed display or a telop display of a document, or as a file for reading out and outputting.
【0241】上述してきた各動作、及び後述するビデオ
データと文書データの連動出力動作を実現するための図
37の機能ブロックの処理を、以下説明していく。The following describes each operation described above and the processing of the functional blocks in FIG. 37 for realizing the linked output operation of video data and document data, which will be described later.
【0242】・本文又は要約文の読み上げ処理 図16〜図22で説明した読み上げ処理の際には、まず
本文タグファイル609もしくは要約文タグファイル6
10から読み上げ用ファイル608が生成される。そし
て音声合成エンジン601はコントローラ600の指示
に基づいて読み上げ用ファイル608を参照し、読み上
げ用ファイル608に基づいた音声合成処理を行う。生
成された合成音声信号(読み上げ音声信号)Youtは
音声制御部605において出力レベル調整等が行われ、
音声出力部33に供給されて出力される。またコントロ
ーラは表示制御部606から読み上げウインドウ401
としての画像信号を出力させ、表示部30に表示させ
る。また読み上げウインドウ401に対するユーザー操
作の情報はユーザーインターフェース607で取り込ま
れてコントローラ600に伝えられ、コントローラ60
0は、ユーザー操作に応じて音声合成エンジン601の
動作を制御する。Text-to-Speech Processing or Text-to-Summarized Sentence In the text-to-speech processing described with reference to FIGS.
10, a reading-out file 608 is generated. Then, the speech synthesis engine 601 refers to the reading file 608 based on the instruction of the controller 600 and performs a speech synthesis process based on the reading file 608. The output level of the generated synthesized voice signal (speech voice signal) Yout is adjusted by the voice control unit 605, and the like.
It is supplied to the audio output unit 33 and output. Further, the controller sends a reading window 401 from the display control unit 606.
Is output and displayed on the display unit 30. Further, information on the user operation on the reading window 401 is taken in by the user interface 607 and transmitted to the controller 600, and is transmitted to the controller 600.
0 controls the operation of the speech synthesis engine 601 according to a user operation.
【0243】・要約作成処理 図23で説明した要約作成処理の際には、コントローラ
600は要約作成エンジン603に指示を出し、本文タ
グファイル609について要約作成を実行させる。これ
により要約文タグファイルが形成される。なおコントロ
ーラ600は、要約作成エンジン603に対して、要約
表示部304のサイズ情報を伝えることで、上述のよう
に要約表示部304のサイズに応じた要約生成処理が行
われる。Summary Creation Processing In the summary creation processing described with reference to FIG. 23, the controller 600 instructs the summary creation engine 603 to execute summary creation for the body tag file 609. As a result, a summary tag file is formed. By transmitting the size information of the summary display unit 304 to the summary creation engine 603, the controller 600 performs the summary generation process according to the size of the summary display unit 304 as described above.
【0244】・要約固定表示処理 図23、図24、図27で説明したように、要約表示部
304のサイズが所定値wsth以上であった場合は、
そのサイズに応じた文書長の要約文タグファイル610
が生成され、それが固定表示されることになる。この場
合、生成された要約文タグファイル610は、要約作成
エンジン603によって表示文書出力Soutとして処
理され、表示制御部606に供給される。そして表示制
御部606で、閲覧ウインドウ300の画像に合成さ
れ、表示部30で図27のように表示される。Summarized Fixed Display Processing As described with reference to FIGS. 23, 24 and 27, when the size of the summarized display unit 304 is equal to or larger than the predetermined value wsth,
Summary sentence tag file 610 of the document length according to the size
Is generated and it is fixedly displayed. In this case, the generated summary sentence tag file 610 is processed as a display document output Sout by the summary creation engine 603 and supplied to the display control unit 606. The display control unit 606 combines the image with the image of the browsing window 300 and displays the image on the display unit 30 as shown in FIG.
【0245】・要約表示サイズに応じたテロップ表示処
理 図23〜図30で説明したように、要約表示部304の
サイズが所定値wsth未満であった場合は、そのサイ
ズを越える文書長の要約文タグファイル610が生成さ
れ、それがテロップ表示されることになる。この場合、
生成された要約文タグファイル610は、テロップ作成
エンジン602によってテロップ化処理が行われる。そ
してテロップ表示文書出力Toutとして逐次出力され
ていく。表示制御部606では、テロップ表示文書出力
Toutを閲覧ウインドウ300の画像に合成し、表示
部30で図28〜図30のような表示が実行されていく
ようにする。23. Telop Display Processing According to Summary Display Size As described with reference to FIGS. 23 to 30, when the size of the summary display unit 304 is smaller than the predetermined value wsth, a summary sentence having a document length exceeding that size is used. A tag file 610 is generated, and it is displayed as a telop. in this case,
The generated summary sentence tag file 610 is subjected to telop processing by the telop creation engine 602. Then, it is sequentially output as a telop display document output Tout. The display control unit 606 combines the telop display document output Tout with the image of the browsing window 300, and causes the display unit 30 to perform the display as shown in FIGS.
【0246】・要約文/本文のテロップ表示処理 また上述したように、要約表示部304のサイズなどに
関係なく、本文又は要約文についてのテロップ表示を行
うこともできる。その場合は、本文タグファイル609
又は要約文タグファイル610について、テロップ作成
エンジン602によってテロップ化処理が行われる。そ
してテロップ表示文書出力Toutとして逐次出力され
ていく。表示制御部606では、テロップ表示文書出力
Toutを閲覧ウインドウ300その他の所要のウイン
ドウの画像に合成し、表示部30でテロップ表示が実行
されていくようにする。Summary Text / Text Subtitle Display Processing As described above, regardless of the size of the summary display unit 304, telop display of a text or a summary text can also be performed. In that case, the body tag file 609
Alternatively, the telop creation engine 602 performs telop conversion processing on the summary sentence tag file 610. Then, it is sequentially output as a telop display document output Tout. The display control unit 606 combines the telop display document output Tout with the image of the browsing window 300 and other required windows, and causes the display unit 30 to execute the telop display.
【0247】・読み上げタイミングでのテロップ表示処
理 テロップ表示の変形例として、テロップの進行タイミン
グを読み上げ音声タイミングに合わせることができるこ
とを述べた。その場合、要約文タグファイル610から
変換された読み上げ用ファイル608が、音声合成エン
ジン601とテロップ作成エンジン602の共有ファイ
ルとして用いられる。(図中破線で示す信号系が形成さ
れる。) コントローラ600の制御に基づいて、音声合成エンジ
ン601は読み上げ用ファイル608を用いた音声合成
/読み上げ出力を行う。但しこの場合、音声制御部60
5は生成された合成音声信号Youtについて出力レベ
ルをゼロとすることで、ユーザーに対して読み上げ音声
が出力されないようにする。テロップ作成エンジン60
2は、読み上げ用ファイル608を用いてテロップ作成
を行うが、この際、テロップ作成エンジン602と音声
合成エンジン601は相互にタイミング信号の授受を行
う。つまり、テロップ作成エンジン602は、読み上げ
用ファイル608からのタイミング信号に基づいてテロ
ップ作成/テロップ表示文書出力Toutを実行してい
く。これにより読み上げ速度によるテロップ表示が実行
される。なお、読み上げ速度(つまりこの場合はテロッ
プ速度)については、ユーザーインターフェース607
からの情報に基づいてコントローラ600が音声合成エ
ンジン601での設定を変更することで、変更可能とな
る。-Telop Display Processing at Reading Timing As a modification of the telop display, it has been described that the telop progress timing can be adjusted to the reading voice timing. In this case, the reading-out file 608 converted from the summary sentence tag file 610 is used as a shared file of the speech synthesis engine 601 and the telop creation engine 602. (A signal system indicated by a broken line in the figure is formed.) Under the control of the controller 600, the speech synthesis engine 601 performs speech synthesis / speech output using the speech file 608. However, in this case, the voice control unit 60
Numeral 5 sets the output level of the generated synthesized voice signal Yout to zero so that no read-out voice is output to the user. Telop creation engine 60
2 uses the reading file 608 to create a telop. At this time, the telop creation engine 602 and the speech synthesis engine 601 mutually exchange timing signals. In other words, the telop creation engine 602 executes telop creation / telop display document output Tout based on the timing signal from the reading-out file 608. As a result, the telop display based on the reading speed is executed. Note that the reading speed (that is, the telop speed in this case) is set in the user interface 607.
When the controller 600 changes the settings in the speech synthesis engine 601 based on the information from, the change can be made.
【0248】・ビデオ出力処理 図35、図36で説明したビデオ出力処理は、ユーザー
インターフェース607からの情報に基づくコンピュー
タ600の指示によって、ビデオエンジン604の処理
で行われる。ビデオエンジン604は、本文タグファイ
ル609もしくは要約文タグファイル610から生成さ
れたビデオ出力用ファイル612を参照し、再生すべき
ビデオデータを判別して、ビデオファイル611を読み
出す。読み出されたビデオデータは、ビデオエンジン6
04によって出力用の映像信号Voutとして処理さ
れ、表示制御部606に供給される。そして表示制御部
606で、ビデオウインドウ501の画像に合成され、
表示部30で図36のように表示される。またビデオデ
ータに含まれるオーディオデータについても、ビデオエ
ンジン604によって出力用の音声信号Aoutとして
処理され、音声制御部605に供給されてレベル調整等
の処理が行われる。そして音声出力部33から再生音声
として出力される。ビデオ出力中には、ビデオウインド
ウ501に対するユーザー操作の情報はユーザーインタ
ーフェース607で取り込まれてコントローラ600に
伝えられ、コントローラ600は、ユーザー操作に応じ
てビデオエンジン601の動作を制御する。Video Output Processing The video output processing described with reference to FIGS. 35 and 36 is performed by the processing of the video engine 604 in accordance with an instruction from the computer 600 based on information from the user interface 607. The video engine 604 refers to the video output file 612 generated from the text tag file 609 or the summary sentence tag file 610, determines video data to be reproduced, and reads the video file 611. The read video data is transmitted to the video engine 6
The video signal Vout is processed as an output video signal Vout and supplied to the display control unit 606. Then, the display control unit 606 combines the image with the image of the video window 501,
It is displayed on the display unit 30 as shown in FIG. The audio data included in the video data is also processed as an output audio signal Aout by the video engine 604 and supplied to the audio control unit 605 to perform processing such as level adjustment. Then, the sound is output from the sound output unit 33 as reproduced sound. During video output, information on the user operation on the video window 501 is captured by the user interface 607 and transmitted to the controller 600, and the controller 600 controls the operation of the video engine 601 according to the user operation.
【0249】・ビデオデータと連動する文書データ固定
表示 図40により後述するが、本例では、ビデオデータの出
力に連動させて、文書データとしての本文又は要約文を
固定表示出力することができる。これは、ビデオデータ
として出力されているシーン毎に、文書データ内の対応
部分を固定的に表示する処理である。このためには、ビ
デオデータの位置、即ちタイムコードで規定される区間
に対応して、文書部分が特定されていなければならな
い。このため、ビデオ連動文書作成エンジン620は、
出力されるビデオデータのタイムコードに対応する文書
部分が指定されたビデオ連動出力用文書ファイル621
を生成する。これは、上述のようにビデオタグが付され
たタグファイルを元にして生成することができる。この
連動出力の場合は、ビデオエンジン604は、本文タグ
ファイル609もしくは要約文タグファイル610から
生成されたビデオ出力用ファイル612を参照し、再生
すべきビデオデータを判別して、ビデオファイル611
を読み出す。そして読み出されたビデオデータは、ビデ
オエンジン604によって出力用の映像信号Voutと
して処理され、表示制御部606に供給される。そして
表示制御部606で、ビデオウインドウ501の画像に
合成され、表示部30で後述する図42のように表示さ
れる。またビデオデータに含まれるオーディオデータに
ついても、ビデオエンジン604によって出力用の音声
信号Aoutとして処理され、音声制御部605に供給
されてレベル調整等の処理が行われる。そして音声出力
部33から再生音声として出力される。ビデオ出力中に
は、ビデオウインドウ501に対するユーザー操作の情
報はユーザーインターフェース607で取り込まれてコ
ントローラ600に伝えられ、コントローラ600は、
ユーザー操作に応じてビデオエンジン601の動作を制
御する。このようなビデオデータの出力時には、ビデオ
エンジン604からビデオ連動文書作成エンジン620
に対してタイムコードTCが供給されている。ビデオ連
動文書作成エンジン620はタイムコードTCを監視し
ながら、ビデオ連動出力用文書ファイル621に規定さ
れた出力タイミング(タイムコード)を確認し、タイム
コードTCに対応する文書部分を表示文書出力Sout
として表示制御部606に供給する。そして表示文書出
力Soutは表示制御部606で、ビデオウインドウ5
01の画像に合成され、表示部30で図42のように表
示される。なお、ビデオウインドウ501に対するユー
ザー操作に応じて、ビデオデータの一時停止、早送り、
早戻し、頭出しなどが行われるが、その操作情報に基づ
いてコントローラ600がビデオ連動文書作成エンジン
620に対しても制御を行うことで、ビデオ連動文書作
成エンジン620は、ビデオデータの一時停止、早送
り、早戻し、頭出しなどの状況に応じて、対応する部分
の表示文書出力Soutを行うものとなる。Fixed display of document data linked to video data As described later with reference to FIG. 40, in this example, a text or a summary as document data can be fixedly displayed and output in synchronization with the output of video data. This is a process for fixedly displaying a corresponding portion in the document data for each scene output as video data. For this purpose, the document portion must be specified corresponding to the position of the video data, that is, the section defined by the time code. For this reason, the video-linked document creation engine 620
Video-linked output document file 621 in which a document portion corresponding to the time code of the video data to be output is specified
Generate This can be generated based on the tag file to which the video tag is attached as described above. In the case of this linked output, the video engine 604 refers to the video output file 612 generated from the body tag file 609 or the summary sentence tag file 610, determines video data to be reproduced, and determines the video file 611.
Is read. The read video data is processed by the video engine 604 as an output video signal Vout, and supplied to the display control unit 606. Then, the image is combined with the image of the video window 501 by the display control unit 606, and is displayed on the display unit 30 as shown in FIG. The audio data included in the video data is also processed as an output audio signal Aout by the video engine 604 and supplied to the audio control unit 605 to perform processing such as level adjustment. Then, the sound is output from the sound output unit 33 as reproduced sound. During video output, information on the user operation on the video window 501 is captured by the user interface 607 and transmitted to the controller 600.
The operation of the video engine 601 is controlled according to a user operation. When such video data is output, the video engine 604 sends the video linked document creation engine 620
Is supplied with a time code TC. The video-linked document creation engine 620 checks the output timing (time code) specified in the video-linked output document file 621 while monitoring the time code TC, and displays a document portion corresponding to the time code TC on the display document output Sout.
Is supplied to the display control unit 606. The display document output Sout is sent to the display control unit 606 in the video window 5.
01 and are displayed on the display unit 30 as shown in FIG. Note that, in response to a user operation on the video window 501, video data is temporarily stopped,
Although fast rewind and cueing are performed, the controller 600 also controls the video-linked document creation engine 620 based on the operation information, so that the video-linked document creation engine 620 pauses video data, In accordance with a situation such as fast forward, fast rewind, or cueing, a corresponding part of the display document output Sout is performed.
【0250】・ビデオデータと連動する文書データテロ
ップ表示 これも図40により後述するが、本例ではビデオデータ
の出力に連動させて、文書データとしての本文又は要約
文をテロップ表示出力することができる。これは、ビデ
オデータとして出力されているシーン毎に、文書データ
内の対応部分をテロップ表示する処理である。この場合
も、ビデオデータのタイムコードで規定される区間に対
応して、文書部分が特定されていなければならないた
め、ビデオ連動文書作成エンジン620は、出力される
ビデオデータのタイムコードに対応する文書部分が指定
されたビデオ連動出力用文書ファイル621を生成す
る。重複説明を避けるが、この連動出力の場合も、ビデ
オエンジン604は、上記のビデオデータと連動する文
書データ固定表示の場合と同様に、ビデオ出力用ファイ
ル612を参照してビデオデータの出力処理を行う。そ
してこのようなビデオデータの出力時には、ビデオエン
ジン604からテロップ作成エンジン602に対してタ
イムコードTCが供給されている。テロップ作成エンジ
ン602はタイムコードTCを監視しながら、ビデオ連
動出力用文書ファイル621に規定された出力タイミン
グ(タイムコード)を確認し、タイムコードTCに対応
する文書部分をテロップ表示文書出力Toutとして表
示制御部606に供給する。そしてテロップ表示文書出
力Toutは表示制御部606で、ビデオウインドウ5
01の画像に合成され、表示部30で表示される。ま
た、ビデオウインドウ501に対するユーザー操作に応
じて、ビデオデータの一時停止、早送り、早戻し、頭出
しなどが行われる場合、その操作情報に基づいてコント
ローラ600がテロップ作成エンジン602に対しても
制御を行うことで、テロップ作成エンジン602は、ビ
デオデータの一時停止、早送り、早戻し、頭出しなどの
状況に応じて、対応する部分のテロップ表示文書出力T
outを行う。-Document data telop display linked with video data This will also be described later with reference to FIG. 40. In this example, a text or summary sentence as document data can be displayed in a telop display in synchronization with the output of video data. . This is a process of displaying a corresponding portion in the document data by telop for each scene output as video data. Also in this case, since the document portion must be specified corresponding to the section defined by the time code of the video data, the video-linked document creation engine 620 outputs the document corresponding to the time code of the output video data. A video-linked output document file 621 whose part is specified is generated. Although a duplicate description is avoided, in the case of this linked output, the video engine 604 refers to the video output file 612 to perform the output processing of the video data similarly to the case of the document data fixed display linked with the video data. Do. At the time of outputting such video data, the time code TC is supplied from the video engine 604 to the telop creation engine 602. The telop creation engine 602 checks the output timing (time code) specified in the video-linked output document file 621 while monitoring the time code TC, and displays a document portion corresponding to the time code TC as a telop display document output Tout. It is supplied to the control unit 606. The display control unit 606 outputs the telop display document output Tout to the video window 5.
01, and is displayed on the display unit 30. Further, when video data is temporarily stopped, fast-forwarded, fast-returned, or cueed in response to a user operation on the video window 501, the controller 600 also controls the telop creation engine 602 based on the operation information. By doing so, the telop creation engine 602 outputs the telop display document output T of the corresponding part according to the situation such as pause, fast forward, fast reverse, or cueing of the video data.
Perform out.
【0251】・ビデオデータと連動する文書データ読み
上げ これについては図44により述べるが、本例ではビデオ
データの出力に連動させて、文書データとしての本文又
は要約文を読み上げ出力することができる。これは、ビ
デオデータとして出力されているシーン毎に、文書デー
タ内の対応部分を読み上げる処理である。この場合も、
ビデオデータのタイムコードで規定される区間に対応し
て、文書部分が特定されていなければならないため、ビ
デオ連動文書作成エンジン620は、出力されるビデオ
データのタイムコードに対応する文書部分が指定された
ビデオ連動出力用文書ファイル621を生成する。重複
説明を避けるが、この連動出力の場合も、ビデオエンジ
ン604は、上記のビデオデータと連動する文書データ
固定表示の場合と同様に、ビデオ出力用ファイル612
を参照してビデオデータの出力処理を行う。そしてこの
ようなビデオデータの出力時には、ビデオエンジン60
4から音声合成エンジン601に対してタイムコードT
Cが供給されている。音声合成エンジン601はタイム
コードTCを監視しながら、ビデオ連動出力用文書ファ
イル621に規定された出力タイミング(タイムコー
ド)を確認し、タイムコードTCに対応する文書部分に
ついての合成音声信号(読み上げ音声信号)Youtを
音声制御部605に供給する。なお、この場合、音声制
御部605では、ビデオデータに付随するオーディオデ
ータの出力はミュートする。又は読み上げ音声に比べて
非常に小さい音量レベルとする。また、ビデオウインド
ウ501に対するユーザー操作に応じて、ビデオデータ
の一時停止、早送り、早戻し、頭出しなどが行われる場
合、その操作情報に基づいてコントローラ600が音声
合成エンジン601に対しても制御を行うことで、音声
合成エンジン601は、ビデオデータの一時停止、早送
り、早戻し、頭出しなどの状況に応じて、対応する部分
の読み上げ音声信号Youtを出力する。Reading of Document Data Linked to Video Data This will be described with reference to FIG. 44. In this example, a text or a summary as document data can be read and output in synchronization with the output of video data. This is a process of reading out a corresponding portion in the document data for each scene output as video data. Again,
Since the document part must be specified corresponding to the section defined by the time code of the video data, the video-linked document creation engine 620 specifies the document part corresponding to the time code of the output video data. Then, a document file 621 for video linked output is generated. Although a duplicate description is avoided, in the case of this linked output, the video engine 604 also performs the video output file 612 similarly to the case of the document data fixed display linked with the video data.
To output video data. When outputting such video data, the video engine 60
4 to the speech synthesis engine 601 with the time code T
C is supplied. The voice synthesis engine 601 checks the output timing (time code) specified in the video-linked output document file 621 while monitoring the time code TC, and outputs a synthesized voice signal (speech voice) for the document portion corresponding to the time code TC. Signal) Yout is supplied to the voice control unit 605. In this case, the audio control unit 605 mutes the output of the audio data accompanying the video data. Alternatively, the volume level is set to be very low as compared with the reading voice. Further, when video data is temporarily stopped, fast-forwarded, fast-returned, or cueed in response to a user operation on the video window 501, the controller 600 also controls the speech synthesis engine 601 based on the operation information. By doing so, the speech synthesis engine 601 outputs the read-out speech signal Yout of the corresponding part according to the situation such as pause, fast forward, fast reverse, or cueing of the video data.
【0252】以上のようにして、文書データについての
要約作成/表示、本文又は要約文についてのテロップ表
示、本文又は要約文についての読み上げ、及びビデオデ
ータの出力、さらにはビデオデータに連動する文書出力
(固定表示、テロップ表示、読み上げ)が実行される。As described above, the summary creation / display of the document data, the telop display of the text or the summary, the reading of the text or the summary, the output of the video data, and the output of the document linked with the video data (Fixed display, telop display, reading out).
【0253】なお、この図37の機能ブロックは、あく
までも一例であり、上記各動作を実現する機能ブロック
の構成及び動作が、かならずしもこのような例に限定さ
れるものではない。The functional blocks shown in FIG. 37 are merely examples, and the configuration and operation of the functional blocks for realizing each of the above operations are not necessarily limited to such examples.
【0254】9.ビデオ及び連動文書表示出力処理 ビデオデータに連動させて文書データを固定表示又はテ
ロップ表示する場合の例を、以下説明する。[0254] 9. Video and Linked Document Display Output Processing An example of a case in which document data is fixedly displayed or displayed in telop in conjunction with video data will be described below.
【0255】今、文書データとしての或るタグファイル
TG1が、図38(a)に示す構成となっている例をあ
げる。この場合、タグファイルTG1は、例えば5つの
段落として、各文書部分TX1〜TX5により形成され
ているものであるとする。そして各文書部分について、
図32で説明したようにビデオタグが付されており、図
38(a)に示すように文書部分TX1〜TX5のそれ
ぞれに、ビデオファイルV3に含まれる動画データVM
5〜VM9(図31参照)が対応づけられているとす
る。このようなタグファイル構造の場合、各段落TX1
〜TX5が、ビデオデータに対する連動単位の文書部分
となる。(以下、連動単位文書TX1、連動単位文書T
X2・・・と呼ぶ) なお、もちろん連動単位文書は、必ずしも文書データの
段落単位となるものではなく、タグファイルにおけるビ
デオタグの付加状況によって規定されるものであり、例
えば文、句などの単位で連動単位文書となることもあ
る。Now, an example will be given in which a certain tag file TG1 as document data has a configuration shown in FIG. In this case, it is assumed that the tag file TG1 is formed by, for example, five paragraphs and each of the document portions TX1 to TX5. And for each document part,
As described with reference to FIG. 32, a video tag is attached, and as shown in FIG. 38A, the moving image data VM
It is assumed that 5 to VM9 (see FIG. 31) are associated with each other. In the case of such a tag file structure, each paragraph TX1
TX5 is a document portion of the interlocking unit for the video data. (Hereinafter, the linked unit document TX1, the linked unit document T
Note that the linked unit document is not necessarily a paragraph unit of the document data, but is defined by the addition status of the video tag in the tag file. May be a linked unit document.
【0256】一方、タグファイルTG1のビデオタグで
指定されるビデオファイルV3には、動画データVM5
〜VM9が、図38(b)に示すように構成されている
とする。例えばビデオファイルV3におけるタイムコー
ドTCとして「00:00:00:00」〜「00:0
0:16:10」の範囲が1つのシーンを形成する動画
データVM5とされ、また「00:00:16:11」
〜「00:02:20:01」の範囲が1つのシーンを
形成する動画データVM6とされている。On the other hand, the video file V3 specified by the video tag of the tag file TG1 includes the moving image data VM5
To VM9 are configured as shown in FIG. For example, as the time code TC in the video file V3, “00: 00: 00: 00” to “00: 0”
The range of “0:16:10” is the moving image data VM5 forming one scene, and “00: 00: 16: 11”
The range from “00: 02: 20: 01” is the moving image data VM6 forming one scene.
【0257】このようなタグファイルTG1に基づいて
ビデオデータが出力され、それに連動して文書データが
出力される場合は、時間的に見れば図39のように出力
が進行する。この連動動作の場合、ビデオデータの出力
が主となるため、図39に示すように動画データVM
5、VM6、VM7、VM8、VM9の再生が、順次進
行していく。そして、図から分かるように、動画データ
VM5の再生中、即ちタイムコードTCとして「00:
00:00:00」〜「00:00:16:10」の期
間は、連動文書単位TX1の部分が固定表示もしくはテ
ロップ表示で出力される。そしてタイムコードTCとし
て「00:00:16:11」となったタイミング、即
ち動画データVM6の出力が開始された時点から、「0
0:02:20:01」までの期間は、連動文書単位T
X2が表示出力されることになる。以下同様に、動画デ
ータVM7、VM8、VM9の各再生期間に、連動文書
単位TX3、TX4、TX5が、それぞれ表示出力され
る。なお、後述する読み上げ出力の場合は、同様の期間
に、連動文書単位TX1〜TX5が、それぞれ読み上げ
出力されるものとなる。In the case where video data is output based on such a tag file TG1 and document data is output in conjunction therewith, the output proceeds as shown in FIG. 39 in terms of time. In the case of this interlocking operation, the output of video data is mainly performed, and therefore, as shown in FIG.
5, the reproduction of VM6, VM7, VM8, and VM9 proceeds sequentially. As can be seen from the figure, during the reproduction of the moving image data VM5, that is, as the time code TC, “00:
During the period from “00:00:00” to “00: 00: 16: 10”, the portion of the linked document unit TX1 is output in fixed display or telop display. Then, from the timing when the time code TC becomes “00: 00: 16: 11”, that is, from the time when the output of the moving image data VM6 starts, “0”
0: 02: 20: 01 ”, the linked document unit T
X2 is displayed and output. Similarly, the linked document units TX3, TX4, and TX5 are displayed and output in the playback periods of the moving image data VM7, VM8, and VM9, respectively. In the case of the reading output described later, the linked document units TX1 to TX5 are read and output in the same period.
【0258】この図39では、動画データVM5〜VM
9の再生が通常に進行した場合を示しているが、ユーザ
ーが途中で早送りや頭出しなどの操作を行った場合は、
ビデオデータがそれに応じて進行/後退するとともに、
それに合わせて出力される連動文書単位も切り換えられ
る。例えば動画データVM8及び連動文書単位TX4の
出力中に、動画データVM6の頭出し操作が行われた場
合は、ビデオデータ出力は動画データVM6の出力に切
り換えられるとともに、文書データ出力は連動文書単位
TX2の出力に切り換えられる。In FIG. 39, moving image data VM5 to VM
9 shows a case where the playback of the normal playback progresses normally. However, if the user performs an operation such as fast forward or cueing in the middle,
As the video data advances / retreats accordingly,
The output linked document unit is also switched accordingly. For example, if the cueing operation of the moving image data VM6 is performed during the output of the moving image data VM8 and the linked document unit TX4, the video data output is switched to the output of the moving image data VM6, and the document data output is changed to the linked document unit TX2. Output.
【0259】ビデオデータに連動させて文書データを固
定表示又はテロップ表示する場合の制御部11の処理例
を図40に示す。FIG. 40 shows a processing example of the control unit 11 when the document data is fixedly displayed or displayed as a telop in association with the video data.
【0260】例えば図26に示したように閲覧ウインド
ウ301において或る文書データが表示されている状態
で、ユーザーがビデオボタン306dをクリックするこ
とで、ビデオデータの出力とそれに連動する文書データ
出力が開始されるものとする。なお、上記図35で説明
したビデオデータのみの出力の場合も、このような操作
により開始されるとしたが、実際には、閲覧ウインドウ
301においてビデオデータのみの出力を開始させるた
めのビデオボタン306dの他に、以下説明する連動出
力を開始させるためのビデオボタンが表示されるように
して、操作を区別できるようにするとよい。或いはビデ
オボタン306dを共用する場合、モード設定などによ
り、ビデオデータ単独の出力が行われるか、連動出力が
行われるかが規定されるようにしてもよい。ビデオデー
タ単独出力、ビデオデータと文書データ表示の連動出
力、さらには後述するビデオデータと文書データの読み
上げの連動出力についての、ユーザーの操作方式(文書
処理装置1で設定する操作態様)は、多様に考えられ、
実現できる機能や設計上の都合、或いは操作性等を考慮
して、決められればよい。For example, when certain document data is displayed in the browsing window 301 as shown in FIG. 26, when the user clicks the video button 306d, the output of the video data and the output of the document data linked therewith are performed. Shall be started. Note that, in the case of outputting only the video data described with reference to FIG. 35, the operation is started by such an operation. However, actually, the video button 306d for starting the output of only the video data in the browsing window 301 is displayed. In addition, a video button for starting the linked output described below may be displayed so that the operation can be distinguished. Alternatively, when the video button 306d is shared, whether to output video data alone or to perform linked output may be defined by mode setting or the like. There are various user operation modes (operation modes set in the document processing apparatus 1) for video data independent output, video data and linked output of document data display, and further, linked output of reading of video data and document data described later. Thought,
What is necessary is just to determine in consideration of the function which can be realized, the convenience on design, the operability, etc.
【0261】例えば閲覧ウインドウ301に表示されて
いる文書データなどとして、ある文書データが指定され
ているときに、ビデオデータ/文書データの連動出力が
開始される場合、制御部11は、まず図40のステップ
F701で、指定されている文書データについてのビデ
オタグの有無を確認する。ビデオタグが存在しなけれ
ば、その文書データに関連するビデオファイルは存在し
ないことになるため、処理を終える。For example, when linked output of video data / document data is started when certain document data is designated as the document data displayed in the browsing window 301, the control unit 11 first sets the state shown in FIG. In step F701, the presence / absence of a video tag for the designated document data is confirmed. If the video tag does not exist, the video file related to the document data does not exist, and the process ends.
【0262】ビデオタグが存在し、例えば閲覧ウインド
ウ301に表示されている文書データに関連するビデオ
ファイルの出力及び文書の連動出力を実行する場合は、
制御部11の処理はステップF702に進み、ビデオエ
ンジン604によるビデオ再生動作の実行のためのファ
イルとして、ビデオ出力用ファイル612を生成する。
これは図35のステップF602と同様に、例えば図3
4(a)(b)に示すように、文書データとしてのタグ
ファイル(本文タグファイル609)からビデオタグを
抽出してビデオ出力用ファイルを生成する処理となる。When a video tag exists and, for example, the output of a video file related to the document data displayed in the browsing window 301 and the linked output of the document are executed,
The process of the control unit 11 proceeds to step F702, and generates a video output file 612 as a file for executing the video playback operation by the video engine 604.
This is similar to step F602 in FIG.
As shown in FIGS. 4 (a) and 4 (b), a process for extracting a video tag from a tag file (text tag file 609) as document data and generating a video output file is performed.
【0263】続いて制御部11はステップF703で、
ビデオ連動文書作成エンジン620を起動する。そして
ステップF704でビデオ連動文書作成エンジン620
によりビデオ連動出力用文書ファイル621を生成させ
る。例えば図32のようにビデオタグが付されたタグフ
ァイル(本文タグファイル609)から生成するビデオ
連動出力用文書ファイル621の例を図41に示す。即
ちこの例のようにビデオ連動出力用文書ファイル621
は、本文タグファイルから、ビデオタグで指定されるタ
イムコードと、それに対応する文書(図38の連動単位
文書TX1〜TX5)が対にされたファイル構造とな
る。例えば図41(a)に示す部分では、タイムコード
を指定するタグTCin、TCoutで規定される「0
0:00:00:00」〜「00:00:16:10」
の範囲、つまり動画データVM5と、「[素敵にエイジ
ング]/8 ガン転移、抑えられる!?」という連動文
書単位TX1が対応することが示される。また図41
(b)に示す部分では、タイムコード「00:05:2
9:01」〜「00:06:41:00」の範囲、つま
り動画データVM9と、「この転移、ガン細胞・・・・
・近年解明されつつある。」という連動文書単位TX5
が対応することが示される。なお、ビデオ連動出力用文
書ファイル621の構造は、このような例に限られるも
のではなく、タイムコードと連動文書単位の関係が示さ
れる内容であればよい。Subsequently, the control unit 11 determines in step F703 that
The video linked document creation engine 620 is started. Then, in step F704, the video-linked document creation engine 620
Causes the video-linked output document file 621 to be generated. For example, FIG. 41 shows an example of a document file 621 for video-linked output generated from a tag file to which a video tag is attached as shown in FIG. 32 (text tag file 609). That is, the document file 621 for video-linked output as in this example.
Has a file structure in which a time code specified by a video tag and a corresponding document (linked unit documents TX1 to TX5 in FIG. 38) are paired from a body tag file. For example, in the portion shown in FIG. 41A, “0” specified by tags TCin and TCout specifying a time code is used.
0: 00: 00: 00 "to" 00: 00: 16: 10 "
, That is, the moving image data VM5 and the linked document unit TX1 of “[nicely aging] / 8 cancer transfer, suppressed !?” FIG. 41
In the part shown in (b), the time code “00: 05: 2”
9:01 "to" 00: 06: 41: 00 ", that is, the moving image data VM9 and" this metastasis, cancer cells ...
・ It is being elucidated in recent years. Linked document unit TX5
Are shown to correspond. The structure of the video-linked output document file 621 is not limited to such an example, and may be any content that indicates the relationship between the time code and the linked document unit.
【0264】続いて制御部11は、ステップF705に
おいて、文書データの表示出力が固定表示出力となるか
テロップ表示出力となるかにより処理を分岐する。固定
表示とするかテロップ表示とするかは、制御部11が自
動的に設定してもよいし、ユーザーが選択できるように
してもよい。自動的に設定する場合は、例えば図42の
ビデオウインドウ501における文書を表示する文書表
示エリア530のサイズと、表示する文書(連動単位文
書)の文書長の関係により設定することが考えられる。
あるいはユーザーが予め選択しておくことで、固定表示
とテロップ表示が決められるようにしてもよい。さらに
は、閲覧ウインドウ301などにおいてビデオデータと
文書固定表示を連動させる操作ボタンと、ビデオデータ
とテロップ表示を連動させる操作ボタンを別に設け、ユ
ーザーがそのどちらをクリックしたかによって決められ
るようにしてもよい。テロップ表示を実行する場合は、
制御部11はステップF706において、テロップ作成
エンジン602を起動させることになる。Subsequently, in step F705, the control unit 11 branches the process depending on whether the display output of the document data is the fixed display output or the telop display output. Whether to use the fixed display or the telop display may be automatically set by the control unit 11, or may be selectable by the user. In the case of automatic setting, for example, the setting may be made based on the relationship between the size of the document display area 530 for displaying a document in the video window 501 in FIG. 42 and the document length of the displayed document (interlocking unit document).
Alternatively, the fixed display and the telop display may be determined by the user selecting in advance. Further, an operation button for linking video data and fixed display in the browsing window 301 and the like and an operation button for linking video data and telop display are separately provided so that the user can determine which button is clicked. Good. To execute ticker display,
The control unit 11 activates the telop creation engine 602 in step F706.
【0265】制御部11はステップF707において、
ビデオエンジン604を起動し、続いてステップF70
8で、表示部30に例えば図42に示すようなビデオウ
インドウ501を開く。この場合のビデオウインドウ5
01には、図36のビデオウインドウ501に示した各
種表示に加えて、文書表示部530が加えられたものと
なっている。The control unit 11 determines in step F707 that
Activate the video engine 604, and then proceed to step F70
In step 8, a video window 501 as shown in FIG. Video window 5 in this case
01 has a document display unit 530 added to the various displays shown in the video window 501 of FIG.
【0266】そして制御部11は、ビデオウインドウ5
01を開いたら、ステップF709として、ビデオエン
ジン604によるビデオ出力を開始させる。これにより
図42に示すようにビデオ表示部503に再生画像が表
示される。また制御部11は、固定表示を連動させる場
合は、ステップF710としてビデオ連動文書作成エン
ジン620によるタイムコードチェックを実行させ、ス
テップF711,F712において、ビデオデータのタ
イムコードに応じた文書出力処理をビデオ連動文書作成
エンジン620に実行させる。これにより図42に示す
ように文書表示部530に、その時点で表示されている
シーンに対応した連動文書単位の文書が表示される。そ
して、ステップF710,F711,F712の処理が
続いて行われていくことによって、図39で説明したよ
うに、ビデオデータの進行に応じて、所要のタイムコー
ドのタイミングで、表示される文書部分が、連動文書単
位毎に切り換えられていく。Then, the control unit 11 controls the video window 5
After opening the file 01, in step F709, the video output by the video engine 604 is started. As a result, a reproduced image is displayed on the video display unit 503 as shown in FIG. When linking the fixed display, the control unit 11 executes a time code check by the video-linked document creation engine 620 in step F710, and executes a document output process according to the time code of the video data in steps F711 and F712. Let the linked document creation engine 620 execute it. As a result, as shown in FIG. 42, a document in a linked document unit corresponding to the scene currently displayed is displayed on the document display unit 530. Then, as the processing of steps F710, F711, and F712 is performed successively, as described with reference to FIG. 39, the document portion to be displayed is displayed at the required time code timing in accordance with the progress of the video data. , For each linked document unit.
【0267】なお、テロップ表示を実行する場合は、制
御部11はステップF710,F711,F712の処
理をテロップ作成エンジン602に実行させることにな
る。そして文書表示エリア530に連動文書単位毎のテ
ロップ表示を実行させる。このテロップ表示の場合は、
図42のように複数行の表示が可能な文書表示エリア5
30において実行してもよいが、例えば図43に示すよ
うに文書表示エリア530を1行の文書表示が可能な状
態とし、そこにテロップ表示を実行させるようにしても
よい。When executing the telop display, the control section 11 causes the telop creation engine 602 to execute the processing of steps F710, F711 and F712. Then, a telop display for each linked document unit is executed in the document display area 530. In this telop display,
Document display area 5 capable of displaying a plurality of lines as shown in FIG.
Alternatively, for example, as shown in FIG. 43, the document display area 530 may be set to a state in which one line of document can be displayed, and the telop display may be executed there.
【0268】制御部11は、ビデオファイル611に基
づくビデオデータの出力が全て終了された場合、もしく
はユーザーの操作に応じてビデオデータの再生を終了さ
せた場合は、ステップF713からF714に進め、固
定表示もしくはテロップ表示による連動文書表示も終了
させ、一連の処理を終える。このような出力処理によ
り、ユーザーは、或る文書データに関連するビデオデー
タを視聴できるとともに、そのビデオデータのシーンに
合わせて、文書データ内の対応する部分(連動文書単
位)の表示を見ることができる。If the output of the video data based on the video file 611 has been completed, or if the reproduction of the video data has been completed in response to the operation of the user, the control section 11 proceeds from step F713 to F714 and fixes it. The linked document display by display or telop display is also terminated, and a series of processing is completed. Through such output processing, the user can view video data related to certain document data, and also view the display of a corresponding portion (in linked document units) in the document data in accordance with the scene of the video data. Can be.
【0269】なお、図40のフローチャートでは詳しく
示さなかったが、ステップF710〜F712の処理の
間において、ビデオデータの早送り、頭出しなどの操作
が行われて、ビデオデータの再生位置が変化し、対応す
る連動文書単位が変化することになった場合は、表示さ
れる連動文書単位を切り換えることは前述したとおりで
ある。Although not shown in detail in the flowchart of FIG. 40, during the processing of steps F710 to F712, operations such as fast-forwarding and cueing of video data are performed, and the reproduction position of the video data changes. When the corresponding linked document unit changes, the displayed linked document unit is switched as described above.
【0270】10.ビデオ及び連動文書読み上げ出力処
理 次に、ビデオデータに連動させて文書データを読み上げ
る場合の例を説明する。この場合、図39で説明したよ
うに、ビデオデータの出力が主とされ、動画データVM
5、VM6、VM7、VM8、VM9の再生が、順次進
行していくことに応じたタイミングで、それぞれ対応す
る連動文書単位TX1、TX2、TX3、TX4、TX
5が読み上げられていく。10. Next, an example of a case where the document data is read aloud in synchronization with the video data will be described. In this case, as described with reference to FIG. 39, the output of the video data is mainly performed, and the video data VM
5, the corresponding linked document units TX1, TX2, TX3, TX4, TX at timings corresponding to the sequential progress of the reproduction of VM6, VM7, VM8, and VM9.
5 is read aloud.
【0271】ビデオデータに連動させて文書データを読
み上げる場合の制御部11の処理例を図44に示す。例
えば閲覧ウインドウ301に表示されている文書データ
などとして、ある文書データが指定されているときに、
ビデオデータ/文書データの連動出力が開始される場
合、制御部11は、まず図44のステップF801で、
指定されている文書データについてのビデオタグの有無
を確認する。ビデオタグが存在しなければ、その文書デ
ータに関連するビデオファイルは存在しないことになる
ため、処理を終える。FIG. 44 shows a processing example of the control section 11 when reading out document data in conjunction with video data. For example, when certain document data is designated as the document data displayed in the browsing window 301,
When the linked output of the video data / document data is started, the control unit 11 first determines in step F801 of FIG.
Check whether there is a video tag for the specified document data. If the video tag does not exist, the video file related to the document data does not exist, and the process ends.
【0272】ビデオタグが存在し、例えば閲覧ウインド
ウ301に表示されている文書データに関連するビデオ
ファイルの出力及び文書の連動出力を実行する場合は、
制御部11の処理はステップF802に進み、ビデオエ
ンジン604によるビデオ再生動作の実行のためのファ
イルとして、ビデオ出力用ファイル612を生成する。
これは図35のステップF602と同様に、例えば図3
4(a)(b)に示すように、文書データとしてのタグ
ファイル(本文タグファイル609)からビデオタグを
抽出してビデオ出力用ファイルを生成する処理となる。When a video tag exists and, for example, the output of a video file related to the document data displayed in the browsing window 301 and the linked output of the document are executed,
The process of the control unit 11 proceeds to step F802, and generates a video output file 612 as a file for performing the video playback operation by the video engine 604.
This is similar to step F602 in FIG.
As shown in FIGS. 4 (a) and 4 (b), a process for extracting a video tag from a tag file (text tag file 609) as document data and generating a video output file is performed.
【0273】続いて制御部11はステップF803で、
ビデオ連動文書作成エンジン620を起動する。そして
ステップF804でビデオ連動文書作成エンジン620
によりビデオ連動出力用文書ファイル621を生成させ
る。この場合、ビデオ連動出力用文書ファイル621
は、上述した読み上げようファイル608に、タイムコ
ードとの関係が指定されたファイルとなる。例えば図3
2のようにビデオタグが付されたタグファイル(本文タ
グファイル609)から生成するビデオ連動出力用文書
ファイル621の例を図45に示す。即ちこの例のよう
にビデオ連動出力用文書ファイル621は、図41と同
様にタイムコードを指定するタグTCin、TCout
により、ビデオタグで指定されるタイムコードと、それ
に対応する文書(図38の連動単位文書TX1〜TX
5)が対にされる。そして、さらに図20で説明したよ
うな読み上げのための情報が付加されたファイル構造と
なる。もちろん、読み上げの場合も、ビデオ連動出力用
文書ファイル621の構造は、このような例に限られる
ものではなく、タイムコードと連動文書単位の関係が示
され、さらに読み上げのための情報が付加された内容で
あればよい。Subsequently, the control unit 11 determines in step F803 that
The video linked document creation engine 620 is started. Then, in step F804, the video-linked document creation engine 620
Causes the video-linked output document file 621 to be generated. In this case, the video-linked output document file 621
Is a file in which the relationship with the time code is specified in the reading file 608 described above. For example, FIG.
FIG. 45 shows an example of a video-linked output document file 621 generated from a tag file (text tag file 609) to which a video tag is attached as in FIG. That is, as in this example, the document file 621 for video-linked output includes tags TCin, TCout specifying the time code as in FIG.
38, the time code specified by the video tag and the corresponding document (interlocking unit documents TX1 to TX in FIG. 38)
5) is paired. Then, a file structure is added with information for reading as described with reference to FIG. Of course, also in the case of reading out, the structure of the video linked output document file 621 is not limited to such an example, but shows the relationship between the time code and the linked document unit, and further adds information for reading out. Content.
【0274】続いて制御部11は、ステップF805に
おいて、音声合成エンジン601を起動させる。そして
制御部11はステップF806において、ビデオエンジ
ン604を起動し、続いてステップF807で、表示部
30にビデオウインドウ501を開く。この場合のビデ
オウインドウ501は、図42のような文書表示エリア
530は不要なため、例えば図36のようなビデオウイ
ンドウ501でよい。Subsequently, in step F805, the control section 11 activates the speech synthesis engine 601. Then, the control unit 11 activates the video engine 604 in step F806, and subsequently opens the video window 501 on the display unit 30 in step F807. In this case, the video window 501 does not need the document display area 530 as shown in FIG. 42, and may be, for example, the video window 501 as shown in FIG.
【0275】そして制御部11は、ビデオウインドウ5
01を開いたら、ステップF808として、ビデオエン
ジン604によるビデオ出力を開始させる。これにより
図36に示すようにビデオ表示部503に再生画像が表
示される。また制御部11はステップF809として音
声合成エンジン601によるタイムコードチェックを実
行させ、ステップF810,F811において、ビデオ
データのタイムコードに応じた読み上げ音声Youtの
出力処理を音声合成エンジン601に実行させる。これ
によりその時点で表示されているシーンに対応した連動
文書単位の文書が読み上げ出力される。そして、ステッ
プF809,F810,F811の処理が続いて行われ
ていくことによって、図39で説明したように、ビデオ
データの進行に応じて、所要のタイムコードのタイミン
グで、連動文書単位毎の読み上げが実行されていく。Then, the control section 11 controls the video window 5
After opening the file 01, the video output by the video engine 604 is started in step F808. As a result, a reproduced image is displayed on the video display unit 503 as shown in FIG. In step F809, the control unit 11 causes the voice synthesis engine 601 to execute a time code check, and in steps F810 and F811, causes the voice synthesis engine 601 to execute a process of outputting a read-out voice Yout according to the time code of the video data. As a result, a document in a linked document unit corresponding to the scene currently displayed is read out. Then, as the processing of steps F809, F810, and F811 is performed successively, as described with reference to FIG. 39, the reading of each linked document unit is performed at the required time code timing in accordance with the progress of the video data. Is being executed.
【0276】制御部11は、ビデオファイル611に基
づくビデオデータの出力が全て終了された場合、もしく
はユーザーの操作に応じてビデオデータの再生を終了さ
せた場合は、ステップF812からF813に進め、読
み上げによる連動文書出力も終了させ、一連の処理を終
える。このような出力処理により、ユーザーは、或る文
書データに関連するビデオデータを見ることができると
ともに、そのビデオデータのシーンに合わせて、文書デ
ータ内の対応する部分(連動文書単位)の読み上げ音声
を聞くことができる。If the output of the video data based on the video file 611 has been completed or if the reproduction of the video data has been completed in response to the operation of the user, the control section 11 proceeds from step F812 to F813 and reads out the speech. Output of the linked document is terminated, and a series of processing is completed. Through such output processing, the user can view video data related to certain document data, and read out a corresponding portion (linked document unit) in the document data according to the scene of the video data. You can hear
【0277】なお、図44のフローチャートでは詳しく
示さなかったが、ステップF809〜F811の処理の
間において、ビデオデータの早送り、頭出しなどの操作
が行われて、ビデオデータの再生位置が変化し、対応す
る連動文書単位が変化することになった場合は、読み上
げを行う連動文書単位を切り換えることは前述したとお
りである。Although not shown in detail in the flowchart of FIG. 44, during the processing of steps F809 to F811, operations such as fast-forwarding and cueing of video data are performed, and the playback position of the video data changes. When the corresponding linked document unit changes, the linked document unit to be read out is switched as described above.
【0278】11.変形例以上、本例の文書処理装置1
で実行されるビデオデータと文書データの連動出力動作
について説明してきたが、連動出力のための処理動作に
ついての変形例は多様に考えられる。[0278] 11. Modification Example The document processing apparatus 1 of the present embodiment
In the above, the linked output operation of the video data and the document data executed in the above has been described. However, various modifications of the processing operation for the linked output can be considered.
【0279】まず、上述のように、ビデオデータと連動
させる文書データ出力としては、固定表示、テロップ表
示、読み上げの各態様について説明したが、文書データ
についてこのうちのどの出力態様で出力させるかは、例
えばビデオウインドウ501が開かれた状態などでユー
ザーが選択できるようにしてもよい。例えばビデオウイ
ンドウ501として図46に示すように選択操作部52
5を表示し、ビデオデータの出力時に、ビデオデータの
みとするか、文書表示(固定又はテロップ)を連動させ
るか、文書を読み上げるか、を選択できるようにする。
そしてユーザーが所望の選択肢のチェックボックス52
6をクリックすることに応じて、どの処理が実行される
かが設定されるようにする。例えば図46の状態では、
ビデオデータ出力に文書表示を連動させる選択肢が選択
されているため、この状態で再生ボタン505がクリッ
クされたときは、上述した図40の処理が行われるよう
にするものである。また、ビデオデータのみが選択され
た状態で再生ボタン505がクリックされたときは、図
35の処理が行なわれ、更にまた、ビデオデータ出力に
文書読み上げを連動させる選択肢が選択されて再生ボタ
ン505がクリックされたときは、図44の処理が行わ
れることになる。First, as described above, as the document data output to be linked with the video data, the fixed display, the telop display, and the reading aloud have been described. For example, the user may be allowed to make a selection while the video window 501 is open. For example, as the video window 501, as shown in FIG.
5 is displayed, and when outputting video data, it is possible to select whether to use only video data, to link document display (fixed or telop), or to read out a document.
Then, the user selects a check box 52 of a desired option.
In response to clicking on 6, it is set which process is to be executed. For example, in the state of FIG.
Since the option for linking the document display with the video data output is selected, if the play button 505 is clicked in this state, the above-described processing in FIG. 40 is performed. When the play button 505 is clicked in a state where only the video data is selected, the processing of FIG. 35 is performed. Further, an option for linking the reading of the document with the output of the video data is selected, and the play button 505 is pressed. When clicked, the processing in FIG. 44 is performed.
【0280】また、ビデオデータに連動させる文書デー
タに関しての出力が複合的に実行されてもよい。例えば
ビデオデータ再生時に、ビデオデータに対応する連動文
書単位毎に固定表示と読み上げが同時に実行されたり、
テロップ表示と読み上げが同時に実行されるようにする
ことが考えられる。Further, output relating to document data linked to video data may be executed in a complex manner. For example, when playing back video data, fixed display and reading out are simultaneously performed for each linked document unit corresponding to the video data,
It is conceivable that the telop display and the reading out are performed simultaneously.
【0281】また図39のようにビデオデータの再生区
間に応じて出力される文書データである各連動文書単位
は、文書データ本文から、規定されるタイムコード区間
に応じて抽出されたものであるが、例えばこの連動文書
単位で要約文を生成し、その要約文を表示又は読み上げ
出力するようにしてもよい。Also, as shown in FIG. 39, each linked document unit which is document data output according to the video data playback section is extracted from the document data body in accordance with the specified time code section. However, for example, a summary sentence may be generated for each linked document, and the summary sentence may be displayed or read out.
【0282】またビデオデータとともに文書データ(連
動文書単位)の出力を行う場合には、連動文書単位とし
ての文書データの出力のタイミング、表示期間などは、
ビデオデータの対応部分の時間長や、動画/静止画の別
などにより多様に考えられる。例えばテロップ表示や読
み上げなど、時間的に進行していくものの場合は、連動
文書単位のテロップ表示や読み上げの完了までの時間長
と、それに対応するビデオデータ部分の完了までの時間
長が必ずしも一致するものではない。このため、ビデオ
データの進行状況に合わせてテロップ表示速度や読み上
げ速度を可変設定するようにしたり、ビデオデータ内容
(シーン)の切り替わり応じて、テロップ表示や読み上
げを行う文書の一部が省略されたり、逆に一時的にテロ
ップ表示や読み上げの進行が停止されるようにすること
も可能である。When document data (linked document unit) is output together with video data, the output timing and display period of the document data in linked document unit are as follows.
Various considerations are possible depending on the time length of the corresponding portion of the video data and whether the image is a moving image or a still image. In the case of temporal progress such as telop display and reading, for example, the time length until the completion of the telop display or reading in the linked document unit and the time length until the completion of the corresponding video data part always match. Not something. For this reason, the telop display speed and the reading speed can be variably set in accordance with the progress status of the video data, or a part of the telop display or reading document can be omitted according to the switching of the video data content (scene). Conversely, it is also possible to temporarily stop the progress of the telop display and the reading out.
【0283】また、ビデオデータと共に文書データの読
み上げを行う場合には、上述したようにビデオ連動出力
用文書ファイル621として、読み上げ用ファイル60
8に相当するファイルを作成することになるが、その作
成タイミングは、制御部11の処理能力や、他の処理と
の兼ね合いにより各種考えられる。すなわち図44の例
のように、ビデオデータ出力開始前に作成してもよい
が、ビデオデータ出力開始後に、タイムコードの進み具
合に応じて所要タイミングで連動文書単位毎に作成して
いってもよい。もちろん、可能であれば、ビデオデータ
に応じてリアルタイム処理を行ってもよい。When reading out the document data together with the video data, the reading-out file 60 is used as the video-linked output document file 621 as described above.
A file corresponding to the file No. 8 is created, and the creation timing may be variously considered depending on the processing capability of the control unit 11 and the balance with other processes. That is, as in the example shown in FIG. 44, it may be created before the start of video data output, but may be created for each linked document unit at a required timing after the start of video data output according to the progress of the time code. Good. Of course, if possible, real-time processing may be performed according to the video data.
【0284】また以上説明してきた実施の形態としての
文書処理装置1のハードウエアもしくはソフトウエア構
成、及び処理例は多様に考えられる。例えば文書処理装
置1を構成する具体的なデバイス例は多様であり、例え
ば文書処理装置1における入力部20を例に挙げれば、
キーボードやマウスだけでなく、タブレット、ライトペ
ン、赤外線等を利用した無線コマンダ装置等の他のデバ
イスが考えられる。The hardware or software configuration of the document processing apparatus 1 according to the embodiment described above and processing examples can be variously considered. For example, there are various specific device examples that constitute the document processing apparatus 1. For example, if the input unit 20 in the document processing apparatus 1 is taken as an example,
Not only a keyboard and a mouse but also other devices such as a tablet, a light pen, a wireless commander device using infrared rays, and the like are conceivable.
【0285】また実施の形態においては、通信部22に
外部から電話回線等を介して文書やビデオファイルが送
信されてくるものとして説明したが、本発明は、これに
限定されるものではない。例えば、衛星等を介して文書
やビデオファイルが送信される場合にも適用できる他、
記録/再生部31において記録媒体32から読み出され
たり、ROM15に予め文書やビデオファイルが書き込
まれていてもよい。[0285] In the embodiment, the description has been made assuming that a document or a video file is transmitted from the outside to the communication unit 22 via a telephone line or the like. However, the present invention is not limited to this. For example, it can be applied to a case where a document or a video file is transmitted via a satellite or the like.
The data may be read from the recording medium 32 in the recording / reproducing unit 31 or a document or a video file may be written in the ROM 15 in advance.
【0286】また実施の形態において、文書へのタグ付
けの方法の一例を示したが、本発明がこのタグ付けの方
法に限定されないことはもちろんである。さらに、上述
の実施の形態においては、日本語および英語の文章を例
示したが、本発明がこれらの言語に限られないことはい
うまでもない。このように、本発明は、その趣旨を逸脱
しない範囲で適宜変更が可能であることはいうまでもな
い。Further, in the embodiment, an example of a method of tagging a document has been described, but it is needless to say that the present invention is not limited to this tagging method. Furthermore, in the above-described embodiment, Japanese and English sentences have been exemplified, but it goes without saying that the present invention is not limited to these languages. As described above, it goes without saying that the present invention can be appropriately changed without departing from the spirit of the present invention.
【0287】さらにまた、本発明においては、記録媒体
32として、上述したビデオデータ/文書データの連動
出力処理を実行させる動作制御プログラムが書き込まれ
たディスク状記録媒体やテープ状記録媒体等を提供する
ものである。もちろん記録媒体32としては、フロッピ
ーディスクの他に、光ディスク、光磁気ディスク、磁気
テープ、フラッシュメモリ等によるメモリカード、メモ
リチップ等としてもよい。また図1に示したHDD34
としても同様に本発明の記録媒体とすることができる。
さらには、その動作制御プログラムを例えばインターネ
ット等のネットワーク通信を介しても提供することがで
きるものであり、従って、プログラムサーバ側もしくは
通信過程における記録媒体としても本発明は適用できる
ものである。Further, in the present invention, a disk-shaped recording medium or a tape-shaped recording medium in which an operation control program for executing the above-mentioned linked output processing of video data / document data is provided as the recording medium 32. Things. Of course, the recording medium 32 may be an optical disk, a magneto-optical disk, a magnetic tape, a memory card such as a flash memory, a memory chip, or the like, in addition to the floppy disk. Also, the HDD 34 shown in FIG.
Similarly, the recording medium of the present invention can be obtained.
Further, the operation control program can be provided also via a network communication such as the Internet, and therefore, the present invention can be applied to a program server side or a recording medium in a communication process.
【0288】そしてそのような記録媒体32等によれ
ば、上記動作制御プログラムが文書処理装置1に提供さ
れることで、ユーザーサイドの各文書処理装置1は、上
述の連動出力動作が実現できることになる。また、上述
した分類処理や各種ウインドウの表示動作を含めた動作
制御プログラムとすることで、上記してきた文書処理方
法を実現する文書処理装置1を、例えば汎用のパーソナ
ルコンピュータ等を用いて容易に実現できる。According to such a recording medium 32 or the like, by providing the above-described operation control program to the document processing apparatus 1, each of the user-side document processing apparatuses 1 can realize the above-described linked output operation. Become. Further, by making the operation control program including the above-described classification processing and various window display operations, the document processing apparatus 1 that realizes the above-described document processing method can be easily realized using, for example, a general-purpose personal computer. it can.
【0289】また記録媒体32等としては、上記処理を
実現する動作制御プログラムとともに、そのプログラム
の処理対象となる文書データやビデオデータをも記録し
ているものも有用となる。つまり、文書処理装置1に対
して、記録媒体32から電子文書データを提供するとき
に、同時に動作制御プログラムやビデオファイルをも提
供することで、その文書処理装置1において、文書デー
タ/ビデオデータに対応した文書出力処理、ビデオ出力
処理を実行できるものとなる。As the recording medium 32 and the like, those which record document data and video data to be processed by the program together with the operation control program for realizing the above-mentioned processing are also useful. That is, when the electronic document data is provided from the recording medium 32 to the document processing apparatus 1, the operation control program and the video file are also provided at the same time. Corresponding document output processing and video output processing can be executed.
【0290】[0290]
【発明の効果】以上の説明からわかるように本発明で
は、次のような効果が得られる。即ち本発明の文書処理
装置及び文書処理方法によれば、ビデオデータの出力と
連動して、ビデオデータに対応する電子文書データの内
容が提示出力されることになるため、ユーザーに対して
ビデオデータによる映像とともに文書を提示でき、多様
かつ高度な情報内容を的確に提供できるという効果があ
る。特に電子文書データについては、本文又は要約文の
表示、テロップ表示、読み上げなどの態様で提示される
ことで、ユーザーにとって好適な動作が実現される。ま
た、電子文書データに付加されたビデオデータ指定情
報、又はビデオデータに付加されたタイムコードによ
り、電子文書データとビデオデータの対応関係を判別す
ることで電子文書データとビデオデータの確実な関連づ
けに基づく出力処理が可能となる。さらに、出力されて
いるビデオデータのタイムコードを監視して、電子文書
データの提示出力部分を切り換えることで、例えば映像
内容としての各シーンに対応した文書提示など、より適
切かつ高度な連動出力が可能となる。As will be understood from the above description, the present invention has the following effects. That is, according to the document processing apparatus and the document processing method of the present invention, the contents of the electronic document data corresponding to the video data are presented and output in conjunction with the output of the video data. The present invention has the effect that a document can be presented together with the video by the user, and various and advanced information contents can be provided accurately. In particular, with regard to the electronic document data, a suitable operation for the user is realized by being presented in a form such as display of a text or a summary, display of a telop, and reading out. Also, the correspondence between the electronic document data and the video data is determined by the video data designation information added to the electronic document data or the time code added to the video data, so that the electronic document data and the video data can be reliably linked. Output processing based on the above. Furthermore, by monitoring the time code of the video data being output and switching the presentation output portion of the electronic document data, more appropriate and advanced linked output such as document presentation corresponding to each scene as video content can be achieved. It becomes possible.
【0291】さらに本発明の記録媒体によれば、本発明
の文書処理方法を実現するプログラムを提供できること
になり、例えば汎用のパーソナルコンピュータ等を用い
て、本発明の文書処理装置を容易に実現できるようにな
る。これにより、一般ユーザーは容易に上記効果を享受
できるものとなる。Further, according to the recording medium of the present invention, a program for realizing the document processing method of the present invention can be provided, and the document processing apparatus of the present invention can be easily realized using, for example, a general-purpose personal computer. Become like Thus, the general user can easily enjoy the above effect.
【図1】本発明の実施の形態の文書処理装置のブロック
図である。FIG. 1 is a block diagram of a document processing apparatus according to an embodiment of the present invention.
【図2】実施の形態で用いる文書構造の説明図である。FIG. 2 is an explanatory diagram of a document structure used in the embodiment.
【図3】実施の形態の文章構造を表示するウインドウの
説明図である。FIG. 3 is an explanatory diagram of a window for displaying a sentence structure according to the embodiment;
【図4】実施の形態の手動分類処理のフローチャートで
ある。FIG. 4 is a flowchart of a manual classification process according to the embodiment.
【図5】実施の形態のインデックス作成処理のフローチ
ャートである。FIG. 5 is a flowchart of an index creation process according to the embodiment.
【図6】実施の形態のエレメントの活性値の説明図であ
る。FIG. 6 is an explanatory diagram of an activation value of an element according to the embodiment.
【図7】実施の形態の活性拡散処理のフローチャートで
ある。FIG. 7 is a flowchart of an active diffusion process according to the embodiment.
【図8】実施の形態の中心活性値更新処理のフローチャ
ートである。FIG. 8 is a flowchart of a central activation value update process according to the embodiment.
【図9】実施の形態の分類ウインドウの説明図である。FIG. 9 is an explanatory diagram of a classification window according to the embodiment.
【図10】実施の形態の閲覧ウインドウの説明図であ
る。FIG. 10 is an explanatory diagram of a browsing window according to the embodiment.
【図11】実施の形態の分類モデルの説明図である。FIG. 11 is an explanatory diagram of a classification model according to the embodiment.
【図12】実施の形態の自動分類処理のフローチャート
である。FIG. 12 is a flowchart of an automatic classification process according to the embodiment.
【図13】実施の形態の自動分類のフローチャートであ
る。FIG. 13 is a flowchart of automatic classification according to the embodiment.
【図14】実施の形態の語義間関連度算出処理のフロー
チャートである。FIG. 14 is a flowchart of a word meaning association degree calculation process according to the embodiment;
【図15】実施の形態の語義間関連度の説明図である。FIG. 15 is an explanatory diagram of a degree of association between meanings according to the embodiment.
【図16】実施の形態の文書読み上げ処理のフローチャ
ートである。FIG. 16 is a flowchart of a document reading process according to the embodiment;
【図17】実施の形態の読み上げ用ファイル生成処理の
フローチャートである。FIG. 17 is a flowchart of a reading file generation process according to the embodiment;
【図18】実施の形態のタグファイル例の説明図であ
る。FIG. 18 is an explanatory diagram of an example of a tag file according to the embodiment;
【図19】実施の形態のタグファイル例の説明図であ
る。FIG. 19 is an explanatory diagram of an example of a tag file according to the embodiment;
【図20】実施の形態の読み上げ用ファイル例の説明図
である。FIG. 20 is an explanatory diagram of an example of a reading file according to the embodiment;
【図21】実施の形態の読み上げ用ファイル例の説明図
である。FIG. 21 is an explanatory diagram of an example of a reading file according to the embodiment;
【図22】実施の形態の読み上げウインドウの説明図で
ある。FIG. 22 is an explanatory diagram of a reading window according to the embodiment.
【図23】実施の形態の要約作成処理のフローチャート
である。FIG. 23 is a flowchart of a summary creation process according to the embodiment.
【図24】実施の形態の要約文表示処理のフローチャー
トである。FIG. 24 is a flowchart of a summary sentence display process according to the embodiment.
【図25】実施の形態のテロップ表示処理のフローチャ
ートである。FIG. 25 is a flowchart of a telop display process of the embodiment.
【図26】実施の形態の閲覧ウインドウの表示例の説明
図である。FIG. 26 is an explanatory diagram of a display example of a browsing window according to the embodiment.
【図27】実施の形態の閲覧ウインドウの要約文を含む
表示例の説明図である。FIG. 27 is an explanatory diagram of a display example including a summary of a browsing window according to the embodiment.
【図28】実施の形態の閲覧ウインドウでのテロップ表
示例の説明図である。FIG. 28 is an explanatory diagram of a telop display example in a browsing window according to the embodiment;
【図29】実施の形態のテロップ表示動作の説明図であ
る。FIG. 29 is an explanatory diagram of a telop display operation of the embodiment.
【図30】実施の形態の閲覧ウインドウでのテロップ表
示後の表示例の説明図である。FIG. 30 is an explanatory diagram of a display example after displaying a telop in a browsing window according to the embodiment.
【図31】実施の形態のタグファイル及びビデオファイ
ルの説明図である。FIG. 31 is an explanatory diagram of a tag file and a video file according to the embodiment.
【図32】実施の形態のビデオタグ付のタグファイルの
説明図である。FIG. 32 is an explanatory diagram of a tag file with a video tag according to the embodiment.
【図33】実施の形態のビデオタグ付のタグファイルの
説明図である。FIG. 33 is an explanatory diagram of a tag file with a video tag according to the embodiment.
【図34】実施の形態のビデオ出力用ファイルの説明図
である。FIG. 34 is an explanatory diagram of a video output file according to the embodiment.
【図35】実施の形態のビデオ出力処理のフローチャー
トである。FIG. 35 is a flowchart of a video output process according to the embodiment.
【図36】実施の形態のビデオ出力処理によるビデオウ
インドウの説明図である。FIG. 36 is an explanatory diagram of a video window by the video output processing according to the embodiment.
【図37】実施の形態の文書処理装置の機能ブロックの
説明図である。FIG. 37 is an explanatory diagram of functional blocks of the document processing apparatus according to the embodiment;
【図38】実施の形態のタグファイルとビデオファイル
の関係の説明図である。FIG. 38 is an explanatory diagram of a relationship between a tag file and a video file according to the embodiment.
【図39】実施の形態のビデオ出力と連動される文書出
力の説明図である。FIG. 39 is an explanatory diagram of document output linked to video output according to the embodiment.
【図40】実施の形態のビデオ及び連動文書表示出力処
理のフローチャートである。FIG. 40 is a flowchart of a video and linked document display output process of the embodiment.
【図41】実施の形態のビデオ連動出力用文書ファイル
の説明図である。FIG. 41 is an explanatory diagram of a video-linked output document file according to the embodiment;
【図42】実施の形態のビデオ及び連動文書表示状態の
説明図である。FIG. 42 is an explanatory diagram of a video and linked document display state according to the embodiment.
【図43】実施の形態のビデオ及び連動文書テロップ表
示状態の説明図である。FIG. 43 is an explanatory diagram of a video and linked document telop display state according to the embodiment;
【図44】実施の形態のビデオ及び連動文書読み上げ出
力処理のフローチャートである。FIG. 44 is a flowchart of video and linked document read-aloud output processing of the embodiment.
【図45】実施の形態のビデオ連動出力用文書ファイル
の説明図である。FIG. 45 is an explanatory diagram of a video-linked output document file according to the embodiment;
【図46】実施の形態のビデオウインドウの変形例の説
明図である。FIG. 46 is an explanatory diagram of a modified example of the video window of the embodiment.
【符号の説明】 1 文書処理装置、10 本体、11 制御部、12
インターフェース、13 CPU、14 RAM、15
ROM、20 入力部、21 通信部、22携帯端末
リーダ、30 表示部、31 記録再生部、32 記録
媒体、33音声出力部、34 HDD、101 ウイン
ドウ、201 分類ウインドウ、301 閲覧ウインド
ウ、303 文書表示部、304 要約表示部、401
読み上げウインドウ、501 ビデオウインドウ、6
00 コントローラ、601音声合成エンジン、602
テロップ作成エンジン、603 要約作成エンジン、
604 ビデオエンジン、605 音声制御部、606
表示制御部、607 ユーザーインターフェース、6
20 ビデオ連動文書作成エンジン、621ビデオ連動
出力用文書ファイル[Description of Signs] 1 Document processing apparatus, 10 main body, 11 control unit, 12
Interface, 13 CPU, 14 RAM, 15
ROM, 20 input unit, 21 communication unit, 22 portable terminal reader, 30 display unit, 31 recording / reproducing unit, 32 recording medium, 33 audio output unit, 34 HDD, 101 window, 201 classification window, 301 browsing window, 303 document display Section, 304 summary display section, 401
Reading window, 501 Video window, 6
00 controller, 601 speech synthesis engine, 602
Telop creation engine, 603 summary creation engine,
604 video engine, 605 audio control unit, 606
Display control unit, 607 user interface, 6
20 video linked document creation engine, 621 video linked document file for output
フロントページの続き Fターム(参考) 5B075 KK07 ND16 ND36 NR02 NR12 NS01 PQ02 PQ04 PQ32 5B082 EA00 5E501 AB15 AC15 AC16 AC34 CA03 CA04 CA08 CB02 CB09 CC17 EA05 EA10 EB01 EB05 FA03 FA06 FA13 FA14 FA15 FA32 FB04 FB32 Continued on the front page F term (reference)
Claims (19)
係を判別する判別手段と、 ビデオデータを出力する制御を行うビデオ出力制御手段
と、 前記ビデオ出力制御手段の制御に基づくビデオデータの
出力と連動して、前記判別手段により判別された、ビデ
オデータに対応する電子文書データの内容を提示出力す
る制御を行う文書出力制御手段と、 を備えたことを特徴とする文書処理装置。A determination unit configured to determine a correspondence between electronic document data and video data; a video output control unit configured to control output of the video data; and an output of the video data based on the control of the video output control unit. And a document output control means for performing control for presenting and outputting the contents of the electronic document data corresponding to the video data determined by the determination means.
されたビデオデータ指定情報、又はビデオデータに付加
されたタイムコードにより、電子文書データとビデオデ
ータの対応関係を判別することを特徴とする請求項1に
記載の文書処理装置。2. The method according to claim 1, wherein the determining unit determines a correspondence between the electronic document data and the video data based on video data designation information added to the electronic document data or a time code added to the video data. The document processing device according to claim 1.
タの本文又は要約文の表示が実行されるように制御を行
うことを特徴とする請求項1に記載の文書処理装置。3. The document processing apparatus according to claim 1, wherein the document output control means performs control so as to display a text or a summary of the electronic document data.
タの本文又は要約文についてのテロップの表示が実行さ
れるように制御を行うことを特徴とする請求項1に記載
の文書処理装置。4. The document processing apparatus according to claim 1, wherein the document output control means performs control so as to display a telop for a text or an abstract of electronic document data.
タの本文又は要約文についての読み上げ出力が実行され
るように制御を行うことを特徴とする請求項1に記載の
文書処理装置。5. The document processing apparatus according to claim 1, wherein the document output control means controls so that a text-to-speech output of a text or a summary sentence of the electronic document data is executed.
力制御手段の制御に基づいて出力されているビデオデー
タのタイムコードを監視して、電子文書データの提示出
力部分を切り換えることを特徴とする請求項1に記載の
文書処理装置。6. The document output control means monitors the time code of the video data output under the control of the video output control means, and switches the presentation output portion of the electronic document data. The document processing device according to claim 1.
係を判別する判別手順と、 ビデオデータを出力する制御を行うビデオ出力制御手順
と、 前記ビデオ出力制御手順での制御に基づくビデオデータ
の出力と連動して、前記判別手順により判別された、ビ
デオデータに対応する電子文書データの内容を提示出力
する制御を行う文書出力制御手順と、 が行われることを特徴とする文書処理方法。7. A determination procedure for determining a correspondence between electronic document data and video data, a video output control procedure for controlling output of video data, and an output of video data based on the control in the video output control procedure. A document output control procedure for performing a control for presenting and outputting the content of the electronic document data corresponding to the video data determined in the determination procedure in conjunction with the document processing method.
加されたビデオデータ指定情報、又はビデオデータに付
加されたタイムコードにより、電子文書データとビデオ
データの対応関係を判別することを特徴とする請求項7
に記載の文書処理方法。8. In the determining step, the correspondence between the electronic document data and the video data is determined based on the video data designation information added to the electronic document data or the time code added to the video data. Claim 7
Document processing method described in.
ータの本文又は要約文の表示が実行されるように制御を
行うことを特徴とする請求項7に記載の文書処理方法。9. The document processing method according to claim 7, wherein in the document output control procedure, control is performed such that display of a text or a summary of electronic document data is executed.
データの本文又は要約文についてのテロップの表示が実
行されるように制御を行うことを特徴とする請求項7に
記載の文書処理方法。10. The document processing method according to claim 7, wherein in the document output control procedure, control is performed such that a telop is displayed for a text or an abstract of electronic document data.
データの本文又は要約文についての読み上げ出力が実行
されるように制御を行うことを特徴とする請求項7に記
載の文書処理方法。11. The document processing method according to claim 7, wherein in the document output control procedure, control is performed such that a text-to-speech output of a text or a summary of electronic document data is executed.
オ出力制御手段の制御に基づいて出力されているビデオ
データのタイムコードを監視して、電子文書データの提
示出力部分を切り換えることを特徴とする請求項7に記
載の文書処理方法。12. The document output control step is characterized in that a time code of video data output is monitored under the control of the video output control means, and a presentation output portion of electronic document data is switched. The document processing method according to claim 7.
関係を判別する判別手順と、 ビデオデータを出力する制御を行うビデオ出力制御手順
と、 前記ビデオ出力制御手順での制御に基づくビデオデータ
の出力と連動して、前記判別手順により判別された、ビ
デオデータに対応する電子文書データの内容を提示出力
する制御を行う文書出力制御手順と、 が行われるようにした動作制御プログラムが記録されて
いることを特徴とする記録媒体。13. A procedure for determining the correspondence between electronic document data and video data, a video output control procedure for controlling output of video data, and an output of video data based on control in the video output control procedure. And a document output control procedure for controlling to present and output the contents of the electronic document data corresponding to the video data determined by the determination procedure in conjunction with the operation control program. Recording medium characterized by the above-mentioned.
付加されたビデオデータ指定情報、又はビデオデータに
付加されたタイムコードにより、電子文書データとビデ
オデータの対応関係を判別するようにした動作制御プロ
グラムが記録されていることを特徴とする請求項13に
記載の記録媒体。14. The control method according to claim 1, wherein the determining step determines the correspondence between the electronic document data and the video data based on video data designation information added to the electronic document data or a time code added to the video data. 14. The recording medium according to claim 13, wherein the program is recorded.
データの本文又は要約文の表示が実行されるように制御
を行うようにした動作制御プログラムが記録されている
ことを特徴とする請求項13に記載の記録媒体。15. The operation control program according to claim 13, wherein in the document output control procedure, an operation control program for controlling display of a text or an abstract of electronic document data is recorded. A recording medium according to claim 1.
データの本文又は要約文についてのテロップの表示が実
行されるように制御を行うようにした動作制御プログラ
ムが記録されていることを特徴とする請求項13に記載
の記録媒体。16. The document output control procedure is characterized in that an operation control program for controlling a display of a telop for a text or an abstract of electronic document data is recorded. The recording medium according to claim 13.
データの本文又は要約文についての読み上げ出力が実行
されるように制御を行うようにした動作制御プログラム
が記録されていることを特徴とする請求項13に記載の
記録媒体。17. The method according to claim 17, wherein the document output control procedure records an operation control program for performing control so that a text-to-speech output of a text or a summary of electronic document data is executed. Item 14. The recording medium according to Item 13.
オ出力制御手段の制御に基づいて出力されているビデオ
データのタイムコードを監視して、電子文書データの提
示出力部分を切り換えるようにした動作制御プログラム
が記録されていることを特徴とする請求項13に記載の
記録媒体。18. In the document output control procedure, a time code of video data output under the control of the video output control means is monitored to switch a presentation output portion of electronic document data. 14. The recording medium according to claim 13, wherein the program is recorded.
デオデータ又は電子文書データが記録されていることを
特徴とする請求項13に記載の記録媒体。19. The recording medium according to claim 13, wherein video data or electronic document data is recorded together with the operation control program.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP34470099A JP4433532B2 (en) | 1999-12-03 | 1999-12-03 | Document processing apparatus, document processing method, and recording medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP34470099A JP4433532B2 (en) | 1999-12-03 | 1999-12-03 | Document processing apparatus, document processing method, and recording medium |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009210631A Division JP2010073205A (en) | 2009-09-11 | 2009-09-11 | Document processor, document processing method and recording medium |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2001160064A true JP2001160064A (en) | 2001-06-12 |
| JP2001160064A5 JP2001160064A5 (en) | 2006-06-08 |
| JP4433532B2 JP4433532B2 (en) | 2010-03-17 |
Family
ID=18371314
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP34470099A Expired - Fee Related JP4433532B2 (en) | 1999-12-03 | 1999-12-03 | Document processing apparatus, document processing method, and recording medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4433532B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003084877A (en) * | 2001-09-13 | 2003-03-19 | Clarion Co Ltd | Information selection device and music playback device |
| JP2005520588A (en) * | 2002-03-20 | 2005-07-14 | ノヴァダク テクノロジーズ インコーポレイテッド | System and method for visualizing fluid flow in a tube |
| US7783895B2 (en) | 2003-03-27 | 2010-08-24 | Sanyo Electric Co., Ltd. | Method and apparatus for encrypting data to be secured and inputting/outputting the same |
| CN109213974A (en) * | 2018-08-22 | 2019-01-15 | 北京慕华信息科技有限公司 | A kind of electronic document conversion method and device |
-
1999
- 1999-12-03 JP JP34470099A patent/JP4433532B2/en not_active Expired - Fee Related
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003084877A (en) * | 2001-09-13 | 2003-03-19 | Clarion Co Ltd | Information selection device and music playback device |
| JP2005520588A (en) * | 2002-03-20 | 2005-07-14 | ノヴァダク テクノロジーズ インコーポレイテッド | System and method for visualizing fluid flow in a tube |
| US7783895B2 (en) | 2003-03-27 | 2010-08-24 | Sanyo Electric Co., Ltd. | Method and apparatus for encrypting data to be secured and inputting/outputting the same |
| CN109213974A (en) * | 2018-08-22 | 2019-01-15 | 北京慕华信息科技有限公司 | A kind of electronic document conversion method and device |
| CN109213974B (en) * | 2018-08-22 | 2022-12-20 | 北京慕华信息科技有限公司 | Electronic document conversion method and device |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4433532B2 (en) | 2010-03-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4320491B2 (en) | Document processing system, terminal device, document providing device, document processing method, recording medium | |
| JP2001043215A (en) | Document processing apparatus, document processing method, and recording medium | |
| JP2001051997A (en) | Document data creation device, document data creation method, and recording medium | |
| US20220301313A1 (en) | Hierarchical segmentation based software tool usage in a video | |
| WO2001001390A1 (en) | Electronic document processor | |
| US20080300872A1 (en) | Scalable summaries of audio or visual content | |
| US20220075513A1 (en) | Interacting with hierarchical clusters of video segments using a video timeline | |
| US20060085735A1 (en) | Annotation management system, annotation managing method, document transformation server, document transformation program, and electronic document attachment program | |
| JP4433532B2 (en) | Document processing apparatus, document processing method, and recording medium | |
| JP2010073205A (en) | Document processor, document processing method and recording medium | |
| JP4449118B2 (en) | Document processing apparatus, document processing method, and recording medium | |
| JP2001159938A (en) | Document processing method, recording medium, document processing device | |
| JP2001014307A (en) | Document processing apparatus, document processing method, and recording medium | |
| JP4798150B2 (en) | Document processing apparatus, document processing method, and recording medium | |
| JP2001034384A (en) | Document processing apparatus, document processing method, and recording medium | |
| JP2001014313A (en) | Document processing apparatus, document processing method, and recording medium | |
| JP2001014346A (en) | Mobile terminal device, document processing system | |
| JP2001022774A (en) | Document processing apparatus, document processing method, and recording medium | |
| JP2001147926A (en) | Document processing system, terminal device, service providing device, document processing method, recording medium | |
| JP2010044767A (en) | Document processor, document processing method, and recording medium | |
| JP2001147915A (en) | Document processing system, authoring device, document processing method, recording medium | |
| JP2001167114A (en) | Document processing device, document processing method, recording medium | |
| JP3734101B2 (en) | Hypermedia construction support device | |
| JP7295429B2 (en) | Document processing program, document processing method and document processing device | |
| JP2001027997A (en) | Electronic document processing method, electronic document processing apparatus, and recording medium on which electronic document processing program is recorded |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060316 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060316 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090130 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090203 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090406 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090616 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090911 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091006 |
|
| A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20091028 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091208 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091221 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130108 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |