[go: up one dir, main page]

JP2008107904A - Text and animation service device and computer program - Google Patents

Text and animation service device and computer program Download PDF

Info

Publication number
JP2008107904A
JP2008107904A JP2006287662A JP2006287662A JP2008107904A JP 2008107904 A JP2008107904 A JP 2008107904A JP 2006287662 A JP2006287662 A JP 2006287662A JP 2006287662 A JP2006287662 A JP 2006287662A JP 2008107904 A JP2008107904 A JP 2008107904A
Authority
JP
Japan
Prior art keywords
animation
text
data
background
blog
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006287662A
Other languages
Japanese (ja)
Inventor
Kaoru Sumi
薫 角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2006287662A priority Critical patent/JP2008107904A/en
Publication of JP2008107904A publication Critical patent/JP2008107904A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a text/animation service apparatus capable of producing an animation suitable for content relating to a text input, and capable of transmitting to the other device with a text. <P>SOLUTION: An animation blog system 30 includes a blog system 62 for receiving the text input, an animation producing system 66 for producing the animation relating to the content of the text input, a blog DB 60 and an animation DB 64 for each storing produced animation by correlating to the text, a web server 72 for performing data communication, and a transmission processing unit existing in the blog system 62 and for transmitting the text and the animation stored in the animation DB 64 correlated to the text to a communication device which has transmitted a viewing request via the web server 72 in response to reception of any one of viewing requests about texts stored in the blog DB 60 from a network via the web server 72. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、いわゆるウェブログ(以下「ブログ」と呼ぶ。)等のように、主としてテキスト情報からなるウェブページをネットワーク上等において公開する技術に関し、特に、ウェブページの表現力をアニメーションを使用してより高めるための技術に関する。   The present invention relates to a technique for publishing a web page mainly composed of text information on a network or the like, such as a so-called web log (hereinafter referred to as “blog”), and in particular, an animation is used to express the web page. It is related to the technology to improve.

ブログサービスとは、もともとは、ワールド・ワイド・ウェブ上で訪問したウェブページのURI(Uniform Resource Identifier)と、そのページに対する論評とを記録したウェブサイトのことをいう。そうしたウェブサイトでは、記録を残すために、頻繁に更新する必要があり、しかもその内容をわかりやすく整理する必要がある。そのため、そうしたページを更新するためのソフトウェアとして様々なものが開発された。   The blog service is originally a website that records a URI (Uniform Resource Identifier) of a web page visited on the World Wide Web and a comment on the page. Such websites need to be updated frequently to keep records, and the content needs to be organized in an easy-to-understand manner. Therefore, various software has been developed to update such pages.

こうしたソフトウェアは、その成り立ちのために、時系列で記録を追加し、あわせてテキストを入力することができるという機能を持つ。そのため、もともとの成り立ちから離れて、個人の日記という性格を持つ使用方法が生まれた。現在「ブログ」と呼ばれているものは、大部分がそのような個人の日記、又は覚書等を時系列で累積したものである。   Because of this, such software has the function of adding records in chronological order and entering text together. Therefore, apart from the original origin, a method of use with a personal diary character was born. What is currently called a “blog” is mostly a chronological accumulation of such personal diaries or memorandums.

現在では、ブログサービスを提供する企業も多数あり、多くの人がブログを作成したり閲覧したりしている。   Currently, there are many companies that provide blog services, and many people create and browse blogs.

ところで、ブログはテキスト主体のページで構成されている。しかしブログサービスを提供する企業の中には、より楽しくブログを利用することができるように、テキストにとどまらない種々のサービスを提供するものがある。   By the way, a blog is composed of text-based pages. However, some companies that provide blog services offer various services that go beyond text so that blogs can be used more happily.

たとえば、「アバター」のアニメーションを提供するブログサービスがある。「アバター」とは、元来は仮想現実(Virtual Reality)の技術において使用された言葉であり、仮想現実中の、ある個人の分身となるキャラクターの画像のことをいう。   For example, there is a blog service that provides “avatar” animations. “Avatar” is a word originally used in the technology of virtual reality (Virtual Reality), and refers to an image of a character that is a part of a certain individual in virtual reality.

あるブログサービスでは、アバターのアニメーションを作成することができる。このサービスでは、予め複数種類のアバターの体、顔、髪の毛等のアニメーションからなるパーツを準備しており、それらの中から利用者が任意のものを選択して組合せることでアバターのアニメーションが作成できる。利用者は、たとえば自分の普段の姿にあわせた形のアバターを作成したり、普段の自分の姿と全く異なるアバターを作成したり、というように自分の好みにあわせたアバターを作成することができる。   A blog service allows you to create an avatar animation. In this service, parts consisting of animations of multiple types of avatar's body, face, hair, etc. are prepared in advance, and an avatar animation is created by the user selecting and combining any of them. it can. Users can create an avatar that suits their tastes, such as creating an avatar that is shaped to fit their daily appearance, or creating an avatar that is completely different from their usual appearance. it can.

作成されたアバターは、ブログにテキストとともに表示される。そのブログのページを訪れた閲覧者は、そのアバターのアニメーションを見てそのブログの作成者を想像しながら、ブログのテキストを読むことになる。   The created avatar is displayed with text on the blog. Visitors who visit the page of the blog will read the text of the blog while looking at the animation of the avatar and imagining the creator of the blog.

アバターのようなキャラクターを作成するための技術として、特許文献1に開示された技術がある。
特開2005−243011号公報 角 薫 他2名、「アニメーションメディア変換システム Interactive e−Honにおける親子エージェント情報提示モデル」、知能と情報(日本知能情報ファジイ学会誌)、Vol.18、No.2、pp.240−250(2006)
As a technique for creating a character such as an avatar, there is a technique disclosed in Patent Document 1.
JP-A-2005-243011 Satoshi Kaku and two others, “Parent-child agent information presentation model in animation media conversion system Interactive e-Hon”, Intelligence and Information (Journal of Japan Society for Fuzzy Intelligence), Vol. 18, no. 2, pp. 240-250 (2006)

しかし、上記したアバターのアニメーションは、ブログの作成者を想像させるものではあるが、そのブログに表示されるテキストとは無関係である。そのため、表示されているテキストの内容にそぐわないアバターのアニメーションが表示されることがあり、ブログを閲覧する人にとって、テキストの内容を楽しむことが難しくなるという問題がある。また、アバターのアニメーションはごく単純なものであって、1秒程度のアニメーションの繰り返しであり、アニメーションとしてはそれほど面白いものではないという問題点もある。   However, the above-mentioned animation of the avatar is not related to the text displayed on the blog, although it reminds the creator of the blog. Therefore, an avatar animation that does not match the content of the displayed text may be displayed, which makes it difficult for a person browsing the blog to enjoy the content of the text. In addition, the animation of the avatar is very simple, it is a repetition of the animation for about 1 second, and there is a problem that the animation is not so interesting.

こうした問題を解決するために、テキストの内容にふさわしいアニメーションをブログの管理者が作成し、ブログに表示することも考えられる。しかしアニメーションの作成には多大な作業が必要であり、しかもテキストの内容は多岐にわたることが予想されるので、テキストの内容にふさわしいアニメーションの作成は容易ではないという問題がある。   To solve these problems, the blog administrator can create an animation suitable for the text content and display it on the blog. However, the creation of animation requires a great deal of work, and the content of the text is expected to be diverse. Therefore, there is a problem that it is not easy to create an animation suitable for the content of the text.

それゆえに本発明の目的は、より長いアニメーションをテキストとともに提供可能で、アニメーションの内容をテキストの内容にふさわしいものにすることができるテキスト及びアニメーションサービス装置を提供することである。   Therefore, an object of the present invention is to provide a text and animation service device that can provide a longer animation with text and make the content of the animation suitable for the content of the text.

本発明の他の目的は、テキストの内容に相応しいアニメーションを容易に作成できるテキスト及びアニメーションサービス装置を提供することである。   Another object of the present invention is to provide a text and animation service device that can easily create animation suitable for the content of text.

本発明のさらに他の目的は、より長いアニメーションをテキストとともに提供可能で、しかも表示されるテキストの内容にふさわしいアニメーションを、利用者が容易に作成することができるテキスト及びアニメーションサービス装置を提供することである。   Still another object of the present invention is to provide a text and animation service device that can provide a longer animation together with text and can easily create an animation suitable for the content of the displayed text. It is.

本発明の第1の局面に係るテキスト及びアニメーションサービス装置は、ユーザによるテキストの入力を受けるためのテキスト入力手段と、テキスト入力手段を介して入力されたテキストに基づき、当該テキストの内容と関連するアニメーションを生成するためのアニメーション生成手段と、アニメーション生成手段により生成されたアニメーションを、テキスト入力手段を介して入力されたテキストと関連付けて記憶するための記憶手段と、ネットワークに接続され、当該ネットワークに接続された他の通信装置とデータ通信を行なうためのデータ通信手段と、データ通信手段を介してネットワークから記憶手段に記憶されたテキストのいずれかの閲覧要求を受けたことに応答して、当該テキストと、当該テキストに関連付けて記憶手段に記憶されていたアニメーションとを閲覧要求を送信して来た通信装置にデータ通信手段を介して送信するための送信手段とを含む。   The text and animation service device according to the first aspect of the present invention relates to text input means for receiving text input by a user and text input through the text input means and related to the content of the text. An animation generating means for generating an animation; a storage means for storing the animation generated by the animation generating means in association with the text input via the text input means; and a network connected to the network. In response to receiving a request for browsing one of the texts stored in the storage unit from the network via the data communication unit, the data communication unit for performing data communication with another connected communication device, The text and the storage means associated with the text And a transmitting means for transmitting via the data communication means to come communication apparatus transmits the viewing request and animation has been 憶.

このテキスト及びアニメーションサービス装置は、テキストの入力を受けると、そのテキストの内容と関連するアニメーションを生成し記憶手段にテキストと関連付けて記憶する。送信手段は、このテキストに対する閲覧要求を受けたことに応答して、そのテキストと、そのテキストに関連付けられたアニメーションとを、その閲覧要求を送信して来た通信装置に対して送信する。   When the text and animation service device receives an input of the text, the text and animation service device generates an animation associated with the content of the text and stores the animation in association with the text in the storage means. In response to receiving the browsing request for the text, the transmitting means transmits the text and the animation associated with the text to the communication device that has transmitted the browsing request.

ネットワーク上の装置からこのテキスト及びアニメーションサービス装置に対してあるテキストを指定して閲覧要求を送ると、そのテキストの内容に関連するように作成されたアニメーションがテキストとともに表示される。ユーザによる作業を最小限にして、テキストだけでなく、その内容に関連したアニメーションが表示されるので、主としてテキスト情報を提供していた装置での情報提供がより多様なものとなり、利用者にとってテキスト情報の内容がより理解しやすくなり、またテキスト情報の内容をより楽しむことが可能になる。その結果、より長いアニメーションをテキストとともに提供可能で、アニメーションの内容をテキストの内容にふさわしいものにすることができるテキスト及びアニメーションサービス装置を提供することができる。   When a browsing request is sent from a device on the network to this text and the animation service device, an animation created so as to relate to the content of the text is displayed along with the text. Since not only the text but also the animation related to the contents are displayed with the minimum amount of work by the user, the provision of information mainly on the device that provided the text information becomes more diverse, and the text for the user It becomes easier to understand the contents of the information, and more enjoyable the contents of the text information. As a result, it is possible to provide a text and animation service device that can provide a longer animation together with the text and can make the content of the animation suitable for the content of the text.

好ましくは、アニメーション生成手段は、アニメーションを生成するために使用されるリソースを記憶するためのリソース記憶手段と、テキスト入力手段を介して入力されたテキストに基づき、当該テキストの内容と関連するリソースをリソース記憶手段から検索し、検索されたリソースを組合せてアニメーションを生成するための手段とを含む。このテキスト及びアニメーションサービス装置は、データ通信手段を介してネットワーク上のユーザからアニメーションを生成するために使用されるリソースの送信を受け、リソース記憶手段に追加するためのリソース追加手段をさらに含む。   Preferably, the animation generation unit is configured to select a resource storage unit for storing a resource used for generating the animation, and a resource related to the content of the text based on the text input through the text input unit. Means for retrieving from the resource storage means and combining the retrieved resources to generate an animation. The text and animation service device further includes resource adding means for receiving a resource used for generating an animation from a user on the network via the data communication means and adding it to the resource storage means.

リソース追加手段は、ネットワーク上のユーザからアニメーションを生成するために使用されるリソースの提供を受け、リソース記憶手段に追加する。複数のユーザがこうしたリソースを追加することにより、多様なリソースがテキスト及びアニメーションサービス装置に蓄積される。ユーザはそれら多様なリソースを有効に利用することにより、より多様なアニメーションを作成することができる。   The resource adding unit receives a resource used for generating an animation from a user on the network and adds the resource to the resource storing unit. As a plurality of users add such resources, various resources are accumulated in the text and animation service device. Users can create more diverse animations by effectively using these various resources.

より好ましくは、リソースは、アニメーションの背景を描画するための背景データと、アニメーション中に登場するオブジェクトの形状を規定するオブジェクトデータと、モデルの動作を示す動作データとを含み、リソース追加手段は、背景データ、オブジェクトデータ、及び動作データを区別してリソースに追加するための手段を含む。   More preferably, the resource includes background data for drawing the background of the animation, object data that defines the shape of an object that appears during the animation, and operation data indicating the operation of the model, and the resource addition means includes: Means are included for distinguishing and adding background data, object data, and motion data to the resource.

背景データ、オブジェクトデータ、動作データが区別してリソースに追加される。これらのデータを別々に作成することができ、データの追加が手軽に行なえる。   Background data, object data, and motion data are distinguished and added to resources. These data can be created separately and data can be added easily.

さらに好ましくは、テキスト入力手段は、データ通信手段を介して任意の数の文の入力をネットワーク上の他の通信装置から受けるための手段を含む。アニメーション生成手段は、テキスト入力手段を介して入力されたテキストに対し、形態素解析、構文解析及び意味解析を行ない、文法的情報、統語的情報及び意味的情報が付された形態素列を出力するための解析手段と、解析手段の出力する形態素列を、各形態素に付された文法的情報、統語的情報及び意味的情報に基づいて、アニメーションの背景、アニメーションに登場するオブジェクト、及び各オブジェクトの動作にそれぞれ関連する複数種類のタグを各形態素に付加するためのタグ付け手段と、タグ付け手段によりタグ付けされた形態素列を、段落区切りを示す文字コードにより複数の段落に区分するための段落処理手段と、段落処理手段により区分された段落ごとに、タグ付け手段により背景に関連するタグが付された形態素に基づいて、アニメーションの背景を構成する背景データを決定するための背景決定手段と、段落処理手段により区分された段落内の文ごとに、タグ付け手段により、登場するオブジェクトに関連するタグが付された形態素に基づいて、アニメーションに登場するオブジェクトを構成するオブジェクトデータを決定するためのオブジェクト決定手段と、段落処理手段により区分された段落内の文ごとに、タグ付け手段により、登場するオブジェクトの動作に関連するタグが付された形態素に基づいて、アニメーションに登場するオブジェクトの各々の動作を規定する動作データを決定するための動作決定手段と、段落処理手段により区分された段落内の文ごとに、オブジェクト決定手段により決定されたオブジェクトデータと、動作決定手段により決定された動作データとを組合せることにより作成されるオブジェクトのアニメーションを、背景決定手段により決定される背景データに基づいて生成される背景に重ねることにより、アニメーションを生成するための手段とを含む。   More preferably, the text input means includes means for receiving an input of an arbitrary number of sentences from another communication device on the network via the data communication means. The animation generation means performs morphological analysis, syntactic analysis, and semantic analysis on the text input through the text input means, and outputs a morpheme sequence with grammatical information, syntactic information, and semantic information. Analysis means and the morpheme sequence output by the analysis means based on the grammatical information, syntactic information and semantic information attached to each morpheme, the background of the animation, the objects appearing in the animation, and the behavior of each object Tagging means for adding a plurality of types of tags related to each to each morpheme and paragraph processing for dividing the morpheme string tagged by the tagging means into a plurality of paragraphs by character codes indicating paragraph breaks And a morpheme to which a tag related to the background is attached by the tagging means for each paragraph divided by the means and the paragraph processing means. Therefore, a tag related to the appearing object is attached by the tagging means for each sentence in the paragraph divided by the background processing means and the paragraph processing means for determining the background data constituting the background of the animation. Based on the morpheme, the object determination means for determining the object data constituting the object appearing in the animation, and the action of the appearing object by the tagging means for each sentence in the paragraph divided by the paragraph processing means For each sentence in the paragraph divided by the paragraph processing means, action determining means for determining action data defining each action of the object appearing in the animation based on the morpheme with the tag related to The object data determined by the object determining means and the action determining means Means for generating an animation by superimposing an animation of an object created by combining the determined motion data with a background generated based on the background data determined by the background determination means; Including.

複数の文を含むテキストに対して形態素解析、構文解析及び意味解析を行ない、その結果を用いてアニメーションのリソースを決定するためのタグが各形態素に付加される。これらタグを用い、アニメーションの背景が段落ごとに決定され、段落内の文ごとに登場するオブジェクトとその動作とが決定される。それらを組合せて得られる動きのあるオブジェクトを、背景データにより生成される背景に重ねることで、文ごとのアニメーションが作成される。こうした作業を文ごと、段落ごとに繰返すことで、複数の文を含むテキスト全体に対するアニメーションが作成できる。   Morphological analysis, syntax analysis, and semantic analysis are performed on text including a plurality of sentences, and tags for determining animation resources are added to each morpheme using the results. Using these tags, the background of the animation is determined for each paragraph, and the object appearing for each sentence in the paragraph and its action are determined. An animation for each sentence is created by superimposing a moving object obtained by combining them on a background generated by background data. By repeating these operations for each sentence and each paragraph, an animation for the entire text including a plurality of sentences can be created.

又は、テキスト入力手段は、データ通信手段を介して、一つの文の背景、主語、目的語及び述語の入力をネットワーク上の他の通信装置から受けるための手段を含んでもよい。アニメーション生成手段は、テキスト入力手段を介して入力されたテキストに対し、形態素解析、構文解析及び意味解析を行ない、文法的情報、統語的情報及び意味的情報が付された形態素列を出力するための解析手段と、解析手段の出力する形態素列を、各形態素に付された文法的情報、統語的情報及び意味的情報に基づいて、アニメーションの背景、アニメーションに登場するオブジェクト、及び各オブジェクトの動作にそれぞれ関連する複数種類のタグを各形態素に付加するためのタグ付け手段と、タグ付け手段により背景に関連するタグが付された形態素に基づいて、アニメーションの背景を構成する背景データを決定するための背景決定手段と、タグ付け手段により、登場するオブジェクトに関連するタグが付された形態素に基づいて、アニメーションに登場するオブジェクトを構成するオブジェクトデータを決定するためのオブジェクト決定手段と、タグ付け手段により、登場するオブジェクトの動作に関連するタグが付された形態素に基づいて、アニメーションに登場するオブジェクトの各々の動作を規定する動作データを決定するための動作決定手段と、オブジェクト決定手段により決定されたオブジェクトデータと、動作決定手段により決定された動作データとを組合せることにより作成されるオブジェクトのアニメーションを、背景決定手段により決定される背景データに基づいて生成される背景に重ねることにより、アニメーションを生成するための手段とを含む。   Alternatively, the text input means may include means for receiving input of the background, subject, object, and predicate of one sentence from another communication device on the network via the data communication means. The animation generation means performs morphological analysis, syntactic analysis, and semantic analysis on the text input through the text input means, and outputs a morpheme sequence with grammatical information, syntactic information, and semantic information. Analysis means and the morpheme sequence output by the analysis means based on the grammatical information, syntactic information and semantic information attached to each morpheme, the background of the animation, the objects appearing in the animation, and the behavior of each object The background data constituting the background of the animation is determined based on the tagging means for adding a plurality of types of tags related to the morpheme to each morpheme and the morpheme tagged with the background by the tagging means. Based on the morpheme with the tag related to the appearing object by the background determination means and the tagging means. The object appearing in the animation based on the morpheme tagged with the object determining means for determining the object data constituting the object appearing in the animation and the tagging means related to the action of the appearing object Of the object created by combining the action determining means for determining the action data defining each action of the object, the object data determined by the object determining means, and the action data determined by the action determining means Means for generating an animation by superimposing the animation on a background generated based on the background data determined by the background determining means.

テキスト入力手段により、一つの文の背景、主語、目的語、及び述語が入力される。それらから構成される文に対して形態素解析、構文解析及び意味解析を行ない、その結果を用いてアニメーションのリソースを決定するためのタグが各形態素に付加される。これらタグを用い、その文について、登場するオブジェクトとその動作とが決定される。それらを組合せて得られる動きのあるオブジェクトを、背景データにより生成される背景に重ねることで、入力された文に対するアニメーションが作成される。したがって、一つの文からなるテキストに対するアニメーションが容易に作成できる。   The text input means inputs the background, subject, object, and predicate of one sentence. A morpheme analysis, a syntax analysis, and a semantic analysis are performed on a sentence composed of these, and a tag for determining an animation resource is added to each morpheme using the results. Using these tags, the appearing object and its action are determined for the sentence. An animation for an input sentence is created by superimposing a moving object obtained by combining them on a background generated by background data. Therefore, an animation for a text composed of one sentence can be easily created.

本発明の第2の局面にかかるコンピュータプログラムは、記憶装置と、ネットワークに接続され、当該ネットワークに接続された他の通信装置とデータ通信を行なうためのデータ通信装置とを備えたコンピュータにより実行されると、当該コンピュータを、ユーザによるテキストの入力を受けるためのテキスト入力手段と、テキスト入力手段を介して入力されたテキストに基づき、当該テキストの内容と関連するアニメーションを生成するためのアニメーション生成手段と、アニメーション生成手段により生成されたアニメーションを、テキスト入力手段を介して入力されたテキストと関連付けて記憶装置に記憶させるための記憶手段と、データ通信手段を介してネットワークから記憶装置に記憶されたテキストのいずれかの閲覧要求を受けたことに応答して、当該テキストと、当該テキストに関連付けて記憶装置に記憶されていたアニメーションとを閲覧要求を送信して来た通信装置にデータ通信装置を介して送信するための送信手段として機能させる。   A computer program according to a second aspect of the present invention is executed by a computer including a storage device and a data communication device connected to a network and performing data communication with another communication device connected to the network. Then, the computer uses the text input means for receiving the text input by the user, and the animation generation means for generating an animation related to the content of the text based on the text input through the text input means. Storage means for storing the animation generated by the animation generation means in association with the text input via the text input means, and storing it in the storage device from the network via the data communication means. Receive a request to view any of the text In response to this, it functions as a transmission means for transmitting the text and the animation stored in the storage device in association with the text to the communication device that has transmitted the browsing request via the data communication device. Let

以下、本発明の実施の形態について説明する。なお、以下の図面及び説明において、同一の部品には同一の参照符号を付してある。それらの名称及び機能も同一である。したがって、それらについての詳細な説明は繰返さない。   Embodiments of the present invention will be described below. In the following drawings and description, the same components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

なお、以下の実施の形態は、ブログに関するものであるが、以下の実施の形態の説明からも明らかなとおり、ブログに限らず、テキスト情報を主体として公開するウェブページであれば、どのようなものにも適用することができる。   The following embodiment relates to a blog, but as is clear from the description of the following embodiment, the web page is not limited to a blog and is a web page that mainly discloses text information. It can also be applied to things.

<第1の実施の形態>
上記した問題を解決するために、従来技術で提供されているアバターのアニメーションに代えて、又はアバターのアニメーションに加えて、ブログに表示されるテキストの内容にあわせたアニメーションを自動的に作成してブログに表示することができるようにすると、アニメーションの表示がテキストのストーリーと一致することになる。こうすることによって、ブログ作成者にとってはブログの管理がより楽しくなり、ブログを訪問する者にとってはブログの閲覧がより面白くなることが期待でき、好ましい。以下に述べる実施の形態はそのようなアニメーション作成及び表示機能付きのブログシステムである。
<First Embodiment>
In order to solve the above-mentioned problem, instead of or in addition to the avatar animation provided in the prior art, an animation that automatically matches the content of the text displayed on the blog is automatically created. If it can be displayed on a blog, the animation display will match the text story. By doing so, it can be expected that blog management becomes more enjoyable for blog creators, and browsing of blogs can be expected to be more interesting for visitors to blogs. The embodiment described below is a blog system with such an animation creation and display function.

そのためには、テキストから自動的にそのテキストの内容にふさわしいアニメーションを作成する技術が必要である。そうした技術としては、非特許文献1に開示の技術がある。非特許文献1に開示の技術を以下に述べる実施の形態でも使用するので、その詳細については後に述べることとし、ここではその概略について説明する。   For this purpose, a technique for automatically creating an animation suitable for the content of the text from the text is required. As such a technique, there is a technique disclosed in Non-Patent Document 1. Since the technique disclosed in Non-Patent Document 1 is also used in the embodiments described below, the details thereof will be described later, and an outline thereof will be described here.

この実施の形態では、ブログの作成者はブログのテキストを入力する。以下に述べる実施の形態のシステムは、こうして入力されたテキストに対し形態素解析、構文解析及び意味解析をした後、段落中の各文から、主語、述語、目的語、及びそれらの修飾語等を抽出する。これら抽出された単語に、予め用意した規則を適用して、アニメーション作成時のキャラクターを含むオブジェクト、及びそれらの動き、並びに背景を選択するための手がかりとなるタグを付す。ある段落内に登場するタグに基づき、その段落の背景を決定する。なお、背景データ、オブジェクトデータ、及び動きデータについては予め準備されている。   In this embodiment, the blog creator enters the blog text. The system of the embodiment described below performs morphological analysis, syntax analysis, and semantic analysis on the input text in this way, and then, from each sentence in the paragraph, the subject, predicate, object, their modifiers, etc. Extract. By applying rules prepared in advance to these extracted words, tags that serve as clues for selecting objects including characters at the time of animation creation, their movements, and the background are attached. Based on the tags appearing in a paragraph, the background of the paragraph is determined. Note that background data, object data, and motion data are prepared in advance.

各文ごとに、その文の主語、述語、目的語、及びそれらの修飾語に基づいて、主語に相当するキャラクターのモデルと、動きデータとを組合せてキャラクターのアニメーションを作成し、背景上に重ねて表示する。述語に目的語があれば、その目的語に相当するキャラクターのモデルと、その動きデータも、同様にして選択してアニメーションを作成し、背景上に重ねて、キャラクターのアニメーションを表示する。   For each sentence, based on the subject, predicate, object, and modifiers of the sentence, a character model corresponding to the subject is combined with motion data to create a character animation that is superimposed on the background. To display. If there is an object in the predicate, a character model corresponding to the object and its movement data are selected in the same way to create an animation, and the character animation is displayed on the background.

アニメーションの生成は各文ごとに行なわれるので、テキストの長さに合致したアニメーションが作成できる。アニメーションを構成するオブジェクト、その動き、及びその背景は、ブログのテキストの内容に基づいて選択される。したがって、より長いアニメーションをテキストとともに表示可能で、アニメーションの内容をテキストの内容にふさわしいものにすることができる。   Since animation is generated for each sentence, an animation that matches the length of the text can be created. The objects that make up the animation, its movement, and its background are selected based on the content of the blog text. Therefore, a longer animation can be displayed together with the text, and the content of the animation can be made suitable for the content of the text.

このようにブログのテキストの内容にふさわしいアニメーションを作成する機能を提供するブログシステムをここでは「アニメブログシステム」と呼ぶ。   A blog system that provides a function for creating an animation suitable for the text content of a blog is called an “animation blog system”.

[構成]
図1に、本実施の形態に係るアニメブログシステム30のブロック図と周辺の関連ブロックとを示す。図1を参照して、アニメブログシステム30は、インターネット32を介してブログの閲覧者のパーソナルコンピュータ(以下「パソコン」と呼ぶ。)40からの要求に応じ、ブログ内の記事をパソコン40の表示装置上に表示させたり、ブログの作成者からの要求に応じて、ブログに記事を追加したり、ブログ内の記事を更新したり、記事の内容にあわせたアニメーションの作成を行なったりするためのものであって、外部から見ると、テキストとアニメーションとを融合した形のブログサービスのサーバ装置として機能する。さらに、後述するように、アニメブログシステム30は、インターネット32に接続されたパソコンから、アニメーションのためにキャラクタデータ、動きデータ、背景データ等の登録を受付ける機能を持つ。このようなデータの登録を受付け、ブログの作成者が共有するためのシステムを設けることにより、キャラクタデータ、動きデータ、背景データの種類が増大し、テキストの内容にふさわしいアニメーションを作成することが容易になる。
[Constitution]
FIG. 1 shows a block diagram of an animated blog system 30 according to the present embodiment and related blocks in the vicinity. Referring to FIG. 1, the anime blog system 30 displays articles in the blog on the personal computer 40 in response to a request from a personal computer (hereinafter referred to as “personal computer”) 40 of a blog viewer via the Internet 32. In order to display on the device, add an article to the blog, update an article in the blog, or create an animation according to the contents of the article in response to a request from the creator of the blog When viewed from the outside, it functions as a server device for a blog service that combines text and animation. Furthermore, as will be described later, the animation blog system 30 has a function of accepting registration of character data, motion data, background data, and the like for animation from a personal computer connected to the Internet 32. By providing a system for accepting registration of such data and sharing it with the creator of the blog, the types of character data, motion data, and background data increase, making it easy to create animation suitable for the text content become.

本実施の形態では、例としてアニメーション付きの日記ブログを採り上げる。図1を参照して、このブログの閲覧者のパソコン40の表示装置上には、ブログタイトル50と、カレンダ領域56と、カレンダにより指定された日のこのブログの記事、又は最新の記事等、このブログの指定された記事のテキストを表示するためのブログテキスト表示領域52と、ブログテキスト表示領域52にふさわしいアニメーションとして予め自動的に作成されアニメブログシステム30内に記憶されていたアニメーションを表示するためのアニメーション表示領域54とを含む。   In this embodiment, a diary blog with animation is taken as an example. With reference to FIG. 1, on the display device of the personal computer 40 of the blog viewer, the blog title 50, the calendar area 56, the article of this blog on the date designated by the calendar, the latest article, etc. The blog text display area 52 for displaying the text of the specified article of the blog, and the animation automatically created in advance as an animation suitable for the blog text display area 52 and stored in the anime blog system 30 are displayed. And an animation display area 54.

もちろん、ブログを構成する要素として、これ以外の要素が表示されていてもよいことはいうまでもない。   Of course, it goes without saying that other elements may be displayed as elements constituting the blog.

アニメブログシステム30は、インターネット32を介してパソコン40等と通信可能なウェブサーバ72と、ウェブサーバ72を介してインターネット32上の複数のパソコンから送信されてくるHTTP(HyperText Transfer Protocol)リクエストについて、複数のパソコンとの通信が矛盾なく行なえるように各パソコンとのセッションを管理し、ウェブサーバ72が受信するHTTPリクエスト等を後述する複数のシステムのうちの適切なものに振り分けるためのセッション管理システム74とを含む。   The anime blog system 30 includes a web server 72 that can communicate with the personal computer 40 and the like via the Internet 32, and HTTP (HyperText Transfer Protocol) requests transmitted from a plurality of personal computers on the Internet 32 via the web server 72. A session management system for managing a session with each personal computer so that communication with a plurality of personal computers can be performed without any contradiction, and for distributing an HTTP request received by the web server 72 to an appropriate one of a plurality of systems to be described later 74.

アニメブログシステム30はさらに、ブログ作成者のプロフィール等の固定的な情報、時系列で作成されるブログの記事、各記事へのインデックス、並びにブログ内の記事を表示するHTML(HyperText Markup Language)書類を作成するために使用されるテンプレート及びCSS(Cascading Style Sheet)ファイル等へのポインタを、ブログ別に記憶するためのブログデータベース(以下データベースは単に「DB」と書く。)60と、ブログDB60内の各ブログの記事別に作成されるアニメーションを記憶するためのアニメDB64と、アニメーションを作成する際に使用されるリソースを記憶するためのリソース群記憶部68とを含む。   The anime blog system 30 further includes HTML (Hyper Text Markup Language) documents that display fixed information such as a blog creator's profile, blog articles created in time series, indexes to each article, and articles in the blog. A blog database (hereinafter referred to simply as “DB”) 60 for storing a blog and a template and a CSS (Cascading Style Sheet) file used for creating a blog, and a blog DB 60 It includes an animation DB 64 for storing animations created for each blog article, and a resource group storage unit 68 for storing resources used when creating animations.

アニメブログシステム30はさらに、ウェブサーバ72及びセッション管理システム74を介してインターネット32上のコンピュータと通信し、インターネット32上のアニメーション作成者から送信される、キャラクタデータ、動きデータ、背景データ等のリソース群記憶部68への追加登録及び管理を行なうためのアニメーションリソース管理システム70と、ウェブサーバ72及びセッション管理システム74を介してインターネット32上のブログ作成者のコンピュータと通信をすることにより、ブログDB60内のブログの記事の追加及び更新を行なうとともに、インターネット32上のブログ閲覧者のコンピュータからのブログ閲覧要求に応じ、指定されたブログの指定された記事及びアニメDB64に記憶されたアニメーションを返信するためのブログシステム62と、ブログシステム62によってブログに新しい記事が追加されたことに応答して、ウェブサーバ72及びセッション管理システム74を介してインターネット32上のブログ作成者のコンピュータと通信を行ない、リソース群記憶部68に記憶されたリソースを利用し、ブログシステム62に追加されたブログ記事のテキストにふさわしいアニメーションを、後述するアルゴリズムにしたがって作成し、ブログ記事と関連付けてアニメDB64に格納させるためのアニメーション作成システム66とを含む。   The animation blog system 30 further communicates with a computer on the Internet 32 via the web server 72 and the session management system 74, and transmits resources such as character data, motion data, and background data transmitted from the animation creator on the Internet 32. By communicating with the blog creator computer on the Internet 32 via the web server 72 and the session management system 74 through the animation resource management system 70 for additional registration and management in the group storage unit 68, the blog DB 60 In addition to adding and updating articles in the blog, in response to a blog browsing request from a blog viewer computer on the Internet 32, the specified article of the specified blog and the animation stored in the animation DB 64 are displayed. A blog system 62 for replying a message, and a blog creator's computer on the Internet 32 via the web server 72 and the session management system 74 in response to the addition of a new article to the blog by the blog system 62. An animation suitable for the text of the blog article added to the blog system 62 is created according to the algorithm described later using the resources stored in the resource group storage unit 68, and is associated with the blog article and stored in the animation DB 64. And an animation creation system 66 for storage.

これらのうち、ブログシステム62は既存のものと同様にして実現できるため、ここではその詳細については述べない。ブログシステム62は、ブログの閲覧要求があったときに、指定されたテキストの記事を所定のテンプレートに組み込むことによってHTML書類を作成し、閲覧要求を送信してきたコンピュータに返信する。ここで、アニメーションをブログ内に表示するためには、テンプレートとしてアニメーション表示のための領域を設けておくことと、その領域に表示すべきアニメーションのURIとして、アニメDB64内のアニメーションのうち指定された記事に対応するもののURIを組み込んでHTML書類を作成することが必要である。なお、本実施の形態においては、アニメーションの表示がウェブブラウザ上で行なわれることが前提となっているため、アニメーションはVRML(Virtual Reality Modeling Language)形式で作成することが望ましい。もちろんこれ以外の形式でもよい。   Of these, the blog system 62 can be realized in the same manner as an existing one, and therefore, details thereof will not be described here. When there is a blog viewing request, the blog system 62 creates an HTML document by incorporating an article of a specified text into a predetermined template, and sends it back to the computer that sent the viewing request. Here, in order to display the animation in the blog, an area for animation display is provided as a template, and the animation URI in the animation DB 64 is designated as the URI of the animation to be displayed in the area. It is necessary to create an HTML document by incorporating a URI corresponding to the article. In the present embodiment, since it is assumed that the animation is displayed on the web browser, it is desirable to create the animation in the VRML (Virtual Reality Modeling Language) format. Of course, other formats may be used.

アニメブログシステム30は、後述するように通信機能を有するコンピュータハードウェアと、その上で動作するコンピュータプログラムとにより実現されるが、その機能をブロック図的に示したものが図2である。   As will be described later, the anime blog system 30 is realized by computer hardware having a communication function and a computer program operating on the computer hardware. FIG. 2 shows the function in a block diagram.

図2を参照して、アニメーション作成システム66は、ブログシステム62(図1参照)によって追加された記事であるブログテキスト90の入力を受けると、リソース群記憶部68に記憶されたオブジェクトデータ、背景データ、動作データ等の中からブログテキスト90の内容にふさわしいアニメーションを作成するための候補を抽出し、ブログ作成者により選択された候補を使用して、アニメーションを記事の各文ごとに自動的に作成する。なお、ブログテキスト90は複数の文を含むことができる。   Referring to FIG. 2, when the animation creation system 66 receives an input of the blog text 90 that is an article added by the blog system 62 (see FIG. 1), the object data and background stored in the resource group storage unit 68 are received. Candidates for creating animation suitable for the content of the blog text 90 are extracted from the data, operation data, etc., and the animation is automatically selected for each sentence of the article using the candidates selected by the blog creator. create. The blog text 90 can include a plurality of sentences.

リソース群記憶部68は、ブログテキスト90の形態素解析、構文解析及び意味解析に用いられる形態素解析辞書92と、得られた形態素列に対してアニメーション作成のために使用されるタグ付けをする際に参照されるタグ辞書94と、タグに基づいてアニメーション作成に使用する背景データ、オブジェクトデータ、動作データを検索する際に参照される言語資源を格納した言語リソースDB96と、アニメーション作成に直接使用される資源に関した情報を記憶するためのリソースDB98とを含む。なお、形態素解析辞書92には、図示しないが構文解析及び意味解析等のための情報も辞書形式で保持されている。   The resource group storage unit 68 uses the morpheme analysis dictionary 92 used for morphological analysis, syntax analysis, and semantic analysis of the blog text 90, and tagging the obtained morpheme sequence to be used for animation creation. A tag dictionary 94 to be referred to, a language resource DB 96 storing language resources to be referred to when searching for background data, object data, and motion data used for animation creation based on tags, and directly used for animation creation. And a resource DB 98 for storing information related to resources. Note that the morpheme analysis dictionary 92 also holds information for syntax analysis and semantic analysis in a dictionary format (not shown).

言語リソースDB96は、単語の同義語を格納したシソーラス102と、単語の意味的関連を記述したオントロジテーブル104とを含む。   The language resource DB 96 includes a thesaurus 102 that stores synonyms of words and an ontology table 104 that describes the semantic relationship of words.

リソースDB98は、アニメーションの背景となるデータ(これを「背景データ」と呼ぶ。)を記憶するための背景テーブル106と、アニメーションに登場するキャラクタ及び何らかの物体等のオブジェクトのモデルデータ(これを「オブジェクトデータ」と呼ぶ。)を記憶するためのオブジェクトテーブル108と、オブジェクトモデルの動きに関するデータ(これを「動作データ」と呼ぶ。)を記憶するための動作テーブル110と、背景テーブル106、オブジェクトテーブル108、動作テーブル110に記憶されたデータの各々について、ユーザの各々による使用頻度を記録するための使用頻度テーブル112とを含む。   The resource DB 98 stores a background table 106 for storing data used as the background of the animation (this is referred to as “background data”), and model data (this is referred to as “object” Object table 108 for storing data, and an action table 110 for storing data relating to movement of the object model (referred to as “action data”), a background table 106, and an object table 108. Each of the data stored in the operation table 110 includes a usage frequency table 112 for recording the usage frequency by each user.

アニメーション作成システム66は、ブログテキスト90の入力を受け、形態素解析辞書92を参照してブログテキスト90に対し形態素解析、構文解析、及び意味解析を行ない、文法的情報、統語的情報及び意味的情報が付された形態素からなる形態素列を出力するための形態素解析処理部120と、形態素解析処理部120の出力する形態素列を記憶するための形態素列記憶部122と、形態素列記憶部122から形態素列を読出し、タグ辞書94を参照して各形態素にアニメーション作成のためのタグを付して出力するためのタグ付け処理部124と、タグ付け処理部124の出力するタグ付き形態素列を記憶するためのタグ付き形態素列記憶部126とを含む。   The animation creation system 66 receives the blog text 90 and performs morphological analysis, syntax analysis, and semantic analysis on the blog text 90 with reference to the morphological analysis dictionary 92 to obtain grammatical information, syntactic information, and semantic information. A morpheme analysis processing unit 120 for outputting a morpheme sequence composed of morphemes to which morpheme is attached, a morpheme sequence storage unit 122 for storing a morpheme sequence output by the morpheme analysis processing unit 120, and a morpheme from the morpheme sequence storage unit 122 A column is read, a tagging processing unit 124 for outputting each morpheme with a tag for animation creation by referring to the tag dictionary 94, and a tagged morpheme sequence output by the tagging processing unit 124 are stored. And a tagged morpheme string storage unit 126.

アニメーション作成システム66はさらに、タグ付き形態素列記憶部126から一つの段落分の形態素列を抽出し、段落内の全ての文のタグに基づき、後述する段落別タグ構造体を作成するための段落処理部130と、段落処理部130の出力する段落別タグ構造体を記憶するための段落別タグ構造体記憶部132と、段落別タグ構造体記憶部132に記憶された段落別タグ構造体のうち、一文ごとの処理の対象となる要素を特定するための一文タグ処理部138を含む。   The animation creation system 66 further extracts a morpheme string for one paragraph from the tagged morpheme string storage unit 126, and creates a paragraph-specific tag structure to be described later based on tags of all sentences in the paragraph. A processing unit 130, a paragraph-specific tag structure storage unit 132 for storing the paragraph-specific tag structure output from the paragraph processing unit 130, and a paragraph-specific tag structure stored in the paragraph-specific tag structure storage unit 132. Of these, a single sentence tag processing unit 138 for specifying an element to be processed for each sentence is included.

アニメーション作成システム66はさらに、段落別タグ構造体記憶部132に記憶された段落別タグ構造体内の背景関連タグに基づき、シソーラス102及びオントロジ104を参照しながら背景テーブル106内の背景データに付されたタグとのマッチングを行ない、段落別タグ構造体記憶部132内の背景タグとマッチする背景データを背景候補として出力するための背景検索部144と、背景検索部144により検索された背景候補を記憶するための背景候補記憶部150とを含む。   The animation creation system 66 is further attached to the background data in the background table 106 with reference to the thesaurus 102 and the ontology 104 based on the background related tags in the tag structure by paragraph stored in the tag structure storage unit 132 by paragraph. A background search unit 144 for matching background tags in the paragraph tag structure storage unit 132 and outputting background data as background candidates, and background candidates searched by the background search unit 144 And a background candidate storage unit 150 for storing.

アニメーション作成システム66は、同様にして、一文タグ処理部138により特定された処理対象の一文の環境要素に含まれるタグ付き形態素に基づき、シソーラス102及びオントロジ104を参照しながらオブジェクトテーブル108を検索して、一文の主語及び目的語に対応するオブジェクト(人物の場合はキャラクタ)のオブジェクトデータを検索し、オブジェクト候補として出力するためのオブジェクト検索部146と、オブジェクト検索部146により出力されたオブジェクト候補を記憶するためのオブジェクト候補記憶部152と、一文タグ処理部138により抽出された一文の環境要素に含まれる動作関連のタグ付きの形態素に基づき、シソーラス102及びオントロジ104を参照しながら、動作テーブル110に記憶された動作テーブルとのマッチングをとり、合致した動作データを動作候補として出力するための動作検索部148と、動作検索部148から出力された動作候補を記憶するための動作候補記憶部154とを含む。   Similarly, the animation creation system 66 searches the object table 108 while referring to the thesaurus 102 and the ontology 104 based on the tagged morpheme included in the environment element of the one sentence to be processed specified by the one sentence tag processing unit 138. The object search unit 146 for searching object data of an object (a character in the case of a person) corresponding to a subject and object of a sentence and outputting the object candidate, and the object candidate output by the object search unit 146 Based on the object candidate storage unit 152 for storing and the motion-related tagged morpheme included in the one-sentence environmental element extracted by the one-sentence tag processing unit 138, the operation table 110 is referred to with reference to the thesaurus 102 and the ontology 104. Remember The motion search unit 148 for matching the motion table and outputting the matched motion data as a motion candidate, and the motion candidate storage unit 154 for storing the motion candidate output from the motion search unit 148 Including.

アニメーション作成システム66はさらに、背景候補記憶部150に記憶された複数の背景候補、オブジェクト候補記憶部152に記憶された複数のオブジェクト候補、及び動作候補記憶部154に記憶された複数の動きデータをユーザに提示し、それぞれ一つの候補を選択させるための選択処理部156と、選択処理部156を介してユーザにより選択されたオブジェクトデータ及び動きデータを組合せて得られるアニメーションを、選択処理部156により選択された背景データに重ねて表示することでアニメーションを作成するためのアニメーション作成部158と、アニメーション作成部158により作成されたアニメーションをアニメDB64に記憶させ、ブログDB60内のブログのうち、ブログテキスト90が得られたブログの、ブログテキスト90を含むページと、アニメーション作成部158により作成されアニメDB64に記憶されたアニメーションとを関連付けるようにブログDB60を更新するためのアニメーション格納・ブログ更新部160とを含む。アニメーション格納・ブログ更新部160は、アニメーション作成部158がどの背景データとどのオブジェクトデータとどの動作データとを使用したかに基づき、使用頻度テーブル112内の、該当ユーザに対する各データの使用頻度を更新する機能も持つ。   The animation creation system 66 further receives a plurality of background candidates stored in the background candidate storage unit 150, a plurality of object candidates stored in the object candidate storage unit 152, and a plurality of motion data stored in the motion candidate storage unit 154. A selection processing unit 156 for presenting each of the candidates to the user and an animation obtained by combining the object data and the motion data selected by the user via the selection processing unit 156 are displayed by the selection processing unit 156. An animation creating unit 158 for creating an animation by displaying it on the selected background data and the animation created by the animation creating unit 158 are stored in the animation DB 64, and the blog text in the blog in the blog DB 60 Blog with 90 Includes a page containing a blog text 90, and animation storage blog updating unit 160 for updating the blog DB60 to associate and animations stored in the animation created DB64 by animation creating section 158. The animation storage / blog updating unit 160 updates the usage frequency of each data for the corresponding user in the usage frequency table 112 based on which background data, which object data, and which motion data is used by the animation creation unit 158. It also has a function to do.

図3は、段落別タグ構造体記憶部132に記憶される段落別タグ構造体134の概略構成を示す。この段落別タグ構造体は、全体として一つの場面要素を構成しており、一つの場面要素は一文単位で作成された複数の環境要素136を含む。具体的には、段落別タグ構造体はXML(eXtended Markup Language)ファイルであり、環境要素の各々は、タグ付けされた一文の形態素列の中から、背景関連、動作関連、オブジェクト関連等のタグに関連して予め定められたルールに従って検索された情報を、そのルールに対応したXMLタグとともに格納したものである。   FIG. 3 shows a schematic configuration of the paragraph-specific tag structure 134 stored in the paragraph-specific tag structure storage unit 132. The tag structure by paragraph constitutes one scene element as a whole, and one scene element includes a plurality of environment elements 136 created in units of one sentence. Specifically, the tag structure for each paragraph is an XML (eXtended Markup Language) file, and each of the environmental elements is a tag related to background, action, object, etc. from a tagged single sentence morpheme sequence. The information searched according to a rule determined in advance with respect to the URL is stored together with the XML tag corresponding to the rule.

図3を参照して、環境要素136は、ときの要素と、場所の要素と、状態の要素と、物の要素とを含む。ここで述べる「要素」は、XMLファイルに関に関して定義されたタグに対応する要素のことをいう。   Referring to FIG. 3, environmental elements 136 include a time element, a place element, a state element, and an entity element. The “element” described here refers to an element corresponding to a tag defined for the XML file.

ときの要素は、季節、年月日、時刻の要素を含む。年月日及び時刻はさらに細分化されている。場所の要素は、大陸名の要素、国名の要素、街の名前の要素及び背景要素を含む。   The element of time includes the elements of season, date, and time. The date and time are further subdivided. The place element includes a continent name element, a country name element, a city name element, and a background element.

状態の要素は天候要素を含む。   The state element includes a weather element.

物の要素は名前要素(主語)と、その属の要素(主語の意味体系によるカテゴリ情報)と、特徴要素(主語に係る修飾語の集合)とを含む。特徴要素には、複数個の形態素が含まれることがある。なお、ある単語に関するカテゴリ情報はオントロジを参照することにより得ることができる。   The element of the object includes a name element (subject), an element of its genus (category information based on the semantic system of the subject), and a feature element (a set of modifiers related to the subject). The characteristic element may include a plurality of morphemes. In addition, the category information regarding a certain word can be obtained by referring to the ontology.

物の要素はさらに、動作の要素を含む。動作の要素は述語に対応するものであって、名前の要素(述語の語幹)と、属の要素(述語の、用言意味体系によるカテゴリ情報)と、対象要素とを含む。   The physical element further includes an operational element. The action element corresponds to a predicate, and includes a name element (predicate stem), a genus element (category information of the predicate according to a predicate semantic system), and a target element.

対象要素は、述語に係る「名詞+助詞系」の修飾語群から作成され、一文から複数個生成される可能性がある。対象要素は、「名詞+助詞系」の名前要素(名詞)と、その属(カテゴリ)要素と、機能要素(助詞)とからなる。   The target element is created from a modifier group of “noun + particle system” related to the predicate, and a plurality of target elements may be generated from one sentence. The target element includes a name element (noun) of “noun + particle system”, its genus (category) element, and a functional element (particle).

図4は、オントロジ104の概念を説明するための図である。図4を参照して、オントロジ104は、基本的にはある単語と別の単語との間の関係をネットワーク形式で記載したものである。本実施の形態では、オントロジ104は、ある単語と、その単語の属するカテゴリとの関係を階層的に示している。例えば図4に示す「大統領」「太郎」「お父さん」「おじいさん」というノードは、「〜を親ノードとする」(又は「〜の子ノードである。」)という関係によって「男」というノードとつながっている。同様に「ポチ」「クロ」等という個別の犬の名前は「〜を親ノードとする」という関係によって「犬」というノードにつながっている。   FIG. 4 is a diagram for explaining the concept of ontology 104. Referring to FIG. 4, ontology 104 basically describes a relationship between a word and another word in a network format. In the present embodiment, ontology 104 hierarchically shows a relationship between a certain word and a category to which the word belongs. For example, the nodes “President”, “Taro”, “Dad”, and “Grandpa” shown in FIG. 4 are connected to the node “Men” by the relationship “having a parent node” (or “is a child node of”). linked. Similarly, the names of individual dogs such as “Pochi” and “Kuro” are connected to a node “dog” by a relationship “having a parent node”.

そして本実施の形態では、これらノードに対応するオブジェクトデータがある場合には、そのオブジェクトデータへのポインタがそのノードに付されている。ノードに対応するオブジェクトデータがない場合には、オブジェクトデータへのポイントは存在しない。   In this embodiment, when there is object data corresponding to these nodes, a pointer to the object data is attached to the node. If there is no object data corresponding to the node, there is no point to the object data.

オントロジ104を使用すると、以下のようなオブジェクトデータの検索ができる。すなわち、ある形態素(単語)が主語として指定されたときに、その単語に対応するノードがあるか否かをオントロジ104内で検索する。なければシソーラス102を使用して類似の単語を検索する。検索された単語のノードにポインタがあれば、そのポインタにより示されるオブジェクトデータをその単語に対応するオブジェクトデータとして採用する。そのノードにポインタがなければ、そのノードから親ノードをたどり、ポインタを持つノードで最初に遭遇したもののポインタからオブジェクトデータを得てその単語に対応するオブジェクトデータとする。   When the ontology 104 is used, the following object data can be searched. That is, when a morpheme (word) is designated as a subject, whether or not there is a node corresponding to the word is searched in the ontology 104. Otherwise, the thesaurus 102 is used to search for similar words. If there is a pointer at the node of the searched word, the object data indicated by the pointer is adopted as the object data corresponding to the word. If the node does not have a pointer, the parent node is traced from that node, and the object data is obtained from the pointer of the first encounter with the node having the pointer to be the object data corresponding to the word.

なお、オントロジ104は、オブジェクトだけでなく、動きについても同様の関連付けにより作成された意味ネットワークを含む。   The ontology 104 includes not only an object but also a semantic network created by a similar association for movement.

図5(A)(B)(C)にそれぞれ、オブジェクトテーブル108のデータレコード170、動作テーブル110のデータレコード172、及び背景テーブル106のデータレコード174の構成を示す。   FIGS. 5A, 5B, and 5C show the configurations of the data record 170 of the object table 108, the data record 172 of the operation table 110, and the data record 174 of the background table 106, respectively.

図5(A)を参照して、オブジェクトテーブル108のデータレコード170は、レコード識別子と、このレコードが表すオブジェクトの名称と、このレコードが表すオブジェクトのカテゴリと、マッチングの際に使用される複数のマッチング属性と、このレコードの優先順位と、オブジェクトモデルデータとを含む。   Referring to FIG. 5A, the data record 170 of the object table 108 includes a record identifier, the name of the object represented by this record, the category of the object represented by this record, and a plurality of data used for matching. It includes matching attributes, priority of this record, and object model data.

レコード識別子とは、オブジェクトテーブル108中でレコードを一意に識別するための番号である。   The record identifier is a number for uniquely identifying a record in the object table 108.

名称とは、このデータレコードに対応するオブジェクトの名前である。   The name is the name of the object corresponding to this data record.

カテゴリとは、オントロジ104においてこのデータレコード170の名称に対応するノードの上位のノードの名称のことをいう。   A category refers to the name of a node above the node corresponding to the name of the data record 170 in the ontology 104.

マッチング属性とは、段落別タグ構造体記憶部132に記憶された各文単位のタグ付き形態素のうち、オブジェクトレコードの検索のために使用されるものとして予め指定されたタグが付された形態素のことをいう。例えばオブジェクトの特徴を表す所定のタグが付された形態素、オブジェクトの位置を表す所定のタグが付された形態素、等がこれらの値となる。   The matching attribute refers to a morpheme to which a tag designated in advance as a tag used for searching for an object record among tagged morphemes stored in each paragraph-based tag structure storage unit 132 is used. That means. For example, a morpheme to which a predetermined tag representing the feature of the object is attached, a morpheme to which a predetermined tag representing the position of the object is attached, and the like are used.

優先順位とは、複数のオブジェクトレコードが検索されたときに、オブジェクト検索部146による選択の際の表示順序を決定するための情報である。実際には、この優先順位と、使用頻度テーブル112に記憶された各オブジェクトの使用頻度とから算出される複合優先度によって表示順序を決定する。この場合、使用頻度が高いものほど複合優先度が高くなるように複合優先度の算出方法を予め決めておく。   The priority order is information for determining the display order in the selection by the object search unit 146 when a plurality of object records are searched. Actually, the display order is determined based on the composite priority calculated from the priority and the usage frequency of each object stored in the usage frequency table 112. In this case, a method for calculating the composite priority is determined in advance so that the composite priority increases as the usage frequency increases.

オブジェクトデータモデルは、オブジェクトをモデル化したデータである。より具体的には、オブジェクトの形状を規定するための、複数個の特徴点の3次元座標データの集まりのことをいう。動きデータとの組合せを容易にするために、モデルを構成する特徴点の数は一定であることが望ましい。   The object data model is data obtained by modeling an object. More specifically, it refers to a collection of three-dimensional coordinate data of a plurality of feature points for defining the shape of an object. In order to facilitate the combination with the motion data, it is desirable that the number of feature points constituting the model is constant.

図5(B)を参照して、動作テーブル110のデータレコード172も同様に、レコード識別子と、名称と、カテゴリと、マッチング属性と、優先順位とを含む。データレコード172は、図5(A)のオブジェクトモデルデータに代えて、モデルの三次元的な動きを、モデルの特徴点の座標の時系列で表した動きパターンデータを含む。   Referring to FIG. 5B, data record 172 of operation table 110 similarly includes a record identifier, a name, a category, a matching attribute, and a priority. The data record 172 includes, instead of the object model data of FIG. 5A, motion pattern data that represents the three-dimensional motion of the model in time series of the coordinates of the feature points of the model.

動作テーブル110のデータレコード172のマッチング属性は、その物の特徴、位置、名前、その物の対象の名前、その物の対象の属性等を含む。   The matching attributes of the data record 172 of the action table 110 include the feature, position, name of the object, the name of the object object, the attribute of the object object, and the like.

図5(C)を参照して、背景テーブル106のデータレコード174は、レコード識別子と、マッチング属性と、優先順位と、背景を構成するパターンからなるパターンファイルとを含む。   Referring to FIG. 5C, the data record 174 of the background table 106 includes a record identifier, a matching attribute, a priority order, and a pattern file including patterns constituting the background.

背景テーブル106のデータレコード174のマッチング属性は、季節、年月日、時刻、大陸、国、天気等を含む。これらには、背景データレコードに属性としての季節の値、年月日の値、時刻の値、関連する大陸の名前、国の名前、天気の名称等が格納されている。   The matching attributes of the data record 174 in the background table 106 include season, date, time, continent, country, weather, and the like. In these, the background data record stores seasonal values, date values, time values, related continent names, country names, weather names, and the like as attributes.

図2の段落別タグ構造体記憶部132に格納された段落別タグ構造体、及びその段落別タグ構造体に含まれる、一文ごとの文別タグ要素は、既に述べたように、データ検索のためのタグが付された形態素を格納している。それらタグは、データレコード170、172、及び174を構成するマッチング属性のタグと同様の分類となっている。そこで、本実施の形態では、データレコードのマッチング属性の値と、処理中の段落又は文内の形態素のうち、そのマッチング属性と一致するタグが付された形態素の値とが比較される。名称、カテゴリ、マッチング属性等、検索のために設定されている属性の全てにおいて一致したものだけが候補として抽出される。ただし、オブジェクトテーブル108のデータレコード170、動作テーブル110のデータレコード172、及び背景テーブル106のデータレコード174のマッチング属性の値としてNULLが設定されているものについては、比較の対象としない。すなわちこれら属性については常に一致したものと見なす。   As described above, the paragraph tag structure stored in the paragraph tag structure storage unit 132 in FIG. 2 and the sentence tag elements for each sentence included in the paragraph tag structure are as described above. The morpheme to which the tag for is attached is stored. These tags have the same classification as the matching attribute tags that make up the data records 170, 172, and 174. Therefore, in the present embodiment, the value of the matching attribute of the data record is compared with the value of the morpheme with the tag that matches the matching attribute among the morphemes in the paragraph or sentence being processed. Only those that match in all of the attributes set for the search, such as the name, category, and matching attribute, are extracted as candidates. However, those in which NULL is set as the matching attribute value of the data record 170 of the object table 108, the data record 172 of the operation table 110, and the data record 174 of the background table 106 are not compared. In other words, these attributes are always considered to match.

図6(A)に、タグ辞書94の内容の一例を示す。図6を参照して、タグ辞書94は、タグ付けのための規則を格納している。規則の一例は、「品詞=名詞で地名 ⇒場所」というものである。この規則は、「(ある形態素の)品詞が名詞で、属性として地名という形態素タグが形態素解析処理でその形態素に付されている場合には、その形態素に「場所」を表すタグを付する」という意味である。そして、「場所」というタグは、図5(C)に示すように背景テーブル106のデータレコード174のマッチングの際に検査される。   FIG. 6A shows an example of the contents of the tag dictionary 94. Referring to FIG. 6, tag dictionary 94 stores rules for tagging. An example of a rule is "part of speech = noun and place name => place". This rule is that if a part of speech (of a morpheme) is a noun and a morpheme tag called place name is attached to the morpheme in the morpheme analysis process, a tag indicating “location” is attached to the morpheme ” It means that. Then, the tag “location” is inspected when matching the data record 174 of the background table 106 as shown in FIG.

他の規則の例は、「品詞=名詞で国名 ⇒国」というものである。この規則は、「(ある形態素の)品詞が名詞で、属性として国名という形態素タグが形態素解析処理でその形態素に付されている場合には、その形態素に「国」を表すタグを付する」という意味である。このタグについても図5(C)に示すように背景データの検索の際に検査される。   An example of another rule is “part of speech = noun and country ⇒ country”. This rule is “if a part of speech (of a certain morpheme) is a noun and a morpheme tag of country name as an attribute is attached to that morpheme in the morpheme analysis process, a tag indicating“ country ”is attached to that morpheme” It means that. This tag is also inspected when searching for background data as shown in FIG.

図6(B)に、図5に示すデータレコードの優先順位の例を示す。ここでは図5(C)の背景データレコードの優先順位の例を示してある。図6(B)を参照して、この実施の形態では、場所の優先順位が最も高く、次いで国、目的という順序となっている。前述したとおり、複数の背景データレコードが検索された場合、使用頻度とこの優先順位とを複合させた優先順位にしたがって候補を表示する。   FIG. 6B shows an example of the priority order of the data records shown in FIG. Here, an example of the priority order of the background data record in FIG. 5C is shown. Referring to FIG. 6B, in this embodiment, place priority is highest, followed by country and purpose. As described above, when a plurality of background data records are searched, candidates are displayed according to a priority order that combines the use frequency and the priority order.

図7は、図1に示すアニメーションリソース管理システム70のブロック図をリソース群68の一部及びウェブサーバ72とともに示したものである。図7においては、図1のセッション管理システム74の図示は省略してある。   FIG. 7 shows a block diagram of the animation resource management system 70 shown in FIG. 1 together with a part of the resource group 68 and the web server 72. In FIG. 7, the session management system 74 of FIG. 1 is not shown.

図7を参照して、アニメーションリソース管理システム70は、ウェブサーバ72を介してネットワーク上のユーザとの間でHTML書類を用いた通信によって、リソース群記憶部68内に記憶されたオブジェクトテーブル108、背景テーブル106、及び動作テーブル110に新しいリソースを登録する処理を実行するためのものである。なお、アニメーションリソース管理システム70は、ユーザがアニメブログシステム30の管理者である場合には、アニメーションリソースの登録時にユーザからの要求に応じてオントロジ104内にノードを追加登録する機能も持つ。   Referring to FIG. 7, the animation resource management system 70 includes an object table 108 stored in the resource group storage unit 68 through communication using a HTML document with a user on the network via the web server 72. This is for executing processing for registering a new resource in the background table 106 and the operation table 110. The animation resource management system 70 also has a function of additionally registering a node in the ontology 104 in response to a request from the user when registering an animation resource when the user is an administrator of the animation blog system 30.

アニメーションリソース管理システム70は、ユーザから、所望の名称、マッチング属性等の検索条件の入力を受け、オブジェクトテーブル108、背景テーブル106、動作テーブル110から検索条件に合致するレコードを検索して提示するためのレコード検索部200と、オブジェクトテーブル108、背景テーブル106及び動作テーブル110のうちのいずれに情報を登録するかに関する情報をユーザより受け、登録対象のテーブルを決定するための登録テーブル分類部180と、登録テーブル分類部180によって決定されたテーブルについて、新たに登録すべきデータの名称の入力をユーザから受けるための名称入力部182と、名称入力部182により入力された名称に加え、追加すべきレコードのカテゴリ及びマッチング属性の入力を受けるためのカテゴリ・属性入力部184とを含む。カテゴリ・属性入力部184はオントロジ104を参照することにより、オントロジ中に存在するカテゴリ等を表示し、ユーザはその表示を見て、追加するデータの名称のカテゴリを決定できる。   The animation resource management system 70 receives an input of a search condition such as a desired name and a matching attribute from a user, and searches and presents a record that matches the search condition from the object table 108, the background table 106, and the action table 110. A record search unit 200, a registration table classification unit 180 for receiving information on which of the object table 108, the background table 106, and the operation table 110 the information is registered from the user and determining a registration target table; The table determined by the registration table classification unit 180 should be added in addition to the name input unit 182 for receiving input of the name of data to be newly registered from the user and the name input by the name input unit 182 Record categories and matching And a category-attribute input unit 184 for receiving the sex of the input. The category / attribute input unit 184 refers to the ontology 104 to display the categories and the like existing in the ontology, and the user can determine the category of the name of the data to be added by viewing the display.

アニメーションリソース管理システム70はさらに、ウェブサーバ72を介してユーザから登録すべきデータ本体の送信を受け、名称入力部182により入力された名称、カテゴリ・属性入力部184により入力されたカテゴリ及びマッチング属性を用い、新たに登録すべきレコードを作成して出力するためのデータ受信部186と、データ受信部186から出力されるレコードを一時記憶するための一時記憶装置188と、一時記憶装置188に記憶されたレコード中のデータが、オブジェクトテーブル108、背景テーブル106又は動作テーブル110に登録するための所定の条件を充足しているか否かを検査するためのデータ検査部190とを含む。   The animation resource management system 70 further receives a data body to be registered from the user via the web server 72, receives the name input by the name input unit 182, the category input by the category / attribute input unit 184, and the matching attribute Is used to create and output a record to be newly registered, a temporary storage device 188 for temporarily storing a record output from the data reception unit 186, and a temporary storage device 188. And a data inspection unit 190 for inspecting whether or not the data in the recorded record satisfies a predetermined condition for registration in the object table 108, the background table 106, or the action table 110.

アニメーションリソース管理システム70はさらに、データ検査部190によってデータが条件を充足していると判定されたことに応答して、オブジェクトテーブル108、背景テーブル106、動作テーブル110のうちの適切なものに新たなレコードを追加し、場合によってオントロジ104にこのレコードの名称に相当する新たなノードを追加するためのデータ更新部192と、データ検査部190によってレコードに不備があると判定されたことに応答して、ウェブサーバ72を介してユーザにエラーメッセージを出力するためのエラー処理部194とを含む。   The animation resource management system 70 further adds a new one to the object table 108, the background table 106, and the action table 110 in response to the data checking unit 190 determining that the data satisfies the condition. A data update unit 192 for adding a new record and possibly adding a new node corresponding to the name of the record to the ontology 104, and a response to the fact that the data check unit 190 determines that the record is incomplete. And an error processing unit 194 for outputting an error message to the user via the web server 72.

データ更新部192によるオントロジ104へのノードの追加は、ユーザが所定の管理資格を持っている場合に限られる。   The addition of the node to the ontology 104 by the data updating unit 192 is limited to the case where the user has a predetermined management qualification.

図1〜図7に機能的構成をブロック図形式で示したアニメブログシステム30は、コンピュータハードウェアとコンピュータソフトウェアとによって実現可能である。ブログシステム62としては、既存のブログシステムをほぼそのまま利用できる。以下、アニメーション作成システム66及びアニメーションリソース管理システム70を実現するためのコンピュータプログラムの制御構造について説明する。   The animated blog system 30 whose functional configuration is shown in block diagram form in FIG. 1 to FIG. 7 can be realized by computer hardware and computer software. As the blog system 62, an existing blog system can be used almost as it is. Hereinafter, a control structure of a computer program for realizing the animation creation system 66 and the animation resource management system 70 will be described.

なお以下に説明するプログラムは、それぞれ単一のプログラムから構成される場合に限らない。例えばユーザに対してある情報を要求する画面(フォーム)をウェブサーバ72を介して送出するプログラムと、そのフォームに対する返答を受けて処理するプログラムとは、別プログラムであってもよい。   Note that the programs described below are not limited to the case where each is composed of a single program. For example, a program that sends a screen (form) requesting certain information to the user via the web server 72 and a program that receives and processes a response to the form may be different programs.

図8は、アニメーション作成システム66を実現するためのコンピュータソフトウェアの制御構造を示すフローチャートである。図8を参照して、このプログラムは、ユーザにより新たなページが追加されたブログ内の、その追加されたページのテキストを読込むステップ220と、読み込まれたテキストに対し形態素解析、構文解析及び意味解析を行ない、文法的情報、統語的情報、及び意味的情報が付された形態素からなる形態素列を記憶装置に出力し記憶させるステップ222と、このようにして得られた形態素列に対し、タグ辞書94に格納されたルールを適用することにより、各形態素にアニメーション作成のためのタグを付加する処理を行なうステップ223と、得られたタグ付き形態素列の段落の各々に対し、以下のステップ226〜242の処理を繰返し実行することにより、処理対象の文の全段落に対し、段落別タグ構造体を作成するためのステップ224と、このようにして作成された段落別タグ構造体をタグ情報ファイルとして記憶装置に出力するステップ244とを含む。   FIG. 8 is a flowchart showing a control structure of computer software for realizing the animation creating system 66. Referring to FIG. 8, the program reads 220 the text of the added page in the blog to which a new page has been added by the user, and performs morphological analysis, parsing, and analysis on the read text. Performing a semantic analysis, outputting a morpheme sequence consisting of grammatical information, syntactic information, and morpheme to which semantic information is attached to a storage device and storing the morpheme sequence in this way, Applying the rules stored in the tag dictionary 94 to perform processing for adding a tag for creating animation to each morpheme, and the following steps for each of the obtained paragraphs of the tagged morpheme sequence: Steps for creating a tag structure for each paragraph for all paragraphs of a sentence to be processed by repeatedly executing the processes 226 to 242 It includes a 24, and a step 244 for outputting Thus paragraph by tag structures created by the tag information file in the storage device.

ステップ224内で実行される各段落ごとの繰返し処理は、段落別タグ構造体の場面要素の項目を作成するステップ226と、段落内の文の各々に対して以下のステップ230〜240を繰返すステップ228と、ステップ224の繰返し処理の範囲の終了を示すステップ242とを含む。   The iterative process for each paragraph executed in step 224 includes a step 226 for creating a scene element item of the tag structure for each paragraph, and a step for repeating the following steps 230 to 240 for each sentence in the paragraph. 228 and step 242 indicating the end of the range of the iterative processing of step 224.

ステップ228は、処理対象となっている文の主語、述語、目的語、及び修飾語のリストを作成するステップ230と、リストされた各語に対し、以下のステップ234から238を繰返す単語処理ステップ232と、ステップ228による繰返し処理の範囲の終了を示すステップ240とを含む。   Step 228 includes a step 230 of creating a list of subjects, predicates, objects, and modifiers of a sentence to be processed, and a word processing step that repeats the following steps 234 to 238 for each listed word. 232 and step 240 indicating the end of the range of the iterative process in step 228.

単語処理ステップ232は、場面要素内の環境要素を作成するステップ234と、各環境要素のタグを決定するステップ236と、ステップ232による繰返し処理の範囲の終了を示すステップ238とを含む。   The word processing step 232 includes a step 234 for creating an environmental element in the scene element, a step 236 for determining a tag for each environmental element, and a step 238 for indicating the end of the range of the iterative processing by the step 232.

図9は、図2に示す背景検索部144を実現するためのプログラムの制御構造を示すフローチャートである。   FIG. 9 is a flowchart showing a control structure of a program for realizing the background search unit 144 shown in FIG.

図9を参照して、このプログラムは、以下に述べる処理をブログテキスト90内の各段落に対して実行するステップ270を含む。   Referring to FIG. 9, the program includes a step 270 for executing the processing described below for each paragraph in the blog text 90.

すなわち、ステップ270で各段落に対して行なう処理は、背景テーブル106と段落別タグ構造体の場面要素とのマッチングを行なうステップ272を含む。このマッチングでは、背景テーブル内の名称、カテゴリ、マッチング用属性のうち、値がNULLでないもの全てと、段落別タグ構造体内の該当タグ要素に対応する形態素又は形態素群とのマッチングを行ない、全てが一致したもののみを抽出する。背景テーブルの各属性には一つしか要素が指定できないのに対し、段落別タグ構造体では、あるタグ要素に対応する形態素として複数が指定できる。そうした場合には、それら複数の形態素のうち一つでも背景テーブルの対応するマッチング属性の値と一致すれば、その条件は充足されたものとする。   That is, the processing performed for each paragraph in step 270 includes step 272 for matching the background table 106 with the scene element of the tag structure for each paragraph. In this matching, all names, categories, and matching attributes in the background table are matched with the morpheme or morpheme group corresponding to the corresponding tag element in the tag structure in each paragraph, and all of them are matched. Extract only matches. While only one element can be specified for each attribute of the background table, in the tag structure by paragraph, a plurality of elements can be specified as morphemes corresponding to a certain tag element. In such a case, if any one of the plurality of morphemes matches the value of the corresponding matching attribute in the background table, the condition is satisfied.

ステップ270はさらに、ステップ272で検索された背景データを、それらの優先順位とユーザごとの使用頻度とを結合して得られる複合優先順位にしたがって優先順位の高いものから順番に並べ、画面表示用のリストを作成するステップ274と、ステップ274で作成されたリストを背景データ候補リストとして出力するステップ276と、ステップ270による繰り返し処理の範囲の終了を示すステップ278とを含む。   Step 270 further arranges the background data retrieved in step 272 in order from the highest priority according to the composite priority obtained by combining the priority and the usage frequency for each user, and for screen display. Step 274 for creating a list of the above, step 276 for outputting the list created in Step 274 as a background data candidate list, and Step 278 for indicating the end of the range of repetitive processing by Step 270.

図10は、図2に示すオブジェクト検索部146及び動作検索部148の機能を実現するためのプログラムのフローチャートである。図10を参照して、このプログラムは、処理対象の段落内の全ての文に対して以下の処理を繰返すステップ300を含む。   FIG. 10 is a flowchart of a program for realizing the functions of the object search unit 146 and the operation search unit 148 shown in FIG. Referring to FIG. 10, this program includes a step 300 of repeating the following processing for all sentences in the paragraph to be processed.

ステップ300は、処理対象の文に含まれる主語、目的語、修飾語内に含まれる全てのオブジェクトに対し、以下のステップ304〜ステップ310からなるオブジェクトごとの処理を実行するステップ302と、処理対象の文に含まれる述語及び修飾語内に含まれる全ての述語に対し、以下のステップ314〜ステップ320からなる述語ごとの処理を実行するステップ312と、ステップ300の繰返し処理の範囲の終了を示すステップ322とを含む。   Step 300 includes a step 302 for executing processing for each object consisting of the following steps 304 to 310 for all objects included in the subject, object, and modifier included in the sentence to be processed; The step 312 for executing the processing for each predicate consisting of the following steps 314 to 320 for the predicates included in the sentence and the modifier, and the end of the range of the iterative processing in step 300 are shown. Step 322.

ステップ302で実行される、オブジェクトごとの処理は、オブジェクトテーブル108と処理対象の文の環境要素との間のタグのマッチングを行ない、NULL以外の値を含む全てのタグについて環境要素内の値と一致した値を持つオブジェクトテーブルのデータレコードを検索するステップ304と、ステップ304で検索されたデータレコードを、それらの優先順位とユーザによる使用頻度とから算出される複合優先順位にしたがって上位のものから複合優先度順に並べることにより、オブジェクト候補リストを出力するステップ306と、ステップ306で作成されたオブジェクト候補リストを図2に示すオブジェクト候補記憶部152に出力するステップ308と、ステップ302での繰返し処理の範囲の終了を示すステップ310とを含む。   The processing for each object executed in step 302 performs tag matching between the object table 108 and the environment element of the processing target statement, and sets the values in the environment element for all tags including values other than NULL. Step 304 for searching the data record of the object table having the matched value, and the data records searched in step 304 from the top in accordance with the composite priority calculated from the priority and the usage frequency by the user Step 306 for outputting an object candidate list by arranging in order of compound priority, step 308 for outputting the object candidate list created in step 306 to the object candidate storage unit 152 shown in FIG. 2, and repetition processing in step 302 Step 31 indicating the end of the range of Including the door.

一方、ステップ312で実行される述語ごとの処理は、動作テーブル110内のデータレコードのマッチング属性のうち値がNULLでないものと、処理対象の述語から作成された環境要素との間のマッチングを行なって、全ての値が一致したデータレコードを動作候補として検索するためのステップ314と、ステップ314で検索された動作データレコードを、それらの優先順位とユーザによるそのデータレコードの使用頻度とから算出される複合優先順位にしたがって優先度の高いものから順に並べることによって動作候補リストを作成するステップ316と、ステップ316で作成された動作候補リストを図2に示す動作候補記憶部154に出力するステップ318と、ステップ312における繰返し処理の範囲の終了を示すステップ320とを含む。   On the other hand, the processing for each predicate executed in step 312 performs matching between the matching attribute of the data record in the operation table 110 whose value is not NULL and the environment element created from the predicate to be processed. Then, step 314 for searching for a data record that matches all values as an operation candidate, and the operation data record searched in step 314 are calculated from their priority and the frequency of use of the data record by the user. Step 316 for creating an action candidate list by arranging the items in order from the highest priority according to the composite priority order, and Step 318 for outputting the action candidate list created in Step 316 to the action candidate storage unit 154 shown in FIG. And a step indicating the end of the range of the iterative processing in step 312. And a 320.

[動作]
以上に構成を述べたアニメブログシステム30は以下のように動作する。
[Operation]
The animated blog system 30 described above operates as follows.

−ブログシステム−
ブログシステム62による動作は通常のブログ用サーバとほぼ同様である。すなわち、図示しないパソコン及びウェブブラウザを用いてユーザがブログシステム62にログインし、新たな記事を作成する。ユーザがその記事を登録することをウェブサーバ72を介してブログシステム62に要求すると、ブログシステム62はその記事のテキストをブログDB60内に日付及び時刻とともに記録する。ブログシステム62はさらに、そのテキストとブログDB60内におけるそのブログ記事の識別子とをアニメーション作成システム66に与え、アニメーション作成処理を開始させる。
-Blog system-
The operation of the blog system 62 is almost the same as that of a normal blog server. That is, a user logs in to the blog system 62 using a personal computer and a web browser (not shown), and creates a new article. When the user requests the blog system 62 to register the article via the web server 72, the blog system 62 records the text of the article in the blog DB 60 along with the date and time. The blog system 62 further gives the text and the identifier of the blog article in the blog DB 60 to the animation creation system 66 to start the animation creation process.

−アニメーションの作成−
図2を参照して、アニメーション作成システム66の形態素解析処理部120は、ブログシステム62から与えられるブログテキスト(ステップ220)に対し、形態素解析辞書92を用いた形態素解析、構文解析、及び意味解析を行ない、形態素に分割し、品詞タグ、活用型タグ、活用形タグ等の、形態素解析に伴う種々のタグからなる文法的情報、統語的情報、及び意味的情報を付して形態素列を出力する(ステップ222)。この形態素列は形態素列記憶部122に記憶される。
-Creation of animation-
Referring to FIG. 2, the morphological analysis processing unit 120 of the animation creation system 66 performs morphological analysis, syntax analysis, and semantic analysis using the morphological analysis dictionary 92 on the blog text (step 220) given from the blog system 62. Divide into morphemes and output morpheme strings with grammatical information, syntactic information, and semantic information consisting of various tags associated with morphological analysis, such as part-of-speech tags, inflection-type tags, and inflection-type tags (Step 222). This morpheme sequence is stored in the morpheme sequence storage unit 122.

タグ付け処理部124は、形態素解析処理部120による形態素解析が終了すると、形態素列記憶部122から形態素列を一文ごとに読出し、タグ辞書94を参照して、アニメーション作成のためのタグ付きの形態素列を出力する(ステップ223)。タグ付き形態素列はタグ付き形態素列記憶部126に記憶される。   When the morpheme analysis by the morpheme analysis processing unit 120 is completed, the tagging processing unit 124 reads the morpheme sequence for each sentence from the morpheme sequence storage unit 122, refers to the tag dictionary 94, and adds a tagged morpheme for animation creation. The column is output (step 223). The tagged morpheme sequence is stored in the tagged morpheme sequence storage unit 126.

段落処理部130は、タグ付き形態素列記憶部126に記憶されたタグ付き形態素列から一つの段落を取出して段落別タグ構造体134を作成する(ステップ226)。さらにその段落に属する全ての文を一文ずつ読出し、段落別タグ構造体134を作成する(ステップ228−240)。段落処理部130はこの処理を全ての段落に対し繰返す。段落処理部130により作成された一連の段落別タグ構造体134は、タグ情報ファイルとして段落別タグ構造体記憶部132に記憶される(ステップ244)。   The paragraph processing unit 130 extracts one paragraph from the tagged morpheme sequence stored in the tagged morpheme sequence storage unit 126 and creates a paragraph-specific tag structure 134 (step 226). Further, all sentences belonging to the paragraph are read one by one, and a paragraph-specific tag structure 134 is created (steps 228-240). The paragraph processing unit 130 repeats this process for all paragraphs. A series of tag structures 134 by paragraph created by the paragraph processing unit 130 is stored in the tag structure storage unit 132 by paragraph as a tag information file (step 244).

背景検索部144は、段落別タグ構造体記憶部132に記憶された各段落別タグ構造体に含まれる背景関連のタグの値と、背景テーブル106に含まれるデータレコードのうち、名称、カテゴリ、及びマッチング属性のうち値がNULLでないものとのマッチングを行ない、全てが一致した背景データレコードを抽出する(ステップ272)。背景検索部144は、抽出された複数の背景候補の各々に対し、それらデータレコードに対するこのユーザの使用頻度を使用頻度テーブル112から読出し、読出された使用頻度と抽出されたデータレコードの優先順位とからそのデータレコードの複合優先順位を算出する。背景検索部144はさらに、こうして得られた複数の背景候補を、それらの複合優先順が高い順にソートすることで背景候補リストを作成し(ステップ274)、背景候補記憶部150に記憶させる(ステップ276)。   The background search unit 144 includes a value of a background-related tag included in each paragraph tag structure stored in the paragraph tag structure storage unit 132 and a data record included in the background table 106 such as a name, a category, Then, matching is performed with a matching attribute whose value is not NULL, and a background data record in which all the values match is extracted (step 272). The background search unit 144 reads, for each of the extracted plurality of background candidates, the usage frequency of this user for the data records from the usage frequency table 112, and the read usage frequency and the priority order of the extracted data records. To calculate the composite priority of the data record. The background search unit 144 further creates a background candidate list by sorting the plurality of background candidates obtained in this way in descending order of their composite priority (step 274) and stores the background candidate list in the background candidate storage unit 150 (step 274). 276).

一方、一文タグ処理部138は、段落別タグ構造体記憶部132に含まれる各文の環境要素のうち、いずれが処理対象かを示す情報をオブジェクト検索部146及び動作検索部148に与える。   On the other hand, the one-sentence tag processing unit 138 gives information indicating which of the environmental elements of each sentence included in the paragraph-specific tag structure storage unit 132 is a processing target to the object search unit 146 and the action search unit 148.

オブジェクト検索部146は、段落別タグ構造体記憶部132に格納された段落別タグ構造体から、一文タグ処理部138により指定された文内のオブジェクト(主語、目的語、修飾語内の名詞等)に対応する環境要素を読出し、オブジェクトテーブル108内の各データレコードの名称、カテゴリー、及びマッチング用の属性のうち値がNULLでないものとの間で値の比較を行ない、その値が全て一致するオブジェクトデータレコードを検索する(ステップ304)。オブジェクト検索部146は、使用頻度テーブル112に記憶された、検索されたデータレコードのユーザごとの使用頻度と、検索されたデータレコードの優先順位とから複合優先順位を算出し、その複合優先順位番に並べることでオブジェクト候補レコードを作成する(ステップ306)。作成されたオブジェクト候補レコードはオブジェクト候補記憶部152に記憶される(ステップ308)。   The object search unit 146 selects an object (sentence, object, noun in modifier, etc.) in the sentence specified by the single sentence tag processing unit 138 from the tag structure by paragraph stored in the tag structure storage unit 132 by paragraph. ), And compares the values of the name, category, and matching attributes of each data record in the object table 108 with values that are not NULL, and all the values match. The object data record is searched (step 304). The object search unit 146 calculates a composite priority from the use frequency for each user of the searched data record stored in the use frequency table 112 and the priority of the searched data record, and the composite priority number Object candidate records are created by arranging them in a sequence (step 306). The created object candidate record is stored in the object candidate storage unit 152 (step 308).

同様にして、動作検索部148は、段落別タグ構造体記憶部132に格納された段落別タグ構造体から、一文タグ処理部138により指定された文内の各述語に対応する環境要素を読出し、動作テーブル110内の各データレコードの名称、カテゴリー、及びマッチング用の属性のうち値がNULLでないものとの間で値の比較を行ない、その値が全て一致する動作データレコードを検索する(ステップ314)。動作検索部148は、このようにして検索された動作データレコードの全てについて、使用頻度テーブル112に記憶されたこのユーザの使用頻度と、各データレコードに記録されている優先順位とから複合優先順位を算出し、優先順位順に並べることで動作候補リストを作成する(ステップ316)。作成された動作候補リストは、動作候補記憶部154に記憶される(ステップ318)。   Similarly, the motion search unit 148 reads out the environment element corresponding to each predicate in the sentence designated by the single sentence tag processing unit 138 from the paragraph tag structure stored in the paragraph tag structure storage unit 132. The values of the names, categories, and matching attributes of each data record in the action table 110 are compared with those whose values are not NULL, and the action data records whose values all match are retrieved (step) 314). The action search unit 148, for all the action data records searched in this way, combines the user's use frequency stored in the use frequency table 112 and the priority order recorded in each data record. And a motion candidate list is created by arranging them in order of priority (step 316). The created motion candidate list is stored in the motion candidate storage unit 154 (step 318).

選択処理部156は、一文ごとに、背景候補記憶部150に記憶された背景候補リストと、オブジェクト候補記憶部152に記憶されたオブジェクト候補リストと、動作候補記憶部154に記憶された動作候補リストとからそれぞれリストボックスと、利用者に対して候補を選択することを促すテキストとを含むHTML文書(フォーム)を作成し、ウェブサーバ72を介してユーザのパソコンに対し出力する。なおこのとき、背景候補リストの筆頭には、段落の先頭の文に対しては背景検索部144により優先順位が最も高くなったものが示され、それ以後の文に対しては直前の文に対して選択された背景候補が表示される。ユーザがこのフォームから背景候補、オブジェクト候補及び動作候補を選択すると、選択処理部156にその選択結果が返信されてくる。選択処理部156は、ユーザによる選択結果をアニメーション作成部158に与える。   The selection processing unit 156 includes, for each sentence, a background candidate list stored in the background candidate storage unit 150, an object candidate list stored in the object candidate storage unit 152, and a motion candidate list stored in the motion candidate storage unit 154. HTML documents (forms) each including a list box and a text prompting the user to select a candidate are generated and output to the user's personal computer via the web server 72. At this time, the head of the background candidate list shows the sentence having the highest priority for the first sentence in the paragraph by the background search unit 144, and the sentence after that is displayed in the immediately preceding sentence. The selected background candidate is displayed. When the user selects a background candidate, an object candidate, and an action candidate from this form, the selection result is returned to the selection processing unit 156. The selection processing unit 156 gives the selection result by the user to the animation creating unit 158.

アニメーション作成部158は、選択処理部156により与えられる背景候補、動作候補及びオブジェクト候補の値にしたがって、背景テーブル106、オブジェクトテーブル108及び動作テーブル110からそれら候補に対応する背景テーブル、オブジェクトテーブル及び動作テーブルのデータレコードを読出す。アニメーション作成部158は、読出した背景データレコード中の背景パターンにしたがって、背景を作成する。アニメーション作成部158はさらに、一文に含まれる主語及び目的語の各々に対し、このようにして読出されたオブジェクトデータレコードと動作データレコードとを組合せることにより、動き付きのオブジェクト(キャラクタ)のデータを作成する。これらのアニメーションを背景上に重ねることで、処理中の一文に対するアニメーションが作成される。作成されたアニメーションはアニメーション格納・ブログ更新部160に与えられる。   The animation creation unit 158 selects the background table, object table, and motion corresponding to the candidates from the background table 106, the object table 108, and the motion table 110 according to the values of the background candidate, motion candidate, and object candidate given by the selection processing unit 156. Read the data record of the table. The animation creation unit 158 creates a background according to the background pattern in the read background data record. The animation creating unit 158 further combines the object data record and the motion data record read in this way for each of the subject and the object included in one sentence, thereby moving the object (character) data with motion. Create By superimposing these animations on the background, an animation for one sentence being processed is created. The created animation is given to the animation storage / blog update unit 160.

アニメーション格納・ブログ更新部160は、アニメーション作成部158によってブログテキスト90の全ての段落内の、アニメーション化が可能な全ての文に対してアニメーションが作成されると、そのアニメーションのデータを互いに連結してアニメDB64に格納し、あわせて、アニメDB64内の、ブログテキスト90を格納したレコードに、ブログDB60内のそのアニメーションを格納したレコード識別子を記憶させる。   When the animation creation unit 158 creates animations for all sentences that can be animated in all paragraphs of the blog text 90, the animation storage / blog update unit 160 connects the animation data to each other. In addition, the record identifier storing the animation in the blog DB 60 is stored in the record storing the blog text 90 in the animation DB 64.

ブログシステム62は、ブログDB60内のブログページのうち、アニメーションのレコード識別子が格納されたページに対する閲覧要求をウェブサーバ72を介してインターネット32から受信すると、そのページのテキストをブログテキスト表示領域52(図1参照)に、対応するアニメーションをアニメーション表示領域54(図1参照)に、それぞれ表示するためのHTML書類を作成し、閲覧要求を送信してきたパソコンにウェブサーバ72を介して送信する。   When the blog system 62 receives, from the Internet 32 via the web server 72, a browsing request for a blog page in the blog DB 60 that stores an animation record identifier, the blog system 62 displays the text of the page in the blog text display area 52 ( In FIG. 1, HTML documents for displaying the corresponding animations in the animation display area 54 (see FIG. 1) are created and transmitted via the web server 72 to the personal computer that has transmitted the browsing request.

閲覧要求を送信してきたパソコンでは、図1のブログテキスト表示領域52及びアニメーション表示領域54により示されるように、ブログテキストと、そのブログテキストの各文に対して作成されたアニメーションとが表示される。アニメーション表示領域54に表示されるアニメーションは、ユーザの単なるアバターではなく、ブログテキスト表示領域52に表示されるテキストに対応したものとなり、しかもテキストの展開にあわせてその背景、登場するキャラクタ及び動きが変化するアニメーションとなる。したがって、単にアバターのアニメーションを表示させるものと比較してより面白いブログシステムを提供できる。   In the personal computer that has transmitted the browsing request, as shown by the blog text display area 52 and the animation display area 54 in FIG. 1, the blog text and the animation created for each sentence of the blog text are displayed. . The animation displayed in the animation display area 54 corresponds to the text displayed in the blog text display area 52, not just the user's avatar, and the background, characters appearing, and movements in accordance with the development of the text. The animation will change. Therefore, it is possible to provide a more interesting blog system as compared with a simple avatar animation display.

−リソースデータの登録−
一方、ユーザが背景データ、動作データ、又はオブジェクトデータを作成し、図1に示すリソース群記憶部68に登録する際には、アニメーションリソース管理システム70は以下のように動作する。なお、ユーザがこうしたデータを作成するためのツール(いわゆるアニメーションのオーサリングツール)はユーザのパソコンにあってスタンドアロンで動作し、アニメブログシステム30には完成したデータが送信されてくるものとする。
-Registration of resource data-
On the other hand, when the user creates background data, action data, or object data and registers it in the resource group storage unit 68 shown in FIG. 1, the animation resource management system 70 operates as follows. A tool for creating such data (so-called animation authoring tool) on the user's personal computer operates on the user's personal computer, and the completed data is transmitted to the anime blog system 30.

図7を参照して、ユーザがレコード検索部200を呼び出すと、レコード検索部200はユーザとの対話によりデータレコード検索のための条件の入力を受ける。条件が決定すると、レコード検索部200は背景テーブル106、オブジェクトテーブル108及び動作テーブル110のうち、ユーザにより指定されたものから、ユーザにより指定された条件を充足するものを検索し、その一覧をウェブサーバ72を介してユーザに返信する。   Referring to FIG. 7, when the user calls record search unit 200, record search unit 200 receives an input of conditions for data record search through interaction with the user. When the conditions are determined, the record search unit 200 searches the background table 106, the object table 108, and the action table 110 for those satisfying the conditions specified by the user from those specified by the user, A reply is made to the user via the server 72.

このためのプログラムは、条件入力のためのHTML書類(フォーム)を生成して出力するためのものと、ユーザからの入力を受けてその内容をチェックし、誤りがなければテーブルを検索して結果を一覧表示するためのものとでよい。好ましくは、一覧表示からデータの詳細な内容を見ることができるようにしておくことが望ましい。   The program for this purpose is to generate and output an HTML document (form) for condition input, and to check the contents upon receiving input from the user. Can be used for displaying a list. Preferably, it is desirable to be able to see the detailed contents of the data from the list display.

もしもこの検索の結果、好ましいリソース(例えばオブジェクト)が見つからない場合には、利用者は自分のパソコンでそうしたリソースデータを作成し、以下のようにしてリソース群記憶部68内の適切なテーブルに登録する。   If a preferable resource (for example, an object) is not found as a result of this search, the user creates such resource data on his / her personal computer and registers it in an appropriate table in the resource group storage unit 68 as follows. To do.

まず、ユーザは、登録テーブル分類部180を用いて、どのテーブルにリソースを登録するかを特定する。続いて、名称入力部182によって、選択されたテーブルにこれから登録しようとするリソース(オブジェクト、背景、動作等)の名称を入力する。名称入力部182は、入力された名称を、登録対象のテーブル名とともにカテゴリ・属性入力部184に与える。カテゴリ・属性入力部184は、指定されたテーブル名のレコード情報を用い、カテゴリ、マッチング属性等を入力させる画面を作成し、ユーザのパソコンに送信する。結果の情報はユーザのパソコンからウェブサーバ72を介してカテゴリ・属性入力部184に返信される。カテゴリ・属性入力部184は、登録対象のテーブル名、登録対象としてユーザにより指定された名称、並びにユーザにより指定されたレコードのカテゴリ及びマッチング属性の値をデータ受信部186に与える。   First, the user uses the registration table classification unit 180 to specify in which table the resource is registered. Subsequently, the name input unit 182 inputs the name of the resource (object, background, operation, etc.) to be registered in the selected table. The name input unit 182 gives the input name to the category / attribute input unit 184 together with the table name to be registered. The category / attribute input unit 184 uses the record information of the specified table name to create a screen for inputting a category, a matching attribute, etc., and transmits it to the user's personal computer. Result information is returned from the user's personal computer to the category / attribute input unit 184 via the web server 72. The category / attribute input unit 184 gives the data receiving unit 186 the table name to be registered, the name specified by the user as the registration target, and the category and matching attribute value of the record specified by the user.

データ受信部186は、ウェブサーバ72を介してリソースを構成するデータをアニメーションリソース管理システム70にアップロードさせるためのフォームをウェブサーバ72を介してユーザのパソコンに送信させる。ユーザがこのフォームに応じてリソースを構成するデータを送信すると、そのリソースのデータと、登録対象テーブル名、リソース名、カテゴリ、マッチング属性等とによってリソースデータレコードのための情報が作成され、一時記憶装置188に保持される。   The data reception unit 186 transmits a form for uploading data constituting the resource to the animation resource management system 70 via the web server 72 to the user's personal computer via the web server 72. When the user sends the data constituting the resource according to this form, information for the resource data record is created based on the data of the resource and the registration target table name, resource name, category, matching attribute, etc., and is temporarily stored. Held in device 188.

データ検査部190は、一時記憶装置188に保持された情報について、その内容をチェックし、指定されたテーブルにリソースデータを登録してよいか否か、エラーがないか否かを判定する。エラーがある場合には、データ検査部190はその旨の信号をエラー処理部194に与え、エラーがない場合にはリソースデータの登録を依頼する信号をデータ更新部192に与える。   The data checking unit 190 checks the content of the information stored in the temporary storage device 188 and determines whether or not the resource data can be registered in the specified table and whether or not there is an error. If there is an error, the data checking unit 190 gives a signal to that effect to the error processing unit 194, and if there is no error, gives a signal requesting registration of resource data to the data updating unit 192.

エラー処理部194は、エラーがあった旨のメッセージを表示するためのHTML書類を作成し、ウェブサーバ72を介してユーザのパソコンに送信する。この場合、本実施の形態では、登録テーブル分類部180の処理から繰返す。   The error processing unit 194 creates an HTML document for displaying a message that an error has occurred, and transmits the HTML document to the user's personal computer via the web server 72. In this case, in this embodiment, the process is repeated from the registration table classification unit 180.

一方、データ更新部192は、データ検査部190から登録を依頼する信号が与えられると、背景テーブル106、オブジェクトテーブル108、動作テーブル110のいずれかユーザに指定されたテーブルに、ユーザにより送信されたリソースデータを、ユーザにより指定された名称、カテゴリ、マッチング属性とともに登録する。この場合、優先順位として、任意の値を登録すればよい。優先順位を例えばカテゴリ・属性入力部184においてユーザに入力させるという実装もあり得る。   On the other hand, when the data update unit 192 receives a signal for requesting registration from the data inspection unit 190, the data update unit 192 transmits the signal to the table designated by the user among the background table 106, the object table 108, and the operation table 110. Register resource data with name, category and matching attributes specified by the user. In this case, an arbitrary value may be registered as the priority order. There may be an implementation in which the user inputs the priority order in the category / attribute input unit 184, for example.

ユーザが所定の権限を有している場合には、上記したのと同様の処理をオントロジ104に対しても実行することが可能である。   When the user has a predetermined authority, the same processing as described above can be executed for the ontology 104.

以上のように本実施の形態に係るアニメブログシステム30によれば、複数の文を含むテキストがブログに入力されると、そのテキストに基づき、そのテキストの内容に相応しいアニメーションがほぼ自動的に作成される。ユーザは、提示されるリストの中からテキストの内容に特に相応しいと思われる候補をそれぞれ選択するだけでよい。その結果、複数の文を含むテキストの内容に相応しいアニメーションをテキストとともに提供可能なアニメブログシステムを提供することができる。   As described above, according to the anime blog system 30 according to the present embodiment, when a text including a plurality of sentences is input to the blog, an animation suitable for the content of the text is almost automatically created based on the text. Is done. The user need only select each candidate from the presented list that seems to be particularly suitable for the content of the text. As a result, it is possible to provide an animated blog system that can provide animation suitable for the content of text including a plurality of sentences together with the text.

<第2の実施の形態>
[構成]
上記した第1の実施の形態では、ブログのテキストからアニメーションを一度に作成している。しかし本発明はそのような実施の形態には限定されない。一文ごとに、主語、述語及び目的語を指定して文を作成するとともにそれに対応するアニメーションを作成することもできる。図11に、そのための画面の例を示す。
<Second Embodiment>
[Constitution]
In the first embodiment described above, animation is created from the blog text at once. However, the present invention is not limited to such an embodiment. For each sentence, a subject, a predicate, and an object can be designated to create a sentence and an animation corresponding to the sentence can be created. FIG. 11 shows an example of a screen for that purpose.

図11を参照して、この画面340は、場面を指定する語を入力するためのフィールド350と、文の主語、目的語、述語を入力するためのフィールド352、354及び356と、フィールド350,352,354及び356に入力された単語に基づいて、第1の実施の形態に関連して前述したオントロジ104、背景テーブル106、オブジェクトテーブル108及び動作テーブル110からそれぞれの候補を検索することを指示するための検索ボタン358と、検索された背景候補、主語及び目的語のオブジェクト候補、並びに動作候補をサムネール形式で表示し、ユーザに所望の候補を選択させるためのタブ表示領域360と、タブ表示領域360の表示を背景、主語、目的語、述語の間で切替えるためのタブ362,364,366及び368とを含む。   Referring to FIG. 11, this screen 340 includes a field 350 for inputting a word for designating a scene, fields 352, 354 and 356 for inputting a subject, an object, and a predicate of a sentence, Instructed to search each candidate from the ontology 104, background table 106, object table 108 and action table 110 described above in relation to the first embodiment based on the words input to 352, 354 and 356 A search button 358 for performing the search, a tab display area 360 for displaying the searched background candidates, object candidates for the subject and object, and motion candidates in a thumbnail format, and allowing the user to select a desired candidate, and a tab display. Tabs 362, 364, and 3 for switching the display of the area 360 among background, subject, object, and predicate. And a 6 and 368.

画面340はさらに、選択されたオブジェクトデータと動作データとを組合せて得られたアニメーションと、選択された背景データから得られた背景画像とを重ねて表示することで作成されたアニメーションを表示するためのアニメーション表示領域380と、フィールド352,354,356により入力された単語で形成される文を順次表示するテキスト領域382と、テキスト及びアニメーションの作成が全て完了したときにユーザがこれらテキストとアニメーションとをブログに登録することを指示するために使用する登録ボタン384と、一文に相当するアニメーションが完成したときにユーザが操作するOKボタン386とを含む。   The screen 340 further displays an animation created by superimposing an animation obtained by combining the selected object data and motion data and a background image obtained from the selected background data. An animation display area 380, a text area 382 that sequentially displays sentences formed by the words input in the fields 352, 354, and 356, and when the creation of the text and animation is completed, the user can edit the text and animation. A registration button 384 used for instructing to register the URL to the blog, and an OK button 386 operated by the user when an animation corresponding to one sentence is completed.

入力された文に対する形態素解析、タグ付け、データレコードの検索等は第1の実施の形態と同様である。したがってここではそれらについての詳細は繰返さない。   Morphological analysis, tagging, data record search, etc. for the input sentence are the same as in the first embodiment. Therefore, details thereof will not be repeated here.

図12は、図11に示す画面340を用いて文を入力し、アニメーションを作成するためのプログラムの制御構造を示すフローチャートである。図12を参照して、このプログラムは、図11に示すフィールドから一文の入力を受けるステップ400と、ステップ400において、一文ではなく登録ボタン384が操作されたか否かを判定し、登録ボタン384が操作された場合には後述するステップ424に、それ以外の場合には後述するステップ404に、それぞれ処理を分岐させるためのステップ402とを含む。   FIG. 12 is a flowchart showing a control structure of a program for inputting a sentence using screen 340 shown in FIG. 11 and creating an animation. Referring to FIG. 12, this program receives a single sentence input from the field shown in FIG. 11, and determines whether or not a registration button 384 is operated instead of a single sentence in step 400. If the operation is performed, step 424 described later includes step 402 for branching the processing to step 404 described later otherwise.

このプログラムはさらに、ステップ402において登録ボタン384が操作されたのではなく一文の入力が行なわれたと判定された場合に、入力された一文に対し、形態素解析、構文解析及び意味解析を行なうステップ404と、ステップ404の処理により得られた形態素列に対し、第1の実施の形態と同様のタグ付け処理を行なうためのステップ406と、入力された一文の主語、目的語及び修飾語に対するオブジェクトデータ、並びに述語及び修飾語に対する動作データの候補をタグを使用して検索し、リストを作成するステップ408と、段落内の背景関連のタグに基づいて背景データの候補を検索し、リストを作成するステップ410とを含む。   The program further performs a morphological analysis, a syntactic analysis, and a semantic analysis on the inputted sentence when it is determined in step 402 that the registration button 384 is not operated but a sentence is inputted. Step 406 for performing tagging processing similar to that of the first embodiment on the morpheme string obtained by the processing of step 404, and object data for the inputted subject, object, and modifier of one sentence 408, and a list of motion data candidates for predicates and modifiers is searched using a tag to create a list, and a list of background data candidates is searched based on background-related tags in a paragraph to create a list. Step 410 is included.

ステップ408での処理の結果、図11に示すタブ表示領域360には、選択されているタブに応じ、各データの特徴を表すサムネールボタンが表示される。任意のサムネールボタンを押すことにより、ユーザは所望の背景データ、オブジェクトデータ、動作データを選択できる。   As a result of the processing in step 408, thumbnail buttons representing the characteristics of each data are displayed in the tab display area 360 shown in FIG. 11 according to the selected tab. By pressing an arbitrary thumbnail button, the user can select desired background data, object data, and motion data.

このプログラムはさらに、ステップ408及び410により得られたリストにしたがい、表示されているタブに応じた候補のサムネールボタンをタブ表示領域360に表示し、デフォルトとしてリストの先頭のデータを選択するステップ412と、選択されたオブジェクトデータ及び動作データを組合せて得られたキャラクタ等のアニメーションを、選択された背景データと合成しアニメーション表示領域380に表示するステップ414と、アニメーション表示領域380に表示されたアニメーションに対しユーザが操作したボタンがタブ表示領域360上の任意のタブのサムネールボタンかを判定し、判定結果がYESの場合には処理をステップ414に分岐させ、他の場合には次の処理に進むステップ416とを含む。   This program further displays candidate thumbnail buttons corresponding to the displayed tabs in the tab display area 360 according to the list obtained in steps 408 and 410, and selects the top data of the list as a default step 412. And a step 414 for combining the selected object data and motion data with the selected background data and displaying it in the animation display area 380, and an animation displayed in the animation display area 380. On the other hand, it is determined whether the button operated by the user is a thumbnail button of an arbitrary tab on the tab display area 360. If the determination result is YES, the process branches to step 414; otherwise, the next process is performed. And step 416.

このプログラムはさらに、ステップ416でサムネールが操作されたのではないと判定されたときに、フィールド350、352、354及び356のいずれかを用いた一文入力が再度行なわれたか否かを判定し、判定結果にしたがって処理を分岐させるステップ418を含む。ステップ418では、一文入力が行なわれた場合にはステップ404に処理を分岐させ、それ以外の場合には次のステップ420の処理に移る。   The program further determines whether a single sentence input using any of the fields 350, 352, 354, and 356 has been performed again when it is determined in step 416 that the thumbnail has not been manipulated; Step 418 is included that branches the process according to the determination result. In step 418, if one sentence is input, the process branches to step 404. Otherwise, the process proceeds to the next step 420.

このプログラムはさらに、ステップ418で一文入力と判定されたときに、OKボタン386が操作されたか否かを判定し、OKボタン386が操作された場合には次のステップ422に、それ以外の場合にはステップ414に、処理を分岐させるためのステップ420と、ステップ420においてOKボタン386が操作されたと判定されたことに応答し、テキスト領域382に、入力された一文を追加し、入力された一文のテキスト、及びそのテキストに基づいて作成されたアニメーションを一時記憶に追加した後、ステップ400に制御を戻すためのステップ422とを含む。   The program further determines whether or not the OK button 386 has been operated when it is determined in step 418 that a single sentence has been input. If the OK button 386 has been operated, the program proceeds to the next step 422. In step 414, in response to determining that the OK button 386 has been operated in step 420 for branching the processing in step 420, the input sentence is added to the text area 382 and input. And step 422 for returning control to step 400 after adding a sentence of text and an animation created based on the text to temporary storage.

このプログラムはさらに、ステップ402において登録ボタン384が押されたと判定されたことに応答して、それまでに一時記憶に蓄積されていたブログテキストをブログに登録し、同様に蓄積されていたアニメーションを、ブログ及びブログ内のこの記事と対応付けてアニメDBに登録するステップ424を含む。   In response to determining that the registration button 384 has been pressed in step 402, the program registers the blog text that has been temporarily stored in the blog so far, and displays the animation that has been stored in the same manner. And a step 424 of registering in the animation DB in association with the blog and this article in the blog.

[動作]
第2の実施の形態にかかるブログシステムは以下のように動作する。ブログの管理ユーザがブログにアクセスし、記事の追加を選択すると、図11に示される画面340がユーザのパソコンに表示される。この画面を表示するためのHTML書類は、ウェブサーバ及びブログシステムにより作成され、ウェブサーバを介してユーザのパソコンに送信されてくる。
[Operation]
The blog system according to the second embodiment operates as follows. When the blog management user accesses the blog and selects to add an article, a screen 340 shown in FIG. 11 is displayed on the user's personal computer. An HTML document for displaying this screen is created by a web server and a blog system, and transmitted to the user's personal computer via the web server.

ユーザが領域350,352,354,356を利用して一文の背景、主語、目的語及び述語を指定すると、その主語、目的語及び述語からなる一文が形態素解析され(ステップ404)、さらにアニメーション作成のためのタグ付けがされる(ステップ406)。このタグに基づき、第1の実施の形態と同様に、背景データの候補、主語を構成するオブジェクトデータの候補、目的語を構成するオブジェクトデータの候補、及び述語を構成する動作データの候補がアニメーションリソース内の背景テーブル、オブジェクトテーブル、動作テーブル等から検索され、それら候補により、背景、主語、目的語及び述語の候補のリストが作成される(ステップ408及び410)。   When the user specifies the background, subject, object, and predicate of a sentence using the areas 350, 352, 354, and 356, a sentence composed of the subject, object, and predicate is analyzed (step 404), and animation is created. Is tagged (step 406). Based on this tag, as in the first embodiment, background data candidates, object data candidates constituting the subject, object data candidates constituting the object, and motion data candidates constituting the predicate are animated. A background table, an object table, an action table, and the like in the resource are searched, and a list of candidates for the background, subject, object, and predicate is created based on the candidates (steps 408 and 410).

タブ表示領域360には、タブ362〜368のうち、そのとき選択されているタブに対応するリストに含まれるデータの代表画像からなるサムネールボタンが配列され表示される。先頭のデータがデフォルトのデータとして選択される(ステップ412)。   In the tab display area 360, thumbnail buttons including representative images of data included in the list corresponding to the tab selected at that time among the tabs 362 to 368 are arranged and displayed. The leading data is selected as default data (step 412).

この状態で、選択されている候補を組合せることによりアニメーションが作成され、アニメーション表示領域380に表示される(ステップ414)。   In this state, an animation is created by combining the selected candidates and displayed in the animation display area 380 (step 414).

続いて、ユーザがいずれかのサムネールを押すと(ステップ416においてYES)そのサムネールに対応する候補が選択されたものとして、再度アニメーションを作成し表示する(ステップ414)。なお、タブ362,364,366,368のいずれかを押す操作が行なわれた場合には単にタブ表示領域360の表示内容を変更するものとする。   Subsequently, when the user presses one of the thumbnails (YES in step 416), an animation is again created and displayed on the assumption that a candidate corresponding to the thumbnail has been selected (step 414). Note that when an operation of pressing any of the tabs 362, 364, 366, and 368 is performed, the display contents of the tab display area 360 are simply changed.

ユーザがタブを押さず、図11に示すフィールド350,352,354,356を操作すると、一文が入力しなおされたものと見なし、処理はステップ404に戻る。OKボタン386が押されたと判定された場合には(ステップ420でYES)、入力された一文がテキスト領域382に追加表示され、その一文と、そのときにアニメーション表示領域380に表示されていたアニメーションのデータとが、図示しない一時記憶領域に追加記憶される。この後、ステップ400に戻り、次の一文の入力を待機する状態となる。   If the user does not press the tab and operates the fields 350, 352, 354, and 356 shown in FIG. 11, it is considered that one sentence has been input again, and the process returns to step 404. If it is determined that the OK button 386 has been pressed (YES in step 420), the input sentence is additionally displayed in the text area 382, and the sentence and the animation displayed in the animation display area 380 at that time are displayed. Are additionally stored in a temporary storage area (not shown). After this, the process returns to step 400 and waits for input of the next sentence.

一文の入力を待機している状態でユーザが登録ボタン384を押すと、図12においてステップ402での判定結果がYESとなり、ステップ424の処理が実行される。ステップ424では、これまでの処理で一時記憶領域に蓄積されていたテキストがブログの追加ページのテキストとしてブログに登録され、同様に一時記憶領域に蓄積されていたアニメーションデータがアニメDBに登録される。ブログに追加されたページには、対応のアニメDBのデータレコードの識別子が記録される。   If the user presses the registration button 384 while waiting for the input of one sentence, the determination result in step 402 in FIG. 12 is YES, and the processing in step 424 is executed. In step 424, the text accumulated in the temporary storage area in the previous processing is registered in the blog as the text of the additional page of the blog, and the animation data accumulated in the temporary storage area is similarly registered in the animation DB. . On the page added to the blog, the identifier of the data record of the corresponding animation DB is recorded.

こうした処理により、第1の実施の形態と同様、このブログのページに対する閲覧要求が受信されると、そのページのテキストとともに、対応のアニメーションを表示するためのHTML文書が作成され、閲覧要求を送信してきたパソコンに送信される。その結果、第1の実施の形態と同様、図1に示すようにブログのテキストとともに、そのテキストの内容に相応しいアニメーションが表示される。アニメーションの作成には、既に述べたように特別なスキルは必要なく、誰にでも容易にテキストの内容に相応しいアニメーションを作成することができる。   As a result of this processing, as in the first embodiment, when a browsing request for this blog page is received, an HTML document for displaying the corresponding animation is created along with the text of the page, and the browsing request is transmitted. Sent to the PC that has been sent. As a result, as in the first embodiment, an animation suitable for the content of the text is displayed together with the text of the blog as shown in FIG. As described above, no special skill is required to create an animation, and anyone can easily create an animation suitable for the content of the text.

この第2の実施の形態でも、第1の実施の形態と同様、動作データ、オブジェクトデータ、背景データのいずれでもユーザによって追加可能とする。そのためのシステムは第1の実施の形態に関連して説明したものと同じものを使用すればよい。   In the second embodiment, as in the first embodiment, any of operation data, object data, and background data can be added by the user. The same system as that described in connection with the first embodiment may be used.

[コンピュータによる実現]
既に述べたように、上記第1の実施の形態も第2の実施の形態も、コンピュータハードウェアと、そのコンピュータハードウェアにより実行されるプログラムとにより実現することができる。図13に、上記した実施の形態に係るアニメブログシステムを実現するための一般的なコンピュータシステム450の外観を示し、図14にこのコンピュータシステム450の内部構成をブロック図形式で示す。
[Realization by computer]
As described above, both the first embodiment and the second embodiment can be realized by computer hardware and a program executed by the computer hardware. FIG. 13 shows an external appearance of a general computer system 450 for realizing the anime blog system according to the above-described embodiment, and FIG. 14 shows an internal configuration of the computer system 450 in a block diagram form.

図13を参照して、コンピュータシステム450は、コンピュータ460と、いずれもコンピュータ460に接続されるモニタ462、キーボード466、マウス468、マイクロホン490及び一対のスピーカ458とを含む。コンピュータ460には、DVD(Digital Versatile Disc)の再生及び記録が可能なDVDドライブ470と、所定の規格に従った半導体メモリ記憶装置が装着可能なメモリポート472とが備えられている。コンピュータ460の内部構成については図14を参照して後述する。   Referring to FIG. 13, a computer system 450 includes a computer 460, a monitor 462, a keyboard 466, a mouse 468, a microphone 490, and a pair of speakers 458 that are all connected to the computer 460. The computer 460 includes a DVD drive 470 capable of reproducing and recording a DVD (Digital Versatile Disc), and a memory port 472 into which a semiconductor memory storage device according to a predetermined standard can be mounted. The internal configuration of the computer 460 will be described later with reference to FIG.

図14を参照して、コンピュータ460は、図13に示すDVDドライブ470及びメモリポート472に加え、CPU(中央演算処理装置)476と、CPU476に接続されたバス486と、いずれもバス486に接続されたROM(読出専用メモリ)478、RAM(ランダムアクセスメモリ)480、ハードディスク474、インターネット等のネットワーク上の他の通信装置との間のデータ通信機能を提供するネットワークインタフェース496、及びサウンドボード488を含む。   Referring to FIG. 14, in addition to DVD drive 470 and memory port 472 shown in FIG. 13, computer 460 has a CPU (Central Processing Unit) 476 and a bus 486 connected to CPU 476, both connected to bus 486. A ROM (Read Only Memory) 478, a RAM (Random Access Memory) 480, a hard disk 474, a network interface 496 for providing a data communication function with other communication devices on the network such as the Internet, and a sound board 488. Including.

DVDドライブ470には、DVD482が装着される。メモリポート472には半導体メモリ記憶装置484が装着される。CPU476は、バス486並びにDVDドライブ470及びメモリポート472をそれぞれ介して、DVD482及びメモリ484をアクセスできる。   A DVD 482 is attached to the DVD drive 470. A semiconductor memory storage device 484 is attached to the memory port 472. CPU 476 can access DVD 482 and memory 484 via bus 486 and DVD drive 470 and memory port 472, respectively.

キーボード466、マウス468、モニタ462はいずれも図示しないインタフェースを介してコンピュータ460のバス486に接続される。スピーカ458及びマイクロホン490は、サウンドボード488に接続される。   The keyboard 466, mouse 468, and monitor 462 are all connected to the bus 486 of the computer 460 via an interface not shown. The speaker 458 and the microphone 490 are connected to the sound board 488.

上記第1の実施の形態との関連で述べたリソース群記憶部68、形態素列記憶部122、タグ付き形態素列記憶部126、段落別タグ構造体記憶部132等は、RAM480、ハードディスク474、DVDディスク482、半導体メモリ記憶装置484のいずれでも実現できる。実際には、格納するデータの容量、読出し、書込みに要求される速度等によって、最も効率のよい記憶装置が各記憶部を実現するために選択される。   The resource group storage unit 68, the morpheme sequence storage unit 122, the tagged morpheme sequence storage unit 126, the paragraph-specific tag structure storage unit 132, etc. described in relation to the first embodiment are the RAM 480, the hard disk 474, the DVD Any of the disk 482 and the semiconductor memory storage device 484 can be realized. Actually, the most efficient storage device is selected to realize each storage unit depending on the capacity of data to be stored, the speed required for reading and writing, and the like.

上記した第1及び第2の実施の形態に係るアニメブログシステムを実現するためのコンピュータプログラムは、単一のプログラムでもよいし、複数のプログラムを組合せたものでもよい。特に、上記した各部の機能のうち、ウェブサーバ72及びセッション管理システム74については、既に広く流布しているプログラムをそのまま使用できる。もちろん、これらプログラムは汎用に作成されているため、適切な調整を行なうことは要求されるが、それらはこの技術分野における通常の知識を持つ者にとっては、目的に照らして容易に実現できる範囲に留まる。   The computer program for realizing the anime blog system according to the first and second embodiments described above may be a single program or a combination of a plurality of programs. In particular, among the functions of each unit described above, for the web server 72 and the session management system 74, programs that have already been widely distributed can be used as they are. Of course, since these programs are created for general use, it is necessary to make appropriate adjustments, but for those who have ordinary knowledge in this technical field, they are within the range that can be easily realized according to the purpose. stay.

また図1に示すブログシステム62は既存のブログシステムをほぼそのまま流用することができる。必要な改変は、テキストの入力が完了した時点でアニメーション作成システム66を起動することと、ブログページの閲覧要求を受信したときに、ブログのテキストだけでなく、対応するアニメーションをアニメDB64において検索して表示するように設定されたHTML書類を作成するようにする点だけである。   The blog system 62 shown in FIG. 1 can use an existing blog system almost as it is. The necessary modification is that the animation creation system 66 is activated when the input of the text is completed, and when the browse request for the blog page is received, not only the text of the blog but also the corresponding animation is searched in the animation DB 64. The only point is that an HTML document set to be displayed is created.

今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味および範囲内でのすべての変更を含む。   The embodiment disclosed herein is merely an example, and the present invention is not limited to the above-described embodiment. The scope of the present invention is indicated by each of the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are intended. Including.

本発明の第1の実施の形態に係るアニメブログシステム30の構成を示すブロック図である。It is a block diagram which shows the structure of the animation blog system 30 which concerns on the 1st Embodiment of this invention. アニメブログシステム30のアニメーション作成システム66及びリソース群記憶部68の構成を示すブロック図である。3 is a block diagram showing a configuration of an animation creation system 66 and a resource group storage unit 68 of the anime blog system 30. FIG. 段落別タグ構造体134の構成を模式的に示す図である。It is a figure which shows typically the structure of the tag structure 134 according to a paragraph. オントロジテーブル104の構成を模式的に示す図である。FIG. 3 is a diagram schematically showing a configuration of an ontology table 104. オブジェクトテーブル108、動作テーブル110、及び背景テーブル106のデータレコード170,172及び174の構成を示す模式図である。It is a schematic diagram which shows the structure of the data record 170,172 and 174 of the object table 108, the operation table 110, and the background table 106. FIG. タグ付け規則及び背景データの優先順位の例を示す模式図である。It is a schematic diagram which shows the example of the priority of a tagging rule and background data. アニメーションリソース管理システム70の構成を示すブロック図である。3 is a block diagram showing a configuration of an animation resource management system 70. FIG. アニメーション作成システム66を実現するコンピュータプログラムの制御構造を示すブローチャートである。It is a blow chart which shows the control structure of the computer program which implement | achieves the animation production system 66. 背景検索部144を実現するためのプログラムの制御構造を示すフローチャートである。It is a flowchart which shows the control structure of the program for implement | achieving the background search part 144. オブジェクト検索部146及び動作検索部148の機能を実現するためのプログラムのフローチャートである。It is a flowchart of the program for implement | achieving the function of the object search part 146 and the operation | movement search part 148. 本発明の第2の実施の形態に係るアニメブログシステムにより表示されるアニメーション作成画面を示す模式図である。It is a schematic diagram which shows the animation creation screen displayed by the animation blog system which concerns on the 2nd Embodiment of this invention. 第2の実施の形態に係るアニメブログシステムのアニメーション作成システムを実現するためのコンピュータプログラムのフローチャートである。It is a flowchart of the computer program for implement | achieving the animation production system of the animation blog system which concerns on 2nd Embodiment. 本発明の実施の形態に係るアニメブログシステムを実現するための一般的なコンピュータシステムの正面図である。1 is a front view of a general computer system for realizing an anime blog system according to an embodiment of the present invention. 図13に示すコンピュータシステムの内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the computer system shown in FIG.

符号の説明Explanation of symbols

30 アニメブログシステム
32 インターネット
40 パソコン
60 ブログDB
62 ブログシステム
64 アニメDB
66 アニメーション作成システム
68 リソース群記憶部
70 アニメーションリソース管理システム
72 ウェブサーバ
74 セッション管理システム
90 ブログテキスト
92 形態素解析辞書
94 タグ辞書
96 言語リソースDB
98 リソースDB
102 シソーラス
104 オントロジ
106 背景テーブル
108 オブジェクトテーブル
110 動作テーブル
112 使用頻度テーブル
120 形態素解析処理部
124 タグ付け処理部
130 段落処理部
134 段落別タグ構造体
136 環境要素
138 一文タグ処理部
144 背景検索部
146 オブジェクト検索部
148 動作検索部
156 選択処理部
158 アニメーション作成部
160 アニメーション格納・ブログ更新部
180 登録テーブル分類部
182 名称入力部
184 カテゴリ・属性入力部
186 データ受信部
188 一時記憶装置
190 データ検査部
192 データ更新部
194 エラー処理部
200 レコード検索部
30 Anime Blog System 32 Internet 40 PC 60 Blog DB
62 Blog System 64 Anime DB
66 Animation creation system 68 Resource group storage unit 70 Animation resource management system 72 Web server 74 Session management system 90 Blog text 92 Morphological analysis dictionary 94 Tag dictionary 96 Language resource DB
98 Resource DB
102 Thesaurus 104 Ontology 106 Background Table 108 Object Table 110 Operation Table 112 Usage Frequency Table 120 Morphological Analysis Processing Unit 124 Tagging Processing Unit 130 Paragraph Processing Unit 134 Paragraph Tag Structure 136 Environment Element 138 Single-Sentence Tag Processing Unit 144 Background Search Unit 146 Object search unit 148 Motion search unit 156 Selection processing unit 158 Animation creation unit 160 Animation storage / blog update unit 180 Registration table classification unit 182 Name input unit 184 Category / attribute input unit 186 Data reception unit 188 Temporary storage device 190 Data inspection unit 192 Data update unit 194 Error processing unit 200 Record search unit

Claims (6)

ユーザによるテキストの入力を受けるためのテキスト入力手段と、
前記テキスト入力手段を介して入力されたテキストに基づき、当該テキストの内容と関連するアニメーションを生成するためのアニメーション生成手段と、
前記アニメーション生成手段により生成されたアニメーションを、前記テキスト入力手段を介して入力された前記テキストと関連付けて記憶するための記憶手段と、
ネットワークに接続され、当該ネットワークに接続された他の通信装置とデータ通信を行なうためのデータ通信手段と、
前記データ通信手段を介して前記ネットワークから前記記憶手段に記憶されたテキストのいずれかの閲覧要求を受けたことに応答して、当該テキストと、当該テキストに関連付けて前記記憶手段に記憶されていたアニメーションとを前記閲覧要求を送信して来た通信装置に前記データ通信手段を介して送信するための送信手段とを含む、テキスト及びアニメーションサービス装置。
A text input means for receiving text input by the user;
Animation generating means for generating an animation related to the content of the text based on the text input via the text input means;
Storage means for storing the animation generated by the animation generation means in association with the text input via the text input means;
A data communication means connected to the network and for performing data communication with other communication devices connected to the network;
In response to receiving a browsing request for any of the text stored in the storage unit from the network via the data communication unit, the text and the text are stored in the storage unit in association with the text. A text and animation service device, including a transmission means for transmitting animation via the data communication means to a communication device that has transmitted the browsing request.
前記アニメーション生成手段は、
アニメーションを生成するために使用されるリソースを記憶するためのリソース記憶手段と、
前記テキスト入力手段を介して入力されたテキストに基づき、当該テキストの内容と関連するリソースを前記リソース記憶手段から検索し、検索されたリソースを組合せてアニメーションを生成するための手段とを含み、
前記テキスト及びアニメーションサービス装置は、前記データ通信手段を介して前記ネットワーク上のユーザからアニメーションを生成するために使用されるリソースの送信を受け、前記リソース記憶手段に追加するためのリソース追加手段をさらに含む、請求項1に記載のテキスト及びアニメーションサービス装置。
The animation generating means includes
Resource storage means for storing resources used to generate the animation;
Means for retrieving a resource associated with the content of the text from the resource storage means based on the text input via the text input means, and generating an animation by combining the retrieved resources;
The text and animation service device further includes resource addition means for receiving a resource used for generating an animation from a user on the network via the data communication means and adding it to the resource storage means. The text and animation service device according to claim 1, comprising:
前記リソースは、アニメーションの背景を描画するための背景データと、アニメーション中に登場するオブジェクトの形状を規定するオブジェクトデータと、モデルの動作を示す動作データとを含み、
前記リソース追加手段は、前記背景データ、前記オブジェクトデータ、及び前記動作データを区別して前記リソースに追加するための手段を含む、請求項2に記載のテキスト及びアニメーションサービス装置。
The resource includes background data for drawing the background of the animation, object data that defines the shape of an object that appears during the animation, and operation data indicating the operation of the model,
The text and animation service device according to claim 2, wherein the resource adding means includes means for distinguishing and adding the background data, the object data, and the motion data to the resource.
前記テキスト入力手段は、前記データ通信手段を介して任意の数の文の入力を前記ネットワーク上の他の通信装置から受けるための手段を含み、
前記アニメーション生成手段は、
前記テキスト入力手段を介して入力された前記テキストに対し、形態素解析、構文解析及び意味解析を行ない、文法的情報、統語的情報及び意味的情報が付された形態素列を出力するための解析手段と、
前記解析手段の出力する形態素列を、各形態素に付された前記文法的情報、統語的情報及び意味的情報に基づいて、アニメーションの背景、アニメーションに登場するオブジェクト、及び各オブジェクトの動作にそれぞれ関連する複数種類のタグを各形態素に付加するためのタグ付け手段と、
前記タグ付け手段によりタグ付けされた形態素列を、段落区切りを示す文字コードにより複数の段落に区分するための段落処理手段と、
前記段落処理手段により区分された段落ごとに、前記タグ付け手段により背景に関連するタグが付された形態素に基づいて、アニメーションの背景を構成する背景データを決定するための背景決定手段と、
前記段落処理手段により区分された段落内の文ごとに、前記タグ付け手段により、登場するオブジェクトに関連するタグが付された形態素に基づいて、アニメーションに登場するオブジェクトを構成するオブジェクトデータを決定するためのオブジェクト決定手段と、
前記段落処理手段により区分された段落内の文ごとに、前記タグ付け手段により、登場するオブジェクトの動作に関連するタグが付された形態素に基づいて、アニメーションに登場するオブジェクトの各々の動作を規定する動作データを決定するための動作決定手段と、
前記段落処理手段により区分された段落内の文ごとに、前記オブジェクト決定手段により決定されたオブジェクトデータと、前記動作決定手段により決定された動作データとを組合せることにより作成されるオブジェクトのアニメーションを、前記背景決定手段により決定される背景データに基づいて生成される背景に重ねることにより、アニメーションを生成するための手段とを含む、請求項3に記載のテキスト及びアニメーションサービス装置。
The text input means includes means for receiving an input of an arbitrary number of sentences from the other communication devices on the network via the data communication means,
The animation generating means includes
Analysis means for performing morphological analysis, syntax analysis, and semantic analysis on the text input via the text input means, and outputting a morpheme string with grammatical information, syntactic information, and semantic information When,
Based on the grammatical information, syntactic information and semantic information attached to each morpheme, the morpheme sequence output by the analysis means is related to the background of the animation, the object appearing in the animation, and the operation of each object. Tagging means for adding a plurality of types of tags to each morpheme,
Paragraph processing means for dividing the morpheme sequence tagged by the tagging means into a plurality of paragraphs by character codes indicating paragraph breaks;
For each paragraph divided by the paragraph processing means, background determining means for determining background data constituting the background of the animation based on a morpheme tagged with a background related by the tagging means;
For each sentence in the paragraph divided by the paragraph processing means, the tagging means determines object data constituting an object appearing in the animation based on a morpheme with a tag related to the appearing object. An object determination means for
For each sentence in the paragraph divided by the paragraph processing means, the tagging means defines the behavior of each object appearing in the animation based on a morpheme that is tagged with a tag related to the behavior of the appearing object. Action determining means for determining action data to be performed;
An animation of an object created by combining the object data determined by the object determining means and the action data determined by the action determining means for each sentence in the paragraph divided by the paragraph processing means. 4. The text and animation service device according to claim 3, further comprising: means for generating an animation by superimposing on a background generated based on the background data determined by the background determining means.
前記テキスト入力手段は、前記データ通信手段を介して、一つの文の背景、主語、目的語及び述語の入力を前記ネットワーク上の他の通信装置から受けるための手段を含み、
前記アニメーション生成手段は、
前記テキスト入力手段を介して入力された前記テキストに対し、形態素解析、構文解析及び意味解析を行ない、文法的情報、統語的情報及び意味的情報が付された形態素列を出力するための解析手段と、
前記解析手段の出力する形態素列を、各形態素に付された前記文法的情報、統語的情報及び意味的情報に基づいて、アニメーションの背景、アニメーションに登場するオブジェクト、及び各オブジェクトの動作にそれぞれ関連する複数種類のタグを各形態素に付加するためのタグ付け手段と、
前記タグ付け手段により背景に関連するタグが付された形態素に基づいて、アニメーションの背景を構成する背景データを決定するための背景決定手段と、
前記タグ付け手段により、登場するオブジェクトに関連するタグが付された形態素に基づいて、アニメーションに登場するオブジェクトを構成するオブジェクトデータを決定するためのオブジェクト決定手段と、
前記タグ付け手段により、登場するオブジェクトの動作に関連するタグが付された形態素に基づいて、アニメーションに登場するオブジェクトの各々の動作を規定する動作データを決定するための動作決定手段と、
前記オブジェクト決定手段により決定されたオブジェクトデータと、前記動作決定手段により決定された動作データとを組合せることにより作成されるオブジェクトのアニメーションを、前記背景決定手段により決定される背景データに基づいて生成される背景に重ねることにより、アニメーションを生成するための手段とを含む、請求項3に記載のテキスト及びアニメーションサービス装置。
The text input means includes means for receiving input of a background, subject, object and predicate of one sentence from another communication device on the network via the data communication means,
The animation generating means includes
Analysis means for performing morphological analysis, syntax analysis, and semantic analysis on the text input via the text input means, and outputting a morpheme string with grammatical information, syntactic information, and semantic information When,
Based on the grammatical information, syntactic information and semantic information attached to each morpheme, the morpheme sequence output by the analysis means is related to the background of the animation, the object appearing in the animation, and the operation of each object. Tagging means for adding a plurality of types of tags to each morpheme,
Background determining means for determining background data constituting the background of the animation based on the morpheme tagged with the background by the tagging means;
Object determining means for determining object data constituting an object appearing in an animation based on a morpheme tagged with a tag related to the appearing object by the tagging means;
Motion determining means for determining motion data defining each motion of an object appearing in an animation based on a morpheme tagged with a tag related to the motion of the object appearing by the tagging device;
Generating an animation of an object created by combining the object data determined by the object determining means and the motion data determined by the motion determining means based on the background data determined by the background determining means 4. A text and animation service device according to claim 3, comprising means for generating an animation by overlaying a background to be rendered.
記憶装置と、ネットワークに接続され、当該ネットワークに接続された他の通信装置とデータ通信を行なうためのデータ通信装置とを備えたコンピュータにより実行されると、当該コンピュータを、
ユーザによるテキストの入力を受けるためのテキスト入力手段と、
前記テキスト入力手段を介して入力されたテキストに基づき、当該テキストの内容と関連するアニメーションを生成するためのアニメーション生成手段と、
前記アニメーション生成手段により生成されたアニメーションを、前記テキスト入力手段を介して入力された前記テキストと関連付けて前記記憶装置に記憶させるための記憶手段と、
前記データ通信手段を介して前記ネットワークから前記記憶装置に記憶されたテキストのいずれかの閲覧要求を受けたことに応答して、当該テキストと、当該テキストに関連付けて前記記憶装置に記憶されていたアニメーションとを前記閲覧要求を送信して来た通信装置に前記データ通信装置を介して送信するための送信手段として機能させる、コンピュータプログラム。
When executed by a computer comprising a storage device and a data communication device connected to a network and performing data communication with another communication device connected to the network, the computer is
A text input means for receiving text input by the user;
Animation generating means for generating an animation related to the content of the text based on the text input via the text input means;
Storage means for storing the animation generated by the animation generation means in the storage device in association with the text input via the text input means;
In response to receiving a browsing request for any of the text stored in the storage device from the network via the data communication means, the text and the text are stored in the storage device in association with the text. A computer program that causes an animation and a communication device that has transmitted the viewing request to function as a transmission unit for transmitting the animation via the data communication device.
JP2006287662A 2006-10-23 2006-10-23 Text and animation service device and computer program Pending JP2008107904A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006287662A JP2008107904A (en) 2006-10-23 2006-10-23 Text and animation service device and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006287662A JP2008107904A (en) 2006-10-23 2006-10-23 Text and animation service device and computer program

Publications (1)

Publication Number Publication Date
JP2008107904A true JP2008107904A (en) 2008-05-08

Family

ID=39441233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006287662A Pending JP2008107904A (en) 2006-10-23 2006-10-23 Text and animation service device and computer program

Country Status (1)

Country Link
JP (1) JP2008107904A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100104313A (en) * 2009-03-17 2010-09-29 삼성전자주식회사 Apparatus and method for producing animation of web text
JP2012079073A (en) * 2010-09-30 2012-04-19 Nifty Corp Blog service providing system
JP2012128750A (en) * 2010-12-17 2012-07-05 Casio Comput Co Ltd Moving image generation device, moving image generation method and program
WO2018038586A1 (en) * 2016-08-26 2018-03-01 스타십벤딩머신 주식회사 Method for generating text animation, and apparatus therefor
CN111061902A (en) * 2019-12-12 2020-04-24 广东智媒云图科技股份有限公司 Drawing method and device based on text semantic analysis and terminal equipment
CN111126014A (en) * 2018-10-15 2020-05-08 安永金融科技股份有限公司 Method, system and computer readable memory for dynamically generating customized graphic files
KR20210112853A (en) * 2020-03-06 2021-09-15 주식회사 어라운드이펙트 Method and Apparatus for automatic placement of animation data Based on Text
KR102343582B1 (en) * 2021-08-31 2021-12-29 주식회사 에스에이엠지엔터테인먼트 Artificial intelligence-based metaverse contents making system for using biometric information
CN115567474A (en) * 2022-12-06 2023-01-03 广州钛动科技有限公司 Message push method and system
JP2024154850A (en) * 2023-04-20 2024-10-31 グリー株式会社 Information processing system, information processing method, and program
WO2025248752A1 (en) * 2024-05-31 2025-12-04 楽天グループ株式会社 Image processing system, image processing method, program, and data structure

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002021287A1 (en) * 2000-09-06 2002-03-14 Sharp Kabushiki Kaisha Transmission terminal, data server device and reception terminal used in electronic message transmission/reception system
JP2004088335A (en) * 2002-08-26 2004-03-18 Hitachi Ltd Mail server, program for realizing the mail server, and portable terminal
JP2005128711A (en) * 2003-10-22 2005-05-19 Omron Corp KANSEI information estimation method and character animation creation method, program using these methods, storage medium, sensitivity information estimation device, and character animation creation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002021287A1 (en) * 2000-09-06 2002-03-14 Sharp Kabushiki Kaisha Transmission terminal, data server device and reception terminal used in electronic message transmission/reception system
JP2004088335A (en) * 2002-08-26 2004-03-18 Hitachi Ltd Mail server, program for realizing the mail server, and portable terminal
JP2005128711A (en) * 2003-10-22 2005-05-19 Omron Corp KANSEI information estimation method and character animation creation method, program using these methods, storage medium, sensitivity information estimation device, and character animation creation device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100104313A (en) * 2009-03-17 2010-09-29 삼성전자주식회사 Apparatus and method for producing animation of web text
JP2010218555A (en) * 2009-03-17 2010-09-30 Samsung Electronics Co Ltd Device and method for visualization of web text
US8810583B2 (en) 2009-03-17 2014-08-19 Samsung Electronics Co., Ltd. Apparatus and method for creating animation from web text
KR101652009B1 (en) * 2009-03-17 2016-08-29 삼성전자주식회사 Apparatus and method for producing animation of web text
JP2012079073A (en) * 2010-09-30 2012-04-19 Nifty Corp Blog service providing system
JP2012128750A (en) * 2010-12-17 2012-07-05 Casio Comput Co Ltd Moving image generation device, moving image generation method and program
WO2018038586A1 (en) * 2016-08-26 2018-03-01 스타십벤딩머신 주식회사 Method for generating text animation, and apparatus therefor
CN111126014A (en) * 2018-10-15 2020-05-08 安永金融科技股份有限公司 Method, system and computer readable memory for dynamically generating customized graphic files
CN111061902A (en) * 2019-12-12 2020-04-24 广东智媒云图科技股份有限公司 Drawing method and device based on text semantic analysis and terminal equipment
CN111061902B (en) * 2019-12-12 2023-12-19 广东智媒云图科技股份有限公司 A drawing method, device and terminal equipment based on text semantic analysis
KR20210112853A (en) * 2020-03-06 2021-09-15 주식회사 어라운드이펙트 Method and Apparatus for automatic placement of animation data Based on Text
KR102338501B1 (en) * 2020-03-06 2021-12-13 주식회사 어라운드이펙트 Method and Apparatus for automatic placement of animation data Based on Text
KR102343582B1 (en) * 2021-08-31 2021-12-29 주식회사 에스에이엠지엔터테인먼트 Artificial intelligence-based metaverse contents making system for using biometric information
CN115567474A (en) * 2022-12-06 2023-01-03 广州钛动科技有限公司 Message push method and system
CN115567474B (en) * 2022-12-06 2023-04-18 广州钛动科技股份有限公司 Message pushing method and system
JP2024154850A (en) * 2023-04-20 2024-10-31 グリー株式会社 Information processing system, information processing method, and program
WO2025248752A1 (en) * 2024-05-31 2025-12-04 楽天グループ株式会社 Image processing system, image processing method, program, and data structure

Similar Documents

Publication Publication Date Title
JP5229226B2 (en) Information sharing system, information sharing method, and information sharing program
CN102779114B (en) It is supported using the unstructured data of automatically rule generation
US20060085735A1 (en) Annotation management system, annotation managing method, document transformation server, document transformation program, and electronic document attachment program
Frischmuth et al. Ontowiki–an authoring, publication and visualization interface for the data web
Khalili et al. Wysiwym authoring of structured content based on schema. org
Hlava The taxobook: Principles and practices of building taxonomies, part 2 of a 3-part series
JPH10275157A (en) Data processor
Kalender et al. Videolization: knowledge graph based automated video generation from web content
JP5313295B2 (en) Document search service providing method and system
JP2008107904A (en) Text and animation service device and computer program
CN103514289A (en) Method and device for building interest entity base
JP3832693B2 (en) Structured document search and display method and apparatus
KR100522186B1 (en) Methods for dynamically building the home page and Apparatus embodied on the web therefor
Wills Relational data modelling of textual corpora: The Skaldic Project and its extensions
Salminen et al. Communicating with XML
Tramp et al. Rdfauthor: Employing rdfa for collaborative knowledge engineering
KR20050045650A (en) Information suppling system and method with info-box
JP2007193697A (en) Information collection apparatus, information collection method and program
Rowley Knowledge organisation in a Web‐based environment
Lewis Microformats made simple
King Re-presenting visual content for blind people
Steiner Enriching unstructured media content about events to enable semi-automated summaries, compilations, and improved search by leveraging social networks
JP5237875B2 (en) Shared article publishing system
Marttila XML based mobile services
Amitay What lays in the layout

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120124