[go: up one dir, main page]

JPWO1998033145A1 - Graphic data generating device, graphic data generating method and medium - Google Patents

Graphic data generating device, graphic data generating method and medium

Info

Publication number
JPWO1998033145A1
JPWO1998033145A1 JP10-531826A JP53182698A JPWO1998033145A1 JP WO1998033145 A1 JPWO1998033145 A1 JP WO1998033145A1 JP 53182698 A JP53182698 A JP 53182698A JP WO1998033145 A1 JPWO1998033145 A1 JP WO1998033145A1
Authority
JP
Japan
Prior art keywords
vrml
user
window
script
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10-531826A
Other languages
Japanese (ja)
Inventor
真之 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO1998033145A1 publication Critical patent/JPWO1998033145A1/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 アテンション機能によって、判りやすい状態で任意の視点から見たオブジェクト画像を提供する。ユーザはマウスにより動作モードを「Navigate」にし、観察したいオブジェクトをマウスで左ボタンをクリックして選択状態にする。モデル編集ツール420は、マウスの右ボタン操作によるアテンションONの選択操作に応答して、視点位置表示のパネルの背景を黄色にし、オブジェクトを編集ウィンドウの中心に移動して表示する。モデル編集ツール420は、ユーザのマウスによるドラッグ操作に応じて任意の視点からのオブジェクトの表示を行う。マウスの右ボタン操作によるアテンションオフが指令されるまで、上記オブジェクトの観察が行われる。 (57) [Summary] The attention function provides an image of an object viewed from any viewpoint in an easy-to-understand manner. The user uses the mouse to set the operation mode to "Navigate" and selects the object they wish to observe by clicking the left button of the mouse. In response to the selection operation of attention ON by operating the right button of the mouse, the model editing tool 420 turns the background of the viewpoint position display panel yellow and moves the object to the center of the editing window for display. The model editing tool 420 displays the object from any viewpoint in response to the user's dragging operation with the mouse. The object is observed until attention OFF is commanded by operating the right button of the mouse.

Description

【発明の詳細な説明】 図形データ生成装置、図形データ生成方法およびその媒体 技術分野 本発明は、図形データ生成装置、図形データ生成方法およびその媒体に関する ものであり、特に、3次元仮想空間におけるオブジェクトの表現に用いられる3 次元的な図形の形とその位置、表示した3次元画像に対するクライアント(ユー ザ)の操作に応じて起動するスクリプト等とを統合的に編集するために用いられ る図形データ生成装置、図形データ生成方法およびその媒体に関する。[Detailed Description of the Invention] Graphic data generating device, graphic data generating method and medium thereof Technical field The present invention relates to a graphic data generating device, graphic data generating method and medium thereof, and in particular to a graphic data generating device, graphic data generating method and medium thereof used for comprehensively editing the shape and position of three-dimensional figures used to express objects in a three-dimensional virtual space, and scripts that are activated in response to client (user) operations on a displayed three-dimensional image.

さらに特定的には、本発明はアテンション(Attention)機能に関す る。アテンション機能とは、3D Viewウィンドウに表示したオブジェクト の形状を確認するために用いられ、ユーザが3D Viewウィンドウ内でマウ スにより選択した1つ以上のオブジェクトの内のいずれかを中心とし、ユーザが コンテンツ作成用ソフトウエアツール4内に任意の指定した視点から見た場合の オブジェクトそれぞれを3次元仮想空間内に配置し、表示する機能である。More specifically, the present invention relates to an attention function. The attention function is used to confirm the shapes of objects displayed in the 3D View window. The attention function centers on one of one or more objects selected by the user with the mouse in the 3D View window, and places and displays each object in a three-dimensional virtual space as viewed from any viewpoint specified by the user within the content creation software tool 4.

背景技術 世界的規模で構築されたコンピュータネットワークであるインターネット(The Internet)において、様々な情報を提供するWWW(World Wide Web)の枠組みを 利用して3次元的な情報を統一的に扱うことができる記述言語としてVRML(V irtual Reality Modeling language)が知られている。BACKGROUND ART VRML (Virtual Reality Modeling Language) is known as a description language that can handle three-dimensional information in a unified manner using the framework of the World Wide Web (WWW), which provides a variety of information on the Internet, a global computer network.

まず、VRMLが開発されるまでの歴史的背景を説明する。First, the historical background leading up to the development of VRML will be explained.

インターネットで利用できる情報提供システムとして、スイスのCERN(Eu ropean Center for Nuclear Research: 欧州核物理学研究所)が開発したWWW が知られている。このWWWは、テキスト、画像、音などのマルチメディア(情 報)をハイパーテキスト形式で閲覧できるようにしたもので、HTTP(Hyper Text Transfer Protocol:ハイパーテキスト転送プロトコル)と呼ばれるプロト コルに基づいて、WWWサーバに格納された情報をパーソナルコンピュータなど の端末装置に非同期転送するものである。WWWは基本的には、サーバとブラウ ザとで構成される。One well-known information system available over the Internet is the World Wide Web (WWW), developed by the Swiss European Center for Nuclear Research (CERN). The WWW allows multimedia (information) such as text, images, and sound to be viewed in hypertext format. Based on a protocol called HTTP (HyperText Transfer Protocol), the WWW asynchronously transfers information stored on a WWW server to terminal devices such as personal computers. The WWW is essentially comprised of a server and a browser.

WWWサーバは、HTTPデーモン(daemon)と呼ばれるサーバ・ソフトウェ アとハイパーテキスト情報が格納されるHTML(Hyper Text Makeup Language 、ハイパーテキスト記述言語)ファイルによって構成される。デーモンとは、U NIX上で作業を行う場合、バックグラウンドで管理や処理を実行するプログラ ムを意味する。A WWW server consists of server software called an HTTP daemon and HTML (Hyper Text Makeup Language) files that store hypertext information. A daemon is a program that runs in the background and performs management and processing when working on a UNIX system.

ハイパーテキスト情報はHTMLと呼ばれる記述言語によって表現される。H TMLによるハイパーテキストの記述は、「<」と「>」で囲まれたタグと呼ば れる書式指定によって文章の論理的な構造が表現される。他の情報とのリンクに ついての記述は、アンカーと呼ばれるリンク情報によって行われる。アンカーに よって情報が存在する所を指定する際には、URL(Uniform Resource Locator )が用いられる。Hypertext information is expressed in a description language called HTML. Hypertext descriptions in HTML express the logical structure of text using formatting specifications called tags, enclosed in "<" and ">". Links to other information are described using link information called anchors. A URL (Uniform Resource Locator) is used to specify the location of information using an anchor.

HTMLで記述されたファイルをTCP/IP(Transmission Control Proto col/Internet Protocol )ネットワーク上において転送するためのプロトコルが HTTPである。HTTPはユーザ(クライアント)からの情報伝送の要求をW WWサーバに伝え、HTMLファイルのハイパーテキスト情報をクライアントに 転送する機能を持っている。HTTP is the protocol used to transfer HTML files over a TCP/IP (Transmission Control Protocol/Internet Protocol) network. HTTP transmits information transmission requests from users (clients) to a WWW server and transfers the hypertext information in HTML files to the client.

WWWを利用する環境として多く利用されているのがWWWブラウザである。The most widely used environment for using the WWW is the WWW browser.

ブラウザとは閲覧するという意味であり、ブラウザは利用者の操作に応じてサー バに情報の問い合わせを行う作業を遂行する。WWWブラウザは、Netscape Nav igator(米国 Netscape Communications社の商標)をはじめとするクライアント ・ソフトウェアである。WWWブラウザを用いて、URLに対応する世界規模で 広がるインターネット上のWWWサーバのファイル、いわゆるホームページを閲 覧することができ、いわゆるネットサーフィンと呼ばれるように、リンクが張ら れたホームページを次から次へと辿って、多種多様なWWWの情報ソースにアク セスすることができる。The word "browser" means to view, and a browser performs the task of querying a server for information in response to user actions. WWW browsers are client software such as Netscape Navigator (a trademark of Netscape Communications, Inc.). Using a WWW browser, users can browse files on WWW servers on the global Internet that correspond to URLs, known as home pages. Similarly, surfing the web allows users to access a wide variety of WWW information sources by following linked home pages one after another.

近年、WWWをさらに拡張し、3次元空間の記述や、3次元グラフィックスで 描画されたオブジェクトに対してハイパーテキストのリンクの設定を可能とし、 これらのリンクを辿りながらWWWサーバを次々とアクセスできるようにしたV RMLと呼ばれる3次元グラフィックス記述言語の仕様が策定され、VRMLの 仕様に基づいて記述された3次元空間を表示するためのVRMLブラウザが開発 されている。In recent years, the WWW has been further expanded to allow for the description of three-dimensional space and the establishment of hypertext links to objects rendered in three-dimensional graphics, and specifications for a three-dimensional graphics description language called VRML have been established, which allows for sequential access to WWW servers by following these links. VRML browsers have also been developed to display three-dimensional space described based on the VRML specifications.

VRMLの詳細は、例えば、文献「VRMLを知る:3次元電脳空間の構築と ブラウジング」、マーク・ペッシ著、松田晃一・蒲地輝尚・竹内彰一・本田康晃 ・暦本純一・石川真之・宮下健・原和弘訳、1996年3月25日初版発行、プ レンティスホール出版 ISBN4-931356-37-0、(原著:VRML:Browsing & Bui lding Cyberspace,Mark Pesce,1995 New Readers Publishing ISBN 1-56205-4 98-8))、および、文献「VRMLの最新動向とCyberPassage」、 松山晃一・本田康晃著、bit(共立出版)/1996 Vol.28No.7 pp29〜pp36,No .8 pp57 〜pp65,No.9 pp29 〜pp36,No.10 pp49〜pp58に記載されている。For details on VRML, see, for example, "Understanding VRML: Building and Browsing 3D Cyberspace," by Mark Pesce, translated by Koichi Matsuda, Teruhisa Kamachi, Shoichi Takeuchi, Yasuaki Honda, Junichi Rekimoto, Masayuki Ishikawa, Ken Miyashita, and Kazuhiro Hara, first published March 25, 1996, Prentice-Hall Publishing, ISBN 4-931356-37-0 (original: VRML: Browsing & Building Cyberspace, Mark Pesce, 1995, New Readers Publishing, ISBN 1-56205-498-8), and "The Latest Trends in VRML and CyberPassage," by Koichi Matsuyama and Yasuaki Honda, bit (Kyoritsu Shuppan), 1996, Vol. 28, No. 7, pp. 29-36, No. 8, pp. 57. pp. 109-1106, No. 9 pp. 29-36, No. 10 pp. 49-58.

「The Virtual Reality Modeling Language Version 2.0 」,ISO/IEC CD 147 72 ,August 4,1996におけるの公式かつ完全な仕様書は、下記のホームページア ドレスで公開されている。The official and complete specification of "The Virtual Reality Modeling Language Version 2.0", ISO/IEC CD 147 72, August 4, 1996, is available at the following website address:

http://www.vrml.Org/Specifications/VRML2.0/FINAL/Spec/index.html その日本語版は下記のホームページアドレスで公開されている。http://www.vrml.Org/Specifications/VRML2.0/FINAL/Spec/index.html The Japanese version is available at the following website address:

http://www.webcity.co.jp/info/andoh/vrm12.0/spec-jp/index.html VRML2.0用ブラウザおよび共有サーバ用ソフトウェアとしては、例えば 、本出願入であるソニー株式会社が「Community Place(商標)Browser / Burea u」として開発し、製品化しており、そのβ版(試供版)をインターネット上の ホームページ:http://vs.sony co.jpからダウンロード可能としている。http://www.webcity.co.jp/info/andoh/vrm12.0/spec-jp/index.html For example, Sony Corporation, the present applicant, has developed and commercialized "Community Place™ Browser/Bureau" as a browser and shared server software for VRML 2.0. A beta version (trial version) of this software is available for download from the following website: http://vs.sony.co.jp.

このようなVRML2.0においては、3次元的な仮想空間内におけるオブジ ェクトの自律的な振る舞い(Behavior)を記述し、表現することが可能である。VRML 2.0 makes it possible to describe and express the autonomous behavior of objects in a three-dimensional virtual space.

VRML2.0を用いて、3次元的な仮想空間内でオブジェクトが動的に動き回 るVRMLコンテンツを作成しようとする場合、通常、以下の様な作業工程を経 ることになる。なお、これ以降、一つの仮想空間内で一連のオブジェクトの振る 舞いを実現するためのVRMLファイルやスクリプト・ファイル等の集合体をV RMLコンテンツ呼ぶ。When using VRML 2.0 to create VRML content in which objects move dynamically within a three-dimensional virtual space, the following process is typically followed. From here on, a collection of VRML files, script files, etc., used to realize the behavior of a series of objects within a single virtual space will be referred to as VRML content.

VRMLコンテンツの作成手順 VRMLコンテンツの一般的な作成手順を下記に述べる。 VRML Content Creation Procedure The general procedure for creating VRML content is described below.

(1)モデル作成 仮想空間内に配置するオブジェクト(モデル)の形状や位置等をVRM L2.0に基づいて記述し、基本的なVRMLファイルを作成する。(1) Model Creation The shape and position of the object (model) to be placed in the virtual space are described based on VRM L 2.0, and a basic VRML file is created.

(2)センサ・ノードの記述 仮想空間内の各オブジェクトに対して、マウスによるクリック操作(ポ インティング操作)がなされた場合にイベントを発生するTouchSenso rや、予め設定された時刻になるとイベントを発生するTimeSensor等 のセンサノードの記述をVRMLファイルへ追加する。(2) Sensor Node Description Add sensor node descriptions to the VRML file, such as a TouchSensor, which generates an event when a mouse click (pointing) is performed on an object in the virtual space, or a TimeSensor, which generates an event at a preset time.

(3)ルーティングの記述 センサ・ノードが付加されたオブジェクトに対するポインティング操作 等に応じて発生したイベントを伝達するためのルーティングの記述をVRMLフ ァイルへ追加する。(3) Routing Description Add routing descriptions to the VRML file to transmit events that occur in response to pointing operations on objects with attached sensor nodes.

(4)スクリプト・ノードの記述 ルーティングによって伝達されたイベントを外部スクリプトへ受け渡す ためのスクリプト・ノードに関する記述をVRMLファイルへ追加する。(4) Script Node Description Add a script node description to the VRML file to pass events propagated by routing to an external script.

(5)スクリプト・ファイルの作成 スクリブト・ノードを介して伝達されたイベントに基づいて、仮想空間 内の各オブジェクトに対して予め設定された振る舞いを実現するためのJava 言語(Javaは、米国Sun Microsystems社の商標)等による スクリプトを記述(プログラム)し、スクリプト・ファイルを作成する。(5) Creating a Script File Write (program) a script using a language such as Java (Java is a trademark of Sun Microsystems, Inc.) to implement pre-defined behavior for each object in the virtual space based on events transmitted via the script node, and create a script file.

以上の(1)〜(5)の記述工程を経て、所望のVRMLコンテンツが作成さ れる。Through the above description steps (1) to (5), the desired VRML content is created.

VRML2.0に基づいて、仮想空間内でのオブジェクトの自律的な挙動を伴 うVRMLコンテンツを作成しようとする場合、既存のモデラーと呼ばれるオー サリングソフトウェア、例えば、3D Studio Max(商標)等のソフ トウエアを使って、オブジェクトの形状やアニメーションを作成し、VRML2 .0の形式で出力する。仮に、モデラーがVRML2.0形式をサポートしてい ない場合はコンバータ等を用いてVRML2.0形式に変換する必要がある。When creating VRML content based on VRML 2.0 that involves autonomous object behavior in a virtual space, existing authoring software called a modeler, such as 3D Studio Max™, is used to create the object's shape and animation, and then output in VRML 2.0 format. If the modeler does not support the VRML 2.0 format, a converter or similar tool must be used to convert it to VRML 2.0 format.

さらに、VRML2.0によって規定されている各種センサ・ノード等の記述 を、テキストエディタを用いてVRMLファイルに追加したり、さらには、テキ ストエディタを用いてJava言語によるスクリプトの作成や、これに対応する スクリプト・ノードの追加、ルート(ROUTE)分の追加等を繰り返す。Furthermore, descriptions of various sensor nodes, etc., as specified by VRML 2.0, are added to the VRML file using a text editor, and furthermore, scripts are created in Java using a text editor, and corresponding script nodes and routes are added, etc., are repeatedly added.

最後に、実際の動作確認に当たっては、VRML2.0対応のVRMLブラウ ザを起動し、マウスによるクリック操作等により、オブジェクトの振る舞いを確 認する。Finally, to check the actual operation, start a VRML 2.0 compatible VRML browser and check the behavior of the objects by clicking with the mouse, etc.

このようなVRMLコンテンツの作成方法は、煩雑な手作業が非常に多く、作 業効率が著しく悪い。例えば、スクリプトノードへフィールドを追加する場合に は、スクリプトファイルと、VRMLファイルの両方を修正する必要がある。さ らにこれら両者の間の整合性を保たなければならない。This method of creating VRML content requires a great deal of tedious manual work and is extremely inefficient. For example, adding a field to a script node requires modifying both the script file and the VRML file. Furthermore, consistency between the two must be maintained.

また、イベントのルーティングを指定する際にも、イベントの型(データ形式 )の整合をとらねばならない。このルーティング等の記述形式を誤ると、VRM Lプラウザで読み込ませた際に、構文エラーが生じ、再度、ファイルを修正しな ければならない。さらに、各ノードを追加する度に、VRMLブラウザで再読込 みする必要があるので、非常に作業効率が悪い。Additionally, when specifying event routing, the event type (data format) must be consistent. If the routing or other description format is incorrect, a syntax error will occur when the file is loaded in a VRML browser, requiring the file to be corrected again. Furthermore, the VRML browser must be reloaded each time a new node is added, resulting in extremely inefficient work.

また従来の方法はインタラクション(対話)の性能に改善すべき点が見いださ れた。インタラクションの不備の1例として、ワールド作成時の確認動作の煩雑 さ、非効率さがある。図1に従来のワールドの作成方法の手順をフローチャート として示した。ワールドの作成は2つに大別される。前半でモデルを作成し、後 半でインタラクションを作成する。その詳細については本発明の実施の形態との 対比において後述するが、ワールド作成時にはその確認が必要となるが、図1に 示す従来の再生方法では、ステップ108に図解したように、ブラウザを用いな ければならなかった。Furthermore, the conventional method was found to have some shortcomings in its interaction performance. One example of this interaction deficiency is the cumbersome and inefficient confirmation process during world creation. Figure 1 shows a flowchart of the conventional world creation method. World creation is broadly divided into two stages: the first stage is creating the model, and the second stage is creating the interaction. Details of this process will be discussed later in comparison with the embodiment of the present invention. Confirmation is required during world creation, but with the conventional playback method shown in Figure 1, confirmation requires the use of a browser, as illustrated in step 108.

さらに従来、アテンション機能が十分でなっかった。アテンション機能とは、 3D Viewウィンドウに表示したオブジェクトの形状を確認するために用い られ、ユーザが3D Viewウィンドウ内でマウスにより選択した1つ以上の オブジェクトの内のいずれかを中心とし、ユーザがコンテンツ作成用ソフトウエ アツール内に指定した任意の視点から見た場合のオブジェクトそれぞれを3次元 仮想空間内に配置し、表示する機能である。Furthermore, the attention function has traditionally been inadequate. The attention function is used to confirm the shape of objects displayed in the 3D View window. It centers on one of one or more objects selected by the user with the mouse in the 3D View window, and places and displays each object in a 3D virtual space as seen from any viewpoint specified by the user in the content creation software tool.

発明の開示 本発明の目的は望ましいアテンション機能を実現することにある。DISCLOSURE OF THE INVENTION The objective of the present invention is to achieve a desirable attention function.

本発明の第1の観点によれば、編集ウィンドウ内に3次元のオブジェクトを表 示する表示手段と、前記表示手段によって表示されているオブジェクトに対する 操作指令を指示する指示手段と、アテンション処理手段とを有し、前記アテンシ ョン処理手段は、 第1の所定の操作指令に応じてアテンションモードとなり、 前記指示手段によって選択されたオブジェクトを選択し、 選択されたオブジェクトを前記編集ウィンドウの中心に移動させて表示して 、選択されたオブジェクトを任意の視点から観察可能にする図形データ生成装置 が提供される。According to a first aspect of the present invention, there is provided a graphics data generation device comprising: display means for displaying a three-dimensional object within an editing window; instruction means for issuing an operation command for the object displayed by the display means; and attention processing means, wherein the attention processing means enters an attention mode in response to a first predetermined operation command, selects an object selected by the instruction means, moves the selected object to the center of the editing window, and displays the selected object, thereby allowing the selected object to be viewed from any viewpoint.

好適には、第2の所定の操作指令に応じて、前記アテンション処理手段は動作 を終了する。Preferably, the attention processing means terminates its operation in response to a second predetermined operation command.

特定的には、前記アテンション処理手段は、コンテンツ作成を行う編集手段に よって実行される。Specifically, the attention processing means is executed by an editing means that creates the content.

また本発明の第2の観点によれば、第1の所定の操作指令に応答してアテンシ ョンモードに変更し、選択に応じてオブジェクトを選択し、選択されたオブジェ クトを編集ウィンドウの中心に移動させて表示して、選択されたオブジェクトを 任意の視点から観察可能にする図形データ生成方法が提供される。In accordance with a second aspect of the present invention, there is provided a graphics data generation method which switches to an attention mode in response to a first predetermined operation command, selects an object in response to the selection, moves the selected object to the center of the editing window and displays it, and allows the selected object to be viewed from any viewpoint.

好適には、第2の所定の操作指令に応じて前記アテンションモードを終了する 。Preferably, the attention mode is terminated in response to a second predetermined operation command.

また本発明の第3の観点によれば、上記図形データ生成方法を実行するプログ ラムを媒介する媒体が提供される。すなわち、本発明によれば、編集ウィンドウ 内に3次元オブジェクトを表示する表示手段との対話形式で3次元仮想空間にお けるコンテンツを作成するプログラムを媒介する媒体であって、第1の所定の操 作指令に応答してアテンションモードに変更し、選択に応じてオブジェクトを選 択し、選択されたオブジェクトを編集ウィンドウの中心に移動させて表示して、 選択されたオブジェクトを任意の視点から観察可能にするプログラムを有する媒 体が提供される。According to a third aspect of the present invention, a medium is provided that carries a program for executing the above-described graphic data generation method. That is, according to the present invention, a medium is provided that carries a program for creating content in a three-dimensional virtual space through an interactive interaction with a display means that displays three-dimensional objects in an editing window, the medium containing the program switching to an attention mode in response to a first predetermined operation command, selecting an object according to the selection, moving the selected object to the center of the editing window and displaying it, and allowing the selected object to be viewed from any viewpoint.

前記プログラムは、コンピュータシステムにおいて実行される、または、サー バ装置を含むネットワークを介して伝送される。The program may be executed on a computer system or transmitted over a network including a server device.

図面の簡単な説明 本発明の上記目的および特徴、および、他の目的および特徴は添付図面に関連 づけた下記の記述から明瞭になる。BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects and features of the present invention will become apparent from the following description taken in conjunction with the accompanying drawings.

図1は従来のVRMLコンテンツの作成方法を示すフローチャートである。FIG. 1 is a flowchart showing a conventional method for creating VRML content.

図2は本発明の図形データ生成装置が適用される3次元仮想空間を統一的に扱 うネットワークシステムの構成を示す図である。FIG. 2 shows the configuration of a network system that handles a three-dimensional virtual space in an integrated manner, to which the graphic data generating device of the present invention is applied.

図3は本発明のコンテンツ作成用ソフトウェアツールの構成図である。FIG. 3 is a diagram showing the configuration of a software tool for creating content according to the present invention.

図4は図3に図解したコンテンツ作成用ソフトウェアツールによって遂行すれ るVRMLコンテンツの作成方法を示すフローチャートである。FIG. 4 is a flowchart showing a method for creating VRML content performed by the content creation software tool illustrated in FIG.

図5は図4に図解したVRMLコンテンツを作成する過程における基本的な確 認動作の処理を図解したフローチャートである。FIG. 5 is a flowchart illustrating the basic verification process in the process of creating the VRML content illustrated in FIG.

図6は図4に図解したVRMLコンテンツを作成する過程における好適な確認 動作の処理を図解したフローチャートである。FIG. 6 is a flowchart illustrating a preferred verification operation process in the process of creating the VRML content illustrated in FIG.

図7は図2に示したネットワークシステムにおけるコンピュータシステムの構 成を示す図である。FIG. 7 is a diagram showing the configuration of a computer system in the network system shown in FIG.

図8は図3に図解したコンテンツ作成用ソフトウェアツールの実施の形態とし てのコンテンツ作成用ソフトウエアツールの構成図である。FIG. 8 is a configuration diagram of a content creation software tool as an embodiment of the content creation software tool illustrated in FIG.

図9はコンピュータシステムにおける表示装置に図8のコンテンツ作成用ソフ トウエアツールのグラフィカルユーザーインターフェース部によって表示される メニューを示す図である。FIG. 9 illustrates a menu displayed on a display device in a computer system by the graphical user interface portion of the content creation software tool of FIG. 8.

図10A〜図10Cは図9に図解されたConductor ウィンドウの拡大図である 。10A-10C are enlarged views of the Conductor window illustrated in FIG. 9.

図11は図9に示した3D Viewウィンドウに表示されるポップアップメ ニューを示す図である。FIG. 11 shows a pop-up menu displayed in the 3D View window shown in FIG.

図12〜図14はPoint Of Interestの図形を示す図である 。Figures 12 to 14 show Point of Interest figures.

図15はセンサノードの領域表示と設定の処理を示すフローチャートである。FIG. 15 is a flowchart showing the process of displaying and setting the area of the sensor node.

図16〜図17はParallel View機能におけるポップアップの例 を示す図である。Figures 16 and 17 show examples of popups in the Parallel View function.

図18〜図22はAttention機能による表示例を示す図である。18 to 22 are diagrams showing display examples using the attention function.

図23はAttention機能の処理を示すフローチャートである。FIG. 23 is a flowchart showing the processing of the attention function.

図24はルーティング編集処理のフローチャートである。FIG. 24 is a flowchart of the routing editing process.

図25〜図27はルーティング編集処理における表示例を示す図である。25 to 27 are diagrams showing display examples in the routing editing process.

図28はVRMLコンテンツを作成のオブジェクトの表示例である。FIG. 28 shows an example of a display of an object for creating VRML contents.

図29は第1のVRMLコンテンツを作成する処理を示すフローチャートであ る。FIG. 29 is a flowchart showing the process of creating the first VRML content.

図30〜図34は第1のVRMLコンテンツを作成するときのウィンドウにお ける表示例である。30 to 34 show examples of windows displayed when creating the first VRML content.

図35は第2のVRMLコンテンツを作成する処理を示すフローチャートであ る。FIG. 35 is a flowchart showing the process of creating the second VRML content.

図36〜図37は第2のVRMLコンテンツの作成するとき、スクリプトエキ スパートのウィンドウを例示する図である。36 and 37 are diagrams showing examples of the script expert window when creating the second VRML content.

図38〜図44は第2のVRMLコンテンツを作成するときのウィンドウにお ける表示例である。38 to 44 show examples of windows displayed when creating the second VRML content.

図45は第3のVRMLコンテンツを作成する処理を示すフローチャートであ る。FIG. 45 is a flowchart showing the third process for creating VRML content.

図46〜図49は第3のVRMLコンテンツを作成するときのウィンドウにお ける表示例である。46 to 49 show examples of windows displayed when creating the third VRML content.

発明を実施するための最良の形態 本発明の図形データ生成装置、図形データ生成方法およびこの図形データ生成 方法を実施するプログラムを媒介する媒体の実施の形態を述べる。BEST MODE FOR CARRYING OUT THE INVENTION This section describes embodiments of the graphic data generation device, graphic data generation method, and media carrying a program implementing this graphic data generation method.

ネットワークシステム 図2は本発明の図形データ生成装置、図形データ生成方法および媒体が適用さ れる1例としての、3次元仮想空間を統一的に扱うネットワークシステム1の構 成を示す図である。 Network System FIG. 2 shows the configuration of a network system 1 that handles a three-dimensional virtual space in an integrated manner, as an example to which the graphic data generating device, graphic data generating method and medium of the present invention are applied.

ネットワークシステム1は、企業内ネットワーク10、インターネット12、 インターネットプロバイダ14、ISDN(integrated services digital netwo rk)16およびクライアント(加入者)システム2が相互に接続されて構成され る。The network system 1 is composed of an internal corporate network 10, the Internet 12, an Internet provider 14, an ISDN (integrated services digital network) 16, and a client (subscriber) system 2, all of which are interconnected.

実際のネットワークシステム1は、企業内(In house)ネットワーク10、イ ンターネット12、インターネットプロバイダ14およびクライアントシステム 2などが復数存在しうるが、図示の簡略化のために、図2にはそれぞれ一つずつ のみ図解している。In reality, the network system 1 may include multiple components, such as an in-house network 10, the Internet 12, an Internet provider 14, and a client system 2. However, for simplicity, only one of each is shown in FIG. 2.

企業内ネットワーク10は、ハードディスク装置100、サーバ装置102、 LAN(local area network)104およびゲートウェイサーバ(GWS)106 から構成されている。The corporate network 10 consists of a hard disk drive 100, a server device 102, a local area network (LAN) 104, and a gateway server (GWS) 106.

企業内ネットワーク10に接続されているインターネット12は、ルータ装置 120,124およびディジタル通信回線122から構成されている。The Internet 12 connected to the corporate network 10 is composed of router devices 120 and 124 and a digital communication line 122.

インターネットシステム12とISDN16との間にインターネットプロバイ ダ14が設けられている。An internet provider 14 is provided between the internet system 12 and the ISDN 16.

図2にネットワークシステム1において、企業内ネットワーク10とクライア ント(加入者)システム2とは、インターネットシステム12、インターネット プロバイダ14、ISDN16を介して接続されている。本明細書においては、 LAN104、インターネット12、インターネットプロバイダ14およびIS DN16をネットワークと略称することにしたが、このネットワークは、サーバ 装置102とクライアントシステム2との間のデータ通信を行う。In network system 1 shown in FIG. 2, an intra-company network 10 and a client (subscriber) system 2 are connected via an Internet system 12, an Internet provider 14, and an ISDN 16. In this specification, LAN 104, Internet 12, Internet provider 14, and ISDN 16 are referred to as the network, and this network carries out data communication between server device 102 and client system 2.

ISDN16に接続されているクライアントシステム2は、パーソナルコンピ ュータ(PC)20、表示装置(DSP)24および入力装置(IN)26を有 するコンピュータシステムを有する。コンピュータシステムには記憶装置28が 接続されている。しかしながら、コンピュータシステムとして、パーソナルコン ピュータ(PC)20に接続される表示装置24、入力装置26、外部記憶装置 28はコンピュータシステムを構成する一部であっても、外部に設けられたもの でも構わない。本実施の形態においては、表示装置24、入力装置26はコンピ ュータシステムの一部を構成し、外部記憶装置28はコンピュータシステムの外 部に設けられたものとして述べる。The client system 2 connected to the ISDN 16 is a computer system having a personal computer (PC) 20, a display device (DSP) 24, and an input device (IN) 26. A storage device 28 is also connected to the computer system. However, the display device 24, input device 26, and external storage device 28 connected to the personal computer (PC) 20 may be part of the computer system or may be externally located. In this embodiment, the display device 24 and input device 26 are described as part of the computer system, and the external storage device 28 is described as being external to the computer system.

サーバ装置102 企業内ネットワーク10のサーバ装置102は、例えば、Community Place(商標)用のサーバ装置(例えば、http://vs.sony.co.jp/ )であ って、VRMLコンテンツ、つまり、ユーザ(クライアント)がVRML2.0 で記述した3次元的なオブジェクトの形状および位置等を示すVRMLファイル 、および、ユーザがJava言語等のプログラム言語により記述し、オブジェク トに対するユーザの操作に応じて起動するスクリプトファイル等からなるVRM Lコンテンツをネットワーク等を介して取得してハードディスク装置100に記 憶し、記憶結果を管理する。 Server Device 102 The server device 102 in the intranet 10 is, for example, a server device for Community Place (trademark) (for example, http://vs.sony.co.jp/), which acquires VRML content, that is, VRML content consisting of VRML files that indicate the shapes and positions of three-dimensional objects written by users (clients) in VRML 2.0, and script files that are written by users in a programming language such as Java and are activated in response to user operations on objects, via a network or the like, stores the content in the hard disk drive 100, and manages the storage results.

以下、VRMLファイル(拡張子.wr1)とJava言語によるスクリプト ファイル(拡張子.java)等の集合体をVRMLコンテンツと呼ぶ。Hereinafter, a collection of VRML files (extension .wr1) and Java script files (extension .java) will be referred to as VRML content.

またサーバ装置102は、ハードディスク装置100に記憶した3次元的な仮 想空間のVRMLコンテンツを、サーバ装置102、LAN104、インターネ ットシステム12、インターネットプロバイダ14およびISDN16(以下、 ネットワークシステム1内のこれらの通信ノードを総称して、単にネットワーク とも記す)を介してクライアントシステム2に送信し、表示装置24に表示する 。The server device 102 also transmits the 3D virtual space VRML content stored on the hard disk drive 100 to the client system 2 via the server device 102, LAN 104, Internet system 12, Internet provider 14, and ISDN 16 (hereinafter, these communication nodes within the network system 1 are collectively referred to as the "network"), and displays it on the display device 24.

さらにサーバ装置102は、クライアントシステム2の要求に応じて例えば、 ハードディスク装置100に記録されたコンテンツ作成用ソフトウェアツールで あるプログラムをネットワークを介して、クライアントシステム2へ転送する。Furthermore, in response to a request from the client system 2, the server device 102 transfers, for example, a program, such as a software tool for content creation, stored on the hard disk drive 100 to the client system 2 via the network.

あるいは、コンテンツ作成ソフトウェアツールであるプログラムをFD280ま たはMOディスク282に格納した状態でクライアントシステム2に配信する様 にしても構わない。Alternatively, a content creation software tool program may be stored on a floppy disk 280 or an MO disk 282 and distributed to the client system 2.

プログラムを媒介する媒体の説明 本発明の図形データ生成装置、図形データ生成方法およびその方法を実施する プログラムを媒介する媒体として、下記に、クライアントシステム2における構 成および動作を中心に述べるが、本発明における「媒体」とは、本発明の図形デ ータ生成方法を実現するコンピュータ・プログラムを記憶した記録媒体は勿論含 むが、単にプログラム記憶媒体を意味するものではなく、下記の実施の形態にお いてその内容について詳述するクライアント(加入者)システム2はもとより、 本発明の図形データ生成方法を実現するために、図2のネットワークシステム1 を介してコンピュータ・プログラムをクライアントンステム2へダウンロードす る際のプログラム伝送媒体をも意味する。その理由は、下記の記述から明らかな ように、本発明の図形データ生成方法の実施には際しては、実施に際して集中化 の制約を受けず、ある処理を任意の場所で実現できるからである。もちろん、本 発明を局所化して実現することもできる。 Description of Program Media: The following describes the configuration and operation of the client system 2 as a medium for carrying the graphics data generation device, graphics data generation method, and program for implementing the method of the present invention. However, the term "medium" as used herein includes not only a recording medium storing a computer program for implementing the graphics data generation method of the present invention, but also refers to not only the client (subscriber) system 2, the details of which will be described in detail in the following embodiments, but also a program transmission medium for downloading a computer program to the client system 2 via the network system 1 of FIG. 2 to implement the graphics data generation method of the present invention. This is because, as will be clear from the following description, the graphics data generation method of the present invention is not subject to centralized implementation constraints and can be implemented at any location. Of course, the present invention can also be implemented locally.

図3は図1において、特に、クライアント(加入者)システム2において、処 理される本発明の図形データ生成方法と図形データ生成装置、特に、コンテンツ 作成用ソフトウエアツール3(Community Place( 商標 )Conductor)の構成を 示す図である。コンテンツ作成用ソフトウェアツール3は、グラフィカルユーザ ーインターフェース部(GUI)31、オブジェクトマネジャ32、Javaコ ンパイラ33、シーングラフマネジャ34、JavaVM34B、パーサー34 C、HTMLブラウザ35、バックアップマネジャ36を有する。FIG. 3 shows the configuration of the graphic data generation method and device of the present invention, particularly the content creation software tool 3 (Community Place™ Conductor), which is processed in the client (subscriber) system 2 in FIG. 1. The content creation software tool 3 includes a graphical user interface (GUI) 31, an object manager 32, a Java compiler 33, a scene graph manager 34, a Java VM 34B, a parser 34C, an HTML browser 35, and a backup manager 36.

グラフィカルユーザーインターファース部31は、各種ウィンドウ表示を行う 。The graphical user interface unit 31 displays various windows.

外部プログラムとしてのJavaコンパイラ33はJavaプログラムをコン パイルする。シーングラフマネジャ34はブラウザと共通している部分であり、 シーングラフマネジャ34AはVRMLノードの階層構造を扱う。パーサー34 CはVRMLファイルを解析する。JavaVM34BはJavaで記述された スクリプトを実行する。The Java compiler 33, an external program, compiles Java programs. The scene graph manager 34 is a common part with the browser. The scene graph manager 34A handles the hierarchical structure of VRML nodes. The parser 34C parses VRML files. The Java VM 34B executes scripts written in Java.

外部プログラムとしてのHTMLブラウザ35はアンカーノードの表示、また はHTML形式で記述されたVRMLノードのヘルプファイルの表示をするため に使用する。The HTML browser 35, an external program, is used to display anchor nodes or help files for VRML nodes written in HTML format.

シーングラフマネジャ34A、JavaVM34B、パーサー34Cからなる 部分34は、たとえば、ソニー株式会社が提供するCommunity Pla ce(商標)ブラウザと共通して利用することができる。The section 34, consisting of the scene graph manager 34A, Java VM 34B, and parser 34C, can be used in common with, for example, the Community Place™ browser provided by Sony Corporation.

バックアップマネジャ36は、表示装置の画面の「Playボタン」がマウス で押されて「Playモード」になるとイネーブル状態になり、各フィールド値 のバックアップの準備を開始する。「Stopボタン」が押されたとき蓄積した 順にフィールド値を復元して、元の画面を復活させる。すなわち、コンテンツ作 成用のソフトウェアツールである「Conductor」ではワールドの編集か ら動作の確認まで行うことができるように設計されている。ユーザが「Play ボタン」を押すことにより「Playモード」に入ると、Conductorは ブラウザのエミュレーションを開始する。この状態では、ユーザからのインタラ クションに応じて、例えばオブジェクトが動き出したりするといったように各フ ィールドの状態が変化する。しかし、表示装置の画面の「Stopボタン」をマ ウスで押して「通常の編集モード」に戻った時には、全て「Playボタンを押 す前の状態」に戻っていなければならない。この時に必要となるのが、各フィー ルド値のバックアップとその復活処理である。When the "Play button" on the display screen is pressed with the mouse to enter "Play mode," the backup manager 36 becomes enabled and begins preparing to back up each field value. When the "Stop button" is pressed, the accumulated field values are restored in order, restoring the original screen. In other words, the content creation software tool "Conductor" is designed to allow users to perform everything from world editing to operation verification. When the user presses the "Play button" to enter "Play mode," Conductor begins browser emulation. In this state, the state of each field changes in response to user interaction, such as objects moving. However, when the "Stop button" on the display screen is pressed with the mouse to return to "normal editing mode," everything must return to the state it was in before the "Play button" was pressed. This requires the process of backing up each field value and restoring it.

バックアップマネジャ36の動きは次のようになる。バックアップマネジャ3 6は「Playモード」に入るとイネーブル状態になり、各フィールド値のバッ クアップの準備を開始する。そして、動的なオブジェクトの変化などによって初 めてフィールド値が変更された時に、元のフィールド値を保存する。フィールド 値の保存は順次スタック記憶していく方式(Stack方式))であり、「St opボタン」を押したときに順次記憶したものから復元していき(Stackを popしながら)、元のウィンドウの表示状態を復元していく。The Backup Manager 36 operates as follows: When the Backup Manager 36 enters "Play Mode," it becomes enabled and begins preparing to back up each field value. Then, the first time a field value is changed due to a dynamic object change, the original field value is saved. Field values are saved sequentially in a stack (the "Stack" method). When the "Stop" button is pressed, the saved values are restored sequentially (by popping the stack), restoring the original window display state.

大規模なプログラムを作成する場合に複数のファイルに分割するように、ワー ルドがある程度大きくなってきた場合、複数のファイルに分割することが望まし い。オブジェクトマネジャ32はそのような場合にコンシンテンシ(一貫性)を 管理する部分である。Just as a large program can be split into multiple files, it is desirable to split a world into multiple files when it becomes large enough. The object manager 32 is responsible for managing consistency in such cases.

ルートエディタ(図解せず)は、ルート文を用いてフィールド間のイベントを 定義していくときに使用する。本発明においてはGUI31を用いてノードを指 定するので、間違った名前を指定することがなくなる。またユーザがルートのつ いてノードを変更してもオブジェクトマネジャ32が各スコープごとのDEFを 管理しているまで間違いがなく、自動的にルート文が更新できる。The Route Editor (not shown) is used to define events between fields using route statements. In this invention, nodes are specified using the GUI 31, eliminating the risk of specifying an incorrect name. Even if the user changes the node for the route, the Object Manager 32 manages the DEF for each scope, so there is no error and the route statement can be updated automatically.

Javaなどの言語を用いてよりインタラクティブなワールドにするため、ス クリプトを用いるが、スクリプトの作成はコンテンツを作成する上で難しいもの として知られている。特に、Javaの言語と、VRMLと結合部分が難しい。Scripts are used to create a more interactive world using languages such as Java, but creating scripts is known to be difficult when creating content, especially when it comes to combining Java with VRML.

本発明においては、この課題を克服するために、詳細を後述するスクリプトエキ スパート(図示せず)を設けた。In order to overcome this problem, the present invention provides a script expert (not shown), which will be described in detail below.

図4はコンテンツ作成用ソフトウェアツール3が行う処理を示すフローチャー トである。本発明では上述した従来の不備を改善するため、手作業を配してGU 131を用いて全ツール内を効率的かつ自動的に行えるように構成した。その概 要を述べる。上述したように、図3に図解したコンテンツ作成用ソフトウェアツ ール3はネットワークシステム1の任意の部分で任意のものを実施することがで きるが、以下の記述においては、記述を簡単にするため、主として、クライアン トシステム2において実施される場合を述べる。Figure 4 is a flowchart showing the processing performed by the content creation software tool 3. To address the above-mentioned conventional deficiencies, the present invention eliminates manual operations and allows efficient, automated processing within the entire tool using the GUI 131. An overview of this configuration follows. As noted above, the content creation software tool 3 illustrated in Figure 3 can be implemented in any part of the network system 1. However, for simplicity, the following description will primarily focus on the case where it is implemented in the client system 2.

図4の処理内容を述べる。コンテンツ作成用ソフトウエアツール3の処理は大 別すると、(1)初期化、(2)モデルの作成、(3)インタラクションの作成 になる。The processing details of Figure 4 are described below. The processing of the content creation software tool 3 can be broadly divided into (1) initialization, (2) model creation, and (3) interaction creation.

ステップ201において、たとえば、ハードディスク装置100からコンピュ ータシステム20のハードディスク装置214にモデルデータのダウンロードを 行う。すなわち、VRML2.0で記述されたモデルをクライアントシステム2 のコンピュータシステム20にロードする。ロードの方法としては、ネットワー クシステム1の任意の部分からコンピュータシステム20にダウンロードするこ とができる。In step 201, model data is downloaded, for example, from hard disk drive 100 to hard disk drive 214 of computer system 20. That is, a model written in VRML 2.0 is loaded into computer system 20 of client system 2. The loading method can be downloading to computer system 20 from any part of network system 1.

ステップ202において、モデル(オブジェクト)の編集、たとえば、モデル の再配置、属性の変更などの編集処理を行う。In step 202, editing of the model (object) is performed, for example, by rearranging the model, changing its attributes, etc.

ステップ203〜207においてインタラクションの作成を行う。すなわち、 ステップ203においてセンサの追加を行い、ステップ204においてスクリプ トノードの追加を行い、ステップ205においてJavaプログラムの編集を行 い、ステップ206においてJavaプログラムのコンパイルを行い、ステップ 207においてルーティングの編集を行う。Interactions are created in steps 203 to 207. That is, Sensors are added in step 203, script nodes are added in step 204, the Java program is edited in step 205, the Java program is compiled in step 206, and routing is edited in step 207.

ステップ208において、上記の処理結果の動作確認を表示装置の画面のCond uctor ウィンドウ(図10)に示した「Playボタン」をマウスで押して実行 する。図1を参照して述べた確認動作は、VRMLコンテンツの作成終了後にブ ラウザを起動して行われるが、ステップ208の動作はブラウザを起動すること なく、任意のタイミングで可能となっている。その詳細は、図5〜図6を参照し て後述するが、本願発明の方法によれば、つまり、コンテンツ作成用リフトウエ アツール3は、ユーザが「Playボタン」を押下すると、図9等に示す3D Perspective Viewウィンドウ(編集ウィンドウ)である編集画 面がそのままVRMLブラウザの表示画面に代わり、作成しているコンテンツの 内容が表示される。In step 208, the user confirms the results of the above processing by clicking the "Play" button in the Conductor window (Figure 10) on the display device screen with the mouse. The confirmation operation described with reference to Figure 1 is performed by launching a browser after the VRML content has been created, but step 208 can be performed at any time without launching a browser. Details will be described later with reference to Figures 5 and 6. According to the method of the present invention, when the user presses the "Play" button on the content creation software 3, the editing screen, i.e., the 3D Perspective View window (editing window) shown in Figure 9, etc., replaces the display screen of the VRML browser and displays the content being created.

また、センサの追加およびルーティングの編集等が、本実施の形態のコンテン ツ作成用ソフトウエアツール3においてはグラフィカルユーザーインターフェー ス部(GUI)31によるインタラクティブな操作で可能になっている。In addition, the content creation software tool 3 of this embodiment allows for interactive operations such as adding sensors and editing routing through a graphical user interface (GUI) 31.

またコンテンツ作成用ソフトウエアツール3には、スクリプトエキスパート( Script Expert)とばれ、インタラクティブな操作によりスクリプ トのテンプレートを作成し、ユーザの操作により動作確認の際に自動的にコンパ イルする機能が付加されている。従って、本実施の形態のコンテンツ作成用ソフ トウエアツール3においては、動作確認の際に自動的にコンパイルする機能が付 加されている。その結果として、本実施の形態のコンテンツ作成用ソフトウエア ツール3においては、これらの作業をコマンドの文字列入力入力(コマンドライ ン)により行う必要をなくしている。これらの機能により、ユーザVRML2 .0による3次元仮想空間のコンテンツ作成時間を大幅に短縮することできる。The content creation software tool 3 also includes a function called Script Expert, which allows interactive creation of script templates and automatically compiles them when the user checks their operation. Therefore, the content creation software tool 3 of this embodiment includes an automatic compilation function when checking their operation. As a result, the content creation software tool 3 of this embodiment eliminates the need to perform these tasks by inputting command strings (command line). These functions significantly reduce the time required to create 3D virtual space content using User VRML 2.0.

本発明においては、ステップ203におけるセンサの追加はドラッグ&ドロッ プにより簡単に行えるようにしている。In the present invention, adding a sensor in step 203 can be easily performed by dragging and dropping.

また本発明においては、ステップ207におけるルーティングの編集もGUI を用いて簡単に行えるようにしている。Additionally, in the present invention, the routing editing in step 207 can also be easily performed using a GUI.

さらに本発明においては、ルードエディタを用いてルートを追加するときもイ ベントの型をチェックする機能を有しており、ユーザが誤ったルートを指定する ことが防止できる。Furthermore, the present invention has a function for checking event types when adding routes using the route editor, preventing the user from specifying incorrect routes.

特に本発明においては、図1を参照して述べた不備を改善するため、ステップ 208として上述したように、かつ、図5に図解したように、ブラウザを起動す ることなく任意のタイミングで、(1)S211:所定の第1の操作としてユー ザによって表示装置の画面に設けられた「Playボタン」が押されたら、(2 )S212:エミュレータが起動してエミュレータの動作によってその時の動作 が確認できるようにしている。(3)S213:確認後、ユーザによる所定の第 2の操作として表示装置の画面に設けられた「Stopボタン」を押すと通常の 編集モードに復帰する。これにより、通常のVRMLコンテンツの作成と同時に ノードを追加したり、スクリプトノードに対するプログラムを変更したとき、「 Playボタン」を押すだけで、エブラウザエミュレータを活用して、その場で 簡単に確認できる。その結果、もしコンパイラエラーが発生したとしたら、容易 にそのエラーを検出でき、即座にそのエラーを修正し、再コンパイルできること になる。In particular, in this invention, to address the deficiencies described with reference to FIG. 1, as described above as step 208 and illustrated in FIG. 5, the following steps are performed at any time without launching a browser: (1) S211: When the user presses the "Play" button on the display device screen as a predetermined first operation, (2) S212: The emulator is launched and the current operation can be confirmed by the emulator's operation. (3) S213: After confirmation, the user can press the "Stop" button on the display device screen as a predetermined second operation to return to normal editing mode. This allows users to easily check on the spot, by simply pressing the "Play" button, using the browser emulator, when adding nodes or changing the program for a script node while creating normal VRML content. As a result, if a compiler error occurs, the error can be easily detected, immediately corrected, and recompiled.

上記確認動作においてさらに好ましくは、上述した、バックアップマネジャ3 6をプラウザエミュレータと連動させて動作させることが望ましい。すなわち、 ステップ208の確認動作中、図6に図解したように、(1)S221:ユーザ による第1の所定の操作として「Playボタン」が押されたとき、(2)S2 22:上述と同様ブラウザブラウザエミュレータが動作するとともに、バックア ップマネジャ36がイネーブルになりバックアップ可能な状態になる。(3)S 223:この状態で、たとえは、クリックされることにより移動を開始する動的 なオブジェクトがクリックされたとき、(4)S224:バックアップマネジャ 36はオブジェクトの動的な振る舞いを規定するフィールド値を順次保存する。In the above verification operation, it is even more preferable to operate the backup manager 36 in conjunction with the browser emulator. That is, during the verification operation of step 208, as illustrated in FIG. 6, (1) S221: When the user presses the "Play button" as a first predetermined operation, (2) S222: The browser emulator operates as described above, and the backup manager 36 is enabled, entering a backup-enabled state. (3) S223: In this state, for example, when a dynamic object that starts moving when clicked is clicked, (4) S224: The backup manager 36 sequentially saves field values that define the dynamic behavior of the object.

(5)S225:ユーザによる第2の所定の操作として「Stopボタン」が押 されると確認動作の完了となるが、(6)S226:バックアップマネジャ36 は保存しておいたフィールド値を順次復元し、初期状態のフィールド値にリセッ トする。これにより、確認動作の前の元の状態のオブジェクトが復元できる。こ れらの操作は「Playボタン」と「Stopボタン」の操作のみでよく、操作 性が向上する他、処理時間も短縮できる。(5) S225: When the user presses the "Stop" button as a second predetermined operation, the verification operation is completed. (6) S226: The backup manager 36 sequentially restores the saved field values and resets them to their initial state. This restores the object to its original state before the verification operation. These operations require only the "Play" and "Stop" buttons, improving operability and shortening processing time.

クライアント(加入者)システム2およびコンピュータシステム20 図7は図2に示したコンピュータシステム20の構成を示す図である。図7に おいて、図2に図解した外部記憶装置28がフロッピーディスク(FD)280 、および/または、光磁気(MO: magneto-optical)ディスク282として具体 的に図解されており、入力装置26がキーボード(KB)260および/または マウス(MOUSE)262として具体化されている。 Client (Subscriber) System 2 and Computer System 20 Figure 7 shows the configuration of the computer system 20 shown in Figure 2. In Figure 7, the external storage device 28 shown in Figure 2 is specifically illustrated as a floppy disk (FD) 280 and/or a magneto-optical (MO) disk 282, and the input device 26 is specifically illustrated as a keyboard (KB) 260 and/or a mouse (MOUSE) 262.

本発明の実施に際して、表示装置24は、キーボード、マウスなどの情報入力 手段と協動してインタラクティブな情報表示処理に適した任意のカラー表示装置 、たとえば、カラーCRT表示装置、カラー液晶表示装置を用いることができる 。以下、本明細書において表示装置24というとき、キーボード、マウスなどの 情報入力手段と協動するカラーCRT表示装置またはカラー液晶表示装置につい て例示した場合について述べる。In implementing the present invention, the display device 24 can be any color display device suitable for interactive information display processing in cooperation with information input means such as a keyboard or mouse, such as a color CRT display or a color LCD display. Hereinafter, when referring to the display device 24 in this specification, we will be referring to a color CRT display or a color LCD display in cooperation with information input means such as a keyboard or mouse.

コンピュータシステム20は、例えば、ISDN網16に接続された通信機能 を有するマルチメディア対応のコンピュータであって、CPU202、ROM2 04、入力インターフェース(IN I/F)208、表示装置24用コントロ ーラ(DSP−C)210、ビデオ信号記録用RAM(VRAM)212、ハー ドディスク装置(HDD)214、フロッピーディスクドライブ装置(FDD) 216、MOディスクドライブ装置218および回線インターフェース220が バス200を介して接続されている。The computer system 20 is, for example, a multimedia-capable computer with communications capabilities connected to the ISDN network 16, and includes a CPU 202, a ROM 204, an input interface (IN I/F) 208, a display device 24 controller (DSP-C) 210, a video signal recording RAM (VRAM) 212, a hard disk drive (HDD) 214, a floppy disk drive (FDD) 216, an MO disk drive 218, and a line interface 220 connected via a bus 200.

CPU202は、ROM204およびHDD214に記憶されている種々の制 御プログラムを動作させて下記に述べる種々の動作を行う。たとえば、CPU2 02は、DSP−C210を介して表示装置24に種々の画像データを表示させ 、入力インターフェース208を介してKB260からのデータ入力またはマウ ス262からのデータの入力を行う。CPU202はまたフロッピーディスクド ライブ装置216を介して外部記憶装置28としてのフロッピーディスク280 へのデータ記憶またはFD280からのデータの読み出し、または、MOディス クドライブ装置218を介して外部記憶装置28としてのMOディスク282へ のデータ記憶またはMOディスク282からのデータの読み出しを行う。CPU 202はまた回線インターフェース220を介してISDN16と通信を行う。The CPU 202 executes various control programs stored in the ROM 204 and the HDD 214 to perform various operations described below. For example, the CPU 202 displays various image data on the display device 24 via the DSP-C 210, and inputs data from the KB 260 or the mouse 262 via the input interface 208. The CPU 202 also stores data on or reads data from a floppy disk 280 serving as the external storage device 28 via the floppy disk drive device 216, or stores data on or reads data from an MO disk 282 serving as the external storage device 28 via the MO disk drive device 218. The CPU 202 also communicates with the ISDN 16 via the line interface 220.

コンピュータシステム20は、サーバ装置102からISDN16を含むネッ トワークを介して送られてきた3次元仮想空間のVRMLコンテンツの画像を表 示装置24に表示してユーザ(クライアント)に示す。Computer system 20 displays on display device 24 images of VRML content of a three-dimensional virtual space transmitted from server device 102 via a network including ISDN 16, and shows them to the user (client).

コンピュータシステム20は、サーバ装置102からネットワークあるいは外 部記憶装置28を介して供給されるコンテンツ作成用ソフトウエアツール3をハ ードディスク装置214にインストールし、KB260またはマウス262を用 いたクライアントの操作に応じてコンテンツ作成用ソフトウェアツール3(プロ グラム)を起動して、3次元仮想空間のVRMLコンテンツを作成し、ハードデ ィスク装置214に格納し、または、ネットワークあるいは外部記憶装置28( フロッピーディスク280および/またはMOディスク282)を介してサーバ 装置102にアップロードする。The computer system 20 installs the content creation software tool 3, supplied from the server device 102 via the network or external storage device 28, onto the hard disk drive 214, launches the content creation software tool 3 (program) in response to client operations using the KB 260 or mouse 262, creates VRML content for a three-dimensional virtual space, stores it on the hard disk drive 214, or uploads it to the server device 102 via the network or external storage device 28 (floppy disk 280 and/or MO disk 282).

またコンピュータシステム20は表示装置24に表示したオブジェクトに対し て、ユーザによって入力装置26を用いたポインティング操作等に応じて、例え は、ポインティングされたオブジェクトの表示色を変更したり、3次元仮想空間 のオブジェクトの表示内容を変更する。Furthermore, the computer system 20 responds to a user's pointing operation using the input device 26 by, for example, changing the display color of the pointed object or changing the display content of the object in the three-dimensional virtual space.

3次元仮想空間の表示:このように、コンピュータシステム20を有するクラ イアントシステム2によれば、3次元仮想空間におけるオブジェクトに対するユ ーザの操作に応じてインタラクティブに表示装置24における表示内容を変更す ることができるから、クライアントシステム2を用いるとあたかも実際に3次元 仮想空間内においてユーザ自身がオブジェクトを移動させたり、オブジェクトに 触れて操作し、移動させたり音を出したりしているかのような現実的な感覚(実 在感)を起こさせることができる。 Display of three-dimensional virtual space: In this way, the client system 2 having the computer system 20 can interactively change the display content on the display device 24 in response to user operations on objects in the three-dimensional virtual space. Therefore, by using the client system 2, the user can experience a realistic sensation (sense of reality) as if they were actually moving objects in the three-dimensional virtual space, touching and manipulating the objects, and moving and making sounds.

またクライアントシステム2からネットワークを介して3次元仮想空間のVR MLコンテンツを取得したサーバ装置102は、VRMLコンテンツをハードデ ィスク装置100に記憶することでインターネットシステム12上でインターネ ットの加入者に公開することが可能である。サーバ装置102はクライアントシ ステム2からネットワークを介してアクセスを受けると、VRMLコンテンツを クライアントシステム2にネットワークを介して転送する。Furthermore, the server device 102, which acquires VRML content of a three-dimensional virtual space from the client system 2 via the network, stores the VRML content on the hard disk device 100, making it available to Internet subscribers over the Internet system 12. When the server device 102 is accessed via the network from the client system 2, it transfers the VRML content to the client system 2 via the network.

クライアントシステム2のコンピュータシステム20は、サーバ装置102か ら送られてきたVRMLコンテンツに基づく3次元仮想空間をブラウザにより表 示装置24に表示する。The computer system 20 of the client system 2 uses a browser to display on the display device 24 a three-dimensional virtual space based on the VRML content sent from the server device 102.

クライアントシステム2内で閉じた3次元仮想空間のVRMLコンテンツを作 成し他のユーザと3次元仮想空間のVRMLコンテンツを共有しない場合には、 作成したVRMLコンテンツをブラウザを用いてそのまま表示装置24に表示す れば足り、必ずしも作成したVRMLコンテンツをサーバ装置102にアップロ ードする必要はない。If VRML content for a closed three-dimensional virtual space is created within the client system 2 and is not to be shared with other users, it is sufficient to display the created VRML content directly on the display device 24 using a browser; there is no need to upload the created VRML content to the server device 102.

インタラクション表示:ユーザは表示装置24に表示されている画像の所望の 位置をマウス262を用いてポインティングし、3次元仮想空間内を移動させる 操作データ、あるいは、3次元仮想空間内のオブジェクトを指定する操作データ を入力する。コンピュータシステム20は操作データに応じて3次元仮想空間の 内容を変更し、VRMLブラウザを用いて表示装置24に表示する。 Interactive display : The user uses the mouse 262 to point to a desired position on the image displayed on the display device 24, and inputs operation data for moving within the three-dimensional virtual space or for specifying an object within the three-dimensional virtual space. The computer system 20 changes the contents of the three-dimensional virtual space in accordance with the operation data, and displays it on the display device 24 using a VRML browser.

好適実施の形態 本発明の好適な実施の形態を説明する。 Preferred Embodiments A preferred embodiment of the present invention will now be described.

上述したように、従来は、オブジェクトの図形データ(VMRLファイル)に 対するセンサの付加およびルーティング等のインタラクション作成作業はテキス トエディタ機能を用いて、ユーザ(クライアント)が手作業で行うので、単純な ミスが生じやすい。また、インタラクション作成作業の結果が正しいか否かは、 図1におけるステップ108に示したVRMLブラウザを用いて確認するまで判 明しないので、インタラクションプログラムに変更を加えるたびにVRMLブラ ウザを起動して確認を行う必要があり、作業効率が低く、時間がかかる。本発明 の実施の形態は上述した不具合を解消する。すなわち、本発明の実施の形態は、 モデル作成の動作とインタラクション作成エディタの動作との連携を図ることに より、これらの作業を統合的に行って、3次元仮想空間のコンテンツの作成作業 を効率よく、短時間に容易に行うことを可能とする。As mentioned above, in the past, interaction creation tasks such as adding sensors and routing to object graphic data (VMRL files) were performed manually by the user (client) using a text editor, making it prone to simple errors. Furthermore, the accuracy of the interaction creation results could not be determined until confirmation was made using the VRML browser shown in step 108 of Figure 1. This required launching the VRML browser and checking each time an interaction program was changed, resulting in inefficient and time-consuming work. Embodiments of the present invention address the above-mentioned drawbacks. Specifically, by linking model creation operations with the operation of the interaction creation editor, embodiments of the present invention enable these tasks to be performed in an integrated manner, enabling the efficient and time-consuming creation of 3D virtual space content.

図8は図3に図解したコンテンツ作成用ソフトウェアツール3の実施の形態と して示すコンテシツ作成用ソフトウエアツール4の構成を示す図である。モデル 作成作業とインタラクション作成作業とを統合的に関連付けて行うため、コンデ ンツ作成用ソフトウエアツール4は、グラフィカルユーザーインターフェース部 (GUI)40、編集ツール42、シーングラフデータベース(SGDB)44 、作業ツール46、スクリプト作成部47およびVRMLブラウザ308から構 成される。Figure 8 shows the configuration of a content creation software tool 4, which is an embodiment of the content creation software tool 3 illustrated in Figure 3. To perform model creation and interaction creation in an integrated manner, the content creation software tool 4 is composed of a graphical user interface (GUI) 40, an editing tool 42, a scene graph database (SGDB) 44, a work tool 46, a script creation unit 47, and a VRML browser 308.

編集ツール42はモデル編集ツール420、ルーティング編集ツール422、 シーングラフ編集ツール424、テキストエディタ426およびテンプレート作 成ツール428から構成されている。The editing tools 42 consist of a model editing tool 420, a routing editing tool 422, a scene graph editing tool 424, a text editor 426, and a template creation tool 428.

作業ツール46はブラウザエミュレータ460、ファイル入出力部462、フ ァイルスコープマネージメント部464およびバックアップ・レストア部466 から構成される。The work tool 46 consists of a browser emulator 460, a file input/output unit 462, a file scope management unit 464, and a backup/restore unit 466.

スクリプト作成部47はJavaエミュレータ470、Javaデバッガ47 2およびJavaコンパイラ474から構成されている。The script creation unit 47 is composed of a Java emulator 470, a Java debugger 472, and a Java compiler 474.

コンテンツ作成用ソフトウエアツール4は、たとえは、ハードディスク装置1 00に記憶されておりネットワークシステム1を介して、あるいは、ネットワー クあるいは外部記憶装置28(フロッピーディスク280またはMOディスク2 82)に記憶されており外部記憶装置28からコンピュータシステム20に入力 され、ハードディスク装置214にインストールされて用いられる。すなわち、 本実施の形態においては、コンテンツ作成用ソフトウエアツール4はコンピュー タシステム20において実現される例を述べる。The content creation software tool 4 is, for example, stored in the hard disk drive 100 and transmitted via the network system 1, or stored in a network or external storage device 28 (floppy disk 280 or MO disk 282) and input from the external storage device 28 to the computer system 20, where it is installed in the hard disk drive 214 and used. In other words, in this embodiment, an example will be described in which the content creation software tool 4 is implemented in the computer system 20.

コンテンツ作成用リフトウエアツール4の構成部分を説明する。The components of the content creation software tool 4 will now be described.

グラフィカルユーザーインターフェース部(GUI)40 グラフィカルユーザーインターフェース部(GUI)40は、図3のグラフィ カルユーザーインターフェース部(GUI)31に対応しており、3次元仮想空 間のVRMLコンテンツ作成に用いられる各種データの入力に用いられる画像を PC20を介して表示装置24にウィンドウ形式で表示する。 Graphical user interface unit (GUI) 40 The graphical user interface unit (GUI) 40 corresponds to the graphical user interface unit (GUI) 31 in FIG. 3, and displays images used for inputting various data used in creating VRML content for a three-dimensional virtual space in window format on the display device 24 via the PC 20.

図9はGUI40が表示装置24に表示する1実施例としてのGUI画面を示 す図である。図9に図解したGUI画面は、Conductor ウィンドウ、3D Perspec tive View ウィンドウ、Parallel View ウィンドウ、リソースライブラリ・ウィ ンドウ、シーングラフウィンドウ、World Infoウィンドウ、Appearanceウィンド ウ、ルートウィンドウ、Attribute ウィンドウ、Script Exper ウィンドウ(図 示せず)、Script Editor ウィンドウを有する。FIG. 9 shows an example GUI screen displayed by GUI 40 on display device 24. The GUI screen illustrated in FIG. 9 includes a Conductor window, a 3D Perspective View window, a Parallel View window, a Resource Library window, a Scene Graph window, a World Info window, an Appearance window, a Root window, an Attribute window, a Script Explorer window (not shown), and a Script Editor window.

(1)Conductor ウィンドウはConductor 全体の管理に用いる。(1) The Conductor window is used to manage the entire Conductor.

(2)3D Perspective View ウィンドウは3次元的に画像を表示する部分であ る。以下適宜、3D View ウィンドウと略称する。(2) The 3D Perspective View window displays a three-dimensional image. Hereinafter, this will be referred to as the 3D View window.

(3)Parallel View ウィンドウは平行投影で画像を表示する部分である。(3) The Parallel View window is the part that displays the image in parallel projection.

(4)リソースライブラリ・ウィンドウはライブラリの管理をする部分である 。(4) The Resource Library window is where you manage your library.

(5)シーングラフウィンドウはワールドの階層的なツリー構造を表示する部 分である。(5) The Scene Graph window displays the hierarchical tree structure of the world.

(6)World Infoウィンドウはワールドの属性を設定する部分である。(6) The World Info window is where you set the world's attributes.

(7)Appearanceウィンドウはオブジェクトの色とテクスチャーを設定する部 分である。(7) The Appearance window is where you set the color and texture of an object.

(8)ルートウィンドウはイベントのルーティング設定する部分である。(8) The root window is the part where event routing is set.

(9)Attribute ウィンドウはノードの属性とノード名を設定する部分である 。(9) The Attribute window is where you set the node attributes and node name.

(10)Script Expert ウィンドウはスクリプトのひな型を作成する部分であ る。(10) The Script Expert window is where you create script templates.

(11)Script Editor ウィンドウはJavaファイルを編集するテキストエディ タの部分である。(11) The Script Editor window is the part of the text editor where you edit Java files.

図10Aは図9に図解したConductor ウィンドウの拡大図であり、図10B、 図10Cは図10Aの拡大図である。Conductor ウィンドウはConductor 全体を 管理するウィンドウであり、Conductor ウィンドウを用いるとワールドの新規作 成、読み込み、保存、実行、停止、マウスモードの切り替え、オブジェクトの追 加、削除などの処理が行える。Figure 10A is an enlarged view of the Conductor window shown in Figure 9, while Figures 10B and 10C are enlarged views of Figure 10A. The Conductor window manages the entire Conductor environment, allowing you to create, load, save, run, and stop worlds, switch mouse modes, and add and delete objects.

(a)Fileメニューの「New 」を選択すると新規にワールドを作成できる。(a) You can create a new world by selecting "New" from the File menu.

(b)ワールドをファイルから読み込むには、Openボタンを押すか、Fileメニ ューの「Open」を選択する。(b) To load a world from a file, press the Open button or select "Open" from the File menu.

(c)ワールドをファイルに保存するには、Saveボタンを押すか、Fileメニュ ーの「Save」を選択する。(c) To save the world to a file, press the Save button or select "Save" from the File menu.

(d)ワールドの動きを確認するには、「Playボタン」を押す。(d) To check the movement of the world, press the "Play button."

(e)Play中にPause ボタンを押すと、Playが一旦停止し、再度Pause ボタン を押すか「Playボタン」を押すとPlayが再開される。(e) Pressing the Pause button during playback will pause playback, and pressing the Pause button again or the Play button will resume playback.

Conductor では図10Bに拡大して図解したマウスモードがある。Conductor has a mouse mode, which is illustrated in expanded form in Figure 10B.

(f)Navigate(視点移動)は2D/3D View ウィンドウ内で視点を移動すると きに使用する。(f) Navigate (viewpoint movement) is used to move the viewpoint within the 2D/3D View window.

(g)Move(移動)はオブジェクトを移動させるときに使用する。(g) Move is used to move an object.

(h)Rotate(回転)はオブジェクトを回転させるときに使用する。(h) Rotate is used to rotate an object.

(i)Scale(スケール変更)はオブジェクトのスケールを変更するときに使 用する。(i) Scale is used to change the scale of an object.

またConductor では図10Cに拡大して図解したプリミティブバーが設けられ ており、Box とかConeなどのプリミティブなオブジェクトを追加するときにプリ ミティブバーで追加したいオブジェクトを選択し、3D View ウィンドウをクリッ クする。プリミティブバーには、「Sensor」も設けられている。Conductor also has a Primitives bar, shown enlarged in Figure 10C. To add a primitive object such as a Box or Cone, select the object you want to add on the Primitives bar and click in the 3D View window. The Primitives bar also has a "Sensor" button.

GUI40は表示装置24に表示されたウィンドウ内の各種ボタンをユーザが 入力装置26としてのマウス262を用いて押下することにより入力された操作 入力データ、あるいは、キーボード260を用いて入力された操作データを受け 入れ、必要な操作データを編集ツール42の各ツールおよびシーングラフデータ ベース44に提供する。このように、GUI40はユーザにGUI環境を提供す る。The GUI 40 accepts operation input data entered by the user pressing various buttons in a window displayed on the display device 24 using the mouse 262 as the input device 26, or operation data entered using the keyboard 260, and provides the necessary operation data to each tool in the editing tool 42 and to the scene graph database 44. In this way, the GUI 40 provides a GUI environment to the user.

GUI40は、編集ツール42およびシーングラフデータベース44から表示 出力データを受け、受信したデータを表示装置24の所定のウィンドウ内に表示 する。編集ツール42、シーングラフデータベース44、作業ツール46の各構 成部分は、GUI40に入力される操作データに応じて起動され、GUI40に より提供される操作データに基づいて処理を行う。The GUI 40 receives display output data from the editing tool 42 and the scene graph database 44 and displays the received data in a designated window on the display device 24. Each component of the editing tool 42, scene graph database 44, and work tool 46 is activated in response to operation data input to the GUI 40 and performs processing based on the operation data provided by the GUI 40.

VRMLブラウザ308 VRMLブラウザ308はコンピュータシステム20において作成されたVR MLコンテンツの最終的な内容確認、および、サーバ装置102から取得したV RMLコンテンツの表示を行うほか、GUI40〜作業ツール46の各構成部分 の動作と連動したヘルプファイルの表示を行う。VRMLブラウザ308は、た とえば、ソニー株式会社が提供するCommunity Place(商標)ブ ラウザを用いることができる。以下、Community Placeブラウザ を例示する。 VRML Browser 308 The VRML browser 308 performs final confirmation of the VRML content created in the computer system 20, displays VRML content obtained from the server device 102, and also displays help files linked to the operation of each component of the GUI 40 to the work tools 46. The VRML browser 308 can be, for example, the Community Place (trademark) browser provided by Sony Corporation. An example of the Community Place browser is given below.

編集ツール42 編集ツール42は全体としては、3次元仮想空間内のオブジェクトの図形デー タおよびインタラクションプログラムの作成に必要な機能をユーザに提供する。 Editing Tool 42 The editing tool 42 as a whole provides the user with the functions necessary to create graphic data and interaction programs for objects in a three-dimensional virtual space.

以下、編集ツール42のそれぞれの部分について述べる。Each part of the editing tool 42 will now be described.

モデル編集ツール420 下記にモデル編集ツール420の処理機能を列挙する。Model Editing Tool 420 The processing functions of the model editing tool 420 are listed below.

(1)モデル編集ツール420は、表示装置24に表示されたモデル編集用ウ ィンドウに対するユーザの操作により入力されるモデル作成用のデータを用いて 、オブジェクトの大きさ・色(形状)、位置および動作等の属性を示す図形デー タを作成する。(1) The model editing tool 420 uses model creation data entered by the user through operation of the model editing window displayed on the display device 24 to create graphic data indicating attributes such as the size, color (shape), position, and movement of an object.

(2)モデル編集ツール420は、作成した図形データ〔オブジェクトの属性 〕をシーングラフデータベース44に出力する。(2) The model editing tool 420 outputs the created graphic data [object attributes] to the scene graph database 44.

(3)モデル編集ツール420は作成した図形データに基づくオブジェクトを GUI40を介して表示装置24上のモデル編集用ウィンドウの所定の位置に3 次元的に表示する。(3) The model editing tool 420 displays an object based on the created graphic data in three dimensions via the GUI 40 at a predetermined position in the model editing window on the display device 24.

(4)モデル編集ツール420は、ハードディスク装置214から読み出され た図形データを編集することも可能である。(4) The model editing tool 420 can also edit the graphic data read from the hard disk drive 214.

(5)モデル編集ツール420はフロッピーディスクドライブ装置216を介 してフロッピーディスク280から読み出された図形データ、または、MOディ スクドライブ装置218を介してMOディスク282から読み出された図形デー タを編集することも可能である。(5) The model editing tool 420 can also edit graphic data read from the floppy disk 280 via the floppy disk drive 216 or from the MO disk 282 via the MO disk drive 218.

(6)モデル編集ツール420はさらにネットワークからコンピュータシステ ム20にダウンロードされた図形データを編集することも可能である。(6) Model editing tool 420 can also edit graphical data downloaded to computer system 20 from a network.

以上のように種々の機能を有するモデル編集ツール420は、下記に述べる本 発明の特徴的な機能を遂行する。The model editing tool 420 having the various functions described above performs the characteristic functions of the present invention described below.

a.オブジェクトの表示機能 オブジェクトの視点を変えた観察のためのオブジェクトの回転(Conducto r ウィンドウの「Rotate操作」による)、移動(Conductor ウィンドウの「Move 操作」による)、ナビゲート(Conductor ウィンドウの「Navigate操作」による )、スケール(Conductor ウィンドウの「Scale 操作」による)の処理 b.オブジェクトのスケーリング機能 Conductor ウィンドウの「Scale 」を用いる。a. Object display functions Rotate (using the "Rotate" operation in the Conductor window), move (using the "Move" operation in the Conductor window), navigate (using the "Navigate" operation in the Conductor window), and scale (using the "Scale" operation in the Conductor window) objects for viewing them from different perspectives. b. Object scaling functions Use the "Scale" operation in the Conductor window.

c.センサノードの領域表示・設定機能 ブラウザエミュレータ460との協動 d.Parallel View機能 f.アテンション機能 ルーティング編集ツール422 ルーティング編集ツール422はカレントスコープ(編集対象となっているV RMLファイル)内で名前が付されたオブジェクトの図形データおよびスクリプ ト等の各ノードを対応付けるルーティング編集を行う。なおルーティングの際に はルーティング元とルーティング先のノードのフィールド値の型、例えば、SFBo ol(真偽を示すブール値)等を合わせる必要がある。c. Sensor Node Area Display and Configuration Function Collaboration with Browser Emulator 460 d. Parallel View Function f. Attention Function Routing Editing Tool 422 The routing editing tool 422 performs routing editing, associating named object graphic data and script nodes within the current scope (the VRM file being edited). Note that routing requires matching the field value types of the source and destination nodes, such as SFBool (a Boolean value indicating true or false).

なお、ルーティング編集ツール422を用いたルーティング編集処理の詳細に ついては、入力データの型の設定として、後述する。Details of the routing editing process using the routing editing tool 422 will be described later as setting the input data type.

シーングラフ編集ツール424 VRMLにおいては各ノードを階層的に配置することが可能である。シーング ラフ編集ツール424は、オブジェクトの階層構造、および、目に見えないノー ト(スクリプトノード等)を編集する。ノードの階層構造としては、例えば、葉 を示す子ノード(VRMLファイル)F1、枝を示す子ノード(VRMLファイ ル)F2、幹を示す子ノード(VRMLファイル)F3および根を示す子ノード (VRMLファイル)F4を、木全体を示す親ノード(VRMLファイル)F5 が階層的に構成される。Scene Graph Editing Tool 424 In VRML, nodes can be arranged hierarchically. The scene graph editing tool 424 edits the hierarchical structure of objects and invisible nodes (such as script nodes). The node hierarchical structure is, for example, hierarchically organized as follows: child node (VRML file) F1 representing a leaf; child node (VRML file) F2 representing a branch; child node (VRML file) F3 representing a trunk; child node (VRML file) F4 representing a root; and parent node (VRML file) F5 representing the entire tree.

テキストエディタ426 テキストエディタ426はJava言語等のスクリプトの作成に適したプログ ラミング言語のエディタ機能を有し、スクリプトのソースプログラムの作成を行 うとともに、スクリプトノードに対する編集作業に連携して、変数の追加、削除 および変更を自動的に行う。Text Editor 426 The text editor 426 has editor functions for programming languages suitable for creating scripts, such as Java. It creates script source programs and automatically adds, deletes, and modifies variables in conjunction with editing operations on script nodes.

テンプレート作成ツール428 テンプレート作成ツール428は、ユーザの便宜を図るために用いられるツー ルであって、テキストエディタ426と連携して動作し、表示装置24の「Scri pt Expert ウィンドウ」に対するユーザの操作に応じて、スクリプトの原型とな るプログラム(テンプレート)を対話形式で作成してテキストエディタ426に 出力する。ユーザはテンプレート作成ツール428によって提供され既にある程 度でき上がっているソースプログラム(スクリプトのひな型)にテンプレート作 成ツール428を用いて必要に応じて変更を加えることにより容易にスクリプト を作成することができる。Template Creation Tool 428 The template creation tool 428 is a tool used for user convenience. It works in conjunction with the text editor 426 and interactively creates a script prototype (template) in response to user input in the "Script Expert window" on the display device 24, outputting it to the text editor 426. The user can easily create scripts by using the template creation tool 428 to make necessary modifications to the source program (script template) already provided by the template creation tool 428 and already completed to a certain extent.

シーングラフデータベース(SGDB)44 SGDB44は編集ツール42の各ツールが作成したデータをコンピュータシ ステム20のRAM206に記憶し、記憶したデータを管理して、編集ツール4 2および作業ツール46の各構成部分の要求に応じて、即座に、記憶したデータ を提供する。Scene Graph Database (SGDB) 44 The SGDB 44 stores data created by each tool in the editing tools 42 in the RAM 206 of the computer system 20, manages the stored data, and provides the stored data immediately in response to requests from each component of the editing tools 42 and the work tools 46.

作業ツール46 作業ツール46は作成したコンテンツの確認、スクリプトの動作確認、および 、入力装置26に対するデータの記録および再生等のVRMLコンテンツ作成作 業に必要な機能をクライアントに提供する。以下、作業ツール46のそれぞれの ツールについて述べる。 The work tools 46 provide the client with functions necessary for creating VRML content, such as checking the created content, checking the operation of scripts, and recording and playing back data to the input device 26. Each of the work tools 46 will be described below.

ブラウザエミュレータ460 ブラウザエミュレータ460はVRMLブラウザ308の動作をエミュレート し、VRMLブラウザ308を用いた場合と同じVRMLコンテンツをユーザに 提示する。したがって、たとえば、作成したVRMLコンテンツの動作をユーザ が確認する場合などに、ブラウザエミュレータ460が使用される。Browser Emulator 460 The browser emulator 460 emulates the operation of the VRML browser 308 and presents the same VRML content to the user as would be presented using the VRML browser 308. Therefore, the browser emulator 460 is used, for example, when a user wants to check the operation of created VRML content.

ブラウザエミュレータ460は、表示装置24のConductor ウィンドウに表示 される「Playボタン」の押下に応じて起動され、あるいはキーボード260 に割り当てられた「Play」ボタンの押下に応じて起動され、VRMLコンテンツ をエミュレートした結果がシーングラフデータベース44に記憶され、その結果 としてのVRMLコンテンツを表示装置24の画面の、例えば図9等に示す3D Viewウィンドウ(編集ウィンドウ)に表示し、さらに、ユーザの操作に応 じて表示内容を変更する。ブラウザエミュレータ460は、Conductorウィンド ウに表示されている「Stopボタン」の押下に応じて動作を停止し、ブラウザ エミュレータ460の動作停止時にはGUI40は元の編集用VRMLコンテン ツを表示する。The browser emulator 460 is activated in response to pressing the "Play button" displayed in the Conductor window of the display device 24, or in response to pressing the "Play" button assigned to the keyboard 260. The results of emulating the VRML content are stored in the scene graph database 44, and the resulting VRML content is displayed on the screen of the display device 24, for example, in a 3D View window (editing window) shown in FIG. 9, and the display content is further changed in response to user operations. The browser emulator 460 stops operating in response to pressing the "Stop button" displayed in the Conductor window. When the browser emulator 460 stops operating, the GUI 40 displays the original VRML content for editing.

なお、ブラウザエミュレータ460を用いた動作確認において、動きのある動 的なオブジェクトに起因するフィールドの値の変化を順次蓄積保存しておき、そ の後、「Stopボタン」に応じてブラウザエミュレータ460の終了に伴って 、元のオブジェクト表示状態を復活させるこめ、後述するバックアップマネジャ 466がブラウザエミュレータ460と同時的に動作することが望ましい。When checking operation using the browser emulator 460, it is desirable to sequentially accumulate and save changes in field values resulting from dynamic objects, and then, upon termination of the browser emulator 460 in response to the "Stop" button, restore the original object display state. This is achieved by having the backup manager 466 (described below) operate simultaneously with the browser emulator 460.

ファイル入出力部462 ファイル入出力部462はシーングラフデータベース44に記憶されたVRM Lコンテンツの図形データ〔VRMLファイル(拡張子.wr1)〕、スクリプ ト(拡張子.java)、テクスチャファイル(拡張子.bmp,.jpg,. gif)およびサウンドファイル(拡張子.wav,.mod)をコンピュータ システム20のハードディスク装置214、フロッピーディスク280またはM Oディスク282に記録する。またファイル入出力部462は、ハードディスク 装置214等により読み出された上記VRMLコンテンツの各種データをシーン グラフデータベース44に出力する。File Input/Output Unit 462 The file input/output unit 462 records graphic data [VRML files (extension .wr1)], scripts (extension .java), texture files (extensions .bmp, .jpg, .gif), and sound files (extensions .wav, .mod) of VRML content stored in the scene graph database 44 to the hard disk drive 214, floppy disk 280, or MO disk 282 of the computer system 20. The file input/output unit 462 also outputs various data of the VRML content read from the hard disk drive 214, etc., to the scene graph database 44.

ファイルスコープマネージメント部464 VRMLにおいては、図形データのファイル(拡張子.wr1)ごとに1つの スコープ(ノードに付された名前およびルーティングが有効な範囲)が与えられ 、ノード名およびルーティングの管理はスコープを単位として行われる。ファイ ルスコープマネージメント部464は、シーングラフデータベース44における ノード名の管理、ノード名の自動作成、および、ノードの検索を行うとともに、 ノードが同一の図形データファイルを複数、参照する場合に、図形データファイ ルに対する変更を、参照するノード全てに伝播させる。File Scope Management Unit 464 In VRML, each graphics data file (extension .wr1) is assigned one scope (the range in which the names and routings assigned to nodes are valid), and node names and routing are managed on a scope-by-scope basis. The file scope management unit 464 manages node names in the scene graph database 44, automatically creates node names, and searches for nodes. In addition, when a node references the same graphics data file multiple times, it propagates changes to the graphics data file to all referencing nodes.

バックアップマネジャ466 バックアップマネジャ466は図3のバックアップマネジャ36に対応する。Backup Manager 466 Backup manager 466 corresponds to backup manager 36 in FIG. 3.

VRMLコンテンツの内容確認のとき「Playボタン」によって起動されたブ ラウザエミュレータ460がインタラクティブ操作可能なシーンを表示するとユ ーザによる操作に応じてノードの状態が変化し、各ノードのフィールド値が変化 してしまい、何らの手当てもしなければ、元のシーンの表示ができなくなる。こ のため、バックアップマネジャ466はブラウザエミュレータ460が表示装置 24のConductor ウィンドウの「「Playボタン」の押下に応じて起動された 際に3D View ウィンドウ(編集ウィンドウ)に最初に表示したシーン( VRMLファイルから生成された3次元仮想空間)の各ノードのフィールド値の 初期状態(フィールド値として)をシーングラフデータベース44から受けて記 憶する。When the browser emulator 460 is activated by pressing the "Play button" during VRML content confirmation and displays an interactive scene, the node states change in response to user operations, causing the field values of each node to change. Without any corrective action, the original scene cannot be displayed. For this reason, the backup manager 466 receives from the scene graph database 44 and stores the initial state (as field values) of each node's field values for the scene (a three-dimensional virtual space generated from a VRML file) first displayed in the 3D View window (editing window) when the browser emulator 460 is activated by pressing the "Play button" in the Conductor window of the display device 24.

ブラウザエミュレータ460は、ブラウザエミュレータ460が表示装置24 のConductor ウインドウの「Stopボタン」の押下に応じて動作を停止した場 合に、記憶した各ノードのフィールド値をシーングラフデータベース44に出力 して、元のオブジェクトの表示状態を復元する。When the browser emulator 460 stops operating in response to pressing the "Stop button" in the Conductor window of the display device 24, it outputs the stored field values of each node to the scene graph database 44 and restores the original display state of the object.

これによりGUI40は、シーングラフデータベース44に入力された各ノー ドの初期状態におけるフィールド値に基づいて表示装置24の3D View ウィンドウ(編集ウィンドウ)内に元の3次元仮想空間の画像を表示する。As a result, the GUI 40 displays an image of the original three-dimensional virtual space in the 3D View window (editing window) of the display device 24 based on the initial field values of each node entered in the scene graph database 44.

スクリプト作成部47 スクリプト作成部47はユーザがテキストエディタ426を用いて作成したス クリプトのコンパイル、動作確認およびデバッグ機能を有する。以下、スクリプ ト作成部47のそれぞれの部分について述べる。 Script Creation Unit 47 The script creation unit 47 has functions for compiling, verifying the operation, and debugging scripts created by the user using the text editor 426. Each part of the script creation unit 47 will be described below.

Javaコンパイラ474 Javaコンパイラ474は、シーングラフデータベース(SGDB)44に 記憶されたJava言語によるスクリプトのソースプログラムをコンパイルして オブジェクトプログラムを作成しSGDB44に出力する。本実施の形態におい ては、Conductor ウィンドウの「Playボタン」を押したとき、Javaコン パイラ474がスクリプトのソースプログラム、例えば、拡張子として「.ja va」を有するファイルを自動的にコンパイルし、オブジェクトプログラム、例 えば、拡張子として「.class」を有するファイルを自動的に生成すること ができるようにした。Java Compiler 474 The Java compiler 474 compiles script source programs written in Java stored in the scene graph database (SGDB) 44 to create object programs and output them to the SGDB 44. In this embodiment, when the "Play" button in the Conductor window is pressed, the Java compiler 474 automatically compiles script source programs (e.g., files with the extension ".java") and automatically generates object programs (e.g., files with the extension ".class").

Javaエミュレータ470およびJavaデバッガ472 Javaエミュレータ470およびJavaデバッガ472は、Java言語 で記述されたプログラムのインタプリタとして動作し、ユーザがスクリプトプロ グラムの動作確認およびデバッグを行うために用いられる。つまり、Javaエ ミュレータ470は、シーングラフデータベース(SGDB)44に記憶された スクリブトのオブジェクトプログラムの動作をエミュレートし、Javaデバッ ガ472はJavaエミュレータ470のエミュレート動作時の状態、および、 発生したエラーをSGDB44に出力する。Java Emulator 470 and Java Debugger 472 The Java emulator 470 and Java debugger 472 operate as interpreters for programs written in the Java language and are used by users to check and debug the operation of script programs. In other words, the Java emulator 470 emulates the operation of the script object program stored in the scene graph database (SGDB) 44, and the Java debugger 472 outputs the status of the Java emulator 470 during emulation operation and any errors that occur to the SGDB 44.

コンテンツ作成用ソフトウエアツール4の特徴的な機能 以下、本実施の形態のコンテンツ作成用ツール4の特徴的な処理内容(機能) を説明する。 Characteristic Functions of the Content Creation Software Tool 4 The following describes the characteristic processing details (functions) of the content creation tool 4 of this embodiment.

動作確認機能およびバックアップ管理機能(ブラウザエミュレータ460、バ ックアッブマネジャ466) 図4〜図6を参照して述べたように、ユーザが表示装置24の画面内のConduc tor ウィンドウに表示された「Playボタン」をマウス262で押下すると( 図5、S301、図6,S311)、ブラウザエミュレータ460がその時点ま でに作成されたVRMLコンテンツを解釈し、表示装置24に表示する。好まし くは、図6に図解したように、バックアップマネジャ466も同時に動作しバッ クアップ可能な状態にする。バックアップマネジャ466は動的オブジェクトな どがクリックされた場合(図6,S223)動的オブジェクトを表現する各ノー ドのフィールド値を順次保存していく(S224)。そして、「Stopボタン 」が押されたとき(図6,S225)、通常の編集モードに復帰し、バックアッ プマネジャ466はフィールド値を復元していく(図6,S226)。 Operation Check Function and Backup Management Function (Browser Emulator 460, Backup Manager 466) As described with reference to Figures 4 to 6, when the user presses the "Play button" displayed in the Conductor window on the screen of the display device 24 with the mouse 262 (Figure 5, S301; Figure 6, S311), the browser emulator 460 interprets the VRML content created up to that point and displays it on the display device 24. Preferably, as illustrated in Figure 6, the backup manager 466 also operates simultaneously to enable backup. When a dynamic object, etc. is clicked (Figure 6, S223), the backup manager 466 sequentially saves the field values of each node representing the dynamic object (S224). Then, when the "Stop button" is pressed (Figure 6, S225), the mode returns to normal editing mode, and the backup manager 466 restores the field values (Figure 6, S226).

すなわち、動作確認開始時のVRMLコンテンツの状態をバックアップマネジ ャ466が保存し、ユーザが表示装置24の画面内のConductor ウィンドウに表 示された「Stopボタン」をマウス262で押下し、ブラウザエミレータ46 0がVRMLコンテンツの実行を停止した際に、VRMLコンテンツを動作確認 開始時のフィールド値に戻し、ウィンドウのオブジェクト(モデル)の表示内容 を動作確認開始時に戻すことができる。In other words, the backup manager 466 saves the state of the VRML content at the start of the operation check, and when the user presses the "Stop button" displayed in the Conductor window on the screen of the display device 24 with the mouse 262 and the browser emulator 460 stops executing the VRML content, the VRML content's field values are restored to those at the start of the operation check, and the display contents of the window's objects (models) are restored to those at the start of the operation check.

この動作確認およびバックアップ管理処理により、図1を参照して述べた従来 のように、作成したVRMLコンテンツを一度、ハードディスクドライブ装置2 14等へ保存してからVRMLブラウザを起動して動作確認を行う手間が不要と なる。しかも、ユーザはVRMLコンテンツ作成作業中の任意のタイミングで、 それまでの作業により作成したコンテンツの動作を確認することができる。This operation check and backup management process eliminates the need to first save the created VRML content to a hard disk drive device 214 or the like and then launch a VRML browser to check its operation, as was done in the conventional method described with reference to Figure 1. Furthermore, the user can check the operation of the content they have created so far at any time during the VRML content creation process.

ファイル自動作成機能(Javaコンパイラ474) たとえば、ユーザがVRMLコンテンツの内容を確認するため、Conductor ウ ィンドウの「Playボタン」を押してブラウザエミュレータ460を起動させ ると、Javaコンパイラ474がスクリプトのソースプログラム、例えば、拡 張子として「.java」を有するファイルを自動的にコンパイルし、オブジェ クトプログラム、例えば、拡張子として「.class」を有するファイルを自 動的に生成することができる。 Automatic file creation function (Java compiler 474) For example, when a user presses the "Play button" on the Conductor window to start up the browser emulator 460 in order to check the contents of VRML content, the Java compiler 474 can automatically compile the script source program, for example, a file with the extension ".java", and automatically generate an object program, for example, a file with the extension ".class".

スクリプトプログラムの作成・デバッグ機能(テキストエディタ426) ユーザはテキストエディタ426を用いてJava言語等のスクリプト作成に 適したプログラム言語でスクリプトのソースプログラムを作成し、Javaコン パイラ474を用いて作成したソースプログラムをコンパイルし、オブジェクト プログラムを作成することができる。 Script program creation and debugging function (text editor 426) The user can use the text editor 426 to create a script source program in a programming language suitable for creating scripts, such as Java, and then compile the created source program using the Java compiler 474 to create an object program.

このオブジェクトプログラムは、VRMLブラウザ308でVRMLコンテン ツを動作させる場合の他、ブラウザエミュレータ460により動作確認を行う場 合にも実行される。This object program is executed not only when VRML content is run by the VRML browser 308 but also when operation is checked by the browser emulator 460.

さらにリースプログラムにデバッグコードを追加しJavaエミュレータ47 0で実行すると、Javaデバッガ472がスクリプトの入出力の値等を表示し 、スクリプトのデバッグ作業が可能になる。Furthermore, by adding debug code to the lease program and running it in a Java emulator 470, the Java debugger 472 displays the input and output values of the script, enabling you to debug the script.

テンプレート自動作成機能(テキストエディタ426) ユーザがスクリプトノードの入出力の値を対話形式で設定すると、テンプレー ト作成ツール428は、この設定に適合したスクリプトのソースプログラムのひ な型(テンプレート)を作成する。ユーザはテキストエディタ426を用いてテ ンプレートに必要な変更を加えることにより、所望のイベントを実現するスクリ プトのソースプログラムを作成することができる。この機能によりユーザはスク リプトのソースプログラムを最初から全てエディタで作成する手間を省くことが でき、しかも、単純なコーディングミスの発生を防ぐことができる。 Automatic template creation function (text editor 426): When the user interactively sets the input and output values of a script node, the template creation tool 428 creates a template for the script source program that matches these settings. The user can create a script source program that will realize the desired event by making the necessary changes to the template using the text editor 426. This function saves the user the trouble of creating the script source program entirely in an editor from scratch, and also prevents simple coding mistakes.

オブジェクトの表示機能(モデル編集ツール420) モデル編集ツール420は、通常的な表示と視点を変えた表示を可能にする。 Object Display Function (Model Editing Tool 420) The model editing tool 420 allows for normal display and display with a different viewpoint.

図11はモデル編集ツール420が、表示装置24のGUI画面の3D Vi ewウィンドウに表示されるオブジェクトの1例を示す図である。FIG. 11 is a diagram showing an example of an object displayed by the model editing tool 420 in the 3D View window on the GUI screen of the display device 24.

モデル編集ツール420は、GUI画面(図9)内の3D Perspect ive Xiewウィンドウに、作成した図形データが示すオブジェクトの3次 元透視投影図(3D perspective view)を表示する。以下、3D Viewウィン ドウと呼ぶ。この状態でユーザが3D Viewウィンドウ内のオブジェクトを クリックして選択し、図10Aに示したGUI画面のConductor ウィンドウに表 示されている「Rotate(回転)」ボタン、「Move(移動)」、「Na vigate(視点移動)」、「Scale(スケール変更)」ボタンのいずれ かをマウス262でクリックして選択して、回転、移動、視点移動の動作モード を変更し、さらにユーザがマウス262の左ボタンを押下しながら、3D Vi ewウィンドウ内をドラッグし、あるいは、マウス262の左ボタンでクリック すると、モデル編集ツール420は、マウスモード(回転、移動)および3D Viewウィンドウに対するユーザの操作に応じて、選択されたオブジェクトを 回転または移動させた画像(オブジェクト)を表示装置24に表示する。ユーザ が動作モードとして「Navigate(視点移動)」を選択した場合には、モ デル編集ツール420はユーザがクリックした3D Viewウィンドウ内の位 置を視点として、この視点から選択されたオブジェクトを見た場合の画像を表示 する。したがって、モデル編集ツール420の上記処理によれば、オブジェクト を種々の視点から観察することができる。すなわち、この機能を用いれば、ユー ザはオブジェクトを種々の視点から観察することができる。The model editing tool 420 displays a 3D perspective view of the object represented by the created graphic data in the 3D Perspective View window on the GUI screen (Figure 9). Hereinafter, this window will be referred to as the 3D View window. In this state, the user can click to select an object in the 3D View window, and then click with the mouse 262 one of the "Rotate," "Move," "Navigate," or "Scale" buttons displayed in the Conductor window of the GUI screen shown in FIG. 10A to change the rotation, movement, or viewpoint movement operation mode. If the user then drags or clicks within the 3D View window while holding down the left button of the mouse 262, the model editing tool 420 will display on the display device 24 an image (object) of the selected object rotated or moved, depending on the mouse mode (rotate, move) and the user's operation on the 3D View window. If the user selects the "Navigate" operation mode, the model editing tool 420 sets the point in the 3D View window where the user clicked as the viewpoint and displays an image of the selected object as seen from that viewpoint. Therefore, the above processing of the model editing tool 420 allows the user to view the object from various viewpoints. In other words, using this function, the user can view the object from various viewpoints.

なお、これらの視点を変えたオブジェクトの観察に際しては、対象となるオブ ジェクトをウィンドウの中央に位置させることが、操作性の簡単から好ましい。When observing an object from a different viewpoint, it is preferable to position the object in the center of the window for ease of operation.

したがって、本実施の形態においては、モデル編集ツール420は視点変化処理 に際しては、自動的に、対象となるオブジェクトをウィンドウの中央に移動させ るている。Therefore, in this embodiment, the model editing tool 420 automatically moves the target object to the center of the window when changing the viewpoint.

さらにマウス262の動作モードには、図12に示したようにPOI(point o f interest)モードがあり、図13に示したようにユーザがマウス262でポイ ンティングして3D Viewウィンドウ内のオブジェクト(コーン:円錐)を 選択すると、モデル編集ツール420が選択されたオブジェクトに視点を合わせ て、図11および図14に示したように3D Viewウィンドウの中心に表示 する。Furthermore, the mouse 262 has an operation mode called a point of interest (POI) mode, as shown in FIG. 12. When the user selects an object (a cone) in the 3D View window by pointing with the mouse 262, as shown in FIG. 13, the model editing tool 420 adjusts the viewpoint to the selected object and displays it in the center of the 3D View window, as shown in FIGS. 11 and 14.

オブジェクトのスケーリング機能(モデル編集ツール420) 図10Aに示したConductor ウィンドウ内で、マウス262の動作モードを「 スケール」として、例えば、ユーザがマウス262の所定のボタンを押下しなが らカーソルを移動させ、あるいは、キーボード260からオブジェクトの大きさ の変更を指示する操作および変更後の大きさを示すデータを入力すると、モデル 編集ツール420はカーリルの移動に応じてオブジェクトの寸法(大きさ)を変 更して表示する。ユーザがマウス262のボタンを離すと、モデル編集ツール4 20はオブジェクトの大きさを確定し、確定時の大きさのオブジェクトを表示装 置24の3次元仮想空間内に表示するように、オブジェクトの図形データの内容 を変更する。 Object Scaling Function (Model Editing Tool 420) In the Conductor window shown in Figure 10A, with the operation mode of the mouse 262 set to "scale," for example, the user can move the cursor while pressing a predetermined button on the mouse 262, or can input an instruction to change the size of the object and data indicating the new size from the keyboard 260, and the model editing tool 420 will change and display the dimensions (size) of the object in accordance with the movement of the cursor. When the user releases the button on the mouse 262, the model editing tool 420 will confirm the size of the object and change the contents of the object's graphic data so that the object of the confirmed size is displayed in the three-dimensional virtual space of the display device 24.

なおユーザはマウスモードの変更およびマウス262の操作を組み合わせて、 例えば、ルーティング編集ツール422に、オブジェクトを回転させ、移動させ 、さらに拡大(または縮小)して視点、見方を変えた画像を表示装置24の3D Viewウィンドウ内に表示せることが可能である。すなわち、この処理も、 オブジェクトを視点を変えて観察する場合に有効な処理となる。By combining mouse mode changes and mouse 262 operations, the user can, for example, rotate and move an object in the routing editing tool 422, and even zoom in (or out) to display an image with a different viewpoint or perspective in the 3D View window on the display device 24. In other words, this process is also effective when observing an object from different viewpoints.

またユーザが、例えば、マウス262の上記所定のボタンを離す等の図形デー タの変更を指示する動作を行うと、モデル編集ツール420は、オブジェクトの 図形データの内容を表示装置24に表示されているオブジェクトに合わせて変更 する。Furthermore, when the user performs an action to instruct a change to the graphic data, such as releasing the predetermined button on the mouse 262, the model editing tool 420 changes the contents of the object's graphic data to match the object displayed on the display device 24.

センサノードの領域表示・設定機能(モデル編集ツール420、ブラウザエミ ュレータ460) 表示装置24の画面のウィンドウに仮想空間内のオブシェクトとして表示され ているものを、ユーザがクリックしてポインティングした場合にイベントを発生 させるものとして、図10A、図10Cに図解のプリミティブバーの中にセンサ (Sensor)が設けられている。センサがイベントを発生し、センサにルー ティングされたスクリプトが実行され、カーソルをセンサノードの領域(バウン ディングボックス)外に移動すると、スクリプトの実行が停止される。 Sensor node area display and setting function (model editing tool 420, browser emulator 460) A sensor is provided in the primitive bar illustrated in Figures 10A and 10C to generate an event when the user clicks and points to an object in virtual space displayed in a window on the screen of the display device 24. When the sensor generates an event, a script routed to the sensor is executed, and when the cursor is moved outside the area (bounding box) of the sensor node, the execution of the script is stopped.

センサノードの領域表示・設定機能は、オブジェクトに付され、マウス262 等による操作に応じてイベントを発生するタッチセンサ、あるいは、マウス26 2などの操作に応じて音を出力するサウンドノード等3次元仮想空間内における 有効領域の範囲の確認および変更を行う機能である。The sensor node's area display and setting function is a function that confirms and changes the range of the effective area within a three-dimensional virtual space, such as a touch sensor attached to an object that generates an event in response to operation with a mouse 262 or a sound node that outputs sound in response to operation with a mouse 262 or the like.

図15を参照してセンサノードの領域表示・設定処理について述べる。The area display and setting process of the sensor node will be described with reference to FIG.

S301:ユーザがマウス262を用いて表示装置24の3D Viewウィ ンドウ上でオブジェクトをクリックする。S301: The user clicks on an object in the 3D View window of the display device 24 using the mouse 262.

S302:上記ユーザの動作に対応してモデル編集ツール420が動作し、モ デル編集ツール420はクリックされたオブジェクトを選択し、選択したオブジ ェクトを囲むバウンディングボックスを点滅させる。S302: The model editing tool 420 operates in response to the user's action, selects the clicked object, and blinks the bounding box surrounding the selected object.

S303:さらにユーザがメニュー画面内のConductor ウインドウのSensorタ ブをクリックし、例えば、タッチセンサ(TouchSensor )等を指定する。S303: The user then clicks on the Sensor tab in the Conductor window on the menu screen and specifies, for example, a touch sensor.

S304:そのユーザの動作に対応して、モデル編集ツール420はオブジェ クトにタッチセンサ等を付加する。S304: In response to the user's action, the model editing tool 420 adds a touch sensor or the like to the object.

この初期段階においては、オブジェクトの選択を示すバウンディングボックス が示す範囲がタッチセンサ等の有効領域の範囲となる。At this initial stage, the bounding box indicating the object selection defines the effective area of the touch sensor.

S305:さらにユーザがキーボード260からセンサの有効領域の範囲変更 を指示するコマンド、および、変更後の有効領域の範囲を示すデータを入力し、 あるいは、マウス262を用いて変更後の有効領域の範囲をポインティングする 。S305: The user then inputs a command to change the range of the sensor's effective area from the keyboard 260, as well as data indicating the range of the changed effective area, or uses the mouse 262 to point to the range of the changed effective area.

S306:そのユーザの動作に対応して、モデル編集ツール420はセンサ等 の有効領域の範囲を変更して、変更後のセンサ等の有効領域の範囲をバウンディ ングラインで表示する。なお、下記に例示する実施の形態としては、ボックス状 にしている(すなわち、バウンディングボックス)が、本発明の実施に際しては 、バウンディングラインの形状はボックス状に限定されない。S306: In response to the user's action, the model editing tool 420 changes the effective area of the sensor, etc., and displays the changed effective area of the sensor, etc., with a bounding line. Note that in the example embodiment shown below, the effective area is box-shaped (i.e., a bounding box), but in practicing the present invention, the shape of the bounding line is not limited to a box shape.

上述の表示機能およびスケーリング機能は、バウンディングライン(バウンデ ィングボックス)に対しても可能であり、ユーザは上記操作により、バウンディ ングボックスの回転、移動および拡大・縮小表示をモデル編集ツール420に行 わせることができる。モデル編集ツール420は、これらの操作により変更され たバウンディングボックスによって規定される範囲を、変更後のセンサ等の有効 領域の範囲として設定する。The display and scaling functions described above are also applicable to bounding lines (bounding boxes), and the user can use the above operations to have the model editing tool 420 rotate, move, and scale the bounding box. The model editing tool 420 then sets the range defined by the bounding box modified by these operations as the effective area of the modified sensor, etc.

S307:さらにユーザが上記変更内容の確認のために、Conductor ウィンド ウに表示された「Playボタン」をマウス262で押下する。S307: To confirm the changes, the user presses the "Play button" displayed in the Conductor window with the mouse 262.

S308:そのユーザの動作に応答してブラウザエミュレータ460が動作し 、ブラウザエミュレータ460がコンテンツの解釈表示動作を実行する。なお、 好ましくは、上記「確認動作」の項で述べたように、バックアップマネジャ46 6もブラウザエミュレータ460と同時的に起動されて、ブラウザエミュレータ 460によるVRMLコンテンツの確認の間の動的オブジェクトに起因するフィ ールド値の保存と復活が可能になっているのが好ましい。S308: In response to the user's action, the browser emulator 460 operates, and performs content interpretation and display operations. Preferably, as described above in the "Verification Operation" section, the backup manager 466 also operates simultaneously with the browser emulator 460, enabling the saving and restoration of field values resulting from dynamic objects during the verification of the VRML content by the browser emulator 460.

S309、S310:ブラウザエミュレータ460が動作している状態におい て、例えば、ユーザがマウス262のカーソルをバウンディングボックス内に移 動すると、センサがイベントを発生し、センサにルーティングされたスクリプト が実行され、カーソルをバウンディングボックス外に移動すると、スクリプトの 実行が停止される。S309, S310: When the browser emulator 460 is running, for example, if the user moves the cursor of the mouse 262 into the bounding box, the sensor generates an event and a script routed to the sensor is executed. When the cursor is moved out of the bounding box, the execution of the script is stopped.

S311:ブラウザエミュレータ460によるVRMLコンテンツの実行は、 ユーザが、Conductor ウィンドウに表示された「Stopボタン」を押下して、 コンテンツ作成用ソフトウエアツール4の動作が編集モードに戻ることにより停 止する。S311: Execution of VRML content by the browser emulator 460 is stopped when the user presses the "Stop" button displayed in the Conductor window, causing the content creation software tool 4 to return to edit mode.

Parallel View機能(モデル編集ツール420) 図16は表示装置24の3D Viewウィンドウに表示されるポップアップ メニューを示す図である。図17はParallel View機能を示す図で ある。 Parallel View Function (Model Editing Tool 420) Figure 16 is a diagram showing a pop-up menu displayed in the 3D View window of the display device 24. Figure 17 is a diagram showing the Parallel View function.

ブラウザエミュレータ460が停止している状態で、3D Viewウィンド ウ内で、ユーザがマウス262で所定のボタン(マウスの右ボタン)をクリック すると、図16に示すように、モデル編集ツール420は3D Viewウィン ドウにポップアップメニューを表示する。ユーザがポップアップメニューのいず れかを選択すると、モデル編集ツール420は、図17に示すように、オブジェ クトの側面図(Side View)、上面図(Top View)あるいはワ イヤフレームによる図(Wire frame)を、表示装置24のメニュー画 面中のParallel Viewウィンドウに2次元表示する。When the user clicks a specific button (the right mouse button) on the mouse 262 in the 3D View window while the browser emulator 460 is stopped, the model editing tool 420 displays a pop-up menu in the 3D View window, as shown in Fig. 16. When the user selects one of the options from the pop-up menu, the model editing tool 420 displays a two-dimensional side view, top view, or wire frame of the object in the Parallel View window on the menu screen of the display device 24, as shown in Fig. 17.

アテンション機能(モデル編集ツール420) アテンション(Attention)機能は、3D Viewウィンドウに表 示したオブジェクトの形状を確認するために用いられ、ユーザが3D View ウィンドウ内でマウス262により選択した1つ以上のオブジェクトの内のいず れかを中心とし、ユーザがコンテンツ作成用ソフトウエアツール4内に指定した 視点から見た場合のオブジェクトそれぞれを3次元仮想空間内に配置し、表示す る機能である。 Attention Function (Model Editing Tool 420) The Attention function is used to check the shape of objects displayed in the 3D View window. It is a function that places and displays each object in a three-dimensional virtual space as viewed from a viewpoint specified by the user in the content creation software tool 4, with one or more objects selected by the user in the 3D View window with the mouse 262 as the center.

モデル編集ツール420は、3D Viewウィンドウ内に作成した1つ以上 のオブジェクとを3次元仮想空間内に配置して表示する。The model editing tool 420 arranges and displays one or more objects created in the 3D View window in a three-dimensional virtual space.

表示装置24に表示されるメニュー画面としては、図18および図19に例示 するものが表示される。図20〜図22はアテンション機能を示す第1〜第3の 例として、3D Viewウィンドウに表示されるオブジェクトの図である。た だし、図18〜図19に示したオブジェクトは円錐であるが、図20〜図22に 示したオブジェクトは円錐の他、模様が付加されている。The menu screens displayed on the display device 24 are shown as examples in Figures 18 and 19. Figures 20-22 are diagrams of objects displayed in the 3D View window as first to third examples demonstrating the attention function. However, while the objects shown in Figures 18-19 are cones, the objects shown in Figures 20-22 have patterns added to them in addition to the cones.

アテンション機能を図23のフローチャートを参照して述べる。The attention function will now be described with reference to the flow chart of FIG.

S321:ユーザは、図18に示すように、Conductor ウィンドウにおいてマ ウス262により「Navigate」ボタンをクリックして視点移動(Nav igate)モードにする。S321: As shown in FIG. 18, the user clicks the "Navigate" button in the Conductor window with the mouse 262 to enter the viewpoint movement (Navigate) mode.

S322:ユーザは、図18に示した円錐形のオブジェクト、または図20に 示すように円錐形のオブジェクトと模様が付された円筒形のオブジェクト、が表 示されている3D Viewウィンドウ内で、図18または図20に示すように 、マウス262の左ボタンで円錐形のオブジェクトをクリックして選択する。こ れにより、モデル編集ツール420は、選択され円錐形のオブジェクトをバウン ディングボックスで囲み、選択されたことを示す。S322: In the 3D View window displaying the cone-shaped object shown in FIG. 18, or the cone-shaped object and the patterned cylindrical object shown in FIG. 20, the user clicks and selects the cone-shaped object with the left button of the mouse 262, as shown in FIG. 18 or 20. This causes the model editing tool 420 to enclose the selected cone-shaped object in a bounding box, indicating that it has been selected.

S323、S324:ユーザは図18に示すように、マウス262の右ボタン をクリックすることで表示されるポップアップメニューの「Attention ON」を選択する。それにより、モデル編集ツール420は、図19または図 21に示すように、視点位置表示パネルの背景を黄色に変え、選択されたオブジ ェクトが3D Viewウィンドウの中心になるように視線方向を変えて表示す る。ただし、視点位置は変わらないのでオブジェクトまでの距離は同じである。S323, S324: As shown in Figure 18, the user clicks the right button of the mouse 262 and selects "Attention ON" from the pop-up menu. As a result, the model editing tool 420 changes the background of the viewpoint position display panel to yellow, as shown in Figure 19 or Figure 21, and changes the line of sight so that the selected object is at the center of the 3D View window. However, because the viewpoint position does not change, the distance to the object remains the same.

S325:ユーザはオブジェクトの周りでマウス262の左ボタンを押しなが らドラッグすると、図22に例示したように、それに応じてオブジェクトの視点 位置、視線方向が変化するので、様々な方向からオブジェクトを観察することが できる。すなわち、モデル編集ツール420は、ユーザの指定に応じて、3D Viewウィンドウの表示内容を、3次元仮想空間内で指定した位置を視点とし た場合に見える円錐形のオブジェクトおよび円筒形のオブジェクトの画像に変更 する。このように、アテンション機能を用いることにより、ユーザはオブジェク トそのものが回転するのではなく、3次元仮想空間の内、実際に3D View ウィンドウに表示されているシーン全体を回転させて見ることができ、オブジェ クトの全体像を容易に把握することができる。S325: When the user drags the mouse 262 while holding down the left button around the object, the viewpoint and viewing direction of the object change accordingly, as shown in Figure 22, allowing the user to observe the object from various angles. That is, the model editing tool 420 changes the display contents of the 3D View window to images of conical and cylindrical objects as seen from the viewpoint of the specified location in the 3D virtual space, in accordance with the user's specifications. In this way, by using the attention function, the user can rotate and view the entire scene displayed in the 3D View window in the 3D virtual space, rather than rotating the object itself, making it easier to grasp the overall view of the object.

S326:観察を終了するときは、ユーザは、図19に示したように、ポップ アップメニューで「Attention OFF」を選択する。これにより、モ デル編集ツール420によるアテンション機能が終了する。S326: When the user wishes to end the observation, he or she selects "Attention OFF" from the pop-up menu as shown in FIG. 19. This terminates the attention function of the model editing tool 420.

ルーティング編集機能:入力データの型の設定(ルーティング編集ツール42 ) VRML2.0では、以下に示すようなROUTE文によって各ノードのフィ ールド間のイベントの授受を定義することができる。 Routing Edit Function: Setting Input Data Type (Routing Edit Tool 42 2 ) In VRML 2.0, the exchange of events between fields of each node can be defined by the ROUTE statement shown below.

ROUTE NODE1.field1 TO NODE2.field2 この例では、NODE1というノード名(NodeNane)がつけられたノ ードのfield1というフィールド名(eventOut)がつけられたフィ ールドに対してイベントを伝達することが定義されている。このROUTE文で は、イベントを出力する側のフィールド名(eventOut)に対して予め設 定されたデータ型(Data Type)と、イベントを入力する側のフィール ド名(eventOut)に対して予め設定されたデータ型(Data Typ e)とが一致している必要がある。ROUTE NODE1.field1 TO NODE2.field2 In this example, an event is defined to be transmitted to a field named field1 (eventOut) in a node named NODE1 (NodeNane). This ROUTE statement requires that the data type (Data Type) predefined for the event output field (eventOut) must match the data type predefined for the event input field (eventOut).

ルーティング編集機能は、ユーザがイベントを入力する側のノードのフィール ド名を選択する際に、既に選択したイベントを出力する側のノードのフィールド 名に対して予め設定されているデータ型に一致するフィールド名のみをプルダウ ンリスト(ドロップダウンリスト)としてComboBox内に表示し、これに よりルーティング可能なフィールド名のみをユーザに提示することで、ユーザが 間違ったROUTE文を記述してしまう不都合を回避し、これにより、ユーザに よるルーティングの記述作業の便宜が図られている。When the user selects a field name for an event input node, the routing editing function displays a drop-down list in the ComboBox containing only field names that match the pre-defined data type for the field name of the selected event output node. This ensures that only routable field names are presented to the user, preventing the user from entering an incorrect route statement and facilitating the user's routing entry process.

図24および図25〜図27を参照してルーティング編集機能をさらに説明す る。The routing edit function is further described with reference to Figures 24 and 25-27.

図24はルーティング編集機能の処理を示すフローチャートである。FIG. 24 is a flowchart showing the processing of the routing edit function.

図25〜図27はルーティング編集機能の例を示すルートウィンドウの図であ る。25-27 are diagrams of the Route window showing examples of the routing editing functions.

以下、図24を参照してルーティング編集処理、換言すれば、入力可能なの型 の設定処理について述べる。下記の処理はルーティング編集ツール422がユー ザとの対話形式で実行される。The routing editing process, or in other words, the process of setting the inputtable type, will be described below with reference to FIG. 24. The following process is executed by the routing editing tool 422 in an interactive format with the user.

S331:ユーザによってルートウィンドウが開かれ、上段のイベント出力側 のノード名(NodeName)またはそのフィールド名(eventOut) のプルダウンリスト(ドロップダウンリスト)を表示するためのマウス操作がな されたか否かが、ルーティング編集ツール422において判別される。S331: The routing editing tool 422 determines whether the user has opened the route window and used the mouse to display a pull-down list of the node name (NodeName) or field name (EventOut) on the event output side in the upper row.

S332:ルーティング編集ツール422は、選択可能なイベント出力側のノ ード名(NodeName)またはそのフィールド名(eventOut)を抽 出し、プルグウンリスト(ComboBoxとも称される)として一覧表示する 。S332: The routing editing tool 422 extracts the selectable event output node names (NodeName) or their field names (eventOut) and displays them as a pull list (also called a ComboBox).

S333:図25に示すように表示されているプルダウンリストの中からユー ザによるマウスによるメニュー選択操作によって選択されたイベント出力側のノ ード名(NodeName)として、例えば、TS1をルーティング編集ツール 422が表示し、そのフィールド名(eventOut)として、例えはisA ctiveがルーティング編集ツール422によって表示されると共に、選択さ れたフィールド名に予め設定されているデータ型(Data Type)、例え はSFBool(真偽を示すブール値で、FALSE(0)かTRUE(1)の 何れかの値を取る)等が、ルーティング編集ツール422によって、フィールド 名(eventOut)の右隣の領域に参考として表示される。S333: The routing editing tool 422 displays, for example, TS1 as the event output node name (NodeName) selected by the user using the mouse to select a menu item from the pull-down list displayed as shown in FIG. 25, and displays, for example, "isActive" as its field name (eventOut). The routing editing tool 422 also displays, for reference, the data type (Data Type) preset for the selected field name, for example, SFBoool (a Boolean value indicating true or false, taking either FALSE (0) or TRUE (1)), in the area immediately to the right of the field name (eventOut).

S334:ユーザによって下段のイベント入力側のノード名(NodeNam e)のプルダウンリストを表示するためのマウス操作がなされたか否かが、ルー ティング編集ツール422によって、判別される。S334: The routing editing tool 422 determines whether the user has performed a mouse operation to display a pull-down list of the node names (NodeName) on the event input side in the lower row.

S335:図26に示すように選択可能なイベント入力側のノード名(Nod eName)として、例えば、PL1とTS1がプルダウンリストとして、ルー ティング編集ツール422によって、一覧表示される。S335: As shown in FIG. 26, the routing editing tool 422 displays a list of selectable event input node names (Node Name), such as PL1 and TS1, in a pull-down list.

S336:図26に示されるプルダウンリストの中からユーザによるマウス2 62のメニュー選択操作によって選択されたイベント入力側のノード名(Nod eName)がルーディング編集ツール422によって表示される。S336: The node name (Node Name) on the event input side selected by the user through a menu selection operation of the mouse 262 from the pull-down list shown in FIG. 26 is displayed by the routing edit tool 422.

S337:ユーザによって下段のイベント入力側のノード名(NodeNam e)のフィールド名(eventIn)のプルダウンリストを表示するためのマ ウス操作がなされたか否かが、ルーティング編集ツール422において、判別さ れる。S337: The routing editing tool 422 determines whether the user has performed a mouse operation to display a pull-down list of the field name (eventIn) of the node name (NodeName) on the event input side in the lower row.

S338:ルーティング編集ツール422によって、図27に示すように選択 可能なイベント入力側のフィールド名(eventOut)のみがプルダウンリ ストとして一覧表示される。この場合、既にユーザが選択したイベントを出力す る側のノードのフィールド名に対して予め設定されているデータ型に一致する( この場合、SFBoolに一致する)フィールド名である「on」と名づけられ たフィールド名のみが、ルーティング編集ツール422によって、プルダウンリ ストとして表示される。S338: The routing editing tool 422 displays a pull-down list of only the selectable event input field names (eventOut), as shown in FIG. 27. In this case, the routing editing tool 422 displays only the field name "on," which matches the pre-defined data type (in this case, SFBoool) for the field name of the node that outputs the event already selected by the user.

S339:図27に示されるプルダウンリストの中からマウスによるメニュー 選択操作によって選択されたイベント入力側のノードのフィールド名(even tOut)がルーティング編集ツール422によって表示されると共に、以上の メニュー選択されたイベントを授受するノード名とフィールド名に対応したRO UTE文がルーティング編集ツール422において生成される。S339: The field name (eventOut) of the event input node selected by mouse menu selection from the pull-down list shown in Figure 27 is displayed by the routing editing tool 422, and a ROUTE statement corresponding to the node name and field name that receive the selected event is generated in the routing editing tool 422.

このように、ルーティング編集機能によれば、ノードのフィールド間で授受す るイベントのデータ型に適合するノードのフィールド名のみがユーザに対して表 示されるので、ユーザは表示されたフィールド名のいずれかを選択してルーティ ングの型の設定を行うことができる。従って、ルーティングのデータ型の設定が 容易になり、単純ミス等によるノード間のデータの型の不一致等の不具合が防止 される。In this way, the routing editing feature displays only the node field names that match the data type of the event being exchanged between node fields. The user can then select one of the displayed field names to set the routing type. This simplifies the process of setting routing data types and prevents errors such as mismatched data types between nodes due to simple mistakes.

ルーティングの削除は、削除したいルーティングを選択してDeleteボタンを押 す。ルーティング編集ツール422はこの操作に応じて、該当するルーティング を削除する。To delete a routing, select the routing you want to delete and press the Delete button. The routing edit tool 422 will then delete the corresponding routing.

スクリプト編集機能(テキストエディタ426) ユーザがスクリプトノードの入出力(eventIn,eventOut)の値を変更すると、 テキストエディタ426がスクリプトノードに対応するスクリプトのソースプロ グラムを変更後の入出力の値に適合するように自動的に変更する。 Script Editing Function (Text Editor 426) When the user changes the input/output (eventIn, eventOut) values of a script node, the text editor 426 automatically changes the source program of the script corresponding to the script node to match the changed input/output values.

ファイルスコープ機能(シーングラフ編集ツール424) ユーザが表示装置24のメニュー画面のConductor ウィンドウ等で編集対象の VRMLファイルを選択すると、シーングラフ編集ツール424は選択した編集 対象のVRMLファイルが参照しているノードを、シーングラフウィンドウ内に 、例えば、階層的なツリー形式で表示する。このように、編集対象のVRMLフ ァイルにより参照されているノードの集合を「ファイルスコープ」とも呼ぶ。 File scope function (scene graph editing tool 424) When the user selects a VRML file to be edited in the Conductor window or the like on the menu screen of the display device 24, the scene graph editing tool 424 displays the nodes referenced by the selected VRML file to be edited in the scene graph window, for example in the form of a hierarchical tree. This collection of nodes referenced by the VRML file to be edited is also called the "file scope."

シーングラフ編集ツール424は、ルーティングおよびスクリプト作成等の編 集の対象とされるノードを、シーングラフウィンドウ内に表示しているファイル スコープに限定する。ファイルスコープの内容、および、編集対象となりうるノ ードは、ユーザによる編集対象のVRMLファイルの変更に応じて、変更後のV RMLファイルが参照しているノードに変更される。The scene graph editing tool 424 limits the nodes that can be edited, such as for routing and script creation, to the file scope displayed in the scene graph window. When the user changes the VRML file being edited, the contents of the file scope and the nodes that can be edited are changed to the nodes referenced by the changed VRML file.

なおスクリプト編集機能は、同一VRMLファイル内の各ノードを通じて(フ ァイルスコープ内)で有効であり、ユーザが同一VRMLファイル内のスクリプ トノードの入出力(eventIn,eventOut)の値を変更すると、テキストエディタ4 26は同一VRMLファイル内の(同一ファイルスコープ内に表示されている) スクリプトノードの間での記述の整合性を保つために、スクリプトノードに対応 するスクリプトのソースプログラムを、変更後の入出力の値に適合するように自 動的に変更する(Inlineマネージメント機能)。またVRMLファイル内 では、ノードの名前はユニークである必要があるので、テキストエディタ426 は、同一VRMLファイル内で同一のノードをコピー/ペーストした場合に、ノ ード名の重腹を避けるために、コピー/ペーストしたノードの名前が同一VRM Lファイル内でユニークになるように、ノード名を自動的に変更する(Past e時の名前付け機能)。The script editing function is valid for each node within the same VRML file (within the file scope). When the user changes the input/output (eventIn, eventOut) values of a script node within the same VRML file, the text editor 426 automatically modifies the source program of the script corresponding to the script node to match the changed input/output values (inline management function) in order to maintain consistency between the script nodes within the same VRML file (displayed within the same file scope). Furthermore, since node names must be unique within a VRML file, the text editor 426 automatically renames the copied/pasted nodes so that they are unique within the same VRML file when the same node is copied and pasted within the same VRML file (paste naming function) to avoid duplicate node names.

VRMLコンテンツの基本的な作成方法 コンテンツ作成用ソフトウエアツール4によるVRMLコンテンツの作成方法 の例を述べる。 Basic Method for Creating VRML Contents An example of a method for creating VRML contents using the content creation software tool 4 will now be described.

図28はコンテンツ作成用ソフトウエアツール4により作成される円錐形(co ne)のオブジェクトを例示する図である。FIG. 28 is a diagram illustrating a cone-shaped object created by the content creation software tool 4.

コンテンツ作成用ソフトウエアツール4を用いて簡単な3次元仮想空間のコン テンツ(VRMLコンテンツ)の作成の第1の具体例として、図28に示す円錐 形のオブジェクトにセンサを付し、センサに対するポインティングに応じてコー ンを明るくしたり暗くしたりする(ライト(light)のON/OFFをする)コン テンツ(第1のコンテンツ)を作成する場合を述べる。As a first example of the creation of simple three-dimensional virtual space content (VRML content) using the content creation software tool 4, we will describe the creation of content (first content) in which a sensor is attached to a cone-shaped object shown in FIG. 28, and the cone becomes brighter or darker (a light is turned on or off) depending on how the sensor is pointed.

このVRMLコンテンツの作成は、図29に図解した工程をとる。すなわち、 S401:図形データの作成〔幾何学的なオブジェクトのノード{ Geometry ノード(Cone)}の配置〕を行い、 S402:センサの付加〔 Sensor ノード(TouchSensor)の配置〕を行い、 S403:ライトノード(light node)〔VRMLが規定するノード{ Commo n ノード(PointLight)}の配置〕を付し、 S404:ルーティング対象のノードに名前を付け、 S405:ルートを設定し、 S406:動作確認を行う。This VRML content is created using the steps illustrated in Figure 29. Specifically, S401: Create graphic data (place geometric object nodes {Geometry nodes (Cone)}) S402: Add sensors (place Sensor nodes (TouchSensor)) S403: Add light nodes (place VRML-defined nodes {Common nodes (PointLight))) S404: Name the nodes to be routed S405: Set the route S406: Check operation.

以下、その工程の詳細を述べる。The process will be described in detail below.

S401:図形データの作成〔 Geometry ノード(Cone)の配置〕 ユーザは3次元仮想空間(ワールド)内にオブジェクトを配置し、全体を構築 する。コンテンツ作成用ソフトウエアツール4を用いてオブジェクトとして3次 元仮想空間内に配置できるオブジェクトは、例えば、VRML2.0の基本ノー ド、あるいは、ライブラリウィンドウで提供されるものである。 S401: Creating graphic data [Placing Geometry nodes (Cones)] The user places objects in a three-dimensional virtual space (world) to construct the whole. Objects that can be placed in the three-dimensional virtual space using the content creation software tool 4 are, for example, basic nodes of VRML 2.0 or those provided in the library window.

コンテンツ作成用ソフトウエアツール4は他のモデリングソフトで作成したオ ブジェクトの図形データを、VRML2.0に適合したファイル形式に変換する ことにより、読み込むことも可能である。The content creation software tool 4 can also read object graphic data created with other modeling software by converting it into a file format compatible with VRML 2.0.

ユーザがコンテンツ作成用ソフトウエアツール4を起動すると、グラフィカル ユーザーインターフェース部(GUI)40は、図9に示したGUIメニュー画 面を表示装置24に表示する。ユーザがConductor ウインドウの「File/New」の 項目をマウス262等を用いて選択すると、コンテンツ作成用ソフトウエアツー ル4のモデル編集ツール420は、新規に空のワールドを作成する。When the user launches the content creation software tool 4, the graphical user interface (GUI) 40 displays the GUI menu screen shown in FIG. 9 on the display device 24. When the user selects the "File/New" item in the Conductor window using the mouse 262 or other device, the model editing tool 420 of the content creation software tool 4 creates a new, empty world.

ユーザは作成した空のワールドに円錐形のオブジェクト(Cone)を置く作業を行 う。ユーザは、Conductor ウィンドウのGeometryタブから「Cone」を選択し、図 形データ作成用のウィンドウ( 以下、3D Viewウィンドウと記す)をクリ ックすると、編集ツール42のモデル編集ツール420は、オブジェクト(Cone) の図形データを作成し、図28に示した円錐形(Cone)を3D Viewウィン ドウに表示する。この際に、ユーザは、上述したコンテンツ作成用ソフトウエア ツール4のアテンション機能を用いて、3次元仮想空間内でオブジェクト(Cone) の周囲を移動した場合に見える画像を3D Viewウィンドウに表示させ、オ ブジェクト(Cone)の形状を確認することも可能である。The user places a cone-shaped object (Cone) in the empty world they created. The user selects "Cone" from the Geometry tab in the Conductor window and clicks on the window for creating graphic data (hereinafter referred to as the 3D View window). The model editing tool 420 of the editing tool 42 creates the graphic data for the object (Cone) and displays the cone shown in Figure 28 in the 3D View window. At this time, the user can also use the attention function of the content creation software tool 4 described above to display in the 3D View window an image of what would appear if the user moved around the object (Cone) in the 3D virtual space, allowing them to confirm the shape of the object (Cone).

S402:センサの付加〔Sensorノード(TouchSensor)の配置〕 3次元仮想空間内のオブジェクトに動きをつけたり、ユーザの操作に反応する ようにするためにはセンサをオブジェクトに付加し、オブジェクトに対するクラ イアントの操作について一定の条件を検出し、その変化をイベントとして他のノ ードに伝える必要がある。 S402: Adding a sensor [Placing a Sensor Node (Touch Sensor)] In order to give movement to an object in a three-dimensional virtual space or have it respond to user operations, it is necessary to add a sensor to the object, detect certain conditions regarding the client's operations on the object, and communicate those changes as events to other nodes.

以下、オブジェクトに対するマウス262によるポインティング操作を検出す るタッチセンサ(TouchSensor )の付加を例に説明する。The following describes an example of adding a touch sensor that detects a pointing operation on an object using a mouse 262.

オブジェクトへのセンサの付加は、オブジェクトを選択状態にしてから、セン サ(TouchSensor)を生成することにより行われる。To add a sensor to an object, first select the object and then create a sensor (TouchSensor).

(1)まず、ユーザが3D Viewウィンドウ上でオブジェクト(Cone)をク リックすると、モデル編集ツール420はクリックされたオブジェクトを選択し 、選択したオブジェクトを囲むバウンディングボックスを点滅させる。(1) First, when the user clicks on an object (Cone) in the 3D View window, the model editing tool 420 selects the clicked object and flashes the bounding box surrounding the selected object.

(2)さらにユーザがConductor ウィンドウのSensorタブをクリックし、図1 0Aに示すように、Sensorタブの一番右側にあるタッチセンサ(TouchSensor ) を選択し、3D Viewウィンドウをクリックすると、モデル編集ツール42 0はオブジェクトにタッチセンサを付加し、そのデータをオブジェクトの図形デ ータに付加する。この段階において、上述したように、ユーザはキーボード26 0あるいはマウス262を用いて、センサ(TouchSensor)の有効領域の範囲を変 更することも可能である。(2) If the user then clicks the Sensor tab in the Conductor window, selects the TouchSensor at the far right of the Sensor tab (as shown in Figure 10A), and clicks the 3D View window, the model editing tool 420 adds a touch sensor to the object and adds its data to the object's graphic data. At this stage, as described above, the user can also change the effective range of the TouchSensor using the keyboard 260 or mouse 262.

図30はメニュー画面内のシーングラフウィンドウを示す図である。FIG. 30 shows the scene graph window in the menu screen.

シーングラフ編集ツール424は、オブジェクトへのタッチセンサの付加に応 じ、メニュー画面内のシーングラフウィンドウの表示内容を図30に示すように 変更する。ユーザは図30に示すシーングラフウィンドウを参照することにより 、オブジェクト、この例ではCone(円錐形)、にタッチセンサ(TouchSensor)が 付加されたことを確認することができる。In response to the addition of a touch sensor to an object, the scene graph editing tool 424 changes the display contents of the scene graph window on the menu screen as shown in Figure 30. By referring to the scene graph window shown in Figure 30, the user can confirm that a touch sensor has been added to the object, in this example, a cone.

この例は、Cone(円錐形)という単純なオブジェクトに対してセンサ(TouchSe nsor)を付加する場合を例示しているが、ユーザの同様な操作により円錐形より 複雑なオブジェクトに対してセンサ(TouchSensor)を付加することも可能である 。This example illustrates adding a TouchSensor to a simple object called a cone, but the user can also add a TouchSensor to objects more complex than a cone using similar operations.

S403:Commonノード(PointLight)の付加 VRML2.0においては、センサ(Sensorノード)が検出したイベントを他 のノードに伝達し、イベントを受けたノードが状態を変更するという流れで動作 が記述される。 S403: Adding a Common Node (PointLight) In VRML 2.0, operations are described in such a way that a sensor (Sensor node) transmits a detected event to other nodes, and the nodes that receive the event change their state.

以下、イベントを受けるノードとして、ライト(光)をON/OFFするコモ ンノード(PointLight)を付加する場合を例に説明する。The following explanation will be given using an example where a common node (PointLight) that turns a light on and off is added as a node that receives an event.

コモンノード(PointLight)ライトは、Conductor ウィンドウのCommonタブにあ る。しかしながら、図示した表示のままでオブジェクトと同じ位置にライトを生 成すると見えなくなるので、あらかじめ視点を移動する必要がある。Common node (PointLight) lights are located in the Common tab of the Conductor window. However, if you create a light in the same position as the object as shown in the image, it will not be visible, so you will need to move your viewpoint beforehand.

ユーザが、3D Viewウィンドウをアクティブにしておき、例えば、キー ボード260の下矢印キー「↓」を押下すると、モデル編集ツール420は、少 し視点を引いた位置から見たオブジェクトを3D Viewウィンドウに表示す る。この状態で、コモンノード(PointLight)を選択すると、モデル編集ツール4 20は、図31に示すようにオブジェクト(Cone)を明るく表示する。When the user activates the 3D View window and presses, for example, the down arrow key "↓" on the keyboard 260, the model editing tool 420 displays the object in the 3D View window as seen from a slightly more distant viewpoint. In this state, if the user selects a common node (PointLight), the model editing tool 420 displays the object (Cone) brightly, as shown in Figure 31.

S404:ルーティング対象のノードに名前を付ける 次に、ユーザはセンサ(TouchSensor)からコモンノード(PointLight)への対応 付けを行うといったように、ノードの間でルーティングを行う。 S404: Name the node to be routed. Next, the user performs routing between nodes, such as associating a sensor (TouchSensor) with a common node (PointLight).

ルーティングとは、センサからスクリプトへといったように、ノード間でイベ ントを伝達するために、両者を結び付けることをいう。Routing refers to connecting nodes together, such as from a sensor to a script, to transmit events between them.

このルーティングを行うためには、まずセンサに名前(DEF名)を付ける必 要がある。To do this, you must first give the sensor a name (DEF name).

図32〜図33はAttributeウィンドウによりセンサノードに名前を 付す作業を示す図である。32 and 33 show the process of naming a sensor node using the Attribute window.

Attributeウィンドウは選択されているオブジェクトの属性を変更す るためのウィンドウであって、名前(DEF名)のノードへの付加はAttri buteウィンドウに対する操作により行われる。ここでは、ユーザがシーング ラフウィンドウからセンサ(TouchSensor)を選択し、Attributeウィン ドウでDEF名(TS1,PL1)を付ける場合を例に説明する。The Attribute window is used to change the attributes of a selected object. Adding a name (DEF name) to a node is performed through operations in the Attribute window. Here, we will use the example of a user selecting a sensor (TouchSensor) from the Scenegraph window and assigning it a DEF name (TS1, PL1) in the Attribute window.

図32に示すように、ユーザが、Attributeウィンドウ内の「DEF 名」の位置を指定し、キーボード260から「TS1」とタイプしてリターンキ ーを押し、さらに、図33に示すように、シーングラフウィンドウからコモンノ ード(PointLight)を選択し、「PL1」とタイプしてリターンキーを押すと、シ ーングラフ編集ツール424は、センサ(TouchSensor)およびコモンノード(Poin tLight)にそれぞれTS1,PL1というDEF名を付す。As shown in FIG. 32, if the user specifies the location of the "DEF name" in the Attribute window, types "TS1" on the keyboard 260, and presses the return key, and then, as shown in FIG. 33, selects the common node (PointLight) from the scene graph window, types "PL1," and presses the return key, the scene graph editing tool 424 assigns the DEF names TS1 and PL1 to the sensor (TouchSensor) and the common node (PointLight), respectively.

ユーザが、例えば、Attributeウィンドウのコモンノード(PointLigh t)のonフィールドをダブルクリックすると、テキストエディタ426は、ライト の初期状態をOFFし、オブジェクトの図形データに付加する。For example, when the user double-clicks the on field of a common node (PointLight) in the Attribute window, the text editor 426 sets the initial state of the light to OFF and adds it to the object's graphic data.

S405:ルートの設定 図34はノード間のルーティングの設定に用いられるルートウィンドウを例示 する図である。 S405: Setting a Route FIG. 34 is a diagram showing an example of a route window used to set routing between nodes.

ユーザはセンサ(TouchSensor;TS1)で発生したイベントをコモンノード(PointL ight:PL1)に伝達するようにルーティングの設定を行う。コンテンツ作成用ソフ トウエアツール4は、図34に示すルート(Route)ウィンドウによりルーティン グの設定を行う。The user configures routing so that events generated by a sensor (TouchSensor; TS1) are transmitted to a common node (PointLight; PL1). The content creation software tool 4 configures routing using the Route window shown in Figure 34.

図34に例示するルートウィンドウにおいて、上段の「NodeName」の位置が出 力側のノード名の設定に用いられ、下段の「NodeName」の位置が入力側のノード 名の設定に用いられる。イベントは、センサ(TouchSensor)をクリックしたらラ イトをON/OFFするということなので、ユーザが、出力側の「NodeName」に はTS1を設定し、「eventOut」は「isActive」を選択すると、右側に「SFBool 」という型が表示される。なお、右側の「SFBool」という表示は、「isActive」 で渡されるイベントの型がSFBoolであることを示す。In the root window shown in Figure 34, the "NodeName" position in the top row is used to set the output node name, and the "NodeName" position in the bottom row is used to set the input node name. The event is to turn a light on/off when the sensor (TouchSensor) is clicked. Therefore, if the user sets the output "NodeName" to TS1 and selects "isActive" for "eventOut," the type "SFBool" will appear on the right. The "SFBool" display on the right indicates that the type of the event passed by "isActive" is SFBool.

ユーザは入力側の設定として、「NodeName」にはPL1を設定し、「eventIn 」には「on」を設定する。For input settings, the user sets "NodeName" to PL1 and "eventIn" to "on."

以上のユーザによる設定に応じて、ルーティング編集ツール422は、表示装 置24におけるルートウィンドウの表示を、図34に示したように変更する。In response to the above user settings, the routing editing tool 422 changes the display of the route window on the display device 24 as shown in FIG.

以上の設定が終了し、ユーザがAddボタンを押下すると、ルーティング編集 ツール422は、センサ(TouchSensor)とコモンノード(PointLight)とを対応付 けてルーティングを行い、ノード間のルートを追加する。Once the above settings are complete and the user presses the Add button, the routing editing tool 422 associates the sensor (TouchSensor) with the common node (PointLight), performs routing, and adds a route between the nodes.

S406:動作確認 ユーザが表示装置24に表示された「Playボタン」を押下すと、コンテン ツ作成用ソフトウエアツール4のグラフィカルユーザーインターフェース部(G UI)40に入力され、コンテンツ作成用ソフトウエアツール4のブラウザエミ ュレータ460によってVRMLブラウザ308の動作をエミュレートする。し たがって、VRMLブラウザ308を起動せずにVRMLコンテンツ作成作業中 の任意のタイミングでVRMLコンテンツを確認することができる。 S406: Operation Check When the user presses the "Play button" displayed on the display device 24, the data is input into the graphical user interface (GUI) 40 of the content creation software tool 4, and the operation of the VRML browser 308 is emulated by the browser emulator 460 of the content creation software tool 4. Therefore, it is possible to check the VRML content at any time during the VRML content creation work without starting the VRML browser 308.

さらにユーザが表示装置24に表示された「Playボタン」を押すと通常の コンテンツ作成作業に戻る。When the user presses the "Play" button displayed on the display device 24, the normal content creation process resumes.

以下、コンテンツの確認作業を詳述する。The content verification process is described in detail below.

Conductor ウィンドウの左下にある「Playボタン」(右向きの三角形が付 されたボタン)をマウス262で押下すると、コンテンツ作成用リフトウエアツ ール4は、VRMLコンテンツの作成動作(作成モード)から、ブラウザエミュ レータ460によりVRMLブラウザ308の動作をエミュレートして、作成し たコンテンツの確認を行う動作(シュミレーションモード)に移行する。When the "Play" button (the button with a right-pointing triangle) at the bottom left of the Conductor window is pressed with the mouse 262, the content creation software tool 4 transitions from the VRML content creation mode (creation mode) to the simulation mode (simulation mode), in which the browser emulator 460 emulates the operation of the VRML browser 308 and allows the created content to be viewed.

シュミレーションモードに移行すると、バックアップマネジャ466は、この 時点のVRMLコンテンツの各ノードの状態、および、ユーザの視点を保存し、 ブラウザエミュレータ460がVRMLコンテンツを実行し、表示装置24に表 示する。ブラウザエミュレータ460がVRMLコンテンツの実行・表示を行っ ている間に、ユーザがマウス262で3D Viewウィンドウに表示されたオ ブジェクト(Cone)を押下すると、押下している間はオブジェクトを明るく表示し (ライトON)、押下しない間はオブジェクトを暗く表示する(ライトOFF) 。When the system switches to simulation mode, the backup manager 466 saves the state of each node in the VRML content at that time, as well as the user's viewpoint. The browser emulator 460 then executes the VRML content and displays it on the display device 24. While the browser emulator 460 is executing and displaying the VRML content, if the user presses an object (Cone) displayed in the 3D View window with the mouse 262, the object will be displayed brightly while pressed (light ON), and dimly while not pressed (light OFF).

このように、シュミレーションモードにおいては、ユーザがオブジェクト(Con e)をマウス262でクリックすると、オブジェクトに付されたセンサ(TouchSens or)がクリックを検出しイベントが発生する。発生したイベントは、ルーティン グの設定によりコモンノード(PointLight)に伝えられ、コモンノード(PointLigh t)が状態を変させ、オブジェクトを点灯させ、クリックの終了時にも、同様な流 れでイベントが発生しコモンノード(PointLight)がオブジェクトを消灯する。In this way, in simulation mode, when the user clicks on an object (Cone) with the mouse 262, the sensor (TouchSensor) attached to the object detects the click and generates an event. The generated event is transmitted to the common node (PointLight) via the routing settings, and the common node (PointLight) changes its state, turning the object on. When the click ends, a similar event is generated and the common node (PointLight) turns the object off.

さらに、ユーザがConductor ウィンドウの「Stopボタン」(正方形が付さ れたボタン)をマウス262で押下すると、コンテンツ作成用ソフトウエアツー ル4は通常のコンテンツ作成モードに戻る。Furthermore, when the user presses the "Stop" button (the button marked with a square) in the Conductor window with the mouse 262, the content creation software tool 4 returns to the normal content creation mode.

VRMLコンテンツ作成モードに戻ると、バックアップマネシャ466は、V RMLコンテンツの状態をシュミレーションモードに入った時点で保存した初期 状態に戻し、さらに、ユーザの視点をシュミレーションモードに入った時点の位 置に戻し、モデル編集ツール420は、初期状態の図形データを3D View ウィンドウに表示する。When returning to VRML content creation mode, the backup manager 466 restores the state of the VRML content to the initial state saved when simulation mode was entered, and also restores the user's viewpoint to the position at the time simulation mode was entered, and the model editing tool 420 displays the initial state graphic data in the 3D View window.

作成したVRMLコンテンツの保存 ファイルを保存する場合、ユーザが、メニュ−画面のFile/Save Asメニューで ファイル名を指定すると、ファイル入出力部462がシーングラフデータベース 44に記憶されたVRMLコンテンツのファイルをハードディスク装置214、 または、フロッピーディスク装置216およびMOディスクドライブ装置218 を介して外部記憶装置28に記録する。ユーザは記録したVRMLコンテンツの ファイルをVRMLブラウザ308で開いて見ることも可能である。When saving a created VRML content file, the user specifies a file name using the File/Save As menu on the menu screen, and the file input/output unit 462 records the VRML content file stored in the scene graph database 44 in the external storage device 28 via the hard disk drive 214, or the floppy disk drive 216 and MO disk drive 218. The user can also open and view the recorded VRML content file in the VRML browser 308.

以上説明したように、円錐形のオブジェクトをマウス262によるクリックに 応じて明るく表示したり、暗く表示したりする簡単なコンテンツを作成し、確認 する場合には、グラフィカルユーザーインターフェース部40によるインタラク ティブな操作により、複雑な文字列コマンド入力によるプログラミングなしに、 オブジェクトの図形データ、センサ付加およびルーティングの追加が可能である ことが理解されよう。As explained above, when creating and verifying simple content that brightens or darkens a cone-shaped object in response to mouse clicks (262), it is clear that interactive operation using the graphical user interface (GUI) unit 40 allows for the addition of object graphic data, sensors, and routing without the need for programming by entering complex string commands.

複雑なコンテンツの作成 コンテンツ作成用ソフトウエアツール4を用いて3次元仮想空間のコンテンツ (VRMLコンテンツ)の作成の第2の具体例として、オブジェクトの上にマウ スカーソルが来たらオブジェクトの色を変えるというVRMLコンテンツ(第2 のコンテンツ)を作成する場合を例を述べる。 Creation of Complex Content As a second specific example of creation of three-dimensional virtual space content (VRML content) using the content creation software tool 4, an example of creating VRML content (second content) that changes the color of an object when the mouse cursor is placed over it will be described.

上記VRMLコンテンツは、オブジェクトに付されたセンサ(TouchSensor)が 発生したイベントを、他のノード〔コモンノード(PointLight)〕に伝達するよう に構成されていたが、VRML2.0においては、センサと他のノードの間に、 スクリプトを介在させて、さらに複雑な動きを実現することができる。The VRML content described above was configured to transmit events generated by a sensor (TouchSensor) attached to an object to another node (common node (PointLight)). However, in VRML 2.0, scripts can be inserted between the sensor and other nodes to achieve even more complex movements.

例えば、上述の第2のコンテンツをVRML2.0により実現するためには、 オブジェクト(Cone)の色をMaterial属性で指定する。このMateri al属性には複数のフィールドがあり、Material属性としてdiffuseCol orを設定することにより、オブジェクトの色を変えることができる。このような 場合、イベントの発生に応じて、Material属性「diffuseColor」を設定 する必要がある。このような場合、スクリプトを介在させることにより、diffus eColorを設定することができる。For example, to realize the second content mentioned above using VRML 2.0, the color of the object (Cone) is specified using the Material attribute. This Material attribute has multiple fields, and the object's color can be changed by setting the Material attribute "diffuseColor." In such cases, the Material attribute "diffuseColor" must be set depending on the occurrence of an event. In such cases, the diffuseColor can be set by using a script.

第2のコンテンツを作成する作業は、図35に図解した手順による。すなわち 、 S411:図形データの作成〔 Geometry ノード(Cone)の配置〕、 S412:センサの付加〔 Sensor ノード(TouchSensor)の配置〕、 S413:ルーティング対象のノードへの名前の付与、 S414:スクリプトの作成、 S425:スクリプトに対応するプログラム(デバッグコードのみ)の記述、 S416:スクリプトへのルートの設定、 S417:動作確認、 S418:スクリプトに対応するプログラムの記述(色の設定する) S419:Materialノードへのルートの設定、 S420:動作確認 という流れになる。The work of creating the second content follows the steps illustrated in Figure 35. That is, S411: Create graphic data [Place Geometry node (Cone)] S412: Add a sensor [Place Sensor node (TouchSensor)] S413: Name the routing target node S414: Create a script S425: Write a program corresponding to the script (debug code only) S416: Set a route to the script S417: Check operation S418: Write a program corresponding to the script (set color) S419: Set a route to the Material node S420: Check operation

なお、第2のコンテンツ作成作業の内、ステップ411,412の動作は、図 29を参照して述べたステップ201、202の動作と同じであるから説明を省 略する。Note that, in the second content creation process, the operations of steps 411 and 412 are the same as the operations of steps 201 and 202 described with reference to FIG. 29, and therefore a description thereof will be omitted.

以下、第2のコンテンツの作成の各作業を説明する。Each step in creating the second content will be described below.

S413:ルーティング対象のノードへの名前の付与 VRML2.0 においては、ルーティングを行うためにはまず名前をつける 必要がある。第1のコンテンツの作成においては、上述のように、センサ(Touch Sensor)およびコモンノード(PointLight)に名前(TS1,PL1)を付与した 。第2のコンテンツの作成においては、さらに、Material属性に名前を 付与する必要がある。 S413: Assigning names to nodes to be routed In VRML 2.0, in order to perform routing, it is first necessary to assign names. In creating the first content, as described above, names (TS1, PL1) were assigned to the sensor (Touch Sensor) and the common node (PointLight). In creating the second content, it is also necessary to assign names to the Material attributes.

図36はメニュー画面内のAppearanceウィンドウを示す図である。FIG. 36 shows the Appearance window in the menu screen.

VRML2.0 においては、Material属性は、オブジェクトへ付す 色およびビットマップデータ等の属性を設定するAppearanceノードに 含まれる。コンテンツ作成用ソフトウエアツール4においては、メニュー画面の Appearanceウィンドウが、3D Viewウィンドウ内で選択されて いるオブジェクトとしての図形データのAppearance( Materia l,Texture等を含む)の編集に用いられる。In VRML 2.0, the Material attribute is included in the Appearance node, which sets attributes such as color and bitmap data to be attached to an object. In the content creation software tool 4, the Appearance window on the menu screen is used to edit the Appearance (including Material, Texture, etc.) of the graphic data of the object selected in the 3D View window.

ユーザはオブジェクトのMaterial属性に名前を付与する場合、まずオ ブジェクトをマウス262でクリックして選択し、さらに、図36に示すApp earanceウィンドウのMaterialタブを選択して、例えば、「CONE 1 _MAT 」という名前を付与する。To assign a name to the Material attribute of an object, the user first selects the object by clicking it with the mouse 262, then selects the Material tab in the Appearance window shown in FIG. 36, and assigns a name, for example, "CONE 1_MAT."

S414:スクリプトノードの作成 VRML2.0では、スクリプトノードと呼ばれるスクリプトプログラムとイ ンターフェースするためのノードがある。このスクリプトノードは、VRMLフ ァイルに含まれ、例えば、Java言語で記述されるスクリプトを用いて、複雑 な動作の記述を可能にする。しかしながら、スクリプトノードはインターフェー スの機能があるので、インターフェースを行う相手のスクリプトと密接な関係を 有し、また、複数の入出力の定義が可能なので、ユーザにとって理解しにくいも のになっている。 S414: Creating a Script Node VRML 2.0 has a node called a script node for interfacing with a script program. This script node is included in a VRML file, and makes it possible to write complex operations using scripts written in, for example, Java. However, because script nodes have interface functions, they are closely related to the scripts they interface with, and because they allow multiple inputs and outputs to be defined, they can be difficult for users to understand.

このため、コンテンツ作成用ソフトウエアツール4にはスクリプトの記述を簡 単にするScript Expertと呼ばれる機能が設けられている。For this reason, the content creation software tool 4 is provided with a function called Script Expert that simplifies the writing of scripts.

Script Expert機能によれば、スクリプトの入出力を定義するこ とにより、スクリプトプログラムのテンプレートを自動的に生成することができ 、さらに、Attributeウィンドウを用いて、入出力フィールドの編集を 行うこともできる。The Script Expert feature allows you to automatically generate script program templates by defining the script's inputs and outputs. You can also edit the input and output fields using the Attributes window.

図37および図38はスクリプトを作成するためのダイアログを例示する図で ある。図38はポップアップした時のダイアログを示す。Figures 37 and 38 are examples of dialogs for creating a script. Figure 38 shows the dialog when it pops up.

ユーザが、コンテンツ作成用ソフトウエアツール4のメニュー画面において、 マウス262で「Script/Expert 」を選択すると、テンプレート作成ツール42 8は、図37、図38に示すスクリプトを作成するためのダイアログを開く。When the user selects "Script/Expert" with the mouse 262 on the menu screen of the content creation software tool 4, the template creation tool 428 opens the dialog box for creating a script shown in Figures 37 and 38.

このダイアログにおいて、一番上の位置「DEF」は、スクリプトのVRML ファイルへのルーティングに用いられるスクリプトノードに名前を付すために用 いられ、ユーザは、例えば、スクリプトノードの名前としてこの位置に「SC1 」を入力する。In this dialog, the top position "DEF" is used to name the script node used to route the script to the VRML file; for example, the user might enter "SC1" in this position as the name of the script node.

ダイアログの「DEF」の下の位置「ClassName」は、Java言語 のスクリプトにクラス名を付すために用いられ、ユーザは、例えば、スクリプト に仮の名前SC1を付す。The "ClassName" position under "DEF" in the dialog is used to assign a class name to the Java script. For example, the user might assign the script a temporary name of SC1.

さらにユーザは、ダイアログのさらに下の位置に、スクリプトノードの入出力 を定義する。第2のコンテンツの作成においては、スクリプトにセンサ(TouchSe nsor)により発生されるイベントが入力されるので、ユーザは、「eventIn 」側 の「DataType」を、センサ(TouchSensor)からイベントを渡す際の型に適合した 「SFBool」とし、「field name」を「inBool」とする。The user then defines the input and output of the script node further down in the dialog. In creating the second content, events generated by the sensor (TouchSensor) will be input to the script, so the user sets the "DataType" of the "eventIn" node to "SFBool," which matches the format used when passing events from the sensor (TouchSensor), and the "field name" to "inBool."

センサの出力は、Materialの色をコントロールするスクリプトに渡さ れるので、ユーザは、「eventOut」側の「DataType」を「SFColor 」とし、「fi eld name」を「outColor」とする。The sensor output is passed to the script that controls the Material color, so the user sets the "DataType" of the "eventOut" to "SFColor" and the "field name" to "outColor".

ユーザが、スクリプトノードの作成に必要な上述の設定を終了した時点でのダ イアログの表示内容は、図37に示した通りである。When the user has completed the above settings required to create a script node, the dialog box will look like the one shown in Figure 37.

さらにユーザが、図37に示したダイアログの下部のOKボタンをマウス26 2で押下すると、テンプレート作成ツール428はクリプトノードを作成し、ス クリプトノードに対応するスクリプトのテンプレート(ひな型)を作成する。Furthermore, when the user presses the OK button at the bottom of the dialog shown in FIG. 37 with the mouse 262, the template creation tool 428 creates a Script node and creates a script template (prototype) corresponding to the Script node.

S415:デバッグコードの記述 コンテンツ作成用ソフトウエアツール4は、さらに、Java言語によるスク リプトの記述の支援および実行を行う機能を有している。つまり、テンプレート 作成ツール428は、スクリプトノードに対応するプログラムのテンプレート( ひな型)を生成してデキストエディタ426に対して出力して、ユーザのスクリ プト記述を支援する。ユーザは、コンテンツ作成用ソフトウエアツール4を用い た場合、テンプレート作成ツール428が作成したテンプレートをテキストエデ ィタ426を用いて編集し、変更を加えるのみで、スクリプトを作成することが できるので、スクリプトのソースプログラムの作成に要する手間が非常に少なく て済む。 S415: Writing debug code The content creation software tool 4 also has the function of supporting and executing the writing of scripts in the Java language. That is, the template creation tool 428 generates program templates corresponding to script nodes and outputs them to the text editor 426 to support the user in writing scripts. When using the content creation software tool 4, the user can create a script simply by editing and modifying the templates created by the template creation tool 428 using the text editor 426, thereby significantly reducing the effort required to create a script source program.

さらに、ユーザは、Javaコンパイラ474を用いて、テンプレート作成ツ ール428およびテキストエディタ426により作成したスクリプトプログラム をコンパイルすることが可能である。その結果、スクリプトのソースプログラム を作成するたびに、コンテンツ作成用ソフトウエアツール4を停止し、Java 言語用のコンパイラを起動してコンパイルを行うという手間が不要になる。Furthermore, the user can use the Java compiler 474 to compile script programs created using the template creation tool 428 and text editor 426. As a result, the user does not need to stop the content creation software tool 4 and start a Java compiler to compile each time a script source program is created.

これまでの作業により、新しく定義したスクリプトのテンプレートが作成され 、スクリプトの編集が可能になる。しかしながら、テンプレート作成ツール42 8が作成したテンプレートは、この時点では、入出力の基本的な部分が定義する のみであり、実際にイベントを実現するプログラムを含まない。さらに、ユーザ は、スクリプト記述支援・実行機能により、テキストエディタ426を用いてテ ンプレートを編集し、直ちにオブジェクトの色を変更するスクリプトを作成する ことも可能であるが、その前に、作成されたテンプレートが実際に動作するか否 かをデバッグコードで確認することが望ましい。The above steps create a template for the newly defined script, allowing you to edit the script. However, the template created by the template creation tool 428 only defines the basic input and output, and does not include the actual program that will implement the event. Furthermore, the user can use the script writing support and execution function to edit the template using the text editor 426 and immediately create a script that changes the color of an object. However, before doing so, it is recommended that you first check the debug code to see if the created template actually works.

図39はテキストエディタ426が表示するエディタの画面を示す図である。FIG. 39 shows the editor screen displayed by the text editor 426.

ユーザの操作に応じてテキストエディタ426は、テンプレート作成ツール4 28が作成したテンプレートを、図39に示す表示装置24のテキスト編集用の ウィンドウに表示する。In response to user operations, the text editor 426 displays the template created by the template creation tool 428 in a text editing window on the display device 24, as shown in FIG. 39.

図39に示すように、ここまでの作業において定義した出力側のフィールド名 がprivate 変数(private SFColor m_outColorの部分)として定義されており、 また、initialize()メソッド内において、この変数を初期化するコードが埋め込 まれている。_inBoolCB()というメソッドは、入力のイベントがあった場合に呼 び出され、センサ(TouchSensor)からの入力によって動作するプログラムはこの メソッド〔_inBooICB()〕内に記述される。As shown in Figure 39, the output field name defined up to this point is defined as a private variable (private SFColor m_outColor), and the code to initialize this variable is embedded in the initialize() method. The _inBoolCB() method is called when an input event occurs, and the program that operates based on input from the sensor (TouchSensor) is written within this method [_inBooICB()].

例えば、センサからの入力の値を見るコードをテンプレートに付加する場合に は、以下のデバッグコードを_inBooICB()メソッド内に追加する。For example, if you add code to a template that checks sensor input values, add the following debug code to the _inBooICB() method:

このデバッグコードを追加し、クライアントが右ボタンをクリックし、ポップ アップメニューから「Compile 」を選択すると、Javaコンパイラ474が起 動され、デバッグコードが追加されたテンプレート(スクリプトのソースプログ ラム)をコンパイルし、コンパイル中のメッセージがエディタの下部分に表示さ れる。 After adding this debug code, when the client clicks the right button and selects "Compile" from the pop-up menu, the Java compiler 474 is started and compiles the template (script source program) to which the debug code has been added, and messages during compilation are displayed at the bottom of the editor.

なお、動作確認のためにユーザが表示装置24の「Playボタン」を押下す ると、Javaコンパイラ474は、作成されたスクリプトのソースプログラム を自動的にコンパイルし、オブジェクトプログラムを作成し、ブラウザエミュレ ータ460は自動的に作成されたオブジェクトプログラムを実行する。但し、こ の場合、コンパイル中にエラーが発生すると、ブラウザエミュレータ460はV RMLコンテンツの実行を行わない。When the user presses the "Play" button on the display device 24 to check the operation, the Java compiler 474 automatically compiles the created script source program to create an object program, and the browser emulator 460 executes the automatically created object program. However, in this case, if an error occurs during compilation, the browser emulator 460 will not execute the VRML content.

コンパイルが正常に終了すると、Javaコンパイラ474は、エディタの画 面に、「FiniShed」という文字を表示し、コンパイルが異常終了すると、コンパ イルエラーを表示する。コンパイルエラーが表示された場合には、ユーザは、再 度、テキストエディタ426を用いてタイプミス等があるか否かを確認して、プ ログラム(テンプレート)を修正した後、再度、コンパイルを実行することによ り、エラーを取り除くことができる。If the compilation is successful, the Java compiler 474 displays the word "FiniShed" on the editor screen. If the compilation is unsuccessful, a compilation error is displayed. If a compilation error is displayed, the user can use the text editor 426 again to check for typos, correct the program (template), and then compile again to remove the error.

Javaデバッガ472によるデバッグ処理の際には、デバッグコードが示す データがルートウィンドウに表示されるので、この場合には、ユーザはスクリプ トの実行時にセンサから入力されるデータの値を知ることできる。During debugging using the Java debugger 472, the data indicated by the debug code is displayed in the root window, allowing the user to see the values of the data input from the sensors when the script is executed.

図40はスクリプトノードのeventIn,eventOutの編集に用いられるScrip t Attributeウィンドウを例示する図である。スクリプトノードのev entln.cvcntOutの編集のためには、図40に示すScript Attribu teウィンドウが用いられる。Figure 40 shows an example of the Script Attribute window used to edit the eventIn and eventOut of a script node. The Script Attribute window shown in Figure 40 is used to edit the eventln.cvcntOut of a script node.

ユーザが、スクリプトノードを選択した状態で、メニュー画面のAttrib uteウインドウのeventln,eventOutを押下すると、図40に示すScript Attributeウィンドウが開く。When the user selects a script node and clicks eventln or eventOut in the Attribute window on the menu screen, the Script Attribute window shown in Figure 40 opens.

Script Attributeウィンドウの入力フィールドで「型」と「 名前」を設定し、マウス262でAddボタンを押下すると、テキストエディタ 426は、スクリプトにフィールドを追加し、さらに、シーングラフデータベー ス44中のスクリプトノードを更新する。When you set the "Type" and "Name" in the input fields of the Script Attribute window and press the Add button with the mouse 262, the text editor 426 adds the field to the script and updates the script node in the scene graph database 44.

ユーザが、Script Attributeウィンドウでスクリプトの入出 力属性を一覧表示し、フィールドを指定してマウス262でDeleteボタン を押下すると、テキストエディタ426はスクリプトからフィールドの記述を消 去する。When the user displays a list of input and output attributes of a script in the Script Attribute window, selects a field, and presses the Delete button with the mouse 262, the text editor 426 erases the field description from the script.

また、スクリプトのフィールドの「型」および「名前」を変更する場合には、 一度、スクリプトのフィールドを消去してから新しく追加する。Also, if you want to change the "type" and "name" of a script field, you must first delete the script field and then add a new one.

上述した操作によりスクリプトノードが変更されると、テキストエディタ42 6は、変更後の状態に適合するようにスクリプトのソースプログラムを自動的に 変更する。When a script node is changed by the above operations, the text editor 426 automatically changes the source program of the script to match the changed state.

ソースプログラムの自動的な変更の具体例を挙げる。Here is a concrete example of automatic modification of a source program.

例えば、図40に示したScript Attributeウィンドウにおい て、ユーザがeventOut側を表示し、TypeName側をSFBoolと指定し、EventName 側 をoutColorと指定して、Deleteボタンを押下すると、テキストエディタ4 26は、図39に示したスクリプトの第10行目(private SFColor m outColor ;)を自動的に消去し、変更を反映させる。 For example, in the Script Attribute window shown in FIG. 40, if the user displays the eventOut side, specifies SFBool on the TypeName side, specifies outColor on the EventName side, and presses the Delete button, the text editor 4 26 deletes the 10th line (private SFColor m outColor ;) will be automatically cleared and the changes will be reflected.

S416:スクリプトノードへのルートの設定 図41はルートウィンドウの内容を例示する図である。 S416: Setting a route to a script node FIG. 41 is a diagram showing an example of the contents of the root window.

上述のように、スクリプトを動作させるためにはルーティングが必要である。As mentioned above, routing is required for scripts to work.

第2のスクリプトにおいては、図41に示すルートウィンドウにおいて、センサ (TouchSensor)で発生したイベントをスクリプトノードにルーティングし、オブ ジェクト(Cone)の色を変更する。In the second script, an event generated by a sensor (TouchSensor) in the root window shown in Figure 41 is routed to a script node, which changes the color of an object (Cone).

図42はブラウザエミュレータ460が表示するJava Consoleウ インドウの内容を示す図である。FIG. 42 shows the contents of the Java Console window displayed by the browser emulator 460.

マウス262のカーソルがオブジェクト(Cone)を通過したときに、センザ(Tou chSensor)が発生するイベントをisOverとし、イベントを受けるスクリプトノー ドのフィールドを、Script Expert機能を用いて指定したinBoolと してルーティングを行うと、Javaデバッガ472は、Java Conso leウィンドウに、例えば、図43に示す内容のメッセージを表示する。When the mouse cursor 262 passes over an object (Cone), the event generated by the sensor (TouchSensor) is set to "isOver." The script node field that receives the event is set to "inBool" using the Script Expert function. Then, the Java debugger 472 displays a message in the Java Console window, such as the one shown in Figure 43.

S417:動作確認 ステップ415(S415)のデバッグコードの記述作業において、デバッグ 用のコードがスクリプトに追加されているので、図43に示すメッセージがJa va Consoleウィンドウに表示された場合、ユーザは、スクリブトがエ ラーなく動作しているか否かを確認することができる。さらに第2のコンテンツ の動作を確認するためには、ユーザは、第1のコンテンツの動作確認の際と同様 に、表示装置24の「Playボタン」を押下すればよい。 S417: In the operation check step 415 (S415), the debug code has been added to the script in the process of writing the debug code. Therefore, when the message shown in Figure 43 is displayed in the Java Console window, the user can check whether the script is operating without error. To further check the operation of the second content, the user need only press the "Play button" on the display device 24, as in the case of checking the operation of the first content.

さらにスクリプトの出力の値を表示させる必要がある場合に、ユーザが、メニ ュー画面の「View/Java Console 」メニューを選択すると、ブラウザエミュレー タ460は、図43に示すJava Consoleウィンドウを表示する。If it is necessary to further display the script output values, the user may select the "View/Java Console" menu on the menu screen, and the browser emulator 460 will display the Java Console window shown in FIG. 43.

ユーザが表示装置24のメニューの「Playボタン」を押下すると、ブラウ ザエミュレータ460はVRMLブラウザ308の動作をエミュレートし、VR MLコンテンツが示す3次元仮想空間のオブジェクト(画像)を3D View ウィンドウに表示する。さらにユーザが、マウス262で3D Viewウィン ドウ内のカーソルをオブジェクトに移動させると、Javaデバッガ472は、 図41に示すように、Java Consoleウィンドウに「true」というメ ッセージを表示し、ユーザがオブジェクトからカーソルと離すと、「false 」と いうメッセーシを表示する。When the user presses the "Play" button on the menu of the display device 24, the browser emulator 460 emulates the operation of the VRML browser 308 and displays the object (image) in the three-dimensional virtual space represented by the VRML content in the 3D View window. Furthermore, when the user moves the cursor over the object in the 3D View window with the mouse 262, the Java debugger 472 displays the message "true" in the Java Console window, as shown in FIG. 41. When the user moves the cursor away from the object, the Java debugger 472 displays the message "false."

図43に示したJava Consoleウィンドウの表示内容は、オブジェ クトにマウス262のカーソルが来ると、オブジェクトに付されたセンサ(Touch Sensor)がこの状態を検出してイベントを発生させ、スクリプトノードに伝達さ れ、スクリブトノードがイベントを受けたことを示しており、Java Con soleウィンドウへ表示は、メソッド中のSystem.out.Println()が実行された ことにより行われる。The Java Console window display shown in Figure 43 indicates that when the mouse cursor 262 comes over an object, the object's attached touch sensor detects this and generates an event, which is transmitted to the script node, indicating that the script node has received the event. The display in the Java Console window is generated by the execution of the System.out.Println() method.

なおマウス262のカーソルがオブジェクトから離れた場合にも、同様にイベ ントが伝達され、Java Consoleウィンドウに動作結果が表示される 。Similarly, when the mouse 262 cursor is removed from the object, an event is transmitted and the operation result is displayed in the Java Console window.

ユーザがスクリプトのデバッグを行う場合には、上述したようにデバッグコー ドをスクリプトに追加することにより、スクリプトにイベントが正常に伝達され ているか否かを確認することができる。If you want to debug your script, you can add the debug code to your script as described above to check whether events are being delivered to the script correctly.

S418:スクリプトに対応するプログラムの記述 図44はオブジェクトの色を変えるコードを追加したスクリプトを例示する図 である。 S418: Writing a program corresponding to the script Figure 44 is a diagram showing an example of a script to which a code for changing the color of an object has been added.

オブジェクトの色の変更は、図44に示すスクリプトの出力側のフィールド( 変数名m outColor)に値を書き込み、Material属性にルーティングす ることにより行われる。オブジェクトの色を変えるコードをスクリプトに追加す るためには、以下のコードをメソッド〔 inBoolCB()〕に追加する。 The color of the object can be changed by using the output field (variable name m outColor) and route it to the Material attribute. To add code to your script that changes the color of an object, add the following code to the method inBoolCB()

これらのコードの追加により、ブラウザエミュレータ460によるエミュレー ト動作において、オブジェクトにマウス262のカーソルが入ってきたとき、コ ードのev.getValue()は「true」となってスクリプト(SC1)から赤が出力さ れ、カーソルが出ていったときには、コードのev.getValue()は「false 」にな ってスクリプトから緑が出力される。 By adding these codes, when the mouse 262 cursor enters an object during emulation operation by the browser emulator 460, the ev.getValue() in the code becomes "true" and red is output from the script (SC1), and when the cursor leaves the object, the ev.getValue() in the code becomes "false" and green is output from the script.

S419:Materialノードへのルートの設定 実際にオブジェクトの色を変えるためには、スクリプトノードからMater ial属性へのルーティングを行う必要がある。 S419: Setting a route to a Material node To actually change the color of an object, it is necessary to perform routing from the script node to the Material attribute.

図36はルートウィンドウで、スクリプトプログラム(SC1)のoutColorを 、Material属性(CONE1 MAT)のdiffuseColorにルーティングする場合の 表示内容を示す図である。 Figure 36 shows the root window. The outColor of the script program (SC1) is set to the Material attribute (CONE1 This figure shows the display content when routing to the diffuseColor of MAT.

ユーザが、ルートウィンドウで、スクリプトノード(SC1)のoutColorを、 CONE1 MAT のdiffuseColorにルーティングすると、これまでに設定されたルー ティングと合わせて、センサ(TouchSensor:TS1)からスクリプト(SC1)へイベント が伝搬され、さらにそのスクリプトノードからMaterial属性(CONE1 MA T)にイベントが伝搬するというイベントの流れが完成する。 The user changes the outColor of the script node (SC1) in the root window to CONE1 When routing to MAT's diffuseColor, in conjunction with the routing set up so far, the event is propagated from the sensor (TouchSensor: TS1) to the script (SC1), and then from that script node to the Material attribute (CONE1 The event flow is completed by the event being propagated to MA T).

以上の各作業が終了した時点で、ユーザがConductor ウィンドウの「Play ボタン」を押下し、マウス262のカーソルをオブジェクト(Cone)の上に移動さ せると、オブジェクトの色が赤くなり、カーソルをオブジェクトから離すと、オ ブジェクトの色が緑色になる。After completing the above steps, the user presses the "Play" button in the Conductor window and moves the mouse 262 cursor over the object (Cone). The object turns red; when the cursor is moved away from the object, the object turns green.

バックアップマネジャ466は、第1のコンテンツの動作確認の際と同様に、 動作確認開始時のコンテンツの初期状態およびユーザの視点を保持しており、ユ ーザ「Stopボタン」を押下し、ブラウザエミュレータ460の動作が終了す ると、モデル編集ツール420はバックアップマネジャ466に保持された初期 状態のVRMLコンテンツを、動作確認開始時のユーザの視点から見た状態で3 D Viewウィンドウに復元して表示する。As with the first content operation check, the backup manager 466 retains the initial state of the content and the user's viewpoint at the start of the operation check. When the user presses the "Stop button" and the browser emulator 460 terminates operation, the model editing tool 420 restores the initial state of the VRML content retained in the backup manager 466 to the state seen from the user's viewpoint at the start of the operation check and displays it in the 3D View window.

例えば、動作確認開始時のVRMLコンテンツの初期状態の表示内容が図28 に示した通りであり、動作確認終了時のコンテンツの表示内容が図31に示した 通りである場合に、モデル編集ツール420は、バックアップマネジャ466が 保持した初期状態に基づいて、3D Viewウィンドウ内のオブジェクト(Con e)の表示を、図28に示した内容に戻す。For example, if the initial display content of the VRML content at the start of the operation check is as shown in FIG. 28 and the display content of the content at the end of the operation check is as shown in FIG. 31, the model editing tool 420 will return the display of the object (Cone) in the 3D View window to the content shown in FIG. 28 based on the initial state held by the backup manager 466.

ここで説明した動作確認におけるコンテンツの動作は、以下の通りである。The content operations in the operation check described here are as follows.

オブジェクトにカーソルが移動してくると、オブジェクトに付されたセンサ(T ouchSensor)が検出し、イベントが発生する。発生したイベントは、ルーティン グの設定によりスクリプトノードに伝達され、スクリプトノードがメソッドを実 行する。メソッド中は、入力イベント(true)を受け取ると、出力フィールドに赤 を設定し、出力フィールドに書き込まれた色は、さらに、ルーティングによりオ ブジェクト(Cone)のMaterial属性に設定され、3次元仮想空間内のオブ ジェクトの色が赤くなる。同様に、カーソルがオブジェクトから離れた場合には 、センサ(TouchSensor)からイベント(false)がスクリプトノードに伝達され、メ ソッドが出力のフィールドに緑を設定し、オブジェクトを緑色に変化させる。When the cursor moves over an object, the object's attached sensor (TouchSensor) detects it and generates an event. The generated event is transmitted to the script node via routing, which then executes the method. When the method receives an input event (true), it sets the output field to red. The color written in the output field is then set to the object's (Cone) Material attribute via routing, causing the object's color in the 3D virtual space to turn red. Similarly, when the cursor leaves the object, the sensor (TouchSensor) transmits an event (false) to the script node, which then sets the output field to green, causing the object to turn green.

オブジェクト(Cone)をクリックして音をならす例 コンテンツ作成用ソフトウエアツール4を用いて3次元仮想空間のコンテンツ (VRMLコンテンツ)の作成の第3の具体例として、オブジェクト(Cone)をマ ウス262でクリックして音をならすというVRMLコンテンツ(第3のコンテ ンツ)を作成する場合を例を述べる。 Example of Clicking an Object (Cone) to Play a Sound As a third specific example of creating three-dimensional virtual space content (VRML content) using the content creation software tool 4, an example of creating VRML content (third content) that plays a sound when an object (Cone) is clicked with the mouse 262 will be described.

以下、第3のコンテンツの作成作業を説明する。The third content creation process will now be described.

VRML2.0では、サウンドノードを用いて音を出力することができ、コン テンツ作成用ソフトウエアツール4は、サウンドライブラリからドラッグアンド ドロップすることで、ワールドにサウンドノードを追加する機能を有している。In VRML 2.0, sound can be output using sound nodes, and the content creation software tool 4 has the ability to add sound nodes to a world by dragging and dropping them from the sound library.

第3のコンテンツを作成するための作業は図45に図解したように下記の工程 をとる。The process for creating the third content involves the following steps, as illustrated in Figure 45:

S431:オブジェクト(Cone)の図形データの作成〔 Geometry ノード(Cone) の配置〕、 S432:センサの付加〔 Sensor ノード(TouchSensor)の配置〕、 S433:サウンドノードの配置、 S434:動作確認、 S435:AudioClipノードの設定およびルーティング、 S436:動作確認 ステップ431およびステップ432の動作は、上述した第1のコンテンツの 作成および第2のコンテンツの作成と同じであるから説明を省略する。ここでは 、センサ(TouchSensor)にはTS1という名前が付される。以下、サウンドノー ドのデフォルトの動作を確認し、その後、属性の変更やルーティングを行い、オ ブジェクトをクリックして音をならすことを確認する。S431: Create the shape data for the object (Cone) [Place a Geometry node (Cone)] S432: Add a sensor [Place a Sensor node (TouchSensor)] S433: Place a Sound node S434: Check operation S435: Configure and route an AudioClip node S436: Check operation The operations in steps 431 and 432 are the same as those described above for creating the first and second content, so a detailed explanation is omitted. In this example, the sensor (TouchSensor) is named TS1. Next, we'll check the default operation of the Sound node, then change its attributes and route it, and confirm that clicking the object produces a sound.

S433:サウンドノードの配置 図46はサウンドノードの配置を行う際のシーングラフウィンドウおよびAt tributeウィンドウを示す図である。 S433: Sound Node Arrangement Figure 46 shows the scene graph window and Attribute window when arranging sound nodes.

VRMLにおいて、音を出力するためには、サウンドノードの配置が必要であ り、コンテンツ作成用ソフトウエアツール4は、ユーザが、図9に示したRes ourceLibrary(リソースライブラリ)ウィンドウの最初のSound タ ブをマウス262でクリックして、サウンドライブラリを開き、サウンドライブ ラリからサウンドノードをドロップすることにより、サウンドノードを追加する ように構成されている。In VRML, sound output requires the placement of a sound node. The content creation software tool 4 is configured so that the user can add a sound node by clicking the first Sound tab in the Resource Library window shown in FIG. 9 with the mouse 262 to open the sound library and then dropping a sound node from the sound library.

まず、ユーザは、3D Viewウィンドウを見て、何も選択されていない状 態であることを確認し、何らかのオブジェクトが選択されている場合には、図4 6に示すシーングラフウィンドウのポップアップメニューで「Unslect」を選択 し、モデル編集ツール420に選択の解除を指示する。First, the user looks at the 3D View window to make sure that nothing is selected. If any objects are selected, the user selects "Unselect" from the pop-up menu in the scene graph window shown in FIG. 46 to instruct the model editing tool 420 to cancel the selection.

さらにユーザが、3D Viewウィンドウでオブジェクト(Cone)が見えてい ることを確認し、ResourceLibraryウィンドウのサウンドライブ ラリから「Classic 」を選択し、3D Viewウィンドウにドロップと、モデ ル編集ツール420は、オブジェクトの図形データにサウンドノードを追加する 。Furthermore, if the user ensures that the object (Cone) is visible in the 3D View window, selects "Classic" from the sound library in the Resource Library window, and drops it into the 3D View window, the model editing tool 420 adds a sound node to the object's graphic data.

ユーザが、シーングラフウィンドウに表示されるツリーをクリックすると、シ ーングラフ編集ツール424は、図47に示す内容を表示し、サウンドノードが 追加されたことをクライアントに示す。When the user clicks on the tree displayed in the scene graph window, the scene graph editing tool 424 displays the content shown in FIG. 47, indicating to the client that a sound node has been added.

サウンドノードでは、「maxBack」,「maxFront」等のフィールドによりサウ ンドの領域指定を行うことができる。なお、ライブラリからドロップされた時の デフォルトの状態では、領域内にマウス262のカーソルが入ると音を出力する ように、maxBack=maxFront=10 に設定されている。In a sound node, you can specify the sound's area using fields such as "maxBack" and "maxFront." By default, when a sound node is dropped from the library, maxBack=maxFront=10 is set, so that sound is emitted when the mouse cursor 262 enters the area.

S434:動作確認 ユーザはメニューの「Playボタン」を押下することにより、サウンドノー ドの確認を行うことができる。コンテンツ作成用ソフトウエアツール4において は、サウンドノードをドロップした直後に、マウス262のカーソルが既にサウ ンドの領域内に入っているように設定されているので、ユーザが「Playボタ ン」を押下すると、設定された音(この例においてはクラシック音楽)が出力さ れる。 S434: Operation check The user can check the sound node by pressing the "Play button" on the menu. In the content creation software tool 4, the cursor of the mouse 262 is set to be already within the sound area immediately after the sound node is dropped, so when the user presses the "Play button", the set sound (classical music in this example) is output.

またコンテンツ作成用ソフトウエアツール4においては、デフォルトの状態で サウンドノードのspatializeフィールドが「TRUE」に設定されており、3D V iewウィンドウでマウス262を使って3次元仮想空間内を移動(ナビゲーシ ョン)すると、マウス262のカーソルの位置に応じて、音の大きさや左右のパ ンが変化する。Additionally, in the content creation software tool 4, the spatialize field of the sound node is set to "TRUE" by default, so when you navigate (use the mouse 262) in the 3D View window within the 3D virtual space, the volume and left/right panning of the sound changes depending on the position of the mouse 262 cursor.

次に、ユーザが表示装置24の「Stopボタン」を押下して作成モードに戻 り、シーングラフウィンドウで「Sound 」を選択すると、モデル編集ツール42 0は、図47に示すように、左側の3D Viewウィンドウおよび右側のPa rallelViewウィンドウに示すオブジェクト(Cone)の周囲に、センサ(T ouhSensor)が音を出力するイベントを発生する領域を示すバウンディングボック スを点滅表示し、ユーザはサウンドの領域を目視確認することができる。Next, if the user presses the "Stop" button on the display device 24 to return to the creation mode and selects "Sound" in the scene graph window, the model editing tool 420 will flash a bounding box around the object (Cone) shown in the 3D View window on the left and the Parallel View window on the right, as shown in Figure 47, indicating the area where the sensor (TouchSensor) will generate an event that will output a sound, allowing the user to visually confirm the sound area.

さらに、ユーザが3D Viewウィンドウのポップアップメニューから「Pa rallel View/Tip View」を選択すると、モデル編集ツール420は、図47の左 側の3D Viewウィンドウにオブジェクト(Cone)を正面から画像を3次元的 に表示し、右側のParallelViewウィンドウにオブジェクト(Cone)を 上から見た画像を2次元的に表示する。Furthermore, when the user selects "Parallel View/Tip View" from the pop-up menu in the 3D View window, the model editing tool 420 displays a three-dimensional image of the object (cone) from the front in the 3D View window on the left side of Figure 47, and a two-dimensional image of the object (cone) viewed from above in the Parallel View window on the right side.

ユーザが、図48に示したParallelViewウィンドウ内のオブジェ クトおよびバウンディングボックスの全体を見るために視点を移動する場合には 、キーボード260のシフトキー、および、マウス262の左ボタン(図示せず )を押下し、ParallelViewウィンドウを下方向にドラッグすると、 モデル編集ツール420は、視点を遠ざけた場合のオブジェクトの画像をPar allelViewウィンドウに表示する。If the user moves the viewpoint to view the entire object and bounding box in the Parallel View window shown in FIG. 48, they can press the shift key on the keyboard 260 and the left button (not shown) of the mouse 262 and drag the Parallel View window downward. The model editing tool 420 will then display an image of the object in the Parallel View window as if the viewpoint were moved away.

ユーザがPlayボタンを押してからマウス262のカーソルを3D Vie wウィンドウ内で移動させた場合、図46に示したバウンディングボックスが示 す領域に入ると音が出力され、この領域からカーソルが出ると、音の出力が停止 される。When the user presses the Play button and then moves the mouse 262 cursor within the 3D View window, a sound is output when the cursor enters the area indicated by the bounding box shown in Figure 46, and the sound stops when the cursor leaves this area.

図48は図47に示した音を出力する領域の大きさの変更を例示する図である 。Figure 48 shows an example of changing the size of the sound output area shown in Figure 47.

コンテンツ作成用ソフトウエアツール4においては、バウンディングボックス が示す領域を、Attributeウィンドウで数値指定したり、図9に示した メニュー画面でマウスモードを切り替えることにより、図47に示すように、マ ウスを使ってこの領域を移動・回転・スケールしたりすることも可能である。In the content creation software tool 4, the bounding box area can be specified numerically in the Attribute window, or by switching mouse mode on the menu screen shown in Figure 9, this area can be moved, rotated, and scaled using the mouse, as shown in Figure 47.

S435:AudioClipノードの設定とルーティング 以上の作業によりサウンドノードを追加した状態では、図34および図35に おいてバウンディングボックスにより示されるサウンドの領域内にマウス262 のカーソルが入ると音が自動的に出力されように設定されている。これは、サウ ンドノードについているAudioClipノードのstartTime=0,stopTime=0, loop=TRUE という設定に関係がある。 S435: Setting and routing the AudioClip node With the sound node added by the above steps, sound is set to be automatically output when the cursor of the mouse 262 enters the sound area indicated by the bounding box in Figures 34 and 35. This is related to the settings of the AudioClip node attached to the sound node: startTime=0, stopTime=0, loop=TRUE.

VRML2.0では、AudioClipノードのstartTime は開始時間を表 し、startTime〉=stopTime の場合に音声を出力するようになっている。また、l oop=TRUE の設定により、音を繰り返して出力することもできる。また、図47 および図48において、マウス262でバウンディングボックスが示す領域をク リ ックするまでは音をならさないように変更する場合には、startTime=-1と設定す る。また、バウンディングボックスが示す領域をクリックしたら音声の出力を停 止するようにするためには、StartTime にクリックした時刻を代入する。In VRML 2.0, the startTime of an AudioClip node represents the start time, and audio is output when startTime > stopTime. You can also set loop=TRUE to output audio repeatedly. Also, in Figures 47 and 48, to silence audio until you click the bounding box with the mouse 262, set startTime=-1. To stop audio output when you click the bounding box, assign the time of the click to StartTime.

図49はAudioClipノードの変更とセンサ(TouchSensor)からAud ioClipノードへのルーティングを例示する図である。FIG. 49 is a diagram illustrating an example of AudioClip node changes and routing from a sensor (TouchSensor) to an AudioClip node.

例えば、バウンディングボックスで規定される領域をクリックしたら音の出力 を停止する設定を行うためには、ユーザは、図48に示すように、Resour ceLibraryウィンドウの最初のAudioClip タブを選択し、AudioC lipノードに、AC1という名前をつけ、さらに、ルートウィンドウにおいて 、センサ(TouchSenSor;TS1)のtouchTime からAudioClipノードのstart Time へのルーティングを行う必要がある。For example, to set up a setting that stops sound output when the area defined by the bounding box is clicked, the user must select the first AudioClip tab in the ResourceLibrary window, name the AudioClip node AC1, and then route the touchTime of the sensor (TouchSenSor; TS1) in the root window to the startTime of the AudioClip node, as shown in Figure 48.

S436:動作確認 ユーザがマウス262でPlayボタンを押下し、3D Viewウィンドウ に表示されたオブジェクト(Cone)をクリックすると、ブラウザエミュレータ46 0により音の出力が開始する。 S436: Checking Operation When the user presses the Play button with the mouse 262 and clicks on the object (Cone) displayed in the 3D View window, the browser emulator 460 starts outputting sound.

第3のコンテンツの動作は以下の通りである。The operation of the third content is as follows.

ユーザがマウス262で3D Viewウィンドウ内のオブジェクト(Cone)を クリックすると、オブジェクトに付されたセンサ(TouchSensor)TouchSensor か ら、touchTime というイベントが発生する。このイベントは、クリックした時間 (VRML2.0では、00:00:00 GMT Jan 1 1970からの相対時間)がAudi oClipのstartTime に渡され、startTime がセットされて音の出力が開始す る。この例においては、AudioClipノードのloopフィールドがTRUEに設 定されているので、音は繰り返し再生・出力され続ける。When the user clicks on an object (Cone) in the 3D View window with the mouse 262, the object's attached sensor (TouchSensor) generates a touchTime event. This event passes the click time (in VRML 2.0, this is relative time from 00:00:00 GMT Jan 1 1970) to the AudioClip's startTime, which sets the startTime and starts sound output. In this example, the AudioClip node's loop field is set to TRUE, so the sound continues to play and output repeatedly.

このままでは、サウンドの領域外に移動しない限り、音の出力を停止すること ができないので、音の出力を停止する場合には、クライアントは、テキストエデ ィタ426等を用いて、所定の条件で音の出力を停止するようにプログラムを変 更する必要がある。In this state, sound output cannot be stopped unless the user moves out of the sound area. Therefore, to stop sound output, the client must modify the program using a text editor 426 or similar to stop sound output under certain conditions.

なお、実施の形態においては、円錐形のオブジェクトの図形データを作成し、 タッチセンサを図形データに付し、コモンノード(ライト)、あるいは、色の変 更あるいは音を出力する場合を例に説明を行ったが、本実施の形態のコンテンツ 作成用ソフトウエアツール4によれば、この例に限らず、VRML2.0がサポ ートする全てのノードを用いてVRMLコンテンツを作成可能であることは、言 うまでもない。In the embodiment, we have explained an example in which graphic data for a cone-shaped object is created, a touch sensor is attached to the graphic data, and a common node (light), color change, or sound is output. However, it goes without saying that the content creation software tool 4 of this embodiment is not limited to this example and can create VRML content using all nodes supported by VRML 2.0.

またコンテンツ作成用ソフトウエアツール4は、適切な変形により、VRML 以外の3次元仮想空間記述用の言語に対応することが可能である。Furthermore, the content creation software tool 4 can be adapted to support languages for describing three-dimensional virtual spaces other than VRML through appropriate modifications.

本発明の効果 本発明によれば、アテンション機能によってユーザは判りやすい状態で、希望 するオブジェクトの表示が得られ、任意の視点からオブジェクトを観察すること ができる。本発明のアテンション機能はインタラクション効率が良く、操作性が 高い。According to the present invention, the attention function allows the user to easily view the desired object and observe the object from any viewpoint. The attention function of the present invention has good interaction efficiency and is easy to use.

本発明によれば、下記に列挙する効果も得られる。According to the present invention, the following effects can be obtained.

本発明に係る図形データ生成装置、図形データ生成方法およびその媒体によれ ば、仮想空間内のオブジェクトの図形の形、および、3次元空間内の位置等を示 す図形データの作成、仮想空間内のイベント(スクリプト)のプログラミング、 および、モデルに対するポインティングとスクリプトの起動との対応付け(ルー ティング)等の作業を統合的に行うことができる。The graphic data generation device, graphic data generation method, and media according to the present invention enable the integrated creation of graphic data representing the shape of an object in a virtual space and its position in three-dimensional space, the programming of events (scripts) within the virtual space, and the mapping (routing) of pointing to a model and the activation of a script.

また、本発明に係る図形データ生成装置、図形データ生成装置およびその媒体 によれば、モデル、スクリプトおよびルーティング等の各作業の結果を直ちに確 認することができる。Furthermore, the graphic data generation device and the medium therefor according to the present invention allow the results of each operation, such as modeling, scripting, and routing, to be immediately confirmed.

さらに、本発明に係る図形データ生成装置、図形データ生成装置およびその媒 体によれば、3次元的な仮想空間における操作を対話形式で行うことができるソ フトウェアの作成を容易にできた。Furthermore, the graphic data generating device and the medium therefor according to the present invention facilitate the creation of software that allows interactive manipulation of three-dimensional virtual space.

また、本発明に係る図形データ生成装置、図形データ生成方法およびその媒体 によれば、仮想空間内に表示する3次元的なオブジェクトの形状を、2次元的な 画面表示で正確に把握することができる。Furthermore, the graphic data generation device, graphic data generation method, and medium thereof according to the present invention allow the shape of a three-dimensional object displayed in a virtual space to be accurately grasped on a two-dimensional screen display.

また、本発明に係る図形データ生成装置、図形データ生成方法およびその媒体 によれば、オブジェクトに対する操作に応じてイベントを発生するセンサの有効 領域の範囲設定、および、設定したセンサの有効領域の確認を視覚的に容易に行 うことができ、しかも、センサに対する操作に応じて発生するイベントの動作確 認が容易である。Furthermore, the graphic data generation device, graphic data generation method, and media thereof according to the present invention allow for easy visual setting of the effective area of a sensor that generates an event in response to an operation on an object, and confirmation of the set effective area of the sensor. Furthermore, it is easy to confirm the operation of events generated in response to sensor operations.

産業上の利用可能性 本発明の図形データ生成装置、図形データ生成方法およびその媒体は、3次元 仮想空間におけるオブジェクトを表現する3次元グラフィクス記述言語によるコ ンテンツのオーサリングツールとして広く利用できる。INDUSTRIAL APPLICABILITY The graphic data generation device, graphic data generation method, and media of the present invention can be widely used as an authoring tool for content written in a 3D graphics description language to represent objects in a 3D virtual space.

───────────────────────────────────────────────────── (注)この公表は、国際事務局(WIPO)により国際公開された公報を基に作 成したものである。 なおこの公表に係る日本語特許出願(日本語実用新案登録出願)の国際公開の 効果は、特許法第184条の10第1項(実用新案法第48条の13第2項)に より生ずるものであり、本掲載とは関係ありません。───────────────────────────────────────────────────── (Note) This publication is based on the publication published internationally by the International Bureau of Patents (WIPO). The effect of the international publication of the Japanese patent application (Japanese utility model registration application) related to this publication arises pursuant to Article 184-10, Paragraph 1 of the Patent Act (Article 48-13, Paragraph 2 of the Utility Model Act) and is unrelated to this publication.

Claims (9)

【特許請求の範囲】[Claims] 1.編集ウィンドウ内に3次元のオブジェクトを表示する手段(31、40 )と、 前記表示手段によって表示されているオブジェクトに対する操作指令を 指示する指示手段と、 アテンション処理手段(420)と を有し、前記アテンション処理手段は、 第1の所定の操作指令に応じてアテンションモードとなり、 前記指示手段によって選択されたオブジェクトを選択し、 選択されたオブジェクトを前記編集ウィンドウの中心に移動させて表示 して、選択されたオブジェクトを任意の視点から観察可能にする 図形データ生成装置。1. A graphics data generation device comprising: means (31, 40) for displaying three-dimensional objects within an editing window; instruction means for issuing operation commands for the objects displayed by the display means; and attention processing means (420), wherein the attention processing means enters an attention mode in response to a first predetermined operation command, selects an object selected by the instruction means, moves the selected object to the center of the editing window, and displays it, allowing the selected object to be viewed from any viewpoint. 2.第2の所定の操作指令に応じて、前記アテンション手段は動作を終了する 、請求項1記載の図形データ生成装置。2. The graphics data generating device according to claim 1, wherein the attention means terminates operation in response to a second predetermined operation command. 3.前記アテンション処理手段は、コンテンツ作成を行う編集手段によって実 行される、請求項1〜2いずれか記載の図形データ生成装置。3. The graphics data generating device according to claim 1 or 2, wherein the attention processing means is executed by editing means that creates content. 4.3次元グラフィクス記述言語であるVRMLによって前記オブジェクトが 配置されている請求項1〜3いずれか記載の図形データ生成装置。4. The graphics data generating device according to any one of claims 1 to 3, wherein the objects are arranged using VRML, which is a three-dimensional graphics description language. 5.編集ウィンドウ内に3次元のオブジェクトを表示する表示手段との対話形 式で3次元仮想空間におけるコンテンツを作成する図形データ生成方法であって 、 第1の所定の操作指令に応答してアテンションモードに変更し、 選択に応じてオブジェクトを選択し、 選択されたオブジェクトを前記編集ウィンドウの中心に移動させて表示し て、 選択されたオブジェクトを任意の視点から観察可能にする 図形データ生成方法。5. A graphics data generation method for creating content in a three-dimensional virtual space interactively with a display means that displays three-dimensional objects in an editing window, the method switching to attention mode in response to a first predetermined operation command, selecting an object according to the selection, moving the selected object to the center of the editing window and displaying it, and allowing the selected object to be viewed from any viewpoint. 6.第2の所定の操作指令に応じて前記アテンションモードを終了する、請求 項5記載の図形データ生成方法。6. The method for generating graphics data according to claim 5, further comprising terminating the attention mode in response to a second predetermined operation command. 7.編集ウィンドウ内に3次元のオブジェクトを表示する表示手段との対話形 式で3次元仮想空間におけるコンテンツを作成するプログラムを媒介する媒体で あって、 第1の所定の操作指令に応答してアテンションモードに変更し、 選択に応じてオブジェクトを選択し、 選択されたオブジェクトを前記編集ウィンドウの中心に移動させて表示し て、 選択されたオブジェクトを任意の視点から観察可能にする プログラムを有する媒体。7. A medium carrying a program for creating content in a three-dimensional virtual space interactively with a display means that displays three-dimensional objects in an editing window, the medium containing the program switching to attention mode in response to a first predetermined operation command, selecting an object according to the selection, moving the selected object to the center of the editing window and displaying it, and allowing the selected object to be observed from any viewpoint. 8.前記プログラムは、コンピュータシステムにおいて実行される、請求項7 記載の前記プログラムを格納した媒体。8. The medium storing the program according to claim 7, wherein the program is executed on a computer system. 9.前記プログラムは、サーバ装置を含むネットワークを介して伝送される、 請求項7記載の媒体。9. The medium according to claim 7, wherein the program is transmitted via a network including a server device.
JP10-531826A 1997-01-24 1998-01-26 Graphic data generating device, graphic data generating method and medium Pending JPWO1998033145A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9-11752 1997-01-24

Publications (1)

Publication Number Publication Date
JPWO1998033145A1 true JPWO1998033145A1 (en) 1999-06-08

Family

ID=

Similar Documents

Publication Publication Date Title
US6262734B1 (en) Graphic data generating apparatus, graphic data generation method, and medium of the same
US6466239B2 (en) Method and apparatus for editing data used in creating a three-dimensional virtual reality environment
US6552721B1 (en) Graphic data generating apparatus, graphic data generation method, and medium of the same
US6518989B1 (en) Graphic data generating apparatus, graphic data generation method, and medium of the same
US6401237B1 (en) Method and apparatus for editing data used in creating a three-dimensional virtual reality environment
JP2000076487A (en) Information processing apparatus and method, and providing medium
US20030023347A1 (en) Authoring system and authoring method, and storage medium
US6626954B1 (en) Information processing apparatus/method and presentation medium
JP2005531083A (en) Prototyping a graphical user interface
US6377255B1 (en) Pattern data generator, pattern data generating method and its medium
US6281900B1 (en) Information processing apparatus and method, and providing medium
US6483508B1 (en) Information processing apparatus and method, and providing medium
Calleros et al. A method for developing 3D user interfaces of information systems
EP0895196A1 (en) Pattern data generator, pattern data generating method, and its medium
JPWO1998033145A1 (en) Graphic data generating device, graphic data generating method and medium
JPWO1998033148A1 (en) Graphic data generating device, graphic data generating method and medium
JPWO1998033147A1 (en) Graphic data generating device, graphic data generating method and medium
JPWO1998033150A1 (en) Graphic data generating device, graphic data generating method and medium
JPWO1998033151A1 (en) Graphic data generating device, graphic data generating method and medium
JPWO1998033146A1 (en) Graphic data generating device, graphic data generating method and medium
JPWO1998033149A1 (en) Graphic data generating device, graphic data generating method and medium
Gunn et al. Oorange: A virtual laboratory for experimental mathematics
Brumbaugh et al. Getting Started with the GIANTS Editor
Kovacevic Beyond Automatic Generation—Exploratory Approach to UI Design
JPH11175754A (en) Information processing apparatus and method, and providing medium