JP2000099225A - Device and method for processing information and distribution medium - Google Patents
Device and method for processing information and distribution mediumInfo
- Publication number
- JP2000099225A JP2000099225A JP10264196A JP26419698A JP2000099225A JP 2000099225 A JP2000099225 A JP 2000099225A JP 10264196 A JP10264196 A JP 10264196A JP 26419698 A JP26419698 A JP 26419698A JP 2000099225 A JP2000099225 A JP 2000099225A
- Authority
- JP
- Japan
- Prior art keywords
- displayed
- virtual space
- text
- avatar
- chat
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 34
- 230000010365 information processing Effects 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 29
- 238000003672 processing method Methods 0.000 claims description 5
- 244000205754 Colocasia esculenta Species 0.000 abstract description 15
- 235000006481 Colocasia esculenta Nutrition 0.000 abstract description 15
- 238000004891 communication Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 230000014509 gene expression Effects 0.000 description 10
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 241001147416 Ursus maritimus Species 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 3
- 206010011469 Crying Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- Computer And Data Communications (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、情報処理装置およ
び方法、並びに提供媒体に関し、特に、仮想生命オブジ
ェクトが行うチャットのテキストが仮想生命オブジェク
トと同一の仮想空間の画像に表示されるようにすること
により、ユーザが仮想生命オブジェクトを使用したテキ
ストチャットを実施した際に、仮想生命オブジェクトの
チャットのテキストの認識効果を向上させるようにした
情報処理装置および方法、並びに提供媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus and method, and a providing medium, and more particularly, to a method for displaying a text of a chat performed by a virtual life object on an image in the same virtual space as the virtual life object. Accordingly, the present invention relates to an information processing apparatus and method, and a providing medium that improve the effect of recognizing a chat text of a virtual life object when a user performs a text chat using the virtual life object.
【0002】[0002]
【従来の技術】仮想空間を複数のユーザが共有し、その
仮想空間の中で、各ユーザの分身である仮想生命オブジ
ェクト(以下、アバタと称する)を使用して、ユーザ間
でコミュニケーションを図ることができる仮想空間共有
システムがある。このような従来の仮想空間共有システ
ムは、テキストチャットを行う際のアバタのチャットテ
キストを、図14に示すように、アバタを表示する仮想
空間画面(以下、ワールド画面1と称する)とは別に設
けた専用の画面(以下、セリフデータ表示領域2と称す
る)に表示している。2. Description of the Related Art A plurality of users share a virtual space, and in the virtual space, communication is performed between users by using a virtual life object (hereinafter, referred to as an avatar) which is an alter ego of each user. There is a virtual space sharing system that can do it. In such a conventional virtual space sharing system, an avatar chat text at the time of performing a text chat is provided separately from a virtual space screen (hereinafter, referred to as a world screen 1) for displaying an avatar as shown in FIG. Is displayed on a dedicated screen (hereinafter referred to as dialogue data display area 2).
【0003】セリフデータ表示領域2においては、図1
5に示すように、チャットテキストの表示可能行数が予
め設定され、その範囲内でアバタのチャットテキストが
1行づつ左詰めで上から下へと表示される。例えば、1
番上の行のアドレスをY=0とすると、次のチャットテ
キストはその下のアドレスY=1の行に表示される。In the dialog data display area 2, FIG.
As shown in FIG. 5, the number of displayable lines of the chat text is set in advance, and within that range, the chat text of the avatar is displayed left-justified one line at a time from top to bottom. For example, 1
Assuming that the address on the top line is Y = 0, the next chat text is displayed on the line below address Y = 1.
【0004】図16に示すように、表示可能行数が5行
に設定されている場合、アドレスY=4の行でセリフデ
ータ表示領域2が一杯となる。さらにチャットテキスト
を表示しようとする場合、アドレスY=0のチャットテ
キスト「太郎:よお!」が消去され、アドレスY=1乃
至Y=4に表示されている4行分のチャットテキスト
(図16の点線で囲まれた部分)が、アドレスY=0乃
至Y=3のセリフデータ表示領域2にコピーして表示さ
れる。その後、アドレスY=4に表示されていたチャッ
トテキストが消去される。[0006] As shown in FIG. 16, when the number of displayable lines is set to five, the line at address Y = 4 fills the dialog data display area 2. When the chat text is to be displayed further, the chat text “Taro: Yoo!” At the address Y = 0 is deleted, and the four lines of the chat text displayed at the addresses Y = 1 to Y = 4 (FIG. 16). The portion surrounded by the dotted line is copied and displayed in the dialog data display area 2 at addresses Y = 0 to Y = 3. Thereafter, the chat text displayed at the address Y = 4 is deleted.
【0005】すなわち、スクロールが行われる。このス
クロール機能により、新しく表示されるチャットテキス
トの表示領域がアドレスY=4の行に確保された後、図
17に示すように、新しく表示しようとするチャットテ
キスト「太郎:最近は暇になってきたから元気。」がア
ドレスY=4の行に表示される。このような処理が繰り
返し行われ、新たなチャットテキストがセリフ表示領域
2に順次表示される。That is, scrolling is performed. With this scroll function, a display area of the newly displayed chat text is secured in the line of the address Y = 4, and then, as shown in FIG. 17, the chat text “Taro: recently becomes free. Is displayed on the line with the address Y = 4. Such processing is repeatedly performed, and new chat texts are sequentially displayed in the dialogue display area 2.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、共有仮
想空間上において、アバタは複数存在するのが通常であ
る。従って、アバタを表示しているワールド画面1とは
別のセリフデータ表示領域2にアバタのチャットテキス
トを表示するようにすると、ユーザがアバタとチャット
テキストを直感的に対応づけることが困難になるだけで
なく、ユーザの視点がワールド画面1よりセリフデータ
表示領域2に固定されがちとなり、仮想空間共有システ
ムの特徴であるアバタを使用したテキストチャットの効
果が損なわれる。However, a plurality of avatars usually exist in a shared virtual space. Therefore, if the chat text of the avatar is displayed in the dialog data display area 2 different from the world screen 1 displaying the avatar, it becomes difficult for the user to intuitively associate the avatar with the chat text. Instead, the viewpoint of the user tends to be fixed to the dialog data display area 2 from the world screen 1, and the effect of text chat using an avatar, which is a feature of the virtual space sharing system, is impaired.
【0007】また、セリフデータ表示領域2における改
行がチャットテキストごとに行われるため、図18に示
すように、比較的短いチャットテキストが連続する場
合、セリフデータ表示領域2の右側のエリアが空白状態
となり、セリフデータ表示領域2が有効に使われない課
題がある。[0007] In addition, since a line feed in the dialog data display area 2 is performed for each chat text, as shown in FIG. 18, when a relatively short chat text continues, the right area of the dialog data display area 2 is blank. Thus, there is a problem that the dialog data display area 2 is not used effectively.
【0008】本発明はこのような状況に鑑みてなされた
ものであり、アバタに対応するチャットテキストをワー
ルド画面内に表示するようにし、ユーザがアバタに対応
したチャットテキストを容易に認識できるようにし、も
って、仮想空間共有システムにおけるアバタを使用した
テキストチャット効果の向上を図るものである。The present invention has been made in view of such a situation, and displays a chat text corresponding to an avatar on a world screen so that a user can easily recognize a chat text corresponding to an avatar. Therefore, the text chat effect using an avatar in the virtual space sharing system is improved.
【0009】[0009]
【課題を解決するための手段】請求項1に記載の情報処
理装置は、ネットワークを介して接続された他の情報処
理装置と仮想空間を共有する情報処理装置において、仮
想空間の画像を提供する提供手段と、仮想生命オブジェ
クトが仮想空間に表示されるように制御する第1の表示
制御手段と、仮想空間において仮想生命オブジェクトが
行うチャットのテキストが、仮想空間の画像内に表示さ
れるように制御する第2の表示制御手段とを備えること
を特徴とする。An information processing apparatus according to the present invention provides an image of a virtual space in an information processing apparatus that shares a virtual space with another information processing apparatus connected via a network. Providing means, first display control means for controlling the virtual life object to be displayed in the virtual space, and chat text performed by the virtual life object in the virtual space to be displayed in the image of the virtual space. And a second display control means for controlling.
【0010】請求項6に記載の情報処理方法は、ネット
ワークを介して接続された他の情報処理装置と仮想空間
を共有する情報処理装置の情報処理方法において、仮想
空間の画像を提供する提供ステップと、仮想生命オブジ
ェクトが仮想空間に表示されるように制御する第1の表
示制御ステップと、仮想空間において仮想生命オブジェ
クトが行うチャットのテキストが、仮想空間の画像内に
表示されるように制御する第2の表示制御ステップとを
含むことを特徴とする。According to a sixth aspect of the present invention, in the information processing method of an information processing apparatus sharing a virtual space with another information processing apparatus connected via a network, a providing step of providing an image of the virtual space is provided. And a first display control step of controlling the virtual life object to be displayed in the virtual space, and controlling the text of the chat performed by the virtual life object in the virtual space to be displayed in the image of the virtual space. And a second display control step.
【0011】請求項7に記載の提供媒体は、ネットワー
クを介して接続された他の情報処理装置と仮想空間を共
有する情報処理装置に、仮想空間の画像を提供する提供
ステップと、仮想生命オブジェクトが仮想空間に表示さ
れるように制御する第1の表示制御ステップと、仮想空
間において仮想生命オブジェクトが行うチャットのテキ
ストが、仮想空間の画像内に表示されるように制御する
第2の表示制御ステップとを含む処理を実行させるコン
ピュータが読み取り可能なプログラムを提供することを
特徴とする。[0011] The providing medium according to claim 7 is a providing step of providing an image of a virtual space to an information processing apparatus that shares a virtual space with another information processing apparatus connected via a network; A first display control step of controlling to display in a virtual space, and a second display control of controlling to display a text of a chat performed by a virtual life object in the virtual space in an image of the virtual space. And a computer-readable program for executing a process including steps.
【0012】請求項1に記載の情報処理装置、請求項6
に記載の情報処理方法、および請求項7に記載の提供媒
体においては、仮想生命オブジェクトの行うテキストチ
ャットが仮想空間の画像内に表示される。An information processing apparatus according to claim 1,
In the information processing method according to the aspect of the invention and the providing medium according to the aspect, the text chat performed by the virtual life object is displayed in the image of the virtual space.
【0013】[0013]
【発明の実施の形態】以下に本発明の実施の形態を説明
するが、特許請求の範囲に記載の発明の各手段と以下の
実施の形態との対応関係を明らかにするために、各手段
後の括弧内に、対応する実施の形態(但し一例)を付加
して本発明の特徴を記述すると、次のようになる。但し
勿論この記載は、各手段を記載したものに限定すること
を意味するものではない。DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below. In order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, each means is described. When the features of the present invention are described by adding the corresponding embodiment (however, an example) in parentheses later, the following is obtained. However, of course, this description does not mean that each means is limited to those described.
【0014】すなわち、請求項1に記載の情報処理装置
は、ネットワークを介して接続された他の情報処理装置
と仮想空間を共有する情報処理装置において、仮想空間
の画像を提供する提供手段(例えば、図5のステップS
13)と、仮想生命オブジェクトが仮想空間に表示され
るように制御する第1の表示制御手段(例えば、図5の
ステップS14)と、仮想空間において仮想生命オブジ
ェクトが行うチャットのテキストが、仮想空間の画像内
に表示されるように制御する第2の表示制御手段(例え
ば、図5のステップS18)とを備えることを特徴とす
る。That is, in the information processing apparatus according to the first aspect, in an information processing apparatus sharing a virtual space with another information processing apparatus connected via a network, providing means for providing an image of the virtual space (for example, Step S in FIG.
13), first display control means for controlling the virtual life object to be displayed in the virtual space (for example, step S14 in FIG. 5), and the text of the chat performed by the virtual life object in the virtual space is displayed in the virtual space. And a second display control means (for example, step S18 in FIG. 5) for controlling the image to be displayed in the image.
【0015】図1は、本発明を適用した共有仮想空間提
供システムの構成例を表している。サーバ端末40−
1,40−2は、共有仮想空間提供プログラムを有し、
通信ネットワーク30を介して、そこに接続されている
パーソナルコンピュータ10−1乃至10−3に、ユー
ザがコミュニケーションをとるための共有仮想空間を提
供する。FIG. 1 shows a configuration example of a shared virtual space providing system to which the present invention is applied. Server terminal 40-
1, 40-2 have a shared virtual space providing program,
Via the communication network 30, the personal computers 10-1 to 10-3 connected to the communication network 30 are provided with a shared virtual space for the user to communicate.
【0016】図2はサーバ端末40−1のハードウェア
構成を表している。(尚、図示は省略するが、サーバ端
末40−2もサーバ端末40−1と同様に構成されてい
る)内部バス104には、CPU(Central Processin
g Unit)101、ROM(Read Only Memory)10
2、およびRAM(Random Access Memory)103が
接続されている。この内部バス104はI/Oインタフ
ェース105とも接続されている。I/Oインタフェー
ス105はハードディスクドライブ(HDD)106、通
信部107、キーボード108、マウス109、および
表示部110と接続されている。FIG. 2 shows a hardware configuration of the server terminal 40-1. (Although not shown, the server terminal 40-2 is configured similarly to the server terminal 40-1.) The CPU (Central Process
g Unit) 101, ROM (Read Only Memory) 10
2, and a RAM (Random Access Memory) 103 are connected. This internal bus 104 is also connected to an I / O interface 105. The I / O interface 105 is connected to a hard disk drive (HDD) 106, a communication unit 107, a keyboard 108, a mouse 109, and a display unit 110.
【0017】CPU101はサーバ端末40−1の各機
能を統括するコントローラであり、ROM102に記憶
されているプログラムに従って、各種の処理を実行す
る。RAM103には、CPU101が各種の処理を実
行する上において、必要なデータやプログラムなどが適
宜記憶される。HDD106は外部記憶装置であり、仮
想空間共有プログラムなどが記憶されている。通信部1
07は、例えば、モデムにより構成され、インターネッ
トなどの通信ネットワーク30を介して、外部の装置と
通信を行う。キーボード108は外部からの入力を行う
とき、ユーザにより操作される。マウス109は表示部
110に表示されたボタンなどを選択したりするとき操
作される。表示部110はLCD(Liquid Crystal D
isplay)などにより構成され、所定の画像を表示する。The CPU 101 is a controller that controls each function of the server terminal 40-1, and executes various processes according to a program stored in the ROM 102. The RAM 103 stores data and programs necessary for the CPU 101 to execute various processes as appropriate. The HDD 106 is an external storage device, and stores a virtual space sharing program and the like. Communication unit 1
07 is configured by, for example, a modem, and communicates with an external device via a communication network 30 such as the Internet. The keyboard 108 is operated by the user when performing an external input. The mouse 109 is operated to select a button or the like displayed on the display unit 110. The display unit 110 is an LCD (Liquid Crystal D)
isplay) and displays a predetermined image.
【0018】図3はパーソナルコンピュータ10−1の
ハードウェア構成を表している(図示は省略するが、パ
ーソナルコンピュータ10−2,10−3も同様に構成
されている)。その基本構成は、図2のサーバ端末40
−1と同様であり、そのCPU121乃至表示部130
は、図2のCPU101乃至表示部110に対応してい
る。FIG. 3 shows a hardware configuration of the personal computer 10-1 (although not shown, the personal computers 10-2 and 10-3 have the same configuration). Its basic configuration is the server terminal 40 shown in FIG.
-1 and the CPU 121 to the display unit 130
Correspond to the CPU 101 to the display unit 110 in FIG.
【0019】次に、仮想空間共有システムの動作につい
て説明する。最初に、サーバ端末40−1(サーバ端末
40−2も同様)の処理を図4のフローチャートを参照
して説明する。Next, the operation of the virtual space sharing system will be described. First, the processing of the server terminal 40-1 (similarly for the server terminal 40-2) will be described with reference to the flowchart of FIG.
【0020】ステップS1において、CPU101は、
通信ネットワーク30から通信部107を介して、パー
ソナルコンピュータ10−1乃至10−3からアバタの
ID(Identification)と位置を受信したか否かを判定
し、受信した場合、ステップS2において、通信部10
7を制御し、すべてのユーザのパーソナルコンピュータ
10−1乃至10−3に、ステップS1で受信したアバ
タのIDと位置を送信させる。ステップS1において、
CPU101がアバタのIDと位置を受信していないと
判定した場合、ステップS2の処理はスキップされ、ス
テップS3の処理に移る。In step S1, the CPU 101
It is determined whether or not the avatar ID (Identification) and the position have been received from the personal computers 10-1 to 10-3 from the communication network 30 via the communication unit 107, and if received, in step S2, the communication unit 10
7 is transmitted to the personal computers 10-1 to 10-3 of all users, the avatar IDs and positions received in step S1. In step S1,
If the CPU 101 determines that the avatar ID and the position have not been received, the process of step S2 is skipped, and the process proceeds to step S3.
【0021】ステップS3において、CPU101は、
ユーザのパーソナルコンピュータ10−1乃至10−3
から、アバタのIDとチャットテキストを受信したか否
かを判定し、受信した場合、CPU101は、ステップ
S4において、全てのユーザのパーソナルコンピュータ
10−1乃至10−3に、受信したチャットテキストと
対応するアバタのIDとチャットテキストを送信する。
ステップS3でチャットテキストと対応するアバタのI
Dとチャットテキストが受信されていないと判定された
場合、ステップS4の処理はスキップされる。In step S3, the CPU 101
User personal computers 10-1 to 10-3
It is determined whether or not the avatar ID and the chat text have been received, and if received, the CPU 101 in step S4 sends the received chat text to the personal computers 10-1 to 10-3 of all the users. Send the avatar ID and chat text.
In step S3, the avatar I corresponding to the chat text
If it is determined that D and the chat text have not been received, the process of step S4 is skipped.
【0022】ステップS5において、処理の終了が指令
されたか否かが判定され、指令されていないとき、ステ
ップS1に戻り、それ以降の処理が繰り返される。終了
が指令されるまで、ステップS1乃至S4の処理が、繰
り返して行われることにより、複数のユーザが仮想空間
を共有することができる。In step S5, it is determined whether or not the end of the process has been instructed. If not, the process returns to step S1 and the subsequent processes are repeated. Until the end is instructed, the processes of steps S1 to S4 are repeatedly performed, so that a plurality of users can share the virtual space.
【0023】次に、パーソナルコンピュータ10−1の
処理内容を図5のフローチャートを参照して説明する
(尚、パーソナルコンピュータ10−2,10−3にお
いても、同様の処理が行われる)。Next, the processing contents of the personal computer 10-1 will be described with reference to the flowchart of FIG. 5 (the same processing is performed in the personal computers 10-2 and 10-3).
【0024】ステップS11において、新たに仮想空間
共有システムに参加するとき、ユーザはキーボード12
8またはマウス129を操作して、自分のアバタを選択
する。ステップS12において、CPU121は通信部
127を制御して、ユーザが選択したアバタのIDを仮
想空間に初めて参加するときのデフォルトの位置ととも
に、サーバ端末40−1に送信させる。このIDと位置
は、上述したように、図4のステップS2において、サ
ーバ端末40−1からパーソナルコンピュータ10−1
と、他のパーソナルコンピュータ10−2,10−3に
さらに送信される。In step S11, when newly joining the virtual space sharing system, the user
8 or operating the mouse 129 to select his / her own avatar. In step S12, the CPU 121 controls the communication unit 127 to cause the server terminal 40-1 to transmit the avatar ID selected by the user together with the default position when the user first participates in the virtual space. As described above, the ID and the position are transmitted from the server terminal 40-1 to the personal computer 10-1 in step S2 in FIG.
Is transmitted to the other personal computers 10-2 and 10-3.
【0025】ステップS13において、CPU121
は、HDD126に記憶されているワールド画面データ
を読み出し、表示部130に表示させる。ステップS1
4において、CPU121は、通信部127を介して、
アバタのIDと位置を受信する。これはステップS12
において、自分自身が送信したものが、サーバ端末40
−1がステップS2の処理を実行することで転送されて
きたものである。CPU121は、これをHDD126
に記憶させるとともに、IDに対応するアバタの画像デ
ータをHDD126から読み出し、表示部130のワー
ルド画面の指定された位置に表示させる。In step S13, the CPU 121
Reads the world screen data stored in the HDD 126 and causes the display unit 130 to display it. Step S1
In 4, the CPU 121 transmits the information via the communication unit 127
Receive the avatar's ID and location. This is step S12
In the server terminal 40
-1 is transferred by executing the processing of step S2. The CPU 121 converts this into the HDD 126
And the avatar image data corresponding to the ID is read from the HDD 126 and displayed at a designated position on the world screen of the display unit 130.
【0026】以上の処理により、ユーザが仮想空間にア
バタを介して参加できたことになる。With the above processing, the user can participate in the virtual space via the avatar.
【0027】その後、ステップS15において、自分の
アバタの位置を変更する入力の処理、ステップS16に
おいて自分のチャットテキストを入力する場合の処理、
ステップS17において、他のユーザのアバタの位置変
更があった場合の処理、そして、ステップS18におい
て、チャットテキストの表示処理が順次行われる。Thereafter, in step S15, an input process for changing the position of the user's avatar, in step S16, a process for inputting his / her chat text,
In step S17, a process when the position of another user's avatar is changed, and in step S18, a chat text display process are sequentially performed.
【0028】ステップS15乃至S18の処理は、ステ
ップS19において、終了が指令されたと判定されるま
で繰り返し行われる。The processing of steps S15 to S18 is repeatedly performed until it is determined in step S19 that termination has been instructed.
【0029】次に、ステップS15における、自分のア
バタの位置を変更する場合の処理を、図6に示すフロー
チャートを参照して説明する。ステップS31におい
て、ユーザは自分のアバタの位置を変更するか否かを判
定し、変更する場合、ステップS32において、自分の
アバタの位置をパーソナルコンピュータ10−1のマウ
ス129を操作して入力する。ステップS33におい
て、CPU121は、アバタのIDと、ステップS32
で入力されたその位置データを、サーバ端末40−1に
送信する。ステップS31で、アバタの位置を変更しな
いと判定された場合、ステップS32、S33の処理は
スキップされる。Next, the processing for changing the position of the user's avatar in step S15 will be described with reference to the flowchart shown in FIG. In step S31, the user determines whether or not to change his / her avatar position, and if so, in step S32, inputs his / her avatar position by operating the mouse 129 of the personal computer 10-1. In step S33, the CPU 121 sets the avatar ID and the
Is transmitted to the server terminal 40-1. If it is determined in step S31 that the position of the avatar is not changed, the processing in steps S32 and S33 is skipped.
【0030】さらに、図5のステップS16における、
チャットテキストを入力する場合の処理を、図7に示す
フローチャートを参照して説明する。ステップS41に
おいて、ユーザはチャットテキストを入力するか否かを
判定し、入力する場合、ステップS42にて、ユーザ
は、チャットテキストをパーソナルコンピュータ10−
1のキーボード128を操作して入力する。CPU12
1はステップS43にて、入力されたチャットテキスト
をサーバ端末40−1に送信する。ステップS41で、
CPU121がチャットテキストを入力しないと判定し
た場合、ステップS42,S43の処理はスキップされ
る。Further, in step S16 of FIG.
A process for inputting a chat text will be described with reference to a flowchart shown in FIG. In step S41, the user determines whether or not to input the chat text, and if so, in step S42, the user inputs the chat text to the personal computer 10-.
One keyboard 128 is operated to input. CPU 12
1 transmits the input chat text to the server terminal 40-1 in step S43. In step S41,
If the CPU 121 determines that the chat text is not input, the processing of steps S42 and S43 is skipped.
【0031】図5のステップS17における、アバタの
位置が変更となった場合の処理を、図8に示すフローチ
ャートを参照して説明する。ステップS51において、
CPU121は、サーバ端末40−1から、移動したア
バタのIDおよび位置を受信したか否かを判定し、受信
した場合、ステップS52にて、受信したアバタのID
および位置をHDD126に記憶させる(すでに、その
アバタの位置が記憶されている場合、その値が更新され
る)。ステップS53において、CPU121はIDに
対応するアバタの画像を、受信した新たな位置に移動さ
せ、表示させる。ステップS51でCPU121がアバ
タの位置の変更を受信していないと判定した場合、ステ
ップS52,S53の処理はスキップされる。The process performed when the position of the avatar is changed in step S17 in FIG. 5 will be described with reference to the flowchart shown in FIG. In step S51,
The CPU 121 determines whether or not the ID and the position of the moved avatar have been received from the server terminal 40-1, and if received, in step S52, the received avatar ID is determined.
And the position of the avatar are stored in the HDD 126 (if the position of the avatar is already stored, the value is updated). In step S53, the CPU 121 moves the avatar image corresponding to the ID to the received new position and displays it. If the CPU 121 determines in step S51 that the change of the avatar position has not been received, the processing of steps S52 and S53 is skipped.
【0032】上述したように、アバタが新たに参加した
とき(ステップS12)、あるいは、すでに参加してい
るアバタの位置が変更されたとき(ステップS33)、
そのアバタのIDと位置が、サーバ端末40−1を介し
て、各パーソナルコンピュータ10−1乃至10−3に
送信して、これに基づいて、パーソナルコンピュータ1
0−1乃至10−3は、アバタの画像をワールド画面上
に表示させる。As described above, when the avatar newly joins (step S12), or when the position of the avatar already participating is changed (step S33),
The avatar ID and position are transmitted to each of the personal computers 10-1 to 10-3 via the server terminal 40-1, and based on this, the personal computer 1
0-1 to 10-3 display an avatar image on the world screen.
【0033】次に、図5のステップS18における、チ
ャットテキストを表示する処理を、図9に示すフローチ
ャートを参照して説明する。ステップS61において、
CPU121は、サーバ端末40−1からチャットテキ
ストと対応するアバタのIDを受信したか否かを判定
し、受信した場合、ステップS62において、チャット
テキストを吹き出し表示させる。ステップS61におい
て、サーバ端末40−1からチャットテキストが入力さ
れていないと判定された場合、ステップS62の処理は
スキップされる。Next, the process of displaying the chat text in step S18 in FIG. 5 will be described with reference to the flowchart shown in FIG. In step S61,
The CPU 121 determines whether or not the avatar ID corresponding to the chat text has been received from the server terminal 40-1. If the ID has been received, the chat text is displayed in a balloon in step S62. If it is determined in step S61 that the chat text has not been input from the server terminal 40-1, the processing in step S62 is skipped.
【0034】図10と図11は、表示部130のワール
ド画面140の表示例を示す。この例では、3人のユー
ザのアバタが3つ(太郎、花子および白くま)表示され
ている。FIGS. 10 and 11 show display examples of the world screen 140 of the display unit 130. FIG. In this example, three avatars of three users (Taro, Hanako and White Bear) are displayed.
【0035】なお、図10と図11におけるワールド画
面140の下方の顔の表情が表示されているボタン14
1乃至145は、ユーザがチャットを行う時に笑った
り、怒ったりしたことを、アバタの表情として変化させ
てコミュニケーションするとき操作される機能ボタンで
ある。ボタン141は通常の表情、ボタン142は笑っ
た表情、ボタン143は怒った表情、ボタン144は泣
いた表情、ボタン145は驚いた表情にそれぞれ対応し
ている。ユーザはチャット中にアバタの表情を変化させ
たいとき、顔表情ボタン141乃至145のいずれかを
選択操作した後、さらに、ACTIONボタン146を操作す
ることで、アバタの顔の表情を変化させることができ
る。Note that the button 14 displaying the facial expression below the world screen 140 in FIGS. 10 and 11 is displayed.
Function buttons 1 to 145 are operated when the user changes his / her laughing or angry expression when chatting as an avatar expression to communicate. The button 141 corresponds to a normal expression, the button 142 corresponds to a smiling expression, the button 143 corresponds to an angry expression, the button 144 corresponds to a crying expression, and the button 145 corresponds to a surprised expression. When the user wants to change the expression of the avatar during the chat, after selecting and operating one of the face expression buttons 141 to 145, the user can further change the expression of the avatar's face by operating the ACTION button 146. it can.
【0036】図12のフローチャートを参照して、図9
におけるステップS62の吹き出し表示処理の詳細を説
明する。CPU121は、ステップS71で、サーバ端
末40−1が、図4のステップS4の処理を実行して転
送してきた、チャットテキストをHDD126に記憶さ
せる。Referring to the flowchart of FIG.
The details of the balloon display processing in step S62 in the above will be described. In step S71, the CPU 121 causes the HDD 126 to store the chat text transferred from the server terminal 40-1 by executing the processing in step S4 in FIG.
【0037】ステップS72において、CPU121
は、HDD126に記憶されているチャットテキストか
ら、チャットテキストの文字数に応じて、吹き出しの長
さを決定し、disp_lengthに設定する。すなわち、CP
U121は、ワールド画面140の内部の所定の領域
に、セリフデータ表示領域151を設定し(説明の便宜
上、図10と図11においては、セリフデータ表示領域
151(図10および図11参照)が枠で表示されてい
るが、実際には、枠は表示されない)、そこに吹き出し
を表示させ、その吹き出しの中にチャットテキストを表
示させるが、ここで、吹き出しの長さが決定される。C
PU121はまた、吹き出しを表示するワールド画面1
40上の位置を決定し、disp_xに設定する。吹き出しの
表示位置disp_xは、長さdisp_lengthおよびアバタの水
平方向(x軸方向)の中心位置(以下、Xと称する)か
ら決定されるが、その詳細は、図13のフローチャート
を参照して後述する。In step S72, the CPU 121
Determines the length of the speech balloon from the chat text stored in the HDD 126 according to the number of characters of the chat text, and sets the length to disp_length. That is, CP
U121 sets a dialog data display area 151 in a predetermined area inside the world screen 140 (for convenience of description, the dialog data display area 151 (see FIGS. 10 and 11) is a frame in FIGS. 10 and 11. , But the frame is not actually displayed), a balloon is displayed there, and the chat text is displayed in the balloon. Here, the length of the balloon is determined. C
PU 121 is also a world screen 1 for displaying a balloon.
The position on 40 is determined and set to disp_x. The display position disp_x of the balloon is determined from the length disp_length and the center position (hereinafter, referred to as X) of the avatar in the horizontal direction (x-axis direction), the details of which will be described later with reference to the flowchart of FIG. .
【0038】ステップS73において、CPU121
は、ステップS72で決定した長さの吹き出しを、セリ
フデータ表示領域151の吹き出しを表示すべき現在の
行(変数cur_yに対応する行)に、既に表示されている
吹き出しと重ならないようにして、表示できるか否かを
判定し、表示できない場合、ステップS74において、
変数cur_yの値を1だけインクリメントする。すなわ
ち、吹き出しを表示する行が1行だけ下の行に移動され
る。In step S73, the CPU 121
Sets the balloon of the length determined in step S72 so as not to overlap the balloon already displayed on the current line (the line corresponding to the variable cur_y) where the balloon in the dialog data display area 151 is to be displayed. It is determined whether or not the display can be performed. If the display cannot be performed, in step S74,
Increment the value of the variable cur_y by one. That is, the line that displays the balloon is moved down by one line.
【0039】ステップS75において、CPU121
は、変数cur_yの値が、セリフデータ表示領域151に
表示できる最大行数cur_y_max(図10と図11の例の
場合、cur_y_max=4)を超えるか否かの判定を行い、
その値が最大行数cur_y_maxを超える場合、ステップS
76において、CPU121はスクロールアップ処理を
行う。すなわち、CPU121は、セリフデータ表示領
域151に表示されている全ての行の吹き出しを1行づ
つ上にシフトさせ、変数cur_yに、最大行数cur_y_maxを
設定する。ステップS77において、CPU121は、
変数cur_yに設定されている行に、吹き出しを表示さ
せ、その中に、ステップS71で記憶したチャットテキ
ストを表示させる。In step S75, the CPU 121
Determines whether the value of the variable cur_y exceeds the maximum number of rows cur_y_max (cur_y_max = 4 in the examples of FIGS. 10 and 11) that can be displayed in the serif data display area 151,
If the value exceeds the maximum number of rows cur_y_max, step S
At 76, the CPU 121 performs a scroll-up process. That is, the CPU 121 shifts the balloons of all the lines displayed in the dialog data display area 151 upward by one line, and sets the variable cur_y to the maximum number of lines cur_y_max. In step S77, the CPU 121
A balloon is displayed on the line set in the variable cur_y, and the chat text stored in step S71 is displayed therein.
【0040】ステップS73で、既に表示されている吹
き出しと重ならないで、新たな吹き出しが表示可能と判
定された場合(その行に、他の吹き出しが表示されてい
ない場合を含む)、ステップS74乃至S76の処理は
スキップされ、また、ステップS75で、変数cur_yが
最大行数cur_y_max以下であると判定された場合、ステ
ップS76の処理はスキップされる。これらの場合、そ
の時点で変数cur_yに設定されている行に吹き出しが表
示される。In step S73, if it is determined that a new balloon can be displayed without overlapping with the balloon already displayed (including a case where another balloon is not displayed on the line), steps S74 to S74 are performed. The process of S76 is skipped, and when it is determined in step S75 that the variable cur_y is equal to or less than the maximum number of rows cur_y_max, the process of step S76 is skipped. In these cases, a balloon is displayed at the line set in the variable cur_y at that time.
【0041】ステップS71乃至S77の処理は、サー
バ端末40−1がステップS4の処理を実行した結果転
送されたチャットテキストを受信するごとに行われる。
すなわち、ステップS78で、新たなチャットテキスト
の転送が終了したと判定されるまで行われる。The processing of steps S71 to S77 is performed every time the server terminal 40-1 receives the chat text transferred as a result of executing the processing of step S4.
That is, the process is performed until it is determined in step S78 that the transfer of the new chat text has been completed.
【0042】次に、図12のステップS72における、
吹き出しの表示位置disp_xを算出する処理の詳細を図1
3のフローチャートを参照して説明する。Next, in step S72 of FIG.
FIG. 1 shows details of processing for calculating a display position disp_x of a balloon.
This will be described with reference to the flowchart of FIG.
【0043】ステップS81において、CPU121
は、表示部130に表示されているワールド画面140
上のアバタ(チャットテキストに対応する(図9のステ
ップS61で受信したIDに対応する)アバタ)の中心
位置Xを算出する。In step S81, the CPU 121
Is the world screen 140 displayed on the display unit 130
The center position X of the upper avatar (the avatar corresponding to the chat text (corresponding to the ID received in step S61 in FIG. 9)) is calculated.
【0044】ステップS82において、CPU121
は、次式を演算し、位置disp_xに吹き出しの左端位置を
設定し、かつ、吹き出しの水平方向の中心を、アバタの
水平方向の中心と一致させる。 disp_x = X − disp_length/2In step S82, the CPU 121
Calculates the following equation, sets the left end position of the speech balloon at the position disp_x, and matches the horizontal center of the speech balloon with the horizontal center of the avatar. disp_x = X-disp_length / 2
【0045】ステップS83において、CPU121
は、吹き出しの左端を、ステップS82で求めた位置di
sp_xに表示した場合、吹き出しの左端または右端が、セ
リフデータ表示領域151からはみでるか否かの判定を
行う。次式が成立すると、吹き出しの左端がセリフデー
タ表示領域151の左端x_minからあふれることにな
る。 disp_x < x_min また、次式が成立すると、吹き出しの右端がセリフデー
タ表示領域151の右端x_maxからあふれることにな
る。 disp_x + disp_length > x_maxIn step S83, the CPU 121
Indicates the left end of the balloon at the position di obtained in step S82.
When displayed in sp_x, it is determined whether the left end or the right end of the balloon is outside the line data display area 151. When the following equation is satisfied, the left end of the balloon overflows from the left end x_min of the dialog data display area 151. disp_x <x_min When the following equation is satisfied, the right end of the balloon overflows from the right end x_max of the dialog data display area 151. disp_x + disp_length> x_max
【0046】上式のいずれかが成立する場合、ステップ
S84において、CPU121は、吹き出しがセリフデ
ータ表示領域151からはみでないように位置調整を行
う。すなわち、吹き出しの左端がセリフデータ表示領域
151の左端からはみでる場合、CPU121は、次式
に示すように、吹き出しの左端の位置disp_xに、セリフ
データ表示領域151の左端位置x_minを設定する。 disp_x = x_min また、CPU121は、吹き出しの右端がセリフデータ
表示領域151の右端からはみでる場合、次式を演算
し、吹き出しの左端の位置disp_xに、セリフデータ表示
領域151の右端位置x_maxから長さdisp_lengthの分
だけ左側の位置を設定する。 disp_x = x_max − disp_lengthIf any of the above expressions is satisfied, in step S84, the CPU 121 adjusts the position so that the balloon does not extend beyond the dialog data display area 151. That is, when the left end of the speech balloon is outside the left end of the speech data display area 151, the CPU 121 sets the left end position x_min of the speech data display area 151 at the position disp_x of the left end of the speech speech as shown in the following equation. disp_x = x_min Further, when the right end of the speech balloon protrudes from the right end of the speech data display area 151, the CPU 121 calculates the following equation, and sets the position disp_x of the left end of the speech balloon to the length disp_length from the right end position x_max of the speech data display area 151. Set the left position for disp_x = x_max-disp_length
【0047】なお、CPU121によるステップS8
3,S84の吹き出し位置調整は、セリフデータ表示領
域151の両端だけでなく、吹き出しを表示する行に、
既に他の吹き出しがある場合には、値x_min,x_max
に、既存の吹き出しの右端または左端の位置を設定し
て、同様の処理が行われる。Note that step S8 is performed by the CPU 121.
3, the balloon position adjustment in S84 is performed not only on both ends of the dialogue data display area 151 but also on the line where the balloon is displayed.
If there is already another balloon, the value x_min, x_max
Then, the same processing is performed by setting the position of the right end or the left end of the existing balloon.
【0048】ステップS83において、CPU121
が、吹き出しがセリフデータ表示領域151からはみで
ないと判定した場合、ステップS84の処理はスキップ
される。すなわち、この場合には、ステップS82で設
定された値disp_x(X−disp_length/2)が吹き出しの
位置とされる。In step S83, the CPU 121
However, if it is determined that the balloon does not extend from the dialogue data display area 151, the process of step S84 is skipped. That is, in this case, the value disp_x (X-disp_length / 2) set in step S82 is set as the position of the balloon.
【0049】パーソナルコンピュータ10−1乃至10
−3において、以上に述べたチャットテキストの吹き出
し表示処理が行われた場合のワールド画面140の表示
例を、図10と図11を参照してさらに説明する。アバ
タを表示するワールド画面140の上方にセリフデータ
表示領域151が設けられ、アバタ「太郎」のチャット
テキスト1「太郎:よお!」が、アバタ「太郎」の位置
の上方の吹き出しの中に表示されている。セリフデータ
表示領域151の、吹き出しが表示されていない領域に
は、ワールド画面が表示されている。これにより、セリ
フデータ表示領域151に、吹き出しが表示されていな
い場合、ユーザはワールド画面140の画像をそのまま
視認することができる。チャットテキスト1はアバタ
「太郎」のセンター位置と、チャットテキスト1の吹き
出しの行方向のセンター位置が一致するように表示され
ているのが判る。アバタ「太郎」の右側に位置するアバ
タ「花子」のチャットテキスト2「花子:こんにちは」
は、アバタ「花子」の位置の上方に表示され、かつ、ア
バタ「太郎」のチャットテキストの右側に表示されてい
る。Personal Computers 10-1 to 10
-3, a display example of the world screen 140 when the above-described chat text balloon display processing is performed will be further described with reference to FIGS. 10 and 11. A dialogue data display area 151 is provided above the world screen 140 for displaying the avatar, and the chat text 1 “Taro: Yo!” Of the avatar “Taro” is displayed in a balloon above the position of the avatar “Taro”. Have been. The world screen is displayed in an area of the dialog data display area 151 where no balloon is displayed. Accordingly, when no balloon is displayed in the dialog data display area 151, the user can visually recognize the image on the world screen 140 as it is. It can be seen that the chat text 1 is displayed such that the center position of the avatar “Taro” and the center position of the balloon of the chat text 1 in the row direction match. Chat text 2 of the avatar "Hanako" which is located to the right of the avatar "Taro", "Hanako: Hello"
Is displayed above the position of the avatar "Hanako" and on the right side of the chat text of the avatar "Taro".
【0050】このように、基本的には、各アバタに対応
したチャットテキストが各アバタの位置の上方に表示さ
れる。これにより、アバタと対応するチャットの対応づ
けが容易となる。チャットテキスト1のように、チャッ
トテキストの文字数が少ない場合、チャットテキスト2
はチャットテキスト1と同じ行に表示され、セリフデー
タ表示領域151の有効活用が図られる。As described above, basically, the chat text corresponding to each avatar is displayed above the position of each avatar. This makes it easy to associate the avatar with the corresponding chat. If the number of characters in the chat text is small, such as chat text 1, chat text 2
Are displayed on the same line as the chat text 1, and the dialog data display area 151 is effectively used.
【0051】次に、アバタ「白くま」のチャットテキス
ト3「白くま:ひさしぶり!」は、チャットテキスト文
字数からチャットテキスト1,2と同一行に表示できな
いと判定されて、次の行に改行して表示されている。こ
のようにチャットテキスト1乃至チャットテキスト4が
表示され、チャットテキスト5「白くま:うん、そっち
は?」が表示された時点で、セリフデータ表示領域15
1には、最大行数まで吹き出しが表示された状態とな
る。そこで、図12のステップS76に示すスクロール
アップ機能により、セリフデータ表示領域151の最下
行が空白状態にされ、そこに新たなチャットテキストが
表示される。このようにして、図11に示すように、最
下行にチャットテキスト6「太郎:最近は暇になってき
たから元気。」が表示される。Next, it is determined from the number of characters of the chat text that the chat text 3 of the avatar "white bear", "white bear: a long time ago" cannot be displayed on the same line as the chat texts 1 and 2, and a line feed is performed on the next line. Is displayed. As described above, when the chat text 1 to the chat text 4 are displayed and the chat text 5 “white bear: yeah, that's it?” Is displayed, the dialogue data display area 15
1, the balloon is displayed up to the maximum number of lines. Therefore, the bottom line of the dialogue data display area 151 is blanked by the scroll-up function shown in step S76 of FIG. 12, and a new chat text is displayed there. In this manner, as shown in FIG. 11, the chat text 6 "Taro: I'm fine now because I'm free now" is displayed at the bottom line.
【0052】チャットテキスト6「太郎:最近は暇にな
ってきたから元気。」は、長さdisp_lengthが長いた
め、アバタ「太郎」の中心位置Xと、吹き出しの中心位
置を一致させて吹き出しを表示しようとすると、吹き出
しの左端がセリフデータ表示領域151からはみでてし
まう。そこで、ステップS84の吹き出し位置調整が行
われ、チャットテキスト6の吹き出しは、その左端が、
セリフデータ表示領域151の左端に一致するように表
示されている。The chat text 6 "Taro: I'm fine now because I'm free now" has a long disp_length, so let's match the center position X of the avatar "Taro" with the center position of the balloon and display the balloon. Then, the left end of the speech balloon runs off the line data display area 151. Therefore, the balloon position adjustment of step S84 is performed, and the balloon of the chat text 6
It is displayed so as to match the left end of the dialog data display area 151.
【0053】以上においては、ワールド画面内で、アバ
タを介してテキストチャットを行うようにしたが、アバ
タ以外の仮想生命オブジェクトでテキストチャットを行
う場合にも、本発明は適用することが可能である。In the above description, the text chat is performed via the avatar in the world screen. However, the present invention can be applied to the case where the text chat is performed with a virtual life object other than the avatar. .
【0054】なお、本明細書中において、上記処理を実
行するコンピュータプログラムをユーザに提供する提供
媒体には、磁気ディスク、CD−ROMなどの情報記録
媒体の他、インターネット、デジタル衛星などのネット
ワークによる伝送媒体も含まれる。In the present specification, a providing medium for providing a user with a computer program for executing the above processing includes an information recording medium such as a magnetic disk and a CD-ROM, and a network such as the Internet and a digital satellite. Transmission media is also included.
【0055】[0055]
【発明の効果】以上のように、請求項1に記載の情報処
理装置、請求項6に記載の情報処理方法、および請求項
7に記載の提供媒体によれば、仮想生命オブジェクトが
行うチャットのテキストを、仮想空間の画像内に表示す
るようにしたので、ユーザが仮想生命オブジェクトとチ
ャットテキストを、仮想空間の画面内で直感的に対応づ
けることが容易となり、共有仮想空間システムにおける
チャットテキストの効果の低減を抑制することができ
る。As described above, according to the information processing apparatus according to the first aspect, the information processing method according to the sixth aspect, and the providing medium according to the seventh aspect, the chatting performed by the virtual life object is performed. Since the text is displayed in the image of the virtual space, it is easy for the user to intuitively associate the virtual life object with the chat text on the screen of the virtual space. Reduction of the effect can be suppressed.
【図1】本発明を適用した共有仮想空間提供システムの
構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a shared virtual space providing system to which the present invention is applied.
【図2】図1のサーバ端末40−1の構成を示すブロッ
ク図である。FIG. 2 is a block diagram showing a configuration of a server terminal 40-1 in FIG.
【図3】図1のパーソナルコンピュータ10−1の構成
を示すブロック図である。FIG. 3 is a block diagram showing a configuration of a personal computer 10-1 in FIG.
【図4】図1のサーバ端末40−1の処理を説明するフ
ローチャートである。FIG. 4 is a flowchart illustrating a process of a server terminal 40-1 in FIG. 1;
【図5】図1のパーソナルコンピュータ10−1の処理
を説明するフローチャートである。FIG. 5 is a flowchart illustrating processing of the personal computer 10-1 in FIG. 1;
【図6】図5のステップS15の自分のアバタ位置変更
入力処理の詳細を説明するフローチャートである。FIG. 6 is a flowchart illustrating details of an own avatar position change input process in step S15 of FIG. 5;
【図7】図5のステップS16のチャットテキストを入
力する処理の詳細を説明するフローチャートである。FIG. 7 is a flowchart illustrating details of a process of inputting a chat text in step S16 of FIG. 5;
【図8】図5のステップS17のアバタの位置の変更の
処理の詳細を説明するフローチャートである。FIG. 8 is a flowchart illustrating details of a process of changing an avatar position in step S17 of FIG. 5;
【図9】図5のステップS18のチャットテキストを表
示する処理の詳細を説明するフローチャートである。FIG. 9 is a flowchart illustrating details of a process of displaying a chat text in step S18 of FIG. 5;
【図10】図3の表示部130のワールド画面の表示例
を示す図である。FIG. 10 is a diagram showing a display example of a world screen on the display unit 130 in FIG. 3;
【図11】図3の表示部130のワールド画面の他の表
示例を示す図である。11 is a diagram showing another display example of the world screen of the display unit 130 in FIG.
【図12】図9のステップS62の吹き出し表示の処理
の詳細を説明するフローチャートである。FIG. 12 is a flowchart illustrating details of balloon display processing in step S62 of FIG. 9;
【図13】図12のステップS72の吹き出し位置と長
さの決定の処理の詳細を説明するフローチャートであ
る。FIG. 13 is a flowchart illustrating details of processing for determining a balloon position and length in step S72 of FIG. 12;
【図14】従来のワールド画面の表示例を示す図であ
る。FIG. 14 is a diagram showing a display example of a conventional world screen.
【図15】従来のアバタのテキストチャットを表示する
画面の例を示す図である。FIG. 15 is a diagram showing an example of a conventional screen for displaying an avatar text chat.
【図16】従来のアバタのテキストチャットを表示する
画面の例を示す図である。FIG. 16 is a diagram showing an example of a conventional screen for displaying an avatar text chat.
【図17】従来のアバタのテキストチャットを表示する
画面の例を示す図である。FIG. 17 is a diagram showing an example of a screen for displaying a conventional avatar text chat.
【図18】従来のアバタのテキストチャットを表示する
画面の例を示す図である。FIG. 18 is a diagram showing an example of a screen for displaying a conventional avatar text chat.
10−1,10−2,10−3 パーソナルコンピュー
タ, 30 通信ネットワーク, 40−1,40−2
サーバ端末, 101 CPU, 107通信部,
110 表示部, 121 CPU, 127 通信
部, 130表示部, 141,142,143,14
4,145 顔表情ボタン, 146ACTIONボタン10-1, 10-2, 10-3 Personal computer, 30 communication network, 40-1, 40-2
Server terminal, 101 CPU, 107 communication unit,
110 display unit, 121 CPU, 127 communication unit, 130 display unit, 141, 142, 143, 14
4,145 face expression button, 146ACTION button
Claims (7)
報処理装置と仮想空間を共有する情報処理装置におい
て、 前記仮想空間の画像を提供する提供手段と、 仮想生命オブジェクトが前記仮想空間に表示されるよう
に制御する第1の表示制御手段と、 前記仮想空間において前記仮想生命オブジェクトが行う
チャットのテキストが、前記仮想空間の画像内に表示さ
れるように制御する第2の表示制御手段とを備えること
を特徴とする情報処理装置。1. An information processing apparatus that shares a virtual space with another information processing apparatus connected via a network, wherein: a providing unit that provides an image of the virtual space; and a virtual life object is displayed in the virtual space. Display control means for controlling so that the text of the chat performed by the virtual life object in the virtual space is displayed in the image of the virtual space. An information processing apparatus comprising:
間の画像の所定の範囲内にテキスト表示エリアを設定
し、前記テキストを、前記テキスト表示エリアに表示さ
せることを特徴とする請求項1に記載の情報処理装置。2. The text display area according to claim 2, wherein the second display control means sets a text display area within a predetermined range of the image of the virtual space, and displays the text in the text display area. 2. The information processing device according to 1.
トのテキストを、吹き出し内に表示させることを特徴と
する請求項1に記載の情報処理装置。3. The information processing apparatus according to claim 1, wherein the second display control means displays the text of the chat in a balloon.
しの長さを、前記テキストの長さに対応して設定するこ
とを特徴とする請求項3に記載の情報処理装置。4. The information processing apparatus according to claim 3, wherein the second display control means sets the length of the balloon in accordance with the length of the text.
トのテキストの長さと、対応する前記仮想生命オブジェ
クトの位置に基づいて、前記チャットのテキストの表示
位置を制御することを特徴とする請求項1に記載の情報
処理装置。5. The method according to claim 1, wherein the second display control means controls a display position of the chat text based on a length of the chat text and a position of the corresponding virtual life object. Item 2. The information processing device according to item 1.
情報処理装置と仮想空間を共有する情報処理装置の情報
処理方法において、 前記仮想空間の画像を提供する提供ステップと、 仮想生命オブジェクトが前記仮想空間に表示されるよう
に制御する第1の表示制御ステップと、 前記仮想空間において前記仮想生命オブジェクトが行う
チャットのテキストが、前記仮想空間の画像内に表示さ
れるように制御する第2の表示制御ステップとを含むこ
とを特徴とする情報処理方法。6. An information processing method for an information processing device that shares a virtual space with another information processing device connected via a network, wherein: a providing step of providing an image of the virtual space; A first display control step of controlling to be displayed in a space; and a second display of controlling a text of a chat performed by the virtual life object in the virtual space to be displayed in an image of the virtual space. An information processing method comprising: a control step.
情報処理装置と仮想空間を共有する情報処理装置に、 前記仮想空間の画像を提供する提供ステップと、 仮想生命オブジェクトが前記仮想空間に表示されるよう
に制御する第1の表示制御ステップと、 前記仮想空間において前記仮想生命オブジェクトが行う
チャットのテキストが、前記仮想空間の画像内に表示さ
れるように制御する第2の表示制御ステップとを含む処
理を実行させるコンピュータが読み取り可能なプログラ
ムを提供することを特徴とする提供媒体。7. A providing step of providing an image of the virtual space to an information processing device that shares a virtual space with another information processing device connected via a network, wherein a virtual life object is displayed in the virtual space. A first display control step for controlling so that a text of a chat performed by the virtual life object in the virtual space is displayed in an image of the virtual space. A providing medium for providing a computer-readable program that causes a computer to execute a process including the following.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10264196A JP2000099225A (en) | 1998-09-18 | 1998-09-18 | Device and method for processing information and distribution medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10264196A JP2000099225A (en) | 1998-09-18 | 1998-09-18 | Device and method for processing information and distribution medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000099225A true JP2000099225A (en) | 2000-04-07 |
Family
ID=17399825
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10264196A Withdrawn JP2000099225A (en) | 1998-09-18 | 1998-09-18 | Device and method for processing information and distribution medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000099225A (en) |
Cited By (126)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001061446A1 (en) * | 2000-02-18 | 2001-08-23 | Sharp Kabushiki Kaisha | Representation data control system, and representation data control device constituting it, and recording medium recording its program |
JP2002251279A (en) * | 2001-02-26 | 2002-09-06 | Sanyo Electric Co Ltd | Contents distributing system and contents distributing server |
JP2002297498A (en) * | 2000-08-01 | 2002-10-11 | Sony Computer Entertainment Inc | Communication system, computer program execution device, recording medium, computer program, program information supply method, and program information editing method |
JP2002351806A (en) * | 2001-05-28 | 2002-12-06 | Namco Ltd | Chat information, information storage medium, computer system, and server system |
WO2008078489A1 (en) * | 2006-12-22 | 2008-07-03 | Konami Digital Entertainment Co., Ltd. | Game device, method of controlling game device, and information recording medium |
JP5695769B1 (en) * | 2014-02-14 | 2015-04-08 | 株式会社パピレス | Server in electronic book distribution system, control method thereof, and control program thereof |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9300784B2 (en) | 2013-06-13 | 2016-03-29 | Apple Inc. | System and method for emergency calls initiated by voice command |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US9330381B2 (en) | 2008-01-06 | 2016-05-03 | Apple Inc. | Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9535906B2 (en) | 2008-07-31 | 2017-01-03 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US9571539B2 (en) | 2014-07-17 | 2017-02-14 | Honda Motor Co., Ltd. | Method and electronic device for performing exchange of messages |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9600174B2 (en) | 2006-09-06 | 2017-03-21 | Apple Inc. | Portable electronic device for instant messaging |
US9608956B2 (en) | 2014-07-17 | 2017-03-28 | Honda Motor Co., Ltd. | Method and electronic device for performing exchange of messages |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9633674B2 (en) | 2013-06-07 | 2017-04-25 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9697822B1 (en) | 2013-03-15 | 2017-07-04 | Apple Inc. | System and method for updating an adaptive speech recognition model |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9798393B2 (en) | 2011-08-29 | 2017-10-24 | Apple Inc. | Text correction processing |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9922642B2 (en) | 2013-03-15 | 2018-03-20 | Apple Inc. | Training an at least partial voice command system |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9954996B2 (en) | 2007-06-28 | 2018-04-24 | Apple Inc. | Portable electronic device with conversation management for incoming instant messages |
US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10199051B2 (en) | 2013-02-07 | 2019-02-05 | Apple Inc. | Voice trigger for a digital assistant |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US10348654B2 (en) | 2003-05-02 | 2019-07-09 | Apple Inc. | Method and apparatus for displaying information during an instant messaging session |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10568032B2 (en) | 2007-04-03 | 2020-02-18 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US10607141B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
JP2022184842A (en) * | 2020-11-19 | 2022-12-13 | グリー株式会社 | Computer program, method and server device |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
JP2023061551A (en) * | 2021-10-20 | 2023-05-02 | 株式会社カプコン | Information processing system, information processing method, and program |
-
1998
- 1998-09-18 JP JP10264196A patent/JP2000099225A/en not_active Withdrawn
Cited By (183)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001061446A1 (en) * | 2000-02-18 | 2001-08-23 | Sharp Kabushiki Kaisha | Representation data control system, and representation data control device constituting it, and recording medium recording its program |
JP2001228947A (en) * | 2000-02-18 | 2001-08-24 | Sharp Corp | Expression data control system, expression data control device constituting the same, and recording medium on which the program is recorded |
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US8296365B2 (en) | 2000-08-01 | 2012-10-23 | Sony Computer Entertainment Inc. | Communication system, computer program execution device, recording medium, computer program, program information supply method, and program information editing method |
JP2002297498A (en) * | 2000-08-01 | 2002-10-11 | Sony Computer Entertainment Inc | Communication system, computer program execution device, recording medium, computer program, program information supply method, and program information editing method |
JP2002251279A (en) * | 2001-02-26 | 2002-09-06 | Sanyo Electric Co Ltd | Contents distributing system and contents distributing server |
US6882975B2 (en) | 2001-05-28 | 2005-04-19 | Namco Ltd. | Method, storage medium, apparatus, server and program for providing an electronic chat |
JP2002351806A (en) * | 2001-05-28 | 2002-12-06 | Namco Ltd | Chat information, information storage medium, computer system, and server system |
US10623347B2 (en) | 2003-05-02 | 2020-04-14 | Apple Inc. | Method and apparatus for displaying information during an instant messaging session |
US10348654B2 (en) | 2003-05-02 | 2019-07-09 | Apple Inc. | Method and apparatus for displaying information during an instant messaging session |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9600174B2 (en) | 2006-09-06 | 2017-03-21 | Apple Inc. | Portable electronic device for instant messaging |
US11169690B2 (en) | 2006-09-06 | 2021-11-09 | Apple Inc. | Portable electronic device for instant messaging |
US10572142B2 (en) | 2006-09-06 | 2020-02-25 | Apple Inc. | Portable electronic device for instant messaging |
US11762547B2 (en) | 2006-09-06 | 2023-09-19 | Apple Inc. | Portable electronic device for instant messaging |
US8303408B2 (en) | 2006-12-22 | 2012-11-06 | Konami Digital Entertainment Co., Ltd. | Game device, method of controlling game device, and information recording medium |
CN101534913B (en) * | 2006-12-22 | 2012-10-17 | 科乐美数码娱乐株式会社 | Game device, game device control method |
WO2008078489A1 (en) * | 2006-12-22 | 2008-07-03 | Konami Digital Entertainment Co., Ltd. | Game device, method of controlling game device, and information recording medium |
US10568032B2 (en) | 2007-04-03 | 2020-02-18 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US11122158B2 (en) | 2007-06-28 | 2021-09-14 | Apple Inc. | Portable electronic device with conversation management for incoming instant messages |
US11743375B2 (en) | 2007-06-28 | 2023-08-29 | Apple Inc. | Portable electronic device with conversation management for incoming instant messages |
US9954996B2 (en) | 2007-06-28 | 2018-04-24 | Apple Inc. | Portable electronic device with conversation management for incoming instant messages |
US12348663B2 (en) | 2007-06-28 | 2025-07-01 | Apple Inc. | Portable electronic device with conversation management for incoming instant messages |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US10381016B2 (en) | 2008-01-03 | 2019-08-13 | Apple Inc. | Methods and apparatus for altering audio output signals |
US10503366B2 (en) | 2008-01-06 | 2019-12-10 | Apple Inc. | Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars |
US9330381B2 (en) | 2008-01-06 | 2016-05-03 | Apple Inc. | Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars |
US9792001B2 (en) | 2008-01-06 | 2017-10-17 | Apple Inc. | Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars |
US10521084B2 (en) | 2008-01-06 | 2019-12-31 | Apple Inc. | Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars |
US11126326B2 (en) | 2008-01-06 | 2021-09-21 | Apple Inc. | Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars |
US9865248B2 (en) | 2008-04-05 | 2018-01-09 | Apple Inc. | Intelligent text-to-speech conversion |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US10108612B2 (en) | 2008-07-31 | 2018-10-23 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US9535906B2 (en) | 2008-07-31 | 2017-01-03 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
US10475446B2 (en) | 2009-06-05 | 2019-11-12 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US9548050B2 (en) | 2010-01-18 | 2017-01-17 | Apple Inc. | Intelligent automated assistant |
US10706841B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Task flow identification based on user intent |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US12087308B2 (en) | 2010-01-18 | 2024-09-10 | Apple Inc. | Intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10984327B2 (en) | 2010-01-25 | 2021-04-20 | New Valuexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10984326B2 (en) | 2010-01-25 | 2021-04-20 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US11410053B2 (en) | 2010-01-25 | 2022-08-09 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US12307383B2 (en) | 2010-01-25 | 2025-05-20 | Newvaluexchange Global Ai Llp | Apparatuses, methods and systems for a digital conversation management platform |
US10607140B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10607141B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US10049675B2 (en) | 2010-02-25 | 2018-08-14 | Apple Inc. | User profiling for voice input processing |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10102359B2 (en) | 2011-03-21 | 2018-10-16 | Apple Inc. | Device access using voice authentication |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US11120372B2 (en) | 2011-06-03 | 2021-09-14 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US9798393B2 (en) | 2011-08-29 | 2017-10-24 | Apple Inc. | Text correction processing |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US10199051B2 (en) | 2013-02-07 | 2019-02-05 | Apple Inc. | Voice trigger for a digital assistant |
US10978090B2 (en) | 2013-02-07 | 2021-04-13 | Apple Inc. | Voice trigger for a digital assistant |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US9697822B1 (en) | 2013-03-15 | 2017-07-04 | Apple Inc. | System and method for updating an adaptive speech recognition model |
US9922642B2 (en) | 2013-03-15 | 2018-03-20 | Apple Inc. | Training an at least partial voice command system |
US9966060B2 (en) | 2013-06-07 | 2018-05-08 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9633674B2 (en) | 2013-06-07 | 2017-04-25 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US10657961B2 (en) | 2013-06-08 | 2020-05-19 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US9300784B2 (en) | 2013-06-13 | 2016-03-29 | Apple Inc. | System and method for emergency calls initiated by voice command |
JP5695769B1 (en) * | 2014-02-14 | 2015-04-08 | 株式会社パピレス | Server in electronic book distribution system, control method thereof, and control program thereof |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US11133008B2 (en) | 2014-05-30 | 2021-09-28 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10497365B2 (en) | 2014-05-30 | 2019-12-03 | Apple Inc. | Multi-command single utterance input method |
US10083690B2 (en) | 2014-05-30 | 2018-09-25 | Apple Inc. | Better resolution when referencing to concepts |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US11257504B2 (en) | 2014-05-30 | 2022-02-22 | Apple Inc. | Intelligent assistant for home automation |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US10904611B2 (en) | 2014-06-30 | 2021-01-26 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9668024B2 (en) | 2014-06-30 | 2017-05-30 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9571539B2 (en) | 2014-07-17 | 2017-02-14 | Honda Motor Co., Ltd. | Method and electronic device for performing exchange of messages |
US9608956B2 (en) | 2014-07-17 | 2017-03-28 | Honda Motor Co., Ltd. | Method and electronic device for performing exchange of messages |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10431204B2 (en) | 2014-09-11 | 2019-10-01 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9986419B2 (en) | 2014-09-30 | 2018-05-29 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US11556230B2 (en) | 2014-12-02 | 2023-01-17 | Apple Inc. | Data detection |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US11087759B2 (en) | 2015-03-08 | 2021-08-10 | Apple Inc. | Virtual assistant activation |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10311871B2 (en) | 2015-03-08 | 2019-06-04 | Apple Inc. | Competing devices responding to voice triggers |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11500672B2 (en) | 2015-09-08 | 2022-11-15 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US11526368B2 (en) | 2015-11-06 | 2022-12-13 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US11069347B2 (en) | 2016-06-08 | 2021-07-20 | Apple Inc. | Intelligent automated assistant for media exploration |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US11037565B2 (en) | 2016-06-10 | 2021-06-15 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US11152002B2 (en) | 2016-06-11 | 2021-10-19 | Apple Inc. | Application integration with a digital assistant |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10553215B2 (en) | 2016-09-23 | 2020-02-04 | Apple Inc. | Intelligent automated assistant |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
JP2022184842A (en) * | 2020-11-19 | 2022-12-13 | グリー株式会社 | Computer program, method and server device |
JP7479017B2 (en) | 2020-11-19 | 2024-05-08 | グリー株式会社 | Computer program, method, and server device |
JP2023061551A (en) * | 2021-10-20 | 2023-05-02 | 株式会社カプコン | Information processing system, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2000099225A (en) | Device and method for processing information and distribution medium | |
US6882975B2 (en) | Method, storage medium, apparatus, server and program for providing an electronic chat | |
US7343561B1 (en) | Method and apparatus for message display | |
JP4395687B2 (en) | Information processing device | |
US6404438B1 (en) | Behavioral learning for a visual representation in a communication environment | |
JP2003186586A (en) | Apparatus and method for information processing, recording medium, and program | |
JP2001351125A (en) | Image display method | |
EP3422194B1 (en) | Event management server, information processing apparatus, information processing system, and event realizing method | |
JP2005202062A (en) | Comics display device, comics display method, comics editing system, and comics editing method | |
JP7372361B2 (en) | Method of providing content to users and user terminals | |
WO2025082433A1 (en) | Identifier display method and apparatus, electronic device, and readable storage medium | |
WO2010035553A1 (en) | Information processing device, information processing device control method, program, and information storage medium | |
CN112087546A (en) | Message display method and electronic device | |
JP7352113B2 (en) | Information processing device, content display method, and content display program | |
JP6557773B1 (en) | Program, image control method, and game apparatus | |
JP7716917B2 (en) | Conference control device, conference control method, and computer program | |
JP4850859B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP2000113219A (en) | Information processor, information processing method and provision medium | |
CN113821289A (en) | Information processing method and electronic equipment | |
JP2005100132A (en) | Display control device | |
JP2003290549A (en) | Network game system, game device and its program | |
CN110445706A (en) | Message display method, device, electronic equipment and storage medium | |
JP2002278904A (en) | Network system and client terminal | |
CN112462954B (en) | Expression display method and device | |
WO2020235346A1 (en) | Computer program, server device, terminal device, system, and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060110 |