[go: up one dir, main page]

JP2000013900A - Sound playback device - Google Patents

Sound playback device

Info

Publication number
JP2000013900A
JP2000013900A JP10179412A JP17941298A JP2000013900A JP 2000013900 A JP2000013900 A JP 2000013900A JP 10179412 A JP10179412 A JP 10179412A JP 17941298 A JP17941298 A JP 17941298A JP 2000013900 A JP2000013900 A JP 2000013900A
Authority
JP
Japan
Prior art keywords
sound
sound source
listener
data
sound data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10179412A
Other languages
Japanese (ja)
Inventor
Haruyo Ookubo
晴代 大久保
Yoshimori Nakase
義盛 中瀬
Yutaka Shirai
豊 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP10179412A priority Critical patent/JP2000013900A/en
Publication of JP2000013900A publication Critical patent/JP2000013900A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stereophonic System (AREA)

Abstract

(57)【要約】 【課題】 音源に関する3次元情報を生かして処理装置
への負荷を低減した、複数の音源の3次元音効果処理を
する音再生装置を提供する。 【解決手段】 音源の特徴を記憶するオブジェクト記憶
部を有し、再生する3次元仮想空間内のシーンが特定さ
れると、聞手の位置と向き、音源の位置を特定し、聞手
の正面方向と、聞手から音源を直線でつないだ方向との
方向の差に応じて、シーン構成部が配置した音源をグル
ープ分けし、同一のグループに区分された音源を、それ
ぞれ音源と聞手との距離の関係を考慮した重み付けをし
て一つの音源としてまとめ、これに対し、方向をパラメ
ータとした3次元音効果処理を行う。
(57) [Summary] [PROBLEMS] To provide a sound reproducing apparatus for performing a three-dimensional sound effect processing of a plurality of sound sources, by reducing the load on a processing device by making use of three-dimensional information on sound sources. SOLUTION: When a scene in a three-dimensional virtual space to be reproduced is specified, the object storage unit stores a feature of a sound source. According to the difference between the direction and the direction in which the sound source is connected from the listener with a straight line, the sound sources arranged by the scene composition unit are divided into groups, and the sound sources divided into the same group are referred to as the sound source and the listener, respectively. The sound sources are weighted in consideration of the distance relationship, and are combined into one sound source, and a three-dimensional sound effect process using the direction as a parameter is performed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は、3次元仮想空間内
に仮想的に配置される複数の仮想的な音源(以下、単に
音源という)から音声を発生させる音再生装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sound reproducing apparatus for generating sound from a plurality of virtual sound sources (hereinafter, simply referred to as sound sources) virtually arranged in a three-dimensional virtual space.

【0002】[0002]

【従来の技術】従来の、3次元仮想空間における音再生
技術では、一つ一つの音源に対する演算を忠実に行うこ
とで、いかに臨場感のある3次元音を実現するかを追求
して、様々な手法の試みがなされている。これらの手法
はいずれも演算処理量が多く、特別な演算装置を必要と
する。そのため、映像と3次元音とを同時に再生するシ
ステムを構築する場合、処理する映像の品質や映像の内
容と、3次元音を実現するシステムの性能との調整をと
り、3次元音処理における精度を決めて、個々のシステ
ムが構成されている。近年、コンピュータの性能の急速
な発達により、パソコンによるビデオ、グラフィックス
及び音などのマルチメディアデータのリアルタイム再生
が可能となってきた。このため、パソコンで3次元仮想
空間に3次元音を自由に生成したいというニーズが高ま
っている。
2. Description of the Related Art Conventional sound reproduction technology in a three-dimensional virtual space pursues how to realize a realistic three-dimensional sound by faithfully performing an operation for each sound source. Attempts have been made. Each of these methods requires a large amount of arithmetic processing and requires a special arithmetic device. Therefore, when constructing a system that simultaneously reproduces video and three-dimensional sound, the quality of the video to be processed, the content of the video, and the performance of the system that realizes three-dimensional sound are adjusted, and the accuracy in three-dimensional sound processing is adjusted. The individual system is configured by deciding. 2. Description of the Related Art In recent years, rapid development of computer performance has enabled real-time reproduction of multimedia data such as video, graphics, and sound by a personal computer. For this reason, there is an increasing need to freely generate three-dimensional sound in a three-dimensional virtual space using a personal computer.

【0003】[0003]

【発明が解決しようとする課題】3次元仮想空間におい
て3次元音を生成する場合、3次元仮想空間内に多数の
音源を自由に配置することが必要となる。従来のように
個々の音源について音源演算処理を行う方法では、音源
の数が増加すると処理量も増加してしまい、3次元音の
効果を限られた処理量で実現するのは難しい。
When a three-dimensional sound is generated in a three-dimensional virtual space, it is necessary to freely arrange a large number of sound sources in the three-dimensional virtual space. In the conventional method of performing sound source calculation processing for individual sound sources, the processing amount increases as the number of sound sources increases, and it is difficult to realize the effect of three-dimensional sound with a limited processing amount.

【0004】また、従来の方法では、音再生装置を種々
のシステムに実装する場合、そのシステム毎に、3次元
音再生の装置を再設計する必要が生じる。このため、ユ
ーザが複数の音源が存在する3次元仮想空間における音
再生技術を積極的に利用できない問題点を有していた。
In the conventional method, when a sound reproducing apparatus is mounted on various systems, it is necessary to redesign a three-dimensional sound reproducing apparatus for each system. Therefore, there is a problem that the user cannot actively use the sound reproduction technology in the three-dimensional virtual space where a plurality of sound sources exist.

【0005】本発明は上記従来の問題点を解決するため
のものであり、音源に関する3次元情報を生かして処理
量を低減し、同一の3次元空間内に存在する複数の音源
の音声を3次元空間に生成する3次元音効果処理をする
音再生装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned conventional problems, and reduces the amount of processing by utilizing three-dimensional information relating to a sound source to reduce the amount of sound of a plurality of sound sources existing in the same three-dimensional space. It is an object of the present invention to provide a sound reproducing device that performs a three-dimensional sound effect process generated in a three-dimensional space.

【0006】[0006]

【課題を解決するための手段】この目的を達成するため
に本発明の音再生装置は、複数の音源をそれぞれ表す複
数の音データを記憶したオブジェクト記憶部と、前記複
数の音データに基づく音源を配置する位置と聞手の頭の
位置と頭の向きとが指定されると、3次元空間内に複数
の音データに基づく音源と聞手を配置して音声を再生す
るシーンを構成するシーン構成部と、前記シーン構成部
から前記音データを配置する位置と前記聞手の頭の位置
と頭の向きを取得し、前記聞手の頭の位置を原点として
前記複数の音源の相対位置を求め、前記相対位置より、
前記聞手の頭の正面方向と、前記原点と前記複数の音源
をそれぞれ直線でつないだ方向との角度差を基準に、特
定の角度差内に存在する前記複数の音データを一つのグ
ループとするグループ分けをする音源管理部と、前記音
源管理部により区分された全てのグループに対し、前記
音源管理部により同一のグループに区分された音データ
を前記オブジェクト記憶部より同一グループ音データと
して取得し、前記同一グループ音データのレベルに、前
記聞手との距離が遠い程レベルを下げる前記聞手との距
離の関係を考慮した重みづけをし、前記同一のグループ
に区分され、かつ、前記重みづけをされた音データを加
算した音データに前記同一グループに区分した時の前記
角度差の平均の角度差を音源の方向とし、前記角度差を
パラメータとした3次元音効果処理を行う再生音発生部
とを有している。
In order to achieve this object, a sound reproducing apparatus according to the present invention comprises: an object storage section storing a plurality of sound data representing a plurality of sound sources; and a sound source based on the plurality of sound data. When the position where the sound is arranged, the position of the head of the listener, and the direction of the head are designated, a scene that constitutes a scene in which the sound source and the listener are arranged in a three-dimensional space and the listener is arranged to reproduce the sound A configuration unit, a position at which the sound data is arranged from the scene configuration unit, a head position and a head direction of the listener are obtained, and the relative positions of the plurality of sound sources are determined with the head position of the listener as the origin. From the relative position,
The front direction of the listener's head and the angle difference between the origin and the direction connecting the plurality of sound sources with straight lines, respectively, and the plurality of sound data existing within a specific angle difference as one group. For the sound source management unit that performs grouping, and for all the groups divided by the sound source management unit, the sound data divided into the same group by the sound source management unit is obtained as the same group sound data from the object storage unit. Then, the level of the same group sound data, weighted in consideration of the relationship of the distance to the listener lowering the level as the distance to the listener is farther, divided into the same group, and the The average angle difference of the angle differences when the sound data obtained by adding the weighted sound data is divided into the same group is defined as the direction of the sound source, and the angle difference is defined as a parameter. And a reproduced sound generating unit for performing dimensionality sound effect processing.

【0007】また本発明の音再生方法は、複数の音源を
それぞれ表す複数の音データを記憶したオブジェクト記
憶部に記憶させる工程と、前記複数の音データに基づく
音源を配置する位置と聞手の頭の位置と頭の向きとが指
定することにより、3次元空間内に複数の音データに基
づく音源と聞手を配置して音声を再生するシーンを構成
するシーン構成工程と、前記シーン構成工程で得た前記
音データを配置する位置と前記聞手の頭の位置と頭の向
きを示すデータから、前記聞手の頭の位置を原点として
前記複数の音源の相対位置を求め、前記相対位置より、
前記聞手の頭の正面方向と、前記原点と前記複数の音源
をそれぞれ直線でつないだ方向との角度差を基準に、特
定の角度差内に存在する前記複数の音データを一つのグ
ループとするグループ分けをする音源管理工程と、前記
音源管理工程において区分された全てのグループに対
し、前記音源管理工程により同一のグループに区分され
た音データを前記オブジェクト記憶部より同一グループ
音データとして取得し、前記同一グループ音データのレ
ベルに、前記聞手との距離が遠い程レベルを下げる前記
聞手との距離の関係を考慮した重みづけをし、前記同一
のグループに区分され、かつ、前記重みづけをされた音
データを加算した音データに前記同一グループに区分し
た時の前記角度差の平均の角度差を音源の方向とし、前
記角度差をパラメータとした3次元音効果処理を行う再
生音発生工程とを有している。
Further, according to the sound reproducing method of the present invention, a step of storing a plurality of sound data respectively representing a plurality of sound sources in an object storage unit, a position at which a sound source based on the plurality of sound data is arranged, and a listener A scene composition step of arranging a sound source and a listener based on a plurality of sound data in a three-dimensional space to reproduce a sound by designating a head position and a head direction; From the data to indicate the position of the sound data obtained and the head position and head orientation of the listener, the relative position of the plurality of sound sources is determined using the head position of the listener as the origin, the relative position Than,
The front direction of the listener's head and the angle difference between the origin and the direction connecting the plurality of sound sources with straight lines, respectively, and the plurality of sound data existing within a specific angle difference as one group. A sound source management step of performing a grouping operation, and, for all the groups divided in the sound source management step, sound data divided into the same group by the sound source management step as the same group sound data from the object storage unit. Then, the level of the same group sound data, weighted in consideration of the relationship of the distance to the listener lowering the level as the distance to the listener is farther, divided into the same group, and the The average angle difference of the angle differences when the sound data obtained by adding the weighted sound data is divided into the same group is defined as the direction of the sound source, and the angle difference is defined as a parameter. And a reproduced sound generating step of performing a 3-dimensional sound effects processing with.

【0008】上記の構成により、3次元仮想空間におけ
る音源の位置が聞手の頭の位置を原点とする座標系によ
って表される、上記座標系における複数の音源を、同一
の中心角を有する領域毎にグループ分けし、グループ分
けした音源を1つの音源として音データを参照して3次
元音効果処理がなされる。
According to the above arrangement, the position of the sound source in the three-dimensional virtual space is represented by a coordinate system whose origin is the position of the head of the listener. The three-dimensional sound effect processing is performed by referring to the sound data with the sound sources grouped for each group as one sound source.

【0009】また、本発明の他の観点の装置は3次元音
効果処理の負荷を計測し、前記3次元音効果処理の負荷
の計測値と入力された最大負荷値から再生するシステム
のリアルタイムで処理可能な最大音源数を決定する最大
音源数決定部を持ち、音源の方向により、聴覚の方向判
別能力が異なるという人間の聴覚特性に基づいたグルー
プ分け情報を持ち、前記最大音源数決定部より求められ
た前記最大音源数以内の数に、シーン内に配置する音デ
ータのグループ分けをする音源管理部と、音データを記
憶したオブジェクト記憶部と、配置する複数の音源と前
記複数の音源を配置する位置と聞手の頭の位置と頭の向
きが指定されると、3次元空間内に複数の音源と聞手を
配置し、再生するシーンを構成するシーン構成部と、前
記音源管理部により区分された全てのグループに対し、
前記音源管理部により同一のグループに区分された音デ
ータを前記オブジェクト記憶部より同一グループ音デー
タとして取得し、前記同一グループ音データのレベル
に、前記聞手との距離が遠い程レベルを下げる前記聞手
との距離の関係を考慮した重みづけをし、前記同一のグ
ループに区分され、かつ、前記重みづけをされた音デー
タを加算した音データに前記同一グループに区分した時
の前記角度差の平均の角度差を音源の方向とし、前記角
度差をパラメータとした3次元音効果処理を行う再生音
発生部とを有している。
Further, an apparatus according to another aspect of the present invention measures the load of the three-dimensional sound effect processing, and reproduces the measured load of the three-dimensional sound effect processing from the input maximum load value in real time. It has a maximum sound source number determining unit that determines the maximum number of sound sources that can be processed, and has grouping information based on human auditory characteristics that the direction of hearing differs depending on the direction of the sound source.From the maximum sound source number determining unit To a number within the determined maximum number of sound sources, a sound source management unit that groups sound data to be arranged in a scene, an object storage unit that stores sound data, a plurality of sound sources to be arranged, and the plurality of sound sources. When a position to be arranged, a head position of the listener, and a head direction are specified, a plurality of sound sources and a listener are arranged in a three-dimensional space, and a scene configuration unit that configures a scene to be reproduced, and the sound source management unit By For segmented all of the group,
The sound data divided into the same group by the sound source management unit is obtained as the same group sound data from the object storage unit, and the level is lowered to the level of the same group sound data as the distance from the listener increases. Weighted in consideration of the relationship with the distance to the listener, divided into the same group, and the angle difference when divided into the same group to the sound data obtained by adding the weighted sound data And a reproduced sound generating unit for performing a three-dimensional sound effect process using the angle difference as a parameter and the average angle difference as a parameter.

【0010】さらに本発明の音再生方法は、3次元音効
果処理の負荷を計測する工程と、前記3次元音効果処理
の負荷の計測値と入力された最大負荷値から再生するシ
ステムのリアルタイムで処理可能な最大音源数を決定す
る最大音源数決定工程を持ち、音源の方向により、聴覚
の方向判別能力が異なるという人間の聴覚特性に基づい
たグループ分け情報を持ち、前記最大音源数決定工程よ
り求められた前記最大音源数以内の数に、シーン内に配
置する音データのグループ分けをする音源管理工程と、
音データをオブジェクト記憶部に記憶する工程と、配置
する複数の音源と前記複数の音源を配置する位置と聞手
の頭の位置と頭の向きが指定されると、3次元空間内に
複数の音源と聞手を配置し、再生するシーンを構成する
シーン構成工程と、前記音源管理工程により区分された
全てのグループに対し、同一のグループに区分された音
データを前記オブジェクト記憶部より同一グループ音デ
ータとして取得し、前記同一グループ音データのレベル
に、前記聞手との距離が遠い程レベルを下げる前記聞手
との距離の関係を考慮した重みづけをし、前記同一のグ
ループに区分され、かつ、前記重みづけをされた音デー
タを加算した音データに前記同一グループに区分した時
の前記角度差の平均の角度差を音源の方向とし、前記角
度差をパラメータとした3次元音効果処理を行う再生音
発生工程とを有している。
The sound reproducing method according to the present invention further includes a step of measuring a load of the three-dimensional sound effect processing, and a real-time system for reproducing the measured load of the three-dimensional sound effect processing and the input maximum load value. It has a maximum sound source number determination step of determining the maximum number of sound sources that can be processed, and has grouping information based on human auditory characteristics that the direction of hearing differs depending on the direction of the sound source. A sound source management step of grouping sound data to be arranged in a scene to a number within the determined maximum number of sound sources,
When the sound data is stored in the object storage unit, a plurality of sound sources to be arranged, a position at which the plurality of sound sources are arranged, a head position and a head direction of the listener are designated, and a plurality of sound sources are arranged in a three-dimensional space. A sound source and a listener are arranged, and a scene configuration step of configuring a scene to be reproduced, and for all groups divided by the sound source management step, sound data divided into the same group is stored in the same group from the object storage unit. Acquisition as sound data, weighting the level of the same group of sound data, taking into account the relationship of the distance to the listener lowering the level as the distance to the listener is farther, is divided into the same group And, the sound data obtained by adding the weighted sound data to the sound data, the average angle difference of the angle differences when the sound data is divided into the same group is defined as the direction of the sound source, and the angle difference is a parameter. And a reproduced sound generating step of performing the three-dimensional sound effect processing.

【0011】上記の構成により、3次元仮想空間におけ
る音源のリアルタイムで処理可能な最大音源数を求め、
人間の聴覚特性に基づいて音源を最大音源数以内の数の
グループに分ける。グループ分けした音源を1つの音源
として音データを参照して3次元効果処理がなされる。
With the above arrangement, the maximum number of sound sources that can be processed in real time in a three-dimensional virtual space is determined.
Sound sources are divided into groups within the maximum number of sound sources based on human auditory characteristics. Three-dimensional effect processing is performed by referring to sound data with the sound sources grouped as one sound source.

【0012】また他の観点の音再生装置は、音データを
記憶したオブジェクト記憶部と、音データに基づく音源
を配置する位置と聞手の頭の位置と頭の向きが指定され
ると3次元空間内に複数の音源と聞手を配置し、聞手が
注目する音源である注目音源が指定されると前記注目音
源に別情報を付けて再生するシーンを構成する、シーン
構成部と、前記注目音源である音データを一つの注目グ
ループとし、前記聞手の頭の位置を原点とした前記注目
音源の相対位置を求め、前記シーン構成部から前記注目
音源を除いた音データの前記聞き手の頭の位置を原点と
して前記注目音源を除いた複数の音データの相対位置を
求め、前記相対位置より、前記聞手の頭の正面方向と、
前記原点と前記注目音源を除いた複数の音データをそれ
ぞれ直線でつないだ方向との角度差を基準に特定の角度
差内に存在する前記注目音源を除いた複数の音データを
グループ分けする音源管理部と、前記音源管理部により
区分された全てのグループに対し、前記音源管理部によ
り同一のグループに区分された音データを前記オブジェ
クト記憶部より同一グループ音データとして取得し同一
のグループに区分された音データのレベルに、前記聞手
との距離が遠い程レベルを下げる前記聞手との距離の関
係を考慮した重みづけをし、前記同一のグループに区分
されて重みづけをされた音データを加算した音データに
前記同一グループに区分した時の前記角度差の平均角度
差を音源の方向とし、前記角度差をパラメータとした3
次元音効果処理を行う再生音発生部とを有している。
According to another aspect of the present invention, there is provided a sound reproducing apparatus including a three-dimensional object storage unit for storing sound data, a sound source based on sound data, a head position of a listener, and a head direction. A plurality of sound sources and listeners are arranged in a space, and when a target sound source that is a source to which the listener pays attention is specified, a scene to be reproduced with additional information attached to the target sound source is configured. The sound data that is the sound source of interest is regarded as one group of interest, the relative position of the sound source of interest is determined with the position of the head of the listener as the origin, and the listener of the sound data excluding the sound source of interest from the scene configuration unit is obtained. Determine the relative position of the plurality of sound data except for the sound source of interest with the position of the head as the origin, from the relative position, the front direction of the listener's head,
A sound source for grouping a plurality of sound data excluding the target sound source which exists within a specific angle difference based on an angle difference between the origin and a direction in which the plurality of sound data excluding the target sound source are connected by straight lines, respectively. For the management unit and all the groups divided by the sound source management unit, the sound data divided by the sound source management unit into the same group is obtained as the same group sound data from the object storage unit and divided into the same group. The level of the sound data is weighted in consideration of the relationship between the distance to the listener and the level of the sound that decreases as the distance to the listener increases, and the weighted sound is divided into the same group and weighted. The average angle difference of the angle differences when the data is added to the sound data and divided into the same group is defined as the direction of the sound source, and the angle difference is defined as a parameter.
A reproduction sound generation unit for performing a two-dimensional sound effect process.

【0013】また他の観点の音再生方法は、音データを
オブジェクト記憶部に記憶する工程と、音データに基づ
く音源を配置する位置と聞手の頭の位置と頭の向きが指
定されると3次元空間内に複数の音源と聞手を配置し、
聞手が注目する音源である注目音源が指定されると前記
注目音源に別情報を付けて再生するシーンを構成する、
シーン構成工程と、前記注目音源である音データを一つ
の注目グループとし、前記聞手の頭の位置を原点とした
前記注目音源の相対位置を求め、前記シーン構成部から
前記注目音源を除いた音データの前記聞き手の頭の位置
を原点として前記注目音源を除いた複数の音データの相
対位置を求め、前記相対位置より、前記聞手の頭の正面
方向と、前記原点と前記注目音源を除いた複数の音デー
タをそれぞれ直線でつないだ方向との角度差を基準に特
定の角度差内に存在する前記注目音源を除いた複数の音
データをグループ分けする音源管理工程と、前記音源管
理工程により区分された全てのグループに対し、同一の
グループに区分された音データを前記オブジェクト記憶
部より同一グループ音データとして取得し同一のグルー
プに区分された音データのレベルに、前記聞手との距離
が遠い程レベルを下げる前記聞手との距離の関係を考慮
した重みづけをし、前記同一のグループに区分されて重
みづけをされた音データを加算した音データに前記同一
グループに区分した時の前記角度差の平均角度差を音源
の方向とし、前記角度差をパラメータとした3次元音効
果処理を行う再生音発生工程とを有している。
According to another aspect of the present invention, there is provided a sound reproducing method in which sound data is stored in an object storage unit, and a position where a sound source based on the sound data is arranged, and a head position and a head direction of a listener are designated. Place multiple sound sources and listeners in a three-dimensional space,
When a target sound source, which is a sound source to which the listener pays attention, is designated, a scene to be reproduced with additional information added to the target sound source is configured,
A scene configuration step, the sound data as the target sound source is regarded as one target group, and the relative position of the target sound source with the origin of the head of the listener as the origin is obtained, and the target sound source is removed from the scene constituent part. The relative position of the plurality of sound data excluding the target sound source is determined using the position of the listener's head of the sound data as the origin, and the front direction of the listener's head, the origin, and the target sound source are determined from the relative positions. A sound source management step of grouping a plurality of sound data excluding the sound source of interest present within a specific angle difference based on an angle difference from a direction in which each of the plurality of excluded sound data is connected by a straight line; For all the groups divided by the process, the sound data divided into the same group is obtained as the same group sound data from the object storage unit, and the sound divided into the same group is obtained. The data level is weighted in consideration of the relationship of the distance to the listener and the level is reduced as the distance to the listener is increased, and the weighted sound data divided into the same group is A reproduction sound generating step of performing a three-dimensional sound effect process using the average angle difference of the angle differences when the added sound data is divided into the same group as a sound source direction and using the angle difference as a parameter. .

【0014】上記の構成により、3次元仮想空間におけ
る音源の位置が聞手の頭の位置を原点とする座標系によ
って表される。上記座標系における複数の音源を、同一
の中心角を有する領域毎にグループ分けし、グループ分
けした音源を1つの音源として音データを参照して3次
元音効果処理がなされる。この際注目音源については1
つのグループとして処理をする。
With the above configuration, the position of the sound source in the three-dimensional virtual space is represented by a coordinate system whose origin is the position of the listener's head. A plurality of sound sources in the coordinate system are grouped into regions having the same central angle, and three-dimensional sound effect processing is performed by referring to sound data with the grouped sound sources as one sound source. At this time, 1
Process as one group.

【0015】[0015]

【発明の実施の形態】以下、本発明の好適な実施例につ
いて、図1ないし図10を参照しながら説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A preferred embodiment of the present invention will be described below with reference to FIGS.

【0016】《実施例1》図1は本発明の実施例1にお
ける音再生装置のブロック図である。図1において、オ
ブジェクト記憶部1の出力端はシーン構成部2と再生音
発生部4の各入力端に接続されている。シーン構成部2
の出力端は音源管理部3の入力端に接続されている。シ
ーン構成部2の他の入力端には外部入力信号2aが入力
される。音源管理部3の出力端は再生音発生部4の他の
入力端に接続されている。
Embodiment 1 FIG. 1 is a block diagram of a sound reproducing apparatus according to Embodiment 1 of the present invention. In FIG. 1, an output terminal of the object storage unit 1 is connected to each input terminal of the scene composition unit 2 and the reproduced sound generation unit 4. Scene composition part 2
Is connected to the input terminal of the sound source management unit 3. The external input signal 2a is input to the other input terminal of the scene configuration unit 2. An output terminal of the sound source management unit 3 is connected to another input terminal of the reproduced sound generation unit 4.

【0017】以下、図1ないし図6を参照しながらこの
音再生装置の動作を説明する。オブジェクト記憶部1
は、音データとして、PCMサンプル形式のデータとM
IDI形式(Musical Instrument Digital Interface fo
rmat)のデータを形式別に区分して記憶している。外部
入力信号2aにより、音データのファイル名と、この音
データに基づく音源を配置する3次元空間内の場所と、
聞手の頭の位置と頭の向きが指定される。シーン構成部
2は、外部入力信号2aによって指定された絶対座標系
に基づいて音データに基づく音源と聞手を配置し、再生
すべきシーンを構成する。音源管理部3は、シーン構成
部2により構成された再生シーンの音源の座標を、聞手
の頭の位置を原点0とし、Z軸の正方向を顔の正面の向
きとした新たな座標系に変換する。次に、変換後の座標
から、原点を中心とし、Z軸の正方向に対する縦方向の
角度と横方向の角度をそれぞれの音源について求め、そ
れぞれの角度から、音源をグループ分けする。再生音発
生部4では、グループ分けされたグループ毎に、一つの
グループにまとめられた全ての音源の音データに対し
て、聞手と音源との距離に反比例する重み付け値を掛け
る。重み付け値を掛けたすべての音データを加算した
後、3次元空間に音声を生成する3次元効果処理を行
い、処理結果を出力する。
The operation of the sound reproducing apparatus will be described below with reference to FIGS. Object storage unit 1
Is PCM sample format data and M as sound data.
IDI format (Musical Instrument Digital Interface fo
rmat) data is stored separately for each format. According to the external input signal 2a, a file name of sound data, a place in a three-dimensional space where a sound source based on the sound data is arranged,
The listener's head position and head orientation are specified. The scene composing unit 2 arranges a sound source and a listener based on sound data based on an absolute coordinate system specified by the external input signal 2a, and composes a scene to be reproduced. The sound source management unit 3 sets a new coordinate system in which the coordinates of the sound source of the reproduction scene composed by the scene composition unit 2 are set such that the origin of the head of the listener is 0 and the positive direction of the Z axis is the front of the face. Convert to Next, from the coordinates after conversion, the vertical angle and the horizontal angle with respect to the positive direction of the Z axis with respect to the origin are determined for each sound source, and the sound sources are grouped based on the respective angles. The reproduced sound generation unit 4 multiplies the sound data of all the sound sources put together in one group by a weight value that is inversely proportional to the distance between the listener and the sound source for each group. After adding all the sound data multiplied by the weight values, a three-dimensional effect process for generating a sound in a three-dimensional space is performed, and a processing result is output.

【0018】図2は、本発明の音再生装置で再生するシ
ーンの一例としての、聞手202が合唱団201の合唱
を遠く離れた位置から聴くシーンを示す側面図である。
同図において、この合唱団201は複数の音源から構成
されている。このシーンを再生する時の音再生装置の動
作を以下に説明する。オブジェクト記憶部1は、合唱団
201の団員全員の歌声や楽器など物体の発する音をモ
ノラルのPCMサンプルデータとして記憶するととも
に、MIDIデータとして記憶している。図3は、オブ
ジェクト記憶部1の音データの蓄積状態を示す図であ
る。音データを、PCM形式とMIDI形式でディレク
トリとして分けて、それぞれの形式に応じて蓄積してい
る。ユーザ入力である外部入力信号2aにより、合唱団
201を構成する全ての声の音データのファイル名と、
音データに基づく音源の位置と、聞手の頭の位置と、頭
の方向とが指定されると、シーン構成部2は、絶対座標
系においてこれらの音源と聞手を配置し、再生するシー
ンを構成する。
FIG. 2 is a side view showing, as an example of a scene reproduced by the sound reproducing apparatus of the present invention, a scene in which the listener 202 listens to the choir of the choir 201 from a position far away.
In this figure, this choir 201 is composed of a plurality of sound sources. The operation of the sound reproducing device when reproducing this scene will be described below. The object storage unit 1 stores sounds emitted by objects such as singing voices and musical instruments of all the members of the choir 201 as monaural PCM sample data and MIDI data. FIG. 3 is a diagram showing a storage state of sound data in the object storage unit 1. The sound data is divided into directories in the PCM format and the MIDI format, and stored according to each format. A file name of sound data of all voices constituting the choir 201 by an external input signal 2a which is a user input,
When the position of the sound source based on the sound data, the position of the head of the listener, and the direction of the head are specified, the scene forming unit 2 arranges the sound source and the listener in the absolute coordinate system, and reproduces the scene to be reproduced. Is configured.

【0019】次に、音源管理部3は、このようにしてシ
ーン構成部2により構成されたシーンの各音源の座標
を、聞手の頭の位置を原点0とし、Z軸の正方向を顔の
正面の向きとした座標系に変換する。図4の(a)は、
シーン構成時の座標系の図であり、図4の(b)は聞手
を中心にした座標系の図である。同図において、位置4
01はシーン構成時の座標系での聞手の配置を示し、位
置402はシーン構成時の座標系での音源の配置を示
す。位置403は座標変換後の聞手の配置を示し、位置
404は座標変換後の音源の配置を示す。次に、図4の
(b)の変換後の座標から、それぞれの音源について、
原点を中心とした縦方向と横方向の角度を求め、縦方向
に角度±α度、横方向に角度±β度の範囲に存在する音
源を一つのグループにまとめてグループ分けをする。こ
のようにして、配置された全ての音源がいくつかのグル
ープにグループ分けされる。
Next, the sound source management unit 3 sets the coordinates of each sound source of the scene composed by the scene composing unit 2 in such a manner that the position of the head of the listener is the origin 0 and the positive direction of the Z axis is the face. Is converted to a coordinate system with the front direction of. (A) of FIG.
FIG. 4 is a diagram of a coordinate system when a scene is composed, and FIG. 4B is a diagram of a coordinate system centered on a listener. In FIG.
01 indicates the arrangement of the listener in the coordinate system when the scene is composed, and the position 402 indicates the arrangement of the sound sources in the coordinate system when the scene is composed. A position 403 indicates the arrangement of the listener after the coordinate conversion, and a position 404 indicates the arrangement of the sound source after the coordinate conversion. Next, from the converted coordinates in FIG. 4B, for each sound source,
The angles in the vertical and horizontal directions with the origin at the center are obtained, and sound sources existing in the range of ± α degrees in the vertical direction and ± β degrees in the horizontal direction are grouped into one group. In this way, all the arranged sound sources are grouped into several groups.

【0020】次に、再生音発生部4は、グループ数、グ
ループID、グループを構成する音データ名、その音デ
ータの座標変換後の位置座標、及びグループ化処理時に
計算した原点を中心とした角度を示すデータを有するグ
ループ情報を音源管理部3から受け取る。再生音発生部
4は、受け取った音データ名を用いて、オブジェクト管
理部1より音データを取得する。また受け取った位置座
標データからそれぞれの音データと聞手との距離を求
め、距離に反比例する重み付け値を音データに掛け、同
じグループに属する重み付け値を掛けた各々の音データ
を加算する。次に、再生音発生部4は、受け取った原点
を中心とした縦方向及び横方向の角度データから1つの
グループを構成する各音源の原点を中心とした縦方向及
び横方向の角度の平均値を求める。加算結果に対し、こ
の平均値の角度の方向に音源があると仮定して3次元効
果処理を実行し、この演算結果を出力する。
Next, the reproduced sound generating section 4 centers on the number of groups, the group ID, the names of sound data constituting the groups, the position coordinates of the sound data after coordinate conversion, and the origin calculated at the time of grouping processing. Group information having data indicating an angle is received from the sound source management unit 3. The reproduced sound generation unit 4 acquires sound data from the object management unit 1 using the received sound data name. Further, the distance between each piece of sound data and the listener is obtained from the received position coordinate data, a weight value inversely proportional to the distance is multiplied to the sound data, and each piece of sound data multiplied by a weight value belonging to the same group is added. Next, the reproduced sound generation unit 4 calculates the average value of the vertical and horizontal angles about the origin of each sound source constituting one group from the received vertical and horizontal angle data about the origin. Ask for. The result of the addition is subjected to a three-dimensional effect process on the assumption that a sound source exists in the direction of the angle of the average value, and the result of the operation is output.

【0021】図5は、一つのグループの音データを処理
する再生音発生部4の構成例を示すブロック図である。
同図において、再生音発生部4は複数の重みづけ演算部
501、重み付け演算部501の出力から平均値を求め
る平均値演算部502、重み付け演算部501の出力と
平均値演算部502の出力が入力される3次元音効果処
理部503を有する。重みづけ演算部501は、一つの
グループを構成する全ての音データをオブジェクト記憶
部1から取得し、音源管理部3から一つのグループを構
成する全ての音データに基づく音源の座標を取得する。
この座標から、聞手と全ての音源との間の距離を演算
し、各音データに対し距離に反比例する重みづけ演算を
し、これら演算結果の総和を出力する。平均値演算部5
02は、音源管理部3より取得した聞手の正面方向を中
心とした音源の縦方向の角度と横方向の角度を用いて、
一つのグループを構成する全ての音源の縦方向の角度と
横方向の角度の平均値をそれぞれ演算し、演算結果を出
力する。3次元音効果処理部503は、重みづけ演算手
段501より取得した演算結果に対し平均値演算部50
2から取得した縦方向と横方向の角度で定まる方向に音
源があると設定した3次元音効果処理を行い、処理結果
を出力する。
FIG. 5 is a block diagram showing an example of the configuration of the reproduced sound generator 4 for processing sound data of one group.
In the figure, a reproduced sound generation unit 4 includes a plurality of weighting calculation units 501, an average value calculation unit 502 that calculates an average value from the outputs of the weighting calculation units 501, and an output of the weighting calculation unit 501 and an output of the average value calculation unit 502. It has a three-dimensional sound effect processing unit 503 to be input. The weighting calculation unit 501 obtains all sound data forming one group from the object storage unit 1 and obtains coordinates of sound sources based on all sound data forming one group from the sound source management unit 3.
From the coordinates, the distance between the listener and all sound sources is calculated, a weighting calculation is performed on each sound data in inverse proportion to the distance, and the sum of the calculation results is output. Average value calculation unit 5
02 uses the vertical angle and the horizontal angle of the sound source centered on the front direction of the listener acquired from the sound source management unit 3,
The average of the vertical angle and the horizontal angle of all the sound sources constituting one group is calculated, and the calculation result is output. The three-dimensional sound effect processing unit 503 applies the average value calculation unit 50 to the calculation result obtained from the weight calculation unit 501.
The three-dimensional sound effect processing in which the sound source is set in the direction determined by the vertical and horizontal angles obtained from Step 2 is performed, and the processing result is output.

【0022】図6は、聞手202の近辺に複数の音源群
210〜215が存在するシーンの例を示す平面図であ
る。同図において、音源群210〜215は、同一角度
で分割された領域内に配置されている。このシーンにお
ける音再生時の音再生装置の動作を図1及び図6を参照
して説明する。オブジェクト記憶部1及びシーン構成部
2は、聞手202が遠方に位置する合唱団201の合唱
を聴いているシーンの場合と同様の動作をする。音源管
理部3は、シーン構成部2により構成されたシーンの音
データによる音源の座標を、聞手202の頭の位置を原
点とし、Z軸の正方向を聞手202の顔の正面の向きと
した座標系に変換する。
FIG. 6 is a plan view showing an example of a scene in which a plurality of sound source groups 210 to 215 exist near the listener 202. In the figure, sound source groups 210 to 215 are arranged in regions divided at the same angle. The operation of the sound reproducing device during sound reproduction in this scene will be described with reference to FIGS. The object storage unit 1 and the scene composition unit 2 perform the same operation as in the case of a scene in which the listener 202 is listening to the choir of the choir 201 located far away. The sound source management unit 3 determines the coordinates of the sound source based on the sound data of the scene composed by the scene composition unit 2 with the position of the head of the listener 202 as the origin and the positive direction of the Z axis as the front direction of the face of the listener 202. Is converted to a coordinate system.

【0023】次に、変換後の座標から、それぞれの音源
について原点を中心とし、Z軸の正方向に対する縦方向
と横方向の角度を求め、この角度から、音データをグル
ープに分ける。音源管理部3においては、図6に示すよ
うに、Z軸から横方向に±α度の2本の線で区切られた
領域にある音源群212と213をグループ1とする。
また横方向に−(α+α1)度と−α度の2本の線で区
切られた領域にある音源211をグループ2とする。横
方向にα度と(α+α1)度の2本の線で区切られた領
域にある音源213をグループ3とする。横方向に−
(α+α1+α2)度と−(α+α1)度の2本の線で
区切られた領域にある音源210をグループ4とする。
横方向に(α+α1+α2)度と(α+α1)度の2本
の線で区切られた領域にある音源214をグループ5と
する。グループ分けした区分を、聞手から放射線状に伸
ばした点線により示している。
Next, from the converted coordinates, the vertical and horizontal angles with respect to the positive direction of the Z-axis are determined for each sound source with respect to the origin, and the sound data is divided into groups based on the angles. In the sound source management unit 3, as shown in FIG. 6, the sound source groups 212 and 213 in an area separated by two lines of ± α degrees in the horizontal direction from the Z axis are set as a group 1.
In addition, the sound source 211 in an area divided by two lines of − (α + α1) degrees and −α degrees in the horizontal direction is set as a group 2. The sound source 213 in an area divided by two lines of α degrees and (α + α1) degrees in the horizontal direction is set as group 3. Laterally-
The sound source 210 in an area separated by two lines of (α + α1 + α2) degrees and − (α + α1) degrees is set as a group 4.
The sound source 214 in a region separated by two lines (α + α1 + α2) degrees and (α + α1) degrees in the horizontal direction is group 5. The grouped sections are indicated by dotted lines extending radially from the listener.

【0024】音源管理部3は、グループ数としての5、
グループIDとしての1〜5、グループを構成する音デ
ータ名、その音データの座標変換後の位置座標、及びグ
ループ化処理時に計算した原点を中心とした角度、の各
データをグループ情報として再生音発生部4に出力す
る。再生音発生部4は、グループ1〜グループ5に対
し、聞手が遠方に位置する合唱を聴いているシーンの場
合と同様の演算をそれぞれ行い、演算結果を加算した結
果を出力する。なお、本実施例では、シーン構成部3で
外部入力信号2aにより音データに基づく音源と聞手の
配置がなされたが、シーンを構成する対象物とその対象
物の3次元空間内の位置や動きなどのシーン情報を記述
したシナリオデータを入力してもよく、前記と同様のシ
ーンを構成して同様に利用できる。
The sound source management unit 3 has five groups,
Each of the group IDs 1 to 5, the names of the sound data constituting the group, the position coordinates of the sound data after the coordinate conversion, and the angle about the origin calculated at the time of the grouping process are used as group information to reproduce sound. Output to the generator 4. The reproduction sound generation unit 4 performs the same calculation as in the case of the scene where the listener is listening to the chorus in which the listener is located far from each of the groups 1 to 5, and outputs a result obtained by adding the calculation results. In the present embodiment, the sound source and the listener are arranged based on the sound data by the external input signal 2a in the scene composing unit 3. However, the object constituting the scene and the position of the object in the three-dimensional space are determined. Scenario data describing scene information such as movement may be input, and the same scene as described above can be configured and used.

【0025】《実施例2》図7は本発明の実施例2にお
ける音再生装置のブロック図である。図7において、オ
ブジェクト記憶部1とシーン構成部2は、実施例1のも
のと同様の構成を有し同様の動作をする。最大音源数決
定部5は、起動時に再生音発生部4が持つ3次元音効果
処理と同様の処理を行い、処理の量を計測する。最大音
源数決定部5は、外部から最大処理量信号5Aで入力さ
れる音源演算に関する最大処理量を、計測した処理量で
除算して、その結果から最大音源数を決定する。音源管
理部3は、人間の聴覚特性を表す情報に基づく横方向の
角度と縦方向の角度をパラメータとしたグループ化情報
を持つ。人間の聴覚特性では、音源の判別能力は、前方
で最も高く、左右の側方に行くに従って低下する。音源
管理部3では、最大音源数決定部5によって決定された
最大音源数が、グループ数以下になるように、グループ
分け情報に準じてグループ分けをする。図6に示すよう
に、聞手の近辺に音源が複数存在するシーンにおいて、
全ての音源は同一平面上に配置されているものとする。
Embodiment 2 FIG. 7 is a block diagram of a sound reproducing apparatus according to Embodiment 2 of the present invention. In FIG. 7, an object storage unit 1 and a scene configuration unit 2 have the same configuration as that of the first embodiment and perform the same operation. The maximum number of sound sources determination unit 5 performs the same processing as the three-dimensional sound effect processing of the reproduced sound generation unit 4 at the time of startup, and measures the amount of processing. The maximum number of sound sources determination unit 5 divides the maximum processing amount related to the sound source operation input from the outside by the maximum processing amount signal 5A by the measured processing amount, and determines the maximum number of sound sources from the result. The sound source management unit 3 has grouping information using a horizontal angle and a vertical angle as parameters based on information representing human auditory characteristics. In human auditory characteristics, the ability to discriminate a sound source is highest in the front, and decreases toward the left and right sides. The sound source management unit 3 performs grouping according to the grouping information so that the maximum number of sound sources determined by the maximum number of sound source determination unit 5 is equal to or less than the number of groups. As shown in FIG. 6, in a scene where a plurality of sound sources exist near the listener,
It is assumed that all sound sources are arranged on the same plane.

【0026】このシーンの再生時の音再生装置の動作を
以下に説明する。オブジェクト記憶部1とシーン構成部
2は、実施例1と同様の動作をする。今、最大音源数決
定部5が、最大音源数を3と決定したとする。図8は、
音源管理部3が持つ人間の聴覚特性に基づくグループ分
け情報におけるグループ分け範囲の領域を示す図であ
る。図9は、音源管理部3が持つ人間の聴覚に基づくグ
ループ分け情報を示す図である。図9において、最大音
源数が5の場合は、領域1、領域2、領域3、領域4及
び領域5にそれぞれ含まれる複数の音源がそれぞれ一つ
の音源のグループとしてまとめられる。人間の聴覚の方
向判別能力は、左右の側方へ行くに従って低下するの
で、領域2と4及び領域3と5の音源をそれぞれ1つの
グループにまとめても、音再生の効果に与える影響は小
さい。最大音源数が3の場合は、領域4と領域2を合わ
せた領域、領域1及び領域3と領域5を合わせた領域に
含まれるそれぞれの音源をそれぞれ一つの音源としてグ
ループ分けすることを表している。音源管理部3は、原
点を中心とし、Z軸の正方向に対する縦方向の角度と横
方向の角度を求める。次に、音源管理部3は、人間の聴
覚情報に基づくグループ分け情報を参照し、図9に示す
ように最大音源数が3である場合のグループ分け領域を
決定する。すなわち(領域4+領域2)、領域1、又は
(領域3+領域5)に含まれる音源をそれぞれ一つの音
源となるようにグループ分けすることを決定する。そし
てグループ情報として、グループ数3、グループID1
〜3、グループを構成する音データ名、とその音データ
の座標変換後の位置座標、及びグループ化処理時に計算
した原点を中心とした角度、の各データを再生音発生部
4に送る。再生音発生部4は、グループ1ないしグルー
プ3に対し、実施例1と同様の演算を行い、これらを加
算した結果を出力する。
The operation of the sound reproducing apparatus during reproduction of this scene will be described below. The object storage unit 1 and the scene configuration unit 2 operate in the same manner as in the first embodiment. It is assumed that the maximum number of sound sources determining unit 5 has determined the maximum number of sound sources to be three. FIG.
FIG. 6 is a diagram illustrating a region of a grouping range in grouping information based on human auditory characteristics of a sound source management unit 3. FIG. 9 is a diagram showing grouping information based on human hearing that the sound source management unit 3 has. In FIG. 9, when the maximum number of sound sources is 5, a plurality of sound sources included in the region 1, the region 2, the region 3, the region 4, and the region 5 are grouped as one sound source group. Since the ability to discriminate the direction of human hearing decreases as one goes to the left or right, even if the sound sources in regions 2 and 4 and regions 3 and 5 are grouped into one group each, the effect on the sound reproduction effect is small. . When the maximum number of sound sources is 3, it indicates that the sound sources included in the region where the region 4 and the region 2 are combined and the region 1 and the region where the region 3 and the region 5 are combined are grouped as one sound source. I have. The sound source management unit 3 obtains a vertical angle and a horizontal angle with respect to the positive direction of the Z axis with the origin at the center. Next, the sound source management unit 3 refers to the grouping information based on the human auditory information, and determines a grouping region when the maximum number of sound sources is 3, as shown in FIG. That is, it is determined that the sound sources included in (region 4 + region 2), region 1 or (region 3 + region 5) are grouped so as to be one sound source. Then, as the group information, the number of groups is 3, and the group ID is 1.
To the reproduction sound generation unit 4, the name of the sound data forming the group, the position coordinates of the sound data after the coordinate conversion, and the angle about the origin calculated at the time of the grouping process. The reproduction sound generation unit 4 performs the same calculation as in the first embodiment for the groups 1 to 3, and outputs a result obtained by adding them.

【0027】《実施例3》次に前記実施例1又は2の動
作例について図10を参照して説明する。オブジェクト
記憶部1、再生音発生部4は、実施例1と同様の動作を
する。外部入力信号2aにより、音データのファイル名
と、この音データに基づく音源を配置する場所と、聞手
の頭の位置と、頭の向きが指定される。シーン構成部2
は、絶対座標系に基づいて音源と聞手を配置し、注目す
る音データのファイル名が指定されると、ファイル名と
その音データの音源の絶対座標系での位置のデータを出
力するとともに、注目音源として扱うフラグをシーンの
構成情報として出力し、再生するシーンを構成する。注
目音源とは特に聞手の注意をひきつける音源で、例え
ば、図10において突然飛来するすずめの鳴き声であ
る。
Third Embodiment Next, an operation example of the first or second embodiment will be described with reference to FIG. The object storage unit 1 and the reproduced sound generation unit 4 operate in the same manner as in the first embodiment. The external input signal 2a specifies the file name of the sound data, the location of the sound source based on the sound data, the position of the listener's head, and the direction of the head. Scene composition part 2
Arranges the sound source and the listener based on the absolute coordinate system, and when the file name of the sound data of interest is specified, outputs the file name and the data of the position of the sound data in the absolute coordinate system of the sound source. Then, a flag to be handled as a target sound source is output as scene configuration information, and a scene to be reproduced is configured. The attention sound source is a sound source that particularly draws the attention of the listener, and is, for example, a sparrow crowing suddenly coming in FIG.

【0028】音源管理部3は、シーン構成部2により構
成されたシーンの音データに基づく音源の座標を、聞手
の頭の位置を原点とし、Z軸正方向を顔の正面の向きと
した座標系に変換する。次に、変換後の座標から、それ
ぞれの音源の原点を中心とした縦方向と横方向の角度を
求め、この角度から、シーン構成部2より指定された注
目音源を除く音源をグループに分ける。そして、シーン
構成部2により指定された注目音源を一つのグループと
みなすグループ情報を出力する。
The sound source management unit 3 sets the coordinates of the sound source based on the sound data of the scene composed by the scene composing unit 2 with the position of the head of the listener as the origin and the positive direction of the Z axis as the front of the face. Convert to coordinate system. Next, the vertical and horizontal angles around the origin of each sound source are obtained from the coordinates after the conversion, and the sound sources excluding the sound source of interest designated by the scene composition unit 2 are divided into groups based on the angles. Then, it outputs group information that regards the sound source of interest designated by the scene composition unit 2 as one group.

【0029】図10は、聞手202が遠くに位置する合
唱団201の合唱を聴いている時、すずめ203が鳴き
ながら飛んでくるシーンを示す側面図である。前記のよ
うに、合唱団201は複数の音源から構成されている。
このシーンの再生時の音再生装置の動作を図1を参照し
て以下に説明する。オブジェクト記憶部1は、実施例1
と同じ動作をする。外部入力信号2aにより、合唱団を
構成する全ての声の音データのファイル名、音データに
基づく音源の位置、及び聞手の頭の位置と頭の方向が指
定されると、シーン構成部2は、絶対座標系に基づいて
これらの音データに基づく音源と聞手を配置する。次に
すずめ203の声の音データのファイル名、音データに
基づく音源の位置と位置の変化のデータ及び、この音デ
ータを注目音源とするフラグが入力され、再生するシー
ンを構成する。
FIG. 10 is a side view showing a scene where a sparrow 203 flies while singing when a listener 202 is listening to a choir of a choir 201 located far away. As described above, the choir 201 is composed of a plurality of sound sources.
The operation of the sound reproducing device during the reproduction of this scene will be described below with reference to FIG. The object storage unit 1 according to the first embodiment
Works the same as. When the file names of sound data of all the voices constituting the choir, the positions of sound sources based on the sound data, and the position and direction of the head of the listener are designated by the external input signal 2a, the scene forming unit 2 Arranges a sound source and a listener based on these sound data based on an absolute coordinate system. Next, the file name of the sound data of the voice of the sparrow 203, the data of the position of the sound source based on the sound data, and the change in the position, and a flag that uses this sound data as the sound source of interest are input to constitute a scene to be reproduced.

【0030】次に、音源管理部3は、シーン構成部2に
より構成されたシーンの音源の座標を、聞手の頭の位置
を原点としZ軸の正方向を顔の正面の向きとした座標系
に変換する。次に、変換後の座標から、それぞれの音源
の原点を中心としたZ軸正方向に対する縦方向と横方向
の角度を求め、シーン構成部2により注目音源として指
定されたすずめ203の鳴き声以外の音データの音源に
ついて、原点を中心に縦方向に±α度、横方向に±β度
の範囲に存在する音源を一つのグループにまとめる。
今、注目音源以外の全ての音源が一つのグループにグル
ープ分けされたとする。再生音発生部4は、グループ数
として2、グループIDとして1〜2、グループを構成
する音データ名、その音データの座標変換後の位置座
標、及びグループ化処理時に計算した原点を中心とした
Z軸の正方向に対する角度のデータをグループ情報とし
て、音源管理部3から受け取る。再生音発生部4は、オ
ブジェクト管理部1より音データを取得し、注目音源の
音データ以外に対して、それぞれの音データに基づく音
源と聞手との距離を求め、各音データに距離に反比例す
る重み付け値を掛け、重み付け値を掛けた各音データを
加算する。
Next, the sound source management unit 3 sets the coordinates of the sound source of the scene composed by the scene composing unit 2 with the origin of the position of the head of the listener and the positive direction of the Z axis as the front of the face. Convert to system. Next, the vertical and horizontal angles with respect to the positive direction of the Z axis centered on the origin of each sound source are obtained from the coordinates after the conversion, and the angles other than the bark of the sparrow 203 designated as the sound source of interest by the scene composition unit 2 are obtained. For sound sources of sound data, sound sources existing in a range of ± α degrees in the vertical direction and ± β degrees in the horizontal direction around the origin are grouped into one group.
Now, suppose that all the sound sources other than the sound source of interest are grouped into one group. The reproduction sound generation unit 4 is centered on 2 as the number of groups, 1-2 as the group ID, sound data names constituting the group, position coordinates after the coordinate conversion of the sound data, and the origin calculated at the time of the grouping process. The data of the angle with respect to the positive direction of the Z axis is received from the sound source management unit 3 as group information. The reproduction sound generation unit 4 obtains sound data from the object management unit 1, obtains a distance between a sound source and a listener based on each sound data other than the sound data of the sound source of interest, and adds a distance to each sound data. The weights are multiplied by inversely proportional weights, and the sound data multiplied by the weights are added.

【0031】次に、再生音発生部4は、注目音源以外の
音データに基づく音源の原点を中心としたZ軸の正方向
に対する角度の平均値を求め、加算結果に対し、この平
均値方向に音源があると仮定して3次元効果処理を実行
する。同様に、注目音源とされたすずめ203の声の音
データに対しても、すずめ203と聞手202との距離
を求め、各音データに距離に反比例する重み付け値を掛
け、重みを付け値掛けた音データに対し、原点を中心と
した角度における3次元効果処理を実行する。最後に、
この演算結果と注目音源以外の音データに関して行った
演算結果を加算し、加算結果を出力する。
Next, the reproduced sound generation section 4 calculates an average value of angles with respect to the positive direction of the Z axis centered on the origin of the sound source based on sound data other than the sound source of interest, 3D effect processing is performed on the assumption that there is a sound source. Similarly, with respect to the sound data of the voice of the sparrow 203 as the sound source of interest, the distance between the sparrow 203 and the listener 202 is obtained, each sound data is multiplied by a weight value inversely proportional to the distance, and the weight is multiplied. A three-dimensional effect process is performed on the sound data at an angle about the origin. Finally,
This calculation result is added to the calculation result performed for sound data other than the sound source of interest, and the addition result is output.

【0032】[0032]

【発明の効果】以上、実施例について詳細に説明したと
ころから明らかなように、本発明は次の効果を有する。
3次元空間に配置された音源と聞手の位置から見た音源
の方向を求めることにより複数の音源をグループ分けす
る。グループ分けをした音源に対し、3次元音効果処理
をすることにより、3次元音効果処理における処理装置
の負荷を減らす事が出来る。
As apparent from the detailed description of the embodiments, the present invention has the following effects.
A plurality of sound sources are grouped by determining the directions of the sound sources arranged in the three-dimensional space and the sound source viewed from the position of the listener. By performing three-dimensional sound effect processing on the grouped sound sources, the load on the processing device in the three-dimensional sound effect processing can be reduced.

【0033】また、あらかじめシステムで再生可能な音
源数の最大値を設定し、この最大値に収まるよう、複数
の音源を、聞手から見た音源の方向に関する人間の聴覚
特性に基づく情報を利用してグループ分けし、各グルー
プ毎に3次元音効果処理をすることにより、様々なシス
テムにおいて3次元仮想空間の音再生が限られた処理量
で実現出来る。
In addition, a maximum value of the number of sound sources that can be reproduced by the system is set in advance, and a plurality of sound sources are used so as to fall within the maximum value by using information based on human auditory characteristics regarding the direction of the sound source viewed from the listener. By performing the three-dimensional sound effect processing for each group, sound reproduction in a three-dimensional virtual space can be realized with a limited processing amount in various systems.

【0034】また、配置する複数の音源に対し特定の注
目音源を設定し、3次元空間に配置された音源と聞手の
位置から見た音源の方向を求め、これを利用して複数の
音源をグループ分けする時に、注目音源は単独で一つの
グループとする。これにより、3次元音効果を特に明確
にしたい注目音源に関してもその効果を損なうことな
く、3次元仮想空間の音再生が出来る。
Further, a specific target sound source is set for a plurality of sound sources to be arranged, and the directions of the sound source arranged in the three-dimensional space and the sound source viewed from the position of the listener are determined. Are grouped into one group. This makes it possible to reproduce the sound in the three-dimensional virtual space without deteriorating the effect of the attention sound source for which the three-dimensional sound effect is to be particularly clarified.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例1における音再生装置の構成図FIG. 1 is a configuration diagram of a sound reproducing device according to a first embodiment of the present invention.

【図2】本発明の実施例1における聞手が合唱を遠くか
ら聴くシーンを示す側面図
FIG. 2 is a side view showing a scene in which a listener listens to chorus from a distance in Embodiment 1 of the present invention.

【図3】本発明の実施例1におけるオブジェクト記憶部
における音データの蓄積状態を示す図
FIG. 3 is a diagram showing a storage state of sound data in an object storage unit according to the first embodiment of the present invention.

【図4】(a)は本発明の実施例1におけるシーン構成
時の座標系を示す (b)は聞手を中心にした座標系を示す
FIG. 4A shows a coordinate system when a scene is constructed in the first embodiment of the present invention. FIG. 4B shows a coordinate system centered on a listener.

【図5】本発明の実施例1における一つのグループの音
データを処理する再生音発生部の構成を示すブロック図
FIG. 5 is a block diagram illustrating a configuration of a reproduced sound generation unit that processes sound data of one group according to the first embodiment of the present invention.

【図6】本発明の実施例1における、聞手の近辺に音源
が複数存在するシーンの平面図
FIG. 6 is a plan view of a scene in which a plurality of sound sources exist near a listener according to the first embodiment of the present invention.

【図7】本発明の実施例2における音再生装置の構成を
示すブロック図
FIG. 7 is a block diagram illustrating a configuration of a sound reproducing device according to a second embodiment of the present invention.

【図8】音源管理部が持つ人間の聴覚に基づくグループ
化情報におけるグループ化範囲の領域を示す図
FIG. 8 is a diagram showing an area of a grouping range in grouping information based on human hearing held by a sound source management unit;

【図9】本発明の実施例2における音源管理部が持つ人
間の聴覚に基づくグループ化情報を示す図
FIG. 9 is a diagram showing grouping information based on human hearing and held by a sound source management unit according to the second embodiment of the present invention.

【図10】本発明の実施例1及び2における、聞手が合
唱を遠くから聴いている最中に、すずめが鳴きながら飛
んでくるシーンを示す側面図
FIG. 10 is a side view showing a scene in which a sparrow sings and flies while a listener is listening to chorus from a distance in Examples 1 and 2 of the present invention.

【符号の説明】[Explanation of symbols]

1 オブジェクト記憶部 2 シーン構成部 3 音源管理部 4 再生音発生部 5 最大音源数決定部 201 合唱団 202 聞手 203 鳴きながら飛んでいるすずめ 401 シーン構成時の座標系での聞手の配置 402 シーン構成時の座標系での音データの配置 403 座標変換後の聞手の配置 404 座標変換後の音データの配置 501 重みづけ演算手段 502 平均値演算手段 503 3次元音効果処理手段 REFERENCE SIGNS LIST 1 object storage unit 2 scene configuration unit 3 sound source management unit 4 reproduced sound generation unit 5 maximum number of sound sources determination unit 201 choir 202 listeners 203 sparrows flying while screaming 401 arrangement of listeners in coordinate system in scene configuration 402 Arrangement of sound data in the coordinate system at the time of scene composition 403 Arrangement of listeners after coordinate conversion 404 Arrangement of sound data after coordinate conversion 501 Weight calculation means 502 Average calculation means 503 Three-dimensional sound effect processing means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 白井 豊 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5D062 CC13  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Yutaka Shirai 1006 Kazuma Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. F-term (reference) 5D062 CC13

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 複数の音源をそれぞれ表す複数の音デー
タを記憶したオブジェクト記憶部と、 前記複数の音データに基づく音源を配置する位置と聞手
の頭の位置と頭の向きとが指定されると、3次元空間内
に複数の音データに基づく音源と聞手を配置して音声を
再生するシーンを構成するシーン構成部と、 前記シーン構成部から、前記音データに基づく音源を配
置する位置と前記聞手の頭の位置と頭の向きとを示すデ
ータを取得し、前記聞手の頭の位置を原点として前記複
数の音データに基づく音源の相対位置を求め、前記相対
位置より、前記聞手の頭の正面方向と、前記原点と前記
複数の音データに基づく音源とをそれぞれ直線でつない
だ方向との角度差を基準に、特定の角度差内に存在する
前記複数の音データに基づく音源を一つのグループとす
るグループ分けをする音源管理部と、 前記音源管理部により区分された全てのグループに対
し、前記音源管理部により同一のグループに区分された
音データを前記オブジェクト記憶部より同一グループ音
データとして取得し、前記同一グループ音データのレベ
ルに、前記聞手と音源との距離が遠い程レベルを下げる
前記聞手と音源との距離の関係を考慮した重みづけを
し、前記同一のグループに区分され、かつ、前記重みづ
けをなされた音データを加算した音データに前記同一グ
ループに区分した時の前記角度差の平均の角度差を音源
の方向とし、前記角度差をパラメータとした3次元音効
果処理を行う再生音発生部と、 を具備する音再生装置。
An object storage unit storing a plurality of sound data respectively representing a plurality of sound sources, a position at which a sound source based on the plurality of sound data is arranged, a head position of a listener, and a head direction are designated. Then, a sound source based on a plurality of sound data and a listener are arranged in a three-dimensional space to constitute a scene for reproducing a sound, and a sound source based on the sound data is arranged from the scene forming unit. Obtain data indicating the position and the head position and head orientation of the listener, determine the relative position of the sound source based on the plurality of sound data with the head position of the listener as the origin, from the relative position, Based on the angle difference between the front direction of the listener's head and the direction in which the origin and the sound source based on the plurality of sound data are each connected by a straight line, the plurality of sound data existing within a specific angle difference. Sound source based on A sound source management unit that performs grouping as a group; and, for all groups divided by the sound source management unit, sound data divided into the same group by the sound source management unit. And weighting the level of the same group sound data, taking into account the relationship between the distance between the listener and the sound source, which lowers the level as the distance between the listener and the sound source decreases, and the same group Three-dimensional sound data obtained by adding the divided and weighted sound data to the sound data, the average angle difference of the angle differences when the sound data is divided into the same group is set as the direction of the sound source, and the angle difference is used as a parameter. A sound reproduction device comprising: a reproduction sound generation unit that performs a sound effect process.
【請求項2】 3次元音効果処理における処理装置の負
荷を計測し、前記3次元音効果処理の負荷の計測値と入
力された最大負荷値から、再生するシステムのリアルタ
イムで処理可能な最大音源数を決定する最大音源数決定
部を更に備え、前記音源管理部は、人間の聴覚特性に基
づいてあらかじめ定められたグループ分け情報を有し、
3次元空間内に配置する音源を前記最大音源数決定部よ
り得られた前記最大音源数以内の数になるようにグルー
プ分けをする請求項1記載の音再生装置。
2. A maximum sound source capable of real-time processing of a system for reproducing by measuring a load of a processing device in the three-dimensional sound effect processing and obtaining a measured value of the load of the three-dimensional sound effect processing and an input maximum load value. The sound source management unit further includes a maximum sound source number determination unit for determining the number, the sound source management unit has predetermined grouping information based on human auditory characteristics,
The sound reproducing device according to claim 1, wherein the sound sources arranged in the three-dimensional space are grouped so that the number of sound sources is within the maximum number of sound sources obtained by the maximum number of sound sources determining unit.
【請求項3】 音源を表す音データを記憶したオブジェ
クト記憶部と、 音データに基づく音源を配置する位置と聞手の頭の位置
と頭の向きとが指定されると、3次元空間内に複数の音
データに基づく音源と聞手を配置し、聞手が注目する音
データである注目音源が指定されたとき前記注目音源に
別情報を付けて再生するシーンを構成するシーン構成部
と、 前記注目音源を表す音データを一つの注目グループと
し、前記聞手の頭の位置を原点とした前記注目音源の相
対位置を求め、前記シーン構成部から前記注目音源を除
いた他の音データに関して、前記聞き手の頭の位置を原
点として前記注目音源を除いた複数の音データに基づく
音源の相対位置を求め、前記相対位置から、前記聞手の
頭の正面方向と、前記原点と前記注目音源を除いた複数
の音源をそれぞれ直線でつないだ方向との角度差を基準
に特定の角度差内に存在する前記注目音源を除いた複数
の音源をグループ分けする音源管理部と、 前記音源管理部により区分された全ての音源のグループ
に対し、同一のグループに区分された音源の音データを
前記オブジェクト記憶部より同一グループ音データとし
て取得し、前記音源管理部により同一のグループに区分
された音データのレベルに、前記聞手との距離が遠い程
レベルを下げる前記聞手との距離の関係を考慮した重み
づけをし、前記同一のグループに区分されて重みづけを
された音データを加算した第2の音データに前記同一グ
ループに区分した時の前記角度差の平均角度差を音源の
方向とし、前記角度差をパラメータとした3次元音効果
処理を行う再生音発生部と、 を具備する音再生装置。
3. An object storage unit that stores sound data representing a sound source, and a position where a sound source based on the sound data is located, and a head position and a head direction of a listener are designated, the object storage unit stores the sound data in a three-dimensional space. A sound source and a listener based on a plurality of sound data are arranged, and a scene configuration unit that configures a scene to be reproduced with additional information added to the sound source of interest when a target sound source that is sound data to which the listener focuses is specified, The sound data representing the target sound source is regarded as one target group, and the relative position of the target sound source with the origin of the listener's head as the origin is obtained. The relative position of the sound source based on a plurality of sound data excluding the sound source of interest is determined using the position of the head of the listener as the origin, and from the relative position, the front direction of the head of the listener, the origin, and the sound source of interest Multiple excluding A sound source management unit that groups a plurality of sound sources except for the sound source of interest existing within a specific angle difference based on an angle difference from a direction in which each sound source is connected by a straight line, and all the sound sources divided by the sound source management unit For the group of sound sources, sound data of sound sources divided into the same group is obtained as the same group sound data from the object storage unit, and the sound data is divided into the same group by the sound source management unit. A second sound obtained by weighting in consideration of the relationship of the distance to the listener and lowering the level as the distance to the listener increases, and adding the weighted sound data divided into the same group A reproduced sound generation unit that performs a three-dimensional sound effect process using the average angle difference of the angle differences when the data is divided into the same group as a sound source direction and the angle difference as a parameter; A sound reproducing device provided.
【請求項4】 複数の音源をそれぞれ表す複数の音デー
タをオブジェクト記憶部に記憶させる工程と、 前記複数の音データに基づく音源を配置する位置と聞手
の頭の位置と頭の向きとを指定することにより、3次元
空間内に複数の音データに基づく音源と聞手を配置して
音声を再生するシーンを構成するシーン構成工程と、 前記シーン構成工程で得た前記音データに基づく音源を
配置する位置と前記聞手の頭の位置と頭の向きとを示す
データから、前記聞手の頭の位置を原点として前記複数
の音データに基づく音源の相対位置を求め、前記相対位
置より、前記聞手の頭の正面方向と、前記原点と前記複
数の音データに基づく音源とをそれぞれ直線でつないだ
方向との角度差を基準に、特定の角度差内に存在する前
記複数の音データに基づく音源を一つのグループとする
グループ分けをする音源管理工程と、 前記音源管理工程において区分された全てのグループに
対し、前記音源管理工程により同一のグループに区分さ
れた音データを前記オブジェクト記憶部より同一グルー
プ音データとして取得し、前記同一グループ音データの
レベルに、前記聞手と音源との距離が遠い程レベルを下
げる前記聞手と音源との距離の関係を考慮した重みづけ
をし、前記同一のグループに区分され、かつ、前記重み
づけをなされた音データを加算した音データに前記同一
グループに区分した時の前記角度差の平均の角度差を音
源の方向とし、前記角度差をパラメータとした3次元音
効果処理を行う再生音発生工程と、 を具備する音再生方法。
4. A step of storing a plurality of sound data respectively representing a plurality of sound sources in an object storage unit; and determining a position of a sound source based on the plurality of sound data, a head position of a listener, and a head direction. A scene composition step of arranging a sound source and a listener based on a plurality of sound data in a three-dimensional space to reproduce a sound by specifying the sound source; and a sound source based on the sound data obtained in the scene composition step. From the data indicating the position of the listener and the position of the head of the listener and the direction of the head, the relative position of the sound source based on the plurality of sound data is determined with the position of the head of the listener as the origin, and the relative position is calculated. Based on the angle difference between the front direction of the listener's head and the direction in which the origin and the sound source based on the plurality of sound data are connected with straight lines, respectively, based on the angle difference between the plurality of sounds existing within a specific angle difference. Sound based on data A sound source management step of performing grouping into one group, and for all the groups divided in the sound source management step, the sound data divided into the same group by the sound source management step is the same from the object storage unit. Acquisition as group sound data, weighting the level of the same group sound data, taking into account the relationship between the distance between the listener and the sound source, which lowers the level as the distance between the listener and the sound source increases, and The sound data obtained by adding the weighted sound data to the sound data is divided into the same group, and the average angle difference of the angle differences when the sound data is divided into the same group is defined as the direction of the sound source. A reproduced sound generating step of performing the three-dimensional sound effect processing described above.
【請求項5】 3次元音効果処理における処理装置の負
荷を計測する工程と、前記3次元音効果処理の負荷の計
測値と入力された最大負荷値から、再生するシステムの
リアルタイムで処理可能な最大音源数を決定する最大音
源数決定工程とを更に備え、且つ、 前記音源管理工程は、人間の聴覚特性に基づいてあらか
じめ定められたグループ分け情報を有し、3次元空間内
に配置する音源を前記最大音源数決定部より得られた前
記最大音源数以内の数になるようにグループ分けをする
工程と、 を更に具備する、 請求項1記載の音再生方法。
5. A step of measuring the load of the processing device in the three-dimensional sound effect processing, and a system for reproducing the data in real time from the measured load value of the three-dimensional sound effect processing and the input maximum load value. A maximum sound source number determining step of determining a maximum number of sound sources, and wherein the sound source managing step has predetermined grouping information based on human auditory characteristics and has a sound source arranged in a three-dimensional space. 2. The sound reproducing method according to claim 1, further comprising the step of: performing grouping so that the number is within the maximum number of sound sources obtained by the maximum number of sound sources determining unit.
【請求項6】 音源を表す音データをオブジェクト記憶
部に記憶させる工程と、 音データに基づく音源を配置する位置と聞手の頭の位置
と頭の向きとを指定することにより、3次元空間内に複
数の音データに基づく音源と聞手を配置し、聞手が注目
する音データである注目音源が指定されたとき前記注目
音源に別情報を付けて再生するシーンを構成するシーン
構成工程と、 前記注目音源を表す音データを一つの注目グループと
し、前記聞手の頭の位置を原点とした前記注目音源の相
対位置を求め、前記シーン構成工程で得た前記注目音源
を除いた他の音データに関して、前記聞き手の頭の位置
を原点として前記注目音源を除いた複数の音データに基
づく音源の相対位置から、前記聞手の頭の正面方向と、
前記原点と前記注目音源を除いた複数の音源をそれぞれ
直線でつないだ方向との角度差を基準に特定の角度差内
に存在する前記注目音源を除いた複数の音源をグループ
分けする音源管理工程と、 前記音源管理工程により区分された全ての音源のグルー
プに対し、同一のグループに区分された音源の音データ
を前記オブジェクト記憶部より同一グループ音データと
して取得し、前記音源管理工程により同一のグループに
区分された音データのレベルに、前記聞手との距離が遠
い程レベルを下げる前記聞手との距離の関係を考慮した
重みづけをし、前記同一のグループに区分されて重みづ
けをされた音データを加算した他の音データに前記同一
グループに区分した時の前記角度差の平均角度差を音源
の方向とし、前記角度差をパラメータとした3次元音効
果処理を行う再生音発生工程と、 を具備する音再生方法。
6. A three-dimensional space by storing sound data representing a sound source in an object storage unit, and designating a position at which the sound source based on the sound data is arranged, and a head position and head direction of a listener. A sound source based on a plurality of sound data and a listener are arranged in a sound source, and when a target sound source, which is sound data to which the listener pays attention, is designated, a scene to be reproduced with additional information added to the target sound source And sound data representing the target sound source as one target group, the relative position of the target sound source with the origin of the listener's head as the origin, and excluding the target sound source obtained in the scene configuration step. With respect to the sound data, from the relative position of the sound source based on the plurality of sound data except for the sound source of interest with the position of the listener's head as the origin, and the front direction of the listener's head,
A sound source management step of grouping a plurality of sound sources excluding the noted sound source existing within a specific angle difference based on an angle difference between the origin and a direction in which the plurality of sound sources except the noted sound source are connected by straight lines, respectively; For all sound source groups divided by the sound source management step, sound data of sound sources divided into the same group is obtained as the same group sound data from the object storage unit, and the same sound source management step is performed. The level of the sound data divided into groups is weighted in consideration of the relationship between the distance to the listener and the level that decreases as the distance to the listener is farther, and the weight is divided to the same group. The average angle difference of the angle differences when the sound data is divided into the same group as the other sound data to which the added sound data is added is defined as the direction of the sound source, and the angle difference is defined as a parameter 3 A sound reproducing method for performing a two-dimensional sound effect process.
JP10179412A 1998-06-25 1998-06-25 Sound playback device Pending JP2000013900A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10179412A JP2000013900A (en) 1998-06-25 1998-06-25 Sound playback device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10179412A JP2000013900A (en) 1998-06-25 1998-06-25 Sound playback device

Publications (1)

Publication Number Publication Date
JP2000013900A true JP2000013900A (en) 2000-01-14

Family

ID=16065424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10179412A Pending JP2000013900A (en) 1998-06-25 1998-06-25 Sound playback device

Country Status (1)

Country Link
JP (1) JP2000013900A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001306081A (en) * 2000-03-17 2001-11-02 Sony France Sa Musical space constitution controller, musical presence forming device, and musical space constitution control method
WO2005101897A1 (en) * 2004-04-16 2005-10-27 Smart Internet Technology Crc Pty Ltd Apparatuses and methods for use in creating an audio scene
US7338373B2 (en) 2002-12-04 2008-03-04 Nintendo Co., Ltd. Method and apparatus for generating sounds in a video game
JP2008547290A (en) * 2005-06-24 2008-12-25 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Immersive audio communication
CN100542337C (en) * 2003-12-02 2009-09-16 索尼株式会社 Sound field reproduction device and sound field space reproduction system
JP2013507048A (en) * 2009-10-05 2013-02-28 ハーマン インターナショナル インダストリーズ インコーポレイテッド System for spatial extraction of audio signals
JP2017143324A (en) * 2016-02-08 2017-08-17 日本電信電話株式会社 Resynthesis device, resynthesis method, program
US20180025297A1 (en) * 2008-06-30 2018-01-25 Constellation Productions, Inc. Re-creating the sound of an audience location area from a measured performance space in a live rehearsal space
JP2019532579A (en) * 2016-10-28 2019-11-07 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Binaural rendering apparatus and method for playback of multiple audio sources
JP2021136465A (en) * 2020-02-21 2021-09-13 日本放送協会 Receiver, content transfer system, and program
JP2021153292A (en) * 2020-03-24 2021-09-30 ヤマハ株式会社 Information processing method and information processing device
JPWO2023166721A1 (en) * 2022-03-04 2023-09-07
WO2025033167A1 (en) * 2023-08-08 2025-02-13 ソニーグループ株式会社 Audio processing device and audio processing method

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001306081A (en) * 2000-03-17 2001-11-02 Sony France Sa Musical space constitution controller, musical presence forming device, and musical space constitution control method
US7338373B2 (en) 2002-12-04 2008-03-04 Nintendo Co., Ltd. Method and apparatus for generating sounds in a video game
CN100542337C (en) * 2003-12-02 2009-09-16 索尼株式会社 Sound field reproduction device and sound field space reproduction system
US7783047B2 (en) 2003-12-02 2010-08-24 Sony Corporation Sound filed reproduction apparatus and sound filed space reproduction system
US9319820B2 (en) 2004-04-16 2016-04-19 Dolby Laboratories Licensing Corporation Apparatuses and methods for use in creating an audio scene for an avatar by utilizing weighted and unweighted audio streams attributed to plural objects
JP2007533213A (en) * 2004-04-16 2007-11-15 スマート・インターネット・テクノロジー・シーアールシー・ピーティーワイ・リミテッド Apparatus and method for use in generating an audio scene
JP4848362B2 (en) * 2004-04-16 2011-12-28 ドルビー ラボラトリーズ ライセンシング コーポレイション Apparatus and method for use in generating an audio scene
KR101167058B1 (en) * 2004-04-16 2012-07-30 스마트 인터넷 테크놀로지 씨알씨 피티와이 엘티디 Apparatuse, method and computer-readable medium for use in creating an audio scene
EP1754393B1 (en) * 2004-04-16 2020-12-02 Dolby Laboratories Licensing Corporation System and method for use in creating an audio scene
AU2011200742B2 (en) * 2004-04-16 2013-05-02 Dolby Laboratories Licensing Corporation Apparatuses and Methods for use in Creating an Audio Scene
AU2011200737B2 (en) * 2004-04-16 2013-05-02 Dolby Laboratories Licensing Corporation Apparatuses and Methods for use in Creating an Audio Scene
CN101827301B (en) * 2004-04-16 2016-01-20 杜比实验室特许公司 For creating equipment and the method for audio scene
WO2005101897A1 (en) * 2004-04-16 2005-10-27 Smart Internet Technology Crc Pty Ltd Apparatuses and methods for use in creating an audio scene
JP2008547290A (en) * 2005-06-24 2008-12-25 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Immersive audio communication
JP4854736B2 (en) * 2005-06-24 2012-01-18 ドルビー ラボラトリーズ ライセンシング コーポレイション Immersive audio communication
US20180025297A1 (en) * 2008-06-30 2018-01-25 Constellation Productions, Inc. Re-creating the sound of an audience location area from a measured performance space in a live rehearsal space
US11551164B2 (en) 2008-06-30 2023-01-10 Constellation Productions, Inc. Re-creating the sound quality of an audience location in a performance space
US10984350B2 (en) 2008-06-30 2021-04-20 Constellation Productions, Inc. Modifying a sound source data based on a sound profile
US10275726B2 (en) * 2008-06-30 2019-04-30 Constellation Productions, Inc. Re-creating the sound of an audience location area from a measured performance space in a live rehearsal space
US10776724B2 (en) 2008-06-30 2020-09-15 Constellation Productions, Inc. Re-creating a sound profile of a stored acoustic space in a second acoustic space utilizing an array of speakers
JP2013507048A (en) * 2009-10-05 2013-02-28 ハーマン インターナショナル インダストリーズ インコーポレイテッド System for spatial extraction of audio signals
US9372251B2 (en) 2009-10-05 2016-06-21 Harman International Industries, Incorporated System for spatial extraction of audio signals
JP2017143324A (en) * 2016-02-08 2017-08-17 日本電信電話株式会社 Resynthesis device, resynthesis method, program
JP2019532579A (en) * 2016-10-28 2019-11-07 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Binaural rendering apparatus and method for playback of multiple audio sources
JP2021136465A (en) * 2020-02-21 2021-09-13 日本放送協会 Receiver, content transfer system, and program
JP7457525B2 (en) 2020-02-21 2024-03-28 日本放送協会 Receiving device, content transmission system, and program
JP2021153292A (en) * 2020-03-24 2021-09-30 ヤマハ株式会社 Information processing method and information processing device
JP7700470B2 (en) 2020-03-24 2025-07-01 ヤマハ株式会社 Information processing method and information processing device
JPWO2023166721A1 (en) * 2022-03-04 2023-09-07
JP7689622B2 (en) 2022-03-04 2025-06-06 株式会社デンソーテン Information processing device, information processing system, information processing method, and program
WO2025033167A1 (en) * 2023-08-08 2025-02-13 ソニーグループ株式会社 Audio processing device and audio processing method

Similar Documents

Publication Publication Date Title
US10924875B2 (en) Augmented reality platform for navigable, immersive audio experience
US6766028B1 (en) Headtracked processing for headtracked playback of audio signals
JP7597133B2 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, AND PROGRAM
JP2000013900A (en) Sound playback device
KR20200047414A (en) Systems and methods for modifying room characteristics for spatial audio rendering over headphones
CN113821190B (en) Audio playing method, device, equipment and storage medium
US20070160216A1 (en) Acoustic synthesis and spatialization method
US7327848B2 (en) Visualization of spatialized audio
CN115206283A (en) Audio processing method, device and computer equipment
JP2024512493A (en) Electronic equipment, methods and computer programs
Malham Toward reality equivalence in spatial sound diffusion
Huopaniemi et al. DIVA virtual audio reality system
CN115038029A (en) Rendering item processing method, device and equipment of audio renderer and storage medium
WO2021140951A1 (en) Information processing device and method, and program
JP2000010756A (en) Computer and recording medium to which a plurality of speakers can be connected
Bargum et al. Virtual reconstruction of a the ambisonic concert hall of the royal danish academy of music
Nazemi et al. Sound design: a procedural communication model for VE
Pachet et al. A mixed 2d/3d interface for music spatialization
US20230413001A1 (en) Signal processing apparatus, signal processing method, and program
EP4607964A1 (en) Acoustic signal processing method, computer program, and acoustic signal processing device
CN117998274B (en) Audio processing method, device and storage medium
US20250032921A1 (en) Method For Processing 3D Audio
US20240098442A1 (en) Spatial Blending of Audio
Gutiérrez A et al. Audition
CN1244094A (en) Three-dimensional sound effect processing system and method